https://tech.nikkeibp.co.jp/atcl/nxt/column/18/00359/071100004/
こことか
http://weekly.ascii.jp/elem/000/000/400/400673/
で話題になっていたAIテストツールMagic podというのが非常に興味深いので少し使ってみてレポートしたい。
まずこちらへGo
https://magic-pod.com
Githubのアカウントでログインできるので「無料版を使ってみる」から登録してみる。(Githubのアカウントなしでも普通にメールで登録可能。)
組織名とproject名とテスト名を聞かれるので適当に登録し、
Create。
・・・デフォルトで英語??つらいので日本語に設定変更(^^♪
・・・あれ?見当たらない。。。動画等では日本語のインターフェースになっているようなので、日本語インターフェースも用意されてるんだと思うが、メニュー全部見ても日本語への設定変更の項目が私には見つけられなかった@2018年7月現在。。。
しょうがないので今日は英語のまま行く。
今回はAndroid携帯を動かしてみようと思う。
まずはPC側の環境構築が必要。
「Magic Pod Desktop」なるパッケージが必要とのことでダウンロードしてみる。
https://www.trident-qa.com/magic-pod-help/
Android studioも必要
https://www.trident-qa.com/magic-pod-android-set-up/
この手順に従って、JavaとAndroid SDK一式(tools, platform-tools, build-tools, API)をインストール。
・・・と、恥かしながらここまでやってから気づいた「なお、Windows PCは未対応です。」との表記・・・( ;∀;)
うーん。最近MACのシェアが馬鹿にならないくらい上がってきているとは聞いていたが。。。うーん。
仕方がないので、実機を動かすのは諦めて、AIと呼ばれている部分、画面の画像からUIを抽出する部分を弄ってみたい。
まずは、Yahoo乗換案内。
この画像を読み込ませてみると・・・
こんな感じで読み込まれ、基本的にすべてのUIを識別出来ていた。すばらしい!
まぁこれは境界がくっきりしていてわかりやすいし、楽勝か。
もうちょっと難しそうなゲーム画像を用意してみる。
Age of CivilizationsというAndroidゲーム。
こちらも明確なボタン類は大体行けているようだが、地図の境界はやはりちょっと難しい様だった。
とはいえ人間と比べたらまだまだにせよ、かなり高確率でUIを認識してくれているように見える。
この後の作業としてはキーワード駆動テストの様な要領で、アクションを選択後、UIをドラッグ&ドロップし登録することで、簡単にテストスクリプトが書ける様になっている。
↓こんなイメージ。
・・・というわけで環境の都合で(MAC持ってない)動作確認まではできなかったが全体の所感としては、現時点では「UI認識に画像解析AIを用いたキーワード駆動テストフレームワーク」といえるものであると理解できた。
(ASCIIの記事なんかを見ると「AIで自動ソフトウェアテストを実現するウェブサービス「Magic Pod」」等というタイトルが記載されており、テスト対象分析~テスト設計~実行までAIがカバーするかの様な印象を惹起させるが、これは少なくとも現時点では実現されておらず、誤解の元になりかねない。)
とはいえ、ゆくゆくはゲーム攻略AIみたいな仕掛けと組み合わせてテスト実行とかまでAIが支援できるようになると、素晴らしいことになりそうだ。
0 件のコメント:
コメントを投稿