Opinion : 画像生成 AI で遊んでみて思ったこと (2023/10/23)
 

ときどき、画像生成 AI で遊ぶことがある。IT 分野のメディアは毎度の恒例で、「これでもかこれでもか」と生成 AI ネタで煽ってくるけれども、それに釣られても良いことはない。

流行り物だからといって、何でもそれを使えば解決するとは限らないし、他にもっとマシなソリューションがあるかも知れない。自分なりに「こういう場面では役に立つよね」というシチュエーションを見つけて、それに合わせて使えばよろし。

だって、これもあくまでツールのひとつであって、それを使ってどんな問題解決をするかが本題。ツールを使うこと自体が目的になったり、ニュース種になったりしているうちは、まだまだ未成熟。


で。実際に使ってみると、なかなかトンチキな画を出してくることもあれば、意図に近い画を出してくることもある。サーチ猿人 サーチ エンジンと同じで、キーワードの指定によって、結果はだいぶ左右される模様。

だから、一発で意図した通りの結果が出なくても、キーワードを変えたり日本語から英語にしたりと工夫すると、結果は違ってきそう。そんな感触。

ひとつ「これは役に立つな」と思ったのは、現実には存在しない、あるいは存在したとしても画にするのが難しいシチュエーションで、雰囲気画をでっち上げるような使い方。たとえば、「海でダイオウイカに襲われる潜水艦」みたいなやつ。

ただ、AI が絡むと難しいなと思うのは… たとえば、ある時点ではダメダメだったものが、その後の学習によって大化けする可能性はありそう。逆に、良くないものを食べさせられて、AI がお腹を壊す可能性もあり得よう。

つまり、ある時点での評価が固定的なものにならない。だから、(これはどこかで書いたような気がするけれど) AI に依存するシステムはテストが難しくなる可能性があると思っていて。

ある時点で意図した通りに機能していたものでも、その後の学習によってウスラトンチキになったり、その逆になったりしないかと。そんなことになったら、テスト ケースを作るのが死ぬほど面倒になりそう。

なんてやっているうちに、「AI をテストするための AI」が出現して、さらに「AI をテストするための AI をテストするための AI」が出現して… (おい

たぶん、DoD が AI 五原則に絡んで「説明責任」みたいな話を出してきたのも、ひとつには、そういう「AI のウスラトンチキ化」「AI の勝手な暴走」に対するストッパーが要る、という認識があるからじゃなかろうか。


社会的・政治的状況によっては、そもそもの拠って立つ基盤であるところのデータ セットに、なにかしらの外的介入が発生しそうでもある (いや、もうすでに起きているのではないかな)。あと、えてして善玉よりも悪玉の方が悪知恵が働くものなので、悪用の事例も増えてくるだろうし。

どんな分野にもいえることで、技術の進歩は往々にして法規制の枠組みを飛び越えてしまうし、過去の常識では想像できなかったような利点もトラブルも作る。そして、新しい技術や製品やサービスにのめり込みすぎて、一面的な視点から煽り立てる急進的過激派も出てくる。

声がデカくなりがちなのは、狂信的に「規制緩和」みたいなことを言い立てる人達だけれども、それを真に受けたらロクなもんじゃない。そもそも、この手の人達は「最先端技術に感度が高いワタシ」を愛しているだけだから、トレンドが変わればあっさり気が変わる。

大事なのは、一歩退いて冷静かつ俯瞰的に物事を眺めて、「どう使えば (プラス | マイナス) になるか」「これを問題解決にどう役立てるか」を判断できる人がいることなのかも。それには、まず普遍的な「理念」「思想」「哲学」(軍隊式にいえばドクトリンか ?) を持っている必要がある。それが、個々の技術や製品を実際的な問題解決につなげる羅針盤になるのでは。

Contents
HOME
Works
Diary
Defence News
Opinion
About

| 記事一覧に戻る | HOME に戻る |