元爬虫類屋のレオパ担当だったので千匹くらい世話した経験上の話になります。
元爬虫類屋のレオパ担当だったので千匹くらい世話した経験上の話になります。
SFでAIには出来ないこと、はよく芸術だと思われていた。しかし、実際には「ユーモア」と「モラル」がAIには出来ないことなのだ。そして、これらがAIに出来ない理由は「答えがないことを考え続ける」必要があるためだ。
陰謀論などに負けず、安易な答えに逃げず、考え続けることが人間に残された最後の能力になる。と思ってる。
SFでAIには出来ないこと、はよく芸術だと思われていた。しかし、実際には「ユーモア」と「モラル」がAIには出来ないことなのだ。そして、これらがAIに出来ない理由は「答えがないことを考え続ける」必要があるためだ。
陰謀論などに負けず、安易な答えに逃げず、考え続けることが人間に残された最後の能力になる。と思ってる。
囲碁や将棋のAIなら、勝ち負けの目標を設定する必要があるし、画像生成AIなら学習する絵を人間がラベリングする必要がある。
問題は人間はモラルを評価できないコト。有名な「トロッコ問題」のように、正義とは個人によって意見が別れるのは普通。人間は正義を正確にラベリングできていない。そして、ラベリング出来ないものをAIは学習できない。
目標を設定したとして、その目標は明確でなければならない。人類の幸せを設定するには、幸せとはなにかを説明する必要がある。
明確な定義がないので教えられない。
囲碁や将棋のAIなら、勝ち負けの目標を設定する必要があるし、画像生成AIなら学習する絵を人間がラベリングする必要がある。
問題は人間はモラルを評価できないコト。有名な「トロッコ問題」のように、正義とは個人によって意見が別れるのは普通。人間は正義を正確にラベリングできていない。そして、ラベリング出来ないものをAIは学習できない。
目標を設定したとして、その目標は明確でなければならない。人類の幸せを設定するには、幸せとはなにかを説明する必要がある。
明確な定義がないので教えられない。
ミュージカル調、病気の母、親孝行の息子、試練、願いを叶える神様。ときたら容易に予測できるパターンは「病気の母を治すため、試練を乗り越えた孝行息子のお伽噺」である。ここに「巨大なイチモツは男のロマン」という予想外のパターンを「発見した」時、笑いに変わる。
発見もポイントで、笑いを説明されるとマジでつまらない。自力で発見しないと笑えない。
現状の方法だとAIには「予想外」が学習できない。何故ならパターンの予測を学習しているから。
ミュージカル調、病気の母、親孝行の息子、試練、願いを叶える神様。ときたら容易に予測できるパターンは「病気の母を治すため、試練を乗り越えた孝行息子のお伽噺」である。ここに「巨大なイチモツは男のロマン」という予想外のパターンを「発見した」時、笑いに変わる。
発見もポイントで、笑いを説明されるとマジでつまらない。自力で発見しないと笑えない。
現状の方法だとAIには「予想外」が学習できない。何故ならパターンの予測を学習しているから。
この状況でAIによる選別作業のできない規制を敷くとなると、完全手作業になるし、そうなると作業者側の思想反映防止方法も必要になる。現実的とは言えない。動画投稿サイト自体の完全規制の方が現実的。実質、中国のような監視社会の形成しかないので、個人的にはやめてほしい。
この状況でAIによる選別作業のできない規制を敷くとなると、完全手作業になるし、そうなると作業者側の思想反映防止方法も必要になる。現実的とは言えない。動画投稿サイト自体の完全規制の方が現実的。実質、中国のような監視社会の形成しかないので、個人的にはやめてほしい。
ここにAI選別作業が不可能なラベリングを持ち込もうとするのは(おそらく数万人規模の雇用になるため)現実的な範疇を超えるので、あらゆる動画投稿サイトを規制して締め出す中国のような監視社会の形成か、Youtube閉鎖の二択かと思われる。
AI機械学習の新たな手法を編みだすのが一番現実的な解決策だと思われるが、そうなると今度はシンギュラリティレベルのアイディアが必要。
ここにAI選別作業が不可能なラベリングを持ち込もうとするのは(おそらく数万人規模の雇用になるため)現実的な範疇を超えるので、あらゆる動画投稿サイトを規制して締め出す中国のような監視社会の形成か、Youtube閉鎖の二択かと思われる。
AI機械学習の新たな手法を編みだすのが一番現実的な解決策だと思われるが、そうなると今度はシンギュラリティレベルのアイディアが必要。
つまり、現状の機械学習の方法だと絶対に出てこないものがジョーク。AIにジョークは学習できない。
なので「ジョークはいいけどデマは駄目」はAIには区別困難。これを基準に絡ませる規制は、YouTubeのシステム上、できないんだと思われる。
つまり、現状の機械学習の方法だと絶対に出てこないものがジョーク。AIにジョークは学習できない。
なので「ジョークはいいけどデマは駄目」はAIには区別困難。これを基準に絡ませる規制は、YouTubeのシステム上、できないんだと思われる。
ただ、小説の場合は単なる作者のミスって可能性が普通にありえるんだよ。つっても、AIはキャラに物理的不可能(壁越しに抱きつくとか)を平気でやらせるから、今のところはすぐ区別つくし、多分この点は何か技術革新ない限り改善が難しいから多分大丈夫だけどね。
ただ、小説の場合は単なる作者のミスって可能性が普通にありえるんだよ。つっても、AIはキャラに物理的不可能(壁越しに抱きつくとか)を平気でやらせるから、今のところはすぐ区別つくし、多分この点は何か技術革新ない限り改善が難しいから多分大丈夫だけどね。