大盛半チャーハン
banner
big-half-f-rice.bsky.social
大盛半チャーハン
@big-half-f-rice.bsky.social
デカい犬はいいぞ
たぶん寒いから。ウンチしたら「よし、帰るぞ!」って帰宅しようとするし、帰り道ほとんどダッシュ。服着せたらたぶん収まる。
December 13, 2025 at 10:37 PM
なんでこんな写真なの? 座ってる時以外は動いてるから。
November 24, 2025 at 6:24 AM
単純に寒さでカロリー使うのと、体内の水分が増えると尻尾も太りやすいです。なので、温度と湿度が快適範囲内で高めになれば、レオパの尻尾も太ります。あとは餌の頻度上げるとかですかね。
元爬虫類屋のレオパ担当だったので千匹くらい世話した経験上の話になります。
November 23, 2025 at 1:54 PM
餌よりも温度を上げる。特に空気の温度を意識して。湿度も少し高めに。そうすると太りやすいです。
November 23, 2025 at 1:08 PM
この意味で、日本はAIの最前線をひた走る可能性がある。何故なら、日本ほどモラルを正確に理解している国は少ない。子供向け番組で「正義の反対は別の正義」を当然のようなテーマの一環に据えているのは日本くらいだ。

SFでAIには出来ないこと、はよく芸術だと思われていた。しかし、実際には「ユーモア」と「モラル」がAIには出来ないことなのだ。そして、これらがAIに出来ない理由は「答えがないことを考え続ける」必要があるためだ。
陰謀論などに負けず、安易な答えに逃げず、考え続けることが人間に残された最後の能力になる。と思ってる。
November 12, 2025 at 7:52 PM
次にモラル。「機械学習は完全な手放し学習はできない」どこかで人間が評価したり教えたりする必要がある。
囲碁や将棋のAIなら、勝ち負けの目標を設定する必要があるし、画像生成AIなら学習する絵を人間がラベリングする必要がある。

問題は人間はモラルを評価できないコト。有名な「トロッコ問題」のように、正義とは個人によって意見が別れるのは普通。人間は正義を正確にラベリングできていない。そして、ラベリング出来ないものをAIは学習できない。
目標を設定したとして、その目標は明確でなければならない。人類の幸せを設定するには、幸せとはなにかを説明する必要がある。
明確な定義がないので教えられない。
November 12, 2025 at 7:52 PM
容易に予測できるパターンから外れて別のパターンを発見した時に、人間はユーモアを感じる。というのを分かりやすく説明すると、どぶろっくの「大きな一物」がわかりやすい。

ミュージカル調、病気の母、親孝行の息子、試練、願いを叶える神様。ときたら容易に予測できるパターンは「病気の母を治すため、試練を乗り越えた孝行息子のお伽噺」である。ここに「巨大なイチモツは男のロマン」という予想外のパターンを「発見した」時、笑いに変わる。

発見もポイントで、笑いを説明されるとマジでつまらない。自力で発見しないと笑えない。

現状の方法だとAIには「予想外」が学習できない。何故ならパターンの予測を学習しているから。
November 12, 2025 at 7:52 PM
現時点で既に微妙な範疇、グレーゾーンの規制は非常に後手に回っていて、例えばあるYoutuberは「アンパンマン号(幼児向けの足漕ぎ車)で琵琶湖一周」などアンパンマングッズを使った無謀な企画をよく実行していた所、Youtubeから「kids」ラベルを貼られてしまい、異議申し立てとラベル撤回のやり取りで半年以上トラブっていた。

この状況でAIによる選別作業のできない規制を敷くとなると、完全手作業になるし、そうなると作業者側の思想反映防止方法も必要になる。現実的とは言えない。動画投稿サイト自体の完全規制の方が現実的。実質、中国のような監視社会の形成しかないので、個人的にはやめてほしい。
November 9, 2025 at 9:13 AM
所が今の時点の規制ですら手が回っていない。例えば「アンパンマン号で琵琶湖一周」などの企画を実行するとあるYoutuberは、「子供向け」ラベルを剥がすだけで半年以上Youtube側とのやり取りを繰り返すことになってた。

ここにAI選別作業が不可能なラベリングを持ち込もうとするのは(おそらく数万人規模の雇用になるため)現実的な範疇を超えるので、あらゆる動画投稿サイトを規制して締め出す中国のような監視社会の形成か、Youtube閉鎖の二択かと思われる。

AI機械学習の新たな手法を編みだすのが一番現実的な解決策だと思われるが、そうなると今度はシンギュラリティレベルのアイディアが必要。
November 9, 2025 at 9:06 AM
機械学習って物事のパターンを読み取り、傾向から次を予測する。という学習をしたAIを作っているわけだけど、ジョークってこのパターンを、「敢えて外す」「別の全然違うパターンと合致させる」「常識的には外れるはずのパターンを敢えて続行させる」といった手法で認知のズレを引き起こすこと。これが笑いになる。
つまり、現状の機械学習の方法だと絶対に出てこないものがジョーク。AIにジョークは学習できない。
なので「ジョークはいいけどデマは駄目」はAIには区別困難。これを基準に絡ませる規制は、YouTubeのシステム上、できないんだと思われる。
November 9, 2025 at 8:53 AM
個人的にはAIが書いたこと、を理由に却下するのはダメで、ハルシネーションを理由に却下する方が建設的だと思うんだけど……。存在しない論文の引用とかなら、AIがどうのではなく筆者のミスになる。
ただ、小説の場合は単なる作者のミスって可能性が普通にありえるんだよ。つっても、AIはキャラに物理的不可能(壁越しに抱きつくとか)を平気でやらせるから、今のところはすぐ区別つくし、多分この点は何か技術革新ない限り改善が難しいから多分大丈夫だけどね。
October 30, 2025 at 4:31 AM