
飼い主、最近スマホを買い替えまして。
iPhone16 proにして、Apple Intelligenceのビジュアルインテリジェンス(というのかな)が使えるようになりました。
気になるものの写真を撮って、Google検索で調べたり、Chat GPTに質問したり、身のまわりの気になりごとを色々調べられるAIです。
iPhone15から使えたようなのでご存じの方も多いのかもですが、初体験の飼い主、まずはゆうちゃんを撮って質問してみたところ、その返答がなかなか優秀!
たとえば…

これなんか、人の手をちゃんと「飼い主」の手だと判断してます。
仕草の説明はもちろん、猫さまがこの仕草をするぐらいだから飼い主だろう、までちゃんとわかっている。

2回連続で質問すると、同じ猫だという判断もできるし

キャットタワーをがっつり入れると、そっちをメインで解説してくれるし

これぐらい顔が奥でブレていても、ちゃんと猫さまであると判定でき、
けりぐるみの判定もお手のもの感。

向きは縦横どちらでもいけて、
そしてこの向きでも「とても幸せそう」という解説🥰
この使い方をしている限りはChat GPTに聞いているだけといえばそうだと思うので、AppleのAIがすごいというよりChat GPTがすごい!といった方が正しいのかもしれないけど
でも、いつもの写真を撮るようなノリ+1タップでこんなに調べられるとは、Appleもすごいよなー。
ちょっと恐ろしさも感じつつ、でも次は録画したら声も含めて判断できるという世界に期待しちゃいます。
猫さまの音声判断AIといえばMeowTalk改めにゃんトークがすでにありますが…
表情やシチュエーションと音声とをあわせて判定できたら、また違う結果が出そうですよね😼
▼ブログランキングに参加してます。
お時間ありましたら応援の1クリック、よろしくお願いします( ´ᆺ`)









