AIの間違いを激怒.mp4ChatAIなんて本当に糞。
大学3年生レベルの知識しかないし、
医師国家試験や司法試験の問題を出題すると当たり前の問題で間違えまくる。
おまけに認識能力もない。
copilotに、このサプリメントにビタミンCは何mg入っているかと問うても、入ってないと答えるからな。URLを見せて、原材料にビタミンCと書いてあるのに、ビタミンCは入っていないと何度も同じ答えしか返さないから。
嘘ばかりついて人を騙そうとしている。
こんなバカに人間は頼るな。
ネットリテラシーというのだが、ネット情報は、嘘が多く書いてあって、医学なんか専門的な分野になると全然公開されていないのだ。例えば術式なんか出てこないよな。
よって、そんなちんぷんかんぷんのその辺の大人の常識をつめこんだAIを出してくるのではなくて、各分野の大学教授の頭脳をつめ込んで、きちんと医師免許や司法試験をはじめ、色んな国家試験に合格したもの、それも満点を取得できるAIを使え。
こいつらの話を信じていると人が死ぬぞ。安易に嘘を答えるから注意しろ。油断してるAIだ。医師としての経験がないから、普段潜んでいる1手ミスの恐さを知らない。