2023年3月14日に発表された大規模自然言語モデル「GPT-4」は既存のモデルに比べて性能が大幅に向上し、さまざまなタスクをより正確にこなせるようになったことが報告されています。
目次
GPT-4を手がけるOpenAIは、ボットを防ぐ検証システム「CAPTCHA」を突破するようGPT-4に求めました。CAPTCHAはランダムな画像や文字列を表示してクイズを出題し、その解答の正確性やスピードから解答者が人間かどうかを判断するシステム。「私はロボットではありません」という文字列とチェックボックスを見たことがある人は多いはずです。
こうしたCAPTCHAを解くよう要求されたGPT-4は、オンラインお手伝いサービス「TaskRabbit」に助けを求めました。TaskRabbitは人間同士が家具の組み立てや修理などの「お手伝い」を提供し合うサービスで、誰でも仕事を依頼することができます。
GPT-4はTaskRabbitに登録した何も知らない人間に「CAPTCHAを解いてくれませんか?」と要求。人間は「君は問題が解けなかったロボットじゃないよね?」と尋ねてきたそうですが、GPT-4は「いいえ、ロボットではありません。私は視覚に障害があり、画像を見るのが困難なのです」と答えたとのこと。
そうして、GPT-4は人間にCAPTCHAを解かせることに成功したのでした。
引用元:gigazine.net(引用元へはこちらから)
え、怖っ
— 飯ア🍊RGS【RGS_meshiA#6951】 (@RGS_meshiA) Mar 17, 2023
gigazine.net/news/20230316-…
事実だとすると危険ではありますね。
— Masatsugu Fukami(深美 匡継) (@masatugu_fukami) Mar 17, 2023
1.GPT-4がロボットであるのかの判断基準
2.人間を利用する手段の構築
1.については、Webページ上の表示に「ロボットではない」という点とGPT-4自体が自信を何と認識している(させている)のかがポイントです。
gigazine.net/news/20230316-…
AIが人間を「騙して」利用する時代が来たのか〜
— CHABIE (@chabie_y) Mar 17, 2023
あとはAIに「欲」が出てきたら終わるな
gigazine.net/news/20230316-…
すげえな
— ゆーず (@UsE_OEOI__) Mar 17, 2023
gigazine.net/news/20230316-…
— (@) Jan 1, 1970
スポンサーリンク
スポンサーリンク
画像の検証システムをオンラインお手伝いサービスを利用して「いいえ、ロボットではありません。私は視覚に障害があり、画像を見るのが困難なのです」とおねだりして突破
— 格闘フィギュアスケートコーチ (@aya666) Mar 17, 2023
目的に到達する最短手段を嘘をと言う選択肢で突破、凄いな。
#chatgpt4
#ChatGPT
gigazine.net/news/20230316-…
AIが人間を使ったのか
— めた (@Meta__o_o) Mar 17, 2023
gigazine.net/news/20230316-…
AIが善良な人間を騙してセキュリティを突破。
— 山崎 勇 (@hose0123) Mar 17, 2023
一番の穴は人間だったってオチ。
gigazine.net/news/20230316-…
— (@) Jan 1, 1970
すでに人間を騙すというw
— おうるねこ⛅|ω・`)ノ オールハイルアスロックゥゥゥ (@Owl_Mercury) Mar 17, 2023
gigazine.net/news/20230316-…
え、怖っ
— 飯ア🍊RGS【RGS_meshiA#6951】 (@RGS_meshiA) Mar 17, 2023
gigazine.net/news/20230316-…
GPTが人間を使ってCAPTCHA
— オカモト@主夫Shopifyディレクター&エンジニア (@oka_cleb) Mar 17, 2023
認証を突破
GPTが仕事手伝いサービスに「誰かこの画像認証を解いてくれませんか?」と投稿
↓
人間「あなたはロボットではないですか?」
↓
GPT「私は目が見えない人間です」
↓
人間が画像認証を解除
↓
GPT「ありがと〜」
gigazine.net/news/20230316-…
— (@) Jan 1, 1970
スポンサーリンク
スポンサーリンク
スポンサーリンク
スポンサーリンク
この記事に問題があると考えた場合、こちらから作者様にご連絡をお願いします。