このニュースレターでは、クリプト関連の情報収集を効率化したい方に向け、話題のプロジェクトやトピックをやさしく解説しています。情報収集にぜひお役立てください。
Main Topic:AIはどのように規制される可能性があるのか
ChatGPTのような生成型AIを活用して簡単な入力作業から、文章の要約、翻訳、解説から、プログラムコードの生成など、これまで時間のかかる作業を一瞬にして完成させてしまうツールが登場しました。Notion AIもすごく便利でかなりお世話になっています。
リサーチャーとしては、非常にありがたい相棒が増えたという気持ちもありますが、どちらかといえば、「自分の仕事のいくつかの部分をAIに代替されてしまうのではないか?」という漠然とした危機感を感じています。
では具体的にどのような危機が訪れるのか?と考えてみてもはっきりと思い浮かべるには、十分な知識がぼくには無いと気がついたのです。
クリプトリサーチャーとして働きつつ、GPT3を用いてスプレッドシートを用いて簡易的なリサーチシートを作成するくらいには興味を持って実践しています。しかし、これはあくまで小手先のものでありAIの本領発揮はこんなものではないのではないか?というのがぼくの所感であり、クリプト業界にも将来的に少ならからずのインパクトをもたらす可能性の高い領域になっていくであろうと予想しています。
そこで、このニュースレターはクリプトに関する情報を主に取り上げていますが、クリプトを把握していく上で、今後大きく関連してくる可能性が高いAIの領域についても触れていきたいと考えています。
今回は、「AIがどのように規制される可能性があるか」について、現状をリサーチしてみましたので、ぼくの意見と併せてシェアします。
参考記事:Generative AI is a legal minefield
AIに関する規制の現状
そもそもなぜAIを規制する必要性があるのでしょうか。あまり具体的イメージがわきにくいですよね。もちろん議論の余地があるところではありますが、例えば、
AIを開発している企業が、他の企業のシステムの内容を学習した場合、そのデータを使用する権利はAI開発企業側にも認められるのか
AIによって生成された文章、画像などのコンテンツに著作権が認められるのかどうか
AIが差別的、抽象的な情報を出力した場合によって生じた損害の責任を誰が負うか
といった問題が考えられます。
まだChatGPTやMidjourneyが流行ったばかりなので、そこまで日本で話題にされることはありませんが、次第にこれらAI規制の問題は取り上げられていくことになるでしょう。
AIが規制される可能性がある領域
しかし、イノベーションの加速にこれらのAIを用いたソフトウェアが貢献する領域は幅広く、ホワイトカラーの生産性の向上にも期待が寄せられています。そのため、適切な規制やユーザーが身を守るための知識が必要になると考えられます。これはクリプトと一緒ですね。
以下に、代表的なAIの規制が検討されている例や領域について解説します。
EUのAI法
AI開発者はデータに権利使用料を払うべきか
AIによって生成されたアウトプットは著作権によって保護されるのか
AIが生成した文章は誹謗中傷になりうるのか
AIが個人情報や偽の情報を提供した場合誰が責任を取るのか
順番にみていきましょう。
1. EUのAI法
欧州では、広範な領域にまたがるAIに関する法律草案の検討が進められています。対象領域は以下が例です。あくまで検討されている段階のものです。
人に危害(影響)を加える可能性が高い利用について特別なチェックを義務付けるもの
試験の採点
従業員の採用
法律や司法に関する判断
公共の場での顔認証
などとなります。
ロイターの記事でも報じられていますが、ChatGPTをきっかけにユーザーがAIへ信頼ができるようにリスクに対処するための規制が検討されているようです。
参考:「チャットGPT」リスクにAI規則で対処=ブルトン欧州委員
2. AI開発者はデータに権利使用料を払うべきか
おそらく、このEUのAI法は著作権侵害のような予期しないトラブルを防止するなど、ユーザーを守る目的など、様々なガイドラインを示すものになるだろうと考えられます。
そこでこれまで議論がなされている分野があります。それは、AI開発者はデータに権利使用料を払うべきかという問題です。AI開発する企業側は、教育データ(AIが学習するデータ)を提供してもらっている場合、その対価を支払う必要性はあるのでしょうか。
現時点では、CNNやウォール・ストリート・ジャーナルといった有名なメディアが、OpenAI(ChatGPTを開発した団体)に対して、テキストジェネレートにおける教育データとして使われたとして法的問題提起しています。
参照:OpenAI Is Faulted by Media for Using Articles to Train ChatGPT
各メディアの利用規約では、自社の記事を使用することは規約違反に当たるとされることがあり、OpenAIは教育データ使用料を支払うべきだと主張する者もいると上記の記事では報じてます。メディア業界は特にAIによって仕事を奪われる可能性を危惧しており慎重な姿勢を取っているのかもしれません。
3. AIによって生成されたアウトプットは著作権によって保護されるのか
ロイターが報じた記事では、米国の著作権局が画像生成AIのMidjourneyによって生成された画像は、著作権によって保護されないとの意見を示しているそうです。
参照:AI-created images lose U.S. copyrights in test for new technology
これは、AIに関する著作権保護の範囲について、初めて判断を示したものであるようです。何らかの創造性のある部分について著作権が発生する可能性はあるものとしています。単純にAIによって生成された対象と区別されています。
GPT3を使えば、大量の誤った情報を含んだブログや動画を量産されることも起こり得るため、誤った情報を敢えて拡散する行為も恐らく対象領域は狭いでしょうが規制されるのではないかと考えられます。ただし、どれくらいのものが問題なのかという線引きが難しく、”表現の自由“との兼ね合いもあり落とし所が難しそうな分野であることは想像できます。
ぼくらに現時点でできるのは、信頼性の低いブログやニュースサイトを見抜き、誤った情報を識別する能力を身につけることです。これはインターネットを利用する上では非常に重要なリテラシーですが、AIによってコンテンツの情報が爆発的に膨張していく今後を考えても、より一層重要なスキルとなることでしょう。
4. AIが生成した文章は誹謗中傷になりうるのか
AIは人間ではないので、名誉毀損という罪は成立しないですが、誹謗中傷という個人の主観に基づいた価値判断によるものによる倫理的不調和や摩擦はプラットフォームにおいて起こり得ると考えられます。さらにAIによって生成されたコンテンツ(ChatGPTによって作成された文章など)が、これまでSNSプラットフォームを守る法律として知られていたルール*が適用されないとすれば、AIによって生成された文章表現を原因としたAI開発者に対する批判は広がる可能性が高いです。
参考:Section 230 Won’t Protect ChatGPT
その昔、2016年にマイクロソフトが公開したAIチャットボットは、ユーザーがこのチャットボットに差別発言を教育させた事によって別のユーザーに人種差別・半ユダヤ主義、女性差別などの暴言を応答する事故が起こされ、サービス終了となり実験が行われなくなってしまったそうです。ネットによる誹謗中傷は日本のお家芸のような印象がありましたが、海外でも激しい事例があるのですね。
参考:Twitter taught Microsoft’s AI chatbot to be a racist asshole in less than a day
5. AIが個人情報や偽の情報を提供した場合誰が責任を取るのか
上記の問題とも関連しますが、AIが生成した文章が誤情報や誹謗中傷など差別的表現が含まれるとしたらその責任は誰が負うのでしょうか。
OpenAIもマイクロソフトも、生成型AIによって、捏造や間違った情報が提供される可能性があることを既に警告しています。しかし、個人情報、偽の情報いずれについても、現時点で法的に誰が責任を負うべきなのかについて明確な基準がありません。
ChatGPTでは、OpenAIがドキュメントで表しているように「危険なワードや偏見や増悪に満ちた言葉」だと判断される言葉は🤬にリプレイスされるそうです。
また、GPTのような汎用型のAIであっても、個人の電話番号を記憶している場合があるということが以下の記事で解説されています。そのほとんどはない、とのことですが、稀にあるの度合いによっては問題視されそうです。
参考:Does GPT-2 Know Your Phone Number?
クリプトへの影響はどのように現れるのか
以上のAI規制関連の話題に絡めて、クリプトにどのような影響があるのかについて、ぼくの意見を書いておきたいと思います。
結論からいうと、AIの規制関連でクリプトに”現状では”大きな影響をもたらす懸念はあまりないと考えています。
なぜなら、クリプトもAI同様にこれから規制の枠組みが決まっていく段階にあり、例えば「AIに対する規制がここまで設定されたから、クリプトも同等のレベルで規制を」のように議論が展開される接点が無いからです。ただし、AIによって生成されたクリプトプロジェクト、DeFiプロトコルなど、その活動そのものをAIに委ねた組織形態の団体が現れた場合、その法人格の有無・所在地などの問題は起こりうると考えています。
ぼくの知る由もないところですでにそういったAIドリブンのプロジェクトがあったら申し訳ですが、少なくとも法的な議論は”まだ”起きていないという認識をしています。
今後は、AIにおける教育データの対価支払問題、著作権、個人情報の取扱いといった分野がAI規制の主なフィールドになりそうなため、少なくとも2023年はクリプトの規制(アンチマネロン、ステーブルコインなど)の領域には影響なさそうです。
もちろん、ChatGPTなどが、クリプトのプロダクトそのものや、チームの生産性にもたらす影響は、他の業界と等しく小さくないものだと考えられますので、その点では目に見える変化が引き続き起きていくことでしょう。もしかしたらリサーチャーという業務はオワコンになってしまう可能性もあるかもしれません。そうならないように、リサーチャーの意味について考えていきたいと思っています。
以上、「AIはどのように規制される可能性があるのかについて」でした。
これらの領域は将来規制が整備されより統一的なガイドラインが必要な分野だといえるでしょう。日本では海外の事例を参考に法案が作られそうなので、EUや米国の動向は参考になると思います。
以下の「Subscribe」をクリックするとメールでこのコンテンツが届きます。バックナンバーはこちらからご覧いただけます。
Podcastでは、クリプトの面白いところ話しながら、クリプトリサーチャーの日常をゆるく深堀りしております。最新エピソードはこちらからご視聴いただけます。stand.fmではメンバーシップもやっています。
免責事項
このニュースレターは、教育目的の情報提供を主旨としており、金融に関するアドバイスではありません。ご自身での調査やデューデリジェンスが必要です。