banner
ニュース センター
完全なビジネス

「道義的責任」: ブロックチェーンは本当に AI への信頼を高めることができるのか?

Dec 08, 2023

ほとんどのテクノロジー革命には、予期せぬ暗い側面が伴います。オーストリア生まれの物理学者リーゼ・マイトナーとオットー・フリッシュが1930年代後半に初めて原子を分割したとき、おそらく彼らは、その発見が数年後に原爆につながるとは予想していなかったでしょう。 人工知能 (AI) 革命もおそらく同じです。

AI アルゴリズムは数十年前から存在しています。 最初の人工ニューラル ネットワークであるパー​​セプトロンは 1958 年に発明されました。しかし、最近の開発のペースは驚くべきもので、Alexa などの音声認識デバイスや ChatGPT などのチャットボットにより、AI は新たな一般の認識を得たようです。

良い面としては、AI は地球の一般教育レベルを劇的に引き上げ、アルツハイマー病のような壊滅的な病気の治療法の発見に役立つ可能性があります。 しかし、それは雇用を奪い、国民監視に利用できる独裁国家を強化する可能性もある。 さらに、もし機械が「一般的な」知能を獲得することができれば、選挙を覆して戦争を遂行するよう訓練されることさえあるかもしれない、とAIの先駆者ジェフリー・ヒントンは最近警告した。

「巨大な可能性と巨大な危険」は、ジョー・バイデン米国大統領が最近 AI を表現した言葉です。 これは、イーロン・マスク氏やスティーブ・ウォズニアック氏を含む1,000人以上のテクノロジーリーダーがChatGPTのようなAI開発の一時停止を求める3月の公開書簡に続くものだった。 この技術は「社会と人類に重大なリスク」をもたらすと彼らは述べた。

AI に関して言えば、私たちは責任あるイノベーションをサポートするとともに、人々の権利と安全を守るための適切なガードレールを確保する必要があります。私たちの政権は、アルゴリズムの偏りへの対処から、プライバシーの保護や偽情報との闘いに至るまで、そのバランスに全力で取り組んでいます。

すでにいくつかの国はChatGPTの開発者であるOpenAIに対して対抗している。 イタリアは3月にChatGPTを一時的に禁止し、カナダのプライバシー委員会はOpenAIを同意なく個人情報を収集・利用した疑いで捜査している。 EUはAIに関する新たなルールを交渉しており、中国はAI開発者に対し今後は厳格な検閲ルールを遵守するよう要求している。 ある程度の規制は避けられないと思われる。

これを背景に、ブロックチェーン技術は人工知能を悩ませている問題、あるいは少なくともその一部を解決できるのか?という疑問が浮かび上がってきます。 結局のところ、分散型台帳テクノロジーは、透明性、追跡可能性、信頼性、改ざん防止など、AI にはないものすべてを備えていると言えます。 AI のブラックボックス ソリューションの不透明性の一部を相殺するのに役立つ可能性があります。

カルダノのサイドチェーンであるミッドナイトの戦略およびマーケティング責任者であるアンソニー・デイ氏は、ブロックチェーン技術に関して4月にLinkedInに次のように書いた。 AI は私たちの世界のために (または) 何をするのか。」

少なくとも、ブロックチェーンは AI トレーニング データのリポジトリになる可能性があります。 あるいは、IBM のジェリー・クオモが数年前に書いたように、この観察は今日でも真実です。

「ブロックチェーンを使用すると、トレーニング データの出所を追跡できるだけでなく、特定の果物がリンゴではなくオレンジとみなされる理由の予測につながった証拠の監査証跡を確認できます。」

「一元化された AI モデルのユーザーは、トレーニングに内在するバイアスに気づいていないことがよくあります」と分析および市場インテリジェンスのプラットフォームである Tracxn Technologies の共同創設者である Neha Singh 氏はマガジンに語ります。 「ブロックチェーン技術を使用すると、AI モデルの透明性の向上が可能になります。」

AI がより主流になる前に、何かをしなければならないということに多くの人が同意しています。 世界経済フォーラムで人工知能と機械学習の責任者を務めるケイ・ファース・バターフィールド氏は、「人工知能を信頼するには、人々がAIとは何なのか、何をしているのか、そしてその影響を正確に知り、理解する必要がある」と述べた。 「リーダーや企業は、このテクノロジーを導入する際に、透明性と信頼性の高い AI を優先事項とする必要があります。」

興味深いことに、これらの方向に沿ったいくつかの作業が進行中です。 2月、米国に本拠を置くフィンテック企業FICOは、「データとモデルガバナンスのためのブロックチェーン」の特許を取得し、「責任ある」AI実践を保証するために同社が長年使用してきたプロセスを正式に登録した。

同社によれば、FICOはイーサリアムベースの台帳を使用して、「不変の方法で機械学習モデルの開発、運用、監視」のエンドツーエンドの出所を追跡しているという。同社は300人以上のデータサイエンティストを擁し、多くのデータサイエンティストと協力しているという。世界最大の銀行のうち。 特に、「AI」と「機械学習」という用語には微妙な違いがありますが、これらの用語は同じ意味で使用されることがよくあります。

FICO の最高分析責任者であるスコット・ゾルディ氏は、今年初めに AI 出版物の中で、ブロックチェーンを使用することで監査可能性が可能になり、モデルと企業の信頼が向上すると述べています。

「重要なことは、ブロックチェーンは意思決定の痕跡を提供することです。変数が受け入れられるかどうか、モデルにバイアスが導入されているかどうか、または変数が適切に利用されているかどうかを示します。ブロックチェーンは、これらのモデルを構築する過程全体を記録します。間違い、修正、改善。」

AIツールは十分に理解される必要があり、公正な未来のためには公正、公平、透明である必要があるとゾルディ氏は述べ、「そこでブロックチェーン技術がAIと潜在的に融合するのではないかと思う」と付け加えた。

モデル開発はブロックチェーンが変化をもたらす重要な領域の 1 つですが、他にもあります。 ChatGPT のようなデバイスがソーシャル メディアやニュース プラットフォームに悪影響を及ぼす可能性があると予想する人もいます。たとえば、本物か真実かを区別するのが難しくなります。

「これは、ブロックチェーンが新興プラットフォームで最も役立つ場所の1つです。特定の日時に人物XがYと言ったということを証明するためです」と、ウィスコンシン大学の准教授兼分散台帳技術センター所長のジョシュア・エルール氏は述べた。マルタはマガジンに語った。

実際、ブロックチェーンは、たとえば、個人や組織が信頼できる情報源として現れることができる、ある種の説明責任の枠組みを構築するのに役立ちます。 たとえば、Ellul 氏は続けて、「X という人が Y と発言したことが記録に残っており、それが否定できない場合」、それが参照点となるため、「将来的には、個人は自分の発言に基づいて他の人に対する独自の信頼評価を構築できるようになるでしょう」過去に。"

有色人種の暗号通貨イノベーターは、保護を目的としたルールによって制限されている

ならず者国家は経済制裁を回避しているが、仮想通貨は間違っているのだろうか?

「少なくともブロックチェーンソリューションは、当事者が起こった一部のイベントを変更できないように、データ、トレーニング、テスト、監査、事後イベントを追跡するために使用できるでしょう」とエルール氏は付け加えた。

ただし、ブロックチェーンが AI を実際に悩ませている根本原因に到達できるということに全員が同意しているわけではありません。 コペンハーゲンIT大学教授で欧州ブロックチェーンセンター所長のローマン・ベック氏は、「ブロックチェーンがAIに対する解毒剤と考えられるかどうかについては、やや懐疑的だ」とマガジンに語った。

「現在、スマートコントラクトが実際に何を行っているかを追跡するという点で、すでにいくつかの課題に直面しています。ブロックチェーンは透明であるべきですが、一部の活動は監査が困難です。」

他の場所では、欧州委員会は「信頼できる #AI のための大西洋を越えた空間」の創設を検討している。 しかし、ブロックチェーン技術がAIの不透明性を相殺するのに役立つのかとの質問に対し、欧州委員会関係者は懐疑的で、マガジン誌に次のように語った。

「ブロックチェーンはデータソースの追跡を可能にし、人々のプライバシーを保護しますが、それ自体ではAIニューラルネットワークのブラックボックス問題には対処しません。これは、たとえばChatGPTでも使用されている最も一般的なアプローチです。ブロックチェーンは、AIシステムが特定の決定がどのように、そしてなぜ行われたのかについて説明します。」

おそらくブロックチェーンは AI を「救う」ことはできないが、ベック氏は依然として 2 つのテクノロジーが相互に強化できる方法を構想している。 「ブロックチェーンが AI に役立つ可能性が最も高いのは監査の側面です。AI が不正行為やその他の違法行為に使用されることを避けたい場合は、AI の結果を台帳に記録するよう求めることができます。 AI を使用することは可能ですが、その結果が悪意のある方法または違法な方法で使用された場合に備えて、記録されるため、いつ、誰が AI を使用したかを追跡することができます。」

あるいは、「センサー、アルゴリズム、ブロックチェーンがマシン間の通信と調整のための自律オペレーティング システムを提供する」AI テクノロジーを使用して開発された自動運転車両を検討してみてはいかがでしょうか、とベック氏は付け加えています。 「AIがどのように決定したかについてはまだ説明できないかもしれないが、説明責任を確保し、ひいてはガバナンスを確保することはできる。」 つまり、ブロックチェーンは、「アルゴリズムがおかしくなった」ときに、本当に誰が、あるいは何が原因だったのかを追跡するのに役立つ可能性がある。

前述の EU 当局者でさえ、たとえ AI の「ブラックボックス」問題を解決できなかったとしても、ブロックチェーンが利益をもたらすことを予見できます。 「ブロックチェーンを使用すると、AI モデルのトレーニングに使用されるデータの透明で改ざん防止の記録を作成できる可能性があります。しかし、ブロックチェーン自体はバイアスの検出と削減には対応しておらず、これは困難であり、まだ未公開の研究です。質問。"

企業部門では、多くの企業が依然として「信頼できる」AI の実現に苦戦しています。 FICO とコリニアムは最近、北米の金融サービス企業約 100 社を対象に調査を行ったところ、「回答者の 43% が、規制要件を満たすための責任ある AI ガバナンス構造に苦労していると答えた」ことがわかりました。 同時に、自社の AI 戦略が「一貫して拡張されたモデル開発標準を備え、完全に成熟している」と報告したのはわずか 8% でした。

1956 年に Fair, Isaac and Company として設立された FICO は、経営上の意思決定に予測分析とデータ サイエンスを使用する先駆者です。 企業がリスクを管理し、不正行為と闘い、業務を最適化するのに役立つ AI モデルを構築します。

同社が2017年に分析業務に許可型イーサリアム・ブロックチェーンをどのようにして採用するに至ったかとの質問に対し、ゾルディ氏はその頃銀行と話し合っていたと説明した。 彼は、開発されているすべての AI モデルの 70% ~ 80% が本番環境に導入されなかったことを知りました。

何十億ものブランドがブロックチェーンをニッチなものから普通のものに変える方法

ティム・ドレイパーの成功への投資のための「奇妙な」ルール

重要な問題の 1 つは、同じ組織内であってもデータ サイエンティストが異なる方法でモデルを構築していることでした。 モデル完成後のガバナンスチェックにも不合格になった人が多かった。 たとえば、事後テストにより、AI を活用した不正検出ツールが不用意に特定の民族グループを差別していたことが判明する可能性があります。

ゾルディさんは、「サリー」にモデルを作らせて、その情報を正しく記録していなかったことが半年後、つまりすでに会社を辞めた後でわかるよりも、もっと良い方法があったのではないかと考えたことを思い出す。銀行に適切なガバナンスプロトコルに従わない。」

FICO は、ブロックチェーンを使用してそれを強制する責任ある AI ガバナンス標準の開発に着手しました。 開発者には、使用される可能性のあるアルゴリズム、従う必要がある倫理テストプロトコル、不偏モデルのしきい値、およびその他の必要なプロセスについて事前に通知される必要がありました。

一方、ブロックチェーンは、エラー、修正、革新を含む、あらゆるモデル開発の過程全体を記録します。 「つまり、モデルを開発する科学者ごとに、別の科学者が作業をチェックし、3 番目の科学者がすべてが適切に行われたことを承認します。3 人の科学者が作業をレビューし、基準を満たしていることを確認しました」とゾルディ氏は言います。

ブロックチェーンのよく言われるスケーリングの問題についてはどうですか? すべてが 1 つのデジタル台帳に収まりますか? 「それは大した問題ではありません。私たちはソフトウェア資産のハッシュを(ブロックチェーン上に)保存しますが、ソフトウェア資産自体は別の場所、たとえば git リポジトリなどに保存されます。文字通り、10メガバイト相当のデータをブロックチェーン上に置く必要があります。」

政治指導者たちは明らかに AI によってもたらされるリスクに気づいているため、商用開発者は FICO のような経験に注意を払うのがよいでしょう。 カマラ・ハリス米国副大統領は声明で「民間部門には製品の安全性を確保する倫理的、道徳的、法的責任がある」と述べた。 「そしてすべての企業はアメリカ国民を守るために既存の法律を遵守しなければなりません。」

懸念は世界的なものでもあります。 EU当局者がマガジンに語ったように、「AIが社会に有益であることを保証するには、2つの側面からのアプローチが必要です。まず、信頼できるAIの分野でさらなる研究を行って、技術自体を改善し、透明性、理解可能性、正確性を高める必要があります。 「安全で、プライバシーと価値観を尊重します。第二に、[EU] AI 法で提案しているように、AI モデルの責任ある倫理的な使用を保証するために、AI モデルの適切な規制を確立する必要があります。」

民間部門は自主規制の利点を検討する必要がある。 たとえば、企業の開発者にとっては恩恵となる可能性があります。 データサイエンティストは時々、自分たちが困難な状況に置かれていると感じることがある、とゾルディ氏は言う。 「モデルの構築方法や使用される標準に関する倫理が指定されていないことがよくあり」、これが彼らを不快にさせます。

AI デバイスのメーカーは人々に危害を加えることを望んでいませんが、それが起こらないようにするために必要なツールが提供されていないことがよくあります。 ブロックチェーンは役立ちますが、最終的には、信頼できる AI の未来を確保するために使用する必要があるいくつかの自主規制または管轄のガードレールの 1 つになる可能性があります。

「専門家に相談すると、『我々はこの技術を生み出すことができるほど賢いが、それを規制したり、理解したり、説明したりできるほど賢くない』と言われます。それはとても恐ろしいことです」とゾルディ氏は言う。とマガジンに語る。

全体として、責任ある AI をサポートするブロックチェーンの可能性はまだ広く認識されていませんが、それはすぐに変わる可能性があります。 アンソニー・デイのように、ブロックチェーンに賭けている人もいる。「ブロックチェーンが本当に世界を救うかどうかは分からないが、AIは救えるのは確かだ」。

電子メールアドレス

購読する

ChatGPT 株のヒントから 500% を稼ぎますか? 吟遊詩人は左に傾き、1億ドルのAIミームコイン:AI Eye

ポップコーン缶に入った34億ドルのビットコイン:シルクロードハッカーの物語

仮想通貨税に最適な国と最悪の国 - 仮想通貨税に関するヒントも

XRP推進派の弁護士ジョン・ディートン氏「BTCは10倍、ETHは4倍」:炎の殿堂

イーサリアムの ZK ロールアップが相互運用可能になる方法は次のとおりです

ほとんどのテクノロジー革命には、予期せぬ暗い側面が伴います。 AI を悩ませるものへの解毒剤? 人工物を真実から分離する 「アルゴがおかしくなったとき」 AI モデリングを追跡するためのブロックチェーンの実装 「道徳的および法的責任」