Cheqd、DataHive、Nuklai、Datagramは、ユーザーが所有するデータを使用して分散型人工知能のためのオープンソースフレームワークを開発することを目的とした新しい取り組み、Sovereign AI Allianceを立ち上げました。5月1日にcrypto.newsと共有されたプレスリリースで発表されたこの提携は、プライバシーを保護するAIシステムをサポートする技術基盤の構築に焦点を当てます。プロジェクトの核心には、ユーザーが個人データに対する制御を損なうことなく、AIエージェントが安全に協力できるようにすることを目的とした提案されたIntention Network Protocolがあります。INPは、3つの主要なコンポーネントで構成されています。「意図アンカー」は、データ所有権保証を持ってユーザーの入力をキャッチするためのものです。「意図メッシュ」は、AIコミュニケーションのための分散型環境です。そして「実行ノード」は、ユーザーの意図に基づいて行動し、プライバシー保護が組み込まれています。この同盟はまた、分散型データストレージ、オープンソースのAIモデル、AIエージェントが自律的に取引・協力できるツールを含むより広範なロードマップを概説しました。創設者によると、この取り組みはデータ経済を「注意ベース」から「意図ベース」へと移行させることを目的としており、ユーザーが中心に置かれています。## なぜこの提携が重要なのかSAIAは、ヨーロッパやその他の地域の規制当局が個人データの使用に関する中央集権的AIモデルへの監視が強まる中、より透明性とユーザーのコントロールを求める中で登場します。cheqdのCEOフレーザー・エドワーズは、インタビューでcrypto.newsに対し、現在のAIモデルは意味のある同意なしにユーザーデータを取引していることが多いと述べました。「ユーザーは個人データで支払っており、それは抽出され、集約され、商品化されています」と彼は言いました。エドワーズによると、アライアンスのアプローチは、ユーザーがデータを選択的に共有し、収益化する可能性を持ち、アクセスを取り消す能力を維持できるようにし、集中型プラットフォームが提供するのが難しい制御レベルを提供します。これまで「ユーザーのデータに対して支払いを行う」試みは失敗してきましたが、SAIAのアーキテクチャは、ユーザーデータを同意に基づくエコシステム内で再利用可能かつ検証可能な資産として扱うように設計されています。また、GDPRなどのグローバルなプライバシー基準を満たすために、監査トレイルや選択的開示など、コンプライアンスに重点を置いたツールも含まれています。フレイザー・エドワーズとのSAIAの計画、課題、ユーザーインセンティブに関する完全なQ&Aが以下に続きます。**crypto.news: ソブリンAIアライアンスのビジョンは、ユーザーが所有するデータを用いたオープンソースで分散型のAIフレームワークを構築することです。理論的には興味深いですが、これはビッグテックのAI提供に対してどのような利点をもたらすのでしょうか?AIサービスは、データを取引することで「無料」で提供されており、これはほとんどの人々にとって何年も普通のことと受け入れられています。なぜユーザーや開発者は自己主権モデルに移行するのでしょうか?あなたのユーザー所有データアプローチが採用を促進するのに十分魅力的な本当のインセンティブ(金銭的、プライバシー、その他)は何ですか?**フレーザー・エドワーズ:ソブリンAIアライアンスのモデルの核心的な利点は整合性です。あなたのために働くAIであり、あなたの注意やデータを収益化するプラットフォームのためではありません。今日の「無料」のAIツールは本当に無料ではありません。ユーザーは個人データで支払い、そのデータは抽出され、集約され、商品化され、しばしば制御や監査ができない方法で行われます。これが、個々の利益よりもバイラリティと維持を優先するエンゲージメント駆動型システムを助長します。実世界の例として、MetaのAIがWhatsAppに組み込まれることに対する反発があります。Metaがプライバシーを尊重すると主張しているにもかかわらず、ユーザーはそれをオフにすることができず、同社が自分たちの最善の利益のために行動するとはほとんど信じていません。これはビッグテックのデータ管理に対する信頼を損なっています。対照的に、ソブリンAIはユーザー所有のデータを中心に構築されており、個人が自分の情報の使用、共有、収益化の方法を制御します。自己主権モデルは、人々がビッグテックがそのビジネスモデル全体を解体せずには提供できない方法で、自分のデジタルな自己を所有することを可能にします。AIが真にパーソナライズされ、有用であるためには、十分な許可を得た豊富でクロスコンテクスチュアルなデータへのアクセスが必要です。データがプラットフォーム間で分断されていると、AIは限られたものであり、個人的ではありません。ソブリンAIは、より強力でありながら、彼らがサービスを提供する人々をより尊重するインテリジェントシステムを可能にします。このモデルは、普及を促進するための3つのインセンティブを提供します:* プライバシー・バイ・デザイン: データは不透明な企業システムに吸い上げられることはありません。その代わりに、ユーザーの制御下にあり、分散型のアイデンティティとストレージインフラストラクチャーを通じて保持されます。* 金銭的インセンティブ: cheqdのペイメントレールのようなフレームワークを使用することで、ユーザーや開発者は検証されたデータを共有したり、AIエージェントをトレーニングしたりすることで報酬を受け取ることができ、実際のデータ経済を創造します。* 本当のパーソナライズ: DataHiveによって開発されているような個人AIやエージェントは、広告収入を最大化するのではなく、あなたの真の意図に基づいてあなたの代理として行動することができます。**CN:** **ここでの核心的な考え方は、個人が自分のデータをmonetize( )and潜在的に制御するということです。しかし、過去の多くのプロジェクトは「データに対して報酬を得る」ことを約束し、平均的なユーザーのデータは個人レベルではあまり価値がなく、時間をかける価値もないという理由もあり、苦労しました。SAIAはその方程式をどのように変えるのでしょうか?データやAIトレーニングのフィードバックを提供することでユーザーに直接報酬を与えることを計画していますか、それともより間接的なメリットですか(例より良いパーソナライゼーションとprivacy)?ユーザーが大きな収入を得ることができない場合、このネットワークでデータを積極的に共有および管理する魅力は何ですか? FE: 過去の「データに対して支払いを受ける」モデルが失敗したのは、データを一度限りのコモディティとして扱ったからであり、継続的で意図に基づくエコシステムの一部として扱わなかったからです。ソブリンAIアライアンスは、データを再利用可能で高価値な資産として再構築し、分散型の意図に基づくAIフレームワーク内での価値を変えます。cheqdにおいては、私たちは個人が自分のデータを制御し再利用できるようにすることでこの問題に取り組んでいますが、同様に重要なのは、企業やデータサイロがそのデータを個人に戻すことを促進するインフラを構築しているということです。単一のデータポイントに対して迅速なマイクロ報酬を約束するのではなく、cheqdのインフラストラクチャは、ユーザーが自分の条件で、資格情報、好み、または同意などの検証済みで再利用可能なデータを選択的に共有できるモデルをサポートしています。これにより、個別化されたAIサービス、選択的なマネタイズ、または単により良いコントロールなど、より意味のある長期的価値の可能性が広がります。実際のシフトは、パワーの再バランスにあります: ユーザーがデータを持ち運び、異なるAIシステムで使用できるようにし、サイロに閉じ込められないようにすることが可能になるのです。**CN:** **ユーザー所有のデータを中心に据え、当初からプライバシーとコンプライアンスにどのように取り組んでいますか?個人データがAIモデルのトレーニングや通知に使用されている場合、ユーザーはきめ細かく制御でき、データをオプトアウトまたは取り消すことができますか?例えば、イタリアのデータ保護当局は、トレーニングのための個人データの大量収集について「法的根拠がない」として、ChatGPTを一時的に禁止しました。SAIAのアプローチは、プライバシー法、(GDPR、others)、および倫理規範に準拠し続けるために、ユーザーデータの取り扱いにおいてどのように異なりますか? FE: コンプライアンスとプライバシーは、SAIAのアーキテクチャにとって基本的な要素です。SAIAの基盤はデフォルトでユーザーの主権であり、中央集権的なデータサイロを必要とせず、意味のある同意なしにデータを一括収集する典型的なAIモデルとは対照的です。* **データはユーザーの管理下にあります** ユーザーは、分散型アイデンティティ (cheqd) とストレージプロトコル (Datagram およびその他の)を活用して、いつでもデータへのアクセスを付与、取り消し、または制限できます。このメカニズムは、データ最小化や忘れられる権利といったGDPRの概念に沿っています。* ***同意は明示的かつ撤回可能です**私たちは* ユーザーがデータの使用に対して明示的な同意を表明できるシステムを開発しています。これは、認証情報の共有、エージェントとの相互作用、またはAIトレーニングなどの目的のためです。検証可能な同意記録と意図に特化したユースケースにより、法的基盤と追跡可能性が保証されます。** **組み込みのコンプライアンスツール**私たちは、AIエージェントやSAIAのフレームワークを使用するアプリケーションが、プライバシーに配慮するだけでなく、世界的な規制に対して証明可能に準拠するように、監査証跡、データの出所、選択的開示などの組み込みコンプライアンス機能を作成しています。**CN:** cheqdは、分散型ID(自己主権型ID / SSI)および検証インフラストラクチャをアライアンスにもたらします。SSIはAIフレームワークにどのように含まれますか?例えば、Intention Anchorsは、データの出所やAIエージェントの評判を確認するために、デジタルIDを使用するのでしょうか?また、分散型IDがまだ初期段階にあることを考えると、IDの専門家でさえ、ユーザーや組織の複雑さが増すため、採用が最大の課題であると指摘していますが、SAIA内でのSSIの使用をどのように奨励し、ブートストラップしますか? FE: “SSIは、主権AIアライアンスのアーキテクチャにおいて重要な役割を果たしています。それは、AIエージェント、人々、データをつなぐ信頼の層です。ここでは、私たちが採用の障害を超える方法と、cheqdの分散型アイデンティティインフラストラクチャがそのフレームワークにどのように適合するかについて説明します。これはAIエージェント自身にも当てはまります: エージェントに対して検証可能な資格情報を発行することにより、私たちは評判、能力、および信頼性を確立できます。これはエージェント間やエージェントとユーザー間の相互作用において信頼を築くために重要です。今日、SSIにとって採用は確かに最大の課題です。cheqdはインフラ層に位置している一方で、DataHiveは直接顧客と向き合っており、消費者自身にソリューションを提供し、その後自分のデータを持ち込むことができます。
新しいAIアライアンスは、ユーザー所有のデータでビッグテックの支配を終わらせることを目指しています。
Cheqd、DataHive、Nuklai、Datagramは、ユーザーが所有するデータを使用して分散型人工知能のためのオープンソースフレームワークを開発することを目的とした新しい取り組み、Sovereign AI Allianceを立ち上げました。
5月1日にcrypto.newsと共有されたプレスリリースで発表されたこの提携は、プライバシーを保護するAIシステムをサポートする技術基盤の構築に焦点を当てます。プロジェクトの核心には、ユーザーが個人データに対する制御を損なうことなく、AIエージェントが安全に協力できるようにすることを目的とした提案されたIntention Network Protocolがあります。
INPは、3つの主要なコンポーネントで構成されています。「意図アンカー」は、データ所有権保証を持ってユーザーの入力をキャッチするためのものです。「意図メッシュ」は、AIコミュニケーションのための分散型環境です。そして「実行ノード」は、ユーザーの意図に基づいて行動し、プライバシー保護が組み込まれています。
この同盟はまた、分散型データストレージ、オープンソースのAIモデル、AIエージェントが自律的に取引・協力できるツールを含むより広範なロードマップを概説しました。創設者によると、この取り組みはデータ経済を「注意ベース」から「意図ベース」へと移行させることを目的としており、ユーザーが中心に置かれています。
なぜこの提携が重要なのか
SAIAは、ヨーロッパやその他の地域の規制当局が個人データの使用に関する中央集権的AIモデルへの監視が強まる中、より透明性とユーザーのコントロールを求める中で登場します。
cheqdのCEOフレーザー・エドワーズは、インタビューでcrypto.newsに対し、現在のAIモデルは意味のある同意なしにユーザーデータを取引していることが多いと述べました。「ユーザーは個人データで支払っており、それは抽出され、集約され、商品化されています」と彼は言いました。
エドワーズによると、アライアンスのアプローチは、ユーザーがデータを選択的に共有し、収益化する可能性を持ち、アクセスを取り消す能力を維持できるようにし、集中型プラットフォームが提供するのが難しい制御レベルを提供します。
これまで「ユーザーのデータに対して支払いを行う」試みは失敗してきましたが、SAIAのアーキテクチャは、ユーザーデータを同意に基づくエコシステム内で再利用可能かつ検証可能な資産として扱うように設計されています。また、GDPRなどのグローバルなプライバシー基準を満たすために、監査トレイルや選択的開示など、コンプライアンスに重点を置いたツールも含まれています。
フレイザー・エドワーズとのSAIAの計画、課題、ユーザーインセンティブに関する完全なQ&Aが以下に続きます。
crypto.news: ソブリンAIアライアンスのビジョンは、ユーザーが所有するデータを用いたオープンソースで分散型のAIフレームワークを構築することです。理論的には興味深いですが、これはビッグテックのAI提供に対してどのような利点をもたらすのでしょうか?AIサービスは、データを取引することで「無料」で提供されており、これはほとんどの人々にとって何年も普通のことと受け入れられています。なぜユーザーや開発者は自己主権モデルに移行するのでしょうか?あなたのユーザー所有データアプローチが採用を促進するのに十分魅力的な本当のインセンティブ(金銭的、プライバシー、その他)は何ですか? フレーザー・エドワーズ:ソブリンAIアライアンスのモデルの核心的な利点は整合性です。あなたのために働くAIであり、あなたの注意やデータを収益化するプラットフォームのためではありません。今日の「無料」のAIツールは本当に無料ではありません。ユーザーは個人データで支払い、そのデータは抽出され、集約され、商品化され、しばしば制御や監査ができない方法で行われます。これが、個々の利益よりもバイラリティと維持を優先するエンゲージメント駆動型システムを助長します。 実世界の例として、MetaのAIがWhatsAppに組み込まれることに対する反発があります。Metaがプライバシーを尊重すると主張しているにもかかわらず、ユーザーはそれをオフにすることができず、同社が自分たちの最善の利益のために行動するとはほとんど信じていません。これはビッグテックのデータ管理に対する信頼を損なっています。
対照的に、ソブリンAIはユーザー所有のデータを中心に構築されており、個人が自分の情報の使用、共有、収益化の方法を制御します。自己主権モデルは、人々がビッグテックがそのビジネスモデル全体を解体せずには提供できない方法で、自分のデジタルな自己を所有することを可能にします。
AIが真にパーソナライズされ、有用であるためには、十分な許可を得た豊富でクロスコンテクスチュアルなデータへのアクセスが必要です。データがプラットフォーム間で分断されていると、AIは限られたものであり、個人的ではありません。ソブリンAIは、より強力でありながら、彼らがサービスを提供する人々をより尊重するインテリジェントシステムを可能にします。
このモデルは、普及を促進するための3つのインセンティブを提供します:
CN: **ここでの核心的な考え方は、個人が自分のデータをmonetize( )and潜在的に制御するということです。しかし、過去の多くのプロジェクトは「データに対して報酬を得る」ことを約束し、平均的なユーザーのデータは個人レベルではあまり価値がなく、時間をかける価値もないという理由もあり、苦労しました。SAIAはその方程式をどのように変えるのでしょうか?データやAIトレーニングのフィードバックを提供することでユーザーに直接報酬を与えることを計画していますか、それともより間接的なメリットですか(例より良いパーソナライゼーションとprivacy)?ユーザーが大きな収入を得ることができない場合、このネットワークでデータを積極的に共有および管理する魅力は何ですか?
FE: 過去の「データに対して支払いを受ける」モデルが失敗したのは、データを一度限りのコモディティとして扱ったからであり、継続的で意図に基づくエコシステムの一部として扱わなかったからです。ソブリンAIアライアンスは、データを再利用可能で高価値な資産として再構築し、分散型の意図に基づくAIフレームワーク内での価値を変えます。
cheqdにおいては、私たちは個人が自分のデータを制御し再利用できるようにすることでこの問題に取り組んでいますが、同様に重要なのは、企業やデータサイロがそのデータを個人に戻すことを促進するインフラを構築しているということです。
単一のデータポイントに対して迅速なマイクロ報酬を約束するのではなく、cheqdのインフラストラクチャは、ユーザーが自分の条件で、資格情報、好み、または同意などの検証済みで再利用可能なデータを選択的に共有できるモデルをサポートしています。これにより、個別化されたAIサービス、選択的なマネタイズ、または単により良いコントロールなど、より意味のある長期的価値の可能性が広がります。実際のシフトは、パワーの再バランスにあります: ユーザーがデータを持ち運び、異なるAIシステムで使用できるようにし、サイロに閉じ込められないようにすることが可能になるのです。
CN: **ユーザー所有のデータを中心に据え、当初からプライバシーとコンプライアンスにどのように取り組んでいますか?個人データがAIモデルのトレーニングや通知に使用されている場合、ユーザーはきめ細かく制御でき、データをオプトアウトまたは取り消すことができますか?例えば、イタリアのデータ保護当局は、トレーニングのための個人データの大量収集について「法的根拠がない」として、ChatGPTを一時的に禁止しました。SAIAのアプローチは、プライバシー法、(GDPR、others)、および倫理規範に準拠し続けるために、ユーザーデータの取り扱いにおいてどのように異なりますか? FE: コンプライアンスとプライバシーは、SAIAのアーキテクチャにとって基本的な要素です。SAIAの基盤はデフォルトでユーザーの主権であり、中央集権的なデータサイロを必要とせず、意味のある同意なしにデータを一括収集する典型的なAIモデルとは対照的です。
CN: cheqdは、分散型ID(自己主権型ID / SSI)および検証インフラストラクチャをアライアンスにもたらします。SSIはAIフレームワークにどのように含まれますか?例えば、Intention Anchorsは、データの出所やAIエージェントの評判を確認するために、デジタルIDを使用するのでしょうか?また、分散型IDがまだ初期段階にあることを考えると、IDの専門家でさえ、ユーザーや組織の複雑さが増すため、採用が最大の課題であると指摘していますが、SAIA内でのSSIの使用をどのように奨励し、ブートストラップしますか?
FE: “SSIは、主権AIアライアンスのアーキテクチャにおいて重要な役割を果たしています。それは、AIエージェント、人々、データをつなぐ信頼の層です。ここでは、私たちが採用の障害を超える方法と、cheqdの分散型アイデンティティインフラストラクチャがそのフレームワークにどのように適合するかについて説明します。
これはAIエージェント自身にも当てはまります: エージェントに対して検証可能な資格情報を発行することにより、私たちは評判、能力、および信頼性を確立できます。これはエージェント間やエージェントとユーザー間の相互作用において信頼を築くために重要です。
今日、SSIにとって採用は確かに最大の課題です。cheqdはインフラ層に位置している一方で、DataHiveは直接顧客と向き合っており、消費者自身にソリューションを提供し、その後自分のデータを持ち込むことができます。