
政府から発表されたAI活用7原則。今後どうなる?
日本政府は、「人間中心のAI社会原則検討会議」にて、AIの研究開発や利活用における7つの原則を固めました。
7つの原則
1.AIは人間の基本的人権を侵さない
2.AI教育の充実
3.個人情報の慎重な管理
4.AIのセキュリティー確保
5.公正な競争環境の維持
6.企業に決定過程の説明責任
7.国境を越えたデータ利用の環境整備
中でも、「6.企業に決定過程の説明責任 」に関しては、AIテクノロジーの進歩の妨げになるのではないかと物議を醸しています。
ただ、IBMを始めとする大手企業では、AIの判断を説明する可視化研究が進み、基礎技術はできつつあります。
今後は、2019年1月には欧州とのすり合わせを始め、経済協力開発機構(OECD)や主要20カ国・地域首脳会議(G20サミット)などの国際会合で国際協調の枠組み作りを目指すようです。
今後どうなる?
Googleでも6月にAIアプリケーションにおける7つの原則を掲げました。
1.社会的な利益をもたらす
2.不公平な偏見を生んだり、助長したりしない
3.安全を考慮して作成、テストされている
4.人々に対する責任を果たす
5.プライバシーに関する設計原則を取り入れている
6.科学的卓越性に関する高い基準を支持する
7.これらの原則に合致した使い方を想定して提供されている
EUでは今年の5月にGDPRという一般データ保護規制に関してルールを制定したりなど、”データ”に関する取扱いが厳しくなってきております。アメリカと中国もAIに関する競争が激化しているように見受けられます。
先日、弊社取引先でもあるレッジ社主催の「AI TALK Night」で「知的財産」についても質問させていただきました。
こちら、別記事でまとめましたので、ぜひ拝見ください。

おそらく、来年の早い段階で、AIやデータに関するルールが世界的に制定されるでしょう。
ただ、実用化が近づいている「量子コンピューター」が登場すると、またルールが見直されることになるでしょう。
この記事へのコメントはありません。