MetaがAI技術をオープンソース化

by Shogo

Metaは長年にわたって、AIを研究してきた巨大IT企業の1社だ。ChatGPTの公開以来、AIについて、規制や規則が必要との多くの意見がある中で、Metaは、これまでの研究成果のAI技術をオープンソース化して無料で外部に提供することを決めた。つまりMetaでChatGPTのようなAIのサービスを、Googleなどのように始める予定はないと言うことのようだ。

Metaの開発したLLaMA 2は、Large Language Model Meta AIの略で、ChatGPTと同じような大規模言語モデルだ。これを外部のプログラム開発者も、自由にコピーして、修正・再利用できるようになる。現在OpenAIのGTP-4と契約してサービスを行っている事業者も今後はOpenAIなどに頼ることなく、Metaのオープンソースのプログラムを使ってサービスを構築することができるようになる。

MetaはMicrosoftと提携して、LLaMA 2をMicrosoftのAzurクラウドシステム上で動作する環境を整える。またAmazon Web  Serviceや他のクラウドプロバイダーを通じても利用が可能になるということだ。

ここで心配になるのは、悪意を持ったプログラム開発者がオープンソース化されたLLaMA 2を悪用するのではないかと言うことだ。Metaは、公開されたLLaMA 2について悪用を防ぐためのガードレールのようなプログラムを含み、利用のためのガイドガイドラインも配布する言う。しかし、これについては一度オープンソース化されてしまえば、開発者はどのようなプログラムにも変更可能である。Metaの安全策の効果が疑わしい。つまり、善良な開発者だけではなく、犯罪者の手に渡る可能性もあると言うことだ。

IT業界関係者がAIのリスクとその規制について議論しているときに、このような完全なオープンソース化する事は、その流れに逆行する。

オープンソース化はITの歴史の中では非常に有効な方法であった。今広く使われているOSの1つのLinuxは、当初からオープンソースで開発され、今や業務用のプログラムとしてはデファクトに近いと言うような状況になっている。Googleも iPhoneに対抗してAndroidを買収した際にオープンソース化して広く開発を呼びかけ、最終的には、普及しているモバイルのOSとしては、圧倒的にiPhoneのiOSを引き離している。

このようにオープンソース化がAIの研究の進歩や普及を大きく進める可能性があるが、一方で問題も考えられる。AIのリスクはまだ完全には分かっていない。データのセキュリティーやプライバシーの侵害という問題もあるが、悪意のある開発者が、悪用するリスクもある。また、悪意がなくとも誤用のために、社会的な混乱を引き起こす可能性もないわけではない。

そこまで考えると、このような技術をオープンソース化するMetaは、その責任をどのように考えているのか。

You may also like

Leave a Comment

このサイトはスパムを低減するために Akismet を使っています。コメントデータの処理方法の詳細はこちらをご覧ください