「専務のツブヤキ」
~自民党AIホワイトペーパー、ChatGPTの使い方~
2023年3月15日
SAJ 専務理事 笹岡 賢二郎
4月3日に自民党のデジタル社会推進本部のAIの進化と実装に関するプロジェクトチームから AIホワイトペーパーが公表 され、1. 新たなAI国家戦略の策定の必要性 2. 国内におけるAI開発基盤の育成・強化 3. 行政における徹底したAI利活用の推進 4. 民間におけるAI利活用の奨励・支援 5. AI規制に関する新たなアプローチ が示されました。
要旨のパワポを見ただけなのですが、私的には、1.はChatGPTの今後のインパクトと勘案すると 当然国家戦略は必要 でしょう、2.も当然ですが、 欧米に比して質・量で匹敵する開発基盤を具体的にどう整備するのでしょうか という点が今一つかと、、、3.に関しては、 短期間で成果の見える複数のパイロットプロジェクトの着手 、 AI活用のプロジェクト発掘のためのハッカソン・ビジネスコンテストの開催 、AI導入支援チームの政府内設置、スーパーシティ型国家戦略特区やデジタル田園特区の制度の改善などが記載されていますが、 誰が、何時、どのようにやるのかを今後注視 していきたいと思います。4,は、AIを活用した様々なスタートアップや新規事業の創出を奨励し、特に 中小企業においてはAI利活用による生産性向上などの恩恵を享受する前提であるITシステムのクラウド移行加速を推進・支援 に言及されている点は具体策次第ですが、当協会として一応評価できると思いました。5.については、重大なAIリスクの3類型として、「 人権や人の健康・安全等を侵害するリスク 」、「 AIによる安全保障上のリスク 」、「 民主主義プロセスへの不当介入のリスク 」が挙げられているのですが、それら リスクの原因はそもそもAIの出す回答の真偽を人間が正しく評価・判断できるか どうか ではないかと思いました。
私的には、自分がAIの回答の真偽を正しく評価できる分野でAI(LLM)を活用(例えば、裁判官が判決文の草案作成をAIに支援してもらい主文は自分で書くなど)するうちは良いのですが、 全く自分の専門外のところでAIを使う時に一番リスクがある 気がします。それを感じたのは、スマホにChatGPTをインストールして、自分のことを調べさせたり、自分の趣味である弓道のことを質問して回答を見たのですが、自分のことに関しては相当盛った好評価?でしたし、弓道の段位の違いを問うた回答は完全に間違った内容でした。これは自分がそのことをよく知っているから判断できるわけで、そうでなければ出された回答が一応それらしい文章になっていて、その真偽がわからないまま信じてしまうと、当然先ほどの三つのリスクが顕在化すると思いました。世の中的には、自分がカバーできない部分をAIに補ってもらおうとする傾向があるのかもしれませんが、逆に 私は自分が精通している分野で飽き飽きしている文章の草案こそAIを使うべきではないか と思う次第です。
その意味で大学生が教授から出された課題をAIにまるまるやらせて、その回答をそのまま使うのがAIの使い方として愚の骨頂といえます。大学生ならば、自分が行った実験データの分析や参考文献からの必要部分のピックアップなどをAIに支援してもらって自分のリポートや論文作成に活用するのが本来の使い方ではないかと思います。いずれにしろ、 AIの結果を妄信してそのまま使うと社会的な混乱は避けられない と思うわけですが、 要は自分のコントロールできる範囲内でAIを使う限りはリスクは限りになく小さくできる ということかと思うとともに、 AIの利用がその範囲内に制約されても人類は十分AIによる利便性を享受できる と私は信じます(^_^)
筆者略歴
笹岡 賢二郎(ささおか けんじろう)
1961年生まれ、1983年に通商産業省(現経済産業省)入省、機械情報産業局電気機器課、科学技術庁、資源エネルギー庁、立地公害局、防衛庁、工業技術院、機械情報産業局鋳鍛造品課、基盤技術研究促進センター、JETROクアラルンプールセンター、文部科学省、四国経済産業局などの勤務を経て、2005年7月より新エネルギー・産業技術総合開発機構(NEDO)、2007年7月より九州経済産業局地域経済部長、2009年7月より中小企業基盤整備機構の業務統括役兼総務部長、2011年7月独立行政法人情報処理推進機構の参与兼セキュリティセンター長などを経て、2013年7月から東京工科大学にてコンピュータサイエンス学部 コンピュータサイエンス学科教授、片柳研究所所長、工学部 電気電子工学科 教授兼コーオプセンター長。2016年6月に一般社団法人コンピュータソフトウェア協会(現:一般社団法人ソフトウェア協会)専務理事に就任。