・概要 ・1.はじめに(背景) ・2.国内外の生成AI関連規制の状況とその医療への影響 ・3.提言 ・4.おわりに |
概要
医療分野での生成AIの利用が拡大しつつある。各国において、AIの規制が議論されているが、それらの規制が医療に与える影響について、特に英国と日本の状況を紹介したうえで検討を行った。今後の日本における生成AIの適切な普及に向けては、①生成AIの医療現場でのユースケースの推進、②地域における資源の確保、③適切な規制の整備が重要である。
1.はじめに(背景)
2024年4月2日、WHOは生成AI(Generative AI)[1]を用いたChatbot[2]をリリースした。健康上のアドバイスを8言語で提供するものであるが、その内容には間違いも含まれうるとされている。生成AIとは、既存のデータをもとに、新しいデータやコンテンツを自動的に作り出す人工知能の技術であり、文章、画像、音声、ビデオなど、さまざまな形式のデータやコンテンツを生成することができる。ディープラーニング技術の進歩とともに、生成AIの精度は近年大幅に向上しており、注目が高まっている。特に2022年11月30日にOpenAI社により大規模言語モデル(LLM)を用いて対話をするChatGPTがリリースされた後、公開2か月で世界のユーザーが1億人を超えたことを代表に、MicrosoftやGoogle、百度等のインターネットプラットフォーマーが2023年に次々と対話型AIを公開した。急速に生成AIの利用が広がっており、いまは第四次AIブームであるとする声もある。生成AIの利用は、こうした対話型AIの拡大だけでなく多くの分野で広がっており、世界のAIの市場規模は2030年には1兆8千億ドルに達するものと予測[3]されており、推計によってはすでに6兆ドルの市場の可能性[4]があるともされている。
そうした中、健康医療分野における生成AI(以下、Healthcare Generative AI, 「HGenAI」と呼ぶ)の活用に関しても、市場の拡大が予測[5]されており、医療現場、医学教育、健康医療保険、介護、予防等様々な可能性が示されている[6] [7] [8] [9]。例えば、LLMの活用を中心とした言語生成技術は、医療記録や診断報告書、サマリー等の自動生成[10][11]や、医学論文の読み込み[12] [13]、患者や臨床試験参加者のデータ分析[14]、さらには診療支援[15]、医学教育、公衆衛生上のリスク予測や個別化医療[16]、予防[17][18]等に用いられる。画像生成の技術により、 医療画像(MRI、CTスキャンなど)のノイズ除去や解像度の向上を行うことで診断の質を上げたり、プライバシーに配慮した教育目的の生成画像を利用できたりする。音声の生成技術は、カルテ等の文書作成支援[19] [20] [21]や、医療者と患者間のコミュニケーションのサポート[22] [23]にも使われるだろう。ビデオの生成は、手術のシミュレーションや、患者の生活支援に使える。研究におけるデータ生成は、生成されたデータを取り込むことによるプライバシーを保護したデータ分析や欠損データの補完等によるデータ拡充に利用でき、新薬の分子構造設計や薬剤作用予測によって創薬[24] [25] [26][27]にも利用できる。
医療分野への応用に際しては、従来の画像等の単一の情報を用いたAI(シングルモーダルAI)だけではなく、文章と画像と音声といった複数の情報を用いたAI(マルチモーダルAI)[28]が生成AIの技術と結びついた点も大きい[29]。上記の事例に関しても、相互に連携し発展していくことが期待され、健康医療以外の目的の生成AIとも同時に使われうる点が重要である。例えば、道案内のためのチャットボットに健康相談することで行くべきクリニックを案内してもらうこともありうる。ChatGPTはすでにそのような複数目的のものとして発展してきており、そうした点を踏まえて、汎用目的のAI(General-purpose artificial intelligence)に対する規制が議論されている[30]。また、メタバースやデジタルツイン、ロボット等の技術とも組み合わせられ発展することが見込まれている。
このような生成AIの社会実装の進展の中、多くの倫理的、法的、社会的な課題(ELSI)[31] [32] [33]や技術的な課題の指摘がある。具体的には、ハルシネーション(間違った内容等が出力されること)[34]、ディープフェイクや偽情報の拡大、学習データに含まれるバイアス・差別の拡大、プライバシーや企業秘密の侵害、知的財産権上の位置づけ、兵器等の危険物や有害なコンテンツの生成、失業、学術の信頼性の低下[35]等である。
2000年代半ばからの第三次AIブームにおいて、これらの課題の一部はすでに指摘があり、それに対応する意味もあって、いくつかのAIに関する原則[36]が様々な団体や国で示されていた。しかし、生成AIの急速な普及に伴い、課題のいくつかは顕在化し、ディープフェイクや偽情報の拡大による問題、著作権侵害、肖像権侵害、プライバシーや営業秘密、個人データの保護に関する課題等への対応が現実に必要となってきている[37][38]。
米国の非営利団体Future of Life Institute (FLI)は、2023年3月22日に、AIの開発を半年停止するように求めるオープンレターを公開し、イーロン・マスクをはじめ多くの署名を得た[39]。
イタリアのデータ保護当局(GPDP)は2023年3月31日にChatGPTに関して一次使用禁止とした[40]。同年4月28日には対応がなされたとして禁止は解除されたが、2024年現在、引き続きEUの一般データ保護規則(GDPR)違反ではないかとの検討が続けられている。英国やEUの他の国のデータ保護当局からも留意点が示された。EUのEuropean Data Protection Board (EDPB)は、2023年4月13日にChatGPTに関するタスクフォースを作り2024年5月23日にレポートを公開している[41]。日本の個人情報保護委員会も2023年6月2日にChatGPTに対して注意喚起[42]を行うとともに生成AIサービスに関する注意喚起[43]を出した。
近年の生成AIを中心とした発展とそれに対する懸念を受けて、これまでの原則を改定したり、同時に様々な法的な手当てや国際協調が進められつつある。
中国ではいち早く2023年7月10日に生成AIに関する立法[44]がなされた。EUでは2021年にAI法案が提出され、2024年5月21日に成立した[45]。米国においても、2023年10月30日にAIの安全性に関する大統領令[46]が出された。米国カリフォルニア州では、「最先端AIシステムのための安全で安心な技術革新法」の法案[47]が現在審議されている。EUのAI法やカリフォルニアの法案においては、生成AIへの規制として、特に計算能力が一定数より高いものを用いている企業をターゲットとしてより厳しい規制を行っている。
2023年のG7広島サミットでは、生成AIに関するG7を中心とした国際協調に向けた「広島AIプロセス」での議論がなされ、「全AI関係者向けの広島プロセス国際指針」等が策定された[48]。広島AIプロセスにおける国際協調は、G7各国から、OECD、その他の国や国際機関へと広がってきている。AIの安全性を担保するため、2023年11月1日には英国でAI安全サミットが開催され、英国、米国、EU諸国、中国等28か国がAIの安全と責任ある発展に向けた署名を行った[49]。米国[50]や英国[51]など各国でAIセーフティ・インスティテュート (AISI)が設立され、日本でも2024年2月14日にAISIが設立された[52]。OECDでは、2024年5月にAI原則を改定している[53]。2020年にOECDとG7により設立された「AIに関するグローバルパートナーシップ(Global Partnership on AI)」(GPAI)には、現在44か国が参加し、人間中心で、安全、安心、信頼できるAIの実装を目指した取り組みがなされている。UNESCOも2023年9月に教育・研究分野における生成AIのガイダンス[54]を提示している。国連総会でも、「持続可能な開発のための安全、安心で信頼できるAIシステムに係る機会確保に関する決議」が2024年3月21日に採択された[55]。欧州評議会では、2024年5月17日にAI枠組み条約[56]が採択され、日本もオブザーバー国として同内容を踏まえた対応を検討する必要がある[57]。
このように、生成AIの国際的な発展とともに、国際的に法的な規制の議論と国際協調の取り組みが進められている。しかし、医療分野への展開に向けたガバナンスの議論に関しては今後行う必要があるものとされている。そうした中で、本稿では以下、先行してAI法整備を進めるEUに必ずしもそのまま従う必要がなく、また日本同様に全国民への医療アクセスを保証している英国の状況を紹介し、日本および世界のHgenAIの展開に向けた展望を示す。
2.国内外の生成AI関連規制の状況とその医療への影響
(1)英国の規制状況
英国は、脱退したEUと一部歩調を合わせつつ、AIに関するグローバルリーダーになることを目指している。しかし、英国においては、EUのAI法に対応するような立法の動きはなく、生成AIに対する規制もそれに特化した法律制定の動きもない。
2021年9月には、「英国を世界的なAI大国にする」ための10カ年計画[58]を示し、生成AIの活用にも前向きである。2023年3月には、AI規制に関するホワイトペーパーが出され、2024年2月には同ホワイトペーパーへの政府回答が示されている[59]。そこでは、安全性・セキュリティ・堅牢性、適切な透明性と説明可能性、公平性、説明責任とガバナンス、そして競争可能性と救済という5原則に従ってAI規制を行うが、EUのようにAI全般に対するような法律を定めて規制をしないこととしている。2024年3月には同回答に沿うように、簡単な法律「AI(規制)法」[60]のみが定められ、規制を実施するためのAI Authorityという新機関が設立された。
生成AIによりさらに問題が増しつつある偽情報への対応も含めて、2023年10月にはオンライン安全法[61]が発効されている。
著作権法を中心とした知的財産の観点からは、生成AIの拡大以前から議論が行われており[62]、AI(規制)法においては生成AIに学習させるデータが著作権法上適法なものであることを求めている。
個人データ・プライバシー保護に関しては、英国ではEUのGDPRに対応するデータ保護法に基づいている。AIとデータ保護の関係では、Information Commissioner Officeが2023年3月15日にガイダンス[63]を更新し、2023年4月3日に生成AIに関する8つの留意点を示している[64]。
医療・医学研究に関するプライバシー等の保護は、データ保護法の他、コモンロー、国民保健サービス(NHS)の関連法によってなされている[65]。研究や政策目的でのNHSのデータ二次利用に関してはオプトアウトができるようになっている[66]。
また、医薬品・医療機器の治験や臨床試験に関しては、2002年のMedical Device Regulation 、2004年のThe Medicines for Human Use (Clinical Trials) Regulations[67]、2012年のHuman Medicines Regulationsに従い、日本のPMDAにあたるMedicines and Healthcare products Regulatory Agency(MHRA)による承認を得る必要がある。
(2)日本の規制状況
日本のAI関連の規制としては、2018年の著作権法改正において新設された第30条の4に基づき、生成AIに関しても適法に学習ができるようになっていた。しかし、国際的な議論も踏まえ、同条文の見直しも含めて検討が行われ、2024年3月15日には文化審議会著作権分科会法制度小委員会から「AI と著作権に関する考え方について」という取りまとめが出され[68]、2024年7月31日には文化庁著作権課から「AIと著作権に関するチェックリスト&ガイダンス」[69]が出されている。また、内閣府 知的財産戦略推進事務局 AI時代の知的財産権検討会においても、2024年5月に知的財産権法制との関係に関する中間とりまとめ[70]が出されている。
個人情報保護法との関係では、個人情報保護委員会による2023年6月の注意喚起の他は大きな動きは見られない。ただし、2024年6月27日の「個人情報保護法 いわゆる3年ごと見直しに係る 検討の中間整理」においては、本人同意を要しないデータ利活用等の在り方との関係で生成AIにも言及があり、今後の法改正の議論を引き続き見守る必要がある[71]。
偽情報・誤情報対策に関する検討も総務省「デジタル空間における情報流通の健全性確保の在り方に関する検討会」でなされており、2024年7月19日にはとりまとめ案が示されている[72]。
これら以外の日本のAI規制に関する議論はこれまで、法的な規制(ハードロー)よりは、英国同様ガイドラインや原則による規制(ソフトロー)が中心であった。2024年にはこれまでの関連のガイドラインをまとめる形で総務省・経済産業省から「AI事業者ガイドライン」が出されている[73]。同時に、自民党ではAIに関する立法の動き[74]もあり、制度化に向けた研究会[75]が内閣府で2024年8月2日に立ち上がった。
医療機器との関係では、HGenAIを含むAIを用いた医療目的のプログラムは、医薬品、医療機器等の品質、有効性及び安全性の確保等に関する法律(薬機法)上、プログラム医療機器(SaMD)として位置づけられ、関連のガイドライン等が示されている[76]。SaMDとしてのAIは、現状はあくまで医師を補助するツールと位置付けられており[77]、AIを用いた判断の責任は医師にあるものとされている[78]。
その他、HGenAIに関しては、事業者による自主的なガイドラインが2024年1月に出されている[79]。
(3)AI規制の方向性と医療分野への影響
AI全般に対する規制はすでに見てきたように、EUのようにハードロー中心での規制を行うか、英国のように原則をベースとした緩やかなソフトロー中心の規制にとどまるか、文化的な背景や法制度の差もあって、国際的なばらつきが存在している。一方でEUのルールはGDPRを代表に、世界のルールに影響を及ぼしており(ブリュッセル効果[80])、EUのAI規制と同様の厳しい規制が世界的に求められる可能性も示唆されている[81]。EUは厳しい規制とはいえ、同時に、事業者側の自主ルールも取り入れるという共同規制のアプローチ[82]をとることで、イノベーションの阻害をなるべくしないようにしている点も注目に値する。
一方で、こうしたAI全般に関する規制は必ずしもあらゆるHGenAIに及ぶものではない。EUのAI法において禁止されるような高リスクのAIであっても、公衆衛生や医療目的で別の法律の根拠があれば開発・使用が許容される。具体的にどのような法的整理がなされるかは、EUにおいてもまだ必ずしも十分に明瞭ではない。EUで同時に議論がされており、2024年中に成立が見込まれているEuropean Health Data Space法[83]においても、AI法や医療機器関連規制との調整に関して言及はなされているものの具体的にそれがどのようになされるかは今後の課題となっている。
英国においては、AI-Airlock[84]という規制のサンドボックス[85]の仕組みを取り入れており、また、医療へのAI規制の影響を検討した文書[86]が示されており参考になる。
HGenAIに関する規制の方向性に関しては、WHOからリコメンデーション[87] および指針[88]が出されている。生成AIを作成する事業者が国をまたいで活動している中、政府向けの指針、事業者向けの指針、ユーザー向けの指針それぞれが国際的に調和する形で求められる。
3.提言
(1)ユースケースの推進
多くのHGenAIのスタートアップが注目を集めており[89][90][91]、Mayo Clinic[92] [93]、京都大学病院[94] [95]、東北大学病院とNEC[96]、恵寿総合病院等とUbie[97]、HITO病院[98]、内閣府戦略的イノベーション創造プログラム(SIP)での研究プロジェクト[99]、生成AIを活用した患者還元型・臨床指向型の循環システム(AI創薬プラットフォーム事業)[100]等、国内外の医療機関等でも導入の事例が増えてきている。
2024年1月の日本医療政策機構の調査[101]によると、医療現場の負担軽減など様々な面でのHGenAIの活用に期待があるものの、まだまだ普及していない実態が示されている。他の業種と比較してもヘルスケアへの生成AIの展開は必ずしも進んでおらず[102]、領域によって浸透度合いが異なっている[103]。
2023年の時点でHGenAIに関してはかなりの精度が示され、米国医師国家試験に合格できるレベルであるとする研究[104][105][106]がいくつか示されている他、日本の医師国家試験にも合格できるレベルにあるとされている[107][108][109]。
浸透が進まない理由としては、文化的背景等の要因によりAIを人間以上に信頼できない[110][111]という課題や、依然として精度が不十分であったりハルシネーションの恐れがある点[112]が示されており、特にチャットボットの利用に関しては、2022年には模擬患者に対して、自殺すべきという不適切なアドバイスをしたという報告[113]もある。
一方で、業務負担軽減の事例[114]のように成果が見えてきている領域もあり、医師よりもChatbotの方が回答・共感力があるとする報告[115]も近年出てきているため、UI(ユーザーインターフェース)やデザインも工夫し、現場にとって有用かつ安全なHGenAIの事例を増やし、推進していくことが重要である。日本においては国民皆保険により医療介護のデータが多く存在し、特に、高齢化社会を迎えていることから高齢者のデータが豊富に存在することの利点を生かしたHGenAIの研究開発・実装事例が生まれることに期待する。
その際に、単純な計算能力の観点では、大手のプラットフォーム事業者との連携をせざるを得ないが、国際的なプラットフォーム事業者への規制(EUのAI法もそうした側面がある)や、経済安全保障の観点も踏まえる必要がある。
(2)展開に向けた地域のリソース確保
生成AIの展開に向けては電力その他のインフラが重要である。特に、LLMを用いる場合には、計算機とのネットワークでの接続も前提となる。システムを維持するにあたっては、一定の資金や人材も不可欠である。
しかし、特に地方においてはそのようなリソースは十分に存在していないのが現状である。HGenAIの活用は、地方における医療提供者のリソース不足を補う可能性を持っているものの、その実装の前提となる資源が足りない。
少子高齢化に伴う人口減少、過疎化の現状においては、HGenAI活用の人材に限らずあらゆる人材が不足している中、ある程度広範囲となる複数地域(少なくとも都道府県レベル)で人的リソースやシステム等を共有せざるを得ないだろう。
HGenAIを何に用いるかにもよるが、まずは現状の人材でも扱えるレベルの他地域での成功事例を導入することから始めざるを得ないだろう。その上で、今後こうした生成AIの利用に関しては、学部レベルでの教育により若手の医師や看護師等の医療従事者の最低限のスキル・リテラシーとなるように、学会等も連携して教育を行う必要があろう。
(3)イノベーションとの両立可能な医療AIの規制の整備
(1)で見たようにまだまだHGenAIが普及していない現状において、過剰な規制はイノベーションを阻害する恐れがある。一方で、現在の日本のようなガイドライン中心では強制力がなく、患者等へのリスクの観点[116]からは、一定の規制は必要となる。では、どのような領域においてどのような規制が必要であろうか。
まず、生成AI一般に関して、著作権法、個人情報保護法との関係の整理に関しては現在検討がなされているが、学習の前提となる適法なデータ収集の仕組みの整備が必要となる。学習データが集まるほど強力になるという性質からは、競争法ないしはプラットフォーマー規制の観点からの規制も重要である。
その上で、特にヘルスケアにおけるルールとしては、WHOの指針が示すように、日本政府向け、事業者向け、ユーザー向けの3つのレベルのものが必要である。
政府向けのものとしては、薬機法上の位置づけや医療法・医師法の見直しを現在の医療DXに関する検討の一環として行う必要がある。特に、従来の医師法17条の医行為との関係でのAIの位置づけはもはや通用しないだろう。また、NDB等の公的なデータベースのデータの学習データとしての活用に関しても定めるべきである。国際協調も引き続き重要であり、特に、自律型致死兵器システム(LAWS)のような軍事AIと同様に、バイオテロなど生命へのリスクにも直結するAIに関しては、国際的にも慎重な議論が求められるだろう[117]。
事業者向けのルールに関しては、現状示されている事業者の自主ガイドラインをその内容の見直しも行いながら、共同規制的に位置づけていくことに期待する。広告表現との関係では、特定保健用食品(トクホ)[118]や化粧品[119]における規制の在り方も参考になるであろう。
最後に、ユーザーに向けては、ChatGPTの流行以来、その利用を禁止するルールを示す組織も多くみられたが[120]、事実上禁止は不可能であるし、むしろ安全・倫理的な活用を推進すべきである。医学教育、医学研究、患者コミュニケーション等、様々な利用が想定される中、医療従事者側だけでなく、患者側も利用するものであるという点が重要になる。適切な利用がなされれば、患者のリテラシー向上やエンパワーメント、適切な医療へのアクセス等様々なメリットが期待される一方で、間違った情報によりリスクのある行動をとる可能性もある。ユーザー向けのルール提示はそうした患者の保護の視点が不可欠となる。
4.おわりに
本稿では、国内外における生成AIとその医療応用に関する状況を見た上で、特に日本においてどのようなことをすべきかに関して提示した。生成AIを取り巻く状況は、国内外で非常に動きが速いものとなっている。
「地域に根ざした医療DXの実装に向けた人材開発に関する政策研究」プログラムでは、今後もHGenAIの動向に関してアップデートを行いながら、特にその地域における実装も含めて実際の事例で検討するとともに、地域における医療DXに求められる課題を整理し政策提言を行う予定である。
[1] 生成系AI、生成的人工知能等の他の表記もある
[2] https://www.who.int/campaigns/s-a-r-a-h
[3] Artificial Intelligence Market Size, Share, Growth Report 2030 (grandviewresearch.com)
[4] Generative AI Technology: Growth, Evolution | Morgan Stanley
[5] Reader's guide to this document (bcg.com)
[6] How will generative AI impact healthcare? | World Economic Forum (weforum.org)
[7] Generative AI in healthcare: Emerging use for care | McKinsey
[8] How Generative AI is Transforming Healthcare | BCG
[9] Google Cloud talks generative AI at HLTH ‘23 | Google Cloud Blog
[10] GPT4搭載 AI電子カルテ「CalqKarte(カルクカルテ)」、医療機関向けサービス提供の法人との共同実証実験開始 | 株式会社KandaQuantumのプレスリリース (prtimes.jp)
[11] Patel SB, Lam K ChatGPT: the future of discharge summaries? The Lancet Digital Health 2023; 5: e107-e108 doi: https://doi org/10 1016/S2589- 7500(23)00021-3
[12] [2210.10341] BioGPT: Generative Pre-trained Transformer for Biomedical Text Generation and Mining (arxiv.org)
[13] 4月3日、医師向け臨床支援アプリ「HOKUTO」に導入開始 AI技術 OpenAI GPT-4を活用した新機能 〜患者への説明内容の考案を支援、キーワードから最新のおすすめ研究論文を抽出〜 | 株式会社HOKUTOのプレスリリース (prtimes.jp)
[14] Using AI to improve patient access to clinical trials | OpenAI
[16] Using GPT-4o reasoning to transform cancer care | OpenAI
[17] Sarraju A, Bruemmer D, Van Iterson E, Cho L, Rodriguez F, Laffin L Appropriateness of Cardiovascular Disease Prevention Recommendations Obtained From a Popular Online Chat-Based Artificial Intelligence Model JAMA 2023; 329: 842-844 doi: https://doi org/10 1001/jama 2023 1044
[18] Saving lives with AI health coaching | OpenAI
[19] AI による臨床ノートの作成 – AWS HealthScribe – AWS (amazon.com)
[20] Knowtex - Voice AI Automated Clinical Workflows
[22] Improving health literacy and patient well-being | OpenAI
[23] AIを活用したメンタルケアサポートシステムを開発~患者さんとの対話で心に寄り添うAI~ - 国立大学法人 岡山大学 (okayama-u.ac.jp)
[24] BioNemo | 生成 AI プラットフォーム | NVIDIA
[25] より迅速な治療: Insilico Medicine が生成 AI で創薬を加速 | NVIDIA
[26] IBM Japan Newsroom - ニュースリリース
[27] Accelerating the development of life-saving treatments | OpenAI
[28] MIT Technology Review Insights ”Multimodal: AI’s new frontier” Jina-AI-e-Brief-v4.pdf (technologyreview.com)
[29] NEC 、理化学研究所、日本医科大学、電子カルテとAI技術を融合し医療ビッグデータを多角的に解析 (2023年6月13日): プレスリリース | NEC
[30] General-purpose artificial intelligence (europa.eu)
[31] T Hagendorff, Mapping the ethics of generative ai: A comprehensive scoping review, arXiv preprint arXiv:2402.08323, 2024
[32] Klenk, M. Ethics of generative AI and manipulation: a design-oriented research agenda. Ethics Inf Technol 26, 9 (2024). https://doi.org/10.1007/s10676-024-09745-x
[33] 阪大ELSI note ELSI_NOTE_26.pdf (osaka-u.ac.jp)
[34] Ji, Z. et al. Survey of hallucination in natural language generation. ACM Comput. Surv.55, 248 (2023).
[35] Damian Okaibedi Eke, ChatGPT and the rise of generative AI: Threat to academic integrity?, Journal of Responsible Technology, Volume 13, 2023, 100060, ISSN 2666-6596,
https://doi.org/10.1016/j.jrt.2023.100060.
[36] IEEE SA - Ethically Aligned Design, Version 1, Translations and Reports AI Principles Japanese - Future of Life Institute 人間中心のAI 社会原則 (cao.go.jp) https://www.oecd.org/science/forty-two-countries-adopt-new-oecd-principles-on-artificial-intelligence.htm
[37] https://www.nytimes.com/2023/12/27/business/media/new-york-times-open-ai-microsoft-lawsuit.html
[38] Getty Images (US), Inc. v. Stability AI, Inc., 1:23-cv-00135 – CourtListener.com
[39] https://futureoflife.org/open-letter/pause-giant-ai-experiments/
[40] https://www.gpdp.it/web/guest/home/docweb/-/docweb-display/docweb/9871225
[41] https://www.edpb.europa.eu/system/files/2024-05/edpb_20240523_report_chatgpt_taskforce_en.pdf
[42] https://www.ppc.go.jp/files/pdf/230602_alert_AI_utilize.pdf
[43] https://www.ppc.go.jp/files/pdf/230602_alert_generative_AI_service.pdf
[44] 生成式人工智能服务管理暂行办法_中央网络安全和信息化委员会办公室 (cac.gov.cn)
[45] 内容に関してEU Artificial Intelligence Act | Up-to-date developments and analyses of the EU AI Act
[46] Executive Order on the Safe, Secure, and Trustworthy Development and Use of Artificial Intelligence | The White House
[47] Bill Text - SB-1047 Safe and Secure Innovation for Frontier Artificial Intelligence Models Act. (ca.gov)
[48] 成果文書|広島AIプロセス (soumu.go.jp)
[49] Countries agree to safe and responsible development of frontier AI in landmark Bletchley Declaration - GOV.UK (www.gov.uk)
[50] U.S. Artificial Intelligence Safety Institute | NIST
[51] The AI Safety Institute (AISI)
[52] AISI Japan - AI Safety Institute
[53] AI Principles Overview - OECD.AI
[54] Guidance for generative AI in education and research | UNESCO
[55] General Assembly adopts landmark resolution on artificial intelligence | UN News
[56] The Framework Convention on Artificial Intelligence - Artificial Intelligence (coe.int)
[57] policy_recommendation_tg_20231031.pdf (u-tokyo.ac.jp)
[58] National AI Strategy - GOV.UK (www.gov.uk)
[59] A pro-innovation approach to AI regulation: government response - GOV.UK (www.gov.uk)
[60] https://bills.parliament.uk/publications/53068/documents/4030
[61] Online Safety Act 2023 (legislation.gov.uk)
[62] https://www.gov.uk/government/consultations/artificial-intelligence-and-intellectual-property-call-for-views/government-response-to-call-for-views-on-artificial-intelligence-and-intellectual-property#copyright-and-related-rights
[63] Guidance on AI and data protection | ICO
[64] Generative AI: eight questions that developers and users need to ask | ICO
[65] NHS England » About information governance
[66] National Data Opt-Out - NHS England Digital
[67] The Medicines for Human Use (Clinical Trials) Regulations 2004 (legislation.gov.uk)
[68] 文化庁AI と著作権に関する考え方について 94022801_01.pdf (bunka.go.jp)
[69] 94089701_05.pdf (bunka.go.jp)
[70] 0528_ai.pdf (kantei.go.jp)
[71] 個人情報保護法 いわゆる3年ごと見直しについて |個人情報保護委員会 (ppc.go.jp)
[72] 総務省|報道資料|デジタル空間における情報流通の健全性確保の在り方に関する検討会とりまとめ(案)についての意見募集 (soumu.go.jp)
[73] 総務省|AIネットワーク社会推進会議|「AI事業者ガイドライン」掲載ページ (soumu.go.jp)
https://www.meti.go.jp/shingikai/mono_info_service/ai_shakai_jisso/20240419_report.html
[74] 自民党AIの進化と実装に関するプロジェクトチーム|衆議院議員 塩崎彰久(あきひさ) (note.com)
[75] AI制度研究会 - 科学技術・イノベーション - 内閣府 (cao.go.jp)
[76] プログラム医療機器について | 独立行政法人 医薬品医療機器総合機構 (pmda.go.jp)
[77] 医 政 医 発 1219 第 1 号「人工知能(AI)を用いた診断、治療等の支援を行うプログラムの利用と 医師法第 17 条の規定との関係について」2018 000227450.pdf (pmda.go.jp)
[78] 関連の検討として、松尾 剛行. 医療分野におけるAI及びロボットに関する民刑事責任 : 手術用ロボットを利用した手術における医療過誤の事案を念頭に. Law and practice. (12):2018.9,p.83-106. https://ndlsearch.ndl.go.jp/books/R000000004-I029268678
[79] https://jadha.jp/news/news20240118.html
[80] Anu Bradford, ”When It Comes to Markets, Europe Is No Fading Power―The EU Sets the Standards for the Rest of the World,” Foreign Affairs, February 3, 2020
[81] 新保 史生, EUのAI整合規則提案 —新たなAI規制戦略の構造・意図とブリュッセル効果の威力, 情報法制レポート, 2022, 2 巻, p. 71-81, 公開日 2023/10/02, Online ISSN 2436-9624, Print ISSN 2435-6123, https://doi.org/10.57332/jilis.2.0_71, https://www.jstage.jst.go.jp/article/jilis/2/0/2_71/_article/-char/ja
[82] AI Pact | Shaping Europe’s digital future (europa.eu)
[83] https://health.ec.europa.eu/ehealth-digital-health-and-care/european-health-data-space_en
[84] MHRA to launch the AI-Airlock, a new regulatory sandbox for AI developers - GOV.UK (www.gov.uk)
[86] Impact of AI on the regulation of medical products - GOV.UK (www.gov.uk)
[87] https://www.who.int/news/item/19-10-2023-who-outlines-considerations-for-regulation-of-artificial-intelligence-for-health
[88] https://www.who.int/publications/i/item/9789240084759
[89] (24) 20 Gen AI Healthcare Startups Shaping the Future: A Recap from HLTH | LinkedIn
[90] Bringing Generative AI to Healthcare | Sequoia Capital
[91] 医療・ヘルスケアスタートアップによる生成AI活用事例|コーポレートベンチャリング|デロイト トーマツ グループ|Deloitte
[92] Google Cloud Collaborates with Mayo Clinic to Transform Healthcare with Generative AI - Jun 7, 2023 (googlecloudpresscorner.com)
[93] Mayo Clinic to deploy and test Microsoft generative AI tools - Mayo Clinic News Network
[94] 京都大学と日本IBMが医療データ&AIプラットフォームをGoogle Cloud上に構築しました | 京都大学 (kyoto-u.ac.jp)
[95] 生成AIを活用した、診療現場における文書作成タスクの省力化に関する共同研究をスタート|2023年|ニュース|京都大学医学部附属病院 (kyoto-u.ac.jp)
[96] NECと東北大学病院、AI技術を活用し「医師の働き方改革」に向けた実証実験を開始 (2022年9月21日): プレスリリース | NEC
[97] ユビー メディカルナビ 生成AI (dr-ubie.com)
[98] 病院におけるAI活用の方向性 - マイクロソフト業界別の記事 (microsoft.com)
[100] 生成AIを活用した患者還元型・臨床指向型の循環システム(AI創薬プラットフォーム事業)に関する説明会 | 国立研究開発法人医薬基盤・健康・栄養研究所のプレスリリース (prtimes.jp)
[101] 【調査報告】「2023年 日本の医療の満足度、および生成AIの医療応用に関する世論調査」(2024年1月11日) - 日本医療政策機構(Health and Global Policy Institute) グローバルな医療政策シンクタンク (hgpi.org)
[102] Generative AI Receives Under 1% of Enterprise Investment, Traditional AI Hits 18% (digitalinformationworld.com)
[103] Where Generative AI Meets Healthcare: Updating The Healthcare AI Landscape (substack.com)
[104] Gilson, A. et al. How does ChatGPT perform on the United States medical licensing examination? The implications of large language models for medical education and knowledge assessment. JMIR Med. Educ. 9, e45312 (2023).
[105] Kung, T. H. et al. Performance of ChatGPT on USMLE: Potential for AI-assisted medical education using large language models. PLOS Digit. Health 2, e0000198 (2023).
[106] Brin, D., Sorin, V., Vaid, A. et al. Comparing ChatGPT and GPT-4 performance in USMLE soft skill assessments. Sci Rep 13, 16492 (2023). https://doi.org/10.1038/s41598-023-43436-9
[107] Kasai, Jungo, Yuhei Kasai, Keisuke Sakaguchi, Yutaro Yamada and Dragomir R. Radev. “Evaluating GPT-4 and ChatGPT on Japanese Medical Licensing Examinations.” ArXiv abs/2303.18027 (2023): n. pag.
[108] Takagi S, Watari T, Erabi A, Sakaguchi K. Performance of GPT-3.5 and GPT-4 on the Japanese Medical Licensing Examination: Comparison Study. JMIR Med Educ. 2023 Jun 29;9:e48002. doi: 10.2196/48002. PMID: 37384388; PMCID: PMC10365615.
[109] Tanaka Y, Nakata T, Aiga K, Etani T, Muramatsu R, Katagiri S, et al. (2024) Performance of Generative Pretrained Transformer on the National Medical Licensing Examination in Japan. PLOS Digit Health 3(1): e0000433. https://doi.org/10.1371/journal.pdig.0000433
[110] Chiara Longoni, Andrea Bonezzi, Carey K Morewedge, Resistance to Medical Artificial Intelligence, Journal of Consumer Research, Volume 46, Issue 4, December 2019, Pages 629–650, https://doi.org/10.1093/jcr/ucz013
[111] Yokoi, Ryosuke & Eguchi, Yoko & Fujita, Takanori & Nakayachi, Kazuya. (2020). Artificial Intelligence Is Trusted Less than a Doctor in Medical Treatment Decisions: Influence of Perceived Care and Value Similarity. International Journal of Human-Computer Interaction. 37. 1-10. 10.1080/10447318.2020.1861763.
[112] The Lancet Digital Health ChatGPT: friend or foe? The Lancet Digital Health 2023; 5: e102 doi: https://doi org/10 1016/S2589-7500(23)00023-7
[113] https://www theregister com/2020/10/28/gpt3_medical_chatbot_experiment/
[114] 恵寿総合病院とUbie、生成AIを活用した「医師の働き方改革」の実証実験を実施 | Ubie株式会社のプレスリリース (prtimes.jp)
[115] Ayers JW, Poliak A, Dredze M, et al. Comparing Physician and Artificial Intelligence Chatbot Responses to Patient Questions Posted to a Public Social Media Forum. JAMA Intern Med. 2023;183(6):589–596. doi:10.1001/jamainternmed.2023.1838
[116] Haupt CE, Marks M AI-Generated Medical Advice—GPT and Beyond JAMA 2023, in press doi: https://doi org/10 1001/jama 2023 5321
[117] Oniani, D., Hilsman, J., Peng, Y. et al. Adopting and expanding ethical principles for generative artificial intelligence from military to healthcare. npj Digit. Med. 6, 225 (2023). https://doi.org/10.1038/s41746-023-00965-x
[118] 特定保健用食品公正取引協議会:協議会のご案内 (jhnfa.org)
[119] 化粧品等の適正広告ガイドライン | 日本化粧品工業会 (jcia.org)
[120] BlackBerry独自調査、日本の組織の72%が、業務用デバイス上でのChatGPTおよび 生成AIアプリケーションの使用を禁止する方針であることが明らかに