急速に進化する科学技術は、私たちの生活や社会、ビジネスの在り方に大きな変化をもたらしている。その一方で、最先端技術に関する倫理的・法的・社会的な課題――「ELSI(エルシー)」が浮かび上がっている。技術が生み出す新たな可能性と向き合い、どのような未来を築いていくべきか。その答えを見つけるために、今こそ立ち止まり、考える必要がある。
本連載では、話題の新技術やビジネス動向を通じてELSIの考え方をひも解き、社会とビジネスにおける実践的な視点を提供する。今月はリスク学や政策評価を専門とし、大阪大学 社会技術共創研究センター(通称 ELSIセンター)のセンター長を務める岸本充生氏が、「なぜ今ELSIが必要なのか」を解説する。(第3回/全4回)


大阪大学D3センター教授。社会技術共創研究センター(ELSIセンター)長を兼任。産業技術総合研究所安全科学研究部門、東京大学公共政策大学院を経て現職。専門はリスク学、政策評価、先端科学技術のELSI。ELSIセンターでは人文・社会系の産学連携を推進。共著に『基準値のからくり』(講談社, 2014)、共編著『リスク学事典』(丸善出版, 2019)など。地元では小学校のPTA会長を経て中学校のPTA会長、自治会長4年目。 >>プロフィール詳細
法的にはOKなのに、「炎上」するのはなぜ?
パーソナルデータを利活用したデータビジネス界隈では、企業の法務部門や弁護士が「法的には問題ない」と助言したサービスがSNSなどでいわゆる「炎上」し、撤回されたりするケースがよくある。
関西では2014年のJR大阪駅ビル人流解析実験が有名である。このケースを振り返ってみよう。
JR大阪駅ビル「大阪ステーションシティ」内に92台のデジタルビデオカメラを設置して、同所を通行する一般の人を撮影したうえ、災害発生時等の安全対策への実用に資する人流統計情報の作成が可能か否かを検証する実験であって、2014年4月から約2年間の実施を予定していた。
2013年11月下旬のプレスリリース以降、マスメディア報道とそれらを受けた「街の声」がさらに報道されるという悪循環により、いわゆる「炎上」状態になり、結果的に2014年3月、実験の延期(実質的には中止)が決まった。
本件のユニークなところは、4月に経緯を検証するために弁護士らからなる第三者委員会が設置され半年後に報告書が公開されたことである[註1]。
本報告書によれば、民法の観点からもプライバシー権を違法に侵害することはなく、また(当時の独立行政法人等)個人情報保護法の観点からも問題がなかったという結論が得られた。つまり法的にはOKなのに「炎上」したということなのである。
報告書ではそうした結論とともに7点の勧告がなされている。そこには、「実験手順や実施状況等を定期的に確認し公表すること」「個人識別のリスクを市民に対して事前に説明すること」「映像センサーの存在と稼働の有無を利用者に一目瞭然にすること」「本実証実験に関して適切な広報を行うこと」といった事項が並ぶ。
つまり、この実験は法的には問題がなくても、倫理的・社会的に十分でなかったのである。

法律は技術革新のスピードについていけない
法律を遵守することは大事だし、これからもそうである。ただし、新しい技術については問題はもう少し複雑である。
生成AIをはじめとする最近のAIの技術革新のスピードには驚かされるが、現行の法規制で対応できればよいものの、あてはまる規定がなかったり、現行法ではそもそも違法の疑いがあったりする場合もある。しかし、法規制の改正には時間がかかる。
技術革新のスピードと法規制の改正スピードが合わないと何が起きるだろうか。
1つは、現行の法規制を遵守していても、倫理的・社会的にマズいことが起きるケースである。JR大阪駅ビル人流解析実験はまさにそのケースだった。実際その後も次々と起きているいわゆる「炎上」ケースの多くがこれにあたる。
もう1つは、せっかく新しい技術を開発しても、現行の法規制では違法となってしまうために社会実装できないケースである。この場合は規制改革を要望、すなわちロビイングを実施し、実現してもらうことが必要である。ドローン、自動運転、民泊、ライドシェアなどほとんどの新しい技術やサービスがこれにあたる。
「技術的にできること」と「社会的にやってよいこと」の乖離
デジタル化により大量のデータが利用可能になり、計算能力の増強や機械学習の発展が合わさることにより、大量のパーソナルデータとAIを使うと様々なことができてしまうようになった(図)。

ラベルの付いた大量のデータセットさえあれば、例えば、顔写真とその人がその後犯罪を犯したかどうかというデータセットを揃えることができれば、顔写真から「10年以内に犯罪者になる確率」を推測するモデルをつくることだって「できる」のである。もちろんそんなモデルで予測した結果の正確性の保証はないうえに、過去の他人のデータをもとに何もしていない人にそのようなレッテルを貼ること自体が人権侵害であるので、「やるべきでない」データ利活用である。
つまり、技術的にできるように見えることと社会的にやってよいことの間に大きな乖離が生じているのである。
これはかつてバイオテクノロジーが経験したことである。クローン人間やデザイナーベイビーといった、このままいけば技術的にできてしまうかもしれないことと社会としてやってもよいことの間の乖離が見えてきたことで様々な議論が行われ、結果としていくつかの規制が導入された。
パーソナルデータやAIの利活用においてもまさにこのような段階に達しているといえるだろう。
[註1]映像センサー使用大規模実証実験検討委員会「調査報告書」2014年10月20日 https://www.nict.go.jp/nrh/iinkai/iinkai.html
【次回 3月26日(水)18時 公開予定】
ご購入いただくと過去記事含むすべてのコンテンツがご覧になれます。

過去のコンテンツも全て閲覧可能な月額サブスクリプションサービスです。
🔰シンクロナスの楽しみ方
最先端テクノロジーの社会実装における、倫理的・法的・社会的課題=ELSI(エルシー)の最新話題を各分野の専門家が解説。
無料の記事を読む |
AIが日々のストレスを記録!?「感情認識技術」のメリットと課題 |
会員登録がまだの方は会員登録後に商品をご購入ください。