ビッグデータとプロファイリング

profiling_004_R

ビッグデータと新たな差別

profiling_003_Rホワイトハウスは2014年5月に「ビッグデータ:機会をとらえ、価値を守る(BIG DATA: SEIZING OPPORTUNITIES, PRESERVING VALUES)」という報告書を発表しています。オバマ大統領の依頼を受けて、商務省、エネルギー省等の協力のもと作成されたものです。ビッグデータ技術が経済・社会・政府活動に及ぼす影響に関する包括的な内容が書かれており、ビッグデータは経済成長等に寄与する一方で、「プライバシー」と「社会的差別」という2つの問題をもたらしうると指摘しています。そして、ビッグデータを最大限に活用しリスクを最小化させるために取り組むべきこととして次の5つをあげています。

① プライバシー価値の保護:米国と、相互利用可能な国際的なプライバシーフレームワークの両方を通して、市場における個人情報を保護することでプライバシーの価値を維持する。
② 確実で責任のある教育:K-12(幼稚園から高校)を中心として、学校はビッグデータを活用することで学習機会を高めることができることを認識する。同時に個人情報を保護し、デジタルリテラシーやスキルを向上させる。
③ ビッグデータと差別:ビッグデータの使用によって生み出されるかもしれない新しいタイプの差別を防ぐ。
④ 法の執行とセキュリティ:法の執行、社会の安全、国家安全保障を進める中で、ビッグデータの責任ある使用を確実にする。
⑤ 公的資源としてのデータ:データを公的資源として活用し、公的サービスの向上のために使用し、ビッグデータ革命を促進させる研究開発に投資を行う。
(ニューヨークだより2014 年10 月米国におけるビッグデータ活用に関する動向 八山 幸司 より)

報告書では、ビッグデータの応用の多くは有益であることに疑う余地はないが、利用方法によっては、公正、公平、自主性といった基本的価値とプライバシーに影響が出ると述べています。その一つが上述の「ビッグデータと差別」なのかもしれません。ビッグデータが差別を生むというのは日本ではあまり議論にされていないようにも感じます。報告書では、個人やグループに対する差別は、ビッグデータの技術を構築して利用する方法に伴う意図しない結果である場合も、弱者層を狙った意図的結果である場合もあるとしています。

例として、ボストン市でのモバイルアプリケーション「Street Bump」を使って舗装の凹凸などの道路状態に関するデータを収集し、行政サービスに生かそうという試みについて取り上げています。

このアプリを一般に配布しようとしたとき、貧困者層や高齢者層がスマートフォンを持っていたり、このアプリをダウンロードしたりする可能性が低いため、行政サービスはスマートフォンの所有者が多い近隣地区に機械的に振り分けられる可能性があったというものです。また、銀行の例も取り上げています。かつて銀行が顧客の状況を想定するために、個人の信用能力の代わりにどんな地区に住んでいるかに基づいて貸付を認めたり投資したりし、結果としてアフリカ系、ラテン系、アジア系市民とユダヤ人を差別することになっていたように、消費者、従業員、賃借人、信用の受け手のいずれかとして望ましくないグループを「デジタルで赤線引き」するためにビッグデータの技術が使われる恐れがあると述べています。
(BIG DATA:SEIZING OPPORTUNITIES,PRESERVING VALUES Executive Office of the President
MAY 2014 より)

プロファイリング

プロファイリング(Profiling)は、横顔、断面あるいは網羅的に解析した結果から特徴を割り出す手法、人々の分類の識別を支援するために、個人の精神的及び行動的特性を記録・分析することなどといった意味があり、一般には犯罪捜査での犯人像の分析技法という意味で使われることが多いようです。

ITやビジネスでは、ある個人に関する多くのデータを集積し、これをコンピュータで解析してその個人の人物像を明らかにしたり、個人を一定のカテゴリーにセグメント(※1)分けたりする意味で使われるようです。

ビッグデータによってプロファイリングの精度が飛躍的に向上し、性別や年代を推測するだけでなく、ソーシャルメディアのデータなどを集めることで、個人の趣味嗜好までも高い精度で推測できるまでになっています。マーケットの対象とする個人の人物像をかなり詳細に描くことが可能になっていますが、そのことが差別と排除という新たな問題を生む危険性があるとの指摘があります。

前述の報告書では、データブローカーがアルゴリズムを用いて情報を分析し、データの利用者がターゲットを識別しやすいように消費者をカテゴリーに分類しているとしてそのカテゴリーの例を挙げています。

・Ethnic Second-City Strugglers(人種上の第二都市住人)
・Retiring on Empty: Singles(引きこもり:独身)
・Tough Start: Young Single Parents(養育問題:子連れの片親)
・Credit Crunched: City Families(信用危機:都市家族)
・Rural and Barely Making It(地方でぎりぎりの生活)
(BIG DATA:SEIZING OPPORTUNITIES,PRESERVING VALUES Executive Office of the President MAY 2014 より)

報告書では、こうしたビッグデータによるプロファイリングが個人の格付けとなり、消費者の支払い能力の判断や住宅を見つけるチャンスに影響を与えたりする可能性について述べています。また、特定地域の住民や民族には融資しないなどの差別、居住地区によって同じ製品に異なる割引率を適用するといったことも起こりうるとしています。

profiling_001_R(野村総合研究所 「プロファイリングの効用と課題」2015年4月16日 株式会社野村総合研究所 ICT・メディア産業コンサルティング部 小林慎太郎 より)

(※1)部分、断片、分割するといった意味です。マーケティングでは、市場の中で、共通の消費者属性(年齢・性別・職業・ニーズなど)を持っている集団を指します。

バーチャルスラム

プロファイリングは、その使い方あるいは使う分野によって諸刃の剣であり、時に深刻な問題を生じさせることがあります。「バーチャルスラムの形成」という言葉で慶応大学の山本達彦氏は、企業の採用活動を例に2016年6月1日付け朝日新聞の中で警鐘を鳴らしておられました。「個人の能力の判断を人工知能にゆだねることで、それが「真実」とみなされてその後の人生にずっと付きまとい、這い上がれなくなるリスクが生まれてしまう」というのです。プロファイリングはビッグデータをもとに確率的に判断されているだけですが、科学的説得力をもって個人の努力と成長の可能性を排除して人生に予測的に烙印を押してしまうというわけです。(詳しくは2016年6月1日付け朝日新聞「オピニオン&ファーラム」参照)

profiling_002_R日本では、まだプロファイリングのリスクに対する認識は高くなく、問題も顕在化しているわけではないようです。しかし、2012年にアメリカでSpokeo社がソーシャルメディアなど様々なデータから個人の詳細なプロファイルデータを作成し、従業員採用時のスクリーニング情報として販売していたことが「公正信用報告法」に違反するとしてFTCから80万ドルの罰金を科せられたことがありました。また、EUではデータ保護規則において、プロファイリングに異議を申し立てる権利、人種、民族的出自、政治的意見、宗教・信条、労働組合への加入の有無、性的嗜好・性的主観を基に個人を差別する効果のあるプロファイリングの禁止などの規制が行われているようです。2016年1月にFTCから出されたレポート「BIG・DATA~A Tool forInclusion or Exclusion?~」では、サブタイトルに「A Tool forInclusion or Exclusion?(包摂または排除のための道具か?)」とあるように、ビッグデータによるプロファイリングの利点を挙げつつも、差別や排除への懸念を述べています。

 

コメントを残す

メールアドレスが公開されることはありません。 * が付いている欄は必須項目です