Affective Computing

e374eb01ff0df8d9c4a631ac91a89d2a_s_R

Affective Computing

Affective(アフェクティブ)は感情という意味です。Affective Computing(アフェクティブ・コンピューティング)は、人間の感情や情緒に関係するコンピューティング分野で、1997年にMIT Media LabのRosalind Picard(ロザリンド・ピカード)教授が、その著書「Affective Computing」において提唱したのが最初と言われています。ちなみにロザリンド・ピカード教授は女性です。

これに似た研究はその前からも行われており、米国の心理学者のPaul Ekman(ポール・エクマン)氏が1970年代に考案した、基本動作の組み合わせによって様々な顔の動きをコード化するFACS(Facial Action Coding System:顔面動作符号化システム)理論などもその一つです。この理論は、CGやアニメのキャラクターにリアルな表情をさせたり、様々な表情を読みとるカメラや「笑顔」を認識するカメラ、感情を表現する感知するロボット開発などに利用されてきています。

Affective Computingの研究対象

Affective Computing(アフェクティブ・コンピューティング)の研究内容については、Rosalind Picard教授が率いるAffective ComputingグループのWebサイト(2018年1月から新しいWebサイトに変更)には、「感情やその他の感情的現象に関係する、意図的に影響を及ぼすコンピューティングのこと(Picard、MIT Press 1997)」とあります。また、新しいWebサイトには「Affective Computingは、人間の感情とコンピュータテクノロジーとのギャップを埋めることを目指している」とあります。

日本でのAffective Computing(アフェクティブ・コンピューティング)の研究では、「人の感情をコンピュータで表現しようとする研究」、「表情、言語、心拍、呼吸などから人間の感情解析する人工知能を開発するための研究領域」、「感情、気分、態度、パーソナリティ等の感情的(アフェクティブ)な行動を感知、モデル化、表出することができる人工知能の研究」といった説明がなされます。

MITのAffective ComputingグループのWebサイトに記されている研究テーマには、仮想現実、人工知能、コンシューマーエレクトロニクス、認識、健康、人と機械のインタラクション、音楽、ウェアラブルコンピューティング、ソーシャルサイエンス、行動科学、ソーシャルロボット、パーセクティブコンピューティング、ウェルビー ニング、人類の増強など幅広い分野が挙げられています。紹介されているプロジェクトも、「うつ病」、「表情や身体言語」、「3D畳み込みニューラルネットワークによるアニメーションGIFの感情予測」「自動舌解析」「自律睡眠パターン分析」など数多くあり、以前のWebサイトには、「エンジニアリングとコンピュータサイエンスを心理学、認知科学、神経科学、社会学、教育、心理生理学、価値中心のデザイン、倫理などと結びつけています」とあるように、研究の対象は非常に広範囲にわたるもののようです。

Affective Computingとハイプ・サイクル

Affective Computing(アフェクティブ・コンピューティング)という言葉は、一般にはあまり馴染みのない言葉ですが、ガートナー社の「先進テクノロジーのハイプ・サイクル」では、2013年にすでに登場しています。2016年では「黎明期」から「過度な期待のピーク期」に差し掛かろうとするあたりにありました。ただし、2017年版では記載されていません。

また、Affective Computing(アフェクティブ・コンピューティング)は事業としても非常に大きな成長の可能性が指摘されており、2016年に122億ドルだった市場規模は、2021年には540億ドルに達するという予測もあります。

Affective Computingの事例

Affdex

MITのラナ・エル・カリウビと前述のロザリンド・ピカードが起業したAffectiva社が開発した感情認識AIです。ウェブカメラなどを使って、ターゲットの顔の筋肉の僅かな動きをリアルタイムに捉え、感情をデータ化し、分析するもので、モバイルアプリケーションやゲーム・ロボットなどの製品や広告・教育・ヘルスケア業界などでの活用ですでに活用されています。(https://affectiva.jp/ 参照)

Tega

MITが開発した学習支援ロボットです。Affectiva社の感情解析AI 「Affdex」が組み込まれています。子どもたちの学びのモチベーションを継続させるために、教わる側の感情を読み取り、それに合わせて適切な教え方を返すというロボットです。「Tega」に教わった子どもは、ストレスが低減し学習効果が高まったとのことです。(http://robotic.media.mit.edu/portfolio/tega/ 参照)

Tone Analyzer

IBMのテキストから感情と文体のトーンを検出するサービスです。怒り、不安、喜び、悲しみといった感情や、確信的、分析的、あいまいといった文体のスタイルを検出します。「汎用分析」と「顧客エンゲージメント分析」の2種類のAPIを提供しています。コールセンターやSNS分析を行う企業が活用しています。(https://www.ibm.com/watson/jp-ja/developercloud/tone-analyzer.html 参照)

Empath

声の大きさ、トーン、発声速度など、音声から抽出された様々な音声の物理的な特徴量から感情の状態を独自のアルゴリズムで判定するスマートメディカルが開発した音声気分解析AIです。NTTドコモの被災地支援事業で採用されたり、NTTドコモの「じぶん予報」フィリップスの「感情感知照明」、ユカイ工学の見守りロボット「BOCCO」、富士通の「ロボット・AI・プラットフォーム」などに導入されています。2016年3月にWeb Empath APIがリリースされ、国内外の多くの企業がAPI利用に登録をしているそうです。(https://webempath.net/lp-jpn/ 参照)

Pace Sync

スマートフォンで顔を撮影するだけで心拍数を計測し、その鼓動に最適化されたテンポのアニメーション動画を自動再生することでユーザーの緊張を緩和するという電通からリリースされているスマートフォン向けアプリです。(http://www.dentsu.co.jp/news/release/2015/0319-003979.html 参照)

 

コメントを残す

メールアドレスが公開されることはありません。 * が付いている欄は必須項目です