災害救助とドローン

689381_R

災害時のドローンの活用

熊本地震では、国土地理院が土砂崩れや地割れなどによる被害状況をいち早く正確に確認することに、NTT西日本は、電信柱の倒壊状況の確認にドローンを活用し成果をあげています。災害時でのドローンの活用については、今はまだ被害状況の確認に用いることが主となっているようですが、それ以外の活用方法も検討されているようです。例えば、「復旧工事を迅速に行うためにドローンを使って測量を行う」「被災者に物資(救命具/AEDなど)を届ける」「拡声器で情報提供をする」「通信の中継基地として使う」「遭難者の捜索・救助」などいろいろ考えられています。 これまではドローンの災害救助での活用は、カメラなどの視覚的な情報が主でしたが、見えないもの救助、例えば、土砂に埋まってしまった車両、がれきの下敷きになった人などの救助にもドローンを活用しようという研究や技術開発も進められています。

ドローンを使った新たな災害救助

NEDOと日立製作所、八千代エンジニアリングは、土砂災害によって埋まった車両を、電磁探査センサーとドローンを組み合わせて探査する研究開発を進めています。2017年6月の発表では、軽自動車2台を地下1.5mと3mに埋設させ、ドローンにセンサー部をつり下げて、航行速度約2 m/s、センサー部の対地高度を約1 mで航行させて計測したところ、比較的粗い広域ドローン航行では浅部がわずかに把握できる程度でしたが、精密ドローン航行計測だと、地下1.5 mの土砂内の埋没車両の位置の特定に成功し、地下3mの車両もわずかですが検出できたとのことです。 (産総研 研究成果記事「土砂災害時にドローンによる埋没車両の探査を目指す」http://www.aist.go.jp/aist_j/press_release/pr2017/pr20170605/pr20170605.html 参照) また、先日(2017年12月7日)、科学技術振興機構(JST)は、災害現場でドローンを飛行させ、助けを求める人の声を聞き分けて位置を特定できるシステムを世界で初めて開発したと発表しました。 JSTにニュースリリースによれば、これまでのカメラなどの視覚的な方法による救助ではなく、雑音を抑え、瓦礫の下の人の声などを検出すことのできる全天候型システムで、暗くても、うるさくても、見えない場所でも救助活動が行えるとのことです。 このシステムは次の3つの技術要素からなるそうです。 (1)HARK(HRI-JP Audition for Robots with Kyoto University)を応用したマイクロホンアレイ技術 (2)三次元音源位置推定、および地図表示技術 (3)ケーブル1本でまとめて接続できる16個のマイクロホンからなる全天候型マイクロホンアレイ (科学技術振興機構(JST)プレスリリース「ドローンが耳を澄まして要救助者の位置を検出」http://www.jst.go.jp/pr/announce/20171207-2/index.html 参照) こうした技術の開発によって 飛行中のプロペラの騒音や風切り音など人の声以外の雑音を除いて、20~30メートルの範囲内で人の発した声を聞き分け、操縦者には3次元の地図で分かりやすく表示することで、夜間やがれきの下の要救助者をいち早く発見し救助につなげることができるというわけです。しかも、市販のドローンにも活用できるそうです。

HARK・ロボット聴覚

ところで、助けを求める人の声を聞き分けるシステムの重要な技術要素なっている“HARK”とは何なのでしょうか?前述のニュースリリースの用語解説では、「マイクロホンアレイを用いたロボット聴覚のオープンソースソフトウェア」とあります。複数(4~16本程度)の任意配置のマイクロホンアレイを使用し、音源定位(Sound Source Localization)、音源分離(Sound Source Separation)、分離音音声認識(Automatic speech recognition)の音環境理解をほぼ実時間で行うことができるオープンソースソフトウェアで、ロボット聴覚研究(※1)の成果として公開をされています。また、HARKは、ホンダのヒューマノイド「ASIMO」などいろいろなロボットに搭載されています。 HARK はFlowDesignerというミドルウェア上に構築されており、音源定位・追跡、音源分離、音響特徴量抽出などのロボット聴覚システム耕構築のためのモジュールが用意されており、GUIを用いたプログラミングができます。 (※1)ロボット聴覚とは、ロボットが自分自身の耳で音を聞くということですが、実世界では何人もの音声、音楽、機械の動く音、突然のチャイムなど様々な音を扱う必要があります。ロボット聴覚はロボットに装着された耳(マイク)で聞き分け(音環境認識)、音環境理解(音声、音楽、環境音、それらの混合員の処理を通じで音環境を分析理解すること)の基本機能を実時間処理で提供するというものです。

カクテルパーティー効果

人なら、多少の騒音の中でも耳を凝らせば特定の声を聞き取ることができます。しかし、機械では人の声を聞こうとしても、他の不要な音まで同時に聞えてきてしまい、その中から特定の音を取り出し、それに答えるというのは難しいようです。また、一般的な音声認識システムでは、音楽もテレビの音も音声として認識してしまうという課題もあるようです。 人はカクテルパーティー効果(cocktail-party effect)という特別な能力を備えているようです。カクテルパーティー効果とは、複数の情報の中から選択的に注意を向ける「選択的注意」と心理学では呼ばれているものの一つで、周辺に雑音が多い中から特定の音を取り出すこと、音声情報を無意識に選択して聞き取ることなどのことです。1953年、イギリスの心理学者のコリン・チェリー氏(Edward Colin Cherry)が提唱しました。 カクテルパーティーのような騒がしい中でも、自分に関連のある話声、自分が知りたい内容の話題、自分の関心のある人の声を聞き取ることができるということからつけられた名前のようです。人は自分にとって不要な音を無意識に聞かないようにして選択的に音を聞いているというわけです。実際に発生している音を録音して聞いてみると、自分の感じ取った音とは大きく違って感じます。 ちなみに、視覚でも同じように、特定のものに関心を持つと、それまでは気づかなかったのに、やたらと目に入ってくるというような経験があると思います。この現象をカラーパス効果と言います。

コメントを残す

メールアドレスが公開されることはありません。 * が付いている欄は必須項目です