JP7197003B2 - 深度推定装置、深度推定方法、及び深度推定プログラム - Google Patents

深度推定装置、深度推定方法、及び深度推定プログラム Download PDF

Info

Publication number
JP7197003B2
JP7197003B2 JP2021519958A JP2021519958A JP7197003B2 JP 7197003 B2 JP7197003 B2 JP 7197003B2 JP 2021519958 A JP2021519958 A JP 2021519958A JP 2021519958 A JP2021519958 A JP 2021519958A JP 7197003 B2 JP7197003 B2 JP 7197003B2
Authority
JP
Japan
Prior art keywords
depth
learning
depth map
estimator
frequency information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021519958A
Other languages
English (en)
Other versions
JPWO2020235022A1 (ja
Inventor
豪 入江
隆仁 川西
邦夫 柏野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Publication of JPWO2020235022A1 publication Critical patent/JPWO2020235022A1/ja
Application granted granted Critical
Publication of JP7197003B2 publication Critical patent/JP7197003B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/02Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems using reflection of acoustic waves
    • G01S15/06Systems determining the position data of a target
    • G01S15/42Simultaneous measurement of distance and other co-ordinates
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/88Sonar systems specially adapted for specific applications
    • G01S15/89Sonar systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/02Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems using reflection of acoustic waves
    • G01S15/06Systems determining the position data of a target
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/02Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems using reflection of acoustic waves
    • G01S15/06Systems determining the position data of a target
    • G01S15/08Systems for measuring distance only
    • G01S15/32Systems for measuring distance only using transmission of continuous waves, whether amplitude-, frequency-, or phase-modulated, or unmodulated
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/52Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00
    • G01S7/539Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • General Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Measurement Of Velocity Or Position Using Acoustic Or Ultrasonic Waves (AREA)

Description

開示の技術は、深度推定装置、深度推定方法、及び深度推定プログラムに関する。
人工知能(Artificial Intelligence:AI)技術の進展が目覚ましい。高度な監視システムや見守り、スマートフォン及びロボットによるナビゲーションなど、実空間における人間の様々な活動を支援する技術が提供され、またさらなる発展を迎えようとしている。
人間の活動を支えるAIシステムへの要件として、システムが置かれている空間の構造や形状を正確に理解する手段を備えていることが挙げられる。例えば、ある人物を追跡したい場合、その人物が物陰に隠れてしまった場合、システムは「追跡対象の人物が物陰の奥にいる可能性が高い」ということを的確に判断できることが期待される。しかし、この判断を行うには、空間に人物が隠れられるだけの物陰が存在する、という構造的情報を理解する必要がある。また、例えば市街にてユーザを目的の場所まで案内するロボットの場合、ユーザの実際の目線から、どこをどう通れば目的の場所に辿りつけるかを提示できることが好ましい。しかし、この場合も目的地までの地理構造がどのようになっているのかを理解している必要がある。あるいは、商品を運搬するロボットならば、物品棚にある商品を把持及び運搬し、別の商品棚に移すような場面もある。この際、ロボットの作業を完遂するためには、物品棚の構造や形状を正確に認識できる必要がある。
このように、空間の構造の把握は、多くのAIシステムに必要な基本的な機能の一つであり、そのための技術に大きな期待が寄せられていると言える。
構造は3次元的な幾何形状、すなわち、幅、高さ、及び深度(奥行)を得ることにより知ることができるが、特に単一視点からは計測しにくい深度情報の計測は3次元計測の要である。
深度を計測する公知の手段は数多く存在する。例えば、百メートルまでの規模の空間であれば、LiDAR(light detection and ranging/light imaging,detection,and ranging)によるレーザースキャンが利用できるが、一般に比較的コストが掛かる。一般的な室内では、赤外光などを用いたTime of Flight(ToF)カメラや構造化照明を用いた計測方法などが存在する。このような手段は、いずれも専用の計測デバイスの利用を前提としたものであり、常にこのようなデバイスが利用できるとは限らないという問題点がある。
別の手段として、より一般的に普及しているカメラ、すなわち、RGB画像を用いる技術もよく知られている。一枚のRGB画像からは、幅と高さを見てとることはできるものの、深度情報を得ることはできない。このため、例えば特許文献1に記載の方法のように、別視点から撮影した2枚以上の画像を使う、あるいは、ステレオカメラなどを用いるといったように、複数枚の画像を用いて計測を実現する必要がある。
さらに簡便に深度情報を得るため、単一のRGB画像から機械学習を用いて深度情報を推定する技術も開示されてきている。最近主流となっているのは深層ニューラルネットワークを用いた方法であり、RGB画像を入力として受け付け、当該画像の深度情報を直接出力する深層ニューラルネットワークを直接学習する。
例えば非特許文献1には、非特許文献2に開示されているDeep Residual Network(ResNet)をベースとしたネットワークを、Reverse Huber 損失(BerHu損失)を用いて学習する方法が開示されている。BerHu損失は、区分関数であり、深度推定誤差の小さいところでは線形、深度推定誤差の大きいところでは2次関数となる関数である。
非特許文献3には、非特許文献1同様のネットワークを、L1損失、すなわち推定誤差に対して線形関数を用いて学習する方法が開示されている。
特開2017-112419号公報
Iro Laina, Christian Rupprecht, Vasileios Belagianis, Federico Tombari, and Nassir Navab, "Deeper Depth Prediction with Fully Convolutional Residual Networks," In Proc. International Conference on 3D Vision (3DV), pp. 239-248, 2016. Kaiming He, Xiangyu Zhang, Shaoqing Ren, and Jian Sun. "Deep Residual Learning for Image Recognition," In Proc. Conference on Computer Vision and Pattern Recognition (CVPR), 2016. Fangchang Ma and Sertac Karaman. "Sparse-to-Dense: Depth Prediction from Sparse Depth Samples and a Single Image," In Proc. International Conference on Robotics and Automation (ICRA), 2018. Ivan Dokmanic, Reza Parhizkar, Andreas Walther, Yue M. Lu, and Martin Vetterli. "Acoustic Echoes Reveal Room Shape," Proc. National Academy of Sciences of the United States of America (PNAS), Vo. 110(30), pp.12186-12191, 2013.
概して昨今発明されている深度推定技術は、カメラを用いるという特性上、カメラでは写らないような暗い室内、あるいは、カメラで撮影したくないような空間に対しては利用できないという問題があった。
開示の技術は、上記の点に鑑みてなされたものであり、音響信号を用いて、空間の深度を精度よく推定するための深度推定装置、深度推定方法、及び深度推定プログラムを提供することを目的とする。
本開示の第1態様は、深度推定装置であって、計測対象空間で所定の誘引音を発する発信部と、発信部により前記誘引音を発した時刻の前後に対応する所定の時間の音響信号を収音する収音部と、前記音響信号に基づいて、前記音響信号を解析した時間周波数情報を表す特徴を抽出し、一つ以上の畳み込み演算により構成される深度推定器であって、前記時間周波数情報を表す特徴を入力とした場合に、前記計測対象空間を表す画像の各画素に深度が付与された推定深度マップを出力するように学習されている深度推定器に、抽出した前記時間周波数情報を表す特徴を入力し、前記計測対象空間の推定深度マップを生成する推定部と、を含んで構成されている。
本開示の第1態様において、学習部を更に含み、前記深度推定器は、前記推定部により、収音した学習用の音響信号を周波数解析して時間周波数情報を表す特徴を抽出し、当該時間周波数情報に対して深度推定器を適用させて、学習用の推定深度マップを生成し、前記学習部により、生成された前記学習用の推定深度マップと、前記学習用の推定深度マップに対する正解深度マップとの誤差から求めた第1損失値に基づいて前記深度推定器のパラメータを更新することで学習されているようにしてもよい。
本開示の第1態様において、前記深度推定器は、前記学習部により、前記第1損失値に基づいて更新された前記深度推定器に対して、前記計測対象空間で検出されたエッジを前記誤差に反映した第2損失値に基づいて前記深度推定器のパラメータを更新することで学習されているようにしてもよい。
本開示の本開示の第2態様は、深度推定方法であって、計測対象空間で所定の誘引音を発し、発信部により前記誘引音を発した時刻の前後に対応する所定の時間の音響信号を収音し、前記音響信号に基づいて、前記音響信号を解析した時間周波数情報を表す特徴を抽出し、一つ以上の畳み込み演算により構成される深度推定器であって、前記時間周波数情報を表す特徴を入力とした場合に、前記計測対象空間を表す画像の各画素に深度が付与された推定深度マップを出力するように学習されている深度推定器に、抽出した前記時間周波数情報を表す特徴を入力し、前記計測対象空間の推定深度マップを生成する、ことを含む処理をコンピュータが実行することを特徴とする。
本開示の本開示の第2態様において、前記深度推定器は、収音した学習用の音響信号を周波数解析して時間周波数情報を表す特徴を抽出し、当該時間周波数情報に対して深度推定器を適用させて、学習用の推定深度マップを生成し、生成された前記学習用の推定深度マップと、前記学習用の推定深度マップに対する正解深度マップとの誤差から求めた第1損失値に基づいて前記深度推定器のパラメータを更新することで学習されているようにしてもよい。
本開示の本開示の第2態様において、前記深度推定器は、前記第1損失値に基づいて更新された前記深度推定器に対して、前記計測対象空間で検出されたエッジを前記誤差に反映した第2損失値に基づいて前記深度推定器のパラメータを更新することで学習されているようにしてもよい。
本開示の本開示の第3態様は、深度推定プログラムであって、計測対象空間で所定の誘引音を発し、発信部により前記誘引音を発した時刻の前後に対応する所定の時間の音響信号を収音し、前記音響信号に基づいて、前記音響信号を解析した時間周波数情報を表す特徴を抽出し、一つ以上の畳み込み演算により構成される深度推定器であって、前記時間周波数情報を表す特徴を入力とした場合に、前記計測対象空間を表す画像の各画素に深度が付与された推定深度マップを出力するように学習されている深度推定器に、抽出した前記時間周波数情報を表す特徴を入力し、前記計測対象空間の推定深度マップを生成する、ことをコンピュータに実行させる。
開示の技術によれば、音響信号を用いて、空間の深度を精度よく推定することができる。
本開示の実施形態の深度推定装置の構成の一態様を示すブロック図である。 深度推定装置のハードウェア構成を示すブロック図である。 本開示の実施形態の深度推定装置の構成の一態様を示すブロック図である。 本開示の実施形態の深度推定装置の構成の一態様を示すブロック図である。 第1実施形態の深度推定装置による学習処理の流れを示すフローチャートである。 第2実施形態の深度推定装置による学習処理の流れを示すフローチャートである。
以下、開示の技術の実施形態の一例を、図面を参照しつつ説明する。なお、各図面において同一又は等価な構成要素及び部分には同一の参照符号を付与している。また、図面の寸法比率は、説明の都合上誇張されており、実際の比率とは異なる場合がある。
[実施形態の構成]
以下、本実施形態の構成について説明する。なお、作用の説明において第1実施形態と第2実施形態とに分けて説明するが、構成は同一である。
図1は、本実施形態の深度推定装置100(深度推定装置100A:以下、深度推定装置の態様に応じてアルファベットを付す場合がある)の構成を示すブロック図である。
図1に示すように、深度推定装置100は、発信部101と、収音部102と、推定部110と、記憶部120とを備える。推定部110は、制御部111と、深度推定部112とを備える。深度推定装置100は、外部と通信手段を介して接続されて相互に情報通信する。また、推定部110は、発信部101と、収音部102と、記憶部120と相互情報通信可能な形で接続されている。
図2は、深度推定装置100のハードウェア構成を示すブロック図である。
図2に示すように、深度推定装置100は、CPU(Central Processing Unit)11、ROM(Read Only Memory)12、RAM(Random Access Memory)13、ストレージ14、入力部15、表示部16及び通信インタフェース(I/F)17を有する。各構成は、バス19を介して相互に通信可能に接続されている。
CPU11は、中央演算処理ユニットであり、各種プログラムを実行したり、各部を制御したりする。すなわち、CPU11は、ROM12又はストレージ14からプログラムを読み出し、RAM13を作業領域としてプログラムを実行する。CPU11は、ROM12又はストレージ14に記憶されているプログラムに従って、上記各構成の制御及び各種の演算処理を行う。本実施形態では、ROM12又はストレージ14には、マルチタスク学習プログラムが格納されている。
ROM12は、各種プログラム及び各種データを格納する。RAM13は、作業領域として一時的にプログラム又はデータを記憶する。ストレージ14は、HDD(Hard Disk Drive)又はSSD(Solid State Drive)により構成され、オペレーティングシステムを含む各種プログラム、及び各種データを格納する。
入力部15は、マウス等のポインティングデバイス、及びキーボードを含み、各種の入力を行うために使用される。
表示部16は、例えば、液晶ディスプレイであり、各種の情報を表示する。表示部16は、タッチパネル方式を採用して、入力部15として機能しても良い。
通信インタフェース17は、端末等の他の機器と通信するためのインタフェースであり、例えば、イーサネット(登録商標)、FDDI、Wi-Fi(登録商標)等の規格が用いられる。
次に、深度推定装置100の各機能構成について説明する。各機能構成は、CPU11がROM12又はストレージ14に記憶されたプログラムを読み出し、RAM13に展開して実行することにより実現される。
発信部101は、制御部111の制御により外部に音を出力できるものであればどんなものを用いてもよく、スピーカー等を用いればよい。収音部102も同様に、制御部111の制御により音を収取できるものであればどんなものを用いてもよく、マイク等を用いればよい。もちろん複数のスピーカー、マイクにより構成しても構わない。発信部101は、計測対象空間で所定の誘引音を発する。収音部102は、発信部101により誘引音を発した時刻の前後に対応する所定の時間の音響信号を収音する。
推定部110は、制御部111と深度推定部112とを動作させ、収音部102により収音した音響信号に基づいて、計測対象空間の推定深度マップを出力する。
推定部110を構成する制御部111及び深度推定部112について説明する。
制御部111は、発信部101及び収音部102を制御する。制御部111は、発信部101を動作させ、所定の誘引音を空間に対して出力する。また、制御部111は、収音部102を動作させ、誘引音が発生する前後一定時間の音響信号を収音する。収音した音響信号は制御部111を通して深度推定部112に伝達され、深度推定のための入力として用いられる。
深度推定部112は、音響信号が入力されると、音響信号に対して特徴解析を施して時間周波数特徴化し、音響信号を解析した時間周波数情報を表す特徴を抽出する。次に、記憶部120の深度推定器に、抽出した時間周波数情報を表す特徴を入力することで、計測対象空間の深度マップを生成し、出力する。この際、深度推定部112は、記憶部120より深度推定器のパラメータを読み込む。深度推定部112は、深度推定器により得られた出力を、計測対象空間の深度推定結果である深度マップとして出力する。
記憶部120には、深度推定器が記憶されている。深度推定器は、一つ以上の畳み込み演算により構成される深度推定器であり、時間周波数情報を表す特徴を入力とした場合に、計測対象空間の深度マップを出力するように学習されている。深度推定器のパラメータは、本開示の実施形態の一例による深度推定処理を実行する前に少なくとも一度学習により決定し、記憶部120に記録しておく必要がある。以下、記憶部120に深度推定器が格納されており、記憶部120の深度推定器の読み出し及び学習処理による更新を行うことを前提に記載する。
学習処理を実行する際の構成及び方法は様々なものがあり得るが、装置構成としては例えば図3に示す構成を採ることができる。
図3の深度推定装置100(100B)の構成例では、図1に示す装置構成の一例に加えて、さらに深度計測部103と、学習部140とを備え、これらは推定部110及び記憶部120と相互情報通信可能な形で接続されている。
深度計測部103は、学習時の正解となる深度マップ(以降、正解深度マップ)を得る目的で利用するものである。よって、深度計測部103は計測対象空間の深度マップを直接計測するデバイスにより構成することが好ましい。例えば、前述のLiDAR (light detection and ranging/ light imaging, detection, and ranging)を用いたレーザースキャンデバイス、赤外光などを用いたTime of Flight (ToF)カメラや構造化照明を用いた計測装置など任意の公知のものを利用することができる。なお、当然のことながら、これらの装置は学習時のみ利用するものであり、実際に本開示による深度推定を実施する際には用いる必要はない。
深度計測部103は、制御部111による制御に基づき、発信部101、収音部102の動作に同期して計測対象空間の正解深度マップを計測し、制御部111を通して深度推定部112に伝達する。
深度推定装置100Bにおいて、深度推定部112は、制御部111を通じて得られた学習用の音響信号を解析し、時間周波数情報を表す特徴を抽出する。次に、記憶部120の深度推定器に、抽出した時間周波数情報を表す特徴を入力することで、学習用の音響信号から得られた計測対象空間の学習用の推定深度マップを生成し、学習部140に出力する。
学習部140は、学習用の推定深度マップと正解深度マップとに基づいて、正解深度マップに近くなるように深度推定器のパラメータを更新して学習し、記憶部120に記録する。
なお、図3では、学習データ自体を深度推定装置100Bが収集するという前提の下、装置構成を例示したが、本開示を利用する上で学習データを準備する手段は本開示の要点とは無関係であり、どのような手段で準備しても構わない。したがって図3の構成は必須ではなく、別の構成を採っても構わない。例えば、図4のような構成を採用し、学習データが深度推定装置100Cの外部にある外部記憶部150より通信を用いて参照可能な構成としても構わない。この構成の場合、制御部111は外部記憶部150より対応する音響信号と正解深度マップの組を適宜読み込み深度推定部112、あるいは、学習部140に伝達する。学習部140は、学習データを基に、深度推定部112が求める推定深度マップが、正解深度マップに近くなるように深度推定器のパラメータを更新し、記憶部120に記録する。
いずれの構成の一例においても、深度推定装置100が備える各部及び各手段は、演算処理装置、記憶装置等を備えたコンピュータやサーバ等により構成して、各部の処理がプログラムによって実行されるものとしてもよい。このプログラムは深度推定装置100が備える記憶装置に記憶されており、磁気ディスク、光ディスク、半導体メモリ等の記録媒体に記録することも、ネットワークを通して提供することも可能である。もちろん、その他いかなる構成要素についても、単一のコンピュータやサーバによって実現しなければならないものではなく、ネットワークによって接続された複数のコンピュータに分散して実現しても構わない。
[処理概要]
本実施形態における深度推定装置100が実行する処理の詳細について説明する。本実施形態における深度推定に関する処理は、大別して、入力音響信号を基に推定深度マップを求める推定処理と、深度推定器を学習する学習処理との2つの異なる処理がある。以下の説明では、深度推定装置100(100B)が上記図3の構成により学習処理を行い、学習された深度推定器を用いて推定処理を行うことを前提として説明する。
本実施形態における深度推定装置100は、計測対象空間に出力した誘引音に伴い収音された音響信号を入力として得ると、当該計測対象空間の推定深度マップを推定し出力する。
深度マップとは、計測対象空間を表す画像の各画素値に、計測対象空間のある地点の深度である、計測デバイス(深度計測部103)からの奥行き方向の距離を格納したマップである。距離の単位は任意のものを用いることができるが、例えばメートルやミリメートルを単位として用いればよい。学習に用いる正解深度マップと、推定された推定深度マップとは同じ幅及び高さを持ち、同様の形式を持つデータである。
[第1実施形態の作用]
第1実施形態の作用について説明する。まず、学習処理及び推定処理に共通する前処理である音響信号の収音処理について説明する。その後、学習処理及び推定処理について、実施形態の作用について詳細に述べる。
<収音処理>
まずは音響信号の収音処理について説明する。収音に利用する誘引音は、任意の公知のものを利用することができるが、好ましくは広範な周波数特性を解析するのに適した信号を用いることが好ましい。具体例としては、参考文献1に記載のTime-Stretched-Pulse(TSP)信号が挙げられる。
[参考文献1]N. Aoshima. “Computer-generated pulse signal applied for sound measurement,” The Journal of the Acoustical Society of America, Vol.69, 1484. 1981
制御部111は、TSP信号を発信部101より出力し、その前後一定時間の音を音響信号として収音する。好ましくはTSP信号を複数回、一定間隔で出力し、各出力に対応する音響信号の平均を求める。例えばTSP信号を2秒間隔で4回出力するとし、収音時間は合計の8秒とし、2秒分の出力時間に対応する4回分の音響信号の平均を取る。収音部102が複数のマイクにより構成されている場合には、複数の音響信号を収音する。
以上が収音処理の詳細である。
<学習処理>
図5は、第1実施形態の深度推定装置100による学習処理の流れを示すフローチャートである。CPU11がROM12又はストレージ14からプログラムを読み出して、RAM13に展開して実行することにより、学習処理が行なわれる。
以降、i番目の入力となる音響信号をA、対応する正解深度マップをT、深度推定部112により推定された推定深度マップをDと表す。また、正解深度マップT及び推定深度マップDの(x,y)座標の画素値をそれぞれT(x,y)、D(x,y)と表す。
本開示の実施形態における学習処理は、次の工程により実行される。なお、i=1と初期化しておく。
まず、ステップS401では、CPU11は、深度推定部112として、音響信号Aに対して特徴抽出処理を施し、時間周波数情報を表す特徴Sを抽出する。
続いてステップS402では、CPU11は、深度推定部112として、特徴Sに対して深度推定器fを適用し、推定深度マップD=f(S)を生成する。
続いてステップS403では、CPU11は、学習部140として、推定深度マップDと正解深度マップTとに基づいて、第1損失値l(D,T)を求める。
続いてステップS404では、CPU11は、学習部140として、第1損失値l(D,T)を小さくするように深度推定器のパラメータを更新し、当該パラメータを記憶部120に記録する。
続いてステップS405では、CPU11は、所定の終了条件が満たされたか否かを判定し、満たされていれば処理を終了し、そうでなければiをインクリメント(i←i+1)してS401に戻る。終了条件は任意のものを定めて構わないが、例えば「所定の回数(例えば100回など)繰り返したら終了」、「第1損失値の減少が一定繰り返し回数の間、一定の範囲内に収まっていたら終了」などとすればよい。
以上のように、学習部140は、生成された学習用の推定深度マップDと、正解深度マップTとの誤差から求めた第1損失値l(D,T)に基づいてパラメータを更新する。
以降、上記ステップS401、S402、S403、S404の各処理の詳細処理について、本実施形態における一例を説明する。
[ステップS401:特徴抽出処理]
深度推定部112により実行される特徴抽出処理の一例を説明する。特徴抽出処理では入力となる音響信号Aから、当該音響信号の時間周波数情報を表す特徴Sを抽出する。当該処理は公知のスペクトル解析手法を用いることができる。本開示を利用する上ではどのようなスペクトル解析手法を用いても構わないが、例えば短時間フーリエ変換を適用し、時間周波数スペクトルを得ればよい。あるいは、メルケプストラムやメル周波数ケプストラム係数(MFCC)などを用いても構わない。
このような特徴抽出処理で得られる特徴Sは2次元又は3次元の配列となる。通常、配列のサイズは時間窓の数tと周波数ビンの数bに依存した大きさt×bとなる。3次元の場合はさらに実数成分と複素成分の2チャネル分の値が格納され、配列の大きさはt×b×2となる。
収音部102が複数のマイクにより構成されている場合など、音響信号が複数存在する場合は、上記処理を各音響信号に対して適用し、一つの配列にまとめればよい。例えば、4つのマイクにより構成され、4つの音響信号が得られたならば、4つの配列を3次元目で結合してt×b×8の大きさの配列を構成し、当該配列を特徴Sとする。
この他、配列で表現できる特徴であれば上記以外の任意のものを利用することができる。例えば参考文献2に記載の角度スペクトルなどはその一例である。また、複数の特徴を組み合わせて利用しても構わない。
[参考文献2] C. Knapp and G. Carter. “The generalized cross-correlation method for estimation of time delay,” IEEE Trans. Acoustics, Speech, and Signal Processing, vol. 24, pp. 320-327, 1976.
以上が特徴抽出処理の一例である。
[ステップS402:深度推定処理]
深度推定部112は、特徴Sに対して深度推定器fを適用し、推定深度マップD=f(S)を求める。
深度推定器fとしては、特徴Sを入力として、推定深度マップDを出力することのできる任意の関数を用いることができるが、本実施形態では、一つ以上の畳み込み演算により構成される畳み込みニューラルネットワークを用いる。ニューラルネットワークの構成は、上記のような入出力関係を実現できるものであれば任意の構成を採ることができるが、例えば非特許文献1や非特許文献2に記載のもの、あるいは、参考文献3に記載のDenseNetに基づくものなどを用いればよい。
[参考文献3]Gao Huang, Zhuang Liu, Laurens van der Maaten, and Kilian Q. Weinberger. “Densely Connected Convolutional Network,” In Proc. Conference on Computer Vision and Pattern Recognition (CVPR), 2017.
本開示におけるニューラルネットワークの構成はこれに限られるものではなく、先の入出力要件を満たす限りどんな構成を採っても構わない。好ましくは解像度の高い推定深度マップを出力できるよう、逆畳み込み層(Deconvolution layer/Upconvolution Layer)、及びアップサンプリング層(Upsampling layer)を用いて構成する。
仮に複数の特徴を利用する場合には、例えば次のような構成を用いることができる。まず、各種特徴を個別に処理する一つ以上の畳み込み層と活性化関数(ReLU)を設け、その後、全結合層を設けて特徴を一つにまとめる。最後に逆畳み込み層を用いて単一の推定深度マップを出力する構成とする。
以上が深度推定処理の一例である。
[ステップS403:第1損失関数計算処理]
学習部140は、音響信号Aに対応する正解深度マップT、及び、深度推定器fにより推定された推定深度マップDに基づいて、第1損失値を求める。
ステップS403までの処理を通して、学習データである音響信号Aに対して、深度推定器fにより推定された推定深度マップDが得られている。推定深度マップDは正解深度マップTの推定結果であるべきである。そのため、基本的な方針は推定深度マップDが正解深度マップTに近いほど小さい損失値を与え、反対に遠いほど大きい損失値を与えるように、第1損失値を求めるための第1損失関数を設計することが好ましい。
最も単純には、非特許文献3に開示されているように、推定深度マップDと正解深度マップTとの画素値の距離の総和を損失関数とすればよい。画素値の距離は、例えばL1距離を用いることにすれば、第1損失関数は下記(1)式のように定めることができる。
Figure 0007197003000001

・・・(1)
上記式(1)におけるXはxの定義域を表し、Yはyの定義域を表す。x,yは、各深度マップ上の画素の位置を表す。Nは学習データである推定深度マップと正解深度マップとの組の数、又は組の数以下の定数である。e(x,y)は、e(x,y)=T(x,y)-D(x,y)であり、学習用の推定深度マップDと正解深度マップTとの各画素の誤差である。
第1損失関数は、正解深度マップTと推定深度マップDとの全画素均等に近しいほど小さい値を取り、T=Dの場合に0となる。すなわち、様々なTとDとに対してこの値が小さくするように深度推定器のパラメータを更新することによって、正しい推定深度マップを出力可能な深度推定器を得ることができる。
あるいは、非特許文献1に開示されている方法のように、以下(2)式の損失関数を第1損失関数として用いても構わない。
Figure 0007197003000002

・・・(2)
(2)式の損失関数は、深度推定誤差の小さいところでは線形、深度推定誤差の大きいところでは2次関数となる関数である。
しかし、上記式(1)又は上記式(2)に示されるような既存の損失関数には問題がある。深度マップのうちの誤差|e(x,y)|が大きい画素に対応する領域は、距離が物理的に遠距離である場合が考えられる。又は、深度マップのうちの誤差|e(x,y)|が大きい画素に対応する領域は、非常に複雑な深度構造を持つような部分である場合が考えられる。
深度マップのうちの、このような箇所については、不確かさを含む領域であることが多い。このため、深度マップのうちの、このような箇所は、深度推定器fによって精度よく深度を推定することができる領域ではないことが多い。そのため、深度マップのうちの誤差|e(x,y)|の大きい画素を含む領域を重視して学習することは、深度推定器fの精度を必ずしも向上させるとは限らない。
上記式(1)の損失関数は、誤差|e(x,y)|の大小によらず常に同じ第1損失値をとる。一方、上記式(2)の損失関数は、誤差|e(x,y)|が大きい場合には、より大きな第1損失値をとるような設計となっている。このため、上記式(1)又は上記式(2)に示されるような損失関数を用いて深度推定器fを学習させたとしても、深度推定器fの推定の精度を向上させるには限界がある。
そこで、本実施形態では、以下(3)式に示されるような損失関数である第1損失関数を用いる。
Figure 0007197003000003

・・・(3)
第1損失関数の第1損失値は、誤差|e(x,y)|が閾値c以下である場合には、当該誤差の絶対値|e(x,y)|の増加に対して線形に増加する第1損失値となる。また、第1損失関数の第1損失値は、誤差|e(x,y)|が閾値cより大きい場合には、当該誤差|e(x,y)|の累乗根に応じて変化する第1損失値となる。
上記式(3)の第1損失関数において、誤差|e(x,y)|が閾値c以下の画素では、|e(x,y)|の増加に対して線形に増加する点は、他の損失関数(例えば、上記式(1)又は上記式(2)の損失関数)と同様である。
しかし、上記式(3)の第1損失関数において、誤差|e(x,y)|が閾値cよりも大きい画素では、|e(x,y)|の増加に対して平方関数となる関数である。このため、本実施形態では、上述したように、不確かさを含む画素については、損失値を小さく見積もり、軽視する。これにより、深度推定器fの推定の頑健性を高め、精度を向上させることができる。
このため、学習部140は、上記式(3)により学習用の推定深度マップと、前記学習用の推定深度マップに対する正解深度マップとの誤差から第1損失値lを求め、第1損失値lの値が小さくなるように、深度推定器fを学習させる。
なお、上記(3)式の第1損失関数は、深度推定器fのパラメータwに対して区分的に微分可能である。このため、深度推定器fのパラメータwは、勾配法により更新可能である。例えば、学習部140は、深度推定器fのパラメータwを確率的勾配降下法に基づいて学習させる場合、1ステップあたり、以下の(4)式に基づいてパラメータwを更新する。なお、αは予め設定される係数である。
Figure 0007197003000004

・・・(4)
深度推定器fの任意のパラメータwに対する損失関数の微分値は、誤差逆伝搬法により計算することができる。なお、学習部140は、深度推定器fのパラメータwを学習させる際に、モーメンタム項を利用する又は重み減衰を利用する等、一般的な確率的勾配降下法の改善法を導入してもよい。又は、学習部140は、別の勾配降下法を用いて、深度推定器fのパラメータwを学習させてもよい。
そして、学習部140は、学習済みの深度推定器fのパラメータwを深度推定器に格納する。これにより、深度マップを精度よく推定するための深度推定器fが得られたことになる。
以上がステップS404で行う処理である。
<推定処理>
続いて、本実施形態の一例における深度推定方法の推定処理について説明する。
学習処理が済んだ深度推定器を用いれば、推定処理は非常に単純である。具体的には、深度推定部112は、上述した収音処理により音響信号を取得した後、上記ステップS401で実施した特徴抽出処理を実行する。深度推定部112は、上記ステップS402で説明した深度推定処理を実行することにより、出力である推定深度マップを得ればよい。
以上が、本実施形態の一例における深度推定方法の推定処理である。
以上説明したように、第1実施形態の深度推定装置によれば、音響信号を用いて、空間の深度を精度よく推定するための深度推定器を学習することができる。また、音響信号を用いて、空間の深度を精度よく推定することができる。
[第2実施形態の作用]
次に、第2実施形態の作用について説明する。第2実施形態は、学習用の推定深度マップの深度の変化の度合いを表すエッジと正解深度マップの深度の変化の度合いを表すエッジとの間の誤差が小さくなるように、深度推定器fを学習させる点が、第1実施形態と異なる。
第2実施形態でも第1実施形態と同様に収音処理を行う。
図6は、第2実施形態の深度推定装置100による学習処理の流れを示すフローチャートである。CPU11がROM12又はストレージ14からプログラムを読み出して、RAM13に展開して実行することにより、学習処理が行なわれる。
ステップS401~S405は第1実施形態と同様である。
ステップS406では、CPU11は、深度推定部112として、音響信号Aに対して特徴抽出処理を施し、特徴Sを抽出する。なお、この処理はステップS401と全く同じ処理であり、ステップS401で先に求めた特徴Sを既に記憶しているような構成を採る場合、ステップS406の処理は必要としない。
続いてステップS407では、CPU11は、深度推定部112として、特徴Sに対して深度推定器fを適用し、推定深度マップD=f(S)を生成する。
続いてステップS408では、CPU11は、学習部140として、推定深度マップDと正解深度マップTとエッジ検出器とに基づいて、第2損失値l(D,T)を求める。
続いてステップS409では、CPU11は、学習部140として、第2損失値l(D,T)を小さくするように深度推定器のパラメータを更新し、当該パラメータを記録する。
最後にステップS410では、CPU11は、学習部140として、所定の終了条件が満たされたか否かを判定し、条件を満たしていれば処理を終了し、条件を満たしていなければiをインクリメント(i←i+1)してS406に戻る。終了条件は任意のものを定めて構わないが、例えば「所定の回数(例えば100回など)繰り返したら終了」、「第2損失値の減少が一定繰り返し回数の間、一定の範囲内に収まっていたら終了」などとすればよい。
このように、学習部140は、更新された深度推定器に対して、計測対象空間で検出されたエッジを誤差に反映した第2損失値l(D,T)に基づいてパラメータを更新することで、深度推定器を学習する。
以降、上記ステップS408の処理の詳細処理について、本実施形態における一例を説明する。
[ステップS408:第2損失計算処理]
ステップS401~S405の処理によって得られた深度推定器の出力する推定深度マップは、特に畳み込みニューラルネットワークを深度推定器として用いた場合、過度に滑らかであり、全体的にぼけている場合がある。このようなぼけた推定深度マップは、深度が急峻に変化するエッジ部分、例えば、壁の境目又は物体の際の深度を正確に反映していないという欠点がある。そこで、第2実施形態では、深度を改善するために、第2損失値lを導入し、これを最小化するようにさらに深度推定器のパラメータを更新する。
望ましい設計は、正解深度マップと、推定深度マップとのエッジが近しくなることである。このため、第2実施形態では、以下の式(5)に示される第2損失関数を導入する。そして、第2実施形態の深度推定装置100は、以下の式(5)の第2損失関数の第2損失値を最小化するように、深度推定器fのパラメータwを更に更新する。
Figure 0007197003000005

・・・(5)
ここで、上記式(5)におけるEはエッジ検出器であり、E(T(x,y))は、正解深度マップTにエッジ検出器Eを適用した後の座標(x,y)上の値を表す。また、E(D(x,y))は、学習用の推定深度マップDにエッジ検出器Eを適用した後の座標(x,y)上の値を表す。
エッジ検出器としては、微分可能な検出器であればどのようなエッジ検出器を用いてもよい。例えば、Sobelフィルタをエッジ検出器として用いることができる。Sobelフィルタは畳み込み演算として記述することができるため、畳み込みニューラルネットワークの畳み込み層として簡易に実装可能であるという利点もある。
以上がステップS408で行う処理である。
[ステップS409:パラメータ更新]
学習部140は、ステップS408で求めた第2損失値を小さくするように深度推定器のパラメータを更新する。
上記式(5)に定められる第2損失関数も、エッジ検出器Eが微分可能である限り、深度推定器fのパラメータwに対して区分的に微分可能である。このため、深度推定器fのパラメータwは、勾配法により更新可能である。例えば、第2実施形態の学習部140は、深度推定器fのパラメータwを確率的勾配降下法に基づいて学習させる場合、1ステップあたり、以下の式(6)に基づいてパラメータwを更新する。なお、αは予め設定される係数である。
Figure 0007197003000006

・・・(6)
このように、第2実施形態の学習部140は、深度の変化の度合いであるエッジを前記誤差に反映した第2損失値に基づいてパラメータを更新し、深度推定器を学習する。学習部140は、正解深度マップTの表すエッジE(T(x,y))と、学習用の推定深度マップDの深度の変化の度合いを表すエッジE(D(x,y))との間の誤差が小さくなるように、深度推定器fを更に学習させる。具体的には、第2実施形態の学習部140は、上記式(5)に示される第2損失関数の第2損失値が小さくなるように、深度推定器fを更に学習させる。
なお、第2実施形態に係る深度推定装置10は、上記式(3)の第1損失関数によって一度学習された深度推定器fのパラメータwを、上記式(5)の第2損失関数によって再び更新させる。この結果、深度推定器fの深度の推定の精度が低下することはない。
通常、上記式(3)の第1損失関数及び上記式(5)の第2損失関数の双方の損失関数を最小化するように深度推定器fのパラメータwを学習させる場合、上記式(3)の第1損失関数と上記式(5)の第2損失関数との線形結合を取ったものが、新たな損失関数として定義される。そして、新たな損失関数が最小化されるように深度推定器fのパラメータwが更新される。
これに対し、第2実施形態では、上記式(3)の第1損失関数と上記式(5)の第2損失関数とを個別に最小化させる点が一つの特徴である。第2実施形態に係る深度推定装置10の学習方法は、上記式(3)の第1損失関数と上記式(5)の第2損失関数とを線形結合させた新たな損失関数を最小化する場合と比較して、線形結合の重みを人手で調整しなくとも、深度推定器fのパラメータwを学習させることができる、という利点を有する。このように、個別に更新が可能であるのは、第1損失関数で更新されるパラメータと第2損失関数で更新されるパラメータとの相互干渉の度合いが少ないと考えられるからである。
上記式(3)の第1損失関数と上記式(5)の第2損失関数とを線形結合させた場合の重みの調整は、一般に非常に難儀である。重みの調整に関しては、線形結合の重みを変えながら何度も学習を繰り返し、最も良い重みを特定するというコストのかかる作業が必要となる。これに対し、第2実施形態に係る深度推定装置10の学習方法は、このような作業を回避することができる。
なお、推定処理については第1実施形態と同様であるため説明を省略する。
以上説明したように、第2実施形態の深度推定装置によれば、音響信号を用いて、空間の変化の度合いを考慮し、空間の深度を精度よく推定するための深度推定器を学習することができる。また、音響信号を用いて、空間の深度を精度よく推定することができる。
また上述した各実施形態によれば、カメラ及び深度計測用の特殊なデバイスなしに、発信装置であるスピーカーと収音装置であるマイクとのみを用いて推定深度マップを推定することができる。
また、スピーカーが発した誘引音は空間の壁や物体に当たり、その結果、反響及び残響を伴ってマイクで収音される。すなわち、マイクで収音した誘引音は、誘引音がどこでどのように反射したかという情報が乗っているため、この音を解析することにより、空間の深度を含む情報を推定することが可能である。
過去にも、このような残響及び反響を含む音響情報を利用して空間の深度を推定しようという試みはあった。例えば非特許文献4では、音響信号の到来時間と部屋の形状との関係を音響信号処理によりモデル化している。また、ソナー(Sound Navigation and Ranging:SONAR)に代表されるように反射派の到来時間差やパワーに基づいて対象との距離を計測する方法が知られている。しかしながら、このような解析的手法は、適用できる空間に制限がある。例えば、非特許文献4では、部屋が凸多面体状のように比較的単純な形状の空間でなければ適用できない。また、ソナーは深度計測としての利用は主に水中に限られているのが現状である。
一方、上述した実施形態では、解析的な方法ではなく、畳み込みニューラルネットワークを用いた予測により推定深度マップを予測する。したがって、解析的に求解できないような空間であっても、統計的推測によりその空間の推定深度マップを推定することが可能である。
なお、音響信号は部屋の明るさに依らず伝搬するため、従来のカメラを用いる深度推定技術とは異なり、カメラでは写らないような暗い室内、あるいは、カメラで撮影したくないような空間に対しても利用可能である。
なお、上記各実施形態でCPUがソフトウェア(プログラム)を読み込んで実行したマルチタスク学習を、CPU以外の各種のプロセッサが実行してもよい。この場合のプロセッサとしては、FPGA(Field-Programmable Gate Array)等の製造後に回路構成を変更可能なPLD(Programmable Logic Device)、及びASIC(Application Specific Integrated Circuit)等の特定の処理を実行させるために専用に設計された回路構成を有するプロセッサである専用電気回路等が例示される。また、マルチタスク学習を、これらの各種のプロセッサのうちの1つで実行してもよいし、同種又は異種の2つ以上のプロセッサの組み合わせ(例えば、複数のFPGA、及びCPUとFPGAとの組み合わせ等)で実行してもよい。また、これらの各種のプロセッサのハードウェア的な構造は、より具体的には、半導体素子等の回路素子を組み合わせた電気回路である。
また、上記各実施形態では、マルチタスク学習プログラムがストレージ14に予め記憶(インストール)されている態様を説明したが、これに限定されない。プログラムは、CD-ROM(Compact Disk Read Only Memory)、DVD-ROM(Digital Versatile Disk Read Only Memory)、及びUSB(Universal Serial Bus)メモリ等の非一時的(non-transitory)記憶媒体に記憶された形態で提供されてもよい。また、プログラムは、ネットワークを介して外部装置からダウンロードされる形態としてもよい。
以上の実施形態に関し、更に以下の付記を開示する。
(付記項1)
メモリと、
前記メモリに接続された少なくとも1つのプロセッサと、
を含み、
前記プロセッサは、
計測対象空間で所定の誘引音を発し、
発信部により前記誘引音を発した時刻の前後に対応する所定の時間の音響信号を収音し、
前記音響信号に基づいて、前記音響信号を解析した時間周波数情報を表す特徴を抽出し、
一つ以上の畳み込み演算により構成される深度推定器であって、前記時間周波数情報を表す特徴を入力とした場合に、前記計測対象空間を表す画像の各画素に深度が付与された推定深度マップを出力するように学習されている深度推定器に、抽出した前記時間周波数情報を表す特徴を入力し、前記計測対象空間の推定深度マップを生成する、
ように構成されている深度推定装置。
(付記項2)
計測対象空間で所定の誘引音を発し、
発信部により前記誘引音を発した時刻の前後に対応する所定の時間の音響信号を収音し、
前記音響信号に基づいて、前記音響信号を解析した時間周波数情報を表す特徴を抽出し、
一つ以上の畳み込み演算により構成される深度推定器であって、前記時間周波数情報を表す特徴を入力とした場合に、前記計測対象空間を表す画像の各画素に深度が付与された推定深度マップを出力するように学習されている深度推定器に、抽出した前記時間周波数情報を表す特徴を入力し、前記計測対象空間の推定深度マップを生成する、
ことをコンピュータに実行させる深度推定プログラムを記憶した非一時的記憶媒体。
100(100A,100B,100C) 深度推定装置
101 発信部
102 収音部
103 深度計測部
110 推定部
111 制御部
112 深度推定部
120 記憶部
140 学習部
150 外部記憶部

Claims (6)

  1. 計測対象空間で所定の誘引音を発する発信部と、
    発信部により前記誘引音を発した時刻の前後に対応する所定の時間の音響信号を収音する収音部と、
    前記音響信号に基づいて、前記音響信号を解析した時間周波数情報を表す特徴を抽出し、
    一つ以上の畳み込み演算により構成される深度推定器であって、前記時間周波数情報を表す特徴を入力とした場合に、前記計測対象空間を表す画像の各画素に深度が付与された推定深度マップを出力するように学習されている深度推定器に、抽出した前記時間周波数情報を表す特徴を入力し、前記計測対象空間の推定深度マップを生成する推定部と、
    学習部とを含み、
    前記深度推定器は、
    前記推定部により、収音した学習用の音響信号を周波数解析して時間周波数情報を表す特徴を抽出し、当該時間周波数情報に対して深度推定器を適用させて、学習用の推定深度マップを生成し、
    前記学習部により、生成された前記学習用の推定深度マップと、前記学習用の推定深度マップに対する正解深度マップとの誤差から求めた第1損失値に基づいて更新された前記深度推定器に対して、前記計測対象空間で検出されたエッジを前記誤差に反映した第2損失値に基づいて前記深度推定器のパラメータを更新することで学習されている、
    深度推定装置。
  2. 計測対象空間で所定の誘引音を発する発信部と、
    発信部により前記誘引音を発した時刻の前後に対応する所定の時間の音響信号を収音する収音部と、
    前記音響信号に基づいて、前記音響信号を解析した時間周波数情報を表す特徴を抽出し、
    一つ以上の畳み込み演算により構成される深度推定器であって、前記時間周波数情報を表す特徴を入力とした場合に、前記計測対象空間を表す画像の各画素に深度が付与された推定深度マップを出力するように学習されている深度推定器に、抽出した前記時間周波数情報を表す特徴を入力し、前記計測対象空間の推定深度マップを生成する推定部と、
    学習部とを含み、
    前記深度推定器は、
    前記推定部により、収音した学習用の音響信号を周波数解析して時間周波数情報を表す特徴を抽出し、当該時間周波数情報に対して深度推定器を適用させて、学習用の推定深度マップを生成し、
    前記学習部により、生成された前記学習用の推定深度マップと、前記学習用の推定深度マップに対する正解深度マップとの誤差から、以下(1)式の損失関数を用いて求めた第1損失値に基づいて前記深度推定器のパラメータを更新することで学習されている、
    深度推定装置。
    Figure 0007197003000007

    ・・・(1)
    ここで、当該損失関数による前記第1損失値は、誤差|e (x,y)|が閾値c以下である場合には、当該誤差の絶対値|e (x,y)|の増加に対して線形に増加する第1損失値となり、誤差|e (x,y)|が閾値cより大きい場合には、当該誤差|e (x,y)|の累乗根に応じて変化する。
  3. 計測対象空間で所定の誘引音を発し、
    発信部により前記誘引音を発した時刻の前後に対応する所定の時間の音響信号を収音し、
    前記音響信号に基づいて、前記音響信号を解析した時間周波数情報を表す特徴を抽出し、
    一つ以上の畳み込み演算により構成される深度推定器であって、前記時間周波数情報を表す特徴を入力とした場合に、前記計測対象空間を表す画像の各画素に深度が付与された推定深度マップを出力するように学習されている深度推定器に、抽出した前記時間周波数情報を表す特徴を入力し、前記計測対象空間の推定深度マップを生成する、
    ことを含む処理をコンピュータが実行することを特徴とする深度推定方法であって、
    前記深度推定器は、
    収音した学習用の音響信号を周波数解析して時間周波数情報を表す特徴を抽出し、当該時間周波数情報に対して深度推定器を適用させて、学習用の推定深度マップを生成し、
    生成された前記学習用の推定深度マップと、前記学習用の推定深度マップに対する正解深度マップとの誤差から求めた第1損失値に基づいて更新された前記深度推定器に対して、前記計測対象空間で検出されたエッジを前記誤差に反映した第2損失値に基づいて前記深度推定器のパラメータを更新することで学習されている、
    深度推定方法。
  4. 計測対象空間で所定の誘引音を発し、
    発信部により前記誘引音を発した時刻の前後に対応する所定の時間の音響信号を収音し、
    前記音響信号に基づいて、前記音響信号を解析した時間周波数情報を表す特徴を抽出し、
    一つ以上の畳み込み演算により構成される深度推定器であって、前記時間周波数情報を表す特徴を入力とした場合に、前記計測対象空間を表す画像の各画素に深度が付与された推定深度マップを出力するように学習されている深度推定器に、抽出した前記時間周波数情報を表す特徴を入力し、前記計測対象空間の推定深度マップを生成する、
    ことを含む処理をコンピュータが実行することを特徴とする深度推定方法であって、
    前記深度推定器は、
    収音した学習用の音響信号を周波数解析して時間周波数情報を表す特徴を抽出し、当該時間周波数情報に対して深度推定器を適用させて、学習用の推定深度マップを生成し、
    生成された前記学習用の推定深度マップと、前記学習用の推定深度マップに対する正解深度マップとの誤差から、以下(2)式の損失関数を用いて求めた第1損失値に基づいて前記深度推定器のパラメータを更新することで学習されている、
    深度推定方法。
    Figure 0007197003000008

    ・・・(2)
    ここで、当該損失関数による前記第1損失値は、誤差|e (x,y)|が閾値c以下である場合には、当該誤差の絶対値|e (x,y)|の増加に対して線形に増加する第1損失値となり、誤差|e (x,y)|が閾値cより大きい場合には、当該誤差|e (x,y)|の累乗根に応じて変化する。
  5. 計測対象空間で所定の誘引音を発し、
    発信部により前記誘引音を発した時刻の前後に対応する所定の時間の音響信号を収音し、
    前記音響信号に基づいて、前記音響信号を解析した時間周波数情報を表す特徴を抽出し、
    一つ以上の畳み込み演算により構成される深度推定器であって、前記時間周波数情報を表す特徴を入力とした場合に、前記計測対象空間を表す画像の各画素に深度が付与された推定深度マップを出力するように学習されている深度推定器に、抽出した前記時間周波数情報を表す特徴を入力し、前記計測対象空間の推定深度マップを生成する、
    ことをコンピュータに実行させる深度推定プログラムであって、
    前記深度推定器は、
    収音した学習用の音響信号を周波数解析して時間周波数情報を表す特徴を抽出し、当該時間周波数情報に対して深度推定器を適用させて、学習用の推定深度マップを生成し、
    生成された前記学習用の推定深度マップと、前記学習用の推定深度マップに対する正解深度マップとの誤差から求めた第1損失値に基づいて更新された前記深度推定器に対して、前記計測対象空間で検出されたエッジを前記誤差に反映した第2損失値に基づいて前記深度推定器のパラメータを更新することで学習されている、
    深度推定プログラム。
  6. 計測対象空間で所定の誘引音を発し、
    発信部により前記誘引音を発した時刻の前後に対応する所定の時間の音響信号を収音し、
    前記音響信号に基づいて、前記音響信号を解析した時間周波数情報を表す特徴を抽出し、
    一つ以上の畳み込み演算により構成される深度推定器であって、前記時間周波数情報を表す特徴を入力とした場合に、前記計測対象空間を表す画像の各画素に深度が付与された推定深度マップを出力するように学習されている深度推定器に、抽出した前記時間周波数情報を表す特徴を入力し、前記計測対象空間の推定深度マップを生成する、
    ことをコンピュータに実行させる深度推定プログラムであって、
    前記深度推定器は、
    収音した学習用の音響信号を周波数解析して時間周波数情報を表す特徴を抽出し、当該時間周波数情報に対して深度推定器を適用させて、学習用の推定深度マップを生成し、
    生成された前記学習用の推定深度マップと、前記学習用の推定深度マップに対する正解深度マップとの誤差から、以下(3)式の損失関数を用いて求めた第1損失値に基づいて前記深度推定器のパラメータを更新することで学習されている、
    深度推定プログラム。
    Figure 0007197003000009

    ・・・(3)
    ここで、当該損失関数による前記第1損失値は、誤差|e (x,y)|が閾値c以下である場合には、当該誤差の絶対値|e (x,y)|の増加に対して線形に増加する第1損失値となり、誤差|e (x,y)|が閾値cより大きい場合には、当該誤差|e (x,y)|の累乗根に応じて変化する。
JP2021519958A 2019-05-21 2019-05-21 深度推定装置、深度推定方法、及び深度推定プログラム Active JP7197003B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2019/020172 WO2020235022A1 (ja) 2019-05-21 2019-05-21 深度推定装置、深度推定方法、及び深度推定プログラム

Publications (2)

Publication Number Publication Date
JPWO2020235022A1 JPWO2020235022A1 (ja) 2020-11-26
JP7197003B2 true JP7197003B2 (ja) 2022-12-27

Family

ID=73459299

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021519958A Active JP7197003B2 (ja) 2019-05-21 2019-05-21 深度推定装置、深度推定方法、及び深度推定プログラム

Country Status (3)

Country Link
US (1) US20220221581A1 (ja)
JP (1) JP7197003B2 (ja)
WO (1) WO2020235022A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2023089892A1 (ja) * 2021-11-16 2023-05-25

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000098031A (ja) 1998-09-22 2000-04-07 Hitachi Ltd インパルスソーナー
US20040165478A1 (en) 2000-07-08 2004-08-26 Harmon John B. Biomimetic sonar system and method
JP2019015598A (ja) 2017-07-06 2019-01-31 株式会社東芝 計測装置および方法

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5181254A (en) * 1990-12-14 1993-01-19 Westinghouse Electric Corp. Method for automatically identifying targets in sonar images
JP2969202B2 (ja) * 1991-05-08 1999-11-02 日本電信電話株式会社 ニューラルネットワークによる3次元物体の認識方法
US10585409B2 (en) * 2016-09-08 2020-03-10 Mentor Graphics Corporation Vehicle localization with map-matched sensor measurements
US20180136332A1 (en) * 2016-11-15 2018-05-17 Wheego Electric Cars, Inc. Method and system to annotate objects and determine distances to objects in an image
US10422648B2 (en) * 2017-10-17 2019-09-24 AI Incorporated Methods for finding the perimeter of a place using observed coordinates
EP3518001B1 (en) * 2018-01-25 2020-09-16 Aptiv Technologies Limited Method for increasing the reliability of determining the position of a vehicle on the basis of a plurality of detection points
EP3517996B1 (en) * 2018-01-25 2022-09-07 Aptiv Technologies Limited Method for determining the position of a vehicle

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000098031A (ja) 1998-09-22 2000-04-07 Hitachi Ltd インパルスソーナー
US20040165478A1 (en) 2000-07-08 2004-08-26 Harmon John B. Biomimetic sonar system and method
JP2019015598A (ja) 2017-07-06 2019-01-31 株式会社東芝 計測装置および方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
DOKMANIC, Ivan et al.,"Acoustic echoes reveal room shape",Proceedings of the National Academy of Sciences of the United States of America (PNAS),2013年07月23日,Vol.110, No,30,pp.12186-12191,DOI: 10.1073/pnas.1221464110
DROR, Itiel E. et al.,"Three-Dimensional Target Recognition via Sonar: A Neural Network Model",Neural Networks,1995年,Vol.8, No.1,pp.149-160,DOI: 10.1016/0893-6080(94)00057-S
LAINA, Iro et al.,"Deeper Depth Prediction with Fully Convolutional Residual Networks",2016 Fourth International Conference on 3D Vision (3DV),2016年10月,pp.239-248,DOI: 10.1109/3DV.2016.32

Also Published As

Publication number Publication date
US20220221581A1 (en) 2022-07-14
JPWO2020235022A1 (ja) 2020-11-26
WO2020235022A1 (ja) 2020-11-26

Similar Documents

Publication Publication Date Title
EP3343502B1 (en) Depth sensor noise
Christensen et al. Batvision: Learning to see 3d spatial layout with two ears
EP3435029B1 (en) Resolution adaptive mesh for performing 3-d metrology of an object
Pham et al. Real‐Time Obstacle Detection System in Indoor Environment for the Visually Impaired Using Microsoft Kinect Sensor
US11810376B2 (en) Method, apparatus and storage medium for detecting small obstacles
CN107392965B (zh) 一种基于深度学习和双目立体视觉相结合的测距方法
CN103454288B (zh) 用于识别对象材料的方法和设备
CN109313810A (zh) 用于对环境进行测绘的系统和方法
JP6239594B2 (ja) 3d情報処理装置及び方法
US10354444B2 (en) Resolution adaptive mesh that is generated using an intermediate implicit representation of a point cloud
JP7272428B2 (ja) 深度推定装置、深度推定モデル学習装置、深度推定方法、深度推定モデル学習方法、及び深度推定プログラム
US9552647B2 (en) Method and arrangement for analysing the behaviour of a moving object
WO2020159650A1 (en) Calibrating cameras using human skeleton
WO2012175888A1 (fr) Génération de données de carte
CN111401180B (zh) 神经网络识别模型训练方法、装置、服务器及存储介质
US20180252815A1 (en) 3D Depth Map
Sun et al. Large-scale building height estimation from single VHR SAR image using fully convolutional network and GIS building footprints
JP7197003B2 (ja) 深度推定装置、深度推定方法、及び深度推定プログラム
US20220406013A1 (en) Three-dimensional scene recreation using depth fusion
US10375501B2 (en) Method and device for quickly determining location-dependent pulse responses in signal transmission from or into a spatial volume
US20220317293A1 (en) Information processing apparatus, information processing method, and information processing program
CN110363863B (zh) 一种神经网络的输入数据生成方法和系统
CN117716257A (zh) 声学深度图
CN115131756A (zh) 一种目标检测方法及装置
WO2019010679A1 (zh) 一种基于降维稀疏表示的主动式场景三维信息获取方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211018

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220719

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220912

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221115

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221128

R150 Certificate of patent or registration of utility model

Ref document number: 7197003

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150