JP7103354B2 - 情報処理装置、情報処理方法、及びプログラム - Google Patents

情報処理装置、情報処理方法、及びプログラム Download PDF

Info

Publication number
JP7103354B2
JP7103354B2 JP2019519494A JP2019519494A JP7103354B2 JP 7103354 B2 JP7103354 B2 JP 7103354B2 JP 2019519494 A JP2019519494 A JP 2019519494A JP 2019519494 A JP2019519494 A JP 2019519494A JP 7103354 B2 JP7103354 B2 JP 7103354B2
Authority
JP
Japan
Prior art keywords
light
unit
estimation
projected
information processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019519494A
Other languages
English (en)
Other versions
JPWO2018216342A1 (ja
Inventor
彰彦 貝野
公志 江島
太記 山中
俊一 本間
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Sony Group Corp
Original Assignee
Sony Corp
Sony Group Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp, Sony Group Corp filed Critical Sony Corp
Publication of JPWO2018216342A1 publication Critical patent/JPWO2018216342A1/ja
Application granted granted Critical
Publication of JP7103354B2 publication Critical patent/JP7103354B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/75Determining position or orientation of objects or cameras using feature-based methods involving models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/507Depth or shape recovery from shading
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/86Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • G06T7/251Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/521Depth or shape recovery from laser ranging, e.g. using interferometry; from the projection of structured light
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/56Cameras or camera modules comprising electronic image sensors; Control thereof provided with illuminating means
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • G01S17/8943D imaging with simultaneous measurement of time-of-flight at a 2D array of receiver pixels, e.g. time-of-flight cameras or flash lidar
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/483Details of pulse systems
    • G01S7/484Transmitters
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10141Special mode during image acquisition
    • G06T2207/10152Varying illumination
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face

Description

本開示は、情報処理装置、情報処理方法、及びプログラムに関する。
コンピュータビジョン分野において、「SLAM(Simultaneous Localization and Mapping)」、「ICP(Iterative Closest Point)」、「Visual Odometry」等のようなデバイスの自己位置推定技術や、「Multiview Stereo」、「Structure from Motion」等のような周辺環境構造の3Dモデリング技術が注目されている。これらの技術を実現するうえでは、所定の装置から当該装置の周辺環境における対象点までの距離(デプス情報)を安定して推定可能とすることは重要な要素技術である。特に近年では、デプス情報を取得するためのデバイスとして、「Structured Light」、「Patterned Light」、「Time of Flight」等のようなアクティブ照射方式を採用した安価なデプスセンサが普及しつつある。なお、特許文献1には、関連技術として、検出エリアに対して投光手段から光を投光し、当該光を受光手段で受光することにより、当該検出エリアに位置する検出物体を検出する技術の一例が開示されている。
また、イメージセンサ、ジャイロセンサ、及び加速度センサ等の各種センシングデバイスや、CPUやGPU等の計算デバイスを利用することで、自己位置推定や3Dモデリングの処理精度やロバスト性を向上させることが可能となってきている。そのため、上記自己位置推定技術や上記3Dモデリング技術の実用的な応用範囲も広がりつつあり、特に近年では、移動体機器やモバイル機器等への応用も検討されている。
特開2003-194962号公報
ところで、アクティブ照射方式を採用したデプスセンサの測距範囲及び測距精度は、光を照射(投光)するデバイスのパワーに依存する傾向にあり、対象となる物体との間の距離推定の安定化に伴い消費電力がより増大する場合がある。特に、移動体機器やモバイル機器のように利用可能な電力量が限られている装置においては、消費電力の増大に伴う影響がより顕著に表れる。このような背景から、アクティブ照射方式を採用する場合において、対象となる物体との間の距離推定の安定化と、消費電力の抑制と、を両立することが可能な技術の実現が求められている。
そこで、本開示では、対象となる物体との間の距離推定の安定化と、消費電力の抑制と、を両立することが可能な、情報処理装置、情報処理方法、及びプログラムを提案する。
本開示によれば、所定の投光部から実空間上の物体に向けて投光され、当該物体で反射した光の検出結果に基づき、所定の視点と当該物体との間の距離を推定する第1の推定部と、前記距離の推定結果に基づき、前記所定の視点の実空間上における位置及び姿勢のうち少なくともいずれかを推定する第2の推定部と、前記位置及び前記姿勢のうち少なくともいずれかの推定に関する状況に応じて、前記投光部から投光される前記光を制御する制御部と、を備える、情報処理装置が提供される。
また、本開示によれば、コンピュータが、所定の投光部から実空間上の物体に向けて投光され、当該物体で反射した光の検出結果に基づき、所定の視点と当該物体との間の距離を推定することと、前記距離の推定結果に基づき、前記所定の視点の実空間上における位置及び姿勢のうち少なくともいずれかを推定することと、前記位置及び前記姿勢のうち少なくともいずれかの推定に関する状況に応じて、前記投光部から投光される前記光を制御することと、を含む、情報処理方法が提供される。
また、本開示によれば、コンピュータに、所定の投光部から実空間上の物体に向けて投光され、当該物体で反射した光の検出結果に基づき、所定の視点と当該物体との間の距離を推定することと、前記距離の推定結果に基づき、前記所定の視点の実空間上における位置及び姿勢のうち少なくともいずれかを推定することと、前記位置及び前記姿勢のうち少なくともいずれかの推定に関する状況に応じて、前記投光部から投光される前記光を制御することと、を実行させる、プログラムが提供される。
以上説明したように本開示によれば、対象となる物体との間の距離推定の安定化と、消費電力の抑制と、を両立することが可能な、情報処理装置、情報処理方法、及びプログラムが提供される。
なお、上記の効果は必ずしも限定的なものではなく、上記の効果とともに、または上記の効果に代えて、本明細書に示されたいずれかの効果、または本明細書から把握され得る他の効果が奏されてもよい。
本開示の一実施形態に係る情報処理システム概略的なシステム構成の一例を示した図である。 同本実施形態に係る情報処理システムの機能構成の一例を示したブロック図である。 3次元空間モデルの生成及び更新に係る新規領域及び新規視点について説明するための説明図である。 同実施形態に係る情報処理システムの一連の処理の流れの一例を示したフローチャートである。 同実施形態に係る情報処理システムの一連の処理の流れの一例を示したフローチャートである。 投光部の平均諸費電力と測距における誤差との間の関係についてのシミュレーション結果の一例を示した図である。 測距範囲に応じて測距に要求される条件の一例について説明するための説明図である。 光の照射角に応じた深度と水平方向の照射範囲との間の関係の一例を示した図である。 光の照射角と消費電力との間の関係の一例を示した図である。 変形例に係る情報処理システムの概要について説明するための説明図である。 変形例に係る情報処理システムの概要について説明するための説明図である。 変形例に係る情報処理システムの概要について説明するための説明図である。 本開示の一実施形態に係る情報処理システムを構成する情報処理装置のハードウェア構成の一構成例を示す機能ブロック図である。
以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
なお、説明は以下の順序で行うものとする。
1.概略構成
2.アクティブ照射方式を採用したデプス推定に関する検討
3.技術的特徴
3.1.機能構成
3.2.処理
3.3.実施例
3.4.変形例
4.ハードウェア構成
5.むすび
<<1.概略構成>>
まず、図1を参照して、本開示の一実施形態に係る情報処理システムの概略的なシステム構成の一例について説明する。図1は、本実施形態に係る情報処理システム概略的なシステム構成の一例を示した図である。
図1に示すように、本実施形態に係る情報処理システム1は、実空間上における位置や姿勢の推定の対象となる移動体200と、情報処理装置100とを含む。情報処理装置100と移動体200とは、例えば、所定のネットワークを介して互いに情報を送受信可能に構成されている。なお、情報処理装置100と移動体200とを接続するネットワークの種別は特に限定されない。具体的な一例として、当該ネットワークN1は、LTE、Wi-Fi(登録商標)等の規格に基づくネットワークのような、所謂無線のネットワークにより構成されていてもよい。また、当該ネットワークN1は、インターネット、専用線、LAN(Local Area Network)、または、WAN(Wide Area Network)等により構成されていてもよい。また、当該ネットワークN1は、複数のネットワークを含んでもよく、少なくとも一部が有線のネットワークとして構成されていてもよい。
また、図1において、参照符号m111及びm112は、実空間上に位置する物体を模式的に示している。なお、以降では、実空間上に位置する物体を「実オブジェクト」とも称する。
移動体200は、前述したように、実空間上における位置や姿勢の推定の対象となる物体に相当する。移動体200の具体的な一例として、メガネ型のウェアラブルデバイスのようにユーザに装着されて使用される装置、スマートフォン等のように携行可能に構成された装置、及び、車両等のような移動可能に構成された装置(移動体)等が挙げられる。
移動体200は、所謂自己位置推定の技術に基づき、当該移動体200の実空間上における位置や姿勢の推定に利用する情報を取得するための各種デバイスを備える。例えば、図1に示すように、本実施形態に係る移動体200は、デプスセンサ210と、撮像部230とを含む。デプスセンサ210及び撮像部230のそれぞれは、移動体200の筐体に保持されてもよい。
デプスセンサ210は、所定の視点と実空間上に位置する物体との間の距離(換言すると、移動体200と当該物体との間の距離)を推定するための情報を取得し、取得した当該情報を情報処理装置100に送信する。なお、以降の説明では、所定の視点と実空間上に位置する物体との間の距離を示す情報を、「デプス情報」とも称する。
特に、本実施形態に係る情報処理システム1においては、デプスセンサ210は、アクティブ照射方式を採用したデプスセンサとして構成されている。そのため、例えば、デプスセンサ210は、実空間上の物体に向けて光を投光する投光部213と、投光部213から投光され当該物体(例えば、図1に示すオブジェクトm111及びm112等)で反射した光を検出する検出部211とを含む。投光部213としては、所定の波長の光を投光する光源を適用することが可能である。また、当該投光部213は、例えば、光を投光するタイミング、光の照射範囲、光の照射方向等を制御可能に構成されていてもよい。また、検出部211としては、例えば、所定の波長の光(より具体的には、投光部213から投光される光)を検出可能なイメージセンサや光電センサ等を適用することが可能である。
撮像部230は、移動体200に対して所定の方向に位置する実空間上の領域の画像を撮像し、撮像した画像を情報処理装置100に送信する。
なお、撮像部230は、デプスセンサ210による情報の取得対象となる領域(即ち、物体との距離推定の対象となる領域)のうち少なくとも一部の領域の画像を撮像可能に構成されているとよい。即ち、デプスセンサ210による情報の取得対象とする領域(以下、「検出領域」とも称する)と、撮像部230により画像が撮像される領域(以下、「撮像領域」とも称する)と、が互いに少なくとも一部が重畳するように、移動体200の筐体に対して、当該撮像部230及び当該デプスセンサ210が保持されるとよい。
情報処理装置100は、例えば、サーバ等として構成され得る。情報処理装置100は、デプスセンサ210により取得された情報(即ち、物体との距離推定のための情報)と、撮像部230により撮像された画像と、のそれぞれを、所定のネットワークを介して移動体200から取得する。そして、情報処理装置100は、例えば、取得した当該情報及び当該画像を入力として、自己位置推定技術に基づき、移動体200の実空間上における位置や姿勢を推定する。また、情報処理装置100は、取得した当該情報及び当該画像を入力として、3Dモデリング技術に基づき、移動体200の周辺の実空間に存在する物体(実オブジェクト)の位置、姿勢、及び形状等を3次元的なモデル(以降では、「3次元空間モデル」とも称する)として再現してもよい。
なお、自己位置推定技術としては、例えば、「SLAM(Simultaneous Localization and Mapping)」、「ICP(Iterative Closest Point)」、「Visual Odometry」等が挙げられる。ここで、SLAMと称される技術について概要を以下に説明する。
SLAMとは、カメラ等の撮像部、各種センサ、エンコーダ等を利用することにより、自己位置推定と環境地図の作成とを並行して行う技術である。より具体的な一例として、SLAM(特に、Visual SLAM)では、撮像部により撮像された動画像に基づき、撮像されたシーン(または、被写体)の3次元形状を逐次的に復元する。そして、撮像されたシーンの復元結果を、撮像部の位置及び姿勢の検出結果と関連付けることで、周囲の環境の地図の作成と、当該環境における撮像部の位置及び姿勢の推定とが行われる。なお、撮像部の位置及び姿勢については、例えば、当該撮像部が保持された装置に加速度センサや角速度センサ等の各種センサを設けることで、当該センサの検出結果に基づき相対的な変化を示す情報として推定することが可能である。もちろん、撮像部の位置及び姿勢を推定可能であれば、その方法は、必ずしも加速度センサや角速度センサ等の各種センサの検知結果に基づく方法のみには限定されない。
また、デバイスの周辺環境構造を3次元空間モデルとして再現する3Dモデリング技術としては、例えば、「Multiview Stereo」、「Structure from Motion」等が挙げられる。
なお、上述した構成はあくまで一例であり、本実施形態に係る情報処理システム1のシステム構成は、必ずしも図1に示す例のみには限定されない。具体的な一例として、移動体200と情報処理装置100とが一体的に構成されていてもよい。また、デプスセンサ210及び撮像部230のうち、少なくとも一部が移動体200の外部に設けられていてもよい。また、図1に示す例では、デプスセンサ210と撮像部230とを個別に示しているが、一方が他方の機能を兼ねてもよい。具体的な一例として、撮像部230が、所謂カメラとして構成されることで、デプスセンサ210としての機能を兼ね備えていてもよい。
以上、図1を参照して、本開示の一実施形態に係る情報処理システムの概略的なシステム構成の一例について説明した。
<<2.アクティブ照射方式を採用したデプス推定に関する検討>>
続いて、本実施形態に係る情報処理システムの特徴をよりわかりやすくするために、アクティブ照射方式を採用したデプス推定につい概要を説明したうえで、本実施形態に係る情報処理システムの課題について整理する。
上述した自己位置推定技術や周辺環境構造の3Dモデリング技術を実現するうえで、所定の装置(例えば、移動体200)から当該装置の周辺環境における対象点までの距離(デプス情報)を安定して推定可能とすることは重要な要素技術である。このような、デプス情報を安定して推定可能とする技術の一例として、「Structured Light」、「Patterned Light」、「Time of Flight」等のように、アクティブ照射方式を採用したデプス推定の技術が挙げられる。具体的には、アクティブ照射方式を採用したデプス推定においては、実空間上の物体に対して光を照射し、当該物体で反射した反射光を検出することで、当該物体との間の距離を推定する。
特に、近年では、アクティブ照射方式を採用した安価なデプスセンサが普及してきている。また、イメージセンサ、ジャイロセンサ、及び加速度センサ等の各種センシングデバイスや、CPUやGPU等の計算デバイスを利用することで、自己位置推定や3Dモデリングの処理精度やロバスト性を向上させることが可能となってきている。このような背景から、上記自己位置推定技術や上記3Dモデリング技術の実用的な応用範囲も広がりつつある。これらの技術の主な応用先の具体的な一例としては、自動車、ドローン、ロボットなどに代表される移動体の自律制御が挙げられる。また、他の一例として、スマートフォン、タブレット、ヘッドマウントディスプレイ等を利用したVR(Virtual Reality)やAR(Augmented Reality)の実現にも応用されている。
一方で、アクティブ照射方式を採用する場合には、物体への光の投光が伴わないパッシブ方式を採用する場合に比べて消費電力が増大する傾向にある。また、照射型のデプスセンサの測距範囲及び測距精度は、光を照射(投光)するデバイスのパワーに依存する傾向にあり、測距範囲及び測距精度をより向上させる場合には、比例して消費電力も増大することとなる。特に、移動体機器やモバイル機器のように利用可能な電力量が限られている装置においては、消費電力の増大に伴う影響がより顕著に表れる。
以上のような状況を鑑み、本開示では、アクティブ照射方式を採用する場合において、対象となる物体との間の距離推定の安定化と、消費電力の抑制と、の両立を可能とする技術について提案する。以降では、本実施形態に係る情報処理システム1の技術的特徴についてより詳しく説明する。
<<3.技術的特徴>>
以下に、本実施形態に係る情報処理システム1の技術的特徴について説明する。
<3.1.機能構成>
まず、図2を参照して、本実施形態に係る情報処理システム1の機能構成の一例について、特に、情報処理装置100の構成に着目して説明する。図2は、本実施形態に係る情報処理システム1の機能構成の一例を示したブロック図である。
図2に示すように、本実施形態に係る情報処理システム1は、情報処理装置100と、デプスセンサ210と、撮像部230と、記憶部180と、制御メモリ190とを含む。なお、デプスセンサ210及び撮像部230は、図1を参照して前述したデプスセンサ210及び撮像部230に相当するため、詳細な説明は省略する。
記憶部180は、各種データを、一時的または恒常的に記憶するための記憶領域である。
制御メモリ190は、情報処理装置100が、デプスセンサ210の動作を制御するために、各種制御情報を書き込むための記憶領域である。即ち、デプスセンサ210は、制御メモリ190に書き込まれた制御情報(例えば、トリガ等)に基づき、実空間上の物体との距離推定のための情報の取得に係る動作を切り替える。これにより、情報処理装置100は、制御メモリ190を介して、デプスセンサ210の動作を制御することが可能となる。
次いで、情報処理装置100の構成について説明する。図2に示すように、情報処理装置100は、デプス推定部110と、自己位置推定部120と、判定部130と、トリガ生成部140とを含む。
デプス推定部110は、デプスセンサ210による検出結果に応じた情報を当該デプスセンサ210から取得し、取得した当該情報に基づき、所定の視点と実空間上に位置する物体との間の距離を推定する。
具体的な一例として、デプスセンサ210がTOF方式を採用している場合には、実空間上に位置する物体に対して赤外線等の光が投光され、投稿した光が当該被写体で反射して戻るまでの時間がイメージセンサの画素ごとに測定される。これにより、デプス推定部110は、画素ごとに測定された当該時間に応じて、当該画素に対応する被写体(即ち、上記物体)までの距離を測定することが可能となる。
また、他の一例として、デプスセンサ210がStructured Light方式を採用している場合には、実空間上に位置する物体に対して赤外線等の光によりパターンが照射され、当該パターンが画像として撮像される。これにより、デプス推定部110は、撮像結果から得られる当該パターンの変化に基づき、被写体(即ち、上記物体)までの距離を、イメージセンサの画素ごとに測定することが可能となる。
以上のような構成に基づき、デプス推定部110は、所定の視点と実空間上に位置する物体との間の距離の推定結果が撮像平面にマッピングされたデプスマップを生成し、生成した当該デプスマップを自己位置推定部120(特徴点抽出部122)に出力する。また、デプス推定部110は、生成した当該デプスマップを後述する判定部130(モデル形状判定部133)に出力してもよい。なお、デプス推定部110が、「第1の推定部」の一例に相当する。
自己位置推定部120は、所定の対象の実空間上における位置及び姿勢のうち少なくともいずれかを推定する。なお、本説明では、便宜上、自己位置推定部120は、図1に示す、筐体に対してデプスセンサ210及び撮像部230が保持された移動体200の、実空間上における位置及び姿勢を推定するものとする。また、自己位置推定部120が、「第2の推定部」の一例に相当する。
図2に示すように、自己位置推定部120は、コーナー点検出部121と、特徴点抽出部122と、マッチング処理部123と、姿勢評価部124と、3次元モデル更新部125と、予測部126とを含む。
コーナー点検出部121は、撮像部230により撮像された画像(即ち、実空間の画像)を、当該撮像部230から取得する。コーナー点検出部121は、例えば、取得した画像に対して画像解析処理を施すことで当該画像からテクスチャ情報を抽出し、抽出した当該テクスチャ情報に基づき当該画像からコーナー点を検出する。なお、コーナー点とは、複数のエッジの交点に相当し、換言すると、ある局所近傍において方向の異なる複数の際立ったエッジが存在するような点と定義することも可能である。そして、コーナー点検出部121は、取得した画像からのコーナー点の検出結果を示す情報を特徴点抽出部122に出力する。
特徴点抽出部122は、デプス推定部110からデプスマップを取得する。また、特徴点抽出部122は、コーナー点検出部121からコーナー点の検出結果を示す情報を取得する。特徴点抽出部122は、検出されたコーナー点のそれぞれに対して、取得したデプスマップから対応する距離の測定結果を示す情報(換言すると、デプス情報)を抽出して対応付けることで、3次元的な位置情報を有する特徴点を規定する。以上のようにして、撮像部230により撮像された画像から特徴点が抽出される。そして、特徴点抽出部122は、特徴点の抽出結果を示す情報を3次元モデル更新部125に出力する。
3次元モデル更新部125は、特徴点抽出部122から特徴点の抽出結果を示す情報を取得する。3次元モデル更新部125は、取得した当該情報に基づき、抽出された特徴点を3次元空間モデルに統合する。なお、前述した通り、3次元空間モデルは、実空間に存在する物体(実オブジェクト)の位置、姿勢、及び形状等を3次元的に再現したモデルである。また、3次元空間モデルとして統合されたデータは、例えば、記憶部180に保持される。以上のような構成により、特徴点が新たに抽出されることで、当該特徴点の抽出結果が3次元空間モデルに逐次統合される。また、3次元空間モデルに統合された特徴点は、以降のフレームにおけるトラッキング点として扱われる。
また、3次元モデル更新部125は、後述する姿勢評価部124から、移動体200の実空間上における位置や姿勢の推定結果を示す情報を取得してもよい。この場合には、3次元モデル更新部125は、移動体200の実空間上における位置や姿勢に応じて、抽出された特徴点を3次元空間モデルに統合するとよい。
また、3次元モデル更新部125は、特徴点の抽出結果を3次元空間モデルへ統合することで当該3次元空間モデルを更新した場合に、当該更新結果を示す情報を後述する判定部130(新規領域/新規視点判定部137)に通知してもよい。このような構成により、当該判定部130は、3次元空間モデルに対して新たに統合された特徴点に対応する情報が、統合前に当該3次元空間モデルに含まれていたか否かを判定することが可能となる。そのため、判定部130は、例えば、過去に特徴点が取得されていない新たな領域(以下、「新規領域」とも称する)について当該特徴点が抽出されたか否かや、過去に検出されていない新たな視点(以下、「新規視点」とも称する)が検出されたか否かを判定することも可能となる。
マッチング処理部123及び姿勢評価部124は、撮像部230により撮像された画像と、記憶部180に保持された3次元空間モデルと、の間のマッチングに基づき、移動体200の実空間上における位置や姿勢を推定するための構成である。
具体的には、マッチング処理部123は、撮像部230により撮像された画像を当該撮像部230から取得する。マッチング処理部123は、記憶部180に保持された3次元空間モデルに含まれるトラッキング点(即ち、特徴点)に関する情報に基づき、当該トラッキング点に対応する当該画像上の位置を、当該3次元空間モデルと当該画像との間のマッチングに基づき算出する。そして、マッチング処理部123は、当該マッチングの結果を示す情報を姿勢評価部124に出力する。また、マッチング処理部123は、当該マッチングの結果を示す情報を後述する判定部130(特徴点分布判定部135)に出力してもよい。
姿勢評価部124は、マッチング処理部123による上記マッチングの結果に基づき、撮像部230(ひいては、移動体200)の実空間上における位置や姿勢を推定する。具体的には、姿勢評価部124は、トラッキング点の3次元位置と、当該トラッキング点に対応する画像上の位置と、のペアが与えられた場合に、所定のアルゴリズムに基づき、撮像部230の実空間上における位置や姿勢を推定する。なお、当該アルゴリズムとしては、例えば、PnPアルゴリズムやN点アルゴリズム等が挙げられる。
そして、姿勢評価部124は、撮像部230(ひいては、移動体200)の実空間上における位置や姿勢の推定結果を示す情報を3次元モデル更新部125に出力する。このとき、3次元モデル更新部125は、当該推定結果に基づき、3次元空間モデルに含まれるトラッキング点(即ち、特徴点)の3次元位置を修正してもよい。
予測部126は、記憶部180に保持された3次元空間モデル(即ち、生成または更新された3次元空間モデル)を参照し、過去に抽出された特徴点の分布(例えば、点または面)に基づき、現在の撮像部230(ひいては、移動体200)の位置及び姿勢に応じて観測されることが予測される特徴点のデプス情報を抽出する。そして、予測部126は、当該特徴点のデプス情報の抽出結果を示す情報を、当該特徴点のデプス情報の予測結果として後述する判定部130(モデル形状判定部133)に出力する。
判定部130は、移動体200の実空間上における位置や姿勢の推定に係る各種情報を判定する。例えば、図2に示すように、判定部130は、経過時間判定部131と、モデル形状判定部133と、特徴点分布判定部135と、新規領域/新規視点判定部137とのうちの少なくともいずれかを含んでもよい。
経過時間判定部131は、デプスセンサ210(投光部213)が光の投光を開始または終了した後の経過時間(例えば、フレーム数)を監視し、監視結果に応じて当該経過時間が所定の期間を超えたか否かを判定する。そして、経過時間判定部131は、判定結果を後述するトリガ生成部140に通知する。
具体的な一例として、経過時間判定部131は、デプスセンサ210により光の投光が行われている期間(以下、「投光期間」とも称する)が、所定の期間を超えて継続した場合に、このことをトリガ生成部140に通知する。また、経過時間判定部131は、デプスセンサ210による光の投光が行われていない期間(以下、「消灯期間」とも称する)が、所定の期間を超えて継続した場合に、このことをトリガ生成部140に通知する。
モデル形状判定部133は、予測部126から、現在の移動体200の位置及び姿勢に応じて観測されることが予測される特徴点のデプス情報の予測結果を取得する。また、モデル形状判定部133は、デプス推定部110からデプスマップを取得する。なお、取得されたデプスマップは、現在の移動体200の位置及び姿勢に応じて実際に観測された特徴点それぞれのデプス情報を含むこととなる。そして、モデル形状判定部133は、取得したデプスマップ(換言すると、特徴点のデプス情報の実際の観測結果)と、観測されることが予測される特徴点のデプス情報の予測結果と、を比較し、当該比較結果をトリガ生成部140に通知する。
具体的な一例として、モデル形状判定部133は、特徴点のデプス情報の実際の観測結果と、当該特徴点のデプス情報の予測結果と、の間のギャップが閾値を超えた場合に、観測結果と予測結果との間にギャップが生じていることをトリガ生成部140に通知する。
特徴点分布判定部135は、マッチング処理部123から、撮像部230により撮像された画像と、3次元空間モデルと、の間のマッチング結果を示す情報を取得する。そして、特徴点分布判定部135は、当該マッチング結果に基づき、撮像部230(ひいては、移動体200)の実空間上における位置や姿勢のトラッキングの状態を判定し、判定結果を後述するトリガ生成部140に通知する。
具体的な一例として、特徴点分布判定部135は、上記マッチングの結果に基づき、トラッキングが成功している特徴点の数が閾値未満となったか否かを判定し、当該判定結果をトリガ生成部140に通知してもよい。また、他の一例として、特徴点分布判定部135は、上記マッチングの結果に基づき、トラッキングが成功している特徴点の分布を評価し、当該評価結果をトリガ生成部140に通知してもよい。より具体的な一例として、特徴点分布判定部135は、トラッキングが成功している特徴点の分布に偏りが生じた場合に、当該特徴点の数が閾値未満となる部分領域に関する情報をトリガ生成部140に通知してもよい。
新規領域/新規視点判定部137は、3次元空間モデルの更新結果を示す情報を3次元モデル更新部125から取得する。新規領域/新規視点判定部137は、3次元空間モデルの更新結果に応じて、新規領域について当該特徴点が抽出されたか否かや、新規視点が検出されたか否かを判定し、当該判定結果を後述するトリガ生成部140に通知する。
例えば、図3は、3次元空間モデルの生成及び更新に係る新規領域及び新規視点について説明するための説明図である。図3に示す例では、3次元空間モデルに含まれる1以上の特徴点の点群(または、ボクセルボリューム)に対してN等分された球状の情報が規定され、デプスセンサ210の位置及び姿勢に応じて、当該球状の情報のうち、投光部213から光が投光される領域に対してフラグが付される。
例えば、図3において、参照符号210a及び210bのそれぞれは、上述の通り規定された球状の情報に対する、デプスセンサ210の相対的な位置及び姿勢を示す視点位置を模式的に示している。例えば、デプスセンサ210が視点位置210aに位置する場合には、球状の情報のうち、参照符号R11が付された部分領域に、デプスセンサ210の投光部213により投光された光が照射されることとなる。即ち、この場合には、部分領域R11に対してフラグが付されることとなる。また、デプスセンサ210が視点位置210bに位置する場合には、球状の情報のうち、参照符号R13が付された部分領域に、デプスセンサ210の投光部213により投光された光が照射されることとなる。即ち、この場合には、部分領域R13に対してフラグが付されることとなる。
このような構成の基で、例えば、デプスセンサ210の位置及び姿勢が、視点位置210aから視点位置210bに変化したものとする。このとき、部分領域R13にフラグが設定されていない場合には、当該部分領域R13からの特徴点の抽出が行われていないこととなる。このような場合において、当該部分領域R13が、特徴点が抽出されていない新規領域に相当し、視点位置210bが、新たに検出された新規視点に相当する。
次いで、トリガ生成部140について説明する。トリガ生成部140は、判定部130による各種判定結果に応じて、制御メモリ190を介してデプスセンサ210の投光部213の動作を制御する。即ち、トリガ生成部140が、「制御部」の一例に相当する。
例えば、トリガ生成部140は、経過時間判定部131から通知される判定結果に基づき、投光部213による光の投光の有無を切り替えてもよい。具体的には、トリガ生成部140は、投光期間が所定の期間を超えて継続した場合に、投光部213による光の投光を制限するためのトリガを生成し、当該トリガを制御メモリ190に書き込む。同様に、トリガ生成部140は、消灯期間が所定の期間を超えて継続した場合に、投光部213による光の投光を開始させるためのトリガを生成し、当該トリガを制御メモリ190に書き込む。このような制御により、例えば、投光部213が所定の期間ごとに間欠的に光を投光することとなり、投光部213が継続的に光を投光する場合に比べて、消費電力を低く抑えることが可能となる。なお、複数のデバイス(例えば、複数の移動体200)を連携させて動作させる場合のように、複数の投光部213が個別に光を投光するような状況も想定され得る。このような場合には、トリガ生成部140は、複数の投光部213(例えば、複数のデバイスそれぞれに対応する投光部213)のそれぞれが時分割で光を投光するように、各投光部213の投光タイミングを制御してもよい。なお、この場合には、経過時間判定部131が、各デプスセンサ210(投光部213)が光の投光を開始または終了した後の経過時間をそれぞれ監視し、各デプスセンサ210に対応する上記判定結果をトリガ生成部140に通知すればよい。これにより、トリガ生成部140は、各デプスセンサ210が光を投光するタイミングを認識することが可能となる。
トリガ生成部140は、モデル形状判定部133から通知される判定結果に基づき、投光部213による光の投光を制限してもよい。具体的には、トリガ生成部140は、特徴点のデプス情報の実際の観測結果と、当該特徴点のデプス情報の予測結果と、の間のギャップが閾値を超えた場合に、投光部213に光を投光させてもよい。なお、その他の場合においては、トリガ生成部140は、投光部213による光の投光を制限してもよい。このような制御により、投光部213が光を投光する契機が制限されるため、消費電力を低く抑えることが可能となる。
トリガ生成部140は、特徴点分布判定部135から通知される判定結果に基づき、投光部213による光の投光を制限してもよい。具体的な一例として、トリガ生成部140は、トラッキングが成功している特徴点の数が閾値未満となった場合に、投光部213に光を投光させてもよい。なお、その他の場合においては、トリガ生成部140は、投光部213による光の投光を制限してもよい。このような制御により、投光部213が光を投光する契機が制限されるため、消費電力を低く抑えることが可能となる。
また、他の一例として、トリガ生成部140は、トラッキングが成功している特徴点の分布に偏りが生じた場合に、当該特徴点の数が閾値未満となる部分領域に向けて限定的に光が照射されるように、投光部213が光を投光する方向や当該光の照射範囲を制御してもよい。このような制御により、投光部213により投光される光の光量が制限されるため、消費電力を低く抑えることが可能となる。
トリガ生成部140は、新規領域/新規視点判定部137から通知される判定結果に基づき、投光部213による光の投光を制限してもよい。具体的な一例として、トリガ生成部140は、新規領域について特徴点が抽出された場合や、新規視点が検出された場合に、投光部213に光を投光させてもよい。なお、その他の場合においては、トリガ生成部140は、投光部213による光の投光を制限してもよい。このような制御により、投光部213が光を投光する契機が制限されるため、消費電力を低く抑えることが可能となる。
なお、上述した投光部213による光の投光に係る制御はあくまで一例であり、本実施形態に係る情報処理装置100の動作は必ずしも上述した例のみには限定されない。即ち、移動体200の実空間上の位置や姿勢の推定に係る処理の過程において取得可能な情報に基づき判定可能な状況に応じて、投光部213による光の投光を制御することが可能であれば、当該判定の条件や当該制御の内容は特に限定されない。
例えば、移動体200(デプスセンサ210)と実空間上のある対象物との間の距離(即ち、観測距離)に応じて得られる情報が異なる。具体的には、移動体200と対象物との間が離隔している場合には、広投光部213域にわたって情報(例えば、特徴点に関する情報)を取得することが可能となる。これに対して、移動体200と対象物とがより近傍に位置する場合には、情報を取得可能な実空間上の領域が制限されるが、当該対象物についてより詳細な情報を取得することが可能となる。このような特性を利用することで、例えば、過去に観測した対象物が再度観測されるような状況下においても、観測距離の違いに伴い取得されていない情報(例えば、特徴点に関する情報)が存在する場合に、投光部213により光が投光されるように制御することも可能となる。
また、投光部213による光の投光に係る動作については、所定の入力部を介したユーザからの指示に基づき制御されてもよい。具体的な一例として、投光部213が光を間欠的に投光する際のインターバルが、ユーザからの指示に基づき制御されてもよい。また、他の一例として、投光部213から投光される光の照射範囲や、当該光が投光される方向が、ユーザからの指示に基づき制御されてもよい。より具体的には、情報処理装置100は、ユーザからROI(Region of Interest)の指定を受けた場合に、当該ROIに対応する実空間上の領域に向けて投光部213から光が投光されるように、当該光の照射方向や照射範囲を制御してもよい。
また、上述した構成はあくまで一例であり、本実施形態に係る情報処理システム1の機能構成は、必ずしも図2に示す例のみには限定されない。具体的な一例として、情報処理装置100、デプスセンサ210、及び撮像部230が一体的に構成されていてもよい。また、記憶部180が、情報処理装置100の内部に設けられていてもよい。また、他の一例として、情報処理装置100の各構成のうち、一部の構成が当該情報処理装置100の外部に設けられていてもよい。ま例えば、デプス推定部110がデプスセンサ210側に設けられていてもよい。また、他の一例として、自己位置推定部120、判定部130、及びトリガ生成部140のうち一部の構成が、サーバ等のような他の装置に設けられていてもよい。また、情報処理装置100の各機能が、複数の装置が連携することで実現されてもよい。
以上、図2及び図3を参照して、本実施形態に係る情報処理システム1の機能構成の一例について、特に、情報処理装置100の構成に着目して説明した。
<3.2.処理>
続いて、図4及び図5を参照して、本実施形態に係る情報処理システム1の一連の処理の流れの一例について、特に、情報処理装置100の処理に着目して説明する。図4及び図5は、本実施形態に係る情報処理システム1の一連の処理の流れの一例を示したフローチャートである。
図4に示すように、まず、情報処理装置100(マッチング処理部123)は、移動体200に保持された撮像部230により撮像された画像と、あらかじめ生成または更新された3次元空間モデルと、の間のマッチングに基づき、トラッキング点に対応する当該画像上の位置を算出する(S101)。情報処理装置100(姿勢評価部124)は、当該マッチングの結果に基づき、撮像部230(ひいては、移動体200)の実空間上における位置や姿勢を推定する(S103)。また、このとき情報処理装置100(3次元モデル更新部125)は、当該推定結果に基づき、3次元空間モデルに含まれるトラッキング点(即ち、特徴点)の3次元位置を修正(最適化)してもよい(S105)。
なお、起動直後等のように、3次元空間モデルに対してトラッキング点(即ち、特徴点)に関する情報が登録されていない場合には、参照符号S103~S105で示された処理は実行されなくてもよい。なお、この場合には、あらかじめ投光部213により光が投光されるようにトリガ(照射トリガ)が有効化されているとよい。
次いで、照射トリガが有効化されている場合には(S107、YES)、デプスセンサ210の投光部213から実空間上の物体(換言すると、検出領域)に向けて光が投光され、当該デプスセンサ210の検出部211により、当該物体で反射した当該光が検出される。情報処理装置100(デプス推定部110)は、デプスセンサ210による当該検出結果に応じた情報に基づき、移動体200と実空間上に位置する物体との間の距離を推定し、当該距離の推定結果が撮像平面にマッピングされたデプスマップを生成する。また、情報処理装置100(コーナー点検出部121)は、撮像部230により撮像された画像(即ち、実空間の画像)に対して画像解析処理を施すことで、当該画像からテクスチャ情報を抽出し、抽出した当該テクスチャ情報に基づき当該画像からコーナー点を検出する(S109)。
情報処理装置100(特徴点抽出部122)は、検出されたコーナー点のそれぞれに対して、取得したデプスマップから対応する距離の測定結果を示す情報(換言すると、デプス情報)を抽出して対応付けることで、3次元的な位置情報を有する特徴点を規定する(S111)。以上のようにして、撮像部230により撮像された画像から特徴点が抽出される。そして、情報処理装置100(3次元モデル更新部125)は、抽出された特徴点を3次元空間モデルに統合する(S113)。
なお、照射トリガが有効化されていない場合には(S107、NO)、参照符号S109~S113で示された処理は実行されなくてもよい。
次いで、情報処理装置100(判定部130)は、移動体200の実空間上の位置や姿勢の推定に係る所定の状況に応じた条件判定を行い、当該判定結果に応じて照射トリガを生成する(S200)。
ここで、参照符号S200で示した処理のより具体的な一例について、図5を参照して説明する。
図5に示すように、情報処理装置100(経過時間判定部131)は、デプスセンサ210の投光部213が光の投光を開始または終了した後の経過時間(例えば、フレーム数)を監視し、当該経過時間が所定の期間を超えたか否かを判定してもよい(S201)。
情報処理装置100(特徴点分布判定部135)は、撮像部230により撮像された画像と、3次元空間モデルと、の間のマッチング結果に基づき、移動体200の実空間上における位置や姿勢のトラッキングの状態を判定してもよい。具体的な一例として、情報処理装置100は、トラッキングが成功している特徴点の数が閾値未満となったか否かを判定してもよい。また、他の一例として、情報処理装置100は、トラッキングが成功している特徴点の分布を評価し、トラッキングが成功している特徴点の分布に偏りが生じた場合に、当該特徴点の数が閾値未満となる部分領域を特定してもよい(S203)。
情報処理装置100(新規領域/新規視点判定部137)は、3次元空間モデルの更新結果に基づき、新規領域について当該特徴点が抽出されたか否かや、新規視点が検出されたか否かを判定してもよい(S205)。
また、情報処理装置100(予測部126)は、3次元空間モデルを参照し、過去に抽出された特徴点の分布に応じて、現在の移動体200の位置及び姿勢に応じて観測されることが予測される特徴点のデプス情報を、当該デプス情報の予測結果として抽出する(S207)。また、情報処理装置100(モデル形状判定部133)は、現在の移動体200の位置及び姿勢に応じて生成したデプスマップ(即ち、特徴点のデプス情報の実際の観測結果)と、観測されることが予測される特徴点のデプス情報の予測結果と、を比較する。これにより、情報処理装置100は、特徴点のデプス情報の実際の観測結果と、当該特徴点のデプス情報の予測結果と、の間のギャップが閾値を超えたか否かを判定してもよい(S209)。
そして、情報処理装置100(トリガ生成部140)は、上述した各種判定結果に応じて照射トリガを生成し、生成した照射トリガを制御メモリ190に書き込むことで、投光部213による光の投光に係る動作を制御する(S211)。
以上、図4及び図5を参照して、本実施形態に係る情報処理システム1の一連の処理の流れの一例について、特に、情報処理装置100の処理に着目して説明した。
<3.3.実施例>
続いて、本実施形態に係る情報処理システム1の実施例について説明する。
前述したように、本実施形態に係る情報処理システム1において、情報処理装置100は、対象となる装置(例えば、移動体200)の実空間上の位置や姿勢の推定に係る所定の状況に応じて、投光部213による光の投光に係る動作を制御する。このような構成に基づき、情報処理装置100は、例えば、状況に応じて投光部213により光が投光される範囲(即ち、照射範囲)を制御することで、投光される光の光量を制限することが可能である。また、情報処理装置100は、状況に応じて投光部213から光が投光される契機を制限することも可能である。これにより、本実施形態に係る情報処理システム1に依れば、デプスセンサ210の消費電力を低く抑えることが可能となる。そこで、本実施例では、投光部213により光の投光に係る動作の制御と、デプスセンサ210の消費電力と、の間の関係の一例について、具体的な例をあげて以下に説明する。
まず、デプスセンサ210がデプス情報を取得可能な範囲(即ち、デプスセンサ210の測距範囲)と、消費電力との関係について説明する。デプスセンサ210の測距範囲は、投光部213により投光される光の照射パワーに依存する。具体的には、測距における誤差量をσとした場合に、誤差量σは、以下に(式1)として示す関係式で表される。
Figure 0007103354000001
上記(式1)において、変数pは、投光部213から投光される光の電子量に相当する。また、当該電子量は、投光部213により投光される光の照射パワーに依存する。このことから、測距における誤差量をσが、投光部213により投光される光の照射パワーに依存することがわかる。
また、図6は、投光部213の平均諸費電力と測距における誤差との間の関係についてのシミュレーション結果の一例を示した図である。図6において、横軸は測距における誤差(mm)を示しており、縦軸は光源(即ち、投光部213)の平均電力(w)を示している。
図6に示すように、光源の平均消費電力がより高くなるほど、測距において生じる誤差がより小さくなる傾向にある。また、光源から投光される光のパルス幅が短いほど(即ち、間欠駆動の間隔が短いほど)、測距において生じる誤差がより小さくなる傾向にある。
また、光の減衰量をPとし、光が伝搬する距離をdとした場合には、減衰量Pと距離dとの間には、以下に(式2)として示す関係式が成り立つ。
Figure 0007103354000002
即ち、一般的には、測距精度を2倍にすることで消費電力は4倍となり、測距範囲を2倍にすることで消費電力は4倍となる。
ここで、図7を参照して、測距範囲(距離)に応じて測距に要求される精度(即ち、要求スペック)の一例について説明する。図7は、測距範囲に応じて測距に要求される条件の一例について説明するための説明図である。なお、図7に示す例では、測距範囲が「1m」、「5m」、及び「10m」の場合に要求される精度について示している。
具体的な一例として、測距範囲が1mの場合には、精度として誤差0.5%以下が要求される。また、他の一例として、測距範囲が5mの場合には、精度として誤差1.0%以下が要求される。また、他の一例として、測距範囲が10mの場合には、精度として誤差5.0%以下が要求される。
ここで、下記条件で動作するデプスセンサ(以下、「本実施例に係るデプスセンサ」とも称する)に対して、本開示に係る技術を適用した場合の一例について、図7に示す各ユースケースに対応させる場合に着目して以下にまとめる。
・水平方向の照射角:55deg
・誤差:測距範囲5mにおいて1%以下
・消費電力:2500mW(測距範囲5m、誤差1%以下の場合)
例えば、本実施例に係るデプスセンサを、図7に示す各要求スペックに応じて、投光される光の照射パワーを制御する場合における、消費電力の見積り量は以下に表1として示す通りとなる。即ち、表1に示す例では、消費電力として最小でも400mWが必要となる。
Figure 0007103354000003
ここで、測距の対象となるターゲットの大きさが50cm程度と仮定し、本実施例に係るデプスセンサの光源から投光される光の照射角を55degから10degに制限したものとする。
例えば、図8は、光の照射角に応じた深度と水平方向の照射範囲との間の関係の一例を示した図である。図8において、横軸は深度(m)を示しており、縦軸は水平方向の照射範囲(m)を示している。なお、図8に示す例では、光の照射角が1deg、5deg、10deg、30deg、50deg、70deg、及び90degの場合のそれぞれについて、当該照射角に応じた深度と水平方向の照射範囲との間の関係を示している。
即ち、光の照射角が55degから10degに制限された場合には、図8に示すように、深度が3mの地点において水平方向の照射範囲として0.5mを確保することが可能となり、深度が5mの地点において水平方向の照射範囲として0.9mを確保することが可能となる。
次いで、図9を参照して、光の照射角を制限した場合における消費電力の変化の一例について説明する。図9は、光の照射角と消費電力との間の関係の一例を示した図であり、照射角が90degの場合を1とした場合における、照射角に応じた消費電力の相対的な変化に関するシミュレーション結果の一例を示している。図9において、横軸は照射角(deg)を示しており、縦軸は消費電力を相対値で示している。
図9に示すように、光の照射角を55degから10degに制限した場合には、消費電力を1/35に制限可能となることが見込まれる。即ち、表1に示した例においては、光の照射角を55degから10degに制限することで、以下の表2に示すように、消費電力を制限することが可能となる。
Figure 0007103354000004
上記表2に示す例では、例えば、電力面での要求スペックを200mWとした場合に、照射角の制御(即ち、空間方向への投射の制限)に伴い、当該要求スペックを大きく下回ることがわかる。このように、本開示の一実施形態に係る情報処理システム1に依れば、例えば、状況に応じてデプスセンサの光源から投光される光の照射角(照射範囲)を制限することで、測距精度を維持しながら消費電力を抑制することが可能となる。
以上、本実施形態に係る情報処理システム1の実施例について、図6~図9を参照して説明した。
<3.4.変形例>
続いて、本実施形態に係る情報処理システム1の変形例として、所定の対象物の検出結果に応じてデプスセンサ210の投光部213から光が投光される領域を制限する場合の一例について説明する。
例えば、情報処理装置100は、顔、手、及び足等の部位や人物自体等を対象物として検出することで、当該対象物が検出された領域に向けて投光部213から光が投光されるように、当該光の照射方向や照射範囲を制御してもよい。
具体的な一例として、情報処理装置100は、撮像部230により撮像された画像に対して画像解析を施すことで当該画像中から所定の対象物を検出し、当該対象物が検出された画像中の一部をROIとして設定してもよい。この場合には、情報処理装置100は、当該ROIに対応する実空間上の領域に向けて投光部213から光が部分的に投光されるように、当該光の照射方向や照射範囲を制御してもよい。
例えば、図10~図12は、変形例に係る情報処理システムの概要について説明するための説明図であり、投光部213から投光される光の照射範囲を制限する場合の一例を示している。
具体的には、図10は、対象物としてユーザの手が検出された場合の一例を示している。この場合には、情報処理装置100は、ユーザの手U211が検出された領域をROIとして設定し、当該ROIに対応する実空間上の部分領域R211に向けて投光部213から光が部分的に投光されるように、当該光の照射方向や照射範囲を制御してもよい。
また、図11は、対象物として人物(即ち、人の全体像)が検出された場合の一例を示している。この場合には、情報処理装置100は、人物U221が検出された領域をROIとして設定し、当該ROIに対応する実空間上の部分領域R221に向けて投光部213から光が部分的に投光されるように、当該光の照射方向や照射範囲を制御してもよい。
また、図12は、対象物としてユーザの顔が検出された場合の一例を示している。なお、図12に示す例では、対象物(即ち、ユーザの顔)が複数検出された場合の一例について示している。具体的には、図12に示す例では、2人のユーザそれぞれの顔U231及びU233が検出されている。このような場合には、情報処理装置100は、顔U231及びU233が検出された領域それぞれをROIとして個別に設定し、当該ROIに対応する実空間上の部分領域(即ち、部分領域R231及びR233)それぞれに向けて投光部213から光が個別に投光されるように、当該光の照射方向や照射範囲を制御してもよい。
なお、図12に示すように、複数の部分領域を対象として光を個別に投光する状況への対応を想定する場合には、例えば、投光部213としてアレイ上に配列された複数の光源が設けられていてもよい。この場合には、情報処理装置100は、例えば、各光源から投光される光の照射方向や照射範囲を個別に制御することで、各ROIに対応する部分領域R231及びR233それぞれに向けて光が個別に投光されるように制御すればよい。
また、他の一例として、投光部213から投光された光を、MEMS技術を用いた複数の可動ミラーにより分光することで、各ROIに対応する部分領域R231及びR233それぞれに向けて光が個別に投光されるように制御されてもよい。なお、当該可動ミラーについては、投光部213の内部に配設されていてもよい。
以上、本実施形態に係る情報処理システム1の変形例として、図10~図12を参照して、所定の対象物の検出結果に応じてデプスセンサ210の投光部213から光が投光される領域を制限する場合の一例について説明した。
<<4.ハードウェア構成>>
続いて、図13を参照しながら、前述した情報処理装置100のように、本開示の一実施形態に係る情報処理システムを構成する情報処理装置のハードウェア構成の一例について、詳細に説明する。図13は、本開示の一実施形態に係る情報処理システムを構成する情報処理装置のハードウェア構成の一構成例を示す機能ブロック図である。
本実施形態に係る情報処理システムを構成する情報処理装置900は、主に、CPU901と、ROM902と、RAM903と、を備える。また、情報処理装置900は、更に、ホストバス907と、ブリッジ909と、外部バス911と、インタフェース913と、入力装置915と、出力装置917と、ストレージ装置919と、ドライブ921と、接続ポート923と、通信装置925とを備える。
CPU901は、演算処理装置及び制御装置として機能し、ROM902、RAM903、ストレージ装置919又はリムーバブル記録媒体927に記録された各種プログラムに従って、情報処理装置900内の動作全般又はその一部を制御する。ROM902は、CPU901が使用するプログラムや演算パラメータ等を記憶する。RAM903は、CPU901が使用するプログラムや、プログラムの実行において適宜変化するパラメータ等を一次記憶する。これらはCPUバス等の内部バスにより構成されるホストバス907により相互に接続されている。例えば、図2に示すデプス推定部110、自己位置推定部120、判定部130、及びトリガ生成部140は、CPU901により構成され得る。
ホストバス907は、ブリッジ909を介して、PCI(Peripheral Component Interconnect/Interface)バスなどの外部バス911に接続されている。また、外部バス911には、インタフェース913を介して、入力装置915、出力装置917、ストレージ装置919、ドライブ921、接続ポート923及び通信装置925が接続される。
入力装置915は、例えば、マウス、キーボード、タッチパネル、ボタン、スイッチ、レバー及びペダル等、ユーザが操作する操作手段である。また、入力装置915は、例えば、赤外線やその他の電波を利用したリモートコントロール手段(いわゆる、リモコン)であってもよいし、情報処理装置900の操作に対応した携帯電話やPDA等の外部接続機器929であってもよい。さらに、入力装置915は、例えば、上記の操作手段を用いてユーザにより入力された情報に基づいて入力信号を生成し、CPU901に出力する入力制御回路などから構成されている。情報処理装置900のユーザは、この入力装置915を操作することにより、情報処理装置900に対して各種のデータを入力したり処理動作を指示したりすることができる。
出力装置917は、取得した情報をユーザに対して視覚的又は聴覚的に通知することが可能な装置で構成される。このような装置として、CRTディスプレイ装置、液晶ディスプレイ装置、プラズマディスプレイ装置、ELディスプレイ装置及びランプ等の表示装置や、スピーカ及びヘッドホン等の音声出力装置や、プリンタ装置等がある。出力装置917は、例えば、情報処理装置900が行った各種処理により得られた結果を出力する。具体的には、表示装置は、情報処理装置900が行った各種処理により得られた結果を、テキスト又はイメージで表示する。他方、音声出力装置は、再生された音声データや音響データ等からなるオーディオ信号をアナログ信号に変換して出力する。
ストレージ装置919は、情報処理装置900の記憶部の一例として構成されたデータ格納用の装置である。ストレージ装置919は、例えば、HDD(Hard Disk Drive)等の磁気記憶部デバイス、半導体記憶デバイス、光記憶デバイス又は光磁気記憶デバイス等により構成される。このストレージ装置919は、CPU901が実行するプログラムや各種データ等を格納する。例えば、図3に示す記憶部180及び制御メモリ190は、ストレージ装置919により構成され得る。
ドライブ921は、記録媒体用リーダライタであり、情報処理装置900に内蔵、あるいは外付けされる。ドライブ921は、装着されている磁気ディスク、光ディスク、光磁気ディスク又は半導体メモリ等のリムーバブル記録媒体927に記録されている情報を読み出して、RAM903に出力する。また、ドライブ921は、装着されている磁気ディスク、光ディスク、光磁気ディスク又は半導体メモリ等のリムーバブル記録媒体927に記録を書き込むことも可能である。リムーバブル記録媒体927は、例えば、DVDメディア、HD-DVDメディア又はBlu-ray(登録商標)メディア等である。また、リムーバブル記録媒体927は、コンパクトフラッシュ(登録商標)(CF:CompactFlash)、フラッシュメモリ又はSDメモリカード(Secure Digital memory card)等であってもよい。また、リムーバブル記録媒体927は、例えば、非接触型ICチップを搭載したICカード(Integrated Circuit card)又は電子機器等であってもよい。
接続ポート923は、情報処理装置900に直接接続するためのポートである。接続ポート923の一例として、USB(Universal Serial Bus)ポート、IEEE1394ポート、SCSI(Small Computer System Interface)ポート等がある。接続ポート923の別の例として、RS-232Cポート、光オーディオ端子、HDMI(登録商標)(High-Definition Multimedia Interface)ポート等がある。この接続ポート923に外部接続機器929を接続することで、情報処理装置900は、外部接続機器929から直接各種のデータを取得したり、外部接続機器929に各種のデータを提供したりする。
通信装置925は、例えば、通信網(ネットワーク)931に接続するための通信デバイス等で構成された通信インタフェースである。通信装置925は、例えば、有線若しくは無線LAN(Local Area Network)、Bluetooth(登録商標)又はWUSB(Wireless USB)用の通信カード等である。また、通信装置925は、光通信用のルータ、ADSL(Asymmetric Digital Subscriber Line)用のルータ又は各種通信用のモデム等であってもよい。この通信装置925は、例えば、インターネットや他の通信機器との間で、例えばTCP/IP等の所定のプロトコルに則して信号等を送受信することができる。また、通信装置925に接続される通信網931は、有線又は無線によって接続されたネットワーク等により構成され、例えば、インターネット、家庭内LAN、赤外線通信、ラジオ波通信又は衛星通信等であってもよい。
以上、本開示の実施形態に係る情報処理システムを構成する情報処理装置900の機能を実現可能なハードウェア構成の一例を示した。上記の各構成要素は、汎用的な部材を用いて構成されていてもよいし、各構成要素の機能に特化したハードウェアにより構成されていてもよい。従って、本実施形態を実施する時々の技術レベルに応じて、適宜、利用するハードウェア構成を変更することが可能である。なお、図13では図示しないが、情報処理システムを構成する情報処理装置900に対応する各種の構成を当然備える。
なお、上述のような本実施形態に係る情報処理システムを構成する情報処理装置900の各機能を実現するためのコンピュータプログラムを作製し、パーソナルコンピュータ等に実装することが可能である。また、このようなコンピュータプログラムが格納された、コンピュータで読み取り可能な記録媒体も提供することができる。記録媒体は、例えば、磁気ディスク、光ディスク、光磁気ディスク、フラッシュメモリなどである。また、上記のコンピュータプログラムは、記録媒体を用いずに、例えばネットワークを介して配信してもよい。また、当該コンピュータプログラムを実行させるコンピュータの数は特に限定されない。例えば、当該コンピュータプログラムを、複数のコンピュータ(例えば、複数のサーバ等)が互いに連携して実行してもよい。
<<5.むすび>>
以上説明したように、本実施形態に係る情報処理システム1において、情報処理装置100は、所定の投光部213から実空間上の物体に向けて投光され、当該物体で反射した光の検出結果に基づき、所定の視点(換言すると、図1に示す移動体200)と当該物体との間の距離を推定する。また、情報処理装置100は、当該距離の推定結果に基づき、所定の視点の実空間上における位置及び姿勢のうち少なくともいずれかを推定する。そして、情報処理装置100は、上記所定の視点の位置及び姿勢のうち少なくともいずれかの推定に関する状況に応じて、上記投光部213から投光される光を制御する。具体的な一例として、情報処理装置100は、当該状況に応じて、投光部213から光が投光される期間を制限してもよい。また、他の一例として、情報処理装置100は、当該状況に応じて、投光部213から投光される光の照射範囲を制限してもよい。
以上のような構成により、本実施形態に係る情報処理システム1に依れば、対象となる物体との間の距離の推定にアクティブ照射方式を採用する場合においても、当該推定に係る精度を維持しつつ、消費電力をより低減することが可能となる。即ち、本実施形態に係る情報処理システムに依れば、アクティブ照射方式を採用する場合において、対象となる物体との間の距離推定の安定化と、消費電力の抑制と、の両立が可能となる。
以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示の技術的範囲はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
また、本明細書に記載された効果は、あくまで説明的または例示的なものであって限定的ではない。つまり、本開示に係る技術は、上記の効果とともに、または上記の効果に代えて、本明細書の記載から当業者には明らかな他の効果を奏しうる。
なお、以下のような構成も本開示の技術的範囲に属する。
(1)
所定の投光部から実空間上の物体に向けて投光され、当該物体で反射した光の検出結果に基づき、所定の視点と当該物体との間の距離を推定する第1の推定部と、
前記距離の推定結果に基づき、前記所定の視点の実空間上における位置及び姿勢のうち少なくともいずれかを推定する第2の推定部と、
前記位置及び前記姿勢のうち少なくともいずれかの推定に関する状況に応じて、前記投光部から投光される前記光を制御する制御部と、
を備える、情報処理装置。
(2)
前記制御部は、前記状況に応じて、前記投光部から前記光が投光される期間を制限する、前記(1)に記載の情報処理装置。
(3)
前記制御部は、前記投光部から前記光が間欠的に投光されるように制御することで、当該光が投光される期間を制限する、前記(2)に記載の情報処理装置。
(4)
前記制御部は、前記状況に応じて、前記投光部から投光される前記光の照射範囲を制限する、前記(1)~(3)のいずれか一項に記載の情報処理装置。
(5)
前記第2の推定部は、前記所定の視点に保持された撮像部により撮像された画像と、前記距離の推定結果と、に基づき、当該所定の視点の実空間上における位置及び姿勢のうち少なくともいずれかを推定する、前記(1)~(4)のいずれか一項に記載の情報処理装置。
(6)
前記第2の推定部は、前記画像から特徴点を抽出し、当該特徴点の抽出結果に基づき、前記位置及び前記姿勢のうち少なくともいずれかを推定し、
前記制御部は、前記特徴点の抽出結果に応じて、前記投光部から投光される前記光を制御する、
前記(5)に記載の情報処理装置。
(7)
前記制御部は、前記位置及び前記姿勢のうち少なくともいずれかの変化に応じてトラッキングされる前記特徴点の数が閾値未満となった場合に、前記投光部から前記光が投光されるように制御する、前記(6)に記載の情報処理装置。
(8)
前記制御部は、前記撮像部により前記画像が撮像される領域のうち、トラッキングされる前記特徴点の数が閾値未満となった少なくとも一部の部分領域を対象として、前記投光部から前記光が投光されるように、前記光の照射範囲を制限する、前記(6)に記載の情報処理装置。
(9)
前記第2の推定部は、
前記特徴点の抽出結果に基づき、前記所定の視点の周囲の環境を3次元的に復元した3次元空間モデルを生成または更新し、
新たに前記画像から抽出された前記特徴点と、過去に生成または更新された前記3次元空間モデルと、に基づき、前記位置及び前記姿勢のうち少なくともいずれかを推定し、
前記制御部は、
新たに前記画像から抽出された前記特徴点と、過去に生成または更新された前記3次元空間モデルと、に基づき、前記投光部から投光される前記光を制御する、
前記(6)~(8)のいずれか一項に記載の情報処理装置。
(10)
前記制御部は、新たに撮像された前記画像から抽出された前記特徴点に対応する情報が、過去に生成または更新された前記3次元空間モデルに含まれない場合に、前記投光部から前記光が投光されるように制御する、前記(9)に記載の情報処理装置。
(11)
前記制御部は、
新たに撮像された前記画像に基づき推定された前記所定の視点の現在の前記位置及び前記姿勢のうち少なくともいずれかと、
前記3次元空間モデルに基づく、当該所定の視点について過去に推定された前記位置及び前記姿勢のうち少なくともいずれかと、
の比較結果に基づき、前記投光部から投光される前記光を制御する、
前記(9)に記載の情報処理装置。
(12)
前記制御部は、新たに撮像された前記画像から抽出された前記特徴点の実空間上における位置の推定結果と、過去に生成または更新された前記3次元空間モデルに応じた当該特徴点の実空間上における位置の予測結果と、の間の差が閾値以上の場合に、前記投光部から前記光が投光されるように制御する、前記(9)に記載の情報処理装置。
(13)
前記制御部は、前記物体として所定の対象物が前記画像に撮像されている場合に、当該対象物に向けて前記光が投光されるように、当該光の照射範囲を制限する、前記(5)~(12)のいずれか一項に記載の情報処理装置。
(14)
前記投光部及び前記撮像部は、所定の筐体に保持され、
前記第2の推定部は、前記筐体の実空間上における位置及び姿勢のうち少なくともいずれかを推定する
前記(5)~(13)のいずれか一項に記載の情報処理装置。
(15)
前記第1の推定部は、前記撮像部による前記光の撮像結果に基づき、前記距離を推定する、前記(5)~(14)のいずれか一項に記載の情報処理装置。
(16)
前記制御部は、前記投光部が複数の場合には、当該複数の投光部それぞれから時分割で前記光が投光されるように、当該複数の投光部それぞれによる前記光の投光タイミングを制御する、前記(5)~(15)のいずれか一項に記載の情報処理装置。
(17)
コンピュータが、
所定の投光部から実空間上の物体に向けて投光され、当該物体で反射した光の検出結果に基づき、所定の視点と当該物体との間の距離を推定することと、
前記距離の推定結果に基づき、前記所定の視点の実空間上における位置及び姿勢のうち少なくともいずれかを推定することと、
前記位置及び前記姿勢のうち少なくともいずれかの推定に関する状況に応じて、前記投光部から投光される前記光を制御することと、
を含む、情報処理方法。
(18)
コンピュータに、
所定の投光部から実空間上の物体に向けて投光され、当該物体で反射した光の検出結果に基づき、所定の視点と当該物体との間の距離を推定することと、
前記距離の推定結果に基づき、前記所定の視点の実空間上における位置及び姿勢のうち少なくともいずれかを推定することと、
前記位置及び前記姿勢のうち少なくともいずれかの推定に関する状況に応じて、前記投光部から投光される前記光を制御することと、
を実行させる、プログラム。
1 情報処理システム
100 情報処理装置
110 デプス推定部
120 自己位置推定部
121 コーナー点検出部
122 特徴点抽出部
123 マッチング処理部
124 姿勢評価部
125 次元モデル更新部
126 予測部
130 判定部
131 経過時間判定部
133 モデル形状判定部
135 特徴点分布判定部
137 新規視点判定部
140 トリガ生成部
180 記憶部
190 制御メモリ
200 移動体
210 デプスセンサ
211 検出部
213 投光部
230 撮像部

Claims (10)

  1. 所定の投光部から実空間上の物体に向けて投光され、当該物体で反射した光の検出結果に基づき、所定の視点と当該物体との間の距離を推定する第1の推定部と、
    前記距離の推定結果に基づき、前記所定の視点の実空間上における位置及び姿勢のうち少なくともいずれかを推定する第2の推定部と、
    前記位置及び前記姿勢のうち少なくともいずれかの推定に関する状況に応じて、前記投光部から投光される前記光を制御する制御部と、
    を備え、
    前記制御部は、前記状況に応じて、前記投光部から投光される前記光の照射範囲を制限する、
    情報処理装置。
  2. 所定の投光部から実空間上の物体に向けて投光され、当該物体で反射した光の検出結果に基づき、所定の視点と当該物体との間の距離を推定する第1の推定部と、
    前記距離の推定結果に基づき、前記所定の視点の実空間上における位置及び姿勢のうち少なくともいずれかを推定する第2の推定部と、
    前記位置及び前記姿勢のうち少なくともいずれかの推定に関する状況に応じて、前記投光部から投光される前記光を制御する制御部と、
    を備え、
    前記第2の推定部は、前記所定の視点に保持された撮像部により撮像された画像と、前記距離の推定結果と、に基づき、当該所定の視点の実空間上における位置及び姿勢のうち少なくともいずれかを推定し、
    前記第2の推定部は、前記画像から特徴点を抽出し、当該特徴点の抽出結果に基づき、前記位置及び前記姿勢のうち少なくともいずれかを推定し、
    前記制御部は、前記特徴点の抽出結果に応じて、前記投光部から投光される前記光を制御し、
    前記制御部は、前記位置及び前記姿勢のうち少なくともいずれかの変化に応じてトラッキングされる前記特徴点の数が閾値未満となった場合に、前記投光部から前記光が投光されるように制御する、
    情報処理装置。
  3. 所定の投光部から実空間上の物体に向けて投光され、当該物体で反射した光の検出結果に基づき、所定の視点と当該物体との間の距離を推定する第1の推定部と、
    前記距離の推定結果に基づき、前記所定の視点の実空間上における位置及び姿勢のうち少なくともいずれかを推定する第2の推定部と、
    前記位置及び前記姿勢のうち少なくともいずれかの推定に関する状況に応じて、前記投光部から投光される前記光を制御する制御部と、
    を備え、
    前記第2の推定部は、前記所定の視点に保持された撮像部により撮像された画像と、前記距離の推定結果と、に基づき、当該所定の視点の実空間上における位置及び姿勢のうち少なくともいずれかを推定し、
    前記第2の推定部は、前記画像から特徴点を抽出し、当該特徴点の抽出結果に基づき、前記位置及び前記姿勢のうち少なくともいずれかを推定し、
    前記制御部は、前記特徴点の抽出結果に応じて、前記投光部から投光される前記光を制御し、
    前記制御部は、前記撮像部により前記画像が撮像される領域のうち、トラッキングされる前記特徴点の数が閾値未満となった少なくとも一部の部分領域を対象として、前記投光部から前記光が投光されるように、前記光の照射範囲を制限する、
    情報処理装置。
  4. 所定の投光部から実空間上の物体に向けて投光され、当該物体で反射した光の検出結果に基づき、所定の視点と当該物体との間の距離を推定する第1の推定部と、
    前記距離の推定結果に基づき、前記所定の視点の実空間上における位置及び姿勢のうち少なくともいずれかを推定する第2の推定部と、
    前記位置及び前記姿勢のうち少なくともいずれかの推定に関する状況に応じて、前記投光部から投光される前記光を制御する制御部と、
    を備え、
    前記第2の推定部は、前記所定の視点に保持された撮像部により撮像された画像と、前記距離の推定結果と、に基づき、当該所定の視点の実空間上における位置及び姿勢のうち少なくともいずれかを推定し、
    前記第2の推定部は、前記画像から特徴点を抽出し、当該特徴点の抽出結果に基づき、前記位置及び前記姿勢のうち少なくともいずれかを推定し、
    前記制御部は、前記特徴点の抽出結果に応じて、前記投光部から投光される前記光を制御し、
    前記第2の推定部は、
    前記特徴点の抽出結果に基づき、前記所定の視点の周囲の環境を3次元的に復元した3次元空間モデルを生成または更新し、
    新たに前記画像から抽出された前記特徴点と、過去に生成または更新された前記3次元空間モデルと、に基づき、前記位置及び前記姿勢のうち少なくともいずれかを推定し、
    前記制御部は、
    新たに前記画像から抽出された前記特徴点と、過去に生成または更新された前記3次元空間モデルと、に基づき、前記投光部から投光される前記光を制御する、
    情報処理装置。
  5. 前記制御部は、新たに撮像された前記画像から抽出された前記特徴点に対応する情報が、過去に生成または更新された前記3次元空間モデルに含まれない場合に、前記投光部から前記光が投光されるように制御する、請求項に記載の情報処理装置。
  6. 前記制御部は、
    新たに撮像された前記画像に基づき推定された前記所定の視点の現在の前記位置及び前記姿勢のうち少なくともいずれかと、
    前記3次元空間モデルに基づく、当該所定の視点について過去に推定された前記位置及び前記姿勢のうち少なくともいずれかと、
    の比較結果に基づき、前記投光部から投光される前記光を制御する、
    請求項に記載の情報処理装置。
  7. 前記制御部は、新たに撮像された前記画像から抽出された前記特徴点の実空間上における位置の推定結果と、過去に生成または更新された前記3次元空間モデルに応じた当該特徴点の実空間上における位置の予測結果と、の間の差が閾値以上の場合に、前記投光部から前記光が投光されるように制御する、請求項に記載の情報処理装置。
  8. 所定の投光部から実空間上の物体に向けて投光され、当該物体で反射した光の検出結果に基づき、所定の視点と当該物体との間の距離を推定する第1の推定部と、
    前記距離の推定結果に基づき、前記所定の視点の実空間上における位置及び姿勢のうち少なくともいずれかを推定する第2の推定部と、
    前記位置及び前記姿勢のうち少なくともいずれかの推定に関する状況に応じて、前記投光部から投光される前記光を制御する制御部と、
    を備え、
    前記第2の推定部は、前記所定の視点に保持された撮像部により撮像された画像と、前記距離の推定結果と、に基づき、当該所定の視点の実空間上における位置及び姿勢のうち少なくともいずれかを推定し、
    前記制御部は、前記物体として所定の対象物が前記画像に撮像されている場合に、当該対象物に向けて前記光が投光されるように、当該光の照射範囲を制限する、
    情報処理装置。
  9. コンピュータが、
    所定の投光部から実空間上の物体に向けて投光され、当該物体で反射した光の検出結果に基づき、所定の視点と当該物体との間の距離を推定することと、
    前記距離の推定結果に基づき、前記所定の視点の実空間上における位置及び姿勢のうち少なくともいずれかを推定することと、
    前記位置及び前記姿勢のうち少なくともいずれかの推定に関する状況に応じて、前記投光部から投光される前記光を制御することと、
    前記状況に応じて、前記投光部から投光される前記光の照射範囲を制限することと、
    を含む、情報処理方法。
  10. コンピュータに、
    所定の投光部から実空間上の物体に向けて投光され、当該物体で反射した光の検出結果に基づき、所定の視点と当該物体との間の距離を推定することと、
    前記距離の推定結果に基づき、前記所定の視点の実空間上における位置及び姿勢のうち少なくともいずれかを推定することと、
    前記位置及び前記姿勢のうち少なくともいずれかの推定に関する状況に応じて、前記投光部から投光される前記光を制御することと、
    前記状況に応じて、前記投光部から投光される前記光の照射範囲を制限することと、
    を実行させる、プログラム。
JP2019519494A 2017-05-24 2018-03-26 情報処理装置、情報処理方法、及びプログラム Active JP7103354B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2017102489 2017-05-24
JP2017102489 2017-05-24
PCT/JP2018/012018 WO2018216342A1 (ja) 2017-05-24 2018-03-26 情報処理装置、情報処理方法、及びプログラム

Publications (2)

Publication Number Publication Date
JPWO2018216342A1 JPWO2018216342A1 (ja) 2020-05-28
JP7103354B2 true JP7103354B2 (ja) 2022-07-20

Family

ID=64395443

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019519494A Active JP7103354B2 (ja) 2017-05-24 2018-03-26 情報処理装置、情報処理方法、及びプログラム

Country Status (4)

Country Link
US (1) US11232590B2 (ja)
EP (1) EP3633407A4 (ja)
JP (1) JP7103354B2 (ja)
WO (1) WO2018216342A1 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102596053B1 (ko) * 2018-08-27 2023-11-01 엘지이노텍 주식회사 영상 처리 장치 및 영상 처리 방법
US20220148209A1 (en) * 2019-03-25 2022-05-12 Sony Group Corporation Medical system, signal processing device, and signal processing method
WO2020262389A1 (ja) * 2019-06-28 2020-12-30 キヤノン株式会社 計測装置、撮像装置、計測システム、制御方法及びプログラム
WO2021117595A1 (ja) * 2019-12-13 2021-06-17 ソニーグループ株式会社 情報処理装置、情報処理方法、及びプログラム

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140240469A1 (en) 2013-02-28 2014-08-28 Motorola Mobility Llc Electronic Device with Multiview Image Capture and Depth Sensing

Family Cites Families (41)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
NO302055B1 (no) * 1993-05-24 1998-01-12 Metronor As Fremgangsmåte og system for geometrimåling
JPH11160016A (ja) * 1997-11-26 1999-06-18 Fuji Xerox Co Ltd 距離測定方法及び装置
JP3647376B2 (ja) * 2001-01-31 2005-05-11 キヤノン株式会社 視点位置検出装置、視点位置検出方法及び立体画像表示システム
JP4573085B2 (ja) * 2001-08-10 2010-11-04 日本電気株式会社 位置姿勢認識装置とその位置姿勢認識方法、及び位置姿勢認識プログラム
JP2003194962A (ja) 2001-12-27 2003-07-09 Sunx Ltd 光電センサ
JP2004312249A (ja) * 2003-04-04 2004-11-04 Olympus Corp カメラ
CN1836184A (zh) * 2003-08-21 2006-09-20 柯尼卡美能达精密光学株式会社 图像拾取装置
JP4427389B2 (ja) * 2004-06-10 2010-03-03 株式会社トプコン 測量機
DE112006003363B4 (de) * 2005-12-16 2016-05-04 Ihi Corporation Verfahren und Vorrichtung zur Identifizierung der Eigenposition, und Verfahren und Vorrichtung zur Messung einer dreidimensionalen Gestalt
JP5175562B2 (ja) * 2008-01-28 2013-04-03 シャープ株式会社 人物位置検出装置および空気調和機
JP5150310B2 (ja) * 2008-03-04 2013-02-20 株式会社トプコン 地理データ収集装置
US8659658B2 (en) * 2010-02-09 2014-02-25 Microsoft Corporation Physical interaction zone for gesture-based user interfaces
US8934766B2 (en) * 2010-05-25 2015-01-13 Canon Kabushiki Kaisha Image pickup apparatus
JP5624394B2 (ja) * 2010-07-16 2014-11-12 キヤノン株式会社 位置姿勢計測装置、その計測処理方法及びプログラム
JP5587137B2 (ja) * 2010-10-29 2014-09-10 キヤノン株式会社 測定装置及び測定方法
KR101694797B1 (ko) * 2010-12-21 2017-01-11 삼성전자주식회사 3차원 이미지 센서의 구동 방법
JP5738005B2 (ja) * 2011-03-01 2015-06-17 株式会社トプコン 光波距離測定装置
JP5738080B2 (ja) * 2011-06-09 2015-06-17 キヤノン株式会社 撮像装置及びその制御方法
TWI575494B (zh) * 2011-08-19 2017-03-21 半導體能源研究所股份有限公司 半導體裝置的驅動方法
US9117281B2 (en) * 2011-11-02 2015-08-25 Microsoft Corporation Surface segmentation from RGB and depth images
JP5895305B2 (ja) * 2011-12-06 2016-03-30 シーシーエス株式会社 検査用照明装置及び検査用照明方法
JP2013126165A (ja) * 2011-12-15 2013-06-24 Fujitsu Ltd 撮像装置、撮像方法及びプログラム
US9109888B2 (en) * 2012-03-21 2015-08-18 Honda Motor Co., Ltd. Distance measuring system
US9398229B2 (en) * 2012-06-18 2016-07-19 Microsoft Technology Licensing, Llc Selective illumination of a region within a field of view
US10067231B2 (en) * 2012-10-05 2018-09-04 Faro Technologies, Inc. Registration calculation of three-dimensional scanner data performed between scans based on measurements by two-dimensional scanner
US20140139632A1 (en) * 2012-11-21 2014-05-22 Lsi Corporation Depth imaging method and apparatus with adaptive illumination of an object of interest
US9041914B2 (en) * 2013-03-15 2015-05-26 Faro Technologies, Inc. Three-dimensional coordinate scanner and method of operation
JP6316568B2 (ja) * 2013-10-31 2018-04-25 株式会社トプコン 測量システム
BR112016019589B1 (pt) * 2014-02-24 2022-06-14 Nissan Motor Co. Ltd Dispositivo de cálculo de autolocalização e método de cálculo de autolocalização
CN104881860B (zh) * 2014-02-28 2019-01-08 国际商业机器公司 基于照片进行定位的方法和装置
GB201407270D0 (en) * 2014-04-24 2014-06-11 Cathx Res Ltd 3D data in underwater surveys
GB2529846B (en) * 2014-09-03 2019-02-20 Dyson Technology Ltd Illumination Control of a Vision System for a Mobile Robot
JP6520053B2 (ja) * 2014-11-06 2019-05-29 株式会社デンソー 光飛行型測距装置
US10122449B2 (en) * 2014-12-01 2018-11-06 Infineon Technologies Ag Access control devices and a transceiver device
JP2016197083A (ja) * 2015-04-06 2016-11-24 ソニー株式会社 制御装置および方法、並びにプログラム
JP6897563B2 (ja) * 2015-05-14 2021-06-30 ソニーグループ株式会社 画像処理装置と画像処理方法およびプログラム
JP6584226B2 (ja) * 2015-08-26 2019-10-02 株式会社トプコン 測定装置
JP6775969B2 (ja) * 2016-02-29 2020-10-28 キヤノン株式会社 情報処理装置、情報処理方法、及びプログラム
EP3508814B1 (en) * 2016-09-01 2023-08-23 Sony Semiconductor Solutions Corporation Imaging device
US20200081094A1 (en) * 2017-02-15 2020-03-12 Pioneer Corporation Light scanning device and control method
US10627518B2 (en) * 2017-06-02 2020-04-21 Pixart Imaging Inc Tracking device with improved work surface adaptability

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140240469A1 (en) 2013-02-28 2014-08-28 Motorola Mobility Llc Electronic Device with Multiview Image Capture and Depth Sensing

Also Published As

Publication number Publication date
US11232590B2 (en) 2022-01-25
US20210110574A1 (en) 2021-04-15
EP3633407A4 (en) 2020-06-10
EP3633407A1 (en) 2020-04-08
JPWO2018216342A1 (ja) 2020-05-28
WO2018216342A1 (ja) 2018-11-29

Similar Documents

Publication Publication Date Title
KR101950641B1 (ko) 향상된 안구 추적을 위한 장면 분석
JP7103354B2 (ja) 情報処理装置、情報処理方法、及びプログラム
JP6198230B2 (ja) 深度カメラを使用した頭部姿勢トラッキング
JP6228320B2 (ja) 制約なしslam用のセンサベースのカメラ運動検出
KR101776622B1 (ko) 다이렉트 트래킹을 이용하여 이동 로봇의 위치를 인식하기 위한 장치 및 그 방법
US10852847B2 (en) Controller tracking for multiple degrees of freedom
US11625841B2 (en) Localization and tracking method and platform, head-mounted display system, and computer-readable storage medium
JP6456347B2 (ja) 平面固有の特徴のターゲットのinsitu生成
US10169880B2 (en) Information processing apparatus, information processing method, and program
JP2023109848A (ja) 仮想現実システムのための安全境界を修正するためのシステムおよび方法
JP2019522851A (ja) 3次元空間内の姿勢推定
US20190026922A1 (en) Markerless augmented reality (ar) system
CN109564467B (zh) 具有音频、视觉和运动分析的数码相机
JP2016502712A (ja) 単眼視覚slamのための高速初期化
US10838515B1 (en) Tracking using controller cameras
US11302023B2 (en) Planar surface detection
US10679376B2 (en) Determining a pose of a handheld object
WO2020195875A1 (ja) 情報処理装置、情報処理方法、及びプログラム
JP2016136439A (ja) グラフマッチングおよびサイクル検出による自動モデル初期化を用いた線トラッキング
CN112291701B (zh) 定位验证方法、装置、机器人、外部设备和存储介质
CN112711324B (zh) 基于tof相机的手势交互方法及其系统
US20230326056A1 (en) Information processing apparatus, information processing method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210204

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220315

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220516

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220607

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220620

R151 Written notification of patent or utility model registration

Ref document number: 7103354

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151