JP7337458B2 - 3次元位置推定装置および3次元位置推定方法 - Google Patents

3次元位置推定装置および3次元位置推定方法 Download PDF

Info

Publication number
JP7337458B2
JP7337458B2 JP2020011295A JP2020011295A JP7337458B2 JP 7337458 B2 JP7337458 B2 JP 7337458B2 JP 2020011295 A JP2020011295 A JP 2020011295A JP 2020011295 A JP2020011295 A JP 2020011295A JP 7337458 B2 JP7337458 B2 JP 7337458B2
Authority
JP
Japan
Prior art keywords
image data
dimensional position
position estimation
dimensional
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020011295A
Other languages
English (en)
Other versions
JP2021117130A (ja
Inventor
卓也 石井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Alpine Electronics Inc
Original Assignee
Alpine Electronics Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Alpine Electronics Inc filed Critical Alpine Electronics Inc
Priority to JP2020011295A priority Critical patent/JP7337458B2/ja
Publication of JP2021117130A publication Critical patent/JP2021117130A/ja
Application granted granted Critical
Publication of JP7337458B2 publication Critical patent/JP7337458B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Image Analysis (AREA)

Description

本発明は、物体の3次元位置を推定する3次元位置推定装置に関し、特に、畳み込みニューラルネットワーク(Convolutional Neural Network:以下、CNNという)を利用した位置推定に関する。
乗員が音の方向感や移動感をより分かり易くするため、例えば、特許文献1の車載音響装置は、車内に設置されたカメラで運転者の顔を撮像し、撮像した画像から運転者の左右の耳の位置を推定し、左右の耳の位置に最適な音となるように音の大きさおよび遅延時間を制御した音場の補正技術を開示している。
特開2015-231063号公報
単眼カメラを用いて物体(例えば、運転者の耳)までの距離を推定する場合、物体がカメラに近づけば画像上に物体が大きく映り、遠ざかれば物体が小さく映ることを利用し、物体までの距離を算出することができる。例えば、図1に示すように、単眼カメラ10(12はCCDやCMOSのイメージセンサ、14は撮像レンズ、Fは焦点距離)で物体(被写体)20を撮像したとき、物体20までの距離Lを次式により算出することができる。
Z2=Z1×W1/W2
ここで、Z1を基準距離、Z2を測定したい物体までの距離、物体がZ1、Z2にあるときの画像上の長さをそれぞれW1、W2とすると、Z1とW1が既知であれば、距離Z2を上記式により求めることができる。
しかしながら、一般に単眼カメラは、深度センサーと比べると、計算コスト、金銭コスト、サイズの制約の面で優れているが、精度の面では劣る。また、単眼カメラでは、基準距離Z1における画像上の長さW1が既知であるか、あるいは物体の実寸が既知である必要があり(大きさが未知な場合は使えない)、既知でない場合には、ステレオカメラ等を使用する必要があった。しかし、ステレオカメラを用いた場合でも、物体が立体物である場合、表面の凸凹や物体の回転等により誤差が生じることがある。
深度センサーと単眼カメラとを併用したときの顔の特徴点の3次元座標の検出例を図2(A)に示す。単眼カメラ30で顔を撮像し、撮像した画像データから顔の特徴点を抽出する。他方、深度センサー40は、例えば、レーザー光を顔の特徴点に照射し、その反射光を受光するまでの時間から特徴点までの距離を計測する。
図2(B)に、深度センサーと単眼カメラを用いたときの特徴点の3次元座標を計算するための処理の流れを示す。先ず、単眼カメラ30で撮像した画像データからポーズを推定する(S10)。これは、画像データを解析することで、顔の特徴点である眼、耳、鼻、眉毛、口などの2次元座標を抽出する。次に、顔の特徴点の標準的な深度を表した統計データを用いて特徴点の深度を推定する(S20)。次に、深度センサ―40により顔をスキャンし、深度センサー40の検出結果を用いて推定された特徴点の深度をより正確に計算する(S30)。次に、計算して得られた深度を特徴点の2次元座標にマッチングし、顔の特徴点の3次元座標を計算する(S40)。3次元座標の計算では、単眼カメラ30のカメラパラメータ(解像度、レンズ収差等による画像の歪み、焦点深度、画角など)が考慮される。
このような方法は、顔の特徴点の検出と深度推定/計算とを別々に行うため、次のような欠点がある。ポーズ推定(S10)や深度推定(S20)のための画像処理に大きな処理時間を必要とする。さらに、画像データから推定した2次元座標と2次元の深度情報とをマッチングする過程で大きく誤差を生じることがあった。例えば、顔の特徴点として耳の3次元位置を検出する場合、図2(C)に示すように、単眼カメラ30で検出した耳の2次元座標に、深度センサー40で検出した頬の深度を誤ってマッチングしてしまったり(頬の3次元位置を誤検出)、図2(D)に示すように、単眼カメラ30で検出した耳の2次元座標に、深度センサ―40で検出した背景の壁の深度を誤ってマッチングしてしまうことがある(壁の3次元位置を誤検出)。例えば、特許文献1に示すように、オーディオシステムにおいて耳の3次元位置を利用する場合、音声データを正確に補正することができないという不具合を生じさせてしまう。
本発明は、上記従来の課題を解決し、単眼カメラを用いて物体の3次元位置を推定することができる3次元位置推定装置および推定方法を提供することを目的とする。
本発明に係る3次元位置推定装置は、物体を撮像した画像データを撮像手段から入力し、教師データとして深度情報付きの特徴点マップを用いて前記画像データから物体の3次元座標を推定する学習モデルを生成する学習手段と、物体を撮像した画像データを単眼カメラから前記学習モデルに入力し、物体の3次元座標を推定する推定手段と、前記単眼カメラと前記撮像手段との撮像特性の差異に基づき前記推定手段で推定された3次元座標の深度を補正する補正手段とを有する。
ある実施態様では、前記学習モデルは、畳み込みニューラルネットワークを含む。ある実施態様では、前記撮像特性は、解像度、歪み、レンズ収差または焦点深度のいずれか1つを含む。ある実施態様では、前記撮像手段はステレオカメラを含み、前記深度情報付きの特徴点マップは、前記ステレオカメラのステレオ画像データから生成され、前記学習モデルには、前記ステレオカメラの一方のカメラで撮像された画像データが入力される。ある実施態様では、前記推定手段は、顔の3次元位置(例えば、耳の位置)を推定する。
本発明に係る3次元位置推定方法は、物体を撮像した画像データを撮像手段から入力し、教師データとして深度情報付きの特徴点マップを用いて前記画像データから物体の3次元座標を推定する学習モデルを生成するステップと、物体を撮像した画像データを単眼カメラから前記学習モデルに入力し、物体の3次元座標を推定するステップと、前記単眼カメラと前記撮像手段との撮像特性の差異に基づき前記推定された3次元座標の深度を補正するステップとを含む。
本発明によれば、CNN等を用いた学習モデルにおいて物体の3次元位置を直接推定するようにし、この学習モデルを利用して物体の3次元位置を推定するようにしたので、従来と比較して、3次元位置を推定する処理時間を短くし、かつ2次元座標と深度とのマッチングがないために位置推定の誤差を減らすことができる。さらに、物体の3次元位置推定では、単眼カメラを利用することができるため低コスト化を図ることができる。
従来の単眼カメラによる物体までの距離の算出方法を説明する図である。 従来の深度センサーと単眼カメラを併用した顔の特徴点の3次元座標の検出例を説明する図である。 本発明の実施例に係る顔特徴部の3次元位置推定装置の機能的な構成を示すブロック図である。 本発明の実施例に係る学習部の機能的な構成を示す図である。 本発明の実施例に係る推定部の機能的な構成を示す図である。 図6(A)は、従来手法による物体の3次元位置推定のステップを示し、図6(B)は、本実施例による物体の3次元位置推定のステップを示す。 本実施例の3次元位置推定装置を車載オーディオシステムに適用したときに実施される搭乗者の耳の3次元位置推定を説明する図である。 車載オーディオシステムのスピーカーが搭乗者のヘッドレストに内蔵される例を示す図である。
次に、本発明の実施の形態について説明する。本発明の3次元位置推定装置は、単眼カメラにより撮像された画像データに対して画像処理を施して、画像データ内に映る物体の3次元位置を推定する。対象となる物体は、特に限定されないが、例えば、人間の顔の特徴点(例えば、眼、耳、鼻、口、眉毛など)、人間の腕や肘などの関節や姿勢、あるいは道路上の信号機、交差点、建造物など多岐にわたる。さらに本発明の3次元位置推定装置で推定された物体の3次元位置は、種々の用途に利用することができる。例えば、車載オーディオ装置は、搭乗者の耳の3次元位置に最適な音場を提供する。あるいは、運転支援装置は、前方車両や障害物等の3次元位置に最適な運転支援を提供する。
次に、本発明の実施例について図面を参照して詳細に説明する。図3は、本発明の実施例に係る3次元位置推定装置の機能的な構成を示すブロック図である。3次元位置推定装置100は、撮像カメラ110、単眼カメラ120および画像処理部130を含んで構成される。
撮像カメラ110は、CCDやCMOSセンサー等の撮像素子やレンズ等を含む光学系を含み、n行×m列の画素数(ピクセル数)からなる画像データP1を生成する。撮像カメラ110が生成する画像データP1には、3次元位置を推定するための物体が映され、この画像データP1は、学習部140に提供される。ある実施態様では、撮像カメラ110は、比較的高価または高機能なカメラであることができ、その結果、高精度の画像データP1を生成することができる。また、ある実施態様では、撮像カメラ110は、ステレオカメラまたは複数のカメラを含むことができ、複数の撮像カメラは、異なる視差で物体がそれぞれ撮像する。複数の撮像カメラで生成された複数の画像データの中から1つの画像データP1が選択され、選択された画像データP1が学習部140に提供される。
単眼カメラ120は、CCDやCMOSセンサー等の撮像素子やレンズ等を含む光学系を含み、n行×m列の画素数(ピクセル数)からなる画像データP2を生成する。単眼カメラ120が生成する画像データP2には、3次元位置を推定するための物体が映され、この画像データP2は、推定部150に提供される。ある実施態様では、単眼カメラ120は、比較的低機能または廉価なカメラであり、例えば、ウエブカメラであることができる。
画像処理部130は、撮像カメラ110で生成された画像データP1および単眼カメラ120で生成された画像データP2を受け取り、これらの画像データP1、P2の画像処理または画像認識を行う。画像処理部130は、大きく2つの機能を含み、1つは、学習部140が実行する学習機能であり、もう1つは推定部150が実行する推定機能である。推定部150は、学習部140によって生成された学習モデルを利用して画像データP2から物体の3次元位置を推定する。
学習部140は、撮像カメラ110で生成された画像データP1を受け取る画像データ入力部142、入力した画像データP1に映された物体の特徴の抽出等を行う特徴抽出処理部144、大量の画像データP1の特徴抽出処理を行い、結果として物体の3次元座標を推定する学習モデルを生成する学習モデル生成部146を含む。
推定部150は、単眼カメラ120で生成された画像データP2を受け取る画像データ入力部152、学習モデル生成部146で生成された学習モデルを用いて画像データP2に映された物体の特徴の抽出等を行う特徴抽出処理部154、特徴抽出処理部154の処理結果から物体の3次元位置を推定する3次元位置推定部156、推定された物体の3次元位置をカメラパラメータ等の予め用意された補正情報を用いて3次元位置の深度を補正する3次元位置補正部158を含む。
画像処理部130は、ハードウエアおよび/またはソフトウエアによって実現される。画像処理部130は、例えば、CPUやROM/RAM等を含むマイクロコントローラ、マイクロプロセッサ、画像処理用プロセッサ、DSP、メモリ等を含むことができ、さらにROMやメモリ等に格納されたプログラムやソフトウエア等をCPUに実行させることができる。
次に、学習部140の詳細について図4を参照して説明する。学習部140は、ステレオカメラ(またはモーションフレーム)110で生成された一方のモノラル画像データP1を受け取る入力部200と、入力部200で受け取られた画像データP1の特徴抽出処理を行う畳み込みニューラルネットワーク部(以下、CNN部)210と、深度情報付きの特徴点マップ(3次元ヒートマップ)を生成し、これを教師ラベルLとしてCNN部210に提供する教師ラベル生成部220と、教師ラベルLを用いてCNN部210を学習させる機械学習部230と、CNN部210により生成された物体の特徴点を表した3次元座標(例えば、顔の特徴点の3次元マップ)M1を出力する出力部240とを含む。
ステレオカメラ110で生成される画像データP1は、適切なサイズが選定される。画像データのサイズが大きすぎると、特徴を抽出し抽出した特徴から特徴点マップを生成するための処理に大きな負荷がかかり過ぎ、他方、画像データのサイズが小さすぎると、特徴の抽出が少なくなり精度が劣化する。
CNN部210は、画像データP1を受け取る入力層、畳み込み層、プーリング層、出力層を含む。入力層は、入力される画像データP1の画素数と同じ入力ノードを有する。CNN部210は、物体の大きさ、位置、光の減衰などの予め用意された種々の特徴情報を用いて、画像データP1をフィルタリングまたは圧縮し、物体の特徴を抽出する。ある実施態様では、CNN部210は、エンコーダ-デコーダを用いて構成することができる。
CNN部210は、物体の特徴点の2次元座標(マップ)を生成し、これを機械学習部230へ提供する。機械学習部230は、教師ラベル生成部220から提供される教師ラベル(深度情報付きの特徴点マップ)を用いて、CNN部210で生成された物体の特徴点の2次元座標が教師ラベルLの特徴点マップに一致するようにCNN部210のフィルター係数あるいは重み付け係数を調整する。調整された係数は、学習データとしてメモリ等に保持される。さらに機械学習部230は、教師ラベルLを用いて、特徴点の次元座標に深度情報を与える。こうして、物体の3次元座標として深度情報付きの特徴点マップが同時に生成され、これが出力部240から得られる。
教師ラベル生成部220は、ステレオカメラ220で撮像された少なくとも2つのステレオ画像データに映された物体の視差を利用して物体までの距離(すなわち、深度情報(デプス))を計算し、深度情報付きの特徴点マップである教師ラベルLを生成する。こうして、学習部140は、単眼カメラ120の画像データP2から物体の3次元座標が推定できるように、CNN部210の機械学習を行う。
次に、推定部150の詳細について図5を参照して説明する。推定部150は、単眼カメラ120で生成された画像データP2を受け取る入力部200と、入力部200で受け取られた画像データP2の特徴抽出処理を行う学習済みのCNN部210と、CNN部210で処理された物体の特徴点を表した3次元座標M1を出力する出力部240と、ステレオカメラ120と単眼カメラ120とのカメラパラメータの差異に基づく補正情報Cを提供する補正情報提供部250と、補正情報Cに基づき3次元座標M1の深度情報を補正する3次元座標補正部260とを含む。
補正情報提供部250は、ステレオカメラ110と単眼カメラ120のカメラパラメータ(例えば、解像度、画像の歪み、レンズ収差、焦点深度、画角など)の差異に基づき生成された補正情報Cを3次元座標補正部260に提供する。補正情報Cは、ステレオカメラ110で生成された画像データP1と単眼カメラ120で生成された画像データP2との相関関係を規定するものであり、例えば、メモリ等に予め用意される。また、ある実施態様では、補正情報提供部250は、ステレオカメラ110のキャリブレーション情報を考慮した補正情報Cを生成するようにしてもよい。カメラの工場出荷時、カメラの組立誤差を較正するためのキャリブレーションパラメータが設定されることがあり、キャリブレーションパラメータを取得することができる場合には、キャリブレーションパラメータを反映した補正情報Cを生成する。3次元座標補正部260は、補正情報Cに基づき推定された3次元座標の深度情報を補正し、これを最終的な推定位置として出力する。
このように、本実施例では単眼カメラ120からの画像データP2と学習済のCNN部210を用いて物体の特徴点の3次元位置を推定する。このとき、単眼カメラ120のカメラパラメータを使って3次元座標を計算するが、学習時に使ったステレオカメラ110の撮像特性(カメラパラメータ)の違いによる深度補正を行うことで、異なるカメラでも物体の3次元位置を正確に推定することを可能にする。
ある実施態様では、推定部150は、顔の特徴点(パーツ)の3次元位置を直接推定する。この場合、顔の特徴点の近傍のみの深度を推定できれば良いため、カメラで撮像された画像全体の深度を推定する必要はない。つまり、周辺オブジェクトや壁等の深度を推定する必要はないため、学習に使うデータ数を少なくすることができる。
図6(A)に、従来手法による3次元位置推定のステップを示し、図6(B)に、本実施例よる3次元位置推定のステップを示す。従来手法は、ポーズ推定、深度推定、深度計算、および3次元座標計算のステップを含むのに対し、本実施例は、学習モデルを生成するCNN部210によりポーズ位置と深度を同時に推定し、それに基づき3次元座標を計算するため、従来手法よりも処理ステップを削減し、かつ処理時間を短縮させることができる。また、CNN部で直接3次元位置を推定するため、2次元座標と深度とのマッチングが不要となり、位置推定の誤差を少なくすることができる。さらに、推定時には単眼カメラのみで3次元位置を推定可能になるためコスト低減を図ることができる。
本実施例の3次元位置推定装置で推定された結果は、種々のアプリケーションに適用することができる。ある実施態様では、3次元位置推定装置は、車載オーディオシステムに適用される。3次元位置推定装置が車両に搭載され、単眼カメラ120は、搭乗者の顔を撮像する位置に設置される。例えば、図7に示すように、単眼カメラ120は、コラムカバー300上に取り付けられ、ステアリング310の合間を通して運転者320の顔を撮像し、3次元位置推定装置は、運転者320の耳330の3次元位置を推定する。
車載オーディオシステムは、記録媒体から再生された音声データまたはスマートフォン等の外部機器で再生された音声データを車内空間内に音声出力する。ある実施態様では、図8に示すように、運転者320の座席340のヘッドレスト350の左右にスピーカー360が搭載され、車載オーディオシステムは、運転者320の耳330の3次元位置に最適化された音場が生成されるように、音声データの再生を制御する。また、車載オーディオシステムがANC(アクティブノイズコントロール)を利用する場合には、ヘッドレストにマイクが内蔵され、耳330の3次元位置周辺においてノイズを効果的に低減することができる。
上記実施例では、顔パーツの3次元位置を推定する例を示したが、これは一例であり、これ以外にも、骨格、関節、姿勢等を推定することも可能である。さらに位置推定する物体は、人間に限らず、他の物体(例えば、構造物、車両等)であってもよい。上記実施例では、学習時にステレオカメラを用いる例を示したが、これは一例であり、これ以外にも、例えば、焦点深度センサー付きのカメラを用いて教師データを与えるものであってもよい。
以上、本発明の好ましい実施の形態について詳述したが、本発明は、特定の実施形態に限定されるものではなく、特許請求の範囲に記載された発明の要旨の範囲において、種々の変形、変更が可能である。
100:3次元位置推定装置 110:撮像カメラ
120:単眼カメラ 130:画像処理部
140:学習部 142:画像データ入力部
144:特徴抽出処理部 146:学習モデル生成部
150:推定部 152:画像データ入力部
154:特徴抽出処理部 156:3次元位置推定部
158:3次元位置補正部 210:畳み込みニューラルネットワーク部

Claims (8)

  1. 物体を撮像した画像データを撮像手段から入力し、教師データとして深度情報付きの特徴点マップを用いて前記画像データから物体の3次元座標を推定する学習モデルを生成する学習手段と、
    物体を撮像した画像データを単眼カメラから前記学習モデルに入力し、物体の3次元座標を推定する推定手段と、
    前記単眼カメラと前記撮像手段との撮像特性の差異に基づき前記推定手段で推定された3次元座標の深度を補正する補正手段と、
    を有する3次元位置推定装置。
  2. 前記学習モデルは、畳み込みニューラルネットワークを含む、請求項1に記載の3次元位置推定装置。
  3. 前記撮像特性は、解像度、歪み、レンズ収差または焦点深度のいずれか1つを含む、請求項1に記載の3次元位置推定装置。
  4. 前記撮像手段はステレオカメラを含み、前記深度情報付きの特徴点マップは、前記ステレオカメラのステレオ画像データから生成され、前記学習モデルには、前記ステレオカメラの一方のカメラで撮像された画像データが入力される、請求項1に記載の3次元位置推定装置。
  5. 前記推定手段は、顔の3次元位置を推定する、請求項1ないし4いずれか1つに記載の3次元位置推定装置。
  6. 前記推定手段は、耳の3次元位置を推定する、請求項5に記載の3次元位置推定装置。
  7. 物体を撮像した画像データを撮像手段から入力し、教師データとして深度情報付きの特徴点マップを用いて前記画像データから物体の3次元座標を推定する学習モデルを生成するステップと、
    物体を撮像した画像データを単眼カメラから前記学習モデルに入力し、物体の3次元座標を推定するステップと、
    前記単眼カメラと前記撮像手段との撮像特性の差異に基づき前記推定された3次元座標の深度を補正するステップと、
    を含む3次元位置推定方法。
  8. 前記学習モデルは、畳み込みニューラルネットワークを含む、請求項7に記載の3次元位置推定方法。
JP2020011295A 2020-01-28 2020-01-28 3次元位置推定装置および3次元位置推定方法 Active JP7337458B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020011295A JP7337458B2 (ja) 2020-01-28 2020-01-28 3次元位置推定装置および3次元位置推定方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020011295A JP7337458B2 (ja) 2020-01-28 2020-01-28 3次元位置推定装置および3次元位置推定方法

Publications (2)

Publication Number Publication Date
JP2021117130A JP2021117130A (ja) 2021-08-10
JP7337458B2 true JP7337458B2 (ja) 2023-09-04

Family

ID=77174620

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020011295A Active JP7337458B2 (ja) 2020-01-28 2020-01-28 3次元位置推定装置および3次元位置推定方法

Country Status (1)

Country Link
JP (1) JP7337458B2 (ja)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013186042A (ja) 2012-03-09 2013-09-19 Hitachi Automotive Systems Ltd 距離算出装置及び距離算出方法
JP2015231063A (ja) 2014-06-03 2015-12-21 矢崎総業株式会社 車載音響装置
JP2018139084A (ja) 2017-02-24 2018-09-06 株式会社リコー 装置、移動体装置及び方法
JP2019125116A (ja) 2018-01-15 2019-07-25 キヤノン株式会社 情報処理装置、情報処理方法、およびプログラム
JP2019124537A (ja) 2018-01-15 2019-07-25 キヤノン株式会社 情報処理装置及びその制御方法及びプログラム、並びに、車両の運転支援システム
JP2019124538A5 (ja) 2018-01-15 2021-02-04

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7133926B2 (ja) 2018-01-15 2022-09-09 キヤノン株式会社 情報処理装置、システム、情報処理方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013186042A (ja) 2012-03-09 2013-09-19 Hitachi Automotive Systems Ltd 距離算出装置及び距離算出方法
JP2015231063A (ja) 2014-06-03 2015-12-21 矢崎総業株式会社 車載音響装置
JP2018139084A (ja) 2017-02-24 2018-09-06 株式会社リコー 装置、移動体装置及び方法
JP2019125116A (ja) 2018-01-15 2019-07-25 キヤノン株式会社 情報処理装置、情報処理方法、およびプログラム
JP2019124537A (ja) 2018-01-15 2019-07-25 キヤノン株式会社 情報処理装置及びその制御方法及びプログラム、並びに、車両の運転支援システム
JP2019124538A5 (ja) 2018-01-15 2021-02-04

Also Published As

Publication number Publication date
JP2021117130A (ja) 2021-08-10

Similar Documents

Publication Publication Date Title
JP5926228B2 (ja) 自律車両用の奥行き検知方法及びシステム
JP5049300B2 (ja) 障害物検出表示装置
US9832432B2 (en) Control apparatus, image pickup apparatus, control method, and non-transitory computer-readable storage medium
JP6561512B2 (ja) 視差値導出装置、移動体、ロボット、視差値導出方法、視差値生産方法及びプログラム
JP6565188B2 (ja) 視差値導出装置、機器制御システム、移動体、ロボット、視差値導出方法、およびプログラム
JP5600332B2 (ja) 運転支援装置
JP2001091245A (ja) ステレオ画像処理装置
JP2008039491A (ja) ステレオ画像処理装置
JP2007263669A (ja) 3次元座標取得装置
JP2008522268A (ja) 物体の位置をディジタル画像から特定する方法
CN112069862A (zh) 目标检测方法和装置
JP6589313B2 (ja) 視差値導出装置、機器制御システム、移動体、ロボット、視差値導出方法、およびプログラム
JP2012105090A (ja) 駐車支援装置
JP6455164B2 (ja) 視差値導出装置、機器制御システム、移動体、ロボット、視差値導出方法、およびプログラム
JP6543935B2 (ja) 視差値導出装置、機器制御システム、移動体、ロボット、視差値導出方法、およびプログラム
KR20170057684A (ko) 전방 카메라를 이용한 주차 지원 방법
JP7337458B2 (ja) 3次元位置推定装置および3次元位置推定方法
JP2020107938A (ja) カメラキャリブレーション装置、カメラキャリブレーション方法、およびプログラム
JP6768554B2 (ja) キャリブレーション装置
KR102177878B1 (ko) 영상 처리 장치 및 방법
JP2021051347A (ja) 距離画像生成装置及び距離画像生成方法
JP2013206328A (ja) 物体検出装置
JP2021033605A (ja) 画像処理装置、および、画像処理方法
JP4539400B2 (ja) ステレオカメラの補正方法、ステレオカメラ補正装置
JP3447461B2 (ja) 移動障害物検出装置及びその方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221222

TRDD Decision of grant or rejection written
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230809

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230822

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230822

R150 Certificate of patent or registration of utility model

Ref document number: 7337458

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150