JP6091658B2 - 情報処理装置及び情報処理方法及びプログラム - Google Patents
情報処理装置及び情報処理方法及びプログラム Download PDFInfo
- Publication number
- JP6091658B2 JP6091658B2 JP2015554612A JP2015554612A JP6091658B2 JP 6091658 B2 JP6091658 B2 JP 6091658B2 JP 2015554612 A JP2015554612 A JP 2015554612A JP 2015554612 A JP2015554612 A JP 2015554612A JP 6091658 B2 JP6091658 B2 JP 6091658B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- specific subject
- distance
- camera
- subject
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B11/00—Measuring arrangements characterised by the use of optical techniques
- G01B11/02—Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C3/00—Measuring distances in line of sight; Optical rangefinders
- G01C3/02—Details
- G01C3/06—Use of electric means to obtain final indication
- G01C3/08—Use of electric radiation detectors
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/02—Systems using the reflection of electromagnetic waves other than radio waves
- G01S17/06—Systems determining position data of a target
- G01S17/08—Systems determining position data of a target for measuring distance only
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/86—Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/93—Lidar systems specially adapted for specific applications for anti-collision purposes
- G01S17/931—Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Remote Sensing (AREA)
- Radar, Positioning & Navigation (AREA)
- Electromagnetism (AREA)
- Computer Networks & Wireless Communication (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Signal Processing (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Measurement Of Optical Distance (AREA)
- Image Processing (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Image Analysis (AREA)
- Studio Devices (AREA)
- Optical Radar Systems And Details Thereof (AREA)
Description
また、車の衝突を回避したり、衝撃を低減する技術の研究開発も盛んに行われている。
これらの技術は、車の周囲の状況を搭乗者に通知すること、または車の周囲の状況を把握して車を制御することを目的としている。
これらの技術では、センサ及びカメラを利用して車の周囲を3次元的に把握し、管理することが必要である。
車の周囲を把握する際に、3次元の情報を、ソリッドモデルまたはサーフェイスモデル、または多数の点(ドット)を利用して表現していることが多い。
これらソリッドモデル及びサーフェイスモデル等では、3次元情報の情報量が多くなる。
情報量を減らす方法として、ソリッドモデル及びサーフェイスモデルではなく、ワイヤーフレームモデルなどの情報量の少ない方式を利用することが考えられる。
引用文献1では、ワイヤーフレームモデルが用いられている。
このシステムでは、対象物の特性を検出し、データベースに格納した形状モデルに基づき3次元モデルの生成領域を自動抽出する。
また、抽出された生成領域に対して、データベースに格納した対象物の形状モデルの特徴点位置設定データに基づいて特徴点を自動的に設定する。
さらに、設定された特徴点に対して、モデルによる三角パッチを自動的に作成することによって、引用文献1の技術では、実際の対象物の形状と一致するワイヤーフレーム表現が可能となり、3次元モデル生成処理における各処理を自動化することができる。
しかしながら、車載機器では、刻一刻と変化する状況をリアルタイムにモデルに反映する必要がある。
従来のように、ソリッドモデルまたはサーフェイスモデルを利用して3次元モデルを構築するのは処理が重たくなり、車の周囲の状況をリアルタイムに3次元モデルに反映できないという課題がある。
また、特許文献1のようにワイヤーフレームモデルを利用する場合も、ワイヤーフレームモデルの生成に先立ち、撮影画像を解析して、車の周囲の物体(被写体)とカメラとの距離を算出する処理が必要である。
特許文献1を含むワイヤーフレームモデルを利用する従来技術では、撮影画像の全体に対して距離算出処理を実施する。
撮影画像にはワイヤーフレームモデルの生成対象でない物体の画像も含まれるが、撮影画像の全体に対して距離算出処理が完了しないと、ワイヤーフレームモデルを生成することができない。
このように、3次元モデル構築におけるリアルタイム性を更に向上させるためには、この距離算出処理を効率化することが求められる。
カメラで撮影された撮影画像に含まれる被写体の画像のうち特定の被写体の画像を抽出する画像抽出部と、
前記撮影画像に含まれる被写体の画像を用いて前記カメラから被写体までの距離を算出する距離算出処理を、前記画像抽出部により抽出された前記特定の被写体の画像に限定して実行する距離算出処理実行部を有することを特徴とする。
図1は、本実施の形態に係る情報処理装置100の構成例を示す。
本実施の形態に係る情報処理装置100は、車両(移動体)に搭載されている。
情報処理装置100は、車両に搭載されているカメラ200から撮影画像を取得し、同じく車両に搭載されているセンサ300から距離情報を取得する。
カメラ200及びセンサ300は、例えば、図2の例示のように、車両のフロント部分に近接して配置されている。
センサ300は、カメラ200の撮影に並行して、カメラ200の撮影方向での測距を行う。
センサ300は、例えば、LIDAR(LIght Detection And Ranging)である。
LIDARは、例えば、図3の例示のように、レーザを水平方向に走査し、240度といった広範囲を0.4度程度の解像度で、車両の周囲の物体までの距離を測定する。
LIDARによる距離の取得は水平方向のみであるが、他の種類のセンサ(例えば、PMD(Photonic Mixer Device))であれば高さ方向の距離も取得できる。
LIDARのように、高さ方向の距離を取得できない場合は、カメラ200により、ステレオカメラやモーションステレオ技術により高さ方向のdepthmap(3次元画像)を作り、高さ方向の情報を取得できるようにする。
以下では、センサ300がLIDARであることを前提にして説明を進める。
撮影画像取得部101は、例えば、図3の前方車両の後部が撮影された図4の撮影画像400を取得する。
距離情報取得部102は、センサ300で取得した物体までの距離が示される距離情報を取得する。
距離情報取得部102は、例えば、図5に例示する距離情報500を取得する。
距離情報500の同心円の中心がセンサ300の位置に相当し、各同心円がセンサ300からの距離を表している。
図5の距離情報500には、カメラ200による図4の撮影画像400の撮影に並行してセンサ300が測距した結果が示されている。
つまり、図3に示すように、センサ300からのレーザは前方車両のバンパー部分を水平方向に走査しており、図5の距離情報500の符号501の線は、図4の撮影画像400の前方車両のバンパー部分との距離を表している。
なお、図5の距離情報500は、センサ300の測距結果を模式的に表現したものであり、撮影画像400内の全ての被写体との距離を表現するものではない。
カメラ200とセンサ300は、撮影画像400内の物体と測定された距離とを対応付けられるように、事前にキャリブレーションされている。
前述したように、距離情報500の符号501の線は、撮影画像400の前方車両のバンパー部分に相当しており、一致点検出部103は、符号501の線と撮影画像400の前方車両のバンパー部分とを対応付ける。
図7は、一致点検出部103の処理イメージを示しており、撮影画像400の前方車両のバンパー部分までの距離をセンサ300が計測していることを表している。
図7の符号701で示す「xxxx」は、撮影画像400の前方車両のバンパー部分にセンサ300のレーザが照射されていることを表している。
なお、図7は一致点検出部103の処理を理解しやすくするための図であり、一致点検出部103が図7のような画像を作成するわけではない。
また、図1では、一致点検出部103は、撮影画像取得部101を介して撮影画像を取得し、距離情報取得部102を介して距離情報を取得している。
一致点検出部103がカメラ200とのインタフェースを有し、また、一致点検出部103がセンサ300とのインタフェースを有している場合は、一致点検出部103は、カメラ200から直接撮影画像を取得してもよく、センサ300から直接距離情報を取得するようにしてもよい。
撮影画像400には、被写体としては、前方車両の他、樹木も含まれるが、ワイヤーフレームの作成の対象になるのは前方車両なので、画像抽出部104は、撮影画像400に含まれる被写体の画像のうち前方車両の画像を抽出する。
画像抽出部104は、対象被写体の画像を抽出するにあたり、カメラスペック記憶部108に記憶されているカメラスペックを参照する。
カメラスペック記憶部108には、カメラ200の仕様(焦点距離、F値、解像度等)が記憶されている。
最近接点とは、対象被写体内でカメラ200と最も近接している点である。
距離算出処理実行部105は、カメラ200から被写体までの距離を算出する距離算出処理を、画像抽出部104で抽出された対象被写体の画像に限定して実行する。
図4の例では、撮影画像400のうち前方車両の画像が画像抽出部104により抽出されるが、距離算出処理実行部105は、前方車両の画像に限定して距離算出処理を実行する。
距離算出処理とは、例えば、depthmap処理である。
従来では、撮影画像400の全体に対してdepthmap処理を行って、最近接点までの距離を導出していた。
つまり、従来は、撮影画像400の最上段の左端から右端を走査し、次に、次段の左端から右端を走査し、以降、同様の動作を繰り返すというdepthmap処理を行って、最近接点までの距離を導出していた。
このため、従来は、撮影画像400中の前方車両以外の画像に対するdepthmap処理に時間を要していた。
本実施の形態に係る距離算出処理実行部105は、画像抽出部104により抽出された前方車両の画像に限定してdepthmap処理を行うので、処理時間を短縮することができる。
出力部107は、3次元モデル生成部106により生成された3次元モデルをHUD等に出力する。
つまり、一致点検出部103は、図7のように、撮影画像400と距離情報500とを対応付ける。
より具体的には、画像抽出部104は、図8に示すように、矩形の認識範囲800を撮影画像400上で走査して、車両の画像を抽出する。
認識範囲800には、車両の後背面のシルエット(図8の破線の形状)が定義されている。
この認識範囲800を撮影画像400上で走査し、認識範囲800のシルエットに適合する画像が見つかった場合に、その画像を車両の画像として抽出する。
S603の実現方法として、以下の2つの方法がある。
つまり、画像抽出部104は、任意のサイズの認識範囲801で撮影画像400を走査し、認識範囲801のシルエットに適合する画像が抽出できない場合に、画像抽出部104は、より大きなサイズの認識範囲802で走査する。
図9の例では、撮影画像400内の前方車両の画像は、認識範囲802のシルエットに比べると大きいので、認識範囲802のシルエットに適合する画像は抽出できない。
最終的に、認識範囲803にて、撮影画像400内の前方車両の画像を抽出することができる。
この方法の詳細は、図11のフローチャートを参照して説明する。
具体的には、画像抽出部104は、カメラのレンズの歪の有無、撮影画像のサイズ、焦点距離、焦点距離での撮影サイズ等を読み出す。
S6032の処理を図12を用いて説明する。
図12は、センサ300と前方車両のバンパー部分との位置関係を模式的に示している。
図12の幅w0は、車両のバンパー部分の現実の幅長であり、図5及び図7に示した前方車両の幅w0(現実の幅)に対応する。
図12の幅w0の右端(バンパー部分の右端)とセンサ300との距離はL1であり、図12の幅w0の左端(バンパー部分の左端)とセンサ300との距離はL2である。
角度αは、センサ300の正面方向と幅w0の右端の方向との角度であり、角度βは、センサ300の正面方向と幅w0の左端の方向との角度である。
画像抽出部104は、w0=L1Sinα−L2Sinβを計算することにより、幅w0の現実の長さ(例えば、1.5メートル等)を得ることができる。
推定高さは、車両の推定車高であり、例えば、2メートルである。
ここでは、カメラスペックとして、(1)カメラ200のレンズは歪がない、(2)カメラ200の撮影画像のサイズが640×480、(3)カメラ200の焦点距離がf、(4)焦点距離での撮影サイズの横の長さがd1、縦の長さがd2であると想定する。
この場合、d1/640が焦点距離fにおける水平方向の1ピクセルあたりの距離、d2/480が焦点距離fにおける垂直方向の1ピクセルあたりの距離となる。
水平方向の1ピクセルあたりの幅をw1とし、図12に示すように、センサ300の正面方向(焦点距離の方向)におけるセンサ300と幅w0(車両のバンパー部分)との距離をL(L=L2cosβ)とする。
画像抽出部104は、d1/640:w1=f:Lにより、水平方向の1ピクセルあたりの幅w1を算出する。
また、画像抽出部104は、同様の比計算により、1ピクセルあたりの高さも算出する。
そして、画像抽出部104は、幅w0を1ピクセルあたりの幅w1で除算し、推定高さ:2メートルを1ピクセルあたりの高さで除算して、認識範囲803のサイズを決定する。
一方、認識範囲803に適合する画像を抽出できなかった場合は、対象被写体を認識できなかったので(S6035でNO)、画像抽出部104は認識範囲を拡大して(S6036)、S6034以降の処理を繰り返す。
S6036では、例えば、既定の拡大率(5%拡大等)で認識範囲を拡大する。
対象被写体の画像を抽出すると(S603)、次に、画像抽出部104は対象被写体(前方車両)の幅及び高さを算出する(S604)。
S603の処理が、図10及び図11の方式に従って行われる場合は、幅w0は既に算出されているので、画像抽出部104は、対象被写体の高さのみを算出する。
図10及び図11の方式の場合は、推定高さ:2メートルを用いているが、対象被写体(前方車両)の正確な高さは算出していないので、画像抽出部104は、正確な高さを算出する。
具体的には、画像抽出部104は、抽出した前方車両の画像の高さ方向のピクセル数をカウントし、カウントしたピクセル数に1ピクセルあたりの高さを乗算して、前方車両の高さを算出する。
S603の処理が、図9の方式に従って行われる場合は、対象被写体(前方車両)の幅も高さも算出されていない。
幅については、画像抽出部104は、前述した幅w0の算出方法(w0=L1Sinα−L2Sinβ)にて幅の長さを算出する。
高さについては、画像抽出部104は、図11のS6033の説明で示した方法にて、1ピクセルあたりの高さを算出し、抽出した前方車両の画像の高さ方向のピクセル数をカウントし、カウントしたピクセル数に1ピクセルあたりの高さを乗算して、前方車両の高さを算出する。
S605の処理の詳細を、図13に示す。
距離算出処理実行部105は、画像抽出部104により抽出された対象被写体(前方車両)の画像を画像抽出部104から取得し、対象被写体(前方車両)の画像に限定してdepthmap処理を行って、カメラ200から対象被写体(前方車両)内の最近接点までの距離を算出する(S6051)。
次に、距離算出処理実行部105は、センサ300からの距離情報を用いて、S6051で算出した最近接点までの距離を補正する(S6052)。
通常、depthmap処理では高精度で距離を算出することはできないので、ここでは、S6052の補正により、最近接点までの距離を高精度に求めるようにしている。
なお、要求される精度に応じて、S6052の処理を省略してもよい。
3次元モデル生成部106は、画像抽出部104から対象被写体(前方車両)の幅と高さを取得し、距離算出処理実行部105から対象被写体(前方車両)までの距離(最近接点までの距離)を取得し、図14のように、ワイヤーフレームによる3次元モデルを作成する。
図14において、x、y、zは、それぞれ、カメラ200から最近接点までのx軸上の距離、y軸上の距離、z軸上の距離を示し、wとhは、それぞれ、対象被写体(前方車両)の幅と高さを示す。
3次元モデル生成部106は、例えば、3次元モデルを図15のようなテーブルとして保持する。
図15のx(t−1)、y(t−1)、z(t−1)、h(t−1)、w(t−1)は、時刻t−1での撮影画像から算出したx、y、z、h、wの値である。
図15のx(t)、y(t)、z(t)、h(t)、w(t)は、時刻tでの撮影画像から算出したx、y、z、h、wの値である。
このように、3次元モデル生成部106は、取得される撮影画像からリアルタイムにワイヤーフレームによる3次元モデルを生成する。
そして、本実施の形態に係る情報処理装置100は、対象被写体を最近接点とワイヤーフレームで表現する。
このように、本実施の形態に係る情報処理装置100は、対象被写体を最近接点とワイヤーフレームで表現するため、ソリッドモデル及びサーフェイスモデルよりも計算量が少ないという効果が得られる。
また、本実施の形態に係る情報処理装置100は、対象被写体の画像に限定して距離算出処理を行うため、最近接点までの距離を算出するための時間を短縮することができる。
また、本実施の形態に係る情報処理装置100は、対象被写体の画像の抽出処理を、図10及び図11の方式で行うことにより、対象被写体の画像を抽出するための時間を短縮することができる。
以上の実施の形態1では、物体を囲む四角をワイヤーフレームで表現しているが、物体の大きさを表現する必要がなければ、最近接点とその対象被写体のID(Identifier)で表現するようにしてもよい。
IDリスト記憶部109は、図17に例示するIDリストを記憶している。
IDリストには、物体(図17の例では、人と車)ごとのIDが記述されている。
IDリストに記述されているIDは、被写体種別IDの例である。
以下の点以外は、本実施の形態でも、実施の形態1と同様の動作が行われる。
画像抽出部104は、例えば、対象被写体の画像として、車両の画像を撮影画像400から抽出した場合には、図17のIDリストに基づき、ID:2を3次元モデル生成部106に通知する。
画像抽出部104は、本実施の形態では、ID通知部としても機能する。
3次元モデル生成部106は、距離算出処理実行部105から通知された最近接点までの距離と、画像抽出部104から通知されたIDとに基づき、最近接点までの距離とIDで構成される3次元モデルを生成する。
3次元モデル生成部106は、例えば、3次元モデルを図18のようなテーブルとして保持する。
図15のテーブルでは、h及びwの値が管理されているのに対して、図18のテーブルでは、h及びwの値の代わりに、IDが管理されている。
情報処理装置100はコンピュータであり、情報処理装置100の各要素をプログラムで実現することができる。
情報処理装置100のハードウェア構成としては、バスに、演算装置901、外部記憶装置902、主記憶装置903、通信装置904、入出力装置905が接続されている。
外部記憶装置902は、例えばROM(Read Only Memory)やフラッシュメモリ、ハードディスク装置である。
主記憶装置903は、RAM(Random Access Memory)である。
カメラスペック記憶部108及びIDリスト記憶部109は、外部記憶装置902又は主記憶装置903により実現される。
通信装置904は、例えばNIC(Network Interface Card)である。
入出力装置905は、例えばキーやボタン等、ディスプレイ等である。
プログラムは、図1及び図16に示す「〜部」(カメラスペック記憶部108及びIDリスト記憶部109を除く、以下も同様)として説明している機能を実現するプログラムである。
更に、外部記憶装置902にはオペレーティングシステム(OS)も記憶されており、OSの少なくとも一部が主記憶装置903にロードされ、演算装置901はOSを実行しながら、図1及び図16に示す「〜部」の機能を実現するプログラムを実行する。
また、実施の形態1及び2の説明において、「〜の判断」、「〜の判定」、「〜の抽出」、「〜の検出」、「〜の走査」、「〜の算出」、「〜の補正」、「〜の生成」、「〜の取得」、「〜の出力」等として説明している処理の結果を示す情報やデータや信号値や変数値が主記憶装置903にファイルとして記憶されている。
また、カメラ200から取得した撮影画像及びセンサ300から取得された距離情報が主記憶装置903に記憶される。
Claims (10)
- カメラの撮影に並行して前記カメラの撮影方向での測距を行うセンサの測距結果を用いて、前記カメラで撮影された撮影画像に含まれる被写体のうち特定の被写体の幅長を算出し、算出した前記特定の被写体の幅長に基づき、前記撮影画像における前記特定の被写体の画像の画像サイズを推定し、推定した前記特定の被写体の画像サイズにて前記撮影画像内の画像認識を行い、前記撮影画像から前記特定の被写体の画像を抽出する画像抽出部と、
前記撮影画像に含まれる被写体の画像を用いて前記カメラから被写体までの距離を算出する距離算出処理を、前記画像抽出部により抽出された前記特定の被写体の画像に限定して実行する距離算出処理実行部とを有することを特徴とする情報処理装置。 - 前記画像抽出部は、
前記画像サイズにて前記撮影画像内の画像認識を行った結果、前記特定の被写体の画像を抽出することができない場合に、前記画像サイズよりも大きな画像サイズにて前記撮影画像内の画像認識を行い、前記特定の被写体の画像を抽出することを特徴とする請求項1に記載の情報処理装置。 - 前記距離算出処理実行部は、
前記距離算出処理を前記特定の被写体の画像に限定して実行して、前記カメラから、前記特定の被写体内で前記カメラに最も近接している最近接点までの距離を算出し、
前記情報処理装置は、更に、
前記距離算出処理実行部により算出された前記カメラから前記最近接点までの距離を用いて、ワイヤーフレームによる前記特定の被写体の3次元モデルを生成する3次元モデル生成部を有することを特徴とする請求項1に記載の情報処理装置。 - 前記距離算出処理実行部は、
前記画像抽出部により抽出された前記特定の被写体の画像を解析して、前記特定の被写体の高さを算出し、
前記3次元モデル生成部は、
前記距離算出処理実行部により算出された前記カメラから前記最近接点までの距離と、前記画像抽出部により算出された前記特定の被写体の幅長と、前記距離算出処理実行部により算出された前記特定の被写体の高さと用いて、ワイヤーフレームによる前記特定の被写体の3次元モデルを生成することを特徴とする請求項3に記載の情報処理装置。 - 前記情報処理装置は、更に、
前記特定の被写体の種別を表す被写体種別ID(Identifier)を前記3次元モデル生成部に通知するID通知部を有し、
前記3次元モデル生成部は、
前記距離算出処理実行部により算出された前記カメラから前記最近接点までの距離と、前記ID通知部により通知された被写体種別IDとを用いて、ワイヤーフレームによる前記特定の被写体の3次元モデルを生成することを特徴とする請求項3に記載の情報処理装置。 - 前記距離算出処理実行部は、
前記距離算出処理として、depthmap処理を実行することを特徴とする請求項1に記載の情報処理装置。 - 前記距離算出処理実行部は、
前記距離算出処理として、depthmap処理と、前記センサの測距結果を用いて前記depthmap処理の結果を補正する補正処理とを実行することを特徴とする請求項1に記載の情報処理装置。 - 前記画像抽出部は、
移動体に搭載されたカメラで撮影された前記移動体外の被写体の撮影画像から前記特定の被写体の画像を抽出することを特徴とする請求項1に記載の情報処理装置。 - コンピュータが、カメラの撮影に並行して前記カメラの撮影方向での測距を行うセンサの測距結果を用いて、前記カメラで撮影された撮影画像に含まれる被写体のうち特定の被写体の幅長を算出し、算出した前記特定の被写体の幅長に基づき、前記撮影画像における前記特定の被写体の画像の画像サイズを推定し、推定した前記特定の被写体の画像サイズにて前記撮影画像内の画像認識を行い、前記撮影画像から前記特定の被写体の画像を抽出し、
前記コンピュータが、前記撮影画像に含まれる被写体の画像を用いて前記カメラから被写体までの距離を算出する距離算出処理を、抽出された前記特定の被写体の画像に限定して実行することを特徴とする情報処理方法。 - コンピュータに、
カメラの撮影に並行して前記カメラの撮影方向での測距を行うセンサの測距結果を用いて、前記カメラで撮影された撮影画像に含まれる被写体のうち特定の被写体の幅長を算出し、算出した前記特定の被写体の幅長に基づき、前記撮影画像における前記特定の被写体の画像の画像サイズを推定し、推定した前記特定の被写体の画像サイズにて前記撮影画像内の画像認識を行い、前記撮影画像から前記特定の被写体の画像を抽出させ、
前記撮影画像に含まれる被写体の画像を用いて前記カメラから被写体までの距離を算出する距離算出処理を、抽出された前記特定の被写体の画像に限定して実行させることを特徴とするプログラム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013268350 | 2013-12-26 | ||
JP2013268350 | 2013-12-26 | ||
PCT/JP2014/076011 WO2015098222A1 (ja) | 2013-12-26 | 2014-09-30 | 情報処理装置及び情報処理方法及びプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP6091658B2 true JP6091658B2 (ja) | 2017-03-08 |
JPWO2015098222A1 JPWO2015098222A1 (ja) | 2017-03-23 |
Family
ID=53478102
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015554612A Active JP6091658B2 (ja) | 2013-12-26 | 2014-09-30 | 情報処理装置及び情報処理方法及びプログラム |
Country Status (5)
Country | Link |
---|---|
US (1) | US20160275359A1 (ja) |
JP (1) | JP6091658B2 (ja) |
CN (1) | CN105849770B (ja) |
DE (1) | DE112014005376T5 (ja) |
WO (1) | WO2015098222A1 (ja) |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106573588B (zh) | 2014-08-21 | 2019-01-25 | 三菱电机株式会社 | 驾驶辅助装置、驾驶辅助方法和程序 |
DE112015007054B4 (de) | 2015-11-20 | 2019-11-28 | Mitsubishi Electric Corp. | Fahrunterstützungsvorrichtung, fahrunterstützungssystem, fahrunterstützungsverfahren und fahrunterstützungsprogramm |
EP3415943A1 (en) * | 2017-06-13 | 2018-12-19 | Veoneer Sweden AB | Error estimation for a vehicle environment detection system |
DE102017211038A1 (de) * | 2017-06-29 | 2019-01-03 | Robert Bosch Gmbh | Verfahren zum Einstellen einer Kamera |
JP6877636B2 (ja) * | 2018-04-23 | 2021-05-26 | 日立Astemo株式会社 | 車載カメラ装置 |
SG10201902889VA (en) * | 2019-03-29 | 2020-10-29 | Nec Corp | System and Method for Adaptively Constructing a Three-Dimensional Facial Model Based on Two or More Inputs of a Two- Dimensional Facial Image |
WO2020217377A1 (ja) * | 2019-04-25 | 2020-10-29 | 三菱電機株式会社 | 移動量推定装置、移動量推定方法、および移動量推定プログラム |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001195700A (ja) * | 2000-01-14 | 2001-07-19 | Matsushita Electric Ind Co Ltd | 車両情報検出装置 |
JP2005062924A (ja) * | 2003-08-08 | 2005-03-10 | Omron Corp | 三次元物体認識装置およびその設定方法 |
JP2009180662A (ja) * | 2008-01-31 | 2009-08-13 | Konica Minolta Holdings Inc | 距離計測装置 |
WO2012117528A1 (ja) * | 2011-03-01 | 2012-09-07 | トヨタ自動車株式会社 | 状態推定装置 |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP1671216B1 (en) * | 2003-10-09 | 2016-12-07 | Honda Motor Co., Ltd. | Moving object detection using low illumination depth capable computer vision |
WO2005088970A1 (ja) * | 2004-03-11 | 2005-09-22 | Olympus Corporation | 画像生成装置、画像生成方法、および画像生成プログラム |
US8164628B2 (en) * | 2006-01-04 | 2012-04-24 | Mobileye Technologies Ltd. | Estimating distance to an object using a sequence of images recorded by a monocular camera |
DE102009002626A1 (de) * | 2009-04-24 | 2010-10-28 | Robert Bosch Gmbh | Sensoranordnung für Fahrerassistenzsysteme in Kraftfahrzeugen |
-
2014
- 2014-09-30 JP JP2015554612A patent/JP6091658B2/ja active Active
- 2014-09-30 US US15/035,023 patent/US20160275359A1/en not_active Abandoned
- 2014-09-30 CN CN201480070577.8A patent/CN105849770B/zh active Active
- 2014-09-30 DE DE112014005376.7T patent/DE112014005376T5/de active Pending
- 2014-09-30 WO PCT/JP2014/076011 patent/WO2015098222A1/ja active Application Filing
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001195700A (ja) * | 2000-01-14 | 2001-07-19 | Matsushita Electric Ind Co Ltd | 車両情報検出装置 |
JP2005062924A (ja) * | 2003-08-08 | 2005-03-10 | Omron Corp | 三次元物体認識装置およびその設定方法 |
JP2009180662A (ja) * | 2008-01-31 | 2009-08-13 | Konica Minolta Holdings Inc | 距離計測装置 |
WO2012117528A1 (ja) * | 2011-03-01 | 2012-09-07 | トヨタ自動車株式会社 | 状態推定装置 |
Also Published As
Publication number | Publication date |
---|---|
DE112014005376T5 (de) | 2016-08-11 |
CN105849770B (zh) | 2019-04-26 |
JPWO2015098222A1 (ja) | 2017-03-23 |
US20160275359A1 (en) | 2016-09-22 |
WO2015098222A1 (ja) | 2015-07-02 |
CN105849770A (zh) | 2016-08-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6091658B2 (ja) | 情報処理装置及び情報処理方法及びプログラム | |
US10891500B2 (en) | Method and apparatus for acquiring traffic sign information | |
EP3754295B1 (en) | Three-dimensional measuring system and three-dimensional measuring method | |
US10255480B2 (en) | Monitoring object shape and deviation from design | |
CN108734742B (zh) | 摄像头参数组算出方法、程序及装置 | |
JP6632208B2 (ja) | 情報処理装置、情報処理方法、プログラム | |
CN113240734B (zh) | 一种基于鸟瞰图的车辆跨位判断方法、装置、设备及介质 | |
JP6172432B2 (ja) | 被写体識別装置、被写体識別方法および被写体識別プログラム | |
JP2016218694A (ja) | 3次元モデル生成装置、3次元モデル生成方法、及びプログラム | |
JP2014183322A (ja) | 交差点認識装置及びコンピュータが実行可能なプログラム | |
CN116168143A (zh) | 一种多视图三维重建的方法 | |
KR101538014B1 (ko) | 3d 모델링을 통해 사진 이미지로부터 입체영상을 생성하는 방법 | |
JP3862402B2 (ja) | 3次元モデル生成装置および3次元モデル生成プログラムを記録したコンピュータ読取可能な記録媒体 | |
KR102410300B1 (ko) | 스테레오 카메라를 이용한 카메라 위치 측정 장치 및 방법 | |
JP2008224323A (ja) | ステレオ写真計測装置、ステレオ写真計測方法及びステレオ写真計測用プログラム | |
JP6121746B2 (ja) | 撮影位置決定装置、プログラム、および方法 | |
JP6198104B2 (ja) | 3次元物体認識装置及び3次元物体認識方法 | |
JP2020173584A (ja) | 物体検出装置 | |
KR101837269B1 (ko) | 다중 마커 기반의 정합 가이드 방법 및 시스템 | |
CN115222789A (zh) | 实例深度估计模型的训练方法、装置及设备 | |
US20200364933A1 (en) | Image processing apparatus, image processing method and storage medium | |
JP7298687B2 (ja) | 物体認識装置及び物体認識方法 | |
JP6641313B2 (ja) | 領域抽出装置及びプログラム | |
JP2014235063A (ja) | 情報処理装置および情報処理方法 | |
US20240054747A1 (en) | Image processing apparatus, image processing method, and storage medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20170110 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20170207 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6091658 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |