JP6091658B2 - 情報処理装置及び情報処理方法及びプログラム - Google Patents

情報処理装置及び情報処理方法及びプログラム Download PDF

Info

Publication number
JP6091658B2
JP6091658B2 JP2015554612A JP2015554612A JP6091658B2 JP 6091658 B2 JP6091658 B2 JP 6091658B2 JP 2015554612 A JP2015554612 A JP 2015554612A JP 2015554612 A JP2015554612 A JP 2015554612A JP 6091658 B2 JP6091658 B2 JP 6091658B2
Authority
JP
Japan
Prior art keywords
image
specific subject
distance
camera
subject
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015554612A
Other languages
English (en)
Other versions
JPWO2015098222A1 (ja
Inventor
道学 吉田
道学 吉田
雅浩 虻川
雅浩 虻川
村山 修
修 村山
淳平 羽藤
淳平 羽藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Application granted granted Critical
Publication of JP6091658B2 publication Critical patent/JP6091658B2/ja
Publication of JPWO2015098222A1 publication Critical patent/JPWO2015098222A1/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/02Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C3/00Measuring distances in line of sight; Optical rangefinders
    • G01C3/02Details
    • G01C3/06Use of electric means to obtain final indication
    • G01C3/08Use of electric radiation detectors
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/08Systems determining position data of a target for measuring distance only
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/86Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Electromagnetism (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Measurement Of Optical Distance (AREA)
  • Image Processing (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Analysis (AREA)
  • Studio Devices (AREA)
  • Optical Radar Systems And Details Thereof (AREA)

Description

本発明は、カメラで撮影された撮影画像を解析する技術に関する。
半透過のディスプレイ上で風景に重畳させて情報を表示させるHUD(Head Up Display)技術を利用した車載機器の研究開発が盛んに行われている。
また、車の衝突を回避したり、衝撃を低減する技術の研究開発も盛んに行われている。
これらの技術は、車の周囲の状況を搭乗者に通知すること、または車の周囲の状況を把握して車を制御することを目的としている。
これらの技術では、センサ及びカメラを利用して車の周囲を3次元的に把握し、管理することが必要である。
車の周囲を把握する際に、3次元の情報を、ソリッドモデルまたはサーフェイスモデル、または多数の点(ドット)を利用して表現していることが多い。
これらソリッドモデル及びサーフェイスモデル等では、3次元情報の情報量が多くなる。
情報量を減らす方法として、ソリッドモデル及びサーフェイスモデルではなく、ワイヤーフレームモデルなどの情報量の少ない方式を利用することが考えられる。
引用文献1では、ワイヤーフレームモデルが用いられている。
引用文献1では、撮影画像における特徴点設定処理及びパッチ設定処理を自動化した高画質な3次元画像の生成を可能にする3次元画像生成システムが開示されている。
このシステムでは、対象物の特性を検出し、データベースに格納した形状モデルに基づき3次元モデルの生成領域を自動抽出する。
また、抽出された生成領域に対して、データベースに格納した対象物の形状モデルの特徴点位置設定データに基づいて特徴点を自動的に設定する。
さらに、設定された特徴点に対して、モデルによる三角パッチを自動的に作成することによって、引用文献1の技術では、実際の対象物の形状と一致するワイヤーフレーム表現が可能となり、3次元モデル生成処理における各処理を自動化することができる。
特開2002−32742号公報
従来、立体を表現するモデルとしてソリッドモデルまたはサーフェイスモデルが使用されている。
しかしながら、車載機器では、刻一刻と変化する状況をリアルタイムにモデルに反映する必要がある。
従来のように、ソリッドモデルまたはサーフェイスモデルを利用して3次元モデルを構築するのは処理が重たくなり、車の周囲の状況をリアルタイムに3次元モデルに反映できないという課題がある。
また、特許文献1のようにワイヤーフレームモデルを利用する場合も、ワイヤーフレームモデルの生成に先立ち、撮影画像を解析して、車の周囲の物体(被写体)とカメラとの距離を算出する処理が必要である。
特許文献1を含むワイヤーフレームモデルを利用する従来技術では、撮影画像の全体に対して距離算出処理を実施する。
撮影画像にはワイヤーフレームモデルの生成対象でない物体の画像も含まれるが、撮影画像の全体に対して距離算出処理が完了しないと、ワイヤーフレームモデルを生成することができない。
このように、3次元モデル構築におけるリアルタイム性を更に向上させるためには、この距離算出処理を効率化することが求められる。
本発明は、このような事情に鑑みたものであり、3次元モデルの構築において、距離算出処理を効率化することを主な目的とする。
本発明に係る情報処理装置は、
カメラで撮影された撮影画像に含まれる被写体の画像のうち特定の被写体の画像を抽出する画像抽出部と、
前記撮影画像に含まれる被写体の画像を用いて前記カメラから被写体までの距離を算出する距離算出処理を、前記画像抽出部により抽出された前記特定の被写体の画像に限定して実行する距離算出処理実行部を有することを特徴とする。
本発明では、距離算出処理を、特定の被写体の画像に限定して実行するため、他の被写体に対する距離算出処理の完了を待つ必要がなく、距離算出処理を高速化することができ、3次元モデルの構築を高速に行うことができる。
実施の形態1に係る情報処理装置の構成例を示す図。 実施の形態1に係るカメラ及びセンサの配置例を示す図。 実施の形態1に係るセンサの走査例を示す図。 実施の形態1に係るカメラの撮影画像の例を示す図。 実施の形態1に係るセンサの測距結果の例を示す図。 実施の形態1に係る情報処理装置の動作例を示すフローチャート図。 実施の形態1に係るカメラの撮影画像とセンサの測距結果との関係を示す図。 実施の形態1に係る認識範囲を用いた画像認識の概要を示す図。 実施の形態1に係る段階的に認識範囲を拡大して画像認識を行う方式を示す図。 実施の形態1に係る推定サイズに基づく認識範囲を用いて画像認識を行う方式を示す図。 実施の形態1に係る対象被写体の画像を抽出する処理の詳細を示すフローチャート図。 実施の形態1に係る物体の幅長の算出手順を示す図。 実施の形態1に係る最近接点までの距離を算出する処理の詳細を示すフローチャート図。 実施の形態1に係る最近接点及びワイヤーフレームを示す図。 実施の形態1に係る3次元モデルのテーブルの例を示す図。 実施の形態2に係る情報処理装置の構成例を示す図。 実施の形態2に係るIDリストの例を示す図。 実施の形態1に係る3次元モデルのテーブルの例を示す図。 実施の形態1及び2に係る情報処理装置のハードウェア構成例を示す図。
実施の形態1.
図1は、本実施の形態に係る情報処理装置100の構成例を示す。
本実施の形態に係る情報処理装置100は、車両(移動体)に搭載されている。
情報処理装置100は、車両に搭載されているカメラ200から撮影画像を取得し、同じく車両に搭載されているセンサ300から距離情報を取得する。
カメラ200及びセンサ300は、例えば、図2の例示のように、車両のフロント部分に近接して配置されている。
センサ300は、カメラ200の撮影に並行して、カメラ200の撮影方向での測距を行う。
センサ300は、例えば、LIDAR(LIght Detection And Ranging)である。
LIDARは、例えば、図3の例示のように、レーザを水平方向に走査し、240度といった広範囲を0.4度程度の解像度で、車両の周囲の物体までの距離を測定する。
LIDARによる距離の取得は水平方向のみであるが、他の種類のセンサ(例えば、PMD(Photonic Mixer Device))であれば高さ方向の距離も取得できる。
LIDARのように、高さ方向の距離を取得できない場合は、カメラ200により、ステレオカメラやモーションステレオ技術により高さ方向のdepthmap(3次元画像)を作り、高さ方向の情報を取得できるようにする。
以下では、センサ300がLIDARであることを前提にして説明を進める。
情報処理装置100において、撮影画像取得部101は、カメラ200で撮影された撮影画像を取得する。
撮影画像取得部101は、例えば、図3の前方車両の後部が撮影された図4の撮影画像400を取得する。
距離情報取得部102は、センサ300で取得した物体までの距離が示される距離情報を取得する。
距離情報取得部102は、例えば、図5に例示する距離情報500を取得する。
距離情報500の同心円の中心がセンサ300の位置に相当し、各同心円がセンサ300からの距離を表している。
図5の距離情報500には、カメラ200による図4の撮影画像400の撮影に並行してセンサ300が測距した結果が示されている。
つまり、図3に示すように、センサ300からのレーザは前方車両のバンパー部分を水平方向に走査しており、図5の距離情報500の符号501の線は、図4の撮影画像400の前方車両のバンパー部分との距離を表している。
なお、図5の距離情報500は、センサ300の測距結果を模式的に表現したものであり、撮影画像400内の全ての被写体との距離を表現するものではない。
一致点検出部103は、撮影画像取得部101が取得した撮影画像と距離情報取得部102が取得した距離情報とを一致させる。
カメラ200とセンサ300は、撮影画像400内の物体と測定された距離とを対応付けられるように、事前にキャリブレーションされている。
前述したように、距離情報500の符号501の線は、撮影画像400の前方車両のバンパー部分に相当しており、一致点検出部103は、符号501の線と撮影画像400の前方車両のバンパー部分とを対応付ける。
図7は、一致点検出部103の処理イメージを示しており、撮影画像400の前方車両のバンパー部分までの距離をセンサ300が計測していることを表している。
図7の符号701で示す「xxxx」は、撮影画像400の前方車両のバンパー部分にセンサ300のレーザが照射されていることを表している。
なお、図7は一致点検出部103の処理を理解しやすくするための図であり、一致点検出部103が図7のような画像を作成するわけではない。
また、図1では、一致点検出部103は、撮影画像取得部101を介して撮影画像を取得し、距離情報取得部102を介して距離情報を取得している。
一致点検出部103がカメラ200とのインタフェースを有し、また、一致点検出部103がセンサ300とのインタフェースを有している場合は、一致点検出部103は、カメラ200から直接撮影画像を取得してもよく、センサ300から直接距離情報を取得するようにしてもよい。
画像抽出部104は、撮影画像に含まれる被写体の画像のうち特定の被写体(ワイヤーフレームの作成対象の被写体、以下、対象被写体ともいう)の画像を抽出する。
撮影画像400には、被写体としては、前方車両の他、樹木も含まれるが、ワイヤーフレームの作成の対象になるのは前方車両なので、画像抽出部104は、撮影画像400に含まれる被写体の画像のうち前方車両の画像を抽出する。
画像抽出部104は、対象被写体の画像を抽出するにあたり、カメラスペック記憶部108に記憶されているカメラスペックを参照する。
カメラスペック記憶部108には、カメラ200の仕様(焦点距離、F値、解像度等)が記憶されている。
距離算出処理実行部105は、対象被写体内の最近接点との距離を算出する。
最近接点とは、対象被写体内でカメラ200と最も近接している点である。
距離算出処理実行部105は、カメラ200から被写体までの距離を算出する距離算出処理を、画像抽出部104で抽出された対象被写体の画像に限定して実行する。
図4の例では、撮影画像400のうち前方車両の画像が画像抽出部104により抽出されるが、距離算出処理実行部105は、前方車両の画像に限定して距離算出処理を実行する。
距離算出処理とは、例えば、depthmap処理である。
従来では、撮影画像400の全体に対してdepthmap処理を行って、最近接点までの距離を導出していた。
つまり、従来は、撮影画像400の最上段の左端から右端を走査し、次に、次段の左端から右端を走査し、以降、同様の動作を繰り返すというdepthmap処理を行って、最近接点までの距離を導出していた。
このため、従来は、撮影画像400中の前方車両以外の画像に対するdepthmap処理に時間を要していた。
本実施の形態に係る距離算出処理実行部105は、画像抽出部104により抽出された前方車両の画像に限定してdepthmap処理を行うので、処理時間を短縮することができる。
3次元モデル生成部106は、距離算出処理実行部105により算出された最近接点までの距離等を用いて、ワイヤーフレームによる3次元モデルを生成する。
出力部107は、3次元モデル生成部106により生成された3次元モデルをHUD等に出力する。
次に、本実施の形態に係る情報処理装置100の動作例を、図6のフローチャートを参照して説明する。
先ず、撮影画像取得部101がカメラ200から撮影画像400を取得し、距離情報取得部102がセンサ300から距離情報500を取得する(S601)。
次に、一致点検出部103が、撮影画像400と距離情報500の一致点を検出する(S602)。
つまり、一致点検出部103は、図7のように、撮影画像400と距離情報500とを対応付ける。
次に、画像抽出部104が、一致点検出部103により対応付けられた撮影画像400と距離情報500とを取得し、ワイヤーフレームの作成対象の被写体(前方車両)の画像を抽出する(S603)。
より具体的には、画像抽出部104は、図8に示すように、矩形の認識範囲800を撮影画像400上で走査して、車両の画像を抽出する。
認識範囲800には、車両の後背面のシルエット(図8の破線の形状)が定義されている。
この認識範囲800を撮影画像400上で走査し、認識範囲800のシルエットに適合する画像が見つかった場合に、その画像を車両の画像として抽出する。
S603の実現方法として、以下の2つの方法がある。
第1の方法は、図9に例示するように、トライアル・アンド・エラーにより対象被写体の画像を抽出する方法である。
つまり、画像抽出部104は、任意のサイズの認識範囲801で撮影画像400を走査し、認識範囲801のシルエットに適合する画像が抽出できない場合に、画像抽出部104は、より大きなサイズの認識範囲802で走査する。
図9の例では、撮影画像400内の前方車両の画像は、認識範囲802のシルエットに比べると大きいので、認識範囲802のシルエットに適合する画像は抽出できない。
最終的に、認識範囲803にて、撮影画像400内の前方車両の画像を抽出することができる。
第2の方法は、図10に例示するように、センサ300からの距離情報を用いて、撮影画像400内の前方車両の画像に適合する認識範囲803を予測し、予測した認識範囲803を撮影画像400上で走査して、前方車両の画像を抽出する方法である。
この方法の詳細は、図11のフローチャートを参照して説明する。
画像抽出部104は、先ず、カメラスペック記憶部108からカメラスペックを読み出す(S6031)。
具体的には、画像抽出部104は、カメラのレンズの歪の有無、撮影画像のサイズ、焦点距離、焦点距離での撮影サイズ等を読み出す。
次に、画像抽出部104は、対象被写体(前方車両)の幅長を算出する(S6032)。
S6032の処理を図12を用いて説明する。
図12は、センサ300と前方車両のバンパー部分との位置関係を模式的に示している。
図12の幅wは、車両のバンパー部分の現実の幅長であり、図5及び図7に示した前方車両の幅w(現実の幅)に対応する。
図12の幅wの右端(バンパー部分の右端)とセンサ300との距離はLであり、図12の幅wの左端(バンパー部分の左端)とセンサ300との距離はLである。
角度αは、センサ300の正面方向と幅wの右端の方向との角度であり、角度βは、センサ300の正面方向と幅wの左端の方向との角度である。
画像抽出部104は、w=LSinα−LSinβを計算することにより、幅wの現実の長さ(例えば、1.5メートル等)を得ることができる。
次に、画像抽出部104は、S6032で得られた対象被写体(前方車両)の幅長、推定高さ、カメラスペックから認識範囲803のサイズを決定する(S6033)。
推定高さは、車両の推定車高であり、例えば、2メートルである。
ここでは、カメラスペックとして、(1)カメラ200のレンズは歪がない、(2)カメラ200の撮影画像のサイズが640×480、(3)カメラ200の焦点距離がf、(4)焦点距離での撮影サイズの横の長さがd1、縦の長さがd2であると想定する。
この場合、d1/640が焦点距離fにおける水平方向の1ピクセルあたりの距離、d2/480が焦点距離fにおける垂直方向の1ピクセルあたりの距離となる。
水平方向の1ピクセルあたりの幅をwとし、図12に示すように、センサ300の正面方向(焦点距離の方向)におけるセンサ300と幅w(車両のバンパー部分)との距離をL(L=Lcosβ)とする。
画像抽出部104は、d1/640:w=f:Lにより、水平方向の1ピクセルあたりの幅wを算出する。
また、画像抽出部104は、同様の比計算により、1ピクセルあたりの高さも算出する。
そして、画像抽出部104は、幅wを1ピクセルあたりの幅wで除算し、推定高さ:2メートルを1ピクセルあたりの高さで除算して、認識範囲803のサイズを決定する。
次に、画像抽出部104は、図10に示したように、認識範囲803で撮影画像400を走査する(S6034)。
認識範囲803に適合する画像を抽出できた場合は、対象被写体を認識できたので(S6035でYES)、画像抽出部104は処理を終了する。
一方、認識範囲803に適合する画像を抽出できなかった場合は、対象被写体を認識できなかったので(S6035でNO)、画像抽出部104は認識範囲を拡大して(S6036)、S6034以降の処理を繰り返す。
S6036では、例えば、既定の拡大率(5%拡大等)で認識範囲を拡大する。
説明を図6のフローに戻す。
対象被写体の画像を抽出すると(S603)、次に、画像抽出部104は対象被写体(前方車両)の幅及び高さを算出する(S604)。
S603の処理が、図10及び図11の方式に従って行われる場合は、幅wは既に算出されているので、画像抽出部104は、対象被写体の高さのみを算出する。
図10及び図11の方式の場合は、推定高さ:2メートルを用いているが、対象被写体(前方車両)の正確な高さは算出していないので、画像抽出部104は、正確な高さを算出する。
具体的には、画像抽出部104は、抽出した前方車両の画像の高さ方向のピクセル数をカウントし、カウントしたピクセル数に1ピクセルあたりの高さを乗算して、前方車両の高さを算出する。
S603の処理が、図9の方式に従って行われる場合は、対象被写体(前方車両)の幅も高さも算出されていない。
幅については、画像抽出部104は、前述した幅wの算出方法(w=LSinα−LSinβ)にて幅の長さを算出する。
高さについては、画像抽出部104は、図11のS6033の説明で示した方法にて、1ピクセルあたりの高さを算出し、抽出した前方車両の画像の高さ方向のピクセル数をカウントし、カウントしたピクセル数に1ピクセルあたりの高さを乗算して、前方車両の高さを算出する。
次に、距離算出処理実行部105が、対象被写体(前方車両)内の最近接点までの距離を算出する(S605)。
S605の処理の詳細を、図13に示す。
距離算出処理実行部105は、画像抽出部104により抽出された対象被写体(前方車両)の画像を画像抽出部104から取得し、対象被写体(前方車両)の画像に限定してdepthmap処理を行って、カメラ200から対象被写体(前方車両)内の最近接点までの距離を算出する(S6051)。
次に、距離算出処理実行部105は、センサ300からの距離情報を用いて、S6051で算出した最近接点までの距離を補正する(S6052)。
通常、depthmap処理では高精度で距離を算出することはできないので、ここでは、S6052の補正により、最近接点までの距離を高精度に求めるようにしている。
なお、要求される精度に応じて、S6052の処理を省略してもよい。
このように、S604により対象被写体(前方車両)の幅と高さが判明し、S605により対象被写体(前方車両)までの距離(最近接点までの距離)が判明した。
3次元モデル生成部106は、画像抽出部104から対象被写体(前方車両)の幅と高さを取得し、距離算出処理実行部105から対象被写体(前方車両)までの距離(最近接点までの距離)を取得し、図14のように、ワイヤーフレームによる3次元モデルを作成する。
図14において、x、y、zは、それぞれ、カメラ200から最近接点までのx軸上の距離、y軸上の距離、z軸上の距離を示し、wとhは、それぞれ、対象被写体(前方車両)の幅と高さを示す。
3次元モデル生成部106は、例えば、3次元モデルを図15のようなテーブルとして保持する。
図15のx(t−1)、y(t−1)、z(t−1)、h(t−1)、w(t−1)は、時刻t−1での撮影画像から算出したx、y、z、h、wの値である。
図15のx(t)、y(t)、z(t)、h(t)、w(t)は、時刻tでの撮影画像から算出したx、y、z、h、wの値である。
このように、3次元モデル生成部106は、取得される撮影画像からリアルタイムにワイヤーフレームによる3次元モデルを生成する。
以上のように、本実施の形態に係る情報処理装置100は、車両に搭載されたカメラ200とセンサ300からの情報を利用して、障害物たる対象被写体の最近接点までの距離(x、y、z)、対象被写体の大きさを示す四角(w、h)を取得する。
そして、本実施の形態に係る情報処理装置100は、対象被写体を最近接点とワイヤーフレームで表現する。
このように、本実施の形態に係る情報処理装置100は、対象被写体を最近接点とワイヤーフレームで表現するため、ソリッドモデル及びサーフェイスモデルよりも計算量が少ないという効果が得られる。
また、本実施の形態に係る情報処理装置100は、対象被写体の画像に限定して距離算出処理を行うため、最近接点までの距離を算出するための時間を短縮することができる。
また、本実施の形態に係る情報処理装置100は、対象被写体の画像の抽出処理を、図10及び図11の方式で行うことにより、対象被写体の画像を抽出するための時間を短縮することができる。
実施の形態2.
以上の実施の形態1では、物体を囲む四角をワイヤーフレームで表現しているが、物体の大きさを表現する必要がなければ、最近接点とその対象被写体のID(Identifier)で表現するようにしてもよい。
図16は、本実施の形態に係る情報処理装置100の構成例を示す。
図16では、図1の構成と比較して、IDリスト記憶部109が追加されている。
IDリスト記憶部109は、図17に例示するIDリストを記憶している。
IDリストには、物体(図17の例では、人と車)ごとのIDが記述されている。
IDリストに記述されているIDは、被写体種別IDの例である。
実施の形態1との差異は、以下の通りである。
以下の点以外は、本実施の形態でも、実施の形態1と同様の動作が行われる。
本実施の形態では、画像抽出部104は、IDリスト記憶部109のIDリストにおいて対象被写体のIDを検索し、対象被写体のIDを3次元モデル生成部106に通知する。
画像抽出部104は、例えば、対象被写体の画像として、車両の画像を撮影画像400から抽出した場合には、図17のIDリストに基づき、ID:2を3次元モデル生成部106に通知する。
画像抽出部104は、本実施の形態では、ID通知部としても機能する。
3次元モデル生成部106は、距離算出処理実行部105から通知された最近接点までの距離と、画像抽出部104から通知されたIDとに基づき、最近接点までの距離とIDで構成される3次元モデルを生成する。
3次元モデル生成部106は、例えば、3次元モデルを図18のようなテーブルとして保持する。
図15のテーブルでは、h及びwの値が管理されているのに対して、図18のテーブルでは、h及びwの値の代わりに、IDが管理されている。
以上のように、本実施の形態では、物体の大きさをワイヤーフレームで表現することがなくなるため、計算量がさらに減る効果を得られる。
最後に、実施の形態1及び2に示した情報処理装置100のハードウェア構成例を図19を参照して説明する。
情報処理装置100はコンピュータであり、情報処理装置100の各要素をプログラムで実現することができる。
情報処理装置100のハードウェア構成としては、バスに、演算装置901、外部記憶装置902、主記憶装置903、通信装置904、入出力装置905が接続されている。
演算装置901は、プログラムを実行するCPU(Central Processing Unit)である。
外部記憶装置902は、例えばROM(Read Only Memory)やフラッシュメモリ、ハードディスク装置である。
主記憶装置903は、RAM(Random Access Memory)である。
カメラスペック記憶部108及びIDリスト記憶部109は、外部記憶装置902又は主記憶装置903により実現される。
通信装置904は、例えばNIC(Network Interface Card)である。
入出力装置905は、例えばキーやボタン等、ディスプレイ等である。
プログラムは、通常は外部記憶装置902に記憶されており、主記憶装置903にロードされた状態で、順次演算装置901に読み込まれ、実行される。
プログラムは、図1及び図16に示す「〜部」(カメラスペック記憶部108及びIDリスト記憶部109を除く、以下も同様)として説明している機能を実現するプログラムである。
更に、外部記憶装置902にはオペレーティングシステム(OS)も記憶されており、OSの少なくとも一部が主記憶装置903にロードされ、演算装置901はOSを実行しながら、図1及び図16に示す「〜部」の機能を実現するプログラムを実行する。
また、実施の形態1及び2の説明において、「〜の判断」、「〜の判定」、「〜の抽出」、「〜の検出」、「〜の走査」、「〜の算出」、「〜の補正」、「〜の生成」、「〜の取得」、「〜の出力」等として説明している処理の結果を示す情報やデータや信号値や変数値が主記憶装置903にファイルとして記憶されている。
また、カメラ200から取得した撮影画像及びセンサ300から取得された距離情報が主記憶装置903に記憶される。
なお、図19の構成は、あくまでも情報処理装置100のハードウェア構成の一例を示すものであり、情報処理装置100のハードウェア構成は図19に記載の構成に限らず、他の構成であってもよい。
また、実施の形態1及び2に示す手順により、本発明に係る情報処理方法を実現可能である。
100 情報処理装置、101 撮影画像取得部、102 距離情報取得部、103 一致点検出部、104 画像抽出部、105 距離算出処理実行部、106 3次元モデル生成部、107 出力部、108 カメラスペック記憶部、109 IDリスト記憶部、200 カメラ、300 センサ。

Claims (10)

  1. カメラの撮影に並行して前記カメラの撮影方向での測距を行うセンサの測距結果を用いて、前記カメラで撮影された撮影画像に含まれる被写体のうち特定の被写体の幅長を算出し、算出した前記特定の被写体の幅長に基づき、前記撮影画像における前記特定の被写体の画像の画像サイズを推定し、推定した前記特定の被写体の画像サイズにて前記撮影画像内の画像認識を行い、前記撮影画像から前記特定の被写体の画像を抽出する画像抽出部と、
    前記撮影画像に含まれる被写体の画像を用いて前記カメラから被写体までの距離を算出する距離算出処理を、前記画像抽出部により抽出された前記特定の被写体の画像に限定して実行する距離算出処理実行部を有することを特徴とする情報処理装置。
  2. 前記画像抽出部は、
    前記画像サイズにて前記撮影画像内の画像認識を行った結果、前記特定の被写体の画像を抽出することができない場合に、前記画像サイズよりも大きな画像サイズにて前記撮影画像内の画像認識を行い、前記特定の被写体の画像を抽出することを特徴とする請求項に記載の情報処理装置。
  3. 前記距離算出処理実行部は、
    前記距離算出処理を前記特定の被写体の画像に限定して実行して、前記カメラから、前記特定の被写体内で前記カメラに最も近接している最近接点までの距離を算出し、
    前記情報処理装置は、更に、
    前記距離算出処理実行部により算出された前記カメラから前記最近接点までの距離を用いて、ワイヤーフレームによる前記特定の被写体の3次元モデルを生成する3次元モデル生成部を有することを特徴とする請求項に記載の情報処理装置。
  4. 記距離算出処理実行部は、
    前記画像抽出部により抽出された前記特定の被写体の画像を解析して、前記特定の被写体の高さを算出し、
    前記3次元モデル生成部は、
    前記距離算出処理実行部により算出された前記カメラから前記最近接点までの距離と、前記画像抽出部により算出された前記特定の被写体の幅長と、前記距離算出処理実行部により算出された前記特定の被写体の高さと用いて、ワイヤーフレームによる前記特定の被写体の3次元モデルを生成することを特徴とする請求項に記載の情報処理装置。
  5. 前記情報処理装置は、更に、
    前記特定の被写体の種別を表す被写体種別ID(Identifier)を前記3次元モデル生成部に通知するID通知部を有し、
    前記3次元モデル生成部は、
    前記距離算出処理実行部により算出された前記カメラから前記最近接点までの距離と、前記ID通知部により通知された被写体種別IDとを用いて、ワイヤーフレームによる前記特定の被写体の3次元モデルを生成することを特徴とする請求項に記載の情報処理装置。
  6. 前記距離算出処理実行部は、
    前記距離算出処理として、depthmap処理を実行することを特徴とする請求項1に記載の情報処理装置。
  7. 前記距離算出処理実行部は、
    前記距離算出処理として、depthmap処理と、前記センサの測距結果を用いて前記depthmap処理の結果を補正する補正処理とを実行することを特徴とする請求項1に記載の情報処理装置。
  8. 前記画像抽出部は、
    移動体に搭載されたカメラで撮影された前記移動体外の被写体の撮影画像から前記特定の被写体の画像を抽出することを特徴とする請求項1に記載の情報処理装置。
  9. コンピュータが、カメラの撮影に並行して前記カメラの撮影方向での測距を行うセンサの測距結果を用いて、前記カメラで撮影された撮影画像に含まれる被写体のうち特定の被写体の幅長を算出し、算出した前記特定の被写体の幅長に基づき、前記撮影画像における前記特定の被写体の画像の画像サイズを推定し、推定した前記特定の被写体の画像サイズにて前記撮影画像内の画像認識を行い、前記撮影画像から前記特定の被写体の画像を抽出し、
    前記コンピュータが、前記撮影画像に含まれる被写体の画像を用いて前記カメラから被写体までの距離を算出する距離算出処理を、抽出された前記特定の被写体の画像に限定して実行することを特徴とする情報処理方法。
  10. コンピュータに、
    カメラの撮影に並行して前記カメラの撮影方向での測距を行うセンサの測距結果を用いて、前記カメラで撮影された撮影画像に含まれる被写体のうち特定の被写体の幅長を算出し、算出した前記特定の被写体の幅長に基づき、前記撮影画像における前記特定の被写体の画像の画像サイズを推定し、推定した前記特定の被写体の画像サイズにて前記撮影画像内の画像認識を行い、前記撮影画像から前記特定の被写体の画像を抽出させ、
    前記撮影画像に含まれる被写体の画像を用いて前記カメラから被写体までの距離を算出する距離算出処理を、抽出された前記特定の被写体の画像に限定して実行させることを特徴とするプログラム。
JP2015554612A 2013-12-26 2014-09-30 情報処理装置及び情報処理方法及びプログラム Active JP6091658B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2013268350 2013-12-26
JP2013268350 2013-12-26
PCT/JP2014/076011 WO2015098222A1 (ja) 2013-12-26 2014-09-30 情報処理装置及び情報処理方法及びプログラム

Publications (2)

Publication Number Publication Date
JP6091658B2 true JP6091658B2 (ja) 2017-03-08
JPWO2015098222A1 JPWO2015098222A1 (ja) 2017-03-23

Family

ID=53478102

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015554612A Active JP6091658B2 (ja) 2013-12-26 2014-09-30 情報処理装置及び情報処理方法及びプログラム

Country Status (5)

Country Link
US (1) US20160275359A1 (ja)
JP (1) JP6091658B2 (ja)
CN (1) CN105849770B (ja)
DE (1) DE112014005376T5 (ja)
WO (1) WO2015098222A1 (ja)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106573588B (zh) 2014-08-21 2019-01-25 三菱电机株式会社 驾驶辅助装置、驾驶辅助方法和程序
DE112015007054B4 (de) 2015-11-20 2019-11-28 Mitsubishi Electric Corp. Fahrunterstützungsvorrichtung, fahrunterstützungssystem, fahrunterstützungsverfahren und fahrunterstützungsprogramm
EP3415943A1 (en) * 2017-06-13 2018-12-19 Veoneer Sweden AB Error estimation for a vehicle environment detection system
DE102017211038A1 (de) * 2017-06-29 2019-01-03 Robert Bosch Gmbh Verfahren zum Einstellen einer Kamera
JP6877636B2 (ja) * 2018-04-23 2021-05-26 日立Astemo株式会社 車載カメラ装置
SG10201902889VA (en) * 2019-03-29 2020-10-29 Nec Corp System and Method for Adaptively Constructing a Three-Dimensional Facial Model Based on Two or More Inputs of a Two- Dimensional Facial Image
WO2020217377A1 (ja) * 2019-04-25 2020-10-29 三菱電機株式会社 移動量推定装置、移動量推定方法、および移動量推定プログラム

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001195700A (ja) * 2000-01-14 2001-07-19 Matsushita Electric Ind Co Ltd 車両情報検出装置
JP2005062924A (ja) * 2003-08-08 2005-03-10 Omron Corp 三次元物体認識装置およびその設定方法
JP2009180662A (ja) * 2008-01-31 2009-08-13 Konica Minolta Holdings Inc 距離計測装置
WO2012117528A1 (ja) * 2011-03-01 2012-09-07 トヨタ自動車株式会社 状態推定装置

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1671216B1 (en) * 2003-10-09 2016-12-07 Honda Motor Co., Ltd. Moving object detection using low illumination depth capable computer vision
WO2005088970A1 (ja) * 2004-03-11 2005-09-22 Olympus Corporation 画像生成装置、画像生成方法、および画像生成プログラム
US8164628B2 (en) * 2006-01-04 2012-04-24 Mobileye Technologies Ltd. Estimating distance to an object using a sequence of images recorded by a monocular camera
DE102009002626A1 (de) * 2009-04-24 2010-10-28 Robert Bosch Gmbh Sensoranordnung für Fahrerassistenzsysteme in Kraftfahrzeugen

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001195700A (ja) * 2000-01-14 2001-07-19 Matsushita Electric Ind Co Ltd 車両情報検出装置
JP2005062924A (ja) * 2003-08-08 2005-03-10 Omron Corp 三次元物体認識装置およびその設定方法
JP2009180662A (ja) * 2008-01-31 2009-08-13 Konica Minolta Holdings Inc 距離計測装置
WO2012117528A1 (ja) * 2011-03-01 2012-09-07 トヨタ自動車株式会社 状態推定装置

Also Published As

Publication number Publication date
DE112014005376T5 (de) 2016-08-11
CN105849770B (zh) 2019-04-26
JPWO2015098222A1 (ja) 2017-03-23
US20160275359A1 (en) 2016-09-22
WO2015098222A1 (ja) 2015-07-02
CN105849770A (zh) 2016-08-10

Similar Documents

Publication Publication Date Title
JP6091658B2 (ja) 情報処理装置及び情報処理方法及びプログラム
US10891500B2 (en) Method and apparatus for acquiring traffic sign information
EP3754295B1 (en) Three-dimensional measuring system and three-dimensional measuring method
US10255480B2 (en) Monitoring object shape and deviation from design
CN108734742B (zh) 摄像头参数组算出方法、程序及装置
JP6632208B2 (ja) 情報処理装置、情報処理方法、プログラム
CN113240734B (zh) 一种基于鸟瞰图的车辆跨位判断方法、装置、设备及介质
JP6172432B2 (ja) 被写体識別装置、被写体識別方法および被写体識別プログラム
JP2016218694A (ja) 3次元モデル生成装置、3次元モデル生成方法、及びプログラム
JP2014183322A (ja) 交差点認識装置及びコンピュータが実行可能なプログラム
CN116168143A (zh) 一种多视图三维重建的方法
KR101538014B1 (ko) 3d 모델링을 통해 사진 이미지로부터 입체영상을 생성하는 방법
JP3862402B2 (ja) 3次元モデル生成装置および3次元モデル生成プログラムを記録したコンピュータ読取可能な記録媒体
KR102410300B1 (ko) 스테레오 카메라를 이용한 카메라 위치 측정 장치 및 방법
JP2008224323A (ja) ステレオ写真計測装置、ステレオ写真計測方法及びステレオ写真計測用プログラム
JP6121746B2 (ja) 撮影位置決定装置、プログラム、および方法
JP6198104B2 (ja) 3次元物体認識装置及び3次元物体認識方法
JP2020173584A (ja) 物体検出装置
KR101837269B1 (ko) 다중 마커 기반의 정합 가이드 방법 및 시스템
CN115222789A (zh) 实例深度估计模型的训练方法、装置及设备
US20200364933A1 (en) Image processing apparatus, image processing method and storage medium
JP7298687B2 (ja) 物体認識装置及び物体認識方法
JP6641313B2 (ja) 領域抽出装置及びプログラム
JP2014235063A (ja) 情報処理装置および情報処理方法
US20240054747A1 (en) Image processing apparatus, image processing method, and storage medium

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170110

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170207

R150 Certificate of patent or registration of utility model

Ref document number: 6091658

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250