JP7363890B2 - 情報処理装置、情報処理方法及びプログラム - Google Patents

情報処理装置、情報処理方法及びプログラム Download PDF

Info

Publication number
JP7363890B2
JP7363890B2 JP2021509054A JP2021509054A JP7363890B2 JP 7363890 B2 JP7363890 B2 JP 7363890B2 JP 2021509054 A JP2021509054 A JP 2021509054A JP 2021509054 A JP2021509054 A JP 2021509054A JP 7363890 B2 JP7363890 B2 JP 7363890B2
Authority
JP
Japan
Prior art keywords
pixel
captured image
area
vehicle
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021509054A
Other languages
English (en)
Other versions
JPWO2020195965A1 (ja
Inventor
卓 青木
竜太 佐藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Sony Group Corp
Original Assignee
Sony Corp
Sony Group Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp, Sony Group Corp filed Critical Sony Corp
Publication of JPWO2020195965A1 publication Critical patent/JPWO2020195965A1/ja
Application granted granted Critical
Publication of JP7363890B2 publication Critical patent/JP7363890B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/2224Studio circuitry; Studio devices; Studio equipment related to virtual studio applications
    • H04N5/2226Determination of depth image, e.g. for foreground/background separation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • G06T3/10
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/174Segmentation; Edge detection involving the use of two or more images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/54Mounting of pick-up tubes, electronic image sensors, deviation or focusing coils
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/272Means for inserting a foreground image in a background image, i.e. inlay, outlay
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20068Projection on vertical or horizontal image axis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle

Description

本技術は、撮像画像中から物体を認識する情報処理装置、情報処理方法及びプログラムに関する。
従来から、画像中から所定のオブジェクト領域を検出する技術が存在する。
下記特許文献1には、移動中の車両の周辺を撮像したフレーム画像のうち、基準時刻に取得した基準フレーム画像と基準時刻より過去に取得した過去フレーム画像との差分画像に基づいて車両の周辺に存在する障害物を検出する障害物検出装置が開示されている。
下記特許文献2には、撮影された複数の画像のうち対象画像と少なくとも1つの参照画像から、対象画像の各部分の動きベクトルを検出し、上記複数の画像のうち2つの画像刊の差分画像を算出し、上記動きベクトルと差分画像とに基づいて、物体が存在する物体領域を検出する物体検出装置が開示されている。
特開2018-97777号公報 特開2015-138319号公報
しかし、上記特許文献1及び2に記載の技術では、いずれも画像の全体同士の差分に基づいて物体を検出するため計算量が多くなり、また過去画像と類似した画像を処理することが多いため処理が冗長となってしまう。
以上のような事情に鑑み、本技術の目的は、移動中に順次取得される撮像画像に対する冗長処理をなくして、計算量を削減することが可能な情報処理装置、情報処理方法及びプログラムを提供することにある。
上記目的を達成するため、本技術の一形態に係る情報処理装置は、入力部と制御部を有する。上記入力部には、カメラによって撮像された画素ごとに距離情報を有する撮像画像が入力される。上記制御部は、上記カメラまたは当該カメラを搭載した移動体の移動量に基づいて、上記撮像画像の画素ごとの座標を変換した変換撮像画像を生成する。さらに制御部は、上記変換撮像画像の画素ごとの座標を、上記カメラの移動後の位置で撮像された移動後撮像画像の画素ごとの座標と対応付け、当該対応付けがされなかった画素を特定する。
これにより情報処理装置は、撮像画像と移動後撮像画像とで対応付けがされなかった画素を特定することで、対応付けができた画素については新たな処理を不要とすることができるため、移動中に順次取得される撮像画像に対する冗長処理をなくして、計算量を削減することができる。
上記制御部は、上記移動後撮像画像のうち、上記対応付けがされなかった画素の属性を認識する認識処理を実行し、上記対応付けがされた画素または当該画素によって構成される領域に、当該画素または領域に対応する上記撮像画像の画素について実行された上記認識処理の結果を射影してもよい。
これにより情報処理装置は、対応付けがされた画素については移動前の撮像画像についての認識処理の結果を移動後の撮像画像に射影することができるため、当該画素の認識処理をなくして計算量を削減することができる。
上記制御部は、上記移動後撮像画像の画素ごとの座標と上記撮像画像の画素ごとの座標とを上記射影用に対応付けたマップを生成してもよい。
これにより情報処理装置は、当該マップを利用することで移動前の撮像画像の認識結果を移動後の撮像画像に容易に射影することができる。
上記制御部は、上記撮像画像を上記画素ごとの距離情報に基づく3次元の点群データに変換し、上記移動量に基づいて当該点群データを変換した移動点群データを生成し、当該移動点群データを画像平面に射影することで上記変換撮像画像を生成してもよい。
これにより情報処理装置は、距離情報を基に撮像画像を3次元の点群データ上で変換した上で移動後の平面画像に変換することで、対応する画素を高精度に特定することができる。
上記制御部は、上記対応付けがされなかった画素の、上記移動後撮像画像における位置に応じて上記認識処理の実行頻度を設定してもよい。
これにより情報処理装置は、例えば撮像画像の中央部の領域の実行頻度を端部の領域の実行頻度よりも高く設定する等、位置に応じた実行頻度の設定により計算量を削減することができる。
上記制御部は、上記対応付けがされなかった画素の、上記移動後撮像画像における位置と、上記移動体の移動速度とに応じて当該画素ごとに上記認識処理の実行頻度を設定してもよい。
これにより情報処理装置は、例えば高速移動中は画像中央の領域の実行頻度を画像端部の領域の実行頻度よりも高く設定し、低速移動中は画像中央の領域の実行頻度を画像端部の領域の実行頻度よりも低く設定する等、移動速度の変化に伴う重要領域の変化に対応することができる。
上記制御部は、上記対応付けがされなかった画素が有する距離情報に応じて当該画素ごとに上記認識処理の実行頻度を設定してもよい。
これにより情報処理装置は、例えばカメラから近い領域についての実行頻度を遠い領域の実行頻度よりも高く設定する等、距離に応じた実行頻度の設定により計算量を削減することができる。
本技術の他の形態に係る情報処理方法は、
カメラによって撮像された画素ごとに距離情報を有する撮像画像を取得し、
上記カメラまたは当該カメラを搭載した移動体の移動量に基づいて、上記撮像画像の画素ごとの座標を変換した変換撮像画像を生成し、
上記変換撮像画像の画素ごとの座標を、上記カメラの移動後の位置で撮像された移動後撮像画像の画素ごとの座標と対応付け、当該対応付けがされなかった画素を特定する、ことを含む。
本技術の他の形態に係るプログラムは、情報処理装置に、
カメラによって撮像された画素ごとに距離情報を有する撮像画像を取得するステップと、
上記カメラまたは当該カメラを搭載した移動体の移動量に基づいて、上記撮像画像の画素ごとの座標を変換した変換撮像画像を生成するステップと、
上記変換撮像画像の画素ごとの座標を、上記カメラの移動後の位置で撮像された移動後撮像画像の画素ごとの座標と対応付け、当該対応付けがされなかった画素を特定するステップと、を実行させる。
以上のように、本技術によれば、移動中に順次取得される撮像画像に対する冗長処理をなくして、計算量を削減することができる。しかし、当該効果は本技術を限定するものではない。
本技術の一実施形態に係る車両制御システムの概略的な構成の一例を示すブロック図である。 上記車両制御システムが有する車外情報検出部及び撮像部の設置位置の一例を示す説明図である。 上記車両制御システムの統合制御ユニットが有する機能ブロック構成を示した図である。 上記車両制御システムの画像認識処理の流れを示したフローチャートである。 上記統合制御ユニットが有する射影マップ生成部及びセマセグ射影部の処理を説明するための図である。 上記統合制御ユニットが有する未観測領域設定部の処理を説明するための図である。 上記射影マップ生成部の処理の詳細を示した図である。 上記射影マップ生成部の処理の流れを示したフローチャートである。 上記未観測領域設定部の処理の詳細を示した図である。 上記未観測領域設定部の処理の流れを示したフローチャートである。 上記統合制御ユニットが有する領域属性関係判定部及び更新優先度マップ生成部の処理を説明するための図である。 上記更新優先度マップ生成部によるマップ統合処理を説明するための図である。 上記統合制御ユニットが有する領域セマセグ部の処理を説明するための図である。 本技術の変形例に係る車両制御システムにおける画像認識処理の更新頻度及び更新領域の設定例を示した図である。 本技術の変形例に係る車両制御システムにおける画像認識処理の更新頻度及び更新領域の設定例を示した図である。 本技術の変形例に係る車両制御システムにおける画像認識処理の更新頻度及び更新領域の設定例を示した図である。 本技術の変形例に係る車両制御システムにおける領域セマセグ部による更新領域の設定例を示した図である。 本技術の変形例に係る車両制御システムにおける領域セマセグ部の処理を説明するための図である。
以下、本技術に係る実施形態を、図面を参照しながら説明する。
[車両制御システムの構成]
図1は、本開示に係る技術が適用され得る移動体制御システムの一例である車両制御システム7000の概略的な構成例を示すブロック図である。車両制御システム7000は、通信ネットワーク7010を介して接続された複数の電子制御ユニットを備える。図1に示した例では、車両制御システム7000は、駆動系制御ユニット7100、ボディ系制御ユニット7200、バッテリ制御ユニット7300、車外情報検出ユニット7400、車内情報検出ユニット7500、及び統合制御ユニット7600を備える。これらの複数の制御ユニットを接続する通信ネットワーク7010は、例えば、CAN(Controller Area Network)、LIN(Local Interconnect Network)、LAN(Local Area Network)又はFlexRay(登録商標)等の任意の規格に準拠した車載通信ネットワークであってよい。
各制御ユニットは、各種プログラムにしたがって演算処理を行うマイクロコンピュータと、マイクロコンピュータにより実行されるプログラム又は各種演算に用いられるパラメータ等を記憶する記憶部と、各種制御対象の装置を駆動する駆動回路とを備える。各制御ユニットは、通信ネットワーク7010を介して他の制御ユニットとの間で通信を行うためのネットワークI/Fを備えるとともに、車内外の装置又はセンサ等との間で、有線通信又は無線通信により通信を行うための通信I/Fを備える。図1では、統合制御ユニット7600の機能構成として、マイクロコンピュータ7610、汎用通信I/F7620、専用通信I/F7630、測位部7640、ビーコン受信部7650、車内機器I/F7660、音声画像出力部7670、車載ネットワークI/F7680及び記憶部7690が図示されている。他の制御ユニットも同様に、マイクロコンピュータ、通信I/F及び記憶部等を備える。
駆動系制御ユニット7100は、各種プログラムにしたがって車両の駆動系に関連する装置の動作を制御する。例えば、駆動系制御ユニット7100は、内燃機関又は駆動用モータ等の車両の駆動力を発生させるための駆動力発生装置、駆動力を車輪に伝達するための駆動力伝達機構、車両の舵角を調節するステアリング機構、及び、車両の制動力を発生させる制動装置等の制御装置として機能する。駆動系制御ユニット7100は、ABS(Antilock Brake System)又はESC(Electronic Stability Control)等の制御装置としての機能を有してもよい。
駆動系制御ユニット7100には、車両状態検出部7110が接続される。車両状態検出部7110には、例えば、車体の軸回転運動の角速度を検出するジャイロセンサ、車両の加速度を検出する加速度センサ、あるいは、アクセルペダルの操作量、ブレーキペダルの操作量、ステアリングホイールの操舵角、エンジン回転数又は車輪の回転速度等を検出するためのセンサのうちの少なくとも一つが含まれる。駆動系制御ユニット7100は、車両状態検出部7110から入力される信号を用いて演算処理を行い、内燃機関、駆動用モータ、電動パワーステアリング装置又はブレーキ装置等を制御する。
ボディ系制御ユニット7200は、各種プログラムにしたがって車体に装備された各種装置の動作を制御する。例えば、ボディ系制御ユニット7200は、キーレスエントリシステム、スマートキーシステム、パワーウィンドウ装置、あるいは、ヘッドランプ、バックランプ、ブレーキランプ、ウィンカー又はフォグランプ等の各種ランプの制御装置として機能する。この場合、ボディ系制御ユニット7200には、鍵を代替する携帯機から発信される電波又は各種スイッチの信号が入力され得る。ボディ系制御ユニット7200は、これらの電波又は信号の入力を受け付け、車両のドアロック装置、パワーウィンドウ装置、ランプ等を制御する。
バッテリ制御ユニット7300は、各種プログラムにしたがって駆動用モータの電力供給源である二次電池7310を制御する。例えば、バッテリ制御ユニット7300には、二次電池7310を備えたバッテリ装置から、バッテリ温度、バッテリ出力電圧又はバッテリの残存容量等の情報が入力される。バッテリ制御ユニット7300は、これらの信号を用いて演算処理を行い、二次電池7310の温度調節制御又はバッテリ装置に備えられた冷却装置等の制御を行う。
車外情報検出ユニット7400は、車両制御システム7000を搭載した車両の外部の情報を検出する。例えば、車外情報検出ユニット7400には、撮像部7410及び車外情報検出部7420のうちの少なくとも一方が接続される。撮像部7410には、ToF(Time Of Flight)カメラ、ステレオカメラ、単眼カメラ、赤外線カメラ及びその他のカメラのうちの少なくとも一つが含まれる。車外情報検出部7420には、例えば、現在の天候又は気象を検出するための環境センサ、あるいは、車両制御システム7000を搭載した車両の周囲の他の車両、障害物又は歩行者等を検出するための周囲情報検出センサのうちの少なくとも一つが含まれる。
環境センサは、例えば、雨天を検出する雨滴センサ、霧を検出する霧センサ、日照度合いを検出する日照センサ、及び降雪を検出する雪センサのうちの少なくとも一つであってよい。周囲情報検出センサは、超音波センサ、レーダ装置及びLIDAR(Light Detection and Ranging、Laser Imaging Detection and Ranging)装置のうちの少なくとも一つであってよい。これらの撮像部7410及び車外情報検出部7420は、それぞれ独立したセンサないし装置として備えられてもよいし、複数のセンサないし装置が統合された装置として備えられてもよい。
ここで、図2は、撮像部7410及び車外情報検出部7420の設置位置の例を示す。撮像部7910,7912,7914,7916,7918は、例えば、車両7900のフロントノーズ、サイドミラー、リアバンパ、バックドア及び車室内のフロントガラスの上部のうちの少なくとも一つの位置に設けられる。フロントノーズに備えられる撮像部7910及び車室内のフロントガラスの上部に備えられる撮像部7918は、主として車両7900の前方の画像を取得する。サイドミラーに備えられる撮像部7912,7914は、主として車両7900の側方の画像を取得する。リアバンパ又はバックドアに備えられる撮像部7916は、主として車両7900の後方の画像を取得する。車室内のフロントガラスの上部に備えられる撮像部7918は、主として先行車両又は、歩行者、障害物、信号機、交通標識又は車線等の検出に用いられる。
なお、図2には、それぞれの撮像部7910,7912,7914,7916の撮影範囲の一例が示されている。撮像範囲aは、フロントノーズに設けられた撮像部7910の撮像範囲を示し、撮像範囲b,cは、それぞれサイドミラーに設けられた撮像部7912,7914の撮像範囲を示し、撮像範囲dは、リアバンパ又はバックドアに設けられた撮像部7916の撮像範囲を示す。例えば、撮像部7910,7912,7914,7916で撮像された画像データが重ね合わせられることにより、車両7900を上方から見た俯瞰画像が得られる。
車両7900のフロント、リア、サイド、コーナ及び車室内のフロントガラスの上部に設けられる車外情報検出部7920,7922,7924,7926,7928,7930は、例えば超音波センサ又はレーダ装置であってよい。車両7900のフロントノーズ、リアバンパ、バックドア及び車室内のフロントガラスの上部に設けられる車外情報検出部7920,7926,7930は、例えばLIDAR装置であってよい。これらの車外情報検出部7920~7930は、主として先行車両、歩行者又は障害物等の検出に用いられる。
図1に戻って説明を続ける。車外情報検出ユニット7400は、撮像部7410に車外の画像を撮像させるとともに、撮像された画像データを受信する。また、車外情報検出ユニット7400は、接続されている車外情報検出部7420から検出情報を受信する。車外情報検出部7420が超音波センサ、レーダ装置又はLIDAR装置である場合には、車外情報検出ユニット7400は、超音波又は電磁波等を発信させるとともに、受信された反射波の情報を受信する。車外情報検出ユニット7400は、受信した情報に基づいて、人、車、障害物、標識又は路面上の文字等の物体検出処理又は距離検出処理を行ってもよい。車外情報検出ユニット7400は、受信した情報に基づいて、降雨、霧又は路面状況等を認識する環境認識処理を行ってもよい。車外情報検出ユニット7400は、受信した情報に基づいて、車外の物体までの距離を算出してもよい。
また、車外情報検出ユニット7400は、受信した画像データに基づいて、人、車、障害物、標識又は路面上の文字等を認識する画像認識処理又は距離検出処理を行ってもよい。車外情報検出ユニット7400は、受信した画像データに対して歪補正又は位置合わせ等の処理を行うとともに、異なる撮像部7410により撮像された画像データを合成して、俯瞰画像又はパノラマ画像を生成してもよい。車外情報検出ユニット7400は、異なる撮像部7410により撮像された画像データを用いて、視点変換処理を行ってもよい。
車内情報検出ユニット7500は、車内の情報を検出する。車内情報検出ユニット7500には、例えば、運転者の状態を検出する運転者状態検出部7510が接続される。運転者状態検出部7510は、運転者を撮像するカメラ、運転者の生体情報を検出する生体センサ又は車室内の音声を集音するマイク等を含んでもよい。生体センサは、例えば、座面又はステアリングホイール等に設けられ、座席に座った搭乗者又はステアリングホイールを握る運転者の生体情報を検出する。車内情報検出ユニット7500は、運転者状態検出部7510から入力される検出情報に基づいて、運転者の疲労度合い又は集中度合いを算出してもよいし、運転者が居眠りをしていないかを判別してもよい。車内情報検出ユニット7500は、集音された音声信号に対してノイズキャンセリング処理等の処理を行ってもよい。
統合制御ユニット7600は、各種プログラムにしたがって車両制御システム7000内の動作全般を制御する。統合制御ユニット7600には、入力部7800が接続されている。入力部7800は、例えば、タッチパネル、ボタン、マイクロフォン、スイッチ又はレバー等、搭乗者によって入力操作され得る装置によって実現される。統合制御ユニット7600には、マイクロフォンにより入力される音声を音声認識することにより得たデータが入力されてもよい。入力部7800は、例えば、赤外線又はその他の電波を利用したリモートコントロール装置であってもよいし、車両制御システム7000の操作に対応した携帯電話又はPDA(Personal Digital Assistant)等の外部接続機器であってもよい。入力部7800は、例えばカメラであってもよく、その場合搭乗者はジェスチャにより情報を入力することができる。あるいは、搭乗者が装着したウェアラブル装置の動きを検出することで得られたデータが入力されてもよい。さらに、入力部7800は、例えば、上記の入力部7800を用いて搭乗者等により入力された情報に基づいて入力信号を生成し、統合制御ユニット7600に出力する入力制御回路などを含んでもよい。搭乗者等は、この入力部7800を操作することにより、車両制御システム7000に対して各種のデータを入力したり処理動作を指示したりする。
記憶部7690は、マイクロコンピュータにより実行される各種プログラムを記憶するROM(Read Only Memory)、及び各種パラメータ、演算結果又はセンサ値等を記憶するRAM(Random Access Memory)を含んでいてもよい。また、記憶部7690は、HDD(Hard Disc Drive)等の磁気記憶デバイス、半導体記憶デバイス、光記憶デバイス又は光磁気記憶デバイス等によって実現してもよい。
汎用通信I/F7620は、外部環境7750に存在する様々な機器との間の通信を仲介する汎用的な通信I/Fである。汎用通信I/F7620は、GSM(登録商標)(Global System of Mobile communications)、WiMAX(登録商標)、LTE(登録商標)(Long Term Evolution)若しくはLTE-A(LTE-Advanced)などのセルラー通信プロトコル、又は無線LAN(Wi-Fi(登録商標)ともいう)、Bluetooth(登録商標)などのその他の無線通信プロトコルを実装してよい。汎用通信I/F7620は、例えば、基地局又はアクセスポイントを介して、外部ネットワーク(例えば、インターネット、クラウドネットワーク又は事業者固有のネットワーク)上に存在する機器(例えば、アプリケーションサーバ又は制御サーバ)へ接続してもよい。また、汎用通信I/F7620は、例えばP2P(Peer To Peer)技術を用いて、車両の近傍に存在する端末(例えば、運転者、歩行者若しくは店舗の端末、又はMTC(Machine Type Communication)端末)と接続してもよい。
専用通信I/F7630は、車両における使用を目的として策定された通信プロトコルをサポートする通信I/Fである。専用通信I/F7630は、例えば、下位レイヤのIEEE802.11pと上位レイヤのIEEE1609との組合せであるWAVE(Wireless Access in Vehicle Environment)、DSRC(Dedicated Short Range Communications)、又はセルラー通信プロトコルといった標準プロトコルを実装してよい。専用通信I/F7630は、典型的には、車車間(Vehicle to Vehicle)通信、路車間(Vehicle to Infrastructure)通信、車両と家との間(Vehicle to Home)の通信及び歩車間(Vehicle to Pedestrian)通信のうちの1つ以上を含む概念であるV2X通信を遂行する。
測位部7640は、例えば、GNSS(Global Navigation Satellite System)衛星からのGNSS信号(例えば、GPS(Global Positioning System)衛星からのGPS信号)を受信して測位を実行し、車両の緯度、経度及び高度を含む位置情報を生成する。なお、測位部7640は、無線アクセスポイントとの信号の交換により現在位置を特定してもよく、又は測位機能を有する携帯電話、PHS若しくはスマートフォンといった端末から位置情報を取得してもよい。
ビーコン受信部7650は、例えば、道路上に設置された無線局等から発信される電波あるいは電磁波を受信し、現在位置、渋滞、通行止め又は所要時間等の情報を取得する。なお、ビーコン受信部7650の機能は、上述した専用通信I/F7630に含まれてもよい。
車内機器I/F7660は、マイクロコンピュータ7610と車内に存在する様々な車内機器7760との間の接続を仲介する通信インタフェースである。車内機器I/F7660は、無線LAN、Bluetooth(登録商標)、NFC(Near Field Communication)又はWUSB(Wireless USB)といった無線通信プロトコルを用いて無線接続を確立してもよい。また、車内機器I/F7660は、図示しない接続端子(及び、必要であればケーブル)を介して、USB(Universal Serial Bus)、HDMI(登録商標)(High-Definition Multimedia Interface、又はMHL(Mobile High-definition Link)等の有線接続を確立してもよい。車内機器7760は、例えば、搭乗者が有するモバイル機器若しくはウェアラブル機器、又は車両に搬入され若しくは取り付けられる情報機器のうちの少なくとも1つを含んでいてもよい。また、車内機器7760は、任意の目的地までの経路探索を行うナビゲーション装置を含んでいてもよい。車内機器I/F7660は、これらの車内機器7760との間で、制御信号又はデータ信号を交換する。
車載ネットワークI/F7680は、マイクロコンピュータ7610と通信ネットワーク7010との間の通信を仲介するインタフェースである。車載ネットワークI/F7680は、通信ネットワーク7010によりサポートされる所定のプロトコルに則して、信号等を送受信する。
統合制御ユニット7600のマイクロコンピュータ7610は、汎用通信I/F7620、専用通信I/F7630、測位部7640、ビーコン受信部7650、車内機器I/F7660及び車載ネットワークI/F7680のうちの少なくとも一つを介して取得される情報に基づき、各種プログラムにしたがって、車両制御システム7000を制御する。例えば、マイクロコンピュータ7610は、取得される車内外の情報に基づいて、駆動力発生装置、ステアリング機構又は制動装置の制御目標値を演算し、駆動系制御ユニット7100に対して制御指令を出力してもよい。例えば、マイクロコンピュータ7610は、車両の衝突回避あるいは衝撃緩和、車間距離に基づく追従走行、車速維持走行、車両の衝突警告、又は車両のレーン逸脱警告等を含むADAS(Advanced Driver Assistance System)の機能実現を目的とした協調制御を行ってもよい。また、マイクロコンピュータ7610は、取得される車両の周囲の情報に基づいて駆動力発生装置、ステアリング機構又は制動装置等を制御することにより、運転者の操作に拠らずに自律的に走行する自動運転等を目的とした協調制御を行ってもよい。
マイクロコンピュータ7610は、汎用通信I/F7620、専用通信I/F7630、測位部7640、ビーコン受信部7650、車内機器I/F7660及び車載ネットワークI/F7680のうちの少なくとも一つを介して取得される情報に基づき、車両と周辺の構造物や人物等の物体との間の3次元距離情報を生成し、車両の現在位置の周辺情報を含むローカル地図情報を作成してもよい。また、マイクロコンピュータ7610は、取得される情報に基づき、車両の衝突、歩行者等の近接又は通行止めの道路への進入等の危険を予測し、警告用信号を生成してもよい。警告用信号は、例えば、警告音を発生させたり、警告ランプを点灯させたりするための信号であってよい。
音声画像出力部7670は、車両の搭乗者又は車外に対して、視覚的又は聴覚的に情報を通知することが可能な出力装置へ音声及び画像のうちの少なくとも一方の出力信号を送信する。図1の例では、出力装置として、オーディオスピーカ7710、表示部7720及びインストルメントパネル7730が例示されている。表示部7720は、例えば、オンボードディスプレイ及びヘッドアップディスプレイの少なくとも一つを含んでいてもよい。表示部7720は、AR(Augmented Reality)表示機能を有していてもよい。出力装置は、これらの装置以外の、ヘッドホン、搭乗者が装着する眼鏡型ディスプレイ等のウェアラブルデバイス、プロジェクタ又はランプ等の他の装置であってもよい。出力装置が表示装置の場合、表示装置は、マイクロコンピュータ7610が行った各種処理により得られた結果又は他の制御ユニットから受信された情報を、テキスト、イメージ、表、グラフ等、様々な形式で視覚的に表示する。また、出力装置が音声出力装置の場合、音声出力装置は、再生された音声データ又は音響データ等からなるオーディオ信号をアナログ信号に変換して聴覚的に出力する。
なお、図1に示した例において、通信ネットワーク7010を介して接続された少なくとも二つの制御ユニットが一つの制御ユニットとして一体化されてもよい。あるいは、個々の制御ユニットが、複数の制御ユニットにより構成されてもよい。さらに、車両制御システム7000が、図示されていない別の制御ユニットを備えてもよい。また、上記の説明において、いずれかの制御ユニットが担う機能の一部又は全部を、他の制御ユニットに持たせてもよい。つまり、通信ネットワーク7010を介して情報の送受信がされるようになっていれば、所定の演算処理が、いずれかの制御ユニットで行われるようになってもよい。同様に、いずれかの制御ユニットに接続されているセンサ又は装置が、他の制御ユニットに接続されるとともに、複数の制御ユニットが、通信ネットワーク7010を介して相互に検出情報を送受信してもよい。
また本実施形態では、統合制御ユニット7600は、撮像部7410による撮像画像のピクセルごとに路面/歩道/歩行者/建物等の属性を認識するセマンテックセグメンテーション(セマセグ)を実行可能である。
[車両制御システムの機能ブロック構成]
図3は、上記統合制御ユニット7600に実装されたコンピュータプログラムの機能ブロック構成を示した図である。当該コンピュータプログラムは、それが格納されたコンピュータ読み取り可能な記録媒体として提供されてもよい。記録媒体は、例えば、磁気ディスク、光ディスク、光磁気ディスク、フラッシュメモリ等である。また、当該コンピュータプログラムは、記録媒体を用いずに、例えばネットワークを介して配信されてもよい。
本実施形態において、統合制御ユニット7600(マイクロコンピュータ7610)は、撮像部7410から順次取得される撮像画像について、そのピクセルごとに属性(車両/路面/歩道/歩行者/建物等)を認識するセマンテックセグメンテーション(セマセグ)を実行可能である。当該セマセグにより、撮像画像に含まれる被写体領域ごとに属性が認識されることになる。
統合制御ユニット7600は、当該認識処理の実行頻度(更新頻度)及びその対象となる領域を、当該属性に基づいて設定することができる。なお、当該処理に際し、一連の撮像画像のうち最初の撮像画像についてはその全体についてセマセグが実行され、それ以降の撮像画像について領域ごとに更新頻度が設定される。
図3に示すように、統合制御ユニット7600は、機能ブロックとして、相対移動推定部11、射影マップ生成部12、セマセグ射影部13、未観測領域設定部14、領域属性関係判定部15、更新優先度マップ生成部16、領域セマセグ部17及びセマセグ統合部18を有する。
相対移動推定部11は、測位部7640が生成した車両(撮像部7410)の時刻(T-1)及び時刻(T)における各位置情報を基に、車両の相対移動量データ(Rt)を生成して射影マップ生成部12へ出力する。
射影マップ生成部12は、車外情報検出ユニット7400が検出した時刻(T-1)における車両と被写体との間の撮像画像座標ごとの距離データ(z)と、上記相対移動推定部11から受信した相対移動量データ(Rt)とを基に、射影マップデータを生成してセマセグ射影部13及び未観測領域設定部14へ出力する。
具体的には、射影マップ生成部12は、撮像画像座標ごとの上記距離データ(z)の全撮像画像座標分の集合(デプス画像データ)を3次元の点群データに変換し、当該点群データを、上記相対移動量データ(Rt)を用いて座標変換する。そして射影マップ生成部12は、座標変換後の点群データを撮像画像平面に射影したデプス画像データを生成し、当該デプス画像データ中の距離データ(z)及び時刻(T-1)における画像座標を基に、時刻(T)の撮像画像に時刻(T-1)の撮像画像の画素ごとの画像認識(セマセグ)結果を示す値を射影するための射影元の位置を示す射影マップデータを生成する。
セマセグ射影部13は、上記射影マップ生成部12から受信した射影マップデータと、時刻(T-1)におけるセマセグ結果を基に、時刻(T)における撮像画像に当該セマセグ結果を射影した射影セマセグデータを生成し、セマセグ統合部18へ出力する。
未観測領域設定部14は、上記射影マップ生成部12から受信した射影マップデータを基に、時刻(T)における撮像画像に時刻(T-1)におけるセマセグ結果を射影できない領域、すなわち射影マップデータ中の、射影元の位置が示されていない未観測領域を検出し、それを示すデータを更新優先度マップ生成部16へ出力する。
領域属性関係判定部15は、撮像画像に含まれる複数の領域について上記セマセグによって認識された属性の関係を判定する。例えば領域属性関係判定部15は、歩道/路面領域と歩行者/自転車領域とが重なっている場合には、歩道/路面上に歩行者/自転車が存在すると判定する。
更新優先度マップ生成部16は、上記未観測領域設定部14で検出された未観測領域及び上記領域属性関係判定部15で判定された領域属性関係に基づいて、撮像画像の各領域に対してセマセグの更新の優先度(更新頻度)が設定された更新優先度マップを生成する。
更新優先度マップ生成部16は、例えば、未観測領域については更新優先度を高く設定し、また歩道上の歩行者の領域については更新優先度を低く、路面上の歩行者の領域については更新優先度を高く設定する。
領域セマセグ部17は、上記生成された更新優先度マップに基づいて、時刻(T)における撮像画像に対して領域毎のセマセグを実行し、その結果をセマセグ統合部18へ出力する。
セマセグ統合部18は、上記セマセグ射影部13から受信した時刻(T)における射影セマセグデータと、領域セマセグ部17から受信した時刻(T)における領域セマセグデータとを統合して、時刻(T)における撮像画像全体のセマセグ結果データを出力する。
このセマセグ結果データは、例えば、ADASの機能実現を目的とした協調制御や自動運転等を目的とした協調制御等に用いられ得る。
これら機能ブロック(コンピュータプログラム)は、統合制御ユニット7600ではなく上記車外情報検出ユニット7400に実装されてもよい。この場合車外情報検出ユニットから出力されたセマセグ結果データを基に統合制御ユニット7600によって上記ADASや自動運転のための協調制御が実行される。
[車両制御システムの動作]
次に、以上のように構成された車両制御システムの動作について説明する。当該動作は、上記統合制御ユニット7600のマイクロコンピュータ7600及び車載ネットワークインタフェース7680、専用通信インタフェース7630等のハードウェアと、記憶部1690等に記憶されたソフトウェア(図3に示す各機能ブロック)との協働により実行される。
図4は、上記車両制御システムによる画像認識処理の流れを示したフローチャートである。
同図に示すように、まず相対移動推定部11が、時刻(T-1)及び時刻(T)における車両の位置情報を取得し(ステップ101)し、時刻(T-1)から時刻(T)までの間の車両(撮像部)の相対移動距離を推定する(ステップ102)。
続いて射影マップ生成部12が、時刻(T-1)の撮像画像における車両と被写体との距離データを取得し(ステップ103)、当該距離データと上記相対移動距離データを基に射影マップデータを生成する(ステップ104)。
続いて未観測領域設定部14が、射影マップデータを基に、時刻(T)の撮像画像における時刻(T-1)の撮像画像と比較した未観測領域を算出し(ステップ105)、当該未観測領域の更新優先度を高く設定した更新優先度マップを生成する(ステップ106)。
続いてセマセグ射影部13が、上記射影マップデータを基に、時刻(T-1)におけるセマセグ結果を時刻(T)における撮像画像に射影する(ステップ107)。
図5は、当該射影マップデータを用いた射影処理を示した図である。同図(B1)及び(B2)並びに以降の図面において濃淡の異なるグレースケールで表現された各領域は上記セマセグの認識結果を示す。すなわち、同一の色で着色された箇所について同一の属性が認識されたことを示す。
同図に示すように、時刻T=0において同図(A1)に示す位置を走行中の車両が時刻T=1において同図(A2)に示す位置へ移動した場合、時刻T=0の入力フレーム(B0)における各画素が時刻T=1の入力フレームのどの画素に対応するかが上記位置情報及び距離情報から全画素について判明したとする。
この場合、時刻T=1の入力フレームのセマセグ結果(B1)が、同図(B2)に示すように、時刻T=1の入力フレームの全領域に亘って射影されていることが分かる。これにより、時刻T=1の入力フレームについてセマセグを実行する冗長処理が削減され、計算量が削減されると共に、認識精度(安定性)が向上する。
図6は、未観測領域の算出処理を示した図である。同図(B2)に示すように、時刻T=0において同図(A1)に示す位置を走行中の車両が時刻T=1において同図(A2)に示す位置へ移動した場合、上記図5の場合とは異なり、時刻T=1の入力フレーム中に、時刻T=0の入力フレーム(B0)のセマセグ結果(B1)が射影できない未観測領域Rが生じている。
このように、カメラの構図によって、次のフレームへセマセグ結果が全て射影できる場合と部分的に射影できない未観測領域が生じる場合とがある。
ここで、上記射影マップ生成処理及び未観測領域設定処理の詳細について説明する。
図7は射影マップ生成処理の詳細を示した図であり、図8は射影マップ生成処理の流れを示したフローチャートである。
図7に示すように、射影マップ生成部12は、機能ブロックとして、点群変換部121、座標変換部122、平面射影部123、及びマップ生成部124を有する。
まず、点群変換部121は、車外情報検出ユニット7400からデプス画像データD(画素ごとに距離情報を有する撮像画像)を取得する。当該デプス画像データは、画像座標(u,v)ごとに距離データ(z)を格納している。
続いて点群変換部121は、当該デプス画像Dの全ての画素について、当該画素を当該画素の座標ごとの距離情報に基づく3次元の点群データPに変換する(図7(A)、図8のステップ201)。当該点群データPは、点群座標(x,y,z)ごとに変換元の画像座標(u,v)を格納している。
続いて、座標変換部122が、上記点群データPに含まれる全ての点群について、各点群データPを、上記相対移動推定部11から取得したカメラの相対移動量データ(Rt)に基づいて座標変換する(図7(B)、図8のステップ202)。当該座標変換後の点群データP´は、座標変換後の点群座標(x,y,z)ごとに変換元のデプス画像の画像座標(u,v)を格納している。
続いて、平面射影部123が、上記座標変換後の点群データP´に含まれる全ての点群について、当該点群データP´を画像平面に射影する(図7(C)、図8のステップ203)。このステップ202及びステップ203の繰り返し処理により、座標変換後のデプス画像データD´が生成される。当該座標変換後のデプス画像データD´は、画像座標(u,v)ごとに、座標変換後の距離データ(z)と変換元の画像座標(u,v)を格納している。
そしてマップ生成部124が、座標変換後のデプス画像D´の全ての画素に対して、変換元のフレームの次(移動後)のフレームの画素ごとの座標と、変換元(移動前)のフレームの画素ごとの座標とを対応付けることで、射影マップデータMを生成する(図7(D)、図8のステップ204)。
当該射影マップデータMは、移動後のフレームの画像座標(u,v)ごとに、変換元のフレームの画像座標(u,v)を格納している。この射影マップデータMによって、移動後のフレームの各座標に対して、移動前のフレームのどの座標のセマセグ結果を射影すればよいかという対応関係が示されることになる。
図9は未観測領域設定処理の詳細を示した図であり、図10は未観測領域設定処理の流れを示したフローチャートである。
図9に示すように、未観測領域設定部14は、機能ブロックとして対応なし画素抽出部141を有する。
対応なし画素抽出部141は、上記射影マップデータMの全ての画素ごとの座標について、次のフレーム(T)の画素ごとの座標への対応付け処理を行うことで、対応付けがされなかった画素(または当該画素によって構成される領域)を、未観測領域Rとして抽出する(ステップ301)。
これにより、次フレーム(T-1)のうち、上記対応付け処理によって対応付けがされた画素(または当該画素によって構成される領域)については、セマセグ射影部13によって、元のフレーム(T-1)についてのセマセグ結果が射影される。
一方、次フレーム(T-1)のうち、上記対応付け処理によって対応付けがされなかった未観測領域Rについては、上記更新優先度マップ生成処理を経て、領域セマセグ部17によって新たにセマセグ処理が実行され当該未観測領域Rの各画素の属性が認識される。
図4に戻り、領域属性関係判定部15は、射影マップデータに基づく射影セマセグデータを基に、撮像画像中の複数の領域の属性の関係を判定する(ステップ108)。
続いて更新優先度マップ生成部16は、当該判定された領域の属性の関係を基に、更新優先度マップを生成する(ステップ109)。
図11は、領域属性関係判定処理及び更新優先度マップ生成処理を説明するための図である。
同図(A)に示す時刻(T-1)のセマセグ結果が、同図(B)に示す時刻(T)のセマセグ結果として射影された場合、領域属性関係判定部15は、撮像画像左側において歩行者領域と歩道領域とが重なっていることを判定し、また撮像画像右側において歩行者領域と路面とが重なっていることを判定する。
この場合、更新優先度マップ生成部16は、同図(C)に示すように、歩道上の歩行者/自転車は、それほど危険な状況は想定されないことから、その領域については更新優先度を低く設定する。
一方、更新優先度マップ生成部16は、路面上の歩行者/自転車は危険な状況が想定されるため、その領域については更新優先度を高く設定する。なお、同図(C)及びこれ以降に図示される更新優先度マップにおいては、グレーの濃度が高い程、更新優先度が高いことを示している。
その他、更新優先度マップ生成部16は、歩道/路面と他の領域との境界領域は、物陰になり他の物体が急に飛び出してくる危険性があるため更新優先度を高く設定してもよい。
また更新優先度マップ生成部16は、2つの領域の属性の関係に限らず、3つ以上の領域の属性の関係を基に更新優先度マップを生成してもよい。
例えば、更新優先度マップ生成部16は、路面上の自動車領域の周辺の歩行者/自転車の領域は、自動車が歩行者/自転車を回避するために動きを変化させる可能性があるため、その領域について更新優先度を高く設定してもよい。
また更新優先度マップ生成部16は、路面上の複数の歩行者/自転車が近接している領域は、それら複数の歩行者/自転車がお互いの回避のために動きを変化させる可能性があるため、その領域について更新優先度を高く設定してもよい。
図4に戻り、更新優先度マップ生成部16は、上記ステップ106において生成された未観測領域に基づく更新優先度マップと、上記ステップ109において生成された領域の属性の関係に基づく更新優先度マップを統合する(ステップ110)。
図12は、当該更新優先度マップの統合の様子を示した図である。同図(A)に示すセマセグ結果から、未観測領域に基づいて同図(B)に示す更新優先度マップが得られ、領域の属性の関係に基づいて同図(C)に示す更新優先度マップが得られたとする。
更新優先度マップ生成部16は、この両更新優先度マップを統合して、同図(D)に示すような統合更新優先度マップを生成する。当該統合の結果、両更新優先度マップにおいて設定された領域同士が重なる領域については、各更新優先度マップにおける優先度が加算されることで、優先度が高く設定される。
ここで更新優先度マップ生成部16は、未観測領域に基づく更新優先度マップにおいて、検出精度を上げるため、統合に先立ち、検出された未観測領域をやや広げた領域を設定しておいてもよい。
また更新優先度マップ生成部16は、領域の属性の関係に基づく更新優先度マップにおいて、歩行者等の動きに対応するため、統合に先立ち、歩行者が検出された領域よりも広い領域を設定しておいてもよい。
図4に戻り、続いて領域セマセグ部17は、上記統合された更新優先度マップを基に、更新優先度(更新頻度)に応じて各領域のセマセグ処理を実行する(ステップ111)。
図13は、当該更新優先度マップに基づくセマセグ処理の例を示した図である。
例えば同図(A)に示すような更新優先度マップが得られた場合、領域セマセグ部17は、同図(B)に示すように、優先度の高い領域の外接矩形を設定し、当該外接矩形の領域についてセマセグを実行する。
同図(C)に示すように、領域セマセグ部17は、計算リソースを考慮して、全ての外接矩形を処理しても遅延が発生しないと判断した場合には、設定した全ての外接矩形領域についてセマセグを実行する。
一方、同図(D)及び同図(E)に示すように、計算リソースを考慮すると全ての外接矩形を処理すると遅延が発生すると判断した場合には、更新優先度の低い領域についてはセマセグ実行対象から除外してもよい。
図4に戻り、最後に、セマセグ統合部18が、時刻Tにおける射影後のセマセグ結果(ステップ107)と領域セマセグ結果(ステップ111)とを統合して、統合セマセグデータを出力して一連のセマセグ処理が完了する(ステップ112)。
以上説明したように、本実施形態によれば、車両制御システム7000の統合制御ユニット7600は、取得される撮像画像(フレーム)毎に一律に認識処理を実行するのではなく、画像中の領域の属性に基づいてセマセグ処理の実行頻度を設定することで、冗長処理をなくして、計算量を削減することができる。
[変形例]
本発明は上述の実施形態にのみ限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々変更され得る。
上述の実施形態では、領域属性関係判定部15及び更新優先度マップ生成部16は、領域の属性の関係に基づいて更新優先度を設定したが、各領域の属性そのものに基づいて更新優先度を設定してもよい。例えば、信号や標識の領域については更新優先度が低く設定されてもよいし、移動速度を考慮して、歩行者よりも自転車の領域、自転車よりも自動車の領域について更新優先度が高く設定されてもよい。
また、更新優先度マップ生成部16は、未観測領域に基づく更新優先度マップと、領域の属性の関係に基づく更新優先度マップを統合することで、セマセグに用いる更新優先度マップを生成していた。更新優先度マップ生成部16は、この2つの更新優先度マップに加えて、またこの2つの更新優先度マップのいずれか一方に代えて、他のパラメータを用いて生成した更新優先度マップが統合されてもよい。図14乃至図16はそれらの更新優先度マップについて説明した図である。
更新優先度マップ生成部16は、撮像画像内の領域の位置に応じて更新優先度を設定してもよい。
例えば図14に示すように、更新優先度マップ生成部16は、同図(A)に示すような入力フレームのうち、同図(B)に示すように、車両の進行方向に近い画像の中央部の領域ほど、更新優先度を高く設定し、車両の進行方向ではない画像の端部の領域ほど、更新優先度を低く設定して更新優先度マップを生成してもよい。
これ以外にも、更新優先度マップ生成部16は、例えば画像の上部の更新優先度を画像の下部の更新優先度よりも高く設定してもよい。
また更新優先度マップ生成部16は、車両の移動(走行)速度と、撮像画像内の領域の位置に応じて更新優先度を設定してもよい。
例えば図15に示すように、更新優先度マップ生成部16は、同図(A)に示すような入力フレームが取得されたときに、車両が高速移動中(例えば時速80km等の閾値以上で走行)の場合には、一般にドライバーが周囲よりも前方を見る重要性が高いため、同図(B)に示すように、画像中央の領域の更新優先度を高く設定し、画像端部の更新優先度を低く設定する。
一方、車両が低速移動中(例えば時速30km等の閾値以下で走行)の場合には、更新優先度マップ生成部16は、一般にドライバーが前方よりも周囲を見る重要性が高いため、同図(C)に示すように、画像中央の領域の更新優先度を低く設定し、画像端部の領域の更新優先度を低く設定する。
また更新優先度マップ生成部16は、撮像画像中の被写体と車両との間の距離(z)に応じて更新優先度を設定してもよい。
例えば図16に示すように、更新優先度マップ生成部16は、同図(A)に示すような入力フレームについて、同図(B)に示すようなデプス画像データが得られた場合、同図(C)に示すように、小さい距離情報を有する画素の領域(車両からの距離が近い被写体の領域)ほど、更新優先度を高く設定し、車両からの距離が遠い被写体ほど、更新優先度を低く設定してもよい。
以上の図14乃至図16のうち少なくとも1つの更新優先度マップが、上記未観測領域に基づく更新優先度マップまたは領域の属性の関係に基づく更新優先度マップと統合されることにより、それらの更新優先度マップにおいて重複する領域(例えば、未観測領域と画像中央領域との重複領域、未観測領域と小さい距離情報を有する領域との重複領域等)に対して更新優先度が高く設定されることになる。
上述の実施形態においては、領域セマセグ部17は、撮像画像の全体ではなく、更新優先度マップ生成部16によって設定された領域についてのみセマセグを実行していた。しかし、領域セマセグ部17は、定期的に撮像画像の全領域についてセマセグを実行してもよい。これにより、領域毎の部分的な認識処理によるエラーが定期的に補完される。
図17は、この場合の全領域についてのセマセグ(以下、全領域処理)の実行例を示した図である。同図(A)は、上述の実施形態のように定期的な全領域処理を実行しない場合の時系列の処理例を示している。一方、同図(B)に示すように、定期的に全領域処理を実行する場合、遅延は大きくなるが、全領域処理後の認識結果は高精度となる。
また同図(C)に示すように、領域セマセグ部17は、定期的に全領域処理を実行しつつ、更新優先度により領域を限定したセマセグを実行する際に、遅延を許容してもよい。これにより遅延は発生するものの、領域限定時のセマセグにおいて、計算リソースの関係で処理を省略することなく、認識に必要な領域を全て処理することができる。
ここで、全領域処理を実行するトリガについては様々なものが想定される。
領域セマセグ部17は、未観測領域(射影マップによって射影できなかった領域)の面積が所定の割合以上発生した場合に、全領域処理を実行してもよい。未観測領域が多く発生する場合には、領域を限定したセマセグとの計算量の差も少ないことから、領域セマセグ部17は、全領域処理を実行することで、計算量の増加を抑えながらも認識精度を高めることができる。
領域セマセグ部17は、車両状態検出部7110によって検出された車両の操舵角が所定の角度以上となった場合に、全領域処理を実行してもよい。大きな操舵角が検出された場合には撮像対象の景色も大きく変化し、未観測領域も大きくなると考えられることから、領域セマセグ部17は、そのような場合に全領域処理を実行することで、未観測領域をわざわざ検出するための計算量を省いて、認識精度を高めることができる。
領域セマセグ部17は、車両が所定の位置を移動している場合に、全領域処理を実行してもよい。位置情報としては、測位部7640が取得したGPS情報や地図情報が用いられる。
例えば領域セマセグ部17は、車両が所定値以上の勾配の上り坂または下り坂を走行中であることを検出した場合に全領域処理を実行してもよい。急勾配の上り坂や下り坂では、起伏の影響から、撮像対象の景色も大きく変化し、未観測領域も大きくなると考えられることから、領域セマセグ部17は、そのような場合に全領域処理を実行することで、未観測領域をわざわざ検出するための計算量を省いて、認識精度を高めることができる。
また領域セマセグ部17は、車両がトンネルに入った場合及びトンネルから出た場合にも同様に、撮像対象の景色が大きく変化することから、全領域処理を実行してもよい。
また領域セマセグ部17は、撮像画像のうち、セマセグによる属性の認識結果の信頼度が低い領域またはセマセグによって属性を認識できなかった領域の面積が所定の割合(例えば50%等)以上発生した場合に、全領域処理を実行してもよい。
上述の実施形態において、領域セマセグ部17は、図13に示したように、優先度の高い領域の外接矩形を設定し、当該外接矩形の領域についてセマセグを実行していた。しかし、セマセグの対象とする領域の設定手法はこれに限られない。例えば、領域セマセグ部17は、上記外接矩形で切り抜いた領域に代えて、セマセグの計算に必要と推定される画素領域のみをセマセグ対象として設定してもよい。
すなわち、図18(A)に示すように、入力画像に対して複数回にわたって畳み込み演算を実行して最終セマセグ結果を得る場合(上部矢印の処理)、最終結果で必要な領域を計算するには、当該演算の逆をたどることで、必要な領域についてのみ演算すればよい(下部矢印の処理)。
そこで領域セマセグ部17は、同図(B)に示す更新優先度マップが得られた場合、同図(C)に示すように、当該更新優先度マップで示された優先度の高い領域を最終結果として得るために必要な領域を逆算してセマセグ対象領域を設定し、当該領域についてセマセグを実行してもよい。
領域セマセグ部17はこの場合においても、計算リソースを考慮して遅延が生じる場合には、優先度の低い領域についてはセマセグ対象から除外してもよい。
上述の実施形態においては、情報処理装置としての統合制御ユニット7600が搭載される移動体として車両(自動車)が示されたが、当該統合制御ユニット7600と同様の情報処理が可能な情報処理装置が搭載される移動体は車両に限定されない。当該情報処理装置は、例えば、自動二輪車、自転車、パーソナルモビリティ、飛行機、ドローン、船舶、ロボット、建設機械、農業機械(トラクター)などのいずれかの種類の移動体に搭載される装置として実現されてもよい。この場合、上述した属性の関係(歩行者、車両、路面、歩道等)も移動体に応じて異なって認識される。
また上記情報処理装置が搭載される対象は移動体に限定されない。例えば、監視カメラの撮像画像についても本技術は適用可能である。この場合、上述の実施形態において説明した車両の移動に伴う処理は実行されないが、監視カメラのパン・チルト・ズームに伴って撮像対象が変化し得ることから、上記領域の属性に加えて、未観測領域に基づく更新優先度マップの生成についても同様に適用可能である。
[その他]
本技術は以下のような構成もとることができる。
(1)
カメラによって撮像された画素ごとに距離情報を有する撮像画像が入力される入力部と、
前記カメラまたは当該カメラを搭載した移動体の移動量に基づいて、前記撮像画像の画素ごとの座標を変換した変換撮像画像を生成し、
前記変換撮像画像の画素ごとの座標を、前記カメラの移動後の位置で撮像された移動後撮像画像の画素ごとの座標と対応付け、当該対応付けがされなかった画素を特定する
制御部と
を具備する情報処理装置。
(2)
上記(1)に記載の情報処理装置であって、
前記制御部は、前記移動後撮像画像のうち、前記対応付けがされなかった画素の属性を認識する認識処理を実行し、前記対応付けがされた画素または当該画素によって構成される領域に、当該画素または領域に対応する前記撮像画像の画素について実行された前記認識処理の結果を射影する
情報処理装置。
(3)
上記(2)に記載の情報処理装置であって、
前記制御部は、前記移動後撮像画像の画素ごとの座標と前記撮像画像の画素ごとの座標とを前記射影用に対応付けたマップを生成する
情報処理装置。
(4)
上記(1)~(3)のいずれかに記載の情報処理装置であって、
前記制御部は、前記撮像画像を前記画素ごとの距離情報に基づく3次元の点群データに変換し、前記移動量に基づいて当該点群データを変換した移動点群データを生成し、当該移動点群データを画像平面に射影することで前記変換撮像画像を生成する
情報処理装置。
(5)
上記(2)~(4)のいずれかに記載の情報処理装置であって、
前記制御部は、前記対応付けがされなかった画素の、前記移動後撮像画像における位置に応じて前記認識処理の実行頻度を設定する
情報処理装置。
(6)
上記(5)に記載の情報処理装置であって、
前記制御部は、前記対応付けがされなかった画素の、前記移動後撮像画像における位置と、前記移動体の移動速度とに応じて当該画素ごとに前記認識処理の実行頻度を設定する
情報処理装置。
(7)
上記(2)~(6)のいずれかに記載の情報処理装置であって、
前記制御部は、前記対応付けがされなかった画素が有する距離情報に応じて当該画素ごとに前記認識処理の実行頻度を設定する
情報処理装置。
(8)
カメラによって撮像された画素ごとに距離情報を有する撮像画像を取得し、
前記カメラまたは当該カメラを搭載した移動体の移動量に基づいて、前記撮像画像の画素ごとの座標を変換した変換撮像画像を生成し、
前記変換撮像画像の画素ごとの座標を、前記カメラの移動後の位置で撮像された移動後撮像画像の画素ごとの座標と対応付け、当該対応付けがされなかった画素を特定する
情報処理方法。
(9)
情報処理装置に、
カメラによって撮像された画素ごとに距離情報を有する撮像画像を取得するステップと、
前記カメラまたは当該カメラを搭載した移動体の移動量に基づいて、前記撮像画像の画素ごとの座標を変換した変換撮像画像を生成するステップと、
前記変換撮像画像の画素ごとの座標を、前記カメラの移動後の位置で撮像された移動後撮像画像の画素ごとの座標と対応付け、当該対応付けがされなかった画素を特定するステップと
を実行させるプログラム。
11…相対移動推定部
12…射影マップ生成部
13…セマセグ射影部
14…未観測領域設定部
15…領域属性関係判定部
16…更新優先度マップ生成部
17…領域セマセグ部
18…セマセグ統合部
121…点群変換部
122…座標変換部
123…平面射影部
124…マップ生成部
141…対応なし画素抽出部
7000…車両制御システム
7400…車外情報検出ユニット
7600…統合制御ユニット
7610…マイクロコンピュータ
7680…車載ネットワークインタフェース
7690…記憶部
R…未観測領域

Claims (9)

  1. カメラによって撮像された画素ごとに距離情報を有する撮像画像が入力される入力部と、
    前記カメラまたは当該カメラを搭載した移動体の移動量に基づいて、前記撮像画像の画素ごとの座標を変換した変換撮像画像を生成し、
    前記変換撮像画像の画素ごとの座標を、前記カメラの移動後の位置で撮像された移動後撮像画像の画素ごとの座標と対応付け、当該対応付けがされなかった画素を特定する
    制御部と
    を具備する情報処理装置。
  2. 請求項1に記載の情報処理装置であって、
    前記制御部は、前記移動後撮像画像のうち、前記対応付けがされなかった画素の属性を認識する認識処理を実行し、前記対応付けがされた画素または当該画素によって構成される領域に、当該画素または領域に対応する前記撮像画像の画素について実行された前記認識処理の結果を射影する
    情報処理装置。
  3. 請求項2に記載の情報処理装置であって、
    前記制御部は、前記移動後撮像画像の画素ごとの座標と前記撮像画像の画素ごとの座標とを前記射影用に対応付けたマップを生成する
    情報処理装置。
  4. 請求項1に記載の情報処理装置であって、
    前記制御部は、前記撮像画像を前記画素ごとの距離情報に基づく3次元の点群データに変換し、前記移動量に基づいて当該点群データを変換した移動点群データを生成し、当該移動点群データを画像平面に射影することで前記変換撮像画像を生成する
    情報処理装置。
  5. 請求項2に記載の情報処理装置であって、
    前記制御部は、前記対応付けがされなかった画素の、前記移動後撮像画像における位置に応じて前記認識処理の実行頻度を設定する
    情報処理装置。
  6. 請求項5に記載の情報処理装置であって、
    前記制御部は、前記対応付けがされなかった画素の、前記移動後撮像画像における位置と、前記移動体の移動速度とに応じて当該画素ごとに前記認識処理の実行頻度を設定する
    情報処理装置。
  7. 請求項2に記載の情報処理装置であって、
    前記制御部は、前記対応付けがされなかった画素が有する距離情報に応じて当該画素ごとに前記認識処理の実行頻度を設定する
    情報処理装置。
  8. カメラによって撮像された画素ごとに距離情報を有する撮像画像を取得し、
    前記カメラまたは当該カメラを搭載した移動体の移動量に基づいて、前記撮像画像の画素ごとの座標を変換した変換撮像画像を生成し、
    前記変換撮像画像の画素ごとの座標を、前記カメラの移動後の位置で撮像された移動後撮像画像の画素ごとの座標と対応付け、当該対応付けがされなかった画素を特定する
    情報処理方法。
  9. 情報処理装置に、
    カメラによって撮像された画素ごとに距離情報を有する撮像画像を取得するステップと、
    前記カメラまたは当該カメラを搭載した移動体の移動量に基づいて、前記撮像画像の画素ごとの座標を変換した変換撮像画像を生成するステップと、
    前記変換撮像画像の画素ごとの座標を、前記カメラの移動後の位置で撮像された移動後撮像画像の画素ごとの座標と対応付け、当該対応付けがされなかった画素を特定するステップと
    を実行させるプログラム。
JP2021509054A 2019-03-28 2020-03-13 情報処理装置、情報処理方法及びプログラム Active JP7363890B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2019062942 2019-03-28
JP2019062942 2019-03-28
PCT/JP2020/011153 WO2020195965A1 (ja) 2019-03-28 2020-03-13 情報処理装置、情報処理方法及びプログラム

Publications (2)

Publication Number Publication Date
JPWO2020195965A1 JPWO2020195965A1 (ja) 2020-10-01
JP7363890B2 true JP7363890B2 (ja) 2023-10-18

Family

ID=72608697

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021509054A Active JP7363890B2 (ja) 2019-03-28 2020-03-13 情報処理装置、情報処理方法及びプログラム

Country Status (5)

Country Link
US (1) US20220165066A1 (ja)
JP (1) JP7363890B2 (ja)
CN (1) CN113614782A (ja)
DE (1) DE112020001581T5 (ja)
WO (1) WO2020195965A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023063208A1 (ja) * 2021-10-15 2023-04-20 学校法人 芝浦工業大学 イメージセンサデータ制御システム

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008158640A (ja) 2006-12-21 2008-07-10 Fuji Heavy Ind Ltd 移動物体検出装置
JP2015069648A (ja) 2013-09-27 2015-04-13 株式会社リコー 目標検出方法及び目標検出システム
JP2016004447A (ja) 2014-06-17 2016-01-12 トヨタ自動車株式会社 移動情報推定装置

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10148069A1 (de) * 2001-09-28 2003-04-10 Ibeo Automobile Sensor Gmbh Verfahren zur Erkennung und Verfolgung von Objekten
JP4899424B2 (ja) * 2005-11-04 2012-03-21 トヨタ自動車株式会社 物体検出装置
JP6081250B2 (ja) * 2013-03-21 2017-02-15 アルパイン株式会社 運転支援装置および運転支援処理の制御方法
JP6188592B2 (ja) 2014-01-21 2017-08-30 三菱電機株式会社 物体検出装置、物体検出方法、および物体検出プログラム
JP2018066687A (ja) * 2016-10-20 2018-04-26 株式会社リコー 情報処理装置、情報処理方法、および情報処理プログラム
JP6882885B2 (ja) 2016-12-16 2021-06-02 株式会社デンソーテン 障害物検出装置および障害物検出方法
US10839234B2 (en) * 2018-09-12 2020-11-17 Tusimple, Inc. System and method for three-dimensional (3D) object detection

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008158640A (ja) 2006-12-21 2008-07-10 Fuji Heavy Ind Ltd 移動物体検出装置
JP2015069648A (ja) 2013-09-27 2015-04-13 株式会社リコー 目標検出方法及び目標検出システム
JP2016004447A (ja) 2014-06-17 2016-01-12 トヨタ自動車株式会社 移動情報推定装置

Also Published As

Publication number Publication date
JPWO2020195965A1 (ja) 2020-10-01
US20220165066A1 (en) 2022-05-26
WO2020195965A1 (ja) 2020-10-01
CN113614782A (zh) 2021-11-05
DE112020001581T5 (de) 2021-12-30

Similar Documents

Publication Publication Date Title
US11531354B2 (en) Image processing apparatus and image processing method
US10970877B2 (en) Image processing apparatus, image processing method, and program
WO2017057044A1 (ja) 情報処理装置及び情報処理方法
JP7294148B2 (ja) キャリブレーション装置とキャリブレーション方法およびプログラム
WO2019077999A1 (ja) 撮像装置、画像処理装置、及び、画像処理方法
JP2023126642A (ja) 情報処理装置、情報処理方法、及び、情報処理システム
US20200349367A1 (en) Image processing device, image processing method, and program
US11585898B2 (en) Signal processing device, signal processing method, and program
JP7363890B2 (ja) 情報処理装置、情報処理方法及びプログラム
CN112567726B (zh) 信息处理设备,信息处理方法和计算机可读记录介质
WO2020085101A1 (ja) 画像処理装置と画像処理方法およびプログラム
WO2022024602A1 (ja) 情報処理装置、情報処理方法及びプログラム
WO2021125076A1 (ja) 情報処理装置、情報処理方法、プログラム、撮像装置及び撮像システム
CN115128566A (zh) 雷达数据确定电路及雷达数据确定方法
US11436706B2 (en) Image processing apparatus and image processing method for improving quality of images by removing weather elements
WO2020195969A1 (ja) 情報処理装置、情報処理方法及びプログラム
US20210248756A1 (en) Image processing apparatus, vehicle-mounted apparatus, image processing method, and program
CN113614732A (zh) 信息处理设备及信息处理方法
WO2022059489A1 (ja) 情報処理装置、情報処理方法及びプログラム
WO2022196316A1 (ja) 情報処理装置、情報処理方法及びプログラム
JP7173056B2 (ja) 認識装置と認識方法およびプログラム
US20230412923A1 (en) Signal processing device, imaging device, and signal processing method
US20220290996A1 (en) Information processing device, information processing method, information processing system, and program
WO2022044830A1 (ja) 情報処理装置、および情報処理方法
JP2023550078A (ja) 飛行時間型物体検出回路および飛行時間型物体検出方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230125

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230905

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230918

R151 Written notification of patent or utility model registration

Ref document number: 7363890

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151