JP7236352B2 - Posture estimation device and posture estimation method - Google Patents
Posture estimation device and posture estimation method Download PDFInfo
- Publication number
- JP7236352B2 JP7236352B2 JP2019152642A JP2019152642A JP7236352B2 JP 7236352 B2 JP7236352 B2 JP 7236352B2 JP 2019152642 A JP2019152642 A JP 2019152642A JP 2019152642 A JP2019152642 A JP 2019152642A JP 7236352 B2 JP7236352 B2 JP 7236352B2
- Authority
- JP
- Japan
- Prior art keywords
- estimation
- camera
- priority
- vehicle
- cameras
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Description
本発明は、姿勢推定装置および姿勢推定方法に関する。 The present invention relates to a posture estimation device and a posture estimation method.
従来、車載カメラの取付け位置や取付け角度などの外部パラメータを自動的に校正する車載カメラのキャリブレーション装置が知られる(例えば、特許文献1参照)。 Conventionally, there is known an on-vehicle camera calibration device that automatically calibrates external parameters such as an attachment position and an attachment angle of an on-vehicle camera (see, for example, Patent Document 1).
特許文献1に開示されるキャリブレーション装置は、車両状態判定部と、カメラ毎処理部と、動作制御部とを備える。車両状態判定部は、外部から入力される車両情報から車両状態を判定する。カメラ毎処理部は、カメラのそれぞれに対して配置されており、カメラのそれぞれからの入力情報を処理する。動作制御部は、車両状態判定部からの判定結果と、カメラ毎処理部からの出力から、各カメラの動作モードを決定し、どのカメラの校正を優先するかの判断を行う。カメラ毎処理部は、カメラが撮影した画像から特徴点の現れ方を判断し動作制御部に伝える。 The calibration device disclosed in Patent Literature 1 includes a vehicle state determination section, a camera-by-camera processing section, and an operation control section. The vehicle state determination unit determines the vehicle state from vehicle information input from the outside. A per-camera processing unit is arranged for each of the cameras and processes input information from each of the cameras. The operation control unit determines the operation mode of each camera based on the determination result from the vehicle state determination unit and the output from the camera-by-camera processing unit, and determines which camera should be prioritized for calibration. The camera-by-camera processing unit determines how the feature points appear from the image captured by the camera, and notifies the operation control unit.
例えば走行する路面の状態等により、複数のカメラ間で取得することができる特徴点の数に偏りが生じることがある。このような場合、複数のカメラ間でカメラの取付け状態(姿勢)の把握に要する時間に大きな差が生じる可能性がある。 For example, the number of feature points that can be acquired by a plurality of cameras may be biased due to the condition of the road surface on which the vehicle is traveling. In such a case, there may be a large difference in the time required to grasp the mounting state (orientation) of the cameras among the plurality of cameras.
ところで、例えば自動駐車時等には、通常、複数のカメラが同時に使用される。このために、複数のカメラのそれぞれは、自動駐車等の開始時点で、カメラの姿勢が把握されていることが望まれる。これにより、使用予定の全カメラを用いて安全に自動駐車等の自動運転を行うことができる。すなわち、同時使用される複数のカメラがある場合、同時使用される全てのカメラ間でカメラの姿勢の把握に要する時間の差を小さくすることが望まれる。 By the way, for example, during automatic parking, a plurality of cameras are normally used at the same time. For this reason, it is desirable that each of the plurality of cameras is aware of its orientation at the start of automatic parking or the like. As a result, automatic driving such as automatic parking can be safely performed using all the cameras to be used. That is, when there are a plurality of cameras that are used simultaneously, it is desirable to reduce the difference in the time required for grasping the postures of the cameras among all the cameras that are used simultaneously.
本発明は、上記の課題に鑑み、移動体に搭載される複数のカメラ間でカメラの姿勢の把握に要する時間の差を小さくすることができる技術を提供することを目的とする。 SUMMARY OF THE INVENTION In view of the above problems, an object of the present invention is to provide a technique capable of reducing the difference in time required to grasp the orientation of a camera among a plurality of cameras mounted on a moving body.
上記目的を達成するために本発明の姿勢推定装置は、移動体に搭載される複数のカメラのそれぞれから撮影画像を取得する取得部と、前記カメラの姿勢を推定する推定処理を、前記撮影画像に基づいて行う推定部と、前記カメラ毎の前記推定処理の優先度を、前記カメラ毎に行われる前記推定処理により獲得される推定結果の獲得数に基づいて設定する設定部と、を備える構成(第1の構成)になっている。 In order to achieve the above object, a posture estimation apparatus of the present invention includes an acquisition unit that acquires a photographed image from each of a plurality of cameras mounted on a moving object, and an estimation process that estimates the posture of the camera. and a setting unit configured to set the priority of the estimation process for each camera based on the number of obtained estimation results obtained by the estimation process performed for each camera. (first configuration).
また、上記第1の構成の姿勢推定装置において、前記設定部は、前記カメラ毎の前記獲得数の累積値の比較結果に基づいて前記優先度を設定する構成(第2の構成)であることが好ましい。 Further, in the posture estimation device having the first configuration, the setting unit is configured to set the priority based on a comparison result of the cumulative value of the acquired number for each camera (second configuration). is preferred.
また、上記第1又は第2の構成の姿勢推定装置は、前記獲得数の累積値が所定の複数回数以上に到達した前記カメラについて、複数の前記推定結果に基づいて前記姿勢の推定を確定させる確定部を更に備える構成(第3の構成)であることが好ましい。 Further, the posture estimation apparatus having the first or second configuration determines the posture estimation based on a plurality of the estimation results for the camera for which the cumulative value of the number of acquisitions has reached a predetermined number of times or more. A configuration (third configuration) further including a determination unit is preferable.
また、上記第3の構成の姿勢推定装置において、前記設定部は、前記姿勢の推定が確定された前記カメラが発生すると、前記優先度を変更する構成(第4の構成)であることが好ましい。 Further, in the posture estimation device having the third configuration, it is preferable that the setting unit changes the priority when the camera for which the posture estimation has been confirmed occurs (fourth configuration). .
また、上記第1から第4のいずれかの構成の姿勢推定装置において、前記設定部は、前記カメラ毎に得られる前記獲得数の累積値の、最大数と最小数との差が所定閾値以上になると前記優先度を変更する構成(第5の構成)であることが好ましい。 Further, in the posture estimation device having any one of the first to fourth configurations, the setting unit determines that the difference between the maximum number and the minimum number of the cumulative values of the obtained numbers obtained for each of the cameras is equal to or greater than a predetermined threshold. It is preferable that the configuration (fifth configuration) changes the priority when it becomes.
また、上記第5の構成の姿勢推定装置において、前記設定部は、前記最大数と前記最小数との差が前記所定閾値以上になった後に前記所定閾値より小さくなった場合に前記優先度を変更する構成(第6の構成)であることが好ましい。 Further, in the posture estimation apparatus having the fifth configuration, the setting unit sets the priority when the difference between the maximum number and the minimum number becomes smaller than the predetermined threshold after becoming equal to or greater than the predetermined threshold. A changeable configuration (sixth configuration) is preferable.
また、上記第1から第4のいずれかの構成の姿勢推定装置は、前記複数のカメラの中に、前記獲得数以外に基づく優先条件を有するカメラが存在するか否かを判断する判断部を更に備え、前記設定部は、前記優先条件を有するカメラが存在する場合に、前記優先条件に基づいて前記優先度を設定する構成(第7の構成)であってよい。 Further, the posture estimation apparatus having any one of the first to fourth configurations further includes a determination unit that determines whether or not there is a camera having a priority condition other than the acquired number among the plurality of cameras. Further, the setting unit may be configured to set the priority based on the priority condition when there is a camera having the priority condition (seventh configuration).
また、上記第1から第7のいずれかの構成の姿勢推定装置において、前記設定部は、所定のタイミングで前記優先度の変更を行うか否かを確認し、前記所定のタイミングは、前記推定処理の順番が前記複数のカメラの全てに1回ずつ与えられる毎に発生し、前記複数のカメラの中に前記優先度の設定により前記順番が飛ばされるカメラがある場合には、当該カメラに前記順番が与えられたとみなして前記所定のタイミングが判断される構成(第8の構成)であってよい。 Further, in the posture estimation device having any one of the first to seventh configurations, the setting unit confirms whether or not to change the priority at a predetermined timing, and the predetermined timing is set to the estimated Each time the order of processing is given to each of the plurality of cameras once, and if there is a camera among the plurality of cameras for which the order is skipped due to the setting of the priority, the camera is given the above-mentioned A configuration (eighth configuration) may be employed in which the predetermined timing is determined by assuming that the order has been given.
また、上記目的を達成するために本発明の姿勢推定方法は、移動体に搭載される複数のカメラのそれぞれから撮影画像を取得する取得工程と、前記カメラの姿勢を推定する推定処理を、前記撮影画像に基づいて行う推定工程と、前記カメラ毎の前記推定処理の優先度を、前記カメラ毎に行われる前記推定処理により獲得される推定結果の獲得数に基づいて設定する設定工程と、を備える構成(第9の構成)になっている。 Further, in order to achieve the above object, a pose estimation method of the present invention includes an acquisition step of acquiring a photographed image from each of a plurality of cameras mounted on a moving object, and an estimation process of estimating the pose of the camera, a setting step of setting the priority of the estimation process for each camera based on the number of estimation results obtained by the estimation process performed for each camera; It has a configuration (ninth configuration).
本発明によれば、移動体に搭載される複数のカメラ間でカメラの姿勢の把握に要する時間の差を小さくすることができる。 According to the present invention, it is possible to reduce the difference in the time required to grasp the postures of the cameras among a plurality of cameras mounted on a moving object.
以下、本発明の例示的な実施形態について、図面を参照しながら詳細に説明する。以下の説明では、移動体として車両を例にとり説明するが、移動体は車両に限定されない。車両には、例えば自動車、電車、無人搬送車等の車輪のついた乗り物が広く含まれる。車両以外の移動体として、例えば船舶や航空機等が挙げられる。 Exemplary embodiments of the invention are described in detail below with reference to the drawings. In the following description, a vehicle is taken as an example of a moving object, but the moving object is not limited to a vehicle. Vehicles broadly include vehicles with wheels, such as automobiles, trains, and automatic guided vehicles. Examples of mobile objects other than vehicles include ships and aircraft.
また以下の説明では、車両の直進進行方向であって、運転席からハンドルに向かう方向を「前方向」とする。また、車両の直進進行方向であって、ハンドルから運転席に向かう方向を「後方向」とする。また、車両の直進進行方向及び鉛直線に垂直な方向であって、前方向を向いている運転者の右側から左側に向かう方向を「左方向」とする。また、車両の直進進行方向及び鉛直線に垂直な方向であって、前方向を向いている運転者の左側から右側に向かう方向を「右方向」とする。 Further, in the following description, the direction in which the vehicle travels straight ahead, which is the direction from the driver's seat to the steering wheel, is referred to as the "forward direction." In addition, the direction from the steering wheel to the driver's seat, which is the direction in which the vehicle travels straight, is defined as the "rearward direction." In addition, the direction perpendicular to the straight traveling direction and the vertical line of the vehicle and from the right side to the left side of the driver who is facing forward is referred to as the "left direction." Also, the direction perpendicular to the straight traveling direction and the vertical line of the vehicle and from the left side to the right side of the driver who is facing forward is referred to as the "right direction."
<1.第1実施形態>
図1は、第1実施形態に係る姿勢推定装置1の構成を説明するための図である。図1には、姿勢推定装置1に情報を入力する撮影部2および舵角センサ3も示されている。姿勢推定装置1は、撮影部2が搭載される車両ごとに備えられる。以下、姿勢推定装置1が備えられる車両のことを自車両と表現することがある。
<1. First Embodiment>
FIG. 1 is a diagram for explaining the configuration of a posture estimation device 1 according to the first embodiment. FIG. 1 also shows an
撮影部2は、車両周辺の状況を監視する目的で車両に設けられる。撮影部2は、複数のカメラ21~24を備える。複数のカメラ21~24は、車載カメラである。各車載カメラ21~24は、車両に固定配置される。4つの車載カメラ21~24は、それぞれ、姿勢推定装置1に有線又は無線により接続され、撮影画像を姿勢推定装置1に出力する。なお、各車載カメラ21~24は、例えば経年劣化や外部からの衝撃等によって取付け位置や角度がずれることがある。姿勢推定装置1は、このような取付け状態の変化を監視することができる。
The photographing
詳細には、撮影部2は、フロントカメラ21と、バックカメラ22と、左サイドカメラ23と、右サイドカメラ24と、を備える。フロントカメラ21は、車両の前方を撮影するカメラである。バックカメラ22は、車両の後方を撮影するカメラである。左サイドカメラ23は、車両の左方を撮影するカメラである。右サイドカメラ24は、車両の右方を撮影するカメラである。各車載カメラ21~24は、例えば魚眼レンズを用いて構成され、水平方向の画角θは180度以上である。このため、4つの車載カメラ21~24によって、車両の水平方向における全周囲を撮影することができる。
Specifically, the
なお、撮影部2が備えるカメラの数は、4つ以外の複数であってよい。例えば、バックでの駐車することを支援する目的で車載カメラが搭載されている場合には、撮影部2は、バックカメラ22、左サイドカメラ23、右サイドカメラ24の3つの車載カメラを備える構成であってよい。
Note that the number of cameras included in the photographing
舵角センサ3は、姿勢推定装置1および撮影部2が搭載される車両に備えられ、当該車両のステアリングホイール(ハンドル)の回転角を検出する。舵角センサ3の出力は、CAN(Controller Area Network)バス等の通信バスB1を介して姿勢推定装置1に入力される。
The
図1に示すように、姿勢推定装置1は、取得部11と、制御部12と、記憶部13と、を備える。
As shown in FIG. 1 , posture estimation apparatus 1 includes
取得部11は、複数の車載カメラ21~24のそれぞれから撮影画像を取得する。取得部11は、車載カメラ21~24からアナログ又はデジタルの撮影画像を所定の周期(例えば、1/30秒周期)で時間的に連続して取得する。すなわち、取得部11によって取得される撮影画像の集合体が車載カメラ21~24で撮影された動画像である。そして、取得した撮影画像がアナログの場合には、取得部11は、そのアナログの撮影画像をデジタルの撮影画像に変換(A/D変換)する。取得部11は、取得した撮影画像、或いは、取得及び変換した撮影画像を制御部12に出力する。取得部11から出力される1つの撮影画像が1つのフレーム画像となる。
制御部12は、例えばマイクロコンピュータであり、姿勢推定装置1の全体を統括的に制御する。制御部12は、不図示のCPU(Central Processing Unit)、RAM(Random Access Memory)、及びROM(Read Only Memory)を含む。記憶部13は、例えば、フラッシュメモリ等の不揮発性のメモリであり、各種の情報を記憶する。記憶部13は、ファームウェアとしてのプログラムや各種のデータを記憶する。
The
図1に示す推定部121、確定部122、および、設定部123は、制御部12のCPUが記憶部13に記憶されるプログラムに従って演算処理を実行することにより実現される制御部12の機能である。言い換えると、姿勢推定装置1は、推定部121と、確定部122と、設定部123とを備える。
The estimating
なお、制御部12の推定部121、確定部122、および、設定部123の少なくともいずれか一つは、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等のハードウェアで構成されてもよい。また、推定部121、確定部122、および、設定部123は、概念的な構成要素である。1つの構成要素が実行する機能を複数の構成要素に分散させたり、複数の構成要素が有する機能を1つの構成要素に統合させたりしてよい。また、取得部11は、制御部12のCPUがプログラムに従って演算処理を行うことによって実現される構成でもよい。
At least one of the
推定部121は、車載カメラ21~24の姿勢を推定する推定処理を、撮影画像に基づいて行う。詳細には、推定部121は、各車載カメラ21~24毎に姿勢の推定処理を行う。複数の車載カメラ21~24の姿勢の推定処理は順番に行われる。姿勢の推定処理を行う順番については後述する。推定部121は、4つの車載カメラ21~24のいずれか1つの姿勢の推定を行う場合、姿勢の推定を行うカメラから取得した撮影画像に基づいて推定処理を行う。例えば、推定部121は、フロントカメラ21の姿勢の推定を行う場合、フロントカメラ21から得られる撮影画像に基づいて推定処理を行う。
The
なお、姿勢の推定は、例えば、車載カメラ21~24の取付け角度等、取付け状態に関する値の推定値を求める構成であってよい。ただし、姿勢の推定は、取付け状態に関する具体的な推定値を求めるのではなく、姿勢が所定の状態から変化したか否かだけを推定する構成等であってもよい。本実施形態の姿勢の推定処理の詳細については後述する。
In addition, the posture estimation may be configured to obtain an estimated value of a value related to the mounting state, such as the mounting angle of the vehicle-mounted
確定部122は、姿勢の推定処理により獲得される推定結果の獲得数の累積値が所定の複数回数に到達したカメラについて、複数の推定結果に基づいて姿勢の推定を確定させる。すなわち、本実施形態においては、各車載カメラ21~24について、姿勢の推定結果が1つ得られただけでは、姿勢の推定は確定されない。本実施形態においては、各車載カメラ21~24について、姿勢の推定結果が所定の複数回数以上得られた場合に、獲得された複数の推定結果に基づいて姿勢の推定を確定させる。これによれば、姿勢推定装置1から誤った推定姿勢が出力される可能性を低減することができる。
The
なお、姿勢の推定結果は、例えば姿勢の推定値等、姿勢状態に関する推定情報を含む。換言すると、姿勢状態に関する推定情報が得られなかった場合には、姿勢の推定結果が獲得されたとみなさない。 Note that the posture estimation result includes estimation information related to the posture state, such as an estimated posture value. In other words, if the estimation information about the attitude state is not obtained, it is not considered that the attitude estimation result has been obtained.
また、姿勢の推定を確定させるために用いられる複数の推定結果の数は、所定の複数回数と同じでもよいが、異なってもよい。また、所定の複数回数は、例えば実験結果等に基づいて適宜設定されればよい。所定の複数回数は、姿勢推定の確定結果をできるだけ正確としつつ、姿勢推定の確定結果が得られるまでの時間が長くなりすぎないように設定されることが好ましい。また、本実施形態では、所定の複数回数は、全ての車載カメラ21~24で同じとされている。ただし、所定の複数回数は、各車載カメラ21~24毎に別々に設定されてもよい。すなわち、所定の複数回数は、複数の車載カメラ21~24間で、互いに異なる数であってもよい。
Also, the number of multiple estimation results used to finalize the posture estimation may be the same as or different from the predetermined multiple number of times. Also, the predetermined number of times may be appropriately set based on, for example, experimental results. It is preferable that the predetermined number of times is set so that the finalized result of orientation estimation is as accurate as possible and the time until the finalized result of orientation estimation is obtained is not too long. Further, in the present embodiment, the predetermined number of times is the same for all the vehicle-mounted cameras 21-24. However, the predetermined multiple number of times may be set separately for each vehicle-mounted camera 21-24. That is, the predetermined multiple number of times may differ among the vehicle-mounted
設定部123は、車載カメラ21~24毎の姿勢の推定処理の優先度を、車載カメラ21~24毎に行われる姿勢の推定処理により獲得される推定結果の獲得数に基づいて設定する。詳細には、設定部123は、車載カメラ21~24毎の、推定結果の獲得数の累積値の比較結果に基づいて、車載カメラ21~24毎の推定処理の優先度を設定する。設定には、初期の設定、および、その後に行われる変更設定が含まれてよい。
The
本実施形態によれば、例えば、複数の車載カメラ21~24間において、姿勢の推定結果の獲得数が他に比べて極端に多かったり、少なかったりするカメラが生じた場合に、優先度を調整して推定結果の獲得数の差が大きくなり過ぎることを抑制できる。本実施形態によれば、姿勢推定の確定結果を得られるタイミングを複数の車載カメラ21~24間でできるだけ近づけることができる。例えば、自車両が複数の車載カメラ21~24を用いて自動運転が行われる設定となっている場合、本実施形態の姿勢推定装置1を用いれば、全ての車載カメラ21~24の姿勢が把握できた安全な状態で自動運転を開始できる可能性を高めることができる。
According to the present embodiment, for example, among the plurality of in-
本実施形態では、優先度が上げられると、姿勢の推定処理を実行する頻度が多くされる。また、優先度が下げられると、姿勢の推定処理を実行する頻度が少なくされる。優先度の設定に関する処理の詳細については後述する。 In this embodiment, when the priority is raised, the frequency of executing the posture estimation process is increased. Also, when the priority is lowered, the frequency of executing the posture estimation process is reduced. Details of the processing related to priority setting will be described later.
設定部123は、所定のタイミングで優先度の変更を行うか否かを確認する。本実施形態では、所定のタイミングは、姿勢の推定処理の順番が複数(具体的には4つ)の車載カメラ21~24の全てに1回ずつ与えられる毎に発生する。ただし、複数の車載カメラ21~24の中に優先度の設定により順番が飛ばされるカメラがある場合には、当該カメラに順番が与えられたとみなして所定のタイミングは判断される。このように構成することにより、優先度の変更を適切なタイミングで行うことができる。
The
図2は、第1実施形態の姿勢推定装置1において、4つの車載カメラ21~24の姿勢の推定を行う場合に実行される処理の一例を示すフローチャートである。図2の処理の開始時においては、姿勢の推定結果の獲得数は、4つの車載カメラ21~24のいずれもゼロであり、4つの車載カメラ21~24の間で差がない。このために、4つの車載カメラ21~24毎の姿勢の推定処理の優先度は同じとしている。すなわち、図2の処理の開始時において、4つの車載カメラ21~24の姿勢の推定処理の頻度には差がない。図2の処理の開始時において、4つの車載カメラ21~24に対して等しく順番が与えられる。4つの車載カメラ21~24に対して、予め決められた順番で、姿勢の推定処理が行われる。
FIG. 2 is a flowchart showing an example of processing executed when estimating the postures of the four vehicle-mounted
ステップS1では、推定部121により、フロントカメラ21の姿勢の推定処理が行われる。フロントカメラ21の姿勢の推定処理が終わると、ステップS2に処理が進められる。ステップS2では、推定部121により、バックカメラ22の姿勢の推定処理が行われる。バックカメラ22の姿勢の推定処理が終わると、ステップS3に処理が進められる。ステップS3では、推定部121により、左サイドカメラ23の姿勢の推定処理が行われる。左サイドカメラ23の姿勢の推定処理が終わると、ステップS4に処理が進められる。ステップS4では、推定部121により、右サイドカメラ24の姿勢の推定処理が行われる。右サイドカメラ24の姿勢の推定処理が終わると、ステップS4に処理が進められる。
In step S<b>1 , estimation processing of the attitude of the
なお、本例では、フロントカメラ21、バックカメラ22、左サイドカメラ23、右サイドカメラ24の順番で姿勢の推定処理が行われる構成としているが、これは例示である。他の順番で姿勢の推定処理が行われてもよい。
In this example, the posture estimation processing is performed in the order of the
ここで、車載カメラ21~24の姿勢の推定処理について詳細に説明する。図3は、第1実施形態の姿勢推定装置1による姿勢の推定処理の一例を示すフローチャートである。図3は、図2のステップS1からステップS4における姿勢の推定処理の詳細を示す図である。姿勢の推定処理は、各車載カメラ21~24で同様であるために、以下、フロントカメラ21の場合を例に姿勢の推定処理について説明する。
Here, the processing for estimating the attitudes of the vehicle-mounted
図3に示すように、まず、推定部121は、フロントカメラ21を搭載する自車両が直進しているか否かを監視する(ステップS11)。自車両が直進しているか否かは、例えば、舵角センサ3から得られるステアリングホイールの回転角情報に基づいて判断することができる。例えば、ステアリングホイールの回転角がゼロのときに自車両が完全にまっすぐに進むとした場合に、回転角がゼロの場合だけでなく、回転角がプラス方向とマイナス方向の一定範囲内の値である場合を含めて、自車両が直進していると判断してよい。なお、直進には、前方方向の直進と、後退方向の直進との両方が含まれる。
As shown in FIG. 3, first, the
推定部121は、自車両の直進を検出するまで、ステップS11の監視を繰り返す。言い換えると、推定部121は、自車両が直進しない限り、姿勢の推定処理を進めない。これによれば、直進移動中における特徴点(詳細は後述する)の位置変化を用いて姿勢の推定が行われることになり、自車両の進行方向が曲がっている場合の情報を用いて姿勢の推定が行われないので、姿勢の推定処理が複雑になることを避けることができる。ただし、自車両の進行方向が曲がっているときの特徴点の位置変化を用いて、姿勢の推定処理が進められる構成としてもよい。
The
本実施形態では、自車両が直進していると判断される場合(ステップS11でYes)、推定部121は、取得部11を介してフロントカメラ21から所定フレーム数の撮影画像を取得する(ステップS12)。推定部121は、例えば数フレームから数十フレームの撮影画像を取得する。
In this embodiment, when it is determined that the host vehicle is traveling straight (Yes in step S11), the
次に、推定部121は、各フレーム画像に対して特徴点の抽出を行う(ステップS13)。特徴点は、撮影画像中のエッジの交点など、撮影画像において際立って検出できる点である。特徴点は、例えば路面に描かれた白線のエッジ、路面上のひび、路面上のしみ、路面上の砂利などである。本実施形態では、好ましい形態として、コーナーらしさを示すコーナー度が高い特徴点を抽出する。コーナーとは2つのエッジが交わる部分である。コーナー度は、例えばHarrisオペレータやKLT(Kanade-Lucas-Tomasi)トラッカーなどの公知の検出手法を用いて求めることができる。本実施形態では、4つの車載カメラ21~24間で、特徴点の抽出条件は同じである。ただし、4つの車載カメラ21~24間で、特徴点の抽出条件は異なってよい。
Next, the
図4は、推定部121による特徴点の抽出について説明するための図である。図4は、フロントカメラ21で撮影された撮影画像Pを模式的に示している。撮影画像Pは、自車両のボディが映り込む領域BOを含む。図4に示す例では、路面RSに描かれている制限速度を示す数字の部分にコーナー度が高い第1特徴点FP1及び第2特徴点FP2が存在する。このために、推定部121は、路面RS上に存在する第1特徴点FP1及び第2特徴点FP2を抽出する。
FIG. 4 is a diagram for explaining extraction of feature points by the
なお、図4では、便宜的に2つの特徴点FP1、FP2のみが示されているが、コーナー度が所定の特徴点閾値を超える特徴点が存在すれば、これ以外にも特徴点は抽出される。逆に、コーナー度が所定の特徴点閾値を超える特徴点が存在しない場合には、特徴点は抽出されない。各フレーム画像において、特徴点が1つも抽出されないこともあり得る。 In FIG. 4, only two feature points FP1 and FP2 are shown for the sake of convenience. be. Conversely, if there is no feature point whose corner degree exceeds the predetermined feature point threshold value, no feature point is extracted. It is possible that not even one feature point is extracted from each frame image.
図3に戻って、推定部121は、全てのフレーム画像に対する特徴点の抽出処理が完了すると、オプティカルフローの導出を行う(ステップS14)。オプティカルフローは、異なる時刻で撮影された2つの撮影画像間における特徴点の動きを示す動きベクトルである。本例では、異なる時刻の間隔は、取得部11のフレーム周期と同一である。ただし、これに限らず、異なる時刻の間隔は、例えば、取得部11のフレーム周期の複数倍であってもよい。
Returning to FIG. 3, the estimating
図5は、推定部121によるオプティカルフローの導出について説明するための図である。図5は、図4と同様に便宜的に示された模式図である。図5は、図4に示す撮影画像P(便宜的に前フレームPとする)の撮影後、1フレーム周期経過した後にフロントカメラ21で撮影された撮影画像P’(便宜的に現フレームP’とする)である。図4に示す撮影画像Pの撮影後、1フレーム周期の間、自車両は前方に直進している。図5に示す丸印FP1Pは、図4に示す前フレームPの撮影時点における第1特徴点FP1の位置を示す。図5に示す丸印FP2Pは、図4に示す前フレームPの撮影時点における第2特徴点FP2の位置を示す。
FIG. 5 is a diagram for explaining how the
図5に示すように、自車両が前方に直進すると、自車両の前方に存在する第1特徴点FP1及び第2特徴点FP2は自車両に近づく。すなわち、第1特徴点FP1及び第2特徴点FP2は、現フレームP’と前フレームPとで異なる位置に現れる。推定部121は、現フレームP’の第1特徴点FP1と前フレームPの第1特徴点FP1とを、その近傍の画素値に基づいて対応付け、対応付けた第1特徴点FP1のそれぞれの位置に基づいて、第1特徴点FP1のオプティカルフローOF1を導出する。同様に、推定部121は、現フレームP’の第2特徴点FP2と前フレームPの第2特徴点FP2とを、その近傍の画素値に基づいて対応付け、対応付けた第2特徴点FP2のそれぞれの位置に基づいて、第2特徴点FP2のオプティカルフローOF2を導出する。
As shown in FIG. 5, when the own vehicle goes straight forward, the first feature point FP1 and the second feature point FP2 existing in front of the own vehicle approach the own vehicle. That is, the first feature point FP1 and the second feature point FP2 appear at different positions between the current frame P' and the previous frame P. FIG. The estimating
なお、推定部121は、取得した複数のフレーム画像のそれぞれについて上述のようにしてオプティカルフローの導出を行う。また、各フレーム画像において2つより多くのオプティカルフローが得られる場合がある。このために、推定部121は、姿勢の推定に使うためのオプティカルフローの候補を複数得る場合がある。逆に、推定部121は、姿勢の推定に使うためのオプティカルフローの候補を得られない場合もある。
Note that the
図3に戻って、推定部121は、オプティカルフローの導出を行うと、以後に行われる処理に使用するオプティカルフローを所定の選択条件にしたがって選択する(ステップS15)。所定の選択条件は、以後に行われる姿勢の推定に適した、2つのオプティカルフローで構成される組が選択されるように設定される。所定の選択条件を満たす組が複数存在する場合には、所定の選択条件を満たす全ての組が選択される。所定の選択条件を満たす組の数は、撮影画像から抽出される特徴点の数等によって変動する。なお、所定の選択条件を満たす組が存在しない場合には、以後の処理を行うことができない。このために、姿勢の推定処理は終了される。この段階で姿勢の推定処理が終了された場合には、姿勢の推定結果は獲得されないことになる。本実施形態では、4つの車載カメラ21~24間において、使用するオプティカルフローの選択条件は同じである。ただし、当該選択条件は、4つの車載カメラ21~24間で異なってもよい。
Returning to FIG. 3, after deriving the optical flow, the estimating
ここで、ステップS15で選択された使用オプティカルフローの組に、図5に示す第1オプティカルフローOF1と第2オプティカルフローOF2との組が含まれるものして、ステップS16以降の処理について説明する。 Here, the processing after step S16 will be described on the assumption that the set of optical flows selected in step S15 includes the set of the first optical flow OF1 and the second optical flow OF2 shown in FIG.
推定部121は、第1特徴点FP1のオプティカルフローOF1と第2特徴点FP2のオプティカルフローOF2を用いた処理を進める。推定部121は、特徴点に対し、記憶部13に記憶されているフロントカメラ21の内部パラメータを用いて座標変換を行う。座標変換では、フロントカメラ21の収差補正と、歪補正とが行われる。収差補正は、フロントカメラ21の光学系の収差による歪みを補正するために行われる。具体的には樽型歪みや糸巻歪みなど歪曲収差の補正である。歪み補正は、フロントカメラ21の光学系そのものの歪みを補正するために行われる。具体的には魚眼補正などである。座標変換により、特徴点の座標は、被写体が透視投影によって撮影された場合に二次元画像上で得られる座標に変換される。
The
特徴点の座標変換が行われると、推定部121は、図6に示すように、第1特徴点FP1のオプティカルフローOF1の始点を頂点SP1、第1特徴点FP1のオプティカルフローOF1の終点を頂点EP1、第2特徴点FP1のオプティカルフローOF2の始点を頂点SP2、及び第2特徴点FP2のオプティカルフローOF2の終点を頂点EPとする四角形QLを仮想的に形成する(ステップS16)。以降、説明のために四角形や、該四角形の辺などの幾何的要素を仮想的に形成して用いる。しかし、実際の処理では、特徴点の座標や直線の方向などのベクトル演算に基づき、同等の作用を持つ幾何的要素に基づかない処理としてもよい。
When the feature point coordinate transformation is performed, the
四角形QLが仮想的に形成されると、推定部121は、四角形QLと、記憶部13に記憶されているフロントカメラ21の内部パラメータとを用いて、三次元空間におけるフロントカメラ21の投影面IMG(図7参照)上に四角形QLを移動させ、投影面IMG上での四角形QL1を仮想的に生成する(ステップS17)。
When the quadrangle QL is virtually formed, the
なお説明のため、以下のように辺を定義する。四角形QL1の第1辺SD1は、四角形QLにおいて、頂点SP1および頂点SP2を結んだ辺に対応する。つまり、前フレームPにおける第1特徴点FP1と第2特徴点FP2を結んだ辺に相当する。同様に、四角形QL1の第2辺SD2は、四角形QLにおいて、頂点SP2および頂点EP2を結んだ辺に対応する。つまり、第2特徴点FP2のオプティカルフローOF2に相当する。同様に、四角形QL1の第3辺SD3は、四角形QLにおいて、頂点EP1および頂点EP2を結んだ辺に対応する。つまり、現フレームP’における第1特徴点FP1と第2特徴点FP2とを結んだ辺に相当する。同様に、四角形QL1の第4辺SD4は、四角形QLにおいて、頂点SP1および頂点EP1を結んだ辺に対応する。つまり、第1特徴点FP1のオプティカルフローOF1に相当する。 For the sake of explanation, the edges are defined as follows. A first side SD1 of quadrangle QL1 corresponds to a side connecting vertex SP1 and vertex SP2 in quadrangle QL. That is, it corresponds to the side connecting the first feature point FP1 and the second feature point FP2 in the previous frame P. Similarly, the second side SD2 of quadrangle QL1 corresponds to the side connecting vertex SP2 and vertex EP2 in quadrangle QL. That is, it corresponds to the optical flow OF2 of the second feature point FP2. Similarly, the third side SD3 of quadrangle QL1 corresponds to the side connecting vertex EP1 and vertex EP2 in quadrangle QL. That is, it corresponds to the side connecting the first feature point FP1 and the second feature point FP2 in the current frame P'. Similarly, the fourth side SD4 of quadrangle QL1 corresponds to the side connecting vertex SP1 and vertex EP1 in quadrangle QL. That is, it corresponds to the optical flow OF1 of the first feature point FP1.
また、以下のように面を定義する(図7参照)。四角形QL1の第1辺SD1とフロントカメラ21の光学中心OCとが含まれる面を第1面F1とする。同様に、四角形QL1の第2辺SD2とフロントカメラ21の光学中心OCとが含まれる面を第2面F2とする。同様に、四角形QL1の第3辺SD3とフロントカメラ21の光学中心OCとが含まれる面を第3面F3とする。同様に、四角形QL1の第4辺SD4とフロントカメラ21の光学中心OCとが含まれる面を第4面F4とする。
Also, a surface is defined as follows (see FIG. 7). A plane including the first side SD1 of the quadrangle QL1 and the optical center OC of the
次に、推定部121は、所定の平面との交線が互いに平行になる面の組を2組特定する(ステップS18)。所定の平面とはあらかじめ平面の法線が分かっている面である。具体的には車両が移動を行っている平面であり、つまり路面である。所定の平面は、厳密な平面でなくてもよく、推定部121が所定の平面との交線が互いに平行になる面の組を2組特定する際に平面とみなすことができるものであればよい。
Next, the estimating
本実施形態では、姿勢推定装置1は、自車両が直進している場合に、異なる時刻に撮影された2つの画像から特徴点を抽出し、該特徴点のオプティカルフローを算出する。また、該特徴点は路面などの所定の平面上に位置している静止物から抽出される。したがって、算出されるオプティカルフローは実世界上では、自車両に対する静止物の相対的な位置変化を表す。つまり向きが逆となった自車両の移動ベクトルである。 In this embodiment, the posture estimation apparatus 1 extracts feature points from two images taken at different times and calculates the optical flow of the feature points when the host vehicle is traveling straight. Also, the feature points are extracted from a stationary object positioned on a predetermined plane such as a road surface. Therefore, in the real world, the calculated optical flow represents the relative position change of the stationary object with respect to the host vehicle. In other words, it is the movement vector of the own vehicle whose direction is reversed.
四角形QL1の第2辺SD2と第4辺SD4とは、共に特徴点のオプティカルフローに対応するので、共に実世界上では自車両の移動ベクトルに相当する。したがって、路面上では互いに平行となると想定される。 The second side SD2 and the fourth side SD4 of the quadrangle QL1 both correspond to the optical flow of the feature points, and thus both correspond to the movement vector of the own vehicle in the real world. Therefore, it is assumed that they are parallel to each other on the road surface.
また、四角形QL1の第1辺SD1と第3辺SD3とは、共に特徴点同士の位置関係なので、実世界上では自車両の移動に伴う静止物同士の位置関係に相当する。移動前の位置関係が第1辺SD1に相当し、移動後の位置関係が第3辺SD3に相当する。このとき静止物の位置は変わらないため、移動前後で位置関係は変わらない。したがって、路面上ではこれも互いに平行となると想定される。 Further, since the first side SD1 and the third side SD3 of the quadrangle QL1 are both in the positional relationship between feature points, they correspond to the positional relationship between stationary objects accompanying the movement of the own vehicle in the real world. The positional relationship before movement corresponds to the first side SD1, and the positional relationship after movement corresponds to the third side SD3. Since the position of the stationary object does not change at this time, the positional relationship does not change before and after the movement. Therefore, it is assumed that they are also parallel to each other on the road surface.
したがって、推定部121は、路面との交線が平行な面として、第2面F2と第4面F4との組と、第1面F1と第3面F3との組と、の2つの組を特定する。つまり、推定部121は、オプティカルフローを含む面同士を1つの組とし、同時刻に撮影された特徴点を含む面同士を他の組として、計2つの組を特定する。
Therefore, the estimating
なお、図7において四角形QL2は、現フレームP’の撮影時点での第1特徴点FP1の3次元空間(実世界)上の位置、現フレームP’の撮影時点での第2特徴点FP2の3次元空間上の位置、前フレームPの撮影時点での第1特徴点FP1の3次元空間上の位置、及び前フレームPの撮影時点での第2特徴点FP2の3次元空間上の位置を頂点とする四角形である。第1面F1は、四角形QL2の第1辺SD11を含む。同様に、第2面F2は四角形QL2の第2辺SD12を含み、第3面F3は四角形QL2の第3辺SD13を含み、第4面F4は四角形QL2の第4辺SD14を含む。このとき、上記のように四角形QL2は路面上に形成される平行四辺形であると想定される。 In FIG. 7, a rectangle QL2 represents the position of the first feature point FP1 in the three-dimensional space (real world) at the time of shooting the current frame P', and the position of the second feature point FP2 at the time of shooting the current frame P'. The position in the three-dimensional space, the position in the three-dimensional space of the first feature point FP1 at the time of capturing the previous frame P, and the position in the three-dimensional space of the second feature point FP2 at the time of capturing the previous frame P are It is a rectangle with vertices. The first face F1 includes the first side SD11 of the quadrangle QL2. Similarly, the second surface F2 includes the second side SD12 of the quadrilateral QL2, the third surface F3 includes the third side SD13 of the quadrilateral QL2, and the fourth surface F4 includes the fourth side SD14 of the quadrilateral QL2. At this time, the quadrangle QL2 is assumed to be a parallelogram formed on the road surface as described above.
次に、推定部121は、路面の法線を算出する(ステップS19)。まず、推定部121は、先に特定した面の組の一方である第1面F1と第3面F3とに基づき、面同士の交線の方向を求める。詳細には、第1面F1と第3面F3との交線CL1の向きを求める(図8参照)。交線CL1の方向ベクトルV1は、第1面F1の法線ベクトル及び第3面F3の法線ベクトルそれぞれと垂直なベクトルである。したがって、推定部121は、第1面F1の法線ベクトルと第3面F3の法線ベクトルとの外積により、交線CL1の方向ベクトルV1を求める。第1面F1と第3面F3は、路面との交線が平行となるため、方向ベクトルV1は路面と平行になる。
Next, the
同様に、推定部121は、先に特定した面の組の他方である第2面F2と第4面F4との交線の方向を求める。詳細には第2面F2と第4面F4との交線CL2の向きを求める(図9参照)。交線CL2の方向ベクトルV2は、第2面F2の法線ベクトル及び第4面F4の法線ベクトルそれぞれと垂直なベクトルである。したがって、推定部121は、第2面F2の法線ベクトルと第4面F4の法線ベクトルとの外積により、交線CL2の方向ベクトルV2を求める。第2面F2と第4面F4も同様に、路面との交線が平行となるため、方向ベクトルV2は路面と平行になる。
Similarly, the estimating
推定部121は、方向ベクトルV1と方向ベクトルV2との外積により、四角形QL2の面の法線、すなわち路面の法線を算出する。推定部121が算出した路面の法線はフロントカメラ21のカメラ座標系で算出されるため、実際の路面の法線である垂直方向との違いから3次元空間の座標系を求め、路面に対するフロントカメラ21の姿勢を推定することができる。その推定結果から推定部121は自車両に対するフロントカメラ21の姿勢を推定する(ステップS20)。なお、ステップS19の算出処理は、例えば公知のARToolkitを利用して実行することができる。
The estimating
ステップS20における姿勢推定が終了すると、推定部121は、ステップS15で選択した全てのオプティカルフローの組について、姿勢の推定が完了したか否かを確認する(ステップS21)。全ての組に対して姿勢の推定が完了している場合には(ステップS21でYes)、図3に示すフローが終了する。一方、全ての組に対して姿勢の推定が完了していない場合には(ステップS21でNo)、ステップS16に戻ってステップS16以降の処理が繰り返される。
When the orientation estimation in step S20 is completed, the
姿勢推定装置1は、自車両の移動を利用して、自律的に所定の平面との交線が互いに平行になる面の組を2組特定することで、特徴点の抽出誤差のみが推定精度に影響するカメラの姿勢推定を行うことができる。すなわち、姿勢推定装置1は、誤差要因が少ないカメラの姿勢推定を行うことができる。したがって、姿勢推定装置1は、カメラの姿勢を精度良く推定することができる。 The attitude estimation apparatus 1 uses the movement of the own vehicle to autonomously identify two sets of planes whose intersection lines with a predetermined plane are parallel to each other, so that only the feature point extraction error is the estimation accuracy. can be used to estimate the pose of the camera, which affects the That is, the posture estimation device 1 can perform posture estimation of the camera with few error factors. Therefore, the posture estimation device 1 can accurately estimate the posture of the camera.
なお、上記の説明ではフロントカメラ21の光学中心OCと、四角形QL1の1つの辺を含む平面を特定するとしたがこの限りではない。当該平面の法線方向の特定をもって平面を特定するとしてもよい。例えば光学中心OCから各頂点への方向ベクトルの外積により平面の法線方向を求め、該法線方向によって面を特定するとしてもよい。この場合、第1面F1の法線方向と第3面F3の法線方向とを1つの組とし、第2面F2の法線方向と第4面F4の法線方向とを他の組として2つの組を特定するとよい。
In the above description, the plane including the optical center OC of the
また、面は平行移動させてもよい。例えば第1面F1の代わりに、第1面F1を平行移動させた面を第3面F3と組としてもよい。平行移動しても所定の平面との交線の向きは変わらないからである。 Also, the plane may be translated. For example, instead of the first plane F1, a plane translated from the first plane F1 may be paired with the third plane F3. This is because the direction of the line of intersection with a predetermined plane does not change even if it is translated.
図2に戻って、ステップS5では、確定部122が所定の条件に従って姿勢の推定を確定させる処理を行う。具体的には、確定部122は、4つの車載カメラ21~24のそれぞれについて姿勢の推定結果の獲得数の累積値を求める。第1回目の姿勢の推定処理後においては、得られた獲得数が、そのまま累積値になる。第2回目以降においては、前回得られた累積値に、今回得られた獲得数を加算して獲得数の累積値が得られる。
Returning to FIG. 2, in step S5, the
確定部122は、4つの車載カメラ21~24のそれぞれについて、獲得数の累積値を所定の複数回数と比較する。獲得数の累積値が所定の複数回数以上に到達したカメラについて、確定部122は、その時点で得られている複数の推定結果に基づき姿勢の推定を確定させる。確定部122は、例えば、複数の推定結果の平均値、複数の推定結果から作成されるヒストグラムの中央値やピーク値等を姿勢推定の確定値とする。獲得数の累積値が所定の複数回数以上に到達しないカメラについては、姿勢の推定を確定させないと判断され、姿勢推定は確定されない。確定部122は、推定確定処理が完了すると、次のステップS6に処理を進める。
The
ステップS6では、確定部122は、全ての車載カメラ21~24について姿勢の推定が確定されたか否かを確認する。全ての車載カメラ21~24について姿勢の推定が確定されている場合には(ステップS6でYes)、図2に示す処理が終了する。この場合は、全ての車載カメラ21~24について姿勢の推定が確定されており、姿勢推定の確定結果が姿勢推定装置1から出力可能になる。なお、姿勢推定が確定したカメラが発生するたびに、姿勢推定の確定結果が外部に出力されてよい。姿勢推定の確定結果に基づいて、例えば、車載カメラ21~24の取付けのずれが生じた状態であるか否かが判定される。車載カメラ21~24の取付けのずれが生じた状態であると判定された場合、例えば、当該異常事態が自車両のユーザに報知される。これにより、自車両のユーザはディーラによるカメラの取付調整を依頼する等の対策をとることが可能となる。
In step S6, the confirming
また、各車載カメラ21~24の姿勢推定の確定結果は、各車載カメラ21~24のパラメータの補正に利用されてよい。これにより、車載カメラ21~24の取付けのずれが生じても、そのずれに応じたカメラのキャリブレーションが実行されることになり、車載カメラ21~24の取付けのずれが撮影画像に及ぼす悪影響を抑制することができる。また、姿勢の推定結果は、複数の車両とネットワークにより通信可能に設けられるセンターに撮影画像を送信する場合に、撮影画像とセットにしてセンターに送信されてもよい。これにより、センターでの撮影情報の取り扱いを適切に行うことができる。 Further, the confirmed result of the posture estimation of each of the vehicle-mounted cameras 21-24 may be used for correcting the parameters of each of the vehicle-mounted cameras 21-24. As a result, even if there is a misalignment in the mounting of the vehicle-mounted cameras 21-24, camera calibration is executed according to the misalignment, and the adverse effect of the mounting misalignment of the vehicle-mounted cameras 21-24 on the captured image is eliminated. can be suppressed. Further, when the photographed images are transmitted to a center which is provided so as to be able to communicate with a plurality of vehicles via a network, the posture estimation result may be transmitted to the center together with the photographed images. As a result, it is possible to appropriately handle the photographing information at the center.
姿勢の推定が確定されていない車載カメラ21~24が存在する場合には(ステップS6でNo)、ステップS7に処理が進められる。
If there are
ステップS7では、設定部123により、車載カメラ21~24毎の優先度を変更する必要があるか否かが判定される。図10は、第1実施形態の姿勢推定装置1における優先度変更の判定処理の一例を示すフローチャートである。図10は、図2におけるステップS7の処理の詳細を示すフローチャートである。
In step S7, the
図10に示すように、まず、設定部123は、姿勢の推定が確定した車載カメラ21~24があるか否かを確認する(ステップS71)。詳細には、設定部123は、直前に行われた推定確定処理で新たに姿勢の推定が確定したカメラが発生した場合、姿勢の推定が確定した車載カメラ21~24があると判断する。そして、設定部123は、姿勢の推定が確定した車載カメラ21~24がある場合(ステップS71でYes)、優先度の変更が必要と判定する(ステップS72)。
As shown in FIG. 10, first, the
すなわち、本実施形態では、設定部123は、姿勢の推定が確定されたカメラが発生すると、優先度を変更する。これによると、姿勢の推定を確定させるためにデータの蓄積が必要なカメラに対して優先的に姿勢の推定処理を行うことができる。
That is, in the present embodiment, the
一方、設定部123は、直前に行われた推定確定処理で新たに姿勢の推定が確定したカメラが発生しなかった場合、姿勢の推定が確定した車載カメラ21~24がないと判断して(ステップS71でNo)、次の処理を行う。詳細には、設定部123は、4つの車載カメラ21~24のそれぞれについて得られた推定結果の獲得数の累積値の中から、最大数と最小数を抽出する。そして、設定部123は、最大数と最小数と差が所定閾値以上になったか否かを確認する(ステップS73)。
On the other hand, if there is no new camera whose orientation has been estimated in the immediately preceding estimation confirmation processing, the
設定部123は、最大数と最小数と差が所定閾値以上になった場合(ステップS73でYes)、ステップS72に処理を進める。すなわち、本実施形態では、カメラ21~24毎に得られる獲得数の累積値の最大数と最小数との差が所定閾値以上になると、優先度を変更する。これによると、複数のカメラ21~24間において、推定結果の獲得数の累積値に偏りが発生することを抑制できる。
If the difference between the maximum number and the minimum number is greater than or equal to the predetermined threshold (Yes in step S73), the
一方、設定部123は、最大数と最小数と差が所定閾値以上に到達していない場合(ステップS73でNo)、前回の優先度変更の判定処理の際に、最大数と最小数との差が所定閾値以上であったか否かを確認する(ステップS74)。設定部123は、前回の優先度変更の判定処理の際に、最大数と最小数との差が所定閾値以上であった場合(ステップS74でYes)、ステップS72に処理を進める。
On the other hand, if the difference between the maximum number and the minimum number has not reached the predetermined threshold value or more (No in step S73), the
すなわち、本実施形態では、設定部123は、最大数と最小数との差が所定閾値以上になった後に所定閾値より小さくなった場合に優先度を変更する。これによると、優先度の設定を適切に見直して推定結果の獲得数の累積値に偏りが発生することを抑制できる。
That is, in the present embodiment, the
設定部123は、前回の優先度変更の判定処理の際に、最大数と最小数との差が所定閾値より小さかった場合(ステップS74でNo)、優先度の変更が不要と判定する(ステップS75)。
When the difference between the maximum number and the minimum number is smaller than the predetermined threshold value in the previous priority change determination process (No in step S74), the
図2に戻って、ステップS7において、優先度の変更を行うと判定されると(ステップS7でYes)、ステップS8に処理が進められる。ステップS7において、優先度の変更が不要と判定されると(ステップS7でNo)、ステップS10に処理が進められる。 Returning to FIG. 2, when it is determined in step S7 that the priority is to be changed (Yes in step S7), the process proceeds to step S8. If it is determined in step S7 that the priority need not be changed (No in step S7), the process proceeds to step S10.
ステップS8では、設定部123が優先度の設定を変更する。設定部123は、姿勢の推定が確定した車載カメラ21~24がある場合には、当該カメラの優先度を下げる。設定部123は、車載カメラ21~24毎に得られる推定結果の獲得数の累積値の、最大数と最小数との差が所定閾値以上になっている場合、推定結果の獲得数の累積値が多いカメラの優先度を下げる。設定部123は、最大数と最小数との差が所定閾値以上になった後に所定閾値より小さくなったカメラが存在する場合、先の回で下げた優先度を元に戻す。本実施形態では、優先度が下げられると、姿勢の推定処理の順番が飛ばされる。優先度の低いカメラの順番を飛ばすことにより、優先度の高いカメラの処理を時間的に優先して進めることができる。設定部123による優先度の設定が行われると、次のステップS9に処理が進められる。
In step S8, the
ステップS9では、設定部123は、設定変更された優先度にしたがって、推定処理の対象となるカメラについて、順に姿勢の推定処理を行う。推定処理の対象とされた全てのカメラに対して推定処理を終わると、ステップS5の処理に戻る。
In step S<b>9 , the
ステップS10では、設定部123は、先の回と同じ優先度を維持して、推定対象となるカメラについて、順に姿勢の推定処理を行う。推定処理の対象とされた全てのカメラに対して推定処理を終わると、ステップS5の処理に戻る。
In step S<b>10 , the
図11は、第1実施形態の姿勢推定装置1における優先度の設定について説明するための図である。図11に示す具体例に基づいて、姿勢推定装置1における優先度の設定について更に説明する。図11に示す例では、デフォルトにおいて4つの車載カメラ21~24に優先度の差はない。デフォルトにおいて、各車載カメラ21~24に対して1回ずつ姿勢の推定処理の順番が与えられる。図11において、実施は姿勢の推定処理が実行されることを指し、未実施は姿勢の推定処理が実行されないことを指す。図11に示す累積値は、姿勢の推定結果の獲得数の累積値である。図11に示す例では、累積値が80(=所定の複数回)以上に到達すると姿勢の推定が確定される。累積値の最大数と最小数との差を判定する所定閾値は20である。
FIG. 11 is a diagram for explaining priority setting in the posture estimation apparatus 1 of the first embodiment. The priority setting in the posture estimation device 1 will be further described based on the specific example shown in FIG. 11 . In the example shown in FIG. 11, there is no priority difference between the four vehicle-mounted
第1回目においては、推定処理の優先度に差がなく、フロントカメラ21、バックカメラ22、左サイドカメラ23、右サイドカメラ24の順に推定処理が行われる。推定処理後の各車載カメラ21~24の累積値はいずれも10であり、いずれのカメラにおいても姿勢の推定は確定されない。また、累積値の最大数と最小数の差はゼロであり、所定閾値(=20)より小さい。更に、初回のために、先の回のデータはなく、前回に累積値の最大数と最小数の差が所定閾値以上であったという事実もない。したがって、4つの車載カメラ21~24の推定処理後に行われる優先度変更の判定処理において、優先度の設定変更不要と判定される。
In the first time, there is no difference in the priority of the estimation process, and the estimation process is performed in the order of the
第2回目においては、第1回目と同様に、フロントカメラ21、バックカメラ22、左サイドカメラ23、右サイドカメラ24の順に推定処理が行われる。推定処理後の各車載カメラ21~24の累積値はいずれも80以上に到達しておらず、いずれのカメラにおいても姿勢の推定は確定されない。一方、累積値の最大数(=50)と最小数(=20)の差は30であり、所定閾値(=20)より大きい。このために、4つの車載カメラ21~24の推定処理後に行われる優先度変更の判定処理において、優先度の設定変更必要と判定される。この例では、累積値が最小数に対して20以上(この設定は適宜変更されてよい)大きくなっているカメラについて、優先度が下げられる。すなわち、フロントカメラ21とバックカメラ22とは優先度が下げられ、次回(第3回目)の順番が飛ばされる。
In the second time, estimation processing is performed in the order of the
第3回目においては、左サイドカメラ23、右サイドカメラ24の順に推定処理が行われる。推定処理後の各車載カメラ21~24の累積値はいずれも80以上に到達しておらず、いずれのカメラにおいても姿勢の推定は確定されない。累積値の最大数(=50)と最小数(=40)の差は所定数(=20)より小さい。ただし、前回確認時において、累積値の最大数と最小数の差は所定閾値より大きかったので、最大数と最小数との差が所定閾値以上になった後に所定閾値より小さくなった場合に該当する。このために、2つの車載カメラ23、24の推定処理後に行われる優先度変更の判定処理において、優先度の設定変更必要と判定される。具体的には、前回優先度が下げられたフロントカメラ21とバックカメラ22との優先度の設定が元に戻される。すなわち、4つの車載カメラ21~24の推定処理の優先度に差がなくなり、次回(第4回目)は、4つの車載カメラ21~24の推定処理が行われる。
In the third time, estimation processing is performed in order of the
第4回目においては、フロントカメラ21、バックカメラ22、左サイドカメラ23、右サイドカメラ24の順に推定処理が行われる。推定処理後において、フロントカメラ21について、累積値が80以上に到達しており、姿勢の推定が確定される。このために、4つの車載カメラ21~24の推定処理後に行われる優先度変更の判定処理において、優先度の設定変更必要と判定される。具体的には、姿勢の推定が確定されたフロントカメラ21の優先度の設定が下げられ、次回(第5回目)の順番が飛ばされる。
In the fourth time, estimation processing is performed in order of the
なお、本例では、第4回目において、累積値の最大数は80、最小数は65となる。このために、最大数と最小数との差は所定閾値(=20)より小さく、この観点に基づいて優先度の設定は変更されない。ただし、右サイドカメラ24の累積値が50であったとする。この場合には、最大数(=80)と最小数(=50)との差が所定閾値(=20)以上となるために、最大数と最小数との差を考慮して優先度の設定が行われる。例えば、最小数より累積値が所定数(本例では20)以上となるバックカメラ22と左サイドカメラ23も優先度が下げられる。
In this example, the maximum number of accumulated values is 80 and the minimum number is 65 at the fourth time. For this reason, the difference between the maximum number and the minimum number is smaller than a predetermined threshold (=20), and the priority setting is not changed based on this point of view. However, it is assumed that the cumulative value of the
第5回目においては、バックカメラ22、左サイドカメラ23、右サイドカメラ24の順に推定処理が行われる。推定処理を行った3つのカメラ22~24の全てについて、累積値が80以上に到達しており、これらのカメラ22~24について、姿勢の推定が確定される。この場合、4つの車載カメラ21~24の全てについて姿勢の推定が確定されたことになるために、一連の姿勢の推定処理は一旦終了される。
In the fifth time, estimation processing is performed in the order of the
なお、以上においては、累積値の最大数と最小数を判断するに際して、常に、4つの車載カメラ21~24の全てを使う構成としているが、このような構成でなくてもよい。例えば、姿勢の推定が確定したカメラが発生した場合には、当該カメラを除外して、累積値の最大数と最小数との比較が行われる構成としてもよい。すなわち、姿勢の推定処理が確定していないカメラにのみ注目して累積値の最大数と最小数との比較が行われる構成としてもよい。
In the above description, all the four
<2.第2実施形態>
次に、第2実施形態の姿勢推定装置について説明する。第2実施形態の説明にあたっては、第1実施形態と重複する内容については、特に説明の必要がない場合には説明を省略する。
<2. Second Embodiment>
Next, a posture estimation device according to the second embodiment will be described. In the explanation of the second embodiment, the explanation of the contents overlapping with the first embodiment will be omitted if there is no particular need for explanation.
図12は、第2実施形態に係る姿勢推定装置1Aの構成を説明するための図である。図12に示すように、第2実施形態においては、制御部12AのCPUが記憶部13に記憶されるプログラムに従って演算処理を実行することにより実現される機能に判断部124が含まれる。すなわち、姿勢推定装置1Aが判断部124を備える。この点が、第1実施形態と異なる。
FIG. 12 is a diagram for explaining the configuration of a
判断部124は、複数の車載カメラ21~24の中に、推定結果の獲得数以外に基づく優先条件を有するカメラが存在するか否かを判断する。推定結果の獲得数以外に基づく優先条件は、例えば、運転者の視界に基づく優先条件、自車両の操作状況に基づく優先条件、ナビゲーション装置からの情報に基づく優先条件等であってよい。
The
運転者の視界に基づく優先条件は、例えば、予め記憶部13に記憶されている。例えば、運転者の視界が確保し易い方向を撮影するフロントカメラ21や右サイドカメラ24(運転席が右側を想定)は、運転者の視界が確保し難い方向を撮影するバックカメラ22や左サイドカメラ23に比べて、推定処理の優先度が下げられる。
A priority condition based on the driver's field of view is stored in the
自車両の操作状況に基づく優先条件は、例えば、通信バスB1を介して舵角センサ3から得られる情報や、不図示のシフトセンサから得られる情報等に基づいて判断部124が設定してもよいし、外部から入力されてもよい。例えば、シフトセンサが後退である場合には、バックカメラ22の推定処理の優先度が上げられる。
The priority condition based on the operation status of the host vehicle may be set by the
ナビゲーション装置からの情報に基づく優先条件は、姿勢推定装置1Aに接続される不図示のナビゲーション装置から得られる情報に基づいて判断部124が設定してもよいし、外部から入力されてもよい。例えば、ナビゲーション装置において設定された経路からこの先において右折や左折が想定される場合には、当該曲がる方向に対応したカメラの推定処理の優先度が上げられる。
The priority condition based on the information from the navigation device may be set by the
設定部123は、優先条件を有する車載カメラ21~24が存在する場合に、当該優先条件に基づいて推定処理の優先度を設定する。これによれば、車両の運転シーン等に合わせて推定処理の優先度の設定の仕方を変更することができ、運転シーンに適したカメラの姿勢推定を行うことができる。
The
図13は、第2実施形態の姿勢推定装置1Aにおいて、4つの車載カメラ21~24の姿勢の推定を行う場合に実行される処理の一例を示すフローチャートである。図13の処理の開始時においては、4つの車載カメラ21~24毎の姿勢の推定処理の優先度は同じとされる。すなわち、図13の処理の開始時において、4つの車載カメラ21~24の姿勢の推定処理の頻度には差がない。なお、本例では、新しい優先条件が発生すると、古い優先条件は更新される。また、優先条件にしたがって、優先対象のカメラの姿勢の推定が確定した場合、新たに優先条件が発生しない限り、優先条件はないものとして扱う。ただし、この優先条件の扱いは例示にすぎず、適宜変更されてよい。
FIG. 13 is a flow chart showing an example of processing executed when estimating the postures of the four vehicle-mounted
ステップS31では、判断部124は、推定処理の獲得数以外に基づく優先条件(以下、単に優先条件と記載することがある)を有するカメラが存在するか否かを確認する。判断部124は、記憶部13に記憶される情報、通信バスB1を利用して得られるCAN情報、ナビゲーション装置から得られるルート情報等を確認することにより、優先条件を有するカメラが存在するか否かを判断する。判断部124により優先条件を有するカメラがあると判断された場合(ステップS31でYes)、ステップS32に処理が進められる。一方、判断部124により優先条件を有するカメラがないと判断された場合(ステップS31でNo)、ステップS34に処理が進められる。
In step S31, the
ステップS32では、設定部123は、優先条件に従って各車載カメラ21~24の優先度を設定する。これにより、優先度の設定が処理の開始時の設定から変更される。設定部123により優先度が設定されると、ステップS33に処理が進められる。
In step S32, the
ステップS33では、変更設定された優先度にしたがって、姿勢の推定処理の対象となるカメラについて、推定処理が順に行われる。なお、姿勢の推定対象となるカメラは、複数のことも単数のこともあり得る。推定対象の対象とされた全てのカメラに対して推定処理が終わると、ステップS35に処理が進められる。 In step S33, the estimation process is sequentially performed for the cameras to be subjected to the attitude estimation process according to the changed priority. It should be noted that there may be a plurality of cameras or a single camera whose orientation is to be estimated. When the estimation process is completed for all the cameras to be estimated, the process proceeds to step S35.
ステップS34では、優先条件を有するカメラがないために優先度が変更されず、処理の開始時に設定された優先度(全てのカメラ21~24で同じ)で、推定処理の対象となるカメラの推定処理が順に行われる。本例では、フロントカメラ21、バックカメラ22、左サイドカメラ23、右サイドカメラ24の順に姿勢の推定処理が行われる。4つの車載カメラ21~24の全てについて姿勢の推定処理が終わると、ステップS35に処理が進められる。
In step S34, the priority is not changed because there is no camera with a priority condition, and the camera to be the target of the estimation process is estimated with the priority set at the start of the process (same for all
ステップS35では、確定部122が所定の条件に従って姿勢の推定を確定させる処理を行う。当該処理は、先に説明した図2のステップS5と同じために説明を省略する。確定部122は、推定確定処理が完了すると、次のステップS36に処理を進める。
In step S35, the
ステップS36では、確定部122は、全ての車載カメラ21~24について姿勢の推定が確定されたか否かを確認する。全ての車載カメラ21~24について姿勢の推定が確定されている場合には(ステップS36でYes)、図13に示す処理が終了する。姿勢の推定が確定されていない車載カメラ21~24が存在する場合には(ステップS36でNo)、ステップS37に処理が進められる。
In step S36, the
ステップS37では、設定部123により、車載カメラ21~24毎の優先度を変更する必要があるか否かが判定される。図14は、第2実施形態の姿勢推定装置1Aにおける優先度変更の判定処理の一例を示すフローチャートである。図14は、図13におけるステップS37の処理の詳細を示す図である。
In step S37, the
設定部123は、まず、新たな優先条件が発生したか否かを確認する(ステップS371)。新たな優先条件は、その時点で設定されているカメラ21~24毎の優先度において加味されていない優先条件である。新たな優先条件が発生した場合には(ステップS371でYes)、設定部123は、優先度の変更が必要と判定する(ステップS372)。
The
新たな優先条件が発生していない場合には(ステップS371でNo)、設定部123は、姿勢の推定が確定した車載カメラ21~24があるか否かを確認する(ステップS373)。当該確認処理は、図10のステップS71と同様である。設定部123は、姿勢の推定が確定した車載カメラ21~24がある場合(ステップS373でYes)、優先度の変更が必要と判定する(ステップS372)。
If a new priority condition has not occurred (No in step S371), the
姿勢の推定が確定した車載カメラ21~24がない場合(ステップS373でNo)、設定部123は、現在の優先度が優先条件に従って設定されたものか否かを確認する(ステップS374)。現在の優先度が優先条件に従って設定されたものである場合(ステップS374でYes)、優先度の設定変更不要と判定する(ステップS377)。
If there is no in-
現在の優先度が優先条件に従って設定されたものでない場合(ステップS374でNo)、設定部123は、累積値の最大数と最小数と差が所定閾値以上になったか否かを確認する(ステップS375)。当該処理は、図10に示すステップS73と同じである。この後に行われるステップS376は、図10に示すステップS74と同様である。このため、これらの説明は省略する。
If the current priority is not set according to the priority condition (No in step S374), the
図13に戻って、ステップS37において、優先度の変更を行うと判定されると(ステップS37でYes)、ステップS38に処理が進められる。ステップS37において、優先度の変更が不要と判定されると(ステップS37でNo)、ステップS40に処理が進められる。 Returning to FIG. 13, when it is determined in step S37 that the priority is to be changed (Yes in step S37), the process proceeds to step S38. If it is determined in step S37 that the priority need not be changed (No in step S37), the process proceeds to step S40.
ステップS38~ステップS40の処理は、図2に示すステップ8~ステップS10の処理と同様である。このために説明を省略する。なお、優先度の設定変更を行う場合において、新たな優先条件が発生している場合には、先の優先条件を破棄して新たな優先条件で優先度の設定を行う点は、第1実施形態と異なる。 The processing of steps S38 to S40 is the same as the processing of steps 8 to S10 shown in FIG. For this reason, the description is omitted. In the case of changing the priority setting, if a new priority condition occurs, the previous priority condition is discarded and the priority is set according to the new priority condition. Different from the form.
図15は、第2実施形態の姿勢推定装置1Aにおける優先度の設定について説明するための図である。図15に示す具体例に基づいて、姿勢推定装置1Aにおける優先度の設定について更に説明する。図15に示す例では、記憶部13にバックカメラ22および左サイドカメラ23の推定処理を優先するように優先条件が記憶されている。図15において、実施は姿勢の推定処理が実行されることを指し、未実施は姿勢の推定処理が実行されないことを指す。図15に示す累積値は、姿勢の推定結果の獲得数の累積値である。図15に示す例では、累積値が80(=所定の複数回)以上に到達すると姿勢の推定が確定される。
FIG. 15 is a diagram for explaining priority setting in the
第1回目においては、記憶部13に記憶される優先条件により、バックカメラ22および左サイドカメラ23の姿勢の推定処理の優先度が上げられる。この結果、第1回目においては、フロントカメラ21および右サイドカメラ24の順番が飛ばされ、バックカメラ22、左サイドカメラ23の順に推定処理が行われる。推定処理後のバックカメラ22おの累積値(=30)および左サイドカメラ23の累積値(=10)はいずれも80以上に到達しておらず、いずれのカメラにおいても姿勢の推定は確定されない。また、現在の優先度の設定は優先条件にしたがったものである。したがって、バックカメラ22および左サイドカメラ23の推定処理後に行われる優先度変更の判定処理において、新たな優先条件の発生が認められない場合には、優先度の設定変更不要と判定される。本例では、この段階では新たな優先条件は発生しておらず、優先度の設定は変更されない。
At the first time, the priority of the posture estimation processing of the
なお、本例では、第1回目終了の時点で、バックカメラ22と左サイドカメラ23との間で、累積値の差が大きくなっている。この差をなくすために、第2回目においては、左サイドカメラ23の推定処理が優先される(バックカメラ22の順番が飛ばされる)構成としてもよい。すなわち、優先処理対象とされるカメラ毎に得られる推定結果の獲得数の累積値の、最大数と最小数との差が所定閾値以上になると優先度を変更してもよい。
In this example, at the end of the first time, the difference in accumulated value between the
第2回目においては、第1回目と同様に、バックカメラ22、左サイドカメラ23の順に推定処理が行われる。ここでも、推定処理後のバックカメラ22および左サイドカメラ23の累積値はいずれも80以上に到達しておらず、いずれのカメラにおいても姿勢の推定は確定されない。また、現在の優先度の設定は優先条件にしたがったものである。したがって、バックカメラ22および左サイドカメラ23の推定処理後に行われる優先度変更の判定処理において、新たな優先条件の発生が認められない場合には、優先度の設定変更不要と判定される。本例では、この段階で新たな優先条件が発生する。このために、優先度の設定変更必要と判定される。新たな優先条件は、ナビゲーション装置からこの先に左折予定があるとの情報が得られたことにより発生した条件であり、具体的には、左サイドカメラ23の推定処理を優先するという条件である。新たな優先条件の発生により、優先度の設定が変更される。これにより、次回(第3回目)においては左サイドカメラ23の推定処理のみが行われる。
In the second time, estimation processing is performed in the order of the
第3回目においては、左サイドカメラ23のみ、推定処理が行われる。推定処理後の左サイドカメラ23の累積値は80以上に到達しておらず、姿勢の推定は確定されない。また、現在の優先度の設定は優先条件にしたがったものである。したがって、左サイドカメラ23の推定処理後に行われる優先度変更の判定処理において、新たな優先条件の発生が認められない場合には、優先度の設定変更不要と判定される。本例では、この段階では新たな優先条件は発生しておらず、優先度の設定は変更されない。
At the third time, the estimation process is performed only for the
第4回目においては、左サイドカメラ23のみ、推定処理が行われる。推定処理後の左サイドカメラ23について、累積値が80以上に到達しており、姿勢の推定が確定される。このために、左サイドカメラ23の推定処理後に行われる優先度変更の判定処理において、優先度の設定変更必要と判定される。姿勢の推定が確定された左サイドカメラ23は、優先度の設定が下げられ、次回(第5回目)の順番が飛ばされる。また、左サイドカメラ23の姿勢推定の確定により、優先条件は存在しないことになる。この結果、車載カメラ21~24毎に得られる累積値の最大数(=85)と最小数(=0)との差が所定閾値以上であるか否かの結果が参酌され、これに基づいて優先度が決められる。これにより、累積値が大きいバックカメラ22の優先度が下げられ、次回の順番が飛ばされる。
In the fourth time, estimation processing is performed only for the
第5回目においては、フロントカメラ21、右サイドカメラ24の順に推定処理が行われる。推定処理後のフロントカメラ21および右サイドカメラ24の累積値はいずれも80以上に到達しておらず、先に確定した左サイドカメラ23を除き、姿勢の推定が確定していない。このために、この後も、姿勢推定の確定のための推定処理が、上述した図13等に示すフローチャートにしたがって続けられる。
In the fifth time, the estimation process is performed in the order of the
<3.留意事項>
本明細書における実施形態や変形例の構成は、本発明の例示にすぎない。実施形態や変形例の構成は、本発明の技術的思想を超えない範囲で適宜変更されてもよい。また、複数の実施形態及び変形例は、可能な範囲で組み合わせて実施されてよい。
<3. Notes>
The configurations of the embodiments and modifications in this specification are merely examples of the present invention. The configurations of the embodiments and modifications may be changed as appropriate without departing from the technical idea of the present invention. Also, multiple embodiments and modifications may be implemented in combination within a possible range.
以上におけるカメラの姿勢の推定処理の方法は例示にすぎない。カメラの姿勢の推定処理の方法は、適宜変更されてよい。カメラの姿勢の推定処理は、例えば、撮影画像から抽出される特徴点の動きと、自車両の移動情報(移動量や速度)とを比較して求める構成等であってもよい。 The method of estimating the orientation of the camera described above is merely an example. The method of estimating the orientation of the camera may be changed as appropriate. The estimation processing of the posture of the camera may be performed by, for example, comparing the movement of the feature points extracted from the captured image and the movement information (movement amount and speed) of the own vehicle.
本発明は、自動駐車等の移動体の運転支援を行うカメラの姿勢推定を行うために利用することができる。また、本発明は、ドライブレコーダ等の運転情報を記録するカメラの姿勢推定を行うために利用することができる。また、本発明は、カメラの姿勢の推定情報を利用して撮影画像を補正する補正装置等に利用することができる。また、本発明は、複数の移動体とネットワークにより通信可能に設けられるセンターと連携して動作する装置等に利用することができる。当該装置は、例えば、センターに撮影画像を送信する場合に、カメラの姿勢の推定情報を撮影画像とセットにして送信する構成であってよい。そして、センターでは、カメラの姿勢の推定情報を用いて、各種画像処理(カメラの姿勢も考慮した画像の視点・視方向を変更する処理、例えば車両の車体前方方向の画像に視点・視方向変換した画像を生成する等)、画像を用いた計測処理におけるカメラの姿勢に対する補正処理、カメラ姿勢の経年変化を統計処理(多くの車両のデータ)、等を行いユーザへの有用な提供データを生成する等する。 INDUSTRIAL APPLICABILITY The present invention can be used for estimating the posture of a camera that assists the driving of a moving object such as automatic parking. The present invention can also be used to estimate the orientation of a camera that records driving information, such as a drive recorder. Further, the present invention can be used for a correction device or the like that corrects a photographed image by using the estimation information of the orientation of the camera. Further, the present invention can be used for a device or the like that operates in cooperation with a center that is provided so as to be able to communicate with a plurality of moving bodies via a network. For example, when transmitting a captured image to the center, the apparatus may be configured to transmit estimation information of the orientation of the camera together with the captured image. Then, at the center, using the camera posture estimation information, various image processing (processing to change the viewpoint and viewing direction of the image considering the camera posture, such as changing the viewpoint and viewing direction to the image in front of the vehicle body) ), correction processing for camera posture in measurement processing using images, statistical processing of changes in camera posture over time (data from many vehicles), etc. to generate useful data to be provided to users. and so on.
1、1A 姿勢推定装置
21~24 車載カメラ
11 取得部
121 推定部
122 確定部
123 設定部
124 判断部
1, 1A
Claims (9)
前記カメラの姿勢を推定する推定処理を、前記撮影画像に基づいて行う推定部と、
前記カメラ毎の前記推定処理の優先度を、前記カメラ毎に行われる前記推定処理により獲得される推定結果の獲得数に基づいて設定する設定部と、
を備える、姿勢推定装置。 an acquisition unit that acquires a captured image from each of a plurality of cameras mounted on a moving object;
an estimation unit that performs estimation processing for estimating the orientation of the camera based on the captured image;
a setting unit that sets the priority of the estimation process for each camera based on the number of estimation results obtained by the estimation process performed for each camera;
A posture estimation device comprising:
前記設定部は、前記優先条件を有するカメラが存在する場合に、前記優先条件に基づいて前記優先度を設定する、請求項1から4のいずれか1項に記載の姿勢推定装置。 further comprising a determination unit that determines whether or not there is a camera having a priority condition based on a condition other than the number of acquisitions among the plurality of cameras;
The posture estimation apparatus according to any one of claims 1 to 4, wherein when there is a camera having the priority condition, the setting unit sets the priority based on the priority condition.
前記所定のタイミングは、前記推定処理の順番が前記複数のカメラの全てに1回ずつ与えられる毎に発生し、
前記複数のカメラの中に前記優先度の設定により前記順番が飛ばされるカメラがある場合には、当該カメラに前記順番が与えられたとみなして前記所定のタイミングが判断される、請求項1から7のいずれか1項に記載の姿勢推定装置。 The setting unit confirms whether or not to change the priority at a predetermined timing,
The predetermined timing occurs each time the order of the estimation process is given to each of the plurality of cameras,
8. When there is a camera among the plurality of cameras whose order is skipped due to the setting of the priority, the predetermined timing is determined on the assumption that the order is given to the camera. The posture estimation device according to any one of .
前記カメラの姿勢を推定する推定処理を、前記撮影画像に基づいて行う推定工程と、
前記カメラ毎の前記推定処理の優先度を、前記カメラ毎に行われる前記推定処理により獲得される推定結果の獲得数に基づいて設定する設定工程と、
を備える、姿勢推定方法。 an acquisition step of acquiring a photographed image from each of a plurality of cameras mounted on a moving object;
an estimation step of performing an estimation process for estimating the orientation of the camera based on the captured image;
a setting step of setting the priority of the estimation process for each camera based on the number of estimation results obtained by the estimation process performed for each camera;
A pose estimation method comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019152642A JP7236352B2 (en) | 2019-08-23 | 2019-08-23 | Posture estimation device and posture estimation method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019152642A JP7236352B2 (en) | 2019-08-23 | 2019-08-23 | Posture estimation device and posture estimation method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021032678A JP2021032678A (en) | 2021-03-01 |
JP7236352B2 true JP7236352B2 (en) | 2023-03-09 |
Family
ID=74678141
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019152642A Active JP7236352B2 (en) | 2019-08-23 | 2019-08-23 | Posture estimation device and posture estimation method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7236352B2 (en) |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011159186A (en) | 2010-02-03 | 2011-08-18 | Clarion Co Ltd | Drive support device and control method of drive support device |
WO2018181248A1 (en) | 2017-03-31 | 2018-10-04 | パナソニックIpマネジメント株式会社 | Imaging system and correction method |
JP2018177004A (en) | 2017-04-13 | 2018-11-15 | クラリオン株式会社 | Calibration device for on-vehicle camera |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7270499B2 (en) * | 2018-10-10 | 2023-05-10 | 株式会社デンソーテン | Abnormality detection device, abnormality detection method, posture estimation device, and mobile body control system |
-
2019
- 2019-08-23 JP JP2019152642A patent/JP7236352B2/en active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011159186A (en) | 2010-02-03 | 2011-08-18 | Clarion Co Ltd | Drive support device and control method of drive support device |
WO2018181248A1 (en) | 2017-03-31 | 2018-10-04 | パナソニックIpマネジメント株式会社 | Imaging system and correction method |
JP2018177004A (en) | 2017-04-13 | 2018-11-15 | クラリオン株式会社 | Calibration device for on-vehicle camera |
Also Published As
Publication number | Publication date |
---|---|
JP2021032678A (en) | 2021-03-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7270499B2 (en) | Abnormality detection device, abnormality detection method, posture estimation device, and mobile body control system | |
JP7212486B2 (en) | position estimator | |
US20170259830A1 (en) | Moving amount derivation apparatus | |
JP2008102620A (en) | Image processing device | |
JP7256734B2 (en) | Posture estimation device, anomaly detection device, correction device, and posture estimation method | |
JP7445415B2 (en) | Posture estimation device, abnormality detection device, correction device, and posture estimation method | |
JP4735361B2 (en) | Vehicle occupant face orientation detection device and vehicle occupant face orientation detection method | |
JP5959311B2 (en) | Data deriving apparatus and data deriving method | |
JP2019191807A (en) | Abnormality detection device and abnormality detection method | |
JP5173551B2 (en) | Vehicle perimeter monitoring apparatus and camera mounting position / posture information setting correction method applied thereto | |
JP2020068499A (en) | Vehicle periphery image display system and vehicle periphery image display method | |
JP7000383B2 (en) | Image processing device and image processing method | |
JP7303064B2 (en) | Image processing device and image processing method | |
JP6407596B2 (en) | Image processing apparatus and driving support system | |
JP7236352B2 (en) | Posture estimation device and posture estimation method | |
JP5166111B2 (en) | Vehicle periphery monitoring device | |
JP7311407B2 (en) | Posture estimation device and posture estimation method | |
JP7009209B2 (en) | Camera misalignment detection device, camera misalignment detection method and abnormality detection device | |
JP2018136739A (en) | Calibration device | |
JP6799030B2 (en) | Image recognition device, image recognition method, and parking support system | |
JP6960827B2 (en) | Road surface area detector | |
JP6941949B2 (en) | Vehicle image display device | |
JP7380443B2 (en) | Partial image generation device and computer program for partial image generation | |
JP7237773B2 (en) | Posture estimation device, anomaly detection device, correction device, and posture estimation method | |
JP2008042759A (en) | Image processing apparatus |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220331 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230119 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230207 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230227 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7236352 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |