JP7236352B2 - Posture estimation device and posture estimation method - Google Patents

Posture estimation device and posture estimation method Download PDF

Info

Publication number
JP7236352B2
JP7236352B2 JP2019152642A JP2019152642A JP7236352B2 JP 7236352 B2 JP7236352 B2 JP 7236352B2 JP 2019152642 A JP2019152642 A JP 2019152642A JP 2019152642 A JP2019152642 A JP 2019152642A JP 7236352 B2 JP7236352 B2 JP 7236352B2
Authority
JP
Japan
Prior art keywords
estimation
camera
priority
vehicle
cameras
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019152642A
Other languages
Japanese (ja)
Other versions
JP2021032678A (en
Inventor
康司 大西
隆幸 小笹
直士 垣田
輝彦 上林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Ten Ltd
Original Assignee
Denso Ten Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Ten Ltd filed Critical Denso Ten Ltd
Priority to JP2019152642A priority Critical patent/JP7236352B2/en
Publication of JP2021032678A publication Critical patent/JP2021032678A/en
Application granted granted Critical
Publication of JP7236352B2 publication Critical patent/JP7236352B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、姿勢推定装置および姿勢推定方法に関する。 The present invention relates to a posture estimation device and a posture estimation method.

従来、車載カメラの取付け位置や取付け角度などの外部パラメータを自動的に校正する車載カメラのキャリブレーション装置が知られる(例えば、特許文献1参照)。 Conventionally, there is known an on-vehicle camera calibration device that automatically calibrates external parameters such as an attachment position and an attachment angle of an on-vehicle camera (see, for example, Patent Document 1).

特許文献1に開示されるキャリブレーション装置は、車両状態判定部と、カメラ毎処理部と、動作制御部とを備える。車両状態判定部は、外部から入力される車両情報から車両状態を判定する。カメラ毎処理部は、カメラのそれぞれに対して配置されており、カメラのそれぞれからの入力情報を処理する。動作制御部は、車両状態判定部からの判定結果と、カメラ毎処理部からの出力から、各カメラの動作モードを決定し、どのカメラの校正を優先するかの判断を行う。カメラ毎処理部は、カメラが撮影した画像から特徴点の現れ方を判断し動作制御部に伝える。 The calibration device disclosed in Patent Literature 1 includes a vehicle state determination section, a camera-by-camera processing section, and an operation control section. The vehicle state determination unit determines the vehicle state from vehicle information input from the outside. A per-camera processing unit is arranged for each of the cameras and processes input information from each of the cameras. The operation control unit determines the operation mode of each camera based on the determination result from the vehicle state determination unit and the output from the camera-by-camera processing unit, and determines which camera should be prioritized for calibration. The camera-by-camera processing unit determines how the feature points appear from the image captured by the camera, and notifies the operation control unit.

特開2018-177004号公報JP 2018-177004 A

例えば走行する路面の状態等により、複数のカメラ間で取得することができる特徴点の数に偏りが生じることがある。このような場合、複数のカメラ間でカメラの取付け状態(姿勢)の把握に要する時間に大きな差が生じる可能性がある。 For example, the number of feature points that can be acquired by a plurality of cameras may be biased due to the condition of the road surface on which the vehicle is traveling. In such a case, there may be a large difference in the time required to grasp the mounting state (orientation) of the cameras among the plurality of cameras.

ところで、例えば自動駐車時等には、通常、複数のカメラが同時に使用される。このために、複数のカメラのそれぞれは、自動駐車等の開始時点で、カメラの姿勢が把握されていることが望まれる。これにより、使用予定の全カメラを用いて安全に自動駐車等の自動運転を行うことができる。すなわち、同時使用される複数のカメラがある場合、同時使用される全てのカメラ間でカメラの姿勢の把握に要する時間の差を小さくすることが望まれる。 By the way, for example, during automatic parking, a plurality of cameras are normally used at the same time. For this reason, it is desirable that each of the plurality of cameras is aware of its orientation at the start of automatic parking or the like. As a result, automatic driving such as automatic parking can be safely performed using all the cameras to be used. That is, when there are a plurality of cameras that are used simultaneously, it is desirable to reduce the difference in the time required for grasping the postures of the cameras among all the cameras that are used simultaneously.

本発明は、上記の課題に鑑み、移動体に搭載される複数のカメラ間でカメラの姿勢の把握に要する時間の差を小さくすることができる技術を提供することを目的とする。 SUMMARY OF THE INVENTION In view of the above problems, an object of the present invention is to provide a technique capable of reducing the difference in time required to grasp the orientation of a camera among a plurality of cameras mounted on a moving body.

上記目的を達成するために本発明の姿勢推定装置は、移動体に搭載される複数のカメラのそれぞれから撮影画像を取得する取得部と、前記カメラの姿勢を推定する推定処理を、前記撮影画像に基づいて行う推定部と、前記カメラ毎の前記推定処理の優先度を、前記カメラ毎に行われる前記推定処理により獲得される推定結果の獲得数に基づいて設定する設定部と、を備える構成(第1の構成)になっている。 In order to achieve the above object, a posture estimation apparatus of the present invention includes an acquisition unit that acquires a photographed image from each of a plurality of cameras mounted on a moving object, and an estimation process that estimates the posture of the camera. and a setting unit configured to set the priority of the estimation process for each camera based on the number of obtained estimation results obtained by the estimation process performed for each camera. (first configuration).

また、上記第1の構成の姿勢推定装置において、前記設定部は、前記カメラ毎の前記獲得数の累積値の比較結果に基づいて前記優先度を設定する構成(第2の構成)であることが好ましい。 Further, in the posture estimation device having the first configuration, the setting unit is configured to set the priority based on a comparison result of the cumulative value of the acquired number for each camera (second configuration). is preferred.

また、上記第1又は第2の構成の姿勢推定装置は、前記獲得数の累積値が所定の複数回数以上に到達した前記カメラについて、複数の前記推定結果に基づいて前記姿勢の推定を確定させる確定部を更に備える構成(第3の構成)であることが好ましい。 Further, the posture estimation apparatus having the first or second configuration determines the posture estimation based on a plurality of the estimation results for the camera for which the cumulative value of the number of acquisitions has reached a predetermined number of times or more. A configuration (third configuration) further including a determination unit is preferable.

また、上記第3の構成の姿勢推定装置において、前記設定部は、前記姿勢の推定が確定された前記カメラが発生すると、前記優先度を変更する構成(第4の構成)であることが好ましい。 Further, in the posture estimation device having the third configuration, it is preferable that the setting unit changes the priority when the camera for which the posture estimation has been confirmed occurs (fourth configuration). .

また、上記第1から第4のいずれかの構成の姿勢推定装置において、前記設定部は、前記カメラ毎に得られる前記獲得数の累積値の、最大数と最小数との差が所定閾値以上になると前記優先度を変更する構成(第5の構成)であることが好ましい。 Further, in the posture estimation device having any one of the first to fourth configurations, the setting unit determines that the difference between the maximum number and the minimum number of the cumulative values of the obtained numbers obtained for each of the cameras is equal to or greater than a predetermined threshold. It is preferable that the configuration (fifth configuration) changes the priority when it becomes.

また、上記第5の構成の姿勢推定装置において、前記設定部は、前記最大数と前記最小数との差が前記所定閾値以上になった後に前記所定閾値より小さくなった場合に前記優先度を変更する構成(第6の構成)であることが好ましい。 Further, in the posture estimation apparatus having the fifth configuration, the setting unit sets the priority when the difference between the maximum number and the minimum number becomes smaller than the predetermined threshold after becoming equal to or greater than the predetermined threshold. A changeable configuration (sixth configuration) is preferable.

また、上記第1から第4のいずれかの構成の姿勢推定装置は、前記複数のカメラの中に、前記獲得数以外に基づく優先条件を有するカメラが存在するか否かを判断する判断部を更に備え、前記設定部は、前記優先条件を有するカメラが存在する場合に、前記優先条件に基づいて前記優先度を設定する構成(第7の構成)であってよい。 Further, the posture estimation apparatus having any one of the first to fourth configurations further includes a determination unit that determines whether or not there is a camera having a priority condition other than the acquired number among the plurality of cameras. Further, the setting unit may be configured to set the priority based on the priority condition when there is a camera having the priority condition (seventh configuration).

また、上記第1から第7のいずれかの構成の姿勢推定装置において、前記設定部は、所定のタイミングで前記優先度の変更を行うか否かを確認し、前記所定のタイミングは、前記推定処理の順番が前記複数のカメラの全てに1回ずつ与えられる毎に発生し、前記複数のカメラの中に前記優先度の設定により前記順番が飛ばされるカメラがある場合には、当該カメラに前記順番が与えられたとみなして前記所定のタイミングが判断される構成(第8の構成)であってよい。 Further, in the posture estimation device having any one of the first to seventh configurations, the setting unit confirms whether or not to change the priority at a predetermined timing, and the predetermined timing is set to the estimated Each time the order of processing is given to each of the plurality of cameras once, and if there is a camera among the plurality of cameras for which the order is skipped due to the setting of the priority, the camera is given the above-mentioned A configuration (eighth configuration) may be employed in which the predetermined timing is determined by assuming that the order has been given.

また、上記目的を達成するために本発明の姿勢推定方法は、移動体に搭載される複数のカメラのそれぞれから撮影画像を取得する取得工程と、前記カメラの姿勢を推定する推定処理を、前記撮影画像に基づいて行う推定工程と、前記カメラ毎の前記推定処理の優先度を、前記カメラ毎に行われる前記推定処理により獲得される推定結果の獲得数に基づいて設定する設定工程と、を備える構成(第9の構成)になっている。 Further, in order to achieve the above object, a pose estimation method of the present invention includes an acquisition step of acquiring a photographed image from each of a plurality of cameras mounted on a moving object, and an estimation process of estimating the pose of the camera, a setting step of setting the priority of the estimation process for each camera based on the number of estimation results obtained by the estimation process performed for each camera; It has a configuration (ninth configuration).

本発明によれば、移動体に搭載される複数のカメラ間でカメラの姿勢の把握に要する時間の差を小さくすることができる。 According to the present invention, it is possible to reduce the difference in the time required to grasp the postures of the cameras among a plurality of cameras mounted on a moving object.

第1実施形態に係る姿勢推定装置の構成を説明するための図FIG. 1 is a diagram for explaining the configuration of a posture estimation device according to the first embodiment; FIG. 第1実施形態の姿勢推定装置において、4つの車載カメラの姿勢の推定を行う場合に実行される処理の一例を示すフローチャートFIG. 2 is a flowchart showing an example of processing executed when estimating the postures of four vehicle-mounted cameras in the posture estimation device of the first embodiment; FIG. 第1実施形態の姿勢推定装置による姿勢の推定処理の一例を示すフローチャート4 is a flowchart showing an example of posture estimation processing by the posture estimation device of the first embodiment; 特徴点の抽出について説明するための図Diagram for explaining extraction of feature points オプティカルフローの導出について説明するための図Diagram for explaining derivation of optical flow オプティカルフローから仮想的に形成される四角形を示す図A diagram showing a rectangle formed virtually from optical flow 所定の平面との交線が互いに平行になる面の組を2組特定する手法を説明するための図FIG. 4 is a diagram for explaining a technique for identifying two sets of planes whose intersection lines with a predetermined plane are parallel to each other; 特定した面の組の一方に基づき、面同士の交線の方向を求める手法を説明するための図Diagram for explaining the method of determining the direction of the line of intersection between the faces based on one of the identified pairs of faces. 特定した面の組の他方に基づき、面同士の交線の方向を求める手法を説明するための図Diagram for explaining the method of determining the direction of the line of intersection between the faces based on the other of the identified faces 第1実施形態の姿勢推定装置における優先度変更の判定処理の一例を示すフローチャートFlowchart showing an example of priority change determination processing in the posture estimation device of the first embodiment 第1実施形態の姿勢推定装置における優先度の設定について説明するための図FIG. 4 is a diagram for explaining priority setting in the posture estimation apparatus of the first embodiment; 第2実施形態に係る姿勢推定装置の構成を説明するための図A diagram for explaining the configuration of a posture estimation apparatus according to a second embodiment. 第2実施形態の姿勢推定装置において、4つの車載カメラの姿勢の推定を行う場合に実行される処理の一例を示すフローチャートFlowchart showing an example of processing executed when estimating the postures of four vehicle-mounted cameras in the posture estimation device of the second embodiment 第2実施形態の姿勢推定装置における優先度変更の判定処理の一例を示すフローチャートFlowchart showing an example of priority change determination processing in the posture estimation device of the second embodiment 第2実施形態の姿勢推定装置における優先度の設定について説明するための図FIG. 5 is a diagram for explaining priority setting in the posture estimation apparatus of the second embodiment;

以下、本発明の例示的な実施形態について、図面を参照しながら詳細に説明する。以下の説明では、移動体として車両を例にとり説明するが、移動体は車両に限定されない。車両には、例えば自動車、電車、無人搬送車等の車輪のついた乗り物が広く含まれる。車両以外の移動体として、例えば船舶や航空機等が挙げられる。 Exemplary embodiments of the invention are described in detail below with reference to the drawings. In the following description, a vehicle is taken as an example of a moving object, but the moving object is not limited to a vehicle. Vehicles broadly include vehicles with wheels, such as automobiles, trains, and automatic guided vehicles. Examples of mobile objects other than vehicles include ships and aircraft.

また以下の説明では、車両の直進進行方向であって、運転席からハンドルに向かう方向を「前方向」とする。また、車両の直進進行方向であって、ハンドルから運転席に向かう方向を「後方向」とする。また、車両の直進進行方向及び鉛直線に垂直な方向であって、前方向を向いている運転者の右側から左側に向かう方向を「左方向」とする。また、車両の直進進行方向及び鉛直線に垂直な方向であって、前方向を向いている運転者の左側から右側に向かう方向を「右方向」とする。 Further, in the following description, the direction in which the vehicle travels straight ahead, which is the direction from the driver's seat to the steering wheel, is referred to as the "forward direction." In addition, the direction from the steering wheel to the driver's seat, which is the direction in which the vehicle travels straight, is defined as the "rearward direction." In addition, the direction perpendicular to the straight traveling direction and the vertical line of the vehicle and from the right side to the left side of the driver who is facing forward is referred to as the "left direction." Also, the direction perpendicular to the straight traveling direction and the vertical line of the vehicle and from the left side to the right side of the driver who is facing forward is referred to as the "right direction."

<1.第1実施形態>
図1は、第1実施形態に係る姿勢推定装置1の構成を説明するための図である。図1には、姿勢推定装置1に情報を入力する撮影部2および舵角センサ3も示されている。姿勢推定装置1は、撮影部2が搭載される車両ごとに備えられる。以下、姿勢推定装置1が備えられる車両のことを自車両と表現することがある。
<1. First Embodiment>
FIG. 1 is a diagram for explaining the configuration of a posture estimation device 1 according to the first embodiment. FIG. 1 also shows an imaging unit 2 and a steering angle sensor 3 that input information to the attitude estimation device 1 . The attitude estimation device 1 is provided for each vehicle in which the imaging unit 2 is mounted. Hereinafter, the vehicle provided with the attitude estimation device 1 may be referred to as the own vehicle.

撮影部2は、車両周辺の状況を監視する目的で車両に設けられる。撮影部2は、複数のカメラ21~24を備える。複数のカメラ21~24は、車載カメラである。各車載カメラ21~24は、車両に固定配置される。4つの車載カメラ21~24は、それぞれ、姿勢推定装置1に有線又は無線により接続され、撮影画像を姿勢推定装置1に出力する。なお、各車載カメラ21~24は、例えば経年劣化や外部からの衝撃等によって取付け位置や角度がずれることがある。姿勢推定装置1は、このような取付け状態の変化を監視することができる。 The photographing unit 2 is provided in the vehicle for the purpose of monitoring the situation around the vehicle. The photographing unit 2 includes a plurality of cameras 21-24. A plurality of cameras 21 to 24 are in-vehicle cameras. Each vehicle-mounted camera 21-24 is fixedly arranged on the vehicle. The four in-vehicle cameras 21 to 24 are connected to the posture estimation device 1 by wires or wirelessly, respectively, and output captured images to the posture estimation device 1 . The mounting positions and angles of the vehicle-mounted cameras 21 to 24 may deviate due to, for example, deterioration over time or impact from the outside. The attitude estimation device 1 can monitor such changes in the mounting state.

詳細には、撮影部2は、フロントカメラ21と、バックカメラ22と、左サイドカメラ23と、右サイドカメラ24と、を備える。フロントカメラ21は、車両の前方を撮影するカメラである。バックカメラ22は、車両の後方を撮影するカメラである。左サイドカメラ23は、車両の左方を撮影するカメラである。右サイドカメラ24は、車両の右方を撮影するカメラである。各車載カメラ21~24は、例えば魚眼レンズを用いて構成され、水平方向の画角θは180度以上である。このため、4つの車載カメラ21~24によって、車両の水平方向における全周囲を撮影することができる。 Specifically, the imaging unit 2 includes a front camera 21 , a back camera 22 , a left side camera 23 and a right side camera 24 . The front camera 21 is a camera that photographs the front of the vehicle. The back camera 22 is a camera that photographs the rear of the vehicle. The left side camera 23 is a camera that captures the left side of the vehicle. The right side camera 24 is a camera that captures the right side of the vehicle. Each of the vehicle-mounted cameras 21 to 24 is configured using, for example, a fish-eye lens, and has a horizontal angle of view θ of 180 degrees or more. Therefore, the four on-vehicle cameras 21 to 24 can photograph the entire circumference of the vehicle in the horizontal direction.

なお、撮影部2が備えるカメラの数は、4つ以外の複数であってよい。例えば、バックでの駐車することを支援する目的で車載カメラが搭載されている場合には、撮影部2は、バックカメラ22、左サイドカメラ23、右サイドカメラ24の3つの車載カメラを備える構成であってよい。 Note that the number of cameras included in the photographing unit 2 may be a plurality other than four. For example, when an in-vehicle camera is installed for the purpose of assisting parking in the back, the photographing unit 2 is provided with three in-vehicle cameras: a back camera 22, a left side camera 23, and a right side camera 24. can be

舵角センサ3は、姿勢推定装置1および撮影部2が搭載される車両に備えられ、当該車両のステアリングホイール(ハンドル)の回転角を検出する。舵角センサ3の出力は、CAN(Controller Area Network)バス等の通信バスB1を介して姿勢推定装置1に入力される。 The steering angle sensor 3 is provided in the vehicle on which the attitude estimation device 1 and the imaging unit 2 are mounted, and detects the rotation angle of the steering wheel (steering wheel) of the vehicle. The output of the steering angle sensor 3 is input to the attitude estimation device 1 via a communication bus B1 such as a CAN (Controller Area Network) bus.

図1に示すように、姿勢推定装置1は、取得部11と、制御部12と、記憶部13と、を備える。 As shown in FIG. 1 , posture estimation apparatus 1 includes acquisition section 11 , control section 12 , and storage section 13 .

取得部11は、複数の車載カメラ21~24のそれぞれから撮影画像を取得する。取得部11は、車載カメラ21~24からアナログ又はデジタルの撮影画像を所定の周期(例えば、1/30秒周期)で時間的に連続して取得する。すなわち、取得部11によって取得される撮影画像の集合体が車載カメラ21~24で撮影された動画像である。そして、取得した撮影画像がアナログの場合には、取得部11は、そのアナログの撮影画像をデジタルの撮影画像に変換(A/D変換)する。取得部11は、取得した撮影画像、或いは、取得及び変換した撮影画像を制御部12に出力する。取得部11から出力される1つの撮影画像が1つのフレーム画像となる。 Acquisition unit 11 acquires a photographed image from each of a plurality of in-vehicle cameras 21-24. The obtaining unit 11 temporally continuously obtains analog or digital captured images from the vehicle-mounted cameras 21 to 24 at a predetermined cycle (for example, 1/30 second cycle). In other words, an aggregate of captured images acquired by the acquisition unit 11 is a moving image captured by the vehicle-mounted cameras 21-24. Then, when the acquired captured image is analog, the acquisition unit 11 converts (A/D converts) the analog captured image into a digital captured image. The acquisition unit 11 outputs the acquired photographed image or the acquired and converted photographed image to the control unit 12 . One captured image output from the acquisition unit 11 becomes one frame image.

制御部12は、例えばマイクロコンピュータであり、姿勢推定装置1の全体を統括的に制御する。制御部12は、不図示のCPU(Central Processing Unit)、RAM(Random Access Memory)、及びROM(Read Only Memory)を含む。記憶部13は、例えば、フラッシュメモリ等の不揮発性のメモリであり、各種の情報を記憶する。記憶部13は、ファームウェアとしてのプログラムや各種のデータを記憶する。 The control unit 12 is, for example, a microcomputer, and controls the posture estimation apparatus 1 as a whole. The control unit 12 includes a CPU (Central Processing Unit), a RAM (Random Access Memory), and a ROM (Read Only Memory) (not shown). The storage unit 13 is, for example, a non-volatile memory such as a flash memory, and stores various kinds of information. The storage unit 13 stores a program as firmware and various data.

図1に示す推定部121、確定部122、および、設定部123は、制御部12のCPUが記憶部13に記憶されるプログラムに従って演算処理を実行することにより実現される制御部12の機能である。言い換えると、姿勢推定装置1は、推定部121と、確定部122と、設定部123とを備える。 The estimating unit 121, the determining unit 122, and the setting unit 123 shown in FIG. be. In other words, posture estimation apparatus 1 includes estimation section 121 , determination section 122 , and setting section 123 .

なお、制御部12の推定部121、確定部122、および、設定部123の少なくともいずれか一つは、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等のハードウェアで構成されてもよい。また、推定部121、確定部122、および、設定部123は、概念的な構成要素である。1つの構成要素が実行する機能を複数の構成要素に分散させたり、複数の構成要素が有する機能を1つの構成要素に統合させたりしてよい。また、取得部11は、制御部12のCPUがプログラムに従って演算処理を行うことによって実現される構成でもよい。 At least one of the estimation unit 121, the determination unit 122, and the setting unit 123 of the control unit 12 is configured by hardware such as an ASIC (Application Specific Integrated Circuit) or an FPGA (Field Programmable Gate Array). good too. Also, the estimation unit 121, the determination unit 122, and the setting unit 123 are conceptual components. A function executed by one component may be distributed to a plurality of components, or a function possessed by a plurality of components may be integrated into one component. Further, the acquisition unit 11 may be implemented by the CPU of the control unit 12 performing arithmetic processing according to a program.

推定部121は、車載カメラ21~24の姿勢を推定する推定処理を、撮影画像に基づいて行う。詳細には、推定部121は、各車載カメラ21~24毎に姿勢の推定処理を行う。複数の車載カメラ21~24の姿勢の推定処理は順番に行われる。姿勢の推定処理を行う順番については後述する。推定部121は、4つの車載カメラ21~24のいずれか1つの姿勢の推定を行う場合、姿勢の推定を行うカメラから取得した撮影画像に基づいて推定処理を行う。例えば、推定部121は、フロントカメラ21の姿勢の推定を行う場合、フロントカメラ21から得られる撮影画像に基づいて推定処理を行う。 The estimation unit 121 performs estimation processing for estimating the attitudes of the vehicle-mounted cameras 21 to 24 based on captured images. Specifically, the estimation unit 121 performs posture estimation processing for each of the vehicle-mounted cameras 21 to 24 . The processing for estimating the attitudes of the plurality of vehicle-mounted cameras 21 to 24 is performed in order. The order in which the posture estimation processing is performed will be described later. When estimating the posture of any one of the four in-vehicle cameras 21 to 24, the estimating unit 121 performs estimation processing based on the captured image acquired from the camera that estimates the posture. For example, when estimating the orientation of the front camera 21 , the estimation unit 121 performs estimation processing based on the captured image obtained from the front camera 21 .

なお、姿勢の推定は、例えば、車載カメラ21~24の取付け角度等、取付け状態に関する値の推定値を求める構成であってよい。ただし、姿勢の推定は、取付け状態に関する具体的な推定値を求めるのではなく、姿勢が所定の状態から変化したか否かだけを推定する構成等であってもよい。本実施形態の姿勢の推定処理の詳細については後述する。 In addition, the posture estimation may be configured to obtain an estimated value of a value related to the mounting state, such as the mounting angle of the vehicle-mounted cameras 21 to 24, for example. However, the orientation may be estimated only by estimating whether or not the orientation has changed from a predetermined state, instead of obtaining a specific estimated value regarding the mounting state. The details of the posture estimation processing of this embodiment will be described later.

確定部122は、姿勢の推定処理により獲得される推定結果の獲得数の累積値が所定の複数回数に到達したカメラについて、複数の推定結果に基づいて姿勢の推定を確定させる。すなわち、本実施形態においては、各車載カメラ21~24について、姿勢の推定結果が1つ得られただけでは、姿勢の推定は確定されない。本実施形態においては、各車載カメラ21~24について、姿勢の推定結果が所定の複数回数以上得られた場合に、獲得された複数の推定結果に基づいて姿勢の推定を確定させる。これによれば、姿勢推定装置1から誤った推定姿勢が出力される可能性を低減することができる。 The determination unit 122 determines the orientation estimation based on a plurality of estimation results for a camera for which the cumulative number of estimation results obtained by the orientation estimation process has reached a predetermined plurality of times. That is, in the present embodiment, the estimation of the orientation of each of the in-vehicle cameras 21 to 24 is not finalized even if only one estimation result of the orientation is obtained. In the present embodiment, when orientation estimation results are obtained for each of the vehicle-mounted cameras 21 to 24 a predetermined number of times or more, the orientation estimation is determined based on the obtained plurality of estimation results. According to this, it is possible to reduce the possibility that posture estimation apparatus 1 outputs an erroneous estimated posture.

なお、姿勢の推定結果は、例えば姿勢の推定値等、姿勢状態に関する推定情報を含む。換言すると、姿勢状態に関する推定情報が得られなかった場合には、姿勢の推定結果が獲得されたとみなさない。 Note that the posture estimation result includes estimation information related to the posture state, such as an estimated posture value. In other words, if the estimation information about the attitude state is not obtained, it is not considered that the attitude estimation result has been obtained.

また、姿勢の推定を確定させるために用いられる複数の推定結果の数は、所定の複数回数と同じでもよいが、異なってもよい。また、所定の複数回数は、例えば実験結果等に基づいて適宜設定されればよい。所定の複数回数は、姿勢推定の確定結果をできるだけ正確としつつ、姿勢推定の確定結果が得られるまでの時間が長くなりすぎないように設定されることが好ましい。また、本実施形態では、所定の複数回数は、全ての車載カメラ21~24で同じとされている。ただし、所定の複数回数は、各車載カメラ21~24毎に別々に設定されてもよい。すなわち、所定の複数回数は、複数の車載カメラ21~24間で、互いに異なる数であってもよい。 Also, the number of multiple estimation results used to finalize the posture estimation may be the same as or different from the predetermined multiple number of times. Also, the predetermined number of times may be appropriately set based on, for example, experimental results. It is preferable that the predetermined number of times is set so that the finalized result of orientation estimation is as accurate as possible and the time until the finalized result of orientation estimation is obtained is not too long. Further, in the present embodiment, the predetermined number of times is the same for all the vehicle-mounted cameras 21-24. However, the predetermined multiple number of times may be set separately for each vehicle-mounted camera 21-24. That is, the predetermined multiple number of times may differ among the vehicle-mounted cameras 21 to 24 .

設定部123は、車載カメラ21~24毎の姿勢の推定処理の優先度を、車載カメラ21~24毎に行われる姿勢の推定処理により獲得される推定結果の獲得数に基づいて設定する。詳細には、設定部123は、車載カメラ21~24毎の、推定結果の獲得数の累積値の比較結果に基づいて、車載カメラ21~24毎の推定処理の優先度を設定する。設定には、初期の設定、および、その後に行われる変更設定が含まれてよい。 The setting unit 123 sets the priority of the orientation estimation process for each of the vehicle-mounted cameras 21 to 24 based on the number of obtained estimation results obtained by the orientation estimation process performed for each of the vehicle-mounted cameras 21 to 24 . Specifically, the setting unit 123 sets the priority of the estimation process for each of the vehicle-mounted cameras 21-24 based on the comparison result of the accumulated number of obtained estimation results for each of the vehicle-mounted cameras 21-24. Settings may include initial settings and subsequent changes to settings.

本実施形態によれば、例えば、複数の車載カメラ21~24間において、姿勢の推定結果の獲得数が他に比べて極端に多かったり、少なかったりするカメラが生じた場合に、優先度を調整して推定結果の獲得数の差が大きくなり過ぎることを抑制できる。本実施形態によれば、姿勢推定の確定結果を得られるタイミングを複数の車載カメラ21~24間でできるだけ近づけることができる。例えば、自車両が複数の車載カメラ21~24を用いて自動運転が行われる設定となっている場合、本実施形態の姿勢推定装置1を用いれば、全ての車載カメラ21~24の姿勢が把握できた安全な状態で自動運転を開始できる可能性を高めることができる。 According to the present embodiment, for example, among the plurality of in-vehicle cameras 21 to 24, if there is a camera that obtains an extremely large number or a small number of posture estimation results compared to the others, the priority is adjusted. By doing so, it is possible to suppress the difference in the number of obtained estimation results from becoming too large. According to the present embodiment, it is possible to bring the timings at which the definite results of posture estimation are obtained among the plurality of vehicle-mounted cameras 21 to 24 as close as possible. For example, when the self-vehicle is set to automatically drive using a plurality of onboard cameras 21 to 24, the attitude estimation device 1 of the present embodiment can grasp the attitudes of all onboard cameras 21 to 24. It is possible to increase the possibility that automatic driving can be started in a safe state.

本実施形態では、優先度が上げられると、姿勢の推定処理を実行する頻度が多くされる。また、優先度が下げられると、姿勢の推定処理を実行する頻度が少なくされる。優先度の設定に関する処理の詳細については後述する。 In this embodiment, when the priority is raised, the frequency of executing the posture estimation process is increased. Also, when the priority is lowered, the frequency of executing the posture estimation process is reduced. Details of the processing related to priority setting will be described later.

設定部123は、所定のタイミングで優先度の変更を行うか否かを確認する。本実施形態では、所定のタイミングは、姿勢の推定処理の順番が複数(具体的には4つ)の車載カメラ21~24の全てに1回ずつ与えられる毎に発生する。ただし、複数の車載カメラ21~24の中に優先度の設定により順番が飛ばされるカメラがある場合には、当該カメラに順番が与えられたとみなして所定のタイミングは判断される。このように構成することにより、優先度の変更を適切なタイミングで行うことができる。 The setting unit 123 confirms whether or not to change the priority at a predetermined timing. In the present embodiment, the predetermined timing occurs each time the orientation estimation process is given once to all of the plurality (specifically, four) of the vehicle-mounted cameras 21 to 24 . However, if there is a camera whose order is skipped due to priority setting among the plurality of vehicle-mounted cameras 21 to 24, it is assumed that the order is given to the camera and the predetermined timing is determined. By configuring in this way, it is possible to change the priority at an appropriate timing.

図2は、第1実施形態の姿勢推定装置1において、4つの車載カメラ21~24の姿勢の推定を行う場合に実行される処理の一例を示すフローチャートである。図2の処理の開始時においては、姿勢の推定結果の獲得数は、4つの車載カメラ21~24のいずれもゼロであり、4つの車載カメラ21~24の間で差がない。このために、4つの車載カメラ21~24毎の姿勢の推定処理の優先度は同じとしている。すなわち、図2の処理の開始時において、4つの車載カメラ21~24の姿勢の推定処理の頻度には差がない。図2の処理の開始時において、4つの車載カメラ21~24に対して等しく順番が与えられる。4つの車載カメラ21~24に対して、予め決められた順番で、姿勢の推定処理が行われる。 FIG. 2 is a flowchart showing an example of processing executed when estimating the postures of the four vehicle-mounted cameras 21 to 24 in the posture estimation device 1 of the first embodiment. At the start of the processing in FIG. 2, the number of obtained posture estimation results is zero for all of the four vehicle-mounted cameras 21-24, and there is no difference among the four vehicle-mounted cameras 21-24. For this reason, the four vehicle-mounted cameras 21 to 24 have the same orientation estimation processing priority. That is, at the start of the process of FIG. 2, there is no difference in the frequency of estimation of the attitudes of the four on-vehicle cameras 21-24. At the start of the process of FIG. 2, the four vehicle-mounted cameras 21-24 are equally ordered. Posture estimation processing is performed on the four on-vehicle cameras 21 to 24 in a predetermined order.

ステップS1では、推定部121により、フロントカメラ21の姿勢の推定処理が行われる。フロントカメラ21の姿勢の推定処理が終わると、ステップS2に処理が進められる。ステップS2では、推定部121により、バックカメラ22の姿勢の推定処理が行われる。バックカメラ22の姿勢の推定処理が終わると、ステップS3に処理が進められる。ステップS3では、推定部121により、左サイドカメラ23の姿勢の推定処理が行われる。左サイドカメラ23の姿勢の推定処理が終わると、ステップS4に処理が進められる。ステップS4では、推定部121により、右サイドカメラ24の姿勢の推定処理が行われる。右サイドカメラ24の姿勢の推定処理が終わると、ステップS4に処理が進められる。 In step S<b>1 , estimation processing of the attitude of the front camera 21 is performed by the estimation unit 121 . After the posture estimation processing of the front camera 21 is completed, the processing proceeds to step S2. In step S<b>2 , estimation processing of the posture of the back camera 22 is performed by the estimation unit 121 . After the posture estimation processing of the back camera 22 is completed, the processing proceeds to step S3. In step S<b>3 , estimation processing of the orientation of the left side camera 23 is performed by the estimation unit 121 . After the posture estimation processing of the left side camera 23 is completed, the processing proceeds to step S4. In step S<b>4 , estimation processing of the orientation of the right side camera 24 is performed by the estimation unit 121 . After the posture estimation processing of the right side camera 24 is completed, the processing proceeds to step S4.

なお、本例では、フロントカメラ21、バックカメラ22、左サイドカメラ23、右サイドカメラ24の順番で姿勢の推定処理が行われる構成としているが、これは例示である。他の順番で姿勢の推定処理が行われてもよい。 In this example, the posture estimation processing is performed in the order of the front camera 21, the back camera 22, the left side camera 23, and the right side camera 24, but this is an example. The posture estimation processing may be performed in another order.

ここで、車載カメラ21~24の姿勢の推定処理について詳細に説明する。図3は、第1実施形態の姿勢推定装置1による姿勢の推定処理の一例を示すフローチャートである。図3は、図2のステップS1からステップS4における姿勢の推定処理の詳細を示す図である。姿勢の推定処理は、各車載カメラ21~24で同様であるために、以下、フロントカメラ21の場合を例に姿勢の推定処理について説明する。 Here, the processing for estimating the attitudes of the vehicle-mounted cameras 21 to 24 will be described in detail. FIG. 3 is a flowchart showing an example of posture estimation processing by the posture estimation device 1 of the first embodiment. FIG. 3 is a diagram showing the details of the posture estimation processing in steps S1 to S4 in FIG. Since the posture estimation processing is the same for each of the vehicle-mounted cameras 21 to 24, the posture estimation processing for the front camera 21 will be described below as an example.

図3に示すように、まず、推定部121は、フロントカメラ21を搭載する自車両が直進しているか否かを監視する(ステップS11)。自車両が直進しているか否かは、例えば、舵角センサ3から得られるステアリングホイールの回転角情報に基づいて判断することができる。例えば、ステアリングホイールの回転角がゼロのときに自車両が完全にまっすぐに進むとした場合に、回転角がゼロの場合だけでなく、回転角がプラス方向とマイナス方向の一定範囲内の値である場合を含めて、自車両が直進していると判断してよい。なお、直進には、前方方向の直進と、後退方向の直進との両方が含まれる。 As shown in FIG. 3, first, the estimation unit 121 monitors whether or not the vehicle equipped with the front camera 21 is traveling straight (step S11). Whether or not the host vehicle is traveling straight can be determined, for example, based on rotation angle information of the steering wheel obtained from the steering angle sensor 3 . For example, when the steering wheel rotation angle is zero and the vehicle is traveling in a straight line, it will not only be possible when the rotation angle is zero, but also when the rotation angle is within a certain range between positive and negative directions. It may be determined that the own vehicle is going straight including the case where there is. It should be noted that straight running includes both forward straight running and backward straight running.

推定部121は、自車両の直進を検出するまで、ステップS11の監視を繰り返す。言い換えると、推定部121は、自車両が直進しない限り、姿勢の推定処理を進めない。これによれば、直進移動中における特徴点(詳細は後述する)の位置変化を用いて姿勢の推定が行われることになり、自車両の進行方向が曲がっている場合の情報を用いて姿勢の推定が行われないので、姿勢の推定処理が複雑になることを避けることができる。ただし、自車両の進行方向が曲がっているときの特徴点の位置変化を用いて、姿勢の推定処理が進められる構成としてもよい。 The estimation unit 121 repeats the monitoring of step S11 until it detects that the host vehicle is traveling straight. In other words, the estimating unit 121 does not proceed with the attitude estimation process unless the host vehicle is traveling straight. According to this, the posture is estimated using the positional changes of feature points (details will be described later) during straight movement, and the posture is estimated using information when the traveling direction of the own vehicle is curved. Since no estimation is performed, it is possible to avoid complicating the posture estimation process. However, a configuration may be adopted in which the attitude estimation process is advanced using the positional changes of the feature points when the traveling direction of the host vehicle is curved.

本実施形態では、自車両が直進していると判断される場合(ステップS11でYes)、推定部121は、取得部11を介してフロントカメラ21から所定フレーム数の撮影画像を取得する(ステップS12)。推定部121は、例えば数フレームから数十フレームの撮影画像を取得する。 In this embodiment, when it is determined that the host vehicle is traveling straight (Yes in step S11), the estimation unit 121 acquires a predetermined number of frames of captured images from the front camera 21 via the acquisition unit 11 (step S12). The estimating unit 121 acquires, for example, several frames to several tens of captured images.

次に、推定部121は、各フレーム画像に対して特徴点の抽出を行う(ステップS13)。特徴点は、撮影画像中のエッジの交点など、撮影画像において際立って検出できる点である。特徴点は、例えば路面に描かれた白線のエッジ、路面上のひび、路面上のしみ、路面上の砂利などである。本実施形態では、好ましい形態として、コーナーらしさを示すコーナー度が高い特徴点を抽出する。コーナーとは2つのエッジが交わる部分である。コーナー度は、例えばHarrisオペレータやKLT(Kanade-Lucas-Tomasi)トラッカーなどの公知の検出手法を用いて求めることができる。本実施形態では、4つの車載カメラ21~24間で、特徴点の抽出条件は同じである。ただし、4つの車載カメラ21~24間で、特徴点の抽出条件は異なってよい。 Next, the estimation unit 121 extracts feature points from each frame image (step S13). A feature point is a point that can be conspicuously detected in a captured image, such as an intersection of edges in the captured image. The feature points are, for example, edges of white lines drawn on the road surface, cracks on the road surface, stains on the road surface, gravel on the road surface, and the like. In the present embodiment, as a preferred form, feature points with a high corner degree indicating cornerness are extracted. A corner is where two edges meet. The corner degree can be determined using a known detection method such as Harris operator or KLT (Kanade-Lucas-Tomasi) tracker. In this embodiment, the feature point extraction conditions are the same among the four vehicle-mounted cameras 21 to 24 . However, the feature point extraction conditions may be different among the four vehicle-mounted cameras 21 to 24 .

図4は、推定部121による特徴点の抽出について説明するための図である。図4は、フロントカメラ21で撮影された撮影画像Pを模式的に示している。撮影画像Pは、自車両のボディが映り込む領域BOを含む。図4に示す例では、路面RSに描かれている制限速度を示す数字の部分にコーナー度が高い第1特徴点FP1及び第2特徴点FP2が存在する。このために、推定部121は、路面RS上に存在する第1特徴点FP1及び第2特徴点FP2を抽出する。 FIG. 4 is a diagram for explaining extraction of feature points by the estimation unit 121. As shown in FIG. FIG. 4 schematically shows a photographed image P photographed by the front camera 21. As shown in FIG. The captured image P includes an area BO in which the body of the vehicle is reflected. In the example shown in FIG. 4, a first feature point FP1 and a second feature point FP2 having a high corner degree are present in the portion of the number indicating the speed limit drawn on the road surface RS. For this purpose, the estimation unit 121 extracts a first feature point FP1 and a second feature point FP2 existing on the road surface RS.

なお、図4では、便宜的に2つの特徴点FP1、FP2のみが示されているが、コーナー度が所定の特徴点閾値を超える特徴点が存在すれば、これ以外にも特徴点は抽出される。逆に、コーナー度が所定の特徴点閾値を超える特徴点が存在しない場合には、特徴点は抽出されない。各フレーム画像において、特徴点が1つも抽出されないこともあり得る。 In FIG. 4, only two feature points FP1 and FP2 are shown for the sake of convenience. be. Conversely, if there is no feature point whose corner degree exceeds the predetermined feature point threshold value, no feature point is extracted. It is possible that not even one feature point is extracted from each frame image.

図3に戻って、推定部121は、全てのフレーム画像に対する特徴点の抽出処理が完了すると、オプティカルフローの導出を行う(ステップS14)。オプティカルフローは、異なる時刻で撮影された2つの撮影画像間における特徴点の動きを示す動きベクトルである。本例では、異なる時刻の間隔は、取得部11のフレーム周期と同一である。ただし、これに限らず、異なる時刻の間隔は、例えば、取得部11のフレーム周期の複数倍であってもよい。 Returning to FIG. 3, the estimating unit 121 derives an optical flow when the process of extracting feature points for all frame images is completed (step S14). Optical flow is a motion vector that indicates the motion of feature points between two captured images captured at different times. In this example, the interval between different times is the same as the frame period of the acquisition unit 11 . However, the interval between different times is not limited to this, and may be, for example, multiple times the frame period of the acquisition unit 11 .

図5は、推定部121によるオプティカルフローの導出について説明するための図である。図5は、図4と同様に便宜的に示された模式図である。図5は、図4に示す撮影画像P(便宜的に前フレームPとする)の撮影後、1フレーム周期経過した後にフロントカメラ21で撮影された撮影画像P’(便宜的に現フレームP’とする)である。図4に示す撮影画像Pの撮影後、1フレーム周期の間、自車両は前方に直進している。図5に示す丸印FP1Pは、図4に示す前フレームPの撮影時点における第1特徴点FP1の位置を示す。図5に示す丸印FP2Pは、図4に示す前フレームPの撮影時点における第2特徴点FP2の位置を示す。 FIG. 5 is a diagram for explaining how the estimation unit 121 derives the optical flow. FIG. 5 is a schematic diagram shown for convenience similar to FIG. FIG. 5 shows a photographed image P′ (current frame P′ for convenience) photographed by the front camera 21 after one frame cycle has elapsed after photographing the photographed image P (previous frame P for convenience) shown in FIG. 4 . ). After photographing the photographed image P shown in FIG. 4, the own vehicle is traveling straight forward for one frame period. A circle FP1P shown in FIG. 5 indicates the position of the first feature point FP1 at the time of capturing the previous frame P shown in FIG. A circle FP2P shown in FIG. 5 indicates the position of the second feature point FP2 at the time of capturing the previous frame P shown in FIG.

図5に示すように、自車両が前方に直進すると、自車両の前方に存在する第1特徴点FP1及び第2特徴点FP2は自車両に近づく。すなわち、第1特徴点FP1及び第2特徴点FP2は、現フレームP’と前フレームPとで異なる位置に現れる。推定部121は、現フレームP’の第1特徴点FP1と前フレームPの第1特徴点FP1とを、その近傍の画素値に基づいて対応付け、対応付けた第1特徴点FP1のそれぞれの位置に基づいて、第1特徴点FP1のオプティカルフローOF1を導出する。同様に、推定部121は、現フレームP’の第2特徴点FP2と前フレームPの第2特徴点FP2とを、その近傍の画素値に基づいて対応付け、対応付けた第2特徴点FP2のそれぞれの位置に基づいて、第2特徴点FP2のオプティカルフローOF2を導出する。 As shown in FIG. 5, when the own vehicle goes straight forward, the first feature point FP1 and the second feature point FP2 existing in front of the own vehicle approach the own vehicle. That is, the first feature point FP1 and the second feature point FP2 appear at different positions between the current frame P' and the previous frame P. FIG. The estimating unit 121 associates the first feature point FP1 of the current frame P′ with the first feature point FP1 of the previous frame P based on pixel values in the vicinity thereof, and calculates each of the associated first feature points FP1. Based on the position, the optical flow OF1 of the first feature point FP1 is derived. Similarly, the estimation unit 121 associates the second feature point FP2 of the current frame P′ with the second feature point FP2 of the previous frame P based on the neighboring pixel values, and , the optical flow OF2 of the second feature point FP2 is derived.

なお、推定部121は、取得した複数のフレーム画像のそれぞれについて上述のようにしてオプティカルフローの導出を行う。また、各フレーム画像において2つより多くのオプティカルフローが得られる場合がある。このために、推定部121は、姿勢の推定に使うためのオプティカルフローの候補を複数得る場合がある。逆に、推定部121は、姿勢の推定に使うためのオプティカルフローの候補を得られない場合もある。 Note that the estimation unit 121 derives the optical flow for each of the acquired frame images as described above. Also, more than two optical flows may be obtained in each frame image. For this reason, the estimation unit 121 may obtain a plurality of optical flow candidates for use in posture estimation. Conversely, the estimation unit 121 may not be able to obtain optical flow candidates for use in posture estimation.

図3に戻って、推定部121は、オプティカルフローの導出を行うと、以後に行われる処理に使用するオプティカルフローを所定の選択条件にしたがって選択する(ステップS15)。所定の選択条件は、以後に行われる姿勢の推定に適した、2つのオプティカルフローで構成される組が選択されるように設定される。所定の選択条件を満たす組が複数存在する場合には、所定の選択条件を満たす全ての組が選択される。所定の選択条件を満たす組の数は、撮影画像から抽出される特徴点の数等によって変動する。なお、所定の選択条件を満たす組が存在しない場合には、以後の処理を行うことができない。このために、姿勢の推定処理は終了される。この段階で姿勢の推定処理が終了された場合には、姿勢の推定結果は獲得されないことになる。本実施形態では、4つの車載カメラ21~24間において、使用するオプティカルフローの選択条件は同じである。ただし、当該選択条件は、4つの車載カメラ21~24間で異なってもよい。 Returning to FIG. 3, after deriving the optical flow, the estimating unit 121 selects an optical flow to be used for subsequent processing according to a predetermined selection condition (step S15). A predetermined selection condition is set such that a set of two optical flows suitable for subsequent pose estimation is selected. If there are a plurality of sets that satisfy the predetermined selection condition, all the sets that satisfy the predetermined selection condition are selected. The number of sets satisfying a predetermined selection condition varies depending on the number of feature points extracted from the captured image. It should be noted that if there is no set that satisfies a predetermined selection condition, subsequent processing cannot be performed. Therefore, the orientation estimation process is terminated. If the orientation estimation process ends at this stage, the orientation estimation result will not be obtained. In this embodiment, the conditions for selecting the optical flow to be used are the same among the four vehicle-mounted cameras 21-24. However, the selection conditions may be different among the four vehicle-mounted cameras 21-24.

ここで、ステップS15で選択された使用オプティカルフローの組に、図5に示す第1オプティカルフローOF1と第2オプティカルフローOF2との組が含まれるものして、ステップS16以降の処理について説明する。 Here, the processing after step S16 will be described on the assumption that the set of optical flows selected in step S15 includes the set of the first optical flow OF1 and the second optical flow OF2 shown in FIG.

推定部121は、第1特徴点FP1のオプティカルフローOF1と第2特徴点FP2のオプティカルフローOF2を用いた処理を進める。推定部121は、特徴点に対し、記憶部13に記憶されているフロントカメラ21の内部パラメータを用いて座標変換を行う。座標変換では、フロントカメラ21の収差補正と、歪補正とが行われる。収差補正は、フロントカメラ21の光学系の収差による歪みを補正するために行われる。具体的には樽型歪みや糸巻歪みなど歪曲収差の補正である。歪み補正は、フロントカメラ21の光学系そのものの歪みを補正するために行われる。具体的には魚眼補正などである。座標変換により、特徴点の座標は、被写体が透視投影によって撮影された場合に二次元画像上で得られる座標に変換される。 The estimation unit 121 advances the processing using the optical flow OF1 of the first feature point FP1 and the optical flow OF2 of the second feature point FP2. The estimation unit 121 performs coordinate transformation on the feature points using the internal parameters of the front camera 21 stored in the storage unit 13 . In the coordinate conversion, aberration correction and distortion correction of the front camera 21 are performed. Aberration correction is performed to correct distortion due to aberration of the optical system of the front camera 21 . Specifically, it is correction of distortion such as barrel distortion and pincushion distortion. Distortion correction is performed to correct distortion of the optical system itself of the front camera 21 . Specifically, it is fisheye correction. Coordinate transformation converts the coordinates of the feature points into coordinates obtained on a two-dimensional image when the subject is photographed by perspective projection.

特徴点の座標変換が行われると、推定部121は、図6に示すように、第1特徴点FP1のオプティカルフローOF1の始点を頂点SP1、第1特徴点FP1のオプティカルフローOF1の終点を頂点EP1、第2特徴点FP1のオプティカルフローOF2の始点を頂点SP2、及び第2特徴点FP2のオプティカルフローOF2の終点を頂点EPとする四角形QLを仮想的に形成する(ステップS16)。以降、説明のために四角形や、該四角形の辺などの幾何的要素を仮想的に形成して用いる。しかし、実際の処理では、特徴点の座標や直線の方向などのベクトル演算に基づき、同等の作用を持つ幾何的要素に基づかない処理としてもよい。 When the feature point coordinate transformation is performed, the estimation unit 121 sets the starting point of the optical flow OF1 of the first feature point FP1 to the vertex SP1 and the end point of the optical flow OF1 of the first feature point FP1 to the vertex, as shown in FIG. A quadrangle QL is virtually formed having the vertex SP2 as the starting point of the optical flow OF2 of the second feature point FP1 and the vertex EP as the ending point of the optical flow OF2 of the second feature point FP2 (step S16). Hereinafter, for the sake of explanation, geometric elements such as quadrilaterals and sides of the quadrilaterals are virtually formed and used. However, in actual processing, processing may be based on vector operations such as the coordinates of feature points and the direction of straight lines, and may not be based on geometric elements having equivalent effects.

四角形QLが仮想的に形成されると、推定部121は、四角形QLと、記憶部13に記憶されているフロントカメラ21の内部パラメータとを用いて、三次元空間におけるフロントカメラ21の投影面IMG(図7参照)上に四角形QLを移動させ、投影面IMG上での四角形QL1を仮想的に生成する(ステップS17)。 When the quadrangle QL is virtually formed, the estimation unit 121 uses the quadrangle QL and the internal parameters of the front camera 21 stored in the storage unit 13 to determine the projection plane IMG of the front camera 21 in the three-dimensional space. The quadrangle QL is moved upward (see FIG. 7) to virtually generate a quadrangle QL1 on the projection plane IMG (step S17).

なお説明のため、以下のように辺を定義する。四角形QL1の第1辺SD1は、四角形QLにおいて、頂点SP1および頂点SP2を結んだ辺に対応する。つまり、前フレームPにおける第1特徴点FP1と第2特徴点FP2を結んだ辺に相当する。同様に、四角形QL1の第2辺SD2は、四角形QLにおいて、頂点SP2および頂点EP2を結んだ辺に対応する。つまり、第2特徴点FP2のオプティカルフローOF2に相当する。同様に、四角形QL1の第3辺SD3は、四角形QLにおいて、頂点EP1および頂点EP2を結んだ辺に対応する。つまり、現フレームP’における第1特徴点FP1と第2特徴点FP2とを結んだ辺に相当する。同様に、四角形QL1の第4辺SD4は、四角形QLにおいて、頂点SP1および頂点EP1を結んだ辺に対応する。つまり、第1特徴点FP1のオプティカルフローOF1に相当する。 For the sake of explanation, the edges are defined as follows. A first side SD1 of quadrangle QL1 corresponds to a side connecting vertex SP1 and vertex SP2 in quadrangle QL. That is, it corresponds to the side connecting the first feature point FP1 and the second feature point FP2 in the previous frame P. Similarly, the second side SD2 of quadrangle QL1 corresponds to the side connecting vertex SP2 and vertex EP2 in quadrangle QL. That is, it corresponds to the optical flow OF2 of the second feature point FP2. Similarly, the third side SD3 of quadrangle QL1 corresponds to the side connecting vertex EP1 and vertex EP2 in quadrangle QL. That is, it corresponds to the side connecting the first feature point FP1 and the second feature point FP2 in the current frame P'. Similarly, the fourth side SD4 of quadrangle QL1 corresponds to the side connecting vertex SP1 and vertex EP1 in quadrangle QL. That is, it corresponds to the optical flow OF1 of the first feature point FP1.

また、以下のように面を定義する(図7参照)。四角形QL1の第1辺SD1とフロントカメラ21の光学中心OCとが含まれる面を第1面F1とする。同様に、四角形QL1の第2辺SD2とフロントカメラ21の光学中心OCとが含まれる面を第2面F2とする。同様に、四角形QL1の第3辺SD3とフロントカメラ21の光学中心OCとが含まれる面を第3面F3とする。同様に、四角形QL1の第4辺SD4とフロントカメラ21の光学中心OCとが含まれる面を第4面F4とする。 Also, a surface is defined as follows (see FIG. 7). A plane including the first side SD1 of the quadrangle QL1 and the optical center OC of the front camera 21 is defined as a first plane F1. Similarly, a plane including the second side SD2 of the quadrangle QL1 and the optical center OC of the front camera 21 is defined as a second plane F2. Similarly, a surface including the third side SD3 of the quadrangle QL1 and the optical center OC of the front camera 21 is defined as a third surface F3. Similarly, a plane including the fourth side SD4 of the quadrangle QL1 and the optical center OC of the front camera 21 is defined as a fourth plane F4.

次に、推定部121は、所定の平面との交線が互いに平行になる面の組を2組特定する(ステップS18)。所定の平面とはあらかじめ平面の法線が分かっている面である。具体的には車両が移動を行っている平面であり、つまり路面である。所定の平面は、厳密な平面でなくてもよく、推定部121が所定の平面との交線が互いに平行になる面の組を2組特定する際に平面とみなすことができるものであればよい。 Next, the estimating unit 121 identifies two sets of planes whose intersection lines with a predetermined plane are parallel to each other (Step S18). A predetermined plane is a plane whose normal is known in advance. Specifically, it is the plane on which the vehicle is moving, that is, the road surface. The predetermined plane does not have to be a strict plane, as long as it can be regarded as a plane when the estimation unit 121 identifies two sets of planes whose intersection lines with the predetermined plane are parallel to each other. good.

本実施形態では、姿勢推定装置1は、自車両が直進している場合に、異なる時刻に撮影された2つの画像から特徴点を抽出し、該特徴点のオプティカルフローを算出する。また、該特徴点は路面などの所定の平面上に位置している静止物から抽出される。したがって、算出されるオプティカルフローは実世界上では、自車両に対する静止物の相対的な位置変化を表す。つまり向きが逆となった自車両の移動ベクトルである。 In this embodiment, the posture estimation apparatus 1 extracts feature points from two images taken at different times and calculates the optical flow of the feature points when the host vehicle is traveling straight. Also, the feature points are extracted from a stationary object positioned on a predetermined plane such as a road surface. Therefore, in the real world, the calculated optical flow represents the relative position change of the stationary object with respect to the host vehicle. In other words, it is the movement vector of the own vehicle whose direction is reversed.

四角形QL1の第2辺SD2と第4辺SD4とは、共に特徴点のオプティカルフローに対応するので、共に実世界上では自車両の移動ベクトルに相当する。したがって、路面上では互いに平行となると想定される。 The second side SD2 and the fourth side SD4 of the quadrangle QL1 both correspond to the optical flow of the feature points, and thus both correspond to the movement vector of the own vehicle in the real world. Therefore, it is assumed that they are parallel to each other on the road surface.

また、四角形QL1の第1辺SD1と第3辺SD3とは、共に特徴点同士の位置関係なので、実世界上では自車両の移動に伴う静止物同士の位置関係に相当する。移動前の位置関係が第1辺SD1に相当し、移動後の位置関係が第3辺SD3に相当する。このとき静止物の位置は変わらないため、移動前後で位置関係は変わらない。したがって、路面上ではこれも互いに平行となると想定される。 Further, since the first side SD1 and the third side SD3 of the quadrangle QL1 are both in the positional relationship between feature points, they correspond to the positional relationship between stationary objects accompanying the movement of the own vehicle in the real world. The positional relationship before movement corresponds to the first side SD1, and the positional relationship after movement corresponds to the third side SD3. Since the position of the stationary object does not change at this time, the positional relationship does not change before and after the movement. Therefore, it is assumed that they are also parallel to each other on the road surface.

したがって、推定部121は、路面との交線が平行な面として、第2面F2と第4面F4との組と、第1面F1と第3面F3との組と、の2つの組を特定する。つまり、推定部121は、オプティカルフローを含む面同士を1つの組とし、同時刻に撮影された特徴点を含む面同士を他の組として、計2つの組を特定する。 Therefore, the estimating unit 121 determines two sets of planes having parallel lines of intersection with the road surface: the set of the second plane F2 and the fourth plane F4, and the set of the first plane F1 and the third plane F3. identify. In other words, the estimating unit 121 identifies a total of two sets of surfaces including optical flows as one set and surfaces including feature points captured at the same time as another set.

なお、図7において四角形QL2は、現フレームP’の撮影時点での第1特徴点FP1の3次元空間(実世界)上の位置、現フレームP’の撮影時点での第2特徴点FP2の3次元空間上の位置、前フレームPの撮影時点での第1特徴点FP1の3次元空間上の位置、及び前フレームPの撮影時点での第2特徴点FP2の3次元空間上の位置を頂点とする四角形である。第1面F1は、四角形QL2の第1辺SD11を含む。同様に、第2面F2は四角形QL2の第2辺SD12を含み、第3面F3は四角形QL2の第3辺SD13を含み、第4面F4は四角形QL2の第4辺SD14を含む。このとき、上記のように四角形QL2は路面上に形成される平行四辺形であると想定される。 In FIG. 7, a rectangle QL2 represents the position of the first feature point FP1 in the three-dimensional space (real world) at the time of shooting the current frame P', and the position of the second feature point FP2 at the time of shooting the current frame P'. The position in the three-dimensional space, the position in the three-dimensional space of the first feature point FP1 at the time of capturing the previous frame P, and the position in the three-dimensional space of the second feature point FP2 at the time of capturing the previous frame P are It is a rectangle with vertices. The first face F1 includes the first side SD11 of the quadrangle QL2. Similarly, the second surface F2 includes the second side SD12 of the quadrilateral QL2, the third surface F3 includes the third side SD13 of the quadrilateral QL2, and the fourth surface F4 includes the fourth side SD14 of the quadrilateral QL2. At this time, the quadrangle QL2 is assumed to be a parallelogram formed on the road surface as described above.

次に、推定部121は、路面の法線を算出する(ステップS19)。まず、推定部121は、先に特定した面の組の一方である第1面F1と第3面F3とに基づき、面同士の交線の方向を求める。詳細には、第1面F1と第3面F3との交線CL1の向きを求める(図8参照)。交線CL1の方向ベクトルV1は、第1面F1の法線ベクトル及び第3面F3の法線ベクトルそれぞれと垂直なベクトルである。したがって、推定部121は、第1面F1の法線ベクトルと第3面F3の法線ベクトルとの外積により、交線CL1の方向ベクトルV1を求める。第1面F1と第3面F3は、路面との交線が平行となるため、方向ベクトルV1は路面と平行になる。 Next, the estimation unit 121 calculates the normal line of the road surface (step S19). First, the estimating unit 121 obtains the direction of the line of intersection between the surfaces based on the first surface F1 and the third surface F3, which are one of the previously identified sets of surfaces. Specifically, the direction of the line of intersection CL1 between the first surface F1 and the third surface F3 is obtained (see FIG. 8). A direction vector V1 of the line of intersection CL1 is a vector perpendicular to each of the normal vector of the first surface F1 and the normal vector of the third surface F3. Therefore, the estimation unit 121 obtains the direction vector V1 of the line of intersection CL1 by the outer product of the normal vector of the first surface F1 and the normal vector of the third surface F3. Since the first plane F1 and the third plane F3 are parallel to the road surface, the direction vector V1 is parallel to the road surface.

同様に、推定部121は、先に特定した面の組の他方である第2面F2と第4面F4との交線の方向を求める。詳細には第2面F2と第4面F4との交線CL2の向きを求める(図9参照)。交線CL2の方向ベクトルV2は、第2面F2の法線ベクトル及び第4面F4の法線ベクトルそれぞれと垂直なベクトルである。したがって、推定部121は、第2面F2の法線ベクトルと第4面F4の法線ベクトルとの外積により、交線CL2の方向ベクトルV2を求める。第2面F2と第4面F4も同様に、路面との交線が平行となるため、方向ベクトルV2は路面と平行になる。 Similarly, the estimating unit 121 obtains the direction of the line of intersection between the second surface F2 and the fourth surface F4, which are the other of the set of previously identified surfaces. Specifically, the direction of the intersection line CL2 between the second surface F2 and the fourth surface F4 is obtained (see FIG. 9). A direction vector V2 of the line of intersection CL2 is a vector perpendicular to each of the normal vector of the second surface F2 and the normal vector of the fourth surface F4. Therefore, the estimation unit 121 obtains the direction vector V2 of the line of intersection CL2 by the cross product of the normal vector of the second surface F2 and the normal vector of the fourth surface F4. Similarly, the second surface F2 and the fourth surface F4 also have parallel lines of intersection with the road surface, so the direction vector V2 is parallel with the road surface.

推定部121は、方向ベクトルV1と方向ベクトルV2との外積により、四角形QL2の面の法線、すなわち路面の法線を算出する。推定部121が算出した路面の法線はフロントカメラ21のカメラ座標系で算出されるため、実際の路面の法線である垂直方向との違いから3次元空間の座標系を求め、路面に対するフロントカメラ21の姿勢を推定することができる。その推定結果から推定部121は自車両に対するフロントカメラ21の姿勢を推定する(ステップS20)。なお、ステップS19の算出処理は、例えば公知のARToolkitを利用して実行することができる。 The estimating unit 121 calculates the normal to the surface of the quadrangle QL2, that is, the normal to the road surface, from the outer product of the direction vector V1 and the direction vector V2. Since the normal line of the road surface calculated by the estimating unit 121 is calculated in the camera coordinate system of the front camera 21, the coordinate system of the three-dimensional space is obtained from the difference from the vertical direction, which is the normal line of the actual road surface. The pose of the camera 21 can be estimated. Based on the estimation result, the estimation unit 121 estimates the posture of the front camera 21 with respect to the vehicle (step S20). Note that the calculation process in step S19 can be executed using, for example, the known ARToolkit.

ステップS20における姿勢推定が終了すると、推定部121は、ステップS15で選択した全てのオプティカルフローの組について、姿勢の推定が完了したか否かを確認する(ステップS21)。全ての組に対して姿勢の推定が完了している場合には(ステップS21でYes)、図3に示すフローが終了する。一方、全ての組に対して姿勢の推定が完了していない場合には(ステップS21でNo)、ステップS16に戻ってステップS16以降の処理が繰り返される。 When the orientation estimation in step S20 is completed, the estimation unit 121 checks whether or not orientation estimation has been completed for all optical flow pairs selected in step S15 (step S21). If posture estimation has been completed for all pairs (Yes in step S21), the flow shown in FIG. 3 ends. On the other hand, if posture estimation has not been completed for all pairs (No in step S21), the process returns to step S16 and the processes after step S16 are repeated.

姿勢推定装置1は、自車両の移動を利用して、自律的に所定の平面との交線が互いに平行になる面の組を2組特定することで、特徴点の抽出誤差のみが推定精度に影響するカメラの姿勢推定を行うことができる。すなわち、姿勢推定装置1は、誤差要因が少ないカメラの姿勢推定を行うことができる。したがって、姿勢推定装置1は、カメラの姿勢を精度良く推定することができる。 The attitude estimation apparatus 1 uses the movement of the own vehicle to autonomously identify two sets of planes whose intersection lines with a predetermined plane are parallel to each other, so that only the feature point extraction error is the estimation accuracy. can be used to estimate the pose of the camera, which affects the That is, the posture estimation device 1 can perform posture estimation of the camera with few error factors. Therefore, the posture estimation device 1 can accurately estimate the posture of the camera.

なお、上記の説明ではフロントカメラ21の光学中心OCと、四角形QL1の1つの辺を含む平面を特定するとしたがこの限りではない。当該平面の法線方向の特定をもって平面を特定するとしてもよい。例えば光学中心OCから各頂点への方向ベクトルの外積により平面の法線方向を求め、該法線方向によって面を特定するとしてもよい。この場合、第1面F1の法線方向と第3面F3の法線方向とを1つの組とし、第2面F2の法線方向と第4面F4の法線方向とを他の組として2つの組を特定するとよい。 In the above description, the plane including the optical center OC of the front camera 21 and one side of the quadrangle QL1 is specified, but this is not the only option. A plane may be specified by specifying the normal direction of the plane. For example, the normal direction of the plane may be obtained from the outer product of the direction vectors from the optical center OC to each vertex, and the plane may be identified by the normal direction. In this case, the normal direction of the first surface F1 and the normal direction of the third surface F3 are set as one set, and the normal direction of the second surface F2 and the normal direction of the fourth surface F4 are set as another set. Two sets may be identified.

また、面は平行移動させてもよい。例えば第1面F1の代わりに、第1面F1を平行移動させた面を第3面F3と組としてもよい。平行移動しても所定の平面との交線の向きは変わらないからである。 Also, the plane may be translated. For example, instead of the first plane F1, a plane translated from the first plane F1 may be paired with the third plane F3. This is because the direction of the line of intersection with a predetermined plane does not change even if it is translated.

図2に戻って、ステップS5では、確定部122が所定の条件に従って姿勢の推定を確定させる処理を行う。具体的には、確定部122は、4つの車載カメラ21~24のそれぞれについて姿勢の推定結果の獲得数の累積値を求める。第1回目の姿勢の推定処理後においては、得られた獲得数が、そのまま累積値になる。第2回目以降においては、前回得られた累積値に、今回得られた獲得数を加算して獲得数の累積値が得られる。 Returning to FIG. 2, in step S5, the determination unit 122 performs a process of determining the estimated orientation according to predetermined conditions. Specifically, the determination unit 122 obtains the cumulative number of obtained posture estimation results for each of the four vehicle-mounted cameras 21 to 24 . After the first posture estimation process, the acquired number becomes the accumulated value as it is. From the second time onwards, the cumulative value of the acquired number is obtained by adding the acquired number obtained this time to the cumulative value acquired last time.

確定部122は、4つの車載カメラ21~24のそれぞれについて、獲得数の累積値を所定の複数回数と比較する。獲得数の累積値が所定の複数回数以上に到達したカメラについて、確定部122は、その時点で得られている複数の推定結果に基づき姿勢の推定を確定させる。確定部122は、例えば、複数の推定結果の平均値、複数の推定結果から作成されるヒストグラムの中央値やピーク値等を姿勢推定の確定値とする。獲得数の累積値が所定の複数回数以上に到達しないカメラについては、姿勢の推定を確定させないと判断され、姿勢推定は確定されない。確定部122は、推定確定処理が完了すると、次のステップS6に処理を進める。 The determination unit 122 compares the cumulative number of acquisitions with a predetermined multiple number of times for each of the four vehicle-mounted cameras 21 to 24 . For a camera for which the cumulative number of acquisitions has reached a predetermined number of times or more, the determination unit 122 determines the orientation estimation based on the multiple estimation results obtained at that time. The determining unit 122 uses, for example, an average value of a plurality of estimation results, a median value or a peak value of a histogram created from a plurality of estimation results, or the like as a determined posture estimation value. For a camera for which the cumulative number of acquisitions does not reach a predetermined number of times or more, it is determined that the orientation estimation is not confirmed, and the orientation estimation is not confirmed. When the estimation confirmation process is completed, the confirmation unit 122 advances the process to the next step S6.

ステップS6では、確定部122は、全ての車載カメラ21~24について姿勢の推定が確定されたか否かを確認する。全ての車載カメラ21~24について姿勢の推定が確定されている場合には(ステップS6でYes)、図2に示す処理が終了する。この場合は、全ての車載カメラ21~24について姿勢の推定が確定されており、姿勢推定の確定結果が姿勢推定装置1から出力可能になる。なお、姿勢推定が確定したカメラが発生するたびに、姿勢推定の確定結果が外部に出力されてよい。姿勢推定の確定結果に基づいて、例えば、車載カメラ21~24の取付けのずれが生じた状態であるか否かが判定される。車載カメラ21~24の取付けのずれが生じた状態であると判定された場合、例えば、当該異常事態が自車両のユーザに報知される。これにより、自車両のユーザはディーラによるカメラの取付調整を依頼する等の対策をとることが可能となる。 In step S6, the confirming unit 122 confirms whether or not the estimation of the orientations of all the vehicle-mounted cameras 21-24 has been confirmed. If the orientations of all the vehicle-mounted cameras 21 to 24 have been estimated (Yes in step S6), the process shown in FIG. 2 ends. In this case, the estimation of the orientation of all the on-vehicle cameras 21 to 24 is confirmed, and the confirmation result of the orientation estimation can be output from the orientation estimation device 1 . It should be noted that each time a camera for which pose estimation has been determined occurs, the determination result of pose estimation may be output to the outside. For example, it is determined whether or not the on-vehicle cameras 21 to 24 are in a state of misalignment based on the determination result of posture estimation. When it is determined that the on-vehicle cameras 21 to 24 are dislocated, for example, the user of the vehicle is notified of the abnormal situation. As a result, the user of the own vehicle can take measures such as requesting the dealer to adjust the mounting of the camera.

また、各車載カメラ21~24の姿勢推定の確定結果は、各車載カメラ21~24のパラメータの補正に利用されてよい。これにより、車載カメラ21~24の取付けのずれが生じても、そのずれに応じたカメラのキャリブレーションが実行されることになり、車載カメラ21~24の取付けのずれが撮影画像に及ぼす悪影響を抑制することができる。また、姿勢の推定結果は、複数の車両とネットワークにより通信可能に設けられるセンターに撮影画像を送信する場合に、撮影画像とセットにしてセンターに送信されてもよい。これにより、センターでの撮影情報の取り扱いを適切に行うことができる。 Further, the confirmed result of the posture estimation of each of the vehicle-mounted cameras 21-24 may be used for correcting the parameters of each of the vehicle-mounted cameras 21-24. As a result, even if there is a misalignment in the mounting of the vehicle-mounted cameras 21-24, camera calibration is executed according to the misalignment, and the adverse effect of the mounting misalignment of the vehicle-mounted cameras 21-24 on the captured image is eliminated. can be suppressed. Further, when the photographed images are transmitted to a center which is provided so as to be able to communicate with a plurality of vehicles via a network, the posture estimation result may be transmitted to the center together with the photographed images. As a result, it is possible to appropriately handle the photographing information at the center.

姿勢の推定が確定されていない車載カメラ21~24が存在する場合には(ステップS6でNo)、ステップS7に処理が進められる。 If there are onboard cameras 21 to 24 whose orientations have not been estimated (No in step S6), the process proceeds to step S7.

ステップS7では、設定部123により、車載カメラ21~24毎の優先度を変更する必要があるか否かが判定される。図10は、第1実施形態の姿勢推定装置1における優先度変更の判定処理の一例を示すフローチャートである。図10は、図2におけるステップS7の処理の詳細を示すフローチャートである。 In step S7, the setting unit 123 determines whether or not it is necessary to change the priority of each of the vehicle-mounted cameras 21-24. FIG. 10 is a flowchart showing an example of priority change determination processing in the posture estimation apparatus 1 of the first embodiment. FIG. 10 is a flow chart showing details of the process of step S7 in FIG.

図10に示すように、まず、設定部123は、姿勢の推定が確定した車載カメラ21~24があるか否かを確認する(ステップS71)。詳細には、設定部123は、直前に行われた推定確定処理で新たに姿勢の推定が確定したカメラが発生した場合、姿勢の推定が確定した車載カメラ21~24があると判断する。そして、設定部123は、姿勢の推定が確定した車載カメラ21~24がある場合(ステップS71でYes)、優先度の変更が必要と判定する(ステップS72)。 As shown in FIG. 10, first, the setting unit 123 confirms whether or not there are any vehicle-mounted cameras 21 to 24 whose orientations have been estimated (step S71). More specifically, when there is a new camera whose posture estimation has been confirmed in the estimation confirmation processing performed immediately before, the setting unit 123 determines that there is an in-vehicle camera 21 to 24 whose orientation has been confirmed. Then, if there are any of the vehicle-mounted cameras 21 to 24 whose orientations have been estimated (Yes in step S71), the setting unit 123 determines that the priority needs to be changed (step S72).

すなわち、本実施形態では、設定部123は、姿勢の推定が確定されたカメラが発生すると、優先度を変更する。これによると、姿勢の推定を確定させるためにデータの蓄積が必要なカメラに対して優先的に姿勢の推定処理を行うことができる。 That is, in the present embodiment, the setting unit 123 changes the priority when there is a camera whose orientation has been estimated. According to this, it is possible to preferentially perform orientation estimation processing for a camera that needs to accumulate data in order to confirm orientation estimation.

一方、設定部123は、直前に行われた推定確定処理で新たに姿勢の推定が確定したカメラが発生しなかった場合、姿勢の推定が確定した車載カメラ21~24がないと判断して(ステップS71でNo)、次の処理を行う。詳細には、設定部123は、4つの車載カメラ21~24のそれぞれについて得られた推定結果の獲得数の累積値の中から、最大数と最小数を抽出する。そして、設定部123は、最大数と最小数と差が所定閾値以上になったか否かを確認する(ステップS73)。 On the other hand, if there is no new camera whose orientation has been estimated in the immediately preceding estimation confirmation processing, the setting unit 123 determines that there is no vehicle-mounted camera 21 to 24 whose orientation has been estimated ( If No in step S71), the following processing is performed. Specifically, the setting unit 123 extracts the maximum number and the minimum number from the accumulated values of the number of estimation results obtained for each of the four vehicle-mounted cameras 21 to 24 . Then, the setting unit 123 confirms whether or not the difference between the maximum number and the minimum number is equal to or greater than a predetermined threshold (step S73).

設定部123は、最大数と最小数と差が所定閾値以上になった場合(ステップS73でYes)、ステップS72に処理を進める。すなわち、本実施形態では、カメラ21~24毎に得られる獲得数の累積値の最大数と最小数との差が所定閾値以上になると、優先度を変更する。これによると、複数のカメラ21~24間において、推定結果の獲得数の累積値に偏りが発生することを抑制できる。 If the difference between the maximum number and the minimum number is greater than or equal to the predetermined threshold (Yes in step S73), the setting unit 123 advances the process to step S72. That is, in the present embodiment, when the difference between the maximum number and the minimum number of accumulated values of acquisition numbers obtained for each of the cameras 21 to 24 becomes equal to or greater than a predetermined threshold, the priority is changed. According to this, it is possible to suppress the occurrence of bias in the accumulated number of obtained estimation results among the plurality of cameras 21 to 24 .

一方、設定部123は、最大数と最小数と差が所定閾値以上に到達していない場合(ステップS73でNo)、前回の優先度変更の判定処理の際に、最大数と最小数との差が所定閾値以上であったか否かを確認する(ステップS74)。設定部123は、前回の優先度変更の判定処理の際に、最大数と最小数との差が所定閾値以上であった場合(ステップS74でYes)、ステップS72に処理を進める。 On the other hand, if the difference between the maximum number and the minimum number has not reached the predetermined threshold value or more (No in step S73), the setting unit 123 determines the difference between the maximum number and the minimum number during the previous priority change determination process. It is checked whether the difference is greater than or equal to a predetermined threshold (step S74). If the difference between the maximum number and the minimum number is greater than or equal to the predetermined threshold value in the previous priority change determination process (Yes in step S74), the setting unit 123 advances the process to step S72.

すなわち、本実施形態では、設定部123は、最大数と最小数との差が所定閾値以上になった後に所定閾値より小さくなった場合に優先度を変更する。これによると、優先度の設定を適切に見直して推定結果の獲得数の累積値に偏りが発生することを抑制できる。 That is, in the present embodiment, the setting unit 123 changes the priority when the difference between the maximum number and the minimum number becomes smaller than the predetermined threshold after becoming equal to or greater than the predetermined threshold. According to this, it is possible to appropriately review the setting of the priority and suppress the occurrence of bias in the accumulated value of the acquisition number of the estimation result.

設定部123は、前回の優先度変更の判定処理の際に、最大数と最小数との差が所定閾値より小さかった場合(ステップS74でNo)、優先度の変更が不要と判定する(ステップS75)。 When the difference between the maximum number and the minimum number is smaller than the predetermined threshold value in the previous priority change determination process (No in step S74), the setting unit 123 determines that the priority change is unnecessary (step S75).

図2に戻って、ステップS7において、優先度の変更を行うと判定されると(ステップS7でYes)、ステップS8に処理が進められる。ステップS7において、優先度の変更が不要と判定されると(ステップS7でNo)、ステップS10に処理が進められる。 Returning to FIG. 2, when it is determined in step S7 that the priority is to be changed (Yes in step S7), the process proceeds to step S8. If it is determined in step S7 that the priority need not be changed (No in step S7), the process proceeds to step S10.

ステップS8では、設定部123が優先度の設定を変更する。設定部123は、姿勢の推定が確定した車載カメラ21~24がある場合には、当該カメラの優先度を下げる。設定部123は、車載カメラ21~24毎に得られる推定結果の獲得数の累積値の、最大数と最小数との差が所定閾値以上になっている場合、推定結果の獲得数の累積値が多いカメラの優先度を下げる。設定部123は、最大数と最小数との差が所定閾値以上になった後に所定閾値より小さくなったカメラが存在する場合、先の回で下げた優先度を元に戻す。本実施形態では、優先度が下げられると、姿勢の推定処理の順番が飛ばされる。優先度の低いカメラの順番を飛ばすことにより、優先度の高いカメラの処理を時間的に優先して進めることができる。設定部123による優先度の設定が行われると、次のステップS9に処理が進められる。 In step S8, the setting unit 123 changes the priority setting. If there are any of the vehicle-mounted cameras 21 to 24 whose orientations have been estimated, the setting unit 123 lowers the priority of the cameras. When the difference between the maximum number and the minimum number of the cumulative number of estimation results obtained for each of the vehicle-mounted cameras 21 to 24 is equal to or greater than a predetermined threshold, the setting unit 123 sets the cumulative value of the number of estimation results to be acquired. Decrease the priority of the camera with the most If there is a camera whose difference between the maximum number and the minimum number has become smaller than the predetermined threshold after the difference between the maximum number and the minimum number has become equal to or greater than the predetermined threshold, the setting unit 123 restores the priority lowered in the previous round. In this embodiment, when the priority is lowered, the order of posture estimation processing is skipped. By skipping the order of cameras with low priority, the processing of cameras with high priority can be given priority in terms of time. After setting the priority by the setting unit 123, the process proceeds to the next step S9.

ステップS9では、設定部123は、設定変更された優先度にしたがって、推定処理の対象となるカメラについて、順に姿勢の推定処理を行う。推定処理の対象とされた全てのカメラに対して推定処理を終わると、ステップS5の処理に戻る。 In step S<b>9 , the setting unit 123 sequentially performs posture estimation processing for the cameras to be subjected to estimation processing according to the changed priority. When the estimation process is completed for all the cameras targeted for the estimation process, the process returns to step S5.

ステップS10では、設定部123は、先の回と同じ優先度を維持して、推定対象となるカメラについて、順に姿勢の推定処理を行う。推定処理の対象とされた全てのカメラに対して推定処理を終わると、ステップS5の処理に戻る。 In step S<b>10 , the setting unit 123 maintains the same priority as the previous time, and sequentially performs posture estimation processing for the cameras to be estimated. When the estimation process is completed for all the cameras targeted for the estimation process, the process returns to step S5.

図11は、第1実施形態の姿勢推定装置1における優先度の設定について説明するための図である。図11に示す具体例に基づいて、姿勢推定装置1における優先度の設定について更に説明する。図11に示す例では、デフォルトにおいて4つの車載カメラ21~24に優先度の差はない。デフォルトにおいて、各車載カメラ21~24に対して1回ずつ姿勢の推定処理の順番が与えられる。図11において、実施は姿勢の推定処理が実行されることを指し、未実施は姿勢の推定処理が実行されないことを指す。図11に示す累積値は、姿勢の推定結果の獲得数の累積値である。図11に示す例では、累積値が80(=所定の複数回)以上に到達すると姿勢の推定が確定される。累積値の最大数と最小数との差を判定する所定閾値は20である。 FIG. 11 is a diagram for explaining priority setting in the posture estimation apparatus 1 of the first embodiment. The priority setting in the posture estimation device 1 will be further described based on the specific example shown in FIG. 11 . In the example shown in FIG. 11, there is no priority difference between the four vehicle-mounted cameras 21 to 24 by default. By default, each of the vehicle-mounted cameras 21 to 24 is given an order of attitude estimation processing once. In FIG. 11, "implemented" means that the posture estimation process is executed, and "not implemented" means that the posture estimation process is not executed. The cumulative values shown in FIG. 11 are cumulative values of the acquisition number of posture estimation results. In the example shown in FIG. 11, when the cumulative value reaches 80 (=predetermined multiple times) or more, the posture estimation is finalized. A predetermined threshold value for determining the difference between the maximum number and the minimum number of accumulated values is 20.

第1回目においては、推定処理の優先度に差がなく、フロントカメラ21、バックカメラ22、左サイドカメラ23、右サイドカメラ24の順に推定処理が行われる。推定処理後の各車載カメラ21~24の累積値はいずれも10であり、いずれのカメラにおいても姿勢の推定は確定されない。また、累積値の最大数と最小数の差はゼロであり、所定閾値(=20)より小さい。更に、初回のために、先の回のデータはなく、前回に累積値の最大数と最小数の差が所定閾値以上であったという事実もない。したがって、4つの車載カメラ21~24の推定処理後に行われる優先度変更の判定処理において、優先度の設定変更不要と判定される。 In the first time, there is no difference in the priority of the estimation process, and the estimation process is performed in the order of the front camera 21, the back camera 22, the left side camera 23, and the right side camera 24. FIG. The accumulated values of the vehicle-mounted cameras 21 to 24 after the estimation process are all 10, and the posture estimation is not confirmed for any of the cameras. Also, the difference between the maximum number and the minimum number of cumulative values is zero, which is smaller than the predetermined threshold (=20). Furthermore, since it is the first time, there is no data for the previous time, and there is no fact that the difference between the maximum number and the minimum number of accumulated values was equal to or greater than a predetermined threshold value the previous time. Therefore, in the priority change determination process performed after the estimation process for the four vehicle-mounted cameras 21 to 24, it is determined that the priority setting need not be changed.

第2回目においては、第1回目と同様に、フロントカメラ21、バックカメラ22、左サイドカメラ23、右サイドカメラ24の順に推定処理が行われる。推定処理後の各車載カメラ21~24の累積値はいずれも80以上に到達しておらず、いずれのカメラにおいても姿勢の推定は確定されない。一方、累積値の最大数(=50)と最小数(=20)の差は30であり、所定閾値(=20)より大きい。このために、4つの車載カメラ21~24の推定処理後に行われる優先度変更の判定処理において、優先度の設定変更必要と判定される。この例では、累積値が最小数に対して20以上(この設定は適宜変更されてよい)大きくなっているカメラについて、優先度が下げられる。すなわち、フロントカメラ21とバックカメラ22とは優先度が下げられ、次回(第3回目)の順番が飛ばされる。 In the second time, estimation processing is performed in the order of the front camera 21, the back camera 22, the left side camera 23, and the right side camera 24, as in the first time. None of the accumulated values of the vehicle-mounted cameras 21 to 24 after the estimation process reaches 80 or more, and the estimation of the posture is not confirmed for any of the cameras. On the other hand, the difference between the maximum number (=50) and the minimum number (=20) of cumulative values is 30, which is larger than the predetermined threshold (=20). For this reason, in the priority change determination process that is performed after the estimation process for the four vehicle-mounted cameras 21 to 24, it is determined that the priority setting needs to be changed. In this example, the priority is lowered for cameras whose cumulative value is greater than the minimum number by 20 or more (this setting may be changed as appropriate). That is, the priority of the front camera 21 and the back camera 22 is lowered, and the next (third) order is skipped.

第3回目においては、左サイドカメラ23、右サイドカメラ24の順に推定処理が行われる。推定処理後の各車載カメラ21~24の累積値はいずれも80以上に到達しておらず、いずれのカメラにおいても姿勢の推定は確定されない。累積値の最大数(=50)と最小数(=40)の差は所定数(=20)より小さい。ただし、前回確認時において、累積値の最大数と最小数の差は所定閾値より大きかったので、最大数と最小数との差が所定閾値以上になった後に所定閾値より小さくなった場合に該当する。このために、2つの車載カメラ23、24の推定処理後に行われる優先度変更の判定処理において、優先度の設定変更必要と判定される。具体的には、前回優先度が下げられたフロントカメラ21とバックカメラ22との優先度の設定が元に戻される。すなわち、4つの車載カメラ21~24の推定処理の優先度に差がなくなり、次回(第4回目)は、4つの車載カメラ21~24の推定処理が行われる。 In the third time, estimation processing is performed in order of the left side camera 23 and the right side camera 24 . None of the accumulated values of the vehicle-mounted cameras 21 to 24 after the estimation process reaches 80 or more, and the estimation of the posture is not confirmed for any of the cameras. The difference between the maximum number (=50) and the minimum number (=40) of cumulative values is smaller than the predetermined number (=20). However, since the difference between the maximum and minimum cumulative values was larger than the predetermined threshold at the time of the previous confirmation, it corresponds to the case where the difference becomes smaller than the predetermined threshold after the difference becomes equal to or greater than the predetermined threshold. do. Therefore, in the priority change determination process performed after the estimation process of the two vehicle-mounted cameras 23 and 24, it is determined that the priority setting needs to be changed. Specifically, the priority setting of the front camera 21 and the back camera 22 whose priority was lowered last time is restored. That is, there is no difference in the priority of the estimation processing of the four vehicle-mounted cameras 21-24, and the estimation processing of the four vehicle-mounted cameras 21-24 is performed next time (fourth time).

第4回目においては、フロントカメラ21、バックカメラ22、左サイドカメラ23、右サイドカメラ24の順に推定処理が行われる。推定処理後において、フロントカメラ21について、累積値が80以上に到達しており、姿勢の推定が確定される。このために、4つの車載カメラ21~24の推定処理後に行われる優先度変更の判定処理において、優先度の設定変更必要と判定される。具体的には、姿勢の推定が確定されたフロントカメラ21の優先度の設定が下げられ、次回(第5回目)の順番が飛ばされる。 In the fourth time, estimation processing is performed in order of the front camera 21, the back camera 22, the left side camera 23, and the right side camera 24. FIG. After the estimation process, the cumulative value reaches 80 or more for the front camera 21, and the estimation of the orientation is confirmed. For this reason, in the priority change determination process that is performed after the estimation process for the four vehicle-mounted cameras 21 to 24, it is determined that the priority setting needs to be changed. Specifically, the priority setting of the front camera 21 whose orientation has been estimated is lowered, and the next (fifth) order is skipped.

なお、本例では、第4回目において、累積値の最大数は80、最小数は65となる。このために、最大数と最小数との差は所定閾値(=20)より小さく、この観点に基づいて優先度の設定は変更されない。ただし、右サイドカメラ24の累積値が50であったとする。この場合には、最大数(=80)と最小数(=50)との差が所定閾値(=20)以上となるために、最大数と最小数との差を考慮して優先度の設定が行われる。例えば、最小数より累積値が所定数(本例では20)以上となるバックカメラ22と左サイドカメラ23も優先度が下げられる。 In this example, the maximum number of accumulated values is 80 and the minimum number is 65 at the fourth time. For this reason, the difference between the maximum number and the minimum number is smaller than a predetermined threshold (=20), and the priority setting is not changed based on this point of view. However, it is assumed that the cumulative value of the right side camera 24 is 50. In this case, since the difference between the maximum number (=80) and the minimum number (=50) is equal to or greater than the predetermined threshold (=20), the priority is set in consideration of the difference between the maximum number and the minimum number. is done. For example, the priority of the back camera 22 and the left side camera 23 whose cumulative value is equal to or greater than a predetermined number (20 in this example) from the minimum number is lowered.

第5回目においては、バックカメラ22、左サイドカメラ23、右サイドカメラ24の順に推定処理が行われる。推定処理を行った3つのカメラ22~24の全てについて、累積値が80以上に到達しており、これらのカメラ22~24について、姿勢の推定が確定される。この場合、4つの車載カメラ21~24の全てについて姿勢の推定が確定されたことになるために、一連の姿勢の推定処理は一旦終了される。 In the fifth time, estimation processing is performed in the order of the back camera 22, the left side camera 23, and the right side camera 24. FIG. The cumulative value reaches 80 or more for all the three cameras 22 to 24 that have undergone the estimation process, and the pose estimation is finalized for these cameras 22 to 24 . In this case, the posture estimation for all four on-vehicle cameras 21 to 24 has been determined, so the series of posture estimation processing is temporarily terminated.

なお、以上においては、累積値の最大数と最小数を判断するに際して、常に、4つの車載カメラ21~24の全てを使う構成としているが、このような構成でなくてもよい。例えば、姿勢の推定が確定したカメラが発生した場合には、当該カメラを除外して、累積値の最大数と最小数との比較が行われる構成としてもよい。すなわち、姿勢の推定処理が確定していないカメラにのみ注目して累積値の最大数と最小数との比較が行われる構成としてもよい。 In the above description, all the four onboard cameras 21 to 24 are always used when determining the maximum number and minimum number of cumulative values, but this configuration is not necessary. For example, when a camera whose orientation has been estimated is generated, the camera may be excluded and the maximum number and the minimum number of cumulative values are compared. That is, a configuration may be adopted in which the comparison between the maximum number and the minimum number of accumulated values is performed by paying attention only to the camera for which the orientation estimation process has not been determined.

<2.第2実施形態>
次に、第2実施形態の姿勢推定装置について説明する。第2実施形態の説明にあたっては、第1実施形態と重複する内容については、特に説明の必要がない場合には説明を省略する。
<2. Second Embodiment>
Next, a posture estimation device according to the second embodiment will be described. In the explanation of the second embodiment, the explanation of the contents overlapping with the first embodiment will be omitted if there is no particular need for explanation.

図12は、第2実施形態に係る姿勢推定装置1Aの構成を説明するための図である。図12に示すように、第2実施形態においては、制御部12AのCPUが記憶部13に記憶されるプログラムに従って演算処理を実行することにより実現される機能に判断部124が含まれる。すなわち、姿勢推定装置1Aが判断部124を備える。この点が、第1実施形態と異なる。 FIG. 12 is a diagram for explaining the configuration of a posture estimation device 1A according to the second embodiment. As shown in FIG. 12 , in the second embodiment, the function realized by the CPU of the control unit 12A executing arithmetic processing according to the program stored in the storage unit 13 includes the judgment unit 124 . That is, posture estimation apparatus 1A includes determination section 124 . This point is different from the first embodiment.

判断部124は、複数の車載カメラ21~24の中に、推定結果の獲得数以外に基づく優先条件を有するカメラが存在するか否かを判断する。推定結果の獲得数以外に基づく優先条件は、例えば、運転者の視界に基づく優先条件、自車両の操作状況に基づく優先条件、ナビゲーション装置からの情報に基づく優先条件等であってよい。 The determination unit 124 determines whether or not there is a camera having a priority condition other than the number of obtained estimation results among the plurality of in-vehicle cameras 21 to 24 . The priority condition based on factors other than the number of estimation results obtained may be, for example, a priority condition based on the driver's field of view, a priority condition based on the operation status of the own vehicle, a priority condition based on information from the navigation device, or the like.

運転者の視界に基づく優先条件は、例えば、予め記憶部13に記憶されている。例えば、運転者の視界が確保し易い方向を撮影するフロントカメラ21や右サイドカメラ24(運転席が右側を想定)は、運転者の視界が確保し難い方向を撮影するバックカメラ22や左サイドカメラ23に比べて、推定処理の優先度が下げられる。 A priority condition based on the driver's field of view is stored in the storage unit 13 in advance, for example. For example, the front camera 21 and the right side camera 24 (assuming that the driver's seat is on the right side) that capture images in a direction in which the driver's field of view is easily secured are replaced by the rear camera 22 and the left side camera that captures a direction in which the driver's field of vision is difficult to secure. The priority of estimation processing is lowered compared to the camera 23 .

自車両の操作状況に基づく優先条件は、例えば、通信バスB1を介して舵角センサ3から得られる情報や、不図示のシフトセンサから得られる情報等に基づいて判断部124が設定してもよいし、外部から入力されてもよい。例えば、シフトセンサが後退である場合には、バックカメラ22の推定処理の優先度が上げられる。 The priority condition based on the operation status of the host vehicle may be set by the determination unit 124 based on, for example, information obtained from the steering angle sensor 3 via the communication bus B1, information obtained from a shift sensor (not shown), or the like. Alternatively, it may be input from the outside. For example, when the shift sensor is in reverse, the priority of the estimation process of the back camera 22 is raised.

ナビゲーション装置からの情報に基づく優先条件は、姿勢推定装置1Aに接続される不図示のナビゲーション装置から得られる情報に基づいて判断部124が設定してもよいし、外部から入力されてもよい。例えば、ナビゲーション装置において設定された経路からこの先において右折や左折が想定される場合には、当該曲がる方向に対応したカメラの推定処理の優先度が上げられる。 The priority condition based on the information from the navigation device may be set by the determination unit 124 based on information obtained from a navigation device (not shown) connected to the posture estimation device 1A, or may be input from the outside. For example, when a right turn or a left turn is assumed ahead of the route set in the navigation device, the priority of the estimation process of the camera corresponding to the turning direction is raised.

設定部123は、優先条件を有する車載カメラ21~24が存在する場合に、当該優先条件に基づいて推定処理の優先度を設定する。これによれば、車両の運転シーン等に合わせて推定処理の優先度の設定の仕方を変更することができ、運転シーンに適したカメラの姿勢推定を行うことができる。 The setting unit 123 sets the priority of the estimation process based on the priority condition when the vehicle-mounted cameras 21 to 24 having the priority condition exist. According to this, it is possible to change the method of setting the priority of the estimation process in accordance with the driving scene of the vehicle, etc., and perform the posture estimation of the camera suitable for the driving scene.

図13は、第2実施形態の姿勢推定装置1Aにおいて、4つの車載カメラ21~24の姿勢の推定を行う場合に実行される処理の一例を示すフローチャートである。図13の処理の開始時においては、4つの車載カメラ21~24毎の姿勢の推定処理の優先度は同じとされる。すなわち、図13の処理の開始時において、4つの車載カメラ21~24の姿勢の推定処理の頻度には差がない。なお、本例では、新しい優先条件が発生すると、古い優先条件は更新される。また、優先条件にしたがって、優先対象のカメラの姿勢の推定が確定した場合、新たに優先条件が発生しない限り、優先条件はないものとして扱う。ただし、この優先条件の扱いは例示にすぎず、適宜変更されてよい。 FIG. 13 is a flow chart showing an example of processing executed when estimating the postures of the four vehicle-mounted cameras 21 to 24 in the posture estimation device 1A of the second embodiment. At the start of the process of FIG. 13, the priority of the posture estimation process for each of the four vehicle-mounted cameras 21 to 24 is the same. That is, at the start of the processing of FIG. 13, there is no difference in the frequency of estimation processing of the postures of the four vehicle-mounted cameras 21-24. Note that in this example, when a new priority condition occurs, the old priority condition is updated. Also, when the orientation of the camera to be prioritized is estimated according to the priority condition, it is treated as if there is no priority condition unless a new priority condition occurs. However, the handling of this priority condition is merely an example, and may be changed as appropriate.

ステップS31では、判断部124は、推定処理の獲得数以外に基づく優先条件(以下、単に優先条件と記載することがある)を有するカメラが存在するか否かを確認する。判断部124は、記憶部13に記憶される情報、通信バスB1を利用して得られるCAN情報、ナビゲーション装置から得られるルート情報等を確認することにより、優先条件を有するカメラが存在するか否かを判断する。判断部124により優先条件を有するカメラがあると判断された場合(ステップS31でYes)、ステップS32に処理が進められる。一方、判断部124により優先条件を有するカメラがないと判断された場合(ステップS31でNo)、ステップS34に処理が進められる。 In step S31, the determination unit 124 confirms whether or not there is a camera having a priority condition (hereinafter sometimes simply referred to as a priority condition) based on factors other than the number of acquisitions in the estimation process. The determination unit 124 checks the information stored in the storage unit 13, the CAN information obtained using the communication bus B1, the route information obtained from the navigation device, and the like to determine whether or not there is a camera having a priority condition. to judge whether If the determining unit 124 determines that there is a camera having a priority condition (Yes in step S31), the process proceeds to step S32. On the other hand, if the determination unit 124 determines that there is no camera having a priority condition (No in step S31), the process proceeds to step S34.

ステップS32では、設定部123は、優先条件に従って各車載カメラ21~24の優先度を設定する。これにより、優先度の設定が処理の開始時の設定から変更される。設定部123により優先度が設定されると、ステップS33に処理が進められる。 In step S32, the setting unit 123 sets the priority of each vehicle-mounted camera 21-24 according to the priority condition. As a result, the priority setting is changed from the setting at the start of processing. After the priority is set by the setting unit 123, the process proceeds to step S33.

ステップS33では、変更設定された優先度にしたがって、姿勢の推定処理の対象となるカメラについて、推定処理が順に行われる。なお、姿勢の推定対象となるカメラは、複数のことも単数のこともあり得る。推定対象の対象とされた全てのカメラに対して推定処理が終わると、ステップS35に処理が進められる。 In step S33, the estimation process is sequentially performed for the cameras to be subjected to the attitude estimation process according to the changed priority. It should be noted that there may be a plurality of cameras or a single camera whose orientation is to be estimated. When the estimation process is completed for all the cameras to be estimated, the process proceeds to step S35.

ステップS34では、優先条件を有するカメラがないために優先度が変更されず、処理の開始時に設定された優先度(全てのカメラ21~24で同じ)で、推定処理の対象となるカメラの推定処理が順に行われる。本例では、フロントカメラ21、バックカメラ22、左サイドカメラ23、右サイドカメラ24の順に姿勢の推定処理が行われる。4つの車載カメラ21~24の全てについて姿勢の推定処理が終わると、ステップS35に処理が進められる。 In step S34, the priority is not changed because there is no camera with a priority condition, and the camera to be the target of the estimation process is estimated with the priority set at the start of the process (same for all cameras 21 to 24). Processing is done in order. In this example, posture estimation processing is performed in the order of the front camera 21, the back camera 22, the left side camera 23, and the right side camera 24. FIG. When the posture estimation processing for all the four vehicle-mounted cameras 21 to 24 is completed, the processing proceeds to step S35.

ステップS35では、確定部122が所定の条件に従って姿勢の推定を確定させる処理を行う。当該処理は、先に説明した図2のステップS5と同じために説明を省略する。確定部122は、推定確定処理が完了すると、次のステップS36に処理を進める。 In step S35, the determination unit 122 performs a process of determining the estimated posture according to a predetermined condition. Since this process is the same as step S5 in FIG. 2 described above, description thereof is omitted. When the estimation confirmation process is completed, the confirmation unit 122 advances the process to the next step S36.

ステップS36では、確定部122は、全ての車載カメラ21~24について姿勢の推定が確定されたか否かを確認する。全ての車載カメラ21~24について姿勢の推定が確定されている場合には(ステップS36でYes)、図13に示す処理が終了する。姿勢の推定が確定されていない車載カメラ21~24が存在する場合には(ステップS36でNo)、ステップS37に処理が進められる。 In step S36, the determination unit 122 confirms whether or not the estimation of the orientations of all the vehicle-mounted cameras 21 to 24 has been determined. If the orientations of all the vehicle-mounted cameras 21 to 24 have been estimated (Yes in step S36), the process shown in FIG. 13 ends. If there are onboard cameras 21 to 24 whose orientations have not been estimated (No in step S36), the process proceeds to step S37.

ステップS37では、設定部123により、車載カメラ21~24毎の優先度を変更する必要があるか否かが判定される。図14は、第2実施形態の姿勢推定装置1Aにおける優先度変更の判定処理の一例を示すフローチャートである。図14は、図13におけるステップS37の処理の詳細を示す図である。 In step S37, the setting unit 123 determines whether or not it is necessary to change the priority of each of the vehicle-mounted cameras 21-24. FIG. 14 is a flowchart showing an example of priority change determination processing in the posture estimation apparatus 1A of the second embodiment. FIG. 14 is a diagram showing details of the process of step S37 in FIG.

設定部123は、まず、新たな優先条件が発生したか否かを確認する(ステップS371)。新たな優先条件は、その時点で設定されているカメラ21~24毎の優先度において加味されていない優先条件である。新たな優先条件が発生した場合には(ステップS371でYes)、設定部123は、優先度の変更が必要と判定する(ステップS372)。 The setting unit 123 first confirms whether or not a new priority condition has occurred (step S371). A new priority condition is a priority condition that is not taken into consideration in the priority for each of the cameras 21 to 24 set at that time. If a new priority condition occurs (Yes in step S371), the setting unit 123 determines that the priority needs to be changed (step S372).

新たな優先条件が発生していない場合には(ステップS371でNo)、設定部123は、姿勢の推定が確定した車載カメラ21~24があるか否かを確認する(ステップS373)。当該確認処理は、図10のステップS71と同様である。設定部123は、姿勢の推定が確定した車載カメラ21~24がある場合(ステップS373でYes)、優先度の変更が必要と判定する(ステップS372)。 If a new priority condition has not occurred (No in step S371), the setting unit 123 confirms whether or not there are any vehicle-mounted cameras 21 to 24 whose orientations have been estimated (step S373). The confirmation process is the same as step S71 in FIG. If there are any vehicle-mounted cameras 21 to 24 whose orientations have been estimated (Yes in step S373), the setting unit 123 determines that the priority needs to be changed (step S372).

姿勢の推定が確定した車載カメラ21~24がない場合(ステップS373でNo)、設定部123は、現在の優先度が優先条件に従って設定されたものか否かを確認する(ステップS374)。現在の優先度が優先条件に従って設定されたものである場合(ステップS374でYes)、優先度の設定変更不要と判定する(ステップS377)。 If there is no in-vehicle camera 21 to 24 whose orientation has been estimated (No in step S373), the setting unit 123 checks whether the current priority is set according to the priority condition (step S374). If the current priority is set according to the priority condition (Yes in step S374), it is determined that the priority setting need not be changed (step S377).

現在の優先度が優先条件に従って設定されたものでない場合(ステップS374でNo)、設定部123は、累積値の最大数と最小数と差が所定閾値以上になったか否かを確認する(ステップS375)。当該処理は、図10に示すステップS73と同じである。この後に行われるステップS376は、図10に示すステップS74と同様である。このため、これらの説明は省略する。 If the current priority is not set according to the priority condition (No in step S374), the setting unit 123 confirms whether or not the difference between the maximum number and the minimum number of cumulative values is equal to or greater than a predetermined threshold (step S375). The processing is the same as step S73 shown in FIG. Step S376 performed after this is the same as step S74 shown in FIG. Therefore, description of these will be omitted.

図13に戻って、ステップS37において、優先度の変更を行うと判定されると(ステップS37でYes)、ステップS38に処理が進められる。ステップS37において、優先度の変更が不要と判定されると(ステップS37でNo)、ステップS40に処理が進められる。 Returning to FIG. 13, when it is determined in step S37 that the priority is to be changed (Yes in step S37), the process proceeds to step S38. If it is determined in step S37 that the priority need not be changed (No in step S37), the process proceeds to step S40.

ステップS38~ステップS40の処理は、図2に示すステップ8~ステップS10の処理と同様である。このために説明を省略する。なお、優先度の設定変更を行う場合において、新たな優先条件が発生している場合には、先の優先条件を破棄して新たな優先条件で優先度の設定を行う点は、第1実施形態と異なる。 The processing of steps S38 to S40 is the same as the processing of steps 8 to S10 shown in FIG. For this reason, the description is omitted. In the case of changing the priority setting, if a new priority condition occurs, the previous priority condition is discarded and the priority is set according to the new priority condition. Different from the form.

図15は、第2実施形態の姿勢推定装置1Aにおける優先度の設定について説明するための図である。図15に示す具体例に基づいて、姿勢推定装置1Aにおける優先度の設定について更に説明する。図15に示す例では、記憶部13にバックカメラ22および左サイドカメラ23の推定処理を優先するように優先条件が記憶されている。図15において、実施は姿勢の推定処理が実行されることを指し、未実施は姿勢の推定処理が実行されないことを指す。図15に示す累積値は、姿勢の推定結果の獲得数の累積値である。図15に示す例では、累積値が80(=所定の複数回)以上に到達すると姿勢の推定が確定される。 FIG. 15 is a diagram for explaining priority setting in the posture estimation apparatus 1A of the second embodiment. The priority setting in the posture estimation apparatus 1A will be further described based on the specific example shown in FIG. In the example shown in FIG. 15, a priority condition is stored in the storage unit 13 so that the estimation processing of the back camera 22 and the left side camera 23 is prioritized. In FIG. 15, "implemented" means that the posture estimation process is executed, and "not implemented" means that the posture estimation process is not executed. The cumulative values shown in FIG. 15 are the cumulative values of the acquired number of posture estimation results. In the example shown in FIG. 15, posture estimation is determined when the cumulative value reaches 80 (=predetermined multiple times) or more.

第1回目においては、記憶部13に記憶される優先条件により、バックカメラ22および左サイドカメラ23の姿勢の推定処理の優先度が上げられる。この結果、第1回目においては、フロントカメラ21および右サイドカメラ24の順番が飛ばされ、バックカメラ22、左サイドカメラ23の順に推定処理が行われる。推定処理後のバックカメラ22おの累積値(=30)および左サイドカメラ23の累積値(=10)はいずれも80以上に到達しておらず、いずれのカメラにおいても姿勢の推定は確定されない。また、現在の優先度の設定は優先条件にしたがったものである。したがって、バックカメラ22および左サイドカメラ23の推定処理後に行われる優先度変更の判定処理において、新たな優先条件の発生が認められない場合には、優先度の設定変更不要と判定される。本例では、この段階では新たな優先条件は発生しておらず、優先度の設定は変更されない。 At the first time, the priority of the posture estimation processing of the back camera 22 and the left side camera 23 is raised according to the priority condition stored in the storage unit 13 . As a result, in the first time, the order of the front camera 21 and the right side camera 24 is skipped, and the estimation process is performed in the order of the back camera 22 and the left side camera 23 . Neither the cumulative value (=30) of the back camera 22 nor the cumulative value (=10) of the left side camera 23 after the estimation process has reached 80 or more, and the posture estimation is not confirmed for either camera. . Also, the current priority settings are in accordance with the priority conditions. Therefore, in the priority change determination process performed after the estimation process of the back camera 22 and the left side camera 23, if no new priority condition is found, it is determined that the priority setting need not be changed. In this example, no new priority condition occurs at this stage, and the priority setting is not changed.

なお、本例では、第1回目終了の時点で、バックカメラ22と左サイドカメラ23との間で、累積値の差が大きくなっている。この差をなくすために、第2回目においては、左サイドカメラ23の推定処理が優先される(バックカメラ22の順番が飛ばされる)構成としてもよい。すなわち、優先処理対象とされるカメラ毎に得られる推定結果の獲得数の累積値の、最大数と最小数との差が所定閾値以上になると優先度を変更してもよい。 In this example, at the end of the first time, the difference in accumulated value between the back camera 22 and the left side camera 23 is large. In order to eliminate this difference, a configuration may be adopted in which the estimation processing of the left side camera 23 is prioritized (the order of the back camera 22 is skipped) in the second time. That is, the priority may be changed when the difference between the maximum number and the minimum number of cumulative values of the number of estimation results obtained for each camera to be prioritized is equal to or greater than a predetermined threshold.

第2回目においては、第1回目と同様に、バックカメラ22、左サイドカメラ23の順に推定処理が行われる。ここでも、推定処理後のバックカメラ22および左サイドカメラ23の累積値はいずれも80以上に到達しておらず、いずれのカメラにおいても姿勢の推定は確定されない。また、現在の優先度の設定は優先条件にしたがったものである。したがって、バックカメラ22および左サイドカメラ23の推定処理後に行われる優先度変更の判定処理において、新たな優先条件の発生が認められない場合には、優先度の設定変更不要と判定される。本例では、この段階で新たな優先条件が発生する。このために、優先度の設定変更必要と判定される。新たな優先条件は、ナビゲーション装置からこの先に左折予定があるとの情報が得られたことにより発生した条件であり、具体的には、左サイドカメラ23の推定処理を優先するという条件である。新たな優先条件の発生により、優先度の設定が変更される。これにより、次回(第3回目)においては左サイドカメラ23の推定処理のみが行われる。 In the second time, estimation processing is performed in the order of the back camera 22 and the left side camera 23, as in the first time. Here also, the accumulated values of the back camera 22 and the left side camera 23 after the estimation process have not reached 80 or more, and the estimation of the posture is not confirmed for either camera. Also, the current priority settings are in accordance with the priority conditions. Therefore, in the priority change determination process performed after the estimation process of the back camera 22 and the left side camera 23, if no new priority condition is found, it is determined that the priority setting need not be changed. In this example, a new priority condition arises at this stage. Therefore, it is determined that the priority setting needs to be changed. The new priority condition is a condition generated by obtaining information from the navigation device that there is an upcoming left turn. The priority setting is changed due to the occurrence of a new priority condition. As a result, only the estimation processing of the left side camera 23 is performed next time (third time).

第3回目においては、左サイドカメラ23のみ、推定処理が行われる。推定処理後の左サイドカメラ23の累積値は80以上に到達しておらず、姿勢の推定は確定されない。また、現在の優先度の設定は優先条件にしたがったものである。したがって、左サイドカメラ23の推定処理後に行われる優先度変更の判定処理において、新たな優先条件の発生が認められない場合には、優先度の設定変更不要と判定される。本例では、この段階では新たな優先条件は発生しておらず、優先度の設定は変更されない。 At the third time, the estimation process is performed only for the left side camera 23 . The accumulated value of the left side camera 23 after the estimation process has not reached 80 or more, and the estimation of the orientation is not confirmed. Also, the current priority settings are in accordance with the priority conditions. Therefore, in the priority change determination process performed after the estimation process of the left side camera 23, if no new priority condition is found, it is determined that the priority setting need not be changed. In this example, no new priority condition occurs at this stage, and the priority setting is not changed.

第4回目においては、左サイドカメラ23のみ、推定処理が行われる。推定処理後の左サイドカメラ23について、累積値が80以上に到達しており、姿勢の推定が確定される。このために、左サイドカメラ23の推定処理後に行われる優先度変更の判定処理において、優先度の設定変更必要と判定される。姿勢の推定が確定された左サイドカメラ23は、優先度の設定が下げられ、次回(第5回目)の順番が飛ばされる。また、左サイドカメラ23の姿勢推定の確定により、優先条件は存在しないことになる。この結果、車載カメラ21~24毎に得られる累積値の最大数(=85)と最小数(=0)との差が所定閾値以上であるか否かの結果が参酌され、これに基づいて優先度が決められる。これにより、累積値が大きいバックカメラ22の優先度が下げられ、次回の順番が飛ばされる。 In the fourth time, estimation processing is performed only for the left side camera 23 . For the left side camera 23 after the estimation process, the cumulative value reaches 80 or more, and the estimation of the orientation is confirmed. Therefore, in the priority change determination process performed after the left side camera 23 estimation process, it is determined that the priority setting needs to be changed. The left side camera 23 whose orientation has been estimated has its priority set lower, and the next (fifth) order is skipped. Further, since the orientation estimation of the left side camera 23 is confirmed, there is no priority condition. As a result, the result of whether or not the difference between the maximum number (=85) and the minimum number (=0) of the cumulative values obtained for each of the vehicle-mounted cameras 21 to 24 is equal to or greater than a predetermined threshold is considered. Priority can be determined. As a result, the priority of the back camera 22 with a large accumulated value is lowered, and the next order is skipped.

第5回目においては、フロントカメラ21、右サイドカメラ24の順に推定処理が行われる。推定処理後のフロントカメラ21および右サイドカメラ24の累積値はいずれも80以上に到達しておらず、先に確定した左サイドカメラ23を除き、姿勢の推定が確定していない。このために、この後も、姿勢推定の確定のための推定処理が、上述した図13等に示すフローチャートにしたがって続けられる。 In the fifth time, the estimation process is performed in the order of the front camera 21 and the right side camera 24 . Neither of the accumulated values of the front camera 21 and the right side camera 24 after the estimation process has reached 80 or more, and the orientation estimation has not been confirmed except for the previously confirmed left side camera 23 . Therefore, even after this, the estimation process for determining the posture estimation is continued according to the above-described flowchart shown in FIG. 13 and the like.

<3.留意事項>
本明細書における実施形態や変形例の構成は、本発明の例示にすぎない。実施形態や変形例の構成は、本発明の技術的思想を超えない範囲で適宜変更されてもよい。また、複数の実施形態及び変形例は、可能な範囲で組み合わせて実施されてよい。
<3. Notes>
The configurations of the embodiments and modifications in this specification are merely examples of the present invention. The configurations of the embodiments and modifications may be changed as appropriate without departing from the technical idea of the present invention. Also, multiple embodiments and modifications may be implemented in combination within a possible range.

以上におけるカメラの姿勢の推定処理の方法は例示にすぎない。カメラの姿勢の推定処理の方法は、適宜変更されてよい。カメラの姿勢の推定処理は、例えば、撮影画像から抽出される特徴点の動きと、自車両の移動情報(移動量や速度)とを比較して求める構成等であってもよい。 The method of estimating the orientation of the camera described above is merely an example. The method of estimating the orientation of the camera may be changed as appropriate. The estimation processing of the posture of the camera may be performed by, for example, comparing the movement of the feature points extracted from the captured image and the movement information (movement amount and speed) of the own vehicle.

本発明は、自動駐車等の移動体の運転支援を行うカメラの姿勢推定を行うために利用することができる。また、本発明は、ドライブレコーダ等の運転情報を記録するカメラの姿勢推定を行うために利用することができる。また、本発明は、カメラの姿勢の推定情報を利用して撮影画像を補正する補正装置等に利用することができる。また、本発明は、複数の移動体とネットワークにより通信可能に設けられるセンターと連携して動作する装置等に利用することができる。当該装置は、例えば、センターに撮影画像を送信する場合に、カメラの姿勢の推定情報を撮影画像とセットにして送信する構成であってよい。そして、センターでは、カメラの姿勢の推定情報を用いて、各種画像処理(カメラの姿勢も考慮した画像の視点・視方向を変更する処理、例えば車両の車体前方方向の画像に視点・視方向変換した画像を生成する等)、画像を用いた計測処理におけるカメラの姿勢に対する補正処理、カメラ姿勢の経年変化を統計処理(多くの車両のデータ)、等を行いユーザへの有用な提供データを生成する等する。 INDUSTRIAL APPLICABILITY The present invention can be used for estimating the posture of a camera that assists the driving of a moving object such as automatic parking. The present invention can also be used to estimate the orientation of a camera that records driving information, such as a drive recorder. Further, the present invention can be used for a correction device or the like that corrects a photographed image by using the estimation information of the orientation of the camera. Further, the present invention can be used for a device or the like that operates in cooperation with a center that is provided so as to be able to communicate with a plurality of moving bodies via a network. For example, when transmitting a captured image to the center, the apparatus may be configured to transmit estimation information of the orientation of the camera together with the captured image. Then, at the center, using the camera posture estimation information, various image processing (processing to change the viewpoint and viewing direction of the image considering the camera posture, such as changing the viewpoint and viewing direction to the image in front of the vehicle body) ), correction processing for camera posture in measurement processing using images, statistical processing of changes in camera posture over time (data from many vehicles), etc. to generate useful data to be provided to users. and so on.

1、1A 姿勢推定装置
21~24 車載カメラ
11 取得部
121 推定部
122 確定部
123 設定部
124 判断部
1, 1A posture estimation device 21 to 24 in-vehicle camera 11 acquisition unit 121 estimation unit 122 determination unit 123 setting unit 124 determination unit

Claims (9)

移動体に搭載される複数のカメラのそれぞれから撮影画像を取得する取得部と、
前記カメラの姿勢を推定する推定処理を、前記撮影画像に基づいて行う推定部と、
前記カメラ毎の前記推定処理の優先度を、前記カメラ毎に行われる前記推定処理により獲得される推定結果の獲得数に基づいて設定する設定部と、
を備える、姿勢推定装置。
an acquisition unit that acquires a captured image from each of a plurality of cameras mounted on a moving object;
an estimation unit that performs estimation processing for estimating the orientation of the camera based on the captured image;
a setting unit that sets the priority of the estimation process for each camera based on the number of estimation results obtained by the estimation process performed for each camera;
A posture estimation device comprising:
前記設定部は、前記カメラ毎の前記獲得数の累積値の比較結果に基づいて前記優先度を設定する、請求項1に記載の姿勢推定装置。 2. The posture estimation apparatus according to claim 1, wherein said setting unit sets said priority based on a comparison result of said accumulated number of acquisitions for said cameras. 前記獲得数の累積値が所定の複数回数以上に到達した前記カメラについて、複数の前記推定結果に基づいて前記姿勢の推定を確定させる確定部を更に備える、請求項1又は2に記載の姿勢推定装置。 3. The posture estimation according to claim 1, further comprising a determination unit that determines the estimation of the posture based on a plurality of the estimation results for the camera for which the cumulative value of the obtained number has reached a predetermined number of times or more. Device. 前記設定部は、前記姿勢の推定が確定された前記カメラが発生すると、前記優先度を変更する、請求項3に記載の姿勢推定装置。 4. The posture estimation apparatus according to claim 3, wherein said setting unit changes said priority when said camera for which said posture estimation has been confirmed occurs. 前記設定部は、前記カメラ毎に得られる前記獲得数の累積値の、最大数と最小数との差が所定閾値以上になると前記優先度を変更する、請求項1から4のいずれか1項に記載の姿勢推定装置。 5. The setting unit according to any one of claims 1 to 4, wherein the setting unit changes the priority when a difference between a maximum number and a minimum number of cumulative values obtained for each camera becomes equal to or greater than a predetermined threshold. The attitude estimation device according to . 前記設定部は、前記最大数と前記最小数との差が前記所定閾値以上になった後に前記所定閾値より小さくなった場合に前記優先度を変更する、請求項5に記載の姿勢推定装置。 The posture estimation apparatus according to claim 5, wherein the setting unit changes the priority when the difference between the maximum number and the minimum number becomes smaller than the predetermined threshold after becoming equal to or greater than the predetermined threshold. 前記複数のカメラの中に、前記獲得数以外に基づく優先条件を有するカメラが存在するか否かを判断する判断部を更に備え、
前記設定部は、前記優先条件を有するカメラが存在する場合に、前記優先条件に基づいて前記優先度を設定する、請求項1から4のいずれか1項に記載の姿勢推定装置。
further comprising a determination unit that determines whether or not there is a camera having a priority condition based on a condition other than the number of acquisitions among the plurality of cameras;
The posture estimation apparatus according to any one of claims 1 to 4, wherein when there is a camera having the priority condition, the setting unit sets the priority based on the priority condition.
前記設定部は、所定のタイミングで前記優先度の変更を行うか否かを確認し、
前記所定のタイミングは、前記推定処理の順番が前記複数のカメラの全てに1回ずつ与えられる毎に発生し、
前記複数のカメラの中に前記優先度の設定により前記順番が飛ばされるカメラがある場合には、当該カメラに前記順番が与えられたとみなして前記所定のタイミングが判断される、請求項1から7のいずれか1項に記載の姿勢推定装置。
The setting unit confirms whether or not to change the priority at a predetermined timing,
The predetermined timing occurs each time the order of the estimation process is given to each of the plurality of cameras,
8. When there is a camera among the plurality of cameras whose order is skipped due to the setting of the priority, the predetermined timing is determined on the assumption that the order is given to the camera. The posture estimation device according to any one of .
移動体に搭載される複数のカメラのそれぞれから撮影画像を取得する取得工程と、
前記カメラの姿勢を推定する推定処理を、前記撮影画像に基づいて行う推定工程と、
前記カメラ毎の前記推定処理の優先度を、前記カメラ毎に行われる前記推定処理により獲得される推定結果の獲得数に基づいて設定する設定工程と、
を備える、姿勢推定方法。
an acquisition step of acquiring a photographed image from each of a plurality of cameras mounted on a moving object;
an estimation step of performing an estimation process for estimating the orientation of the camera based on the captured image;
a setting step of setting the priority of the estimation process for each camera based on the number of estimation results obtained by the estimation process performed for each camera;
A pose estimation method comprising:
JP2019152642A 2019-08-23 2019-08-23 Posture estimation device and posture estimation method Active JP7236352B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019152642A JP7236352B2 (en) 2019-08-23 2019-08-23 Posture estimation device and posture estimation method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019152642A JP7236352B2 (en) 2019-08-23 2019-08-23 Posture estimation device and posture estimation method

Publications (2)

Publication Number Publication Date
JP2021032678A JP2021032678A (en) 2021-03-01
JP7236352B2 true JP7236352B2 (en) 2023-03-09

Family

ID=74678141

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019152642A Active JP7236352B2 (en) 2019-08-23 2019-08-23 Posture estimation device and posture estimation method

Country Status (1)

Country Link
JP (1) JP7236352B2 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011159186A (en) 2010-02-03 2011-08-18 Clarion Co Ltd Drive support device and control method of drive support device
WO2018181248A1 (en) 2017-03-31 2018-10-04 パナソニックIpマネジメント株式会社 Imaging system and correction method
JP2018177004A (en) 2017-04-13 2018-11-15 クラリオン株式会社 Calibration device for on-vehicle camera

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7270499B2 (en) * 2018-10-10 2023-05-10 株式会社デンソーテン Abnormality detection device, abnormality detection method, posture estimation device, and mobile body control system

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011159186A (en) 2010-02-03 2011-08-18 Clarion Co Ltd Drive support device and control method of drive support device
WO2018181248A1 (en) 2017-03-31 2018-10-04 パナソニックIpマネジメント株式会社 Imaging system and correction method
JP2018177004A (en) 2017-04-13 2018-11-15 クラリオン株式会社 Calibration device for on-vehicle camera

Also Published As

Publication number Publication date
JP2021032678A (en) 2021-03-01

Similar Documents

Publication Publication Date Title
JP7270499B2 (en) Abnormality detection device, abnormality detection method, posture estimation device, and mobile body control system
JP7212486B2 (en) position estimator
US20170259830A1 (en) Moving amount derivation apparatus
JP2008102620A (en) Image processing device
JP7256734B2 (en) Posture estimation device, anomaly detection device, correction device, and posture estimation method
JP7445415B2 (en) Posture estimation device, abnormality detection device, correction device, and posture estimation method
JP4735361B2 (en) Vehicle occupant face orientation detection device and vehicle occupant face orientation detection method
JP5959311B2 (en) Data deriving apparatus and data deriving method
JP2019191807A (en) Abnormality detection device and abnormality detection method
JP5173551B2 (en) Vehicle perimeter monitoring apparatus and camera mounting position / posture information setting correction method applied thereto
JP2020068499A (en) Vehicle periphery image display system and vehicle periphery image display method
JP7000383B2 (en) Image processing device and image processing method
JP7303064B2 (en) Image processing device and image processing method
JP6407596B2 (en) Image processing apparatus and driving support system
JP7236352B2 (en) Posture estimation device and posture estimation method
JP5166111B2 (en) Vehicle periphery monitoring device
JP7311407B2 (en) Posture estimation device and posture estimation method
JP7009209B2 (en) Camera misalignment detection device, camera misalignment detection method and abnormality detection device
JP2018136739A (en) Calibration device
JP6799030B2 (en) Image recognition device, image recognition method, and parking support system
JP6960827B2 (en) Road surface area detector
JP6941949B2 (en) Vehicle image display device
JP7380443B2 (en) Partial image generation device and computer program for partial image generation
JP7237773B2 (en) Posture estimation device, anomaly detection device, correction device, and posture estimation method
JP2008042759A (en) Image processing apparatus

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220331

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230119

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230207

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230227

R150 Certificate of patent or registration of utility model

Ref document number: 7236352

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150