JP2021150756A - Imaging system, imaging control method, and imaging control program - Google Patents
Imaging system, imaging control method, and imaging control program Download PDFInfo
- Publication number
- JP2021150756A JP2021150756A JP2020047455A JP2020047455A JP2021150756A JP 2021150756 A JP2021150756 A JP 2021150756A JP 2020047455 A JP2020047455 A JP 2020047455A JP 2020047455 A JP2020047455 A JP 2020047455A JP 2021150756 A JP2021150756 A JP 2021150756A
- Authority
- JP
- Japan
- Prior art keywords
- unit
- recognition
- image
- target area
- imaging system
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G03—PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
- G03B—APPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
- G03B15/00—Special procedures for taking photographs; Apparatus therefor
-
- G—PHYSICS
- G03—PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
- G03B—APPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
- G03B7/00—Control of exposure by setting shutters, diaphragms or filters, separately or conjointly
- G03B7/08—Control effected solely on the basis of the response, to the intensity of the light received by the camera, of a built-in light-sensitive device
- G03B7/091—Digital circuits
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/70—Circuitry for compensating brightness variation in the scene
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/70—Circuitry for compensating brightness variation in the scene
- H04N23/76—Circuitry for compensating brightness variation in the scene by influencing the image signals
Abstract
Description
本発明は、撮像システム、撮像制御方法および撮影制御プログラムに関する。 The present invention relates to an imaging system, an imaging control method, and an imaging control program.
撮像装置によって撮影された撮影画像を基にして、車両等の物体に関する認識を行い、認識した物体の位置を撮影画像上に表示する技術がある。ここで、撮像装置は、認識対象となる物体付近に、輝度検波枠を設定することにより、露出制御を行っている。 There is a technique of recognizing an object such as a vehicle based on a captured image captured by an imaging device and displaying the position of the recognized object on the captured image. Here, the image pickup apparatus controls the exposure by setting a luminance detection frame in the vicinity of the object to be recognized.
しかしながら、上述した従来技術では、撮像装置に対する撮像制御を適切に実行することができないという問題がある。 However, the above-mentioned conventional technique has a problem that the image pickup control for the image pickup apparatus cannot be appropriately executed.
そこで、本開示では、撮像装置に対する撮像制御を適切に実行することができる撮像システム、撮像制御方法および撮影制御プログラムを提案する。 Therefore, the present disclosure proposes an imaging system, an imaging control method, and an imaging control program capable of appropriately executing imaging control for an imaging apparatus.
上記の課題を解決するために、本開示に係る一形態の撮像システムは、第1の領域において物体の位置を検出する位置検出部と、前記物体を含む第2の領域を撮像して画像データを生成する画像生成部と、前記画像データに対して、前記位置検出部で検出した前記物体の位置に対応する目標領域を設定する目標領域設定部と、前記目標領域に対して認識処理を実行する認識部と、前記認識処理の結果に基づいて、前記画像生成部に対する撮像制御を実行する撮像制御部とを備える。 In order to solve the above problems, in one form of the imaging system according to the present disclosure, a position detection unit that detects the position of an object in the first region and a second region including the object are imaged to obtain image data. The image generation unit that generates the image data, the target area setting unit that sets the target area corresponding to the position of the object detected by the position detection unit, and the recognition process for the target area. An image pickup control unit that executes image pickup control on the image generation unit based on the result of the recognition process is provided.
以下に、本開示の実施形態について図面に基づいて詳細に説明する。なお、以下の各実施形態において、同一の部位には同一の符号を付することにより重複する説明を省略する。 Hereinafter, embodiments of the present disclosure will be described in detail with reference to the drawings. In each of the following embodiments, the same parts are designated by the same reference numerals, so that duplicate description will be omitted.
また、以下に示す項目順序に従って本開示を説明する。
1.1.本実施形態に関連する参考技術の説明
2.本実施形態
2.1.本実施形態に係る撮像システムの処理
2.2.本実施形態に係る撮像システムの構成
2.3.本実施形態に係る撮像システムの同期処理
2.4.本実施形態に係る撮像システムの処理手順
2.5.他のシステムへの適用例
2.6.本実施形態に係る撮像システムの効果
3.ハードウェア構成
4.むすび
In addition, the present disclosure will be described according to the order of items shown below.
1.1. Explanation of reference technology related to this
<<1.1.本実施形態に関連する参考技術の説明>>
車両認識技術等を用いて、認識領域に輝度検波枠を設定し、露出制御を行う場合、強逆光や濃霧のようなシーンでは、物体を認識することができず、適切な露出制御を行うことができない。
<< 1.1. Explanation of reference technology related to this embodiment >>
When a brightness detection frame is set in the recognition area and exposure control is performed using vehicle recognition technology, etc., the object cannot be recognized in a scene such as strong backlight or dense fog, and appropriate exposure control should be performed. I can't.
図1は、参考技術を説明するための図である。図1に示すように、強逆光ではないシーンでは、撮影画像は、撮影画像5aに示すものとなり、物体の領域5bを認識することができ、領域5bに輝度検波枠を設定することで、露出制御を行うことができる。 FIG. 1 is a diagram for explaining a reference technique. As shown in FIG. 1, in a scene that is not strongly backlit, the captured image is as shown in the captured image 5a, the region 5b of the object can be recognized, and the exposure is exposed by setting the luminance detection frame in the region 5b. Control can be performed.
一方、強逆光のシーンでは、撮影画像は、撮影画像6aに示すものとなり、物体を認識することができない。この場合には、撮像画面6b全体を対象として、露出制御を実行するため、認識対象となる物体に対して、適切な露出制御を行うことができず、物体をロストしてしまう場合がある。
On the other hand, in a scene with strong backlight, the captured image is as shown in the captured
図1で説明した問題に対して、ミリ波レーダを利用する参考技術がある。この参考技術では、ミリ波レーダを用いることで、物体の位置を特定し、特定した位置に対して、輝度検波枠を設定し、露出制御を行う。しかし、ミリ波レーダによる位置検出では、本来の認識対象である物体とは別の物体(看板等)の位置を検出する場合もあり、他の物体に対して、露出制御を実行してしまい、認識対象となる物体に対して、適切な露出制御を行うことができない。 There is a reference technique that uses millimeter-wave radar for the problem described in FIG. In this reference technique, the position of an object is specified by using a millimeter-wave radar, a brightness detection frame is set for the specified position, and exposure control is performed. However, in the position detection by the millimeter wave radar, the position of an object (signature, etc.) different from the object that is the original recognition target may be detected, and the exposure control is executed for the other object. Appropriate exposure control cannot be performed on the object to be recognized.
<<2.本実施形態>>
<<2.1.本実施形態に係る撮像システムの処理>>
図2は、本実施形態に係る撮像システムの処理を説明するための図である。本実施形態に係る撮像システムは、ミリ波レーダ50を用いて広角にミリ波を照射し、物体10aの位置を検出する。撮像システムは、検出した物体10aの位置を基にして、撮影画像11における、物体10aの目標領域11aを設定する。
<< 2. This embodiment >>
<< 2.1. Processing of the imaging system according to this embodiment >>
FIG. 2 is a diagram for explaining the processing of the imaging system according to the present embodiment. The imaging system according to the present embodiment uses a
続いて、撮像システムは、目標領域11aに輝度検波枠を設定し、露出制御を行い、露出制御後の撮影画像12を取得し、撮影画像12における目標領域12aに対して、認識処理を実行する。目標領域11aと、目標領域12aとは同じ位置に設定される。撮像システムは、目標領域12aに対する認識結果を基にして、目標領域12aにおいて、確かに、認識対象となる物体が含まれている場合に、目標領域12aの範囲を、物体の領域に調整し、調整した領域に対して、輝度検波枠設定し、露出制御を行う。
Subsequently, the imaging system sets a luminance detection frame in the
このように、ミリ波レーダ50を用いた物体の位置検出結果を基にして、目標領域11aを設定し、目標領域11aに応じた露出制御を行い、露出制御後の目標領域12aに対する認識結果を基にして、目標領域12aを調整し、調整した目標領域に応じた露出制御を実行することで、撮像装置に対する露出制御を適切に実行することができる。また、撮像装置に対する露出制御を適切に実行できるので、物体の認識率を向上させることができる。
In this way, the
なお、本実施形態の撮像システムは、露出制御の他に、ホワイトバランスの制御、フォーカスの制御も合わせて実行してもよい。露出制御、ホワイトバランスの制御、フォーカスの制御は、撮像制御に対応する。 In addition to the exposure control, the imaging system of the present embodiment may also perform white balance control and focus control. Exposure control, white balance control, and focus control correspond to imaging control.
<<2.2.本実施形態に係る撮像システムの構成>>
次に、本実施形態に係る撮像システムの構成例について説明する。図3は、本実施形態に係る撮像システムの構成を示す機能ブロック図である。図3に示すように、この撮像システム100は、アンテナ101と、ミリ波送受信部102と、ミリ波変換部103と、位置検出部104と、目標領域設定部105と、変換テーブル106と、画像生成部107と、画像受信部108と、認識部109と、認識結果制御部110と、検波部111と、撮像制御部112とを有する。図示を省略するが、撮像システム100は、車両に搭載される。
<< 2.2. Configuration of imaging system according to this embodiment >>
Next, a configuration example of the imaging system according to the present embodiment will be described. FIG. 3 is a functional block diagram showing a configuration of an imaging system according to the present embodiment. As shown in FIG. 3, the
アンテナ101は、ミリ波送受信部102と協働して、60GHz又は76GHzの周波数帯域(ミリ波周波数帯域)の電波を送信し、物体から反射される電波を受信する装置である。以下の説明では、ミリ波周波数帯域の電波を「ミリ波」と表記する。
The
ミリ波送受信部102は、アンテナ101を用いて、ミリ波を送信し、物体から反射されるミリ波を受信する処理部である。ミリ波送受信部102は、ミリ波の送受信の結果を、ミリ波変換部103に出力する。
The millimeter wave transmission /
ミリ波変換部103は、ミリ波の送受信結果を基にして、Speed-Range情報を生成する処理部である。たとえば、Speed-Range情報には、アンテナ101の位置を基準とした、物体の距離、物体の角度、物体との相対速度などが含まれる。ミリ波変換部103は、Speed-Range情報を、位置検出部104に出力する。
The millimeter
位置検出部104は、Speed-Range情報を基にして、物体の位置を検出する処理部である。位置検出部104は、検出した物体の位置の情報を、目標領域設定部105に出力する。以下の説明では、物体の位置の情報を、「位置情報」と表記する。なお、同一の物体からは、かかる物体の複数箇所それぞれから、位置が検出され、かかる複数の位置をまとめたものが、実空間上で、物体の存在する領域となる。
The
変換テーブル106は、位置検出部104によって検出されるミリ波上の物体の2次元座標位置(横幅−奥行き)を撮影画像上の2次元座標位置に変換するテーブルである。変換テーブル106は、例えば車載に搭載したミリ波とカメラの位置関係からキャリブレーションによって事前に調整されているものとする。
The conversion table 106 is a table that converts the two-dimensional coordinate position (width-depth) of the object on the millimeter wave detected by the
目標領域設定部105は、位置検出部104から取得する位置情報と、変換テーブル106とを基にして、ミリ波によって推定される物体の撮影画像上の領域を算出する。以下の説明では、ミリ波によって推定される撮影画像上の物体の領域を、「目標領域」と表記する。目標領域設定部105は、画像受信部108から取得する撮影画像と、目標領域の座標とを、認識部109および検波部111に出力する。
The target
画像生成部107は、撮影画像を生成するカメラである。たとえば、画像生成部107は、露光時間やフォーカスを調整可能なレンズモジュール、CMOS(Complementary Metal Oxide Semiconductor)センサ、ホワイトバランスを調整するLSI(Large-scale Integration)等が含まれる。画像生成部107は、撮像制御部112から出力される撮像制御情報を基にして、露光時間、ホワイトバランス、フォーカスを調整し、撮影画像を生成する。画像生成部107は、生成した撮影画像(撮影画像の情報)を、画像受信部108に出力する。
The
画像受信部108は、画像生成部107から撮影画像を受信する処理部である。画像受信部108は、撮影画像を目標領域設定部105に出力する。なお、画像受信部108は、路面、人体、信号機、道路認識等を実行する外部の認識器や、車両のECU(Engine Control Unit)等に、撮影画像を出力してもよい。
The
認識部109は、撮影画像に対して認識処理を実行する処理部である。認識部109は、目標領域設定部105によって、撮影画像に目標領域が設定されている場合には、目標領域に対して、認識処理を実行する。たとえば、認識部109は、画像の特徴と、物体(認識対象となる物体)との関係を学習した学習モデル等を用いて、物体を認識する。認識部109は、撮影画像全体に対して、認識処理を実行してもよい。
The
認識部109は、物体の認識結果を認識結果制御部110に出力する。たとえば、認識部109が、物体の認識に成功した場合、物体の認識結果には、認識した物体の撮影画像上の領域が含まれる。以下の説明では、認識された物体の撮影画像上の領域を「物体領域」と表記する。認識部109が、物体の認識に失敗した場合、物体の認識結果には、物体を認識に失敗した旨の情報が含まれる。
The
認識結果制御部110は、物体の認識結果を基にして、各種の制御を実行する処理部である。認識結果制御部110は、物体の認識結果に、物体領域の情報が含まれている場合、物体領域の座標を、検波部111に出力する。認識結果制御部110は、物体の認識結果に、物体領域の情報が含まれていない場合、次の認識結果を取得するまで待機する。
The recognition
検波部111は、撮影画像に撮像制御を行うための輝度検波枠を設定し、評価値を算出する処理部である。検波部111は、評価値を撮像制御部112に出力する。以下において、検波部111の処理を、目標領域の座標を取得した場合、物体領域の座標を取得した場合、目標領域および物体領域の座標を取得していない場合に分けて説明する。 The detection unit 111 is a processing unit that sets a luminance detection frame for performing imaging control on the captured image and calculates an evaluation value. The detection unit 111 outputs the evaluation value to the image pickup control unit 112. Hereinafter, the processing of the detection unit 111 will be described separately for the cases where the coordinates of the target area are acquired, the coordinates of the object area are acquired, and the coordinates of the target area and the object area are not acquired.
検波部111が目標領域の座標を取得した場合について説明する。検波部111は、撮影画像上の目標領域に、輝度検波枠を設定し、評価値を算出する。たとえば、検波部111は、目標領域(輝度検波枠)の輝度平均値、輝度ピーク値、画素値等を、評価値として算出する。 The case where the detection unit 111 acquires the coordinates of the target area will be described. The detection unit 111 sets a brightness detection frame in the target area on the captured image and calculates an evaluation value. For example, the detection unit 111 calculates the brightness average value, the brightness peak value, the pixel value, etc. of the target region (brightness detection frame) as evaluation values.
検波部111が物体領域の座標を取得した場合について説明する。検波部111は、撮影画像上の物体領域に、輝度検波枠を設定し、評価値を算出する。たとえば、検波部111は、物体領域(輝度検波枠)の輝度平均値、輝度ピーク値、画素値等を、評価値として算出する。 The case where the detection unit 111 acquires the coordinates of the object region will be described. The detection unit 111 sets a luminance detection frame in the object region on the captured image and calculates an evaluation value. For example, the detection unit 111 calculates the brightness average value, the brightness peak value, the pixel value, etc. of the object region (luminance detection frame) as evaluation values.
なお、検波部111は、目標領域の座標および物体領域の座標の双方を取得した場合には、撮影画像上の物体領域に、輝度検波枠を設定し、評価値を算出する。 When both the coordinates of the target area and the coordinates of the object area are acquired, the detection unit 111 sets a luminance detection frame in the object area on the captured image and calculates an evaluation value.
検波部111が目標領域および物体領域の座標を取得していない場合について説明する。検波部111は、撮影画像の全領域に対して、輝度検波枠を設定し、評価値を算出する。たとえば、検波部111は、撮影画像の輝度平均値、輝度ピーク値、画素値等を、評価値として算出する。 A case where the detection unit 111 has not acquired the coordinates of the target area and the object area will be described. The detection unit 111 sets a luminance detection frame for the entire region of the captured image and calculates an evaluation value. For example, the detection unit 111 calculates the brightness average value, the brightness peak value, the pixel value, and the like of the captured image as evaluation values.
なお、検波部111は、撮影画像の全領域を対象として、評価値を算出する場合に、全領域をメッシュ分割し、各メッシュに重みを設定して、評価値を算出してもよい。図4は、メッシュ分割した撮影画像の一例を示す図である。各メッシュに示す数値は重みであり、重みが大きいほど、該当するメッシュの輝度平均値、輝度ピーク値、画素値が、撮影画像全体の評価値により大きく寄与することを示す。図4に示すように、撮影画像15の中心部分のメッシュに重みが、他のメッシュよりも大きく設定されている。なお、検波部111は、ホワイトバランス、フォーカス調整のために撮影画像のRGB平均値、RGBピーク値、輝度コントラスト値、画素値等を、評価値として算出してもよい。
When calculating the evaluation value for the entire region of the captured image, the detection unit 111 may divide the entire region into meshes, set weights for each mesh, and calculate the evaluation value. FIG. 4 is a diagram showing an example of a captured image divided into meshes. The numerical value shown in each mesh is a weight, and the larger the weight, the greater the contribution of the brightness average value, the brightness peak value, and the pixel value of the corresponding mesh to the evaluation value of the entire captured image. As shown in FIG. 4, the weight of the mesh at the center of the captured
図3の説明に戻る。撮像制御部112は、検波部111から取得する評価値を基にして、画像生成部107の撮影制御を実行する処理部である。撮像制御部112は、評価値が、予め設定される目標評価値に近づくように、露光時間、ホワイトバランス、フォーカスの調整量を設定した撮像制御情報を生成し、画像生成部107に出力する。
Returning to the description of FIG. The image pickup control unit 112 is a processing unit that executes shooting control of the
たとえば、撮像制御部112は、目標評価値および評価値との差分値と、撮影制御情報とを対応付けた制御テーブルを用いて、撮影制御情報を特定し、画像生成部107に出力してもよい。
For example, the image pickup control unit 112 may specify the shooting control information by using the control table in which the difference value between the target evaluation value and the evaluation value and the shooting control information are associated with each other and output the shooting control information to the
<<2.3.本実施形態に係る撮像システムの同期処理>>
続いて、本実施形態に係る撮像システムの同期処理の一例について説明する。図5は、本実施形態に係る撮像システムの同期処理を説明するための図である。図5では、画像生成部107内のイメージセンサが、60fps(Frame Per Second)で定常動作しているタイミングに、ミリ波動作が60fpsで同期しているものとする。撮像システム100は、撮像処理(検波処理、撮像制御等)で生成(現像)された撮影画像を同タイミングで認識処理し、認識結果は、次の撮影画像の輝度検波枠の設定に使用できるものとする。
<< 2.3. Synchronous processing of the imaging system according to this embodiment >>
Subsequently, an example of the synchronous processing of the imaging system according to the present embodiment will be described. FIG. 5 is a diagram for explaining the synchronization processing of the imaging system according to the present embodiment. In FIG. 5, it is assumed that the millimeter wave operation is synchronized at 60 fps at the timing when the image sensor in the
図5に示すように、撮像システム100は、撮影画像I0の露光後、次のタイミングで撮影画像I0を検波および現像する(ステップS1)。ステップS1では、物体認識の実行前であるため、撮影画像全体に対して検波が実行される。
As shown in FIG. 5, the
撮像システム100は、撮影画像I0の露光タイミングで、撮影画像I0に同期したSpeed-Range情報を生成し、撮影画像I0の現像時に、Speed-Range情報に基づく目標領域を設定する(ステップS2)。
The
撮像システム100は、現像された撮影画像I0の目標領域に対して、認識処理を実行する(ステップS3)。撮像システム100は、認識結果によって認識された物体領域に対して輝度検波枠を設定し、評価値を算出して、画像生成部107を撮像制御する(ステップS4)。ステップS4の撮像制御は、撮影画像I3の露光(ホワイトバランス、フォーカス)の調整に反映される(ステップS5)。
The
図5で説明した同期処理では、ステップS3で検波した結果が、撮影画像I3の生成から反映されることを意味する。 In the synchronization process described with reference to FIG. 5, it means that the result of detection in step S3 is reflected from the generation of the captured image I3.
<<2.4.本実施形態に係る撮像システムの処理手順>>
次に、本実施形態に係る撮像システム100の処理手順の一例について説明する。図6は、本実施形態に係る撮像システム100の処理手順を示すフローチャート(1)である。撮像システム100は、図6に示す処理を繰り返し実行する。
<< 2.4. Processing procedure of the imaging system according to this embodiment >>
Next, an example of the processing procedure of the
図6に示すように、撮像システム100の画像生成部107は、撮影画像を生成する(ステップS101)。撮像システム100の認識部109は、撮影画像に対して認識処理を実行する(ステップS102)。
As shown in FIG. 6, the
撮像システム100は、物体の認識が可能である場合には(ステップS103,Yes)、ステップS108に移行する。撮像システム100は、物体の認識が可能でない場合には(ステップS103,No)、ステップS104に移行する。
If the
撮像システム100の目標領域設定部105は、ミリ波動作の結果を基にして、目標領域を設定する(ステップS104)。撮像システム100の検波部111は、目標領域に対して輝度検波し、評価値を算出する(ステップS105)。
The target
撮像システム100の撮像制御部112は、評価値を基にして撮影制御を実行する(ステップS106)。認識部109は、撮影画像の目標領域に対して、認識処理を実行する(ステップS107)。
The image pickup control unit 112 of the
撮像システム100の検波部111は、画像認識で検出した物体領域で輝度検波し、評価値を算出する(ステップS108)。撮像システム100の撮像制御部112は、評価値を基にして、撮像制御を実行する(ステップS109)。
The detection unit 111 of the
次に、本実施形態に係る撮像システム100のミリ波動作の処理手順の一例について説明する。図7は、本実施形態に係る撮像システム100の処理手順を示すフローチャート(2)である。撮像システム100は、図7に示す処理を繰り返し実行する。
Next, an example of a processing procedure for millimeter-wave operation of the
図7に示すように、撮像システム100のミリ波送受信部102は、ミリ波を送受信する(ステップS201)。撮像システム100のミリ波変換部103は、Speed-Range情報を生成する(ステップS202)。
As shown in FIG. 7, the millimeter wave transmission /
ミリ波変換部103は、物体の方位を推定する(ステップS203)。撮像システム100の位置検出部104は、物体の位置を検出する(ステップS204)。目標領域設定部105は、変換テーブル106を基にして、物体の位置を撮影画像の領域(目標領域)に変換する(ステップS205)。
The millimeter
撮像システム100は、図6、図7で説明した処理を、平行して実行してもよい。
The
<<2.5.他のシステムへの適用例>>
次に、図3に示した撮像システム100に関して、他のシステムへの適用例について説明する。図8は、他のシステムへの適用例を示す図である。図8に示すように、このシステムでは、撮像装置200と、車載システム300とが相互に接続される。撮像装置200は、ミリ波レーダ210およびLiDAR(Laser Imaging Detection and Ranging)220に接続される。
<< 2.5. Application example to other systems >>
Next, an example of application of the
撮像装置200は、カメラ制御部200aと、認識器200bとを有する。カメラ制御部200aは、図3の撮像システム100で説明した、変換テーブル106、目標領域設定部105、画像生成部107、画像受信部108、認識部109、認識結果制御部110、検波部111、撮像制御部112に対応する。撮像装置200の画像受信部108は、認識器200bおよび車載システム300に、撮像画像を出力する。
The
認識器200bは、撮像装置200から取得する撮影画像を基にして、各種の認識を実行する装置である。たとえば、認識器200bは、路面、車両、人体、信号機、道路標識などを認識し、認識結果を車載システム300に出力する。なお、認識器200bは、認識結果を、撮像装置200に出力してもよい。
The recognizer 200b is a device that executes various recognitions based on a captured image acquired from the
ミリ波レーダ210は、ミリ波を送受信するミリ波レーダであり、図3で説明した、アンテナ101、ミリ波送受信部102、ミリ波変換部103、位置検出部104等に対応する。
The
LiDAR220は、パルス状に発光するレーザー照射に対する散乱光を測定し、遠距離にある対象までの距離やその対象の性質を分析する装置である。撮像装置200は、ミリ波レーダ210の代わりに、LiDAR220の位置情報を用いて、目標領域を設定してもよい。もちろん、両方用いてもよい。
The
車載システム300は、ECU300a、センサ30A,30B,30C、アクチュエーター20A,20B,20C,20Dを有する。ECU300aは、撮像装置200から取得する撮影画像や、認識器200bの認識結果を用いて、アクチュエーター20A〜20Dを制御する。ECU300aは、センサ30A〜30Cを用いて、各種のセンシングを実行してもよい。ここでは、センサ30A〜30C、アクチュエーター20A〜20Dを示すが、これに限定されるものではなく、他のセンサ、他のアクチュエーターが含まれていてもよい。また、車載システム300は、車両に関連する他の装置に更に接続されていてもよい。
The in-vehicle system 300 includes an ECU 300a,
<<2.6.本実施形態に係る撮像システムの効果>>
本実施形態に係る撮像システム100は、撮影画像に対して、ミリ波レーダに基づく物体の位置に対応する目標領域を設定し、目標領域に対して認識処理を実行し、認識処理の結果に基づいて、画像生成部107に対する撮像制御を実行する。撮像制御には、露出制御、ホワイトバランス制御、フォーカス制御などが含まれる。これによって、撮像制御を適切に実行することができる。また、撮像制御を適切に実行できるので、物体の認識率を向上させることができる。
<< 2.6. Effect of imaging system according to this embodiment >>
The
たとえば、ミリ波レーダを用いて、物体の位置を特定し、特定した位置に対して、輝度検波枠を設定し、露出制御を行うだけでは、本来の認識対象である物体とは別の物体(看板等)に対して、輝度検波枠を設定している場合があり、適切に撮像制御を実行することができない。 For example, if you use a millimeter-wave radar to identify the position of an object, set a brightness detection frame for the specified position, and perform exposure control, an object different from the object that is the original recognition target ( A brightness detection frame may be set for a signboard, etc.), and imaging control cannot be properly executed.
撮像システム100は、撮影画像の目標領域に対して、認識処理を実行し、認識対象の物体を認識した場合には、物体領域に対して輝度検波枠を設定し、評価値を算出し、撮影制御を実行する。これによって、物体の領域を1ピクセル単位(ピクセルオーダーの精度)で絞り込むことができ、評価値の算出精度を向上させることができる。たとえば、ミリ波レーダに基づく目標領域では、物体の領域を1ピクセル単位で絞り込むことが難しく、物体以外の部分を含めて、評価値を算出する場合がある。
The
<<3.ハードウェア構成>>
上述してきた各実施形態に係る画像処理装置は、たとえば、図9に示すような構成のコンピュータ1000によって実現される。以下、実施形態に係る撮像システム100を例に挙げて説明する。図9は、撮像システムの機能を実現するコンピュータ1000の一例を示すハードウェア構成図である。コンピュータ1000は、CPU1100、RAM1200、ROM(Read Only Memory)1300、HDD(Hard Disk Drive)1400、通信インターフェイス1500、及び入出力インターフェイス1600を有する。コンピュータ1000の各部は、バス1050によって接続される。
<< 3. Hardware configuration >>
The image processing apparatus according to each of the above-described embodiments is realized by, for example, a
CPU1100は、ROM1300又はHDD1400に格納されたプログラムに基づいて動作し、各部の制御を行う。例えば、CPU1100は、ROM1300又はHDD1400に格納されたプログラムをRAM1200に展開し、各種プログラムに対応した処理を実行する。
The CPU 1100 operates based on a program stored in the
ROM1300は、コンピュータ1000の起動時にCPU1100によって実行されるBIOS(Basic Input Output System)等のブートプログラムや、コンピュータ1000のハードウェアに依存するプログラム等を格納する。
The
HDD1400は、CPU1100によって実行されるプログラム、及び、かかるプログラムによって使用されるデータ等を非一時的に記録する、コンピュータが読み取り可能な記録媒体である。具体的には、HDD1400は、プログラムデータ1450の一例である本開示に係る情報処理プログラムを記録する記録媒体である。
The
通信インターフェイス1500は、コンピュータ1000が外部ネットワーク1550(例えばインターネット)と接続するためのインターフェイスである。例えば、CPU1100は、通信インターフェイス1500を介して、他の機器からデータを受信したり、CPU1100が生成したデータを他の機器へ送信したりする。
The
入出力インターフェイス1600は、入出力デバイス1650とコンピュータ1000とを接続するためのインターフェイスである。例えば、CPU1100は、入出力インターフェイス1600を介して、キーボードやマウス等の入力デバイスからデータを受信する。また、CPU1100は、入出力インターフェイス1600を介して、ディスプレイやスピーカーやプリンタ等の出力デバイスにデータを送信する。また、入出力インターフェイス1600は、所定の記録媒体(メディア)に記録されたプログラム等を読み取るメディアインターフェイスとして機能してもよい。メディアとは、例えばDVD(Digital Versatile Disc)、PD(Phase change rewritable Disk)等の光学記録媒体、MO(Magneto-Optical disk)等の光磁気記録媒体、テープ媒体、磁気記録媒体、または半導体メモリ等である。
The input / output interface 1600 is an interface for connecting the input /
また、コンピュータ1000は、入出力インターフェイス1600を介して、ミリ波レーダや、カメラモジュール(画像生成部107等に相当)に接続する。
Further, the
例えば、コンピュータ1000が実施形態に係る撮像システム100として機能する場合、コンピュータ1000のCPU1100は、RAM1200上にロードされた撮像制御プログラムを実行することにより、ミリ波送受信部102と、ミリ波変換部103と、位置検出部104と、目標領域設定部105と、画像受信部108と、認識部109と、認識結果制御部110と、検波部111と、撮像制御部112等の機能を実現する。また、HDD1400には、本開示に係る撮像制御プログラム等が格納される。なお、CPU1100は、プログラムデータ1450をHDD1400から読み取って実行するが、他の例として、外部ネットワーク1550を介して、他の装置からこれらのプログラムを取得してもよい。
For example, when the
<<4.むすび>>
撮像システムは、第1の領域において物体の位置を検出する位置検出部と、前記物体を含む第2の領域を撮影して画像データを生成する画像生成部と、前記画像データに対して、前記位置検出部で検出した前記物体の位置に対応する目標領域を設定する目標領域設定部と、前記目標領域に対して認識処理を実行する認識部と、前記認識処理の結果に基づいて、前記画像生成部に対する撮像制御を実行する撮像制御部とを備える。前記認識部は、前記目標領域に含まれる物体を認識する。前記撮像制御部は、前記認識処理の結果に基づいて、前記画像生成部に対する露出制御を実行する。前記撮像制御部は、前記認識処理の結果に基づいて、前記画像生成部に対するホワイトバランス制御を実行する。前記撮像制御部は、前記認識処理の結果に基づいて、前記画像生成部に対するフォーカス制御を実行する。これによって、撮像制御を適切に実行することができる。また、撮像制御を適切に実行できるので、物体の認識率を向上させることができる。
<< 4. Conclusion >>
The imaging system has a position detection unit that detects the position of an object in the first region, an image generation unit that captures a second region including the object and generates image data, and the image data. The image is based on a target area setting unit that sets a target area corresponding to the position of the object detected by the position detection unit, a recognition unit that executes recognition processing on the target area, and the result of the recognition processing. It is provided with an image pickup control unit that executes image pickup control for the generation unit. The recognition unit recognizes an object included in the target area. The image pickup control unit executes exposure control for the image generation unit based on the result of the recognition process. The image pickup control unit executes white balance control for the image generation unit based on the result of the recognition process. The image pickup control unit executes focus control on the image generation unit based on the result of the recognition process. Thereby, the imaging control can be appropriately executed. Moreover, since the imaging control can be appropriately executed, the recognition rate of the object can be improved.
前記撮像制御部は、前記目標領域のうち、前記認識部によって認識された物体の領域に基づいて、前記画像生成部に対する撮像制御を実行する。前記認識部は、前記画像データに対して認識処理を更に実行し、前記撮像制御部は、前記認識部によって、前記画像データに対する認識処理が成功した場合に、認識処理によって認識された前記画像データ上の物体の領域に基づいて、前記画像生成部に対する撮像制御を実行する。これによって、物体の領域を1ピクセル単位で絞り込むことができ、評価値の算出精度を向上させることができる。 The image pickup control unit executes image pickup control on the image generation unit based on the area of the object recognized by the recognition unit in the target area. The recognition unit further executes a recognition process on the image data, and the image pickup control unit recognizes the image data by the recognition process when the recognition process on the image data is successful by the recognition unit. Image control is executed for the image generation unit based on the area of the upper object. As a result, the area of the object can be narrowed down in units of 1 pixel, and the calculation accuracy of the evaluation value can be improved.
なお、本明細書に記載された効果はあくまで例示であって限定されるものでは無く、また他の効果があってもよい。 It should be noted that the effects described in the present specification are merely examples and are not limited, and other effects may be obtained.
なお、本技術は以下のような構成も取ることができる。
(1)
第1の領域において物体の位置を検出する位置検出部と、
前記物体を含む第2の領域を撮影して画像データを生成する画像生成部と、
前記画像データに対して、前記位置検出部で検出した前記物体の位置に対応する目標領域を設定する目標領域設定部と、
前記目標領域に対して認識処理を実行する認識部と、
前記認識処理の結果に基づいて、前記画像生成部に対する撮像制御を実行する撮像制御部と、
を備える撮像システム。
(2)
前記認識部は、前記目標領域に含まれる物体を認識する前記(1)に記載の撮像システム。
(3)
前記撮像制御部は、前記目標領域のうち、前記認識部によって認識された物体の領域に基づいて、前記画像生成部に対する撮像制御を実行する前記(2)に記載の撮像システム。
(4)
前記撮像制御部は、前記認識処理の結果に基づいて、前記画像生成部に対する露出制御を実行する前記(1)、(2)または(3)に記載の撮像システム。
(5)
前記撮像制御部は、前記認識処理の結果に基づいて、前記画像生成部に対するホワイトバランス制御を実行する前記(1)〜(4)のいずれか一つに記載の撮像システム。
(6)
前記撮像制御部は、前記認識処理の結果に基づいて、前記画像生成部に対するフォーカス制御を実行する前記(1)〜(5)のいずれか一つに記載の撮像システム。
(7)
前記認識部は、前記画像データに対して認識処理を更に実行し、前記撮像制御部は、前記認識部によって、前記画像データに対する認識処理が成功した場合に、認識処理によって認識された前記画像データ上の物体の領域に基づいて、前記画像生成部に対する撮像制御を実行する前記(1)〜(6)のいずれか一つに記載の撮像システム。
(8)
コンピュータが、
第1の領域において物体の位置を検出し、
前記物体を含む第2の領域を撮影して画像データを生成するカメラモジュールから、前記画像データを取得し、
前記画像データに対して、前記物体の位置に対応する目標領域を設定し、
前記目標領域に対して認識処理を実行し、
前記認識処理の結果に基づいて、に対する撮像制御を実行する
処理を行う撮像制御方法。
(9)
コンピュータを、
第1の領域において物体の位置を検出する位置検出部と、
前記物体を含む第2の領域を撮影して画像データを生成する画像生成部と、
前記画像データに対して、前記位置検出部で検出した前記物体の位置に対応する目標領域を設定する目標領域設定部と、
前記目標領域に対して認識処理を実行する認識部と、
前記認識処理の結果に基づいて、前記画像生成部に対する撮像制御を実行する撮像制御部、
として機能させるための撮像制御プログラム。
The present technology can also have the following configurations.
(1)
A position detection unit that detects the position of an object in the first region,
An image generation unit that captures a second region including the object and generates image data,
A target area setting unit that sets a target area corresponding to the position of the object detected by the position detection unit with respect to the image data.
A recognition unit that executes recognition processing for the target area,
An image pickup control unit that executes image pickup control on the image generation unit based on the result of the recognition process.
Imaging system with.
(2)
The imaging system according to (1) above, wherein the recognition unit recognizes an object included in the target region.
(3)
The image pickup system according to (2) above, wherein the image pickup control unit executes image pickup control on the image generation unit based on an object area recognized by the recognition unit in the target area.
(4)
The imaging system according to (1), (2) or (3), wherein the image pickup control unit executes exposure control for the image generation unit based on the result of the recognition process.
(5)
The imaging system according to any one of (1) to (4), wherein the image pickup control unit executes white balance control for the image generation unit based on the result of the recognition process.
(6)
The image pickup system according to any one of (1) to (5) above, wherein the image pickup control unit executes focus control on the image generation unit based on the result of the recognition process.
(7)
The recognition unit further executes a recognition process on the image data, and the image pickup control unit recognizes the image data by the recognition process when the recognition process on the image data is successful by the recognition unit. The imaging system according to any one of (1) to (6) above, which executes imaging control for the image generation unit based on the region of the above object.
(8)
The computer
Detect the position of the object in the first region and
The image data is acquired from a camera module that captures a second region including the object and generates image data.
A target area corresponding to the position of the object is set for the image data, and the target area is set.
The recognition process is executed for the target area, and the recognition process is performed.
An imaging control method that performs a process of executing imaging control on the image based on the result of the recognition process.
(9)
Computer,
A position detection unit that detects the position of an object in the first region,
An image generation unit that captures a second region including the object and generates image data,
A target area setting unit that sets a target area corresponding to the position of the object detected by the position detection unit with respect to the image data.
A recognition unit that executes recognition processing for the target area,
An image pickup control unit that executes image pickup control on the image generation unit based on the result of the recognition process.
An imaging control program to function as.
100 撮像システム
101 アンテナ
102 ミリ波送受信部
103 ミリ波変換部
104 位置検出部
105 目標領域設定部
106 変換テーブル
107 画像生成部
108 画像受信部
109 認識部
110 認識結果制御部
111 検波部
112 撮像制御部
100
Claims (9)
前記物体を含む第2の領域を撮影して画像データを生成する画像生成部と、
前記画像データに対して、前記位置検出部で検出した前記物体の位置に対応する目標領域を設定する目標領域設定部と、
前記目標領域に対して認識処理を実行する認識部と、
前記認識処理の結果に基づいて、前記画像生成部に対する撮像制御を実行する撮像制御部と、
を備える撮像システム。 A position detection unit that detects the position of an object in the first region,
An image generation unit that captures a second region including the object and generates image data,
A target area setting unit that sets a target area corresponding to the position of the object detected by the position detection unit with respect to the image data.
A recognition unit that executes recognition processing for the target area,
An image pickup control unit that executes image pickup control on the image generation unit based on the result of the recognition process.
Imaging system with.
第1の領域において物体の位置を検出し、
前記物体を含む第2の領域を撮影して画像データを生成するカメラモジュールから、前記画像データを取得し、
前記画像データに対して、前記物体の位置に対応する目標領域を設定し、
前記目標領域に対して認識処理を実行し、
前記認識処理の結果に基づいて、に対する撮像制御を実行する
処理を行う撮像制御方法。 The computer
Detect the position of the object in the first region and
The image data is acquired from a camera module that captures a second region including the object and generates image data.
A target area corresponding to the position of the object is set for the image data, and the target area is set.
The recognition process is executed for the target area, and the recognition process is performed.
An imaging control method that performs a process of executing imaging control on the image based on the result of the recognition process.
第1の領域において物体の位置を検出する位置検出部と、
前記物体を含む第2の領域を撮影して画像データを生成する画像生成部と、
前記画像データに対して、前記位置検出部で検出した前記物体の位置に対応する目標領域を設定する目標領域設定部と、
前記目標領域に対して認識処理を実行する認識部と、
前記認識処理の結果に基づいて、前記画像生成部に対する撮像制御を実行する撮像制御部、
として機能させるための撮像制御プログラム。 Computer,
A position detection unit that detects the position of an object in the first region,
An image generation unit that captures a second region including the object and generates image data,
A target area setting unit that sets a target area corresponding to the position of the object detected by the position detection unit with respect to the image data.
A recognition unit that executes recognition processing for the target area,
An image pickup control unit that executes image pickup control on the image generation unit based on the result of the recognition process.
An imaging control program to function as.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020047455A JP2021150756A (en) | 2020-03-18 | 2020-03-18 | Imaging system, imaging control method, and imaging control program |
PCT/JP2021/009929 WO2021187338A1 (en) | 2020-03-18 | 2021-03-11 | Image capturing system, image capture control method, and image capture control program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020047455A JP2021150756A (en) | 2020-03-18 | 2020-03-18 | Imaging system, imaging control method, and imaging control program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2021150756A true JP2021150756A (en) | 2021-09-27 |
Family
ID=77772051
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020047455A Pending JP2021150756A (en) | 2020-03-18 | 2020-03-18 | Imaging system, imaging control method, and imaging control program |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP2021150756A (en) |
WO (1) | WO2021187338A1 (en) |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014135612A (en) * | 2013-01-09 | 2014-07-24 | Denso Corp | Camera exposure setting device and camera exposure setting program |
WO2016117213A1 (en) * | 2015-01-22 | 2016-07-28 | 三菱電機株式会社 | Image-capturing device and method, program, and recording medium |
CN112313537A (en) * | 2018-06-29 | 2021-02-02 | 索尼半导体解决方案公司 | Information processing apparatus and information processing method, imaging apparatus, computer program, information processing system, and mobile body apparatus |
-
2020
- 2020-03-18 JP JP2020047455A patent/JP2021150756A/en active Pending
-
2021
- 2021-03-11 WO PCT/JP2021/009929 patent/WO2021187338A1/en active Application Filing
Also Published As
Publication number | Publication date |
---|---|
WO2021187338A1 (en) | 2021-09-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20230110116A1 (en) | Advanced driver assist system, method of calibrating the same, and method of detecting object in the same | |
JP5503578B2 (en) | Object detection apparatus and object detection method | |
CN108377380B (en) | Image scanning system and method thereof | |
JP4608631B2 (en) | Image processing device for vehicle, driving support device | |
TWI332453B (en) | The asynchronous photography automobile-detecting apparatus and method thereof | |
JP2006252473A (en) | Obstacle detector, calibration device, calibration method and calibration program | |
US20170039727A1 (en) | Methods and Systems for Detecting Moving Objects in a Sequence of Image Frames Produced by Sensors with Inconsistent Gain, Offset, and Dead Pixels | |
JP2014115978A (en) | Mobile object recognition device, notification apparatus using the device, mobile object recognition program for use in the mobile object recognition device, and mobile object with the mobile object recognition device | |
KR20200132468A (en) | Advanced driver assist device and method of detecting object in the same | |
EP2639769A2 (en) | Image synthesis device and computer program for image synthesis | |
WO2019146510A1 (en) | Image processing device | |
JP2017156219A (en) | Tracking device, tracking method, and program | |
CN111598065A (en) | Depth image acquisition method, living body identification method, apparatus, circuit, and medium | |
JP2008059260A (en) | Movement detection image creating device | |
WO2019044625A1 (en) | Collision prediction device, collision prediction method, and program | |
JP2017204699A (en) | Imaging apparatus and imaging method | |
US20230290152A1 (en) | Advanced driver assist system and method of detecting object in the same | |
JP2007233440A (en) | On-vehicle image processor | |
WO2021187338A1 (en) | Image capturing system, image capture control method, and image capture control program | |
JP7286406B2 (en) | Image analysis system and image analysis method | |
JP2012014553A (en) | Apparatus for monitoring surrounding of vehicle | |
JP2015207090A (en) | Image processor, and control method thereof | |
WO2017090097A1 (en) | Outside recognition device for vehicle | |
JP2020052897A (en) | Target detection device and target detection method | |
JP2018146495A (en) | Object detection apparatus, object detection method, object detection program, imaging apparatus, and equipment control system |