JP2021150756A - Imaging system, imaging control method, and imaging control program - Google Patents

Imaging system, imaging control method, and imaging control program Download PDF

Info

Publication number
JP2021150756A
JP2021150756A JP2020047455A JP2020047455A JP2021150756A JP 2021150756 A JP2021150756 A JP 2021150756A JP 2020047455 A JP2020047455 A JP 2020047455A JP 2020047455 A JP2020047455 A JP 2020047455A JP 2021150756 A JP2021150756 A JP 2021150756A
Authority
JP
Japan
Prior art keywords
unit
recognition
image
target area
imaging system
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020047455A
Other languages
Japanese (ja)
Inventor
俊樹 小野
Toshiki Ono
俊樹 小野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Semiconductor Solutions Corp
Original Assignee
Sony Semiconductor Solutions Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Semiconductor Solutions Corp filed Critical Sony Semiconductor Solutions Corp
Priority to JP2020047455A priority Critical patent/JP2021150756A/en
Priority to PCT/JP2021/009929 priority patent/WO2021187338A1/en
Publication of JP2021150756A publication Critical patent/JP2021150756A/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B15/00Special procedures for taking photographs; Apparatus therefor
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B7/00Control of exposure by setting shutters, diaphragms or filters, separately or conjointly
    • G03B7/08Control effected solely on the basis of the response, to the intensity of the light received by the camera, of a built-in light-sensitive device
    • G03B7/091Digital circuits
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/76Circuitry for compensating brightness variation in the scene by influencing the image signals

Abstract

To provide an imaging system capable of properly executing imaging control to an imaging apparatus, an imaging control method, and an imaging control program.SOLUTION: The imaging system includes: a position detection part for detecting the position of an object in a first area; an image generation part for imaging a second area including the object to generate image data; a target area setting part for setting a target area corresponding to the position of the object detected by the position detection part to the image data; a recognition part for executing recognition processing to the target area; and an imaging control part for executing imaging control to the image generation part on the basis of the result of the recognition processing.SELECTED DRAWING: Figure 3

Description

本発明は、撮像システム、撮像制御方法および撮影制御プログラムに関する。 The present invention relates to an imaging system, an imaging control method, and an imaging control program.

撮像装置によって撮影された撮影画像を基にして、車両等の物体に関する認識を行い、認識した物体の位置を撮影画像上に表示する技術がある。ここで、撮像装置は、認識対象となる物体付近に、輝度検波枠を設定することにより、露出制御を行っている。 There is a technique of recognizing an object such as a vehicle based on a captured image captured by an imaging device and displaying the position of the recognized object on the captured image. Here, the image pickup apparatus controls the exposure by setting a luminance detection frame in the vicinity of the object to be recognized.

特開2014−135611号公報Japanese Unexamined Patent Publication No. 2014-135611

しかしながら、上述した従来技術では、撮像装置に対する撮像制御を適切に実行することができないという問題がある。 However, the above-mentioned conventional technique has a problem that the image pickup control for the image pickup apparatus cannot be appropriately executed.

そこで、本開示では、撮像装置に対する撮像制御を適切に実行することができる撮像システム、撮像制御方法および撮影制御プログラムを提案する。 Therefore, the present disclosure proposes an imaging system, an imaging control method, and an imaging control program capable of appropriately executing imaging control for an imaging apparatus.

上記の課題を解決するために、本開示に係る一形態の撮像システムは、第1の領域において物体の位置を検出する位置検出部と、前記物体を含む第2の領域を撮像して画像データを生成する画像生成部と、前記画像データに対して、前記位置検出部で検出した前記物体の位置に対応する目標領域を設定する目標領域設定部と、前記目標領域に対して認識処理を実行する認識部と、前記認識処理の結果に基づいて、前記画像生成部に対する撮像制御を実行する撮像制御部とを備える。 In order to solve the above problems, in one form of the imaging system according to the present disclosure, a position detection unit that detects the position of an object in the first region and a second region including the object are imaged to obtain image data. The image generation unit that generates the image data, the target area setting unit that sets the target area corresponding to the position of the object detected by the position detection unit, and the recognition process for the target area. An image pickup control unit that executes image pickup control on the image generation unit based on the result of the recognition process is provided.

図1は、参考技術を説明するための図である。FIG. 1 is a diagram for explaining a reference technique. 図2は、本実施形態に係る撮像システムの処理を説明するための図である。FIG. 2 is a diagram for explaining the processing of the imaging system according to the present embodiment. 図3は、本実施形態に係る撮像システムの構成を示す機能ブロック図である。FIG. 3 is a functional block diagram showing a configuration of an imaging system according to the present embodiment. 図4は、メッシュ分割した撮影画像の一例を示す図である。FIG. 4 is a diagram showing an example of a captured image divided into meshes. 図5は、本実施形態に係る撮像システムの同期処理を説明するための図である。FIG. 5 is a diagram for explaining the synchronization processing of the imaging system according to the present embodiment. 図6は、本実施形態に係る撮像システムの処理手順を示すフローチャート(1)である。FIG. 6 is a flowchart (1) showing a processing procedure of the imaging system according to the present embodiment. 図7は、本実施形態に係る撮像システムの処理手順を示すフローチャート(2)である。FIG. 7 is a flowchart (2) showing a processing procedure of the imaging system according to the present embodiment. 図8は、他のシステムへの適用例を示す図である。FIG. 8 is a diagram showing an example of application to other systems. 図9は、撮像システムの機能を実現するコンピュータの一例を示すハードウェア構成図である。FIG. 9 is a hardware configuration diagram showing an example of a computer that realizes the functions of the imaging system.

以下に、本開示の実施形態について図面に基づいて詳細に説明する。なお、以下の各実施形態において、同一の部位には同一の符号を付することにより重複する説明を省略する。 Hereinafter, embodiments of the present disclosure will be described in detail with reference to the drawings. In each of the following embodiments, the same parts are designated by the same reference numerals, so that duplicate description will be omitted.

また、以下に示す項目順序に従って本開示を説明する。
1.1.本実施形態に関連する参考技術の説明
2.本実施形態
2.1.本実施形態に係る撮像システムの処理
2.2.本実施形態に係る撮像システムの構成
2.3.本実施形態に係る撮像システムの同期処理
2.4.本実施形態に係る撮像システムの処理手順
2.5.他のシステムへの適用例
2.6.本実施形態に係る撮像システムの効果
3.ハードウェア構成
4.むすび
In addition, the present disclosure will be described according to the order of items shown below.
1.1. Explanation of reference technology related to this embodiment 2. This embodiment 2.1. Processing of the imaging system according to this embodiment 2.2. Configuration of the imaging system according to this embodiment 2.3. Synchronous processing of the imaging system according to this embodiment 2.4. Processing procedure of the imaging system according to this embodiment 2.5. Application example to other systems 2.6. Effect of imaging system according to this embodiment 3. Hardware configuration 4. Conclusion

<<1.1.本実施形態に関連する参考技術の説明>>
車両認識技術等を用いて、認識領域に輝度検波枠を設定し、露出制御を行う場合、強逆光や濃霧のようなシーンでは、物体を認識することができず、適切な露出制御を行うことができない。
<< 1.1. Explanation of reference technology related to this embodiment >>
When a brightness detection frame is set in the recognition area and exposure control is performed using vehicle recognition technology, etc., the object cannot be recognized in a scene such as strong backlight or dense fog, and appropriate exposure control should be performed. I can't.

図1は、参考技術を説明するための図である。図1に示すように、強逆光ではないシーンでは、撮影画像は、撮影画像5aに示すものとなり、物体の領域5bを認識することができ、領域5bに輝度検波枠を設定することで、露出制御を行うことができる。 FIG. 1 is a diagram for explaining a reference technique. As shown in FIG. 1, in a scene that is not strongly backlit, the captured image is as shown in the captured image 5a, the region 5b of the object can be recognized, and the exposure is exposed by setting the luminance detection frame in the region 5b. Control can be performed.

一方、強逆光のシーンでは、撮影画像は、撮影画像6aに示すものとなり、物体を認識することができない。この場合には、撮像画面6b全体を対象として、露出制御を実行するため、認識対象となる物体に対して、適切な露出制御を行うことができず、物体をロストしてしまう場合がある。 On the other hand, in a scene with strong backlight, the captured image is as shown in the captured image 6a, and the object cannot be recognized. In this case, since the exposure control is executed for the entire image pickup screen 6b, the appropriate exposure control cannot be performed for the object to be recognized, and the object may be lost.

図1で説明した問題に対して、ミリ波レーダを利用する参考技術がある。この参考技術では、ミリ波レーダを用いることで、物体の位置を特定し、特定した位置に対して、輝度検波枠を設定し、露出制御を行う。しかし、ミリ波レーダによる位置検出では、本来の認識対象である物体とは別の物体(看板等)の位置を検出する場合もあり、他の物体に対して、露出制御を実行してしまい、認識対象となる物体に対して、適切な露出制御を行うことができない。 There is a reference technique that uses millimeter-wave radar for the problem described in FIG. In this reference technique, the position of an object is specified by using a millimeter-wave radar, a brightness detection frame is set for the specified position, and exposure control is performed. However, in the position detection by the millimeter wave radar, the position of an object (signature, etc.) different from the object that is the original recognition target may be detected, and the exposure control is executed for the other object. Appropriate exposure control cannot be performed on the object to be recognized.

<<2.本実施形態>>
<<2.1.本実施形態に係る撮像システムの処理>>
図2は、本実施形態に係る撮像システムの処理を説明するための図である。本実施形態に係る撮像システムは、ミリ波レーダ50を用いて広角にミリ波を照射し、物体10aの位置を検出する。撮像システムは、検出した物体10aの位置を基にして、撮影画像11における、物体10aの目標領域11aを設定する。
<< 2. This embodiment >>
<< 2.1. Processing of the imaging system according to this embodiment >>
FIG. 2 is a diagram for explaining the processing of the imaging system according to the present embodiment. The imaging system according to the present embodiment uses a millimeter wave radar 50 to irradiate a wide angle with millimeter waves to detect the position of the object 10a. The imaging system sets the target region 11a of the object 10a in the captured image 11 based on the detected position of the object 10a.

続いて、撮像システムは、目標領域11aに輝度検波枠を設定し、露出制御を行い、露出制御後の撮影画像12を取得し、撮影画像12における目標領域12aに対して、認識処理を実行する。目標領域11aと、目標領域12aとは同じ位置に設定される。撮像システムは、目標領域12aに対する認識結果を基にして、目標領域12aにおいて、確かに、認識対象となる物体が含まれている場合に、目標領域12aの範囲を、物体の領域に調整し、調整した領域に対して、輝度検波枠設定し、露出制御を行う。 Subsequently, the imaging system sets a luminance detection frame in the target region 11a, performs exposure control, acquires the captured image 12 after the exposure control, and executes recognition processing on the target region 12a in the captured image 12. .. The target area 11a and the target area 12a are set at the same position. Based on the recognition result for the target area 12a, the imaging system adjusts the range of the target area 12a to the area of the object when the object to be recognized is certainly included in the target area 12a. A brightness detection frame is set for the adjusted area, and exposure control is performed.

このように、ミリ波レーダ50を用いた物体の位置検出結果を基にして、目標領域11aを設定し、目標領域11aに応じた露出制御を行い、露出制御後の目標領域12aに対する認識結果を基にして、目標領域12aを調整し、調整した目標領域に応じた露出制御を実行することで、撮像装置に対する露出制御を適切に実行することができる。また、撮像装置に対する露出制御を適切に実行できるので、物体の認識率を向上させることができる。 In this way, the target area 11a is set based on the position detection result of the object using the millimeter wave radar 50, the exposure control is performed according to the target area 11a, and the recognition result for the target area 12a after the exposure control is obtained. By adjusting the target area 12a based on this and executing the exposure control according to the adjusted target area, the exposure control for the image pickup apparatus can be appropriately executed. Further, since the exposure control for the image pickup apparatus can be appropriately executed, the recognition rate of the object can be improved.

なお、本実施形態の撮像システムは、露出制御の他に、ホワイトバランスの制御、フォーカスの制御も合わせて実行してもよい。露出制御、ホワイトバランスの制御、フォーカスの制御は、撮像制御に対応する。 In addition to the exposure control, the imaging system of the present embodiment may also perform white balance control and focus control. Exposure control, white balance control, and focus control correspond to imaging control.

<<2.2.本実施形態に係る撮像システムの構成>>
次に、本実施形態に係る撮像システムの構成例について説明する。図3は、本実施形態に係る撮像システムの構成を示す機能ブロック図である。図3に示すように、この撮像システム100は、アンテナ101と、ミリ波送受信部102と、ミリ波変換部103と、位置検出部104と、目標領域設定部105と、変換テーブル106と、画像生成部107と、画像受信部108と、認識部109と、認識結果制御部110と、検波部111と、撮像制御部112とを有する。図示を省略するが、撮像システム100は、車両に搭載される。
<< 2.2. Configuration of imaging system according to this embodiment >>
Next, a configuration example of the imaging system according to the present embodiment will be described. FIG. 3 is a functional block diagram showing a configuration of an imaging system according to the present embodiment. As shown in FIG. 3, the imaging system 100 includes an antenna 101, a millimeter wave transmission / reception unit 102, a millimeter wave conversion unit 103, a position detection unit 104, a target area setting unit 105, a conversion table 106, and an image. It has a generation unit 107, an image receiving unit 108, a recognition unit 109, a recognition result control unit 110, a detection unit 111, and an image pickup control unit 112. Although not shown, the imaging system 100 is mounted on a vehicle.

アンテナ101は、ミリ波送受信部102と協働して、60GHz又は76GHzの周波数帯域(ミリ波周波数帯域)の電波を送信し、物体から反射される電波を受信する装置である。以下の説明では、ミリ波周波数帯域の電波を「ミリ波」と表記する。 The antenna 101 is a device that cooperates with the millimeter wave transmission / reception unit 102 to transmit radio waves in a frequency band of 60 GHz or 76 GHz (millimeter wave frequency band) and receive radio waves reflected from an object. In the following description, radio waves in the millimeter wave frequency band are referred to as "millimeter waves".

ミリ波送受信部102は、アンテナ101を用いて、ミリ波を送信し、物体から反射されるミリ波を受信する処理部である。ミリ波送受信部102は、ミリ波の送受信の結果を、ミリ波変換部103に出力する。 The millimeter wave transmission / reception unit 102 is a processing unit that transmits millimeter waves using an antenna 101 and receives millimeter waves reflected from an object. The millimeter wave transmission / reception unit 102 outputs the result of transmission / reception of the millimeter wave to the millimeter wave conversion unit 103.

ミリ波変換部103は、ミリ波の送受信結果を基にして、Speed-Range情報を生成する処理部である。たとえば、Speed-Range情報には、アンテナ101の位置を基準とした、物体の距離、物体の角度、物体との相対速度などが含まれる。ミリ波変換部103は、Speed-Range情報を、位置検出部104に出力する。 The millimeter wave conversion unit 103 is a processing unit that generates Speed-Range information based on the transmission / reception result of millimeter waves. For example, the Speed-Range information includes the distance of the object, the angle of the object, the relative speed with respect to the object, and the like with respect to the position of the antenna 101. The millimeter wave conversion unit 103 outputs the Speed-Range information to the position detection unit 104.

位置検出部104は、Speed-Range情報を基にして、物体の位置を検出する処理部である。位置検出部104は、検出した物体の位置の情報を、目標領域設定部105に出力する。以下の説明では、物体の位置の情報を、「位置情報」と表記する。なお、同一の物体からは、かかる物体の複数箇所それぞれから、位置が検出され、かかる複数の位置をまとめたものが、実空間上で、物体の存在する領域となる。 The position detection unit 104 is a processing unit that detects the position of an object based on the Speed-Range information. The position detection unit 104 outputs the information on the position of the detected object to the target area setting unit 105. In the following description, the information on the position of the object is referred to as "position information". From the same object, the position is detected from each of the plurality of places of the object, and the group of the plurality of positions is the area where the object exists in the real space.

変換テーブル106は、位置検出部104によって検出されるミリ波上の物体の2次元座標位置(横幅−奥行き)を撮影画像上の2次元座標位置に変換するテーブルである。変換テーブル106は、例えば車載に搭載したミリ波とカメラの位置関係からキャリブレーションによって事前に調整されているものとする。 The conversion table 106 is a table that converts the two-dimensional coordinate position (width-depth) of the object on the millimeter wave detected by the position detection unit 104 into the two-dimensional coordinate position on the captured image. It is assumed that the conversion table 106 is preliminarily adjusted by calibration from, for example, the positional relationship between the millimeter wave mounted on the vehicle and the camera.

目標領域設定部105は、位置検出部104から取得する位置情報と、変換テーブル106とを基にして、ミリ波によって推定される物体の撮影画像上の領域を算出する。以下の説明では、ミリ波によって推定される撮影画像上の物体の領域を、「目標領域」と表記する。目標領域設定部105は、画像受信部108から取得する撮影画像と、目標領域の座標とを、認識部109および検波部111に出力する。 The target area setting unit 105 calculates an area on the captured image of the object estimated by millimeter waves based on the position information acquired from the position detection unit 104 and the conversion table 106. In the following description, the region of the object on the captured image estimated by millimeter waves is referred to as the "target region". The target area setting unit 105 outputs the captured image acquired from the image receiving unit 108 and the coordinates of the target area to the recognition unit 109 and the detection unit 111.

画像生成部107は、撮影画像を生成するカメラである。たとえば、画像生成部107は、露光時間やフォーカスを調整可能なレンズモジュール、CMOS(Complementary Metal Oxide Semiconductor)センサ、ホワイトバランスを調整するLSI(Large-scale Integration)等が含まれる。画像生成部107は、撮像制御部112から出力される撮像制御情報を基にして、露光時間、ホワイトバランス、フォーカスを調整し、撮影画像を生成する。画像生成部107は、生成した撮影画像(撮影画像の情報)を、画像受信部108に出力する。 The image generation unit 107 is a camera that generates a captured image. For example, the image generation unit 107 includes a lens module capable of adjusting the exposure time and focus, a CMOS (Complementary Metal Oxide Semiconductor) sensor, an LSI (Large-scale Integration) for adjusting white balance, and the like. The image generation unit 107 adjusts the exposure time, white balance, and focus based on the image pickup control information output from the image pickup control unit 112, and generates a photographed image. The image generation unit 107 outputs the generated photographed image (information of the photographed image) to the image receiving unit 108.

画像受信部108は、画像生成部107から撮影画像を受信する処理部である。画像受信部108は、撮影画像を目標領域設定部105に出力する。なお、画像受信部108は、路面、人体、信号機、道路認識等を実行する外部の認識器や、車両のECU(Engine Control Unit)等に、撮影画像を出力してもよい。 The image receiving unit 108 is a processing unit that receives a captured image from the image generating unit 107. The image receiving unit 108 outputs the captured image to the target area setting unit 105. The image receiving unit 108 may output the captured image to an external recognizer that executes road surface, human body, traffic light, road recognition, or the like, an ECU (Engine Control Unit) of the vehicle, or the like.

認識部109は、撮影画像に対して認識処理を実行する処理部である。認識部109は、目標領域設定部105によって、撮影画像に目標領域が設定されている場合には、目標領域に対して、認識処理を実行する。たとえば、認識部109は、画像の特徴と、物体(認識対象となる物体)との関係を学習した学習モデル等を用いて、物体を認識する。認識部109は、撮影画像全体に対して、認識処理を実行してもよい。 The recognition unit 109 is a processing unit that executes recognition processing on the captured image. When the target area is set in the captured image by the target area setting unit 105, the recognition unit 109 executes the recognition process on the target area. For example, the recognition unit 109 recognizes an object by using a learning model or the like that has learned the relationship between the features of the image and the object (object to be recognized). The recognition unit 109 may execute the recognition process on the entire captured image.

認識部109は、物体の認識結果を認識結果制御部110に出力する。たとえば、認識部109が、物体の認識に成功した場合、物体の認識結果には、認識した物体の撮影画像上の領域が含まれる。以下の説明では、認識された物体の撮影画像上の領域を「物体領域」と表記する。認識部109が、物体の認識に失敗した場合、物体の認識結果には、物体を認識に失敗した旨の情報が含まれる。 The recognition unit 109 outputs the recognition result of the object to the recognition result control unit 110. For example, when the recognition unit 109 succeeds in recognizing the object, the recognition result of the object includes an area on the captured image of the recognized object. In the following description, the area on the captured image of the recognized object is referred to as an "object area". When the recognition unit 109 fails to recognize the object, the object recognition result includes information to the effect that the recognition of the object has failed.

認識結果制御部110は、物体の認識結果を基にして、各種の制御を実行する処理部である。認識結果制御部110は、物体の認識結果に、物体領域の情報が含まれている場合、物体領域の座標を、検波部111に出力する。認識結果制御部110は、物体の認識結果に、物体領域の情報が含まれていない場合、次の認識結果を取得するまで待機する。 The recognition result control unit 110 is a processing unit that executes various controls based on the recognition result of the object. When the recognition result of the object includes the information of the object area, the recognition result control unit 110 outputs the coordinates of the object area to the detection unit 111. When the recognition result of the object does not include the information of the object area, the recognition result control unit 110 waits until the next recognition result is acquired.

検波部111は、撮影画像に撮像制御を行うための輝度検波枠を設定し、評価値を算出する処理部である。検波部111は、評価値を撮像制御部112に出力する。以下において、検波部111の処理を、目標領域の座標を取得した場合、物体領域の座標を取得した場合、目標領域および物体領域の座標を取得していない場合に分けて説明する。 The detection unit 111 is a processing unit that sets a luminance detection frame for performing imaging control on the captured image and calculates an evaluation value. The detection unit 111 outputs the evaluation value to the image pickup control unit 112. Hereinafter, the processing of the detection unit 111 will be described separately for the cases where the coordinates of the target area are acquired, the coordinates of the object area are acquired, and the coordinates of the target area and the object area are not acquired.

検波部111が目標領域の座標を取得した場合について説明する。検波部111は、撮影画像上の目標領域に、輝度検波枠を設定し、評価値を算出する。たとえば、検波部111は、目標領域(輝度検波枠)の輝度平均値、輝度ピーク値、画素値等を、評価値として算出する。 The case where the detection unit 111 acquires the coordinates of the target area will be described. The detection unit 111 sets a brightness detection frame in the target area on the captured image and calculates an evaluation value. For example, the detection unit 111 calculates the brightness average value, the brightness peak value, the pixel value, etc. of the target region (brightness detection frame) as evaluation values.

検波部111が物体領域の座標を取得した場合について説明する。検波部111は、撮影画像上の物体領域に、輝度検波枠を設定し、評価値を算出する。たとえば、検波部111は、物体領域(輝度検波枠)の輝度平均値、輝度ピーク値、画素値等を、評価値として算出する。 The case where the detection unit 111 acquires the coordinates of the object region will be described. The detection unit 111 sets a luminance detection frame in the object region on the captured image and calculates an evaluation value. For example, the detection unit 111 calculates the brightness average value, the brightness peak value, the pixel value, etc. of the object region (luminance detection frame) as evaluation values.

なお、検波部111は、目標領域の座標および物体領域の座標の双方を取得した場合には、撮影画像上の物体領域に、輝度検波枠を設定し、評価値を算出する。 When both the coordinates of the target area and the coordinates of the object area are acquired, the detection unit 111 sets a luminance detection frame in the object area on the captured image and calculates an evaluation value.

検波部111が目標領域および物体領域の座標を取得していない場合について説明する。検波部111は、撮影画像の全領域に対して、輝度検波枠を設定し、評価値を算出する。たとえば、検波部111は、撮影画像の輝度平均値、輝度ピーク値、画素値等を、評価値として算出する。 A case where the detection unit 111 has not acquired the coordinates of the target area and the object area will be described. The detection unit 111 sets a luminance detection frame for the entire region of the captured image and calculates an evaluation value. For example, the detection unit 111 calculates the brightness average value, the brightness peak value, the pixel value, and the like of the captured image as evaluation values.

なお、検波部111は、撮影画像の全領域を対象として、評価値を算出する場合に、全領域をメッシュ分割し、各メッシュに重みを設定して、評価値を算出してもよい。図4は、メッシュ分割した撮影画像の一例を示す図である。各メッシュに示す数値は重みであり、重みが大きいほど、該当するメッシュの輝度平均値、輝度ピーク値、画素値が、撮影画像全体の評価値により大きく寄与することを示す。図4に示すように、撮影画像15の中心部分のメッシュに重みが、他のメッシュよりも大きく設定されている。なお、検波部111は、ホワイトバランス、フォーカス調整のために撮影画像のRGB平均値、RGBピーク値、輝度コントラスト値、画素値等を、評価値として算出してもよい。 When calculating the evaluation value for the entire region of the captured image, the detection unit 111 may divide the entire region into meshes, set weights for each mesh, and calculate the evaluation value. FIG. 4 is a diagram showing an example of a captured image divided into meshes. The numerical value shown in each mesh is a weight, and the larger the weight, the greater the contribution of the brightness average value, the brightness peak value, and the pixel value of the corresponding mesh to the evaluation value of the entire captured image. As shown in FIG. 4, the weight of the mesh at the center of the captured image 15 is set to be larger than that of the other meshes. The detection unit 111 may calculate the RGB average value, RGB peak value, luminance contrast value, pixel value, etc. of the captured image as evaluation values for white balance and focus adjustment.

図3の説明に戻る。撮像制御部112は、検波部111から取得する評価値を基にして、画像生成部107の撮影制御を実行する処理部である。撮像制御部112は、評価値が、予め設定される目標評価値に近づくように、露光時間、ホワイトバランス、フォーカスの調整量を設定した撮像制御情報を生成し、画像生成部107に出力する。 Returning to the description of FIG. The image pickup control unit 112 is a processing unit that executes shooting control of the image generation unit 107 based on the evaluation value acquired from the detection unit 111. The image pickup control unit 112 generates image pickup control information in which the exposure time, white balance, and focus adjustment amount are set so that the evaluation value approaches a preset target evaluation value, and outputs the image pickup control information to the image generation unit 107.

たとえば、撮像制御部112は、目標評価値および評価値との差分値と、撮影制御情報とを対応付けた制御テーブルを用いて、撮影制御情報を特定し、画像生成部107に出力してもよい。 For example, the image pickup control unit 112 may specify the shooting control information by using the control table in which the difference value between the target evaluation value and the evaluation value and the shooting control information are associated with each other and output the shooting control information to the image generation unit 107. good.

<<2.3.本実施形態に係る撮像システムの同期処理>>
続いて、本実施形態に係る撮像システムの同期処理の一例について説明する。図5は、本実施形態に係る撮像システムの同期処理を説明するための図である。図5では、画像生成部107内のイメージセンサが、60fps(Frame Per Second)で定常動作しているタイミングに、ミリ波動作が60fpsで同期しているものとする。撮像システム100は、撮像処理(検波処理、撮像制御等)で生成(現像)された撮影画像を同タイミングで認識処理し、認識結果は、次の撮影画像の輝度検波枠の設定に使用できるものとする。
<< 2.3. Synchronous processing of the imaging system according to this embodiment >>
Subsequently, an example of the synchronous processing of the imaging system according to the present embodiment will be described. FIG. 5 is a diagram for explaining the synchronization processing of the imaging system according to the present embodiment. In FIG. 5, it is assumed that the millimeter wave operation is synchronized at 60 fps at the timing when the image sensor in the image generation unit 107 is constantly operating at 60 fps (Frame Per Second). The imaging system 100 recognizes the captured image generated (developed) by the imaging process (detection processing, imaging control, etc.) at the same timing, and the recognition result can be used to set the brightness detection frame of the next captured image. And.

図5に示すように、撮像システム100は、撮影画像I0の露光後、次のタイミングで撮影画像I0を検波および現像する(ステップS1)。ステップS1では、物体認識の実行前であるため、撮影画像全体に対して検波が実行される。 As shown in FIG. 5, the imaging system 100 detects and develops the captured image I0 at the next timing after the exposure of the captured image I0 (step S1). In step S1, since it is before the execution of object recognition, detection is executed for the entire captured image.

撮像システム100は、撮影画像I0の露光タイミングで、撮影画像I0に同期したSpeed-Range情報を生成し、撮影画像I0の現像時に、Speed-Range情報に基づく目標領域を設定する(ステップS2)。 The imaging system 100 generates Speed-Range information synchronized with the captured image I0 at the exposure timing of the captured image I0, and sets a target region based on the Speed-Range information when developing the captured image I0 (step S2).

撮像システム100は、現像された撮影画像I0の目標領域に対して、認識処理を実行する(ステップS3)。撮像システム100は、認識結果によって認識された物体領域に対して輝度検波枠を設定し、評価値を算出して、画像生成部107を撮像制御する(ステップS4)。ステップS4の撮像制御は、撮影画像I3の露光(ホワイトバランス、フォーカス)の調整に反映される(ステップS5)。 The imaging system 100 executes a recognition process on the target region of the developed captured image I0 (step S3). The imaging system 100 sets a luminance detection frame for the object region recognized by the recognition result, calculates an evaluation value, and controls imaging of the image generation unit 107 (step S4). The imaging control in step S4 is reflected in the adjustment of the exposure (white balance, focus) of the captured image I3 (step S5).

図5で説明した同期処理では、ステップS3で検波した結果が、撮影画像I3の生成から反映されることを意味する。 In the synchronization process described with reference to FIG. 5, it means that the result of detection in step S3 is reflected from the generation of the captured image I3.

<<2.4.本実施形態に係る撮像システムの処理手順>>
次に、本実施形態に係る撮像システム100の処理手順の一例について説明する。図6は、本実施形態に係る撮像システム100の処理手順を示すフローチャート(1)である。撮像システム100は、図6に示す処理を繰り返し実行する。
<< 2.4. Processing procedure of the imaging system according to this embodiment >>
Next, an example of the processing procedure of the imaging system 100 according to the present embodiment will be described. FIG. 6 is a flowchart (1) showing a processing procedure of the imaging system 100 according to the present embodiment. The imaging system 100 repeatedly executes the process shown in FIG.

図6に示すように、撮像システム100の画像生成部107は、撮影画像を生成する(ステップS101)。撮像システム100の認識部109は、撮影画像に対して認識処理を実行する(ステップS102)。 As shown in FIG. 6, the image generation unit 107 of the imaging system 100 generates a captured image (step S101). The recognition unit 109 of the image pickup system 100 executes a recognition process on the captured image (step S102).

撮像システム100は、物体の認識が可能である場合には(ステップS103,Yes)、ステップS108に移行する。撮像システム100は、物体の認識が可能でない場合には(ステップS103,No)、ステップS104に移行する。 If the image pickup system 100 can recognize the object (steps S103, Yes), the imaging system 100 proceeds to step S108. If the image pickup system 100 cannot recognize the object (steps S103, No), the imaging system 100 proceeds to step S104.

撮像システム100の目標領域設定部105は、ミリ波動作の結果を基にして、目標領域を設定する(ステップS104)。撮像システム100の検波部111は、目標領域に対して輝度検波し、評価値を算出する(ステップS105)。 The target area setting unit 105 of the imaging system 100 sets the target area based on the result of the millimeter wave operation (step S104). The detection unit 111 of the imaging system 100 detects the brightness of the target region and calculates the evaluation value (step S105).

撮像システム100の撮像制御部112は、評価値を基にして撮影制御を実行する(ステップS106)。認識部109は、撮影画像の目標領域に対して、認識処理を実行する(ステップS107)。 The image pickup control unit 112 of the image pickup system 100 executes shooting control based on the evaluation value (step S106). The recognition unit 109 executes the recognition process for the target area of the captured image (step S107).

撮像システム100の検波部111は、画像認識で検出した物体領域で輝度検波し、評価値を算出する(ステップS108)。撮像システム100の撮像制御部112は、評価値を基にして、撮像制御を実行する(ステップS109)。 The detection unit 111 of the imaging system 100 detects the luminance in the object region detected by the image recognition and calculates the evaluation value (step S108). The image pickup control unit 112 of the image pickup system 100 executes image pickup control based on the evaluation value (step S109).

次に、本実施形態に係る撮像システム100のミリ波動作の処理手順の一例について説明する。図7は、本実施形態に係る撮像システム100の処理手順を示すフローチャート(2)である。撮像システム100は、図7に示す処理を繰り返し実行する。 Next, an example of a processing procedure for millimeter-wave operation of the imaging system 100 according to the present embodiment will be described. FIG. 7 is a flowchart (2) showing a processing procedure of the imaging system 100 according to the present embodiment. The imaging system 100 repeatedly executes the process shown in FIG. 7.

図7に示すように、撮像システム100のミリ波送受信部102は、ミリ波を送受信する(ステップS201)。撮像システム100のミリ波変換部103は、Speed-Range情報を生成する(ステップS202)。 As shown in FIG. 7, the millimeter wave transmission / reception unit 102 of the imaging system 100 transmits / receives millimeter waves (step S201). The millimeter wave conversion unit 103 of the imaging system 100 generates Speed-Range information (step S202).

ミリ波変換部103は、物体の方位を推定する(ステップS203)。撮像システム100の位置検出部104は、物体の位置を検出する(ステップS204)。目標領域設定部105は、変換テーブル106を基にして、物体の位置を撮影画像の領域(目標領域)に変換する(ステップS205)。 The millimeter wave conversion unit 103 estimates the direction of the object (step S203). The position detection unit 104 of the imaging system 100 detects the position of the object (step S204). The target area setting unit 105 converts the position of the object into a captured image area (target area) based on the conversion table 106 (step S205).

撮像システム100は、図6、図7で説明した処理を、平行して実行してもよい。 The imaging system 100 may execute the processes described in FIGS. 6 and 7 in parallel.

<<2.5.他のシステムへの適用例>>
次に、図3に示した撮像システム100に関して、他のシステムへの適用例について説明する。図8は、他のシステムへの適用例を示す図である。図8に示すように、このシステムでは、撮像装置200と、車載システム300とが相互に接続される。撮像装置200は、ミリ波レーダ210およびLiDAR(Laser Imaging Detection and Ranging)220に接続される。
<< 2.5. Application example to other systems >>
Next, an example of application of the imaging system 100 shown in FIG. 3 to other systems will be described. FIG. 8 is a diagram showing an example of application to other systems. As shown in FIG. 8, in this system, the image pickup apparatus 200 and the in-vehicle system 300 are interconnected. The image pickup apparatus 200 is connected to a millimeter wave radar 210 and a LiDAR (Laser Imaging Detection and Ranging) 220.

撮像装置200は、カメラ制御部200aと、認識器200bとを有する。カメラ制御部200aは、図3の撮像システム100で説明した、変換テーブル106、目標領域設定部105、画像生成部107、画像受信部108、認識部109、認識結果制御部110、検波部111、撮像制御部112に対応する。撮像装置200の画像受信部108は、認識器200bおよび車載システム300に、撮像画像を出力する。 The image pickup apparatus 200 includes a camera control unit 200a and a recognizer 200b. The camera control unit 200a includes a conversion table 106, a target area setting unit 105, an image generation unit 107, an image receiving unit 108, a recognition unit 109, a recognition result control unit 110, and a detection unit 111, which are described in the imaging system 100 of FIG. Corresponds to the image pickup control unit 112. The image receiving unit 108 of the image capturing device 200 outputs the captured image to the recognizer 200b and the in-vehicle system 300.

認識器200bは、撮像装置200から取得する撮影画像を基にして、各種の認識を実行する装置である。たとえば、認識器200bは、路面、車両、人体、信号機、道路標識などを認識し、認識結果を車載システム300に出力する。なお、認識器200bは、認識結果を、撮像装置200に出力してもよい。 The recognizer 200b is a device that executes various recognitions based on a captured image acquired from the image pickup device 200. For example, the recognizer 200b recognizes a road surface, a vehicle, a human body, a traffic light, a road sign, and the like, and outputs the recognition result to the in-vehicle system 300. The recognizer 200b may output the recognition result to the image pickup apparatus 200.

ミリ波レーダ210は、ミリ波を送受信するミリ波レーダであり、図3で説明した、アンテナ101、ミリ波送受信部102、ミリ波変換部103、位置検出部104等に対応する。 The millimeter wave radar 210 is a millimeter wave radar that transmits and receives millimeter waves, and corresponds to the antenna 101, the millimeter wave transmission / reception unit 102, the millimeter wave conversion unit 103, the position detection unit 104, and the like described in FIG.

LiDAR220は、パルス状に発光するレーザー照射に対する散乱光を測定し、遠距離にある対象までの距離やその対象の性質を分析する装置である。撮像装置200は、ミリ波レーダ210の代わりに、LiDAR220の位置情報を用いて、目標領域を設定してもよい。もちろん、両方用いてもよい。 The LiDAR 220 is a device that measures scattered light with respect to laser irradiation that emits pulsed light and analyzes the distance to an object at a long distance and the properties of the object. The image pickup apparatus 200 may set the target region by using the position information of the LiDAR 220 instead of the millimeter wave radar 210. Of course, both may be used.

車載システム300は、ECU300a、センサ30A,30B,30C、アクチュエーター20A,20B,20C,20Dを有する。ECU300aは、撮像装置200から取得する撮影画像や、認識器200bの認識結果を用いて、アクチュエーター20A〜20Dを制御する。ECU300aは、センサ30A〜30Cを用いて、各種のセンシングを実行してもよい。ここでは、センサ30A〜30C、アクチュエーター20A〜20Dを示すが、これに限定されるものではなく、他のセンサ、他のアクチュエーターが含まれていてもよい。また、車載システム300は、車両に関連する他の装置に更に接続されていてもよい。 The in-vehicle system 300 includes an ECU 300a, sensors 30A, 30B, 30C, and actuators 20A, 20B, 20C, 20D. The ECU 300a controls the actuators 20A to 20D by using the captured image acquired from the image pickup apparatus 200 and the recognition result of the recognizer 200b. The ECU 300a may execute various types of sensing using the sensors 30A to 30C. Here, the sensors 30A to 30C and the actuators 20A to 20D are shown, but the present invention is not limited to this, and other sensors and other actuators may be included. Further, the in-vehicle system 300 may be further connected to other devices related to the vehicle.

<<2.6.本実施形態に係る撮像システムの効果>>
本実施形態に係る撮像システム100は、撮影画像に対して、ミリ波レーダに基づく物体の位置に対応する目標領域を設定し、目標領域に対して認識処理を実行し、認識処理の結果に基づいて、画像生成部107に対する撮像制御を実行する。撮像制御には、露出制御、ホワイトバランス制御、フォーカス制御などが含まれる。これによって、撮像制御を適切に実行することができる。また、撮像制御を適切に実行できるので、物体の認識率を向上させることができる。
<< 2.6. Effect of imaging system according to this embodiment >>
The imaging system 100 according to the present embodiment sets a target area corresponding to the position of an object based on a millimeter-wave radar on the captured image, executes recognition processing on the target area, and is based on the result of the recognition processing. Then, the image pickup control for the image generation unit 107 is executed. Imaging control includes exposure control, white balance control, focus control, and the like. Thereby, the imaging control can be appropriately executed. Moreover, since the imaging control can be appropriately executed, the recognition rate of the object can be improved.

たとえば、ミリ波レーダを用いて、物体の位置を特定し、特定した位置に対して、輝度検波枠を設定し、露出制御を行うだけでは、本来の認識対象である物体とは別の物体(看板等)に対して、輝度検波枠を設定している場合があり、適切に撮像制御を実行することができない。 For example, if you use a millimeter-wave radar to identify the position of an object, set a brightness detection frame for the specified position, and perform exposure control, an object different from the object that is the original recognition target ( A brightness detection frame may be set for a signboard, etc.), and imaging control cannot be properly executed.

撮像システム100は、撮影画像の目標領域に対して、認識処理を実行し、認識対象の物体を認識した場合には、物体領域に対して輝度検波枠を設定し、評価値を算出し、撮影制御を実行する。これによって、物体の領域を1ピクセル単位(ピクセルオーダーの精度)で絞り込むことができ、評価値の算出精度を向上させることができる。たとえば、ミリ波レーダに基づく目標領域では、物体の領域を1ピクセル単位で絞り込むことが難しく、物体以外の部分を含めて、評価値を算出する場合がある。 The imaging system 100 executes recognition processing on the target area of the captured image, and when the object to be recognized is recognized, sets a luminance detection frame for the object area, calculates an evaluation value, and captures the image. Take control. As a result, the area of the object can be narrowed down in units of 1 pixel (accuracy on the order of pixels), and the accuracy of calculating the evaluation value can be improved. For example, in a target region based on millimeter-wave radar, it is difficult to narrow down the region of an object in units of one pixel, and an evaluation value may be calculated including a portion other than the object.

<<3.ハードウェア構成>>
上述してきた各実施形態に係る画像処理装置は、たとえば、図9に示すような構成のコンピュータ1000によって実現される。以下、実施形態に係る撮像システム100を例に挙げて説明する。図9は、撮像システムの機能を実現するコンピュータ1000の一例を示すハードウェア構成図である。コンピュータ1000は、CPU1100、RAM1200、ROM(Read Only Memory)1300、HDD(Hard Disk Drive)1400、通信インターフェイス1500、及び入出力インターフェイス1600を有する。コンピュータ1000の各部は、バス1050によって接続される。
<< 3. Hardware configuration >>
The image processing apparatus according to each of the above-described embodiments is realized by, for example, a computer 1000 having a configuration as shown in FIG. Hereinafter, the imaging system 100 according to the embodiment will be described as an example. FIG. 9 is a hardware configuration diagram showing an example of a computer 1000 that realizes the functions of the imaging system. The computer 1000 includes a CPU 1100, a RAM 1200, a ROM (Read Only Memory) 1300, an HDD (Hard Disk Drive) 1400, a communication interface 1500, and an input / output interface 1600. Each part of the computer 1000 is connected by a bus 1050.

CPU1100は、ROM1300又はHDD1400に格納されたプログラムに基づいて動作し、各部の制御を行う。例えば、CPU1100は、ROM1300又はHDD1400に格納されたプログラムをRAM1200に展開し、各種プログラムに対応した処理を実行する。 The CPU 1100 operates based on a program stored in the ROM 1300 or the HDD 1400, and controls each part. For example, the CPU 1100 expands the program stored in the ROM 1300 or the HDD 1400 into the RAM 1200 and executes processing corresponding to various programs.

ROM1300は、コンピュータ1000の起動時にCPU1100によって実行されるBIOS(Basic Input Output System)等のブートプログラムや、コンピュータ1000のハードウェアに依存するプログラム等を格納する。 The ROM 1300 stores a boot program such as a BIOS (Basic Input Output System) executed by the CPU 1100 when the computer 1000 is started, a program depending on the hardware of the computer 1000, and the like.

HDD1400は、CPU1100によって実行されるプログラム、及び、かかるプログラムによって使用されるデータ等を非一時的に記録する、コンピュータが読み取り可能な記録媒体である。具体的には、HDD1400は、プログラムデータ1450の一例である本開示に係る情報処理プログラムを記録する記録媒体である。 The HDD 1400 is a computer-readable recording medium that non-temporarily records a program executed by the CPU 1100, data used by the program, and the like. Specifically, the HDD 1400 is a recording medium for recording an information processing program according to the present disclosure, which is an example of program data 1450.

通信インターフェイス1500は、コンピュータ1000が外部ネットワーク1550(例えばインターネット)と接続するためのインターフェイスである。例えば、CPU1100は、通信インターフェイス1500を介して、他の機器からデータを受信したり、CPU1100が生成したデータを他の機器へ送信したりする。 The communication interface 1500 is an interface for the computer 1000 to connect to an external network 1550 (for example, the Internet). For example, the CPU 1100 receives data from another device or transmits data generated by the CPU 1100 to another device via the communication interface 1500.

入出力インターフェイス1600は、入出力デバイス1650とコンピュータ1000とを接続するためのインターフェイスである。例えば、CPU1100は、入出力インターフェイス1600を介して、キーボードやマウス等の入力デバイスからデータを受信する。また、CPU1100は、入出力インターフェイス1600を介して、ディスプレイやスピーカーやプリンタ等の出力デバイスにデータを送信する。また、入出力インターフェイス1600は、所定の記録媒体(メディア)に記録されたプログラム等を読み取るメディアインターフェイスとして機能してもよい。メディアとは、例えばDVD(Digital Versatile Disc)、PD(Phase change rewritable Disk)等の光学記録媒体、MO(Magneto-Optical disk)等の光磁気記録媒体、テープ媒体、磁気記録媒体、または半導体メモリ等である。 The input / output interface 1600 is an interface for connecting the input / output device 1650 and the computer 1000. For example, the CPU 1100 receives data from an input device such as a keyboard or mouse via the input / output interface 1600. Further, the CPU 1100 transmits data to an output device such as a display, a speaker, or a printer via the input / output interface 1600. Further, the input / output interface 1600 may function as a media interface for reading a program or the like recorded on a predetermined recording medium (media). The media includes, for example, an optical recording medium such as a DVD (Digital Versatile Disc) or PD (Phase change rewritable Disk), a magneto-optical recording medium such as an MO (Magneto-Optical disk), a tape medium, a magnetic recording medium, or a semiconductor memory. Is.

また、コンピュータ1000は、入出力インターフェイス1600を介して、ミリ波レーダや、カメラモジュール(画像生成部107等に相当)に接続する。 Further, the computer 1000 is connected to a millimeter-wave radar or a camera module (corresponding to an image generation unit 107 or the like) via an input / output interface 1600.

例えば、コンピュータ1000が実施形態に係る撮像システム100として機能する場合、コンピュータ1000のCPU1100は、RAM1200上にロードされた撮像制御プログラムを実行することにより、ミリ波送受信部102と、ミリ波変換部103と、位置検出部104と、目標領域設定部105と、画像受信部108と、認識部109と、認識結果制御部110と、検波部111と、撮像制御部112等の機能を実現する。また、HDD1400には、本開示に係る撮像制御プログラム等が格納される。なお、CPU1100は、プログラムデータ1450をHDD1400から読み取って実行するが、他の例として、外部ネットワーク1550を介して、他の装置からこれらのプログラムを取得してもよい。 For example, when the computer 1000 functions as the image pickup system 100 according to the embodiment, the CPU 1100 of the computer 1000 executes the image pickup control program loaded on the RAM 1200 to execute the millimeter wave transmission / reception unit 102 and the millimeter wave conversion unit 103. The functions of the position detection unit 104, the target area setting unit 105, the image reception unit 108, the recognition unit 109, the recognition result control unit 110, the detection unit 111, the image pickup control unit 112, and the like are realized. Further, the HDD 1400 stores an imaging control program and the like according to the present disclosure. The CPU 1100 reads the program data 1450 from the HDD 1400 and executes the program, but as another example, these programs may be acquired from another device via the external network 1550.

<<4.むすび>>
撮像システムは、第1の領域において物体の位置を検出する位置検出部と、前記物体を含む第2の領域を撮影して画像データを生成する画像生成部と、前記画像データに対して、前記位置検出部で検出した前記物体の位置に対応する目標領域を設定する目標領域設定部と、前記目標領域に対して認識処理を実行する認識部と、前記認識処理の結果に基づいて、前記画像生成部に対する撮像制御を実行する撮像制御部とを備える。前記認識部は、前記目標領域に含まれる物体を認識する。前記撮像制御部は、前記認識処理の結果に基づいて、前記画像生成部に対する露出制御を実行する。前記撮像制御部は、前記認識処理の結果に基づいて、前記画像生成部に対するホワイトバランス制御を実行する。前記撮像制御部は、前記認識処理の結果に基づいて、前記画像生成部に対するフォーカス制御を実行する。これによって、撮像制御を適切に実行することができる。また、撮像制御を適切に実行できるので、物体の認識率を向上させることができる。
<< 4. Conclusion >>
The imaging system has a position detection unit that detects the position of an object in the first region, an image generation unit that captures a second region including the object and generates image data, and the image data. The image is based on a target area setting unit that sets a target area corresponding to the position of the object detected by the position detection unit, a recognition unit that executes recognition processing on the target area, and the result of the recognition processing. It is provided with an image pickup control unit that executes image pickup control for the generation unit. The recognition unit recognizes an object included in the target area. The image pickup control unit executes exposure control for the image generation unit based on the result of the recognition process. The image pickup control unit executes white balance control for the image generation unit based on the result of the recognition process. The image pickup control unit executes focus control on the image generation unit based on the result of the recognition process. Thereby, the imaging control can be appropriately executed. Moreover, since the imaging control can be appropriately executed, the recognition rate of the object can be improved.

前記撮像制御部は、前記目標領域のうち、前記認識部によって認識された物体の領域に基づいて、前記画像生成部に対する撮像制御を実行する。前記認識部は、前記画像データに対して認識処理を更に実行し、前記撮像制御部は、前記認識部によって、前記画像データに対する認識処理が成功した場合に、認識処理によって認識された前記画像データ上の物体の領域に基づいて、前記画像生成部に対する撮像制御を実行する。これによって、物体の領域を1ピクセル単位で絞り込むことができ、評価値の算出精度を向上させることができる。 The image pickup control unit executes image pickup control on the image generation unit based on the area of the object recognized by the recognition unit in the target area. The recognition unit further executes a recognition process on the image data, and the image pickup control unit recognizes the image data by the recognition process when the recognition process on the image data is successful by the recognition unit. Image control is executed for the image generation unit based on the area of the upper object. As a result, the area of the object can be narrowed down in units of 1 pixel, and the calculation accuracy of the evaluation value can be improved.

なお、本明細書に記載された効果はあくまで例示であって限定されるものでは無く、また他の効果があってもよい。 It should be noted that the effects described in the present specification are merely examples and are not limited, and other effects may be obtained.

なお、本技術は以下のような構成も取ることができる。
(1)
第1の領域において物体の位置を検出する位置検出部と、
前記物体を含む第2の領域を撮影して画像データを生成する画像生成部と、
前記画像データに対して、前記位置検出部で検出した前記物体の位置に対応する目標領域を設定する目標領域設定部と、
前記目標領域に対して認識処理を実行する認識部と、
前記認識処理の結果に基づいて、前記画像生成部に対する撮像制御を実行する撮像制御部と、
を備える撮像システム。
(2)
前記認識部は、前記目標領域に含まれる物体を認識する前記(1)に記載の撮像システム。
(3)
前記撮像制御部は、前記目標領域のうち、前記認識部によって認識された物体の領域に基づいて、前記画像生成部に対する撮像制御を実行する前記(2)に記載の撮像システム。
(4)
前記撮像制御部は、前記認識処理の結果に基づいて、前記画像生成部に対する露出制御を実行する前記(1)、(2)または(3)に記載の撮像システム。
(5)
前記撮像制御部は、前記認識処理の結果に基づいて、前記画像生成部に対するホワイトバランス制御を実行する前記(1)〜(4)のいずれか一つに記載の撮像システム。
(6)
前記撮像制御部は、前記認識処理の結果に基づいて、前記画像生成部に対するフォーカス制御を実行する前記(1)〜(5)のいずれか一つに記載の撮像システム。
(7)
前記認識部は、前記画像データに対して認識処理を更に実行し、前記撮像制御部は、前記認識部によって、前記画像データに対する認識処理が成功した場合に、認識処理によって認識された前記画像データ上の物体の領域に基づいて、前記画像生成部に対する撮像制御を実行する前記(1)〜(6)のいずれか一つに記載の撮像システム。
(8)
コンピュータが、
第1の領域において物体の位置を検出し、
前記物体を含む第2の領域を撮影して画像データを生成するカメラモジュールから、前記画像データを取得し、
前記画像データに対して、前記物体の位置に対応する目標領域を設定し、
前記目標領域に対して認識処理を実行し、
前記認識処理の結果に基づいて、に対する撮像制御を実行する
処理を行う撮像制御方法。
(9)
コンピュータを、
第1の領域において物体の位置を検出する位置検出部と、
前記物体を含む第2の領域を撮影して画像データを生成する画像生成部と、
前記画像データに対して、前記位置検出部で検出した前記物体の位置に対応する目標領域を設定する目標領域設定部と、
前記目標領域に対して認識処理を実行する認識部と、
前記認識処理の結果に基づいて、前記画像生成部に対する撮像制御を実行する撮像制御部、
として機能させるための撮像制御プログラム。
The present technology can also have the following configurations.
(1)
A position detection unit that detects the position of an object in the first region,
An image generation unit that captures a second region including the object and generates image data,
A target area setting unit that sets a target area corresponding to the position of the object detected by the position detection unit with respect to the image data.
A recognition unit that executes recognition processing for the target area,
An image pickup control unit that executes image pickup control on the image generation unit based on the result of the recognition process.
Imaging system with.
(2)
The imaging system according to (1) above, wherein the recognition unit recognizes an object included in the target region.
(3)
The image pickup system according to (2) above, wherein the image pickup control unit executes image pickup control on the image generation unit based on an object area recognized by the recognition unit in the target area.
(4)
The imaging system according to (1), (2) or (3), wherein the image pickup control unit executes exposure control for the image generation unit based on the result of the recognition process.
(5)
The imaging system according to any one of (1) to (4), wherein the image pickup control unit executes white balance control for the image generation unit based on the result of the recognition process.
(6)
The image pickup system according to any one of (1) to (5) above, wherein the image pickup control unit executes focus control on the image generation unit based on the result of the recognition process.
(7)
The recognition unit further executes a recognition process on the image data, and the image pickup control unit recognizes the image data by the recognition process when the recognition process on the image data is successful by the recognition unit. The imaging system according to any one of (1) to (6) above, which executes imaging control for the image generation unit based on the region of the above object.
(8)
The computer
Detect the position of the object in the first region and
The image data is acquired from a camera module that captures a second region including the object and generates image data.
A target area corresponding to the position of the object is set for the image data, and the target area is set.
The recognition process is executed for the target area, and the recognition process is performed.
An imaging control method that performs a process of executing imaging control on the image based on the result of the recognition process.
(9)
Computer,
A position detection unit that detects the position of an object in the first region,
An image generation unit that captures a second region including the object and generates image data,
A target area setting unit that sets a target area corresponding to the position of the object detected by the position detection unit with respect to the image data.
A recognition unit that executes recognition processing for the target area,
An image pickup control unit that executes image pickup control on the image generation unit based on the result of the recognition process.
An imaging control program to function as.

100 撮像システム
101 アンテナ
102 ミリ波送受信部
103 ミリ波変換部
104 位置検出部
105 目標領域設定部
106 変換テーブル
107 画像生成部
108 画像受信部
109 認識部
110 認識結果制御部
111 検波部
112 撮像制御部
100 Imaging system 101 Antenna 102 Millimeter wave transmission / reception unit 103 mm wave conversion unit 104 Position detection unit 105 Target area setting unit 106 Conversion table 107 Image generation unit 108 Image reception unit 109 Recognition unit 110 Recognition result control unit 111 Detection unit 112 Imaging control unit

Claims (9)

第1の領域において物体の位置を検出する位置検出部と、
前記物体を含む第2の領域を撮影して画像データを生成する画像生成部と、
前記画像データに対して、前記位置検出部で検出した前記物体の位置に対応する目標領域を設定する目標領域設定部と、
前記目標領域に対して認識処理を実行する認識部と、
前記認識処理の結果に基づいて、前記画像生成部に対する撮像制御を実行する撮像制御部と、
を備える撮像システム。
A position detection unit that detects the position of an object in the first region,
An image generation unit that captures a second region including the object and generates image data,
A target area setting unit that sets a target area corresponding to the position of the object detected by the position detection unit with respect to the image data.
A recognition unit that executes recognition processing for the target area,
An image pickup control unit that executes image pickup control on the image generation unit based on the result of the recognition process.
Imaging system with.
前記認識部は、前記目標領域に含まれる物体を認識する請求項1に記載の撮像システム。 The imaging system according to claim 1, wherein the recognition unit recognizes an object included in the target region. 前記撮像制御部は、前記目標領域のうち、前記認識部によって認識された物体の領域に基づいて、前記画像生成部に対する撮像制御を実行する請求項2に記載の撮像システム。 The imaging system according to claim 2, wherein the imaging control unit executes imaging control on the image generation unit based on an object region recognized by the recognition unit in the target region. 前記撮像制御部は、前記認識処理の結果に基づいて、前記画像生成部に対する露出制御を実行する請求項1に記載の撮像システム。 The imaging system according to claim 1, wherein the image pickup control unit executes exposure control for the image generation unit based on the result of the recognition process. 前記撮像制御部は、前記認識処理の結果に基づいて、前記画像生成部に対するホワイトバランス制御を実行する請求項1に記載の撮像システム。 The imaging system according to claim 1, wherein the image pickup control unit executes white balance control for the image generation unit based on the result of the recognition process. 前記撮像制御部は、前記認識処理の結果に基づいて、前記画像生成部に対するフォーカス制御を実行する請求項1に記載の撮像システム。 The imaging system according to claim 1, wherein the image pickup control unit executes focus control on the image generation unit based on the result of the recognition process. 前記認識部は、前記画像データに対して認識処理を更に実行し、前記撮像制御部は、前記認識部によって、前記画像データに対する認識処理が成功した場合に、認識処理によって認識された前記画像データ上の物体の領域に基づいて、前記画像生成部に対する撮像制御を実行する請求項1に記載の撮像システム。 The recognition unit further executes a recognition process on the image data, and the image pickup control unit recognizes the image data by the recognition process when the recognition process on the image data is successful by the recognition unit. The imaging system according to claim 1, wherein the imaging control for the image generation unit is executed based on the region of the above object. コンピュータが、
第1の領域において物体の位置を検出し、
前記物体を含む第2の領域を撮影して画像データを生成するカメラモジュールから、前記画像データを取得し、
前記画像データに対して、前記物体の位置に対応する目標領域を設定し、
前記目標領域に対して認識処理を実行し、
前記認識処理の結果に基づいて、に対する撮像制御を実行する
処理を行う撮像制御方法。
The computer
Detect the position of the object in the first region and
The image data is acquired from a camera module that captures a second region including the object and generates image data.
A target area corresponding to the position of the object is set for the image data, and the target area is set.
The recognition process is executed for the target area, and the recognition process is performed.
An imaging control method that performs a process of executing imaging control on the image based on the result of the recognition process.
コンピュータを、
第1の領域において物体の位置を検出する位置検出部と、
前記物体を含む第2の領域を撮影して画像データを生成する画像生成部と、
前記画像データに対して、前記位置検出部で検出した前記物体の位置に対応する目標領域を設定する目標領域設定部と、
前記目標領域に対して認識処理を実行する認識部と、
前記認識処理の結果に基づいて、前記画像生成部に対する撮像制御を実行する撮像制御部、
として機能させるための撮像制御プログラム。
Computer,
A position detection unit that detects the position of an object in the first region,
An image generation unit that captures a second region including the object and generates image data,
A target area setting unit that sets a target area corresponding to the position of the object detected by the position detection unit with respect to the image data.
A recognition unit that executes recognition processing for the target area,
An image pickup control unit that executes image pickup control on the image generation unit based on the result of the recognition process.
An imaging control program to function as.
JP2020047455A 2020-03-18 2020-03-18 Imaging system, imaging control method, and imaging control program Pending JP2021150756A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2020047455A JP2021150756A (en) 2020-03-18 2020-03-18 Imaging system, imaging control method, and imaging control program
PCT/JP2021/009929 WO2021187338A1 (en) 2020-03-18 2021-03-11 Image capturing system, image capture control method, and image capture control program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020047455A JP2021150756A (en) 2020-03-18 2020-03-18 Imaging system, imaging control method, and imaging control program

Publications (1)

Publication Number Publication Date
JP2021150756A true JP2021150756A (en) 2021-09-27

Family

ID=77772051

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020047455A Pending JP2021150756A (en) 2020-03-18 2020-03-18 Imaging system, imaging control method, and imaging control program

Country Status (2)

Country Link
JP (1) JP2021150756A (en)
WO (1) WO2021187338A1 (en)

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014135612A (en) * 2013-01-09 2014-07-24 Denso Corp Camera exposure setting device and camera exposure setting program
WO2016117213A1 (en) * 2015-01-22 2016-07-28 三菱電機株式会社 Image-capturing device and method, program, and recording medium
CN112313537A (en) * 2018-06-29 2021-02-02 索尼半导体解决方案公司 Information processing apparatus and information processing method, imaging apparatus, computer program, information processing system, and mobile body apparatus

Also Published As

Publication number Publication date
WO2021187338A1 (en) 2021-09-23

Similar Documents

Publication Publication Date Title
US20230110116A1 (en) Advanced driver assist system, method of calibrating the same, and method of detecting object in the same
JP5503578B2 (en) Object detection apparatus and object detection method
CN108377380B (en) Image scanning system and method thereof
JP4608631B2 (en) Image processing device for vehicle, driving support device
TWI332453B (en) The asynchronous photography automobile-detecting apparatus and method thereof
JP2006252473A (en) Obstacle detector, calibration device, calibration method and calibration program
US20170039727A1 (en) Methods and Systems for Detecting Moving Objects in a Sequence of Image Frames Produced by Sensors with Inconsistent Gain, Offset, and Dead Pixels
JP2014115978A (en) Mobile object recognition device, notification apparatus using the device, mobile object recognition program for use in the mobile object recognition device, and mobile object with the mobile object recognition device
KR20200132468A (en) Advanced driver assist device and method of detecting object in the same
EP2639769A2 (en) Image synthesis device and computer program for image synthesis
WO2019146510A1 (en) Image processing device
JP2017156219A (en) Tracking device, tracking method, and program
CN111598065A (en) Depth image acquisition method, living body identification method, apparatus, circuit, and medium
JP2008059260A (en) Movement detection image creating device
WO2019044625A1 (en) Collision prediction device, collision prediction method, and program
JP2017204699A (en) Imaging apparatus and imaging method
US20230290152A1 (en) Advanced driver assist system and method of detecting object in the same
JP2007233440A (en) On-vehicle image processor
WO2021187338A1 (en) Image capturing system, image capture control method, and image capture control program
JP7286406B2 (en) Image analysis system and image analysis method
JP2012014553A (en) Apparatus for monitoring surrounding of vehicle
JP2015207090A (en) Image processor, and control method thereof
WO2017090097A1 (en) Outside recognition device for vehicle
JP2020052897A (en) Target detection device and target detection method
JP2018146495A (en) Object detection apparatus, object detection method, object detection program, imaging apparatus, and equipment control system