JP2016032255A - Image processor - Google Patents

Image processor Download PDF

Info

Publication number
JP2016032255A
JP2016032255A JP2014154744A JP2014154744A JP2016032255A JP 2016032255 A JP2016032255 A JP 2016032255A JP 2014154744 A JP2014154744 A JP 2014154744A JP 2014154744 A JP2014154744 A JP 2014154744A JP 2016032255 A JP2016032255 A JP 2016032255A
Authority
JP
Japan
Prior art keywords
imaging
parameter
time
application
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014154744A
Other languages
Japanese (ja)
Other versions
JP6161582B2 (en
Inventor
宏治 土井
Koji Doi
宏治 土井
裕史 大塚
Yasushi Otsuka
裕史 大塚
永崎 健
Takeshi Nagasaki
健 永崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Astemo Ltd
Original Assignee
Hitachi Automotive Systems Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Automotive Systems Ltd filed Critical Hitachi Automotive Systems Ltd
Priority to JP2014154744A priority Critical patent/JP6161582B2/en
Publication of JP2016032255A publication Critical patent/JP2016032255A/en
Application granted granted Critical
Publication of JP6161582B2 publication Critical patent/JP6161582B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Stereoscopic And Panoramic Photography (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Studio Devices (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an image processor capable of expanding a situation where one imaging device is shred by a plurality of applications.SOLUTION: An image processor 1 executing a plurality of applications 11-1N on the basis of an image captured by means of a stereoscopic camera 8 includes parameter range acquisition means 5, a parameter determination unit 6, and a camera control unit 7. The parameter range acquisition means 5 acquires the range of imaging parameters related to an image required for execution of each application 11-1N. The parameter determination unit 6 determines whether there is a common range, in respective ranges of imaging parameters acquired in the parameter range acquisition means 5. When a determination is made that there is a common range, the parameter determination unit 6 determines a share imaging time for sharing an image captured by means of the stereoscopic camera 8 among the plurality of applications 11-1N. The camera control unit 7 controls imaging of the stereoscopic camera 8 on the basis of the share imaging time.SELECTED DRAWING: Figure 1

Description

本発明は、1つの撮像デバイスを複数のアプリケーションで共有する画像処理装置に関する。   The present invention relates to an image processing apparatus that shares one imaging device among a plurality of applications.

従来、このような分野の技術として、例えば特許文献1に記載されたものがある。この文献に記載の画像処理装置は、画像を取得する撮像デバイスと、複数のアプリケーションから撮像デバイスを制御するコントロール部と、複数のアプリケーションが1つの撮像デバイスから時間的に重なることなく画像データの取り込みのタイミングを決定する画像取り込みスケジューリング部とを備える。上述の構成を有する画像処理装置によれば、カメラパラメータを動的に変化させる複数のアプリケーションで1つの撮像デバイスを信頼性高く共有することができる。   Conventionally, as a technique in such a field, for example, there is one described in Patent Document 1. The image processing apparatus described in this document includes an imaging device that acquires an image, a control unit that controls the imaging device from a plurality of applications, and a plurality of applications that capture image data from a single imaging device without overlapping in time. An image capture scheduling unit that determines the timing of the image capture. According to the image processing apparatus having the above-described configuration, one imaging device can be shared with high reliability by a plurality of applications that dynamically change camera parameters.

特開2008−278515号公報JP 2008-278515 A

しかしながら、上記した画像処理装置では、1つの撮像デバイスを共有するには、複数のアプリケーションで共通の機能を使用することが必要とされている。例えば、レーン逸脱警報とレーン維持走行支援とのようにレーン認識機能を共通して使用するアプリケーションの間でだけ、撮像デバイスで撮像した画像を共有することが可能である。このため、1つの撮像デバイスを複数のアプリケーションで共有できる状況が限られていた。   However, in the above-described image processing apparatus, in order to share one imaging device, it is necessary to use a common function among a plurality of applications. For example, it is possible to share an image captured by the imaging device only between applications that commonly use the lane recognition function, such as a lane departure warning and a lane maintenance driving support. For this reason, the situation where one imaging device can be shared by a plurality of applications has been limited.

本発明は、上記の点に鑑みてなされたものであり、1つの撮像デバイスを複数のアプリケーションで共有する状況を拡大できる画像処理装置を提供することを目的とする。   The present invention has been made in view of the above points, and an object of the present invention is to provide an image processing apparatus capable of enlarging a situation in which one imaging device is shared by a plurality of applications.

上記課題を解決する本発明の画像処理装置は、撮像デバイスで撮像した画像に基づいて複数のアプリケーションが実行される画像処理装置であって、各アプリケーションの実行に必要な画像に関する撮像パラメータの範囲をそれぞれ取得するパラメータ範囲取得手段と、前記パラメータ範囲取得手段で取得した各撮像パラメータの範囲に基づいて、前記撮像デバイスで撮像した画像を複数のアプリケーションで共有するための共有撮像パラメータを決定するパラメータ決定手段と、前記パラメータ決定手段で決定した共有撮像パラメータに基づいて、前記撮像デバイスの撮像を制御する制御手段と、を備えることを特徴とする。   An image processing apparatus of the present invention that solves the above-described problems is an image processing apparatus in which a plurality of applications are executed based on an image captured by an imaging device, and sets a range of imaging parameters related to images necessary for execution of each application. Parameter range determination means for determining a shared imaging parameter for sharing an image captured by the imaging device with a plurality of applications based on a parameter range acquisition means to be acquired and a range of each imaging parameter acquired by the parameter range acquisition means And control means for controlling imaging of the imaging device based on the shared imaging parameter determined by the parameter determination means.

本発明に係る画像処理装置によれば、各撮像パラメータの範囲に基づき撮像デバイスで撮像した画像を共有するための共有撮像パラメータが決定されるので、例えば各撮像パラメータの共通する部分又は類似する部分があった場合に、撮像デバイスにより撮像される画像を複数のアプリケーションで共有することが可能になる。したがって、従来のように共通の機能を使用する場合のみに共有できる態様と比べて、画像を共有できる態様を広げることができる。その結果、1つの撮像デバイスを複数のアプリケーションで共有する状況を拡大することができる。   According to the image processing apparatus of the present invention, since the shared imaging parameter for sharing the image captured by the imaging device is determined based on the range of each imaging parameter, for example, a common part or a similar part of each imaging parameter When there is, it becomes possible to share an image captured by the imaging device with a plurality of applications. Therefore, it is possible to expand the aspect in which an image can be shared, as compared to the aspect in which a common function can be shared only when a common function is used as in the past. As a result, the situation where one imaging device is shared by a plurality of applications can be expanded.

第1実施形態に係る画像処理装置の全体構成を示すブロック図。1 is a block diagram showing an overall configuration of an image processing apparatus according to a first embodiment. 第1実施形態に係る画像処理装置の処理手順を示すフローチャート。3 is a flowchart showing a processing procedure of the image processing apparatus according to the first embodiment. 撮像条件定義の例を示す図。The figure which shows the example of an imaging condition definition. 要求性能定義の例を示す図。The figure which shows the example of a required performance definition. アプリAの撮像パラメータ定義の例を示す図。The figure which shows the example of the imaging parameter definition of the application A. アプリBの撮像パラメータ定義の例を示す図。The figure which shows the example of the imaging parameter definition of the application B. FIG. アプリA及びアプリBの撮像パラメータ定義の例を示す図。The figure which shows the example of the imaging parameter definition of the application A and the application B. FIG. アプリA及びアプリBで画像を共有する場合の撮像時間の例を示す図。The figure which shows the example of the imaging time in the case of sharing an image by the application A and the application B. 第2実施形態に係る画像処理装置の処理手順を示すフローチャート。9 is a flowchart showing a processing procedure of an image processing apparatus according to a second embodiment. (a)アプリA及びアプリBで画像を共有する場合の撮像時間の例を示す図、(b)アプリA及びアプリBの実行に必要な画像を個別に撮像する場合の撮像時間の例を示す図。(A) The figure which shows the example of the imaging time at the time of sharing an image with the application A and the application B, (b) The example of the imaging time in the case of imaging separately the image required for execution of the application A and the application B is shown Figure. (a)第3実施形態に係るアプリA及びアプリBで画像を共有する場合の撮像時間の例を示す図、(b)第3実施形態に係るアプリA及びアプリBの実行に必要な画像を個別に撮像する場合の撮像時間の例を示す図、(c)第3実施形態に係るアプリA及びアプリBの実行に必要な画像を個別に撮像する場合の撮像時間の他の例を示す図。(A) The figure which shows the example of the imaging time in the case of sharing an image with the application A and the application B which concern on 3rd Embodiment, (b) The image required for execution of the application A and the application B which concerns on 3rd Embodiment The figure which shows the example of the imaging time in the case of imaging individually, (c) The figure which shows the other example of the imaging time in the case of imaging separately the image required for execution of the application A and the application B which concern on 3rd Embodiment .

以下、図面を参照して本発明に係る画像処理装置の実施形態について説明する。なお、図面の説明において同一の要素には同一符号を付し、重複する説明を省略する。   Hereinafter, an embodiment of an image processing apparatus according to the present invention will be described with reference to the drawings. In the description of the drawings, the same elements are denoted by the same reference numerals, and redundant description is omitted.

<第1実施形態>
図1は第1実施形態に係る画像処理装置の全体構成を示すブロック図である。画像処理装置1は、車両に搭載され、ステレオカメラ8で撮像した画像を処理してN個のアプリケーション11〜1Nを実行することにより、車の安全運転を実現する装置である。なお、本実施形態に係る撮像とは、画像の取り込みを意味している。図1に示すように、画像処理装置1は、メモリ2、CAN(Controller Area Network)インタフェース部3、パラメータ範囲取得部5、パラメータ決定部6、及びカメラ制御部7を備えている。
<First Embodiment>
FIG. 1 is a block diagram showing the overall configuration of the image processing apparatus according to the first embodiment. The image processing device 1 is a device that is mounted on a vehicle and that realizes safe driving of the vehicle by processing images captured by the stereo camera 8 and executing N applications 11 to 1N. Note that imaging according to the present embodiment means capturing an image. As shown in FIG. 1, the image processing apparatus 1 includes a memory 2, a CAN (Controller Area Network) interface unit 3, a parameter range acquisition unit 5, a parameter determination unit 6, and a camera control unit 7.

メモリ2は、画像処理装置1の動作に関する情報を格納するものである。本実施形態において、メモリ2には自車状況21、外界状況22及びアプリケーション情報23が格納されている。自車状況21および外界状況22は、車両の現在の走行状態に係る様々な状況であり、アプリケーション11〜1Nの処理結果または車内の他のシステムから得られるデータが含まれている。   The memory 2 stores information related to the operation of the image processing apparatus 1. In the present embodiment, the memory 2 stores a host vehicle situation 21, an external world situation 22, and application information 23. The own vehicle situation 21 and the outside world situation 22 are various situations relating to the current running state of the vehicle, and include data obtained from the processing results of the applications 11 to 1N or other systems in the vehicle.

自車状況21としては、例えば、自車の走行速度、加速度、ハンドル操作、ギア操作、ペダル操作の状況が挙げられる。外界状況22としては、例えば、先行車及び対向車の位置、自車周辺の歩行者の位置、周囲の明るさ、天候、道路状況等が挙げられる。アプリケーション情報23は、各アプリケーションの実行に必要な情報を含んでおり、例えば、撮像条件定義、要求性能定義、及び撮像パラメータ定義等から構成されている。   Examples of the host vehicle situation 21 include the running speed, acceleration, steering wheel operation, gear operation, and pedal operation of the host vehicle. Examples of the outside world situation 22 include the positions of preceding and oncoming vehicles, the positions of pedestrians around the host vehicle, ambient brightness, weather, and road conditions. The application information 23 includes information necessary for execution of each application, and includes, for example, an imaging condition definition, a required performance definition, an imaging parameter definition, and the like.

CANインタフェース部3は、メモリ2に接続され、互いにデータ転送が可能に構成されている。また、CANインタフェース部3は、CANバス4を介して、車内の他のシステムとのやりとりを行うことが可能である。例えば、自車にハンドル操作があった場合、そのハンドル操作に関する情報がCANバス4とCANインタフェース部3とを経由してメモリ2に入力され、自車状況21に格納される。   The CAN interface unit 3 is connected to the memory 2 and configured to be able to transfer data to each other. The CAN interface unit 3 can communicate with other systems in the vehicle via the CAN bus 4. For example, when a steering wheel operation is performed on the host vehicle, information regarding the steering wheel operation is input to the memory 2 via the CAN bus 4 and the CAN interface unit 3 and stored in the host vehicle situation 21.

パラメータ範囲取得部5は、メモリ2に接続され、メモリ2に格納された各情報を参照し、各アプリケーションの実行に必要な画像に関する撮像パラメータの範囲を取得する。
撮像パラメータは、ステレオカメラ8の撮像に関わる各設定値であり、例えば、撮像時間、露光時間、解像度、ホワイトバランス(色調)、画像サイズ、ゲイン等が挙げられる。パラメータ決定部6は、メモリ2及びパラメータ範囲取得部5にそれぞれ接続されている。このパラメータ決定部6は、メモリ2に格納されたアプリケーション情報を参照し、各アプリケーションに求められた撮像パラメータの範囲等に基づいて、ステレオカメラ8で撮像した画像を複数のアプリケーションで共有するための共有撮像パラメータを決定する。
The parameter range acquisition unit 5 is connected to the memory 2, refers to each piece of information stored in the memory 2, and acquires an imaging parameter range related to an image necessary for executing each application.
The imaging parameter is each set value related to imaging of the stereo camera 8, and examples thereof include imaging time, exposure time, resolution, white balance (color tone), image size, gain, and the like. The parameter determination unit 6 is connected to the memory 2 and the parameter range acquisition unit 5, respectively. The parameter determination unit 6 refers to the application information stored in the memory 2 and shares an image captured by the stereo camera 8 with a plurality of applications based on a range of imaging parameters obtained for each application. A shared imaging parameter is determined.

ここで、共有撮像パラメータを決定するとは、共有する撮像パラメータの具体名称のみならず、そのパラメータの値または範囲も決定することを意味している。例えば、共有する撮像パラメータが露光時間であった場合に、パラメータ決定部6は、露光時間を共有撮像パラメータとして決定するとともに、その具体値(例えば、30ms)も決定する。したがって、パラメータ範囲取得部5で決定した共有撮像パラメータには、パラメータの具体名称のほか、その値または範囲も含まれている。そして、パラメータ決定部6は、その決定した共有撮像パラメータをカメラ制御部7に送信する。   Here, determining the shared imaging parameter means determining not only the specific name of the shared imaging parameter but also the value or range of the parameter. For example, when the shared imaging parameter is the exposure time, the parameter determination unit 6 determines the exposure time as the shared imaging parameter and also determines a specific value (for example, 30 ms). Therefore, the shared imaging parameter determined by the parameter range acquisition unit 5 includes not only the specific name of the parameter but also its value or range. Then, the parameter determination unit 6 transmits the determined shared imaging parameter to the camera control unit 7.

カメラ制御部7は、パラメータ決定部6に接続され、パラメータ決定部6より送信された共有撮像パラメータに基づき、ステレオカメラ8に制御信号を送り、ステレオカメラ8の撮像を制御する。ステレオカメラ8に関する制御信号として、例えば露光、ゲイン、色情報等の制御に関するものが挙げられる。また、カメラ制御部7は、アプリケーション11〜1Nとそれぞれ接続され、ステレオカメラ8で撮像した画像を各アプリケーションに送信する。   The camera control unit 7 is connected to the parameter determination unit 6 and sends a control signal to the stereo camera 8 based on the shared imaging parameter transmitted from the parameter determination unit 6 to control the imaging of the stereo camera 8. Examples of control signals related to the stereo camera 8 include those related to control of exposure, gain, color information, and the like. The camera control unit 7 is connected to each of the applications 11 to 1N, and transmits an image captured by the stereo camera 8 to each application.

アプリケーション11〜1Nは、カメラ制御部7を介してステレオカメラ8で撮像した画像を取得し、その画像に基づいてそれぞれのプログラムに従い実行される。アプリケーション例としては、例えば車両・歩行者認識、標識認識、配光制御、レーン逸脱警報、割り込み車両警報、追い越し車両警報、レーン維持走行支援等が挙げられる。   The applications 11 to 1N acquire images captured by the stereo camera 8 via the camera control unit 7, and are executed according to the respective programs based on the images. Examples of applications include vehicle / pedestrian recognition, sign recognition, light distribution control, lane departure warning, interrupted vehicle warning, overtaking vehicle warning, lane maintenance travel support, and the like.

ステレオカメラ8は、車両の前方の様子を撮像している。ステレオカメラ8は、所定の間隔を開けて取り付けられた左カメラ81と右カメラ82とを有する。これらのカメラ81,82は、それぞれカメラ制御部7に接続され、カメラ制御部7からの制御信号を受信しその制御指令に従って撮像を行い、更に撮像したデータをカメラ制御部7に送信する。なお、カメラ81,82は、例えばCCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)等の撮像素子から構成されている。   The stereo camera 8 images the state in front of the vehicle. The stereo camera 8 includes a left camera 81 and a right camera 82 that are attached at a predetermined interval. Each of these cameras 81 and 82 is connected to the camera control unit 7, receives a control signal from the camera control unit 7, performs imaging in accordance with the control command, and transmits the captured data to the camera control unit 7. The cameras 81 and 82 are configured by an image sensor such as a CCD (Charge Coupled Device) or a CMOS (Complementary Metal Oxide Semiconductor), for example.

以下、図2を参照して画像処理装置1の処理手順を説明する。図2は、第1実施形態に係る画像処理装置の処理手順を示すフローチャートである。本実施形態に係る画像処理装置1は、通常では、設定された撮像スケジュール(すなわち、ステレオカメラ8からの画像取り込み順序)に基づいて周期的に撮像を行っているが、所定のタイミングで撮像スケジュールの再設定を行うことが可能にされている。例えば、アプリケーションの起動時、アプリケーションの停止時、自車又は外界の状況に変化があったとき、あるいは所定の時間が経過したときに、撮像スケジュールの再設定が行われる。そして、撮像スケジュールの再設定は、例えば撮像順番の入れ替えや、撮像時間の変更等が考えられる。   Hereinafter, the processing procedure of the image processing apparatus 1 will be described with reference to FIG. FIG. 2 is a flowchart illustrating a processing procedure of the image processing apparatus according to the first embodiment. The image processing apparatus 1 according to the present embodiment normally performs imaging periodically based on a set imaging schedule (that is, the order of capturing images from the stereo camera 8), but the imaging schedule at a predetermined timing. It has been possible to reconfigure. For example, the imaging schedule is reset when the application is started, when the application is stopped, when the state of the vehicle or the outside world changes, or when a predetermined time has elapsed. The resetting of the imaging schedule may be, for example, changing the imaging order or changing the imaging time.

まず、ステップS11において、パラメータ範囲取得部5は、自車状況21、外界状況22及びアプリケーション情報23内の要求性能定義を参照して、実行中のアプリケーションの要求性能を求める。例えば、車両・歩行者認識、標識認識及び配光制御のアプリケーションが実行されている場合、パラメータ範囲取得部5は、まず、メモリ2に格納された自車状況21、外界状況22及びこれらのアプリケーション情報23内の要求性能定義に関する情報を取得する。次に、パラメータ範囲取得部5は、その取得した情報を基にこれらのアプリケーションの要求性能をそれぞれ求める。なお、各アプリケーションの要求性能は、自車状況21及び外界状況22によって常に変化するものである。   First, in step S11, the parameter range acquisition unit 5 refers to the required performance definition in the host vehicle situation 21, the external world situation 22, and the application information 23, and obtains the required performance of the application being executed. For example, when applications for vehicle / pedestrian recognition, sign recognition, and light distribution control are executed, the parameter range acquisition unit 5 first stores the own vehicle situation 21, the outside world situation 22 and these applications stored in the memory 2. Information on the required performance definition in the information 23 is acquired. Next, the parameter range acquisition unit 5 determines the required performance of these applications based on the acquired information. Note that the required performance of each application constantly changes depending on the vehicle situation 21 and the outside world situation 22.

図3は撮像条件定義の例を示す図である。図3に示すように、車両・歩行者認識、標識認識及び配光制御のアプリケーションの場合、撮像条件として画像種別と撮像頻度が挙げられている。具体的には、車両・歩行者認識アプリケーションの場合、視差情報が必要であるため、ステレオ画像が要求される。一方、標識認識アプリケーション及び配光制御アプリケーションの場合、単眼画像であれば足りる。そして、3つのアプリケーションの撮像頻度はともに50ms毎である。なお、撮像条件は上述した画像種別と撮像頻度のほか、例えば、画質や露光時間(シャッタスピード)等も挙げられる。   FIG. 3 is a diagram illustrating an example of the imaging condition definition. As shown in FIG. 3, in the case of an application of vehicle / pedestrian recognition, sign recognition, and light distribution control, the image type and the imaging frequency are listed as the imaging conditions. Specifically, in the case of a vehicle / pedestrian recognition application, since parallax information is required, a stereo image is required. On the other hand, in the case of a sign recognition application and a light distribution control application, a monocular image is sufficient. The imaging frequency of the three applications is every 50 ms. In addition to the above-described image type and imaging frequency, the imaging conditions include, for example, image quality and exposure time (shutter speed).

図4は要求性能定義の例を示す図である。図4に示すように、車両・歩行者認識、標識認識及び配光制御のアプリケーションの要求性能は、ともに検知距離であり、自車速度が50km/h未満であるか否かによって分かれている。自車速度が50km/h未満の場合、車両・歩行者認識アプリケーション及び標識認識アプリケーションの要求性能は検知距離50m以上、配光制御アプリアプリケーションの要求性能は検知距離100m以上である。一方、自車速度が50km/h以上の場合、これらのアプリケーションの要求性能は、ともに検知距離100m以上である。   FIG. 4 is a diagram showing an example of the required performance definition. As shown in FIG. 4, the required performances of the applications of vehicle / pedestrian recognition, sign recognition, and light distribution control are all the detection distance, and are divided depending on whether or not the vehicle speed is less than 50 km / h. When the host vehicle speed is less than 50 km / h, the required performance of the vehicle / pedestrian recognition application and the sign recognition application is a detection distance of 50 m or more, and the required performance of the light distribution control application application is a detection distance of 100 m or more. On the other hand, when the own vehicle speed is 50 km / h or more, the required performance of these applications is both a detection distance of 100 m or more.

ここでは、自車速度が50km/h以上の例を挙げて説明する。この場合、パラメータ範囲取得部5は、自車状況21より自車速度に関する情報を取得し、その取得した情報を基に図4に示す車両・歩行者認識、標識認識及び配光制御のアプリケーションの要求性能を参照し、これらのアプリケーションの要求性能(すなわち、検知距離100m以上であること)を求める。   Here, an example in which the vehicle speed is 50 km / h or more will be described. In this case, the parameter range acquisition unit 5 acquires information on the vehicle speed from the host vehicle situation 21, and based on the acquired information, the application of the vehicle / pedestrian recognition, sign recognition, and light distribution control application shown in FIG. Referring to the required performance, the required performance of these applications (that is, the detection distance is 100 m or more) is obtained.

ステップS12において、パラメータ範囲取得部5は、ステップS11で求めた各アプリケーションの要求性能に基づき、各アプリケーションに求められた撮像パラメータの範囲を取得する。例えば、標識認識アプリケーション(以下、アプリAと称する)と配光制御アプリケーション(以下、アプリBと称する)の場合、パラメータ範囲取得部5は、これらのアプリケーションの要求性能を満たすことを前提に、アプリケーション情報23内の撮像パラメータ定義を参照して、各アプリケーションの実行に必要な画像に関する撮像パラメータの範囲を取得する。   In step S12, the parameter range acquisition unit 5 acquires the imaging parameter range obtained for each application based on the required performance of each application obtained in step S11. For example, in the case of a sign recognition application (hereinafter referred to as application A) and a light distribution control application (hereinafter referred to as application B), the parameter range acquisition unit 5 assumes that the required performance of these applications is satisfied. With reference to the imaging parameter definition in the information 23, a range of imaging parameters related to an image necessary for execution of each application is acquired.

図5はアプリAの撮像パラメータ定義の例を示す図であり、図6はアプリBの撮像パラメータ定義の例を示す図である。アプリA及びアプリBの要求性能がともに検知距離100m以上であったため、図5の場合、その条件を満たすアプリAの撮像パラメータ(ここでは露光時間)の範囲は10〜40msである。一方、図6の場合、その条件を満たすアプリBの撮像パラメータ(ここでは露光時間)の範囲は20〜50msである。   FIG. 5 is a diagram illustrating an example of the imaging parameter definition of the application A, and FIG. 6 is a diagram illustrating an example of the imaging parameter definition of the application B. Since the required performance of both the application A and the application B is 100 m or more, in the case of FIG. 5, the range of the imaging parameter (here, the exposure time) of the application A that satisfies the condition is 10 to 40 ms. On the other hand, in the case of FIG. 6, the range of the imaging parameter (here, the exposure time) of the application B that satisfies the condition is 20 to 50 ms.

ステップS13において、パラメータ範囲取得部5は、ステップS12で求めた各アプリケーションの撮像パラメータの範囲に基づき、撮像時間の範囲を取得する。撮像時間は、画像サイズ・露光時間・ゲイン等により決定されているが、本実施例では、単純に撮像時間=露光時間とする。したがって、アプリAの撮像時間の範囲は10〜40ms、アプリBの撮像時間の範囲は20〜50msになる。   In step S13, the parameter range acquisition unit 5 acquires the imaging time range based on the imaging parameter range of each application obtained in step S12. The imaging time is determined by the image size, the exposure time, the gain, etc. In this embodiment, the imaging time is simply set as the exposure time. Therefore, the imaging time range of the application A is 10 to 40 ms, and the imaging time range of the application B is 20 to 50 ms.

ステップS14において、パラメータ決定部6は、各アプリケーションの撮像パラメータの範囲のうち、共通範囲があるか否かを判定する。共通範囲があった場合、処理がステップS15へ進む。一方、共通範囲がない場合、処理がステップS16へ進む。図7はアプリA及びアプリBの撮像パラメータ定義の例を示す図である。図7の場合、アプリA及びアプリBの撮像パラメータが撮像時間であり、両者の撮像時間の共通範囲が20〜40msであるため、パラメータ決定部6は、撮像パラメータの範囲に共通範囲があると判定する。   In step S14, the parameter determination unit 6 determines whether there is a common range among the imaging parameter ranges of each application. If there is a common range, the process proceeds to step S15. On the other hand, if there is no common range, the process proceeds to step S16. FIG. 7 is a diagram illustrating an example of imaging parameter definitions of the application A and the application B. In the case of FIG. 7, the imaging parameter of the application A and the application B is the imaging time, and the common range of the imaging time of both is 20 to 40 ms. Therefore, the parameter determination unit 6 determines that the imaging parameter range has a common range. judge.

ステップS15において、パラメータ決定部6は、ステレオカメラ8で撮像した画像を複数のアプリケーションで共有するための共有撮像パラメータを決定する。ここでは、撮像パラメータが撮像時間であるので、パラメータ決定部6は、共有撮像時間を決定する。図7に示すように、アプリA及びアプリBの撮像時間の共通範囲20〜40msのうち、撮像時間が30msのときに、これらのアプリケーションの性能を高く維持しつつ、アプリAのグラフとアプリBのグラフとが交差している。したがって、アプリA及びアプリBの高い性能を確保できる観点から、撮像時間30msを共有撮像時間として決定するのが好適である。図8はアプリA及びアプリBで画像を共有する場合の撮像時間の例を示す図である。図8に示すように、アプリA及びアプリBで画像を共有する共有撮像時間が30msであり、これらのアプリケーションの撮像周期が50ms(すなわち、撮像頻度が50ms毎)である。   In step S15, the parameter determination unit 6 determines a shared imaging parameter for sharing an image captured by the stereo camera 8 with a plurality of applications. Here, since the imaging parameter is the imaging time, the parameter determination unit 6 determines the shared imaging time. As shown in FIG. 7, when the imaging time is 30 ms out of the common imaging time range of 20 to 40 ms for the apps A and B, the graph of the app A and the app B are maintained while maintaining the performance of these applications high. Intersects with the graph. Therefore, from the viewpoint of ensuring high performance of the application A and the application B, it is preferable to determine the imaging time 30 ms as the shared imaging time. FIG. 8 is a diagram illustrating an example of an imaging time when an image is shared between the app A and the app B. As shown in FIG. 8, the shared imaging time for sharing images between the app A and the app B is 30 ms, and the imaging cycle of these applications is 50 ms (that is, the imaging frequency is every 50 ms).

ステップS16において、カメラ制御部7は、パラメータ決定部6により決定された共有撮像時間に従い、ステレオカメラ8による画像の取り込みを制御する。ここでは、アプリA及びアプリBの実行に必要な画像がともに単眼画像であるため、カメラ制御部7は、例えばステレオカメラ8のうち、左カメラ81だけを撮像させるように制御する。そして、カメラ制御部7は、左カメラ81により撮像された画像をアプリA及びアプリBにそれぞれ送信する。   In step S <b> 16, the camera control unit 7 controls image capture by the stereo camera 8 in accordance with the shared imaging time determined by the parameter determination unit 6. Here, since the images necessary for executing the app A and the app B are both monocular images, the camera control unit 7 performs control so that only the left camera 81 of the stereo camera 8 is imaged, for example. And the camera control part 7 transmits the image imaged with the left camera 81 to the application A and the application B, respectively.

一方、ステップS14で撮像パラメータの範囲に共通範囲がないと判定した場合、処理がS16に進むが、ここでは、カメラ制御部7は、例えば各アプリケーションの実行に必要な画像の取り込みを通常の個別撮像方式で行うようにステレオカメラ8を制御する。カメラ制御部7は、個別撮像方式で撮像した画像を各アプリにそれぞれ送信する。これによって、一連の処理を終了する。   On the other hand, if it is determined in step S14 that the imaging parameter range does not have a common range, the process proceeds to S16. Here, the camera control unit 7 captures an image necessary for executing each application, for example, as a normal individual. The stereo camera 8 is controlled to perform the imaging method. The camera control unit 7 transmits an image captured by the individual imaging method to each application. As a result, a series of processing is completed.

以上の構成を有する画像処理装置1では、パラメータ範囲取得部5が各アプリケーション11〜1Nの実行に必要な画像に関する撮像パラメータの範囲をそれぞれ取得し、パラメータ決定部6が各撮像パラメータの範囲のうち、共通範囲があったときにステレオカメラ8で撮像した画像を複数のアプリケーション11〜1Nで共有するための共有撮像パラメータ(共有撮像時間)を決定する。したがって、従来のように共通の機能を使用する場合のみに共有できる態様と比べて、画像を共有できる態様を広げることができる。その結果、1つの撮像デバイスを複数のアプリケーションで共有する状況を拡大することができる。また、ステレオカメラ8で撮像した画像を共有できる状況を広げることで、カメラの数を増やさずに、限られた期間内により多くのアプリケーションを実行することができ、画像処理装置のコストを削減する効果を奏する。   In the image processing apparatus 1 having the above configuration, the parameter range acquisition unit 5 acquires the imaging parameter ranges related to the images necessary for executing the applications 11 to 1N, and the parameter determination unit 6 includes the imaging parameter ranges. Then, a shared imaging parameter (shared imaging time) for sharing an image captured by the stereo camera 8 with the plurality of applications 11 to 1N when there is a common range is determined. Therefore, it is possible to expand the aspect in which an image can be shared, as compared to the aspect in which a common function can be shared only when a common function is used as in the past. As a result, the situation where one imaging device is shared by a plurality of applications can be expanded. Further, by expanding the situation in which images captured by the stereo camera 8 can be shared, more applications can be executed within a limited period without increasing the number of cameras, thereby reducing the cost of the image processing apparatus. There is an effect.

<第2実施形態>
以下、図9及び図10を参照して第2実施形態について説明する。本実施形態に係る画像処理装置は、その処理手順において第1実施形態と異なっているが、装置の構成等は第1実施形態と同様であるため、重複する説明を省略する。
Second Embodiment
Hereinafter, the second embodiment will be described with reference to FIGS. 9 and 10. The image processing apparatus according to the present embodiment is different from the first embodiment in the processing procedure, but the configuration and the like of the apparatus are the same as those in the first embodiment, and thus the duplicate description is omitted.

本実施形態の特徴的な部分は、パラメータ決定部6が共有撮像時間のほか、各アプリケーションに必要な画像を個別に撮像する個別撮像時間を更に仮決定し、個別撮像時間と共有撮像時間とを比較して最終の撮像時間を決定することである。以下、その特徴的な部分を中心に説明する。図9は、第2実施形態に係る画像処理装置の処理手順を示すフローチャートである。本実施形態において、アプリA及びアプリBが実行されている。   A characteristic part of this embodiment is that the parameter determination unit 6 further provisionally determines an individual imaging time for individually capturing images necessary for each application in addition to the shared imaging time, and determines the individual imaging time and the shared imaging time. The final imaging time is determined by comparison. Hereinafter, the characteristic part will be mainly described. FIG. 9 is a flowchart illustrating a processing procedure of the image processing apparatus according to the second embodiment. In the present embodiment, application A and application B are executed.

処理S21〜S23は第1実施形態の処理S11〜S13と同様である。S23に続く処理は、平行に進むステップS24〜S25と、ステップS26〜S27に分かれている。ステップS24において、パラメータ決定部6は、撮像パラメータの範囲に共通範囲があるか否かを判定する。共通範囲があった場合、処理がステップS25へ進む。一方、共通範囲がない場合、処理がステップS28へ進む。   Processes S21 to S23 are the same as the processes S11 to S13 of the first embodiment. The process following S23 is divided into steps S24 to S25 and steps S26 to S27 that proceed in parallel. In step S24, the parameter determination unit 6 determines whether there is a common range in the imaging parameter range. If there is a common range, the process proceeds to step S25. On the other hand, if there is no common range, the process proceeds to step S28.

上述の図7に示すように、アプリA及びアプリBの撮像時間の共通範囲が20〜40msであるため、パラメータ決定部6は、撮像パラメータの範囲に共通範囲があると判定する。ステップS25において、パラメータ決定部6は、ステレオカメラ8で撮像した画像をアプリA及びアプリBで共有するための共有撮像時間を決定する。図10(a)は、アプリA及びアプリBで画像を共有する場合の撮像時間の例を示す図である。図10(a)に示すように、ここでは、パラメータ決定部6は、共有撮像時間をアプリA及びアプリB双方の性能を高く確保できる撮像時間30msと決定した。   As shown in FIG. 7 described above, since the common range of the imaging time of the app A and the app B is 20 to 40 ms, the parameter determination unit 6 determines that there is a common range in the imaging parameter range. In step S <b> 25, the parameter determination unit 6 determines a shared imaging time for sharing images captured by the stereo camera 8 between the app A and the app B. FIG. 10A is a diagram illustrating an example of an imaging time when an image is shared between the app A and the app B. FIG. As shown in FIG. 10A, here, the parameter determination unit 6 determines the shared imaging time as an imaging time 30 ms that can ensure high performance of both the application A and the application B.

一方、ステップS26において、パラメータ決定部6は、アプリA及びアプリBの実行に必要な画像を個別に撮像するときの撮像時間の合計値が所定の撮像周期内であるか否かを判定する。撮像時間の合計値が所定の撮像周期内と判定した場合、処理がステップS27へ進む。撮像時間の合計値が所定の撮像周期内でないと判定した場合、処理がステップS28へ進む。   On the other hand, in step S <b> 26, the parameter determination unit 6 determines whether or not the total value of the imaging time when images necessary for executing the application A and the application B are individually captured is within a predetermined imaging cycle. If it is determined that the total value of the imaging time is within the predetermined imaging cycle, the process proceeds to step S27. If it is determined that the total value of the imaging time is not within the predetermined imaging cycle, the process proceeds to step S28.

具体的には、パラメータ決定部6は、まず、ステップS23で取得したアプリA及びアプリBの撮像時間の範囲を参照し、これらのアプリケーションの実行に必要な画像をそれぞれ撮像する場合の最短の撮像時間の合計値を算出する。次に、パラメータ決定部6は、その合計値が所定の撮像周期内であるか否かを判定する。   Specifically, the parameter determination unit 6 first refers to the imaging time ranges of the app A and the app B acquired in step S23, and takes the shortest imaging when imaging images necessary for executing these applications. Calculate the total time. Next, the parameter determination unit 6 determines whether or not the total value is within a predetermined imaging cycle.

上記の例において、アプリAの実行に必要な画像の最短の撮像時間は10ms(図5参照)、アプリBの実行に必要な画像の最短の撮像時間は20ms(図6参照)であるので、両者の合計値は30msである。そして、所定の撮像周期が50msであるため、両者の最短の撮像時間の合計値が所定の撮像周期内になる。したがって、パラメータ決定部6は、撮像時間の合計値が所定の撮像周期内であると判定し、処理がS27に進む。   In the above example, the shortest imaging time of an image necessary for executing the application A is 10 ms (see FIG. 5), and the shortest imaging time of an image necessary for executing the application B is 20 ms (see FIG. 6). The total value of both is 30 ms. Since the predetermined imaging cycle is 50 ms, the total value of the shortest imaging times of both falls within the predetermined imaging cycle. Therefore, the parameter determination unit 6 determines that the total value of the imaging time is within the predetermined imaging cycle, and the process proceeds to S27.

ステップS27において、パラメータ決定部6は、各アプリケーションに必要な画像を個別に撮像する個別撮像時間を仮決定する。図10(b)はアプリA及びアプリBの実行に必要な画像を個別に撮像する場合の撮像時間の例を示す図である。単純な構成では、アプリAの実行に必要な画像の撮像時間をその最短の撮像時間である10ms、アプリBの実行に必要な画像の撮像時間をその最短撮像時間である20msとそれぞれ決定すれば良いが、ここでは、パラメータ決定部6は、更に所定の撮像周期(50ms)の範囲内でこれらの撮像時間の調整を行い、各アプリケーションの性能を高める。   In step S27, the parameter determination unit 6 provisionally determines an individual imaging time for individually capturing images necessary for each application. FIG. 10B is a diagram illustrating an example of an imaging time when images necessary for executing the application A and the application B are individually captured. In a simple configuration, if the image capturing time required for executing the application A is determined as 10 ms which is the shortest image capturing time, and the image capturing time required for executing the application B is determined as 20 ms which is the minimum capturing time. Here, the parameter determination unit 6 further adjusts the imaging time within a predetermined imaging cycle (50 ms) to improve the performance of each application.

本実施形態では、パラメータ決定部6は、アプリAの実行に必要な画像の撮像時間を20ms、アプリBの実行に必要な画像の撮像時間を30msとなるように調整した(図10(b)参照)。このようにすれば、各アプリケーションの性能をより高めることができる。すなわち、アプリAの場合、最短の撮像時間である10msと比べて撮像時間が20msのときに、検知距離が更に長くなるので(図5参照)、アプリAの性能をより良くすることができる。同様に、アプリBの場合、最短の撮像時間である20msと比べて撮像時間が30msのときに、検知距離が更に長くなるので、アプリBの性能もより良くすることが可能になる。   In the present embodiment, the parameter determination unit 6 adjusts the image capturing time required for executing the app A to 20 ms and the image capturing time required to execute the app B to 30 ms (FIG. 10B). reference). In this way, the performance of each application can be further improved. That is, in the case of the app A, the detection distance is further increased when the imaging time is 20 ms as compared to the shortest imaging time of 10 ms (see FIG. 5), so that the performance of the app A can be improved. Similarly, in the case of the application B, since the detection distance is further increased when the imaging time is 30 ms as compared with the shortest imaging time of 20 ms, the performance of the application B can be improved.

なお、ここでの調整は全てのアプリケーションの撮像時間を対象にしなくてもよく、必要に応じて複数のアプリケーションの一部の撮像時間を調整すればよい。例えば、アプリA及びアプリBのうち、アプリBの性能を最大化する要求があった場合に、アプリBの撮像時間を検知距離が最も長いときの露光時間35msまで長くする。一方、アプリAの撮像時間を最短の撮像時間10msのままにする。このように必要に応じて撮像時間を調整することができるので、装置に対する様々な要求に対応することが可能にある。   It should be noted that the adjustment here does not need to target the imaging times of all applications, and may adjust the imaging times of some of the plurality of applications as necessary. For example, when there is a request for maximizing the performance of the application B among the applications A and B, the imaging time of the application B is increased to an exposure time of 35 ms when the detection distance is the longest. On the other hand, the imaging time of the app A is kept at the shortest imaging time of 10 ms. As described above, since the imaging time can be adjusted as necessary, it is possible to meet various requirements for the apparatus.

ステップS28において、パラメータ決定部6は、ステップS24〜S25とステップS26〜S27でそれぞれ決定した撮像時間を比較し、最終の撮像時間を決定する。具体的には、パラメータ決定部6は、共有撮像時間及び個別撮像時間のうち、アプリA及びアプリBの性能をより高める方を選択して最終の撮像時間とする。   In step S28, the parameter determination unit 6 compares the imaging times determined in steps S24 to S25 and steps S26 to S27, respectively, and determines the final imaging time. Specifically, the parameter determination unit 6 selects a shared imaging time and an individual imaging time to improve the performance of the app A and the app B and sets it as the final imaging time.

一方、両者の間にアプリケーション性能の差異がない場合に、パラメータ決定部6は、例えばカメラ駆動による消費電力が少ない方を選択して最終の撮像時間とする。なお、上述した共有撮像時間及び個別撮像時間のうち、どちらを選択するかは状況によって変化するが、パラメータ決定部6は、そのときの状況に応じて各アプリケーションの性能をより高めていく方を最終の撮像時間として決定すればよい。一方、ステップS24で撮像パラメータ範囲に共通範囲がないと判定した場合、共有撮像時間が決定されないため、パラメータ決定部6は、個別撮像時間を最終の撮像時間として決定する。   On the other hand, when there is no difference in application performance between the two, the parameter determination unit 6 selects, for example, the one that consumes less power by driving the camera as the final imaging time. Note that which of the shared imaging time and the individual imaging time to select varies depending on the situation, but the parameter determination unit 6 should improve the performance of each application according to the situation at that time. What is necessary is just to determine as the last imaging time. On the other hand, if it is determined in step S24 that there is no common range in the imaging parameter range, the shared imaging time is not determined, so the parameter determination unit 6 determines the individual imaging time as the final imaging time.

ステップS29において、カメラ制御部7は、ステップS28で決定した最終の撮像時間に従い、ステレオカメラ8による画像の取り込みを制御する。ここでは、アプリA及びアプリBの実行に必要な画像がともに単眼画像であるため、カメラ制御部7は、例えばステレオカメラ8のうち、左カメラ81のみを撮像させるように制御する。そして、カメラ制御部7は、左カメラ81により撮像された画像をアプリA及びアプリBにそれぞれ送信する。これによって、一連の処理を終了する。   In step S29, the camera control unit 7 controls image capture by the stereo camera 8 according to the final imaging time determined in step S28. Here, since the images necessary for executing the application A and the application B are both monocular images, the camera control unit 7 performs control so that only the left camera 81 of the stereo camera 8 is imaged, for example. And the camera control part 7 transmits the image imaged with the left camera 81 to the application A and the application B, respectively. As a result, a series of processing is completed.

本実施形態に係る画像処理装置は、第1実施形態と同様な作用効果を得られるほか、共有撮影時間と個別撮像時間とを比較して、各アプリケーションの性能をより高める方を選択して最終の撮像時間として決定することで、各アプリケーションの高い性能を実現することができる。   The image processing apparatus according to the present embodiment can obtain the same effects as those of the first embodiment, compare the shared shooting time with the individual shooting time, and select the method that further improves the performance of each application. By determining as the imaging time, it is possible to achieve high performance of each application.

<第3実施形態>
以下、図11を参照して第3実施形態について説明する。本実施形態の特徴的な部分は、単眼画像を必要とするアプリA及びアプリBのほか、ステレオ画像を必要とするアプリCも実行されることである。以下、その特徴的な部分を中心に説明する。装置の構成及び処理手順等は第2実施形態と同様であるため、重複する説明を省略する。
<Third Embodiment>
The third embodiment will be described below with reference to FIG. A characteristic part of the present embodiment is that, in addition to apps A and B that require a monocular image, app C that requires a stereo image is also executed. Hereinafter, the characteristic part will be mainly described. Since the configuration of the apparatus, the processing procedure, and the like are the same as those in the second embodiment, a duplicate description is omitted.

図11(a)は第3実施形態に係るアプリA及びアプリBで画像を共有する場合の撮像時間の例を示す図であり、(b)は第3実施形態に係るアプリA及びアプリBの実行に必要な画像を個別に撮像する場合の撮像時間の例を示す図であり、(c)は第3実施形態に係るアプリA及びアプリBの実行に必要な画像を個別に撮像する場合の撮像時間の他の例を示す図である。   FIG. 11A is a diagram illustrating an example of an imaging time when an image is shared between the app A and the app B according to the third embodiment, and FIG. 11B is a diagram of the app A and the app B according to the third embodiment. It is a figure which shows the example of the imaging time in the case of image | photographing separately an image required for execution, (c) is a case where the image required for execution of the application A and the application B which concerns on 3rd Embodiment is imaged separately It is a figure which shows the other example of imaging time.

本実施形態において、標識認識アプリケーション(アプリA)、配光制御アプリケーション(アプリB)及び車両・歩行者認識アプリケーション(以下、アプリCと称する)が実行される。図3に示すように、アプリCの場合、視差情報が必要であるため、ステレオ画像が要求される。一方、アプリA及びアプリBの場合、単眼画像であれば足りる。なお、これらのアプリケーションの撮像周期はともに50msである。   In this embodiment, a sign recognition application (application A), a light distribution control application (application B), and a vehicle / pedestrian recognition application (hereinafter referred to as application C) are executed. As shown in FIG. 3, in the case of application C, since disparity information is required, a stereo image is required. On the other hand, for the applications A and B, a monocular image is sufficient. Note that the imaging period of these applications is 50 ms.

アプリCの実行にはステレオ画像が必要であるため、左カメラ81及び右カメラ82で同時に撮像することが必要である。一方、アプリA及びアプリBの実行に必要な画像が単眼画像であるので、左カメラ81及び右カメラ82のうち、片方を用いて撮像すれば良い。本実施形態において、3つのアプリケーションのうち、アプリCの優先順位が最も高い。したがって、アプリCは優先してステレオカメラ8を使用し、その空き時間にアプリAとアプリBとの実行に必要な画像を撮像する。   Since execution of the application C requires a stereo image, it is necessary to simultaneously capture images with the left camera 81 and the right camera 82. On the other hand, since an image necessary for execution of the application A and the application B is a monocular image, it is only necessary to take an image using one of the left camera 81 and the right camera 82. In the present embodiment, among the three applications, the priority of the application C is the highest. Accordingly, the application C preferentially uses the stereo camera 8 and captures images necessary for the execution of the application A and the application B during the idle time.

アプリA及びアプリBに関する撮像時間については、図11に示す3通りがあると考えられる。まず、図11(a)に示すように、アプリA及びアプリBに関する撮像パラメータの範囲に共通範囲があり、これらのアプリケーションの実行に必要な画像を共有撮像時間で撮像する。この場合の処理は、上述した図9のステップS24〜S25でパラメータ決定部6によって行われる。   Regarding the imaging time for the application A and the application B, it is considered that there are three types as shown in FIG. First, as shown in FIG. 11A, there is a common range of imaging parameter ranges related to the application A and the application B, and images necessary for executing these applications are captured in the shared imaging time. The processing in this case is performed by the parameter determination unit 6 in steps S24 to S25 of FIG. 9 described above.

次に、図11(b)に示すように、アプリA及びアプリBの実行に必要な画像を個別に撮像するときの撮像時間の合計値が所定の撮像周期内であった場合、左カメラ81及び右カメラ82の片方(ここでは、右カメラ82)を用いて個別撮像時間で画像を撮像する。この場合の処理は、上述した図9のステップS26〜S27でパラメータ決定部6によって行われる。   Next, as shown in FIG. 11B, when the total value of the imaging time when images necessary for executing the application A and the application B are individually taken is within a predetermined imaging cycle, the left camera 81 And an image is imaged in individual imaging time using one of the right cameras 82 (here, the right camera 82). The process in this case is performed by the parameter determination unit 6 in steps S26 to S27 of FIG. 9 described above.

更に、図11(c)に示すように、アプリA及びアプリBの実行に必要な画像を個別に撮像するときのそれぞれの撮像時間が所定の撮像周期内であった場合、左カメラ81と右カメラ82との双方を用いて個別撮像時間で画像を撮像する。本実施形態では、アプリAの実行に必要な画像を右カメラ82、アプリBの実行に必要な画像を左カメラ81で個別に撮像する。また、図11(c)において、アプリA及びアプリBの実行に必要な撮像を同時に行う場合を示しているが、これらの撮像は必ずしも同時に行う必要がなく、タイミングをずらして行っても良い。なお、この場合の処理は、上述した図9のステップS26〜S27でパラメータ決定部6によって行われる。   Furthermore, as shown in FIG. 11C, when the respective imaging times when images necessary for executing the application A and the application B are individually taken are within a predetermined imaging cycle, the left camera 81 and the right camera An image is picked up with an individual image pickup time using both the camera 82. In the present embodiment, the right camera 82 captures an image necessary for executing the application A and the left camera 81 captures an image necessary for executing the application B individually. Further, FIG. 11C shows a case where imaging necessary for executing the application A and the application B is performed at the same time. However, these imaging are not necessarily performed at the same time, and may be performed at different timings. Note that the processing in this case is performed by the parameter determination unit 6 in steps S26 to S27 of FIG. 9 described above.

続いて、パラメータ決定部6は、上記3通りの撮像時間に基づいて、最終の撮像時間を決定する。ここでは、優先順位のほか、例えば得られるアプリケーションの性能の確保、あるいはカメラ駆動による消費電力の削減等を考慮して最終の撮像時間を決定するのが好適である。例えば、撮像を共有できる観点から、図11(a)に示す撮像時間の方が最も良い。   Subsequently, the parameter determination unit 6 determines the final imaging time based on the above three imaging times. Here, in addition to the priority order, it is preferable to determine the final imaging time in consideration of, for example, ensuring the performance of the obtained application or reducing power consumption by driving the camera. For example, the imaging time shown in FIG. 11A is the best from the viewpoint of sharing imaging.

また、図11(a)及び(b)の場合、左カメラ81及び右カメラ82の片方(ここでは、右カメラ82)を用いてアプリA及びアプリBの実行に必要な画像を撮像するため、もう片方のカメラ(左カメラ81)が空いたため、別のアプリの実行に必要な画像を撮像することが可能である。したがって、カメラの数を増やさずに、限られた期間内により多くのアプリケーションを実行できるメリットがある。   In the case of FIGS. 11 (a) and 11 (b), in order to capture an image necessary for execution of the app A and the app B using one of the left camera 81 and the right camera 82 (here, the right camera 82), Since the other camera (left camera 81) is empty, it is possible to take an image necessary for executing another application. Therefore, there is an advantage that more applications can be executed within a limited period without increasing the number of cameras.

一方、図11(c)の場合、カメラを2台使うため、カメラ駆動による消費電力の増加、制御回路の複雑化になるデメリットがある。しかし、アプリB(配光制御アプリケーション)の場合に、自車のヘッドライトのハイビーム又はロービームの自動制御を含む配光制御を実現するため、数百メートル離れた先行車のテールライト又は対向車のヘッドライトを検知する必要がある。そのため、他のアプリケーション(ここでは、アプリA)よりも長い露光時間での撮像が好ましい。したがって、アプリBが実行される場合、上記3通りの撮像時間のうち、図11(c)に示す場合の撮像時間を最終の撮像時間として決定するのが好ましい。このようにすれば、配光制御アプリケーションの性能をより高めることができる。なお、このように3通りの撮像時間のうち、どれが選択するかは状況によって変化するので、そのときの状況に応じて最適となる撮像時間を選択して最終の撮像時間として決定すればよい。   On the other hand, in the case of FIG. 11C, since two cameras are used, there are disadvantages in that the power consumption is increased by driving the camera and the control circuit is complicated. However, in the case of App B (light distribution control application), in order to realize light distribution control including automatic control of the high beam or low beam of the headlight of the own vehicle, the taillight of the preceding vehicle several hundred meters away or the oncoming vehicle It is necessary to detect the headlight. Therefore, imaging with an exposure time longer than other applications (here, application A) is preferable. Therefore, when the application B is executed, it is preferable to determine the imaging time in the case illustrated in FIG. 11C among the above three imaging times as the final imaging time. In this way, the performance of the light distribution control application can be further improved. Note that which of the three imaging times to select varies depending on the situation, so an optimal imaging time may be selected according to the situation and determined as the final imaging time. .

本実施形態に係る画像処理装置は、上述の実施形態と同様な作用効果を得られるほか、各アプリケーションの実行に必要な画像の種別に基づいて、ステレオカメラ8の2つのカメラを効率良く使い分けることができる。また、図11に示すような複数の撮像時間を選択することが可能であるため、必要に応じて最適となる撮像時間を選び、装置の適用性を高めることができる。   The image processing apparatus according to the present embodiment can obtain the same effects as those of the above-described embodiments, and can efficiently use the two cameras of the stereo camera 8 based on the type of image necessary for executing each application. Can do. In addition, since a plurality of imaging times as shown in FIG. 11 can be selected, an optimal imaging time can be selected as necessary to enhance the applicability of the apparatus.

以上、本発明の実施形態について詳述したが、本発明は、上記の実施形態に限定されるものではなく、特許請求の範囲に記載された本発明の精神を逸脱しない範囲で、種々の設計変更を行うことができるものである。例えば、上述の実施形態では、撮像パラメータとして撮像時間=露光時間の例を挙げて説明したが、撮像パラメータは露光時間に限定されず、本発明はその他の撮像パラメータにも適用される。撮像パラメータの他の例として、解像度(画像数)も考えられる。この場合、アプリケーションによって最適な解像度が異なる。解像度は高いほど情報量が増え、それを処理するには時間がかかるが、限られた処理能力で所定の時間内に処理結果を出すには、必要且つ十分な解像度を設定する必要がある。   Although the embodiments of the present invention have been described in detail above, the present invention is not limited to the above-described embodiments, and various designs can be made without departing from the spirit of the present invention described in the claims. It can be changed. For example, in the above-described embodiment, the example of imaging time = exposure time has been described as the imaging parameter. However, the imaging parameter is not limited to the exposure time, and the present invention is also applied to other imaging parameters. As another example of the imaging parameter, resolution (number of images) is also conceivable. In this case, the optimum resolution varies depending on the application. As the resolution is higher, the amount of information increases and it takes time to process it. However, in order to obtain a processing result within a predetermined time with a limited processing capability, it is necessary to set a necessary and sufficient resolution.

また、撮像パラメータの他の例として、ホワイトバランス(色調)も考えられる。この場合、アプリケーションによって画像中の注目する物体が異なるため、色調の設定が必要となる。例えば、先行車のデールライトを識別するために画像中の赤色を際立たせたり、処理時間を短縮するために画像を白黒(無彩色)にしたりする。   As another example of the imaging parameter, white balance (color tone) is also conceivable. In this case, since the object of interest in the image differs depending on the application, it is necessary to set the color tone. For example, the red color in the image stands out to identify the dale light of the preceding vehicle, or the image is made black and white (achromatic) to shorten the processing time.

また、第1実施形態において、ステレオカメラ8を用いて説明したが、実行されるアプリケーション(例えば、アプリA及びアプリB)に必要な画像が単眼画像だけの場合、ステレオカメラ8に代えて通常の単眼カメラを用いても良い。   In the first embodiment, the stereo camera 8 has been described. However, when the image required for the application to be executed (for example, the app A and the app B) is only a monocular image, a normal camera is used instead of the stereo camera 8. A monocular camera may be used.

1 画像処理装置
2 メモリ
3 CANインタフェース部
4 CANバス
5 パラメータ範囲取得部
6 パラメータ決定部
7 カメラ制御部
8 ステレオカメラ
11〜1N アプリケーション
81 左カメラ
82 右カメラ
DESCRIPTION OF SYMBOLS 1 Image processing apparatus 2 Memory 3 CAN interface part 4 CAN bus 5 Parameter range acquisition part 6 Parameter determination part 7 Camera control part 8 Stereo camera 11-1N Application 81 Left camera 82 Right camera

Claims (8)

撮像デバイスで撮像した画像に基づいて複数のアプリケーションが実行される画像処理装置であって、
各アプリケーションの実行に必要な画像に関する撮像パラメータの範囲をそれぞれ取得するパラメータ範囲取得手段と、
前記パラメータ範囲取得手段で取得した各撮像パラメータの範囲に基づいて、前記撮像デバイスで撮像した画像を複数のアプリケーションで共有するための共有撮像パラメータを決定するパラメータ決定手段と、
前記パラメータ決定手段で決定した共有撮像パラメータに基づいて、前記撮像デバイスの撮像を制御する制御手段と、を備えることを特徴とする画像処理装置。
An image processing apparatus in which a plurality of applications are executed based on an image captured by an imaging device,
Parameter range acquisition means for acquiring a range of imaging parameters relating to images necessary for execution of each application;
Parameter determining means for determining a shared imaging parameter for sharing an image captured by the imaging device with a plurality of applications based on the range of each imaging parameter acquired by the parameter range acquisition means;
An image processing apparatus comprising: a control unit that controls imaging of the imaging device based on the shared imaging parameter determined by the parameter determination unit.
前記パラメータ決定手段は、前記各撮像パラメータの範囲のうち、共通範囲があるか否かを判定し、共通範囲があったときに、その共通範囲を有する複数のアプリケーションでの前記共有撮像パラメータを決定することを特徴とする請求項1に記載の画像処理装置。   The parameter determination means determines whether or not there is a common range among the ranges of the respective imaging parameters, and when there is a common range, determines the shared imaging parameter in a plurality of applications having the common range. The image processing apparatus according to claim 1, wherein: 前記撮像パラメータは、撮像時間であり、
前記共有撮像パラメータは、前記撮像デバイスで撮像した画像を共有するための共有撮像時間であることを特徴とする請求項2に記載の画像処理装置。
The imaging parameter is an imaging time,
The image processing apparatus according to claim 2, wherein the shared imaging parameter is a shared imaging time for sharing an image captured by the imaging device.
前記パラメータ決定手段は、前記共通範囲を有する複数のアプリケーションの実行に必要な画像を個別に撮像するときの撮像時間の合計値が所定の撮像周期内であったときに、これらのアプリケーションの実行に必要な画像を個別に撮像する個別撮像時間を仮決定し、更に、前記個別撮像時間と前記共有撮像時間に基づいて、最終の撮像時間を決定することを特徴とする請求項3に記載の画像処理装置。   The parameter determining means determines whether to execute these applications when the total value of the imaging time when individually capturing images necessary for executing the plurality of applications having the common range is within a predetermined imaging cycle. 4. The image according to claim 3, wherein an individual imaging time for individually capturing necessary images is provisionally determined, and a final imaging time is determined based on the individual imaging time and the shared imaging time. Processing equipment. 前記パラメータ決定手段は、前記個別撮像時間及び前記共有撮像時間のうち、前記共通範囲を有する複数のアプリケーションの性能をより高める方を前記最終の撮像時間として決定することを特徴とする請求項4に記載の画像処理装置。   5. The parameter determining unit determines, as the final imaging time, the one that further improves the performance of a plurality of applications having the common range among the individual imaging time and the shared imaging time. The image processing apparatus described. 前記撮像デバイスは、ステレオカメラであり、
前記共通範囲を有する複数のアプリケーションの実行に必要な画像が単眼画像であった場合に、その単眼画像は前記ステレオカメラの片方又は双方のカメラによって個別に撮像されることを特徴とする請求項5に記載の画像処理装置。
The imaging device is a stereo camera;
The monocular image is individually captured by one or both cameras of the stereo camera when an image necessary for executing the plurality of applications having the common range is a monocular image. An image processing apparatus according to 1.
前記パラメータ決定手段は、前記共通範囲を有する複数のアプリケーションの実行に必要な画像を個別に撮像するときの最短の撮像時間の合計値と、前記所定の撮像周期とを比較し、前記最短の撮像時間の合計値が前記所定の撮像周期内であったときに、前記所定の撮像周期内の範囲で個別に撮像するときの各撮像時間のうち、少なくとも一つの撮像時間を調整し、前記個別撮像時間を仮決定することを特徴とする請求項6に記載の画像処理装置。   The parameter determining means compares the total value of the shortest imaging time when individually capturing images necessary for execution of the plurality of applications having the common range with the predetermined imaging cycle, and the shortest imaging When the total value of the time is within the predetermined imaging cycle, at least one imaging time is adjusted among the imaging times when imaging is individually performed within a range within the predetermined imaging cycle, and the individual imaging is performed. The image processing apparatus according to claim 6, wherein the time is provisionally determined. 前記撮像デバイスの配光を制御するアプリケーションが実行される場合に、前記パラメータ決定手段は、前記ステレオカメラの双方を用いて個別に撮像する個別撮像時間を最終の撮像時間として決定することを特徴とする請求項7に記載の画像処理装置。   When an application for controlling the light distribution of the imaging device is executed, the parameter determination unit determines an individual imaging time for individually imaging using both of the stereo cameras as a final imaging time. The image processing apparatus according to claim 7.
JP2014154744A 2014-07-30 2014-07-30 Image processing device Active JP6161582B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014154744A JP6161582B2 (en) 2014-07-30 2014-07-30 Image processing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014154744A JP6161582B2 (en) 2014-07-30 2014-07-30 Image processing device

Publications (2)

Publication Number Publication Date
JP2016032255A true JP2016032255A (en) 2016-03-07
JP6161582B2 JP6161582B2 (en) 2017-07-12

Family

ID=55442388

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014154744A Active JP6161582B2 (en) 2014-07-30 2014-07-30 Image processing device

Country Status (1)

Country Link
JP (1) JP6161582B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020131925A (en) * 2019-02-20 2020-08-31 トヨタ自動車株式会社 Driving support apparatus
JP2020152235A (en) * 2019-03-20 2020-09-24 本田技研工業株式会社 Transport machine and vehicle
EP3637758B1 (en) * 2017-06-07 2024-09-04 Hitachi Astemo, Ltd. Image processing device

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006304280A (en) * 2005-03-24 2006-11-02 National Univ Corp Shizuoka Univ Information system
JP2008060873A (en) * 2006-08-31 2008-03-13 Hitachi Ltd Camera with two or more angles of view

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006304280A (en) * 2005-03-24 2006-11-02 National Univ Corp Shizuoka Univ Information system
JP2008060873A (en) * 2006-08-31 2008-03-13 Hitachi Ltd Camera with two or more angles of view

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3637758B1 (en) * 2017-06-07 2024-09-04 Hitachi Astemo, Ltd. Image processing device
JP2020131925A (en) * 2019-02-20 2020-08-31 トヨタ自動車株式会社 Driving support apparatus
JP7099357B2 (en) 2019-02-20 2022-07-12 トヨタ自動車株式会社 Driving support device
JP2020152235A (en) * 2019-03-20 2020-09-24 本田技研工業株式会社 Transport machine and vehicle
CN111717160A (en) * 2019-03-20 2020-09-29 本田技研工业株式会社 Transportation equipment and vehicle
JP7069074B2 (en) 2019-03-20 2022-05-17 本田技研工業株式会社 Transport equipment

Also Published As

Publication number Publication date
JP6161582B2 (en) 2017-07-12

Similar Documents

Publication Publication Date Title
JP4738778B2 (en) Image processing device, driving support device, and driving support system
CN107578644B (en) Method and device for operating a traffic infrastructure unit comprising a signal source
JP6660751B2 (en) Imaging device
WO2015104915A1 (en) In-vehicle-camera image processing device
JP2009157087A (en) Exposure control apparatus and exposure control program
JP6604297B2 (en) Imaging device
JP5772714B2 (en) Light detection device and vehicle control system
JP2008060873A (en) Camera with two or more angles of view
JP6723079B2 (en) Object distance detection device
US11710291B2 (en) Image recognition device and image recognition method
WO2016159142A1 (en) Image pickup device
JP2009157085A (en) Exposure controller and exposure control program
US20160269603A1 (en) Imaging apparatus
WO2013140873A1 (en) In-vehicle image processing device and method
US10455159B2 (en) Imaging setting changing apparatus, imaging system, and imaging setting changing method
JP2012073927A (en) Driving support apparatus
WO2016114015A1 (en) Image capture control device, image capture control method, and program
JP6161582B2 (en) Image processing device
CN111095909B (en) Image pickup control apparatus, image pickup apparatus, control method, and computer readable medium
JP2009017474A (en) Image processing unit and image processing method
US10247551B2 (en) Vehicle image processing device for environment recognition
JP7239478B2 (en) Camera means and method for performing perimeter-adaptive acquisition of surrounding areas of a vehicle
US11272111B2 (en) Image processing apparatus
JPWO2020039837A1 (en) Image processing device
JP4797441B2 (en) Image processing apparatus for vehicle

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160722

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170306

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170314

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170425

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170516

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170613

R150 Certificate of patent or registration of utility model

Ref document number: 6161582

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250