JP2015210584A - Image processing apparatus - Google Patents

Image processing apparatus Download PDF

Info

Publication number
JP2015210584A
JP2015210584A JP2014090353A JP2014090353A JP2015210584A JP 2015210584 A JP2015210584 A JP 2015210584A JP 2014090353 A JP2014090353 A JP 2014090353A JP 2014090353 A JP2014090353 A JP 2014090353A JP 2015210584 A JP2015210584 A JP 2015210584A
Authority
JP
Japan
Prior art keywords
vehicle
area
image
recognition
image processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2014090353A
Other languages
Japanese (ja)
Inventor
柴田 誠
Makoto Shibata
誠 柴田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2014090353A priority Critical patent/JP2015210584A/en
Publication of JP2015210584A publication Critical patent/JP2015210584A/en
Pending legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide an image processing apparatus that can suppress a processing load related to image processing irrespective of the situation of a vehicle.SOLUTION: An image processing apparatus performs image processing to a photographed image obtained by photographing the peripheral environment of a vehicle 10. The image processing apparatus includes an area selection part 320 that selects one or a plurality of object areas to be the object of the image processing from a part of the photographed image according to the situation of the vehicle, and when the area selection part 320 selects a plurality of object areas, switches the object area to be the object of the image processing from among the plurality of object areas and sequentially performs the image processing to the object area switched.

Description

本発明は、車両などの移動体に搭載されたカメラによって撮像された撮像画像を画像処理する画像処理装置に関する。   The present invention relates to an image processing apparatus that performs image processing on a captured image captured by a camera mounted on a moving body such as a vehicle.

従来、上述のような画像処理装置を備え、当該画像処理装置によって処理された車両の周辺環境の画像に基づいて運転支援を提供する運転支援装置が知られている。こうした運転支援装置は、車載カメラを通じて撮像された車両前方の走行環境の撮像画像を画像処理することによって車両前方にある他車両や障害物、歩行者などを特定するとともに、こうして特定した車両前方の他車両や障害物、歩行者などに関する情報を音声や画像などにより運転支援情報として提供する。例えば、こうした画像処理を行うことのできる装置の一例が特許文献1に記載されている。   2. Description of the Related Art Conventionally, there is known a driving support device that includes the above-described image processing device and provides driving support based on an image of a surrounding environment of a vehicle processed by the image processing device. Such a driving support device specifies other vehicles, obstacles, pedestrians, and the like ahead of the vehicle by performing image processing on the captured image of the traveling environment in front of the vehicle imaged through the in-vehicle camera. Information on other vehicles, obstacles, pedestrians, etc. is provided as driving support information by voice or image. For example, Patent Document 1 describes an example of an apparatus that can perform such image processing.

特許文献1に記載の装置は、ステレオカメラ装置であって、複数の撮像手段と、撮像した画像を補正する画像補正部と、左右の画素のずれ量である視差を算出する視差算出部と、撮像した画像と算出した視差の両方あるいはいずれかを用いて画像認識処理を行う画像認識部とを備える。またこの装置では、処理する画像領域と画像の縮小率を、ステレオカメラ装置を搭載する車両の走行環境に応じて異なるように決定する処理領域決定部を備え、この処理領域決定部により決定された画像領域と縮小率とからなる処理領域を用いて、画像補正部は画像を補正し、視差算出部は視差を算出し、画像認識部は画像認識処理を行う。   The device described in Patent Literature 1 is a stereo camera device, and includes a plurality of imaging units, an image correction unit that corrects a captured image, a parallax calculation unit that calculates a parallax that is a shift amount between left and right pixels, An image recognition unit that performs image recognition processing using both or one of the captured image and the calculated parallax. In addition, this apparatus includes a processing area determining unit that determines an image area to be processed and a reduction ratio of the image so as to differ depending on a traveling environment of the vehicle on which the stereo camera device is mounted, and is determined by the processing area determining unit. The image correction unit corrects the image using the processing region including the image region and the reduction ratio, the parallax calculation unit calculates the parallax, and the image recognition unit performs image recognition processing.

特開2009−146217号公報JP 2009-146217 A

ところで、車両の運転支援に関する画像処理は、その処理に遅延の生じることがないように処理負荷を軽減させる必要がある。例えば、特許文献1に記載の装置では、走行環境に応じて決定された画像領域と縮小率とに基づいて画像認識処理を行うようにすることで処理負荷の抑制が図られるようにしている。その一方、走行環境などが特定されないようなときには、画像領域と縮小率とを決定することができなくなるため、処理負荷を適切に抑制することができなくなるおそれがある。   By the way, image processing related to vehicle driving assistance needs to reduce the processing load so that there is no delay in the processing. For example, in the apparatus described in Patent Document 1, the processing load is suppressed by performing the image recognition process based on the image area and the reduction rate determined according to the traveling environment. On the other hand, when the driving environment or the like is not specified, the image area and the reduction ratio cannot be determined, and thus the processing load may not be appropriately suppressed.

本発明は、このような実情に鑑みてなされたものであって、その目的は、車両状況に拘わらず、画像処理に係る処理負荷を抑制することのできる画像処理装置を提供することにある。   The present invention has been made in view of such circumstances, and an object thereof is to provide an image processing apparatus capable of suppressing a processing load related to image processing regardless of a vehicle situation.

以下、上記課題を解決するための手段及びその作用効果を記載する。
上記課題を解決する画像処理装置は、車両の周辺環境を撮像した撮像画像を画像処理する画像処理装置であって、車両状況に応じて前記撮像画像の一部から画像処理の対象とする対象領域を1又は複数選択する選択部を備え、前記選択部が複数の対象領域を選択するとき、それら複数の対象領域のうち画像処理の対象とする対象領域を切り替えつつ、該切り替えた対象領域に対する画像処理を順次実行することを要旨とする。
Hereinafter, means for solving the above-described problems and the effects thereof will be described.
An image processing apparatus that solves the above-described problem is an image processing apparatus that performs image processing on a captured image obtained by capturing an image of a surrounding environment of a vehicle. When the selection unit selects a plurality of target areas, the target area to be subjected to image processing is switched among the plurality of target areas, and an image corresponding to the switched target area is selected. The gist is to sequentially execute the processing.

このような構成によれば、撮像画像の一部を、車両の走行環境や走行状態を含む車両状況に応じて対象領域として選択し、その選択した対象領域について画像処理を行うことで、撮像画像全体を画像処理することに比較して処理負荷の抑制が図られるようになる。また、選択された複数の対象領域のうちの1つを対象領域として切り替えて順次画像処理することにより、画像処理により得られる情報量を維持しつつ、車両状況に拘わらず画像処理の処理負荷を抑制することができる。   According to such a configuration, a part of the captured image is selected as a target area according to the vehicle situation including the driving environment and the driving state of the vehicle, and the captured image is processed by performing image processing on the selected target area. The processing load can be reduced as compared with image processing of the whole. In addition, by switching one of the selected target areas as a target area and sequentially performing image processing, the processing load of image processing is reduced regardless of the vehicle situation while maintaining the amount of information obtained by image processing. Can be suppressed.

好ましい構成として、前記選択部は、前記車両状況が交差点への進入であるとき対象領域を複数選択する。
このような構成によれば、交差点は、様々な状況が混在するため認識対象を絞り込むことは困難であるから、複数の対象領域の選択によって認識対象の幅を広げることで、交差点の進入においても処理負荷の抑制された画像処理を行いつつも、画像認識の精度を維持することができる。これにより、例えば、予防安全と標識案内とを行えるようになる。
As a preferred configuration, the selection unit selects a plurality of target areas when the vehicle situation is an approach to an intersection.
According to such a configuration, it is difficult to narrow down the recognition target because there are various situations at the intersection, so by widening the recognition target by selecting a plurality of target areas, Image recognition accuracy can be maintained while performing image processing with a reduced processing load. Thereby, for example, preventive safety and sign guidance can be performed.

画像処理装置を具体化した一実施形態について、その概略構成を示すブロック図。The block diagram which shows the schematic structure about one Embodiment which actualized the image processing apparatus. 同画像処理装置における画像処理となる対象領域を特定する手順を示すフローチャート。6 is a flowchart showing a procedure for specifying a target area for image processing in the image processing apparatus. 同画像処理装置におけるカメラにより撮像される撮像画像の一例を模式的に示す模式図。The schematic diagram which shows typically an example of the captured image imaged with the camera in the image processing apparatus. 同画像処理装置における撮像画像から車速に基づき絞り込まれる候補領域を模式的に示す模式図。The schematic diagram which shows typically the candidate area | region narrowed down based on the vehicle speed from the captured image in the image processing apparatus. 同画像処理装置における撮像画像から認識対象が先行車であることに基づき絞り込まれる先行車領域を模式的に示す模式図。The schematic diagram which shows typically the preceding vehicle area narrowed down based on the recognition object being a preceding vehicle from the captured image in the image processing apparatus. 同画像処理装置における撮像画像から認識対象が歩行者であることに基づき絞り込まれる先行車領域を模式的に示す模式図。The schematic diagram which shows typically the preceding vehicle area narrowed down based on the recognition object being a pedestrian from the captured image in the image processing apparatus. 同画像処理装置における撮像画像から認識対象が標識であることに基づき絞り込まれる標識領域を模式的に示す模式図。The schematic diagram which shows typically the label | marker area | region narrowed down based on the recognition target being a label | marker from the captured image in the image processing apparatus.

画像処理装置を具体化した一実施形態について、図1〜7に従って説明する。
まず、本実施形態の概要について説明する。
図1には、具体化された画像処理装置を備える車両10が示されている。車両10は車載カメラ20にて撮像した前方の撮像画像を画像処理部30にて画像認識処理を行い、車両10前方に存在する、先行車、歩行者、標識などを検出する。そして、車両10では、画像認識により検出した先行車、歩行者、標識などを出力し、ナビゲーションシステム70などにおいて運転支援情報として利用可能にしている。
An embodiment embodying an image processing apparatus will be described with reference to FIGS.
First, an outline of the present embodiment will be described.
FIG. 1 shows a vehicle 10 including a specific image processing apparatus. The vehicle 10 performs an image recognition process on the front captured image captured by the in-vehicle camera 20 by the image processing unit 30 to detect a preceding vehicle, a pedestrian, a sign, and the like existing in front of the vehicle 10. The vehicle 10 outputs a preceding vehicle, a pedestrian, a sign, and the like detected by image recognition, and can be used as driving support information in the navigation system 70 or the like.

図2に示すように、本実施形態では、画像認識の対象とする領域を、車両状況に応じて撮像画像の一部に定められる領域とすることにより、車両状況に適した認識対象に対する認識精度を維持しつつ、画像処理に係る処理負荷を抑制するようにしている。車両状況は、高速道路であるか否か(ステップS13)、よく通る道であるか否か(ステップS15)、目的地付近であるか否か(ステップS17)、交差点の手前であるか否か(ステップS18)により判断される。   As shown in FIG. 2, in the present embodiment, the recognition accuracy for a recognition target suitable for the vehicle situation is set by setting the region targeted for image recognition as a region defined as a part of the captured image according to the vehicle situation. The processing load related to image processing is suppressed while maintaining the above. Whether the vehicle status is an expressway (step S13), whether it is a road that passes frequently (step S15), whether it is near the destination (step S17), whether it is in front of the intersection This is determined by (Step S18).

まず、図3に示すように、車載カメラ20は前方画像を撮像して撮像画像100を得る。例えば、撮像画像100には、進行道路1と交差道路2とが交差する交差点3が含まれている。また、歩道には歩行者120,121が存在し、前方には先行車11a,11b、対向車12が存在し、交差点3には、信号機110,111と横断歩道125とが設置されているとともに、進行道路1の路側には標識115が設置されている。なお、走行中の車両10からの撮像画像100は進行している車線が画像中央となるが、図3〜7では説明の便宜上、進行道路1の中心を画像中央とした図を用いて説明している。   First, as shown in FIG. 3, the in-vehicle camera 20 captures a front image and obtains a captured image 100. For example, the captured image 100 includes an intersection 3 where the traveling road 1 and the intersection road 2 intersect. In addition, there are pedestrians 120 and 121 on the sidewalk, preceding vehicles 11a and 11b, and an oncoming vehicle 12, and traffic lights 110 and 111 and a pedestrian crossing 125 are installed at the intersection 3. A sign 115 is installed on the road side of the traveling road 1. The captured image 100 from the traveling vehicle 10 has the traveling lane at the center of the image. In FIGS. 3 to 7, for convenience of explanation, the center of the traveling road 1 will be described with reference to the center of the image. ing.

次に、図4に示すように、車速に基づいて画像認識から除外する除外領域201を定めて車速に基づいて絞り込まれる候補領域200を得る。
続いて、車両状況に応じて、更に絞り込む。
Next, as shown in FIG. 4, an exclusion area 201 to be excluded from image recognition is determined based on the vehicle speed, and a candidate area 200 narrowed down based on the vehicle speed is obtained.
Then, further narrowing down according to the vehicle situation.

例えば、図5に示すように、高速道路である場合、候補領域200の上及び左右の領域をさらなる除外領域231とし、画像認識の対象となる領域を候補領域200から除外領域231を除いた先行車領域230に絞り込む。   For example, as shown in FIG. 5, in the case of an expressway, the upper and left areas of the candidate area 200 are further excluded areas 231, and the area that is the target of image recognition is excluded from the candidate area 200 by the excluded area 231. The vehicle area 230 is narrowed down.

例えば、図6に示すように、よく通る道や、目的地付近である場合、候補領域200の上領域をさらなる上側除外領域211とし、画像認識の対象となる領域を候補領域200から上側除外領域211を除いた前方下側の歩行者領域210に絞り込む。   For example, as shown in FIG. 6, in the case of a road that frequently passes or near the destination, the upper area of the candidate area 200 is set as a further upper excluded area 211, and the area to be subjected to image recognition is changed from the candidate area 200 to the upper excluded area. The pedestrian area 210 on the lower front side excluding 211 is narrowed down.

例えば、図7に示すように、交差点の手前である場合、候補領域200の下領域をさらなる下側除外領域221とし、画像認識の対象となる領域を候補領域200から下側除外領域221を除いた前方上側の標識領域220に絞り込む。   For example, as shown in FIG. 7, when it is before an intersection, the lower area of the candidate area 200 is set as a further lower excluded area 221, and the area to be subjected to image recognition is excluded from the candidate area 200 from the lower excluded area 221. The sign area 220 on the upper front side is narrowed down.

そして、車両10は、こうして絞り込まれた候補領域200、先行車領域230、歩行者領域210及び標識領域220の少なくとも一つに対して画像認識処理を実行し、この実行により得られた認識結果に基づいて運転支援を提供する。   Then, the vehicle 10 executes image recognition processing on at least one of the candidate area 200, the preceding vehicle area 230, the pedestrian area 210, and the sign area 220 thus narrowed down, and the recognition result obtained by this execution is obtained. Provide driving assistance based on.

続いて、本実施形態について詳細に説明する。
図1に示す車両10は、乗用車やタクシー、バス、トラックなどの自動車である。車両10は、走行環境や走行状態などの車両状況に応じた運転支援が運転者等に提供される。例えば、車両10では、車両前方に存在する先行車、歩行者、標識、障害物などが検出され、これら検出結果に基づく運転支援が音声や画像などを通じて出力される。また、こうした検出結果は、予防安全のための衝突防止装置などに提供されてもよい。例えば、衝突防止装置は、提供される検出結果に基づいてブレーキアシストや自動ブレーキなどの運転支援を行うことができる。
Next, this embodiment will be described in detail.
A vehicle 10 shown in FIG. 1 is a car such as a passenger car, a taxi, a bus, and a truck. The vehicle 10 is provided with driving assistance according to vehicle conditions such as a driving environment and a driving state. For example, in the vehicle 10, a preceding vehicle, a pedestrian, a sign, an obstacle, and the like existing in front of the vehicle are detected, and driving assistance based on these detection results is output through voice and images. Such detection results may be provided to a collision prevention device for preventive safety. For example, the collision prevention device can perform driving assistance such as brake assistance and automatic braking based on the detection result provided.

車両10は、車両前方の走行環境などの周辺環境を撮像する車載カメラ20と、車載カメラ20により撮像される撮像画像が入力される画像処理部30と、車両10の速度を測定する速度センサ50と、速度センサ50から入力される信号に基づいて車両10の速度を車速として取得する車速取得部40とを備えている。また、車両10は、現在地の位置を特定するGPS(グローバルポジショニングシステム)装置60と、現在地から目的地までの走行経路を特定するとともに、当該特定した走行経路を案内するナビゲーションシステム70とを備えている。   The vehicle 10 includes a vehicle-mounted camera 20 that captures a surrounding environment such as a traveling environment in front of the vehicle, an image processing unit 30 that receives a captured image captured by the vehicle-mounted camera 20, and a speed sensor 50 that measures the speed of the vehicle 10. And a vehicle speed acquisition unit 40 that acquires the speed of the vehicle 10 as a vehicle speed based on a signal input from the speed sensor 50. In addition, the vehicle 10 includes a GPS (global positioning system) device 60 that identifies the position of the current location, and a navigation system 70 that identifies the travel route from the current location to the destination and guides the identified travel route. Yes.

これら、画像処理部30、車速取得部40、GPS装置60、及びナビゲーションシステム70はそれぞれ、情報処理が可能な装置、例えばECU(電子制御装置)などである。よってこれら装置はそれぞれ、CPU(演算装置)、ROMやRAM、その他の記憶装置などを有し情報処理可能に構成されるコンピュータを含み構成されている。なお、車載カメラ20や速度センサ50はそれぞれ、情報処理を可能とする態様に構成されていてもよい。また、画像処理部30、車速取得部40、及びナビゲーションシステム70はそれぞれ車載ネットワークN1により通信可能に接続され、情報通信可能に構成されている。   Each of the image processing unit 30, the vehicle speed acquisition unit 40, the GPS device 60, and the navigation system 70 is a device capable of information processing, such as an ECU (electronic control device). Therefore, each of these devices includes a computer that includes a CPU (arithmetic unit), a ROM, a RAM, and other storage devices and is configured to be capable of information processing. Note that each of the in-vehicle camera 20 and the speed sensor 50 may be configured in a manner that enables information processing. Further, the image processing unit 30, the vehicle speed acquisition unit 40, and the navigation system 70 are communicably connected via the in-vehicle network N1, and are configured to be capable of information communication.

GPS装置60は、GPS衛星からの信号を受信し、その受信したGPS衛星からの信号等に基づき車両10の現在地の位置を検出する。詳述すると、GPS装置60は、受信したGPS衛星からの信号の演算処理を通じて現在地の位置情報を算出し、この算出した位置情報を検出した現在地の位置としてナビゲーションシステム70に出力する。   The GPS device 60 receives a signal from a GPS satellite and detects the position of the current location of the vehicle 10 based on the received signal from the GPS satellite. More specifically, the GPS device 60 calculates current position information through calculation processing of signals from received GPS satellites, and outputs the calculated position information to the navigation system 70 as the detected current position.

ナビゲーションシステム70は、現在地の位置から目的地までの走行経路を特定するとともに、特定した走行経路に基づいて運転支援に関する情報を出力する。ナビゲーションシステム70は、道路情報等を含み、経路検索や経路案内の表示などに用いられる地図情報や、経路検索用の機能などを備えている。ナビゲーションシステム70では、目的地は運転者などにより設定され、現在地の位置はGPS装置60から入力され、走行経路は目的地と現在地の位置とに基づいて地図情報の検索によって特定される。ナビゲーションシステム70より出力される情報は、運転者などに提供される。   The navigation system 70 specifies a travel route from the current position to the destination, and outputs information related to driving support based on the specified travel route. The navigation system 70 includes road information and the like, and includes map information used for route search and route guidance display, a route search function, and the like. In the navigation system 70, the destination is set by the driver, the current location is input from the GPS device 60, and the travel route is specified by searching map information based on the destination and the current location. Information output from the navigation system 70 is provided to a driver or the like.

また、ナビゲーションシステム70は、運転者などに経路案内を提供する経路案内部710と、車両10の走行履歴を管理する履歴管理部720とを備える。経路案内部710は、特定された走行経路に基づいて、現在地の位置や、現在地の情報や、目的地までの経路や、分岐路の案内などを画像表示や音声で案内する。経路案内部710は、経路案内に必要な情報を、地図情報や走行履歴から取得する。履歴管理部720は、車両10の走行履歴を取得するとともに、取得した走行履歴を蓄積し、管理する。走行履歴には、車両10の走行に応じての走行位置や時間、車速などの情報が含まれる。また履歴管理部720は、経路案内部710からの要求に対応する履歴情報を選択して、要求元に提供することができる。   In addition, the navigation system 70 includes a route guidance unit 710 that provides route guidance to a driver and the like, and a history management unit 720 that manages a travel history of the vehicle 10. The route guidance unit 710 guides the position of the current location, information on the current location, the route to the destination, guidance on the branch road, and the like based on the identified travel route by image display or voice. The route guidance unit 710 acquires information necessary for route guidance from the map information and the travel history. The history management unit 720 acquires the travel history of the vehicle 10 and accumulates and manages the acquired travel history. The travel history includes information such as the travel position, time, and vehicle speed according to the travel of the vehicle 10. Further, the history management unit 720 can select history information corresponding to the request from the route guidance unit 710 and provide it to the request source.

さらに、ナビゲーションシステム70は、画像処理部30から走行環境や走行頻度の問い合わせを受け付けるとともに、これら問い合わせに対して回答する。走行環境には、高速道路か一般道路か、交差点までの距離などが含まれ、これらの情報が道路情報から取得可能になっている。走行頻度は、現在地の位置に対応する道路の履歴情報から取得可能になっており、履歴管理部720が現在地の位置に基づいて取得する。   Further, the navigation system 70 receives inquiries about the driving environment and the driving frequency from the image processing unit 30 and answers these inquiries. The traveling environment includes a highway or a general road, a distance to an intersection, and the like, and these pieces of information can be acquired from the road information. The travel frequency can be acquired from the history information of the road corresponding to the position of the current location, and the history management unit 720 acquires it based on the location of the current location.

また、ナビゲーションシステム70は、操作ボタン等の入力部、及び、表示画面やスピーカ等の出力部を備えている。入力部は目的地の設定に用いることができる。表示画面には、経路案内の実行に応じて、現在地を含む範囲の地図が表示されたり、現在地から目的地までの経路を構成する道路の全部又は一部が表示されたりする。また、ナビゲーションシステム70は、表示する画像の一部を強調表示したり、表示画面に車両前方の画像を表示するとともに、その表示に含まれる注意を要する歩行者や標識を強調表示したり、音声案内したりすることもできる。   The navigation system 70 includes an input unit such as an operation button and an output unit such as a display screen and a speaker. The input unit can be used for setting a destination. Depending on the execution of the route guidance, a map of a range including the current location is displayed on the display screen, or all or part of the roads constituting the route from the current location to the destination are displayed. Further, the navigation system 70 highlights a part of the image to be displayed, displays an image in front of the vehicle on the display screen, highlights a pedestrian or a sign that requires attention included in the display, You can also guide.

速度センサ50は、車両10の車輪の回転速度を検出するとともに、当該検出された回転速度に応じた信号を車速取得部40へ出力する。
車速取得部40は、速度センサ50から回転速度に応じた信号が入力されるとともに、入力された信号に基づいて車両10の現在の速度、すなわち車速を算出して、この算出した車速を出力する。これにより画像処理部30やナビゲーションシステム70は、車速取得部40から車速を取得することができる。
The speed sensor 50 detects the rotational speed of the wheels of the vehicle 10 and outputs a signal corresponding to the detected rotational speed to the vehicle speed acquisition unit 40.
The vehicle speed acquisition unit 40 receives a signal corresponding to the rotational speed from the speed sensor 50, calculates the current speed of the vehicle 10, that is, the vehicle speed based on the input signal, and outputs the calculated vehicle speed. . Accordingly, the image processing unit 30 and the navigation system 70 can acquire the vehicle speed from the vehicle speed acquisition unit 40.

車載カメラ20は、例えばCCDカメラなどのカメラであって、少なくとも可視光領域の画像を撮像する。本実施形態では、車載カメラ20は、例えば車内においてバックミラーの裏側などに設置されており、車両前方の走行環境を所定の周期、又は所定の間隔で撮像するとともに、撮像した撮像画像100を画像処理部30へ出力する。   The in-vehicle camera 20 is a camera such as a CCD camera, for example, and captures at least an image in the visible light region. In the present embodiment, the in-vehicle camera 20 is installed, for example, on the back side of the rearview mirror in the vehicle, and images the traveling environment in front of the vehicle at a predetermined cycle or a predetermined interval, and the captured image 100 is captured. Output to the processing unit 30.

画像処理部30は、車載カメラ20から撮像画像100が入力されるとともに、この入力された撮像画像100に対して、画像認識処理などの画像処理を行う。例えば、画像認識処理により、撮像画像100から先行車11a,11b、歩行者120,121、信号機110,111及び標識115などが検出される。   The image processing unit 30 receives the captured image 100 from the in-vehicle camera 20 and performs image processing such as image recognition processing on the input captured image 100. For example, the preceding vehicles 11a and 11b, the pedestrians 120 and 121, the traffic lights 110 and 111, the signs 115, and the like are detected from the captured image 100 by the image recognition process.

また本実施形態では、画像処理部30は、入力された撮像画像の一部を車両状況に応じて画像認識処理の処理対象とする対象領域として選択し、この選択した対象領域に対して画像処理を行う。詳述すると、画像処理部30には、撮像画像に対して車両状況に応じた対象領域を設定する領域設定部310と、設定される対象領域から画像認識処理を実行する領域を選択する領域選択部320と、撮像画像、又は選択された対象領域に対して画像認識処理を行う画像認識部330とを備える。   In the present embodiment, the image processing unit 30 selects a part of the input captured image as a target area to be processed in the image recognition process according to the vehicle situation, and performs image processing on the selected target area. I do. More specifically, the image processing unit 30 includes a region setting unit 310 that sets a target region corresponding to a vehicle situation with respect to a captured image, and a region selection that selects a region for executing image recognition processing from the set target region. Unit 320 and an image recognition unit 330 that performs image recognition processing on the captured image or the selected target region.

領域設定部310は、車両状況に応じて撮像画像100を一部の領域に絞り込むための絞り込み条件が設定されており、その条件に対応する領域の範囲を撮像画像100に設定する。つまり領域設定部310は、絞り込み条件として、車速条件と、先行車条件と、歩行者条件と、標識条件とが設定されている。そして領域設定部310は、絞り込まれた撮像画像100の一部の領域として、車速条件に基づいて候補領域200の範囲を設定し、先行車条件に基づいて先行車領域230の範囲を設定し、歩行者条件に基づいて歩行者領域210の範囲を設定し、標識条件に基づいて標識領域220の範囲を設定する。領域設定部310は、各領域の範囲が設定された撮像画像を画像認識部330へ出力する。   The area setting unit 310 sets a narrowing condition for narrowing the captured image 100 to a partial area according to the vehicle situation, and sets the range of the area corresponding to the condition in the captured image 100. That is, the area setting unit 310 is set with a vehicle speed condition, a preceding vehicle condition, a pedestrian condition, and a sign condition as narrowing conditions. Then, the region setting unit 310 sets the range of the candidate region 200 based on the vehicle speed condition as the partial region of the narrowed captured image 100, sets the range of the preceding vehicle region 230 based on the preceding vehicle condition, The range of the pedestrian area 210 is set based on the pedestrian condition, and the range of the sign area 220 is set based on the sign condition. The area setting unit 310 outputs a captured image in which the range of each area is set to the image recognition unit 330.

ここで、各領域について詳述する。
図4に示すように、候補領域200は、車速を考慮して、画像認識処理を行っても無意味となる除外領域201を除外した領域である。除外領域201とは、画像認識処理に要する時間の間に車両が進行することにより、処理終了時には通過している領域や、通過する直前となっている領域である。よって、除外領域201は、車速が遅ければ狭くなり、逆に、車速が速ければ広くなることから、候補領域200は、車速が遅ければ広くなり、逆に、車速が速ければ狭くなる。
Here, each region will be described in detail.
As shown in FIG. 4, the candidate area 200 is an area that excludes an excluded area 201 that is meaningless even when image recognition processing is performed in consideration of the vehicle speed. The exclusion area 201 is an area that has passed at the end of the process due to the vehicle traveling during the time required for the image recognition process, or an area that has just passed. Therefore, the exclusion area 201 becomes narrower when the vehicle speed is slow, and conversely becomes wider when the vehicle speed is faster. Therefore, the candidate area 200 becomes wider when the vehicle speed is slow, and conversely becomes narrow when the vehicle speed is fast.

図5に示すように、先行車領域230は、先行車11a,11bの認識に適した領域であり、先行車が存在する可能性の高い車両前方に絞り込まれるように設定される領域である。つまり、先行車の存在する可能性の低い、上及び左右各部の除外領域231が除外される。   As shown in FIG. 5, the preceding vehicle region 230 is a region suitable for recognition of the preceding vehicles 11a and 11b, and is a region set to be narrowed down to the front of the vehicle where there is a high possibility that the preceding vehicle exists. That is, the exclusion areas 231 of the upper and left and right portions, which are unlikely to have a preceding vehicle, are excluded.

図6に示すように、歩行者領域210は、歩行者120,121、横断歩道125の認識に適した領域であり、注意を要する歩行者120,121や横断歩道125が存在する可能性の高い近傍の地面付近に絞り込まれるように設定される領域である。つまり、注意を要する歩行者120,121が存在する可能性の低い遠方や上方となる上側除外領域211が除外される。   As shown in FIG. 6, the pedestrian area 210 is an area suitable for recognition of the pedestrians 120 and 121 and the pedestrian crossing 125, and there is a high possibility that the pedestrians 120 and 121 and the pedestrian crossing 125 requiring attention are present. This is an area set to be narrowed down to the vicinity of the nearby ground. That is, the upper exclusion area 211 that is far away or above where the pedestrians 120 and 121 requiring attention are low is excluded.

図7に示すように、標識領域220は、標識115や信号機110,111の認識に適した領域であり、標識115や信号機110,111が存在する可能性の高い地面よりも高い位置に絞り込まれるように設定される領域である。つまり、標識115や信号機110,111が存在する可能性の低い地上付近となる下側除外領域221が除外される。なお、本実施形態では、歩行者領域210と標識領域220とは排他的な関係にあるが、一部が重なっていたり、両方共に含まれない部分を生じさせたりしてもよい。   As shown in FIG. 7, the sign area 220 is an area suitable for recognition of the sign 115 and the traffic lights 110 and 111, and is narrowed down to a position higher than the ground where the sign 115 and the traffic lights 110 and 111 are likely to exist. It is an area set as follows. That is, the lower exclusion area 221 that is near the ground where the signs 115 and the traffic lights 110 and 111 are unlikely to exist is excluded. In the present embodiment, the pedestrian area 210 and the sign area 220 are in an exclusive relationship. However, a part of the pedestrian area 210 and the sign area 220 may overlap or a part that is not included in both may be generated.

領域選択部320は、認識対象を車両状況に応じて判断し、車両状況に適する対象領域を選択する領域として定めるとともに、この定めた選択する対象領域の情報を画像認識部330へ出力する。   The area selection unit 320 determines a recognition target according to the vehicle situation, determines a target area suitable for the vehicle situation as an area to be selected, and outputs information on the determined target area to be selected to the image recognition unit 330.

領域選択部320は、車両状況を判断するための情報を、ナビゲーションシステム70や車速取得部40から取得する。例えば、領域設定部310は、走行中の道路が高速道路か一般道か、走行頻度が多い道路か少ない道路か、目的地に近いか遠いか、交差点の手前か否かなどの情報やこれらを判別可能な情報をナビゲーションシステム70から取得する。なお本実施形態では、交差点の手前は、交差点の行き先案内標識や交差点についての規制案内標識が認識される位置であって、歩行者や他車両、標識への注意力がまだ要求される交差点内よりも手前の位置である。また、領域選択部320は、車速取得部40から取得される車速に基づいて、渋滞中であるか否か、高速走行中であるか否かなどの情報を取得する。   The area selection unit 320 acquires information for determining the vehicle situation from the navigation system 70 or the vehicle speed acquisition unit 40. For example, the area setting unit 310 may store information such as whether the road being traveled is an expressway or a general road, a road with a high frequency of travel or a road with a low frequency, whether it is near or far from the destination, whether it is in front of an intersection, and the like. Discriminable information is acquired from the navigation system 70. In the present embodiment, the position before the intersection is a position where the destination guidance sign of the intersection and the regulation guidance sign for the intersection are recognized, and the pedestrian, other vehicle, and the attention level to the sign are still required. It is a position in front. Further, the area selection unit 320 acquires information such as whether the vehicle is congested or whether the vehicle is traveling at high speed based on the vehicle speed acquired from the vehicle speed acquisition unit 40.

領域選択部320は、車両状況に対応する対象領域を選択する。
まず、領域選択部320は、車速に応じて車速により絞り込まれる領域を選択する。そして、この車速に応じて絞り込まれた候補領域200の一部を車両状況に対応する対象領域として選択する。
The area selection unit 320 selects a target area corresponding to the vehicle situation.
First, the region selection unit 320 selects a region to be narrowed down by the vehicle speed according to the vehicle speed. And a part of candidate area | region 200 narrowed down according to this vehicle speed is selected as an object area | region corresponding to a vehicle condition.

続いて、領域選択部320は、ナビゲーションシステム70からの情報に基づいて車両状況により絞り込まれる領域を選択する。例えば、領域選択部320は、車両状況が高速道路を走行中であるとき、対象領域として先行車領域230を選択する。また、領域選択部320は、車両状況が走行頻度の多い道路であるときや、目的地に近いとき、対象領域として歩行者領域210を選択する。さらに、領域選択部320は、車両状況が交差点の手前であるとき、対象領域として標識領域220を選択する。また、領域選択部320は、車両状況が上述した条件のいずれにも該当しないとき、対象領域として、先行車領域230と、歩行者領域210と、標識領域220とを選択する。なお、車両状況が上述した条件のいずれにも該当しないときは、上述した条件に該当しないことが明らかであるときはもちろん、上述した条件に該当していることが特定できないときも含まれる。   Subsequently, the area selection unit 320 selects an area to be narrowed down according to the vehicle situation based on information from the navigation system 70. For example, the region selection unit 320 selects the preceding vehicle region 230 as the target region when the vehicle state is traveling on an expressway. In addition, the region selection unit 320 selects the pedestrian region 210 as the target region when the vehicle situation is a road with a high frequency of travel or when it is close to the destination. Furthermore, the area selection unit 320 selects the sign area 220 as the target area when the vehicle situation is before the intersection. In addition, the region selection unit 320 selects the preceding vehicle region 230, the pedestrian region 210, and the sign region 220 as target regions when the vehicle situation does not correspond to any of the above-described conditions. In addition, when the vehicle situation does not correspond to any of the above-described conditions, it is obvious that the vehicle condition does not correspond to the above-described condition, and of course, the case where it cannot be specified that the above-described condition is satisfied.

このように領域選択部320が対象領域を、先行車領域230、歩行者領域210、及び標識領域220に絞り込むことによって、それら領域に対する画像認識処理に要する処理負荷が低く抑えられるようになる。つまり、領域を狭めることで画像認識に要する処理負荷が低く抑えられ、認識対象を絞り込むことでも画像認識に要する処理負荷が低く抑えられるようになる。なお、高い精度で認識される認識対象は、先行車領域230のときは先行車であり、歩行者領域210のときは歩行者であり、標識領域220のときは標識である。よって例えば、これら3つの領域に対する認識処理を組み合わせ、その認識処理を順次行うようにすると、領域を絞らず、かつ、認識対象も絞らないときの画像認識に比べてもその処理負荷が低く抑えられるようになる。   As described above, when the area selection unit 320 narrows down the target area to the preceding vehicle area 230, the pedestrian area 210, and the sign area 220, the processing load required for the image recognition processing for these areas can be suppressed to a low level. In other words, the processing load required for image recognition can be reduced by narrowing the region, and the processing load required for image recognition can also be reduced by narrowing down the recognition target. The recognition target recognized with high accuracy is a preceding vehicle when the preceding vehicle area 230 is a pedestrian when the pedestrian area 210, and a sign when the sign area 220. Therefore, for example, when the recognition processing for these three regions is combined and the recognition processing is performed sequentially, the processing load is reduced compared to image recognition when the regions are not narrowed and the recognition target is not narrowed. It becomes like this.

画像認識部330は、車載カメラ20から撮像画像100が入力されるとともに、入力された撮像画像100について画像認識を行う。画像認識部330は、周知の画像認識アルゴリズムを採用しており、入力された撮像画像100に当該アルゴリズムを適用して、撮像画像100に含まれる、先行車、歩行者及び標識などを抽出する、いわゆる認識する。なお、画像認識部330は、先行車、歩行者及び標識の他、各種の障害物なども認識することができる。   The image recognition unit 330 receives the captured image 100 from the in-vehicle camera 20 and performs image recognition on the input captured image 100. The image recognition unit 330 adopts a well-known image recognition algorithm, and applies the algorithm to the input captured image 100 to extract a preceding vehicle, a pedestrian, a sign, and the like included in the captured image 100. Recognize so-called. Note that the image recognition unit 330 can also recognize various obstacles in addition to the preceding vehicle, pedestrians, and signs.

詳述すると、画像認識部330は、領域設定部310から各種領域の範囲の設定された撮像画像100が入力されるとともに、領域選択部320から認識処理の対象として選択する領域の情報が入力される。そして、画像認識部330は、領域設定部310から入力された撮像画像100から領域選択部320の定めた選択する対象領域を抽出するとともに、抽出した対象領域に対応する認識精度が高く維持される認識対象を決定する。例えば、画像認識部330は、先行車領域230に対しては車両の認識精度を高く維持し、歩行者領域210に対しては歩行者の認識精度を高く維持し、標識領域220に対しては標識の認識精度を高く維持する。画像認識部330では、範囲が適切に絞られた対象領域に対して、その対象領域において認識することが適切とされる認識対象を高い精度で認識するための認識処理が行われる。つまり、画像認識部330は、画像認識処理を適切に絞り込まれた範囲に適切に絞り込まれた認識対象を認識するように実行することで、画像認識処理に要する処理負荷の増大を抑制する、もしくは、軽減することができるようにしている。   More specifically, the image recognizing unit 330 receives the captured image 100 in which the range of various regions is set from the region setting unit 310 and the information on the region to be selected as a recognition process target from the region selecting unit 320. The Then, the image recognition unit 330 extracts the target region to be selected determined by the region selection unit 320 from the captured image 100 input from the region setting unit 310, and the recognition accuracy corresponding to the extracted target region is maintained high. Determine the recognition target. For example, the image recognition unit 330 maintains high vehicle recognition accuracy for the preceding vehicle region 230, maintains high pedestrian recognition accuracy for the pedestrian region 210, and Maintain high recognition accuracy of signs. In the image recognition unit 330, recognition processing for recognizing a recognition target that is appropriate to be recognized in the target region with high accuracy is performed on the target region whose range is appropriately narrowed down. That is, the image recognition unit 330 suppresses an increase in the processing load required for the image recognition process by executing the image recognition process so as to recognize the recognition target appropriately narrowed down to a properly narrowed range, or To be able to mitigate.

例えば、画像認識部330は、先行車領域230には歩行者や標識が運転支援に役立つ状態で含まれている可能性が低いため、歩行者や標識の認識精度は必要最小限の精度に抑えている。これにより、先行車の認識精度を高く維持しつつ、先行車領域230の認識処理に要する処理負荷の抑制が図られ、処理時間の抑制、要求される処理性能の抑制も図られる。   For example, the image recognition unit 330 has a low possibility that pedestrians and signs are included in the preceding vehicle area 230 in a state that is useful for driving support. ing. Thereby, while maintaining the recognition accuracy of the preceding vehicle at a high level, the processing load required for the recognition processing of the preceding vehicle region 230 can be suppressed, the processing time can be suppressed, and the required processing performance can be suppressed.

また、画像認識部330は、歩行者領域210には先行車や標識が運転支援に役立つ状態で含まれている可能性が低いため、先行車や標識の認識精度は必要最小限の精度に抑えている。これにより、歩行者の認識精度を高く維持しつつ、歩行者領域210の認識処理に要する処理負荷の抑制が図られ、処理時間の抑制、要求される処理性能の抑制も図られる。   In addition, since the image recognition unit 330 is unlikely to include a preceding vehicle or a sign in a state useful for driving support in the pedestrian area 210, the recognition accuracy of the preceding vehicle or the sign is suppressed to a minimum necessary accuracy. ing. Thus, while maintaining high pedestrian recognition accuracy, the processing load required for the recognition processing of the pedestrian area 210 can be suppressed, the processing time can be suppressed, and the required processing performance can be suppressed.

さらに、画像認識部330は、標識領域220には先行車や歩行者が運転支援に役立つ状態で含まれている可能性が低いため、先行車や歩行者の認識精度は必要最小限の精度に抑えている。これにより、標識や信号機の認識精度を高く維持しつつ、標識領域220の認識処理に要する処理負荷の抑制が図られ、処理時間の抑制、要求される処理性能の抑制も図られる。   Furthermore, since the image recognition unit 330 is unlikely to be included in the sign area 220 in a state where the preceding vehicle or pedestrian is useful for driving support, the recognition accuracy of the preceding vehicle or pedestrian is reduced to the minimum necessary accuracy. It is suppressed. As a result, the processing load required for the recognition processing of the sign area 220 can be suppressed while maintaining high recognition accuracy of the signs and traffic lights, and the processing time and required processing performance can be suppressed.

よって、画像認識部330では、車両10の運転支援に要求される短時間、いわゆるリアルタイムでの画像処理が可能になる。
なお、本実施形態の画像認識部330は、領域選択部320から対象領域を切り替えるような指示を受けるとき、対象領域及び認識対象を切り替えて画像認識処理を行うことから、複数の対象領域の画像認識処理を行うことができる。これにより、画像認識部330は、対象領域を画像認識するとしても、対象領域の切り替えにより、画像認識の対象となる領域を広く確保することができるとともに、複数の認識対象を高い認識精度で認識することができるようになる。
Therefore, the image recognition unit 330 can perform image processing in a short time, so-called real time, required for driving support of the vehicle 10.
Note that the image recognition unit 330 according to the present embodiment performs image recognition processing by switching the target region and the recognition target when receiving an instruction to switch the target region from the region selection unit 320, and thus images of a plurality of target regions. Recognition processing can be performed. Thereby, even if the image recognition unit 330 recognizes the target region, the image recognition unit 330 can secure a wide region as a target of image recognition by switching the target region, and recognizes a plurality of recognition targets with high recognition accuracy. Will be able to.

例えば、車両状況が交差点3を走行する状況であるとき、画像認識部330は、領域選択部320から先行車領域230、歩行者領域210、及び、標識領域220を順次切り替えて画像認識するように指示される。交差点3では、先行車、歩行者、標識のいずれも高い精度で認識する必要があることから、各領域を切り替えて画像認識することが好ましい。なお、切り替えての認識の場合、認識対象が認識対象となる間隔が長くなる可能性もあるが、各認識処理に要する処理時間が抑制されていること、交差点3では車速が低いことなどから、各認識対象の認識を運転支援に要する時間内に実行することも可能である。また、重要性の高い領域の認識回数を相対的に増やすことなどもできる。   For example, when the vehicle situation is a situation where the vehicle travels through the intersection 3, the image recognition unit 330 may sequentially recognize the image by switching the preceding vehicle region 230, the pedestrian region 210, and the sign region 220 from the region selection unit 320. Instructed. At the intersection 3, since it is necessary to recognize all of the preceding vehicle, the pedestrian, and the sign with high accuracy, it is preferable to perform image recognition by switching each region. In the case of recognition by switching, there is a possibility that the interval at which the recognition object becomes the recognition object may become long, but because the processing time required for each recognition process is suppressed, the vehicle speed at the intersection 3 is low, etc. It is also possible to execute recognition of each recognition target within the time required for driving support. In addition, it is possible to relatively increase the number of times of recognition of highly important areas.

通常、画像認識処理では、撮像画像の解像度が高くなることに応じて認識精度が高くなり、また、認識処理のアルゴリズムが複雑になることに応じても認識精度が高くなる傾向にある。一方、画像認識処理では、解像度が高くなることに応じて処理負荷が増加し、また、アルゴリズムが複雑になることに応じても処理負荷が増大する。つまり、画像認識処理による認識精度を向上させようとすると処理負荷が増大し、処理負荷の増大に伴って処理時間も長くなることが知られている。このとき、処理時間が長くなることを抑制しようとすれば、処理能力の高い情報処理装置が必要になってしまう。なお、認識精度を高くしつつも、認識対象範囲を狭くすることで処理時間の増大を抑制させることも考えられるが、認識対象範囲が狭くなることで認識範囲外からの情報取得が困難になってしまう。   Usually, in the image recognition processing, the recognition accuracy increases as the resolution of the captured image increases, and the recognition accuracy tends to increase as the recognition processing algorithm becomes complicated. On the other hand, in the image recognition process, the processing load increases as the resolution increases, and the processing load also increases according to the complexity of the algorithm. That is, it is known that the processing load increases when the recognition accuracy by the image recognition process is improved, and the processing time increases as the processing load increases. At this time, if an attempt is made to suppress an increase in processing time, an information processing apparatus having a high processing capability is required. Although it is possible to suppress an increase in processing time by narrowing the recognition target range while increasing the recognition accuracy, it becomes difficult to acquire information from outside the recognition range by narrowing the recognition target range. End up.

次に、図2を参照して、本実施形態の作用を説明する。この画像処理部30による画像認識処理は、車載カメラ20が新たな画像を定周期で撮像することに応じて実行される。なお、同処理は車載カメラ20が新たな画像を撮像するよりも長い間隔で実行されてもよい。   Next, the operation of this embodiment will be described with reference to FIG. The image recognition processing by the image processing unit 30 is executed in response to the in-vehicle camera 20 capturing a new image at a constant period. Note that this process may be executed at a longer interval than when the in-vehicle camera 20 captures a new image.

画像処理部30は、車載カメラ20から撮像画像が入力されると、撮像画像に対して車速に基づき絞り込んだ候補領域200を設定する(ステップS10)。つまり、認識範囲の絞り込みを車速に基づいて行う。これにより、撮像画像のうち候補領域200から外れた除外領域201に対する画像処理が省かれるようになる。また画像処理部30は、候補領域200を所定の大きさまで絞り込むことができるか否かを判断する(ステップS11)。候補領域200は、認識処理による処理負荷が所定の負荷以下になる場合、これ以上絞り込まれる必要が無い。逆に、候補領域200は、認識処理による処理負荷が所定の負荷よりも大きい場合、一層絞り込まれる必要が生じる。つまり、所定の大きさは、処理負荷に応じて定められる大きさである。領域の所定の大きさは、例えば、解像度が高くなることや、処理アルゴリズムが複雑になることに対応して、逆により小さくされる。   When the captured image is input from the in-vehicle camera 20, the image processing unit 30 sets the candidate area 200 narrowed down based on the vehicle speed with respect to the captured image (step S10). That is, the recognition range is narrowed based on the vehicle speed. As a result, image processing for the excluded area 201 out of the candidate area 200 in the captured image is omitted. The image processing unit 30 determines whether the candidate area 200 can be narrowed down to a predetermined size (step S11). The candidate area 200 does not need to be further narrowed down when the processing load due to the recognition process is equal to or lower than a predetermined load. On the contrary, the candidate area 200 needs to be further narrowed down when the processing load by the recognition process is larger than a predetermined load. That is, the predetermined size is a size determined according to the processing load. The predetermined size of the area is reduced by the reverse, for example, in response to an increase in resolution or a complicated processing algorithm.

所定の大きさまで絞り込まれたと判断した場合(ステップS11でYES)、画像処理部30は、通常の認識処理を行うとともに、認識された認識対象をナビゲーションシステム70などに通知する(ステップS12)。そして、通知されたナビゲーションシステム70は、通知内容を画像や文字等で表示したり、音声を通じて出力したりする。また、撮像画像における認識対象を強調するように加工して画像表示してもよい。そして、画像認識処理が終了される。   When it is determined that the image has been narrowed down to a predetermined size (YES in step S11), the image processing unit 30 performs normal recognition processing and notifies the recognized recognition target to the navigation system 70 or the like (step S12). Then, the notified navigation system 70 displays the notification content as an image or text, or outputs it through sound. Further, the image may be displayed after being processed so as to emphasize the recognition target in the captured image. Then, the image recognition process is terminated.

所定の大きさまで絞り込まれていないと判断した場合(ステップS11でNO)、画像処理部30は、車両状況に応じて認識対象とする領域を絞り込む。まず、画像処理部30は、高速道路であるか否かを判断する(ステップS13)。高速道路であるか否かは、ナビゲーションシステム70の地図情報に基づいて判断することができる。高速道路であると判断した場合(ステップS13でYES)、画像処理部30は、撮像画像から先行車領域230を選択するとともに、車両に対する認識精度を高く維持して画像認識の処理を行う(ステップS14)。これにより、処理負荷の抑制を図りながら、先行車が高く維持された認識精度の下で認識されるようになる。そして、こうして認識された先行車が認識対象として通知され(ステップS12)、その後、画像認識処理が終了される。   When it is determined that the predetermined size has not been narrowed down (NO in step S11), the image processing unit 30 narrows down the area to be recognized according to the vehicle situation. First, the image processing unit 30 determines whether the road is an expressway (step S13). Whether the road is an expressway can be determined based on the map information of the navigation system 70. If it is determined that the vehicle is a highway (YES in step S13), the image processing unit 30 selects the preceding vehicle region 230 from the captured image and performs image recognition processing while maintaining high recognition accuracy for the vehicle (step). S14). As a result, the preceding vehicle is recognized with high recognition accuracy while suppressing the processing load. And the preceding vehicle recognized in this way is notified as a recognition target (step S12), and an image recognition process is complete | finished after that.

一方、高速道路ではないと判断した場合(ステップS13でNO)、画像処理部30は、よく通る道であるか否かを判断する(ステップS15)。よく通る道であると判断した場合(ステップS15でYES)、画像処理部30は、撮像画像から歩行者領域210を選択するとともに、歩行者の認識精度を高く維持して画像認識の処理を行う(ステップS16)。よく通る道であるとき歩行者領域210を選択する理由の一つとして、慣れによる注意力低下が挙げられる。   On the other hand, if it is determined that the road is not a highway (NO in step S13), the image processing unit 30 determines whether the road is a frequent path (step S15). When it is determined that the path is a path that passes frequently (YES in step S15), the image processing unit 30 selects the pedestrian area 210 from the captured image, and performs image recognition processing while maintaining high recognition accuracy of the pedestrian. (Step S16). One reason for selecting the pedestrian area 210 when it is a path that passes frequently is a reduction in attention due to habituation.

また、よく通る道ではないと判断した場合(ステップS15でNO)、画像処理部30は、目的地付近であるか否かを判断する(ステップS17)。目的地付近であると判断した場合(ステップS17でYES)、画像処理部30は、撮像画像から歩行者領域210を選択するとともに、歩行者の認識精度を高く維持して画像認識の処理を行う(ステップS16)。目的地付近であるとき歩行者領域210を選択する理由の一つとして、目的地発見へ集中することによる注意力低下が挙げられる。   If it is determined that the road is not a frequent path (NO in step S15), the image processing unit 30 determines whether or not it is near the destination (step S17). When it is determined that the vehicle is near the destination (YES in step S17), the image processing unit 30 selects the pedestrian area 210 from the captured image and performs image recognition processing while maintaining high pedestrian recognition accuracy. (Step S16). One reason for selecting the pedestrian area 210 when it is in the vicinity of the destination is a reduction in attention due to concentration on destination discovery.

このようにステップS16が実行されることにより、処理負荷の抑制を図りながら、歩行者が高く維持された認識精度の下で認識されるようになる。そして、こうして認識された歩行者が認識対象として通知され(ステップS12)、その後、画像認識処理が終了される。   By executing step S16 in this way, the pedestrian is recognized with high recognition accuracy while suppressing the processing load. And the pedestrian recognized in this way is notified as a recognition target (step S12), and an image recognition process is complete | finished after that.

さらに、目的地付近ではないと判断した場合(ステップS17でNO)、画像処理部30は、交差点の手前であるか否かを判断する(ステップS18)。交差点の手前であると判断した場合(ステップS18でYES)、画像処理部30は、撮像画像から標識領域220を選択するとともに、標識の認識精度を高く維持して画像認識の処理を行う(ステップS19)。これにより、処理負荷の抑制を図りながら、標識が高く維持された認識精度の下で認識されるようになる。そして、こうして認識された標識が認識対象として通知され(ステップS12)、その後、画像認識処理が終了される。   Furthermore, when it is determined that the vehicle is not near the destination (NO in step S17), the image processing unit 30 determines whether the vehicle is in front of the intersection (step S18). When it is determined that the vehicle is in front of the intersection (YES in step S18), the image processing unit 30 selects the sign area 220 from the captured image and performs image recognition processing while maintaining high sign recognition accuracy (step). S19). As a result, the sign is recognized with high recognition accuracy while suppressing the processing load. Then, the sign recognized in this way is notified as a recognition target (step S12), and then the image recognition process is terminated.

また、交差点の手前ではないと判断した場合(ステップS18でNO)、画像処理部30は、撮像画像から先行車領域230、歩行者領域210、及び、標識領域220を選択するとともに、これら領域について順番に繰り返し(例えばサイクリックに)選択して、選択した領域について順次画像認識処理を行う(ステップS19)。よって、先行車領域230が選択されたとき、車両の認識精度を高く維持して画像認識の処理が行なわれ、歩行者領域210が選択されたとき、歩行者の認識精度を高く維持して画像認識の処理が行なわれ、標識領域220が選択されたとき、標識の認識精度を高く維持して画像認識の処理が行なわれる。この交差点の手前ではないと判断した場合には、交差点3が含まれる。交差点3であるとき3つの領域を選択する理由の一つとして、歩行者、障害物、標識などへの注意力低下が挙げられる。なお、交差点3であるか否かを判断するステップを設けてもよい。   If it is determined that the vehicle is not in front of the intersection (NO in step S18), the image processing unit 30 selects the preceding vehicle area 230, the pedestrian area 210, and the sign area 220 from the captured image, and about these areas. The images are repeatedly selected in order (for example, cyclically), and image recognition processing is sequentially performed on the selected region (step S19). Therefore, when the preceding vehicle region 230 is selected, image recognition processing is performed while maintaining high vehicle recognition accuracy. When the pedestrian region 210 is selected, image recognition is performed while maintaining high pedestrian recognition accuracy. When the recognition process is performed and the sign area 220 is selected, the image recognition process is performed while maintaining high recognition accuracy of the sign. If it is determined that it is not in front of this intersection, intersection 3 is included. One of the reasons for selecting the three areas when the vehicle is at intersection 3 is a reduction in attention to pedestrians, obstacles, signs, and the like. In addition, you may provide the step which judges whether it is the intersection 3 or not.

これにより、処理負荷の抑制を図りながら、認識精度が高く維持された状態で、先行車、歩行者及び標識が認識されるようになる。つまり各画像処理に係る処理負荷の抑制が図られる。また、先行車、歩行者及び標識がそれぞれ高い認識精度で認識処理されることから、処理負荷の抑制が図られつつも必要な情報が認識されるようになる。例えば、撮像画像に対する認識処理と等価な認識処理が可能となる。   As a result, the preceding vehicle, the pedestrian, and the sign are recognized in a state where the recognition accuracy is maintained high while suppressing the processing load. That is, the processing load related to each image processing can be suppressed. In addition, since the preceding vehicle, the pedestrian, and the sign are each recognized and processed with high recognition accuracy, necessary information can be recognized while suppressing the processing load. For example, a recognition process equivalent to a recognition process for a captured image can be performed.

そして、こうして認識された先行車、歩行者及び標識が認識対象として通知され(ステップS12)、その後、画像認識処理が終了される。
本実施形態によれば、車両状況に拘わらず、画像処理に係る処理負荷を抑制することのできる画像処理装置を提供することができる。
Then, the preceding vehicle, the pedestrian, and the sign recognized in this way are notified as recognition targets (step S12), and then the image recognition process is terminated.
According to the present embodiment, it is possible to provide an image processing apparatus capable of suppressing the processing load related to image processing regardless of the vehicle situation.

以上説明したように、本実施形態に係る画像処理装置によれば、以下に列記する効果を有する。
(1)撮像画像の一部を、車両10の走行環境や走行状態を含む車両状況に応じて対象領域として選択し、その選択した対象領域について画像処理を行うことで、撮像画像全体を画像処理することに比較して処理負荷の抑制が図られるようになる。また、選択された複数の対象領域のうちの1つを対象領域として切り替えて順次画像処理することにより、画像処理により得られる情報量を維持しつつ、車両状況に拘わらず画像処理の処理負荷を抑制することができる。これにより、例えば、予防安全と標識案内とを行えるようになる。
As described above, the image processing apparatus according to the present embodiment has the effects listed below.
(1) A part of the captured image is selected as a target area according to the vehicle environment including the driving environment and the driving state of the vehicle 10, and image processing is performed on the selected target area, whereby the entire captured image is image-processed. The processing load can be reduced as compared with the above. In addition, by switching one of the selected target areas as a target area and sequentially performing image processing, the processing load of image processing is reduced regardless of the vehicle situation while maintaining the amount of information obtained by image processing. Can be suppressed. Thereby, for example, preventive safety and sign guidance can be performed.

(2)交差点は、様々な状況が混在するため認識対象を絞り込むことは困難であるから、複数の対象領域の選択によって認識対象の幅を広げることで、交差点の進入においても処理負荷の抑制された画像処理を行いつつも、画像認識の精度を維持することができる。   (2) Since it is difficult to narrow down the recognition targets at the intersection because of various situations, the processing load is suppressed even at the entrance of the intersection by widening the recognition target by selecting a plurality of target areas. The accuracy of image recognition can be maintained while performing image processing.

(その他の実施形態)
なお上記実施形態は、以下の態様で実施することもできる。
・上記実施形態では、車両10には、車載カメラ20、画像処理部30、ナビゲーションシステム70及びGPS装置60が設けられている場合について例示した。しかしこれに限らず、撮像した車両前方の撮像画像の画像認識処理を行って認識結果を運転支援用に出力できるのであれば、車載カメラ、画像処理部、ナビゲーションシステム及びGPS装置はそれらの一部又は全部が一体化していてもよいし、逆に、その一部又は全部がより細く分割されていてもよい。これにより、画像処理装置としての設計自由度の向上が図られるようになる。
(Other embodiments)
In addition, the said embodiment can also be implemented with the following aspects.
In the above embodiment, the case where the vehicle 10 is provided with the in-vehicle camera 20, the image processing unit 30, the navigation system 70, and the GPS device 60 is illustrated. However, the present invention is not limited to this, and if the recognition result can be output for driving support by performing image recognition processing of the captured image in front of the vehicle, the in-vehicle camera, the image processing unit, the navigation system, and the GPS device are some of them. Alternatively, all of them may be integrated, or conversely, part or all of them may be divided more finely. As a result, the degree of freedom in designing the image processing apparatus can be improved.

・上記実施形態では、車載ネットワークN1が用いられる場合について例示したが、こうした車載ネットワークN1としては、CAN(コントローラエリアネットワーク)や、LIN、FlexRay(登録商標)、Ethernet(登録商標)などが挙げられる。これにより、画像処理装置の適用範囲の拡大が図られるようになる。   In the above embodiment, the case where the in-vehicle network N1 is used has been illustrated, but examples of the in-vehicle network N1 include CAN (controller area network), LIN, FlexRay (registered trademark), and Ethernet (registered trademark). . As a result, the application range of the image processing apparatus can be expanded.

・上記実施形態では、画像処理部30、車速取得部40及びナビゲーションシステム70が車載ネットワークN1に接続されている場合について例示した。しかしこれに限らず、各装置は必要な情報の授受が可能に構成されるのであれば、車載ネットワークには、その他の装置が接続されてもよい。一方、各装置は必要な情報の授受が可能に接続されるのであれば、接続はネットワークに限られない。また接続経路に無線通信が含まれていてもよい。これにより、画像処理装置の適用範囲の拡大が図られるようになる。   In the above embodiment, the case where the image processing unit 30, the vehicle speed acquisition unit 40, and the navigation system 70 are connected to the in-vehicle network N1 is illustrated. However, the present invention is not limited thereto, and other devices may be connected to the in-vehicle network as long as each device is configured to be able to exchange necessary information. On the other hand, as long as each device is connected so that necessary information can be exchanged, the connection is not limited to the network. In addition, wireless communication may be included in the connection path. As a result, the application range of the image processing apparatus can be expanded.

・上記実施形態では、領域設定部310は、各領域の範囲を設定した撮像画像を画像認識部330へ出力する場合について例示した。しかしこれに限らず、領域設定部は、設定した範囲に対応する画像情報を抽出し、この抽出した画像情報を画像認識部へ出力するようにしてもよい。これにより、画像処理装置としての設計自由度の向上が図られるようになる。   In the above-described embodiment, the region setting unit 310 is exemplified for the case where the captured image in which the range of each region is set is output to the image recognition unit 330. However, the present invention is not limited to this, and the region setting unit may extract image information corresponding to the set range and output the extracted image information to the image recognition unit. As a result, the degree of freedom in designing the image processing apparatus can be improved.

・上記実施形態では、領域選択部320は、選択する対象領域の情報を画像認識部330へ出力する場合について例示した。しかしこれに限らず、領域選択部は、選択する対象領域を領域設定部に出力し、領域設定部から画像認識部に伝達される画像を選択する対象領域に対応する画像情報としてもよい。これにより、画像処理装置としての設計自由度の向上が図られるようになる。   In the above embodiment, the case where the region selection unit 320 outputs information on the target region to be selected to the image recognition unit 330 has been illustrated. However, the present invention is not limited to this, and the region selection unit may output the target region to be selected to the region setting unit, and may use the image information corresponding to the target region for selecting the image transmitted from the region setting unit to the image recognition unit. As a result, the degree of freedom in designing the image processing apparatus can be improved.

・上記実施形態では、車両状況がいずれの条件にも該当しないとき、対象領域として、先行車領域230と、歩行者領域210と、標識領域220とを選択する場合について例示した。しかしこれに限らず、車両状況がいずれの条件にも該当しないとき、対象領域として、先行車領域、歩行者領域及び標識領域の少なくとも2つを選択してもよい。少なくとも2つを選択することにより、一つだけ選択されるような場合に比べて、認識処理によって認識される情報量を多く維持することができるとともに、処理付加の低い処理の組合せであることから全体としての処理負荷も低く抑えられるようになる。これにより、画像処理装置としての適用範囲の拡大が図られるようになる。   -In above-mentioned embodiment, when the vehicle condition did not correspond to any conditions, the case where the preceding vehicle area | region 230, the pedestrian area | region 210, and the marker area | region 220 were selected as an object area | region was illustrated. However, the present invention is not limited to this, and when the vehicle situation does not correspond to any of the conditions, at least two of the preceding vehicle area, the pedestrian area, and the sign area may be selected as the target area. By selecting at least two, it is possible to maintain a large amount of information recognized by the recognition process as compared to a case where only one is selected, and because it is a combination of processes with low processing addition. The processing load as a whole can be kept low. Thereby, the application range as an image processing apparatus can be expanded.

・上記実施形態では、3つの領域に対する処理を順番に繰り返し行う場合について例示した。しかしこれに限らず、3つの領域に対する処理を、任意の順番に切り替えて、切り替えられた領域に対する認識処理を順次行うようにしてもよい。例えば、重要度の高い領域の認識回数が多くなるようにすることができる。よって、歩行者領域、先行車領域、歩行者領域、標識領域との順番を繰り返し行うようにしてもよいし、歩行者領域、先行車領域、標識領域、歩行者領域、先行車領域との順番を繰り返し行うようにしてもよい。また、歩行者領域の認識処理、先行車領域の認識処理及び標識領域の認識処理にそれぞれ周期を設定し、その設定された各周期に応じて各領域の認識処理を行うようにしてもよい。いずれにせよ、認識処理により得られる情報を維持しつつ、認識処理の処理負荷を低く抑えることができるようになる。   In the above embodiment, the case where the processing for the three areas is repeatedly performed in order is illustrated. However, the present invention is not limited to this, and the processing for the three regions may be switched in an arbitrary order, and the recognition processing for the switched regions may be sequentially performed. For example, it is possible to increase the number of times of recognition of a region having high importance. Therefore, the order of the pedestrian area, the preceding vehicle area, the pedestrian area, and the sign area may be repeated, or the order of the pedestrian area, the preceding vehicle area, the sign area, the pedestrian area, and the preceding vehicle area. May be repeated. In addition, a period may be set for each of the recognition process for the pedestrian area, the recognition process for the preceding vehicle area, and the recognition process for the sign area, and the recognition process for each area may be performed according to each set period. In any case, it is possible to keep the processing load of the recognition process low while maintaining the information obtained by the recognition process.

・上記実施形態では、高速道路であるときは先行車領域230が選択され、よく通る道や目的地付近であるときは歩行者領域210が選択され、交差点の手前では標識領域220が選択される場合について例示した。しかしこれに限らず、高速道路であるとき、先行車領域を多く選択しつつも、標識領域や歩行者領域を適宜選択してもよい。また、よく通る道や目的地付近であるとき、歩行者領域を多く選択しつつも、先行車領域や標識領域を適宜選択してもよい。さらに、交差点の手前であるとき、標識領域を多く選択しつつも、先行車領域や歩行者領域を適宜選択してもよい。これにより、画像処理装置の適用範囲の拡大が図られるようになる。   In the above-described embodiment, the preceding vehicle area 230 is selected when the road is a highway, the pedestrian area 210 is selected when the road is close to the destination or near the destination, and the sign area 220 is selected before the intersection. The case was illustrated. However, the present invention is not limited to this, and when it is an expressway, a sign area or a pedestrian area may be appropriately selected while selecting many preceding vehicle areas. In addition, when the vehicle is in the vicinity of a road or a destination that frequently passes, the preceding vehicle region or the sign region may be appropriately selected while selecting many pedestrian regions. Furthermore, when the vehicle is in front of the intersection, the preceding vehicle region or the pedestrian region may be appropriately selected while selecting many sign regions. As a result, the application range of the image processing apparatus can be expanded.

・上記実施形態では、画像処理部30にて画像認識処理が実行される場合について例示した。しかしこれに限らず、画像認識処理が可能であれば、その機能や処理の一部がセンターなど車両以外に設けられてもいてもよい。これにより、画像処理装置としての設計自由度の向上が図られるようになる。   In the above embodiment, the case where the image recognition process is executed by the image processing unit 30 is illustrated. However, the present invention is not limited to this, and as long as image recognition processing is possible, a part of the functions and processing may be provided outside the vehicle such as a center. As a result, the degree of freedom in designing the image processing apparatus can be improved.

・上記実施形態では、画像処理部30がECUである場合について例示した。しかしこれに限らず、画像認識処理は、携帯電話やスマートフォン、タブレットなどの携帯情報処理装置などにより実行されてもよい。こうした携帯情報処理装置を自車に持ち込むことで車両の運転支援に利用することが可能にもなる。これにより、画像処理装置の適用範囲の拡大が図られるようになる。   In the above embodiment, the case where the image processing unit 30 is an ECU is illustrated. However, the present invention is not limited to this, and the image recognition process may be executed by a mobile information processing device such as a mobile phone, a smartphone, or a tablet. By bringing such a portable information processing apparatus into the host vehicle, it can be used for driving support of the vehicle. As a result, the application range of the image processing apparatus can be expanded.

・上記実施形態では、車両10は自動車である場合について例示した。しかしこれに限らず、画像処理装置は移動に伴い周囲の状況を監視する必要があれば、ロボット、自転車、又は歩行者用の案内装置などに設けることもできる。これにより、画像処理装置としての適用範囲の拡大が図られるようになる。   -In above-mentioned embodiment, the case where the vehicle 10 was a motor vehicle was illustrated. However, the present invention is not limited to this, and the image processing apparatus can be provided in a robot, a bicycle, a pedestrian guidance apparatus, or the like if it is necessary to monitor the surrounding situation as it moves. Thereby, the application range as an image processing apparatus can be expanded.

N1…車載ネットワーク、10…車両、11a,11b…先行車、12…対向車、20…車載カメラ、30…画像処理部、40…車速取得部、50…速度センサ、60…GPS装置、70…ナビゲーションシステム、100…撮像画像、110,111…信号機、115…標識、120,121…歩行者、125…横断歩道、200…候補領域、201…除外領域、210…歩行者領域、211…上側除外領域、220…標識領域、221…下側除外領域、230…先行車領域、231…除外領域、310…領域設定部、320…領域選択部、330…画像認識部、710…経路案内部、720…履歴管理部。   N1 ... vehicle-mounted network, 10 ... vehicle, 11a, 11b ... preceding vehicle, 12 ... oncoming vehicle, 20 ... vehicle-mounted camera, 30 ... image processing unit, 40 ... vehicle speed acquisition unit, 50 ... speed sensor, 60 ... GPS device, 70 ... Navigation system, 100 ... captured image, 110, 111 ... traffic light, 115 ... sign, 120, 121 ... pedestrian, 125 ... crosswalk, 200 ... candidate area, 201 ... exclusion area, 210 ... pedestrian area, 211 ... upper exclusion Area 220 ... sign area 221 ... lower exclusion area 230 ... preceding vehicle area 231 ... exclusion area 310 ... area setting section 320 ... area selection section 330 ... image recognition section 710 ... route guidance section 720 ... history management department.

Claims (2)

車両の周辺環境を撮像した撮像画像を画像処理する画像処理装置であって、
車両状況に応じて前記撮像画像の一部から画像処理の対象とする対象領域を1又は複数選択する選択部を備え、
前記選択部が複数の対象領域を選択するとき、それら複数の対象領域のうち画像処理の対象とする対象領域を切り替えつつ、該切り替えた対象領域に対する画像処理を順次実行する
ことを特徴とする画像処理装置。
An image processing apparatus that performs image processing on a captured image obtained by imaging a surrounding environment of a vehicle,
A selection unit that selects one or a plurality of target areas to be subjected to image processing from a part of the captured image according to a vehicle situation,
When the selection unit selects a plurality of target areas, the image processing for the switched target areas is sequentially executed while switching the target areas to be subjected to image processing among the plurality of target areas. Processing equipment.
前記選択部は、前記車両状況が交差点への進入であるとき対象領域を複数選択する
請求項1に記載の画像処理装置。
The image processing apparatus according to claim 1, wherein the selection unit selects a plurality of target areas when the vehicle situation is an approach to an intersection.
JP2014090353A 2014-04-24 2014-04-24 Image processing apparatus Pending JP2015210584A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014090353A JP2015210584A (en) 2014-04-24 2014-04-24 Image processing apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014090353A JP2015210584A (en) 2014-04-24 2014-04-24 Image processing apparatus

Publications (1)

Publication Number Publication Date
JP2015210584A true JP2015210584A (en) 2015-11-24

Family

ID=54612744

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014090353A Pending JP2015210584A (en) 2014-04-24 2014-04-24 Image processing apparatus

Country Status (1)

Country Link
JP (1) JP2015210584A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018107780A (en) * 2016-12-28 2018-07-05 株式会社デンソー Image processing system
CN110576866A (en) * 2018-06-08 2019-12-17 铃木株式会社 Vehicle driving support device
CN111038387A (en) * 2018-10-15 2020-04-21 三菱重工业株式会社 Image processing device for vehicle, image processing method, program, and storage medium
CN111767844A (en) * 2020-06-29 2020-10-13 北京百度网讯科技有限公司 Method and apparatus for three-dimensional modeling
JP2022102515A (en) * 2020-12-25 2022-07-07 エヌ・ティ・ティ・コムウェア株式会社 Object detection apparatus, object detection method, and program

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018107780A (en) * 2016-12-28 2018-07-05 株式会社デンソー Image processing system
CN110576866A (en) * 2018-06-08 2019-12-17 铃木株式会社 Vehicle driving support device
CN111038387A (en) * 2018-10-15 2020-04-21 三菱重工业株式会社 Image processing device for vehicle, image processing method, program, and storage medium
US11450029B2 (en) 2018-10-15 2022-09-20 Mitsubishi Heavy Industries, Ltd. Vehicle image processing device, vehicle image processing method, program and storage medium
DE102019007001B4 (en) 2018-10-15 2023-09-28 Mitsubishi Heavy lndustries, Ltd. VEHICLE IMAGE PROCESSING DEVICE, VEHICLE IMAGE PROCESSING METHOD, PROGRAM and STORAGE MEDIUM
CN111767844A (en) * 2020-06-29 2020-10-13 北京百度网讯科技有限公司 Method and apparatus for three-dimensional modeling
JP2021119466A (en) * 2020-06-29 2021-08-12 ベイジン バイドゥ ネットコム サイエンス アンド テクノロジー カンパニー リミテッド Method and device for 3d modeling, electronic apparatus, storage media, and computer program
JP7192017B2 (en) 2020-06-29 2022-12-19 ベイジン バイドゥ ネットコム サイエンス テクノロジー カンパニー リミテッド Method and apparatus, electronic device, storage medium and computer program for three-dimensional modeling
US11697428B2 (en) 2020-06-29 2023-07-11 Apollo Intelligent Driving Technology (Beijing) Co., Ltd. Method and apparatus for 3D modeling
CN111767844B (en) * 2020-06-29 2023-12-29 阿波罗智能技术(北京)有限公司 Method and apparatus for three-dimensional modeling
JP2022102515A (en) * 2020-12-25 2022-07-07 エヌ・ティ・ティ・コムウェア株式会社 Object detection apparatus, object detection method, and program
JP7138157B2 (en) 2020-12-25 2022-09-15 エヌ・ティ・ティ・コムウェア株式会社 OBJECT DETECTION DEVICE, OBJECT DETECTION METHOD, AND PROGRAM

Similar Documents

Publication Publication Date Title
US10055652B2 (en) Pedestrian detection and motion prediction with rear-facing camera
US11366477B2 (en) Information processing device, information processing method, and computer readable medium
JP6304223B2 (en) Driving assistance device
JP6361618B2 (en) Driving assistance device
US10733879B2 (en) Roadside device, method of controlling roadside device and non-transitory storage medium
WO2016181618A1 (en) Monitored area setting device and monitored area setting method
EP3010004A2 (en) Vehicle alarm output apparatus
JP5898001B2 (en) Vehicle periphery monitoring device
CN110574357B (en) Imaging control apparatus, method for controlling imaging control apparatus, and moving body
JP2015230579A (en) Accident image acquisition system
JP7251120B2 (en) Information providing system, server, in-vehicle device, program and information providing method
JP2018133072A (en) Information processing apparatus and program
KR20210030975A (en) Driving support method and driving support device
JP2012128748A (en) Vehicle driving support device
JP7321277B2 (en) Driving support device, vehicle control device, driving support system, and driving support method
JP2015210584A (en) Image processing apparatus
JP2014067165A (en) Driving support apparatus
JP2017073008A (en) Vehicle operation support system and operation support method
JP2019049812A (en) Traveling position evaluation system
WO2017104209A1 (en) Driving assistance device
JP2017062583A (en) Danger information notification system, server and computer program
JP6221568B2 (en) Driving assistance device
JP2014044458A (en) On-vehicle device and danger notification method
WO2015092974A1 (en) Oncoming car information generation device
JP2020166409A (en) In-vehicle device, in-vehicle system and surroundings monitoring method