JP2015210584A - Image processing apparatus - Google Patents
Image processing apparatus Download PDFInfo
- Publication number
- JP2015210584A JP2015210584A JP2014090353A JP2014090353A JP2015210584A JP 2015210584 A JP2015210584 A JP 2015210584A JP 2014090353 A JP2014090353 A JP 2014090353A JP 2014090353 A JP2014090353 A JP 2014090353A JP 2015210584 A JP2015210584 A JP 2015210584A
- Authority
- JP
- Japan
- Prior art keywords
- vehicle
- area
- image
- recognition
- image processing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
Description
本発明は、車両などの移動体に搭載されたカメラによって撮像された撮像画像を画像処理する画像処理装置に関する。 The present invention relates to an image processing apparatus that performs image processing on a captured image captured by a camera mounted on a moving body such as a vehicle.
従来、上述のような画像処理装置を備え、当該画像処理装置によって処理された車両の周辺環境の画像に基づいて運転支援を提供する運転支援装置が知られている。こうした運転支援装置は、車載カメラを通じて撮像された車両前方の走行環境の撮像画像を画像処理することによって車両前方にある他車両や障害物、歩行者などを特定するとともに、こうして特定した車両前方の他車両や障害物、歩行者などに関する情報を音声や画像などにより運転支援情報として提供する。例えば、こうした画像処理を行うことのできる装置の一例が特許文献1に記載されている。 2. Description of the Related Art Conventionally, there is known a driving support device that includes the above-described image processing device and provides driving support based on an image of a surrounding environment of a vehicle processed by the image processing device. Such a driving support device specifies other vehicles, obstacles, pedestrians, and the like ahead of the vehicle by performing image processing on the captured image of the traveling environment in front of the vehicle imaged through the in-vehicle camera. Information on other vehicles, obstacles, pedestrians, etc. is provided as driving support information by voice or image. For example, Patent Document 1 describes an example of an apparatus that can perform such image processing.
特許文献1に記載の装置は、ステレオカメラ装置であって、複数の撮像手段と、撮像した画像を補正する画像補正部と、左右の画素のずれ量である視差を算出する視差算出部と、撮像した画像と算出した視差の両方あるいはいずれかを用いて画像認識処理を行う画像認識部とを備える。またこの装置では、処理する画像領域と画像の縮小率を、ステレオカメラ装置を搭載する車両の走行環境に応じて異なるように決定する処理領域決定部を備え、この処理領域決定部により決定された画像領域と縮小率とからなる処理領域を用いて、画像補正部は画像を補正し、視差算出部は視差を算出し、画像認識部は画像認識処理を行う。 The device described in Patent Literature 1 is a stereo camera device, and includes a plurality of imaging units, an image correction unit that corrects a captured image, a parallax calculation unit that calculates a parallax that is a shift amount between left and right pixels, An image recognition unit that performs image recognition processing using both or one of the captured image and the calculated parallax. In addition, this apparatus includes a processing area determining unit that determines an image area to be processed and a reduction ratio of the image so as to differ depending on a traveling environment of the vehicle on which the stereo camera device is mounted, and is determined by the processing area determining unit. The image correction unit corrects the image using the processing region including the image region and the reduction ratio, the parallax calculation unit calculates the parallax, and the image recognition unit performs image recognition processing.
ところで、車両の運転支援に関する画像処理は、その処理に遅延の生じることがないように処理負荷を軽減させる必要がある。例えば、特許文献1に記載の装置では、走行環境に応じて決定された画像領域と縮小率とに基づいて画像認識処理を行うようにすることで処理負荷の抑制が図られるようにしている。その一方、走行環境などが特定されないようなときには、画像領域と縮小率とを決定することができなくなるため、処理負荷を適切に抑制することができなくなるおそれがある。 By the way, image processing related to vehicle driving assistance needs to reduce the processing load so that there is no delay in the processing. For example, in the apparatus described in Patent Document 1, the processing load is suppressed by performing the image recognition process based on the image area and the reduction rate determined according to the traveling environment. On the other hand, when the driving environment or the like is not specified, the image area and the reduction ratio cannot be determined, and thus the processing load may not be appropriately suppressed.
本発明は、このような実情に鑑みてなされたものであって、その目的は、車両状況に拘わらず、画像処理に係る処理負荷を抑制することのできる画像処理装置を提供することにある。 The present invention has been made in view of such circumstances, and an object thereof is to provide an image processing apparatus capable of suppressing a processing load related to image processing regardless of a vehicle situation.
以下、上記課題を解決するための手段及びその作用効果を記載する。
上記課題を解決する画像処理装置は、車両の周辺環境を撮像した撮像画像を画像処理する画像処理装置であって、車両状況に応じて前記撮像画像の一部から画像処理の対象とする対象領域を1又は複数選択する選択部を備え、前記選択部が複数の対象領域を選択するとき、それら複数の対象領域のうち画像処理の対象とする対象領域を切り替えつつ、該切り替えた対象領域に対する画像処理を順次実行することを要旨とする。
Hereinafter, means for solving the above-described problems and the effects thereof will be described.
An image processing apparatus that solves the above-described problem is an image processing apparatus that performs image processing on a captured image obtained by capturing an image of a surrounding environment of a vehicle. When the selection unit selects a plurality of target areas, the target area to be subjected to image processing is switched among the plurality of target areas, and an image corresponding to the switched target area is selected. The gist is to sequentially execute the processing.
このような構成によれば、撮像画像の一部を、車両の走行環境や走行状態を含む車両状況に応じて対象領域として選択し、その選択した対象領域について画像処理を行うことで、撮像画像全体を画像処理することに比較して処理負荷の抑制が図られるようになる。また、選択された複数の対象領域のうちの1つを対象領域として切り替えて順次画像処理することにより、画像処理により得られる情報量を維持しつつ、車両状況に拘わらず画像処理の処理負荷を抑制することができる。 According to such a configuration, a part of the captured image is selected as a target area according to the vehicle situation including the driving environment and the driving state of the vehicle, and the captured image is processed by performing image processing on the selected target area. The processing load can be reduced as compared with image processing of the whole. In addition, by switching one of the selected target areas as a target area and sequentially performing image processing, the processing load of image processing is reduced regardless of the vehicle situation while maintaining the amount of information obtained by image processing. Can be suppressed.
好ましい構成として、前記選択部は、前記車両状況が交差点への進入であるとき対象領域を複数選択する。
このような構成によれば、交差点は、様々な状況が混在するため認識対象を絞り込むことは困難であるから、複数の対象領域の選択によって認識対象の幅を広げることで、交差点の進入においても処理負荷の抑制された画像処理を行いつつも、画像認識の精度を維持することができる。これにより、例えば、予防安全と標識案内とを行えるようになる。
As a preferred configuration, the selection unit selects a plurality of target areas when the vehicle situation is an approach to an intersection.
According to such a configuration, it is difficult to narrow down the recognition target because there are various situations at the intersection, so by widening the recognition target by selecting a plurality of target areas, Image recognition accuracy can be maintained while performing image processing with a reduced processing load. Thereby, for example, preventive safety and sign guidance can be performed.
画像処理装置を具体化した一実施形態について、図1〜7に従って説明する。
まず、本実施形態の概要について説明する。
図1には、具体化された画像処理装置を備える車両10が示されている。車両10は車載カメラ20にて撮像した前方の撮像画像を画像処理部30にて画像認識処理を行い、車両10前方に存在する、先行車、歩行者、標識などを検出する。そして、車両10では、画像認識により検出した先行車、歩行者、標識などを出力し、ナビゲーションシステム70などにおいて運転支援情報として利用可能にしている。
An embodiment embodying an image processing apparatus will be described with reference to FIGS.
First, an outline of the present embodiment will be described.
FIG. 1 shows a
図2に示すように、本実施形態では、画像認識の対象とする領域を、車両状況に応じて撮像画像の一部に定められる領域とすることにより、車両状況に適した認識対象に対する認識精度を維持しつつ、画像処理に係る処理負荷を抑制するようにしている。車両状況は、高速道路であるか否か(ステップS13)、よく通る道であるか否か(ステップS15)、目的地付近であるか否か(ステップS17)、交差点の手前であるか否か(ステップS18)により判断される。 As shown in FIG. 2, in the present embodiment, the recognition accuracy for a recognition target suitable for the vehicle situation is set by setting the region targeted for image recognition as a region defined as a part of the captured image according to the vehicle situation. The processing load related to image processing is suppressed while maintaining the above. Whether the vehicle status is an expressway (step S13), whether it is a road that passes frequently (step S15), whether it is near the destination (step S17), whether it is in front of the intersection This is determined by (Step S18).
まず、図3に示すように、車載カメラ20は前方画像を撮像して撮像画像100を得る。例えば、撮像画像100には、進行道路1と交差道路2とが交差する交差点3が含まれている。また、歩道には歩行者120,121が存在し、前方には先行車11a,11b、対向車12が存在し、交差点3には、信号機110,111と横断歩道125とが設置されているとともに、進行道路1の路側には標識115が設置されている。なお、走行中の車両10からの撮像画像100は進行している車線が画像中央となるが、図3〜7では説明の便宜上、進行道路1の中心を画像中央とした図を用いて説明している。
First, as shown in FIG. 3, the in-
次に、図4に示すように、車速に基づいて画像認識から除外する除外領域201を定めて車速に基づいて絞り込まれる候補領域200を得る。
続いて、車両状況に応じて、更に絞り込む。
Next, as shown in FIG. 4, an
Then, further narrowing down according to the vehicle situation.
例えば、図5に示すように、高速道路である場合、候補領域200の上及び左右の領域をさらなる除外領域231とし、画像認識の対象となる領域を候補領域200から除外領域231を除いた先行車領域230に絞り込む。
For example, as shown in FIG. 5, in the case of an expressway, the upper and left areas of the
例えば、図6に示すように、よく通る道や、目的地付近である場合、候補領域200の上領域をさらなる上側除外領域211とし、画像認識の対象となる領域を候補領域200から上側除外領域211を除いた前方下側の歩行者領域210に絞り込む。
For example, as shown in FIG. 6, in the case of a road that frequently passes or near the destination, the upper area of the
例えば、図7に示すように、交差点の手前である場合、候補領域200の下領域をさらなる下側除外領域221とし、画像認識の対象となる領域を候補領域200から下側除外領域221を除いた前方上側の標識領域220に絞り込む。
For example, as shown in FIG. 7, when it is before an intersection, the lower area of the
そして、車両10は、こうして絞り込まれた候補領域200、先行車領域230、歩行者領域210及び標識領域220の少なくとも一つに対して画像認識処理を実行し、この実行により得られた認識結果に基づいて運転支援を提供する。
Then, the
続いて、本実施形態について詳細に説明する。
図1に示す車両10は、乗用車やタクシー、バス、トラックなどの自動車である。車両10は、走行環境や走行状態などの車両状況に応じた運転支援が運転者等に提供される。例えば、車両10では、車両前方に存在する先行車、歩行者、標識、障害物などが検出され、これら検出結果に基づく運転支援が音声や画像などを通じて出力される。また、こうした検出結果は、予防安全のための衝突防止装置などに提供されてもよい。例えば、衝突防止装置は、提供される検出結果に基づいてブレーキアシストや自動ブレーキなどの運転支援を行うことができる。
Next, this embodiment will be described in detail.
A
車両10は、車両前方の走行環境などの周辺環境を撮像する車載カメラ20と、車載カメラ20により撮像される撮像画像が入力される画像処理部30と、車両10の速度を測定する速度センサ50と、速度センサ50から入力される信号に基づいて車両10の速度を車速として取得する車速取得部40とを備えている。また、車両10は、現在地の位置を特定するGPS(グローバルポジショニングシステム)装置60と、現在地から目的地までの走行経路を特定するとともに、当該特定した走行経路を案内するナビゲーションシステム70とを備えている。
The
これら、画像処理部30、車速取得部40、GPS装置60、及びナビゲーションシステム70はそれぞれ、情報処理が可能な装置、例えばECU(電子制御装置)などである。よってこれら装置はそれぞれ、CPU(演算装置)、ROMやRAM、その他の記憶装置などを有し情報処理可能に構成されるコンピュータを含み構成されている。なお、車載カメラ20や速度センサ50はそれぞれ、情報処理を可能とする態様に構成されていてもよい。また、画像処理部30、車速取得部40、及びナビゲーションシステム70はそれぞれ車載ネットワークN1により通信可能に接続され、情報通信可能に構成されている。
Each of the
GPS装置60は、GPS衛星からの信号を受信し、その受信したGPS衛星からの信号等に基づき車両10の現在地の位置を検出する。詳述すると、GPS装置60は、受信したGPS衛星からの信号の演算処理を通じて現在地の位置情報を算出し、この算出した位置情報を検出した現在地の位置としてナビゲーションシステム70に出力する。
The
ナビゲーションシステム70は、現在地の位置から目的地までの走行経路を特定するとともに、特定した走行経路に基づいて運転支援に関する情報を出力する。ナビゲーションシステム70は、道路情報等を含み、経路検索や経路案内の表示などに用いられる地図情報や、経路検索用の機能などを備えている。ナビゲーションシステム70では、目的地は運転者などにより設定され、現在地の位置はGPS装置60から入力され、走行経路は目的地と現在地の位置とに基づいて地図情報の検索によって特定される。ナビゲーションシステム70より出力される情報は、運転者などに提供される。
The
また、ナビゲーションシステム70は、運転者などに経路案内を提供する経路案内部710と、車両10の走行履歴を管理する履歴管理部720とを備える。経路案内部710は、特定された走行経路に基づいて、現在地の位置や、現在地の情報や、目的地までの経路や、分岐路の案内などを画像表示や音声で案内する。経路案内部710は、経路案内に必要な情報を、地図情報や走行履歴から取得する。履歴管理部720は、車両10の走行履歴を取得するとともに、取得した走行履歴を蓄積し、管理する。走行履歴には、車両10の走行に応じての走行位置や時間、車速などの情報が含まれる。また履歴管理部720は、経路案内部710からの要求に対応する履歴情報を選択して、要求元に提供することができる。
In addition, the
さらに、ナビゲーションシステム70は、画像処理部30から走行環境や走行頻度の問い合わせを受け付けるとともに、これら問い合わせに対して回答する。走行環境には、高速道路か一般道路か、交差点までの距離などが含まれ、これらの情報が道路情報から取得可能になっている。走行頻度は、現在地の位置に対応する道路の履歴情報から取得可能になっており、履歴管理部720が現在地の位置に基づいて取得する。
Further, the
また、ナビゲーションシステム70は、操作ボタン等の入力部、及び、表示画面やスピーカ等の出力部を備えている。入力部は目的地の設定に用いることができる。表示画面には、経路案内の実行に応じて、現在地を含む範囲の地図が表示されたり、現在地から目的地までの経路を構成する道路の全部又は一部が表示されたりする。また、ナビゲーションシステム70は、表示する画像の一部を強調表示したり、表示画面に車両前方の画像を表示するとともに、その表示に含まれる注意を要する歩行者や標識を強調表示したり、音声案内したりすることもできる。
The
速度センサ50は、車両10の車輪の回転速度を検出するとともに、当該検出された回転速度に応じた信号を車速取得部40へ出力する。
車速取得部40は、速度センサ50から回転速度に応じた信号が入力されるとともに、入力された信号に基づいて車両10の現在の速度、すなわち車速を算出して、この算出した車速を出力する。これにより画像処理部30やナビゲーションシステム70は、車速取得部40から車速を取得することができる。
The speed sensor 50 detects the rotational speed of the wheels of the
The vehicle speed acquisition unit 40 receives a signal corresponding to the rotational speed from the speed sensor 50, calculates the current speed of the
車載カメラ20は、例えばCCDカメラなどのカメラであって、少なくとも可視光領域の画像を撮像する。本実施形態では、車載カメラ20は、例えば車内においてバックミラーの裏側などに設置されており、車両前方の走行環境を所定の周期、又は所定の間隔で撮像するとともに、撮像した撮像画像100を画像処理部30へ出力する。
The in-
画像処理部30は、車載カメラ20から撮像画像100が入力されるとともに、この入力された撮像画像100に対して、画像認識処理などの画像処理を行う。例えば、画像認識処理により、撮像画像100から先行車11a,11b、歩行者120,121、信号機110,111及び標識115などが検出される。
The
また本実施形態では、画像処理部30は、入力された撮像画像の一部を車両状況に応じて画像認識処理の処理対象とする対象領域として選択し、この選択した対象領域に対して画像処理を行う。詳述すると、画像処理部30には、撮像画像に対して車両状況に応じた対象領域を設定する領域設定部310と、設定される対象領域から画像認識処理を実行する領域を選択する領域選択部320と、撮像画像、又は選択された対象領域に対して画像認識処理を行う画像認識部330とを備える。
In the present embodiment, the
領域設定部310は、車両状況に応じて撮像画像100を一部の領域に絞り込むための絞り込み条件が設定されており、その条件に対応する領域の範囲を撮像画像100に設定する。つまり領域設定部310は、絞り込み条件として、車速条件と、先行車条件と、歩行者条件と、標識条件とが設定されている。そして領域設定部310は、絞り込まれた撮像画像100の一部の領域として、車速条件に基づいて候補領域200の範囲を設定し、先行車条件に基づいて先行車領域230の範囲を設定し、歩行者条件に基づいて歩行者領域210の範囲を設定し、標識条件に基づいて標識領域220の範囲を設定する。領域設定部310は、各領域の範囲が設定された撮像画像を画像認識部330へ出力する。
The area setting unit 310 sets a narrowing condition for narrowing the captured
ここで、各領域について詳述する。
図4に示すように、候補領域200は、車速を考慮して、画像認識処理を行っても無意味となる除外領域201を除外した領域である。除外領域201とは、画像認識処理に要する時間の間に車両が進行することにより、処理終了時には通過している領域や、通過する直前となっている領域である。よって、除外領域201は、車速が遅ければ狭くなり、逆に、車速が速ければ広くなることから、候補領域200は、車速が遅ければ広くなり、逆に、車速が速ければ狭くなる。
Here, each region will be described in detail.
As shown in FIG. 4, the
図5に示すように、先行車領域230は、先行車11a,11bの認識に適した領域であり、先行車が存在する可能性の高い車両前方に絞り込まれるように設定される領域である。つまり、先行車の存在する可能性の低い、上及び左右各部の除外領域231が除外される。
As shown in FIG. 5, the preceding
図6に示すように、歩行者領域210は、歩行者120,121、横断歩道125の認識に適した領域であり、注意を要する歩行者120,121や横断歩道125が存在する可能性の高い近傍の地面付近に絞り込まれるように設定される領域である。つまり、注意を要する歩行者120,121が存在する可能性の低い遠方や上方となる上側除外領域211が除外される。
As shown in FIG. 6, the
図7に示すように、標識領域220は、標識115や信号機110,111の認識に適した領域であり、標識115や信号機110,111が存在する可能性の高い地面よりも高い位置に絞り込まれるように設定される領域である。つまり、標識115や信号機110,111が存在する可能性の低い地上付近となる下側除外領域221が除外される。なお、本実施形態では、歩行者領域210と標識領域220とは排他的な関係にあるが、一部が重なっていたり、両方共に含まれない部分を生じさせたりしてもよい。
As shown in FIG. 7, the
領域選択部320は、認識対象を車両状況に応じて判断し、車両状況に適する対象領域を選択する領域として定めるとともに、この定めた選択する対象領域の情報を画像認識部330へ出力する。
The
領域選択部320は、車両状況を判断するための情報を、ナビゲーションシステム70や車速取得部40から取得する。例えば、領域設定部310は、走行中の道路が高速道路か一般道か、走行頻度が多い道路か少ない道路か、目的地に近いか遠いか、交差点の手前か否かなどの情報やこれらを判別可能な情報をナビゲーションシステム70から取得する。なお本実施形態では、交差点の手前は、交差点の行き先案内標識や交差点についての規制案内標識が認識される位置であって、歩行者や他車両、標識への注意力がまだ要求される交差点内よりも手前の位置である。また、領域選択部320は、車速取得部40から取得される車速に基づいて、渋滞中であるか否か、高速走行中であるか否かなどの情報を取得する。
The
領域選択部320は、車両状況に対応する対象領域を選択する。
まず、領域選択部320は、車速に応じて車速により絞り込まれる領域を選択する。そして、この車速に応じて絞り込まれた候補領域200の一部を車両状況に対応する対象領域として選択する。
The
First, the
続いて、領域選択部320は、ナビゲーションシステム70からの情報に基づいて車両状況により絞り込まれる領域を選択する。例えば、領域選択部320は、車両状況が高速道路を走行中であるとき、対象領域として先行車領域230を選択する。また、領域選択部320は、車両状況が走行頻度の多い道路であるときや、目的地に近いとき、対象領域として歩行者領域210を選択する。さらに、領域選択部320は、車両状況が交差点の手前であるとき、対象領域として標識領域220を選択する。また、領域選択部320は、車両状況が上述した条件のいずれにも該当しないとき、対象領域として、先行車領域230と、歩行者領域210と、標識領域220とを選択する。なお、車両状況が上述した条件のいずれにも該当しないときは、上述した条件に該当しないことが明らかであるときはもちろん、上述した条件に該当していることが特定できないときも含まれる。
Subsequently, the
このように領域選択部320が対象領域を、先行車領域230、歩行者領域210、及び標識領域220に絞り込むことによって、それら領域に対する画像認識処理に要する処理負荷が低く抑えられるようになる。つまり、領域を狭めることで画像認識に要する処理負荷が低く抑えられ、認識対象を絞り込むことでも画像認識に要する処理負荷が低く抑えられるようになる。なお、高い精度で認識される認識対象は、先行車領域230のときは先行車であり、歩行者領域210のときは歩行者であり、標識領域220のときは標識である。よって例えば、これら3つの領域に対する認識処理を組み合わせ、その認識処理を順次行うようにすると、領域を絞らず、かつ、認識対象も絞らないときの画像認識に比べてもその処理負荷が低く抑えられるようになる。
As described above, when the
画像認識部330は、車載カメラ20から撮像画像100が入力されるとともに、入力された撮像画像100について画像認識を行う。画像認識部330は、周知の画像認識アルゴリズムを採用しており、入力された撮像画像100に当該アルゴリズムを適用して、撮像画像100に含まれる、先行車、歩行者及び標識などを抽出する、いわゆる認識する。なお、画像認識部330は、先行車、歩行者及び標識の他、各種の障害物なども認識することができる。
The
詳述すると、画像認識部330は、領域設定部310から各種領域の範囲の設定された撮像画像100が入力されるとともに、領域選択部320から認識処理の対象として選択する領域の情報が入力される。そして、画像認識部330は、領域設定部310から入力された撮像画像100から領域選択部320の定めた選択する対象領域を抽出するとともに、抽出した対象領域に対応する認識精度が高く維持される認識対象を決定する。例えば、画像認識部330は、先行車領域230に対しては車両の認識精度を高く維持し、歩行者領域210に対しては歩行者の認識精度を高く維持し、標識領域220に対しては標識の認識精度を高く維持する。画像認識部330では、範囲が適切に絞られた対象領域に対して、その対象領域において認識することが適切とされる認識対象を高い精度で認識するための認識処理が行われる。つまり、画像認識部330は、画像認識処理を適切に絞り込まれた範囲に適切に絞り込まれた認識対象を認識するように実行することで、画像認識処理に要する処理負荷の増大を抑制する、もしくは、軽減することができるようにしている。
More specifically, the
例えば、画像認識部330は、先行車領域230には歩行者や標識が運転支援に役立つ状態で含まれている可能性が低いため、歩行者や標識の認識精度は必要最小限の精度に抑えている。これにより、先行車の認識精度を高く維持しつつ、先行車領域230の認識処理に要する処理負荷の抑制が図られ、処理時間の抑制、要求される処理性能の抑制も図られる。
For example, the
また、画像認識部330は、歩行者領域210には先行車や標識が運転支援に役立つ状態で含まれている可能性が低いため、先行車や標識の認識精度は必要最小限の精度に抑えている。これにより、歩行者の認識精度を高く維持しつつ、歩行者領域210の認識処理に要する処理負荷の抑制が図られ、処理時間の抑制、要求される処理性能の抑制も図られる。
In addition, since the
さらに、画像認識部330は、標識領域220には先行車や歩行者が運転支援に役立つ状態で含まれている可能性が低いため、先行車や歩行者の認識精度は必要最小限の精度に抑えている。これにより、標識や信号機の認識精度を高く維持しつつ、標識領域220の認識処理に要する処理負荷の抑制が図られ、処理時間の抑制、要求される処理性能の抑制も図られる。
Furthermore, since the
よって、画像認識部330では、車両10の運転支援に要求される短時間、いわゆるリアルタイムでの画像処理が可能になる。
なお、本実施形態の画像認識部330は、領域選択部320から対象領域を切り替えるような指示を受けるとき、対象領域及び認識対象を切り替えて画像認識処理を行うことから、複数の対象領域の画像認識処理を行うことができる。これにより、画像認識部330は、対象領域を画像認識するとしても、対象領域の切り替えにより、画像認識の対象となる領域を広く確保することができるとともに、複数の認識対象を高い認識精度で認識することができるようになる。
Therefore, the
Note that the
例えば、車両状況が交差点3を走行する状況であるとき、画像認識部330は、領域選択部320から先行車領域230、歩行者領域210、及び、標識領域220を順次切り替えて画像認識するように指示される。交差点3では、先行車、歩行者、標識のいずれも高い精度で認識する必要があることから、各領域を切り替えて画像認識することが好ましい。なお、切り替えての認識の場合、認識対象が認識対象となる間隔が長くなる可能性もあるが、各認識処理に要する処理時間が抑制されていること、交差点3では車速が低いことなどから、各認識対象の認識を運転支援に要する時間内に実行することも可能である。また、重要性の高い領域の認識回数を相対的に増やすことなどもできる。
For example, when the vehicle situation is a situation where the vehicle travels through the intersection 3, the
通常、画像認識処理では、撮像画像の解像度が高くなることに応じて認識精度が高くなり、また、認識処理のアルゴリズムが複雑になることに応じても認識精度が高くなる傾向にある。一方、画像認識処理では、解像度が高くなることに応じて処理負荷が増加し、また、アルゴリズムが複雑になることに応じても処理負荷が増大する。つまり、画像認識処理による認識精度を向上させようとすると処理負荷が増大し、処理負荷の増大に伴って処理時間も長くなることが知られている。このとき、処理時間が長くなることを抑制しようとすれば、処理能力の高い情報処理装置が必要になってしまう。なお、認識精度を高くしつつも、認識対象範囲を狭くすることで処理時間の増大を抑制させることも考えられるが、認識対象範囲が狭くなることで認識範囲外からの情報取得が困難になってしまう。 Usually, in the image recognition processing, the recognition accuracy increases as the resolution of the captured image increases, and the recognition accuracy tends to increase as the recognition processing algorithm becomes complicated. On the other hand, in the image recognition process, the processing load increases as the resolution increases, and the processing load also increases according to the complexity of the algorithm. That is, it is known that the processing load increases when the recognition accuracy by the image recognition process is improved, and the processing time increases as the processing load increases. At this time, if an attempt is made to suppress an increase in processing time, an information processing apparatus having a high processing capability is required. Although it is possible to suppress an increase in processing time by narrowing the recognition target range while increasing the recognition accuracy, it becomes difficult to acquire information from outside the recognition range by narrowing the recognition target range. End up.
次に、図2を参照して、本実施形態の作用を説明する。この画像処理部30による画像認識処理は、車載カメラ20が新たな画像を定周期で撮像することに応じて実行される。なお、同処理は車載カメラ20が新たな画像を撮像するよりも長い間隔で実行されてもよい。
Next, the operation of this embodiment will be described with reference to FIG. The image recognition processing by the
画像処理部30は、車載カメラ20から撮像画像が入力されると、撮像画像に対して車速に基づき絞り込んだ候補領域200を設定する(ステップS10)。つまり、認識範囲の絞り込みを車速に基づいて行う。これにより、撮像画像のうち候補領域200から外れた除外領域201に対する画像処理が省かれるようになる。また画像処理部30は、候補領域200を所定の大きさまで絞り込むことができるか否かを判断する(ステップS11)。候補領域200は、認識処理による処理負荷が所定の負荷以下になる場合、これ以上絞り込まれる必要が無い。逆に、候補領域200は、認識処理による処理負荷が所定の負荷よりも大きい場合、一層絞り込まれる必要が生じる。つまり、所定の大きさは、処理負荷に応じて定められる大きさである。領域の所定の大きさは、例えば、解像度が高くなることや、処理アルゴリズムが複雑になることに対応して、逆により小さくされる。
When the captured image is input from the in-
所定の大きさまで絞り込まれたと判断した場合(ステップS11でYES)、画像処理部30は、通常の認識処理を行うとともに、認識された認識対象をナビゲーションシステム70などに通知する(ステップS12)。そして、通知されたナビゲーションシステム70は、通知内容を画像や文字等で表示したり、音声を通じて出力したりする。また、撮像画像における認識対象を強調するように加工して画像表示してもよい。そして、画像認識処理が終了される。
When it is determined that the image has been narrowed down to a predetermined size (YES in step S11), the
所定の大きさまで絞り込まれていないと判断した場合(ステップS11でNO)、画像処理部30は、車両状況に応じて認識対象とする領域を絞り込む。まず、画像処理部30は、高速道路であるか否かを判断する(ステップS13)。高速道路であるか否かは、ナビゲーションシステム70の地図情報に基づいて判断することができる。高速道路であると判断した場合(ステップS13でYES)、画像処理部30は、撮像画像から先行車領域230を選択するとともに、車両に対する認識精度を高く維持して画像認識の処理を行う(ステップS14)。これにより、処理負荷の抑制を図りながら、先行車が高く維持された認識精度の下で認識されるようになる。そして、こうして認識された先行車が認識対象として通知され(ステップS12)、その後、画像認識処理が終了される。
When it is determined that the predetermined size has not been narrowed down (NO in step S11), the
一方、高速道路ではないと判断した場合(ステップS13でNO)、画像処理部30は、よく通る道であるか否かを判断する(ステップS15)。よく通る道であると判断した場合(ステップS15でYES)、画像処理部30は、撮像画像から歩行者領域210を選択するとともに、歩行者の認識精度を高く維持して画像認識の処理を行う(ステップS16)。よく通る道であるとき歩行者領域210を選択する理由の一つとして、慣れによる注意力低下が挙げられる。
On the other hand, if it is determined that the road is not a highway (NO in step S13), the
また、よく通る道ではないと判断した場合(ステップS15でNO)、画像処理部30は、目的地付近であるか否かを判断する(ステップS17)。目的地付近であると判断した場合(ステップS17でYES)、画像処理部30は、撮像画像から歩行者領域210を選択するとともに、歩行者の認識精度を高く維持して画像認識の処理を行う(ステップS16)。目的地付近であるとき歩行者領域210を選択する理由の一つとして、目的地発見へ集中することによる注意力低下が挙げられる。
If it is determined that the road is not a frequent path (NO in step S15), the
このようにステップS16が実行されることにより、処理負荷の抑制を図りながら、歩行者が高く維持された認識精度の下で認識されるようになる。そして、こうして認識された歩行者が認識対象として通知され(ステップS12)、その後、画像認識処理が終了される。 By executing step S16 in this way, the pedestrian is recognized with high recognition accuracy while suppressing the processing load. And the pedestrian recognized in this way is notified as a recognition target (step S12), and an image recognition process is complete | finished after that.
さらに、目的地付近ではないと判断した場合(ステップS17でNO)、画像処理部30は、交差点の手前であるか否かを判断する(ステップS18)。交差点の手前であると判断した場合(ステップS18でYES)、画像処理部30は、撮像画像から標識領域220を選択するとともに、標識の認識精度を高く維持して画像認識の処理を行う(ステップS19)。これにより、処理負荷の抑制を図りながら、標識が高く維持された認識精度の下で認識されるようになる。そして、こうして認識された標識が認識対象として通知され(ステップS12)、その後、画像認識処理が終了される。
Furthermore, when it is determined that the vehicle is not near the destination (NO in step S17), the
また、交差点の手前ではないと判断した場合(ステップS18でNO)、画像処理部30は、撮像画像から先行車領域230、歩行者領域210、及び、標識領域220を選択するとともに、これら領域について順番に繰り返し(例えばサイクリックに)選択して、選択した領域について順次画像認識処理を行う(ステップS19)。よって、先行車領域230が選択されたとき、車両の認識精度を高く維持して画像認識の処理が行なわれ、歩行者領域210が選択されたとき、歩行者の認識精度を高く維持して画像認識の処理が行なわれ、標識領域220が選択されたとき、標識の認識精度を高く維持して画像認識の処理が行なわれる。この交差点の手前ではないと判断した場合には、交差点3が含まれる。交差点3であるとき3つの領域を選択する理由の一つとして、歩行者、障害物、標識などへの注意力低下が挙げられる。なお、交差点3であるか否かを判断するステップを設けてもよい。
If it is determined that the vehicle is not in front of the intersection (NO in step S18), the
これにより、処理負荷の抑制を図りながら、認識精度が高く維持された状態で、先行車、歩行者及び標識が認識されるようになる。つまり各画像処理に係る処理負荷の抑制が図られる。また、先行車、歩行者及び標識がそれぞれ高い認識精度で認識処理されることから、処理負荷の抑制が図られつつも必要な情報が認識されるようになる。例えば、撮像画像に対する認識処理と等価な認識処理が可能となる。 As a result, the preceding vehicle, the pedestrian, and the sign are recognized in a state where the recognition accuracy is maintained high while suppressing the processing load. That is, the processing load related to each image processing can be suppressed. In addition, since the preceding vehicle, the pedestrian, and the sign are each recognized and processed with high recognition accuracy, necessary information can be recognized while suppressing the processing load. For example, a recognition process equivalent to a recognition process for a captured image can be performed.
そして、こうして認識された先行車、歩行者及び標識が認識対象として通知され(ステップS12)、その後、画像認識処理が終了される。
本実施形態によれば、車両状況に拘わらず、画像処理に係る処理負荷を抑制することのできる画像処理装置を提供することができる。
Then, the preceding vehicle, the pedestrian, and the sign recognized in this way are notified as recognition targets (step S12), and then the image recognition process is terminated.
According to the present embodiment, it is possible to provide an image processing apparatus capable of suppressing the processing load related to image processing regardless of the vehicle situation.
以上説明したように、本実施形態に係る画像処理装置によれば、以下に列記する効果を有する。
(1)撮像画像の一部を、車両10の走行環境や走行状態を含む車両状況に応じて対象領域として選択し、その選択した対象領域について画像処理を行うことで、撮像画像全体を画像処理することに比較して処理負荷の抑制が図られるようになる。また、選択された複数の対象領域のうちの1つを対象領域として切り替えて順次画像処理することにより、画像処理により得られる情報量を維持しつつ、車両状況に拘わらず画像処理の処理負荷を抑制することができる。これにより、例えば、予防安全と標識案内とを行えるようになる。
As described above, the image processing apparatus according to the present embodiment has the effects listed below.
(1) A part of the captured image is selected as a target area according to the vehicle environment including the driving environment and the driving state of the
(2)交差点は、様々な状況が混在するため認識対象を絞り込むことは困難であるから、複数の対象領域の選択によって認識対象の幅を広げることで、交差点の進入においても処理負荷の抑制された画像処理を行いつつも、画像認識の精度を維持することができる。 (2) Since it is difficult to narrow down the recognition targets at the intersection because of various situations, the processing load is suppressed even at the entrance of the intersection by widening the recognition target by selecting a plurality of target areas. The accuracy of image recognition can be maintained while performing image processing.
(その他の実施形態)
なお上記実施形態は、以下の態様で実施することもできる。
・上記実施形態では、車両10には、車載カメラ20、画像処理部30、ナビゲーションシステム70及びGPS装置60が設けられている場合について例示した。しかしこれに限らず、撮像した車両前方の撮像画像の画像認識処理を行って認識結果を運転支援用に出力できるのであれば、車載カメラ、画像処理部、ナビゲーションシステム及びGPS装置はそれらの一部又は全部が一体化していてもよいし、逆に、その一部又は全部がより細く分割されていてもよい。これにより、画像処理装置としての設計自由度の向上が図られるようになる。
(Other embodiments)
In addition, the said embodiment can also be implemented with the following aspects.
In the above embodiment, the case where the
・上記実施形態では、車載ネットワークN1が用いられる場合について例示したが、こうした車載ネットワークN1としては、CAN(コントローラエリアネットワーク)や、LIN、FlexRay(登録商標)、Ethernet(登録商標)などが挙げられる。これにより、画像処理装置の適用範囲の拡大が図られるようになる。 In the above embodiment, the case where the in-vehicle network N1 is used has been illustrated, but examples of the in-vehicle network N1 include CAN (controller area network), LIN, FlexRay (registered trademark), and Ethernet (registered trademark). . As a result, the application range of the image processing apparatus can be expanded.
・上記実施形態では、画像処理部30、車速取得部40及びナビゲーションシステム70が車載ネットワークN1に接続されている場合について例示した。しかしこれに限らず、各装置は必要な情報の授受が可能に構成されるのであれば、車載ネットワークには、その他の装置が接続されてもよい。一方、各装置は必要な情報の授受が可能に接続されるのであれば、接続はネットワークに限られない。また接続経路に無線通信が含まれていてもよい。これにより、画像処理装置の適用範囲の拡大が図られるようになる。
In the above embodiment, the case where the
・上記実施形態では、領域設定部310は、各領域の範囲を設定した撮像画像を画像認識部330へ出力する場合について例示した。しかしこれに限らず、領域設定部は、設定した範囲に対応する画像情報を抽出し、この抽出した画像情報を画像認識部へ出力するようにしてもよい。これにより、画像処理装置としての設計自由度の向上が図られるようになる。
In the above-described embodiment, the region setting unit 310 is exemplified for the case where the captured image in which the range of each region is set is output to the
・上記実施形態では、領域選択部320は、選択する対象領域の情報を画像認識部330へ出力する場合について例示した。しかしこれに限らず、領域選択部は、選択する対象領域を領域設定部に出力し、領域設定部から画像認識部に伝達される画像を選択する対象領域に対応する画像情報としてもよい。これにより、画像処理装置としての設計自由度の向上が図られるようになる。
In the above embodiment, the case where the
・上記実施形態では、車両状況がいずれの条件にも該当しないとき、対象領域として、先行車領域230と、歩行者領域210と、標識領域220とを選択する場合について例示した。しかしこれに限らず、車両状況がいずれの条件にも該当しないとき、対象領域として、先行車領域、歩行者領域及び標識領域の少なくとも2つを選択してもよい。少なくとも2つを選択することにより、一つだけ選択されるような場合に比べて、認識処理によって認識される情報量を多く維持することができるとともに、処理付加の低い処理の組合せであることから全体としての処理負荷も低く抑えられるようになる。これにより、画像処理装置としての適用範囲の拡大が図られるようになる。
-In above-mentioned embodiment, when the vehicle condition did not correspond to any conditions, the case where the preceding vehicle area |
・上記実施形態では、3つの領域に対する処理を順番に繰り返し行う場合について例示した。しかしこれに限らず、3つの領域に対する処理を、任意の順番に切り替えて、切り替えられた領域に対する認識処理を順次行うようにしてもよい。例えば、重要度の高い領域の認識回数が多くなるようにすることができる。よって、歩行者領域、先行車領域、歩行者領域、標識領域との順番を繰り返し行うようにしてもよいし、歩行者領域、先行車領域、標識領域、歩行者領域、先行車領域との順番を繰り返し行うようにしてもよい。また、歩行者領域の認識処理、先行車領域の認識処理及び標識領域の認識処理にそれぞれ周期を設定し、その設定された各周期に応じて各領域の認識処理を行うようにしてもよい。いずれにせよ、認識処理により得られる情報を維持しつつ、認識処理の処理負荷を低く抑えることができるようになる。 In the above embodiment, the case where the processing for the three areas is repeatedly performed in order is illustrated. However, the present invention is not limited to this, and the processing for the three regions may be switched in an arbitrary order, and the recognition processing for the switched regions may be sequentially performed. For example, it is possible to increase the number of times of recognition of a region having high importance. Therefore, the order of the pedestrian area, the preceding vehicle area, the pedestrian area, and the sign area may be repeated, or the order of the pedestrian area, the preceding vehicle area, the sign area, the pedestrian area, and the preceding vehicle area. May be repeated. In addition, a period may be set for each of the recognition process for the pedestrian area, the recognition process for the preceding vehicle area, and the recognition process for the sign area, and the recognition process for each area may be performed according to each set period. In any case, it is possible to keep the processing load of the recognition process low while maintaining the information obtained by the recognition process.
・上記実施形態では、高速道路であるときは先行車領域230が選択され、よく通る道や目的地付近であるときは歩行者領域210が選択され、交差点の手前では標識領域220が選択される場合について例示した。しかしこれに限らず、高速道路であるとき、先行車領域を多く選択しつつも、標識領域や歩行者領域を適宜選択してもよい。また、よく通る道や目的地付近であるとき、歩行者領域を多く選択しつつも、先行車領域や標識領域を適宜選択してもよい。さらに、交差点の手前であるとき、標識領域を多く選択しつつも、先行車領域や歩行者領域を適宜選択してもよい。これにより、画像処理装置の適用範囲の拡大が図られるようになる。
In the above-described embodiment, the preceding
・上記実施形態では、画像処理部30にて画像認識処理が実行される場合について例示した。しかしこれに限らず、画像認識処理が可能であれば、その機能や処理の一部がセンターなど車両以外に設けられてもいてもよい。これにより、画像処理装置としての設計自由度の向上が図られるようになる。
In the above embodiment, the case where the image recognition process is executed by the
・上記実施形態では、画像処理部30がECUである場合について例示した。しかしこれに限らず、画像認識処理は、携帯電話やスマートフォン、タブレットなどの携帯情報処理装置などにより実行されてもよい。こうした携帯情報処理装置を自車に持ち込むことで車両の運転支援に利用することが可能にもなる。これにより、画像処理装置の適用範囲の拡大が図られるようになる。
In the above embodiment, the case where the
・上記実施形態では、車両10は自動車である場合について例示した。しかしこれに限らず、画像処理装置は移動に伴い周囲の状況を監視する必要があれば、ロボット、自転車、又は歩行者用の案内装置などに設けることもできる。これにより、画像処理装置としての適用範囲の拡大が図られるようになる。
-In above-mentioned embodiment, the case where the
N1…車載ネットワーク、10…車両、11a,11b…先行車、12…対向車、20…車載カメラ、30…画像処理部、40…車速取得部、50…速度センサ、60…GPS装置、70…ナビゲーションシステム、100…撮像画像、110,111…信号機、115…標識、120,121…歩行者、125…横断歩道、200…候補領域、201…除外領域、210…歩行者領域、211…上側除外領域、220…標識領域、221…下側除外領域、230…先行車領域、231…除外領域、310…領域設定部、320…領域選択部、330…画像認識部、710…経路案内部、720…履歴管理部。
N1 ... vehicle-mounted network, 10 ... vehicle, 11a, 11b ... preceding vehicle, 12 ... oncoming vehicle, 20 ... vehicle-mounted camera, 30 ... image processing unit, 40 ... vehicle speed acquisition unit, 50 ... speed sensor, 60 ... GPS device, 70 ... Navigation system, 100 ... captured image, 110, 111 ... traffic light, 115 ... sign, 120, 121 ... pedestrian, 125 ... crosswalk, 200 ... candidate area, 201 ... exclusion area, 210 ... pedestrian area, 211 ...
Claims (2)
車両状況に応じて前記撮像画像の一部から画像処理の対象とする対象領域を1又は複数選択する選択部を備え、
前記選択部が複数の対象領域を選択するとき、それら複数の対象領域のうち画像処理の対象とする対象領域を切り替えつつ、該切り替えた対象領域に対する画像処理を順次実行する
ことを特徴とする画像処理装置。 An image processing apparatus that performs image processing on a captured image obtained by imaging a surrounding environment of a vehicle,
A selection unit that selects one or a plurality of target areas to be subjected to image processing from a part of the captured image according to a vehicle situation,
When the selection unit selects a plurality of target areas, the image processing for the switched target areas is sequentially executed while switching the target areas to be subjected to image processing among the plurality of target areas. Processing equipment.
請求項1に記載の画像処理装置。 The image processing apparatus according to claim 1, wherein the selection unit selects a plurality of target areas when the vehicle situation is an approach to an intersection.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014090353A JP2015210584A (en) | 2014-04-24 | 2014-04-24 | Image processing apparatus |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014090353A JP2015210584A (en) | 2014-04-24 | 2014-04-24 | Image processing apparatus |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2015210584A true JP2015210584A (en) | 2015-11-24 |
Family
ID=54612744
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014090353A Pending JP2015210584A (en) | 2014-04-24 | 2014-04-24 | Image processing apparatus |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2015210584A (en) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018107780A (en) * | 2016-12-28 | 2018-07-05 | 株式会社デンソー | Image processing system |
CN110576866A (en) * | 2018-06-08 | 2019-12-17 | 铃木株式会社 | Vehicle driving support device |
CN111038387A (en) * | 2018-10-15 | 2020-04-21 | 三菱重工业株式会社 | Image processing device for vehicle, image processing method, program, and storage medium |
CN111767844A (en) * | 2020-06-29 | 2020-10-13 | 北京百度网讯科技有限公司 | Method and apparatus for three-dimensional modeling |
JP2022102515A (en) * | 2020-12-25 | 2022-07-07 | エヌ・ティ・ティ・コムウェア株式会社 | Object detection apparatus, object detection method, and program |
-
2014
- 2014-04-24 JP JP2014090353A patent/JP2015210584A/en active Pending
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018107780A (en) * | 2016-12-28 | 2018-07-05 | 株式会社デンソー | Image processing system |
CN110576866A (en) * | 2018-06-08 | 2019-12-17 | 铃木株式会社 | Vehicle driving support device |
CN111038387A (en) * | 2018-10-15 | 2020-04-21 | 三菱重工业株式会社 | Image processing device for vehicle, image processing method, program, and storage medium |
US11450029B2 (en) | 2018-10-15 | 2022-09-20 | Mitsubishi Heavy Industries, Ltd. | Vehicle image processing device, vehicle image processing method, program and storage medium |
DE102019007001B4 (en) | 2018-10-15 | 2023-09-28 | Mitsubishi Heavy lndustries, Ltd. | VEHICLE IMAGE PROCESSING DEVICE, VEHICLE IMAGE PROCESSING METHOD, PROGRAM and STORAGE MEDIUM |
CN111767844A (en) * | 2020-06-29 | 2020-10-13 | 北京百度网讯科技有限公司 | Method and apparatus for three-dimensional modeling |
JP2021119466A (en) * | 2020-06-29 | 2021-08-12 | ベイジン バイドゥ ネットコム サイエンス アンド テクノロジー カンパニー リミテッド | Method and device for 3d modeling, electronic apparatus, storage media, and computer program |
JP7192017B2 (en) | 2020-06-29 | 2022-12-19 | ベイジン バイドゥ ネットコム サイエンス テクノロジー カンパニー リミテッド | Method and apparatus, electronic device, storage medium and computer program for three-dimensional modeling |
US11697428B2 (en) | 2020-06-29 | 2023-07-11 | Apollo Intelligent Driving Technology (Beijing) Co., Ltd. | Method and apparatus for 3D modeling |
CN111767844B (en) * | 2020-06-29 | 2023-12-29 | 阿波罗智能技术(北京)有限公司 | Method and apparatus for three-dimensional modeling |
JP2022102515A (en) * | 2020-12-25 | 2022-07-07 | エヌ・ティ・ティ・コムウェア株式会社 | Object detection apparatus, object detection method, and program |
JP7138157B2 (en) | 2020-12-25 | 2022-09-15 | エヌ・ティ・ティ・コムウェア株式会社 | OBJECT DETECTION DEVICE, OBJECT DETECTION METHOD, AND PROGRAM |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10055652B2 (en) | Pedestrian detection and motion prediction with rear-facing camera | |
US11366477B2 (en) | Information processing device, information processing method, and computer readable medium | |
JP6304223B2 (en) | Driving assistance device | |
JP6361618B2 (en) | Driving assistance device | |
US10733879B2 (en) | Roadside device, method of controlling roadside device and non-transitory storage medium | |
WO2016181618A1 (en) | Monitored area setting device and monitored area setting method | |
EP3010004A2 (en) | Vehicle alarm output apparatus | |
JP5898001B2 (en) | Vehicle periphery monitoring device | |
CN110574357B (en) | Imaging control apparatus, method for controlling imaging control apparatus, and moving body | |
JP2015230579A (en) | Accident image acquisition system | |
JP7251120B2 (en) | Information providing system, server, in-vehicle device, program and information providing method | |
JP2018133072A (en) | Information processing apparatus and program | |
KR20210030975A (en) | Driving support method and driving support device | |
JP2012128748A (en) | Vehicle driving support device | |
JP7321277B2 (en) | Driving support device, vehicle control device, driving support system, and driving support method | |
JP2015210584A (en) | Image processing apparatus | |
JP2014067165A (en) | Driving support apparatus | |
JP2017073008A (en) | Vehicle operation support system and operation support method | |
JP2019049812A (en) | Traveling position evaluation system | |
WO2017104209A1 (en) | Driving assistance device | |
JP2017062583A (en) | Danger information notification system, server and computer program | |
JP6221568B2 (en) | Driving assistance device | |
JP2014044458A (en) | On-vehicle device and danger notification method | |
WO2015092974A1 (en) | Oncoming car information generation device | |
JP2020166409A (en) | In-vehicle device, in-vehicle system and surroundings monitoring method |