JP2019028481A - On-vehicle device and driving support apparatus - Google Patents
On-vehicle device and driving support apparatus Download PDFInfo
- Publication number
- JP2019028481A JP2019028481A JP2017143404A JP2017143404A JP2019028481A JP 2019028481 A JP2019028481 A JP 2019028481A JP 2017143404 A JP2017143404 A JP 2017143404A JP 2017143404 A JP2017143404 A JP 2017143404A JP 2019028481 A JP2019028481 A JP 2019028481A
- Authority
- JP
- Japan
- Prior art keywords
- vehicle
- image
- unit
- detection
- state
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Abstract
Description
本発明は、車載カメラが出力する映像信号を入力して処理する画像処理部を有する車載器および運転支援装置に関する。 The present invention relates to a vehicle-mounted device and a driving support device having an image processing unit that inputs and processes a video signal output from a vehicle-mounted camera.
近年の車両においては、車載カメラの撮影により得られる映像信号を入力して処理する画像処理部を有する車載器が搭載される傾向にある。例えば、ドライブレコーダの機能を有する一般的な車載器は、車載カメラの映像信号を入力し、自車両に交通事故などの異常が発生した時に、トリガ信号に従いその前後一定時間内の画像データを自動的に記録することができる。また、運行記録計であるデジタルタコグラフの機能を有する車載器にも、車載カメラの映像信号を入力して処理するものが存在する。 In recent vehicles, an in-vehicle device having an image processing unit for inputting and processing a video signal obtained by photographing with an in-vehicle camera tends to be mounted. For example, a general in-vehicle device that has the function of a drive recorder inputs the video signal of the in-vehicle camera, and when an abnormality such as a traffic accident occurs in the vehicle, the image data within a certain period of time before and after is automatically generated according to the trigger signal. Can be recorded. Some in-vehicle devices having a function of a digital tachograph as an operation recorder input and process a video signal of an in-vehicle camera.
また、例えば特許文献1に示された車両用のナビゲーション装置においては、自位置周辺の画像情報を対象とする画像認識を行うに際して、画像認識処理の認識条件を可変設定することにより、演算処理負荷を軽減しつつ、誤認識を抑制して認識率を高めるための技術を示している。具体的には、自信度に応じて、画像情報に対する各対象地物についての画像認識処理を行う範囲を設定する。
Further, for example, in the vehicle navigation device disclosed in
また、特許文献2においては、車両周辺の情景が撮影された画像を、広域表示と拡大表示との間で切り替えて表示する車両用周辺監視装置を示している。また、撮影された広域撮影データが、表示装置に同じ視野で表示させるための広域表示データと、広域撮影データの中の一部を拡大して表示させるための拡大表示データとに変換可能に構成されることを示している。また、広域表示データが表示されている状態で「前方」のボタンを操作すると、広域撮影データの中の「前方」に相当する領域が拡大表示されることを示している。
ところで、例えばデジタルタコグラフ等の車載器においては、例えば以下に示す(1)〜(3)のような様々な運転支援機能を搭載することが望まれている。
(1)自車両と先行車両との間の車間距離の接近しすぎに対して警報を出力する機能。
(2)自車両が所定の走行レーンの範囲を逸脱する場合に警報を出力する機能。
(3)路面の標示に基づき認識した制限速度に対する自車両の速度超過について警報を出力する機能。
By the way, in vehicle-mounted devices, such as a digital tachograph, for example, it is desired to mount various driving support functions such as (1) to (3) shown below.
(1) A function for outputting an alarm when the inter-vehicle distance between the host vehicle and the preceding vehicle is too close.
(2) A function of outputting an alarm when the host vehicle departs from a predetermined travel lane range.
(3) A function for outputting an alarm about an excessive speed of the host vehicle with respect to the speed limit recognized based on the road surface marking.
上記の(1)〜(3)のような機能を実現する際には、例えば自車両の車載カメラで撮影した自車両前方の情景を表す映像信号を処理して様々なパターン認識を行うことが必要になる。すなわち、映像信号から得られる画像データに基づき、先行車両のパターン、走行レーンの左右境界を表す白線等のパターン、路面に標示されている制限速度の標示パターンなどをそれぞれ認識する必要がある。 When realizing the above functions (1) to (3), for example, a video signal representing a scene in front of the host vehicle photographed by an in-vehicle camera of the host vehicle is processed to perform various pattern recognitions. I need it. That is, based on image data obtained from the video signal, it is necessary to recognize a pattern of a preceding vehicle, a pattern such as a white line representing the left and right boundaries of the traveling lane, a speed limit marking pattern marked on the road surface, and the like.
また、車両に搭載される車載カメラについては、自車両前方を撮影する車載カメラの他に、自車両後方の情景を撮影する車載カメラや、車室内の乗員等を撮影する車載カメラが含まれる場合もある。したがって、車載器においては、複数台の車載カメラがそれぞれ出力する複数の映像信号を同時に処理することが必要になる場合もある。 In addition, the in-vehicle camera mounted on the vehicle includes an in-vehicle camera that captures a scene behind the host vehicle and an in-vehicle camera that captures an occupant in the vehicle interior in addition to the in-vehicle camera that captures the front of the host vehicle. There is also. Therefore, in the vehicle-mounted device, it may be necessary to simultaneously process a plurality of video signals output from a plurality of vehicle-mounted cameras.
しかしながら、自車両の走行等に伴って逐次変化する映像の中から複数のパターンを同時にリアルタイムで認識するためには、高性能の画像処理専用プロセッサや、高性能のマイクロコンピュータのように高価なハードウェアを車載器に搭載しなければならず、装置コストの増大が懸念される。しかし、比較的低コストのハードウェアで上記の機能を実現しようとすると、各パターンの認識処理に遅延が生じるため、安全運転を支援するための各種警報をリアルタイムで出力することが困難になる。 However, in order to simultaneously recognize in real time a plurality of patterns from images that change sequentially as the host vehicle travels, an expensive hardware such as a high-performance image processing dedicated processor or a high-performance microcomputer is required. Wear must be mounted on the vehicle-mounted device, and there is a concern about an increase in device cost. However, if the above functions are realized with relatively low-cost hardware, a delay occurs in the recognition processing of each pattern, and it becomes difficult to output various alarms for supporting safe driving in real time.
そこで、例えば特許文献1および特許文献2に示されているように、画像の中で画像処理の対象とする範囲を予め限定することが想定される。範囲を限定することにより、画像処理の負荷が軽減されるので、比較的低コストのハードウェアを利用する場合であっても、認識処理の遅延をある程度抑制できる。
Therefore, for example, as shown in
しかし、上記の(1)〜(3)のような複数の機能を同時に実現しようとすると、同じ映像フレーム中の互いに異なる領域に映る複数の認識対象を同時に認識しなければならず、認識対象の範囲を狭くすることができない。その結果、認識対象の範囲のデータ量が増え、認識処理の遅延が増大する。また、複数の車載カメラの映像をそれぞれ処理する場合にも、認識対象物が映像フレーム中の様々な箇所に存在する可能性を考慮すると、対象の範囲を広げる必要がある。 However, if a plurality of functions such as the above (1) to (3) are to be realized at the same time, a plurality of recognition objects appearing in different regions in the same video frame must be recognized simultaneously. The range cannot be narrowed. As a result, the amount of data in the recognition target range increases and the delay of the recognition process increases. Also, when processing images from a plurality of in-vehicle cameras, it is necessary to widen the range of the target in consideration of the possibility that the recognition target object exists at various locations in the video frame.
また、自車両が前進、停車、後退のいずれの状態であるかに応じて、映像フレーム中の注目すべき重要な領域が互いに異なるので、どの状態でも重要な領域を認識可能にするためには、認識対象の範囲の制限を緩和しなければならない。したがって、認識対象の範囲のデータ量が増え、認識処理の遅延が増大する。 Also, depending on whether the vehicle is moving forward, stopping, or moving backward, the important areas to be noticed in the video frame are different from each other, so that the important areas can be recognized in any state. , The restriction of the scope of recognition must be relaxed. Accordingly, the amount of data in the recognition target range increases, and the recognition processing delay increases.
本発明は、上述した事情に鑑みてなされたものであり、その目的は、自車両の前進、停車、後退等の複数の状態のいずれにおいても重要な領域の認識を可能にすると共に、画像処理の負荷の低減が可能な車載器および運転支援装置を提供することにある。 The present invention has been made in view of the above-described circumstances, and an object of the present invention is to enable recognition of an important region in any of a plurality of states such as forward movement, stoppage, and backward movement of the host vehicle, and image processing. It is in providing the onboard equipment and the driving assistance device which can reduce the load of the vehicle.
前述した目的を達成するために、本発明に係る車載器および運転支援装置は、下記(1)〜(5)を特徴としている。
(1) 車両に搭載された1つ以上の車載カメラが出力する映像信号を入力して処理する画像処理部と、
前記車両における走行の有無および進行方向の少なくとも一方の状態を検知する車両状態検知部と、
前記画像処理部が処理する前記映像信号内の領域を動的に決定する画像領域決定部と、
を有し、
前記画像領域決定部は、前記車両状態検知部の検知状態を反映して、前記領域を自動的に変更する、
ことを特徴とする車載器。
In order to achieve the above-described object, the vehicle-mounted device and the driving support device according to the present invention are characterized by the following (1) to (5).
(1) An image processing unit that inputs and processes video signals output from one or more in-vehicle cameras mounted on a vehicle;
A vehicle state detector for detecting the presence or absence of travel in the vehicle and at least one state of the traveling direction;
An image region determination unit that dynamically determines a region in the video signal to be processed by the image processing unit;
Have
The image area determination unit automatically changes the area to reflect the detection state of the vehicle state detection unit.
In-vehicle device characterized by that.
上記(1)の構成の車載器によれば、車両状態検知部の検知状態に応じて、画像処理部が処理する映像信号内の領域を動的に決定することができる。したがって、例えば、自車両の前進、停車、後退等の複数の状態のいずれにおいても重要な領域の認識を可能とし、且つ処理対象のデータ量が削減されるように領域を最適化して、処理の負荷を低減できる。 According to the vehicle-mounted device having the configuration (1), it is possible to dynamically determine a region in the video signal processed by the image processing unit in accordance with the detection state of the vehicle state detection unit. Therefore, for example, it is possible to recognize an important area in any of a plurality of states such as forward, stop, and reverse of the host vehicle and optimize the area so that the amount of data to be processed is reduced. The load can be reduced.
(2) 前記画像領域決定部は、
前記映像信号内に事前に割り当てた複数の二次元領域の各々の位置および大きさを表す定数データを保持する定数保持部を有し、
前記複数の二次元領域の中から、前記車両状態検知部の検知状態に応じて選択した1つ以上の二次元領域を、前記画像処理部が処理する前記映像信号内の領域として割り当てる、
ことを特徴とする上記(1)に記載の車載器。
(2) The image area determination unit
A constant holding unit for holding constant data representing the position and size of each of a plurality of two-dimensional areas allocated in advance in the video signal;
One or more two-dimensional regions selected according to the detection state of the vehicle state detection unit from among the plurality of two-dimensional regions are allocated as regions in the video signal processed by the image processing unit.
The vehicle-mounted device according to (1) above, wherein
上記(2)の構成の車載器によれば、画像領域決定部は、定数保持部が保持している定数データに基づいて、画像処理部が処理する領域の適切な位置および大きさを容易に決定できる。 According to the vehicle-mounted device having the configuration (2), the image area determination unit can easily determine the appropriate position and size of the area processed by the image processing unit based on the constant data held by the constant holding unit. Can be determined.
(3) 前記画像領域決定部は、前記車両状態検知部の検知状態に応じて、前記複数の二次元領域の中から選択する二次元領域の数およびその組み合わせを自動的に決定する、
ことを特徴とする上記(2)に記載の車載器。
(3) The image area determination unit automatically determines the number of two-dimensional areas to be selected from the plurality of two-dimensional areas and a combination thereof according to the detection state of the vehicle state detection unit.
The vehicle-mounted device according to (2) above, wherein
上記(3)の構成の車載器によれば、例えば、自車両の前進、停車、後退等の複数の状態のそれぞれについて、同時に複数の二次元領域を割り当てることができ、二次元領域の数およびその組み合わせを最適化することもできる。また、映像フレーム中で注目すべき複数の重要な箇所が互いに離れた位置に分散している場合であっても、同時に複数の二次元領域を割り当てることにより、各々の二次元領域のサイズを削減し、画像処理部が処理するデータ量を大幅に削減できる。 According to the vehicle-mounted device having the configuration of the above (3), for example, a plurality of two-dimensional regions can be assigned simultaneously for each of a plurality of states such as forward, stop, and reverse of the host vehicle. The combination can also be optimized. In addition, even when multiple important points of interest in a video frame are dispersed at positions that are separated from each other, the size of each two-dimensional area is reduced by assigning multiple two-dimensional areas at the same time. In addition, the amount of data processed by the image processing unit can be greatly reduced.
(4) 前記画像領域決定部は、前記車両状態検知部の検知状態に基づいて、前記車両の前進、後退、および停止のいずれかの状態を認識し、認識した前記車両の状態に応じて前記領域を自動的に変更する、
ことを特徴とする上記(1)乃至(3)のいずれかに記載の車載器。
(4) The image area determination unit recognizes one of the forward, backward, and stop states of the vehicle based on the detection state of the vehicle state detection unit, and determines the state according to the recognized vehicle state. Change the area automatically,
The on-vehicle device according to any one of (1) to (3) above,
上記(4)の構成の車載器によれば、車両の前進、後退、および停止のいずれかの状態を認識できるので、状態に応じた適切な領域を画像処理部の処理対象として割り当てることができる。すなわち、車両の前進、後退、および停止のいずれの状態においても、映像フレーム中の注目すべき重要な領域のみを処理対象にし、データ量が削減されるように領域を最適化することができる。 According to the vehicle-mounted device having the configuration (4), since any one of the forward, backward, and stopped states of the vehicle can be recognized, an appropriate area corresponding to the state can be assigned as a processing target of the image processing unit. . That is, regardless of whether the vehicle is moving forward, backward, or stopped, it is possible to optimize only the important region of interest in the video frame to be processed and to reduce the amount of data.
(5) 上記(1)乃至(4)のいずれかに記載の車載器と、
前記画像処理部が前記映像信号の中から認識した結果と、事前に定めた判定基準とに基づいて、前記車両の安全運転を支援する警報を生成する警報生成部と、
を備えたことを特徴とする運転支援装置。
(5) The vehicle-mounted device according to any one of (1) to (4) above,
An alarm generating unit that generates an alarm for supporting safe driving of the vehicle based on a result recognized by the image processing unit from the video signal and a predetermined criterion;
A driving support apparatus comprising:
上記(5)の構成の運転支援装置によれば、車両状態検知部の検知状態に応じて、画像処理部が処理する映像信号内の領域を動的に決定できる。したがって、入力された映像フレームから同時に複数の移動物体を認識し、複数種類の警報を出力する機能を実現する場合であっても、処理対象のデータ量を削減し、警報の遅延を抑制できる。 According to the driving support device having the configuration of (5) above, it is possible to dynamically determine the region in the video signal processed by the image processing unit in accordance with the detection state of the vehicle state detection unit. Therefore, even when realizing a function of simultaneously recognizing a plurality of moving objects from an input video frame and outputting a plurality of types of alarms, the amount of data to be processed can be reduced and alarm delays can be suppressed.
本発明の車載器および運転支援装置によれば、自車両の前進、停車、後退等の複数の状態のいずれにおいても重要な領域の認識を可能にすると共に、画像処理の負荷の低減が可能になる。 According to the vehicle-mounted device and the driving support device of the present invention, it is possible to recognize an important region in any of a plurality of states such as forward, stop, and reverse of the host vehicle, and to reduce a load of image processing. Become.
以上、本発明について簡潔に説明した。更に、以下に説明される発明を実施するための形態(以下、「実施形態」という。)を添付の図面を参照して通読することにより、本発明の詳細は更に明確化されるであろう。 The present invention has been briefly described above. Further, the details of the present invention will be further clarified by reading through a mode for carrying out the invention described below (hereinafter referred to as “embodiment”) with reference to the accompanying drawings. .
本発明に関する具体的な実施形態について、各図を参照しながら以下に説明する。 Specific embodiments relating to the present invention will be described below with reference to the drawings.
<システムの構成および動作の概要>
本発明の実施の形態における運行管理システム5の構成例を図1に示す。
図1に示した運行管理システム5は、トラック運送会社やバス会社等の事業者の設備として導入される。この運行管理システム5は、トラックやバス等の各車両の運行状況を管理するものであり、各車両に車載器として搭載された運行記録装置(以下、デジタルタコグラフという)10と、各事業者の事務所等に設置される事務所PC30とで構成されている。デジタルタコグラフ10と、事務所PC30との間は、ネットワーク70を介して通信できるように接続される。
<Outline of system configuration and operation>
A configuration example of the
The
事務所PC30は、事務所に設置された汎用のコンピュータ装置で構成され、車両の運行状況を管理する。ネットワーク70は、デジタルタコグラフ10と広域通信を行う無線基地局8や事務所PC30が接続されるインターネット等のパケット通信網であり、デジタルタコグラフ10と事務所PC30と間で行われるデータ通信を中継する。デジタルタコグラフ10と無線基地局8との間の通信は、LTE(Long Term Evolution)/4G(4th Generation)等のモバイル通信網(携帯回線網)で行われてもよいし、無線LAN(Local Area Network)で行われてもよい。
The
デジタルタコグラフ10は、車両に搭載され、出入庫時刻、走行距離、走行時間、走行速度、速度オーバー、エンジン回転数オーバー、急発進、急加速、急減速等の運行データを記録する。また、本実施形態のデジタルタコグラフ10は、それ以外に後述する運転支援機能を搭載している。
The
図1に示したデジタルタコグラフ10は、ハードウェアとして、CPU(マイクロコンピュータ)11、速度I/F(インタフェース)12A、エンジン回転I/F12B、外部入力I/F13、センサ入力I/F14、GPS受信部15、カメラI/F16、不揮発メモリ26A、揮発メモリ26B、記録部17、カードI/F18、音声I/F19、RTC(時計IC)21、SW入力部22、通信部24、表示部27、およびアナログ入力I/F29を内蔵している。
The
CPU11は、予め組み込まれたプログラムに従い、デジタルタコグラフ10の各部を統括的に制御する。不揮発メモリ26Aは、CPU11によって実行される動作プログラムや、CPU11が参照する定数データやテーブルなどを予め保持している。不揮発メモリ26Aは、データの書き換えが可能なメモリであり、保持しているデータは必要に応じて更新できる。
The
記録部17は、運行データや映像等のデータを記録する。カードI/F18には、乗務員が所持するメモリカード65が挿抜自在に接続される。CPU11は、カードI/F18に接続されたメモリカード65に対し運行データ、映像等のデータを書き込む。音声I/F19には、内蔵のスピーカ20が接続される。スピーカ20は、警報等の音声を発する。
The
RTC21(計時部)は、現在時刻を計時する。SW入力部22には、出庫ボタン、入庫ボタン等の各種ボタンのON/OFF信号が入力される。表示部27は、LCD(liquid crystal display)で構成され、通信や動作の状態の他、警報等を表示する。
The RTC 21 (timer) keeps the current time. The
速度I/F12Aには、車両の速度を検出する車速センサ51が接続され、車速センサ51からの速度パルスが入力される。車速センサ51は、デジタルタコグラフ10にオプションとして設けられてもよいし、デジタルタコグラフ10とは別の装置として設けられてもよい。エンジン回転I/F12Bには、エンジン回転数センサ(図示せず)からの回転パルスが入力される。
A
外部入力I/F13の入力には、車両のブレーキのオンオフを表すブレーキ信号や、自動変速機の変速状態(前進/後退の区別を含む)を表す変速信号が、外部機器(図示せず)から印加される。
As an input to the external input I /
センサ入力I/F14には、加速度(G値)を検知する(衝撃を感知する)加速度センサ(Gセンサ)28が接続され、Gセンサ28からの信号が入力される。Gセンサとしては、加速度による機械的な変位を、振動として読み取る方式や光学的に読み取る方式を有するものが挙げられるが、特に限定されない。また、Gセンサは、車両前方からの衝撃を感知する(減速Gを検知する)他、左右方向からの衝撃を感知しても(横Gを検知しても)よいし、車両後方からの衝撃を感知しても(加速Gを検知しても)よい。Gセンサは、これらの加速度を検知可能なように、1つもしくは複数のセンサで構成される。
The sensor input I /
アナログ入力I/F29には、エンジン温度(冷却水温)を検知する温度センサ(図示せず)、燃料量を検知する燃料量センサ(図示せず)等の信号が入力される。CPU11は、これらのI/Fを介して入力される情報を基に、各種の運転状態を検出する。
Signals such as a temperature sensor (not shown) for detecting the engine temperature (cooling water temperature) and a fuel amount sensor (not shown) for detecting the fuel amount are input to the analog input I /
GPS受信部15は、GPSアンテナ15aに接続され、GPS(Global Positioning System)衛星から送信される信号の電波を受信し、現在位置(GPS位置情報)の情報を計算して取得する。
The
カメラI/F16の入力には、複数の車載カメラ23、23Bが接続されている。本実施形態では、一方の車載カメラ23は自車両の進行方向前方の道路等の情景を撮影できる向きで固定した状態で車室内に設置されている。したがって、車載カメラ23が撮影する映像の中には、自車両の前方に存在する先行車両、走行中の走行レーン境界を表す白線、路面上の交通規制の標示(制限速度など)が現れる。また、他方の車載カメラ23は、自車両の後方の道路等の情景を撮影できる向きで固定した状態で車室内に設置されている。
A plurality of in-
車載カメラ23、23Bは、例えば魚眼レンズを通して撮像される撮像面に例えば30万画素、100万画素、200万画素が配置されたイメージセンサを有する。イメージセンサは、CMOS(相補性金属酸化膜半導体)センサやCCD(電荷結合素子)センサなど公知のセンサで構成されている。
The in-
車載カメラ23、23Bがそれぞれ出力する映像の信号は、カメラI/F16の内部回路によって画素毎の階調や色を表すデジタル信号に変換され、フレーム毎の画像データとしてカメラI/F16から出力される。
The video signals output from the in-
各車載カメラ23、23Bで撮影された映像(画像データ)は、記録部17の動作により時系列データとして記録されるが、所定時間分だけ記録されるように繰り返し上書きされる。この所定時間は、例えば事故発生時、事故の状況が分かるように、事故発生前後の数秒間(例えば、2秒、4秒、10秒等)に相当する時間である。カメラ23で撮像される画像は、静止画でもよいし動画であってもよい。事故発生前後の映像は、事務所PC30の表示部33に表示される。
The video (image data) taken by each of the in-
また、本実施形態のデジタルタコグラフ10は、例えば以下に示す(1)〜(4)のような運転支援機能を搭載している。
(1)自車両と先行車両との車間距離が近すぎる場合に警報を出力する機能。
(2)自車両が走行中の走行レーンの範囲を逸脱した場合に警報を出力する機能。
(3)自車両の走行速度が路面標示の制限速度を超えた場合に速度超過の警報を出力する機能。
(4)自車両の後退時などの状況において周囲の障害物等の存在を運転者に知らせる機能。
Moreover, the
(1) A function for outputting an alarm when the distance between the host vehicle and the preceding vehicle is too close.
(2) A function of outputting an alarm when the vehicle deviates from the range of the traveling lane in which the host vehicle is traveling.
(3) A function of outputting an overspeed warning when the traveling speed of the host vehicle exceeds the speed limit of the road marking.
(4) A function that informs the driver of the presence of surrounding obstacles in situations such as when the host vehicle is moving backward.
上記(1)〜(4)の各機能を実現するためには、各車載カメラ23、23Bで撮影された映像の画像データを処理して、所定の画像認識を行う必要がある。すなわち、画像認識により先行車両の位置及び距離を特定したり、走行レーン境界の白線と自車両との相対位置を検出したり、路面標示の制限速度を検出したり、様々な障害物を検出することが必要になる。
In order to realize the functions (1) to (4) described above, it is necessary to perform predetermined image recognition by processing image data of videos taken by the in-
上記のような画像認識は、CPU11が組み込まれたプログラムに従って所定の認識アルゴリズムを実行することにより実現できる。しかし、処理対象の画像のデータ量が多い場合には、画像認識に要するCPU11の負荷が非常に大きくなるので、リアルタイムでの処理が困難になり、検出の遅延が発生する可能性がある。特に、複数の車載カメラ23、23Bの映像を同時に処理したり、複数の認識対象を同時に検出するような場合には、遅延の発生が懸念される。そこで、本実施形態においては、画像認識を実行する際に、後述するように検知枠を設けて処理対象のデータ範囲を限定すると共に、車両の状態に応じて特別な処理を実施する。
Image recognition as described above can be realized by executing a predetermined recognition algorithm according to a program in which the
通信部24は、広域通信を行い、携帯回線網(モバイル通信網)を介して無線基地局8に接続されると、無線基地局8と繋がるインターネット等のネットワーク70を介して、事務所PC30と通信を行う。電源部25は、イグニッションスイッチのオン等によりデジタルタコグラフ10の各部に電力を供給する。
When the
一方、事務所PC30は、汎用のオペレーティングシステムで動作するPC(パーソナルコンピュータ)により構成されている。事務所PC30は、運行管理装置として機能し、CPU31、通信部32、表示部33、記憶部34、カードI/F35、操作部36、出力部37、音声I/F38及び外部I/F48を有する。
On the other hand, the
CPU31は、事務所PC30の各部を統括的に制御する。通信部32は、ネットワーク70を介してデジタルタコグラフ10と通信可能である。また、通信部32は、ネットワーク70に接続された各種のデータベース(図示せず)とも接続可能であり、必要なデータを取得可能である。
The
表示部33は、運行管理画面の他、事故映像やハザードマップ等を表示する。記憶部34は、デジタルタコグラフ10から受信した映像を表示したり車両の位置情報を地図上に表示するためのシステム解析ソフトウェア等、各種プログラムを保持している。
In addition to the operation management screen, the
カードI/F35には、メモリカード65が挿抜自在に装着される。カードI/F35は、デジタルタコグラフ10によって計測され、メモリカード65に記憶された運行データを入力する。操作部36は、キーボードやマウス等を有し、事務所の管理者の操作を受け付ける。出力部37は、各種データを出力する。音声I/F38には、マイク41及びスピーカ42が接続される。事務所の管理者は、マイク41及びスピーカ42を用いて音声通話を行うことも可能であり、車両の事故が発生した場合、救急や警察等への連絡を行う。
A
外部I/F48には、外部記憶装置(ストレージメモリ)54が接続される。外部記憶装置54は、事故地点データベース(DB)55、運行データDB56、ハザードマップDB57を保持する。事故地点データベース(DB)55には、デジタルタコグラフ10から送信される、事故発生時の車両のGPS位置情報(緯度,経度)が登録される。運行データDB56には、運行データとして、出入庫時刻、速度、走行距離等の他、急加減速、急ハンドル、速度オーバー、エンジン回転数オーバー等が記録される。ハザードマップDB57には、過去に事故が発生した地点(事故地点)を表すマークが地図に重畳して記述された地図データが登録される。なお、このハザードマップには、天災等の災害が想定される地域や避難場所等が記述されてもよい。
An external storage device (storage memory) 54 is connected to the external I /
CPU31は、ハザードマップDB57から指定された地域(例えば、事故地点を含む地域)のハザードマップを読み出して表示部33に表示する際、事故地点DB55に登録された事故地点のデータを取得し、ハザードマップ上にこれらの事故地点を表すマークを重畳し、新たなハザードマップを生成する。事務所の管理者は、最新の事故地点を地図(ハザードマップ)上で即座に視認できる。
When the
<運転支援機能の詳細>
運転支援機能を実現するためのデジタルタコグラフ10の動作例を図2に示す。図2に示した動作は、デジタルタコグラフ10内のCPU11により短い時間周期で繰り返し実行される。
<Details of driving support function>
An example of the operation of the
ステップS21では、各車載カメラ23、23Bの撮影した映像に相当する各フレームの画像データに対して所定の画像認識処理をCPU11が実行する。但し、処理対象のデータは、各画像フレームの中で事前に定めた各検知枠の範囲内のみに限定する。各検知枠の範囲は、例えば検知枠テーブルT2Aを参照することにより特定できる。検知枠テーブルT2Aについては後で説明する。
In step S21, the
ステップS22では、CPU11がS21の認識結果を利用して、車間距離検出処理を実行する。すなわち、画像フレーム内で検出した先行車両の位置と、自車両との位置関係を把握し、画像上の距離と各カメラの撮影条件とに基づいて車間距離を算出する。更に、算出した車間距離を事前に定めた閾値と比較し、車間距離が近すぎる場合に車間距離の警報を出力する。
In step S22, the
ステップS23では、CPU11がS21の認識結果を利用して、レーン逸脱検出処理を実行する。すなわち、画像フレーム内で検出した走行レーン境界の白線の位置と、自車両の位置との左右方向の位置関係や距離を算出し、その結果を事前に定めた判定条件と比較することにより、車線逸脱の有無を識別する。そして、車線逸脱ありの場合は車線逸脱の警報を出力する。
In step S23, the
ステップS24では、CPU11がS21の認識結果を利用して、速度超過検出処理を実行する。すなわち、路面上の制限速度標示に基づき認識した制限速度と、自車両の現在の走行速度とを比較して速度超過の有無を識別する。そして、速度超過ありの場合は速度超過の警報を出力する。
In step S24, the
ステップS25では、CPU11がS21の認識結果を利用して、上記以外の検出処理を実行する。例えば、様々な障害物の有無、移動する物体の有無、道路上の各種境界位置などを検出する。そして、障害物や移動する物体への接近を検知した場合や、境界位置に自車両が接近したような場合に警報を出力する。
In step S25, the
<画像フレームと検知枠との関係>
互いに異なる車両の状態で得られる各画像フレーム100A、100B、100Cとその中に割り当てられる各検知枠との関係の具体例を図3(a)、図3(b)、および図3(c)にそれぞれ示す。
<Relationship between image frame and detection frame>
Specific examples of the relationship between the image frames 100A, 100B, and 100C obtained in different vehicle states and the detection frames allocated therein are shown in FIGS. 3A, 3B, and 3C. Respectively.
車載カメラ23、23Bの撮影により得られる画像データをCPU11が画像認識する際に、画像のデータ量が多いとCPU11の処理の負荷が大きくなり、リアルタイムでの処理が困難になり、遅延が発生する。そこで、CPU11の処理の負荷を減らすために、処理対象のデータ量を削減する。具体的には、処理対象のデータの範囲を定める検知枠を設ける。
When the
また、特に後方を撮影する車載カメラ23Bの画像を処理する場合には、車両の状態が「後退」、「停車」、「前進」のいずれであるかに応じて、最適化するように検知枠の総数、各検知枠の位置、各検知枠の大きさなどを変更する。すなわち、車両の状態が「後退」、「停車」、「前進」のいずれであるかに応じて、画像フレーム中で注目すべき重要な箇所がそれぞれ異なるので、車両の状態に合わせて変更することにより各検知枠を最小化することが可能であり、処理対象のデータ量を効果的に削減できる。
In particular, when processing the image of the in-
図3(a)、図3(b)、および図3(c)は、それぞれ「後退」、「停車」、および「前進」の状態における各画像フレーム100A、100B、100Cとその中に割り当てられる各検知枠との関係との具体例を示している。
3 (a), 3 (b), and 3 (c) are assigned to each
図3(a)に示した画像フレーム100Aにおいては、このフレーム内の互いに異なる位置に、7つの互いに独立した矩形の検知枠F11、F12、F13、F14、F15、F16、F17が割り当ててある。また、図3(b)に示した画像フレーム100Bにおいては、このフレーム内の互いに異なる位置に、5つの互いに独立した矩形の検知枠F21、F22、F23、F24、F25が割り当ててある。また、図3(c)に示した画像フレーム100Cにおいては、このフレーム内の互いに異なる位置に、2つの互いに独立した矩形の検知枠F31、F32が割り当ててある。
In the
すなわち、自車両が後退する場合には、図3(a)に示した各検知枠F11〜F17のように、後方の映像における様々な箇所、つまり自車両後方周辺と進行方向先にそれぞれ注目することにより、後退時における安全を十分に確保できる。また、自車両が停車している時には、図3(b)に示した各検知枠F21〜F25のように、後方の映像における近距離の自車両周辺にそれぞれ注目することにより、自車両が停車状態から動き始める際の安全を十分に確保できる。また、自車両が前進している時には、図3(c)に示した検知枠F31、F32のように、後方の映像における近距離の左右脇のみに注目するだけで、後方側の安全を十分に確保できる。 That is, when the host vehicle moves backward, as in the detection frames F11 to F17 shown in FIG. 3A, attention is paid to various points in the rear image, that is, the rear periphery of the host vehicle and the destination in the traveling direction. Therefore, sufficient safety can be ensured during retreat. When the host vehicle is stopped, as shown in the detection frames F21 to F25 shown in FIG. 3B, the host vehicle stops by paying attention to the vicinity of the host vehicle at a short distance in the rear image. Sufficient safety can be secured when starting to move from the state. Further, when the host vehicle is moving forward, it is necessary to pay attention to only the right and left sides at a short distance in the rear image as in the detection frames F31 and F32 shown in FIG. Can be secured.
一方、自車両が前進している時には、車載カメラ23Bが撮影した後方の映像と同時に、車載カメラ23が撮影した前方の映像を認識することが不可欠であり、CPU11の処理の負荷が大きくなる。ここで、前方の映像と後方の映像を同時に処理すると、更にCPU11の負荷が増大する。しかし、後方の映像の中で画像処理の対象範囲を図3(c)に示した検知枠F31、F32のみに限定することにより、処理対象のデータ量が減り、負荷の増大を抑制できる。
On the other hand, when the host vehicle is moving forward, it is indispensable to recognize the front image captured by the in-
<車両の状態に応じた検知枠の自動切替>
車両の状態に応じて使用する検知枠を自動的に決定するためのデジタルタコグラフ10の動作例を図4に示す。すなわち、デジタルタコグラフ10のCPU11が図4に示した動作を実行することにより、例えば図3(a)、図3(b)、および図3(c)に示したような検知枠の自動切替が実現する。図4の動作について以下に説明する。
<Automatic detection frame switching according to vehicle conditions>
FIG. 4 shows an operation example of the
ステップS11では、CPU11は、自車両の前進/後退を識別する。例えば、自車両の自動変速機から得られる変速信号の状態を参照することにより、自車両が前進、後退のいずれの状態であるのかを区別できる。
In step S11, the
ステップS12では、CPU11は、自車両が停車しているか否かを識別する。例えば、自車両の現在の走行速度の情報と、ブレーキ信号の状態とに基づいて停車の有無を区別できる。
In step S12, the
ステップS13では、CPU11は、S11、S12の結果に基づき、自車両が「後退」、「停車」、「前進」のいずれの状態であるのかを区別する。そして、「後退」の場合はS13からS14に進み、「停車」の場合はS13からS15に進み、「前進」の場合はS13からS16に進む。
In step S13, the
ステップS14では、CPU11は、後退時の検知枠組合せを表す定数データを車両状態テーブルT1、および検知枠テーブルT2から取得する。車両状態テーブルT1、および検知枠テーブルT2については後で説明する。
In step S14, the
ステップS15では、CPU11は、停車時の検知枠組合せを表す定数データを車両状態テーブルT1、および検知枠テーブルT2から取得する。また、ステップS16では、CPU11は、前進時の検知枠組合せを表す定数データを車両状態テーブルT1、および検知枠テーブルT2から取得する。
In step S15, CPU11 acquires the constant data showing the detection frame combination at the time of a stop from vehicle state table T1 and detection frame table T2. In step S16, the
ステップS17では、CPU11は、S14、S15、S16のいずれかで取得した検知枠組合せの定数データを、検知枠テーブルT2Aに書き込む。この検知枠テーブルT2Aの内容が、図2に示したステップS21の処理で使用する検知枠に反映される。なお、検知枠テーブルT2Aを省略し、検知枠テーブルT2の中の一部分をS21の処理で選択的に使用するように変更してもよい。
In step S17, the
<テーブルT1、T2の構成例>
デジタルタコグラフが参照する車両状態テーブルT1の構成例を図5に示す。また、デジタルタコグラフが参照する検知枠テーブルT2の構成例を図6に示す。
<Configuration example of tables T1 and T2>
A configuration example of the vehicle state table T1 referred to by the digital tachograph is shown in FIG. Further, FIG. 6 shows a configuration example of the detection frame table T2 referred to by the digital tachograph.
図5に示した車両状態テーブルT1は、「後退」、「停車」、「前進」のそれぞれの状態と、検知枠数N1と、検知枠先頭の番号N2との関係を表す定数データを保持している。図5の車両状態テーブルT1においては、図3(a)に示した例と同じように後退時の検知枠数N1が「7」になっている。また、図3(b)に示した例と同じように、停車時の検知枠数N1が「5」になっている。また、図3(c)に示した例と同じように、前進時の検知枠数N1が「2」になっている。 The vehicle state table T1 shown in FIG. 5 holds constant data representing the relationship between the states of “reverse”, “stop”, and “forward”, the number of detection frames N1, and the number N2 at the start of the detection frame. ing. In the vehicle state table T1 of FIG. 5, the number N1 of detection frames at the time of reverse movement is “7” as in the example shown in FIG. Further, as in the example shown in FIG. 3B, the number of detection frames N1 when the vehicle is stopped is “5”. Further, as in the example shown in FIG. 3C, the number N1 of detection frames during forward movement is “2”.
図6に示した検知枠テーブルT2は、多数の検知枠のそれぞれについて、番号N3、基準位置P、検知枠サイズSの関係を表す定数データを保持している。この検知枠テーブルT2においては、例えば、番号N3が「1」の検知枠は、基準位置PがP1であり、X軸方向のサイズがSx1、Y軸方向のサイズがSy1であることを表す定数データが割り当ててある。 The detection frame table T2 shown in FIG. 6 holds constant data representing the relationship among the number N3, the reference position P, and the detection frame size S for each of a large number of detection frames. In this detection frame table T2, for example, a detection frame with the number N3 “1” is a constant indicating that the reference position P is P1, the size in the X-axis direction is Sx1, and the size in the Y-axis direction is Sy1. Data is allocated.
例えば、図5に示した車両状態テーブルT1における検知枠先頭の番号N21が「1」の場合には、検知枠テーブルT2における番号N3が「1」〜「7」の範囲内の定数データが、後退時の検知枠の組合せとして図4のS14で選択される。したがって、図3(a)に示した7つの検知枠F11〜F17の各々のフレーム内の位置および縦/横の各サイズをそれぞれ特定できる。 For example, when the number N21 at the top of the detection frame in the vehicle state table T1 shown in FIG. 5 is “1”, the constant data within the range where the number N3 in the detection frame table T2 is “1” to “7” The combination of the detection frames at the time of reverse is selected in S14 of FIG. Therefore, it is possible to specify the position in the frame and the vertical / horizontal sizes of each of the seven detection frames F11 to F17 shown in FIG.
また、図5に示した車両状態テーブルT1における検知枠先頭の番号N22が「8」の場合には、検知枠テーブルT2における番号N3が「8」〜「12」の範囲内の定数データが、停車時の検知枠の組合せとして図4のS15で選択される。したがって、図3(b)に示した5つの検知枠F21〜F25の各々のフレーム内の位置および縦/横の各サイズをそれぞれ特定できる。 Further, when the number N22 at the top of the detection frame in the vehicle state table T1 shown in FIG. 5 is “8”, the constant data within the range where the number N3 in the detection frame table T2 is “8” to “12” The combination of detection frames when the vehicle is stopped is selected in S15 of FIG. Therefore, it is possible to specify the position and the vertical / horizontal sizes in each of the five detection frames F21 to F25 shown in FIG.
また、図5に示した車両状態テーブルT1における検知枠先頭の番号N23が「13」の場合には、検知枠テーブルT2における番号N3が「13」〜「14」の範囲内の定数データが、前進時の検知枠の組合せとして図4のS16で選択される。したがって、図3(c)に示した2つの検知枠F31〜F32の各々のフレーム内の位置および縦/横の各サイズをそれぞれ特定できる。 Further, when the number N23 at the top of the detection frame in the vehicle state table T1 shown in FIG. 5 is “13”, the constant data within the range where the number N3 in the detection frame table T2 is “13” to “14” The combination of detection frames at the time of forward movement is selected in S16 of FIG. Therefore, it is possible to specify the position and the vertical / horizontal size in each of the two detection frames F31 to F32 shown in FIG.
検知枠テーブルT2の中からS14、S15、S16のいずれかで抽出した一部のデータが検知枠テーブルT2Aに書き込まれ、この検知枠テーブルT2Aの内容が図2のステップS21の処理に反映される。したがって、自車両の状態が「後退」、「停車」、「前進」のいずれであるかに応じて、図3(a)、図3(b)、図3(c)に示したように実際に使用する検知枠の数、位置、大きさなどを自動的に切り替えることができる。 A part of the data extracted in any one of S14, S15, and S16 from the detection frame table T2 is written to the detection frame table T2A, and the contents of the detection frame table T2A are reflected in the process of step S21 in FIG. . Therefore, depending on whether the state of the host vehicle is “reverse”, “stop”, or “forward”, as shown in FIGS. 3 (a), 3 (b), and 3 (c) It is possible to automatically switch the number, position, size, etc. of the detection frames used for.
車両状態テーブルT1および検知枠テーブルT2は、不揮発メモリ26A上の記憶領域に配置され、これらが保持する各定数データは必要に応じて変更される。例えば、車載カメラ23Bを自車両に新たに設置したり位置などを変更する際に、デジタルタコグラフ10の各パラメータを調整するための特別なソフトウェアをCPU11で実行することにより、管理者が車両状態テーブルT1および検知枠テーブルT2を更新できる。
The vehicle state table T1 and the detection frame table T2 are arranged in a storage area on the
<変形の可能性>
図3(a)、図3(b)、図3(c)に示した例では、後方を撮影する車載カメラ23Bの映像を処理する場合の検知枠だけを想定しているが、前方を撮影する車載カメラ23や、車両側方、あるいは車室内を撮影する他の車載カメラの映像を処理する場合にも、同じような検知枠を適用して処理対象のデータ量を減らすことが想定される。そして、例えば自車両が後退する場合には、前方の映像を認識する処理が使用する検知枠の数やサイズを削減することにより、CPU11の負荷を低減し、後方の映像を認識する処理における遅延の発生を抑制できる。
<Possibility of deformation>
In the example shown in FIG. 3A, FIG. 3B, and FIG. 3C, only the detection frame in the case of processing the video of the in-
<デジタルタコグラフ10の利点>
図1に示したデジタルタコグラフ10においては、運転支援機能を実現するために、図2に示した動作を実行する際に、例えば自車両が前進している時には、ステップS21で検知枠を用いることにより、後方の映像の処理にかかるCPU11の負荷を大幅に低減できる。その結果、前方を撮影した映像に基づいて複数種類の運転支援機能(車間距離の警報、車線逸脱の警報、速度超過の警報など)を同時に実現しようとする場合であっても、高性能のCPUを用いることなく、遅延のないリアルタイムの処理が可能になる。また、例えば自車両が後退するときには、後方の映像を処理する際に使用する検知枠の数を図3(a)のようにS14で増やすことができるので、後方の安全性を十分に確保できる。
<Advantages of
In the
ここで、上述した本発明の実施形態に係る車載器および運転支援装置の特徴をそれぞれ以下[1]〜[5]に簡潔に纏めて列記する。
[1] 車両に搭載された1つ以上の車載カメラ(23,23B)が出力する映像信号を入力して処理する画像処理部(CPU11,S21)と、
前記車両における走行の有無および進行方向の少なくとも一方の状態を検知する車両状態検知部(CPU11,S11,S12)と、
前記画像処理部が処理する前記映像信号内の領域を動的に決定する画像領域決定部(CPU11,S13〜S16)と、
を有し、
前記画像領域決定部は、前記車両状態検知部の検知状態を反映して、前記領域を自動的に変更する(S17,S21)、
ことを特徴とする車載器。
Here, the features of the vehicle-mounted device and the driving support device according to the embodiment of the present invention described above are briefly summarized and listed in the following [1] to [5], respectively.
[1] An image processing unit (CPU11, S21) that inputs and processes video signals output from one or more in-vehicle cameras (23, 23B) mounted on the vehicle;
A vehicle state detection unit (
An image area determination unit (
Have
The image region determination unit automatically changes the region to reflect the detection state of the vehicle state detection unit (S17, S21),
In-vehicle device characterized by that.
[2] 前記画像領域決定部は、
前記映像信号内に事前に割り当てた複数の二次元領域(検知枠F11〜F17,F21〜F25,F31,F32)の各々の位置および大きさを表す定数データを保持する定数保持部(検知枠テーブルT2)を有し、
前記複数の二次元領域の中から、前記車両状態検知部の検知状態に応じて選択した1つ以上の二次元領域を、前記画像処理部が処理する前記映像信号内の領域として割り当てる(S17)、
ことを特徴とする上記[1]に記載の車載器。
[2] The image area determination unit
A constant holding unit (detection frame table) that holds constant data representing the position and size of a plurality of two-dimensional areas (detection frames F11 to F17, F21 to F25, F31, and F32) allocated in advance in the video signal. T2)
One or more two-dimensional regions selected from the plurality of two-dimensional regions according to the detection state of the vehicle state detection unit are assigned as regions in the video signal processed by the image processing unit (S17). ,
The on-vehicle device according to [1] above, wherein
[3] 前記画像領域決定部は、前記車両状態検知部の検知状態に応じて、前記複数の二次元領域の中から選択する二次元領域の数およびその組み合わせを自動的に決定する(S13〜S16)、
ことを特徴とする上記[2]に記載の車載器。
[3] The image region determination unit automatically determines the number of two-dimensional regions to be selected from the plurality of two-dimensional regions and a combination thereof according to the detection state of the vehicle state detection unit (S13 to S13). S16),
The on-vehicle device according to [2] above,
[4] 前記画像領域決定部は、前記車両状態検知部の検知状態に基づいて、前記車両の前進、後退、および停止のいずれかの状態を認識し、認識した前記車両の状態に応じて前記領域を自動的に変更する(S13〜S16)、
ことを特徴とする上記[1]乃至[3]のいずれかに記載の車載器。
[4] The image area determination unit recognizes one of the forward, backward, and stop states of the vehicle based on the detection state of the vehicle state detection unit, and determines the state according to the recognized vehicle state. The area is automatically changed (S13 to S16),
The vehicle-mounted device according to any one of [1] to [3], wherein
[5] 上記[1]乃至[4]のいずれかに記載の車載器と、
前記画像処理部が前記映像信号の中から認識した結果と、事前に定めた判定基準とに基づいて、前記車両の安全運転を支援する警報を生成する警報生成部(S22〜S25)と、
を備えたことを特徴とする運転支援装置。
[5] The vehicle-mounted device according to any one of [1] to [4],
An alarm generation unit (S22 to S25) for generating an alarm for supporting safe driving of the vehicle based on a result recognized by the image processing unit from the video signal and a predetermined determination criterion;
A driving support apparatus comprising:
5 運行管理システム
8 無線基地局
10 デジタルタコグラフ
11、31 CPU
12A 速度I/F
12B エンジン回転I/F
13 外部入力I/F
14 センサ入力I/F
15 GPS受信部
15a GPSアンテナ
16 カメラI/F
17 記録部
18 カードI/F
19 音声I/F
20、42 スピーカ
21 RTC
22 SW入力部
23 車載カメラ
24、32 通信部
25 電源部
26A 不揮発メモリ
26B 揮発メモリ
27 表示部
28 Gセンサ
29 アナログ入力I/F
30 事務所PC
33 表示部
34 記憶部
35 カードI/F
36 操作部
37 出力部
38 音声I/F
41 マイク
48 外部I/F
51 車速センサ
54 外部記憶装置
55 事故地点DB
56 運行データDB
57 ハザードマップDB
65 メモリカード
70 ネットワーク
100A,100B,100C 画像フレーム
F11,F12,F13,F14,F15,F16,F17 検知枠
F21,F22,F23,F24,F25,F31,F32 検知枠
T1 車両状態テーブル
T2,T2A 検知枠テーブル
5
12A Speed I / F
12B Engine rotation I / F
13 External input I / F
14 Sensor input I / F
15
17
19 Voice I / F
20, 42
22
30 office PC
33
36
41
51
56 Operation data DB
57 Hazard Map DB
65
Claims (5)
前記車両における走行の有無および進行方向の少なくとも一方の状態を検知する車両状態検知部と、
前記画像処理部が処理する前記映像信号内の領域を動的に決定する画像領域決定部と、
を有し、
前記画像領域決定部は、前記車両状態検知部の検知状態を反映して、前記領域を自動的に変更する、
ことを特徴とする車載器。 An image processing unit that inputs and processes video signals output from one or more in-vehicle cameras mounted on the vehicle;
A vehicle state detector for detecting the presence or absence of travel in the vehicle and at least one state of the traveling direction;
An image region determination unit that dynamically determines a region in the video signal to be processed by the image processing unit;
Have
The image area determination unit automatically changes the area to reflect the detection state of the vehicle state detection unit.
In-vehicle device characterized by that.
前記映像信号内に事前に割り当てた複数の二次元領域の各々の位置および大きさを表す定数データを保持する定数保持部を有し、
前記複数の二次元領域の中から、前記車両状態検知部の検知状態に応じて選択した1つ以上の二次元領域を、前記画像処理部が処理する前記映像信号内の領域として割り当てる、
ことを特徴とする請求項1に記載の車載器。 The image area determination unit
A constant holding unit for holding constant data representing the position and size of each of a plurality of two-dimensional areas allocated in advance in the video signal;
One or more two-dimensional regions selected according to the detection state of the vehicle state detection unit from among the plurality of two-dimensional regions are allocated as regions in the video signal processed by the image processing unit.
The on-vehicle device according to claim 1.
ことを特徴とする請求項2に記載の車載器。 The image region determination unit automatically determines the number of two-dimensional regions to be selected from the plurality of two-dimensional regions and a combination thereof according to the detection state of the vehicle state detection unit.
The vehicle-mounted device according to claim 2.
ことを特徴とする請求項1乃至請求項3のいずれか1項に記載の車載器。 The image region determination unit recognizes one of the forward, backward, and stopped states of the vehicle based on the detection state of the vehicle state detection unit, and automatically determines the region according to the recognized vehicle state. Change
The on-vehicle device according to any one of claims 1 to 3, wherein
前記画像処理部が前記映像信号の中から認識した結果と、事前に定めた判定基準とに基づいて、前記車両の安全運転を支援する警報を生成する警報生成部と、
を備えたことを特徴とする運転支援装置。 The vehicle-mounted device according to any one of claims 1 to 4,
An alarm generating unit that generates an alarm for supporting safe driving of the vehicle based on a result recognized by the image processing unit from the video signal and a predetermined criterion;
A driving support apparatus comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017143404A JP6927787B2 (en) | 2017-07-25 | 2017-07-25 | On-board unit and driving support device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017143404A JP6927787B2 (en) | 2017-07-25 | 2017-07-25 | On-board unit and driving support device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019028481A true JP2019028481A (en) | 2019-02-21 |
JP6927787B2 JP6927787B2 (en) | 2021-09-01 |
Family
ID=65478454
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017143404A Active JP6927787B2 (en) | 2017-07-25 | 2017-07-25 | On-board unit and driving support device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6927787B2 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2021075359A (en) * | 2019-11-08 | 2021-05-20 | 株式会社タダノ | Periphery monitoring device for work vehicle having boom |
JP2021090108A (en) * | 2019-12-02 | 2021-06-10 | 株式会社クボタ | Work machine |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008276308A (en) * | 2007-04-25 | 2008-11-13 | Sanyo Electric Co Ltd | Video image processing apparatus, video image processing system, and navigation device |
JP2009166624A (en) * | 2008-01-15 | 2009-07-30 | Nissan Motor Co Ltd | Rear monitoring device and rear monitoring method for vehicle |
JP2013017024A (en) * | 2011-07-04 | 2013-01-24 | Denso Corp | Detector of object which approaches vehicle |
WO2013018537A1 (en) * | 2011-08-02 | 2013-02-07 | 日産自動車株式会社 | Driving assistance apparatus and driving assistance method |
-
2017
- 2017-07-25 JP JP2017143404A patent/JP6927787B2/en active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008276308A (en) * | 2007-04-25 | 2008-11-13 | Sanyo Electric Co Ltd | Video image processing apparatus, video image processing system, and navigation device |
JP2009166624A (en) * | 2008-01-15 | 2009-07-30 | Nissan Motor Co Ltd | Rear monitoring device and rear monitoring method for vehicle |
JP2013017024A (en) * | 2011-07-04 | 2013-01-24 | Denso Corp | Detector of object which approaches vehicle |
WO2013018537A1 (en) * | 2011-08-02 | 2013-02-07 | 日産自動車株式会社 | Driving assistance apparatus and driving assistance method |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2021075359A (en) * | 2019-11-08 | 2021-05-20 | 株式会社タダノ | Periphery monitoring device for work vehicle having boom |
JP2021090108A (en) * | 2019-12-02 | 2021-06-10 | 株式会社クボタ | Work machine |
JP7321911B2 (en) | 2019-12-02 | 2023-08-07 | 株式会社クボタ | work machine |
Also Published As
Publication number | Publication date |
---|---|
JP6927787B2 (en) | 2021-09-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
RU2656933C2 (en) | Method and device for early warning during meeting at curves | |
US20110128136A1 (en) | On-vehicle device and recognition support system | |
JP6651031B2 (en) | Vehicle door collision prevention device and vehicle door collision prevention method | |
JP2003123196A (en) | Device and program for monitoring circumference of vehicle | |
WO2015174017A1 (en) | In-vehicle apparatus and travel image storage system | |
JP2010067262A (en) | Intelligent driving assistant system | |
JP5898001B2 (en) | Vehicle periphery monitoring device | |
US11176826B2 (en) | Information providing system, server, onboard device, storage medium, and information providing method | |
JP7146516B2 (en) | Driving evaluation device and in-vehicle device | |
CN114175123B (en) | Driving support method, road photographic image collection method, and road side device | |
JP5691814B2 (en) | Driving assistance device | |
US11738747B2 (en) | Server device and vehicle | |
US20210150903A1 (en) | Information provision system, server, and mobile terminal | |
KR20140099615A (en) | Digital tachograph with black-box and lane departure warning | |
JP6962712B2 (en) | In-vehicle image recording device | |
JP7207916B2 (en) | In-vehicle device | |
JP6927787B2 (en) | On-board unit and driving support device | |
JP7163077B2 (en) | PARKING ASSIST DEVICE AND PARKING ASSIST METHOD | |
WO2020136941A1 (en) | Vehicle recording control device, vehicle recording device, vehicle recording control method, and program | |
JP7057074B2 (en) | On-board unit and driving support device | |
JP2009037542A (en) | Adjacent vehicle detection apparatus and adjacent vehicle detection method | |
KR20210020463A (en) | Method and apparatus for automatically reporting traffic rule violation vehicles using black box images | |
JP2004051006A (en) | Intersection accident prevention device and program | |
JP6974059B2 (en) | On-board unit and driving support device | |
US20200342761A1 (en) | Notification apparatus and in-vehicle device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200617 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20201222 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210219 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210803 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210805 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6927787 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S531 | Written request for registration of change of domicile |
Free format text: JAPANESE INTERMEDIATE CODE: R313531 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |