JP6927787B2 - On-board unit and driving support device - Google Patents
On-board unit and driving support device Download PDFInfo
- Publication number
- JP6927787B2 JP6927787B2 JP2017143404A JP2017143404A JP6927787B2 JP 6927787 B2 JP6927787 B2 JP 6927787B2 JP 2017143404 A JP2017143404 A JP 2017143404A JP 2017143404 A JP2017143404 A JP 2017143404A JP 6927787 B2 JP6927787 B2 JP 6927787B2
- Authority
- JP
- Japan
- Prior art keywords
- vehicle
- unit
- image
- detection
- image processing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000001514 detection method Methods 0.000 claims description 114
- 238000012545 processing Methods 0.000 claims description 54
- 238000000034 method Methods 0.000 claims description 24
- 238000004148 unit process Methods 0.000 claims description 2
- 230000006870 function Effects 0.000 description 23
- 238000004891 communication Methods 0.000 description 13
- 230000001133 acceleration Effects 0.000 description 7
- 238000007726 management method Methods 0.000 description 7
- 230000002441 reversible effect Effects 0.000 description 6
- 238000013459 approach Methods 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 239000000446 fuel Substances 0.000 description 2
- 238000010295 mobile communication Methods 0.000 description 2
- 206010039203 Road traffic accident Diseases 0.000 description 1
- 230000005856 abnormality Effects 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 239000000498 cooling water Substances 0.000 description 1
- 230000003111 delayed effect Effects 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 238000012806 monitoring device Methods 0.000 description 1
- 238000003909 pattern recognition Methods 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000000717 retained effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
Images
Landscapes
- Traffic Control Systems (AREA)
- Image Analysis (AREA)
- Time Recorders, Dirve Recorders, Access Control (AREA)
Description
本発明は、車載カメラが出力する映像信号を入力して処理する画像処理部を有する車載器および運転支援装置に関する。 The present invention relates to an in-vehicle device and a driving support device having an image processing unit that inputs and processes a video signal output by an in-vehicle camera.
近年の車両においては、車載カメラの撮影により得られる映像信号を入力して処理する画像処理部を有する車載器が搭載される傾向にある。例えば、ドライブレコーダの機能を有する一般的な車載器は、車載カメラの映像信号を入力し、自車両に交通事故などの異常が発生した時に、トリガ信号に従いその前後一定時間内の画像データを自動的に記録することができる。また、運行記録計であるデジタルタコグラフの機能を有する車載器にも、車載カメラの映像信号を入力して処理するものが存在する。 In recent years, vehicles tend to be equipped with an in-vehicle device having an image processing unit that inputs and processes a video signal obtained by shooting with an in-vehicle camera. For example, a general in-vehicle device having a drive recorder function inputs an image signal of an in-vehicle camera, and when an abnormality such as a traffic accident occurs in the own vehicle, the image data within a certain period of time before and after the trigger signal is automatically output. Can be recorded as a vehicle. In addition, some in-vehicle devices having a function of a digital tachograph, which is an operation recorder, input and process the video signal of the in-vehicle camera.
また、例えば特許文献1に示された車両用のナビゲーション装置においては、自位置周辺の画像情報を対象とする画像認識を行うに際して、画像認識処理の認識条件を可変設定することにより、演算処理負荷を軽減しつつ、誤認識を抑制して認識率を高めるための技術を示している。具体的には、自信度に応じて、画像情報に対する各対象地物についての画像認識処理を行う範囲を設定する。
Further, for example, in the navigation device for a vehicle shown in
また、特許文献2においては、車両周辺の情景が撮影された画像を、広域表示と拡大表示との間で切り替えて表示する車両用周辺監視装置を示している。また、撮影された広域撮影データが、表示装置に同じ視野で表示させるための広域表示データと、広域撮影データの中の一部を拡大して表示させるための拡大表示データとに変換可能に構成されることを示している。また、広域表示データが表示されている状態で「前方」のボタンを操作すると、広域撮影データの中の「前方」に相当する領域が拡大表示されることを示している。
Further,
ところで、例えばデジタルタコグラフ等の車載器においては、例えば以下に示す(1)〜(3)のような様々な運転支援機能を搭載することが望まれている。
(1)自車両と先行車両との間の車間距離の接近しすぎに対して警報を出力する機能。
(2)自車両が所定の走行レーンの範囲を逸脱する場合に警報を出力する機能。
(3)路面の標示に基づき認識した制限速度に対する自車両の速度超過について警報を出力する機能。
By the way, for example, in-vehicle devices such as digital tachographs are desired to be equipped with various driving support functions such as (1) to (3) shown below.
(1) A function that outputs an alarm when the inter-vehicle distance between the own vehicle and the preceding vehicle is too close.
(2) A function that outputs an alarm when the own vehicle deviates from the range of a predetermined traveling lane.
(3) A function that outputs an alarm regarding the overspeed of the own vehicle with respect to the speed limit recognized based on the road surface marking.
上記の(1)〜(3)のような機能を実現する際には、例えば自車両の車載カメラで撮影した自車両前方の情景を表す映像信号を処理して様々なパターン認識を行うことが必要になる。すなわち、映像信号から得られる画像データに基づき、先行車両のパターン、走行レーンの左右境界を表す白線等のパターン、路面に標示されている制限速度の標示パターンなどをそれぞれ認識する必要がある。 When realizing the above functions (1) to (3), for example, it is possible to perform various pattern recognition by processing a video signal representing a scene in front of the own vehicle taken by the in-vehicle camera of the own vehicle. You will need it. That is, based on the image data obtained from the video signal, it is necessary to recognize the pattern of the preceding vehicle, the pattern such as the white line indicating the left-right boundary of the traveling lane, the speed limit marking pattern marked on the road surface, and the like.
また、車両に搭載される車載カメラについては、自車両前方を撮影する車載カメラの他に、自車両後方の情景を撮影する車載カメラや、車室内の乗員等を撮影する車載カメラが含まれる場合もある。したがって、車載器においては、複数台の車載カメラがそれぞれ出力する複数の映像信号を同時に処理することが必要になる場合もある。 In addition, as for the in-vehicle camera mounted on the vehicle, in addition to the in-vehicle camera that captures the front of the own vehicle, the in-vehicle camera that captures the scene behind the own vehicle and the in-vehicle camera that captures the occupants in the vehicle interior are included. There is also. Therefore, in the vehicle-mounted device, it may be necessary to simultaneously process a plurality of video signals output by each of the plurality of vehicle-mounted cameras.
しかしながら、自車両の走行等に伴って逐次変化する映像の中から複数のパターンを同時にリアルタイムで認識するためには、高性能の画像処理専用プロセッサや、高性能のマイクロコンピュータのように高価なハードウェアを車載器に搭載しなければならず、装置コストの増大が懸念される。しかし、比較的低コストのハードウェアで上記の機能を実現しようとすると、各パターンの認識処理に遅延が生じるため、安全運転を支援するための各種警報をリアルタイムで出力することが困難になる。 However, in order to simultaneously recognize multiple patterns in real time from images that change sequentially as the vehicle travels, etc., expensive hardware such as a high-performance image processing processor or a high-performance microcomputer The wear must be mounted on the in-vehicle device, and there is a concern that the device cost will increase. However, when trying to realize the above functions with relatively low-cost hardware, it becomes difficult to output various alarms for supporting safe driving in real time because the recognition process of each pattern is delayed.
そこで、例えば特許文献1および特許文献2に示されているように、画像の中で画像処理の対象とする範囲を予め限定することが想定される。範囲を限定することにより、画像処理の負荷が軽減されるので、比較的低コストのハードウェアを利用する場合であっても、認識処理の遅延をある程度抑制できる。
Therefore, as shown in, for example,
しかし、上記の(1)〜(3)のような複数の機能を同時に実現しようとすると、同じ映像フレーム中の互いに異なる領域に映る複数の認識対象を同時に認識しなければならず、認識対象の範囲を狭くすることができない。その結果、認識対象の範囲のデータ量が増え、認識処理の遅延が増大する。また、複数の車載カメラの映像をそれぞれ処理する場合にも、認識対象物が映像フレーム中の様々な箇所に存在する可能性を考慮すると、対象の範囲を広げる必要がある。 However, when trying to realize a plurality of functions as described in (1) to (3) at the same time, it is necessary to simultaneously recognize a plurality of recognition targets appearing in different regions in the same video frame, and the recognition target must be recognized. The range cannot be narrowed. As a result, the amount of data in the recognition target range increases, and the delay in the recognition process increases. Further, even when processing the images of a plurality of in-vehicle cameras, it is necessary to expand the range of the objects in consideration of the possibility that the recognition object exists in various places in the image frame.
また、自車両が前進、停車、後退のいずれの状態であるかに応じて、映像フレーム中の注目すべき重要な領域が互いに異なるので、どの状態でも重要な領域を認識可能にするためには、認識対象の範囲の制限を緩和しなければならない。したがって、認識対象の範囲のデータ量が増え、認識処理の遅延が増大する。 In addition, since the important areas to be noted in the video frame are different from each other depending on whether the own vehicle is in the forward, stopped, or backward state, in order to make the important area recognizable in any state. , The limitation of the range of recognition must be relaxed. Therefore, the amount of data in the recognition target range increases, and the delay in the recognition process increases.
本発明は、上述した事情に鑑みてなされたものであり、その目的は、自車両の前進、停車、後退等の複数の状態のいずれにおいても重要な領域の認識を可能にすると共に、画像処理の負荷の低減が可能な車載器および運転支援装置を提供することにある。 The present invention has been made in view of the above circumstances, and an object of the present invention is to enable recognition of an important region in any of a plurality of states such as forward movement, stoppage, and backward movement of the own vehicle, and image processing. It is an object of the present invention to provide an in-vehicle device and a driving support device capable of reducing the load of the vehicle.
前述した目的を達成するために、本発明に係る車載器および運転支援装置は、下記(1)〜(5)を特徴としている。
(1) 車両の後方を撮影可能な車載カメラが出力する映像信号を入力して処理する画像処理部と、
前記車両における走行の有無および進行方向の少なくとも一方の状態を検知する車両状態検知部と、
前記画像処理部が処理する前記映像信号内の領域を動的に決定する画像領域決定部と、
を有し、
前記画像領域決定部は、前記車両状態検知部の検知状態を反映して、前記領域を自動的に変更し、
前記画像領域決定部は、前記車両状態検知部の検知状態に基づいて、前記車両の前進、後退、および停止のいずれかの状態を認識し、
前記車両の前進を認識した場合に前記画像処理部が処理する前記領域の数又は大きさが、前記車両の後退を認識した場合及び前記車両の停止を認識した場合に前記画像処理部が処理する前記領域の数又は大きさより小さい、
ことを特徴とする車載器。
In order to achieve the above-mentioned object, the on-board unit and the driving support device according to the present invention are characterized by the following (1) to (5).
(1) An image processing unit that inputs and processes video signals output by an in-vehicle camera capable of photographing the rear of the vehicle, and an image processing unit.
A vehicle condition detection unit that detects at least one of the presence / absence of traveling and the traveling direction of the vehicle, and
An image area determination unit that dynamically determines an area in the video signal processed by the image processing unit, and an image area determination unit.
Have,
The image area determination unit, reflecting the detection state of the vehicle state detection unit, automatically changing the area,
The image area determination unit recognizes one of the forward, backward, and stopped states of the vehicle based on the detection state of the vehicle state detection unit.
The image processing unit processes the number or size of the regions processed by the image processing unit when the forward movement of the vehicle is recognized, when the backward movement of the vehicle is recognized and when the stop of the vehicle is recognized. Less than the number or size of the regions,
An in-vehicle device characterized by that.
上記(1)及び上記(4)の構成の車載器によれば、車両状態検知部の検知状態に応じて、画像処理部が処理する映像信号内の領域を動的に決定することができる。したがって、例えば、自車両の前進、停車、後退等の複数の状態のいずれにおいても重要な領域の認識を可能とし、且つ処理対象のデータ量が削減されるように領域を最適化して、処理の負荷を低減できる。
更に、車両の前進、後退、および停止のいずれかの状態を認識できるので、状態に応じた適切な領域を画像処理部の処理対象として割り当てることができる。すなわち、車両の前進、後退、および停止のいずれの状態においても、映像フレーム中の注目すべき重要な領域のみを処理対象にし、データ量が削減されるように領域を最適化することができる。
According to the in-vehicle device having the above (1) and (4) configurations, the region in the video signal processed by the image processing unit can be dynamically determined according to the detection state of the vehicle state detection unit. Therefore, for example, it is possible to recognize an important area in any of a plurality of states such as forward, stop, and reverse of the own vehicle, and the area is optimized so that the amount of data to be processed is reduced. The load can be reduced.
Further, since any one of the forward, backward, and stop states of the vehicle can be recognized, an appropriate area according to the state can be assigned as the processing target of the image processing unit. That is, in any of the forward, backward, and stop states of the vehicle, only the important region of interest in the video frame can be processed, and the region can be optimized so that the amount of data is reduced.
(2) 前記画像領域決定部は、
前記映像信号内に事前に割り当てた複数の二次元領域の各々の位置および大きさを表す定数データを保持する定数保持部を有し、
前記複数の二次元領域の中から、前記車両状態検知部の検知状態に応じて選択した1つ以上の二次元領域を、前記画像処理部が処理する前記映像信号内の領域として割り当てる、
ことを特徴とする上記(1)に記載の車載器。
(2) The image area determination unit is
It has a constant holding unit that holds constant data representing the position and size of each of a plurality of two-dimensional regions allocated in advance in the video signal.
One or more two-dimensional regions selected according to the detection state of the vehicle state detection unit from the plurality of two-dimensional regions are allocated as regions in the video signal processed by the image processing unit.
The on-board unit according to (1) above.
上記(2)の構成の車載器によれば、画像領域決定部は、定数保持部が保持している定数データに基づいて、画像処理部が処理する領域の適切な位置および大きさを容易に決定できる。 According to the in-vehicle device having the configuration of (2) above, the image area determination unit can easily determine an appropriate position and size of the area processed by the image processing unit based on the constant data held by the constant holding unit. Can be decided.
(3) 前記画像領域決定部は、前記車両状態検知部の検知状態に応じて、前記複数の二次元領域の中から選択する二次元領域の数およびその組み合わせを自動的に決定する、
ことを特徴とする上記(2)に記載の車載器。
(3) The image area determination unit automatically determines the number of two-dimensional areas to be selected from the plurality of two-dimensional areas and a combination thereof according to the detection state of the vehicle state detection unit.
The on-board unit according to (2) above.
上記(3)の構成の車載器によれば、例えば、自車両の前進、停車、後退等の複数の状態のそれぞれについて、同時に複数の二次元領域を割り当てることができ、二次元領域の数およびその組み合わせを最適化することもできる。また、映像フレーム中で注目すべき複数の重要な箇所が互いに離れた位置に分散している場合であっても、同時に複数の二次元領域を割り当てることにより、各々の二次元領域のサイズを削減し、画像処理部が処理するデータ量を大幅に削減できる。 According to the in-vehicle device having the configuration of (3) above, for example, a plurality of two-dimensional regions can be simultaneously assigned to each of a plurality of states such as forward, stop, and reverse of the own vehicle, and the number of two-dimensional regions and The combination can also be optimized. In addition, even when a plurality of important points of interest in a video frame are dispersed at positions separated from each other, the size of each two-dimensional region can be reduced by allocating a plurality of two-dimensional regions at the same time. However, the amount of data processed by the image processing unit can be significantly reduced.
(4) 前記車両の停止を認識した場合に前記画像処理部が処理する前記領域の数又は大きさが、前記車両の後退を認識した場合に前記画像処理部が処理する前記領域の数又は大きさより小さい、
ことを特徴とする上記(1)乃至(3)のいずれかに記載の車載器。
(4) The number or size of the area processed by the image processing unit when the stop of the vehicle is recognized is the number or size of the area processed by the image processing unit when the vehicle is recognized as backward. Smaller than
The on-board unit according to any one of (1) to (3) above.
(5) 上記(1)乃至(4)のいずれかに記載の車載器と、
前記画像処理部が前記映像信号の中から認識した結果と、事前に定めた判定基準とに基づいて、前記車両の安全運転を支援する警報を生成する警報生成部と、
を備えたことを特徴とする運転支援装置。
(5) The on-board unit according to any one of (1) to (4) above, and
An alarm generation unit that generates an alarm that supports safe driving of the vehicle based on the result recognized by the image processing unit from the video signal and a predetermined determination criterion.
A driving support device characterized by being equipped with.
上記(5)の構成の運転支援装置によれば、車両状態検知部の検知状態に応じて、画像処理部が処理する映像信号内の領域を動的に決定できる。したがって、入力された映像フレームから同時に複数の移動物体を認識し、複数種類の警報を出力する機能を実現する場合であっても、処理対象のデータ量を削減し、警報の遅延を抑制できる。 According to the driving support device having the configuration of (5) above, the region in the video signal processed by the image processing unit can be dynamically determined according to the detection state of the vehicle state detection unit. Therefore, even when a function of simultaneously recognizing a plurality of moving objects from an input video frame and outputting a plurality of types of alarms is realized, the amount of data to be processed can be reduced and the delay of the alarms can be suppressed.
本発明の車載器および運転支援装置によれば、自車両の前進、停車、後退等の複数の状態のいずれにおいても重要な領域の認識を可能にすると共に、画像処理の負荷の低減が可能になる。 According to the on-board unit and the driving support device of the present invention, it is possible to recognize an important area in any of a plurality of states such as forward, stop, and reverse of the own vehicle, and it is possible to reduce the load of image processing. Become.
以上、本発明について簡潔に説明した。更に、以下に説明される発明を実施するための形態(以下、「実施形態」という。)を添付の図面を参照して通読することにより、本発明の詳細は更に明確化されるであろう。 The present invention has been briefly described above. Further, the details of the present invention will be further clarified by reading through the embodiments described below (hereinafter referred to as "embodiments") with reference to the accompanying drawings. ..
本発明に関する具体的な実施形態について、各図を参照しながら以下に説明する。 Specific embodiments of the present invention will be described below with reference to the respective figures.
<システムの構成および動作の概要>
本発明の実施の形態における運行管理システム5の構成例を図1に示す。
図1に示した運行管理システム5は、トラック運送会社やバス会社等の事業者の設備として導入される。この運行管理システム5は、トラックやバス等の各車両の運行状況を管理するものであり、各車両に車載器として搭載された運行記録装置(以下、デジタルタコグラフという)10と、各事業者の事務所等に設置される事務所PC30とで構成されている。デジタルタコグラフ10と、事務所PC30との間は、ネットワーク70を介して通信できるように接続される。
<Overview of system configuration and operation>
FIG. 1 shows a configuration example of the
The
事務所PC30は、事務所に設置された汎用のコンピュータ装置で構成され、車両の運行状況を管理する。ネットワーク70は、デジタルタコグラフ10と広域通信を行う無線基地局8や事務所PC30が接続されるインターネット等のパケット通信網であり、デジタルタコグラフ10と事務所PC30と間で行われるデータ通信を中継する。デジタルタコグラフ10と無線基地局8との間の通信は、LTE(Long Term Evolution)/4G(4th Generation)等のモバイル通信網(携帯回線網)で行われてもよいし、無線LAN(Local Area Network)で行われてもよい。
The
デジタルタコグラフ10は、車両に搭載され、出入庫時刻、走行距離、走行時間、走行速度、速度オーバー、エンジン回転数オーバー、急発進、急加速、急減速等の運行データを記録する。また、本実施形態のデジタルタコグラフ10は、それ以外に後述する運転支援機能を搭載している。
The
図1に示したデジタルタコグラフ10は、ハードウェアとして、CPU(マイクロコンピュータ)11、速度I/F(インタフェース)12A、エンジン回転I/F12B、外部入力I/F13、センサ入力I/F14、GPS受信部15、カメラI/F16、不揮発メモリ26A、揮発メモリ26B、記録部17、カードI/F18、音声I/F19、RTC(時計IC)21、SW入力部22、通信部24、表示部27、およびアナログ入力I/F29を内蔵している。
The
CPU11は、予め組み込まれたプログラムに従い、デジタルタコグラフ10の各部を統括的に制御する。不揮発メモリ26Aは、CPU11によって実行される動作プログラムや、CPU11が参照する定数データやテーブルなどを予め保持している。不揮発メモリ26Aは、データの書き換えが可能なメモリであり、保持しているデータは必要に応じて更新できる。
The
記録部17は、運行データや映像等のデータを記録する。カードI/F18には、乗務員が所持するメモリカード65が挿抜自在に接続される。CPU11は、カードI/F18に接続されたメモリカード65に対し運行データ、映像等のデータを書き込む。音声I/F19には、内蔵のスピーカ20が接続される。スピーカ20は、警報等の音声を発する。
The
RTC21(計時部)は、現在時刻を計時する。SW入力部22には、出庫ボタン、入庫ボタン等の各種ボタンのON/OFF信号が入力される。表示部27は、LCD(liquid crystal display)で構成され、通信や動作の状態の他、警報等を表示する。
The RTC21 (timekeeping unit) measures the current time. ON / OFF signals of various buttons such as a warehousing button and a warehousing button are input to the
速度I/F12Aには、車両の速度を検出する車速センサ51が接続され、車速センサ51からの速度パルスが入力される。車速センサ51は、デジタルタコグラフ10にオプションとして設けられてもよいし、デジタルタコグラフ10とは別の装置として設けられてもよい。エンジン回転I/F12Bには、エンジン回転数センサ(図示せず)からの回転パルスが入力される。
A vehicle speed sensor 51 that detects the speed of the vehicle is connected to the speed I /
外部入力I/F13の入力には、車両のブレーキのオンオフを表すブレーキ信号や、自動変速機の変速状態(前進/後退の区別を含む)を表す変速信号が、外部機器(図示せず)から印加される。 External input I / F13 inputs include a brake signal indicating the on / off of the vehicle brake and a shift signal indicating the shift state (including forward / reverse distinction) of the automatic transmission from an external device (not shown). It is applied.
センサ入力I/F14には、加速度(G値)を検知する(衝撃を感知する)加速度センサ(Gセンサ)28が接続され、Gセンサ28からの信号が入力される。Gセンサとしては、加速度による機械的な変位を、振動として読み取る方式や光学的に読み取る方式を有するものが挙げられるが、特に限定されない。また、Gセンサは、車両前方からの衝撃を感知する(減速Gを検知する)他、左右方向からの衝撃を感知しても(横Gを検知しても)よいし、車両後方からの衝撃を感知しても(加速Gを検知しても)よい。Gセンサは、これらの加速度を検知可能なように、1つもしくは複数のセンサで構成される。
An acceleration sensor (G sensor) 28 that detects acceleration (G value) (sensing an impact) is connected to the sensor input I /
アナログ入力I/F29には、エンジン温度(冷却水温)を検知する温度センサ(図示せず)、燃料量を検知する燃料量センサ(図示せず)等の信号が入力される。CPU11は、これらのI/Fを介して入力される情報を基に、各種の運転状態を検出する。
Signals such as a temperature sensor (not shown) for detecting the engine temperature (cooling water temperature) and a fuel amount sensor (not shown) for detecting the amount of fuel are input to the analog input I / F29. The
GPS受信部15は、GPSアンテナ15aに接続され、GPS(Global Positioning System)衛星から送信される信号の電波を受信し、現在位置(GPS位置情報)の情報を計算して取得する。
The
カメラI/F16の入力には、複数の車載カメラ23、23Bが接続されている。本実施形態では、一方の車載カメラ23は自車両の進行方向前方の道路等の情景を撮影できる向きで固定した状態で車室内に設置されている。したがって、車載カメラ23が撮影する映像の中には、自車両の前方に存在する先行車両、走行中の走行レーン境界を表す白線、路面上の交通規制の標示(制限速度など)が現れる。また、他方の車載カメラ23は、自車両の後方の道路等の情景を撮影できる向きで固定した状態で車室内に設置されている。
A plurality of in-
車載カメラ23、23Bは、例えば魚眼レンズを通して撮像される撮像面に例えば30万画素、100万画素、200万画素が配置されたイメージセンサを有する。イメージセンサは、CMOS(相補性金属酸化膜半導体)センサやCCD(電荷結合素子)センサなど公知のセンサで構成されている。
The in-
車載カメラ23、23Bがそれぞれ出力する映像の信号は、カメラI/F16の内部回路によって画素毎の階調や色を表すデジタル信号に変換され、フレーム毎の画像データとしてカメラI/F16から出力される。
The video signals output by the in-
各車載カメラ23、23Bで撮影された映像(画像データ)は、記録部17の動作により時系列データとして記録されるが、所定時間分だけ記録されるように繰り返し上書きされる。この所定時間は、例えば事故発生時、事故の状況が分かるように、事故発生前後の数秒間(例えば、2秒、4秒、10秒等)に相当する時間である。カメラ23で撮像される画像は、静止画でもよいし動画であってもよい。事故発生前後の映像は、事務所PC30の表示部33に表示される。
The video (image data) captured by the in-
また、本実施形態のデジタルタコグラフ10は、例えば以下に示す(1)〜(4)のような運転支援機能を搭載している。
(1)自車両と先行車両との車間距離が近すぎる場合に警報を出力する機能。
(2)自車両が走行中の走行レーンの範囲を逸脱した場合に警報を出力する機能。
(3)自車両の走行速度が路面標示の制限速度を超えた場合に速度超過の警報を出力する機能。
(4)自車両の後退時などの状況において周囲の障害物等の存在を運転者に知らせる機能。
Further, the
(1) A function that outputs an alarm when the distance between the own vehicle and the preceding vehicle is too close.
(2) A function that outputs an alarm when the own vehicle deviates from the range of the traveling lane in which the vehicle is traveling.
(3) A function that outputs an overspeed warning when the traveling speed of the own vehicle exceeds the speed limit indicated on the road surface.
(4) A function that notifies the driver of the existence of surrounding obstacles in situations such as when the own vehicle is reversing.
上記(1)〜(4)の各機能を実現するためには、各車載カメラ23、23Bで撮影された映像の画像データを処理して、所定の画像認識を行う必要がある。すなわち、画像認識により先行車両の位置及び距離を特定したり、走行レーン境界の白線と自車両との相対位置を検出したり、路面標示の制限速度を検出したり、様々な障害物を検出することが必要になる。
In order to realize each of the above functions (1) to (4), it is necessary to process the image data of the images taken by the in-
上記のような画像認識は、CPU11が組み込まれたプログラムに従って所定の認識アルゴリズムを実行することにより実現できる。しかし、処理対象の画像のデータ量が多い場合には、画像認識に要するCPU11の負荷が非常に大きくなるので、リアルタイムでの処理が困難になり、検出の遅延が発生する可能性がある。特に、複数の車載カメラ23、23Bの映像を同時に処理したり、複数の認識対象を同時に検出するような場合には、遅延の発生が懸念される。そこで、本実施形態においては、画像認識を実行する際に、後述するように検知枠を設けて処理対象のデータ範囲を限定すると共に、車両の状態に応じて特別な処理を実施する。
The above image recognition can be realized by executing a predetermined recognition algorithm according to a program in which the
通信部24は、広域通信を行い、携帯回線網(モバイル通信網)を介して無線基地局8に接続されると、無線基地局8と繋がるインターネット等のネットワーク70を介して、事務所PC30と通信を行う。電源部25は、イグニッションスイッチのオン等によりデジタルタコグラフ10の各部に電力を供給する。
When the
一方、事務所PC30は、汎用のオペレーティングシステムで動作するPC(パーソナルコンピュータ)により構成されている。事務所PC30は、運行管理装置として機能し、CPU31、通信部32、表示部33、記憶部34、カードI/F35、操作部36、出力部37、音声I/F38及び外部I/F48を有する。
On the other hand, the
CPU31は、事務所PC30の各部を統括的に制御する。通信部32は、ネットワーク70を介してデジタルタコグラフ10と通信可能である。また、通信部32は、ネットワーク70に接続された各種のデータベース(図示せず)とも接続可能であり、必要なデータを取得可能である。
The
表示部33は、運行管理画面の他、事故映像やハザードマップ等を表示する。記憶部34は、デジタルタコグラフ10から受信した映像を表示したり車両の位置情報を地図上に表示するためのシステム解析ソフトウェア等、各種プログラムを保持している。
The
カードI/F35には、メモリカード65が挿抜自在に装着される。カードI/F35は、デジタルタコグラフ10によって計測され、メモリカード65に記憶された運行データを入力する。操作部36は、キーボードやマウス等を有し、事務所の管理者の操作を受け付ける。出力部37は、各種データを出力する。音声I/F38には、マイク41及びスピーカ42が接続される。事務所の管理者は、マイク41及びスピーカ42を用いて音声通話を行うことも可能であり、車両の事故が発生した場合、救急や警察等への連絡を行う。
A
外部I/F48には、外部記憶装置(ストレージメモリ)54が接続される。外部記憶装置54は、事故地点データベース(DB)55、運行データDB56、ハザードマップDB57を保持する。事故地点データベース(DB)55には、デジタルタコグラフ10から送信される、事故発生時の車両のGPS位置情報(緯度,経度)が登録される。運行データDB56には、運行データとして、出入庫時刻、速度、走行距離等の他、急加減速、急ハンドル、速度オーバー、エンジン回転数オーバー等が記録される。ハザードマップDB57には、過去に事故が発生した地点(事故地点)を表すマークが地図に重畳して記述された地図データが登録される。なお、このハザードマップには、天災等の災害が想定される地域や避難場所等が記述されてもよい。
An external storage device (storage memory) 54 is connected to the external I /
CPU31は、ハザードマップDB57から指定された地域(例えば、事故地点を含む地域)のハザードマップを読み出して表示部33に表示する際、事故地点DB55に登録された事故地点のデータを取得し、ハザードマップ上にこれらの事故地点を表すマークを重畳し、新たなハザードマップを生成する。事務所の管理者は、最新の事故地点を地図(ハザードマップ)上で即座に視認できる。
When the
<運転支援機能の詳細>
運転支援機能を実現するためのデジタルタコグラフ10の動作例を図2に示す。図2に示した動作は、デジタルタコグラフ10内のCPU11により短い時間周期で繰り返し実行される。
<Details of driving support function>
FIG. 2 shows an operation example of the
ステップS21では、各車載カメラ23、23Bの撮影した映像に相当する各フレームの画像データに対して所定の画像認識処理をCPU11が実行する。但し、処理対象のデータは、各画像フレームの中で事前に定めた各検知枠の範囲内のみに限定する。各検知枠の範囲は、例えば検知枠テーブルT2Aを参照することにより特定できる。検知枠テーブルT2Aについては後で説明する。
In step S21, the
ステップS22では、CPU11がS21の認識結果を利用して、車間距離検出処理を実行する。すなわち、画像フレーム内で検出した先行車両の位置と、自車両との位置関係を把握し、画像上の距離と各カメラの撮影条件とに基づいて車間距離を算出する。更に、算出した車間距離を事前に定めた閾値と比較し、車間距離が近すぎる場合に車間距離の警報を出力する。
In step S22, the
ステップS23では、CPU11がS21の認識結果を利用して、レーン逸脱検出処理を実行する。すなわち、画像フレーム内で検出した走行レーン境界の白線の位置と、自車両の位置との左右方向の位置関係や距離を算出し、その結果を事前に定めた判定条件と比較することにより、車線逸脱の有無を識別する。そして、車線逸脱ありの場合は車線逸脱の警報を出力する。
In step S23, the
ステップS24では、CPU11がS21の認識結果を利用して、速度超過検出処理を実行する。すなわち、路面上の制限速度標示に基づき認識した制限速度と、自車両の現在の走行速度とを比較して速度超過の有無を識別する。そして、速度超過ありの場合は速度超過の警報を出力する。
In step S24, the
ステップS25では、CPU11がS21の認識結果を利用して、上記以外の検出処理を実行する。例えば、様々な障害物の有無、移動する物体の有無、道路上の各種境界位置などを検出する。そして、障害物や移動する物体への接近を検知した場合や、境界位置に自車両が接近したような場合に警報を出力する。
In step S25, the
<画像フレームと検知枠との関係>
互いに異なる車両の状態で得られる各画像フレーム100A、100B、100Cとその中に割り当てられる各検知枠との関係の具体例を図3(a)、図3(b)、および図3(c)にそれぞれ示す。
<Relationship between image frame and detection frame>
Specific examples of the relationship between the image frames 100A, 100B, 100C obtained in different vehicle states and the detection frames assigned therein are shown in FIGS. 3 (a), 3 (b), and 3 (c). Each is shown in.
車載カメラ23、23Bの撮影により得られる画像データをCPU11が画像認識する際に、画像のデータ量が多いとCPU11の処理の負荷が大きくなり、リアルタイムでの処理が困難になり、遅延が発生する。そこで、CPU11の処理の負荷を減らすために、処理対象のデータ量を削減する。具体的には、処理対象のデータの範囲を定める検知枠を設ける。
When the
また、特に後方を撮影する車載カメラ23Bの画像を処理する場合には、車両の状態が「後退」、「停車」、「前進」のいずれであるかに応じて、最適化するように検知枠の総数、各検知枠の位置、各検知枠の大きさなどを変更する。すなわち、車両の状態が「後退」、「停車」、「前進」のいずれであるかに応じて、画像フレーム中で注目すべき重要な箇所がそれぞれ異なるので、車両の状態に合わせて変更することにより各検知枠を最小化することが可能であり、処理対象のデータ量を効果的に削減できる。
Further, particularly when processing the image of the in-
図3(a)、図3(b)、および図3(c)は、それぞれ「後退」、「停車」、および「前進」の状態における各画像フレーム100A、100B、100Cとその中に割り当てられる各検知枠との関係との具体例を示している。 3 (a), 3 (b), and 3 (c) are assigned to and within the respective image frames 100A, 100B, 100C in the "backward", "stopped", and "forwarded" states, respectively. A specific example of the relationship with each detection frame is shown.
図3(a)に示した画像フレーム100Aにおいては、このフレーム内の互いに異なる位置に、7つの互いに独立した矩形の検知枠F11、F12、F13、F14、F15、F16、F17が割り当ててある。また、図3(b)に示した画像フレーム100Bにおいては、このフレーム内の互いに異なる位置に、5つの互いに独立した矩形の検知枠F21、F22、F23、F24、F25が割り当ててある。また、図3(c)に示した画像フレーム100Cにおいては、このフレーム内の互いに異なる位置に、2つの互いに独立した矩形の検知枠F31、F32が割り当ててある。
In the
すなわち、自車両が後退する場合には、図3(a)に示した各検知枠F11〜F17のように、後方の映像における様々な箇所、つまり自車両後方周辺と進行方向先にそれぞれ注目することにより、後退時における安全を十分に確保できる。また、自車両が停車している時には、図3(b)に示した各検知枠F21〜F25のように、後方の映像における近距離の自車両周辺にそれぞれ注目することにより、自車両が停車状態から動き始める際の安全を十分に確保できる。また、自車両が前進している時には、図3(c)に示した検知枠F31、F32のように、後方の映像における近距離の左右脇のみに注目するだけで、後方側の安全を十分に確保できる。 That is, when the own vehicle moves backward, attention is paid to various parts in the rear image, that is, the periphery behind the own vehicle and the destination in the traveling direction, as shown in the detection frames F11 to F17 shown in FIG. As a result, sufficient safety can be ensured when reversing. Further, when the own vehicle is stopped, the own vehicle is stopped by paying attention to the vicinity of the own vehicle at a short distance in the rear image as shown in the detection frames F21 to F25 shown in FIG. 3 (b). Sufficient safety can be ensured when starting to move from the state. Further, when the own vehicle is moving forward, as shown in the detection frames F31 and F32 shown in FIG. 3C, it is sufficient to pay attention only to the left and right sides at a short distance in the rear image to ensure sufficient safety on the rear side. Can be secured.
一方、自車両が前進している時には、車載カメラ23Bが撮影した後方の映像と同時に、車載カメラ23が撮影した前方の映像を認識することが不可欠であり、CPU11の処理の負荷が大きくなる。ここで、前方の映像と後方の映像を同時に処理すると、更にCPU11の負荷が増大する。しかし、後方の映像の中で画像処理の対象範囲を図3(c)に示した検知枠F31、F32のみに限定することにより、処理対象のデータ量が減り、負荷の増大を抑制できる。
On the other hand, when the own vehicle is moving forward, it is indispensable to recognize the front image captured by the vehicle-mounted
<車両の状態に応じた検知枠の自動切替>
車両の状態に応じて使用する検知枠を自動的に決定するためのデジタルタコグラフ10の動作例を図4に示す。すなわち、デジタルタコグラフ10のCPU11が図4に示した動作を実行することにより、例えば図3(a)、図3(b)、および図3(c)に示したような検知枠の自動切替が実現する。図4の動作について以下に説明する。
<Automatic switching of detection frame according to vehicle condition>
FIG. 4 shows an operation example of the
ステップS11では、CPU11は、自車両の前進/後退を識別する。例えば、自車両の自動変速機から得られる変速信号の状態を参照することにより、自車両が前進、後退のいずれの状態であるのかを区別できる。
In step S11, the
ステップS12では、CPU11は、自車両が停車しているか否かを識別する。例えば、自車両の現在の走行速度の情報と、ブレーキ信号の状態とに基づいて停車の有無を区別できる。
In step S12, the
ステップS13では、CPU11は、S11、S12の結果に基づき、自車両が「後退」、「停車」、「前進」のいずれの状態であるのかを区別する。そして、「後退」の場合はS13からS14に進み、「停車」の場合はS13からS15に進み、「前進」の場合はS13からS16に進む。
In step S13, the
ステップS14では、CPU11は、後退時の検知枠組合せを表す定数データを車両状態テーブルT1、および検知枠テーブルT2から取得する。車両状態テーブルT1、および検知枠テーブルT2については後で説明する。
In step S14, the
ステップS15では、CPU11は、停車時の検知枠組合せを表す定数データを車両状態テーブルT1、および検知枠テーブルT2から取得する。また、ステップS16では、CPU11は、前進時の検知枠組合せを表す定数データを車両状態テーブルT1、および検知枠テーブルT2から取得する。
In step S15, the
ステップS17では、CPU11は、S14、S15、S16のいずれかで取得した検知枠組合せの定数データを、検知枠テーブルT2Aに書き込む。この検知枠テーブルT2Aの内容が、図2に示したステップS21の処理で使用する検知枠に反映される。なお、検知枠テーブルT2Aを省略し、検知枠テーブルT2の中の一部分をS21の処理で選択的に使用するように変更してもよい。
In step S17, the
<テーブルT1、T2の構成例>
デジタルタコグラフが参照する車両状態テーブルT1の構成例を図5に示す。また、デジタルタコグラフが参照する検知枠テーブルT2の構成例を図6に示す。
<Configuration example of tables T1 and T2>
FIG. 5 shows a configuration example of the vehicle state table T1 referred to by the digital tachograph. Further, FIG. 6 shows a configuration example of the detection frame table T2 referred to by the digital tachograph.
図5に示した車両状態テーブルT1は、「後退」、「停車」、「前進」のそれぞれの状態と、検知枠数N1と、検知枠先頭の番号N2との関係を表す定数データを保持している。図5の車両状態テーブルT1においては、図3(a)に示した例と同じように後退時の検知枠数N1が「7」になっている。また、図3(b)に示した例と同じように、停車時の検知枠数N1が「5」になっている。また、図3(c)に示した例と同じように、前進時の検知枠数N1が「2」になっている。 The vehicle state table T1 shown in FIG. 5 holds constant data indicating the relationship between each state of “backward”, “stopped”, and “forward”, the number of detection frames N1, and the number N2 at the beginning of the detection frame. ing. In the vehicle state table T1 of FIG. 5, the number of detection frames N1 at the time of reverse is “7” as in the example shown in FIG. 3 (a). Further, as in the example shown in FIG. 3B, the number of detection frames N1 when the vehicle is stopped is “5”. Further, as in the example shown in FIG. 3C, the number of detection frames N1 at the time of advancing is “2”.
図6に示した検知枠テーブルT2は、多数の検知枠のそれぞれについて、番号N3、基準位置P、検知枠サイズSの関係を表す定数データを保持している。この検知枠テーブルT2においては、例えば、番号N3が「1」の検知枠は、基準位置PがP1であり、X軸方向のサイズがSx1、Y軸方向のサイズがSy1であることを表す定数データが割り当ててある。 The detection frame table T2 shown in FIG. 6 holds constant data representing the relationship between the number N3, the reference position P, and the detection frame size S for each of the large number of detection frames. In this detection frame table T2, for example, the detection frame having the number N3 of "1" has a reference position P of P1, a constant indicating that the size in the X-axis direction is Sx1 and the size in the Y-axis direction is Sy1. Data is assigned.
例えば、図5に示した車両状態テーブルT1における検知枠先頭の番号N21が「1」の場合には、検知枠テーブルT2における番号N3が「1」〜「7」の範囲内の定数データが、後退時の検知枠の組合せとして図4のS14で選択される。したがって、図3(a)に示した7つの検知枠F11〜F17の各々のフレーム内の位置および縦/横の各サイズをそれぞれ特定できる。 For example, when the number N21 at the head of the detection frame in the vehicle state table T1 shown in FIG. 5 is "1", the constant data in the range of "1" to "7" for the number N3 in the detection frame table T2 is It is selected in S14 of FIG. 4 as a combination of detection frames when reversing. Therefore, the positions and the vertical / horizontal sizes of the seven detection frames F11 to F17 shown in FIG. 3A in each frame can be specified.
また、図5に示した車両状態テーブルT1における検知枠先頭の番号N22が「8」の場合には、検知枠テーブルT2における番号N3が「8」〜「12」の範囲内の定数データが、停車時の検知枠の組合せとして図4のS15で選択される。したがって、図3(b)に示した5つの検知枠F21〜F25の各々のフレーム内の位置および縦/横の各サイズをそれぞれ特定できる。 Further, when the number N22 at the head of the detection frame in the vehicle state table T1 shown in FIG. 5 is “8”, the constant data in the range of the numbers N3 in the detection frame table T2 from “8” to “12” is generated. It is selected in S15 of FIG. 4 as a combination of detection frames when the vehicle is stopped. Therefore, the position and the vertical / horizontal size of each of the five detection frames F21 to F25 shown in FIG. 3B can be specified.
また、図5に示した車両状態テーブルT1における検知枠先頭の番号N23が「13」の場合には、検知枠テーブルT2における番号N3が「13」〜「14」の範囲内の定数データが、前進時の検知枠の組合せとして図4のS16で選択される。したがって、図3(c)に示した2つの検知枠F31〜F32の各々のフレーム内の位置および縦/横の各サイズをそれぞれ特定できる。 Further, when the number N23 at the head of the detection frame in the vehicle state table T1 shown in FIG. 5 is “13”, the constant data in the range of the numbers N3 in the detection frame table T2 from “13” to “14” is generated. It is selected in S16 of FIG. 4 as a combination of detection frames when moving forward. Therefore, the positions and the vertical / horizontal sizes of the two detection frames F31 to F32 shown in FIG. 3C in each frame can be specified.
検知枠テーブルT2の中からS14、S15、S16のいずれかで抽出した一部のデータが検知枠テーブルT2Aに書き込まれ、この検知枠テーブルT2Aの内容が図2のステップS21の処理に反映される。したがって、自車両の状態が「後退」、「停車」、「前進」のいずれであるかに応じて、図3(a)、図3(b)、図3(c)に示したように実際に使用する検知枠の数、位置、大きさなどを自動的に切り替えることができる。 A part of the data extracted from the detection frame table T2 in any of S14, S15, and S16 is written to the detection frame table T2A, and the contents of the detection frame table T2A are reflected in the process of step S21 of FIG. .. Therefore, as shown in FIGS. 3 (a), 3 (b), and 3 (c), the actual state of the own vehicle is actually "backward", "stopped", or "forward". The number, position, size, etc. of the detection frame used for can be automatically switched.
車両状態テーブルT1および検知枠テーブルT2は、不揮発メモリ26A上の記憶領域に配置され、これらが保持する各定数データは必要に応じて変更される。例えば、車載カメラ23Bを自車両に新たに設置したり位置などを変更する際に、デジタルタコグラフ10の各パラメータを調整するための特別なソフトウェアをCPU11で実行することにより、管理者が車両状態テーブルT1および検知枠テーブルT2を更新できる。
The vehicle state table T1 and the detection frame table T2 are arranged in a storage area on the
<変形の可能性>
図3(a)、図3(b)、図3(c)に示した例では、後方を撮影する車載カメラ23Bの映像を処理する場合の検知枠だけを想定しているが、前方を撮影する車載カメラ23や、車両側方、あるいは車室内を撮影する他の車載カメラの映像を処理する場合にも、同じような検知枠を適用して処理対象のデータ量を減らすことが想定される。そして、例えば自車両が後退する場合には、前方の映像を認識する処理が使用する検知枠の数やサイズを削減することにより、CPU11の負荷を低減し、後方の映像を認識する処理における遅延の発生を抑制できる。
<Possibility of deformation>
In the examples shown in FIGS. 3 (a), 3 (b), and 3 (c), only the detection frame for processing the image of the in-
<デジタルタコグラフ10の利点>
図1に示したデジタルタコグラフ10においては、運転支援機能を実現するために、図2に示した動作を実行する際に、例えば自車両が前進している時には、ステップS21で検知枠を用いることにより、後方の映像の処理にかかるCPU11の負荷を大幅に低減できる。その結果、前方を撮影した映像に基づいて複数種類の運転支援機能(車間距離の警報、車線逸脱の警報、速度超過の警報など)を同時に実現しようとする場合であっても、高性能のCPUを用いることなく、遅延のないリアルタイムの処理が可能になる。また、例えば自車両が後退するときには、後方の映像を処理する際に使用する検知枠の数を図3(a)のようにS14で増やすことができるので、後方の安全性を十分に確保できる。
<Advantages of
In the
ここで、上述した本発明の実施形態に係る車載器および運転支援装置の特徴をそれぞれ以下[1]〜[5]に簡潔に纏めて列記する。
[1] 車両に搭載された1つ以上の車載カメラ(23,23B)が出力する映像信号を入力して処理する画像処理部(CPU11,S21)と、
前記車両における走行の有無および進行方向の少なくとも一方の状態を検知する車両状態検知部(CPU11,S11,S12)と、
前記画像処理部が処理する前記映像信号内の領域を動的に決定する画像領域決定部(CPU11,S13〜S16)と、
を有し、
前記画像領域決定部は、前記車両状態検知部の検知状態を反映して、前記領域を自動的に変更する(S17,S21)、
ことを特徴とする車載器。
Here, the features of the on-board unit and the driving support device according to the above-described embodiment of the present invention are briefly summarized and listed below in [1] to [5], respectively.
[1] An image processing unit (CPU11, S21) that inputs and processes a video signal output by one or more in-vehicle cameras (23, 23B) mounted on the vehicle, and an image processing unit (CPU11, S21).
A vehicle state detection unit (CPU11, S11, S12) that detects at least one state of the vehicle running or not and a traveling direction, and
An image area determination unit (CPU11, S13 to S16) that dynamically determines an area in the video signal processed by the image processing unit, and
Have,
The image area determination unit automatically changes the area (S17, S21), reflecting the detection state of the vehicle state detection unit.
An in-vehicle device characterized by that.
[2] 前記画像領域決定部は、
前記映像信号内に事前に割り当てた複数の二次元領域(検知枠F11〜F17,F21〜F25,F31,F32)の各々の位置および大きさを表す定数データを保持する定数保持部(検知枠テーブルT2)を有し、
前記複数の二次元領域の中から、前記車両状態検知部の検知状態に応じて選択した1つ以上の二次元領域を、前記画像処理部が処理する前記映像信号内の領域として割り当てる(S17)、
ことを特徴とする上記[1]に記載の車載器。
[2] The image area determination unit is
A constant holding unit (detection frame table) that holds constant data representing the positions and sizes of a plurality of two-dimensional regions (detection frames F11 to F17, F21 to F25, F31, and F32) allocated in advance in the video signal. Has T2)
One or more two-dimensional regions selected according to the detection state of the vehicle state detection unit from the plurality of two-dimensional regions are assigned as regions in the video signal processed by the image processing unit (S17). ,
The on-board unit according to the above [1].
[3] 前記画像領域決定部は、前記車両状態検知部の検知状態に応じて、前記複数の二次元領域の中から選択する二次元領域の数およびその組み合わせを自動的に決定する(S13〜S16)、
ことを特徴とする上記[2]に記載の車載器。
[3] The image area determination unit automatically determines the number of two-dimensional areas to be selected from the plurality of two-dimensional areas and a combination thereof according to the detection state of the vehicle state detection unit (S13 to S13). S16),
The in-vehicle device according to the above [2].
[4] 前記画像領域決定部は、前記車両状態検知部の検知状態に基づいて、前記車両の前進、後退、および停止のいずれかの状態を認識し、認識した前記車両の状態に応じて前記領域を自動的に変更する(S13〜S16)、
ことを特徴とする上記[1]乃至[3]のいずれかに記載の車載器。
[4] The image area determination unit recognizes one of the forward, backward, and stopped states of the vehicle based on the detection state of the vehicle state detection unit, and the above-mentioned according to the recognized state of the vehicle. The area is automatically changed (S13 to S16),
The vehicle-mounted device according to any one of the above [1] to [3].
[5] 上記[1]乃至[4]のいずれかに記載の車載器と、
前記画像処理部が前記映像信号の中から認識した結果と、事前に定めた判定基準とに基づいて、前記車両の安全運転を支援する警報を生成する警報生成部(S22〜S25)と、
を備えたことを特徴とする運転支援装置。
[5] The on-board unit according to any one of the above [1] to [4] and the in-vehicle device.
An alarm generation unit (S22 to S25) that generates an alarm that supports safe driving of the vehicle based on the result recognized by the image processing unit from the video signal and a predetermined determination criterion.
A driving support device characterized by being equipped with.
5 運行管理システム
8 無線基地局
10 デジタルタコグラフ
11、31 CPU
12A 速度I/F
12B エンジン回転I/F
13 外部入力I/F
14 センサ入力I/F
15 GPS受信部
15a GPSアンテナ
16 カメラI/F
17 記録部
18 カードI/F
19 音声I/F
20、42 スピーカ
21 RTC
22 SW入力部
23 車載カメラ
24、32 通信部
25 電源部
26A 不揮発メモリ
26B 揮発メモリ
27 表示部
28 Gセンサ
29 アナログ入力I/F
30 事務所PC
33 表示部
34 記憶部
35 カードI/F
36 操作部
37 出力部
38 音声I/F
41 マイク
48 外部I/F
51 車速センサ
54 外部記憶装置
55 事故地点DB
56 運行データDB
57 ハザードマップDB
65 メモリカード
70 ネットワーク
100A,100B,100C 画像フレーム
F11,F12,F13,F14,F15,F16,F17 検知枠
F21,F22,F23,F24,F25,F31,F32 検知枠
T1 車両状態テーブル
T2,T2A 検知枠テーブル
5
12A Speed I / F
12B engine rotation I / F
13 External input I / F
14 Sensor input I / F
15
17
19 Voice I / F
20, 42
22
30 office PC
33
36
41
51
56 Operation data DB
57 Hazard map DB
65
Claims (5)
前記車両における走行の有無および進行方向の少なくとも一方の状態を検知する車両状態検知部と、
前記画像処理部が処理する前記映像信号内の領域を動的に決定する画像領域決定部と、
を有し、
前記画像領域決定部は、前記車両状態検知部の検知状態を反映して、前記領域を自動的に変更し、
前記画像領域決定部は、前記車両状態検知部の検知状態に基づいて、前記車両の前進、後退、および停止のいずれかの状態を認識し、
前記車両の前進を認識した場合に前記画像処理部が処理する前記領域の数又は大きさが、前記車両の後退を認識した場合及び前記車両の停止を認識した場合に前記画像処理部が処理する前記領域の数又は大きさより小さい、
ことを特徴とする車載器。 An image processing unit that inputs and processes video signals output by an in-vehicle camera that can shoot the rear of the vehicle,
A vehicle condition detection unit that detects at least one of the presence / absence of traveling and the traveling direction of the vehicle, and
An image area determination unit that dynamically determines an area in the video signal processed by the image processing unit, and an image area determination unit.
Have,
The image area determination unit, reflecting the detection state of the vehicle state detection unit, automatically changing the area,
The image area determination unit recognizes one of the forward, backward, and stopped states of the vehicle based on the detection state of the vehicle state detection unit.
The image processing unit processes the number or size of the regions processed by the image processing unit when the forward movement of the vehicle is recognized, when the backward movement of the vehicle is recognized and when the stop of the vehicle is recognized. Less than the number or size of the regions,
An in-vehicle device characterized by that.
前記映像信号内に事前に割り当てた複数の二次元領域の各々の位置および大きさを表す定数データを保持する定数保持部を有し、
前記複数の二次元領域の中から、前記車両状態検知部の検知状態に応じて選択した1つ以上の二次元領域を、前記画像処理部が処理する前記映像信号内の領域として割り当てる、
ことを特徴とする請求項1に記載の車載器。 The image area determination unit
It has a constant holding unit that holds constant data representing the position and size of each of a plurality of two-dimensional regions allocated in advance in the video signal.
One or more two-dimensional regions selected according to the detection state of the vehicle state detection unit from the plurality of two-dimensional regions are allocated as regions in the video signal processed by the image processing unit.
The vehicle-mounted device according to claim 1.
ことを特徴とする請求項2に記載の車載器。 The image area determination unit automatically determines the number of two-dimensional areas to be selected from the plurality of two-dimensional areas and a combination thereof according to the detection state of the vehicle state detection unit.
The on-board unit according to claim 2.
ことを特徴とする請求項1乃至請求項3のいずれか1項に記載の車載器。 The number or size of the regions processed by the image processing unit when recognizing the stop of the vehicle is smaller than the number or size of the regions processed by the image processing unit when recognizing the retreat of the vehicle.
The vehicle-mounted device according to any one of claims 1 to 3, wherein the vehicle-mounted device is characterized by the above.
前記画像処理部が前記映像信号の中から認識した結果と、事前に定めた判定基準とに基づいて、前記車両の安全運転を支援する警報を生成する警報生成部と、
を備えたことを特徴とする運転支援装置。 The on-board unit according to any one of claims 1 to 4.
An alarm generation unit that generates an alarm that supports safe driving of the vehicle based on the result recognized by the image processing unit from the video signal and a predetermined determination criterion.
A driving support device characterized by being equipped with.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017143404A JP6927787B2 (en) | 2017-07-25 | 2017-07-25 | On-board unit and driving support device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017143404A JP6927787B2 (en) | 2017-07-25 | 2017-07-25 | On-board unit and driving support device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019028481A JP2019028481A (en) | 2019-02-21 |
JP6927787B2 true JP6927787B2 (en) | 2021-09-01 |
Family
ID=65478454
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017143404A Active JP6927787B2 (en) | 2017-07-25 | 2017-07-25 | On-board unit and driving support device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6927787B2 (en) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2021075359A (en) * | 2019-11-08 | 2021-05-20 | 株式会社タダノ | Periphery monitoring device for work vehicle having boom |
JP7321911B2 (en) * | 2019-12-02 | 2023-08-07 | 株式会社クボタ | work machine |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008276308A (en) * | 2007-04-25 | 2008-11-13 | Sanyo Electric Co Ltd | Video image processing apparatus, video image processing system, and navigation device |
JP5136071B2 (en) * | 2008-01-15 | 2013-02-06 | 日産自動車株式会社 | Vehicle rear monitoring device and vehicle rear monitoring method |
JP5626147B2 (en) * | 2011-07-04 | 2014-11-19 | 株式会社デンソー | Vehicle approaching object detection device |
CN103718225B (en) * | 2011-08-02 | 2016-06-01 | 日产自动车株式会社 | Driving assist system and traveling householder method |
-
2017
- 2017-07-25 JP JP2017143404A patent/JP6927787B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2019028481A (en) | 2019-02-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR101083885B1 (en) | Intelligent driving assistant systems | |
US9195894B2 (en) | Vehicle and mobile device traffic hazard warning techniques | |
JP5070809B2 (en) | Driving support device, driving support method, and program | |
JP7146516B2 (en) | Driving evaluation device and in-vehicle device | |
CN107487258A (en) | Blind area detecting system and method | |
CN107487333A (en) | Blind area detecting system and method | |
JP2003123196A (en) | Device and program for monitoring circumference of vehicle | |
CN114175123B (en) | Driving support method, road photographic image collection method, and road side device | |
WO2015174017A1 (en) | In-vehicle apparatus and travel image storage system | |
WO2020129279A1 (en) | Recording control device, recording control system, recording control method, and recording control program | |
JP5691814B2 (en) | Driving assistance device | |
JP2008221906A (en) | Damage part informing system for vehicle | |
JP7207916B2 (en) | In-vehicle device | |
KR101455847B1 (en) | Digital tachograph with black-box and lane departure warning | |
US20200342761A1 (en) | Notification apparatus and in-vehicle device | |
JP2007207274A (en) | Start annunciation device | |
JP6962712B2 (en) | In-vehicle image recording device | |
JP6927787B2 (en) | On-board unit and driving support device | |
JP2007156755A (en) | Intervehicular communication system | |
JP7057074B2 (en) | On-board unit and driving support device | |
JP4003569B2 (en) | Intersection accident prevention device and program | |
JP3984863B2 (en) | Start notification device | |
JP2009037542A (en) | Adjacent vehicle detection apparatus and adjacent vehicle detection method | |
JP6974059B2 (en) | On-board unit and driving support device | |
KR20180013126A (en) | Black-box for vehicle |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200617 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20201222 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210219 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210803 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210805 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6927787 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S531 | Written request for registration of change of domicile |
Free format text: JAPANESE INTERMEDIATE CODE: R313531 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |