JP6927787B2 - On-board unit and driving support device - Google Patents

On-board unit and driving support device Download PDF

Info

Publication number
JP6927787B2
JP6927787B2 JP2017143404A JP2017143404A JP6927787B2 JP 6927787 B2 JP6927787 B2 JP 6927787B2 JP 2017143404 A JP2017143404 A JP 2017143404A JP 2017143404 A JP2017143404 A JP 2017143404A JP 6927787 B2 JP6927787 B2 JP 6927787B2
Authority
JP
Japan
Prior art keywords
vehicle
unit
image
detection
image processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017143404A
Other languages
Japanese (ja)
Other versions
JP2019028481A (en
Inventor
啓之 大石
啓之 大石
裕一 小林
裕一 小林
剛宙 青地
剛宙 青地
広行 薮崎
広行 薮崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yazaki Energy System Corp
Original Assignee
Yazaki Energy System Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yazaki Energy System Corp filed Critical Yazaki Energy System Corp
Priority to JP2017143404A priority Critical patent/JP6927787B2/en
Publication of JP2019028481A publication Critical patent/JP2019028481A/en
Application granted granted Critical
Publication of JP6927787B2 publication Critical patent/JP6927787B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)
  • Time Recorders, Dirve Recorders, Access Control (AREA)

Description

本発明は、車載カメラが出力する映像信号を入力して処理する画像処理部を有する車載器および運転支援装置に関する。 The present invention relates to an in-vehicle device and a driving support device having an image processing unit that inputs and processes a video signal output by an in-vehicle camera.

近年の車両においては、車載カメラの撮影により得られる映像信号を入力して処理する画像処理部を有する車載器が搭載される傾向にある。例えば、ドライブレコーダの機能を有する一般的な車載器は、車載カメラの映像信号を入力し、自車両に交通事故などの異常が発生した時に、トリガ信号に従いその前後一定時間内の画像データを自動的に記録することができる。また、運行記録計であるデジタルタコグラフの機能を有する車載器にも、車載カメラの映像信号を入力して処理するものが存在する。 In recent years, vehicles tend to be equipped with an in-vehicle device having an image processing unit that inputs and processes a video signal obtained by shooting with an in-vehicle camera. For example, a general in-vehicle device having a drive recorder function inputs an image signal of an in-vehicle camera, and when an abnormality such as a traffic accident occurs in the own vehicle, the image data within a certain period of time before and after the trigger signal is automatically output. Can be recorded as a vehicle. In addition, some in-vehicle devices having a function of a digital tachograph, which is an operation recorder, input and process the video signal of the in-vehicle camera.

また、例えば特許文献1に示された車両用のナビゲーション装置においては、自位置周辺の画像情報を対象とする画像認識を行うに際して、画像認識処理の認識条件を可変設定することにより、演算処理負荷を軽減しつつ、誤認識を抑制して認識率を高めるための技術を示している。具体的には、自信度に応じて、画像情報に対する各対象地物についての画像認識処理を行う範囲を設定する。 Further, for example, in the navigation device for a vehicle shown in Patent Document 1, when performing image recognition for image information around its own position, the recognition condition of the image recognition process is variably set, so that the arithmetic processing load is increased. It shows a technique for suppressing false recognition and increasing the recognition rate while reducing the problem. Specifically, the range in which the image recognition processing for each target feature with respect to the image information is performed is set according to the degree of self-confidence.

また、特許文献2においては、車両周辺の情景が撮影された画像を、広域表示と拡大表示との間で切り替えて表示する車両用周辺監視装置を示している。また、撮影された広域撮影データが、表示装置に同じ視野で表示させるための広域表示データと、広域撮影データの中の一部を拡大して表示させるための拡大表示データとに変換可能に構成されることを示している。また、広域表示データが表示されている状態で「前方」のボタンを操作すると、広域撮影データの中の「前方」に相当する領域が拡大表示されることを示している。 Further, Patent Document 2 shows a vehicle peripheral monitoring device that switches and displays an image of a scene around a vehicle between wide area display and enlarged display. In addition, the captured wide-area shooting data can be converted into wide-area display data for displaying the same field of view on the display device and enlarged display data for displaying a part of the wide-area shooting data in an enlarged manner. It shows that it will be done. Further, it is shown that when the "front" button is operated while the wide area display data is displayed, the area corresponding to the "front" in the wide area shooting data is enlarged and displayed.

特開2008−298697号公報Japanese Unexamined Patent Publication No. 2008-298697 特開2008−301091号公報Japanese Unexamined Patent Publication No. 2008-301091

ところで、例えばデジタルタコグラフ等の車載器においては、例えば以下に示す(1)〜(3)のような様々な運転支援機能を搭載することが望まれている。
(1)自車両と先行車両との間の車間距離の接近しすぎに対して警報を出力する機能。
(2)自車両が所定の走行レーンの範囲を逸脱する場合に警報を出力する機能。
(3)路面の標示に基づき認識した制限速度に対する自車両の速度超過について警報を出力する機能。
By the way, for example, in-vehicle devices such as digital tachographs are desired to be equipped with various driving support functions such as (1) to (3) shown below.
(1) A function that outputs an alarm when the inter-vehicle distance between the own vehicle and the preceding vehicle is too close.
(2) A function that outputs an alarm when the own vehicle deviates from the range of a predetermined traveling lane.
(3) A function that outputs an alarm regarding the overspeed of the own vehicle with respect to the speed limit recognized based on the road surface marking.

上記の(1)〜(3)のような機能を実現する際には、例えば自車両の車載カメラで撮影した自車両前方の情景を表す映像信号を処理して様々なパターン認識を行うことが必要になる。すなわち、映像信号から得られる画像データに基づき、先行車両のパターン、走行レーンの左右境界を表す白線等のパターン、路面に標示されている制限速度の標示パターンなどをそれぞれ認識する必要がある。 When realizing the above functions (1) to (3), for example, it is possible to perform various pattern recognition by processing a video signal representing a scene in front of the own vehicle taken by the in-vehicle camera of the own vehicle. You will need it. That is, based on the image data obtained from the video signal, it is necessary to recognize the pattern of the preceding vehicle, the pattern such as the white line indicating the left-right boundary of the traveling lane, the speed limit marking pattern marked on the road surface, and the like.

また、車両に搭載される車載カメラについては、自車両前方を撮影する車載カメラの他に、自車両後方の情景を撮影する車載カメラや、車室内の乗員等を撮影する車載カメラが含まれる場合もある。したがって、車載器においては、複数台の車載カメラがそれぞれ出力する複数の映像信号を同時に処理することが必要になる場合もある。 In addition, as for the in-vehicle camera mounted on the vehicle, in addition to the in-vehicle camera that captures the front of the own vehicle, the in-vehicle camera that captures the scene behind the own vehicle and the in-vehicle camera that captures the occupants in the vehicle interior are included. There is also. Therefore, in the vehicle-mounted device, it may be necessary to simultaneously process a plurality of video signals output by each of the plurality of vehicle-mounted cameras.

しかしながら、自車両の走行等に伴って逐次変化する映像の中から複数のパターンを同時にリアルタイムで認識するためには、高性能の画像処理専用プロセッサや、高性能のマイクロコンピュータのように高価なハードウェアを車載器に搭載しなければならず、装置コストの増大が懸念される。しかし、比較的低コストのハードウェアで上記の機能を実現しようとすると、各パターンの認識処理に遅延が生じるため、安全運転を支援するための各種警報をリアルタイムで出力することが困難になる。 However, in order to simultaneously recognize multiple patterns in real time from images that change sequentially as the vehicle travels, etc., expensive hardware such as a high-performance image processing processor or a high-performance microcomputer The wear must be mounted on the in-vehicle device, and there is a concern that the device cost will increase. However, when trying to realize the above functions with relatively low-cost hardware, it becomes difficult to output various alarms for supporting safe driving in real time because the recognition process of each pattern is delayed.

そこで、例えば特許文献1および特許文献2に示されているように、画像の中で画像処理の対象とする範囲を予め限定することが想定される。範囲を限定することにより、画像処理の負荷が軽減されるので、比較的低コストのハードウェアを利用する場合であっても、認識処理の遅延をある程度抑制できる。 Therefore, as shown in, for example, Patent Document 1 and Patent Document 2, it is assumed that the range to be subject to image processing in the image is limited in advance. By limiting the range, the load of image processing is reduced, so that the delay in recognition processing can be suppressed to some extent even when relatively low-cost hardware is used.

しかし、上記の(1)〜(3)のような複数の機能を同時に実現しようとすると、同じ映像フレーム中の互いに異なる領域に映る複数の認識対象を同時に認識しなければならず、認識対象の範囲を狭くすることができない。その結果、認識対象の範囲のデータ量が増え、認識処理の遅延が増大する。また、複数の車載カメラの映像をそれぞれ処理する場合にも、認識対象物が映像フレーム中の様々な箇所に存在する可能性を考慮すると、対象の範囲を広げる必要がある。 However, when trying to realize a plurality of functions as described in (1) to (3) at the same time, it is necessary to simultaneously recognize a plurality of recognition targets appearing in different regions in the same video frame, and the recognition target must be recognized. The range cannot be narrowed. As a result, the amount of data in the recognition target range increases, and the delay in the recognition process increases. Further, even when processing the images of a plurality of in-vehicle cameras, it is necessary to expand the range of the objects in consideration of the possibility that the recognition object exists in various places in the image frame.

また、自車両が前進、停車、後退のいずれの状態であるかに応じて、映像フレーム中の注目すべき重要な領域が互いに異なるので、どの状態でも重要な領域を認識可能にするためには、認識対象の範囲の制限を緩和しなければならない。したがって、認識対象の範囲のデータ量が増え、認識処理の遅延が増大する。 In addition, since the important areas to be noted in the video frame are different from each other depending on whether the own vehicle is in the forward, stopped, or backward state, in order to make the important area recognizable in any state. , The limitation of the range of recognition must be relaxed. Therefore, the amount of data in the recognition target range increases, and the delay in the recognition process increases.

本発明は、上述した事情に鑑みてなされたものであり、その目的は、自車両の前進、停車、後退等の複数の状態のいずれにおいても重要な領域の認識を可能にすると共に、画像処理の負荷の低減が可能な車載器および運転支援装置を提供することにある。 The present invention has been made in view of the above circumstances, and an object of the present invention is to enable recognition of an important region in any of a plurality of states such as forward movement, stoppage, and backward movement of the own vehicle, and image processing. It is an object of the present invention to provide an in-vehicle device and a driving support device capable of reducing the load of the vehicle.

前述した目的を達成するために、本発明に係る車載器および運転支援装置は、下記(1)〜(5)を特徴としている。
(1) 車両の後方を撮影可能な車載カメラが出力する映像信号を入力して処理する画像処理部と、
前記車両における走行の有無および進行方向の少なくとも一方の状態を検知する車両状態検知部と、
前記画像処理部が処理する前記映像信号内の領域を動的に決定する画像領域決定部と、
を有し、
前記画像領域決定部は、前記車両状態検知部の検知状態を反映して、前記領域を自動的に変更
前記画像領域決定部は、前記車両状態検知部の検知状態に基づいて、前記車両の前進、後退、および停止のいずれかの状態を認識し、
前記車両の前進を認識した場合に前記画像処理部が処理する前記領域の数又は大きさが、前記車両の後退を認識した場合及び前記車両の停止を認識した場合に前記画像処理部が処理する前記領域の数又は大きさより小さい、
ことを特徴とする車載器。
In order to achieve the above-mentioned object, the on-board unit and the driving support device according to the present invention are characterized by the following (1) to (5).
(1) An image processing unit that inputs and processes video signals output by an in-vehicle camera capable of photographing the rear of the vehicle, and an image processing unit.
A vehicle condition detection unit that detects at least one of the presence / absence of traveling and the traveling direction of the vehicle, and
An image area determination unit that dynamically determines an area in the video signal processed by the image processing unit, and an image area determination unit.
Have,
The image area determination unit, reflecting the detection state of the vehicle state detection unit, automatically changing the area,
The image area determination unit recognizes one of the forward, backward, and stopped states of the vehicle based on the detection state of the vehicle state detection unit.
The image processing unit processes the number or size of the regions processed by the image processing unit when the forward movement of the vehicle is recognized, when the backward movement of the vehicle is recognized and when the stop of the vehicle is recognized. Less than the number or size of the regions,
An in-vehicle device characterized by that.

上記(1)及び上記(4)の構成の車載器によれば、車両状態検知部の検知状態に応じて、画像処理部が処理する映像信号内の領域を動的に決定することができる。したがって、例えば、自車両の前進、停車、後退等の複数の状態のいずれにおいても重要な領域の認識を可能とし、且つ処理対象のデータ量が削減されるように領域を最適化して、処理の負荷を低減できる。
更に、車両の前進、後退、および停止のいずれかの状態を認識できるので、状態に応じた適切な領域を画像処理部の処理対象として割り当てることができる。すなわち、車両の前進、後退、および停止のいずれの状態においても、映像フレーム中の注目すべき重要な領域のみを処理対象にし、データ量が削減されるように領域を最適化することができる。
According to the in-vehicle device having the above (1) and (4) configurations, the region in the video signal processed by the image processing unit can be dynamically determined according to the detection state of the vehicle state detection unit. Therefore, for example, it is possible to recognize an important area in any of a plurality of states such as forward, stop, and reverse of the own vehicle, and the area is optimized so that the amount of data to be processed is reduced. The load can be reduced.
Further, since any one of the forward, backward, and stop states of the vehicle can be recognized, an appropriate area according to the state can be assigned as the processing target of the image processing unit. That is, in any of the forward, backward, and stop states of the vehicle, only the important region of interest in the video frame can be processed, and the region can be optimized so that the amount of data is reduced.

(2) 前記画像領域決定部は、
前記映像信号内に事前に割り当てた複数の二次元領域の各々の位置および大きさを表す定数データを保持する定数保持部を有し、
前記複数の二次元領域の中から、前記車両状態検知部の検知状態に応じて選択した1つ以上の二次元領域を、前記画像処理部が処理する前記映像信号内の領域として割り当てる、
ことを特徴とする上記(1)に記載の車載器。
(2) The image area determination unit is
It has a constant holding unit that holds constant data representing the position and size of each of a plurality of two-dimensional regions allocated in advance in the video signal.
One or more two-dimensional regions selected according to the detection state of the vehicle state detection unit from the plurality of two-dimensional regions are allocated as regions in the video signal processed by the image processing unit.
The on-board unit according to (1) above.

上記(2)の構成の車載器によれば、画像領域決定部は、定数保持部が保持している定数データに基づいて、画像処理部が処理する領域の適切な位置および大きさを容易に決定できる。 According to the in-vehicle device having the configuration of (2) above, the image area determination unit can easily determine an appropriate position and size of the area processed by the image processing unit based on the constant data held by the constant holding unit. Can be decided.

(3) 前記画像領域決定部は、前記車両状態検知部の検知状態に応じて、前記複数の二次元領域の中から選択する二次元領域の数およびその組み合わせを自動的に決定する、
ことを特徴とする上記(2)に記載の車載器。
(3) The image area determination unit automatically determines the number of two-dimensional areas to be selected from the plurality of two-dimensional areas and a combination thereof according to the detection state of the vehicle state detection unit.
The on-board unit according to (2) above.

上記(3)の構成の車載器によれば、例えば、自車両の前進、停車、後退等の複数の状態のそれぞれについて、同時に複数の二次元領域を割り当てることができ、二次元領域の数およびその組み合わせを最適化することもできる。また、映像フレーム中で注目すべき複数の重要な箇所が互いに離れた位置に分散している場合であっても、同時に複数の二次元領域を割り当てることにより、各々の二次元領域のサイズを削減し、画像処理部が処理するデータ量を大幅に削減できる。 According to the in-vehicle device having the configuration of (3) above, for example, a plurality of two-dimensional regions can be simultaneously assigned to each of a plurality of states such as forward, stop, and reverse of the own vehicle, and the number of two-dimensional regions and The combination can also be optimized. In addition, even when a plurality of important points of interest in a video frame are dispersed at positions separated from each other, the size of each two-dimensional region can be reduced by allocating a plurality of two-dimensional regions at the same time. However, the amount of data processed by the image processing unit can be significantly reduced.

(4) 前記車両の停止を認識した場合に前記画像処理部が処理する前記領域の数又は大きさが、前記車両の後退を認識した場合に前記画像処理部が処理する前記領域の数又は大きさより小さい、
ことを特徴とする上記(1)乃至(3)のいずれかに記載の車載器。
(4) The number or size of the area processed by the image processing unit when the stop of the vehicle is recognized is the number or size of the area processed by the image processing unit when the vehicle is recognized as backward. Smaller than
The on-board unit according to any one of (1) to (3) above.

(5) 上記(1)乃至(4)のいずれかに記載の車載器と、
前記画像処理部が前記映像信号の中から認識した結果と、事前に定めた判定基準とに基づいて、前記車両の安全運転を支援する警報を生成する警報生成部と、
を備えたことを特徴とする運転支援装置。
(5) The on-board unit according to any one of (1) to (4) above, and
An alarm generation unit that generates an alarm that supports safe driving of the vehicle based on the result recognized by the image processing unit from the video signal and a predetermined determination criterion.
A driving support device characterized by being equipped with.

上記(5)の構成の運転支援装置によれば、車両状態検知部の検知状態に応じて、画像処理部が処理する映像信号内の領域を動的に決定できる。したがって、入力された映像フレームから同時に複数の移動物体を認識し、複数種類の警報を出力する機能を実現する場合であっても、処理対象のデータ量を削減し、警報の遅延を抑制できる。 According to the driving support device having the configuration of (5) above, the region in the video signal processed by the image processing unit can be dynamically determined according to the detection state of the vehicle state detection unit. Therefore, even when a function of simultaneously recognizing a plurality of moving objects from an input video frame and outputting a plurality of types of alarms is realized, the amount of data to be processed can be reduced and the delay of the alarms can be suppressed.

本発明の車載器および運転支援装置によれば、自車両の前進、停車、後退等の複数の状態のいずれにおいても重要な領域の認識を可能にすると共に、画像処理の負荷の低減が可能になる。 According to the on-board unit and the driving support device of the present invention, it is possible to recognize an important area in any of a plurality of states such as forward, stop, and reverse of the own vehicle, and it is possible to reduce the load of image processing. Become.

以上、本発明について簡潔に説明した。更に、以下に説明される発明を実施するための形態(以下、「実施形態」という。)を添付の図面を参照して通読することにより、本発明の詳細は更に明確化されるであろう。 The present invention has been briefly described above. Further, the details of the present invention will be further clarified by reading through the embodiments described below (hereinafter referred to as "embodiments") with reference to the accompanying drawings. ..

図1は、本発明の実施の形態における運行管理システムの構成例を示すブロック図である。FIG. 1 is a block diagram showing a configuration example of an operation management system according to an embodiment of the present invention. 図2は、運転支援機能を実現するためのデジタルタコグラフの動作例を示すフローチャートである。FIG. 2 is a flowchart showing an operation example of a digital tachograph for realizing a driving support function. 図3(a)、図3(b)、および図3(c)は、互いに異なる車両の状態で得られる各画像フレームとその中に割り当てられる各検知枠との関係の具体例を示す正面図である。3 (a), 3 (b), and 3 (c) are front views showing specific examples of the relationship between each image frame obtained in different vehicle states and each detection frame assigned therein. Is. 図4は、車両の状態に応じて使用する検知枠を自動的に決定するためのデジタルタコグラフの動作例を示すフローチャートである。FIG. 4 is a flowchart showing an operation example of the digital tachograph for automatically determining the detection frame to be used according to the state of the vehicle. 図5は、デジタルタコグラフが参照する車両状態テーブルT1の構成例を示す模式図である。FIG. 5 is a schematic view showing a configuration example of the vehicle state table T1 referred to by the digital tachograph. 図6は、デジタルタコグラフが参照する検知枠テーブルT2の構成例を示す模式図である。FIG. 6 is a schematic diagram showing a configuration example of the detection frame table T2 referred to by the digital tachograph.

本発明に関する具体的な実施形態について、各図を参照しながら以下に説明する。 Specific embodiments of the present invention will be described below with reference to the respective figures.

<システムの構成および動作の概要>
本発明の実施の形態における運行管理システム5の構成例を図1に示す。
図1に示した運行管理システム5は、トラック運送会社やバス会社等の事業者の設備として導入される。この運行管理システム5は、トラックやバス等の各車両の運行状況を管理するものであり、各車両に車載器として搭載された運行記録装置(以下、デジタルタコグラフという)10と、各事業者の事務所等に設置される事務所PC30とで構成されている。デジタルタコグラフ10と、事務所PC30との間は、ネットワーク70を介して通信できるように接続される。
<Overview of system configuration and operation>
FIG. 1 shows a configuration example of the operation management system 5 according to the embodiment of the present invention.
The operation management system 5 shown in FIG. 1 is introduced as equipment of a business operator such as a trucking company or a bus company. This operation management system 5 manages the operation status of each vehicle such as a truck or a bus, and includes an operation recording device (hereinafter referred to as a digital tachograph) 10 mounted on each vehicle as an on-board unit and each operator. It is composed of an office PC 30 installed in an office or the like. The digital tachograph 10 and the office PC 30 are connected so as to be able to communicate with each other via the network 70.

事務所PC30は、事務所に設置された汎用のコンピュータ装置で構成され、車両の運行状況を管理する。ネットワーク70は、デジタルタコグラフ10と広域通信を行う無線基地局8や事務所PC30が接続されるインターネット等のパケット通信網であり、デジタルタコグラフ10と事務所PC30と間で行われるデータ通信を中継する。デジタルタコグラフ10と無線基地局8との間の通信は、LTE(Long Term Evolution)/4G(4th Generation)等のモバイル通信網(携帯回線網)で行われてもよいし、無線LAN(Local Area Network)で行われてもよい。 The office PC 30 is composed of a general-purpose computer device installed in the office and manages the operation status of the vehicle. The network 70 is a packet communication network such as the Internet to which a radio base station 8 and an office PC 30 that perform wide area communication with the digital tachograph 10 are connected, and relays data communication performed between the digital tachograph 10 and the office PC 30. .. Communication between the digital tachograph 10 and the wireless base station 8 may be performed by a mobile communication network (mobile line network) such as LTE (Long Term Evolution) / 4G (4th Generation), or a wireless LAN (Local Area). Network) may be used.

デジタルタコグラフ10は、車両に搭載され、出入庫時刻、走行距離、走行時間、走行速度、速度オーバー、エンジン回転数オーバー、急発進、急加速、急減速等の運行データを記録する。また、本実施形態のデジタルタコグラフ10は、それ以外に後述する運転支援機能を搭載している。 The digital tachograph 10 is mounted on a vehicle and records operation data such as entry / exit time, mileage, traveling time, traveling speed, speed over, engine speed over, sudden start, sudden acceleration, and sudden deceleration. In addition, the digital tachograph 10 of the present embodiment is equipped with a driving support function described later.

図1に示したデジタルタコグラフ10は、ハードウェアとして、CPU(マイクロコンピュータ)11、速度I/F(インタフェース)12A、エンジン回転I/F12B、外部入力I/F13、センサ入力I/F14、GPS受信部15、カメラI/F16、不揮発メモリ26A、揮発メモリ26B、記録部17、カードI/F18、音声I/F19、RTC(時計IC)21、SW入力部22、通信部24、表示部27、およびアナログ入力I/F29を内蔵している。 The digital tachograph 10 shown in FIG. 1 has a CPU (microcomputer) 11, a speed I / F (interface) 12A, an engine rotation I / F12B, an external input I / F13, a sensor input I / F14, and GPS reception as hardware. Unit 15, camera I / F16, non-volatile memory 26A, volatile memory 26B, recording unit 17, card I / F18, voice I / F19, RTC (clock IC) 21, SW input unit 22, communication unit 24, display unit 27, It also has a built-in analog input I / F29.

CPU11は、予め組み込まれたプログラムに従い、デジタルタコグラフ10の各部を統括的に制御する。不揮発メモリ26Aは、CPU11によって実行される動作プログラムや、CPU11が参照する定数データやテーブルなどを予め保持している。不揮発メモリ26Aは、データの書き換えが可能なメモリであり、保持しているデータは必要に応じて更新できる。 The CPU 11 comprehensively controls each part of the digital tachograph 10 according to a program incorporated in advance. The non-volatile memory 26A holds in advance an operation program executed by the CPU 11, constant data and tables referred to by the CPU 11. The non-volatile memory 26A is a memory in which data can be rewritten, and the retained data can be updated as needed.

記録部17は、運行データや映像等のデータを記録する。カードI/F18には、乗務員が所持するメモリカード65が挿抜自在に接続される。CPU11は、カードI/F18に接続されたメモリカード65に対し運行データ、映像等のデータを書き込む。音声I/F19には、内蔵のスピーカ20が接続される。スピーカ20は、警報等の音声を発する。 The recording unit 17 records data such as operation data and video. A memory card 65 owned by the crew is freely inserted and removed from the card I / F18. The CPU 11 writes data such as operation data and video to the memory card 65 connected to the card I / F18. A built-in speaker 20 is connected to the voice I / F19. The speaker 20 emits a sound such as an alarm.

RTC21(計時部)は、現在時刻を計時する。SW入力部22には、出庫ボタン、入庫ボタン等の各種ボタンのON/OFF信号が入力される。表示部27は、LCD(liquid crystal display)で構成され、通信や動作の状態の他、警報等を表示する。 The RTC21 (timekeeping unit) measures the current time. ON / OFF signals of various buttons such as a warehousing button and a warehousing button are input to the SW input unit 22. The display unit 27 is composed of an LCD (liquid crystal display) and displays not only communication and operation status but also alarms and the like.

速度I/F12Aには、車両の速度を検出する車速センサ51が接続され、車速センサ51からの速度パルスが入力される。車速センサ51は、デジタルタコグラフ10にオプションとして設けられてもよいし、デジタルタコグラフ10とは別の装置として設けられてもよい。エンジン回転I/F12Bには、エンジン回転数センサ(図示せず)からの回転パルスが入力される。 A vehicle speed sensor 51 that detects the speed of the vehicle is connected to the speed I / F 12A, and a speed pulse from the vehicle speed sensor 51 is input. The vehicle speed sensor 51 may be provided as an option in the digital tachograph 10, or may be provided as a device separate from the digital tachograph 10. A rotation pulse from an engine speed sensor (not shown) is input to the engine speed I / F12B.

外部入力I/F13の入力には、車両のブレーキのオンオフを表すブレーキ信号や、自動変速機の変速状態(前進/後退の区別を含む)を表す変速信号が、外部機器(図示せず)から印加される。 External input I / F13 inputs include a brake signal indicating the on / off of the vehicle brake and a shift signal indicating the shift state (including forward / reverse distinction) of the automatic transmission from an external device (not shown). It is applied.

センサ入力I/F14には、加速度(G値)を検知する(衝撃を感知する)加速度センサ(Gセンサ)28が接続され、Gセンサ28からの信号が入力される。Gセンサとしては、加速度による機械的な変位を、振動として読み取る方式や光学的に読み取る方式を有するものが挙げられるが、特に限定されない。また、Gセンサは、車両前方からの衝撃を感知する(減速Gを検知する)他、左右方向からの衝撃を感知しても(横Gを検知しても)よいし、車両後方からの衝撃を感知しても(加速Gを検知しても)よい。Gセンサは、これらの加速度を検知可能なように、1つもしくは複数のセンサで構成される。 An acceleration sensor (G sensor) 28 that detects acceleration (G value) (sensing an impact) is connected to the sensor input I / F 14, and a signal from the G sensor 28 is input. Examples of the G sensor include those having a method of reading mechanical displacement due to acceleration as vibration and a method of reading optically, but the G sensor is not particularly limited. Further, the G sensor may detect an impact from the front of the vehicle (detecting deceleration G), may also detect an impact from the left-right direction (detect a lateral G), or may detect an impact from the rear of the vehicle. May be detected (acceleration G may be detected). The G sensor is composed of one or a plurality of sensors so as to be able to detect these accelerations.

アナログ入力I/F29には、エンジン温度(冷却水温)を検知する温度センサ(図示せず)、燃料量を検知する燃料量センサ(図示せず)等の信号が入力される。CPU11は、これらのI/Fを介して入力される情報を基に、各種の運転状態を検出する。 Signals such as a temperature sensor (not shown) for detecting the engine temperature (cooling water temperature) and a fuel amount sensor (not shown) for detecting the amount of fuel are input to the analog input I / F29. The CPU 11 detects various operating states based on the information input via these I / Fs.

GPS受信部15は、GPSアンテナ15aに接続され、GPS(Global Positioning System)衛星から送信される信号の電波を受信し、現在位置(GPS位置情報)の情報を計算して取得する。 The GPS receiving unit 15 is connected to the GPS antenna 15a, receives radio waves of signals transmitted from GPS (Global Positioning System) satellites, and calculates and acquires information on the current position (GPS position information).

カメラI/F16の入力には、複数の車載カメラ23、23Bが接続されている。本実施形態では、一方の車載カメラ23は自車両の進行方向前方の道路等の情景を撮影できる向きで固定した状態で車室内に設置されている。したがって、車載カメラ23が撮影する映像の中には、自車両の前方に存在する先行車両、走行中の走行レーン境界を表す白線、路面上の交通規制の標示(制限速度など)が現れる。また、他方の車載カメラ23は、自車両の後方の道路等の情景を撮影できる向きで固定した状態で車室内に設置されている。 A plurality of in-vehicle cameras 23 and 23B are connected to the input of the camera I / F16. In the present embodiment, one of the in-vehicle cameras 23 is installed in the vehicle interior in a state of being fixed in a direction capable of photographing a scene such as a road ahead in the traveling direction of the own vehicle. Therefore, in the image captured by the vehicle-mounted camera 23, a preceding vehicle existing in front of the own vehicle, a white line indicating the boundary of the traveling lane during traveling, and a traffic regulation sign (speed limit, etc.) on the road surface appear. The other in-vehicle camera 23 is installed in the vehicle interior in a state of being fixed so as to be able to photograph a scene such as a road behind the own vehicle.

車載カメラ23、23Bは、例えば魚眼レンズを通して撮像される撮像面に例えば30万画素、100万画素、200万画素が配置されたイメージセンサを有する。イメージセンサは、CMOS(相補性金属酸化膜半導体)センサやCCD(電荷結合素子)センサなど公知のセンサで構成されている。 The in-vehicle cameras 23 and 23B have, for example, an image sensor in which 300,000 pixels, 1 million pixels, and 2 million pixels are arranged on an imaging surface imaged through a fisheye lens. The image sensor is composed of known sensors such as a CMOS (complementary metal oxide semiconductor) sensor and a CCD (charge-coupled device) sensor.

車載カメラ23、23Bがそれぞれ出力する映像の信号は、カメラI/F16の内部回路によって画素毎の階調や色を表すデジタル信号に変換され、フレーム毎の画像データとしてカメラI/F16から出力される。 The video signals output by the in-vehicle cameras 23 and 23B are converted into digital signals representing the gradation and color of each pixel by the internal circuit of the camera I / F16, and output from the camera I / F16 as image data for each frame. NS.

各車載カメラ23、23Bで撮影された映像(画像データ)は、記録部17の動作により時系列データとして記録されるが、所定時間分だけ記録されるように繰り返し上書きされる。この所定時間は、例えば事故発生時、事故の状況が分かるように、事故発生前後の数秒間(例えば、2秒、4秒、10秒等)に相当する時間である。カメラ23で撮像される画像は、静止画でもよいし動画であってもよい。事故発生前後の映像は、事務所PC30の表示部33に表示される。 The video (image data) captured by the in-vehicle cameras 23 and 23B is recorded as time-series data by the operation of the recording unit 17, but is repeatedly overwritten so as to be recorded for a predetermined time. This predetermined time is, for example, a time corresponding to several seconds (for example, 2 seconds, 4 seconds, 10 seconds, etc.) before and after the accident so that the situation of the accident can be understood at the time of the accident. The image captured by the camera 23 may be a still image or a moving image. The images before and after the accident are displayed on the display unit 33 of the office PC30.

また、本実施形態のデジタルタコグラフ10は、例えば以下に示す(1)〜(4)のような運転支援機能を搭載している。
(1)自車両と先行車両との車間距離が近すぎる場合に警報を出力する機能。
(2)自車両が走行中の走行レーンの範囲を逸脱した場合に警報を出力する機能。
(3)自車両の走行速度が路面標示の制限速度を超えた場合に速度超過の警報を出力する機能。
(4)自車両の後退時などの状況において周囲の障害物等の存在を運転者に知らせる機能。
Further, the digital tachograph 10 of the present embodiment is equipped with the following driving support functions (1) to (4), for example.
(1) A function that outputs an alarm when the distance between the own vehicle and the preceding vehicle is too close.
(2) A function that outputs an alarm when the own vehicle deviates from the range of the traveling lane in which the vehicle is traveling.
(3) A function that outputs an overspeed warning when the traveling speed of the own vehicle exceeds the speed limit indicated on the road surface.
(4) A function that notifies the driver of the existence of surrounding obstacles in situations such as when the own vehicle is reversing.

上記(1)〜(4)の各機能を実現するためには、各車載カメラ23、23Bで撮影された映像の画像データを処理して、所定の画像認識を行う必要がある。すなわち、画像認識により先行車両の位置及び距離を特定したり、走行レーン境界の白線と自車両との相対位置を検出したり、路面標示の制限速度を検出したり、様々な障害物を検出することが必要になる。 In order to realize each of the above functions (1) to (4), it is necessary to process the image data of the images taken by the in-vehicle cameras 23 and 23B to perform predetermined image recognition. That is, the position and distance of the preceding vehicle can be specified by image recognition, the relative position between the white line at the boundary of the traveling lane and the own vehicle can be detected, the speed limit of the road marking can be detected, and various obstacles can be detected. Is needed.

上記のような画像認識は、CPU11が組み込まれたプログラムに従って所定の認識アルゴリズムを実行することにより実現できる。しかし、処理対象の画像のデータ量が多い場合には、画像認識に要するCPU11の負荷が非常に大きくなるので、リアルタイムでの処理が困難になり、検出の遅延が発生する可能性がある。特に、複数の車載カメラ23、23Bの映像を同時に処理したり、複数の認識対象を同時に検出するような場合には、遅延の発生が懸念される。そこで、本実施形態においては、画像認識を実行する際に、後述するように検知枠を設けて処理対象のデータ範囲を限定すると共に、車両の状態に応じて特別な処理を実施する。 The above image recognition can be realized by executing a predetermined recognition algorithm according to a program in which the CPU 11 is incorporated. However, when the amount of data of the image to be processed is large, the load on the CPU 11 required for image recognition becomes very large, which makes real-time processing difficult and may cause a delay in detection. In particular, when the images of the plurality of in-vehicle cameras 23 and 23B are processed at the same time or when a plurality of recognition targets are detected at the same time, there is a concern that a delay may occur. Therefore, in the present embodiment, when executing image recognition, a detection frame is provided as described later to limit the data range to be processed, and special processing is performed according to the state of the vehicle.

通信部24は、広域通信を行い、携帯回線網(モバイル通信網)を介して無線基地局8に接続されると、無線基地局8と繋がるインターネット等のネットワーク70を介して、事務所PC30と通信を行う。電源部25は、イグニッションスイッチのオン等によりデジタルタコグラフ10の各部に電力を供給する。 When the communication unit 24 performs wide area communication and is connected to the radio base station 8 via the mobile line network (mobile communication network), the communication unit 24 and the office PC 30 are connected to the office PC 30 via a network 70 such as the Internet connected to the radio base station 8. Communicate. The power supply unit 25 supplies electric power to each unit of the digital tachograph 10 by turning on the ignition switch or the like.

一方、事務所PC30は、汎用のオペレーティングシステムで動作するPC(パーソナルコンピュータ)により構成されている。事務所PC30は、運行管理装置として機能し、CPU31、通信部32、表示部33、記憶部34、カードI/F35、操作部36、出力部37、音声I/F38及び外部I/F48を有する。 On the other hand, the office PC 30 is composed of a PC (personal computer) that operates on a general-purpose operating system. The office PC 30 functions as an operation management device and has a CPU 31, a communication unit 32, a display unit 33, a storage unit 34, a card I / F35, an operation unit 36, an output unit 37, a voice I / F38, and an external I / F48. ..

CPU31は、事務所PC30の各部を統括的に制御する。通信部32は、ネットワーク70を介してデジタルタコグラフ10と通信可能である。また、通信部32は、ネットワーク70に接続された各種のデータベース(図示せず)とも接続可能であり、必要なデータを取得可能である。 The CPU 31 comprehensively controls each part of the office PC 30. The communication unit 32 can communicate with the digital tachograph 10 via the network 70. Further, the communication unit 32 can also connect to various databases (not shown) connected to the network 70, and can acquire necessary data.

表示部33は、運行管理画面の他、事故映像やハザードマップ等を表示する。記憶部34は、デジタルタコグラフ10から受信した映像を表示したり車両の位置情報を地図上に表示するためのシステム解析ソフトウェア等、各種プログラムを保持している。 The display unit 33 displays an accident image, a hazard map, and the like in addition to the operation management screen. The storage unit 34 holds various programs such as system analysis software for displaying the image received from the digital tachograph 10 and displaying the position information of the vehicle on the map.

カードI/F35には、メモリカード65が挿抜自在に装着される。カードI/F35は、デジタルタコグラフ10によって計測され、メモリカード65に記憶された運行データを入力する。操作部36は、キーボードやマウス等を有し、事務所の管理者の操作を受け付ける。出力部37は、各種データを出力する。音声I/F38には、マイク41及びスピーカ42が接続される。事務所の管理者は、マイク41及びスピーカ42を用いて音声通話を行うことも可能であり、車両の事故が発生した場合、救急や警察等への連絡を行う。 A memory card 65 is freely inserted and removed from the card I / F35. The card I / F35 inputs the operation data measured by the digital tachograph 10 and stored in the memory card 65. The operation unit 36 has a keyboard, a mouse, and the like, and accepts operations by an office manager. The output unit 37 outputs various data. A microphone 41 and a speaker 42 are connected to the voice I / F 38. The office manager can also make a voice call using the microphone 41 and the speaker 42, and when a vehicle accident occurs, he / she contacts the emergency department or the police.

外部I/F48には、外部記憶装置(ストレージメモリ)54が接続される。外部記憶装置54は、事故地点データベース(DB)55、運行データDB56、ハザードマップDB57を保持する。事故地点データベース(DB)55には、デジタルタコグラフ10から送信される、事故発生時の車両のGPS位置情報(緯度,経度)が登録される。運行データDB56には、運行データとして、出入庫時刻、速度、走行距離等の他、急加減速、急ハンドル、速度オーバー、エンジン回転数オーバー等が記録される。ハザードマップDB57には、過去に事故が発生した地点(事故地点)を表すマークが地図に重畳して記述された地図データが登録される。なお、このハザードマップには、天災等の災害が想定される地域や避難場所等が記述されてもよい。 An external storage device (storage memory) 54 is connected to the external I / F 48. The external storage device 54 holds the accident point database (DB) 55, the operation data DB 56, and the hazard map DB 57. The GPS position information (latitude, longitude) of the vehicle at the time of the accident, which is transmitted from the digital tachograph 10, is registered in the accident point database (DB) 55. In the operation data DB 56, in addition to the entry / exit time, speed, mileage, etc., sudden acceleration / deceleration, sudden steering, speed over, engine speed over, etc. are recorded as operation data. In the hazard map DB 57, map data in which a mark indicating a point (accident point) where an accident occurred in the past is superimposed on the map is registered. In this hazard map, areas where disasters such as natural disasters are expected, evacuation sites, etc. may be described.

CPU31は、ハザードマップDB57から指定された地域(例えば、事故地点を含む地域)のハザードマップを読み出して表示部33に表示する際、事故地点DB55に登録された事故地点のデータを取得し、ハザードマップ上にこれらの事故地点を表すマークを重畳し、新たなハザードマップを生成する。事務所の管理者は、最新の事故地点を地図(ハザードマップ)上で即座に視認できる。 When the CPU 31 reads out the hazard map of the area designated from the hazard map DB 57 (for example, the area including the accident point) and displays it on the display unit 33, the CPU 31 acquires the data of the accident point registered in the accident point DB 55 and causes the hazard. A new hazard map is generated by superimposing marks representing these accident points on the map. Office managers can instantly see the latest accident points on a map (hazard map).

<運転支援機能の詳細>
運転支援機能を実現するためのデジタルタコグラフ10の動作例を図2に示す。図2に示した動作は、デジタルタコグラフ10内のCPU11により短い時間周期で繰り返し実行される。
<Details of driving support function>
FIG. 2 shows an operation example of the digital tachograph 10 for realizing the driving support function. The operation shown in FIG. 2 is repeatedly executed by the CPU 11 in the digital tachograph 10 in a short time cycle.

ステップS21では、各車載カメラ23、23Bの撮影した映像に相当する各フレームの画像データに対して所定の画像認識処理をCPU11が実行する。但し、処理対象のデータは、各画像フレームの中で事前に定めた各検知枠の範囲内のみに限定する。各検知枠の範囲は、例えば検知枠テーブルT2Aを参照することにより特定できる。検知枠テーブルT2Aについては後で説明する。 In step S21, the CPU 11 executes a predetermined image recognition process on the image data of each frame corresponding to the images captured by the in-vehicle cameras 23 and 23B. However, the data to be processed is limited to the range of each detection frame predetermined in each image frame. The range of each detection frame can be specified by referring to, for example, the detection frame table T2A. The detection frame table T2A will be described later.

ステップS22では、CPU11がS21の認識結果を利用して、車間距離検出処理を実行する。すなわち、画像フレーム内で検出した先行車両の位置と、自車両との位置関係を把握し、画像上の距離と各カメラの撮影条件とに基づいて車間距離を算出する。更に、算出した車間距離を事前に定めた閾値と比較し、車間距離が近すぎる場合に車間距離の警報を出力する。 In step S22, the CPU 11 uses the recognition result of S21 to execute the inter-vehicle distance detection process. That is, the position of the preceding vehicle detected in the image frame and the positional relationship with the own vehicle are grasped, and the inter-vehicle distance is calculated based on the distance on the image and the shooting conditions of each camera. Further, the calculated inter-vehicle distance is compared with a predetermined threshold value, and when the inter-vehicle distance is too close, an inter-vehicle distance warning is output.

ステップS23では、CPU11がS21の認識結果を利用して、レーン逸脱検出処理を実行する。すなわち、画像フレーム内で検出した走行レーン境界の白線の位置と、自車両の位置との左右方向の位置関係や距離を算出し、その結果を事前に定めた判定条件と比較することにより、車線逸脱の有無を識別する。そして、車線逸脱ありの場合は車線逸脱の警報を出力する。 In step S23, the CPU 11 executes the lane deviation detection process by using the recognition result of S21. That is, by calculating the positional relationship and distance in the left-right direction between the position of the white line on the boundary of the traveling lane detected in the image frame and the position of the own vehicle, and comparing the result with a predetermined judgment condition, the lane is reached. Identify the presence or absence of deviation. Then, if there is a lane deviation, a lane deviation warning is output.

ステップS24では、CPU11がS21の認識結果を利用して、速度超過検出処理を実行する。すなわち、路面上の制限速度標示に基づき認識した制限速度と、自車両の現在の走行速度とを比較して速度超過の有無を識別する。そして、速度超過ありの場合は速度超過の警報を出力する。 In step S24, the CPU 11 uses the recognition result of S21 to execute the overspeed detection process. That is, the presence or absence of overspeed is identified by comparing the speed limit recognized based on the speed limit marking on the road surface with the current running speed of the own vehicle. Then, if there is an overspeed, an overspeed warning is output.

ステップS25では、CPU11がS21の認識結果を利用して、上記以外の検出処理を実行する。例えば、様々な障害物の有無、移動する物体の有無、道路上の各種境界位置などを検出する。そして、障害物や移動する物体への接近を検知した場合や、境界位置に自車両が接近したような場合に警報を出力する。 In step S25, the CPU 11 uses the recognition result of S21 to execute a detection process other than the above. For example, the presence / absence of various obstacles, the presence / absence of moving objects, various boundary positions on the road, and the like are detected. Then, an alarm is output when an approach to an obstacle or a moving object is detected, or when the own vehicle approaches the boundary position.

<画像フレームと検知枠との関係>
互いに異なる車両の状態で得られる各画像フレーム100A、100B、100Cとその中に割り当てられる各検知枠との関係の具体例を図3(a)、図3(b)、および図3(c)にそれぞれ示す。
<Relationship between image frame and detection frame>
Specific examples of the relationship between the image frames 100A, 100B, 100C obtained in different vehicle states and the detection frames assigned therein are shown in FIGS. 3 (a), 3 (b), and 3 (c). Each is shown in.

車載カメラ23、23Bの撮影により得られる画像データをCPU11が画像認識する際に、画像のデータ量が多いとCPU11の処理の負荷が大きくなり、リアルタイムでの処理が困難になり、遅延が発生する。そこで、CPU11の処理の負荷を減らすために、処理対象のデータ量を削減する。具体的には、処理対象のデータの範囲を定める検知枠を設ける。 When the CPU 11 recognizes the image data obtained by shooting the in-vehicle cameras 23 and 23B, if the amount of image data is large, the processing load of the CPU 11 becomes large, the processing in real time becomes difficult, and a delay occurs. .. Therefore, in order to reduce the processing load of the CPU 11, the amount of data to be processed is reduced. Specifically, a detection frame that defines the range of data to be processed is provided.

また、特に後方を撮影する車載カメラ23Bの画像を処理する場合には、車両の状態が「後退」、「停車」、「前進」のいずれであるかに応じて、最適化するように検知枠の総数、各検知枠の位置、各検知枠の大きさなどを変更する。すなわち、車両の状態が「後退」、「停車」、「前進」のいずれであるかに応じて、画像フレーム中で注目すべき重要な箇所がそれぞれ異なるので、車両の状態に合わせて変更することにより各検知枠を最小化することが可能であり、処理対象のデータ量を効果的に削減できる。 Further, particularly when processing the image of the in-vehicle camera 23B that captures the rear view, the detection frame is optimized so as to be optimized according to whether the vehicle state is "backward", "stopped", or "forwarded". Change the total number of, the position of each detection frame, the size of each detection frame, etc. That is, the important points to be noted in the image frame differ depending on whether the vehicle state is "backward", "stopped", or "forwarded", so change it according to the vehicle state. Therefore, each detection frame can be minimized, and the amount of data to be processed can be effectively reduced.

図3(a)、図3(b)、および図3(c)は、それぞれ「後退」、「停車」、および「前進」の状態における各画像フレーム100A、100B、100Cとその中に割り当てられる各検知枠との関係との具体例を示している。 3 (a), 3 (b), and 3 (c) are assigned to and within the respective image frames 100A, 100B, 100C in the "backward", "stopped", and "forwarded" states, respectively. A specific example of the relationship with each detection frame is shown.

図3(a)に示した画像フレーム100Aにおいては、このフレーム内の互いに異なる位置に、7つの互いに独立した矩形の検知枠F11、F12、F13、F14、F15、F16、F17が割り当ててある。また、図3(b)に示した画像フレーム100Bにおいては、このフレーム内の互いに異なる位置に、5つの互いに独立した矩形の検知枠F21、F22、F23、F24、F25が割り当ててある。また、図3(c)に示した画像フレーム100Cにおいては、このフレーム内の互いに異なる位置に、2つの互いに独立した矩形の検知枠F31、F32が割り当ててある。 In the image frame 100A shown in FIG. 3A, seven independent rectangular detection frames F11, F12, F13, F14, F15, F16, and F17 are assigned to different positions in the frame. Further, in the image frame 100B shown in FIG. 3B, five independent rectangular detection frames F21, F22, F23, F24, and F25 are assigned to different positions in the frame. Further, in the image frame 100C shown in FIG. 3C, two mutually independent rectangular detection frames F31 and F32 are assigned to different positions in the frame.

すなわち、自車両が後退する場合には、図3(a)に示した各検知枠F11〜F17のように、後方の映像における様々な箇所、つまり自車両後方周辺と進行方向先にそれぞれ注目することにより、後退時における安全を十分に確保できる。また、自車両が停車している時には、図3(b)に示した各検知枠F21〜F25のように、後方の映像における近距離の自車両周辺にそれぞれ注目することにより、自車両が停車状態から動き始める際の安全を十分に確保できる。また、自車両が前進している時には、図3(c)に示した検知枠F31、F32のように、後方の映像における近距離の左右脇のみに注目するだけで、後方側の安全を十分に確保できる。 That is, when the own vehicle moves backward, attention is paid to various parts in the rear image, that is, the periphery behind the own vehicle and the destination in the traveling direction, as shown in the detection frames F11 to F17 shown in FIG. As a result, sufficient safety can be ensured when reversing. Further, when the own vehicle is stopped, the own vehicle is stopped by paying attention to the vicinity of the own vehicle at a short distance in the rear image as shown in the detection frames F21 to F25 shown in FIG. 3 (b). Sufficient safety can be ensured when starting to move from the state. Further, when the own vehicle is moving forward, as shown in the detection frames F31 and F32 shown in FIG. 3C, it is sufficient to pay attention only to the left and right sides at a short distance in the rear image to ensure sufficient safety on the rear side. Can be secured.

一方、自車両が前進している時には、車載カメラ23Bが撮影した後方の映像と同時に、車載カメラ23が撮影した前方の映像を認識することが不可欠であり、CPU11の処理の負荷が大きくなる。ここで、前方の映像と後方の映像を同時に処理すると、更にCPU11の負荷が増大する。しかし、後方の映像の中で画像処理の対象範囲を図3(c)に示した検知枠F31、F32のみに限定することにより、処理対象のデータ量が減り、負荷の増大を抑制できる。 On the other hand, when the own vehicle is moving forward, it is indispensable to recognize the front image captured by the vehicle-mounted camera 23 at the same time as the rear image captured by the vehicle-mounted camera 23B, which increases the processing load of the CPU 11. Here, if the front image and the rear image are processed at the same time, the load on the CPU 11 further increases. However, by limiting the target range of image processing to only the detection frames F31 and F32 shown in FIG. 3C in the rear image, the amount of data to be processed can be reduced and an increase in load can be suppressed.

<車両の状態に応じた検知枠の自動切替>
車両の状態に応じて使用する検知枠を自動的に決定するためのデジタルタコグラフ10の動作例を図4に示す。すなわち、デジタルタコグラフ10のCPU11が図4に示した動作を実行することにより、例えば図3(a)、図3(b)、および図3(c)に示したような検知枠の自動切替が実現する。図4の動作について以下に説明する。
<Automatic switching of detection frame according to vehicle condition>
FIG. 4 shows an operation example of the digital tachograph 10 for automatically determining the detection frame to be used according to the state of the vehicle. That is, when the CPU 11 of the digital tachograph 10 executes the operation shown in FIG. 4, for example, the detection frame is automatically switched as shown in FIGS. 3 (a), 3 (b), and 3 (c). Realize. The operation of FIG. 4 will be described below.

ステップS11では、CPU11は、自車両の前進/後退を識別する。例えば、自車両の自動変速機から得られる変速信号の状態を参照することにより、自車両が前進、後退のいずれの状態であるのかを区別できる。 In step S11, the CPU 11 identifies the forward / backward movement of the own vehicle. For example, by referring to the state of the shift signal obtained from the automatic transmission of the own vehicle, it is possible to distinguish whether the own vehicle is in the forward or backward state.

ステップS12では、CPU11は、自車両が停車しているか否かを識別する。例えば、自車両の現在の走行速度の情報と、ブレーキ信号の状態とに基づいて停車の有無を区別できる。 In step S12, the CPU 11 identifies whether or not the own vehicle is stopped. For example, it is possible to distinguish whether or not the vehicle is stopped based on the information on the current traveling speed of the own vehicle and the state of the brake signal.

ステップS13では、CPU11は、S11、S12の結果に基づき、自車両が「後退」、「停車」、「前進」のいずれの状態であるのかを区別する。そして、「後退」の場合はS13からS14に進み、「停車」の場合はS13からS15に進み、「前進」の場合はS13からS16に進む。 In step S13, the CPU 11 distinguishes whether the own vehicle is in the "backward", "stopped", or "forward" state based on the results of S11 and S12. Then, in the case of "backward", the vehicle proceeds from S13 to S14, in the case of "stop", the vehicle proceeds from S13 to S15, and in the case of "forward", the vehicle proceeds from S13 to S16.

ステップS14では、CPU11は、後退時の検知枠組合せを表す定数データを車両状態テーブルT1、および検知枠テーブルT2から取得する。車両状態テーブルT1、および検知枠テーブルT2については後で説明する。 In step S14, the CPU 11 acquires constant data representing the detection frame combination at the time of reverse from the vehicle state table T1 and the detection frame table T2. The vehicle state table T1 and the detection frame table T2 will be described later.

ステップS15では、CPU11は、停車時の検知枠組合せを表す定数データを車両状態テーブルT1、および検知枠テーブルT2から取得する。また、ステップS16では、CPU11は、前進時の検知枠組合せを表す定数データを車両状態テーブルT1、および検知枠テーブルT2から取得する。 In step S15, the CPU 11 acquires constant data representing the combination of detection frames when the vehicle is stopped from the vehicle state table T1 and the detection frame table T2. Further, in step S16, the CPU 11 acquires constant data representing the detection frame combination at the time of forward movement from the vehicle state table T1 and the detection frame table T2.

ステップS17では、CPU11は、S14、S15、S16のいずれかで取得した検知枠組合せの定数データを、検知枠テーブルT2Aに書き込む。この検知枠テーブルT2Aの内容が、図2に示したステップS21の処理で使用する検知枠に反映される。なお、検知枠テーブルT2Aを省略し、検知枠テーブルT2の中の一部分をS21の処理で選択的に使用するように変更してもよい。 In step S17, the CPU 11 writes the constant data of the detection frame combination acquired in any of S14, S15, and S16 to the detection frame table T2A. The contents of the detection frame table T2A are reflected in the detection frame used in the process of step S21 shown in FIG. The detection frame table T2A may be omitted, and a part of the detection frame table T2 may be changed so as to be selectively used in the processing of S21.

<テーブルT1、T2の構成例>
デジタルタコグラフが参照する車両状態テーブルT1の構成例を図5に示す。また、デジタルタコグラフが参照する検知枠テーブルT2の構成例を図6に示す。
<Configuration example of tables T1 and T2>
FIG. 5 shows a configuration example of the vehicle state table T1 referred to by the digital tachograph. Further, FIG. 6 shows a configuration example of the detection frame table T2 referred to by the digital tachograph.

図5に示した車両状態テーブルT1は、「後退」、「停車」、「前進」のそれぞれの状態と、検知枠数N1と、検知枠先頭の番号N2との関係を表す定数データを保持している。図5の車両状態テーブルT1においては、図3(a)に示した例と同じように後退時の検知枠数N1が「7」になっている。また、図3(b)に示した例と同じように、停車時の検知枠数N1が「5」になっている。また、図3(c)に示した例と同じように、前進時の検知枠数N1が「2」になっている。 The vehicle state table T1 shown in FIG. 5 holds constant data indicating the relationship between each state of “backward”, “stopped”, and “forward”, the number of detection frames N1, and the number N2 at the beginning of the detection frame. ing. In the vehicle state table T1 of FIG. 5, the number of detection frames N1 at the time of reverse is “7” as in the example shown in FIG. 3 (a). Further, as in the example shown in FIG. 3B, the number of detection frames N1 when the vehicle is stopped is “5”. Further, as in the example shown in FIG. 3C, the number of detection frames N1 at the time of advancing is “2”.

図6に示した検知枠テーブルT2は、多数の検知枠のそれぞれについて、番号N3、基準位置P、検知枠サイズSの関係を表す定数データを保持している。この検知枠テーブルT2においては、例えば、番号N3が「1」の検知枠は、基準位置PがP1であり、X軸方向のサイズがSx1、Y軸方向のサイズがSy1であることを表す定数データが割り当ててある。 The detection frame table T2 shown in FIG. 6 holds constant data representing the relationship between the number N3, the reference position P, and the detection frame size S for each of the large number of detection frames. In this detection frame table T2, for example, the detection frame having the number N3 of "1" has a reference position P of P1, a constant indicating that the size in the X-axis direction is Sx1 and the size in the Y-axis direction is Sy1. Data is assigned.

例えば、図5に示した車両状態テーブルT1における検知枠先頭の番号N21が「1」の場合には、検知枠テーブルT2における番号N3が「1」〜「7」の範囲内の定数データが、後退時の検知枠の組合せとして図4のS14で選択される。したがって、図3(a)に示した7つの検知枠F11〜F17の各々のフレーム内の位置および縦/横の各サイズをそれぞれ特定できる。 For example, when the number N21 at the head of the detection frame in the vehicle state table T1 shown in FIG. 5 is "1", the constant data in the range of "1" to "7" for the number N3 in the detection frame table T2 is It is selected in S14 of FIG. 4 as a combination of detection frames when reversing. Therefore, the positions and the vertical / horizontal sizes of the seven detection frames F11 to F17 shown in FIG. 3A in each frame can be specified.

また、図5に示した車両状態テーブルT1における検知枠先頭の番号N22が「8」の場合には、検知枠テーブルT2における番号N3が「8」〜「12」の範囲内の定数データが、停車時の検知枠の組合せとして図4のS15で選択される。したがって、図3(b)に示した5つの検知枠F21〜F25の各々のフレーム内の位置および縦/横の各サイズをそれぞれ特定できる。 Further, when the number N22 at the head of the detection frame in the vehicle state table T1 shown in FIG. 5 is “8”, the constant data in the range of the numbers N3 in the detection frame table T2 from “8” to “12” is generated. It is selected in S15 of FIG. 4 as a combination of detection frames when the vehicle is stopped. Therefore, the position and the vertical / horizontal size of each of the five detection frames F21 to F25 shown in FIG. 3B can be specified.

また、図5に示した車両状態テーブルT1における検知枠先頭の番号N23が「13」の場合には、検知枠テーブルT2における番号N3が「13」〜「14」の範囲内の定数データが、前進時の検知枠の組合せとして図4のS16で選択される。したがって、図3(c)に示した2つの検知枠F31〜F32の各々のフレーム内の位置および縦/横の各サイズをそれぞれ特定できる。 Further, when the number N23 at the head of the detection frame in the vehicle state table T1 shown in FIG. 5 is “13”, the constant data in the range of the numbers N3 in the detection frame table T2 from “13” to “14” is generated. It is selected in S16 of FIG. 4 as a combination of detection frames when moving forward. Therefore, the positions and the vertical / horizontal sizes of the two detection frames F31 to F32 shown in FIG. 3C in each frame can be specified.

検知枠テーブルT2の中からS14、S15、S16のいずれかで抽出した一部のデータが検知枠テーブルT2Aに書き込まれ、この検知枠テーブルT2Aの内容が図2のステップS21の処理に反映される。したがって、自車両の状態が「後退」、「停車」、「前進」のいずれであるかに応じて、図3(a)、図3(b)、図3(c)に示したように実際に使用する検知枠の数、位置、大きさなどを自動的に切り替えることができる。 A part of the data extracted from the detection frame table T2 in any of S14, S15, and S16 is written to the detection frame table T2A, and the contents of the detection frame table T2A are reflected in the process of step S21 of FIG. .. Therefore, as shown in FIGS. 3 (a), 3 (b), and 3 (c), the actual state of the own vehicle is actually "backward", "stopped", or "forward". The number, position, size, etc. of the detection frame used for can be automatically switched.

車両状態テーブルT1および検知枠テーブルT2は、不揮発メモリ26A上の記憶領域に配置され、これらが保持する各定数データは必要に応じて変更される。例えば、車載カメラ23Bを自車両に新たに設置したり位置などを変更する際に、デジタルタコグラフ10の各パラメータを調整するための特別なソフトウェアをCPU11で実行することにより、管理者が車両状態テーブルT1および検知枠テーブルT2を更新できる。 The vehicle state table T1 and the detection frame table T2 are arranged in a storage area on the non-volatile memory 26A, and each constant data held by them is changed as necessary. For example, when the in-vehicle camera 23B is newly installed in the own vehicle or the position is changed, the administrator can execute the special software for adjusting each parameter of the digital tachograph 10 on the CPU 11 so that the administrator can set the vehicle status table. T1 and the detection frame table T2 can be updated.

<変形の可能性>
図3(a)、図3(b)、図3(c)に示した例では、後方を撮影する車載カメラ23Bの映像を処理する場合の検知枠だけを想定しているが、前方を撮影する車載カメラ23や、車両側方、あるいは車室内を撮影する他の車載カメラの映像を処理する場合にも、同じような検知枠を適用して処理対象のデータ量を減らすことが想定される。そして、例えば自車両が後退する場合には、前方の映像を認識する処理が使用する検知枠の数やサイズを削減することにより、CPU11の負荷を低減し、後方の映像を認識する処理における遅延の発生を抑制できる。
<Possibility of deformation>
In the examples shown in FIGS. 3 (a), 3 (b), and 3 (c), only the detection frame for processing the image of the in-vehicle camera 23B that captures the rear is assumed, but the front is captured. It is expected that the same detection frame will be applied to reduce the amount of data to be processed when processing the image of the in-vehicle camera 23 or another in-vehicle camera that captures the side of the vehicle or the interior of the vehicle. .. Then, for example, when the own vehicle moves backward, the load on the CPU 11 is reduced by reducing the number and size of the detection frames used in the process of recognizing the image in front, and the delay in the process of recognizing the image in the rear is reduced. Can be suppressed.

<デジタルタコグラフ10の利点>
図1に示したデジタルタコグラフ10においては、運転支援機能を実現するために、図2に示した動作を実行する際に、例えば自車両が前進している時には、ステップS21で検知枠を用いることにより、後方の映像の処理にかかるCPU11の負荷を大幅に低減できる。その結果、前方を撮影した映像に基づいて複数種類の運転支援機能(車間距離の警報、車線逸脱の警報、速度超過の警報など)を同時に実現しようとする場合であっても、高性能のCPUを用いることなく、遅延のないリアルタイムの処理が可能になる。また、例えば自車両が後退するときには、後方の映像を処理する際に使用する検知枠の数を図3(a)のようにS14で増やすことができるので、後方の安全性を十分に確保できる。
<Advantages of Digital Tachograph 10>
In the digital tachograph 10 shown in FIG. 1, in order to realize the driving support function, when the operation shown in FIG. 2 is executed, for example, when the own vehicle is moving forward, the detection frame is used in step S21. As a result, the load on the CPU 11 for processing the rear image can be significantly reduced. As a result, even when trying to realize multiple types of driving support functions (inter-vehicle distance warning, lane departure warning, overspeed warning, etc.) at the same time based on the image taken in front, a high-performance CPU Real-time processing without delay becomes possible without using. Further, for example, when the own vehicle moves backward, the number of detection frames used when processing the rear image can be increased in S14 as shown in FIG. 3A, so that the safety of the rear can be sufficiently ensured. ..

ここで、上述した本発明の実施形態に係る車載器および運転支援装置の特徴をそれぞれ以下[1]〜[5]に簡潔に纏めて列記する。
[1] 車両に搭載された1つ以上の車載カメラ(23,23B)が出力する映像信号を入力して処理する画像処理部(CPU11,S21)と、
前記車両における走行の有無および進行方向の少なくとも一方の状態を検知する車両状態検知部(CPU11,S11,S12)と、
前記画像処理部が処理する前記映像信号内の領域を動的に決定する画像領域決定部(CPU11,S13〜S16)と、
を有し、
前記画像領域決定部は、前記車両状態検知部の検知状態を反映して、前記領域を自動的に変更する(S17,S21)、
ことを特徴とする車載器。
Here, the features of the on-board unit and the driving support device according to the above-described embodiment of the present invention are briefly summarized and listed below in [1] to [5], respectively.
[1] An image processing unit (CPU11, S21) that inputs and processes a video signal output by one or more in-vehicle cameras (23, 23B) mounted on the vehicle, and an image processing unit (CPU11, S21).
A vehicle state detection unit (CPU11, S11, S12) that detects at least one state of the vehicle running or not and a traveling direction, and
An image area determination unit (CPU11, S13 to S16) that dynamically determines an area in the video signal processed by the image processing unit, and
Have,
The image area determination unit automatically changes the area (S17, S21), reflecting the detection state of the vehicle state detection unit.
An in-vehicle device characterized by that.

[2] 前記画像領域決定部は、
前記映像信号内に事前に割り当てた複数の二次元領域(検知枠F11〜F17,F21〜F25,F31,F32)の各々の位置および大きさを表す定数データを保持する定数保持部(検知枠テーブルT2)を有し、
前記複数の二次元領域の中から、前記車両状態検知部の検知状態に応じて選択した1つ以上の二次元領域を、前記画像処理部が処理する前記映像信号内の領域として割り当てる(S17)、
ことを特徴とする上記[1]に記載の車載器。
[2] The image area determination unit is
A constant holding unit (detection frame table) that holds constant data representing the positions and sizes of a plurality of two-dimensional regions (detection frames F11 to F17, F21 to F25, F31, and F32) allocated in advance in the video signal. Has T2)
One or more two-dimensional regions selected according to the detection state of the vehicle state detection unit from the plurality of two-dimensional regions are assigned as regions in the video signal processed by the image processing unit (S17). ,
The on-board unit according to the above [1].

[3] 前記画像領域決定部は、前記車両状態検知部の検知状態に応じて、前記複数の二次元領域の中から選択する二次元領域の数およびその組み合わせを自動的に決定する(S13〜S16)、
ことを特徴とする上記[2]に記載の車載器。
[3] The image area determination unit automatically determines the number of two-dimensional areas to be selected from the plurality of two-dimensional areas and a combination thereof according to the detection state of the vehicle state detection unit (S13 to S13). S16),
The in-vehicle device according to the above [2].

[4] 前記画像領域決定部は、前記車両状態検知部の検知状態に基づいて、前記車両の前進、後退、および停止のいずれかの状態を認識し、認識した前記車両の状態に応じて前記領域を自動的に変更する(S13〜S16)、
ことを特徴とする上記[1]乃至[3]のいずれかに記載の車載器。
[4] The image area determination unit recognizes one of the forward, backward, and stopped states of the vehicle based on the detection state of the vehicle state detection unit, and the above-mentioned according to the recognized state of the vehicle. The area is automatically changed (S13 to S16),
The vehicle-mounted device according to any one of the above [1] to [3].

[5] 上記[1]乃至[4]のいずれかに記載の車載器と、
前記画像処理部が前記映像信号の中から認識した結果と、事前に定めた判定基準とに基づいて、前記車両の安全運転を支援する警報を生成する警報生成部(S22〜S25)と、
を備えたことを特徴とする運転支援装置。
[5] The on-board unit according to any one of the above [1] to [4] and the in-vehicle device.
An alarm generation unit (S22 to S25) that generates an alarm that supports safe driving of the vehicle based on the result recognized by the image processing unit from the video signal and a predetermined determination criterion.
A driving support device characterized by being equipped with.

5 運行管理システム
8 無線基地局
10 デジタルタコグラフ
11、31 CPU
12A 速度I/F
12B エンジン回転I/F
13 外部入力I/F
14 センサ入力I/F
15 GPS受信部
15a GPSアンテナ
16 カメラI/F
17 記録部
18 カードI/F
19 音声I/F
20、42 スピーカ
21 RTC
22 SW入力部
23 車載カメラ
24、32 通信部
25 電源部
26A 不揮発メモリ
26B 揮発メモリ
27 表示部
28 Gセンサ
29 アナログ入力I/F
30 事務所PC
33 表示部
34 記憶部
35 カードI/F
36 操作部
37 出力部
38 音声I/F
41 マイク
48 外部I/F
51 車速センサ
54 外部記憶装置
55 事故地点DB
56 運行データDB
57 ハザードマップDB
65 メモリカード
70 ネットワーク
100A,100B,100C 画像フレーム
F11,F12,F13,F14,F15,F16,F17 検知枠
F21,F22,F23,F24,F25,F31,F32 検知枠
T1 車両状態テーブル
T2,T2A 検知枠テーブル
5 Operation management system 8 Wireless base station 10 Digital tachograph 11, 31 CPU
12A Speed I / F
12B engine rotation I / F
13 External input I / F
14 Sensor input I / F
15 GPS receiver 15a GPS antenna 16 Camera I / F
17 Recording unit 18 Card I / F
19 Voice I / F
20, 42 speakers 21 RTC
22 SW input unit 23 In-vehicle camera 24, 32 Communication unit 25 Power supply unit 26A Non-volatile memory 26B Volatile memory 27 Display unit 28 G sensor 29 Analog input I / F
30 office PC
33 Display unit 34 Storage unit 35 Card I / F
36 Operation unit 37 Output unit 38 Voice I / F
41 Microphone 48 External I / F
51 Vehicle speed sensor 54 External storage device 55 Accident point DB
56 Operation data DB
57 Hazard map DB
65 Memory card 70 Network 100A, 100B, 100C Image frame F11, F12, F13, F14, F15, F16, F17 Detection frame F21, F22, F23, F24, F25, F31, F32 Detection frame T1 Vehicle status table T2, T2A detection Frame table

Claims (5)

車両の後方を撮影可能な車載カメラが出力する映像信号を入力して処理する画像処理部と、
前記車両における走行の有無および進行方向の少なくとも一方の状態を検知する車両状態検知部と、
前記画像処理部が処理する前記映像信号内の領域を動的に決定する画像領域決定部と、
を有し、
前記画像領域決定部は、前記車両状態検知部の検知状態を反映して、前記領域を自動的に変更
前記画像領域決定部は、前記車両状態検知部の検知状態に基づいて、前記車両の前進、後退、および停止のいずれかの状態を認識し、
前記車両の前進を認識した場合に前記画像処理部が処理する前記領域の数又は大きさが、前記車両の後退を認識した場合及び前記車両の停止を認識した場合に前記画像処理部が処理する前記領域の数又は大きさより小さい、
ことを特徴とする車載器。
An image processing unit that inputs and processes video signals output by an in-vehicle camera that can shoot the rear of the vehicle,
A vehicle condition detection unit that detects at least one of the presence / absence of traveling and the traveling direction of the vehicle, and
An image area determination unit that dynamically determines an area in the video signal processed by the image processing unit, and an image area determination unit.
Have,
The image area determination unit, reflecting the detection state of the vehicle state detection unit, automatically changing the area,
The image area determination unit recognizes one of the forward, backward, and stopped states of the vehicle based on the detection state of the vehicle state detection unit.
The image processing unit processes the number or size of the regions processed by the image processing unit when the forward movement of the vehicle is recognized, when the backward movement of the vehicle is recognized and when the stop of the vehicle is recognized. Less than the number or size of the regions,
An in-vehicle device characterized by that.
前記画像領域決定部は、
前記映像信号内に事前に割り当てた複数の二次元領域の各々の位置および大きさを表す定数データを保持する定数保持部を有し、
前記複数の二次元領域の中から、前記車両状態検知部の検知状態に応じて選択した1つ以上の二次元領域を、前記画像処理部が処理する前記映像信号内の領域として割り当てる、
ことを特徴とする請求項1に記載の車載器。
The image area determination unit
It has a constant holding unit that holds constant data representing the position and size of each of a plurality of two-dimensional regions allocated in advance in the video signal.
One or more two-dimensional regions selected according to the detection state of the vehicle state detection unit from the plurality of two-dimensional regions are allocated as regions in the video signal processed by the image processing unit.
The vehicle-mounted device according to claim 1.
前記画像領域決定部は、前記車両状態検知部の検知状態に応じて、前記複数の二次元領域の中から選択する二次元領域の数およびその組み合わせを自動的に決定する、
ことを特徴とする請求項2に記載の車載器。
The image area determination unit automatically determines the number of two-dimensional areas to be selected from the plurality of two-dimensional areas and a combination thereof according to the detection state of the vehicle state detection unit.
The on-board unit according to claim 2.
前記車両の停止を認識した場合に前記画像処理部が処理する前記領域の数又は大きさが、前記車両の後退を認識した場合に前記画像処理部が処理する前記領域の数又は大きさより小さい、
ことを特徴とする請求項1乃至請求項3のいずれか1項に記載の車載器。
The number or size of the regions processed by the image processing unit when recognizing the stop of the vehicle is smaller than the number or size of the regions processed by the image processing unit when recognizing the retreat of the vehicle.
The vehicle-mounted device according to any one of claims 1 to 3, wherein the vehicle-mounted device is characterized by the above.
請求項1乃至請求項4のいずれか1項に記載の車載器と、
前記画像処理部が前記映像信号の中から認識した結果と、事前に定めた判定基準とに基づいて、前記車両の安全運転を支援する警報を生成する警報生成部と、
を備えたことを特徴とする運転支援装置。
The on-board unit according to any one of claims 1 to 4.
An alarm generation unit that generates an alarm that supports safe driving of the vehicle based on the result recognized by the image processing unit from the video signal and a predetermined determination criterion.
A driving support device characterized by being equipped with.
JP2017143404A 2017-07-25 2017-07-25 On-board unit and driving support device Active JP6927787B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017143404A JP6927787B2 (en) 2017-07-25 2017-07-25 On-board unit and driving support device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017143404A JP6927787B2 (en) 2017-07-25 2017-07-25 On-board unit and driving support device

Publications (2)

Publication Number Publication Date
JP2019028481A JP2019028481A (en) 2019-02-21
JP6927787B2 true JP6927787B2 (en) 2021-09-01

Family

ID=65478454

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017143404A Active JP6927787B2 (en) 2017-07-25 2017-07-25 On-board unit and driving support device

Country Status (1)

Country Link
JP (1) JP6927787B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021075359A (en) * 2019-11-08 2021-05-20 株式会社タダノ Periphery monitoring device for work vehicle having boom
JP7321911B2 (en) * 2019-12-02 2023-08-07 株式会社クボタ work machine

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008276308A (en) * 2007-04-25 2008-11-13 Sanyo Electric Co Ltd Video image processing apparatus, video image processing system, and navigation device
JP5136071B2 (en) * 2008-01-15 2013-02-06 日産自動車株式会社 Vehicle rear monitoring device and vehicle rear monitoring method
JP5626147B2 (en) * 2011-07-04 2014-11-19 株式会社デンソー Vehicle approaching object detection device
CN103718225B (en) * 2011-08-02 2016-06-01 日产自动车株式会社 Driving assist system and traveling householder method

Also Published As

Publication number Publication date
JP2019028481A (en) 2019-02-21

Similar Documents

Publication Publication Date Title
KR101083885B1 (en) Intelligent driving assistant systems
US9195894B2 (en) Vehicle and mobile device traffic hazard warning techniques
JP5070809B2 (en) Driving support device, driving support method, and program
JP7146516B2 (en) Driving evaluation device and in-vehicle device
CN107487258A (en) Blind area detecting system and method
CN107487333A (en) Blind area detecting system and method
JP2003123196A (en) Device and program for monitoring circumference of vehicle
CN114175123B (en) Driving support method, road photographic image collection method, and road side device
WO2015174017A1 (en) In-vehicle apparatus and travel image storage system
WO2020129279A1 (en) Recording control device, recording control system, recording control method, and recording control program
JP5691814B2 (en) Driving assistance device
JP2008221906A (en) Damage part informing system for vehicle
JP7207916B2 (en) In-vehicle device
KR101455847B1 (en) Digital tachograph with black-box and lane departure warning
US20200342761A1 (en) Notification apparatus and in-vehicle device
JP2007207274A (en) Start annunciation device
JP6962712B2 (en) In-vehicle image recording device
JP6927787B2 (en) On-board unit and driving support device
JP2007156755A (en) Intervehicular communication system
JP7057074B2 (en) On-board unit and driving support device
JP4003569B2 (en) Intersection accident prevention device and program
JP3984863B2 (en) Start notification device
JP2009037542A (en) Adjacent vehicle detection apparatus and adjacent vehicle detection method
JP6974059B2 (en) On-board unit and driving support device
KR20180013126A (en) Black-box for vehicle

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200617

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201222

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210219

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210803

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210805

R150 Certificate of patent or registration of utility model

Ref document number: 6927787

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250