JP2019028481A - On-vehicle device and driving support apparatus - Google Patents

On-vehicle device and driving support apparatus Download PDF

Info

Publication number
JP2019028481A
JP2019028481A JP2017143404A JP2017143404A JP2019028481A JP 2019028481 A JP2019028481 A JP 2019028481A JP 2017143404 A JP2017143404 A JP 2017143404A JP 2017143404 A JP2017143404 A JP 2017143404A JP 2019028481 A JP2019028481 A JP 2019028481A
Authority
JP
Japan
Prior art keywords
vehicle
image
unit
detection
state
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017143404A
Other languages
Japanese (ja)
Other versions
JP6927787B2 (en
Inventor
啓之 大石
Hiroyuki Oishi
啓之 大石
裕一 小林
Yuichi Kobayashi
裕一 小林
剛宙 青地
Takemichi Aochi
剛宙 青地
広行 薮崎
Hiroyuki Yabusaki
広行 薮崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yazaki Energy System Corp
Original Assignee
Yazaki Energy System Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yazaki Energy System Corp filed Critical Yazaki Energy System Corp
Priority to JP2017143404A priority Critical patent/JP6927787B2/en
Publication of JP2019028481A publication Critical patent/JP2019028481A/en
Application granted granted Critical
Publication of JP6927787B2 publication Critical patent/JP6927787B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

To enable recognition of an important area in any of a plurality of states such as forward, stop, backward or the like of a self-vehicle when detecting a mobile body or the like by processing an image of an on-vehicle device and reduction of a load of image processing.SOLUTION: A range of processing target data in image frames 100A, 100B and 100C is limited by detection frames F11-F17, F21-F25, F31 and F32 and a load of processing is reduced. According to a difference of states such as forward, stop, backward or the like of a self-vehicle, the number of the detection frames, sizes of the detection frames, positions of the detection frames or the like are automatically switched. When travelling forward, the number of the detection frames allocated to processing of a backward video is reduced and the load thereof is reduced, so as to allocate processing capability for that amount to processing of a forward video. Even if a plurality of kinds of driving support functions are simultaneously realized based on the forward image, it is possible to process in realtime without using an expensive CPU.SELECTED DRAWING: Figure 3

Description

本発明は、車載カメラが出力する映像信号を入力して処理する画像処理部を有する車載器および運転支援装置に関する。   The present invention relates to a vehicle-mounted device and a driving support device having an image processing unit that inputs and processes a video signal output from a vehicle-mounted camera.

近年の車両においては、車載カメラの撮影により得られる映像信号を入力して処理する画像処理部を有する車載器が搭載される傾向にある。例えば、ドライブレコーダの機能を有する一般的な車載器は、車載カメラの映像信号を入力し、自車両に交通事故などの異常が発生した時に、トリガ信号に従いその前後一定時間内の画像データを自動的に記録することができる。また、運行記録計であるデジタルタコグラフの機能を有する車載器にも、車載カメラの映像信号を入力して処理するものが存在する。   In recent vehicles, an in-vehicle device having an image processing unit for inputting and processing a video signal obtained by photographing with an in-vehicle camera tends to be mounted. For example, a general in-vehicle device that has the function of a drive recorder inputs the video signal of the in-vehicle camera, and when an abnormality such as a traffic accident occurs in the vehicle, the image data within a certain period of time before and after is automatically generated according to the trigger signal. Can be recorded. Some in-vehicle devices having a function of a digital tachograph as an operation recorder input and process a video signal of an in-vehicle camera.

また、例えば特許文献1に示された車両用のナビゲーション装置においては、自位置周辺の画像情報を対象とする画像認識を行うに際して、画像認識処理の認識条件を可変設定することにより、演算処理負荷を軽減しつつ、誤認識を抑制して認識率を高めるための技術を示している。具体的には、自信度に応じて、画像情報に対する各対象地物についての画像認識処理を行う範囲を設定する。   Further, for example, in the vehicle navigation device disclosed in Patent Document 1, when performing image recognition on the image information around the own position, the recognition processing conditions of the image recognition processing are variably set so that the calculation processing load is increased. Technology to suppress misrecognition and increase the recognition rate. Specifically, a range for performing image recognition processing on each target feature for the image information is set according to the degree of confidence.

また、特許文献2においては、車両周辺の情景が撮影された画像を、広域表示と拡大表示との間で切り替えて表示する車両用周辺監視装置を示している。また、撮影された広域撮影データが、表示装置に同じ視野で表示させるための広域表示データと、広域撮影データの中の一部を拡大して表示させるための拡大表示データとに変換可能に構成されることを示している。また、広域表示データが表示されている状態で「前方」のボタンを操作すると、広域撮影データの中の「前方」に相当する領域が拡大表示されることを示している。   Patent Document 2 shows a vehicle periphery monitoring device that displays an image of a scene around a vehicle by switching between wide area display and enlarged display. The captured wide-area shooting data can be converted into wide-area display data for displaying on the display device with the same field of view and enlarged display data for displaying a part of the wide-area shooting data in an enlarged manner. It is shown that. In addition, when the “front” button is operated while the wide area display data is displayed, an area corresponding to “front” in the wide area shooting data is enlarged and displayed.

特開2008−298697号公報JP 2008-298697 A 特開2008−301091号公報JP 2008-301091 A

ところで、例えばデジタルタコグラフ等の車載器においては、例えば以下に示す(1)〜(3)のような様々な運転支援機能を搭載することが望まれている。
(1)自車両と先行車両との間の車間距離の接近しすぎに対して警報を出力する機能。
(2)自車両が所定の走行レーンの範囲を逸脱する場合に警報を出力する機能。
(3)路面の標示に基づき認識した制限速度に対する自車両の速度超過について警報を出力する機能。
By the way, in vehicle-mounted devices, such as a digital tachograph, for example, it is desired to mount various driving support functions such as (1) to (3) shown below.
(1) A function for outputting an alarm when the inter-vehicle distance between the host vehicle and the preceding vehicle is too close.
(2) A function of outputting an alarm when the host vehicle departs from a predetermined travel lane range.
(3) A function for outputting an alarm about an excessive speed of the host vehicle with respect to the speed limit recognized based on the road surface marking.

上記の(1)〜(3)のような機能を実現する際には、例えば自車両の車載カメラで撮影した自車両前方の情景を表す映像信号を処理して様々なパターン認識を行うことが必要になる。すなわち、映像信号から得られる画像データに基づき、先行車両のパターン、走行レーンの左右境界を表す白線等のパターン、路面に標示されている制限速度の標示パターンなどをそれぞれ認識する必要がある。   When realizing the above functions (1) to (3), for example, a video signal representing a scene in front of the host vehicle photographed by an in-vehicle camera of the host vehicle is processed to perform various pattern recognitions. I need it. That is, based on image data obtained from the video signal, it is necessary to recognize a pattern of a preceding vehicle, a pattern such as a white line representing the left and right boundaries of the traveling lane, a speed limit marking pattern marked on the road surface, and the like.

また、車両に搭載される車載カメラについては、自車両前方を撮影する車載カメラの他に、自車両後方の情景を撮影する車載カメラや、車室内の乗員等を撮影する車載カメラが含まれる場合もある。したがって、車載器においては、複数台の車載カメラがそれぞれ出力する複数の映像信号を同時に処理することが必要になる場合もある。   In addition, the in-vehicle camera mounted on the vehicle includes an in-vehicle camera that captures a scene behind the host vehicle and an in-vehicle camera that captures an occupant in the vehicle interior in addition to the in-vehicle camera that captures the front of the host vehicle. There is also. Therefore, in the vehicle-mounted device, it may be necessary to simultaneously process a plurality of video signals output from a plurality of vehicle-mounted cameras.

しかしながら、自車両の走行等に伴って逐次変化する映像の中から複数のパターンを同時にリアルタイムで認識するためには、高性能の画像処理専用プロセッサや、高性能のマイクロコンピュータのように高価なハードウェアを車載器に搭載しなければならず、装置コストの増大が懸念される。しかし、比較的低コストのハードウェアで上記の機能を実現しようとすると、各パターンの認識処理に遅延が生じるため、安全運転を支援するための各種警報をリアルタイムで出力することが困難になる。   However, in order to simultaneously recognize in real time a plurality of patterns from images that change sequentially as the host vehicle travels, an expensive hardware such as a high-performance image processing dedicated processor or a high-performance microcomputer is required. Wear must be mounted on the vehicle-mounted device, and there is a concern about an increase in device cost. However, if the above functions are realized with relatively low-cost hardware, a delay occurs in the recognition processing of each pattern, and it becomes difficult to output various alarms for supporting safe driving in real time.

そこで、例えば特許文献1および特許文献2に示されているように、画像の中で画像処理の対象とする範囲を予め限定することが想定される。範囲を限定することにより、画像処理の負荷が軽減されるので、比較的低コストのハードウェアを利用する場合であっても、認識処理の遅延をある程度抑制できる。   Therefore, for example, as shown in Patent Document 1 and Patent Document 2, it is assumed that the range to be subjected to image processing in the image is limited in advance. By limiting the range, the load of image processing is reduced, so that the delay of recognition processing can be suppressed to some extent even when relatively low-cost hardware is used.

しかし、上記の(1)〜(3)のような複数の機能を同時に実現しようとすると、同じ映像フレーム中の互いに異なる領域に映る複数の認識対象を同時に認識しなければならず、認識対象の範囲を狭くすることができない。その結果、認識対象の範囲のデータ量が増え、認識処理の遅延が増大する。また、複数の車載カメラの映像をそれぞれ処理する場合にも、認識対象物が映像フレーム中の様々な箇所に存在する可能性を考慮すると、対象の範囲を広げる必要がある。   However, if a plurality of functions such as the above (1) to (3) are to be realized at the same time, a plurality of recognition objects appearing in different regions in the same video frame must be recognized simultaneously. The range cannot be narrowed. As a result, the amount of data in the recognition target range increases and the delay of the recognition process increases. Also, when processing images from a plurality of in-vehicle cameras, it is necessary to widen the range of the target in consideration of the possibility that the recognition target object exists at various locations in the video frame.

また、自車両が前進、停車、後退のいずれの状態であるかに応じて、映像フレーム中の注目すべき重要な領域が互いに異なるので、どの状態でも重要な領域を認識可能にするためには、認識対象の範囲の制限を緩和しなければならない。したがって、認識対象の範囲のデータ量が増え、認識処理の遅延が増大する。   Also, depending on whether the vehicle is moving forward, stopping, or moving backward, the important areas to be noticed in the video frame are different from each other, so that the important areas can be recognized in any state. , The restriction of the scope of recognition must be relaxed. Accordingly, the amount of data in the recognition target range increases, and the recognition processing delay increases.

本発明は、上述した事情に鑑みてなされたものであり、その目的は、自車両の前進、停車、後退等の複数の状態のいずれにおいても重要な領域の認識を可能にすると共に、画像処理の負荷の低減が可能な車載器および運転支援装置を提供することにある。   The present invention has been made in view of the above-described circumstances, and an object of the present invention is to enable recognition of an important region in any of a plurality of states such as forward movement, stoppage, and backward movement of the host vehicle, and image processing. It is in providing the onboard equipment and the driving assistance device which can reduce the load of the vehicle.

前述した目的を達成するために、本発明に係る車載器および運転支援装置は、下記(1)〜(5)を特徴としている。
(1) 車両に搭載された1つ以上の車載カメラが出力する映像信号を入力して処理する画像処理部と、
前記車両における走行の有無および進行方向の少なくとも一方の状態を検知する車両状態検知部と、
前記画像処理部が処理する前記映像信号内の領域を動的に決定する画像領域決定部と、
を有し、
前記画像領域決定部は、前記車両状態検知部の検知状態を反映して、前記領域を自動的に変更する、
ことを特徴とする車載器。
In order to achieve the above-described object, the vehicle-mounted device and the driving support device according to the present invention are characterized by the following (1) to (5).
(1) An image processing unit that inputs and processes video signals output from one or more in-vehicle cameras mounted on a vehicle;
A vehicle state detector for detecting the presence or absence of travel in the vehicle and at least one state of the traveling direction;
An image region determination unit that dynamically determines a region in the video signal to be processed by the image processing unit;
Have
The image area determination unit automatically changes the area to reflect the detection state of the vehicle state detection unit.
In-vehicle device characterized by that.

上記(1)の構成の車載器によれば、車両状態検知部の検知状態に応じて、画像処理部が処理する映像信号内の領域を動的に決定することができる。したがって、例えば、自車両の前進、停車、後退等の複数の状態のいずれにおいても重要な領域の認識を可能とし、且つ処理対象のデータ量が削減されるように領域を最適化して、処理の負荷を低減できる。   According to the vehicle-mounted device having the configuration (1), it is possible to dynamically determine a region in the video signal processed by the image processing unit in accordance with the detection state of the vehicle state detection unit. Therefore, for example, it is possible to recognize an important area in any of a plurality of states such as forward, stop, and reverse of the host vehicle and optimize the area so that the amount of data to be processed is reduced. The load can be reduced.

(2) 前記画像領域決定部は、
前記映像信号内に事前に割り当てた複数の二次元領域の各々の位置および大きさを表す定数データを保持する定数保持部を有し、
前記複数の二次元領域の中から、前記車両状態検知部の検知状態に応じて選択した1つ以上の二次元領域を、前記画像処理部が処理する前記映像信号内の領域として割り当てる、
ことを特徴とする上記(1)に記載の車載器。
(2) The image area determination unit
A constant holding unit for holding constant data representing the position and size of each of a plurality of two-dimensional areas allocated in advance in the video signal;
One or more two-dimensional regions selected according to the detection state of the vehicle state detection unit from among the plurality of two-dimensional regions are allocated as regions in the video signal processed by the image processing unit.
The vehicle-mounted device according to (1) above, wherein

上記(2)の構成の車載器によれば、画像領域決定部は、定数保持部が保持している定数データに基づいて、画像処理部が処理する領域の適切な位置および大きさを容易に決定できる。   According to the vehicle-mounted device having the configuration (2), the image area determination unit can easily determine the appropriate position and size of the area processed by the image processing unit based on the constant data held by the constant holding unit. Can be determined.

(3) 前記画像領域決定部は、前記車両状態検知部の検知状態に応じて、前記複数の二次元領域の中から選択する二次元領域の数およびその組み合わせを自動的に決定する、
ことを特徴とする上記(2)に記載の車載器。
(3) The image area determination unit automatically determines the number of two-dimensional areas to be selected from the plurality of two-dimensional areas and a combination thereof according to the detection state of the vehicle state detection unit.
The vehicle-mounted device according to (2) above, wherein

上記(3)の構成の車載器によれば、例えば、自車両の前進、停車、後退等の複数の状態のそれぞれについて、同時に複数の二次元領域を割り当てることができ、二次元領域の数およびその組み合わせを最適化することもできる。また、映像フレーム中で注目すべき複数の重要な箇所が互いに離れた位置に分散している場合であっても、同時に複数の二次元領域を割り当てることにより、各々の二次元領域のサイズを削減し、画像処理部が処理するデータ量を大幅に削減できる。   According to the vehicle-mounted device having the configuration of the above (3), for example, a plurality of two-dimensional regions can be assigned simultaneously for each of a plurality of states such as forward, stop, and reverse of the host vehicle. The combination can also be optimized. In addition, even when multiple important points of interest in a video frame are dispersed at positions that are separated from each other, the size of each two-dimensional area is reduced by assigning multiple two-dimensional areas at the same time. In addition, the amount of data processed by the image processing unit can be greatly reduced.

(4) 前記画像領域決定部は、前記車両状態検知部の検知状態に基づいて、前記車両の前進、後退、および停止のいずれかの状態を認識し、認識した前記車両の状態に応じて前記領域を自動的に変更する、
ことを特徴とする上記(1)乃至(3)のいずれかに記載の車載器。
(4) The image area determination unit recognizes one of the forward, backward, and stop states of the vehicle based on the detection state of the vehicle state detection unit, and determines the state according to the recognized vehicle state. Change the area automatically,
The on-vehicle device according to any one of (1) to (3) above,

上記(4)の構成の車載器によれば、車両の前進、後退、および停止のいずれかの状態を認識できるので、状態に応じた適切な領域を画像処理部の処理対象として割り当てることができる。すなわち、車両の前進、後退、および停止のいずれの状態においても、映像フレーム中の注目すべき重要な領域のみを処理対象にし、データ量が削減されるように領域を最適化することができる。   According to the vehicle-mounted device having the configuration (4), since any one of the forward, backward, and stopped states of the vehicle can be recognized, an appropriate area corresponding to the state can be assigned as a processing target of the image processing unit. . That is, regardless of whether the vehicle is moving forward, backward, or stopped, it is possible to optimize only the important region of interest in the video frame to be processed and to reduce the amount of data.

(5) 上記(1)乃至(4)のいずれかに記載の車載器と、
前記画像処理部が前記映像信号の中から認識した結果と、事前に定めた判定基準とに基づいて、前記車両の安全運転を支援する警報を生成する警報生成部と、
を備えたことを特徴とする運転支援装置。
(5) The vehicle-mounted device according to any one of (1) to (4) above,
An alarm generating unit that generates an alarm for supporting safe driving of the vehicle based on a result recognized by the image processing unit from the video signal and a predetermined criterion;
A driving support apparatus comprising:

上記(5)の構成の運転支援装置によれば、車両状態検知部の検知状態に応じて、画像処理部が処理する映像信号内の領域を動的に決定できる。したがって、入力された映像フレームから同時に複数の移動物体を認識し、複数種類の警報を出力する機能を実現する場合であっても、処理対象のデータ量を削減し、警報の遅延を抑制できる。   According to the driving support device having the configuration of (5) above, it is possible to dynamically determine the region in the video signal processed by the image processing unit in accordance with the detection state of the vehicle state detection unit. Therefore, even when realizing a function of simultaneously recognizing a plurality of moving objects from an input video frame and outputting a plurality of types of alarms, the amount of data to be processed can be reduced and alarm delays can be suppressed.

本発明の車載器および運転支援装置によれば、自車両の前進、停車、後退等の複数の状態のいずれにおいても重要な領域の認識を可能にすると共に、画像処理の負荷の低減が可能になる。   According to the vehicle-mounted device and the driving support device of the present invention, it is possible to recognize an important region in any of a plurality of states such as forward, stop, and reverse of the host vehicle, and to reduce a load of image processing. Become.

以上、本発明について簡潔に説明した。更に、以下に説明される発明を実施するための形態(以下、「実施形態」という。)を添付の図面を参照して通読することにより、本発明の詳細は更に明確化されるであろう。   The present invention has been briefly described above. Further, the details of the present invention will be further clarified by reading through a mode for carrying out the invention described below (hereinafter referred to as “embodiment”) with reference to the accompanying drawings. .

図1は、本発明の実施の形態における運行管理システムの構成例を示すブロック図である。FIG. 1 is a block diagram illustrating a configuration example of an operation management system according to an embodiment of the present invention. 図2は、運転支援機能を実現するためのデジタルタコグラフの動作例を示すフローチャートである。FIG. 2 is a flowchart showing an operation example of the digital tachograph for realizing the driving support function. 図3(a)、図3(b)、および図3(c)は、互いに異なる車両の状態で得られる各画像フレームとその中に割り当てられる各検知枠との関係の具体例を示す正面図である。3 (a), 3 (b), and 3 (c) are front views showing specific examples of the relationship between each image frame obtained in different vehicle states and each detection frame assigned therein. It is. 図4は、車両の状態に応じて使用する検知枠を自動的に決定するためのデジタルタコグラフの動作例を示すフローチャートである。FIG. 4 is a flowchart showing an operation example of a digital tachograph for automatically determining a detection frame to be used according to the state of the vehicle. 図5は、デジタルタコグラフが参照する車両状態テーブルT1の構成例を示す模式図である。FIG. 5 is a schematic diagram illustrating a configuration example of the vehicle state table T1 referred to by the digital tachograph. 図6は、デジタルタコグラフが参照する検知枠テーブルT2の構成例を示す模式図である。FIG. 6 is a schematic diagram illustrating a configuration example of the detection frame table T2 referred to by the digital tachograph.

本発明に関する具体的な実施形態について、各図を参照しながら以下に説明する。   Specific embodiments relating to the present invention will be described below with reference to the drawings.

<システムの構成および動作の概要>
本発明の実施の形態における運行管理システム5の構成例を図1に示す。
図1に示した運行管理システム5は、トラック運送会社やバス会社等の事業者の設備として導入される。この運行管理システム5は、トラックやバス等の各車両の運行状況を管理するものであり、各車両に車載器として搭載された運行記録装置(以下、デジタルタコグラフという)10と、各事業者の事務所等に設置される事務所PC30とで構成されている。デジタルタコグラフ10と、事務所PC30との間は、ネットワーク70を介して通信できるように接続される。
<Outline of system configuration and operation>
A configuration example of the operation management system 5 in the embodiment of the present invention is shown in FIG.
The operation management system 5 shown in FIG. 1 is introduced as equipment of a business operator such as a trucking company or a bus company. The operation management system 5 manages the operation status of each vehicle such as a truck or a bus. An operation recording device (hereinafter referred to as a digital tachograph) 10 mounted on each vehicle as an in-vehicle device, The office PC 30 is installed in an office or the like. The digital tachograph 10 and the office PC 30 are connected via a network 70 so that they can communicate with each other.

事務所PC30は、事務所に設置された汎用のコンピュータ装置で構成され、車両の運行状況を管理する。ネットワーク70は、デジタルタコグラフ10と広域通信を行う無線基地局8や事務所PC30が接続されるインターネット等のパケット通信網であり、デジタルタコグラフ10と事務所PC30と間で行われるデータ通信を中継する。デジタルタコグラフ10と無線基地局8との間の通信は、LTE(Long Term Evolution)/4G(4th Generation)等のモバイル通信網(携帯回線網)で行われてもよいし、無線LAN(Local Area Network)で行われてもよい。   The office PC 30 is composed of a general-purpose computer device installed in the office, and manages the operation status of the vehicle. The network 70 is a packet communication network such as the Internet to which the radio base station 8 that performs wide area communication with the digital tachograph 10 and the office PC 30 is connected, and relays data communication performed between the digital tachograph 10 and the office PC 30. . Communication between the digital tachograph 10 and the radio base station 8 may be performed by a mobile communication network (portable network) such as LTE (Long Term Evolution) / 4G (4th Generation) or a wireless LAN (Local Area Network). Network).

デジタルタコグラフ10は、車両に搭載され、出入庫時刻、走行距離、走行時間、走行速度、速度オーバー、エンジン回転数オーバー、急発進、急加速、急減速等の運行データを記録する。また、本実施形態のデジタルタコグラフ10は、それ以外に後述する運転支援機能を搭載している。   The digital tachograph 10 is mounted on a vehicle, and records operation data such as entry / exit time, travel distance, travel time, travel speed, speed over, engine speed over, sudden start, sudden acceleration, sudden deceleration. In addition, the digital tachograph 10 of this embodiment is equipped with a driving support function described later.

図1に示したデジタルタコグラフ10は、ハードウェアとして、CPU(マイクロコンピュータ)11、速度I/F(インタフェース)12A、エンジン回転I/F12B、外部入力I/F13、センサ入力I/F14、GPS受信部15、カメラI/F16、不揮発メモリ26A、揮発メモリ26B、記録部17、カードI/F18、音声I/F19、RTC(時計IC)21、SW入力部22、通信部24、表示部27、およびアナログ入力I/F29を内蔵している。   The digital tachograph 10 shown in FIG. 1 includes, as hardware, a CPU (microcomputer) 11, a speed I / F (interface) 12A, an engine rotation I / F 12B, an external input I / F 13, a sensor input I / F 14, and GPS reception. Unit 15, camera I / F 16, nonvolatile memory 26A, volatile memory 26B, recording unit 17, card I / F 18, audio I / F 19, RTC (clock IC) 21, SW input unit 22, communication unit 24, display unit 27, In addition, an analog input I / F 29 is incorporated.

CPU11は、予め組み込まれたプログラムに従い、デジタルタコグラフ10の各部を統括的に制御する。不揮発メモリ26Aは、CPU11によって実行される動作プログラムや、CPU11が参照する定数データやテーブルなどを予め保持している。不揮発メモリ26Aは、データの書き換えが可能なメモリであり、保持しているデータは必要に応じて更新できる。   The CPU 11 comprehensively controls each unit of the digital tachograph 10 according to a program incorporated in advance. The nonvolatile memory 26A holds in advance an operation program executed by the CPU 11, constant data and a table referred to by the CPU 11, and the like. The nonvolatile memory 26A is a rewritable memory, and the stored data can be updated as necessary.

記録部17は、運行データや映像等のデータを記録する。カードI/F18には、乗務員が所持するメモリカード65が挿抜自在に接続される。CPU11は、カードI/F18に接続されたメモリカード65に対し運行データ、映像等のデータを書き込む。音声I/F19には、内蔵のスピーカ20が接続される。スピーカ20は、警報等の音声を発する。   The recording unit 17 records data such as operation data and video. A memory card 65 possessed by a crew member is detachably connected to the card I / F 18. The CPU 11 writes data such as operation data and video to the memory card 65 connected to the card I / F 18. A built-in speaker 20 is connected to the audio I / F 19. The speaker 20 emits sound such as an alarm.

RTC21(計時部)は、現在時刻を計時する。SW入力部22には、出庫ボタン、入庫ボタン等の各種ボタンのON/OFF信号が入力される。表示部27は、LCD(liquid crystal display)で構成され、通信や動作の状態の他、警報等を表示する。   The RTC 21 (timer) keeps the current time. The SW input unit 22 is input with ON / OFF signals of various buttons such as a warehousing button and a warehousing button. The display unit 27 is composed of a liquid crystal display (LCD) and displays alarms and the like in addition to communication and operation states.

速度I/F12Aには、車両の速度を検出する車速センサ51が接続され、車速センサ51からの速度パルスが入力される。車速センサ51は、デジタルタコグラフ10にオプションとして設けられてもよいし、デジタルタコグラフ10とは別の装置として設けられてもよい。エンジン回転I/F12Bには、エンジン回転数センサ(図示せず)からの回転パルスが入力される。   A vehicle speed sensor 51 that detects the vehicle speed is connected to the speed I / F 12A, and a speed pulse from the vehicle speed sensor 51 is input. The vehicle speed sensor 51 may be provided as an option in the digital tachograph 10 or may be provided as a device different from the digital tachograph 10. A rotation pulse from an engine rotation speed sensor (not shown) is input to the engine rotation I / F 12B.

外部入力I/F13の入力には、車両のブレーキのオンオフを表すブレーキ信号や、自動変速機の変速状態(前進/後退の区別を含む)を表す変速信号が、外部機器(図示せず)から印加される。   As an input to the external input I / F 13, a brake signal indicating on / off of the brake of the vehicle and a shift signal indicating a shift state of the automatic transmission (including distinction between forward / reverse) are sent from an external device (not shown). Applied.

センサ入力I/F14には、加速度(G値)を検知する(衝撃を感知する)加速度センサ(Gセンサ)28が接続され、Gセンサ28からの信号が入力される。Gセンサとしては、加速度による機械的な変位を、振動として読み取る方式や光学的に読み取る方式を有するものが挙げられるが、特に限定されない。また、Gセンサは、車両前方からの衝撃を感知する(減速Gを検知する)他、左右方向からの衝撃を感知しても(横Gを検知しても)よいし、車両後方からの衝撃を感知しても(加速Gを検知しても)よい。Gセンサは、これらの加速度を検知可能なように、1つもしくは複数のセンサで構成される。   The sensor input I / F 14 is connected to an acceleration sensor (G sensor) 28 that detects acceleration (G value) (senses an impact), and receives a signal from the G sensor 28. Examples of the G sensor include those having a method of reading mechanical displacement due to acceleration as vibration or a method of optically reading, but are not particularly limited. The G sensor detects an impact from the front of the vehicle (detects a deceleration G), may also detect an impact from the left and right directions (detects a lateral G), or an impact from the rear of the vehicle. May be detected (acceleration G may be detected). The G sensor is composed of one or a plurality of sensors so that these accelerations can be detected.

アナログ入力I/F29には、エンジン温度(冷却水温)を検知する温度センサ(図示せず)、燃料量を検知する燃料量センサ(図示せず)等の信号が入力される。CPU11は、これらのI/Fを介して入力される情報を基に、各種の運転状態を検出する。   Signals such as a temperature sensor (not shown) for detecting the engine temperature (cooling water temperature) and a fuel amount sensor (not shown) for detecting the fuel amount are input to the analog input I / F 29. CPU11 detects various driving | running states based on the information input via these I / F.

GPS受信部15は、GPSアンテナ15aに接続され、GPS(Global Positioning System)衛星から送信される信号の電波を受信し、現在位置(GPS位置情報)の情報を計算して取得する。   The GPS receiving unit 15 is connected to the GPS antenna 15a, receives a radio wave of a signal transmitted from a GPS (Global Positioning System) satellite, calculates and acquires information on a current position (GPS position information).

カメラI/F16の入力には、複数の車載カメラ23、23Bが接続されている。本実施形態では、一方の車載カメラ23は自車両の進行方向前方の道路等の情景を撮影できる向きで固定した状態で車室内に設置されている。したがって、車載カメラ23が撮影する映像の中には、自車両の前方に存在する先行車両、走行中の走行レーン境界を表す白線、路面上の交通規制の標示(制限速度など)が現れる。また、他方の車載カメラ23は、自車両の後方の道路等の情景を撮影できる向きで固定した状態で車室内に設置されている。   A plurality of in-vehicle cameras 23 and 23B are connected to the input of the camera I / F 16. In the present embodiment, one on-vehicle camera 23 is installed in the vehicle interior in a state where it is fixed in a direction in which a scene such as a road ahead in the traveling direction of the host vehicle can be photographed. Accordingly, in the video imaged by the in-vehicle camera 23, a preceding vehicle existing ahead of the host vehicle, a white line indicating a traveling lane boundary during traveling, and traffic regulation indications (such as a speed limit) on the road surface appear. The other vehicle-mounted camera 23 is installed in the vehicle compartment in a state where it is fixed in a direction in which a scene such as a road behind the host vehicle can be photographed.

車載カメラ23、23Bは、例えば魚眼レンズを通して撮像される撮像面に例えば30万画素、100万画素、200万画素が配置されたイメージセンサを有する。イメージセンサは、CMOS(相補性金属酸化膜半導体)センサやCCD(電荷結合素子)センサなど公知のセンサで構成されている。   The in-vehicle cameras 23 and 23B include image sensors in which, for example, 300,000, 1,000,000, and 2,000,000 pixels are arranged on an imaging surface that is imaged through a fisheye lens. The image sensor includes a known sensor such as a CMOS (complementary metal oxide semiconductor) sensor or a CCD (charge coupled device) sensor.

車載カメラ23、23Bがそれぞれ出力する映像の信号は、カメラI/F16の内部回路によって画素毎の階調や色を表すデジタル信号に変換され、フレーム毎の画像データとしてカメラI/F16から出力される。   The video signals output from the in-vehicle cameras 23 and 23B are converted into digital signals representing gradation and color for each pixel by the internal circuit of the camera I / F 16 and output from the camera I / F 16 as image data for each frame. The

各車載カメラ23、23Bで撮影された映像(画像データ)は、記録部17の動作により時系列データとして記録されるが、所定時間分だけ記録されるように繰り返し上書きされる。この所定時間は、例えば事故発生時、事故の状況が分かるように、事故発生前後の数秒間(例えば、2秒、4秒、10秒等)に相当する時間である。カメラ23で撮像される画像は、静止画でもよいし動画であってもよい。事故発生前後の映像は、事務所PC30の表示部33に表示される。   The video (image data) taken by each of the in-vehicle cameras 23 and 23B is recorded as time series data by the operation of the recording unit 17, but is repeatedly overwritten so as to be recorded for a predetermined time. The predetermined time is a time corresponding to several seconds (for example, 2 seconds, 4 seconds, 10 seconds, etc.) before and after the accident so that the situation of the accident can be understood when the accident occurs. The image captured by the camera 23 may be a still image or a moving image. Images before and after the accident are displayed on the display unit 33 of the office PC 30.

また、本実施形態のデジタルタコグラフ10は、例えば以下に示す(1)〜(4)のような運転支援機能を搭載している。
(1)自車両と先行車両との車間距離が近すぎる場合に警報を出力する機能。
(2)自車両が走行中の走行レーンの範囲を逸脱した場合に警報を出力する機能。
(3)自車両の走行速度が路面標示の制限速度を超えた場合に速度超過の警報を出力する機能。
(4)自車両の後退時などの状況において周囲の障害物等の存在を運転者に知らせる機能。
Moreover, the digital tachograph 10 of this embodiment is equipped with driving support functions such as (1) to (4) shown below.
(1) A function for outputting an alarm when the distance between the host vehicle and the preceding vehicle is too close.
(2) A function of outputting an alarm when the vehicle deviates from the range of the traveling lane in which the host vehicle is traveling.
(3) A function of outputting an overspeed warning when the traveling speed of the host vehicle exceeds the speed limit of the road marking.
(4) A function that informs the driver of the presence of surrounding obstacles in situations such as when the host vehicle is moving backward.

上記(1)〜(4)の各機能を実現するためには、各車載カメラ23、23Bで撮影された映像の画像データを処理して、所定の画像認識を行う必要がある。すなわち、画像認識により先行車両の位置及び距離を特定したり、走行レーン境界の白線と自車両との相対位置を検出したり、路面標示の制限速度を検出したり、様々な障害物を検出することが必要になる。   In order to realize the functions (1) to (4) described above, it is necessary to perform predetermined image recognition by processing image data of videos taken by the in-vehicle cameras 23 and 23B. In other words, the position and distance of the preceding vehicle are identified by image recognition, the relative position between the white line of the driving lane boundary and the host vehicle is detected, the speed limit of the road marking is detected, and various obstacles are detected. It will be necessary.

上記のような画像認識は、CPU11が組み込まれたプログラムに従って所定の認識アルゴリズムを実行することにより実現できる。しかし、処理対象の画像のデータ量が多い場合には、画像認識に要するCPU11の負荷が非常に大きくなるので、リアルタイムでの処理が困難になり、検出の遅延が発生する可能性がある。特に、複数の車載カメラ23、23Bの映像を同時に処理したり、複数の認識対象を同時に検出するような場合には、遅延の発生が懸念される。そこで、本実施形態においては、画像認識を実行する際に、後述するように検知枠を設けて処理対象のデータ範囲を限定すると共に、車両の状態に応じて特別な処理を実施する。   Image recognition as described above can be realized by executing a predetermined recognition algorithm according to a program in which the CPU 11 is incorporated. However, when the amount of data of the image to be processed is large, the load on the CPU 11 required for image recognition becomes very large, so that processing in real time becomes difficult and detection delay may occur. In particular, when images from a plurality of in-vehicle cameras 23 and 23B are processed simultaneously or a plurality of recognition targets are detected at the same time, there is a concern about the occurrence of delay. Therefore, in this embodiment, when executing image recognition, a detection frame is provided as described later to limit the data range to be processed, and special processing is performed according to the state of the vehicle.

通信部24は、広域通信を行い、携帯回線網(モバイル通信網)を介して無線基地局8に接続されると、無線基地局8と繋がるインターネット等のネットワーク70を介して、事務所PC30と通信を行う。電源部25は、イグニッションスイッチのオン等によりデジタルタコグラフ10の各部に電力を供給する。   When the communication unit 24 performs wide area communication and is connected to the wireless base station 8 via a mobile network (mobile communication network), the communication unit 24 communicates with the office PC 30 via the network 70 such as the Internet connected to the wireless base station 8. Communicate. The power supply unit 25 supplies power to each unit of the digital tachograph 10 when the ignition switch is turned on.

一方、事務所PC30は、汎用のオペレーティングシステムで動作するPC(パーソナルコンピュータ)により構成されている。事務所PC30は、運行管理装置として機能し、CPU31、通信部32、表示部33、記憶部34、カードI/F35、操作部36、出力部37、音声I/F38及び外部I/F48を有する。   On the other hand, the office PC 30 is configured by a PC (personal computer) that operates on a general-purpose operating system. The office PC 30 functions as an operation management device and includes a CPU 31, a communication unit 32, a display unit 33, a storage unit 34, a card I / F 35, an operation unit 36, an output unit 37, a voice I / F 38, and an external I / F 48. .

CPU31は、事務所PC30の各部を統括的に制御する。通信部32は、ネットワーク70を介してデジタルタコグラフ10と通信可能である。また、通信部32は、ネットワーク70に接続された各種のデータベース(図示せず)とも接続可能であり、必要なデータを取得可能である。   The CPU 31 comprehensively controls each unit of the office PC 30. The communication unit 32 can communicate with the digital tachograph 10 via the network 70. Further, the communication unit 32 can be connected to various databases (not shown) connected to the network 70 and can acquire necessary data.

表示部33は、運行管理画面の他、事故映像やハザードマップ等を表示する。記憶部34は、デジタルタコグラフ10から受信した映像を表示したり車両の位置情報を地図上に表示するためのシステム解析ソフトウェア等、各種プログラムを保持している。   In addition to the operation management screen, the display unit 33 displays an accident video, a hazard map, and the like. The storage unit 34 holds various programs such as system analysis software for displaying video received from the digital tachograph 10 and displaying vehicle position information on a map.

カードI/F35には、メモリカード65が挿抜自在に装着される。カードI/F35は、デジタルタコグラフ10によって計測され、メモリカード65に記憶された運行データを入力する。操作部36は、キーボードやマウス等を有し、事務所の管理者の操作を受け付ける。出力部37は、各種データを出力する。音声I/F38には、マイク41及びスピーカ42が接続される。事務所の管理者は、マイク41及びスピーカ42を用いて音声通話を行うことも可能であり、車両の事故が発生した場合、救急や警察等への連絡を行う。   A memory card 65 is detachably attached to the card I / F 35. The card I / F 35 receives operation data measured by the digital tachograph 10 and stored in the memory card 65. The operation unit 36 includes a keyboard, a mouse, and the like, and accepts operations of an office manager. The output unit 37 outputs various data. A microphone 41 and a speaker 42 are connected to the audio I / F 38. The manager of the office can also make a voice call using the microphone 41 and the speaker 42. When a vehicle accident occurs, the manager of the office makes an emergency call or contacts the police.

外部I/F48には、外部記憶装置(ストレージメモリ)54が接続される。外部記憶装置54は、事故地点データベース(DB)55、運行データDB56、ハザードマップDB57を保持する。事故地点データベース(DB)55には、デジタルタコグラフ10から送信される、事故発生時の車両のGPS位置情報(緯度,経度)が登録される。運行データDB56には、運行データとして、出入庫時刻、速度、走行距離等の他、急加減速、急ハンドル、速度オーバー、エンジン回転数オーバー等が記録される。ハザードマップDB57には、過去に事故が発生した地点(事故地点)を表すマークが地図に重畳して記述された地図データが登録される。なお、このハザードマップには、天災等の災害が想定される地域や避難場所等が記述されてもよい。   An external storage device (storage memory) 54 is connected to the external I / F 48. The external storage device 54 stores an accident point database (DB) 55, an operation data DB 56, and a hazard map DB 57. In the accident point database (DB) 55, GPS position information (latitude and longitude) of the vehicle at the time of the accident transmitted from the digital tachograph 10 is registered. In the operation data DB 56, as the operation data, in addition to loading / unloading time, speed, travel distance, etc., rapid acceleration / deceleration, sudden steering, speed over, engine speed over, etc. are recorded. Registered in the hazard map DB 57 is map data in which marks representing points where accidents have occurred in the past (accident points) are superimposed on the map. In addition, the hazard map may describe an area where a disaster such as a natural disaster is expected, an evacuation site, or the like.

CPU31は、ハザードマップDB57から指定された地域(例えば、事故地点を含む地域)のハザードマップを読み出して表示部33に表示する際、事故地点DB55に登録された事故地点のデータを取得し、ハザードマップ上にこれらの事故地点を表すマークを重畳し、新たなハザードマップを生成する。事務所の管理者は、最新の事故地点を地図(ハザードマップ)上で即座に視認できる。   When the CPU 31 reads out the hazard map of the designated area (for example, the area including the accident point) from the hazard map DB 57 and displays it on the display unit 33, the CPU 31 acquires the data of the accident point registered in the accident point DB 55, Marks representing these accident points are superimposed on the map to generate a new hazard map. The manager of the office can immediately see the latest accident location on the map (hazard map).

<運転支援機能の詳細>
運転支援機能を実現するためのデジタルタコグラフ10の動作例を図2に示す。図2に示した動作は、デジタルタコグラフ10内のCPU11により短い時間周期で繰り返し実行される。
<Details of driving support function>
An example of the operation of the digital tachograph 10 for realizing the driving support function is shown in FIG. The operation shown in FIG. 2 is repeatedly executed in a short time period by the CPU 11 in the digital tachograph 10.

ステップS21では、各車載カメラ23、23Bの撮影した映像に相当する各フレームの画像データに対して所定の画像認識処理をCPU11が実行する。但し、処理対象のデータは、各画像フレームの中で事前に定めた各検知枠の範囲内のみに限定する。各検知枠の範囲は、例えば検知枠テーブルT2Aを参照することにより特定できる。検知枠テーブルT2Aについては後で説明する。   In step S21, the CPU 11 executes a predetermined image recognition process on the image data of each frame corresponding to the video captured by each of the in-vehicle cameras 23 and 23B. However, the data to be processed is limited only to the range of each detection frame defined in advance in each image frame. The range of each detection frame can be specified by referring to the detection frame table T2A, for example. The detection frame table T2A will be described later.

ステップS22では、CPU11がS21の認識結果を利用して、車間距離検出処理を実行する。すなわち、画像フレーム内で検出した先行車両の位置と、自車両との位置関係を把握し、画像上の距離と各カメラの撮影条件とに基づいて車間距離を算出する。更に、算出した車間距離を事前に定めた閾値と比較し、車間距離が近すぎる場合に車間距離の警報を出力する。   In step S22, the CPU 11 executes the inter-vehicle distance detection process using the recognition result in S21. That is, the positional relationship between the position of the preceding vehicle detected in the image frame and the own vehicle is grasped, and the inter-vehicle distance is calculated based on the distance on the image and the photographing condition of each camera. Further, the calculated inter-vehicle distance is compared with a predetermined threshold, and an inter-vehicle distance warning is output when the inter-vehicle distance is too close.

ステップS23では、CPU11がS21の認識結果を利用して、レーン逸脱検出処理を実行する。すなわち、画像フレーム内で検出した走行レーン境界の白線の位置と、自車両の位置との左右方向の位置関係や距離を算出し、その結果を事前に定めた判定条件と比較することにより、車線逸脱の有無を識別する。そして、車線逸脱ありの場合は車線逸脱の警報を出力する。   In step S23, the CPU 11 executes a lane departure detection process using the recognition result in S21. That is, by calculating the positional relationship and distance in the left-right direction between the position of the white line on the lane boundary detected in the image frame and the position of the host vehicle, and comparing the result with a predetermined determination condition, Identify any deviations. If there is a lane departure, a lane departure warning is output.

ステップS24では、CPU11がS21の認識結果を利用して、速度超過検出処理を実行する。すなわち、路面上の制限速度標示に基づき認識した制限速度と、自車両の現在の走行速度とを比較して速度超過の有無を識別する。そして、速度超過ありの場合は速度超過の警報を出力する。   In step S24, the CPU 11 executes the overspeed detection process using the recognition result in S21. That is, the speed limit recognized based on the speed limit indication on the road surface is compared with the current traveling speed of the host vehicle to identify the presence or absence of excessive speed. If there is an overspeed, an overspeed warning is output.

ステップS25では、CPU11がS21の認識結果を利用して、上記以外の検出処理を実行する。例えば、様々な障害物の有無、移動する物体の有無、道路上の各種境界位置などを検出する。そして、障害物や移動する物体への接近を検知した場合や、境界位置に自車両が接近したような場合に警報を出力する。   In step S25, the CPU 11 performs detection processing other than the above using the recognition result in S21. For example, the presence / absence of various obstacles, the presence / absence of a moving object, and various boundary positions on the road are detected. Then, an alarm is output when an approach to an obstacle or a moving object is detected, or when the host vehicle approaches the boundary position.

<画像フレームと検知枠との関係>
互いに異なる車両の状態で得られる各画像フレーム100A、100B、100Cとその中に割り当てられる各検知枠との関係の具体例を図3(a)、図3(b)、および図3(c)にそれぞれ示す。
<Relationship between image frame and detection frame>
Specific examples of the relationship between the image frames 100A, 100B, and 100C obtained in different vehicle states and the detection frames allocated therein are shown in FIGS. 3A, 3B, and 3C. Respectively.

車載カメラ23、23Bの撮影により得られる画像データをCPU11が画像認識する際に、画像のデータ量が多いとCPU11の処理の負荷が大きくなり、リアルタイムでの処理が困難になり、遅延が発生する。そこで、CPU11の処理の負荷を減らすために、処理対象のデータ量を削減する。具体的には、処理対象のデータの範囲を定める検知枠を設ける。   When the CPU 11 recognizes the image data obtained by the in-vehicle cameras 23 and 23B, if the amount of image data is large, the processing load on the CPU 11 increases, and real-time processing becomes difficult and delay occurs. . Therefore, in order to reduce the processing load on the CPU 11, the amount of data to be processed is reduced. Specifically, a detection frame that defines the range of data to be processed is provided.

また、特に後方を撮影する車載カメラ23Bの画像を処理する場合には、車両の状態が「後退」、「停車」、「前進」のいずれであるかに応じて、最適化するように検知枠の総数、各検知枠の位置、各検知枠の大きさなどを変更する。すなわち、車両の状態が「後退」、「停車」、「前進」のいずれであるかに応じて、画像フレーム中で注目すべき重要な箇所がそれぞれ異なるので、車両の状態に合わせて変更することにより各検知枠を最小化することが可能であり、処理対象のデータ量を効果的に削減できる。   In particular, when processing the image of the in-vehicle camera 23B that captures the rear, the detection frame is optimized so as to be optimized according to whether the vehicle state is “reverse”, “stop”, or “forward”. The total number of frames, the position of each detection frame, the size of each detection frame, and the like are changed. In other words, depending on whether the vehicle status is “reverse”, “stop”, or “forward”, there are different important points to be noted in the image frame. Thus, each detection frame can be minimized, and the amount of data to be processed can be effectively reduced.

図3(a)、図3(b)、および図3(c)は、それぞれ「後退」、「停車」、および「前進」の状態における各画像フレーム100A、100B、100Cとその中に割り当てられる各検知枠との関係との具体例を示している。   3 (a), 3 (b), and 3 (c) are assigned to each image frame 100A, 100B, and 100C in the “reverse”, “stop”, and “forward” states, respectively. The example with the relationship with each detection frame is shown.

図3(a)に示した画像フレーム100Aにおいては、このフレーム内の互いに異なる位置に、7つの互いに独立した矩形の検知枠F11、F12、F13、F14、F15、F16、F17が割り当ててある。また、図3(b)に示した画像フレーム100Bにおいては、このフレーム内の互いに異なる位置に、5つの互いに独立した矩形の検知枠F21、F22、F23、F24、F25が割り当ててある。また、図3(c)に示した画像フレーム100Cにおいては、このフレーム内の互いに異なる位置に、2つの互いに独立した矩形の検知枠F31、F32が割り当ててある。   In the image frame 100A shown in FIG. 3A, seven mutually independent rectangular detection frames F11, F12, F13, F14, F15, F16, and F17 are assigned to different positions in the frame. In the image frame 100B shown in FIG. 3B, five mutually independent rectangular detection frames F21, F22, F23, F24, and F25 are assigned to different positions in the frame. In the image frame 100C shown in FIG. 3C, two mutually independent rectangular detection frames F31 and F32 are assigned to different positions in the frame.

すなわち、自車両が後退する場合には、図3(a)に示した各検知枠F11〜F17のように、後方の映像における様々な箇所、つまり自車両後方周辺と進行方向先にそれぞれ注目することにより、後退時における安全を十分に確保できる。また、自車両が停車している時には、図3(b)に示した各検知枠F21〜F25のように、後方の映像における近距離の自車両周辺にそれぞれ注目することにより、自車両が停車状態から動き始める際の安全を十分に確保できる。また、自車両が前進している時には、図3(c)に示した検知枠F31、F32のように、後方の映像における近距離の左右脇のみに注目するだけで、後方側の安全を十分に確保できる。   That is, when the host vehicle moves backward, as in the detection frames F11 to F17 shown in FIG. 3A, attention is paid to various points in the rear image, that is, the rear periphery of the host vehicle and the destination in the traveling direction. Therefore, sufficient safety can be ensured during retreat. When the host vehicle is stopped, as shown in the detection frames F21 to F25 shown in FIG. 3B, the host vehicle stops by paying attention to the vicinity of the host vehicle at a short distance in the rear image. Sufficient safety can be secured when starting to move from the state. Further, when the host vehicle is moving forward, it is necessary to pay attention to only the right and left sides at a short distance in the rear image as in the detection frames F31 and F32 shown in FIG. Can be secured.

一方、自車両が前進している時には、車載カメラ23Bが撮影した後方の映像と同時に、車載カメラ23が撮影した前方の映像を認識することが不可欠であり、CPU11の処理の負荷が大きくなる。ここで、前方の映像と後方の映像を同時に処理すると、更にCPU11の負荷が増大する。しかし、後方の映像の中で画像処理の対象範囲を図3(c)に示した検知枠F31、F32のみに限定することにより、処理対象のデータ量が減り、負荷の増大を抑制できる。   On the other hand, when the host vehicle is moving forward, it is indispensable to recognize the front image captured by the in-vehicle camera 23 at the same time as the rear image captured by the in-vehicle camera 23B, and the processing load of the CPU 11 increases. Here, if the front image and the rear image are processed simultaneously, the load on the CPU 11 further increases. However, by limiting the target range of image processing to only the detection frames F31 and F32 shown in FIG. 3C in the rear video, the amount of data to be processed can be reduced and the increase in load can be suppressed.

<車両の状態に応じた検知枠の自動切替>
車両の状態に応じて使用する検知枠を自動的に決定するためのデジタルタコグラフ10の動作例を図4に示す。すなわち、デジタルタコグラフ10のCPU11が図4に示した動作を実行することにより、例えば図3(a)、図3(b)、および図3(c)に示したような検知枠の自動切替が実現する。図4の動作について以下に説明する。
<Automatic detection frame switching according to vehicle conditions>
FIG. 4 shows an operation example of the digital tachograph 10 for automatically determining a detection frame to be used according to the state of the vehicle. That is, when the CPU 11 of the digital tachograph 10 executes the operation shown in FIG. 4, the detection frames are automatically switched as shown in FIGS. 3A, 3 </ b> B, and 3 </ b> C, for example. Realize. The operation of FIG. 4 will be described below.

ステップS11では、CPU11は、自車両の前進/後退を識別する。例えば、自車両の自動変速機から得られる変速信号の状態を参照することにより、自車両が前進、後退のいずれの状態であるのかを区別できる。   In step S11, the CPU 11 identifies forward / reverse of the host vehicle. For example, by referring to the state of the shift signal obtained from the automatic transmission of the host vehicle, it is possible to distinguish whether the host vehicle is moving forward or backward.

ステップS12では、CPU11は、自車両が停車しているか否かを識別する。例えば、自車両の現在の走行速度の情報と、ブレーキ信号の状態とに基づいて停車の有無を区別できる。   In step S12, the CPU 11 identifies whether or not the host vehicle is stopped. For example, the presence or absence of a stop can be distinguished based on information on the current traveling speed of the host vehicle and the state of the brake signal.

ステップS13では、CPU11は、S11、S12の結果に基づき、自車両が「後退」、「停車」、「前進」のいずれの状態であるのかを区別する。そして、「後退」の場合はS13からS14に進み、「停車」の場合はS13からS15に進み、「前進」の場合はS13からS16に進む。   In step S13, the CPU 11 distinguishes whether the host vehicle is in the “reverse”, “stop”, or “forward” state based on the results of S11 and S12. In the case of “reverse”, the process proceeds from S13 to S14. In the case of “stop”, the process proceeds from S13 to S15. In the case of “forward”, the process proceeds from S13 to S16.

ステップS14では、CPU11は、後退時の検知枠組合せを表す定数データを車両状態テーブルT1、および検知枠テーブルT2から取得する。車両状態テーブルT1、および検知枠テーブルT2については後で説明する。   In step S14, the CPU 11 obtains constant data representing the detection frame combination at the time of reverse from the vehicle state table T1 and the detection frame table T2. The vehicle state table T1 and the detection frame table T2 will be described later.

ステップS15では、CPU11は、停車時の検知枠組合せを表す定数データを車両状態テーブルT1、および検知枠テーブルT2から取得する。また、ステップS16では、CPU11は、前進時の検知枠組合せを表す定数データを車両状態テーブルT1、および検知枠テーブルT2から取得する。   In step S15, CPU11 acquires the constant data showing the detection frame combination at the time of a stop from vehicle state table T1 and detection frame table T2. In step S16, the CPU 11 acquires constant data representing the detection frame combination at the time of forward movement from the vehicle state table T1 and the detection frame table T2.

ステップS17では、CPU11は、S14、S15、S16のいずれかで取得した検知枠組合せの定数データを、検知枠テーブルT2Aに書き込む。この検知枠テーブルT2Aの内容が、図2に示したステップS21の処理で使用する検知枠に反映される。なお、検知枠テーブルT2Aを省略し、検知枠テーブルT2の中の一部分をS21の処理で選択的に使用するように変更してもよい。   In step S17, the CPU 11 writes the detection frame combination constant data acquired in any of S14, S15, and S16 in the detection frame table T2A. The contents of the detection frame table T2A are reflected in the detection frame used in the process of step S21 shown in FIG. Note that the detection frame table T2A may be omitted and a part of the detection frame table T2 may be selectively used in the process of S21.

<テーブルT1、T2の構成例>
デジタルタコグラフが参照する車両状態テーブルT1の構成例を図5に示す。また、デジタルタコグラフが参照する検知枠テーブルT2の構成例を図6に示す。
<Configuration example of tables T1 and T2>
A configuration example of the vehicle state table T1 referred to by the digital tachograph is shown in FIG. Further, FIG. 6 shows a configuration example of the detection frame table T2 referred to by the digital tachograph.

図5に示した車両状態テーブルT1は、「後退」、「停車」、「前進」のそれぞれの状態と、検知枠数N1と、検知枠先頭の番号N2との関係を表す定数データを保持している。図5の車両状態テーブルT1においては、図3(a)に示した例と同じように後退時の検知枠数N1が「7」になっている。また、図3(b)に示した例と同じように、停車時の検知枠数N1が「5」になっている。また、図3(c)に示した例と同じように、前進時の検知枠数N1が「2」になっている。   The vehicle state table T1 shown in FIG. 5 holds constant data representing the relationship between the states of “reverse”, “stop”, and “forward”, the number of detection frames N1, and the number N2 at the start of the detection frame. ing. In the vehicle state table T1 of FIG. 5, the number N1 of detection frames at the time of reverse movement is “7” as in the example shown in FIG. Further, as in the example shown in FIG. 3B, the number of detection frames N1 when the vehicle is stopped is “5”. Further, as in the example shown in FIG. 3C, the number N1 of detection frames during forward movement is “2”.

図6に示した検知枠テーブルT2は、多数の検知枠のそれぞれについて、番号N3、基準位置P、検知枠サイズSの関係を表す定数データを保持している。この検知枠テーブルT2においては、例えば、番号N3が「1」の検知枠は、基準位置PがP1であり、X軸方向のサイズがSx1、Y軸方向のサイズがSy1であることを表す定数データが割り当ててある。   The detection frame table T2 shown in FIG. 6 holds constant data representing the relationship among the number N3, the reference position P, and the detection frame size S for each of a large number of detection frames. In this detection frame table T2, for example, a detection frame with the number N3 “1” is a constant indicating that the reference position P is P1, the size in the X-axis direction is Sx1, and the size in the Y-axis direction is Sy1. Data is allocated.

例えば、図5に示した車両状態テーブルT1における検知枠先頭の番号N21が「1」の場合には、検知枠テーブルT2における番号N3が「1」〜「7」の範囲内の定数データが、後退時の検知枠の組合せとして図4のS14で選択される。したがって、図3(a)に示した7つの検知枠F11〜F17の各々のフレーム内の位置および縦/横の各サイズをそれぞれ特定できる。   For example, when the number N21 at the top of the detection frame in the vehicle state table T1 shown in FIG. 5 is “1”, the constant data within the range where the number N3 in the detection frame table T2 is “1” to “7” The combination of the detection frames at the time of reverse is selected in S14 of FIG. Therefore, it is possible to specify the position in the frame and the vertical / horizontal sizes of each of the seven detection frames F11 to F17 shown in FIG.

また、図5に示した車両状態テーブルT1における検知枠先頭の番号N22が「8」の場合には、検知枠テーブルT2における番号N3が「8」〜「12」の範囲内の定数データが、停車時の検知枠の組合せとして図4のS15で選択される。したがって、図3(b)に示した5つの検知枠F21〜F25の各々のフレーム内の位置および縦/横の各サイズをそれぞれ特定できる。   Further, when the number N22 at the top of the detection frame in the vehicle state table T1 shown in FIG. 5 is “8”, the constant data within the range where the number N3 in the detection frame table T2 is “8” to “12” The combination of detection frames when the vehicle is stopped is selected in S15 of FIG. Therefore, it is possible to specify the position and the vertical / horizontal sizes in each of the five detection frames F21 to F25 shown in FIG.

また、図5に示した車両状態テーブルT1における検知枠先頭の番号N23が「13」の場合には、検知枠テーブルT2における番号N3が「13」〜「14」の範囲内の定数データが、前進時の検知枠の組合せとして図4のS16で選択される。したがって、図3(c)に示した2つの検知枠F31〜F32の各々のフレーム内の位置および縦/横の各サイズをそれぞれ特定できる。   Further, when the number N23 at the top of the detection frame in the vehicle state table T1 shown in FIG. 5 is “13”, the constant data within the range where the number N3 in the detection frame table T2 is “13” to “14” The combination of detection frames at the time of forward movement is selected in S16 of FIG. Therefore, it is possible to specify the position and the vertical / horizontal size in each of the two detection frames F31 to F32 shown in FIG.

検知枠テーブルT2の中からS14、S15、S16のいずれかで抽出した一部のデータが検知枠テーブルT2Aに書き込まれ、この検知枠テーブルT2Aの内容が図2のステップS21の処理に反映される。したがって、自車両の状態が「後退」、「停車」、「前進」のいずれであるかに応じて、図3(a)、図3(b)、図3(c)に示したように実際に使用する検知枠の数、位置、大きさなどを自動的に切り替えることができる。   A part of the data extracted in any one of S14, S15, and S16 from the detection frame table T2 is written to the detection frame table T2A, and the contents of the detection frame table T2A are reflected in the process of step S21 in FIG. . Therefore, depending on whether the state of the host vehicle is “reverse”, “stop”, or “forward”, as shown in FIGS. 3 (a), 3 (b), and 3 (c) It is possible to automatically switch the number, position, size, etc. of the detection frames used for.

車両状態テーブルT1および検知枠テーブルT2は、不揮発メモリ26A上の記憶領域に配置され、これらが保持する各定数データは必要に応じて変更される。例えば、車載カメラ23Bを自車両に新たに設置したり位置などを変更する際に、デジタルタコグラフ10の各パラメータを調整するための特別なソフトウェアをCPU11で実行することにより、管理者が車両状態テーブルT1および検知枠テーブルT2を更新できる。   The vehicle state table T1 and the detection frame table T2 are arranged in a storage area on the nonvolatile memory 26A, and each constant data held by these is changed as necessary. For example, when the in-vehicle camera 23B is newly installed in the host vehicle or the position thereof is changed, special software for adjusting each parameter of the digital tachograph 10 is executed by the CPU 11 so that the manager can change the vehicle state table. T1 and the detection frame table T2 can be updated.

<変形の可能性>
図3(a)、図3(b)、図3(c)に示した例では、後方を撮影する車載カメラ23Bの映像を処理する場合の検知枠だけを想定しているが、前方を撮影する車載カメラ23や、車両側方、あるいは車室内を撮影する他の車載カメラの映像を処理する場合にも、同じような検知枠を適用して処理対象のデータ量を減らすことが想定される。そして、例えば自車両が後退する場合には、前方の映像を認識する処理が使用する検知枠の数やサイズを削減することにより、CPU11の負荷を低減し、後方の映像を認識する処理における遅延の発生を抑制できる。
<Possibility of deformation>
In the example shown in FIG. 3A, FIG. 3B, and FIG. 3C, only the detection frame in the case of processing the video of the in-vehicle camera 23B that captures the rear is assumed, but the front is captured. In the case of processing the video of the in-vehicle camera 23 or other in-vehicle camera that captures the side of the vehicle or the interior of the vehicle, it is assumed that a similar detection frame is applied to reduce the amount of data to be processed. . For example, when the host vehicle is moving backward, the load on the CPU 11 is reduced by reducing the number and size of the detection frames used by the process for recognizing the front image, and the delay in the process for recognizing the rear image. Can be suppressed.

<デジタルタコグラフ10の利点>
図1に示したデジタルタコグラフ10においては、運転支援機能を実現するために、図2に示した動作を実行する際に、例えば自車両が前進している時には、ステップS21で検知枠を用いることにより、後方の映像の処理にかかるCPU11の負荷を大幅に低減できる。その結果、前方を撮影した映像に基づいて複数種類の運転支援機能(車間距離の警報、車線逸脱の警報、速度超過の警報など)を同時に実現しようとする場合であっても、高性能のCPUを用いることなく、遅延のないリアルタイムの処理が可能になる。また、例えば自車両が後退するときには、後方の映像を処理する際に使用する検知枠の数を図3(a)のようにS14で増やすことができるので、後方の安全性を十分に確保できる。
<Advantages of digital tachograph 10>
In the digital tachograph 10 shown in FIG. 1, when the operation shown in FIG. 2 is executed to realize the driving support function, for example, when the host vehicle is moving forward, the detection frame is used in step S21. Thus, it is possible to greatly reduce the load on the CPU 11 for processing the rear video. As a result, even when trying to simultaneously realize multiple types of driving support functions (such as inter-vehicle distance warning, lane departure warning, overspeed warning, etc.) based on the video taken in front, a high-performance CPU Real time processing without delay becomes possible without using. Further, for example, when the host vehicle moves backward, the number of detection frames used when processing the rear image can be increased in S14 as shown in FIG. 3A, so that the rear safety can be sufficiently ensured. .

ここで、上述した本発明の実施形態に係る車載器および運転支援装置の特徴をそれぞれ以下[1]〜[5]に簡潔に纏めて列記する。
[1] 車両に搭載された1つ以上の車載カメラ(23,23B)が出力する映像信号を入力して処理する画像処理部(CPU11,S21)と、
前記車両における走行の有無および進行方向の少なくとも一方の状態を検知する車両状態検知部(CPU11,S11,S12)と、
前記画像処理部が処理する前記映像信号内の領域を動的に決定する画像領域決定部(CPU11,S13〜S16)と、
を有し、
前記画像領域決定部は、前記車両状態検知部の検知状態を反映して、前記領域を自動的に変更する(S17,S21)、
ことを特徴とする車載器。
Here, the features of the vehicle-mounted device and the driving support device according to the embodiment of the present invention described above are briefly summarized and listed in the following [1] to [5], respectively.
[1] An image processing unit (CPU11, S21) that inputs and processes video signals output from one or more in-vehicle cameras (23, 23B) mounted on the vehicle;
A vehicle state detection unit (CPU 11, S11, S12) for detecting the presence or absence of travel in the vehicle and the state of at least one of the traveling directions;
An image area determination unit (CPU 11, S13 to S16) for dynamically determining an area in the video signal processed by the image processing unit;
Have
The image region determination unit automatically changes the region to reflect the detection state of the vehicle state detection unit (S17, S21),
In-vehicle device characterized by that.

[2] 前記画像領域決定部は、
前記映像信号内に事前に割り当てた複数の二次元領域(検知枠F11〜F17,F21〜F25,F31,F32)の各々の位置および大きさを表す定数データを保持する定数保持部(検知枠テーブルT2)を有し、
前記複数の二次元領域の中から、前記車両状態検知部の検知状態に応じて選択した1つ以上の二次元領域を、前記画像処理部が処理する前記映像信号内の領域として割り当てる(S17)、
ことを特徴とする上記[1]に記載の車載器。
[2] The image area determination unit
A constant holding unit (detection frame table) that holds constant data representing the position and size of a plurality of two-dimensional areas (detection frames F11 to F17, F21 to F25, F31, and F32) allocated in advance in the video signal. T2)
One or more two-dimensional regions selected from the plurality of two-dimensional regions according to the detection state of the vehicle state detection unit are assigned as regions in the video signal processed by the image processing unit (S17). ,
The on-vehicle device according to [1] above, wherein

[3] 前記画像領域決定部は、前記車両状態検知部の検知状態に応じて、前記複数の二次元領域の中から選択する二次元領域の数およびその組み合わせを自動的に決定する(S13〜S16)、
ことを特徴とする上記[2]に記載の車載器。
[3] The image region determination unit automatically determines the number of two-dimensional regions to be selected from the plurality of two-dimensional regions and a combination thereof according to the detection state of the vehicle state detection unit (S13 to S13). S16),
The on-vehicle device according to [2] above,

[4] 前記画像領域決定部は、前記車両状態検知部の検知状態に基づいて、前記車両の前進、後退、および停止のいずれかの状態を認識し、認識した前記車両の状態に応じて前記領域を自動的に変更する(S13〜S16)、
ことを特徴とする上記[1]乃至[3]のいずれかに記載の車載器。
[4] The image area determination unit recognizes one of the forward, backward, and stop states of the vehicle based on the detection state of the vehicle state detection unit, and determines the state according to the recognized vehicle state. The area is automatically changed (S13 to S16),
The vehicle-mounted device according to any one of [1] to [3], wherein

[5] 上記[1]乃至[4]のいずれかに記載の車載器と、
前記画像処理部が前記映像信号の中から認識した結果と、事前に定めた判定基準とに基づいて、前記車両の安全運転を支援する警報を生成する警報生成部(S22〜S25)と、
を備えたことを特徴とする運転支援装置。
[5] The vehicle-mounted device according to any one of [1] to [4],
An alarm generation unit (S22 to S25) for generating an alarm for supporting safe driving of the vehicle based on a result recognized by the image processing unit from the video signal and a predetermined determination criterion;
A driving support apparatus comprising:

5 運行管理システム
8 無線基地局
10 デジタルタコグラフ
11、31 CPU
12A 速度I/F
12B エンジン回転I/F
13 外部入力I/F
14 センサ入力I/F
15 GPS受信部
15a GPSアンテナ
16 カメラI/F
17 記録部
18 カードI/F
19 音声I/F
20、42 スピーカ
21 RTC
22 SW入力部
23 車載カメラ
24、32 通信部
25 電源部
26A 不揮発メモリ
26B 揮発メモリ
27 表示部
28 Gセンサ
29 アナログ入力I/F
30 事務所PC
33 表示部
34 記憶部
35 カードI/F
36 操作部
37 出力部
38 音声I/F
41 マイク
48 外部I/F
51 車速センサ
54 外部記憶装置
55 事故地点DB
56 運行データDB
57 ハザードマップDB
65 メモリカード
70 ネットワーク
100A,100B,100C 画像フレーム
F11,F12,F13,F14,F15,F16,F17 検知枠
F21,F22,F23,F24,F25,F31,F32 検知枠
T1 車両状態テーブル
T2,T2A 検知枠テーブル
5 Operation management system 8 Wireless base station 10 Digital tachograph 11, 31 CPU
12A Speed I / F
12B Engine rotation I / F
13 External input I / F
14 Sensor input I / F
15 GPS receiver 15a GPS antenna 16 Camera I / F
17 Recording unit 18 Card I / F
19 Voice I / F
20, 42 Speaker 21 RTC
22 SW input unit 23 In-vehicle camera 24, 32 Communication unit 25 Power supply unit 26A Non-volatile memory 26B Volatile memory 27 Display unit 28 G sensor 29 Analog input I / F
30 office PC
33 Display unit 34 Storage unit 35 Card I / F
36 Operation unit 37 Output unit 38 Audio I / F
41 Microphone 48 External I / F
51 Vehicle speed sensor 54 External storage device 55 Accident point DB
56 Operation data DB
57 Hazard Map DB
65 Memory card 70 Network 100A, 100B, 100C Image frame F11, F12, F13, F14, F15, F16, F17 Detection frame F21, F22, F23, F24, F25, F31, F32 Detection frame T1 Vehicle state table T2, T2A Detection Frame table

Claims (5)

車両に搭載された1つ以上の車載カメラが出力する映像信号を入力して処理する画像処理部と、
前記車両における走行の有無および進行方向の少なくとも一方の状態を検知する車両状態検知部と、
前記画像処理部が処理する前記映像信号内の領域を動的に決定する画像領域決定部と、
を有し、
前記画像領域決定部は、前記車両状態検知部の検知状態を反映して、前記領域を自動的に変更する、
ことを特徴とする車載器。
An image processing unit that inputs and processes video signals output from one or more in-vehicle cameras mounted on the vehicle;
A vehicle state detector for detecting the presence or absence of travel in the vehicle and at least one state of the traveling direction;
An image region determination unit that dynamically determines a region in the video signal to be processed by the image processing unit;
Have
The image area determination unit automatically changes the area to reflect the detection state of the vehicle state detection unit.
In-vehicle device characterized by that.
前記画像領域決定部は、
前記映像信号内に事前に割り当てた複数の二次元領域の各々の位置および大きさを表す定数データを保持する定数保持部を有し、
前記複数の二次元領域の中から、前記車両状態検知部の検知状態に応じて選択した1つ以上の二次元領域を、前記画像処理部が処理する前記映像信号内の領域として割り当てる、
ことを特徴とする請求項1に記載の車載器。
The image area determination unit
A constant holding unit for holding constant data representing the position and size of each of a plurality of two-dimensional areas allocated in advance in the video signal;
One or more two-dimensional regions selected according to the detection state of the vehicle state detection unit from among the plurality of two-dimensional regions are allocated as regions in the video signal processed by the image processing unit.
The on-vehicle device according to claim 1.
前記画像領域決定部は、前記車両状態検知部の検知状態に応じて、前記複数の二次元領域の中から選択する二次元領域の数およびその組み合わせを自動的に決定する、
ことを特徴とする請求項2に記載の車載器。
The image region determination unit automatically determines the number of two-dimensional regions to be selected from the plurality of two-dimensional regions and a combination thereof according to the detection state of the vehicle state detection unit.
The vehicle-mounted device according to claim 2.
前記画像領域決定部は、前記車両状態検知部の検知状態に基づいて、前記車両の前進、後退、および停止のいずれかの状態を認識し、認識した前記車両の状態に応じて前記領域を自動的に変更する、
ことを特徴とする請求項1乃至請求項3のいずれか1項に記載の車載器。
The image region determination unit recognizes one of the forward, backward, and stopped states of the vehicle based on the detection state of the vehicle state detection unit, and automatically determines the region according to the recognized vehicle state. Change
The on-vehicle device according to any one of claims 1 to 3, wherein
請求項1乃至請求項4のいずれか1項に記載の車載器と、
前記画像処理部が前記映像信号の中から認識した結果と、事前に定めた判定基準とに基づいて、前記車両の安全運転を支援する警報を生成する警報生成部と、
を備えたことを特徴とする運転支援装置。
The vehicle-mounted device according to any one of claims 1 to 4,
An alarm generating unit that generates an alarm for supporting safe driving of the vehicle based on a result recognized by the image processing unit from the video signal and a predetermined criterion;
A driving support apparatus comprising:
JP2017143404A 2017-07-25 2017-07-25 On-board unit and driving support device Active JP6927787B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017143404A JP6927787B2 (en) 2017-07-25 2017-07-25 On-board unit and driving support device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017143404A JP6927787B2 (en) 2017-07-25 2017-07-25 On-board unit and driving support device

Publications (2)

Publication Number Publication Date
JP2019028481A true JP2019028481A (en) 2019-02-21
JP6927787B2 JP6927787B2 (en) 2021-09-01

Family

ID=65478454

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017143404A Active JP6927787B2 (en) 2017-07-25 2017-07-25 On-board unit and driving support device

Country Status (1)

Country Link
JP (1) JP6927787B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021075359A (en) * 2019-11-08 2021-05-20 株式会社タダノ Periphery monitoring device for work vehicle having boom
JP2021090108A (en) * 2019-12-02 2021-06-10 株式会社クボタ Work machine

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008276308A (en) * 2007-04-25 2008-11-13 Sanyo Electric Co Ltd Video image processing apparatus, video image processing system, and navigation device
JP2009166624A (en) * 2008-01-15 2009-07-30 Nissan Motor Co Ltd Rear monitoring device and rear monitoring method for vehicle
JP2013017024A (en) * 2011-07-04 2013-01-24 Denso Corp Detector of object which approaches vehicle
WO2013018537A1 (en) * 2011-08-02 2013-02-07 日産自動車株式会社 Driving assistance apparatus and driving assistance method

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008276308A (en) * 2007-04-25 2008-11-13 Sanyo Electric Co Ltd Video image processing apparatus, video image processing system, and navigation device
JP2009166624A (en) * 2008-01-15 2009-07-30 Nissan Motor Co Ltd Rear monitoring device and rear monitoring method for vehicle
JP2013017024A (en) * 2011-07-04 2013-01-24 Denso Corp Detector of object which approaches vehicle
WO2013018537A1 (en) * 2011-08-02 2013-02-07 日産自動車株式会社 Driving assistance apparatus and driving assistance method

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021075359A (en) * 2019-11-08 2021-05-20 株式会社タダノ Periphery monitoring device for work vehicle having boom
JP2021090108A (en) * 2019-12-02 2021-06-10 株式会社クボタ Work machine
JP7321911B2 (en) 2019-12-02 2023-08-07 株式会社クボタ work machine

Also Published As

Publication number Publication date
JP6927787B2 (en) 2021-09-01

Similar Documents

Publication Publication Date Title
RU2656933C2 (en) Method and device for early warning during meeting at curves
US20110128136A1 (en) On-vehicle device and recognition support system
JP6651031B2 (en) Vehicle door collision prevention device and vehicle door collision prevention method
JP2003123196A (en) Device and program for monitoring circumference of vehicle
WO2015174017A1 (en) In-vehicle apparatus and travel image storage system
JP2010067262A (en) Intelligent driving assistant system
JP5898001B2 (en) Vehicle periphery monitoring device
US11176826B2 (en) Information providing system, server, onboard device, storage medium, and information providing method
JP7146516B2 (en) Driving evaluation device and in-vehicle device
CN114175123B (en) Driving support method, road photographic image collection method, and road side device
JP5691814B2 (en) Driving assistance device
US11738747B2 (en) Server device and vehicle
US20210150903A1 (en) Information provision system, server, and mobile terminal
KR20140099615A (en) Digital tachograph with black-box and lane departure warning
JP6962712B2 (en) In-vehicle image recording device
JP7207916B2 (en) In-vehicle device
JP6927787B2 (en) On-board unit and driving support device
JP7163077B2 (en) PARKING ASSIST DEVICE AND PARKING ASSIST METHOD
WO2020136941A1 (en) Vehicle recording control device, vehicle recording device, vehicle recording control method, and program
JP7057074B2 (en) On-board unit and driving support device
JP2009037542A (en) Adjacent vehicle detection apparatus and adjacent vehicle detection method
KR20210020463A (en) Method and apparatus for automatically reporting traffic rule violation vehicles using black box images
JP2004051006A (en) Intersection accident prevention device and program
JP6974059B2 (en) On-board unit and driving support device
US20200342761A1 (en) Notification apparatus and in-vehicle device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200617

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201222

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210219

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210803

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210805

R150 Certificate of patent or registration of utility model

Ref document number: 6927787

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350