JP2022058835A - Image processing apparatus and image processing method, and image processing program and recording medium - Google Patents

Image processing apparatus and image processing method, and image processing program and recording medium Download PDF

Info

Publication number
JP2022058835A
JP2022058835A JP2022014828A JP2022014828A JP2022058835A JP 2022058835 A JP2022058835 A JP 2022058835A JP 2022014828 A JP2022014828 A JP 2022014828A JP 2022014828 A JP2022014828 A JP 2022014828A JP 2022058835 A JP2022058835 A JP 2022058835A
Authority
JP
Japan
Prior art keywords
image processing
image
vehicle
processing apparatus
image pickup
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022014828A
Other languages
Japanese (ja)
Inventor
宏平 伊藤
Kohei Ito
理 山崎
Osamu Yamazaki
晃一 荻野
Koichi Ogino
喬浩 鎌田
Takahiro Kamata
博之 関谷
Hiroyuki Sekiya
健一郎 矢野
Kenichiro Yano
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Pioneer Corp
Original Assignee
Pioneer Electronic Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Pioneer Electronic Corp filed Critical Pioneer Electronic Corp
Priority to JP2022014828A priority Critical patent/JP2022058835A/en
Publication of JP2022058835A publication Critical patent/JP2022058835A/en
Priority to JP2023129375A priority patent/JP2023138690A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Traffic Control Systems (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an image processing apparatus capable of reducing a processing load on a transmission destination or the like as compared with a case where image information corresponding to an imaging result in each vehicle is always transmitted.
SOLUTION: An image processing apparatus comprises: a camera 1 whose image capturing range is in front of the own vehicle; a processing unit 2 for determining whether or not a relationship between a forward vehicle appearing within the image capturing range and the own vehicle has become a specific relationship that an image capturing result of the camera 1 can be employed as the image capturing result indicating a surrounding situation of the own vehicle; and an interface 3 for externally transmitting image data corresponding to the image capturing result of the camera 1 corresponding to a timing at which the relationship between the forward vehicle and the own vehicle has become the specific relationship.
SELECTED DRAWING: Figure 2
COPYRIGHT: (C)2022,JPO&INPIT

Description

本願は、画像処理装置及び画像処理方法並びに画像処理用プログラム及び記録媒体の技術分野に属する。より詳細には、車両等の移動体の前方を撮像範囲として撮像された撮像結果に相当する画像情報の処理を行う画像処理装置及び画像処理方法並びに当該画像処理装置用のプログラム及び当該プログラムが記録された記録媒体の技術分野に属する。 The present application belongs to the technical fields of image processing devices and image processing methods, as well as image processing programs and recording media. More specifically, the image processing device and the image processing method for processing the image information corresponding to the image pickup result captured with the front of the moving body such as a vehicle as the image pickup range, the program for the image processing device, and the program are recorded. It belongs to the technical field of recording media.

近年、一般の車両に搭載され且つその前方を撮像範囲とするカメラによる撮像結果に相当する画像情報を、サーバ装置において各車両からインターネット等のネットワークを介して収集し、それらに基づいて検出された道路状況を示す情報と共に当該画像情報そのものを他の車両等に提供する交通情報提供システムについての研究開発が行われている。このような交通情報提供システムでは、収集された各画像情報について、車両の運転者にとってそれらが有用な画像情報かあるか否かをサーバ装置において評価する必要がある。このような技術を開示した先行技術文献としては、例えば下記特許文献1が挙げられる。この特許文献1に開示されている技術では、上記のようにしてサーバ装置において収集した各画像情報に対して所定の画像解析処理をそれぞれ施し、例えば多数の車両が一定時間動いていないと解析された場合には、それが渋滞であることを示す有用な画像情報であると判定する構成とされている。 In recent years, image information corresponding to the image pickup result of a camera mounted on a general vehicle and whose imaging range is in front of the vehicle is collected from each vehicle by a server device via a network such as the Internet, and detected based on the image information. Research and development is being conducted on a traffic information providing system that provides the image information itself to other vehicles and the like together with information indicating road conditions. In such a traffic information providing system, it is necessary for the server device to evaluate whether or not each of the collected image information is useful image information for the driver of the vehicle. Examples of the prior art document that discloses such a technique include the following Patent Document 1. In the technique disclosed in Patent Document 1, a predetermined image analysis process is applied to each image information collected in the server device as described above, and it is analyzed that, for example, a large number of vehicles have not moved for a certain period of time. If so, it is determined that it is useful image information indicating that it is a traffic jam.

特開2017-21745号公報Japanese Unexamined Patent Publication No. 2017-21745

しかしながら、上記特許文献1に記載されている技術では、上記収集される各画像情報の全てについて上記画像解析処理を施す必要があるため、特に渋滞により多数の車両が集中している場合等においては、サーバ装置としての処理負荷が課題となるという問題点があった。 However, in the technique described in Patent Document 1, it is necessary to perform the image analysis processing on all of the collected image information, and therefore, especially when a large number of vehicles are concentrated due to traffic congestion. However, there is a problem that the processing load as a server device becomes an issue.

またこの場合、例えば各車両において上記の画像解析処理を行った結果をサーバ装置に送信する構成とすることも考えられる。しかしながらこの場合でも、各車両において必要な画像認識処理等を常時実行する必要があるため、結果として各車両における処理負荷が増大するという問題点もある。 Further, in this case, for example, it is conceivable to have a configuration in which the result of performing the above image analysis processing in each vehicle is transmitted to the server device. However, even in this case, since it is necessary to constantly execute the image recognition processing and the like necessary for each vehicle, there is also a problem that the processing load in each vehicle increases as a result.

そこで本願は、上記の各問題点に鑑みて為されたもので、その課題の一例は、各車両における撮像結果に相当する画像情報を常時送信する場合に比して当該画像情報の送信先等での処理負荷を軽減させることが可能な画像処理装置及び画像処理方法並びに当該画像処理装置用のプログラム及び当該プログラムが記録された記録媒体を提供することにある。 Therefore, the present application has been made in view of each of the above problems, and one example of the problem is the transmission destination of the image information, etc., as compared with the case where the image information corresponding to the image pickup result in each vehicle is constantly transmitted. It is an object of the present invention to provide an image processing apparatus and an image processing method capable of reducing the processing load in the image processing apparatus, a program for the image processing apparatus, and a recording medium on which the program is recorded.

上記の課題を解決するために、請求項1に記載の発明は、移動体の前方を撮像範囲とする撮像手段と、前記撮像範囲内に映っている他の移動体と前記移動体との距離が予め設定された閾値距離以上となったか否かを判定する判定手段と、前記距離が前記閾値距離以上となったと判定されたタイミングに対応する前記撮像結果に相当する画像情報を記録する記録手段と、を備える。 In order to solve the above problem, the invention according to claim 1 is a distance between an imaging means whose imaging range is in front of a moving object and another moving object and the moving object which are reflected in the imaging range. A determination means for determining whether or not the distance is equal to or greater than a preset threshold distance, and a recording means for recording image information corresponding to the imaging result corresponding to the timing when the distance is determined to be equal to or greater than the threshold distance. And.

上記の課題を解決するために、請求項7に記載の発明は、移動体の前方を撮像範囲とする撮像手段と、判定手段と、送信手段と、を備える画像処理装置において実行される画像処理方法であって、前記撮像範囲を前記撮像手段により撮像する撮像工程と、前記撮像範囲内に映っている他の移動体と前記移動体との距離が予め設定された閾値距離以上となったか否かを前記判定手段により判定する判定工程と、前記距離が前記閾値距離以上となったタイミングに対応する前記撮像結果に相当する画像情報を前記送信手段により外部に送信する送信工程と、を含む。 In order to solve the above problems, the invention according to claim 7 is an image processing performed in an image processing apparatus including an image pickup means having an image pickup range in front of a moving body, a determination means, and a transmission means. In the method, whether or not the imaging step of imaging the imaging range by the imaging means and the distance between another moving object and the moving object reflected in the imaging range are equal to or more than a preset threshold distance. It includes a determination step of determining whether or not the image is determined by the determination means, and a transmission step of transmitting image information corresponding to the image pickup result corresponding to the timing when the distance becomes equal to or greater than the threshold distance to the outside by the transmission means.

上記の課題を解決するために、請求項8に記載の発明は、移動体の前方を撮像範囲とする撮像手段に接続されたコンピュータを、前記撮像手段を除く請求項1から請求項7のいずれか一項に記載の画像処理装置として機能させる。 In order to solve the above problems, the invention according to claim 8 is any of claims 1 to 7, excluding the image pickup means, in which a computer connected to an image pickup means having an image pickup range in front of the moving body is used. It is made to function as the image processing apparatus according to the first item.

上記の課題を解決するために、請求項9に記載の発明は、請求項8に記載の画像処理用プログラムが、移動体の前方を撮像範囲とする撮像手段に接続されたコンピュータにより読み取り可能に記録されている。 In order to solve the above problems, the invention according to claim 9 makes the image processing program according to claim 8 readable by a computer connected to an image pickup means having an image pickup range in front of the moving body. It has been recorded.

実施形態に係る画像処理装置の概要構成を示すブロック図である。It is a block diagram which shows the outline structure of the image processing apparatus which concerns on embodiment. 実施例に係るドライブレコーダの概要構成を示すブロック図である。It is a block diagram which shows the outline structure of the drive recorder which concerns on Example. 実施例に係る画像処理を示すフローチャートである。It is a flowchart which shows the image processing which concerns on Example. 実施例に係る画像処理の効果を例示する図等であり、(a)は先行技術の場合の結果を例示する図であり、(b)は実施例に係る画像処理の効果を例示する図である。It is a figure which exemplifies the effect of the image processing which concerns on an Example, (a) is a figure which exemplifies the result in the case of the prior art, (b) is a figure which illustrates the effect of the image processing which concerns on an Example. be.

次に、本願を実施するための形態について、図1を用いて説明する。なお図1は、実施形態に係る画像処理装置の概要構成を示すブロック図である。 Next, a mode for carrying out the present application will be described with reference to FIG. Note that FIG. 1 is a block diagram showing an outline configuration of the image processing apparatus according to the embodiment.

図1に示すように、実施形態に係る画像処理装置Sは、撮像手段1と、判定手段2と、記録手段2-1と、を備えて構成されている。 As shown in FIG. 1, the image processing apparatus S according to the embodiment includes an image pickup means 1, a determination means 2, and a recording means 2-1.

この構成において撮像手段1は、移動体の前方を撮像範囲とする撮像手段である。 In this configuration, the image pickup means 1 is an image pickup means whose imaging range is in front of the moving body.

そして判定手段2は、撮像手段1の撮像範囲内に映っている他の移動体と前記移動体との関係が、移動体の周辺の状況を示す撮像結果として撮像手段の撮像結果を用いることが可能な特定関係となったか否かを判定する。 Then, the determination means 2 may use the image pickup result of the image pickup means as the image pickup result indicating the situation around the moving body in the relationship between the other moving body and the moving body reflected in the image pickup range of the image pickup means 1. Determine if the relationship is as specific as possible.

これにより記録手段2-1は、判定手段2により判定された上記関係が上記特定関係となったタイミングに対応する撮像手段1の撮像結果に相当する画像情報を記録する。 As a result, the recording means 2-1 records the image information corresponding to the image pickup result of the image pickup means 1 corresponding to the timing when the relationship determined by the determination means 2 becomes the specific relationship.

以上説明したように、実施形態に係る画像処理装置Sの動作によれば、前方の撮像範囲内に映っている他の移動体との関係が、周辺の状況を示す撮像結果としてその撮像結果を用いることが可能な特定関係となったタイミングに対応する撮像結果に相当する画像情報を記録する。よって、当該画像処理を常時行う場合に比して画像処理装置の処理負荷を軽減させることができる。 As described above, according to the operation of the image processing apparatus S according to the embodiment, the relationship with other moving objects reflected in the front imaging range captures the imaging result as an imaging result indicating the surrounding situation. Image information corresponding to the imaging result corresponding to the timing of the specific relationship that can be used is recorded. Therefore, the processing load of the image processing apparatus can be reduced as compared with the case where the image processing is always performed.

次に、上述した実施形態に対応する具体的な実施例について、図2乃至図4を用いて説明する。なお以下に説明する実施例は、本願に係る「移動体」の一例としての車両に備えられたドライブレコーダにおける画像処理に本願を適用した場合の実施例である。なお以下の説明において、当該ドライブレコーダが搭載されている車両を単に「自車」と称する。 Next, specific examples corresponding to the above-described embodiments will be described with reference to FIGS. 2 to 4. The examples described below are examples in which the present application is applied to image processing in a drive recorder provided in a vehicle as an example of the "moving body" according to the present application. In the following description, the vehicle equipped with the drive recorder is simply referred to as "own vehicle".

また、図2は実施例に係るドライブレコーダの概要構成を示すブロック図であり、図3は実施例に係る画像処理を示すフローチャートであり、図4は実施例に係る画像処理の効果を例示する図等である。このとき図2では、図1に示した実施形態に係る画像処理装置Sにおける各構成部材に対応する実施例の構成部材それぞれについて、当該画像処理装置Sにおける各構成部材と同一の部材番号を用いている。 Further, FIG. 2 is a block diagram showing an outline configuration of a drive recorder according to an embodiment, FIG. 3 is a flowchart showing image processing according to the embodiment, and FIG. 4 illustrates an effect of the image processing according to the embodiment. It is a figure etc. At this time, in FIG. 2, for each of the constituent members of the embodiment corresponding to each constituent member in the image processing apparatus S according to the embodiment shown in FIG. 1, the same member number as each constituent member in the image processing apparatus S is used. ing.

図2に示すように、実施例に係るドライブレコーダDRは、CCD(Charge Coupled Device)又はCMOS(Complementary Metal-Oxide-Semiconductor)撮像素子等からなるカメラ1と、CPU、RAM(Random Access Memory)及びROM(Read Only Memory)等からなる処理部2と、インターフェース3と、操作ボタン又はタッチパネル等からなる操作部4と、HDD(Hard Disc Drive)又はSSD(Solid State Drive)等からなる記録部5と、例えば加速度センサ及び車間距離センサ等からなるセンサ部6と、液晶ディスプレイ等からなるディスプレイ7と、により構成されている。このとき、カメラ1が実施形態に係る撮像手段1の一例に相当し、処理部2が実施例に係る判定手段2の一例及び記録手段2-1の一例にそれぞれ相当し、インターフェース3が実施例に係る送信手段3の一例に相当する。また処理部2が、本願に係る「第1判定手段」の一例、「第2判定手段」の一例及び「検出手段」の一例に、それぞれ相当する。 As shown in FIG. 2, the drive recorder DR according to the embodiment includes a camera 1 composed of a CCD (Charge Coupled Device) or a CMOS (Complementary Metal-Oxide-Semiconductor) image pickup element, a CPU, a RAM (Random Access Memory), and the like. A processing unit 2 composed of a ROM (Read Only Memory) or the like, an interface 3, an operation unit 4 composed of an operation button or a touch panel, and a recording unit 5 composed of an HDD (Hard Disc Drive) or SSD (Solid State Drive) or the like. For example, it is composed of a sensor unit 6 including an acceleration sensor, an inter-vehicle distance sensor, and the like, and a display 7 including a liquid crystal display and the like. At this time, the camera 1 corresponds to an example of the imaging means 1 according to the embodiment, the processing unit 2 corresponds to an example of the determination means 2 and the recording means 2-1 according to the embodiment, respectively, and the interface 3 corresponds to the embodiment. Corresponds to an example of the transmission means 3 according to the above. Further, the processing unit 2 corresponds to an example of the "first determination means", an example of the "second determination means", and an example of the "detection means" according to the present application, respectively.

以上の構成においてカメラ1は、自車の前方をその撮像範囲としており、処理部2の制御の下、当該撮像範囲を例えばサイクリックに(即ち巡回的に)撮像し、その撮像結果に相当する画像データを処理部2に出力する。この画像データが本願に係る「画像情報」の一例に相当する。一方インターフェース3は、処理部2の制御の下、インターネット等のネットワークを介した図示しない外部のサーバ装置との間のデータの授受、又は他の車両に搭載されている図示しないナビゲーション装置等との間のいわゆる車車間通信によるデータの授受を制御する。なお以下の説明において、上記図示しない外部のサーバ装置又は他の車両に搭載されている上記図示しないナビゲーション装置等を、単に「サーバ装置等」と称する。また操作部4は、ドライブレコーダDRにおける動作を指定するための使用者による操作が当該操作部4において実施された場合に、当該操作に対応する操作信号を生成して処理部2に出力する。更にセンサ部6は、自車に印加される加速度を例えば三軸方向についてそれぞれ検出し、当該検出した加速度を示す加速度データを処理部2に出力する。またセンサ部6は、自車の前方に存在する他の車両と自車との間の車間距離を検出し、当該検出した車間距離を示す距離データを処理部2に出力する。なお以下の説明において、当該他の車両を単に「前方車両」と称する。これらにより処理部2は、カメラ1から出力された上記画像データを記録部5に不揮発的に記録させる。そして処理部2は、以下に説明する実施例に係る画像処理により、必要な画像データを読み出してインターフェース3を介して上記サーバ装置等に送信する。更に処理部2は、センサ部2から出力された上記加速度データに基づいて自車の加速度又は速度を検出すると共に、センサ部2から出力された上記距離データに基づいて前方車両と自車との車間距離を検出する。また処理部2は、操作部4から出力された上記操作信号に基づいて、実施例に係る画像処理を含むドライブレコーダDRとしての処理を統括制御する。 In the above configuration, the camera 1 has an image pickup range in front of the own vehicle, and under the control of the processing unit 2, the camera 1 captures the image pickup range cyclically (that is, cyclically), and corresponds to the image pickup result. The image data is output to the processing unit 2. This image data corresponds to an example of "image information" according to the present application. On the other hand, the interface 3 exchanges data with an external server device (not shown) via a network such as the Internet, or with a navigation device (not shown) mounted on another vehicle under the control of the processing unit 2. It controls the exchange of data by so-called vehicle-to-vehicle communication between vehicles. In the following description, the external server device (not shown) or the navigation device (not shown) mounted on another vehicle is simply referred to as a “server device or the like”. Further, when the operation by the user for designating the operation in the drive recorder DR is performed in the operation unit 4, the operation unit 4 generates an operation signal corresponding to the operation and outputs it to the processing unit 2. Further, the sensor unit 6 detects the acceleration applied to the own vehicle in, for example, the triaxial directions, and outputs the acceleration data indicating the detected acceleration to the processing unit 2. Further, the sensor unit 6 detects the inter-vehicle distance between the other vehicle existing in front of the own vehicle and the own vehicle, and outputs the distance data indicating the detected inter-vehicle distance to the processing unit 2. In the following description, the other vehicle is simply referred to as a "front vehicle". As a result, the processing unit 2 causes the recording unit 5 to non-volatileally record the image data output from the camera 1. Then, the processing unit 2 reads out necessary image data and transmits it to the server device or the like via the interface 3 by the image processing according to the embodiment described below. Further, the processing unit 2 detects the acceleration or speed of the own vehicle based on the acceleration data output from the sensor unit 2, and the front vehicle and the own vehicle based on the distance data output from the sensor unit 2. Detects the distance between vehicles. Further, the processing unit 2 controls the processing as the drive recorder DR including the image processing according to the embodiment based on the operation signal output from the operation unit 4.

次に、実施例に係る画像処理について、図2及び図3を用いて具体的に説明する。図3にそのフローチャートを示すように、実施例に係る画像処理は、ドライブレコーダDRとしての図示しない電源スイッチがオンとされた以降、例えば一定時間ごとに開始される。実施例に係る画像処理が開始されたら、先ず処理部2は、例えば自車の前方の地点を含む混雑(渋滞)情報を取得する(ステップS1)。このステップS1は、例えば自車の速度が一定速度以下となった場合に混雑していると推測してもよいし、例えばVICS(登録商標)(Vehicle Information Communication System)又は車車間通信により当該混雑情報自体を取得してもよい。ステップS1で混雑情報を取得した場合、カメラ1の撮像範囲には自車の前方に存在する他の車両の後部が映っていることが推測される。そこで処理部2は次に、当該前方車両が発進したか否か、即ち前方車両の状態が停止状態から移動状態(走行状態)に変わったか否かを検出する(ステップS2)。このステップS2として例えば処理部2は、上記車間距離が一定値から徐々に長くなった場合に前方車両が発進したと検出してもよいし、カメラ1に映っている当該前方車両の画像自体を解析してその画像が小さくなっていった場合に前方車両が発進したと検出してもよい。また、当該画像に対していわゆるエッジ検出処理を施すことにより前方車両の発進を検出してもよい。その後処理部2は、ステップS2において前方車両の発進が実際に検出されたか否かを判定する(ステップS3)。そして、例えばステップS1で取得した混雑情報の精度が低い等の理由により前方車両がそもそも存在しない場合、当該発進は検出されないので(ステップS3:NO)、処理部2は上記ステップS1に戻って上述した処理を繰り返す。一方ステップS3の判定において前方車両の発進が検出された場合(ステップS3:YES)、次に処理部2は、自車が発進したか否か、即ち自車の状態が停止状態から発進状態に変わったか否かを検出する(ステップS4)。このステップS4として例えば処理部2は、センサ部6から出力される上記加速度データに基づいて、自車が前方への有意な加速度又は速度を有した場合に自車が発進したと検出するように構成することができる。その後処理部2は、ステップS4において自車の発進が実際に検出されたか否かを判定する(ステップS5)。そして、未だ自車の発進が検出されない場合(ステップS5:NO)、処理部2は上記ステップS4に戻って自車の発進の検出を待機する。一方ステップS5の判定において自車の発進が検出された場合(ステップS5:YES)、それより前に前方車両が発進していることから(ステップS3:YES参照)、自車と前方車両との間には、その状態をカメラ1で撮像して得られた撮像結果に相当する画像データを実施例に係るドライブレコーダDRから取得した上記サーバ装置等において、当該画像データを自車周辺の例えば混雑(渋滞)の状況を示す画像データとして有効に活用できる程度の距離(間隔)が空いていることになる。即ち上記サーバ装置等は、前方車両が先に発進して(ステップS3:YES参照)空いた空間(上記距離(間隔)に相当する空間)により、自車周辺の状況が認識し易くなった画像データを取得できることになる。そこで処理部2は、ステップS5で自車の発進が検出されたタイミングから予め設定された時間だけ前(例えば0.5秒前)の時点で撮像された撮像結果に相当する画像データを記録部5から読み出し、インターフェース3を介して当該読み出された画像データを上記サーバ装置等に送信(アップロード)する(ステップS6)。 Next, the image processing according to the embodiment will be specifically described with reference to FIGS. 2 and 3. As the flowchart is shown in FIG. 3, the image processing according to the embodiment is started, for example, at regular time intervals after the power switch (not shown) as the drive recorder DR is turned on. When the image processing according to the embodiment is started, the processing unit 2 first acquires congestion (congestion) information including, for example, a point in front of the own vehicle (step S1). This step S1 may be presumed to be congested, for example, when the speed of the own vehicle becomes a certain speed or less, and the congestion may be caused by, for example, VICS (registered trademark) (Vehicle Information Communication System) or vehicle-to-vehicle communication. The information itself may be obtained. When the congestion information is acquired in step S1, it is presumed that the rear part of another vehicle existing in front of the own vehicle is reflected in the image pickup range of the camera 1. Therefore, the processing unit 2 next detects whether or not the vehicle in front has started, that is, whether or not the state of the vehicle in front has changed from the stopped state to the moving state (running state) (step S2). As step S2, for example, the processing unit 2 may detect that the vehicle in front has started when the inter-vehicle distance gradually increases from a certain value, or the image itself of the vehicle in front captured by the camera 1 may be detected. When the image becomes smaller after analysis, it may be detected that the vehicle in front has started. Further, the start of the vehicle in front may be detected by performing so-called edge detection processing on the image. After that, the processing unit 2 determines whether or not the start of the vehicle in front is actually detected in step S2 (step S3). Then, if the vehicle in front does not exist in the first place due to, for example, the accuracy of the congestion information acquired in step S1 is low, the start is not detected (step S3: NO), so that the processing unit 2 returns to step S1 and described above. Repeat the process. On the other hand, when the start of the vehicle in front is detected in the determination of step S3 (step S3: YES), the processing unit 2 then determines whether or not the own vehicle has started, that is, the state of the own vehicle changes from the stopped state to the starting state. It detects whether or not it has changed (step S4). As step S4, for example, the processing unit 2 detects that the vehicle has started when the vehicle has a significant forward acceleration or speed based on the acceleration data output from the sensor unit 6. Can be configured. After that, the processing unit 2 determines whether or not the start of the own vehicle is actually detected in step S4 (step S5). Then, when the start of the own vehicle is not detected yet (step S5: NO), the processing unit 2 returns to the above step S4 and waits for the detection of the start of the own vehicle. On the other hand, when the start of the own vehicle is detected in the determination of step S5 (step S5: YES), the vehicle in front has started before that (see step S3: YES). In the meantime, in the server device or the like obtained from the drive recorder DR according to the embodiment, the image data corresponding to the image data obtained by imaging the state with the camera 1 is congested, for example, around the own vehicle. There is a distance (interval) that can be effectively used as image data indicating the situation of (traffic). That is, the server device and the like have an image in which the situation around the own vehicle is easily recognized due to the space (the space corresponding to the above distance (interval)) in which the vehicle in front starts first (see step S3: YES). You will be able to get the data. Therefore, the processing unit 2 records image data corresponding to the image pickup result captured at a time before (for example, 0.5 seconds before) a preset time from the timing when the start of the own vehicle is detected in step S5. It is read from No. 5 and the read image data is transmitted (uploaded) to the server device or the like via the interface 3 (step S6).

その後処理部2は、例えばドライブレコーダDRとしての電源がオフとされた等の理由により実施例に係る画像処理を終了するか否かを判定する(ステップS7)。ステップS7の判定において、実施例に係る画像処理を終了する場合(ステップS7:YES)、処理部2はそのまま当該画像処理を終了する。一方ステップS7の判定において、引き続き実施例に係る画像処理を継続する場合(ステップS7:NO)、処理部2は上記ステップS1に戻って上述した処理を繰り返す。 After that, the processing unit 2 determines whether or not to end the image processing according to the embodiment for reasons such as the power of the drive recorder DR being turned off (step S7). In the determination of step S7, when the image processing according to the embodiment is terminated (step S7: YES), the processing unit 2 terminates the image processing as it is. On the other hand, in the determination of step S7, when the image processing according to the embodiment is continued (step S7: NO), the processing unit 2 returns to the above step S1 and repeats the above-mentioned processing.

以上説明したように、実施例に係る画像処理によれば、前方の撮像範囲内に映っている前方車両との間隔が、周辺の状況を示す撮像結果としてその撮像結果を用いることが可能な間隔まで開いたタイミング(図3ステップS5:YES参照)に対応する撮像結果に相当する画像データを外部のサーバ装置等に送信する。よって、ドライブレコーダDRから当該画像データを常時送信する場合に比して処理部2及び当該画像データの送信先での処理負荷を軽減させることができると共に、当該送信先において、当該画像データに相当する撮像結果を、例えば混雑の判定等に関する処理に有益に活用することができる。この効果についてより具体的に図4を用いて説明すると、例えば前方車両との間隔が空いていない状態で自車のカメラ1で撮像した撮像結果Gには、例えば図4(a)に例示するように前方車両Cが極めて間近に映っており、この状態の撮像結果Gに相当する画像データをサーバ装置等が取得しても、自車周辺の例えば混雑の状況を判定するために有用に用いることはできない。これに対して、前方車両Cとの間隔が十分に空いた状態(ステップS5:YES参照)においてカメラ1で撮像した撮像結果Gでは、例えば図4(b)に例示するように前方車両Cが図4(a)に例示する場合に比して遠方に映っている。よってこの場合には、自車と前方車両Cとの間には、当該撮像結果Gに相当する画像データを上記サーバ装置等において自車周辺の状況の判定等に有効に活用できる程度の距離が空いている。従って、図4(b)に例示する状態の撮像結果に相当する画像データをサーバ装置等が取得すれば、自車周辺の例えば自車のいる車線や他の車線における混雑の状況を判定するために有用にこれを用いることができるのである。 As described above, according to the image processing according to the embodiment, the distance from the vehicle in front that is reflected in the image pickup range in front is the interval at which the image pickup result can be used as the image pickup result indicating the surrounding situation. Image data corresponding to the imaging result corresponding to the timing (see step S5: YES in FIG. 3) is transmitted to an external server device or the like. Therefore, the processing load on the processing unit 2 and the destination of the image data can be reduced as compared with the case where the image data is constantly transmitted from the drive recorder DR, and the image data corresponds to the image data at the destination. The imaging result can be usefully used for processing related to, for example, congestion determination. More specifically, this effect will be described with reference to FIG. 4. For example, the image pickup result G captured by the camera 1 of the own vehicle in a state where there is no space between the vehicle and the vehicle in front is illustrated in FIG. 4 (a), for example. As described above, the vehicle C in front is shown very close, and even if the server device or the like acquires the image data corresponding to the image pickup result G in this state, it is usefully used for determining, for example, the congestion situation around the vehicle. It is not possible. On the other hand, in the image pickup result G captured by the camera 1 in a state where the distance from the front vehicle C is sufficiently large (see step S5: YES), the front vehicle C is, for example, as illustrated in FIG. 4 (b). It is reflected farther than in the case illustrated in FIG. 4 (a). Therefore, in this case, the distance between the own vehicle and the vehicle in front C is such that the image data corresponding to the image pickup result G can be effectively used for determining the situation around the own vehicle in the server device or the like. Vacant. Therefore, if the server device or the like acquires image data corresponding to the image pickup result in the state illustrated in FIG. 4B, it is possible to determine the congestion situation in the lane in which the vehicle is located or in another lane around the vehicle. It can be usefully used for.

また、前方車両が移動状態にあり、且つ自車が停止状態から移動状態に変わった時点に対応する撮像結果に相当する画像データが外部のサーバ装置等に送信されるので(図3ステップS5:YES参照)、処理部2及び当該画像データの送信先での処理負荷を軽減させることができると共に、当該送信先において、周辺の混雑の状況を的確に示す撮像結果を有益に活用することができる。 Further, since the image data corresponding to the imaging result corresponding to the time when the vehicle in front is in the moving state and the own vehicle changes from the stopped state to the moving state is transmitted to the external server device or the like (FIG. 3, step S5: (Refer to YES), the processing load on the processing unit 2 and the destination of the image data can be reduced, and at the destination, the imaging result that accurately indicates the congestion situation in the surrounding area can be beneficially utilized. ..

更に、前方車両が停止状態から移動状態に変わった後に(図3ステップS3:YES参照)自車が停止状態から移動状態に変わった時点(図3ステップ5:YES参照)に対応する撮像結果に相当する画像データが外部のサーバ装置等に送信されるので、処理部2及び当該画像データの送信先での処理負荷を軽減させることができると共に、当該送信先において、周辺の混雑の状況をより的確に示す撮像結果を有益に活用することができる。 Further, the image pickup result corresponding to the time when the own vehicle changes from the stopped state to the moving state (see FIG. 3 step 5: YES) after the vehicle in front changes from the stopped state to the moving state (see FIG. 3 step S3: YES). Since the corresponding image data is transmitted to an external server device or the like, it is possible to reduce the processing load on the processing unit 2 and the destination of the image data, and at the same time, the situation of congestion in the surrounding area can be further improved. It is possible to make useful use of the imaging results shown accurately.

更にまた、前方車両が映っている撮像結果に基づいて、当該前方車両が移動状態であるか否かを判定する場合は(図3ステップS2参照)、当該前方車両が移動状態にあることを確実に検出して必要な画像データを外部に送信することができる。 Furthermore, when determining whether or not the vehicle in front is in a moving state based on the imaging result of the vehicle in front (see step S2 in FIG. 3), it is ensured that the vehicle in front is in a moving state. It can be detected and the necessary image data can be transmitted to the outside.

また、自車の加速度又は速度に基づいて自車が停止状態から移動状態に変わったか否かを判定する場合は(図3ステップS4参照)、自車が停止状態から移動状態に変わったことを確実に検出して必要な画像データを外部に送信することができる。 Further, when determining whether or not the own vehicle has changed from the stopped state to the moving state based on the acceleration or speed of the own vehicle (see step S4 in FIG. 3), it is determined that the own vehicle has changed from the stopped state to the moving state. It can be reliably detected and the necessary image data can be transmitted to the outside.

なお上述した実施例では、前方車両及び自車それぞれの発進を検出して前方車両と自車との間の距離が空いたか否かを判定した(図3ステップS2乃至ステップS5参照)。ここで、例えば低速で移動する渋滞内に前方車両と自車が共に存在している場合には、当該車間距離がなかなか開かない場合がある。よってこのような場合には、例えば、前方車両が停止状態から移動状態に変わってから、自車が停止状態から移動状態に変わるまでの時間が、経験的又は実験的或いは地域性(例えばその地点の渋滞としての特異性)に応じて予め設定された閾値時間以上となった時点に対応する撮像結果に相当する画像データを外部のサーバ装置等に送信するように構成してもよい。この場合にも、処理部2及び当該画像データの送信先での処理負荷を軽減させることができると共に、当該送信先において、周辺の混雑の状況を的確に示す撮像結果を有益に活用することができる。更には、前方車両が停止状態から移動状態に変わってから、自車が停止状態から移動状態に変わった際の前方車両の自車の距離が、経験的又は実験的或いは地域性(例えばその地点の渋滞としての特異性)に応じて予め設定された閾値距離以上となった時点に対応する撮像結果に相当する画像データを外部のサーバ装置等に送信するように構成してもよい。この場合にも、処理部2及び当該画像データの送信先での処理負荷を軽減させることができると共に、当該送信先において、周辺の混雑の状況を的確に示す撮像結果を有益に活用することができる。 In the above-described embodiment, the start of each of the vehicle in front and the vehicle is detected to determine whether or not the distance between the vehicle in front and the vehicle is large (see steps S2 to S5 in FIG. 3). Here, for example, when both the vehicle in front and the own vehicle are present in a traffic jam traveling at a low speed, the distance between the vehicles may not be widened easily. Therefore, in such a case, for example, the time from when the vehicle in front changes from the stopped state to the moving state until the own vehicle changes from the stopped state to the moving state is empirical, experimental, or regional (for example, at that point). The image data corresponding to the image pickup result corresponding to the time when the preset threshold time or more is exceeded according to the specificity of the traffic jam may be transmitted to an external server device or the like. In this case as well, the processing load on the processing unit 2 and the transmission destination of the image data can be reduced, and the imaging result that accurately indicates the congestion situation in the surrounding area can be beneficially utilized at the transmission destination. can. Furthermore, the distance of the vehicle in front when the vehicle in front changes from the stopped state to the moving state and then the vehicle changes from the stopped state to the moving state is empirical, experimental, or regional (for example, at that point). The image data corresponding to the image pickup result corresponding to the time point when the distance becomes equal to or more than the preset threshold distance according to the specificity of the traffic jam may be transmitted to an external server device or the like. In this case as well, the processing load on the processing unit 2 and the transmission destination of the image data can be reduced, and the imaging result that accurately indicates the congestion situation in the surrounding area can be beneficially utilized at the transmission destination. can.

また上述した実施例では、自車に搭載されているドライブレコーダDRにおける画像処理に実施形態を適用した場合について説明したが、これ以外に、二輪車や鉄道車両に搭載されているドライブレコーダにおける画像処理に実施形態を適用することもできる。 Further, in the above-described embodiment, the case where the embodiment is applied to the image processing in the drive recorder DR mounted on the own vehicle has been described, but in addition to this, the image processing in the drive recorder mounted on the motorcycle or the railway vehicle has been described. The embodiment can also be applied to.

更に上述した実施例に加えて、例えば自車が信号待ちをしている場合において前方車両が自車の撮像範囲から消失した場合を上記ステップS5:YESのタイミングとしもよい。この場合には、前方の視界が開けた状態の画像データを外部のサーバ装置等に送信することができる。 Further, in addition to the above-described embodiment, for example, when the own vehicle is waiting for a signal and the vehicle in front disappears from the imaging range of the own vehicle, the timing of step S5: YES may be set. In this case, the image data in a state where the front view is open can be transmitted to an external server device or the like.

更に、図3に示したフローチャートに相当するプログラムを、光ディスク又はハードディスク等の記録媒体に記録しておき、或いはインターネット等のネットワークを介して取得しておき、これを汎用のマイクロコンピュータ等に読み出して実行することにより、当該マイクロコンピュータ等を実施例に係る処理部2として機能させることも可能である。 Further, a program corresponding to the flowchart shown in FIG. 3 is recorded on a recording medium such as an optical disk or a hard disk, or acquired via a network such as the Internet, and read out to a general-purpose microcomputer or the like. By executing this, it is possible to make the microcomputer or the like function as the processing unit 2 according to the embodiment.

1 撮像手段(カメラ)
2 判定手段(処理部)
2-1 記録手段
3 インターフェース
DR ドライブレコーダ
S 画像処理装置
C 前方車両
G 撮像結果
1 Imaging means (camera)
2 Judgment means (processing unit)
2-1 Recording means 3 Interface DR drive recorder S Image processing device C Front vehicle G Imaging result

上記の課題を解決するために、請求項1に記載の発明は、移動体の前方を撮像範囲とする撮像手段と、前記撮像範囲内に映っている他の移動体と前記移動体との距離が予め設定された閾値距離以上となったか否かを判定する判定手段と、前記距離が前記閾値距離以上となったと判定されたタイミングにおける前記撮像手段の撮像結果に相当する画像情報を記録する記録手段と、を備える。 In order to solve the above problem, the invention according to claim 1 is a distance between an imaging means whose imaging range is the front of a moving object and another moving object and the moving object which are reflected in the imaging range. Records image information corresponding to the imaging result of the imaging means at the timing when it is determined that the distance is equal to or greater than the preset threshold distance and the determination means for determining whether or not the distance is equal to or greater than the preset threshold distance. It is equipped with a recording means.

上記の課題を解決するために、請求項7に記載の発明は、移動体の前方を撮像範囲とする撮像手段と、判定手段と、送信手段と、を備える画像処理装置において実行される画像処理方法であって、前記撮像範囲を前記撮像手段により撮像する撮像工程と、前記撮像範囲内に映っている他の移動体と前記移動体との距離が予め設定された閾値距離以上となったか否かを前記判定手段により判定する判定工程と、前記距離が前記閾値距離以上となったタイミングにおける前記撮像手段の撮像結果に相当する画像情報を前記送信手段により外部に送信する送信工程と、を含む。 In order to solve the above problems, the invention according to claim 7 is an image processing performed in an image processing apparatus including an image pickup means having an image pickup range in front of a moving body, a determination means, and a transmission means. In the method, whether or not the imaging step of imaging the imaging range by the imaging means and the distance between another moving object and the moving object reflected in the imaging range are equal to or more than a preset threshold distance. A determination step of determining whether or not the image is determined by the determination means, and a transmission step of transmitting image information corresponding to the image pickup result of the image pickup means to the outside by the transmission means at the timing when the distance becomes equal to or greater than the threshold distance. include.

Claims (9)

移動体の前方を撮像範囲とする撮像手段と、
前記撮像範囲内に映っている他の移動体と前記移動体との距離が予め設定された閾値距離以上となったか否かを判定する判定手段と、
前記距離が前記閾値距離以上となったと判定されたタイミングに対応する前記撮像結果に相当する画像情報を記録する記録手段と、
を備えることを特徴とする画像処理装置。
An imaging means whose imaging range is in front of the moving object,
A determination means for determining whether or not the distance between the moving body and another moving body reflected in the imaging range is equal to or larger than a preset threshold distance.
A recording means for recording image information corresponding to the imaging result corresponding to the timing when the distance is determined to be equal to or greater than the threshold distance.
An image processing device characterized by comprising.
請求項1に記載の画像処理装置において、
前記閾値距離が、前記撮像結果が前記移動体の周辺の状況を示す撮像結果として用いることが可能となる距離として予め設定されていることを特徴とする画像処理装置。
In the image processing apparatus according to claim 1,
An image processing apparatus characterized in that the threshold distance is set in advance as a distance at which the image pickup result can be used as an image pickup result indicating a situation around the moving body.
請求項1又は請求項2に記載の画像処理装置において、
前記タイミングに対応する前記撮像結果に相当する前記画像情報を外部に送信する送信手段を更に備えることを特徴とする画像処理装置。
In the image processing apparatus according to claim 1 or 2.
An image processing apparatus further comprising a transmission means for transmitting the image information corresponding to the image pickup result corresponding to the timing to the outside.
請求項1から請求項3のいずれか一項に記載の画像処理装置において、
前記判定手段は、
前記移動体が停止状態から移動状態に変わったか否かを判定する第1判定手段と、
前記他の移動体が停止状態から移動状態に変わったか否かを判定する第2判定手段と、
を備え、
前記記録手段は、前記他の移動体が停止状態から移動状態に変わってから、前記移動体が停止状態から移動状態となった際の前記距離が前記閾値距離以上となったタイミングに対応する前記撮像結果に相当する前記画像情報を記録することを特徴とする画像処理装置。
The image processing apparatus according to any one of claims 1 to 3.
The determination means is
The first determination means for determining whether or not the moving body has changed from the stopped state to the moving state,
A second determination means for determining whether or not the other moving body has changed from the stopped state to the moving state,
Equipped with
The recording means corresponds to the timing when the distance when the moving body changes from the stopped state to the moving state after the other moving body changes from the stopped state to the moving state becomes equal to or more than the threshold distance. An image processing device characterized by recording the image information corresponding to an image pickup result.
請求項4に記載の画像処理装置において、
前記第2判定手段は、前記他の移動体が映っている前記撮像結果に基づいて、当該他の移動体が停止状態から移動状態に変わったか否かを判定することを特徴とする画像処理装置。
In the image processing apparatus according to claim 4,
The second determination means is an image processing apparatus characterized in that it determines whether or not the other moving object has changed from a stopped state to a moving state based on the image pickup result in which the other moving object is reflected. ..
請求項4又は請求項5に記載の画像処理装置において、
前記第1判定手段は、前記移動体の加速度又は速度を検出する検出手段を更に備え、
前記第1判定手段は、前記検出された加速度又は速度に基づいて、前記移動体が停止状態から移動状態に変わったか否かを判定することを特徴とする画像処理装置。
In the image processing apparatus according to claim 4 or 5.
The first determination means further includes a detection means for detecting the acceleration or speed of the moving body.
The first determination means is an image processing device that determines whether or not the moving body has changed from a stopped state to a moving state based on the detected acceleration or velocity.
移動体の前方を撮像範囲とする撮像手段と、判定手段と、送信手段と、を備える画像処理装置において実行される画像処理方法であって、
前記撮像範囲を前記撮像手段により撮像する撮像工程と、
前記撮像範囲内に映っている他の移動体と前記移動体との距離が予め設定された閾値距離以上となったか否かを前記判定手段により判定する判定工程と、
前記距離が前記閾値距離以上となったタイミングに対応する前記撮像結果に相当する画像情報を前記送信手段により外部に送信する送信工程と、
を含むことを特徴とする画像処理方法。
An image processing method executed in an image processing apparatus including an image pickup means having an image pickup range in front of a moving body, a determination means, and a transmission means.
An imaging step in which the imaging range is imaged by the imaging means, and
A determination step of determining whether or not the distance between the moving object and another moving object reflected in the imaging range is equal to or greater than a preset threshold distance by the determining means.
A transmission step of transmitting image information corresponding to the image pickup result corresponding to the timing when the distance becomes equal to or more than the threshold distance to the outside by the transmission means.
An image processing method comprising.
移動体の前方を撮像範囲とする撮像手段に接続されたコンピュータを、
前記撮像手段を除く請求項1から請求項7のいずれか一項に記載の画像処理装置として機能させることを特徴とする画像処理用プログラム。
A computer connected to an imaging means whose imaging range is in front of the moving object,
An image processing program comprising the function as the image processing apparatus according to any one of claims 1 to 7, excluding the image pickup means.
請求項8に記載の画像処理用プログラムが、移動体の前方を撮像範囲とする撮像手段に接続されたコンピュータにより読み取り可能に記録されていることを特徴とする記録媒体。 A recording medium according to claim 8, wherein the image processing program is readablely recorded by a computer connected to an image pickup means having an image pickup range in front of the moving body.
JP2022014828A 2017-03-28 2022-02-02 Image processing apparatus and image processing method, and image processing program and recording medium Pending JP2022058835A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2022014828A JP2022058835A (en) 2017-03-28 2022-02-02 Image processing apparatus and image processing method, and image processing program and recording medium
JP2023129375A JP2023138690A (en) 2017-03-28 2023-08-08 Image processing apparatus and image processing method, and image processing program and recording medium

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017063673A JP2018165947A (en) 2017-03-28 2017-03-28 Image processing apparatus and image processing method, and image processing program and recording medium
JP2022014828A JP2022058835A (en) 2017-03-28 2022-02-02 Image processing apparatus and image processing method, and image processing program and recording medium

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2017063673A Division JP2018165947A (en) 2017-03-28 2017-03-28 Image processing apparatus and image processing method, and image processing program and recording medium

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2023129375A Division JP2023138690A (en) 2017-03-28 2023-08-08 Image processing apparatus and image processing method, and image processing program and recording medium

Publications (1)

Publication Number Publication Date
JP2022058835A true JP2022058835A (en) 2022-04-12

Family

ID=63922925

Family Applications (3)

Application Number Title Priority Date Filing Date
JP2017063673A Pending JP2018165947A (en) 2017-03-28 2017-03-28 Image processing apparatus and image processing method, and image processing program and recording medium
JP2022014828A Pending JP2022058835A (en) 2017-03-28 2022-02-02 Image processing apparatus and image processing method, and image processing program and recording medium
JP2023129375A Pending JP2023138690A (en) 2017-03-28 2023-08-08 Image processing apparatus and image processing method, and image processing program and recording medium

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2017063673A Pending JP2018165947A (en) 2017-03-28 2017-03-28 Image processing apparatus and image processing method, and image processing program and recording medium

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2023129375A Pending JP2023138690A (en) 2017-03-28 2023-08-08 Image processing apparatus and image processing method, and image processing program and recording medium

Country Status (1)

Country Link
JP (3) JP2018165947A (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005031711A (en) * 2003-05-12 2005-02-03 Omron Corp Onboard terminal device, onboard terminal control program, recording medium for this program, method of payment by communication of this device, payment management system and program, recording medium for this program, payment management method, fee receiving system and program, recording medium for this program, and method of receiving fee
JP2016151887A (en) * 2015-02-17 2016-08-22 株式会社東芝 Road monitoring device, road monitoring system, method, and program
JP2017016483A (en) * 2015-07-02 2017-01-19 矢崎エナジーシステム株式会社 Inter-vehicle information display device

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08223566A (en) * 1995-02-10 1996-08-30 Hitachi Ltd Surrounding state recognition device for vehicle
US9064293B2 (en) * 2010-06-15 2015-06-23 Mitsubishi Electric Corporation Vehicle surroundings monitoring device
JP2017045396A (en) * 2015-08-28 2017-03-02 富士通テン株式会社 Image recorder and image recording method

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005031711A (en) * 2003-05-12 2005-02-03 Omron Corp Onboard terminal device, onboard terminal control program, recording medium for this program, method of payment by communication of this device, payment management system and program, recording medium for this program, payment management method, fee receiving system and program, recording medium for this program, and method of receiving fee
JP2016151887A (en) * 2015-02-17 2016-08-22 株式会社東芝 Road monitoring device, road monitoring system, method, and program
JP2017016483A (en) * 2015-07-02 2017-01-19 矢崎エナジーシステム株式会社 Inter-vehicle information display device

Also Published As

Publication number Publication date
JP2023138690A (en) 2023-10-02
JP2018165947A (en) 2018-10-25

Similar Documents

Publication Publication Date Title
CN110268413B (en) Low level sensor fusion
JP6853494B2 (en) Drive recorder
JP4661734B2 (en) In-vehicle warning system
JP6109593B2 (en) Risk information processing method, apparatus and system, and program
US9076340B2 (en) Vehicle detecting system and method
JP6817531B2 (en) Operation status recording device
JP2011180982A (en) Lane marker detecting apparatus
WO2019006743A1 (en) Method and device for controlling travel of vehicle
JP6043470B2 (en) Recording device
JP2014154005A (en) Danger information provision method, device, and program
JP7007216B2 (en) Information processing method, information processing device and information processing program
US11170520B2 (en) Image processing apparatus for analyzing an image to detect an object within the image
JP5628612B2 (en) In-vehicle information system, in-vehicle device, information terminal
JP2017174345A (en) Congestion degree calculation device, congestion degree calculation method and program for congestion degree calculation, and recording medium
JP2022058835A (en) Image processing apparatus and image processing method, and image processing program and recording medium
JP2009169618A (en) Roadside interface detection device
JP2016053584A (en) On-vehicle device
JP6665521B2 (en) Information processing apparatus, information processing system, and information processing program
JP2019016227A (en) Information processing method, information processing apparatus and information processing program
JP6933161B2 (en) Image processing device, image processing method, program
JP2022136534A (en) Image recording device
JP2018151902A5 (en)
JP7099091B2 (en) License plate recognition device, license plate recognition method and program
JP4244887B2 (en) Moving position prediction apparatus, moving position prediction method, collision determination apparatus, and collision determination method
JP6492577B2 (en) Vehicle detection system, image processing server, and vehicle detection method

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220301

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220301

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221122

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20230517