JP2017111762A - Information processing apparatus, information processing system, and information processing program - Google Patents

Information processing apparatus, information processing system, and information processing program Download PDF

Info

Publication number
JP2017111762A
JP2017111762A JP2015247934A JP2015247934A JP2017111762A JP 2017111762 A JP2017111762 A JP 2017111762A JP 2015247934 A JP2015247934 A JP 2015247934A JP 2015247934 A JP2015247934 A JP 2015247934A JP 2017111762 A JP2017111762 A JP 2017111762A
Authority
JP
Japan
Prior art keywords
unit
information
captured image
processing
information processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015247934A
Other languages
Japanese (ja)
Other versions
JP6665521B2 (en
Inventor
亮介 笠原
Ryosuke Kasahara
亮介 笠原
友章 矢野
Tomoaki Yano
友章 矢野
関 海克
Haike Guan
海克 関
太郎 澤木
Taro Sawaki
太郎 澤木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2015247934A priority Critical patent/JP6665521B2/en
Publication of JP2017111762A publication Critical patent/JP2017111762A/en
Application granted granted Critical
Publication of JP6665521B2 publication Critical patent/JP6665521B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To accelerate the speed of analysis on a plurality of photographed images of the surroundings of a movable body photographed from the movable body.SOLUTION: An information processing apparatus 10 comprises: an image acquisition part 18A; a specification part 18G; and an analysis part 18H. The image acquisition part 18A acquires photographed images P of the surroundings of a vehicle (movable body). The specification part 18G specifies a photographed image to be processed on the basis of travel state information indicating the travel state of the vehicle (movable body) during photographing of the photographed images. The analysis part 18H analyzes the photographed image specified to be processed.SELECTED DRAWING: Figure 3

Description

本発明は情報処理装置、情報処理システム、および情報処理プログラムに関する。   The present invention relates to an information processing apparatus, an information processing system, and an information processing program.

車載カメラで撮影された撮影画像を解析し、解析結果を用いて運転者を支援するシステムが知られている。   A system for analyzing a photographed image photographed by an in-vehicle camera and assisting a driver using the analysis result is known.

例えば、特許文献1には、車載カメラで撮影された動画像を解析し、解析結果を用いて、道路上の危険個所を示す情報を地図上に反映させるシステムが開示されている。   For example, Patent Document 1 discloses a system that analyzes a moving image captured by an in-vehicle camera and reflects information indicating a dangerous location on a road on a map using the analysis result.

しかしながら従来の技術では、複数の撮影画像の解析に時間を要する場合があった。   However, in the conventional technique, it may take time to analyze a plurality of captured images.

本発明は、上記に鑑みてなされたものであって、移動体で撮影された移動体周囲の複数の撮影画像に対する、解析速度の高速化を実現できる情報処理装置、情報処理システム、および情報処理プログラムを提供することを目的とする。   The present invention has been made in view of the above, and an information processing apparatus, an information processing system, and an information processing capable of realizing an increase in analysis speed for a plurality of captured images taken around a moving object. The purpose is to provide a program.

上述した課題を解決し、目的を達成するために、本発明の情報処理装置は、移動体の周辺の撮影画像を取得する画像取得部と、前記撮影画像の撮影時の前記移動体の走行状態を示す走行状態情報に基づいて、処理対象の前記撮影画像を特定する特定部と、処理対象として特定した前記撮影画像を解析する解析部と、を備える。   In order to solve the above-described problems and achieve the object, an information processing apparatus of the present invention includes an image acquisition unit that acquires a captured image around a moving body, and a traveling state of the moving body at the time of capturing the captured image. And a analyzing unit that analyzes the captured image specified as the processing target.

本発明によれば、移動体で撮影された移動体周囲の複数の撮影画像に対する、解析速度の高速化を実現できる、という効果を奏する。   According to the present invention, there is an effect that it is possible to increase the analysis speed for a plurality of captured images taken around a moving body.

図1は、実施の形態の情報処理システムの全体構成の説明図である。FIG. 1 is an explanatory diagram of the overall configuration of the information processing system according to the embodiment. 図2は、情報処理システムの全体構成図の一例である。FIG. 2 is an example of an overall configuration diagram of the information processing system. 図3は、情報処理装置の機能的構成の一例を示すブロック図である。FIG. 3 is a block diagram illustrating an example of a functional configuration of the information processing apparatus. 図4は、撮影画像の一例を示す模式図である。FIG. 4 is a schematic diagram illustrating an example of a captured image. 図5は、複数の撮影画像の一例を示す模式図である。FIG. 5 is a schematic diagram illustrating an example of a plurality of captured images. 図6は、撮影画像領域の一例を示す模式図である。FIG. 6 is a schematic diagram illustrating an example of a captured image area. 図7は、撮影画像領域の一例を示す模式図である。FIG. 7 is a schematic diagram illustrating an example of a captured image area. 図8は、速度標識の検出処理の一例を示す説明図である。FIG. 8 is an explanatory diagram illustrating an example of a speed sign detection process. 図9は、信号機の検出処理の一例を示す説明図である。FIG. 9 is an explanatory diagram illustrating an example of a signal detection process. 図10は、車線境界線の検出処理の一例を示す説明図である。FIG. 10 is an explanatory diagram illustrating an example of a lane boundary detection process. 図11は、サーバ装置の機能ブロック図の一例である。FIG. 11 is an example of a functional block diagram of the server device. 図12は、解析処理の手順の一例を示すフローチャートである。FIG. 12 is a flowchart illustrating an example of the analysis processing procedure. 図13は、地図データ更新処理の手順の一例を示すフローチャートである。FIG. 13 is a flowchart illustrating an example of the procedure of the map data update process. 図14は、地図画像表示処理の手順の一例を示すフローチャートである。FIG. 14 is a flowchart illustrating an example of the procedure of the map image display process. 図15は、管理処理の手順の一例を示すフローチャートである。FIG. 15 is a flowchart illustrating an example of the procedure of the management process. 図16は、変形例の情報処理装置の機能的構成の一例を示すブロック図である。FIG. 16 is a block diagram illustrating an example of a functional configuration of an information processing apparatus according to a modification. 図17は、ハードウェア構成例を示すブロック図である。FIG. 17 is a block diagram illustrating a hardware configuration example.

以下に添付図面を参照して、情報処理装置、情報処理システム、および情報処理プログラムの実施の形態を詳細に説明する。   Hereinafter, embodiments of an information processing apparatus, an information processing system, and an information processing program will be described in detail with reference to the accompanying drawings.

図1は、本実施の形態の情報処理システム1の全体構成の説明図である。情報処理システム1は、情報処理装置10と、サーバ装置40と、を備える。情報処理装置10とサーバ装置40とは、ネットワーク21を介してデータや信号を授受可能に接続されている。   FIG. 1 is an explanatory diagram of the overall configuration of the information processing system 1 according to the present embodiment. The information processing system 1 includes an information processing device 10 and a server device 40. The information processing apparatus 10 and the server apparatus 40 are connected via a network 21 so as to be able to exchange data and signals.

情報処理装置10は、例えば、移動体に搭載されている。移動体は、自立走行または牽引などにより、実空間において位置移動の可能な物体である。移動体は、例えば、車両、飛行機、電車、台車、などである。本実施の形態では、移動体が車両20である場合を一例として説明する。すなわち、本実施の形態では、情報処理装置10を車両20に搭載した形態を一例として説明する。   The information processing apparatus 10 is mounted on a moving body, for example. A moving body is an object that can move in real space by self-running or towing. The moving body is, for example, a vehicle, an airplane, a train, a carriage, or the like. In the present embodiment, a case where the moving body is the vehicle 20 will be described as an example. That is, in the present embodiment, an example in which the information processing apparatus 10 is mounted on the vehicle 20 will be described.

車両20には、撮影部12が搭載されている。撮影部12は、車両20の周辺を撮影した撮影画像を得る。撮影部12は、例えば、公知のビデオカメラや、デジタルカメラなどである。本実施の形態では、撮影部12は、車両20の周辺を連続して撮影することで、複数の撮影画像(すなわち、複数のフレーム)を撮影可能である。なお、撮影部12は、情報処理装置10と一体的に構成してもよいし、情報処理装置10と別体として構成してもよい。   An imaging unit 12 is mounted on the vehicle 20. The photographing unit 12 obtains a photographed image obtained by photographing the periphery of the vehicle 20. The imaging unit 12 is, for example, a known video camera or digital camera. In the present embodiment, the photographing unit 12 can photograph a plurality of photographed images (that is, a plurality of frames) by continuously photographing the periphery of the vehicle 20. The imaging unit 12 may be configured integrally with the information processing apparatus 10 or may be configured separately from the information processing apparatus 10.

情報処理装置10は、車両20の周辺の撮影画像を解析する。すなわち、情報処理装置10は、車両20の周辺を撮影する撮影部12によって得られた撮影画像を解析する。   The information processing apparatus 10 analyzes a captured image around the vehicle 20. That is, the information processing apparatus 10 analyzes the captured image obtained by the imaging unit 12 that captures the periphery of the vehicle 20.

本実施の形態では、情報処理装置10は、撮影画像を解析し、撮影画像に含まれる検出対象物30を検出する場合を一例として説明する。なお、情報処理装置10による解析内容は、検出対象物30の検出に限定されない。また、情報処理装置10は、撮影部12を含む構成であってもよいし、撮影部12を別体として構成したものであってもよい。   In the present embodiment, a case where the information processing apparatus 10 analyzes a captured image and detects a detection target 30 included in the captured image will be described as an example. The analysis content by the information processing apparatus 10 is not limited to the detection of the detection target 30. Further, the information processing apparatus 10 may be configured to include the imaging unit 12 or may be configured to include the imaging unit 12 as a separate body.

検出対象物30は、情報処理装置10による検出対象の物である。検出対象物30は、1種類であってもよいし、複数種類であってもよい。また、検出対象物30の種類は、ユーザの操作指示などによって任意に設定および変更可能である。   The detection object 30 is an object to be detected by the information processing apparatus 10. The detection object 30 may be one type or a plurality of types. Further, the type of the detection target 30 can be arbitrarily set and changed by a user operation instruction or the like.

本実施の形態では、検出対象物30が、信号機30Bおよび標識30Dの少なくとも一方である場合を一例として説明する。標識30Dは、道路Rに記載されたものであってもよいし、道路R上に設置された標識板に記載または表示されたものであってもよい。本実施の形態では、標識30Dが、道路R上に設置された標識板に記載または表示された速度標識30Aと、道路Rに記載された車線境界線30Cと、を含む場合を一例として説明する。   In the present embodiment, a case where the detection target 30 is at least one of the traffic light 30B and the sign 30D will be described as an example. The sign 30 </ b> D may be written on the road R, or may be written or displayed on a sign board installed on the road R. In the present embodiment, the case where the sign 30D includes the speed sign 30A described or displayed on the sign board installed on the road R and the lane boundary line 30C described on the road R will be described as an example. .

なお、情報処理システム1は、複数の情報処理装置10を含む構成であってもよい。図2は、複数の情報処理装置10を備えた情報処理システム1の全体構成図の一例である。図2に示すように、情報処理システム1は、複数の情報処理装置10(情報処理装置10−1〜情報処理装置10−N(Nは、2以上の整数))を備えた構成であってもよい。そして、複数の情報処理装置10の各々を、互いに異なる車両20に搭載した構成とすればよい。   Note that the information processing system 1 may include a plurality of information processing apparatuses 10. FIG. 2 is an example of an overall configuration diagram of an information processing system 1 including a plurality of information processing apparatuses 10. As illustrated in FIG. 2, the information processing system 1 includes a plurality of information processing apparatuses 10 (information processing apparatuses 10-1 to 10-N (N is an integer equal to or greater than 2)). Also good. Then, each of the plurality of information processing apparatuses 10 may be configured to be mounted on different vehicles 20.

なお、以下では、情報処理システム1が、複数の情報処理装置10(情報処理装置10−1〜情報処理装置10−N)を備えた構成である場合を説明する。これらの複数の情報処理装置10(情報処理装置10−1〜情報処理装置10−N)と、サーバ装置40と、は、ネットワーク21を介してデータや信号を授受可能に接続されている。なお、複数の情報処理装置10(情報処理装置10−1〜情報処理装置10−N)の各々を総称して説明する場合には、単に、情報処理装置10と称して説明する。   Hereinafter, a case where the information processing system 1 has a configuration including a plurality of information processing apparatuses 10 (information processing apparatuses 10-1 to 10-N) will be described. The plurality of information processing apparatuses 10 (information processing apparatuses 10-1 to 10 -N) and the server apparatus 40 are connected via a network 21 so as to be able to exchange data and signals. In addition, when each of the plurality of information processing apparatuses 10 (information processing apparatus 10-1 to information processing apparatus 10-N) is described generically, the information processing apparatus 10 will be simply referred to.

次に、情報処理装置10の機能的構成を説明する。図3は、情報処理装置10の機能的構成の一例を示すブロック図である。   Next, a functional configuration of the information processing apparatus 10 will be described. FIG. 3 is a block diagram illustrating an example of a functional configuration of the information processing apparatus 10.

情報処理装置10は、撮影部12と、GPS(Global Positioning System)センサ14と、加速度センサ16と、記憶部15と、UI(ユーザ・インターフェース)部17と、制御部18と、を備える。撮影部12、GPSセンサ14、加速度センサ16、記憶部15、およびUI部17は、制御部18にデータや信号を授受可能に接続されている。また、制御部18は、車両20に搭載された車両制御部22に、データや信号を授受可能に接続されている。   The information processing apparatus 10 includes an imaging unit 12, a GPS (Global Positioning System) sensor 14, an acceleration sensor 16, a storage unit 15, a UI (user interface) unit 17, and a control unit 18. The imaging unit 12, the GPS sensor 14, the acceleration sensor 16, the storage unit 15, and the UI unit 17 are connected to the control unit 18 so as to be able to exchange data and signals. Moreover, the control part 18 is connected to the vehicle control part 22 mounted in the vehicle 20 so that data and a signal can be exchanged.

撮影部12は、車両20の周辺を撮影する。上述したように、撮影部12は、情報処理装置10とは別体として構成してもよい。本実施の形態では、撮影部12は、車両20の周辺を経時的に連続して撮影し、撮影によって得られた撮影画像の各々を撮影順に順次、制御部18へ出力する。   The photographing unit 12 photographs the vicinity of the vehicle 20. As described above, the imaging unit 12 may be configured separately from the information processing apparatus 10. In the present embodiment, the photographing unit 12 continuously photographs the periphery of the vehicle 20 over time, and sequentially outputs each captured image obtained by the photographing to the control unit 18 in the photographing order.

GPSセンサ14は、車両20の現在位置を検出する。GPSセンサ14は、検出した位置情報を、制御部18へ出力する。加速度センサ16は、情報処理装置10の搭載された車両20の加速度を検出する。そして、加速度を示す加速度情報を制御部18へ出力する。   The GPS sensor 14 detects the current position of the vehicle 20. The GPS sensor 14 outputs the detected position information to the control unit 18. The acceleration sensor 16 detects the acceleration of the vehicle 20 on which the information processing apparatus 10 is mounted. Then, acceleration information indicating the acceleration is output to the control unit 18.

車両制御部22は、車両20に搭載されており、車両20の走行を制御する。本実施の形態では、車両制御部22は、車両20の走行情報を制御部18へ出力する。走行情報は、例えば、車両20の走行速度を示す速度情報、車両20のステアリング角度を示す角度情報、車両20の加速度を示す加速度情報、車両20がブレーキ操作に応じて減速したことを示すブレーキ操作情報、などを含む。なお、制御部18は、加速度センサ16から加速度情報を取得してもよい。   The vehicle control unit 22 is mounted on the vehicle 20 and controls traveling of the vehicle 20. In the present embodiment, the vehicle control unit 22 outputs travel information of the vehicle 20 to the control unit 18. The travel information includes, for example, speed information indicating the travel speed of the vehicle 20, angle information indicating the steering angle of the vehicle 20, acceleration information indicating the acceleration of the vehicle 20, and a brake operation indicating that the vehicle 20 has decelerated in response to the brake operation. Information, etc. Note that the control unit 18 may acquire acceleration information from the acceleration sensor 16.

記憶部15は、各種データを記憶する。本実施の形態では、記憶部15は、地図データ15Aなどを記憶する。地図データ15Aは、車両20の走行時にUI部17に表示する地図画像のデータである。   The storage unit 15 stores various data. In the present embodiment, the storage unit 15 stores map data 15A and the like. The map data 15 </ b> A is map image data displayed on the UI unit 17 when the vehicle 20 is traveling.

UI部17は、ユーザによる操作指示を受付ける入力機能および各種画像を表示する表示機能の双方を備える。UI部17は、例えば、タッチパネル付LCD(Liquid Crystal Display)などである。なお、UI部17における入力機能と表示機能とを別体として構成してもよい。   The UI unit 17 includes both an input function for receiving an operation instruction from a user and a display function for displaying various images. The UI unit 17 is, for example, an LCD (Liquid Crystal Display) with a touch panel. Note that the input function and the display function in the UI unit 17 may be configured separately.

制御部18は、情報処理装置10を制御する。制御部18は、画像取得部18Aと、走行状態取得部18Bと、設定部18Cと、算出部18Dと、変更部18Eと、受付部18Fと、特定部18Gと、算出部18Mと、解析部18Hと、後処理部18Iと、送信部18Jと、表示制御部18Kと、受信部18Lと、を含む。   The control unit 18 controls the information processing apparatus 10. The control unit 18 includes an image acquisition unit 18A, a traveling state acquisition unit 18B, a setting unit 18C, a calculation unit 18D, a change unit 18E, a reception unit 18F, a specification unit 18G, a calculation unit 18M, and an analysis unit. 18H, post-processing unit 18I, transmission unit 18J, display control unit 18K, and reception unit 18L.

画像取得部18A、走行状態取得部18B、設定部18C、算出部18D、変更部18E、受付部18F、特定部18G、算出部18M、解析部18H、後処理部18I、送信部18J、表示制御部18K、および受信部18Lの一部またはすべては、例えば、CPU(Central Processing Unit)などの処理装置にプログラムを実行させること、すなわち、ソフトウェアにより実現してもよいし、IC(Integrated Circuit)などのハードウェアにより実現してもよいし、ソフトウェアおよびハードウェアを併用して実現してもよい。   Image acquisition unit 18A, traveling state acquisition unit 18B, setting unit 18C, calculation unit 18D, change unit 18E, reception unit 18F, identification unit 18G, calculation unit 18M, analysis unit 18H, post-processing unit 18I, transmission unit 18J, display control Part or all of the unit 18K and the receiving unit 18L may be realized by causing a processing device such as a CPU (Central Processing Unit) to execute a program, that is, by software, IC (Integrated Circuit), or the like. It may be realized by hardware, or may be realized by using software and hardware together.

画像取得部18Aは、車両20の周辺の撮影画像を取得する。図4は、撮影画像Pの一例を示す模式図である。図4には、速度標識30Aと、信号機30Bと、車線境界線30Cと、を含む撮影画像Pの一例を示した。   The image acquisition unit 18A acquires a captured image around the vehicle 20. FIG. 4 is a schematic diagram illustrating an example of the captured image P. FIG. 4 shows an example of a captured image P that includes a speed sign 30A, a traffic light 30B, and a lane boundary line 30C.

図3に戻り、画像取得部18Aは、例えば、車両20に搭載された撮影部12で撮影された撮影画像Pを取得する。本実施の形態では、画像取得部18Aは、撮影部12から撮影画像Pを取得する。詳細には、撮影部12は、撮影した撮影画像Pを、順次、撮影順に画像取得部18Aへ出力する。画像取得部18Aは、撮影部12から、撮影画像Pを順次取得する。そして、画像取得部18Aは、撮影部12から取得した撮影画像Pを、順次、特定部18Gへ出力する。   Returning to FIG. 3, the image acquisition unit 18 </ b> A acquires a captured image P captured by the imaging unit 12 mounted on the vehicle 20, for example. In the present embodiment, the image acquisition unit 18A acquires the captured image P from the imaging unit 12. Specifically, the photographing unit 12 outputs the photographed captured images P sequentially to the image acquisition unit 18A in the order of photographing. The image acquisition unit 18A sequentially acquires the captured images P from the imaging unit 12. Then, the image acquisition unit 18A sequentially outputs the captured images P acquired from the imaging unit 12 to the specifying unit 18G.

走行状態取得部18Bは、撮影画像Pの撮影時の車両20の走行状態を示す走行状態情報を取得する。詳細には、走行状態取得部18Bは、画像取得部18Aが取得する撮影画像Pの各々に対応する走行状態情報として、撮影画像Pの各々の撮影タイミングと同じタイミングの走行状態を示す、走行状態情報を取得する。   The traveling state acquisition unit 18B acquires traveling state information indicating the traveling state of the vehicle 20 when the captured image P is captured. Specifically, the running state acquisition unit 18B indicates the running state at the same timing as each shooting timing of the shot image P as the running state information corresponding to each of the shot images P acquired by the image acquisition unit 18A. Get information.

走行状態情報は、車両20の移動速度を示す速度情報、車両20の加速度を示す加速度情報、車両20の位置を示す位置情報、車両20がブレーキ操作に応じて減速したことを示すブレーキ操作情報、および、車両20のステアリング角度を示す角度情報、の少なくとも1つを含む。走行状態取得部18Bは、画像取得部18Aで取得した撮影画像Pの撮影タイミングと同じタイミングの走行状態情報を、GPSセンサ14、加速度センサ16、および、車両制御部22から取得する。そして、走行状態取得部18Bは、取得した走行状態情報を、特定部18Gへ出力する。   The traveling state information includes speed information indicating the moving speed of the vehicle 20, acceleration information indicating the acceleration of the vehicle 20, position information indicating the position of the vehicle 20, brake operation information indicating that the vehicle 20 has decelerated in response to the brake operation, And at least one of angle information indicating the steering angle of the vehicle 20. The driving state acquisition unit 18B acquires the driving state information at the same timing as the shooting timing of the captured image P acquired by the image acquisition unit 18A from the GPS sensor 14, the acceleration sensor 16, and the vehicle control unit 22. Then, the traveling state acquisition unit 18B outputs the acquired traveling state information to the specifying unit 18G.

特定部18Gは、画像取得部18Aで取得した複数の撮影画像Pの内、処理対象の撮影画像Pを特定する。特定部18Gは、走行状態取得部18Bで取得した、各撮影画像Pの各々に対応する走行状態情報に基づいて、処理対象の撮影画像Pを特定する。   The identifying unit 18G identifies the captured image P to be processed among the plurality of captured images P acquired by the image acquiring unit 18A. The identifying unit 18G identifies the captured image P to be processed based on the traveling state information corresponding to each captured image P acquired by the traveling state acquiring unit 18B.

例えば、特定部18Gは、画像取得部18Aで取得した、時系列で撮影された複数の撮影画像Pについて、走行状態情報に応じた取得間隔ごとの撮影画像Pを、処理対象として特定する。   For example, the specifying unit 18G specifies, as a processing target, the captured images P for each acquisition interval corresponding to the running state information for the plurality of captured images P acquired in time series acquired by the image acquiring unit 18A.

取得間隔は、設定部18Cで設定される。設定部18Cは、走行状態情報に応じて、時系列に撮影された複数の撮影画像Pから撮影画像Pを取得する取得間隔を設定する。そして、特定部18Gは、時系列で連続して撮影された複数の撮影画像Pから、設定された取得間隔ごとの撮影画像Pを、処理対象として特定すればよい。   The acquisition interval is set by the setting unit 18C. The setting unit 18C sets an acquisition interval for acquiring the photographed image P from the plurality of photographed images P photographed in time series according to the traveling state information. Then, the specifying unit 18G may specify, as a processing target, the captured images P for each set acquisition interval from a plurality of captured images P continuously captured in time series.

設定部18Cは、例えば、以下の方法を用いて取得間隔を設定する。例えば、設定部18Cは、算出部18Dを備える。   For example, the setting unit 18C sets the acquisition interval using the following method. For example, the setting unit 18C includes a calculation unit 18D.

算出部18Dは、走行状態情報に基づいて、走行状態の重み値を算出する。重み値は、走行状態情報によって表される走行状態の、重要度を表す値である。本実施の形態では、算出部18Dは、後述する解析部18Hによる解析結果を用いた予め定めた後処理において重要度の高い走行状態であるほど、高い重み値を算出する。   The calculation unit 18D calculates the weight value of the traveling state based on the traveling state information. The weight value is a value representing the importance of the traveling state represented by the traveling state information. In the present embodiment, the calculation unit 18D calculates a higher weight value as the traveling state has a higher importance in a predetermined post-process using an analysis result obtained by the analysis unit 18H described later.

後処理とは、解析部18Hによる撮影画像Pの解析結果を用いて行う処理であり、本実施の形態では、後処理部18Iで実行される。本実施の形態では、後処理部18Iは、車両20の走行状態に対する評価値を算出する(詳細後述)。   Post-processing is processing performed using the analysis result of the captured image P by the analysis unit 18H, and is executed by the post-processing unit 18I in the present embodiment. In the present embodiment, post-processing unit 18I calculates an evaluation value for the traveling state of vehicle 20 (details will be described later).

例えば、走行状態情報が、車両20の加速度情報、車両20の位置情報、車両20がブレーキ操作に応じて減速したことを示すブレーキ操作情報、および、車両20のステアリング角度を示す角度情報、を含むと仮定する。また、ブレーキ操作情報は、ブレーキ操作に応じて減速した速度を示すものと仮定する。   For example, the driving state information includes acceleration information of the vehicle 20, position information of the vehicle 20, brake operation information indicating that the vehicle 20 has decelerated in response to a brake operation, and angle information indicating the steering angle of the vehicle 20. Assume that Further, it is assumed that the brake operation information indicates a speed that is decelerated according to the brake operation.

この場合、算出部18Dは、加速度情報、位置情報、ブレーキ操作情報、および、角度情報を用いた、予め定めた非線形関数または線形関数の解を、重み値として算出する。   In this case, the calculation unit 18D calculates a solution of a predetermined nonlinear function or linear function using acceleration information, position information, brake operation information, and angle information as a weight value.

具体的には、例えば、算出部18Dは、下記式(1)を用いて、重み値Wを算出する。   Specifically, for example, the calculation unit 18D calculates the weight value W using the following equation (1).

W=a・k1+v・k2+xy・k3+brk・k4+str・k5 式(1)   W = a * k1 + v * k2 + xy * k3 + brk * k4 + str * k5 Formula (1)

式(1)中、Wは、重み値を表す。a、v、xy、brk、およびstrは、各々、加速度情報、速度情報、位置情報、ブレーキ操作情報、および、角度情報を表す。k1、k2、k3、k4、k5は、予め定めた係数である。   In formula (1), W represents a weight value. a, v, xy, brk, and str represent acceleration information, speed information, position information, brake operation information, and angle information, respectively. k1, k2, k3, k4, and k5 are predetermined coefficients.

なお、重み値Wの算出式は、上記式(1)によって示される関数に限定されない。   Note that the formula for calculating the weight value W is not limited to the function represented by the formula (1).

そして、設定部18Cは、算出部18Dで算出した重み値Wが予め定めた閾値より高いほど、より短い取得間隔を設定する。なお、重み値Wが閾値以下である場合、取得間隔は予め定めた基準の取得間隔とすればよい。このため、重み値Wが閾値より高いほど、基準の取得間隔に対して、より短い取得間隔を設定する。   Then, the setting unit 18C sets a shorter acquisition interval as the weight value W calculated by the calculation unit 18D is higher than a predetermined threshold value. When the weight value W is less than or equal to the threshold value, the acquisition interval may be a predetermined reference acquisition interval. For this reason, as the weight value W is higher than the threshold, a shorter acquisition interval is set with respect to the reference acquisition interval.

このため、設定部18Cは、撮影画像Pの撮影タイミングにおける、車両20の走行状態が、後処理における重要度の高い走行状態を示すほど、より短い取得間隔を設定することとなる。   For this reason, the setting unit 18C sets a shorter acquisition interval as the traveling state of the vehicle 20 at the photographing timing of the captured image P indicates a traveling state having a higher importance in the post-processing.

具体的には、例えば、加速度変化が大きいほど、取得間隔を短く設定することができる。また、例えば、速度が速いほど、取得間隔を短く設定することができる。また、例えば、角度情報によって示されるステアリング角度が大きいほど、取得間隔を短く設定することができる。また、ブレーキ操作による減速の度合いが大きいほど、取得間隔を短く設定することもできる。   Specifically, for example, the acquisition interval can be set shorter as the acceleration change is larger. For example, the acquisition interval can be set shorter as the speed is higher. Further, for example, the acquisition interval can be set shorter as the steering angle indicated by the angle information is larger. In addition, the acquisition interval can be set shorter as the degree of deceleration by the brake operation is larger.

設定部18Cは、この閾値として、予め定めた値を用いればよい。また、この閾値を変更可能としてもよい。閾値を変更可能とする場合、制御部18は、変更部18Eと、受付部18Fと、を備えることが好ましい。   The setting unit 18C may use a predetermined value as the threshold value. Further, this threshold value may be changeable. When the threshold value can be changed, the control unit 18 preferably includes a changing unit 18E and a receiving unit 18F.

受付部18Fは、受付情報を受付ける。受付情報は、車両20を運転するユーザのユーザ識別情報(以下、ユーザIDと称する)、閾値の変更指示を示す指示情報、または、目標処理時間を示す処理時間情報を含む。本実施の形態では、受付部18Fは、UI部17から受付情報を受付ける。   The reception unit 18F receives reception information. The reception information includes user identification information (hereinafter referred to as user ID) of a user who drives the vehicle 20, instruction information indicating a threshold change instruction, or processing time information indicating a target processing time. In the present embodiment, the reception unit 18F receives reception information from the UI unit 17.

例えば、ユーザは、UI部17を操作することで、ユーザIDを入力する。受付部18Fは、UI部17からユーザIDを受付けることで、ユーザIDを含む受付情報を受付ける。なお、受付部18Fは、車両制御部22からユーザIDを受付けてもよい。また、情報処理装置10に、ユーザを識別するIDカードを挿入するためのスロット等を設けた構成としてもよい。この場合、受付部18Fは、挿入されたIDカードによりユーザIDを取得することで、ユーザIDを含む受付情報を受付ければよい。   For example, the user inputs the user ID by operating the UI unit 17. The receiving unit 18F receives the user ID from the UI unit 17 and thereby receives the reception information including the user ID. The reception unit 18F may receive a user ID from the vehicle control unit 22. The information processing apparatus 10 may be provided with a slot for inserting an ID card for identifying the user. In this case, the reception unit 18F may receive reception information including the user ID by acquiring the user ID with the inserted ID card.

また、例えば、ユーザは、UI部17を操作することで、閾値の変更指示を示す指示情報を入力する。受付部18Fは、UI部17から指示情報を受付けることで、変更指示を示す指示情報を含む受付情報を受付ける。また、例えば、ユーザは、UI部17を操作することで、解析部18Hによる解析処理に要する目標処理時間を示す処理時間情報を入力する。すると、受付部18Fは、UI部17から、目標処理時間を含む処理時間情報を受付ける。   For example, the user inputs instruction information indicating an instruction to change the threshold value by operating the UI unit 17. The reception unit 18F receives the instruction information from the UI unit 17 and thereby receives the reception information including the instruction information indicating the change instruction. Further, for example, the user operates the UI unit 17 to input processing time information indicating a target processing time required for the analysis processing by the analysis unit 18H. Then, the reception unit 18F receives processing time information including the target processing time from the UI unit 17.

変更部18Eは、受付部18Fで受付けた受付情報に応じて、閾値を変更する。具体的には、受付情報が閾値の変更指示を示す指示情報を含む場合、変更部18Eは、設定部18Cで用いる閾値を、該指示情報によって示される変更後の閾値に変更する。   The change unit 18E changes the threshold according to the reception information received by the reception unit 18F. Specifically, when the reception information includes instruction information indicating a threshold change instruction, the changing unit 18E changes the threshold used by the setting unit 18C to the changed threshold indicated by the instruction information.

また、受付情報がユーザIDを含む場合、例えば、変更部18Eは、以下の処理を行う。例えば、変更部18Eは、ユーザIDと、ユーザIDによって識別されるユーザに対して予め設定された閾値と、を予め記憶部15に記憶する。そして、変更部18Eは、設定部18Cで用いる閾値を、受付情報に含まれるユーザIDに対応する閾値に変更する。   Further, when the reception information includes a user ID, for example, the changing unit 18E performs the following processing. For example, the changing unit 18E stores in the storage unit 15 a user ID and a threshold set in advance for the user identified by the user ID. Then, the changing unit 18E changes the threshold used by the setting unit 18C to a threshold corresponding to the user ID included in the reception information.

また、受付情報が処理時間情報を含む場合、変更部18Eは、処理時間情報によって示される目標処理時間内に解析部18Hによる解析が終了するように、設定部18Cで用いる閾値を変更する。   When the reception information includes processing time information, the changing unit 18E changes the threshold used by the setting unit 18C so that the analysis by the analyzing unit 18H is completed within the target processing time indicated by the processing time information.

そして、設定部18Cでは、走行状態情報から算出した重み値Wが、変更部18Eで変更された閾値より高いほど、より短い取得間隔を設定すればよい。   Then, the setting unit 18C may set a shorter acquisition interval as the weight value W calculated from the traveling state information is higher than the threshold value changed by the changing unit 18E.

次に、特定部18Gについて説明する。特定部18Gは、撮影画像Pの撮影時の車両20の走行状態を示す走行状態情報に基づいて、処理対象の撮影画像Pを特定する。本実施の形態では、特定部18Gは、時系列で連続して撮影された複数の撮影画像Pから、設定部18Cで設定された取得間隔ごとの撮影画像Pを、処理対象として特定する。   Next, the specifying unit 18G will be described. The specifying unit 18G specifies the captured image P to be processed based on the traveling state information indicating the traveling state of the vehicle 20 at the time of capturing the captured image P. In the present embodiment, the specifying unit 18G specifies the captured images P for each acquisition interval set by the setting unit 18C as processing targets from a plurality of captured images P that are continuously captured in time series.

図5は、画像取得部18Aで取得した、撮影部12で撮影された複数の撮影画像Pの一例を示す模式図である。図5に示すように、画像取得部18Aは、時系列で撮影された複数の撮影画像P(撮影画像P〜撮影画像P)を、順次取得する。特定部18Gは、これらの複数の撮影画像P(撮影画像P〜撮影画像P)の内、処理対象の撮影画像Pを特定する。 FIG. 5 is a schematic diagram illustrating an example of a plurality of captured images P acquired by the image capturing unit 12 and acquired by the image acquisition unit 18A. As illustrated in FIG. 5, the image acquisition unit 18A sequentially acquires a plurality of captured images P (captured images P 1 to P n ) captured in time series. The specifying unit 18G specifies the captured image P to be processed from among the plurality of captured images P (captured images P 1 to P n ).

例えば、本実施の形態では、特定部18Gは、設定部18Cで設定された取得間隔ごとの撮影画像Pを、処理対象として特定する。例えば、図5に示す複数の撮影画像P(撮影画像P〜撮影画像P)が、1秒ごとに連続して撮影された撮影画像Pであったと仮定する。そして、設定部18Cで設定された取得間隔が、2秒であったと仮定する。この場合、特定部18Gは、2秒ごとの撮影タイミングの各々に対応する撮影画像P(例えば、撮影画像P、撮影画像P、撮影画像P)を、処理対象として特定する。 For example, in the present embodiment, the specifying unit 18G specifies the captured image P for each acquisition interval set by the setting unit 18C as a processing target. For example, it is assumed that the plurality of captured images P (captured images P 1 to P n ) illustrated in FIG. 5 are captured images P captured continuously every second. Then, it is assumed that the acquisition interval set by the setting unit 18C is 2 seconds. In this case, the specifying unit 18G specifies the captured image P (for example, the captured image P 1 , the captured image P 3 , and the captured image P 5 ) corresponding to each capturing timing every 2 seconds as a processing target.

そして、特定部18Gは、処理対象として特定した撮影画像Pを、順次、解析部18Hへ出力する。   Then, the specifying unit 18G sequentially outputs the captured image P specified as the processing target to the analyzing unit 18H.

解析部18Hは、特定部18Gによって処理対象として特定された撮影画像Pを解析する。このため、解析部18Hは、画像取得部18Aで取得した複数の全ての撮影画像Pの内、特定部18Gで特定された撮影画像Pについて、解析を行う。   The analysis unit 18H analyzes the captured image P specified as a processing target by the specifying unit 18G. For this reason, the analysis unit 18H analyzes the captured image P specified by the specifying unit 18G among all the plurality of captured images P acquired by the image acquisition unit 18A.

本実施の形態では、解析部18Hは、撮影画像Pを解析し、撮影画像Pに含まれる検出対象物30を検出する。また、本実施の形態では、一例として、解析部18Hが、撮影画像Pに含まれる、速度標識30A、信号機30B、および車線境界線30Cを検出する形態を説明する。   In the present embodiment, the analysis unit 18H analyzes the captured image P and detects the detection target 30 included in the captured image P. Moreover, in this Embodiment, the analysis part 18H demonstrates the form which detects the speed indicator 30A, the traffic light 30B, and the lane boundary line 30C which are contained in the picked-up image P as an example.

なお、特定部18Gは、走行状態情報に基づいて、処理対象として特定した撮影画像Pにおける一部の領域である撮影画像領域を、更に特定してもよい。この場合、解析部18Hは、処理対象として特定された撮影画像Pにおける、特定された撮影画像領域について解析を行えばよい。   The specifying unit 18G may further specify a captured image area that is a partial area in the captured image P specified as the processing target based on the traveling state information. In this case, the analysis unit 18H may analyze the specified captured image region in the captured image P specified as the processing target.

撮影画像Pにおける撮影画像領域は、予め設定した位置および範囲の領域であってもよいし、後処理部18Iで検出する対象の検出対象物30を含む領域であってもよい。本実施の形態では、一例として、特定部18Gが、後処理部18Iで検出する対象の検出対象物30を含む領域を、撮影画像領域として特定する場合を説明する。   The captured image region in the captured image P may be a region having a preset position and range, or may be a region including the detection target 30 to be detected by the post-processing unit 18I. In the present embodiment, as an example, a case will be described in which the specifying unit 18G specifies a region including the detection target 30 to be detected by the post-processing unit 18I as a captured image region.

図6および図7は、撮影画像領域32の一例を示す模式図である。図6に示すように、特定部18Gは、撮影画像Pにおける、後処理部18Iで検出する対象の速度標識30A、信号機30B、および車線境界線30Cの各々を含む撮影画像領域32(撮影画像領域32A、撮影画像領域32B、撮影画像領域32C)を特定する。また、図7に示すように、特定部18Gは、撮影画像Pにおける、後処理部18Iで検出する対象の検出対象物30を含む撮影画像領域32を特定する。   6 and 7 are schematic diagrams illustrating an example of the captured image region 32. FIG. As illustrated in FIG. 6, the specifying unit 18G includes, in the captured image P, a captured image region 32 (captured image region) including each of the target speed indicator 30A, the traffic light 30B, and the lane boundary line 30C to be detected by the post-processing unit 18I. 32A, the captured image area 32B, and the captured image area 32C). Further, as illustrated in FIG. 7, the specifying unit 18 </ b> G specifies a captured image region 32 that includes a detection target 30 to be detected by the post-processing unit 18 </ b> I in the captured image P.

なお、特定部18Gが特定する撮影画像領域32の数および大きさは、予め定めた数および大きさであってもよいし、走行状態に応じた大きさおよび数であってもよい。すなわち、特定部18Gは、処理対象として特定した撮影画像Pにおける、走行状態情報に基づいた大きさおよび数の撮影画像領域32を特定することが好ましい。   Note that the number and size of the captured image areas 32 specified by the specifying unit 18G may be a predetermined number and size, or may be a size and number corresponding to the running state. That is, it is preferable that the specification unit 18G specifies the size and number of the captured image regions 32 based on the running state information in the captured image P specified as the processing target.

具体的には、特定部18Gは、算出部18Mを含むことが好ましい。算出部18Mは、走行状態情報に基づいて、走行状態の重み値Wを算出する。なお、算出部18Mは、算出部18Dと同様にして、重み値Wを算出すればよい。   Specifically, the specifying unit 18G preferably includes a calculating unit 18M. The calculation unit 18M calculates the weight value W of the traveling state based on the traveling state information. Note that the calculation unit 18M may calculate the weight value W in the same manner as the calculation unit 18D.

そして、特定部18Gは、重み値Wが予め定めた閾値より高いほど、より大きい撮影画像領域32、または、より多い数の撮影画像領域32を特定することが好ましい。この閾値は、設定部18Cが用いる閾値と同様である。このため、この閾値は、変更部18Eによって変更可能である。   The specifying unit 18G preferably specifies a larger captured image region 32 or a larger number of captured image regions 32 as the weight value W is higher than a predetermined threshold value. This threshold is the same as the threshold used by the setting unit 18C. For this reason, this threshold value can be changed by the changing unit 18E.

このため、特定部18Gでは、撮影画像Pの撮影タイミングにおける、車両20の走行状態が後処理における重要度の高い走行状態を示すほど、該撮影画像Pにおける、より多い数の撮影画像領域32、または、より広い撮影画像領域32を特定する。なお、特定部18Gは、重み値Wが閾値より高いほど、より多く、且つ、より広い撮影画像領域32を特定してもよい。   For this reason, in the specific part 18G, as the traveling state of the vehicle 20 at the photographing timing of the captured image P indicates a traveling state having a higher importance in the post-processing, a larger number of captured image regions 32 in the captured image P, Alternatively, a wider captured image area 32 is specified. The specifying unit 18G may specify a larger and wider captured image region 32 as the weight value W is higher than the threshold value.

次に、解析部18Hによる解析処理について詳細に説明する。解析部18Hは、特定部18Gで処理対象として特定された撮影画像Pを解析する。また、解析部18Hは、特定部18Gで撮影画像Pにおける処理対象の撮影画像領域32が特定された場合、特定された撮影画像領域32を解析する。   Next, analysis processing by the analysis unit 18H will be described in detail. The analysis unit 18H analyzes the captured image P specified as a processing target by the specifying unit 18G. In addition, when the specifying unit 18G specifies the processing target captured image area 32 in the captured image P, the analysis unit 18H analyzes the specified captured image area 32.

本実施の形態では、一例として、解析部18Hは、処理対象として特定された撮影画像P(または撮影画像領域32)を解析し、日本において用いられる標識30D(速度標識30A、信号機30B)や車線境界線30Cを検出する場合を説明する。しかし、解析部18Hが検出する対象の検出対象物30は、日本において用いられる物に限定されず、他の諸国で用いられる物であってもよい。また、解析部18Hが解析によって検出する対象は、検出対象物30に限定されない。   In the present embodiment, as an example, the analysis unit 18H analyzes the captured image P (or captured image region 32) specified as a processing target, and uses a sign 30D (speed sign 30A, traffic light 30B) or lane used in Japan. A case where the boundary line 30C is detected will be described. However, the detection object 30 to be detected by the analysis unit 18H is not limited to the object used in Japan, and may be an object used in other countries. Further, the target detected by the analysis unit 18H by the analysis is not limited to the detection target 30.

なお、解析部18Hは、公知の方法を用いて、処理対象として特定された撮影画像Pから検出対象物30を検出すればよい。   The analysis unit 18H may detect the detection target 30 from the captured image P specified as the processing target using a known method.

例えば、解析部18Hは、以下の検出処理を行うことによって速度標識30Aを検出する。   For example, the analysis unit 18H detects the speed indicator 30A by performing the following detection process.

図8は、解析部18Hによる速度標識30Aの検出処理の一例を示す説明図である。例えば、解析部18Hは、撮影画像P(図4参照)について、歪み補正処理、フィルタリング処理、グレースケール変換処理等、速度標識30Aの検知処理に適した画像処理を行う。そして、解析部18Hは、画像処理後の撮影画像Pから、速度標識30Aを含む一部の領域である一部領域PAを抽出する(図8(A)参照)。図8(A)に示す例では、撮影画像Pにおける上半分の領域を、一部領域PAとして抽出した例を示した。   FIG. 8 is an explanatory diagram illustrating an example of the detection process of the speed indicator 30A by the analysis unit 18H. For example, the analysis unit 18H performs image processing suitable for the detection processing of the speed indicator 30A, such as distortion correction processing, filtering processing, and gray scale conversion processing, on the captured image P (see FIG. 4). Then, the analysis unit 18H extracts a partial area PA, which is a partial area including the speed indicator 30A, from the captured image P after image processing (see FIG. 8A). In the example shown in FIG. 8A, the upper half area in the captured image P is extracted as the partial area PA.

次に、解析部18Hは、一次マッチングを行う。解析部18Hは、一部領域PAの特徴点と、検知対象の速度標識30Aの特徴点と、を比較することで、一次マッチングを行う。検知対象の速度標識30Aの特徴点は、予め記憶しておけばよい。また、一次マッチングには、公知のマッチング方式を用いればよい。   Next, the analysis unit 18H performs primary matching. The analysis unit 18H performs primary matching by comparing the feature points of the partial area PA with the feature points of the speed mark 30A to be detected. The feature point of the speed indicator 30A to be detected may be stored in advance. A known matching method may be used for the primary matching.

次に、解析部18Hは、一部領域PAにおける、一次マッチングによって速度標識30Aとの類似度が第1閾値以上であると判定された領域を、一部領域PCとして抽出する(図8(B)参照)。第1閾値の値は、予め定めればよい。   Next, the analysis unit 18H extracts, as a partial region PC, a region in which the similarity with the speed indicator 30A is determined to be greater than or equal to the first threshold value by primary matching in the partial region PA (FIG. 8B )reference). The first threshold value may be determined in advance.

次に、解析部18Hは、一部領域PCについて、二次マッチングを行う。解析部18Hは、一部領域PCの特徴点と、速度標識30Aの特徴点と、を比較することで、二次マッチングを行う。二次マッチングには、公知のマッチング方式を用いればよい。   Next, the analysis unit 18H performs secondary matching for the partial region PC. The analysis unit 18H performs secondary matching by comparing the feature points of the partial region PC with the feature points of the speed indicator 30A. A known matching method may be used for the secondary matching.

そして、解析部18Hは、一部領域PCにおける、二次マッチングによって速度標識30Aとの類似度が第1閾値より高い第2閾値以上であると判定された領域が存在する場合、撮影画像Pに速度標識30Aが含まれると検出する。また、解析部18Hは、速度標識30Aが含まれると検出した場合、一部領域PCに含まれる速度標識30Aについて、公知の文字認識処理などを行う。これにより、解析部18Hは、速度標識30Aによって表される交通規則の内容を示す規則情報を検知する。図8に示す例では、解析部18Hは、速度制限情報「40」を、交通規則の内容を示す規則情報として検知する。   Then, the analysis unit 18H includes, in the captured image P, when there is a region in which the similarity with the speed indicator 30A is determined to be equal to or higher than the second threshold value that is higher than the first threshold value in the partial region PC. It is detected when the speed indicator 30A is included. In addition, when the analysis unit 18H detects that the speed indicator 30A is included, the analysis unit 18H performs a known character recognition process on the speed indicator 30A included in the partial area PC. Thereby, the analysis unit 18H detects the rule information indicating the content of the traffic rule represented by the speed sign 30A. In the example illustrated in FIG. 8, the analysis unit 18H detects the speed limit information “40” as rule information indicating the content of the traffic rule.

これによって、解析部18Hは、撮影画像P内における速度標識30A、および、速度標識30Aの表す交通規則の内容を示す規則情報(例えば、速度制限情報)を検出する。解析部18Hは、撮影画像Pから速度標識30Aを検出した場合、速度標識30A有りを示す情報、および、速度標識30Aの表す交通規則の内容を示す規則情報(例えば、速度制限情報)を含む検出対象物情報と、位置情報と、を含む検出結果情報を、送信部18Jを介してサーバ装置40へ送信する。   Thereby, the analysis unit 18H detects the speed sign 30A in the captured image P and the rule information (for example, speed limit information) indicating the contents of the traffic rule represented by the speed sign 30A. If the analysis unit 18H detects the speed indicator 30A from the captured image P, the analysis unit 18H includes information indicating that the speed indicator 30A is present, and rule information (for example, speed limit information) indicating the content of the traffic rule indicated by the speed indicator 30A. The detection result information including the object information and the position information is transmitted to the server device 40 via the transmission unit 18J.

なお、解析部18Hが行う速度標識30Aの検出処理は、このような処理に限定されず、公知の方法を用いることができる。また、特定部18Gが処理対象として、撮影画像Pの一部の領域である撮影画像領域32を特定した場合、解析部18Hは、この撮影画像領域32について速度標識30Aの検出を行えばよい。   The detection process of the speed marker 30A performed by the analysis unit 18H is not limited to such a process, and a known method can be used. When the specifying unit 18G specifies the captured image region 32 that is a partial region of the captured image P as a processing target, the analysis unit 18H may detect the speed indicator 30A for the captured image region 32.

次に、解析部18Hが信号機30Bを検出する検出処理の一例を説明する。   Next, an example of detection processing in which the analysis unit 18H detects the traffic light 30B will be described.

図9は、解析部18Hによる信号機30Bの検出処理の一例を示す説明図である。例えば、解析部18Hが、図9に示す撮影画像Pを解析する場合を一例として説明する。   FIG. 9 is an explanatory diagram illustrating an example of detection processing of the traffic light 30B by the analysis unit 18H. For example, the case where the analysis unit 18H analyzes the captured image P illustrated in FIG. 9 will be described as an example.

解析部18Hは、例えば、撮影画像Pに含まれる信号機30Bの信号画素領域Bを抽出する。信号画素領域Bは、信号機30Bの現在示している信号色を示す領域である。   For example, the analysis unit 18H extracts the signal pixel region B of the traffic light 30B included in the captured image P. The signal pixel area B is an area indicating the signal color currently indicated by the traffic light 30B.

信号画素領域Bの検出には、公知の方法を用いればよい。例えば、解析部18Hは、(R,G,B)色空間によって表される撮影画像Pの画像データを、公知の方式を用いて(Y,U,V)色空間に変換する。そして、変換後の各画素の(Y,U,V)色空間によって表される各画素の画素値が、予め記憶した赤信号、青信号、黄色信号、の何れかの画素値の範囲と一致する画素領域を、信号画素領域Bとして検出する。   A known method may be used to detect the signal pixel region B. For example, the analysis unit 18H converts the image data of the captured image P represented by the (R, G, B) color space into the (Y, U, V) color space using a known method. Then, the pixel value of each pixel represented by the (Y, U, V) color space of each pixel after conversion coincides with a range of pixel values of any one of a red signal, a blue signal, and a yellow signal stored in advance. The pixel area is detected as a signal pixel area B.

なお、解析部18Hは、信号色を示す実際の領域より狭い範囲を信号画素領域Bとして検出する場合がある。すなわち、信号画素領域Bとして本来抽出されるべき画素が、ノイズなどの影響により抽出されない場合がある。言い換えると、解析部18Hは、信号画素領域Bより狭い信号画素領域B’を、検出する場合がある。   Note that the analysis unit 18H may detect a narrower range than the actual region indicating the signal color as the signal pixel region B. That is, a pixel that should be extracted as the signal pixel region B may not be extracted due to noise or the like. In other words, the analysis unit 18H may detect a signal pixel region B ′ that is narrower than the signal pixel region B.

そこで、解析部18Hは、検出した信号画素領域B’を膨張させる膨張処理を行う。これによって、解析部18Hは、信号画素領域B’を膨張し、信号画素領域Bを得る。具体的には、解析部18Hは、信号画素領域B’と、信号画素領域B’の外周に該外周から外側に向かって連続する1または複数の画素と、を、信号画素領域Bとして得る。   Therefore, the analysis unit 18H performs expansion processing for expanding the detected signal pixel region B '. As a result, the analysis unit 18H expands the signal pixel region B ′ to obtain the signal pixel region B. Specifically, the analysis unit 18H obtains, as the signal pixel region B, the signal pixel region B ′ and one or a plurality of pixels continuous from the outer periphery to the outer periphery of the signal pixel region B ′.

次に、解析部18Hは、抽出した信号画素領域Bの形状認識処理を行う。例えば、解析部18Hは、信号画素領域BをHough変換することにより、信号画素領域B内で、予め定めた信号画素領域Bの形状(本実施の形態では円形)を抽出できるか否かを判定する。抽出できた場合、解析部18Hは、撮影画像Pに信号機30Bが含まれることを検出する。一方、抽出できない場合、解析部18Hは、撮影画像Pに信号機30Bが含まれないことを検出する。そして、解析部18Hは、撮影画像Pに信号機30Bが含まれることを検出した場合、信号画素領域Bを構成する各画素の示す色を判別することで、信号色を検出する。   Next, the analysis unit 18H performs shape recognition processing of the extracted signal pixel region B. For example, the analysis unit 18H determines whether or not a predetermined shape (circular in the present embodiment) of the signal pixel region B can be extracted from the signal pixel region B by performing Hough conversion on the signal pixel region B. To do. If it can be extracted, the analysis unit 18H detects that the traffic light 30B is included in the captured image P. On the other hand, when the extraction cannot be performed, the analysis unit 18H detects that the traffic light 30B is not included in the captured image P. When the analyzing unit 18H detects that the traffic light 30B is included in the captured image P, the analyzing unit 18H detects the signal color by determining the color indicated by each pixel constituting the signal pixel region B.

これによって、解析部18Hは、撮影画像P内における信号機30B、および、信号機30Bの示す信号色、を検出する。解析部18Hは、撮影画像Pから信号機30Bを検出した場合、信号機30B有りを示す情報、および、信号機30Bの示す信号色を示す信号色情報、を含む検出対象物情報と、位置情報と、を含む検出結果情報を、送信部18Jを介してサーバ装置40へ送信する。   Accordingly, the analysis unit 18H detects the traffic light 30B in the captured image P and the signal color indicated by the traffic light 30B. When detecting the traffic light 30B from the captured image P, the analysis unit 18H includes detection target information including information indicating the presence of the traffic light 30B, signal color information indicating the signal color indicated by the traffic light 30B, and position information. The detected detection result information is transmitted to the server device 40 via the transmission unit 18J.

なお、解析部18Hが行う信号機30Bの検出処理は、このような処理に限定されず、公知の方法を用いることができる。また、特定部18Gが処理対象として、撮影画像Pの一部の領域である撮影画像領域32を特定した場合、解析部18Hは、この撮影画像領域32について信号機30Bの検出を行えばよい。   The detection process of the traffic light 30B performed by the analysis unit 18H is not limited to such a process, and a known method can be used. In addition, when the specifying unit 18G specifies the captured image region 32, which is a partial region of the captured image P, as the processing target, the analysis unit 18H may detect the traffic light 30B for the captured image region 32.

次に、解析部18Hが車線境界線30Cを検出する検出処理の一例を説明する。   Next, an example of detection processing in which the analysis unit 18H detects the lane boundary line 30C will be described.

図10は、解析部18Hによる車線境界線30Cの検出処理の一例を示す説明図である。例えば、解析部18Hが、図10に示す撮影画像Pを解析する場合を一例として説明する。図10に示す撮影画像Pには、車線境界線30Cとして、車線境界線30C1と、車線境界線30C2と、が含まれている場合を説明する。   FIG. 10 is an explanatory diagram showing an example of the detection process of the lane boundary line 30C by the analysis unit 18H. For example, the case where the analysis unit 18H analyzes the captured image P illustrated in FIG. 10 will be described as an example. The case where the captured image P shown in FIG. 10 includes a lane boundary line 30C1 and a lane boundary line 30C2 as the lane boundary line 30C will be described.

本実施の形態では、解析部18Hは、撮影画像Pに車線境界線30Cが含まれるか否か、および、車線境界線30Cの本数を検出する。   In the present embodiment, analysis unit 18H detects whether or not lane boundary line 30C is included in captured image P and the number of lane boundary lines 30C.

まず、解析部18Hは、撮影画像Pから車線境界線30Cを検出する画像解析の対象となる領域として、ROI(Region Of Interest)領域PDを設定する(図10(A)参照)。図10(A)に示す例では、解析部18Hは、撮影画像Pに含まれる水平線Hより下側の領域を、ROI領域PDとして設定した場合を一例として示した。   First, the analysis unit 18H sets a region of interest (ROI) region PD as a region to be subjected to image analysis for detecting the lane boundary line 30C from the captured image P (see FIG. 10A). In the example illustrated in FIG. 10A, the analysis unit 18H has illustrated an example in which the region below the horizontal line H included in the captured image P is set as the ROI region PD.

次に、解析部18Hは、ROI領域PDのノイズを削減するノイズ削減処理を行う(図10(B)参照)。ROI領域PDのノイズは、例えばランダムノイズ等である。図10(B)に示す例では、解析部18Hは、撮影画像Pの中央から左右の方向に、IIR−LPF(Infinite Impulse Response Low Pass Filter)をかける。これにより、解析部18Hは、ROI領域PDのノイズを削減したボケ画像を生成する。   Next, the analysis unit 18H performs a noise reduction process for reducing noise in the ROI region PD (see FIG. 10B). The noise in the ROI area PD is, for example, random noise. In the example shown in FIG. 10B, the analysis unit 18H applies an IIR-LPF (Infinite Impulse Response Low Pass Filter) from the center of the captured image P to the left and right. Thereby, the analysis unit 18H generates a blurred image in which noise in the ROI region PD is reduced.

次に、解析部18Hは、生成したボケ画像を使用して、エッジ探索処理を行う(図10(C)参照)。図10(C)に示すように、解析部18Hは、ROI領域PDのボケ画像の中央から左右の方向に、車線境界線30C1の候補点31a、および、車線境界線30C2の候補点31bとして、所定の第3の閾値を超えるエッジを示す画素を探索する。   Next, the analysis unit 18H performs edge search processing using the generated blurred image (see FIG. 10C). As shown in FIG. 10C, the analysis unit 18H includes, as a candidate point 31a for the lane boundary line 30C1 and a candidate point 31b for the lane boundary line 30C2, in the left-right direction from the center of the blurred image of the ROI region PD. A pixel indicating an edge exceeding a predetermined third threshold is searched.

次に、解析部18Hは、複数の候補点31aと、複数の候補点31bと、の各々を利用して、車線境界線30Cの検出処理を行う。具体的には、解析部18Hは、複数の候補点31aを使用して確率的ハフ変換を行うことにより、線状の車線境界線30C1を検出する。同様にして、解析部18Hは、複数の候補点31bを使用して確率的ハフ変換を行うことにより、線状の車線境界線30C2を検出する。   Next, the analysis unit 18H performs detection processing of the lane boundary line 30C using each of the plurality of candidate points 31a and the plurality of candidate points 31b. Specifically, the analysis unit 18H detects the linear lane boundary line 30C1 by performing a probabilistic Hough transform using the plurality of candidate points 31a. Similarly, the analysis unit 18H detects the linear lane boundary line 30C2 by performing the probabilistic Hough transform using the plurality of candidate points 31b.

図10(D)は、撮影画像Pに含まれる、検出された車線境界線30C1の一例を示す図である。   FIG. 10D is a diagram illustrating an example of the detected lane boundary line 30 </ b> C <b> 1 included in the captured image P.

解析部18Hは、撮影画像Pに車線境界線30Cを検出した場合、撮影画像Pに含まれる車線境界線30Cの数と、撮影画像Pに含まれる車線境界線30Cの該Pにおける位置と、を併せて検出する。解析部18Hは、検出した車線境界線30Cの数を数えることで、車線境界線30Cの数を検出する。一方、解析部18Hは、車線境界線30Cを検出しなかった場合、撮影画像Pに車線境界線30Cが含まれないことを検出する。   When detecting the lane boundary line 30C in the captured image P, the analysis unit 18H determines the number of lane boundary lines 30C included in the captured image P and the position of the lane boundary line 30C included in the captured image P at the P. Also detect. The analysis unit 18H detects the number of lane boundary lines 30C by counting the number of detected lane boundary lines 30C. On the other hand, when the lane boundary line 30C is not detected, the analysis unit 18H detects that the lane boundary line 30C is not included in the captured image P.

これによって、解析部18Hは、撮影画像P内における車線境界線30C、車線境界線30Cの数、撮影画像Pにおける車線境界線30Cの位置、を検出する。解析部18Hは、撮影画像Pから車線境界線30Cを検出した場合、車線境界線30C有りを示す情報、車線境界線30Cの数を示す情報、および、撮影画像Pにおける車線境界線30Cの位置を示す情報、を含む検出対象物情報と、位置情報と、を含む検出結果情報を、送信部18Jを介してサーバ装置40へ送信する。   Accordingly, the analysis unit 18H detects the lane boundary line 30C in the captured image P, the number of lane boundary lines 30C, and the position of the lane boundary line 30C in the captured image P. When the analysis unit 18H detects the lane boundary line 30C from the captured image P, the information indicating the presence of the lane boundary line 30C, the information indicating the number of the lane boundary lines 30C, and the position of the lane boundary line 30C in the captured image P are obtained. The detection result information including the detection target information including the information to be displayed and the position information is transmitted to the server device 40 via the transmission unit 18J.

なお、解析部18Hが行う車線境界線30Cの検出処理は、このような処理に限定されず、公知の方法を用いることができる。また、特定部18Gが処理対象として、撮影画像Pの一部の領域である撮影画像領域32を特定した場合、解析部18Hは、この撮影画像領域32について、車線境界線30Cの検出を行えばよい。   In addition, the detection process of the lane boundary line 30C performed by the analysis unit 18H is not limited to such a process, and a known method can be used. Further, when the identifying unit 18G identifies the captured image region 32 that is a partial region of the captured image P as a processing target, the analysis unit 18H may detect the lane boundary line 30C for the captured image region 32. Good.

図3に戻り、説明を続ける。次に、後処理部18Iについて説明する。後処理部18Iは、解析部18Hによる撮影画像Pの解析結果を用いて、後処理を行う。本実施の形態では、後処理部18Iは、解析部18Hによる撮影画像Pの解析結果を用いて、車両20の走行状態に対する評価値を算出する。   Returning to FIG. 3, the description will be continued. Next, the post-processing unit 18I will be described. The post-processing unit 18I performs post-processing using the analysis result of the captured image P by the analysis unit 18H. In the present embodiment, post-processing unit 18I calculates an evaluation value for the traveling state of vehicle 20 using the analysis result of captured image P by analysis unit 18H.

具体的には、後処理部18Iは、解析部18Hによる解析結果である、検出対象物情報に基づいて、処理対象として特定された撮影画像Pの撮影時の、車両20の走行状態に対する評価値を算出する。   Specifically, the post-processing unit 18I evaluates the traveling state of the vehicle 20 when the captured image P specified as the processing target is captured based on the detection target information, which is the analysis result of the analyzing unit 18H. Is calculated.

走行状態に対する評価値は、例えば、危険運転とみなす度合い(危険運転度)を示す危険運転情報、道路標識によって表される交通規則に沿った運転であるか否かを示す安全運転情報、などである。なお、走行状態に対する評価値は、これらに限定されない。   The evaluation value for the driving state is, for example, dangerous driving information indicating a degree regarded as dangerous driving (dangerous driving degree), safe driving information indicating whether the driving is in accordance with a traffic rule represented by a road sign, or the like. is there. Note that the evaluation values for the running state are not limited to these.

本実施の形態では、後処理部18Iは、後処理対象の撮影画像Pの撮影タイミングに対応する走行状態情報を、走行状態取得部18Bから取得する。   In the present embodiment, the post-processing unit 18I acquires travel state information corresponding to the shooting timing of the captured image P to be post-processed from the travel state acquisition unit 18B.

そして、後処理部18Iは、撮影画像Pに含まれる検出対象物30の検出対象物情報と、該撮影画像Pの撮影時の走行状態情報と、を用いて、走行状態に対する評価値を算出する。   Then, the post-processing unit 18I calculates an evaluation value for the traveling state using the detection target information of the detection target 30 included in the captured image P and the traveling state information at the time of capturing the captured image P. .

本実施の形態では、後処理部18Iは、評価値として、危険運転情報を算出する場合を一例として説明する。   In the present embodiment, the post-processing unit 18I will be described as an example where dangerous driving information is calculated as an evaluation value.

撮影画像Pに速度標識30Aが含まれる場合、後処理部18Iは、該撮影画像Pから検出された速度標識30Aの検出対象物情報を読取る。そして、後処理部18Iは、該検出対象物情報に示される、速度標識30Aの表す交通規則の内容を示す規則情報(例えば、速度制限情報)を読取る。本実施の形態では、後処理部18Iは、速度規則情報を読取ったと仮定する。   When the captured image P includes the speed indicator 30A, the post-processing unit 18I reads the detection target information of the speed indicator 30A detected from the captured image P. Then, the post-processing unit 18I reads rule information (for example, speed limit information) indicating the contents of the traffic rule indicated by the speed indicator 30A, which is indicated in the detection target information. In the present embodiment, it is assumed that post-processing unit 18I has read the speed rule information.

この場合、後処理部18Iは、走行状態情報における、該撮影画像Pの撮影タイミングと同じタイミングにおける、車両20の走行速度を示す速度情報が、該速度規則情報によって示される速度を超えているか否かを判断する。そして、速度を超えている場合、後処理部18Iは、速度超過の度合いが高いほど、高い値を示す危険運転情報(評価値)を算出する。なお、車両20の走行速度を示す速度情報が、該速度規則情報によって示される速度以下である場合、後処理部18Iは、危険運転情報の算出を行わなくてもよい。   In this case, the post-processing unit 18I determines whether or not the speed information indicating the traveling speed of the vehicle 20 at the same timing as the capturing timing of the captured image P in the traveling state information exceeds the speed indicated by the speed regulation information. Determine whether. If the speed is exceeded, the post-processing unit 18I calculates dangerous driving information (evaluation value) indicating a higher value as the degree of speed excess is higher. Note that when the speed information indicating the traveling speed of the vehicle 20 is equal to or lower than the speed indicated by the speed rule information, the post-processing unit 18I may not calculate the dangerous driving information.

そして、後処理部18Iは、記憶部15に記憶されている地図データ15Aに、危険運転情報を登録する。詳細には、後処理部18Iは、地図データ15Aに付加する付加情報として、該撮影画像Pの撮影位置を示す位置情報と、算出した危険運転情報と、速度標識30Aの検出対象物情報と、を対応づけて登録する。   Then, the post-processing unit 18I registers the dangerous driving information in the map data 15A stored in the storage unit 15. Specifically, the post-processing unit 18I includes, as additional information added to the map data 15A, position information indicating the shooting position of the shot image P, calculated dangerous driving information, detection target information of the speed indicator 30A, Register in association with.

送信部18Jは、後処理部18Iが評価値(本実施の形態では、危険運転情報)を算出した場合、後処理部18Iによる危険運転度の判定結果を示す判定結果情報を、サーバ装置40へ送信する。判定結果情報は、危険運転情報と、撮影画像Pの撮影位置を示す位置情報と、車両20を運転するユーザのユーザIDと、を含む。   When the post-processing unit 18I calculates an evaluation value (dangerous driving information in the present embodiment), the transmission unit 18J transmits determination result information indicating the determination result of the dangerous driving degree by the post-processing unit 18I to the server device 40. Send. The determination result information includes dangerous driving information, position information indicating the shooting position of the shot image P, and a user ID of a user driving the vehicle 20.

次に、撮影画像Pに信号機30Bが含まれる場合を説明する。撮影画像Pに信号機30Bが含まれる場合、後処理部18Iは、該撮影画像Pから検出された信号機30Bの検出対象物情報を読取る。そして、後処理部18Iは、該検出対象物情報に示される、信号機30Bの色を示す信号色が、赤色であるか否かを判定する。信号色が赤色である場合、日本の交通規則では「走行停止」を意味する。なお、この判定は、各国の交通規則に応じて適宜調整すればよい。   Next, a case where the captured image P includes the traffic light 30B will be described. When the captured image P includes the traffic light 30B, the post-processing unit 18I reads the detection target information of the traffic signal 30B detected from the captured image P. Then, the post-processing unit 18I determines whether or not the signal color indicating the color of the traffic light 30B indicated in the detection target information is red. When the signal color is red, it means “stop driving” in Japanese traffic rules. In addition, what is necessary is just to adjust this determination suitably according to the traffic rule of each country.

そして、後処理部18Iは、信号機30Bの色を示す信号色が、赤色であると判定したと仮定する。この場合、後処理部18Iは、走行状態情報における、該撮影画像Pの撮影タイミングと同じタイミングにおける、車両20の走行速度を示す速度情報が、走行停止を示す速度(例えば時速0km)を超える速度を示すか否かを判断する。なお、走行停止を示す速度は、時速0kmに限定されず、任意の速度を設定可能である。また、走行停止については、走行停止を示す速度と、該速度が継続された期間を用いて判断してもよい。   Then, it is assumed that the post-processing unit 18I determines that the signal color indicating the color of the traffic light 30B is red. In this case, the post-processing unit 18I determines that the speed information indicating the traveling speed of the vehicle 20 at the same timing as the capturing timing of the captured image P in the traveling state information exceeds the speed indicating the traveling stop (for example, 0 km per hour). Whether or not is indicated. In addition, the speed which shows driving | running | working stop is not limited to 0 km / h, Arbitrary speeds can be set. In addition, the travel stop may be determined using a speed indicating the travel stop and a period during which the speed is continued.

そして、後処理部18Iは、走行停止を示す速度を超えた速度超過の度合いが高いほど、高い値を示す危険運転情報を算出する。なお、車両20の走行速度を示す速度情報が、走行停止を示す速度である場合、後処理部18Iは、危険運転情報の算出を行わない。   Then, the post-processing unit 18I calculates the dangerous driving information indicating a higher value as the degree of the excess of the speed exceeding the speed indicating the stoppage of travel is higher. Note that when the speed information indicating the travel speed of the vehicle 20 is a speed indicating the travel stop, the post-processing unit 18I does not calculate the dangerous driving information.

そして、後処理部18Iは、記憶部15に記憶されている地図データ15Aに、危険運転情報を登録する。詳細には、後処理部18Iは、地図データ15Aに付加する付加情報として、該撮影画像Pの撮影位置を示す位置情報と、算出した危険運転情報と、信号機30Bの検出対象物情報と、を対応づけて登録する。   Then, the post-processing unit 18I registers the dangerous driving information in the map data 15A stored in the storage unit 15. Specifically, the post-processing unit 18I includes, as additional information added to the map data 15A, position information indicating the shooting position of the captured image P, calculated dangerous driving information, and detection target information of the traffic light 30B. Register in association.

送信部18Jは、後処理部18Iが評価値(本実施の形態では、危険運転情報)を算出した場合、後処理部18Iによる危険運転度の判定結果を示す判定結果情報を、サーバ装置40へ送信する。この場合、判定結果情報は、危険運転情報と、撮影画像Pの撮影位置を示す位置情報と、車両20を運転するユーザのユーザIDと、を含む。   When the post-processing unit 18I calculates an evaluation value (dangerous driving information in the present embodiment), the transmission unit 18J transmits determination result information indicating the determination result of the dangerous driving degree by the post-processing unit 18I to the server device 40. Send. In this case, the determination result information includes dangerous driving information, position information indicating a shooting position of the shot image P, and a user ID of a user driving the vehicle 20.

次に、撮影画像Pに車線境界線30Cが含まれる場合を説明する。撮影画像Pに車線境界線30Cが含まれる場合、後処理部18Iは、該撮影画像Pから検出された車線境界線30Cの検出対象物情報を読取る。そして、後処理部18Iは、該検出対象物情報に示される、車線境界線30Cの数、および、撮影画像Pにおける車線境界線30Cの位置を読取る。   Next, a case where the captured image P includes a lane boundary line 30C will be described. When the captured image P includes a lane boundary line 30C, the post-processing unit 18I reads detection object information of the lane boundary line 30C detected from the captured image P. Then, the post-processing unit 18I reads the number of lane boundary lines 30C and the position of the lane boundary line 30C in the captured image P indicated in the detection target information.

後処理部18Iは、車線境界線30Cの数が、片側2車線以上であることを示す場合、危険運転情報の算出を行う。なお、後処理部18Iは、車線境界線30Cの数が、片側1車線であることを示す場合、危険運転情報の算出を行わなくてもよい。   The post-processing unit 18I calculates dangerous driving information when the number of lane boundary lines 30C indicates that the number of lane boundary lines 30C is two or more lanes on one side. Note that the post-processing unit 18I does not have to calculate the dangerous driving information when the number of lane boundary lines 30C indicates one lane on one side.

そして、後処理部18Iは、車線境界線30Cの数が片側2車線以上であることを示す場合、撮影画像Pにおける車線境界線30Cの位置と、走行状態情報における、該撮影画像Pの撮影タイミングと同じタイミングにおける、車両20のステアリング角度を示す角度情報と、加速度センサ16で検出された加速度情報と、車両20の速度情報と、から、急激な車線変更がなされたか否かを判断する。   Then, when the post-processing unit 18I indicates that the number of lane boundary lines 30C is two or more lanes on one side, the shooting timing of the captured image P in the position of the lane boundary line 30C in the captured image P and the traveling state information From the angle information indicating the steering angle of the vehicle 20, the acceleration information detected by the acceleration sensor 16, and the speed information of the vehicle 20 at the same timing, it is determined whether or not a sudden lane change has been made.

例えば、後処理部18Iは、前回検出した撮影画像Pにおける車線境界線30Cの位置からの車線境界線30Cの位置の変化、角度情報、加速度情報、速度情報の各々について、車線変更がなされたとみなす第3閾値を予め定める。そして、後処理部18Iは、前回検出した撮影画像Pにおける車線境界線30Cの位置からの車線境界線30Cの位置の変化、角度情報、加速度情報、速度情報の少なくとも1つが、対応する第3閾値を超えた値であるほど、高い値を示す危険運転情報を算出する。この第3閾値には、急激な車線変更がなされたと判別するための値を予め定めればよい。なお、前回検出した撮影画像Pにおける車線境界線30Cの位置からの車線境界線30Cの位置の変化、角度情報、加速度情報、速度情報の全てが対応する第3閾値未満である場合、後処理部18Iは、危険運転情報の算出を行わなくてもよい。   For example, the post-processing unit 18I considers that a lane change has been made for each of the change in the position of the lane boundary line 30C from the position of the lane boundary line 30C in the previously detected captured image P, the angle information, the acceleration information, and the speed information. A third threshold is predetermined. Then, the post-processing unit 18I has a third threshold value corresponding to at least one of the change in the position of the lane boundary line 30C from the position of the lane boundary line 30C in the captured image P detected last time, the angle information, the acceleration information, and the speed information. As the value exceeds the value, dangerous driving information indicating a higher value is calculated. The third threshold value may be determined in advance as a value for determining that a sudden lane change has been made. If the change in the position of the lane boundary 30C from the position of the lane boundary 30C in the previously detected captured image P, the angle information, the acceleration information, and the speed information are all less than the corresponding third threshold value, the post-processing unit 18I may not calculate dangerous driving information.

そして、後処理部18Iは、記憶部15に記憶されている地図データ15Aに、危険運転情報を登録する。詳細には、後処理部18Iは、地図データ15Aに付加する付加情報として、該撮影画像Pの撮影位置を示す位置情報と、算出した危険運転情報と、車線境界線30Cの検出対象物情報と、を対応づけて登録する。   Then, the post-processing unit 18I registers the dangerous driving information in the map data 15A stored in the storage unit 15. Specifically, the post-processing unit 18I includes, as additional information to be added to the map data 15A, position information indicating the shooting position of the shot image P, calculated dangerous driving information, and detection target object information on the lane boundary line 30C. Are registered in association with each other.

送信部18Jは、後処理部18Iが評価値(本実施の形態では、危険運転情報)を算出した場合、後処理部18Iによる危険運転度の判定結果を示す判定結果情報を、サーバ装置40へ送信する。この場合、判定結果情報は、危険運転情報と、撮影画像Pの撮影位置を示す位置情報と、車線境界線30Cの検出対象物情報と、車両20を運転するユーザのユーザIDと、を含む。   When the post-processing unit 18I calculates an evaluation value (dangerous driving information in the present embodiment), the transmission unit 18J transmits determination result information indicating the determination result of the dangerous driving degree by the post-processing unit 18I to the server device 40. Send. In this case, the determination result information includes dangerous driving information, position information indicating the shooting position of the shot image P, detection target information of the lane boundary 30C, and a user ID of the user who drives the vehicle 20.

なお、後処理部18Iによる評価値の算出方法は、上記方法に限定されない。   The evaluation value calculation method by the post-processing unit 18I is not limited to the above method.

次に、サーバ装置40について説明する。図11は、サーバ装置40の機能ブロック図の一例である。   Next, the server device 40 will be described. FIG. 11 is an example of a functional block diagram of the server device 40.

サーバ装置40は、通信部42、記憶部44、評価部46、更新部48、および解析・後処理部49を備える。通信部42は、1または複数の情報処理装置10の各々と通信する。本実施の形態では、通信部42は、情報処理装置10から、検出対象物30の検出結果を受信する。すなわち、通信部42は、情報処理装置10で検出した検出対象物30を示す検出対象物情報と、検出に用いた撮影画像Pの撮影位置を示す位置情報と、を含む検出結果情報を、情報処理装置10から受信する。   The server device 40 includes a communication unit 42, a storage unit 44, an evaluation unit 46, an update unit 48, and an analysis / post-processing unit 49. The communication unit 42 communicates with each of the one or more information processing apparatuses 10. In the present embodiment, the communication unit 42 receives the detection result of the detection target 30 from the information processing apparatus 10. That is, the communication unit 42 receives detection result information including detection target information indicating the detection target 30 detected by the information processing apparatus 10 and position information indicating the shooting position of the captured image P used for detection. Receive from processing device 10.

通信部42は、検出結果情報を受信すると、更新部48へ出力する。更新部48は、検出結果情報に含まれる、位置情報と、検出対象物情報と、を対応づけて、記憶部44の検出済管理情報44Aに登録する。   When receiving the detection result information, the communication unit 42 outputs the detection result information to the update unit 48. The update unit 48 associates the position information and the detection target object information included in the detection result information and registers them in the detected management information 44 </ b> A of the storage unit 44.

検出済管理情報44Aは、位置情報と、位置情報によって示される撮影位置で検出済の検出対象物30を示す検出対象物情報と、を対応づけた情報である。検出済管理情報44Aには、複数の車両20の各々で検出された検出対象物情報が、位置情報ごとに登録されている。   The detected management information 44A is information in which position information is associated with detected object information indicating the detected object 30 detected at the photographing position indicated by the position information. In the detected management information 44A, detection object information detected in each of the plurality of vehicles 20 is registered for each position information.

更新部48は、新たに受信した検出結果情報に含まれる、位置情報に対応する検出対象物情報に示される検出対象物30が検出済管理情報44Aに未登録である場合、新たに受信した検出対象物情報を、該位置情報に対応づけて検出済管理情報44Aに登録する。   When the detection object 30 indicated in the detection object information corresponding to the position information included in the newly received detection result information is not registered in the detected management information 44A, the update unit 48 detects the newly received detection The object information is registered in the detected management information 44A in association with the position information.

そして、更新部48は、検出済管理情報44Aに新たに登録した、位置情報に対応する検出対象物情報と、該検出対象物情報に対応する位置情報と、を、サーバ装置40が管理する全ての車両20の各々に搭載された情報処理装置10へ送信する。情報処理装置10側では、サーバ装置40から受信した検出対象物情報と位置情報とを、各情報処理装置10における地図データ15Aに登録すればよい。   Then, the update unit 48 manages all the detection object information corresponding to the position information and the position information corresponding to the detection object information newly registered in the detected management information 44A, which is managed by the server device 40. To the information processing apparatus 10 mounted on each of the vehicles 20. On the information processing device 10 side, the detection object information and the position information received from the server device 40 may be registered in the map data 15A in each information processing device 10.

また、通信部42は、情報処理装置10から、危険運転度などの評価値の判定結果を示す判定結果情報を受信する。本実施の形態では、通信部42は、評価値として、危険運転度の判定結果を示す判定結果情報を情報処理装置10から受信する。上述したように、判定結果情報は、危険運転情報と、撮影画像Pの撮影位置を示す位置情報と、ユーザIDと、を含む。   In addition, the communication unit 42 receives determination result information indicating a determination result of an evaluation value such as a dangerous driving degree from the information processing apparatus 10. In this Embodiment, the communication part 42 receives the determination result information which shows the determination result of a dangerous driving degree from the information processing apparatus 10 as an evaluation value. As described above, the determination result information includes dangerous driving information, position information indicating the shooting position of the shot image P, and a user ID.

通信部42は、判定結果情報を受信すると、更新部48へ出力する。更新部48は、判定結果情報に含まれる位置情報と、危険運転情報と、ユーザIDと、を対応づけて、記憶部44におけるユーザ管理情報44Bへ登録する。ユーザ管理情報44Bは、ユーザIDと、危険運転情報と、位置情報と、を対応づけたデータである。   Upon receiving the determination result information, the communication unit 42 outputs the determination result information to the update unit 48. The update unit 48 associates the position information included in the determination result information, the dangerous driving information, and the user ID, and registers them in the user management information 44B in the storage unit 44. The user management information 44B is data in which a user ID, dangerous driving information, and position information are associated with each other.

そして、更新部48は、ユーザ管理情報44Bに新たに登録した、位置情報に対応する危険運転情報と、該危険運転情報に対応する位置情報と、を、サーバ装置40が管理する全ての車両20の各々に搭載された情報処理装置10へ送信する。情報処理装置10側では、サーバ装置40から受信した危険運転情報と位置情報とを、各情報処理装置10における地図データ15Aに登録すればよい。   The update unit 48 then manages all the vehicles 20 managed by the server device 40 with the dangerous driving information corresponding to the position information and the position information corresponding to the dangerous driving information newly registered in the user management information 44B. Are transmitted to the information processing apparatus 10 mounted on each. On the information processing device 10 side, the dangerous driving information and the position information received from the server device 40 may be registered in the map data 15A in each information processing device 10.

評価部46は、ユーザ管理情報44Bに登録されている危険運転情報を、対応するユーザIDごとに読取る。そして、評価部46は、ユーザIDによって識別されるユーザごとに、対応する危険運転情報からユーザの運転評価値を算出する。例えば、危険運転情報によって示される危険運転とみなす度合(危険運転度)が高いほど、低い運転評価値を算出する。   The evaluation unit 46 reads the dangerous driving information registered in the user management information 44B for each corresponding user ID. And the evaluation part 46 calculates a driving | operation evaluation value of a user from corresponding dangerous driving information for every user identified by user ID. For example, the lower the driving evaluation value is calculated as the degree of dangerous driving (dangerous driving) indicated by the dangerous driving information is higher.

なお、評価部46は、複数の項目ごとに運転評価値を算出してもよい。項目とは、例えば、一時停止、信号機30Bなどである。一時停止に対応する運転評価値は、例えば、速度標識30Aに表される交通規則“一時停止”を行った回数を、一時停止を表す速度標識30Aを検出した総回数で除算した値としてもよい。   The evaluation unit 46 may calculate a driving evaluation value for each of a plurality of items. The item is, for example, a temporary stop, a traffic light 30B, or the like. The driving evaluation value corresponding to the temporary stop may be, for example, a value obtained by dividing the number of times the traffic rule “temporary stop” represented by the speed sign 30A is divided by the total number of times the speed sign 30A indicating the temporary stop is detected. .

そして、評価部46は、算出した運転評価値とユーザIDと、を対応づけて、通信部42を介して外部装置などへ送信する。外部装置は、例えば、運転評価値を用いた各種処理を実行する機関に設置されている。例えば、外部装置は、保険会社などに設置されている。   And the evaluation part 46 matches the calculated driving | operation evaluation value and user ID, and transmits to an external apparatus etc. via the communication part 42. FIG. The external device is installed, for example, in an engine that executes various processes using the operation evaluation value. For example, the external device is installed in an insurance company or the like.

また、通信部42は、情報処理装置10から、撮影画像Pと、撮影画像Pの撮影タイミングを示すタイミング情報と、該撮影タイミングと同じタイミングの走行状態を示す走行状態情報と、を受信する場合がある。この場合、通信部42は、撮影画像Pと、タイミング情報と、走行状態情報と、を解析・後処理部49へ出力する。   When the communication unit 42 receives from the information processing apparatus 10 the captured image P, timing information indicating the capturing timing of the captured image P, and traveling state information indicating a traveling state at the same timing as the capturing timing. There is. In this case, the communication unit 42 outputs the captured image P, timing information, and running state information to the analysis / post-processing unit 49.

解析・後処理部49は、情報処理装置10における、特定部18Gと、解析部18Hと、後処理部18Iと、に相当する機能を有する。   The analysis / post-processing unit 49 has functions corresponding to the specifying unit 18G, the analysis unit 18H, and the post-processing unit 18I in the information processing apparatus 10.

すなわち、解析・後処理部49は、特定部18Gと同様にして、通信部42で受信した撮影画像Pについて、対応する走行状態情報を用いて、処理対象の撮影画像Pを特定する。そして、解析・後処理部49は、特定した撮影画像Pを、解析部18Hと同様にして解析し、検出対象物30を検出する。そして、解析・後処理部49は、検出結果を示す検出結果情報を、評価部46へ出力すればよい。   That is, the analysis / post-processing unit 49 specifies the processing target captured image P using the corresponding traveling state information for the captured image P received by the communication unit 42 in the same manner as the specifying unit 18G. Then, the analysis / post-processing unit 49 analyzes the identified captured image P in the same manner as the analysis unit 18H, and detects the detection target 30. Then, the analysis / post-processing unit 49 may output detection result information indicating the detection result to the evaluation unit 46.

また、解析・後処理部49は、検出結果を用いて、後処理部18Iと同様にして後処理を行い、走行状態の評価値(危険運転情報)を算出する。そして、解析・後処理部49は、算出した評価値(危険運転情報)を含む判定結果情報を、更新部48へ出力すればよい。   Further, the analysis / post-processing unit 49 performs post-processing in the same manner as the post-processing unit 18I using the detection result, and calculates an evaluation value (dangerous driving information) of the traveling state. Then, the analysis / post-processing unit 49 may output determination result information including the calculated evaluation value (dangerous driving information) to the updating unit 48.

このように、サーバ装置40に解析・後処理部49を設けた構成とすることで、サーバ装置40側で、情報処理装置10の特定部18Gによる特定処理、解析部18Hによる解析処理、および後処理部18Iによる後処理を実行してもよい。   As described above, the server device 40 is provided with the analysis / post-processing unit 49, so that on the server device 40 side, the specification processing by the specification unit 18G of the information processing device 10, the analysis processing by the analysis unit 18H, and the post-processing Post-processing by the processing unit 18I may be executed.

次に、本実施の形態の情報処理装置10が実行する解析処理の手順の一例を説明する。図12は、情報処理装置10が実行する解析処理の手順の一例を示すフローチャートである。   Next, an example of a procedure of analysis processing executed by the information processing apparatus 10 according to the present embodiment will be described. FIG. 12 is a flowchart illustrating an example of a procedure of analysis processing executed by the information processing apparatus 10.

まず、画像取得部18Aが、撮影部12から1フレーム分の撮影画像Pを取得する(ステップS100)。次に、走行状態取得部18Bが、ステップS100で取得した撮影画像Pの撮影タイミングと同じタイミングの走行状態を示す走行状態情報を取得する(ステップS102)。   First, the image acquisition unit 18A acquires the captured image P for one frame from the imaging unit 12 (step S100). Next, the traveling state acquisition unit 18B acquires traveling state information indicating the traveling state at the same timing as the capturing timing of the captured image P acquired in step S100 (step S102).

次に、設定部18Cの算出部18Dが、ステップS102で取得した走行状態情報を用いて、重み値Wを算出する(ステップS104)。次に、設定部18Cが、ステップS104で算出した重み値Wから、時系列に撮影された複数の撮影画像Pから撮影画像Pを取得する取得間隔を設定する(ステップS106)。   Next, the calculation unit 18D of the setting unit 18C calculates the weight value W using the traveling state information acquired in Step S102 (Step S104). Next, the setting unit 18C sets an acquisition interval for acquiring the captured images P from the plurality of captured images P captured in time series from the weight value W calculated in Step S104 (Step S106).

次に、特定部18Gが、画像取得部18AがステップS100で取得した撮影画像Pが処理対象であるか否かを判断する(ステップS108)。ステップS108では、特定部18Gは、ステップS100で取得した撮影画像Pが、処理対象として前回特定した撮影画像Pの撮影タイミングから、ステップS106で設定された取得間隔を隔てた撮影タイミングで撮影された撮影画像Pであるか否かを判別する。この判別により、ステップS108の判断を行う。   Next, the specifying unit 18G determines whether or not the captured image P acquired by the image acquisition unit 18A in step S100 is a processing target (step S108). In step S108, the identifying unit 18G captures the captured image P acquired in step S100 at a capturing timing that is separated from the capturing timing of the captured image P previously identified as the processing target by the acquisition interval set in step S106. It is determined whether or not the captured image P. Based on this determination, the determination in step S108 is performed.

ステップS108で否定判断すると(ステップS108:No)、後述するステップS150へ進む。一方、ステップS108で肯定判断すると(ステップS108:Yes)、ステップS110へ進む。ステップS110では、特定部18Gは、ステップS100で取得した撮影画像Pを、処理対象として特定する(ステップS110)。   If a negative determination is made in step S108 (step S108: No), the process proceeds to step S150 described later. On the other hand, if an affirmative determination is made in step S108 (step S108: Yes), the process proceeds to step S110. In step S110, the specifying unit 18G specifies the captured image P acquired in step S100 as a processing target (step S110).

ステップS100〜ステップS110の処理によって、特定部18Gは、時系列で連続して撮影された複数の撮影画像Pから、ステップS106で設定された取得間隔ごとの撮影画像Pを、処理対象として特定する。   By the processing from step S100 to step S110, the specifying unit 18G specifies, as a processing target, the captured images P for each acquisition interval set in step S106 from the plurality of captured images P that are continuously captured in time series. .

ステップS112では、特定部18Gは、ステップS110で特定した撮影画像Pの内の一部の領域である撮影画像領域32を、処理対象として更に特定するか否かを判断する(ステップS112)。例えば、特定部18Gは、一部の領域の特定を行うか否かを示す特定情報を、予め記憶する。そして、特定部18Gは、この特定情報に応じて、ステップS112の判断を行えばよい。   In step S112, the specifying unit 18G determines whether or not to further specify the captured image area 32, which is a partial area of the captured image P specified in step S110, as a processing target (step S112). For example, the specifying unit 18G stores in advance specifying information indicating whether or not a part of the area is specified. And specific part 18G should just perform judgment of Step S112 according to this specific information.

ステップS112で否定判断すると(ステップS112:No)、ステップS114へ進む。ステップS114では、ステップS110で特定した撮影画像Pと、該撮影画像Pに対応するステップS102で取得した走行状態情報と、をサーバ装置40へ送信する(ステップS114)。なお、このとき、情報処理装置10の搭載された車両20を運転するユーザのユーザID、および、車両20に搭載された撮影部12の識別情報(カメラID)と、を併せてサーバ装置40へ送信してもよい。   If a negative determination is made in step S112 (step S112: No), the process proceeds to step S114. In step S114, the captured image P specified in step S110 and the running state information acquired in step S102 corresponding to the captured image P are transmitted to the server device 40 (step S114). At this time, the user ID of the user driving the vehicle 20 on which the information processing apparatus 10 is mounted and the identification information (camera ID) of the photographing unit 12 mounted on the vehicle 20 are also sent to the server apparatus 40. You may send it.

ステップS114の処理によって、サーバ装置40側においても、情報処理装置10の解析部18Hで行う解析処理や後処理部18Iで行う後処理を実行することができる。また、サーバ装置40側では、カメラIDによって識別される撮影部12ごとに、解析処理や後処理を実行することができる。このため、サーバ装置40では、撮影部12の取り付け角度などに応じた解析処理や後処理を実行することもできる。また、サーバ装置40では、ユーザIDによって識別されるユーザごとに、解析処理や後処理を実行することもできる。   By the processing in step S114, the analysis processing performed by the analysis unit 18H of the information processing device 10 and the post-processing performed by the post-processing unit 18I can also be executed on the server device 40 side. On the server device 40 side, analysis processing and post-processing can be executed for each photographing unit 12 identified by the camera ID. For this reason, the server device 40 can also perform analysis processing and post-processing according to the mounting angle of the imaging unit 12 and the like. The server device 40 can also execute analysis processing and post-processing for each user identified by the user ID.

次に、解析部18Hが、ステップS110で特定した撮影画像Pを解析し、検出対象物30を検出する(ステップS116)。そして、ステップS124へ進む。   Next, the analysis unit 18H analyzes the captured image P specified in step S110 and detects the detection target 30 (step S116). Then, the process proceeds to step S124.

一方、上記ステップS112で肯定判断すると(ステップS112:Yes)、ステップS118へ進む。ステップS118では、特定部18Gが、ステップS110で特定した撮影画像Pにおける撮影画像領域32を特定する(ステップS118)。   On the other hand, if an affirmative determination is made in step S112 (step S112: Yes), the process proceeds to step S118. In step S118, the specifying unit 18G specifies the captured image region 32 in the captured image P specified in step S110 (step S118).

次に、特定部18Gは、ステップS118で特定した撮影画像領域32と、該撮影画像領域32を含む撮影画像Pに対応するステップS102で取得した走行状態情報と、をサーバ装置40へ送信する(ステップS120)。   Next, the specifying unit 18G transmits the captured image area 32 specified in step S118 and the running state information acquired in step S102 corresponding to the captured image P including the captured image area 32 to the server device 40 ( Step S120).

ステップS120の処理によって、サーバ装置40側においても、情報処理装置10の解析部18Hで行う解析処理や後処理部18Iで行う後処理を実行することができる。また、撮影画像Pにおける解析や後処理で用いる撮影画像領域32を、選択的にサーバ装置40へ送信する。このため、サーバ装置40へ送信するデータ量の削減およびデータ送信速度の短縮を図ることもできる。   Through the process of step S120, the server apparatus 40 can execute the analysis process performed by the analysis unit 18H of the information processing apparatus 10 and the post-process performed by the post-processing unit 18I. In addition, the captured image area 32 used in the analysis and post-processing of the captured image P is selectively transmitted to the server device 40. For this reason, it is possible to reduce the amount of data transmitted to the server device 40 and the data transmission speed.

次に、解析部18Hが、ステップS118で特定した撮影画像領域32を解析し、撮影画像領域32に含まれる検出対象物30を検出する(ステップS122)。そして、ステップS124へ進む。   Next, the analysis unit 18H analyzes the captured image area 32 specified in step S118, and detects the detection target 30 included in the captured image area 32 (step S122). Then, the process proceeds to step S124.

ステップS124では、後処理部18Iが、ステップS110で特定した撮影画像Pにおける、ステップS116またはステップS122で検出された検出対象物30の検出対象物情報を取得する(ステップS124)。   In step S124, the post-processing unit 18I acquires the detection target information of the detection target 30 detected in step S116 or step S122 in the captured image P specified in step S110 (step S124).

なお、後処理部18Iは、ステップS110で特定した撮影画像Pの撮影タイミングに対応する位置情報(すなわち、撮影位置を示す位置情報)に対応する検出対象物情報が記憶部15へ既に記憶されている場合、ステップS116およびステップS122の処理を行わない形態であってもよい。この場合、後処理部18Iは、記憶部15から、該位置情報に対応する検出対象物情報を読取ることで、検出対象物情報を取得すればよい。この処理によって、過去に検出済の検出対象物30については、検出処理を省略することができる。   Note that the post-processing unit 18I has already stored in the storage unit 15 detection object information corresponding to position information (that is, position information indicating the shooting position) corresponding to the shooting timing of the shot image P identified in step S110. In the case where there is, it may be a form in which the processing of step S116 and step S122 is not performed. In this case, the post-processing unit 18I may acquire the detection target information by reading the detection target information corresponding to the position information from the storage unit 15. By this process, the detection process can be omitted for the detection target 30 that has been detected in the past.

次に、後処理部18Iは、ステップS100で特定した撮影画像Pから、信号機30Bが検出されたか否かを判断する(ステップS126)。後処理部18Iは、ステップS124で取得した検出対象物情報に、信号機30Bを示す検出対象物情報が含まれるか否かを判別することで、ステップS126の判断を行う。   Next, the post-processing unit 18I determines whether or not the traffic light 30B has been detected from the captured image P identified in step S100 (step S126). The post-processing unit 18I determines in step S126 by determining whether or not the detection target information acquired in step S124 includes detection target information indicating the traffic light 30B.

ステップS126で否定判断すると(ステップS126:No)、後述するステップS134へ進む。ステップS126で肯定判断すると(ステップS126:Yes)、ステップS128へ進む。   If a negative determination is made in step S126 (step S126: No), the process proceeds to step S134 described later. If a positive determination is made in step S126 (step S126: Yes), the process proceeds to step S128.

ステップS128では、後処理部18Iは、危険運転であるか否かを判断する(ステップS128)。例えば、後処理部18Iは、検出対象物情報に示される信号機30Bの信号色情報が赤色を示す情報であり、走行情報に含まれる車両20の走行速度を示す速度情報が走行停止を示す速度を超えているか否かを判別することで、ステップS128の判断を行う。ステップS128で否定判断すると(ステップS128:No)、後述するステップS134へ進む。   In step S128, the post-processing unit 18I determines whether or not the driving is dangerous (step S128). For example, the post-processing unit 18I is information indicating that the signal color information of the traffic light 30B indicated in the detection target information indicates red, and the speed information indicating the traveling speed of the vehicle 20 included in the traveling information indicates a speed indicating stop of traveling. By determining whether or not it exceeds, the determination in step S128 is performed. If a negative determination is made in step S128 (step S128: No), the process proceeds to step S134 described later.

ステップS128で肯定判断すると(ステップS128:Yes)、後処理部18Iは、危険運転情報を算出し(ステップS129)、ステップS110で特定した撮影画像Pの撮影位置を示す位置情報と、算出した危険運転情報と、信号機30Bの検出対象物情報と、を含む付加情報を、地図データ15Aに登録する(ステップS130)。   If an affirmative determination is made in step S128 (step S128: Yes), the post-processing unit 18I calculates dangerous driving information (step S129), positional information indicating the shooting position of the captured image P specified in step S110, and the calculated danger. Additional information including the driving information and the detection object information of the traffic light 30B is registered in the map data 15A (step S130).

次に、後処理部18Iは、危険運転情報と、撮影画像Pの撮影位置を示す位置情報と、車両20を運転するユーザのユーザIDと、を含む判定結果情報を、サーバ装置40へ送信する(ステップS132)。   Next, the post-processing unit 18I transmits determination result information including dangerous driving information, position information indicating the shooting position of the shot image P, and a user ID of a user driving the vehicle 20 to the server device 40. (Step S132).

次に、後処理部18Iは、ステップS110で特定した撮影画像Pから、車線境界線30Cが検出されたか否かを判断する(ステップS134)。後処理部18Iは、ステップS124で取得した検出対象物情報に、車線境界線30C有りを示す情報が含まれ、且つ、片側2車線以上であることを示す車線境界線30Cの数を示す情報が含まれるか否かを判別する。これによって、後処理部18Iは、ステップS134の判断を行う。   Next, the post-processing unit 18I determines whether or not the lane boundary line 30C is detected from the captured image P specified in step S110 (step S134). The post-processing unit 18I includes information indicating the presence of the lane boundary line 30C in the detection target information acquired in step S124, and information indicating the number of lane boundary lines 30C indicating two or more lanes on one side. It is determined whether or not it is included. Thereby, the post-processing unit 18I performs the determination in step S134.

ステップS134で否定判断すると(ステップS134:No)、後述するステップS142へ進む。ステップS134で肯定判断すると(ステップS134:Yes)、ステップS136へ進む。   If a negative determination is made in step S134 (step S134: No), the process proceeds to step S142 described later. If an affirmative determination is made in step S134 (step S134: Yes), the process proceeds to step S136.

ステップS136では、後処理部18Iが、危険運転であるか否かを判断する(ステップS136)。例えば、後処理部18Iは、前回検出した撮影画像Pにおける車線境界線30Cの位置からの車線境界線30Cの位置の変化、角度情報、加速度情報、速度情報の少なくとも1つが、急激な車線変更の判断に用いる閾値を超えた値であるか否かを判別することで、ステップS136の判断を行う。   In step S136, the post-processing unit 18I determines whether or not the driving is dangerous (step S136). For example, the post-processing unit 18I determines that at least one of the change in the position of the lane boundary line 30C from the position of the lane boundary line 30C in the previously detected captured image P, the angle information, the acceleration information, and the speed information is a sudden lane change. By determining whether or not the value exceeds the threshold used for determination, the determination in step S136 is performed.

ステップS136で否定判断すると(ステップS136:No)、後述するステップS142へ進む。ステップS136で肯定判断すると(ステップS136:Yes)、ステップS137へ進む。   If a negative determination is made in step S136 (step S136: No), the process proceeds to step S142 described later. If an affirmative determination is made in step S136 (step S136: Yes), the process proceeds to step S137.

ステップS137では、後処理部18Iは、危険運転情報を算出し(ステップS137)、ステップS110で特定した撮影画像Pの撮影位置を示す位置情報と、算出した危険運転情報と、車線境界線30Cを示す検出対象物情報と、を含む付加情報を、地図データ15Aに登録する(ステップS138)。   In step S137, the post-processing unit 18I calculates dangerous driving information (step S137), and uses the positional information indicating the shooting position of the shot image P specified in step S110, the calculated dangerous driving information, and the lane boundary line 30C. Additional information including the detected object information to be shown is registered in the map data 15A (step S138).

次に、後処理部18Iは、ステップS138で登録した危険運転情報と、撮影画像Pの撮影位置を示す位置情報と、車両20を運転するユーザのユーザIDと、を含む判定結果情報を、サーバ装置40へ送信する(ステップS140)。   Next, the post-processing unit 18I obtains determination result information including the dangerous driving information registered in step S138, the positional information indicating the shooting position of the captured image P, and the user ID of the user who drives the vehicle 20, as a server. It transmits to the apparatus 40 (step S140).

次に、後処理部18Iは、ステップS110で特定した撮影画像Pの撮影位置において、速度標識30Aが検出されたか否かを判断する(ステップS142)。後処理部18Iは、ステップS124で取得した検出対象物情報に、速度標識30A有りを示す情報が含まれるか否かを判別する。これによって、後処理部18Iは、ステップS142の判断を行う。   Next, the post-processing unit 18I determines whether or not the speed indicator 30A has been detected at the photographing position of the photographed image P identified at step S110 (step S142). The post-processing unit 18I determines whether or not the detection target information acquired in step S124 includes information indicating the presence of the speed indicator 30A. Thereby, the post-processing unit 18I performs the determination in step S142.

ステップS142で否定判断すると(ステップS142:No)、後述するステップS150へ進む。ステップS142で肯定判断すると(ステップS142:Yes)、ステップS144へ進む。   If a negative determination is made in step S142 (step S142: No), the process proceeds to step S150 described later. If an affirmative determination is made in step S142 (step S142: Yes), the process proceeds to step S144.

ステップS144では、後処理部18Iが、危険運転であるか否かを判断する(ステップS144)。例えば、後処理部18Iは、ステップS110で特定した撮影画像Pの撮影タイミングと同じタイミングにおける、車両20の走行速度を示す速度情報が、該撮影画像Pから検知された速度標識30Aの表す速度規則情報によって示される速度を超えているか否かを判断する。これによって、後処理部18Iは、ステップS144の判断を行う。   In step S144, the post-processing unit 18I determines whether or not it is a dangerous driving (step S144). For example, the post-processing unit 18I indicates that the speed information indicating the traveling speed of the vehicle 20 at the same timing as the shooting timing of the captured image P specified in step S110 is represented by the speed rule 30A detected from the captured image P. Determine whether the speed indicated by the information is exceeded. Thereby, the post-processing unit 18I performs the determination in step S144.

ステップS144で否定判断すると(ステップS144:No)、ステップS150へ進む。一方、ステップS144で肯定判断すると(ステップS144:Yes)、ステップS145へ進む。   If a negative determination is made in step S144 (step S144: No), the process proceeds to step S150. On the other hand, if a positive determination is made in step S144 (step S144: Yes), the process proceeds to step S145.

ステップS145では、後処理部18Iは、危険運転情報を算出する(ステップS145)。次に、後処理部18Iは、ステップS110で特定した撮影画像Pの撮影位置を示す位置情報と、算出した危険運転情報と、速度標識30Aを示す検出対象物情報と、を含む付加情報を、地図データ15Aに登録する(ステップS146)。   In step S145, the post-processing unit 18I calculates dangerous driving information (step S145). Next, the post-processing unit 18I includes additional information including position information indicating the shooting position of the shot image P identified in step S110, calculated dangerous driving information, and detection target information indicating the speed indicator 30A. Registration in the map data 15A (step S146).

次に、後処理部18Iは、ステップS146で登録した危険運転情報と、撮影画像Pの撮影位置を示す位置情報と、車両20を運転するユーザのユーザIDと、を含む判定結果情報を、サーバ装置40へ送信する(ステップS148)。   Next, the post-processing unit 18I receives the determination result information including the dangerous driving information registered in step S146, the position information indicating the shooting position of the shot image P, and the user ID of the user who drives the vehicle 20, as a server. It transmits to the apparatus 40 (step S148).

次に、制御部18では、解析処理を終了するか否かを判断する(ステップS150)。例えば、制御部18では、UI部17から解析処理の終了を示す終了指示を受付けたか否かを判別することで、ステップS150の判断を行う。なお、制御部18は、情報処理装置10を搭載した情報処理装置10のエンジン停止を示す信号を車両制御部22から受付けたか否かを判別することで、ステップS150の判断を行ってもよい。   Next, the control unit 18 determines whether or not to end the analysis process (step S150). For example, the control unit 18 determines whether or not an end instruction indicating the end of the analysis process has been received from the UI unit 17, thereby determining step S <b> 150. Note that the control unit 18 may perform the determination in step S150 by determining whether or not the signal indicating the engine stop of the information processing apparatus 10 on which the information processing apparatus 10 is mounted is received from the vehicle control unit 22.

ステップS150で否定判断すると(ステップS150:No)、上記ステップS100へ戻る。一方、ステップS150で肯定判断すると(ステップS150:Yes)、本ルーチンを終了する。   If a negative determination is made in step S150 (step S150: No), the process returns to step S100. On the other hand, if an affirmative determination is made in step S150 (step S150: Yes), this routine ends.

このように、情報処理装置10は、撮影部12で撮影された全ての撮影画像Pの内、特定部18Gによって、走行状態情報に基づいて処理対象として特定された撮影画像Pについて、解析を行う。   As described above, the information processing apparatus 10 analyzes the captured image P specified as the processing target based on the traveling state information by the specifying unit 18G among all the captured images P captured by the capturing unit 12. .

このため、本実施の形態の情報処理装置10は、撮影画像Pに対する、解析速度の高速化を実現することができる。   For this reason, the information processing apparatus 10 according to the present embodiment can increase the analysis speed of the captured image P.

なお、走行状態情報に示される速度情報が、所定時間以上一定速度以上の速度を示す場合、ステップS126〜ステップS132の処理を省略してもよい。例えば、日本の道路Rの場合、時速80km以上で走行する道路には、信号機30Bが設置されていない可能性が高いためである(例えば、高速道路など)。同様に、走行状態情報に示される速度情報が、所定時間以上一定速度以上の速度を示す場合、一時停止を示す標識30Dの検出処理を省略してもよい。   In addition, when the speed information shown in the driving state information indicates a speed that is equal to or higher than a predetermined speed for a predetermined time or longer, the processes in steps S126 to S132 may be omitted. For example, in the case of a Japanese road R, there is a high possibility that the traffic light 30B is not installed on a road that travels at 80 km / h or more (for example, an expressway). Similarly, when the speed information indicated in the running state information indicates a speed that is equal to or higher than a certain speed for a predetermined time or more, the detection process of the sign 30D that indicates a temporary stop may be omitted.

また、走行状態情報に示される速度情報が、所定時間以上一定速度(例えば、時速20km〜30km)未満の速度を示す場合、ステップS142〜ステップS147の処理を省略してもよい。例えば、明らかな交通規則違反ではない速度(例えば、時速20km)を示す速度で走行中の場合、速度違反などの危険運転と判定される可能性が低いためである。   Further, when the speed information indicated in the running state information indicates a speed that is lower than a predetermined speed (for example, 20 km to 30 km per hour) for a predetermined time or longer, the processes in steps S142 to S147 may be omitted. For example, if the vehicle is traveling at a speed that does not violate an obvious traffic rule (for example, 20 km / h), it is unlikely that the vehicle is determined to be a dangerous driving such as a speed violation.

また、情報処理装置10を搭載した車両20の走行領域が予め定めた範囲である場合、該範囲内で検出される可能性のある検出対象物30の種類を、予め記憶部15に記憶しておいてもよい。そして、ステップS116およびステップS122の処理では、解析部18Hは、記憶部15に記憶した種類の検出対象物30を、撮影画像Pまたは撮影画像領域32から検出してもよい。   When the travel region of the vehicle 20 on which the information processing apparatus 10 is mounted is in a predetermined range, the type of the detection target 30 that may be detected within the range is stored in the storage unit 15 in advance. It may be left. In the processing of step S116 and step S122, the analysis unit 18H may detect the type of detection object 30 stored in the storage unit 15 from the captured image P or the captured image region 32.

次に、制御部18が行う割込み処理の手順を説明する。制御部18は、図12に示す解析処理の実行中に、図13および図14に示す割込み処理(地図データ更新処理、地図画像表示処理)を行う。   Next, an interrupt process procedure performed by the control unit 18 will be described. The control unit 18 performs interrupt processing (map data update processing, map image display processing) shown in FIGS. 13 and 14 during execution of the analysis processing shown in FIG.

図13は、地図データ更新処理の手順の一例を示すフローチャートである。   FIG. 13 is a flowchart illustrating an example of the procedure of the map data update process.

まず、受信部18Lが、サーバ装置40から、位置情報と検出対象物情報とを受信したか否かを判断する(ステップS400)。   First, the receiving unit 18L determines whether or not the position information and the detection target information are received from the server device 40 (step S400).

ステップS400で肯定判断すると(ステップS400:Yes)、ステップS402へ進む。ステップS402では、受信部18Lは、ステップS400で受信した、位置情報と検出対象物情報とを付加情報として、地図データ15Aへ登録する(ステップS402)。そして、本ルーチンを終了する。   If an affirmative determination is made in step S400 (step S400: Yes), the process proceeds to step S402. In step S402, the receiving unit 18L registers the position information and detection target information received in step S400 as additional information in the map data 15A (step S402). Then, this routine ends.

一方、ステップS400で否定判断すると(ステップS400:No)、ステップS404へ進む。ステップS404では、受信部18Lが、位置情報と危険運転情報とをサーバ装置40から受信したか否かを判断する(ステップS404)。ステップS404で肯定判断すると(ステップS404:Yes)、ステップS406へ進む。ステップS406では、ステップS404で受信した、位置情報と危険運転情報とを付加情報として地図データ15Aへ登録する(ステップS406)。そして、本ルーチンを終了する。一方、ステップS404で否定判断した場合も(ステップS404:No)、本ルーチンを終了する。   On the other hand, if a negative determination is made in step S400 (step S400: No), the process proceeds to step S404. In step S404, the receiving unit 18L determines whether position information and dangerous driving information are received from the server device 40 (step S404). If a positive determination is made in step S404 (step S404: Yes), the process proceeds to step S406. In step S406, the position information and dangerous driving information received in step S404 are registered in the map data 15A as additional information (step S406). Then, this routine ends. On the other hand, when a negative determination is made in step S404 (step S404: No), this routine is terminated.

次に、割込み処理の1つである、地図画像表示処理の手順の一例を説明する。図14は、地図画像表示処理の手順の一例を示すフローチャートである。まず、表示制御部18Kが、走行状態取得部18Bを介してGPSセンサ14から、車両20の現在の位置情報を取得する(ステップS300)。   Next, an example of the procedure of map image display processing, which is one of interrupt processing, will be described. FIG. 14 is a flowchart illustrating an example of the procedure of the map image display process. First, the display control unit 18K acquires the current position information of the vehicle 20 from the GPS sensor 14 via the traveling state acquisition unit 18B (step S300).

次に、表示制御部18Kは、地図データ15Aを記憶部15から読取る(ステップS302)。そして、表示制御部18Kは、ステップS300で取得した位置情報、および、該位置情報によって示される位置を含む予め定めた範囲内の位置情報の各々に対応する、付加情報を記憶部15から読取る(ステップS304)。付加情報は、上述したように、位置情報と、検出対象物30の検出対象物情報と、を含む。   Next, the display control unit 18K reads the map data 15A from the storage unit 15 (step S302). Then, the display control unit 18K reads additional information corresponding to each of the position information acquired in step S300 and the position information within a predetermined range including the position indicated by the position information from the storage unit 15 ( Step S304). As described above, the additional information includes the position information and the detection target information of the detection target 30.

表示制御部18Kは、ステップS302で読取った地図データ15Aの地図画像における、位置情報に対応する位置に、対応する付加情報に含まれる検出対象物30または危険運転情報を示す画像を重畳して、UI部17へ表示する(ステップS306)。このため、ユーザは、UI部17を視認することで、地図上の現在位置および現在位置の周辺に存在する、検出対象物30や危険運転の発生箇所を容易に確認することができる。   The display control unit 18K superimposes an image indicating the detection target 30 or dangerous driving information included in the corresponding additional information on the position corresponding to the position information in the map image of the map data 15A read in step S302, The information is displayed on the UI unit 17 (step S306). For this reason, by visually recognizing the UI unit 17, the user can easily confirm the current position on the map and the location where the detection target 30 or the dangerous driving occurs, which is present around the current position.

次に、制御部18は、本ルーチンを終了するか否かを判断する(ステップS308)。制御部18は、例えば、情報処理装置10のエンジン停止を示す停止信号を車両制御部22から受付けたか否かを判別することで、ステップS308の判断を行う。ステップS308で否定判断すると(ステップS308:No)、上記ステップS300へ戻る。一方、ステップS308で肯定判断すると(ステップS308:Yes)、本ルーチンを終了する。   Next, the control unit 18 determines whether or not to end this routine (step S308). For example, the control unit 18 determines whether or not the stop signal indicating the engine stop of the information processing apparatus 10 has been received from the vehicle control unit 22, thereby determining step S <b> 308. If a negative determination is made in step S308 (step S308: No), the process returns to step S300. On the other hand, if an affirmative determination is made in step S308 (step S308: Yes), this routine ends.

次に、サーバ装置40が実行する管理処理を説明する。図15は、サーバ装置40が実行する管理処理の手順の一例を示すフローチャートである。   Next, management processing executed by the server device 40 will be described. FIG. 15 is a flowchart illustrating an example of a procedure of management processing executed by the server device 40.

まず、通信部42が、情報処理装置10から検出結果情報を受信したか否かを判断する(ステップS500)。ステップS500で肯定判断すると(ステップS500:Yes)、ステップS502へ進む。   First, the communication unit 42 determines whether or not detection result information has been received from the information processing apparatus 10 (step S500). If an affirmative determination is made in step S500 (step S500: Yes), the process proceeds to step S502.

ステップS502では、更新部48が、ステップS500で受信した検出結果情報に含まれる、位置情報に対応する検出対象物情報に示される検出対象物30が検出済管理情報44Aに未登録であるか否かを判断する(ステップS502)。登録済であると判断した場合(ステップS502:No)、本ルーチンを終了する。一方、未登録であると判断した場合(ステップS502:Yes)、ステップS504へ進む。   In step S502, the update unit 48 determines whether or not the detection target 30 indicated in the detection target information corresponding to the position information included in the detection result information received in step S500 is unregistered in the detected management information 44A. Is determined (step S502). If it is determined that the registration has been completed (step S502: No), this routine ends. On the other hand, if it is determined that it is not registered (step S502: Yes), the process proceeds to step S504.

ステップS504では、更新部48が、ステップS500で受信した検出結果情報に含まれる、検出対象物情報および位置情報を対応づけて検出済管理情報44Aに登録する(ステップS504)。   In step S504, the update unit 48 registers the detected object information and the position information included in the detection result information received in step S500 in association with the detected management information 44A (step S504).

そして、更新部48は、検出済管理情報44Aに新たに登録した、位置情報に対応する検出対象物情報と、該検出対象物情報に対応する位置情報と、を、サーバ装置40が管理する全ての車両20の各々に搭載された情報処理装置10へ、通信部42を介して送信する(ステップS506)。そして、本ルーチンを終了する。   Then, the update unit 48 manages all the detection object information corresponding to the position information and the position information corresponding to the detection object information newly registered in the detected management information 44A, which is managed by the server device 40. The information is transmitted to the information processing apparatus 10 mounted on each of the vehicles 20 via the communication unit 42 (step S506). Then, this routine ends.

一方、ステップS500で否定判断すると(ステップS500:No)、ステップS508へ進む。ステップS508では、通信部42が、判定結果情報を情報処理装置10から受信したか否かを判断する。ステップS508で肯定判断すると(ステップS508:Yes)、ステップS510へ進む。   On the other hand, if a negative determination is made in step S500 (step S500: No), the process proceeds to step S508. In step S <b> 508, the communication unit 42 determines whether determination result information has been received from the information processing apparatus 10. If an affirmative determination is made in step S508 (step S508: Yes), the process proceeds to step S510.

ステップS510では、更新部48が、ステップS508で受信した判定結果情報に含まれる位置情報と、危険運転情報と、ユーザIDと、を対応づけて、記憶部44におけるユーザ管理情報44Bへ登録する(ステップS510)。   In step S510, the update unit 48 associates the position information, the dangerous driving information, and the user ID included in the determination result information received in step S508 and registers them in the user management information 44B in the storage unit 44 ( Step S510).

次に、更新部48は、ステップS510でユーザ管理情報44Bに新たに登録した、位置情報に対応する危険運転情報と、該危険運転情報に対応する位置情報と、を、サーバ装置40が管理する全ての車両20の各々に搭載された情報処理装置10へ、通信部42を介して送信する(ステップS512)。   Next, in the update unit 48, the server device 40 manages the dangerous driving information corresponding to the position information and the position information corresponding to the dangerous driving information newly registered in the user management information 44B in step S510. It transmits via the communication part 42 to the information processing apparatus 10 mounted in each of all the vehicles 20 (step S512).

次に、評価部46は、ユーザ管理情報44Bに登録されている危険運転情報を、対応するユーザIDごとに読取る。そして、評価部46は、ユーザIDによって識別されるユーザごとに、対応する危険運転情報からユーザの運転評価値を算出する(ステップS514)。   Next, the evaluation unit 46 reads the dangerous driving information registered in the user management information 44B for each corresponding user ID. Then, for each user identified by the user ID, the evaluation unit 46 calculates the user's driving evaluation value from the corresponding dangerous driving information (step S514).

次に、評価部46は、ステップS514で算出した運転評価値とユーザIDとを含む、運転評価結果を、通信部42を介して外部装置などへ送信する(ステップS516)。そして、本ルーチンを終了する。   Next, the evaluation unit 46 transmits the driving evaluation result including the driving evaluation value calculated in step S514 and the user ID to an external device or the like via the communication unit 42 (step S516). Then, this routine ends.

一方、ステップS508で否定判断すると(ステップS508:No)、ステップS518へ進む。ステップS518では、通信部42が、情報処理装置10から撮影画像Pおよび走行状態情報を受信したか否かを判別する(ステップS518)。なお、ステップS518では、撮影画像Pに代えて、撮影画像Pの撮影画像領域32を受信してもよい。   On the other hand, if a negative determination is made in step S508 (step S508: No), the process proceeds to step S518. In step S518, the communication unit 42 determines whether the captured image P and the running state information are received from the information processing apparatus 10 (step S518). In step S518, the captured image area 32 of the captured image P may be received instead of the captured image P.

ステップS518で否定判断すると(ステップS518:No)、本ルーチンを終了する。一方、ステップS518で肯定判断すると(ステップS518:Yes)、ステップS520へ進む。   If a negative determination is made in step S518 (step S518: No), this routine ends. On the other hand, if an affirmative determination is made in step S518 (step S518: Yes), the process proceeds to step S520.

ステップS520では、解析・後処理部49が、ステップS518で受信した撮影画像Pを処理対象として特定する特定処理を行う(ステップS520)。ステップS520の処理は、ステップS110(図12参照)と同様である。次に、解析・後処理部49が、ステップS110で特定した撮影画像P(または撮影画像領域32)について、解析処理を実行する(ステップS522)。ステップS522の処理は、ステップS116およびステップS122の処理と同様である(図12参照)。   In step S520, the analysis / post-processing unit 49 performs a specifying process for specifying the captured image P received in step S518 as a processing target (step S520). The process of step S520 is the same as that of step S110 (see FIG. 12). Next, the analysis / post-processing unit 49 performs an analysis process on the captured image P (or the captured image region 32) identified in step S110 (step S522). The process of step S522 is the same as the process of step S116 and step S122 (see FIG. 12).

次に、解析・後処理部49が登録・送信処理を実行する(ステップS524)。ステップS524の処理は、ステップS502〜ステップS506と同様である。次に、解析・後処理部49が後処理を実行する(ステップS526)。ステップS526の処理は、ステップS124〜ステップS146(なお、ステップS132およびステップS140の処理は行わない)と同様である。   Next, the analysis / post-processing unit 49 executes registration / transmission processing (step S524). The process of step S524 is the same as that of step S502 to step S506. Next, the analysis / post-processing unit 49 performs post-processing (step S526). The process of step S526 is the same as that of step S124 to step S146 (note that the processes of step S132 and step S140 are not performed).

次に、解析・後処理部49が、登録・評価・送信処理を実行する(ステップS528)。ステップS528の処理は、ステップS508〜ステップS516と同様である。そして、本ルーチンを終了する。   Next, the analysis / post-processing unit 49 executes registration / evaluation / transmission processing (step S528). The process of step S528 is the same as that of step S508 to step S516. Then, this routine ends.

なお、ステップS514〜ステップS516の処理は、所定期間ごと(例えば、数か月ごと等)に定期的におこなってもよい。   In addition, you may perform the process of step S514-step S516 regularly for every predetermined period (for example, every several months etc.).

なお、サーバ装置40では、ステップS502の処理を行わない形態であってもよい。この場合、ステップS500で肯定判断すると(ステップS500:Yes)、ステップS504へ進めばよい。そして、ステップS504では、更新部48は、ステップS500で受信した検出結果情報に含まれる位置情報に対応する検出対象物30として、同じ種類の検出対象物30が、予め定めた閾値以上の数、既に検出済管理情報44Aに登録されているか否かを判別する。そして、更新部48は、該閾値以上の数の検出対象物30が登録されている場合に、検出対象物30の検出信頼度が高いと判定する。そして、検出信頼度が高いと判定した場合に、ステップS504の処理およびステップS506の処理を行ってもよい。検出信頼度が高いとは、該位置情報によって示される撮影位置に、該検出対象物30が存在する確率が高いことを意味する。   The server device 40 may be configured not to perform the process of step S502. In this case, if an affirmative determination is made in step S500 (step S500: Yes), the process may proceed to step S504. In step S504, the update unit 48 determines that the detection object 30 of the same type as the detection object 30 corresponding to the position information included in the detection result information received in step S500 is equal to or greater than a predetermined threshold value. It is determined whether or not it is already registered in the detected management information 44A. And the update part 48 determines with the detection reliability of the detection target 30 being high, when the detection target 30 of the number more than this threshold value is registered. And when it determines with a detection reliability being high, you may perform the process of step S504 and the process of step S506. High detection reliability means that there is a high probability that the detection object 30 exists at the photographing position indicated by the position information.

この処理により、情報処理装置10によって誤って検出された検出対象物30の検出対象物情報を、他の情報処理装置10へ配信することを抑制することができる。   By this processing, it is possible to suppress the detection object information of the detection object 30 that is erroneously detected by the information processing apparatus 10 from being distributed to other information processing apparatuses 10.

また、更新部48が、検出信頼度が高い(ある閾値より高い)と判定した場合に、ステップS514の運転評価値の算出を行ってもよい。また、更新部48が、検出信頼度が低い(ある閾値より低い)と判定した場合には、評価部46は、ステップS514の処理において算出した運転評価値を、運転評価値が高く(評価が良く)なるように補正してもよい。   In addition, when the update unit 48 determines that the detection reliability is high (higher than a certain threshold), the driving evaluation value in step S514 may be calculated. When the update unit 48 determines that the detection reliability is low (lower than a certain threshold value), the evaluation unit 46 sets the driving evaluation value calculated in the process of step S514 to a high driving evaluation value (evaluation is low). You may correct | amend so that it may become.

また、評価部46は、ステップS514の処理において算出した運転評価値の評価値信頼度を算出してもよい。そして、評価部46は、評価値信頼度が予め定めた値より低い場合、ステップS514で算出した運転評価値を補正してもよい。なお、評価値信頼度は、例えば、下記式(2)から算出すればよい。   Further, the evaluation unit 46 may calculate the evaluation value reliability of the driving evaluation value calculated in the process of step S514. And the evaluation part 46 may correct | amend the driving | running evaluation value calculated by step S514, when evaluation value reliability is lower than a predetermined value. In addition, what is necessary is just to calculate evaluation value reliability from following formula (2), for example.

評価値信頼度=α×検出対象物30の検出信頼度の平均値+β×検出対象物30を検出した総回数 ・・・式(2)   Evaluation value reliability = α × average value of detection reliability of detection object 30 + β × total number of times detection object 30 is detected Formula (2)

式(2)中、αおよびβは、検出対象物30の検出信頼度の平均値、および検出対象物30を検出した総回数の何れを重視するかを定めるためのパラメータであり、予め設定すればよい。   In equation (2), α and β are parameters for determining which of the average value of the detection reliability of the detection target 30 and the total number of times of detection of the detection target 30 are to be emphasized, and are set in advance. That's fine.

なお、評価部46は、ステップS514の処理において算出した運転評価値の評価値信頼度が予め定めた値より低い場合には、該運転評価値に対応する項目については、同一のユーザの運転する車両20に搭載された情報処理装置10から受信した危険運転情報を追加して、運転評価値を再度算出してもよい。   In addition, when the evaluation value reliability of the driving evaluation value calculated in the process of step S514 is lower than a predetermined value, the evaluation unit 46 drives the same user for the item corresponding to the driving evaluation value. The driving evaluation value may be calculated again by adding dangerous driving information received from the information processing apparatus 10 mounted on the vehicle 20.

また、評価部46は、ステップS516で外部装置などへ運転評価結果を送信するときに、評価値信頼度が予め定めた値より低い項目については、非表示とすることを指示する情報を含む運転評価結果を送信してもよい。また、評価部46は、ステップS516で外部装置などへ運転評価結果を送信するときに、評価値信頼度が予め定めた値より低い項目については、評価値信頼度が低いことを示す情報を併せて表示することを指示する情報を含む、運転評価結果を送信してもよい。   In addition, when the evaluation unit 46 transmits the operation evaluation result to the external device or the like in step S516, the operation including information instructing to hide items whose evaluation value reliability is lower than a predetermined value. The evaluation result may be transmitted. In addition, when the evaluation unit 46 transmits the operation evaluation result to an external device or the like in step S516, for an item whose evaluation value reliability is lower than a predetermined value, information indicating that the evaluation value reliability is low is also added. The driving evaluation result including information instructing to be displayed may be transmitted.

以上説明したように、本実施の形態の情報処理装置10は、画像取得部18Aと、特定部18Gと、解析部18Hと、を備える。画像取得部18Aは、車両20(移動体)の周辺の撮影画像Pを取得する。特定部18Gは、撮影画像Pの撮影時の車両20(移動体)の走行状態を示す走行状態情報に基づいて、処理対象の撮影画像Pを特定する。解析部18Hは、処理対象として特定した撮影画像Pを解析する。   As described above, the information processing apparatus 10 according to the present embodiment includes the image acquisition unit 18A, the specification unit 18G, and the analysis unit 18H. The image acquisition unit 18A acquires a captured image P around the vehicle 20 (moving body). The specifying unit 18G specifies the captured image P to be processed based on the traveling state information indicating the traveling state of the vehicle 20 (moving body) at the time of capturing the captured image P. The analysis unit 18H analyzes the captured image P specified as the processing target.

このように、本実施の形態の情報処理装置10では、解析部18Hは、走行状態情報に応じて処理対象の撮影画像Pを特定し、特定した撮影画像Pを解析する。   As described above, in the information processing apparatus 10 according to the present embodiment, the analysis unit 18H identifies the captured image P to be processed according to the traveling state information, and analyzes the identified captured image P.

従って、本実施の形態の情報処理装置10では、移動体(車両20)で撮影された移動体周囲の複数の撮影画像Pに対する、解析速度の高速化を実現できる。   Therefore, in the information processing apparatus 10 according to the present embodiment, it is possible to increase the analysis speed for a plurality of captured images P around the moving body imaged by the moving body (vehicle 20).

なお、走行状態情報は、車両20(移動体)の移動速度を示す速度情報、車両20(移動体)の加速度を示す加速度情報、車両20(移動体)の位置を示す位置情報、車両20(移動体)がブレーキ操作に応じて減速したことを示すブレーキ操作情報、および、車両20(移動体)のステアリング角度を示す角度情報、の少なくとも1つを含むことが好ましい。   The traveling state information includes speed information indicating the moving speed of the vehicle 20 (moving body), acceleration information indicating the acceleration of the vehicle 20 (moving body), position information indicating the position of the vehicle 20 (moving body), and the vehicle 20 ( It is preferable to include at least one of brake operation information indicating that the moving body has decelerated in response to the brake operation and angle information indicating the steering angle of the vehicle 20 (moving body).

また、情報処理装置10は、設定部18C(第1の設定部)を備えることができる。設定部18C(第1の設定部)は、走行状態情報に応じて、時系列に撮影された複数の撮影画像Pから撮影画像Pを取得する取得間隔を設定する。特定部18Gは、時系列で連続して撮影された複数の撮影画像Pから、設定された取得間隔ごとの撮影画像Pを処理対象として特定することができる。   Further, the information processing apparatus 10 can include a setting unit 18C (first setting unit). The setting unit 18C (first setting unit) sets an acquisition interval for acquiring the photographed image P from the plurality of photographed images P photographed in time series according to the traveling state information. The specifying unit 18G can specify, as a processing target, a captured image P for each set acquisition interval from a plurality of captured images P captured continuously in time series.

また、設定部18C(第1の設定部)は、算出部18D(第1の算出部)を含むことができる。算出部18D(第1の算出部)は、走行状態情報に基づいて、走行状態の重み値Wとして、解析部18Hによる解析結果を用いた予め定めた後処理において重要度の高い走行状態であるほど高い重み値Wを算出する。そして、設定部18C(第1の設定部)は、重み値Wが予め定めた閾値より高いほど、より短い取得間隔を設定することが好ましい。   The setting unit 18C (first setting unit) can include a calculation unit 18D (first calculation unit). The calculation unit 18D (first calculation unit) is a travel state having a high degree of importance in a predetermined post-process using an analysis result by the analysis unit 18H as the weight value W of the travel state based on the travel state information. The higher the weight value W is calculated. The setting unit 18C (first setting unit) preferably sets a shorter acquisition interval as the weight value W is higher than a predetermined threshold.

また、特定部18Gは、走行状態情報に基づいて、処理対象として特定した撮影画像Pにおける一部の撮影画像領域32を更に特定してもよい。この場合、解析部18Hは、特定された撮影画像領域32を解析することによって、撮影画像Pを解析することが好ましい。   The specifying unit 18G may further specify a part of the captured image area 32 in the captured image P specified as the processing target based on the running state information. In this case, it is preferable that the analysis unit 18H analyzes the captured image P by analyzing the specified captured image region 32.

また、特定部18Gは、処理対象として特定した撮影画像Pにおける、走行状態情報に基づいた大きさおよび数の撮影画像領域32を特定することが好ましい。さらに、特定部18Gは、算出部18M(第3の算出部)を含むことが好ましい。算出部18Mは、走行状態情報に基づいて、走行状態の重み値Wとして、解析部18Hによる解析結果を用いた後処理における重要度の高い走行状態であるほど高い重み値Wを算出する。そして、特定部18Gは、重み値Wが予め定めた閾値より高いほど、より大きい撮影画像領域32、または、より多い数の撮影画像領域32を特定することが好ましい。   Further, it is preferable that the specifying unit 18G specifies the size and number of the captured image areas 32 based on the running state information in the captured image P specified as the processing target. Furthermore, the specifying unit 18G preferably includes a calculation unit 18M (third calculation unit). Based on the traveling state information, the calculating unit 18M calculates a higher weight value W as the traveling state weight value W, the higher the importance is in the traveling state in the post-processing using the analysis result by the analyzing unit 18H. The specifying unit 18G preferably specifies a larger captured image region 32 or a larger number of captured image regions 32 as the weight value W is higher than a predetermined threshold value.

また、情報処理装置10は、受付部18Fと、変更部18Eと、を備えることができる。受付部18Fは、車両20(移動体)を運転するユーザのユーザID(ユーザ識別情報)、該閾値の変更指示を示す指示情報、または、目標処理時間を示す処理時間情報、を含む受付情報を受付ける。変更部18Eは、受付情報に応じて該閾値を変更することができる。   Further, the information processing apparatus 10 can include a receiving unit 18F and a changing unit 18E. The reception unit 18F receives reception information including a user ID (user identification information) of a user driving the vehicle 20 (moving body), instruction information indicating an instruction to change the threshold, or processing time information indicating a target processing time. Accept. The changing unit 18E can change the threshold according to the reception information.

<変形例1>
なお、上記実施の形態では、特定部18Gは、画像取得部18Aで取得した、時系列で撮影された複数の撮影画像Pについて、走行状態情報に応じた取得間隔ごとの撮影画像Pを、処理対象として特定する形態を一例として説明した。
<Modification 1>
In the above-described embodiment, the specifying unit 18G processes the captured images P for each acquisition interval according to the driving state information for the plurality of captured images P captured in time series acquired by the image acquiring unit 18A. The form specified as the object has been described as an example.

しかし、特定部18Gは、走行状態情報に基づいて、処理対象の撮影画像Pを特定すればよく、走行状態情報に応じた取得間隔ごとの撮影画像Pを特定する形態に限定されない。   However, the specifying unit 18G only needs to specify the captured image P to be processed based on the traveling state information, and is not limited to the form of specifying the captured image P for each acquisition interval according to the traveling state information.

例えば、特定部18Gは、走行状態情報に応じて処理枚数の撮影画像Pを、処理対象として特定してもよい。   For example, the specifying unit 18G may specify the number of processed images P to be processed as a processing target according to the traveling state information.

この場合、設定部18C(第2の設定部)は、取得間隔に代えて、走行状態情報に応じた処理枚数を設定すればよい。そして、特定部18Gは、時系列で連続して撮影された複数の撮影画像Pから、設定された処理枚数の撮影画像Pを、処理対象として特定してもよい。   In this case, the setting unit 18C (second setting unit) may set the number of processed sheets according to the traveling state information instead of the acquisition interval. Then, the specifying unit 18G may specify the set number of processed images P as a processing target from a plurality of the captured images P continuously captured in time series.

この場合、設定部18Cは、例えば、以下の方法を用いて処理枚数を設定することが好ましい。例えば、設定部18Cの算出部18Dが、上記実施の形態と同様にして、走行状態情報に基づいて、走行状態の重み値Wを算出する。この重み値W、および重み値Wの算出方法は、上記実施の形態と同様である。   In this case, the setting unit 18C preferably sets the number of processed sheets using, for example, the following method. For example, the calculation unit 18D of the setting unit 18C calculates the weight value W of the traveling state based on the traveling state information in the same manner as in the above embodiment. The weight value W and the calculation method of the weight value W are the same as in the above embodiment.

そして、設定部18Cは、算出部18Dで算出した重み値Wが予め定めた閾値より高いほど、より多い処理枚数を設定すればよい。なお、重み値Wが閾値以下である場合、処理枚数は、予め定めた基準の処理枚数とすればよい。このため、重み値Wが閾値より高いほど、基準の処理枚数に対して、より多い数の処理枚数が設定される。   Then, the setting unit 18C may set a larger number of processed sheets as the weight value W calculated by the calculation unit 18D is higher than a predetermined threshold value. If the weight value W is less than or equal to the threshold value, the number of processed sheets may be a predetermined reference number of processed sheets. For this reason, as the weight value W is higher than the threshold value, a larger number of processed sheets is set with respect to the reference number of processed sheets.

このため、設定部18Cは、撮影画像Pの撮影タイミングにおける、車両20の走行状態が、後処理における重要度の高い走行状態を示すほど、より多い処理枚数を設定することとなる。   For this reason, the setting unit 18C sets a larger number of processed sheets as the traveling state of the vehicle 20 at the photographing timing of the captured image P indicates a traveling state having a higher importance in the post-processing.

なお、設定部18Cが処理枚数の設定に用いる閾値は、上記実施の形態と同様に、変更部18Eによって変更可能としてもよい。   Note that the threshold used by the setting unit 18C for setting the number of processed sheets may be changed by the changing unit 18E, as in the above embodiment.

このように、設定部18Cが、走行状態情報に応じた処理枚数を設定することで、特定部18Gは、走行状態に応じた処理枚数の撮影画像Pを、処理対象として特定することができる。   As described above, the setting unit 18C sets the number of processed images according to the traveling state information, so that the specifying unit 18G can specify the number of processed images P according to the traveling state as a processing target.

この場合、例えば、図5に示すように、画像取得部18Aが、時系列で撮影された複数の撮影画像P(撮影画像P〜撮影画像P)を、順次取得したとする。特定部18Gは、これらの複数の撮影画像P(撮影画像P〜撮影画像P)の内、設定された処理枚数(例えば3枚)の撮影画像P(撮影画像P〜撮影画像P)を、処理対象の撮影画像Pとして特定すればよい。 In this case, for example, as illustrated in FIG. 5, it is assumed that the image acquisition unit 18A sequentially acquires a plurality of captured images P (captured images P 1 to P n ) captured in time series. Specifying unit 18G, among these plurality of captured images P (photographed images P 1 ~ photographic image P n), taking the set number of processed sheets (e.g. three) images P (photographed images P 1 ~ photographed image P 3 ) May be specified as the captured image P to be processed.

このように、本変形例では、情報処理装置10は、設定部18C(第2の設定部)を備える。設定部18Cは、走行状態情報に応じて、処理枚数を設定する。そして、この場合、特定部18Gは、時系列で連続して撮影された複数の撮影画像Pから、設定された処理枚数の撮影画像Pを処理対象として特定することができる。   Thus, in this modification, the information processing apparatus 10 includes the setting unit 18C (second setting unit). The setting unit 18C sets the number of processed sheets according to the traveling state information. In this case, the specifying unit 18G can specify a set number of captured images P as a processing target from a plurality of captured images P that are continuously captured in time series.

このため、本変形例の情報処理装置10においても、上記実施の形態と同様の効果が得られる。   For this reason, also in the information processing apparatus 10 of this modification, the effect similar to the said embodiment is acquired.

また、設定部18C(第2の設定部)は、走行状態情報に基づいて、走行状態の重み値Wとして、解析部18Hによる解析結果を用いた後処理における重要度の高い走行状態であるほど高い重み値Wを算出する算出部18D(第2の算出部)を含むことができる。そして、設定部18C(第2の設定部)は、重み値Wが予め定めた閾値より高いほど、より多い処理枚数を設定することができる。   Further, the setting unit 18C (second setting unit) is a driving state having a higher importance in the post-processing using the analysis result by the analyzing unit 18H as the weight value W of the driving state based on the driving state information. A calculation unit 18D (second calculation unit) that calculates a high weight value W can be included. Then, the setting unit 18C (second setting unit) can set a larger number of processed sheets as the weight value W is higher than a predetermined threshold value.

<変形例2>
なお、上記実施の形態では、情報処理装置10を車両20に搭載した形態を説明した。しかし、情報処理装置10を、車両20とは別体として構成し、車両20に搭載しない形態であってもよい。
<Modification 2>
In the above embodiment, the configuration in which the information processing apparatus 10 is mounted on the vehicle 20 has been described. However, the information processing apparatus 10 may be configured separately from the vehicle 20 and not mounted on the vehicle 20.

この場合、車両20に搭載された撮影部12で撮影された複数の撮影画像Pと、各撮影画像Pの各々の撮影タイミングに対応する、撮影位置を示す位置情報、走行状態情報、および撮影タイミングを示すタイミング情報と、を対応づけた撮影画像群データを、公知の記憶媒体(例えば、メモリカードなど)や記憶部15に予め記憶すればよい。   In this case, a plurality of photographed images P photographed by the photographing unit 12 mounted on the vehicle 20, position information indicating the photographing position, traveling state information, and photographing timing corresponding to each photographing timing of each photographed image P. The captured image group data in which the timing information indicating is stored in advance may be stored in a known storage medium (for example, a memory card) or the storage unit 15 in advance.

そして、情報処理装置10では、該撮影画像群データに含まれる撮影画像Pの各々について、上記制御部18と同様にして解析処理を実行すればよい。   Then, the information processing apparatus 10 may perform analysis processing for each of the captured images P included in the captured image group data in the same manner as the control unit 18.

図16は、本変形例の情報処理装置10Aの機能的構成の一例を示すブロック図である。   FIG. 16 is a block diagram illustrating an example of a functional configuration of the information processing apparatus 10A according to the present modification.

情報処理装置10Aは、記憶部13と、UI部17と、制御部19と、を備える。記憶部13およびUI部17と、制御部19と、はデータや信号を授受可能に接続されている。   The information processing apparatus 10 </ b> A includes a storage unit 13, a UI unit 17, and a control unit 19. The storage unit 13 and the UI unit 17 are connected to the control unit 19 so as to be able to exchange data and signals.

記憶部13は、公知のハードディスクドライブであってもよいし、取り外しおよび携帯可能な公知の記憶媒体(メモリカードなど)であってもよい。本実施の形態では、記憶部13は、撮影画像群データ13Aを記憶する。   The storage unit 13 may be a known hard disk drive or a known storage medium (such as a memory card) that can be removed and carried. In the present embodiment, the storage unit 13 stores captured image group data 13A.

撮影画像群データ13Aは、撮影画像Pと、撮影画像Pの撮影タイミングを示す撮影タイミング情報と、撮影画像Pの撮影タイミングと同じタイミングにおける車両20の走行状態を示す走行状態情報と、を対応づけたものである。撮影画像群データ13Aは、時系列で撮影された複数の撮影画像Pを含む。   The photographed image group data 13A associates the photographed image P, the photographing timing information indicating the photographing timing of the photographed image P, and the traveling state information indicating the traveling state of the vehicle 20 at the same timing as the photographing timing of the photographed image P. It is a thing. The photographed image group data 13A includes a plurality of photographed images P photographed in time series.

制御部19は、画像取得部17Aと、走行状態取得部17Bと、設定部18Cと、算出部18Dと、変更部18Eと、受付部18Fと、特定部17Gと、解析部18Hと、送信部18Jと、算出部17Mと、後処理部18Iと、を備える。画像取得部17A、走行状態取得部17B、設定部18C、算出部18D、変更部18E、受付部18F、特定部17G、解析部18H、送信部18J、算出部17M、および後処理部18Iの一部またはすべては、例えば、CPUなどの処理装置にプログラムを実行させること、すなわち、ソフトウェアにより実現してもよいし、ICなどのハードウェアにより実現してもよいし、ソフトウェアおよびハードウェアを併用して実現してもよい。   The control unit 19 includes an image acquisition unit 17A, a traveling state acquisition unit 17B, a setting unit 18C, a calculation unit 18D, a change unit 18E, a reception unit 18F, a specification unit 17G, an analysis unit 18H, and a transmission unit. 18J, a calculation unit 17M, and a post-processing unit 18I. Image acquisition unit 17A, travel state acquisition unit 17B, setting unit 18C, calculation unit 18D, change unit 18E, reception unit 18F, identification unit 17G, analysis unit 18H, transmission unit 18J, calculation unit 17M, and post-processing unit 18I For example, the unit or all may cause a processing device such as a CPU to execute a program, that is, may be realized by software, may be realized by hardware such as an IC, or a combination of software and hardware. May be realized.

制御部19は、画像取得部18A、走行状態取得部18B、特定部18Gに代えて、画像取得部17A、走行状態取得部17B、特定部17Gの各々を備える。また、制御部19は、制御部18における受信部18Lおよび表示制御部18Kを備えない。この点以外は、制御部19は、制御部18と同様の構成である。   The control unit 19 includes an image acquisition unit 17A, a travel state acquisition unit 17B, and a specification unit 17G instead of the image acquisition unit 18A, the travel state acquisition unit 18B, and the specification unit 18G. The control unit 19 does not include the receiving unit 18L and the display control unit 18K in the control unit 18. Except for this point, the control unit 19 has the same configuration as the control unit 18.

画像取得部17Aは、車両20の周辺の撮影画像Pを取得する。本実施の形態では、画像取得部17Aは、記憶部13に記憶されている撮影画像群データ13Aから、撮影タイミング順に(例えば降順に)、順次、撮影画像Pを読取る。そして、画像取得部17Aは、読取った撮影画像Pを、順次、特定部17Gへ出力する。   The image acquisition unit 17A acquires a captured image P around the vehicle 20. In the present embodiment, the image acquisition unit 17A reads the captured images P sequentially from the captured image group data 13A stored in the storage unit 13 in the order of capturing timing (for example, in descending order). Then, the image acquisition unit 17A sequentially outputs the read captured images P to the specifying unit 17G.

すなわち、画像取得部17Aは、撮影部12に代えて、記憶部13の撮影画像群データ13Aから撮影画像Pを読取る以外は、上記実施の形態の画像取得部18Aと同様である。   That is, the image acquisition unit 17A is the same as the image acquisition unit 18A of the above embodiment except that the captured image P is read from the captured image group data 13A of the storage unit 13 instead of the capturing unit 12.

走行状態取得部17Bは、撮影画像Pの撮影時の車両20の走行状態を示す走行状態情報を取得する。詳細には、走行状態取得部17Bは、画像取得部17Aが取得する撮影画像Pの各々に対応する走行状態情報を、記憶部13の撮影画像群データ13Aから読取る。この読取りにより、走行状態取得部17Bは、走行状態情報を取得する。そして、走行状態取得部17Bは、取得した走行状態情報を、走行状態取得部17Bおよび設定部18Cへ出力する。   The traveling state acquisition unit 17B acquires traveling state information indicating the traveling state of the vehicle 20 when the captured image P is captured. Specifically, the traveling state acquisition unit 17B reads traveling state information corresponding to each of the captured images P acquired by the image acquisition unit 17A from the captured image group data 13A of the storage unit 13. By this reading, the traveling state acquisition unit 17B acquires traveling state information. Then, traveling state acquisition unit 17B outputs the acquired traveling state information to traveling state acquisition unit 17B and setting unit 18C.

すなわち、走行状態取得部17Bは、GPSセンサ14、16、車両制御部22(図3参照)に代えて、記憶部13の撮影画像群データ13Aから走行状態情報を読取る以外は、上記実施の形態の走行状態取得部18Bと同様である。   That is, the travel state acquisition unit 17B is the above embodiment except that the travel state information is read from the captured image group data 13A of the storage unit 13 instead of the GPS sensors 14 and 16 and the vehicle control unit 22 (see FIG. 3). This is the same as the traveling state acquisition unit 18B.

特定部17Gは、画像取得部17Aで取得した複数の撮影画像Pの内、処理対象の撮影画像Pを特定する。特定部17Gは、走行状態取得部17Bで取得した、各撮影画像Pの各々に対応する走行状態情報に基づいて、処理対象の撮影画像Pを特定する。なお、特定部17Gは、画像取得部18Aおよび走行状態取得部18Bに代えて、画像取得部17Aおよび走行状態取得部17Bの各々から撮影画像Pおよび走行状態情報を取得する以外は、上記実施の形態の特定部18Gと同様である。   The identifying unit 17G identifies the captured image P to be processed among the plurality of captured images P acquired by the image acquiring unit 17A. The identification unit 17G identifies the captured image P to be processed based on the traveling state information corresponding to each captured image P acquired by the traveling state acquisition unit 17B. The specifying unit 17G replaces the image acquisition unit 18A and the traveling state acquisition unit 18B with the exception of acquiring the captured image P and the traveling state information from each of the image acquisition unit 17A and the traveling state acquisition unit 17B. It is the same as the specific part 18G of the form.

このため、特定部17Gは、特定部18Gと同様にして、撮影画像Pを特定する。解析部18H、後処理部18I、および送信部18Jは、上記実施の形態の解析部18H、後処理部18I、および送信部18Jの各々と同様である。   For this reason, the specifying unit 17G specifies the captured image P in the same manner as the specifying unit 18G. The analysis unit 18H, the post-processing unit 18I, and the transmission unit 18J are the same as the analysis unit 18H, the post-processing unit 18I, and the transmission unit 18J of the above embodiment.

このように、情報処理装置10Aは、撮影画像群データ13Aから取得した撮影画像Pから、走行状態情報に基づいて、処理対象の撮影画像Pを特定してもよい。本変形例の情報処理装置10Aについても、上記実施の形態の情報処理装置10と同様の効果が得られる。   As described above, the information processing apparatus 10A may specify the processing target captured image P from the captured image P acquired from the captured image group data 13A based on the running state information. An effect similar to that of the information processing apparatus 10 of the above-described embodiment can be obtained for the information processing apparatus 10A of the present modification.

また、本変形例では、特定部17Gで特定した撮影画像Pを記憶部13から読み出して解析処理に用いればよいことから、記憶部13からのデータ読出し時間の短縮を図ることもできる。   Further, in this modification, since the captured image P specified by the specifying unit 17G may be read from the storage unit 13 and used for the analysis processing, the time for reading data from the storage unit 13 can be shortened.

次に、上記実施の形態および変形例の、情報処理装置10、情報処理装置10A、およびサーバ装置40のハードウェア構成を説明する。図17は、上記実施の形態および変形例の情報処理装置10、情報処理装置10A、およびサーバ装置40のハードウェア構成例を示すブロック図である。   Next, hardware configurations of the information processing apparatus 10, the information processing apparatus 10A, and the server apparatus 40 according to the above-described embodiments and modifications will be described. FIG. 17 is a block diagram illustrating a hardware configuration example of the information processing apparatus 10, the information processing apparatus 10 </ b> A, and the server apparatus 40 according to the embodiment and the modification.

上記実施の形態および変形例の、情報処理装置10、情報処理装置10A、およびサーバ装置40は、出力部80、I/F部82、入力部94、CPU86、ROM(Read Only Memory)88、RAM(Random Access Memory)90、およびHDD92等がバス96により相互に接続されており、通常のコンピュータを利用したハードウェア構成となっている。   The information processing apparatus 10, the information processing apparatus 10A, and the server apparatus 40 according to the above-described embodiment and modification examples include an output unit 80, an I / F unit 82, an input unit 94, a CPU 86, a ROM (Read Only Memory) 88, and a RAM. (Random Access Memory) 90, HDD 92, and the like are connected to each other by a bus 96 and have a hardware configuration using a normal computer.

CPU86は、上記実施の形態および変形例の、情報処理装置10、情報処理装置10A、およびサーバ装置40の各々で実行する処理を制御する演算装置である。RAM90は、CPU86による各種処理に必要なデータを記憶する。ROM88は、CPU86による各種処理を実現するプログラム等を記憶する。HDD92は、上述した記憶部15、記憶部44、記憶部13、に格納されるデータを記憶する。I/F部82は、他の装置との間でデータを送受信するためのインターフェースである。出力部80は、上述したUI部17の表示機能に相当する。入力部94は、上述したUI部17の入力機能に相当する。   The CPU 86 is an arithmetic device that controls processing executed by each of the information processing apparatus 10, the information processing apparatus 10 </ b> A, and the server apparatus 40 according to the above-described embodiments and modifications. The RAM 90 stores data necessary for various processes by the CPU 86. The ROM 88 stores a program for realizing various processes by the CPU 86 and the like. The HDD 92 stores data stored in the storage unit 15, the storage unit 44, and the storage unit 13 described above. The I / F unit 82 is an interface for transmitting and receiving data to and from other devices. The output unit 80 corresponds to the display function of the UI unit 17 described above. The input unit 94 corresponds to the input function of the UI unit 17 described above.

上記実施の形態および変形例の、情報処理装置10、情報処理装置10A、およびサーバ装置40で実行される上記各種処理を実行するためのプログラムは、ROM88等に予め組み込んで提供される。   Programs for executing the various processes executed by the information processing apparatus 10, the information processing apparatus 10A, and the server apparatus 40 according to the above-described embodiment and modification are provided by being incorporated in advance in the ROM 88 or the like.

なお、上記実施の形態および変形例の、情報処理装置10、情報処理装置10A、およびサーバ装置40で実行されるプログラムは、これらの装置にインストール可能な形式又は実行可能な形式のファイルでCD−ROM、フレキシブルディスク(FD)、CD−R、DVD(Digital Versatile Disk)等のコンピュータで読み取り可能な記録媒体に記録されて提供するように構成してもよい。   Note that the programs executed by the information processing apparatus 10, the information processing apparatus 10A, and the server apparatus 40 in the above-described embodiments and modifications are files in a format that can be installed in these apparatuses or in an executable format, and are CD- You may comprise so that it may record and provide on computer-readable recording media, such as ROM, a flexible disk (FD), CD-R, DVD (Digital Versatile Disk).

また、上記実施の形態および変形例の、情報処理装置10、情報処理装置10A、およびサーバ装置40で実行されるプログラムを、インターネット等のネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせることにより提供するように構成してもよい。また、上記実施の形態および変形例の、情報処理装置10、解析装置10A、およびサーバ装置40における上記各処理を実行するためのプログラムを、インターネット等のネットワーク経由で提供または配布するように構成してもよい。   Further, the programs executed by the information processing apparatus 10, the information processing apparatus 10A, and the server apparatus 40 according to the above-described embodiments and modifications are stored on a computer connected to a network such as the Internet and downloaded via the network. You may comprise so that it may provide. In addition, the program for executing the above-described processes in the information processing apparatus 10, the analysis apparatus 10A, and the server apparatus 40 according to the embodiment and the modification is configured to be provided or distributed via a network such as the Internet. May be.

上記実施の形態および変形例の、情報処理装置10、情報処理装置10A、およびサーバ装置40で実行される上記各種処理を実行するためのプログラムは、上述した各部が主記憶装置上に生成されるようになっている。   In the program for executing the various processes executed by the information processing device 10, the information processing device 10A, and the server device 40 in the embodiment and the modification, the above-described units are generated on the main storage device. It is like that.

なお、上記HDD92に格納されている各種情報は、外部装置に格納してもよい。この場合には、該外部装置とCPU86と、を、ネットワーク等を介して接続した構成とすればよい。   Various information stored in the HDD 92 may be stored in an external device. In this case, the external device and the CPU 86 may be connected via a network or the like.

なお、上記には、本発明の実施の形態および変形例を説明したが、上記実施の形態および変形例は、例として提示したものであり、発明の範囲を限定することは意図していない。この新規な実施の形態および変形例は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。この実施の形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。   Although the embodiment and the modification of the present invention have been described above, the embodiment and the modification are presented as examples, and are not intended to limit the scope of the invention. The novel embodiments and modifications can be implemented in various other forms, and various omissions, replacements, and changes can be made without departing from the spirit of the invention. This embodiment and its modifications are included in the scope and gist of the invention, and are included in the invention described in the claims and the equivalents thereof.

1 情報処理システム
10、10A 情報処理装置
18A 画像取得部
18B 走行状態取得部
18C 設定部
18D 算出部
18E 変更部
18F 受付部
18G 特定部
18H 解析部
18I 後処理部
18J 送信部
18M 算出部
18L 受信部
40 サーバ装置
DESCRIPTION OF SYMBOLS 1 Information processing system 10, 10A Information processing apparatus 18A Image acquisition part 18B Traveling state acquisition part 18C Setting part 18D Calculation part 18E Change part 18F Reception part 18G Identification part 18H Analysis part 18I Post-processing part 18J Transmission part 18M Calculation part 18L Reception part 40 Server device

特開2007−047914号公報JP 2007-047914 A

Claims (12)

移動体の周辺の撮影画像を取得する画像取得部と、
前記撮影画像の撮影時の前記移動体の走行状態を示す走行状態情報に基づいて、処理対象の前記撮影画像を特定する特定部と、
処理対象として特定した前記撮影画像を解析する解析部と、
を備える、情報処理装置。
An image acquisition unit for acquiring a captured image around the moving object;
A specifying unit for specifying the captured image to be processed based on traveling state information indicating a traveling state of the moving body at the time of capturing the captured image;
An analysis unit for analyzing the captured image specified as a processing target;
An information processing apparatus comprising:
前記走行状態情報は、前記移動体の移動速度を示す速度情報、前記移動体の加速度を示す加速度情報、前記移動体の位置を示す位置情報、前記移動体がブレーキ操作に応じて減速したことを示すブレーキ操作情報、および、前記移動体のステアリング角度を示す角度情報、の少なくとも1つを含む、請求項1に記載の情報処理装置。   The traveling state information includes speed information indicating the moving speed of the moving body, acceleration information indicating the acceleration of the moving body, position information indicating the position of the moving body, and that the moving body has decelerated in response to a brake operation. The information processing apparatus according to claim 1, comprising at least one of brake operation information to be displayed and angle information to indicate a steering angle of the moving body. 前記走行状態情報に応じて、時系列に撮影された複数の前記撮影画像から前記撮影画像を取得する取得間隔を設定する第1の設定部を備え、
前記特定部は、
時系列で連続して撮影された複数の前記撮影画像から、設定された前記取得間隔ごとの前記撮影画像を処理対象として特定する、請求項1または請求項2に記載の情報処理装置。
A first setting unit that sets an acquisition interval for acquiring the captured image from the plurality of captured images captured in time series according to the running state information;
The specific part is:
The information processing apparatus according to claim 1 or 2, wherein the photographed image at each set acquisition interval is specified as a processing target from the plurality of photographed images continuously photographed in time series.
前記第1の設定部は、
前記走行状態情報に基づいて、前記走行状態の重み値として、前記解析部による解析結果を用いた予め定めた後処理において重要度の高い前記走行状態であるほど高い前記重み値を算出する第1の算出部を含み、
前記重み値が予め定めた閾値より高いほど、より短い前記取得間隔を設定する、請求項3に記載の情報処理装置。
The first setting unit includes:
Based on the travel state information, a first weight value that is higher as the travel state is more important in a predetermined post-process using a result of analysis by the analysis unit as a weight value of the travel state is calculated. Including the calculation part of
The information processing apparatus according to claim 3, wherein the acquisition interval is set shorter as the weight value is higher than a predetermined threshold.
前記走行状態情報に応じて、処理枚数を設定する第2の設定部を備え、
前記特定部は、
時系列で連続して撮影された複数の前記撮影画像から、設定された前記処理枚数の前記撮影画像を処理対象として特定する、請求項1または請求項2に記載の情報処理装置。
A second setting unit for setting the number of processed sheets according to the running state information;
The specific part is:
The information processing apparatus according to claim 1, wherein the set number of the captured images is specified as a processing target from a plurality of the captured images continuously captured in time series.
前記第2の設定部は、
前記走行状態情報に基づいて、前記走行状態の重み値として、前記解析部による解析結果を用いた後処理における重要度の高い前記走行状態であるほど高い前記重み値を算出する第2の算出部を含み、
前記重み値が予め定めた閾値より高いほど、より多い前記処理枚数を設定する、請求項5に記載の情報処理装置。
The second setting unit includes:
Based on the running state information, a second calculating unit that calculates the weight value that is higher as the running state is more important in post-processing using the analysis result of the analyzing unit as the weight value of the running state Including
The information processing apparatus according to claim 5, wherein a larger number of the processed sheets is set as the weight value is higher than a predetermined threshold value.
前記特定部は、
前記走行状態情報に基づいて、処理対象として特定した前記撮影画像における一部の撮影画像領域を更に特定し、
前記解析部は、特定された前記撮影画像領域を解析することによって、前記撮影画像を解析する、請求項1〜請求項6の何れか1項に記載の情報処理装置。
The specific part is:
Based on the running state information, further specify a part of the captured image area in the captured image specified as a processing target,
The information processing apparatus according to claim 1, wherein the analysis unit analyzes the captured image by analyzing the specified captured image region.
前記特定部は、
処理対象として特定した前記撮影画像における、前記走行状態情報に基づいた大きさおよび数の前記撮影画像領域を特定する、請求項7に記載の情報処理装置。
The specific part is:
The information processing apparatus according to claim 7, wherein the captured image area having a size and a number based on the running state information in the captured image specified as a processing target is specified.
前記特定部は、
前記走行状態情報に基づいて、前記走行状態の重み値として、前記解析部による解析結果を用いた後処理における重要度の高い前記走行状態であるほど高い前記重み値を算出する第3の算出部を含み、
前記重み値が予め定めた閾値より高いほど、より大きい前記撮影画像領域、または、より多い数の前記撮影画像領域を特定する、請求項8に記載の情報処理装置。
The specific part is:
A third calculation unit that calculates the weight value that is higher as the travel state is more important in the post-processing using the analysis result by the analysis unit as the weight value of the travel state based on the travel state information Including
The information processing apparatus according to claim 8, wherein the higher the weight value is than a predetermined threshold, the larger the captured image area or the larger number of the captured image areas are specified.
前記移動体を運転するユーザのユーザ識別情報、前記閾値の変更指示を示す指示情報、または、目標処理時間を示す処理時間情報、を含む受付情報を受付ける受付部と、
前記受付情報に応じて前記閾値を変更する変更部と、
を備える、請求項4、請求項6、および請求項9の何れか1項に記載の情報処理装置。
A reception unit that receives reception information including user identification information of a user who drives the mobile body, instruction information indicating an instruction to change the threshold, or processing time information indicating a target processing time;
A changing unit that changes the threshold according to the reception information;
An information processing apparatus according to any one of claims 4, 6, and 9.
情報処理装置と、情報処理装置と通信するサーバ装置と、を備える情報処理システムであって、
前記情報処理装置は、
移動体の周辺の撮影画像を取得する画像取得部と、
前記撮影画像の撮影時の前記移動体の走行状態を示す走行状態情報に基づいて、処理対象の前記撮影画像を特定する特定部と、
処理対象として特定した前記撮影画像を前記サーバ装置へ送信する送信部と、
処理対象として特定した前記撮影画像を解析する解析部と、
を備える、情報処理システム。
An information processing system comprising an information processing device and a server device that communicates with the information processing device,
The information processing apparatus includes:
An image acquisition unit for acquiring a captured image around the moving object;
A specifying unit for specifying the captured image to be processed based on traveling state information indicating a traveling state of the moving body at the time of capturing the captured image;
A transmission unit that transmits the captured image specified as the processing target to the server device;
An analysis unit for analyzing the captured image specified as a processing target;
An information processing system comprising:
移動体の周辺の撮影画像を取得するステップと、
前記撮影画像の撮影時の前記移動体の走行状態を示す走行状態情報に基づいて、処理対象の前記撮影画像を特定するステップと、
処理対象として特定した前記撮影画像を解析するステップと、
をコンピュータに実行させるための情報処理プログラム。
Obtaining a captured image of the periphery of the moving object;
Identifying the captured image to be processed based on traveling state information indicating a traveling state of the moving body at the time of capturing the captured image;
Analyzing the captured image identified as a processing target;
Processing program for causing a computer to execute.
JP2015247934A 2015-12-18 2015-12-18 Information processing apparatus, information processing system, and information processing program Expired - Fee Related JP6665521B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015247934A JP6665521B2 (en) 2015-12-18 2015-12-18 Information processing apparatus, information processing system, and information processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015247934A JP6665521B2 (en) 2015-12-18 2015-12-18 Information processing apparatus, information processing system, and information processing program

Publications (2)

Publication Number Publication Date
JP2017111762A true JP2017111762A (en) 2017-06-22
JP6665521B2 JP6665521B2 (en) 2020-03-13

Family

ID=59080267

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015247934A Expired - Fee Related JP6665521B2 (en) 2015-12-18 2015-12-18 Information processing apparatus, information processing system, and information processing program

Country Status (1)

Country Link
JP (1) JP6665521B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022012553A (en) * 2020-07-01 2022-01-17 トヨタ自動車株式会社 Information processing method, program, on-vehicle device, vehicle, information processing device and information processing system
WO2023162281A1 (en) * 2022-02-28 2023-08-31 パイオニア株式会社 Information processing device

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006322797A (en) * 2005-05-18 2006-11-30 Olympus Corp Apparatus, method, and program for processing image
JP2007172035A (en) * 2005-12-19 2007-07-05 Fujitsu Ten Ltd Onboard image recognition device, onboard imaging device, onboard imaging controller, warning processor, image recognition method, imaging method and imaging control method
WO2013108371A1 (en) * 2012-01-17 2013-07-25 パイオニア株式会社 Image processing apparatus, image processing server, image processing method, image processing program, and recording medium

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006322797A (en) * 2005-05-18 2006-11-30 Olympus Corp Apparatus, method, and program for processing image
JP2007172035A (en) * 2005-12-19 2007-07-05 Fujitsu Ten Ltd Onboard image recognition device, onboard imaging device, onboard imaging controller, warning processor, image recognition method, imaging method and imaging control method
WO2013108371A1 (en) * 2012-01-17 2013-07-25 パイオニア株式会社 Image processing apparatus, image processing server, image processing method, image processing program, and recording medium

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022012553A (en) * 2020-07-01 2022-01-17 トヨタ自動車株式会社 Information processing method, program, on-vehicle device, vehicle, information processing device and information processing system
JP7351805B2 (en) 2020-07-01 2023-09-27 トヨタ自動車株式会社 Information processing method, program, in-vehicle device, and vehicle
WO2023162281A1 (en) * 2022-02-28 2023-08-31 パイオニア株式会社 Information processing device

Also Published As

Publication number Publication date
JP6665521B2 (en) 2020-03-13

Similar Documents

Publication Publication Date Title
US20100110193A1 (en) Lane recognition device, vehicle, lane recognition method, and lane recognition program
JP6802035B2 (en) Image processing device, warning device, image processing system, image processing method
JP6109593B2 (en) Risk information processing method, apparatus and system, and program
US10303960B2 (en) Image processing device, alarming apparatus, image processing system, and image processing method
JP6368651B2 (en) Driving environment recognition system
JP6445024B2 (en) Traffic sign recognition method and apparatus
JP5471310B2 (en) Operation analysis system
JP5561064B2 (en) Vehicle object recognition device
JP2014154005A (en) Danger information provision method, device, and program
JP2005316607A (en) Image processor and image processing method
CN110879845B (en) Method, non-transitory computer readable medium and data structure for generating log data
JP2005322166A (en) Traffic lane recognition device
JP2015203992A (en) Lane mark recognition device
JP6665521B2 (en) Information processing apparatus, information processing system, and information processing program
JP2016130979A (en) Detection device, detection processing program, and detection system
JP6665522B2 (en) Information processing apparatus, information processing system, and information processing program
US10916018B2 (en) Camera motion estimation device, camera motion estimation method, and computer program product
CN113841188A (en) Traffic flow estimation device, traffic flow estimation method, traffic flow estimation program, and storage medium storing traffic flow estimation program
JP7398257B2 (en) Road marking recognition device
CN107452230B (en) Obstacle detection method and device, terminal equipment and storage medium
JP6998237B2 (en) Server device, image collection method, and image acquisition system
JP2017162193A (en) Flight-type information reading device, unmanned flying object, flight-type information reading system and flight-type information reading method
JP2015219212A (en) Stereoscopic camera device and distance calculation method
CN114746915A (en) Signal machine identification method and signal machine identification device
JP2018096935A (en) Own vehicle position estimation device, program, recording medium, and own vehicle position estimation method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181108

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190925

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191001

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191115

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200121

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200203

R151 Written notification of patent or utility model registration

Ref document number: 6665521

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees