JP2021124794A - Information processing device, information processing method and information processing program - Google Patents

Information processing device, information processing method and information processing program Download PDF

Info

Publication number
JP2021124794A
JP2021124794A JP2020015871A JP2020015871A JP2021124794A JP 2021124794 A JP2021124794 A JP 2021124794A JP 2020015871 A JP2020015871 A JP 2020015871A JP 2020015871 A JP2020015871 A JP 2020015871A JP 2021124794 A JP2021124794 A JP 2021124794A
Authority
JP
Japan
Prior art keywords
warning target
progress
unit
information processing
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020015871A
Other languages
Japanese (ja)
Other versions
JP7041700B2 (en
Inventor
聖隆 ▲齋▼藤
聖隆 ▲齋▼藤
Kiyotaka Saito
雄毅 田口
Yuki Taguchi
雄毅 田口
多加志 岩▲崎▼
Takashi Iwasaki
多加志 岩▲崎▼
育郎 芥川
Ikuro Akutagawa
育郎 芥川
美帆 阿南
Miho ANAN
美帆 阿南
証 宮田
Akashi Miyata
証 宮田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yahoo Japan Corp
Original Assignee
Yahoo Japan Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yahoo Japan Corp filed Critical Yahoo Japan Corp
Priority to JP2020015871A priority Critical patent/JP7041700B2/en
Publication of JP2021124794A publication Critical patent/JP2021124794A/en
Application granted granted Critical
Publication of JP7041700B2 publication Critical patent/JP7041700B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Traffic Control Systems (AREA)
  • Time Recorders, Dirve Recorders, Access Control (AREA)
  • Alarm Systems (AREA)

Abstract

To discover various caution objects in the travel of a mobile and to share information.SOLUTION: An information processing device mounted on a mobile comprises: an imaging unit for imaging a caution object in the travel of the mobile during the travel of the mobile; a creation unit for creating data relating to the caution object in the travel of the mobile in response to an operation which is performed by a user after confirming the image of the caution object in the travel of the mobile; and a transmission unit for transmitting, to the outside, the data relating to the caution object in the travel of the mobile. The information processing device further comprises: a reception unit which receives, from the outside, data relating to a caution object in the travel of the mobile other than the data transmitted by the device per se; a confirmation unit for confirming the place where the caution object in the travel of the mobile exists, on the basis of the data relating to the caution object in the travel of the mobile; and a warning unit which issues a warning before the place where the caution object in the travel of the mobile exists.SELECTED DRAWING: Figure 1

Description

本発明は、情報処理装置、情報処理方法および情報処理プログラムに関する。 The present invention relates to an information processing device, an information processing method, and an information processing program.

車両が移動式の速度違反自動取締装置(以下、取締装置)に接近した場合に警報する技術が開示されている。 A technology for warning when a vehicle approaches a mobile speed-violation automatic control device (hereinafter referred to as a control device) is disclosed.

特許第6100466号公報Japanese Patent No. 6100466

しかしながら、上記の従来技術は、車両走行中に取締装置から発せられる速度探知波を検出した際の位置情報に基づいて警報を発するというものに過ぎない。上記の従来技術では、速度探知波を検出するため、一般的に利用者が所有していないレーダ探知機が必要となる。また、上記の従来技術では、取締装置以外の車両走行上の警戒対象(冠水・凍結路面、陥没・崩落箇所、落下物、事故現場等)を発見することはできない。 However, the above-mentioned conventional technique merely issues an alarm based on the position information when the speed detection wave emitted from the control device is detected while the vehicle is running. In the above-mentioned conventional technique, a radar detector that is not owned by the user is generally required in order to detect the speed detection wave. In addition, with the above-mentioned conventional technology, it is not possible to find a warning target (flooded / frozen road surface, depressed / collapsed part, falling object, accident site, etc.) when the vehicle is running other than the control device.

本願は、上記に鑑みてなされたものであって、移動体進行上の様々な警戒対象を発見して情報共有することを目的とする。 The present application has been made in view of the above, and an object of the present application is to discover and share information on various warning targets in the progress of a moving body.

本願に係る情報処理装置は、移動体に搭載された情報処理装置であって、前記移動体の進行中に移動体進行上の警戒対象を撮影する撮影部と、利用者が前記移動体進行上の警戒対象の画像を確認した上で行った操作に応じて、前記移動体進行上の警戒対象に関するデータを作成する作成部と、前記移動体進行上の警戒対象に関するデータを外部に送信する送信部とを備えることを特徴とする。 The information processing device according to the present application is an information processing device mounted on a mobile body, and includes a photographing unit that captures a warning target on the progress of the moving body while the moving body is in progress, and a user on the moving body progressing. In response to the operation performed after confirming the image of the warning target in It is characterized by having a part.

実施形態の一態様によれば、移動体進行上の様々な警戒対象を発見して情報共有することができる。 According to one aspect of the embodiment, it is possible to discover and share information on various warning targets in the progress of the moving body.

図1は、実施形態に係る情報処理方法の概要を示す説明図である。FIG. 1 is an explanatory diagram showing an outline of an information processing method according to an embodiment. 図2は、実施形態に係る情報処理システムの構成例を示す図である。FIG. 2 is a diagram showing a configuration example of an information processing system according to an embodiment. 図3は、実施形態に係る端末装置の構成例を示す図である。FIG. 3 is a diagram showing a configuration example of the terminal device according to the embodiment. 図4は、実施形態に係る情報処理装置の構成例を示す図である。FIG. 4 is a diagram showing a configuration example of the information processing device according to the embodiment. 図5は、利用者データベースの一例を示す図である。FIG. 5 is a diagram showing an example of a user database. 図6は、警戒対象データベースの一例を示す図である。FIG. 6 is a diagram showing an example of a caution target database. 図7Aは、端末装置による警戒対象の発見に関する処理手順を示すフローチャートである。FIG. 7A is a flowchart showing a processing procedure for finding a warning target by the terminal device. 図7Bは、端末装置による警報に関する処理手順を示すフローチャートである。FIG. 7B is a flowchart showing a processing procedure related to an alarm by the terminal device. 図8は、情報処理装置による処理手順を示すフローチャートである。FIG. 8 is a flowchart showing a processing procedure by the information processing apparatus. 図9は、ハードウェア構成の一例を示す図である。FIG. 9 is a diagram showing an example of a hardware configuration.

以下に、本願に係る情報処理装置、情報処理方法、および情報処理プログラムを実施するための形態(以下、「実施形態」と記載する)について図面を参照しつつ詳細に説明する。なお、この実施形態により本願に係る情報処理装置、情報処理方法、および情報処理プログラムが限定されるものではない。また、以下の実施形態において同一の部位には同一の符号を付し、重複する説明は省略される。 Hereinafter, the information processing apparatus according to the present application, the information processing method, and a mode for carrying out the information processing program (hereinafter, referred to as “the embodiment”) will be described in detail with reference to the drawings. The information processing apparatus, information processing method, and information processing program according to the present application are not limited by this embodiment. Further, in the following embodiments, the same parts are designated by the same reference numerals, and duplicate description is omitted.

〔1.情報処理方法の概要〕
まず、図1を参照し、実施形態に係る情報処理装置が行う情報処理方法の概要について説明する。図1は、実施形態に係る情報処理方法の概要を示す説明図である。なお、図1では、ドライブレコーダ等により走行中に撮像した画像から車両走行上の警戒対象を発見し、発見された警戒対象を利用者が確認した上で、その警戒対象に関する情報を利用者間で情報共有する場合を例に挙げて説明する。
[1. Information processing method overview]
First, with reference to FIG. 1, an outline of an information processing method performed by the information processing apparatus according to the embodiment will be described. FIG. 1 is an explanatory diagram showing an outline of an information processing method according to an embodiment. In addition, in FIG. 1, a warning target for vehicle driving is discovered from an image captured while driving by a drive recorder or the like, and after the user confirms the found warning target, information on the warning target is transmitted between users. The case of sharing information will be described as an example.

図1に示すように、情報処理システム1は、端末装置10と情報処理装置100とを含む。端末装置10と情報処理装置100とは、それぞれネットワークN(図2参照)を介して有線または無線で互いに通信可能に接続される。 As shown in FIG. 1, the information processing system 1 includes a terminal device 10 and an information processing device 100. The terminal device 10 and the information processing device 100 are connected to each other via a network N (see FIG. 2) so as to be able to communicate with each other by wire or wirelessly.

端末装置10は、利用者Uにより利用されるスマートフォン等の情報処理装置であり、ナビゲーション用のアプリケーション(以下、アプリ)を起動し、API(Application Programming Interface)を経由してプログラムの機能やデータ等を情報処理装置100から呼び出して利用する。 The terminal device 10 is an information processing device such as a smartphone used by the user U, activates a navigation application (hereinafter referred to as an application), and performs a program function, data, etc. via an API (Application Programming Interface). Is called from the information processing device 100 and used.

ここでは、ナビゲーション用のアプリとして、カーナビアプリを例に説明する。なお、ナビゲーション用のアプリは、地図アプリであってもよい。例えば、地図アプリに、ナビゲーション機能が搭載されていることもある。 Here, a car navigation application will be described as an example as a navigation application. The navigation application may be a map application. For example, a map app may have a navigation function.

情報処理装置100は、各利用者Uの端末装置10に対して、各種アプリ等に対するAPIサービス等と、各種データを提供する情報処理装置である。例えば、情報処理装置100は、利用者Uの端末装置10上で動作するカーナビアプリに、地図表示、店舗・施設検索、ルート検索、POI(Point Of Interest)検索等の機能を提供する。 The information processing device 100 is an information processing device that provides API services and the like for various applications and the like and various data to the terminal device 10 of each user U. For example, the information processing device 100 provides a car navigation application running on the terminal device 10 of the user U with functions such as map display, store / facility search, route search, and POI (Point Of Interest) search.

利用者Uは、端末装置10とともに車両Cに乗り込み、端末装置10上でカーナビアプリを起動して、車両Cを運転する。なお、利用者Uは、車両Cの同乗者であってもよい。例えば、利用者Uは、他人に車両Cの運転を代行・交代してもらった場合、助手席等に座っていてもよい。 The user U gets into the vehicle C together with the terminal device 10, activates the car navigation application on the terminal device 10, and drives the vehicle C. The user U may be a passenger of the vehicle C. For example, the user U may be seated in the passenger seat or the like when another person takes over or takes over the driving of the vehicle C.

本実施形態では、カーナビアプリには、ドライブレコーダ機能が搭載されている。端末装置10は、このカーナビアプリを起動し、ドライブレコーダ機能により、車両Cの走行中に車両Cの前方(進行方向)の路上や路肩等を撮影する。ドライブレコーダ機能は、簡易的なものでもよい。 In the present embodiment, the car navigation application is equipped with a drive recorder function. The terminal device 10 activates this car navigation application, and uses the drive recorder function to photograph the road surface, the road shoulder, and the like in front of the vehicle C (in the direction of travel) while the vehicle C is traveling. The drive recorder function may be a simple one.

例えば、利用者Uの端末装置10は、カーナビアプリのドライブレコーダ機能により、端末装置10自体のカメラ機能を利用して撮影する。あるいは、端末装置10は、カーナビアプリのドライブレコーダ機能により、Bluetooth(登録商標)や無線LAN(Local Area Network)等の近距離無線通信、又はケーブル等による有線通信を介して、車両Cに搭載された実際のドライブレコーダと連携して、撮影された画像等のデータを取得してもよい。 For example, the terminal device 10 of the user U uses the drive recorder function of the car navigation application to take a picture using the camera function of the terminal device 10 itself. Alternatively, the terminal device 10 is mounted on the vehicle C by the drive recorder function of the car navigation application via short-range wireless communication such as Bluetooth (registered trademark) or wireless LAN (Local Area Network), or wired communication using a cable or the like. Data such as captured images may be acquired in cooperation with an actual drive recorder.

ここで、利用者Uが現在使用している端末装置10ではなく、現在使用していない(例えば機種変更前の)古い端末装置10をドライブレコーダアプリ等によりドライブレコーダとして使用してもよい。この場合、現在使用している端末装置10は、カーナビアプリのドライブレコーダ機能により、Bluetooth(登録商標)や無線LAN等の近距離無線通信、又はケーブル等による有線通信を介して、古い端末装置10と連携し、古い端末装置10から、撮影された画像等のデータを取得する。 Here, instead of the terminal device 10 currently used by the user U, an old terminal device 10 that is not currently used (for example, before the model change) may be used as a drive recorder by a drive recorder application or the like. In this case, the terminal device 10 currently in use is an old terminal device 10 via a short-range wireless communication such as Bluetooth (registered trademark) or wireless LAN, or a wired communication by a cable or the like by the drive recorder function of the car navigation application. In cooperation with the old terminal device 10, data such as a captured image is acquired from the old terminal device 10.

図1に示す例では、利用者Uとして、利用者U1と利用者U2とを示す。また、端末装置10として、利用者U1によって使用される端末装置10Aと、利用者U2によって使用される端末装置10Bとを示す。また、車両Cとして、利用者U1が運転する車両C1と、利用者U2が運転する車両C2とを示す。 In the example shown in FIG. 1, the user U1 and the user U2 are shown as the user U. Further, as the terminal device 10, the terminal device 10A used by the user U1 and the terminal device 10B used by the user U2 are shown. Further, as the vehicle C, a vehicle C1 driven by the user U1 and a vehicle C2 driven by the user U2 are shown.

なお、以下の説明において、利用者U1と利用者U2とを特に区別する必要がない場合には、総称として利用者Uと表記する。同様に、端末装置10Aと端末装置10Bとを特に区別する必要がない場合には、総称として端末装置10と表記する。また、車両C1と車両C2とを特に区別する必要がない場合には、総称として車両Cと表記する。 In the following description, when it is not necessary to distinguish between the user U1 and the user U2, the user U is collectively referred to as the user U. Similarly, when it is not necessary to distinguish between the terminal device 10A and the terminal device 10B, the terminal device 10 is collectively referred to as the terminal device 10. When it is not necessary to distinguish between the vehicle C1 and the vehicle C2, the vehicle C is collectively referred to as the vehicle C.

例えば、図1に示すように、利用者U1は、端末装置10Aとともに車両C1に乗り込み、車両C1の車内に端末装置10Aを設置(固定)して、端末装置10A上でカーナビアプリを起動する(ステップS1)。 For example, as shown in FIG. 1, the user U1 gets into the vehicle C1 together with the terminal device 10A, installs (fixes) the terminal device 10A in the vehicle C1, and activates the car navigation application on the terminal device 10A (. Step S1).

端末装置10Aは、車両C1の前方を撮影できるように設置される。なお、端末装置10Aは、予め車両C1の車内に設置されていてもよい。 The terminal device 10A is installed so that the front of the vehicle C1 can be photographed. The terminal device 10A may be installed in the vehicle C1 in advance.

このとき、利用者U1は、端末装置10Aを操作して、カーナビアプリに目的地を入力し、ナビゲーション機能による目的地までのルート検索を行う。 At this time, the user U1 operates the terminal device 10A, inputs the destination into the car navigation application, and searches for a route to the destination by the navigation function.

利用者U1は、端末装置10Aを操作して、カーナビアプリのナビゲーション機能による目的地への案内を開始した後、車両C1を運転し、車両C1を走行させる(ステップS2)。 The user U1 operates the terminal device 10A to start guiding to the destination by the navigation function of the car navigation application, and then drives the vehicle C1 to drive the vehicle C1 (step S2).

カーナビアプリの地図上において、車両C1が走行する予定のルート上には、現時点で既に存在が判明している固定式の速度違反自動取締装置(以下、取締装置)等の位置が明示される。 On the map of the car navigation application, the position of a fixed speed violation automatic control device (hereinafter referred to as a control device) whose existence is already known at the present time is clearly indicated on the route on which the vehicle C1 is scheduled to travel.

端末装置10Aは、カーナビアプリのドライブレコーダ機能により、車両C1の走行中に、撮影範囲R1に含まれる車両C1の前方の路上や路肩等を撮影する(ステップS3)。 The terminal device 10A uses the drive recorder function of the car navigation application to photograph the road surface, the road shoulder, and the like in front of the vehicle C1 included in the photographing range R1 while the vehicle C1 is traveling (step S3).

なお、カーナビアプリのナビゲーション機能とドライブレコーダ機能とは互いに連携していてもよい。例えば、ナビゲーション機能による案内開始と同時にドライブレコーダ機能による撮影を開始し、案内終了と同時にドライブレコーダ機能による撮影を終了してもよい。また、ドライブレコーダ機能における画像の撮影位置および撮影日時と、ナビゲーション機能における地図上の位置とが対応付けられていてもよい。 The navigation function of the car navigation application and the drive recorder function may be linked to each other. For example, shooting by the drive recorder function may be started at the same time as the guidance by the navigation function is started, and shooting by the drive recorder function may be finished at the same time as the guidance is finished. Further, the shooting position and shooting date / time of the image in the drive recorder function may be associated with the position on the map in the navigation function.

また、端末装置10Aは、カーナビアプリのドライブレコーダ機能において、AI(Artificial Intelligence:人工知能)等による画像解析により、撮影範囲R1に含まれる車両C1の前方の路上や路肩等に存在し、カーナビアプリの地図上に未だ表示されていない警戒対象であって、所定の条件に適合する警戒対象を発見してもよい。なお、所定の条件は、任意に設定されてもよい。そして、端末装置10Aは、警戒対象を発見した際には、警報を発するようにしてもよい。 Further, the terminal device 10A exists on the road or shoulder in front of the vehicle C1 included in the shooting range R1 by image analysis by AI (Artificial Intelligence) or the like in the drive recorder function of the car navigation application. You may find a warning target that is not yet displayed on the map of the vehicle and that meets certain conditions. The predetermined conditions may be set arbitrarily. Then, the terminal device 10A may issue an alarm when it finds a warning target.

さらに、端末装置10Aは、カーナビアプリのドライブレコーダ機能により、AI等による画像解析により発見された警戒対象を撮影して、撮影位置および撮影日時とともに画像を保存してもよい。この警戒対象の画像は、動画でも静止画でもよい。あるいは、ドライブレコーダ機能で撮影中の画像において、後で利用者U1がその警戒対象を判別できるように、その警戒対象が発見された時点でAI等により印(マーク)をつけてもよい。 Further, the terminal device 10A may use the drive recorder function of the car navigation application to shoot a warning target found by image analysis by AI or the like, and save the image together with the shooting position and the shooting date and time. The image to be watched may be a moving image or a still image. Alternatively, in the image being captured by the drive recorder function, a mark (mark) may be added by AI or the like when the warning target is found so that the user U1 can later determine the warning target.

利用者U1は、停車中又は車両C1の運転終了後に(すなわち、利用者U1が運転していない状況で)、端末装置10Aを操作して、車両C1の走行中に撮影された画像を確認する(ステップS4)。 The user U1 operates the terminal device 10A to check the image taken while the vehicle C1 is running while the vehicle is stopped or after the vehicle C1 has finished driving (that is, in a situation where the user U1 is not driving). (Step S4).

なお、利用者U1が車両Cの同乗者で助手席等に座っている場合(常に運転していない場合)には、随時、車両C1の走行中に撮影された画像を確認してもよい。例えば、利用者U1が取締装置を発見(視認)した時点で、車両C1の走行中に撮影された画像を確認してもよい。 When the user U1 is a passenger of the vehicle C and is sitting in the passenger seat or the like (when he / she is not always driving), he / she may check the image taken while the vehicle C1 is traveling at any time. For example, when the user U1 discovers (visually recognizes) the control device, the image taken while the vehicle C1 is traveling may be confirmed.

このとき、利用者U1が確認する画像は、運転開始からその時点までに車両Cが走行した経路全ての映像であってもよいし、上記のAI等による画像解析により発見された警戒対象の画像であってもよい。 At this time, the image confirmed by the user U1 may be an image of all the routes traveled by the vehicle C from the start of driving to that time, or an image of a caution target found by image analysis by the above AI or the like. It may be.

本実施形態では、利用者U1が車両C1の走行中に撮影された画像を確認するため、車両が取締装置から発せられる速度探知波を検出した際の位置ではなく、取締装置の存在と、取締装置の設置場所とを視覚的に確認することができる。 In the present embodiment, in order to confirm the image taken while the vehicle C1 is running by the user U1, the presence of the control device and the control are not performed at the position when the vehicle detects the speed detection wave emitted from the control device. You can visually confirm the installation location of the device.

利用者U1は、端末装置10Aを操作して、車両C1の走行中に撮影された画像に含まれる車両走行上の警戒対象(取締装置、冠水・凍結路面、陥没・崩落箇所、落下物、事故現場、検問等)を特定する(ステップS5)。 The user U1 operates the terminal device 10A, and is included in the image taken while the vehicle C1 is running. Identify the site, inspection, etc. (step S5).

例えば、利用者U1は、端末装置10Aに表示された画像の中で、車両走行上の警戒対象と思われる物体や箇所を、指やカーソルで指定(又は範囲指定)することで、印(マーク)をつけてもよい。 For example, the user U1 marks an object or location that is considered to be a warning target during vehicle driving by designating (or specifying a range) with a finger or a cursor in the image displayed on the terminal device 10A. ) May be added.

また、利用者U1は、端末装置10Aを操作して、上記のAI等による画像解析により発見された警戒対象が車両走行上の警戒対象として妥当であるか確認し、妥当でないと思われる警戒対象を排除して、妥当であると思われる警戒対象を特定してもよい。 In addition, the user U1 operates the terminal device 10A to confirm whether the warning target found by the image analysis by the above AI or the like is appropriate as the warning target for vehicle running, and the warning target that seems to be invalid. May be excluded to identify what seems to be a valid alert.

なお、車両走行上の警戒対象として、危険物や危険な状況に限らず、急に視界がひらけてランドマークや美しい風景等が良く見える眺望のよい場所(ビュースポット)や、目立つ広告の看板等が現れる場所等を特定してもよい。運転者が目を奪われる(脇見運転の可能性がある)という点では、広い意味で、車両走行上の警戒対象と言うこともできる。 In addition, as a warning target when driving a vehicle, not only dangerous objects and dangerous situations, but also places with a good view (view spots) where visibility suddenly opens and landmarks and beautiful scenery can be seen well, signboards of conspicuous advertisements, etc. You may specify the place where is appearing. In a broad sense, it can be said to be a warning target when driving a vehicle in that the driver is fascinated (there is a possibility of inattentive driving).

このとき、利用者U1は、端末装置10Aを操作して、カーナビアプリの地図上において、車両走行上の警戒対象の位置をPOIとして設定し、警戒対象の名称や、その警戒対象に関するコメント等を入力して、POIデータを作成する。そして、ドライブレコーダ機能により撮影された画像データと、作成されたPOIデータとを組み合わせて、車両走行上の警戒対象に関するデータを作成する。 At this time, the user U1 operates the terminal device 10A to set the position of the warning target on the vehicle running as a POI on the map of the car navigation application, and gives the name of the warning target, a comment on the warning target, and the like. Enter to create POI data. Then, the image data taken by the drive recorder function and the created POI data are combined to create data on a warning target during vehicle driving.

利用者U1の端末装置10Aは、情報処理装置100に対して、車両走行上の警戒対象に関するデータを送信する(ステップS6)。 The terminal device 10A of the user U1 transmits data regarding a warning target during vehicle travel to the information processing device 100 (step S6).

情報処理装置100は、各利用者Uの端末装置10から、車両走行上の警戒対象に関するデータを収集して蓄積する(ステップS7)。 The information processing device 100 collects and accumulates data on a warning target on vehicle travel from the terminal device 10 of each user U (step S7).

すなわち、情報処理装置100は、利用者U1の端末装置10Aのみならず、利用者U1と同様に車両Cを走行させた各利用者Uの端末装置10から、車両走行上の警戒対象に関するデータを収集する。 That is, the information processing device 100 receives data on the warning target on vehicle travel from not only the terminal device 10A of the user U1 but also the terminal device 10 of each user U who has traveled the vehicle C in the same manner as the user U1. collect.

なお、情報処理装置100は、各利用者Uの端末装置10から、車両走行上の警戒対象に関するデータに含まれるその警戒対象に関するコメント等を、事後的に入力/変更できるようにしてもよい。 The information processing device 100 may allow the terminal device 10 of each user U to input / change a comment or the like regarding the warning target included in the data regarding the warning target during vehicle travel after the fact.

情報処理装置100は、蓄積された車両走行上の警戒対象に関するデータに対する機械学習を行う(ステップS8)。 The information processing device 100 performs machine learning on the accumulated data regarding the warning target on the vehicle running (step S8).

蓄積されたデータの数(例えば、撮影された画像の枚数等)が多いほど、機械学習の精度は向上する。したがって、各利用者Uの端末装置10ではなく、多人数から多数のデータを収集できる情報処理装置100において機械学習を行うことが好ましい。 The greater the number of stored data (eg, the number of captured images, etc.), the better the accuracy of machine learning. Therefore, it is preferable to perform machine learning not with the terminal device 10 of each user U but with the information processing device 100 capable of collecting a large number of data from a large number of people.

このとき、情報処理装置100は、機械学習の結果として、撮影された画像と車両走行上の警戒対象との関係についての学習モデルを作成する。また、情報処理装置100は、学習モデルに基づいて、収集された車両走行上の警戒対象に関するデータの中から、高精度なデータ(例えば信頼性の高いデータ)を抽出する。 At this time, the information processing device 100 creates a learning model about the relationship between the captured image and the warning target on the vehicle running as a result of machine learning. Further, the information processing device 100 extracts highly accurate data (for example, highly reliable data) from the collected data on the warning target on the vehicle running based on the learning model.

ここで、情報処理装置100は、各利用者Uの端末装置10のカーナビアプリに入力された目的地までのルート検索を行う際、車両走行上の警戒対象に関する高精度なデータに基づいて、目的地までのルートを決定してもよい。 Here, when the information processing device 100 performs a route search to the destination input to the car navigation application of the terminal device 10 of each user U, the information processing device 100 is intended based on highly accurate data regarding the warning target on the vehicle running. You may decide the route to the ground.

なお、実際には、多数の利用者Uにより挙げられた車両走行上の警戒対象に関するデータを、車両走行上の警戒対象に関する高精度なデータとしてもよい。また、蓄積された車両走行上の警戒対象に関するデータの全てを、車両走行上の警戒対象に関する高精度なデータとしてもよい。 Actually, the data on the warning target on the vehicle running, which is given by a large number of users U, may be used as high-precision data on the warning target on the vehicle running. In addition, all of the accumulated data regarding the warning target during vehicle running may be used as highly accurate data regarding the warning target during vehicle running.

情報処理装置100は、利用者U1の端末装置10Aに対して、車両走行上の警戒対象に関する高精度なデータを提供する(ステップS9)。 The information processing device 100 provides the terminal device 10A of the user U1 with highly accurate data regarding a warning target during vehicle travel (step S9).

利用者U1の端末装置10Aは、車両走行上の警戒対象に関する高精度なデータを、カーナビアプリの地図上に反映する(ステップS10)。 The terminal device 10A of the user U1 reflects highly accurate data regarding the warning target on the vehicle running on the map of the car navigation application (step S10).

このとき、情報処理装置100は、利用者U1の端末装置10Aに対して、高精度なデータとともに、作成された学習モデルを提供してもよい。そして、利用者U1の端末装置10Aは、この学習モデルをカーナビアプリのドライブレコーダ機能や上記のAI等に反映し、この学習モデルに基づいて、上記のAI等による画像解析を行うようにしてもよい。これにより、上記のAI等による画像解析の性能が累積的に向上する。 At this time, the information processing device 100 may provide the created learning model together with the highly accurate data to the terminal device 10A of the user U1. Then, the terminal device 10A of the user U1 reflects this learning model in the drive recorder function of the car navigation application, the above AI, and the like, and based on this learning model, the image analysis by the above AI and the like is performed. good. As a result, the performance of image analysis by the above AI or the like is cumulatively improved.

また、利用者U1とは別の利用者U2は、端末装置10Bとともに車両C2に乗り込み、車両C2の車内に端末装置10Bを設置(固定)して、端末装置10B上でカーナビアプリを起動する(ステップS11)。 Further, the user U2, which is different from the user U1, gets into the vehicle C2 together with the terminal device 10B, installs (fixes) the terminal device 10B in the vehicle C2, and activates the car navigation application on the terminal device 10B (). Step S11).

このとき、利用者U2は、端末装置10Bを操作して、カーナビアプリに目的地を入力し、ナビゲーション機能による目的地までのルート検索を行う。 At this time, the user U2 operates the terminal device 10B, inputs the destination into the car navigation application, and searches for a route to the destination by the navigation function.

情報処理装置100は、ルート検索の結果として、目的地までのルートとともに、利用者U2の端末装置10Bに対して、車両走行上の警戒対象に関する高精度なデータを提供する(ステップS12)。 As a result of the route search, the information processing device 100 provides the terminal device 10B of the user U2 with highly accurate data regarding the warning target on the vehicle traveling together with the route to the destination (step S12).

なお、情報処理装置100は、利用者U2の端末装置10Bに対して、車両走行上の警戒対象に関するデータを提供するタイミングは、カーナビアプリの起動時でもよいし、カーナビアプリの地図上に、該当する車両走行上の警戒対象が表示されるタイミングでもよい。
利用者U2の端末装置10Bは、車両走行上の警戒対象に関する高精度なデータを、カーナビアプリの地図上に反映する(ステップS13)。
The timing at which the information processing device 100 provides the terminal device 10B of the user U2 with data regarding the warning target on vehicle running may be when the car navigation application is started, or is applicable on the map of the car navigation application. It may be the timing when the warning target on the vehicle running is displayed.
The terminal device 10B of the user U2 reflects highly accurate data regarding the warning target on the vehicle running on the map of the car navigation application (step S13).

例えば、利用者U2の端末装置10Bは、車両走行上の警戒対象に関する高精度なデータに基づいて、カーナビアプリの地図上に、利用者U2が視認可能な形式で、車両走行上の警戒対象の存在を示す情報を表示する。 For example, the terminal device 10B of the user U2 is a warning target on the vehicle running in a format that the user U2 can see on the map of the car navigation application based on highly accurate data on the warning target on the vehicle running. Display information indicating existence.

利用者U2は、端末装置10Bがカーナビアプリのナビゲーション機能による目的地への案内を開始した後、車両C2を運転し、車両C2を走行させる(ステップS14)。 The user U2 drives the vehicle C2 and drives the vehicle C2 after the terminal device 10B starts guiding the destination by the navigation function of the car navigation application (step S14).

端末装置10Bは、カーナビアプリのドライブレコーダ機能により、車両C2の走行中に、撮影範囲R2に含まれる車両C2の前方の路上や路肩等を撮影する(ステップS15)。 The terminal device 10B uses the drive recorder function of the car navigation application to photograph the road surface, the road shoulder, and the like in front of the vehicle C2 included in the photographing range R2 while the vehicle C2 is traveling (step S15).

すなわち、利用者U2の端末装置10Bも、カーナビアプリのドライブレコーダ機能により、上記の利用者U1の端末装置10Aと同様の動作を行う。 That is, the terminal device 10B of the user U2 also performs the same operation as the terminal device 10A of the user U1 by the drive recorder function of the car navigation application.

利用者U2の端末装置10Bは、車両走行上の警戒対象に関する高精度なデータに基づいて、車両走行上の警戒対象が存在する場所を確認する(ステップS15)。 The terminal device 10B of the user U2 confirms the location of the warning target on the vehicle running based on the highly accurate data on the warning target on the vehicle running (step S15).

このとき、利用者U2の端末装置10Bは、車両走行上の警戒対象に関する高精度なデータに基づいて、車両C2の現在位置と、カーナビアプリの地図上における警戒対象の位置とを比較し、車両C2の現在位置が警戒対象の位置から所定距離だけ手前であるか否か確認する(ステップS16)。 At this time, the terminal device 10B of the user U2 compares the current position of the vehicle C2 with the position of the warning target on the map of the car navigation application based on highly accurate data regarding the warning target on the vehicle running, and the vehicle. It is confirmed whether or not the current position of C2 is in front of the position to be watched by a predetermined distance (step S16).

利用者U2の端末装置10Bは、車両走行上の警戒対象が存在する場所の手前で、警報を発する(ステップS17)。 The terminal device 10B of the user U2 issues an alarm in front of the place where the warning target in the vehicle running exists (step S17).

このとき、利用者U2の端末装置10Bは、カーナビアプリにおいて、図1に示す警報画面WAを表示して、警報を発する。 At this time, the terminal device 10B of the user U2 displays the alarm screen WA shown in FIG. 1 in the car navigation application and issues an alarm.

例えば、車両走行上の警戒対象が、固定式・移動式の取締装置、又はハイドロプレーニング現象やスリップ等が発生しやすい冠水・凍結路面等である場合には、その警戒対象が存在する警戒すべきエリアを車両Cがスピードを出して通過することがないように、警戒すべきエリアを示した警報画面WA1を表示して、「スピード注意エリアです」といったメッセージを音声出力して警告する。なお、メッセージの内容は任意である。具体的な警戒対象の内容を音声出力して警告してもよい。 For example, if the warning target for vehicle driving is a fixed / mobile control device, or a flooded / frozen road surface where hydroplaning phenomenon or slippage is likely to occur, the warning target should be watched. To prevent the vehicle C from passing through the area at high speed, the warning screen WA1 indicating the area to be watched is displayed, and a message such as "It is a speed caution area" is output as a voice to warn. The content of the message is arbitrary. The specific content of the warning target may be output by voice to warn.

また、車両走行上の警戒対象が、「陥没・崩落箇所、落下物、事故現場、検問等」である場合には、具体的な場所を示す警報画面WA2を表示して、「まもなく要注意ポイントです」といったメッセージを音声出力して警告する。ここで、例えば移動式の取締装置の具体的な場所が特定できている場合には、具体的な場所を示す警報画面WA2を表示して、「まもなく移動式の取締装置があります」といった具体的なメッセージを音声出力して警告してもよい。 In addition, when the object of caution when driving a vehicle is "a collapsed / collapsed place, a falling object, an accident site, an inspection, etc.", an alarm screen WA2 indicating a specific place is displayed, and "Points to be watched soon A message such as "is" is output as a voice to warn. Here, for example, when the specific location of the mobile control device can be specified, the alarm screen WA2 indicating the specific location is displayed, and a specific location such as "There will be a mobile control device soon". Message may be output by voice to warn.

さらに、利用者U2の端末装置10Bは、車両C2が先進運転支援システム(ADAS:Advanced Driver Assistance Systems)や自動運転等に対応している場合には、Bluetooth(登録商標)や無線LAN等の近距離無線通信、又はケーブル等による有線通信を介して、車両C2と連携し、車両走行上の警戒対象に対して、車両C2を減速させたり回避(車線変更、停車等)させたりしてもよい。 Further, when the vehicle C2 is compatible with Advanced Driver Assistance Systems (ADAS), automatic driving, etc., the terminal device 10B of the user U2 is close to Bluetooth (registered trademark), wireless LAN, or the like. The vehicle C2 may be decelerated or avoided (lane change, stop, etc.) in cooperation with the vehicle C2 via distance wireless communication or wired communication using a cable or the like. ..

なお、先進運転支援システムや自動運転等を利用する場合であっても、乗車している利用者Uに警戒対象の存在を知らせずに車両Cが前触れもなく突然減速したり不自然な挙動を行ったりすると、利用者Uは驚愕し、何事かと心配になる可能性があるため、警報を発する需要は存在する。 Even when using an advanced driver assistance system or automatic driving, vehicle C suddenly slows down or behaves unnaturally without warning to the user U who is on board without notifying the existence of the warning target. If you go, the user U may be surprised and worried about something, so there is a demand to issue an alarm.

ここで、利用者U2の端末装置10Bは、警報が発せられた際にカーナビアプリのドライブレコーダ機能により撮影された画像に、その警報の原因となった車両走行上の警戒対象が写っていない場合には、その車両走行上の警戒対象がなくなったと判断して、情報処理装置100に対して、その車両走行上の警戒対象に関するデータの削除を要求する(ステップS18)。 Here, when the terminal device 10B of the user U2 does not show the warning target on the vehicle running that caused the warning in the image taken by the drive recorder function of the car navigation application when the warning is issued. Is determined that the warning target on the vehicle running has disappeared, and requests the information processing device 100 to delete the data related to the warning target on the vehicle running (step S18).

このとき、情報処理装置100は、複数(所定人数以上)の利用者Uから、その車両走行上の警戒対象に関するデータの削除の要求を受けた場合に、その車両走行上の警戒対象に関するデータを削除する。 At this time, when the information processing device 100 receives a request from a plurality of users U (more than a predetermined number of people) to delete the data related to the warning target on the vehicle running, the information processing device 100 outputs the data related to the warning target on the vehicle running. delete.

また、情報処理装置100は、車両走行上の警戒対象に関するデータに有効期限を設定し、有効期限が到来した車両走行上の警戒対象に関するデータを自動的に削除する。例えば、情報処理装置100は、車両走行上の警戒対象に関するデータを登録した時点から、所定の期間が経過した場合には、車両走行上の警戒対象に関するデータを自動的に削除する。 Further, the information processing device 100 sets an expiration date for the data related to the warning target on the vehicle running, and automatically deletes the data related to the warning target on the vehicle running when the expiration date has expired. For example, the information processing device 100 automatically deletes the data related to the warning target in the vehicle traveling when a predetermined period elapses from the time when the data relating to the warning target in the vehicle traveling is registered.

また、利用者U2の端末装置10Bは、警報が発せられた際にカーナビアプリのドライブレコーダ機能により撮影された画像に、その警報の原因となった車両走行上の警戒対象が写っている場合には、情報処理装置100に対して、その車両走行上の警戒対象に関する最新のデータを送信し、車両走行上の警戒対象に関するデータを更新する(ステップS19)。これにより、車両走行上の警戒対象に関するデータの有効期限が更新/延長される。 In addition, when the terminal device 10B of the user U2 shows the warning target on the vehicle running that caused the warning in the image taken by the drive recorder function of the car navigation application when the warning is issued. (Step S19) transmits the latest data regarding the warning target during vehicle travel to the information processing device 100, and updates the data regarding the warning target during vehicle travel (step S19). As a result, the expiration date of the data related to the warning target on the vehicle running is updated / extended.

〔2.情報処理システムの構成例〕
次に、図2を用いて、実施形態に係る情報処理装置100が含まれる情報処理システム1の構成について説明する。図2は、実施形態に係る情報処理システム1の構成例を示す図である。図2に示すように、実施形態に係る情報処理システム1は、端末装置10と情報処理装置100とを含む。これらの各種装置は、ネットワークNを介して、有線又は無線により通信可能に接続される。ネットワークNは、例えば、LAN(Local Area Network)や、インターネット等のWAN(Wide Area Network)である。
[2. Information processing system configuration example]
Next, the configuration of the information processing system 1 including the information processing device 100 according to the embodiment will be described with reference to FIG. FIG. 2 is a diagram showing a configuration example of the information processing system 1 according to the embodiment. As shown in FIG. 2, the information processing system 1 according to the embodiment includes a terminal device 10 and an information processing device 100. These various devices are connected via network N so as to be communicable by wire or wirelessly. The network N is, for example, a LAN (Local Area Network) or a WAN (Wide Area Network) such as the Internet.

また、図2に示す情報処理システム1に含まれる各装置の数は図示したものに限られない。例えば、図2では、図示の簡略化のため、端末装置10を1台のみ示したが、これはあくまでも例示であって限定されるものではなく、2台以上であってもよい。 Further, the number of each device included in the information processing system 1 shown in FIG. 2 is not limited to that shown in the figure. For example, in FIG. 2, for simplification of the illustration, only one terminal device 10 is shown, but this is merely an example and is not limited, and may be two or more.

端末装置10は、利用者Uによって使用される情報処理装置である。例えば、端末装置10は、スマートフォンやタブレット端末等のスマートデバイス、フィーチャーフォン、PC(Personal Computer)、PDA(Personal Digital Assistant)、カーナビゲーションシステム、スマートウォッチやヘッドマウントディスプレイ等のウェアラブルデバイス(Wearable Device)、スマートグラス等である。 The terminal device 10 is an information processing device used by the user U. For example, the terminal device 10 is a smart device such as a smartphone or tablet terminal, a feature phone, a PC (Personal Computer), a PDA (Personal Digital Assistant), a car navigation system, a wearable device such as a smart watch or a head-mounted display (Wearable Device). , Smart glasses, etc.

また、かかる端末装置10は、LTE(Long Term Evolution)、4G(4th Generation)、5G(5th Generation:第5世代移動通信システム)等の無線通信網や、Bluetooth(登録商標)、無線LAN(Local Area Network)等の近距離無線通信を介してネットワークNに接続し、情報処理装置100と通信することができる。 Further, the terminal device 10 includes a wireless communication network such as LTE (Long Term Evolution), 4G (4th Generation), 5G (5th Generation: 5th generation mobile communication system), Bluetooth (registered trademark), and wireless LAN (Local). It can be connected to the network N via short-range wireless communication such as Area Network) and communicate with the information processing apparatus 100.

情報処理装置100は、例えばPCやサーバ、あるいはメインフレーム又はワークステーション等である。なお、情報処理装置100は、クラウドコンピューティングにより実現されてもよい。 The information processing device 100 is, for example, a PC, a server, a mainframe, a workstation, or the like. The information processing device 100 may be realized by cloud computing.

〔3.端末装置の構成例〕
次に、図3を用いて、端末装置10の構成について説明する。図3は、端末装置10の構成例を示す図である。図3に示すように、端末装置10は、通信部11と、表示部12と、入力部13と、測位部14と、音声出力部15と、センサ部20と、制御部30(コントローラ)と、記憶部40とを備える。
[3. Terminal device configuration example]
Next, the configuration of the terminal device 10 will be described with reference to FIG. FIG. 3 is a diagram showing a configuration example of the terminal device 10. As shown in FIG. 3, the terminal device 10 includes a communication unit 11, a display unit 12, an input unit 13, a positioning unit 14, a voice output unit 15, a sensor unit 20, and a control unit 30 (controller). , The storage unit 40 is provided.

(通信部11)
通信部11は、ネットワークN(図2参照)と有線または無線で接続され、ネットワークNを介して、情報処理装置100との間で情報の送受信を行う。例えば、通信部11は、NIC(Network Interface Card)やアンテナ等によって実現される。
(Communication unit 11)
The communication unit 11 is connected to the network N (see FIG. 2) by wire or wirelessly, and transmits / receives information to / from the information processing device 100 via the network N. For example, the communication unit 11 is realized by a NIC (Network Interface Card), an antenna, or the like.

(表示部12)
表示部12は、位置情報等の各種情報を表示する表示デバイスである。例えば、表示部12は、液晶ディスプレイ(LCD:Liquid Crystal Display)や有機ELディスプレイ(Organic Electro-Luminescent Display)である。また、表示部12は、タッチパネル式のディスプレイであるが、これに限定されるものではない。
(Display unit 12)
The display unit 12 is a display device that displays various information such as position information. For example, the display unit 12 is a liquid crystal display (LCD) or an organic EL display (Organic Electro-Luminescent Display). Further, the display unit 12 is a touch panel type display, but the display unit 12 is not limited to this.

(入力部13)
入力部13は、利用者Uから各種操作を受け付ける入力デバイスである。入力部13は、例えば、文字や数字等を入力するためのボタン等を有する。また、表示部12がタッチパネル式のディスプレイである場合、表示部12の一部が入力部13として機能する。なお、入力部13は、利用者Uから音声入力を受け付けるマイク等であってもよい。マイクはワイヤレスであってもよい。
(Input unit 13)
The input unit 13 is an input device that receives various operations from the user U. The input unit 13 has, for example, a button for inputting characters, numbers, and the like. When the display unit 12 is a touch panel type display, a part of the display unit 12 functions as an input unit 13. The input unit 13 may be a microphone or the like that receives voice input from the user U. The microphone may be wireless.

(測位部14)
測位部14は、GPS(Global Positioning System)の衛星から送出される信号(電波)を受信し、受信した信号に基づいて、自装置である端末装置10の現在位置を示す位置情報(例えば、緯度および経度)を取得する。すなわち、測位部14は、端末装置10の位置を測位する。なお、GPSは、GNSS(Global Navigation Satellite System)の一例に過ぎない。
(Positioning unit 14)
The positioning unit 14 receives a signal (radio wave) transmitted from a GPS (Global Positioning System) satellite, and based on the received signal, position information (for example, latitude) indicating the current position of the terminal device 10 which is its own device. And longitude). That is, the positioning unit 14 positions the terminal device 10. GPS is only an example of GNSS (Global Navigation Satellite System).

(音声出力部15)
音声出力部15は、ビープ音やメッセージ等の各種音声情報を音声出力する音声出力デバイスである。例えば、音声出力部15は、スピーカやオーディオ用端子(ヘッドホン端子)等によって実現される。スピーカはワイヤレスであってもよい。
(Audio output unit 15)
The voice output unit 15 is a voice output device that outputs various voice information such as a beep sound and a message. For example, the audio output unit 15 is realized by a speaker, an audio terminal (headphone terminal), or the like. The speaker may be wireless.

また、測位部14は、GPS以外にも、種々の手法により位置を測位することができる。例えば、測位部14は、位置補正等のための補助的な測位手段として、下記のように、端末装置10の様々な通信機能を利用して位置を測位してもよい。 In addition, the positioning unit 14 can position the position by various methods other than GPS. For example, the positioning unit 14 may position the position by using various communication functions of the terminal device 10 as described below as an auxiliary positioning means for position correction or the like.

(Wi−Fi測位)
例えば、測位部14は、端末装置10のWi−Fi(登録商標)通信機能や、各通信会社が備える通信網を利用して、端末装置10の位置を測位する。具体的には、測位部14は、Wi−Fi通信等を行い、付近の基地局やアクセスポイントとの距離を測位することにより、端末装置10の位置を測位する。
(Wi-Fi positioning)
For example, the positioning unit 14 positions the terminal device 10 by using the Wi-Fi (registered trademark) communication function of the terminal device 10 or the communication network provided by each communication company. Specifically, the positioning unit 14 determines the position of the terminal device 10 by performing Wi-Fi communication or the like and positioning the distance to a nearby base station or access point.

(ビーコン測位)
また、測位部14は、端末装置10のBluetooth(登録商標)機能を利用して位置を測位してもよい。例えば、測位部14は、Bluetooth機能によって接続されるビーコン(beacon)発信機と接続することにより、端末装置10の位置を測位する。
(Beacon positioning)
Further, the positioning unit 14 may position the position by using the Bluetooth (registered trademark) function of the terminal device 10. For example, the positioning unit 14 positions the terminal device 10 by connecting to a beacon transmitter connected by the Bluetooth function.

(地磁気測位)
また、測位部14は、予め測定された構造物の地磁気のパターンと、端末装置10が備える地磁気センサとに基づいて、端末装置10の位置を測位する。
(Geomagnetic positioning)
Further, the positioning unit 14 positions the position of the terminal device 10 based on the geomagnetic pattern of the structure measured in advance and the geomagnetic sensor included in the terminal device 10.

(RFID測位)
また、例えば、端末装置10が駅改札や商店等で使用される非接触型ICカードと同等のRFID(Radio Frequency Identification)タグの機能を備えている場合、もしくはRFIDタグを読み取る機能を備えている場合、端末装置10によって決済等が行われた情報とともに、使用された位置が記録される。測位部14は、かかる情報を取得することで、端末装置10の位置を測位してもよい。また、位置は、端末装置10が備える光学式センサや、赤外線センサ等によって測位されてもよい。
(RFID positioning)
Further, for example, when the terminal device 10 has an RFID (Radio Frequency Identification) tag function equivalent to a contactless IC card used at a station ticket gate, a store, or the like, or has a function of reading an RFID tag. In this case, the used position is recorded together with the information that the terminal device 10 has settled. The positioning unit 14 may position the position of the terminal device 10 by acquiring such information. Further, the position may be determined by an optical sensor included in the terminal device 10, an infrared sensor, or the like.

測位部14は、必要に応じて、上述した測位手段の一つ又は組合せを用いて、端末装置10の位置を測位してもよい。 The positioning unit 14 may position the position of the terminal device 10 by using one or a combination of the above-mentioned positioning means, if necessary.

(センサ部20)
センサ部20は、端末装置10に搭載される各種のセンサを含む。図3に示す例では、センサ部20は、加速度センサ21と、ジャイロセンサ22と、気圧センサ23と、気温センサ24と、音センサ25と、光センサ26と、歩数センサ27と、画像センサ(カメラ)28とを備える。
(Sensor unit 20)
The sensor unit 20 includes various sensors mounted on the terminal device 10. In the example shown in FIG. 3, the sensor unit 20 includes an acceleration sensor 21, a gyro sensor 22, a pressure sensor 23, a temperature sensor 24, a sound sensor 25, an optical sensor 26, a step count sensor 27, and an image sensor ( It is equipped with a camera) 28.

なお、上記した各センサ21〜28は、あくまでも例示であって限定されるものではない。すなわち、センサ部20は、各センサ21〜28のうちの一部を備える構成であってもよいし、各センサ21〜28に加えてあるいは代えて、湿度センサ等その他のセンサを備えてもよい。 The sensors 21 to 28 described above are merely examples and are not limited thereto. That is, the sensor unit 20 may be configured to include a part of the sensors 21 to 28, or may include other sensors such as a humidity sensor in addition to or in place of the sensors 21 to 28. ..

加速度センサ21は、例えば、3軸加速度センサであり、端末装置10の移動方向、速度、および、加速度等の端末装置10の物理的な動きを検知する。ジャイロセンサ22は、端末装置10の角速度等に基づいて3軸方向の傾き等の端末装置10の物理的な動きを検知する。気圧センサ23は、例えば端末装置10の周囲の気圧を検知する。 The acceleration sensor 21 is, for example, a 3-axis acceleration sensor, and detects the physical movement of the terminal device 10 such as the moving direction, speed, and acceleration of the terminal device 10. The gyro sensor 22 detects the physical movement of the terminal device 10 such as the inclination in the three axial directions based on the angular velocity of the terminal device 10 and the like. The atmospheric pressure sensor 23 detects, for example, the atmospheric pressure around the terminal device 10.

端末装置10は、上記した加速度センサ21やジャイロセンサ22、気圧センサ23等を備えることから、これらの各センサ21〜23等を利用した歩行者自律航法(PDR:Pedestrian Dead-Reckoning)等の技術を用いて端末装置10の位置を測位することが可能になる。これにより、GPS等の測位システムでは取得することが困難な屋内での位置情報を取得することが可能になる。 Since the terminal device 10 includes the above-mentioned acceleration sensor 21, gyro sensor 22, pressure sensor 23, etc., techniques such as pedestrian autonomous navigation (PDR: Dead-Reckoning) using each of these sensors 21 to 23, etc. It becomes possible to determine the position of the terminal device 10 by using. This makes it possible to acquire indoor position information, which is difficult to acquire with a positioning system such as GPS.

気温センサ24は、例えば端末装置10の周囲の気温を検知する。音センサ25は、例えば端末装置10の周囲の音を検知する。光センサ26は、端末装置10の周囲の照度を検知する。歩数センサ27は、利用者Uの歩数を検知する。画像センサ28は、端末装置10の周囲の画像を撮像する。 The air temperature sensor 24 detects, for example, the air temperature around the terminal device 10. The sound sensor 25 detects, for example, the sound around the terminal device 10. The optical sensor 26 detects the illuminance around the terminal device 10. The step sensor 27 detects the number of steps of the user U. The image sensor 28 captures an image of the surroundings of the terminal device 10.

上記した気圧センサ23、気温センサ24、音センサ25、光センサ26および画像センサ28は、それぞれ気圧、気温、音、照度を検知したり、周囲の画像を撮像したりすることで、端末装置10の周囲の状況等を検知することができる。これにより、端末装置10の周囲の状況等から、端末装置10の位置情報の精度を向上させることが可能になる。 The barometric pressure sensor 23, the temperature sensor 24, the sound sensor 25, the optical sensor 26, and the image sensor 28, respectively, detect the barometric pressure, the temperature, the sound, and the illuminance, and capture an image of the surroundings, so that the terminal device 10 It is possible to detect the surrounding conditions of the. This makes it possible to improve the accuracy of the position information of the terminal device 10 from the surrounding conditions of the terminal device 10.

(制御部30)
制御部30は、例えば、CPU(Central Processing Unit)、ROM(Read Only Memory)、RAM、入出力ポート等を有するマイクロコンピュータや各種の回路を含む。また、制御部30は、例えば、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等の集積回路等のハードウェアで構成されてもよい。制御部30は、送信部31と、受信部32と、処理部33と、警報部34とを備える。
(Control unit 30)
The control unit 30 includes, for example, a microcomputer having a CPU (Central Processing Unit), a ROM (Read Only Memory), a RAM, an input / output port, and various circuits. Further, the control unit 30 may be composed of hardware such as an integrated circuit such as an ASIC (Application Specific Integrated Circuit) or an FPGA (Field Programmable Gate Array). The control unit 30 includes a transmission unit 31, a reception unit 32, a processing unit 33, and an alarm unit 34.

(送信部31)
送信部31は、例えば入力部13を用いて利用者Uにより入力された各種情報や、端末装置10に搭載された各センサ21〜28によって検知された各種情報、測位部14によって測位された端末装置10の位置情報、後述する処理部33によって生成された情報等を、通信部11を介して情報処理装置100へ送信することができる。
(Transmission unit 31)
The transmission unit 31 is, for example, various information input by the user U using the input unit 13, various information detected by the sensors 21 to 28 mounted on the terminal device 10, and a terminal positioned by the positioning unit 14. The position information of the device 10, the information generated by the processing unit 33 described later, and the like can be transmitted to the information processing device 100 via the communication unit 11.

(受信部32)
受信部32は、通信部11を介して、情報処理装置100から提供されるWebサービスに関連する各種情報や、情報処理装置100からの位置情報の要求を受信することができる。
(Receiver 32)
The receiving unit 32 can receive various information related to the Web service provided by the information processing device 100 and a request for location information from the information processing device 100 via the communication unit 11.

(処理部33)
処理部33は、表示部12等を含め、端末装置10全体を制御する。例えば、処理部33は、受信部32によって受信されたWebサービスに関連する各種情報を表示部12へ出力して表示させることができる。
(Processing unit 33)
The processing unit 33 controls the entire terminal device 10 including the display unit 12 and the like. For example, the processing unit 33 can output various information related to the Web service received by the receiving unit 32 to the display unit 12 and display it.

また、処理部33は、表示部12に、図1に示す警報画面WAを表示する。このとき、処理部33は、表示部12に、警報画面WAとともに、車両走行上の警戒対象の名称や説明、警報の具体的内容を示すメッセージ等を表示してもよい。 Further, the processing unit 33 displays the alarm screen WA shown in FIG. 1 on the display unit 12. At this time, the processing unit 33 may display the name and explanation of the warning target on the vehicle running, a message indicating the specific content of the warning, and the like on the display unit 12 together with the warning screen WA.

(警報部34)
警報部34は、音声出力部15を介して、警報を発する。例えば、警報部34は、表示部12に図1に示す警報画面WAが表示された際に、ビープ音やメッセージ等を音声出力部15から音声出力し、利用者Uに対して警報を発する。
(Alarm unit 34)
The alarm unit 34 issues an alarm via the voice output unit 15. For example, when the alarm screen WA shown in FIG. 1 is displayed on the display unit 12, the alarm unit 34 outputs a beep sound, a message, or the like from the voice output unit 15 and issues an alarm to the user U.

(記憶部40)
記憶部40は、例えば、RAM(Random Access Memory)、フラッシュメモリ(Flash Memory)等の半導体メモリ素子、または、HDD(Hard Disk Drive)、SSD(Solid State Drive)、光ディスク等の記憶装置によって実現される。かかる記憶部40には、各種プログラムや各種データ等が記憶される。
(Memory unit 40)
The storage unit 40 is realized by, for example, a semiconductor memory element such as a RAM (Random Access Memory) or a flash memory (Flash Memory), or a storage device such as an HDD (Hard Disk Drive), an SSD (Solid State Drive), or an optical disk. NS. Various programs, various data, and the like are stored in the storage unit 40.

〔4.情報処理装置の構成例〕
次に、図4を用いて、実施形態に係る情報処理装置100の構成について説明する。図4は、実施形態に係る情報処理装置100の構成例を示す図である。図4に示すように、情報処理装置100は、通信部110と、記憶部120と、制御部130とを有する。
[4. Information processing device configuration example]
Next, the configuration of the information processing apparatus 100 according to the embodiment will be described with reference to FIG. FIG. 4 is a diagram showing a configuration example of the information processing device 100 according to the embodiment. As shown in FIG. 4, the information processing device 100 includes a communication unit 110, a storage unit 120, and a control unit 130.

(通信部110)
通信部110は、例えば、NIC(Network Interface Card)等によって実現される。また、通信部110は、ネットワークN(図2参照)と有線または無線で接続される。
(Communication unit 110)
The communication unit 110 is realized by, for example, a NIC (Network Interface Card) or the like. Further, the communication unit 110 is connected to the network N (see FIG. 2) by wire or wirelessly.

(記憶部120)
記憶部120は、例えば、RAM(Random Access Memory)、フラッシュメモリ(Flash Memory)等の半導体メモリ素子、または、HDD(Hard Disk Drive)、SSD(Solid State Drive)、光ディスク等の記憶装置によって実現される。図4に示すように、記憶部120は、利用者データベース121と、地図データベース122と、警戒対象データベース123とを有する。
(Memory unit 120)
The storage unit 120 is realized by, for example, a semiconductor memory element such as a RAM (Random Access Memory) or a flash memory (Flash Memory), or a storage device such as an HDD (Hard Disk Drive), an SSD (Solid State Drive), or an optical disk. NS. As shown in FIG. 4, the storage unit 120 has a user database 121, a map database 122, and a warning target database 123.

(利用者データベース121)
利用者データベース121は、利用者Uに関する各種情報を記憶する。例えば、利用者データベース121は、利用者Uの属性等の種々の情報を記憶する。図5は、利用者データベース121の一例を示す図である。図5に示した例では、利用者データベース121は、「利用者ID(Identifier)」、「年齢」、「性別」、「自宅」、「勤務地」、「車両」、「運転歴」といった項目を有する。
(User database 121)
The user database 121 stores various information about the user U. For example, the user database 121 stores various information such as the attributes of the user U. FIG. 5 is a diagram showing an example of the user database 121. In the example shown in FIG. 5, the user database 121 has items such as "user ID (Identifier)", "age", "gender", "home", "work location", "vehicle", and "driving history". Has.

「利用者ID」は、利用者Uを識別するための識別情報を示す。なお、「利用者ID」は、各利用者Uの端末装置10を識別するための識別情報であってもよいし、各端末装置10にインストールされたカーナビアプリを識別するための識別情報であってもよい。 The "user ID" indicates identification information for identifying the user U. The "user ID" may be identification information for identifying the terminal device 10 of each user U, or identification information for identifying the car navigation application installed on each terminal device 10. You may.

また、「年齢」は、利用者IDにより識別される利用者Uの年齢を示す。なお、「年齢」は、例えば35歳など、利用者IDにより識別される利用者Uの具体的な年齢であってもよい。また、「性別」は、利用者IDにより識別される利用者Uの性別を示す。 Further, "age" indicates the age of the user U identified by the user ID. The "age" may be the specific age of the user U identified by the user ID, such as 35 years old. Further, "gender" indicates the gender of the user U identified by the user ID.

また、「自宅」は、利用者IDにより識別される利用者Uの自宅の位置情報を示す。なお、図5に示す例では、「自宅」は、「LC11」といった抽象的な符号を図示するが、緯度経度情報等であってもよい。また、例えば、「自宅」は、地域名や住所であってもよい。 Further, "home" indicates the location information of the home of the user U identified by the user ID. In the example shown in FIG. 5, "home" is illustrated with an abstract code such as "LC11", but may be latitude / longitude information or the like. Further, for example, "home" may be an area name or an address.

また、「勤務地」は、利用者IDにより識別される利用者Uの勤務地(学生の場合は学校)の位置情報を示す。なお、図5に示す例では、「勤務地」は、「LC12」といった抽象的な符号を図示するが、緯度経度情報等であってもよい。また、例えば、「勤務地」は、地域名や住所であってもよい。 Further, the "work location" indicates the location information of the work location (school in the case of a student) of the user U identified by the user ID. In the example shown in FIG. 5, the “work location” is illustrated by an abstract code such as “LC12”, but may be latitude / longitude information or the like. Further, for example, the "work location" may be a region name or an address.

また、「車両」は、利用者IDにより識別される利用者Uが乗車する車両Cに関する各種情報を示す。例えば、「車両」は、車両Cの名称、車種、型、年式、走行距離等を示す。また、「運転歴」は、利用者IDにより識別される利用者Uの運転歴を示す。運転歴によって、警戒対象と感じる対象や度合いが異なることも予想される。 Further, the “vehicle” indicates various information regarding the vehicle C on which the user U identified by the user ID is on board. For example, "vehicle" indicates the name, vehicle type, model, year, mileage, etc. of vehicle C. Further, the "driving history" indicates the driving history of the user U identified by the user ID. It is expected that the target and degree of caution will differ depending on the driving history.

例えば、図5に示す例において、利用者ID「U1」により識別される利用者Uの年齢は、「20代」であり、性別は、「男性」であることを示す。また、利用者ID「U1」により識別される利用者Uは、自宅が「LC11」であることを示す。また、利用者ID「U1」により識別される利用者Uは、勤務地が「LC12」であることを示す。また、利用者ID「U1」により識別される利用者Uは、「車両#1」で示される車両Cに乗車することを示す。また、利用者ID「U1」により識別される利用者Uは、「運転歴#1」で示される運転歴を有していることを示す。 For example, in the example shown in FIG. 5, the age of the user U identified by the user ID "U1" is "20's", and the gender is "male". Further, the user U identified by the user ID "U1" indicates that his / her home is "LC11". Further, the user U identified by the user ID "U1" indicates that the work location is "LC12". Further, the user U identified by the user ID "U1" indicates that he / she will board the vehicle C represented by "vehicle # 1". Further, the user U identified by the user ID "U1" indicates that he / she has a driving history indicated by "driving history # 1".

ここで、図5に示す例では、「U1」、「LC11」、「LC12」、「車両#1」および「運転歴#1」といった抽象的な値を用いて図示するが、「U1」、「LC11」、「LC12」、「車両#1」および「運転歴#1」には、具体的な文字列や数値等の情報が記憶されるものとする。以下、他の情報に関する図においても、抽象的な値を図示する場合がある。 Here, in the example shown in FIG. 5, although illustrated using abstract values such as "U1", "LC11", "LC12", "vehicle # 1" and "driving history # 1", "U1", Information such as specific character strings and numerical values shall be stored in "LC11", "LC12", "vehicle # 1" and "driving history # 1". Hereinafter, abstract values may be illustrated also in figures relating to other information.

なお、利用者データベース121は、上記に限らず、目的に応じて種々の情報を記憶してもよい。例えば、利用者データベース121は、利用者Uのデモグラフィック(人口統計学的属性)、サイコグラフィック(心理学的属性)、ジオグラフィック(地理学的属性)、ベヘイビオラル(行動学的属性)等の属性に関する情報を記憶してもよい。また、利用者データベース121は、氏名、家族構成、職業、職位、収入、資格、居住形態(戸建、マンション等)、通学・通勤時間、通学・通勤経路、定期券区間(駅、路線等)、利用頻度の高い駅(自宅・勤務地の最寄駅以外)、行動履歴(利用頻度の高い位置情報)、趣味、興味、ライフスタイル等の情報を記憶してもよい。また、利用者データベース121は、パークアンドライドや駅周辺でのカーシェアリング・レンタカー等の利用の有無に関する情報を記憶してもよい。 The user database 121 is not limited to the above, and various information may be stored depending on the purpose. For example, the user database 121 has attributes such as demographic (demographic attribute), psychographic (psychological attribute), geographic (geographical attribute), and behavioral (behavioral attribute) of user U. May remember information about. In addition, the user database 121 includes name, family structure, occupation, position, income, qualification, living style (detached house, apartment, etc.), commuting time, commuting route, commuter pass section (station, route, etc.). , Frequently used stations (other than the nearest station to your home / work location), activity history (frequently used location information), hobbies, interests, lifestyle, etc. may be stored. In addition, the user database 121 may store information regarding whether or not park-and-ride, car sharing, rental cars, etc. are used around the station.

(地図データベース122)
地図データベース122は、地図コンテンツ(地図情報)に関する各種情報を記憶する。また、地図データベース122は、地図APIによる地図サービスに関する各種情報を記憶する。地図データベース122は、既存の地図データベースで実現可能であるため、図示を省略する。
(Map database 122)
The map database 122 stores various information related to map contents (map information). In addition, the map database 122 stores various information related to the map service by the map API. Since the map database 122 can be realized with an existing map database, the illustration is omitted.

なお、地図データベース122は、上記に限らず、目的に応じて種々の情報を記憶してもよい。例えば、地図データベース122は、保有する地図コンテンツを地域や所定のブロックごとに区分している場合、区分された各地図コンテンツを識別するための識別情報として「地図ID」を記憶してもよい。この場合、「地図ID」は、各地図コンテンツに付与されている。 The map database 122 is not limited to the above, and various information may be stored depending on the purpose. For example, when the map database 122 divides the map contents to be owned by regions or predetermined blocks, the map database 122 may store the "map ID" as the identification information for identifying each of the divided map contents. In this case, the "map ID" is given to each map content.

(警戒対象データベース123)
警戒対象データベース123は、利用者Uの端末装置10により発見された車両走行上の警戒対象に関する各種情報を記憶する。図6は、警戒対象データベース123の一例を示す図である。図6に示した例では、警戒対象データベース123は、「利用者ID」、「出発地」、「目的地」、「移動日時」、「警戒対象」、「撮影日時」、「種別」、「位置」、「コメント」といった項目を有する。
(Caution target database 123)
The warning target database 123 stores various information regarding the warning target on vehicle running found by the terminal device 10 of the user U. FIG. 6 is a diagram showing an example of the alert target database 123. In the example shown in FIG. 6, the caution target database 123 has the "user ID", "departure place", "destination", "movement date and time", "warning target", "shooting date and time", "type", and " It has items such as "position" and "comment".

「利用者ID」は、利用者Uを識別するための識別情報を示す。なお、「利用者ID」は、各利用者Uの端末装置10を識別するための識別情報であってもよいし、各端末装置10にインストールされたカーナビアプリを識別するための識別情報であってもよい。 The "user ID" indicates identification information for identifying the user U. The "user ID" may be identification information for identifying the terminal device 10 of each user U, or identification information for identifying the car navigation application installed on each terminal device 10. You may.

また、「出発地」は、利用者Uが入力したルート検索における出発地を示す。例えば、「出発地」は、利用者Uの現在位置や、利用者Uがルート検索を行った場所、利用者Uが車両Cの運転を開始する場所(車両Cの所在地等)を示す。「出発地」は、利用者Uの「自宅」や「勤務地」であってもよい。 Further, the "departure place" indicates the departure place in the route search input by the user U. For example, the "departure place" indicates the current position of the user U, the place where the user U searches the route, and the place where the user U starts driving the vehicle C (the location of the vehicle C, etc.). The "departure place" may be the "home" or "work place" of the user U.

また、「目的地」は、利用者Uが入力したルート検索における目的地を示す。例えば、「目的地」は、利用者Uが目指す行き先や、その周囲の停車・駐車可能な場所(駐車場等)を示す。「目的地」は、利用者Uの「自宅」や「勤務地」であってもよい。 Further, the "destination" indicates a destination in the route search input by the user U. For example, the "destination" indicates a destination that the user U aims at, and a place (parking lot, etc.) around which the user U can stop or park. The "destination" may be the "home" or "work location" of the user U.

また、「移動日時」は、利用者Uが「出発地」から「目的地」まで移動した日時を示す。例えば、「移動日時」は、出発地の出発日時と目的地の到着日時とを示す。 Further, the "movement date and time" indicates the date and time when the user U has moved from the "departure place" to the "destination". For example, "travel date and time" indicates the departure date and time of the departure place and the arrival date and time of the destination.

また、「警戒対象」は、利用者Uの端末装置10のカーナビアプリのドライブレコーダ機能により撮影され、利用者Uにより特定された車両走行上の警戒対象を示す。例えば、「警戒対象」は、車両走行上の警戒対象の画像のファイルIDを示す。また、「撮影日時」は、車両走行上の警戒対象を撮影した日時を示す。 Further, the "warning target" indicates a warning target for vehicle running, which is photographed by the drive recorder function of the car navigation application of the terminal device 10 of the user U and is specified by the user U. For example, "warning target" indicates a file ID of an image of a warning target while the vehicle is running. In addition, the "shooting date and time" indicates the date and time when the warning target on the vehicle running was photographed.

また、「種別」は、車両走行上の警戒対象の種別を示す。例えば、「種別」は、取締装置、冠水・凍結路面、陥没・崩落箇所、落下物、事故現場、検問等の具体的内容を示す。 In addition, "type" indicates the type of warning target when the vehicle is running. For example, "type" indicates specific contents such as a control device, a flooded / frozen road surface, a depressed / collapsed part, a falling object, an accident site, and an inspection.

また、「位置」は、カーナビアプリの地図上における車両走行上の警戒対象の位置を示す。例えば、「位置」は、緯度経度情報等であってもよい。 In addition, the "position" indicates the position of the warning target on the vehicle running on the map of the car navigation application. For example, the "position" may be latitude / longitude information or the like.

また、「コメント」は、車両走行上の警戒対象について利用者Uが記入したコメントを示す。「コメント」は、車両走行上の警戒対象についての説明であってもよい。 Further, the "comment" indicates a comment entered by the user U regarding the warning target when the vehicle is running. The "comment" may be an explanation of a warning target when the vehicle is running.

例えば、図6に示す例において、利用者ID「U1」により識別される利用者Uは、出発地「出発地#1」から目的地「目的地#1」まで、移動日時「移動日時#1」に車両Cを走行させたことを示す。また、利用者ID「U1」により識別される利用者Uにより特定された車両走行上の警戒対象「警戒対象#1」が、撮影日時「撮影日時#1」に撮影されたことを示す。また、車両走行上の警戒対象「警戒対象#1」は、種別「取締装置」であり、カーナビアプリの地図上において位置「位置#1」に存在し、コメント「コメント#1」が付されていることを示す。 For example, in the example shown in FIG. 6, the user U identified by the user ID "U1" travels from the departure place "departure place # 1" to the destination "destination # 1", and the travel date and time "travel date and time # 1". Indicates that the vehicle C has been driven. It also indicates that the warning target "warning target # 1" on the vehicle running identified by the user U identified by the user ID "U1" was shot at the shooting date and time "shooting date and time # 1". In addition, the warning target "warning target # 1" on vehicle driving is a type "control device", exists at the position "position # 1" on the map of the car navigation application, and is accompanied by a comment "comment # 1". Indicates that you are.

ここで、警戒対象データベース123には、実際には、利用者Uや車両走行上の警戒対象を識別するための文字列や数値、出発地や目的地を識別するための文字列や数値、移動日時や撮影日時を示す具体的な数値等の情報が登録される。 Here, in the warning target database 123, a character string or numerical value for identifying the user U or a warning target when traveling a vehicle, a character string or numerical value for identifying a departure place or a destination, and a movement are actually stored in the warning target database 123. Information such as specific numerical values indicating the date and time and the shooting date and time is registered.

なお、警戒対象データベース123は、上記に限らず、目的に応じて種々の情報を記憶してもよい。例えば、警戒対象データベース123は、カーナビアプリの地図上に車両走行上の警戒対象が表示される期間(有効期限)を示す情報を記憶してもよい。また、警戒対象データベース123は、警報として発するメッセージの内容を示す情報を記憶してもよい。 The alert target database 123 is not limited to the above, and various information may be stored depending on the purpose. For example, the warning target database 123 may store information indicating a period (expiration date) during which the warning target on vehicle travel is displayed on the map of the car navigation application. In addition, the alert target database 123 may store information indicating the content of the message issued as an alarm.

(制御部130)
図4に戻り、説明を続ける。制御部130は、コントローラ(controller)であり、例えば、CPU(Central Processing Unit)、MPU(Micro Processing Unit)、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等によって、情報処理装置100内部の記憶装置に記憶されている各種プログラム(情報処理プログラムの一例に相当)がRAM等の記憶領域を作業領域として実行されることにより実現される。図4に示す例では、制御部130は、受付部131と、取得部132と、学習部133と、提供部134とを有する。
(Control unit 130)
Returning to FIG. 4, the description will be continued. The control unit 130 is a controller, and is an information processing device 100 using, for example, a CPU (Central Processing Unit), an MPU (Micro Processing Unit), an ASIC (Application Specific Integrated Circuit), an FPGA (Field Programmable Gate Array), or the like. It is realized by executing various programs (corresponding to an example of an information processing program) stored in an internal storage device using a storage area such as a RAM as a work area. In the example shown in FIG. 4, the control unit 130 includes a reception unit 131, an acquisition unit 132, a learning unit 133, and a providing unit 134.

(受付部131)
受付部131は、通信部110を介して、各利用者Uの端末装置10から、各利用者Uに関する各種情報の登録を受付け、利用者データベース121に記憶する。
(Reception Department 131)
The reception unit 131 receives the registration of various information about each user U from the terminal device 10 of each user U via the communication unit 110, and stores the registration in the user database 121.

(取得部132)
取得部132は、通信部110を介して、各利用者Uの端末装置10から、車両走行上の警戒対象に関するデータを取得し、警戒対象データベース123に記憶する。
(Acquisition unit 132)
The acquisition unit 132 acquires data regarding a warning target during vehicle travel from the terminal device 10 of each user U via the communication unit 110, and stores the data in the warning target database 123.

このとき、各利用者Uの端末装置10は、カーナビアプリのドライブレコーダ機能により走行中に撮像した画像から車両走行上の警戒対象を発見する。各利用者Uは、端末装置10を操作して、カーナビアプリの地図上において、車両走行上の警戒対象の位置をPOIとして設定し、警戒対象の名称や、その警戒対象に関するコメント等を入力して、POIデータを作成する。そして、ドライブレコーダ機能により撮影された画像データと、作成されたPOIデータとを組み合わせて、車両走行上の警戒対象に関するデータを作成する。 At this time, the terminal device 10 of each user U discovers a warning target on vehicle travel from an image captured during travel by the drive recorder function of the car navigation application. Each user U operates the terminal device 10 to set the position of the warning target on the vehicle running as a POI on the map of the car navigation application, and inputs the name of the warning target, a comment about the warning target, and the like. And create POI data. Then, the image data taken by the drive recorder function and the created POI data are combined to create data on a warning target during vehicle driving.

(学習部133)
学習部133は、警戒対象データベース123に記憶された車両走行上の警戒対象に関するデータに対する機械学習を行い、機械学習の結果として、学習モデルを生成する。
(Learning Department 133)
The learning unit 133 performs machine learning on the data related to the warning target on the vehicle running stored in the warning target database 123, and generates a learning model as a result of the machine learning.

機械学習は、例えばディープニューラルネットワーク(DNN:Deep Neural Network)を利用したディープラーニング(深層学習)等である。また、データマイニングやその他の機械学習アルゴリズムを利用してもよい。 Machine learning is, for example, deep learning (deep learning) using a deep neural network (DNN). Data mining and other machine learning algorithms may also be used.

(提供部134)
提供部134は、学習モデルに基づいて、車両走行上の警戒対象に関するデータの中から、高精度なデータを抽出し、各利用者Uの端末装置10に対して、車両走行上の警戒対象に関する高精度なデータを提供する。
(Providing section 134)
Based on the learning model, the providing unit 134 extracts highly accurate data from the data related to the warning target on vehicle running, and refers to the terminal device 10 of each user U regarding the warning target on vehicle running. Providing highly accurate data.

このとき、提供部134は、各利用者Uの端末装置10に対して、車両走行上の警戒対象に関する高精度なデータとともに、その警戒対象が存在する場所で端末装置10が発する警報に関するデータを提供してもよい。警報に関するデータは、例えば、警報を発するタイミング(○○m手前等)や、警報として発するメッセージの内容に関するデータ等である。なお、警報を発するタイミングは、走行速度(車速)や混雑状況(渋滞等)に応じて変更されてもよい。 At this time, the providing unit 134 provides the terminal device 10 of each user U with highly accurate data regarding the warning target during vehicle traveling and data regarding an alarm issued by the terminal device 10 at the place where the warning target exists. May be provided. The data related to the alarm is, for example, data related to the timing of issuing the alarm (before XX m, etc.), the content of the message issued as the alarm, and the like. The timing of issuing the warning may be changed according to the traveling speed (vehicle speed) and the congestion situation (traffic jam, etc.).

〔5.処理手順〕
次に、図7A、図7Bおよび図8を用いて実施形態に係る端末装置10および情報処理装置100による処理手順について説明する。図7A、図7Bおよび図8は、実施形態に係る処理手順を示すフローチャートである。
[5. Processing procedure]
Next, the processing procedure by the terminal device 10 and the information processing device 100 according to the embodiment will be described with reference to FIGS. 7A, 7B, and 8. 7A, 7B and 8 are flowcharts showing the processing procedure according to the embodiment.

〔5−1.端末装置による警戒対象の発見に関する処理手順〕
まず、図7Aを用いて実施形態に係る端末装置10による処理手順について説明する。図7Aは、端末装置10による警戒対象の発見に関する処理手順を示すフローチャートである。なお、以下に示す処理手順は、端末装置10の制御部30によって繰り返し実行される。
[5-1. Processing procedure for finding a warning target by the terminal device]
First, the processing procedure by the terminal device 10 according to the embodiment will be described with reference to FIG. 7A. FIG. 7A is a flowchart showing a processing procedure for finding a warning target by the terminal device 10. The processing procedure shown below is repeatedly executed by the control unit 30 of the terminal device 10.

ここで、端末装置10は、車両Cの前方を撮影できるように設置されている。例えば、利用者Uは、端末装置10とともに車両Cに乗り込み、車両Cの車内に端末装置10を設置(固定)する。なお、端末装置10は、予め車両Cの車内に設置されていてもよい。 Here, the terminal device 10 is installed so that the front of the vehicle C can be photographed. For example, the user U gets into the vehicle C together with the terminal device 10 and installs (fixes) the terminal device 10 in the vehicle C. The terminal device 10 may be installed in the vehicle C in advance.

端末装置10の制御部30は、端末装置10に対する利用者Uの操作に応じて、ドライブレコーダ機能が搭載されたカーナビアプリを起動する(ステップS101)。 The control unit 30 of the terminal device 10 activates a car navigation application equipped with a drive recorder function in response to an operation of the user U on the terminal device 10 (step S101).

制御部30は、カーナビアプリに対する利用者Uの目的地の入力に応じて、その目的地までのルート検索を行う(ステップS102)。 The control unit 30 searches for a route to the destination in response to the input of the destination of the user U to the car navigation application (step S102).

制御部30は、車両Cの走行開始(利用者Uの運転開始)とともに、カーナビアプリのナビゲーション機能による目的地への案内を開始し、ドライブレコーダ機能による撮影を開始する(ステップS103)。 The control unit 30 starts traveling of the vehicle C (start of driving of the user U), starts guiding the destination by the navigation function of the car navigation application, and starts shooting by the drive recorder function (step S103).

制御部30は、カーナビアプリのドライブレコーダ機能により、車両C1の走行中に、車両Cの前方の路上や路肩等を撮影する(ステップS104)。 The control unit 30 uses the drive recorder function of the car navigation application to take a picture of the road surface, the road shoulder, and the like in front of the vehicle C while the vehicle C1 is traveling (step S104).

制御部30は、例えばAI等による画像認識により、車両Cの前方の路上や路肩等に存在し、カーナビアプリの地図上に未だ表示されていない警戒対象であって、所定の条件に適合する警戒対象を発見した場合、利用者Uに対して警報を発し、後で再確認できるように、その警戒対象の位置および画像を記憶する(ステップS105)。 The control unit 30 is a warning target that exists on the road or shoulder in front of the vehicle C by image recognition by AI or the like and is not yet displayed on the map of the car navigation application, and is a warning target that meets a predetermined condition. When the target is found, an alarm is issued to the user U, and the position and image of the warning target are stored so that the user U can be reconfirmed later (step S105).

制御部30は、利用者Uが車両Cを運転していない時に、車両Cの走行中に撮影された画像を確認して行った操作に応じて、車両Cの走行中に撮影された画像に含まれる車両走行上の警戒対象(取締装置、冠水・凍結路面、陥没・崩落箇所、落下物、事故現場、検問等)を特定する(ステップS106)。 The control unit 30 confirms the image taken while the vehicle C is running when the user U is not driving the vehicle C, and responds to the operation performed by checking the image taken while the vehicle C is running. Identify the included warning targets (control device, flooded / frozen road surface, depressed / collapsed part, falling object, accident site, inspection, etc.) (step S106).

制御部30は、利用者Uが入力した警戒対象の名称や、その警戒対象に関するコメント等を設定して、カーナビアプリの地図上において車両走行上の警戒対象の位置を示すPOIデータを作成し、ドライブレコーダ機能により撮影された画像データと、作成されたPOIデータとを組み合わせて、車両走行上の警戒対象に関するデータを作成する(ステップS107)。 The control unit 30 sets the name of the warning target input by the user U, a comment about the warning target, and the like, creates POI data indicating the position of the warning target on the vehicle running on the map of the car navigation application, and creates POI data. The image data taken by the drive recorder function and the created POI data are combined to create data on a warning target during vehicle driving (step S107).

制御部30は、通信部11を介して、情報処理装置100に対して、車両走行上の警戒対象に関するデータを送信する(ステップS108)。 The control unit 30 transmits data regarding a warning target on vehicle travel to the information processing device 100 via the communication unit 11 (step S108).

〔5−2.端末装置による警報に関する処理手順〕
まず、図7Bを用いて実施形態に係る端末装置10による処理手順について説明する。図7Bは、端末装置10による警報に関する処理手順を示すフローチャートである。なお、以下に示す処理手順は、端末装置10の制御部30によって繰り返し実行される。
[5-2. Processing procedure for alarms by terminal devices]
First, the processing procedure by the terminal device 10 according to the embodiment will be described with reference to FIG. 7B. FIG. 7B is a flowchart showing a processing procedure related to the alarm by the terminal device 10. The processing procedure shown below is repeatedly executed by the control unit 30 of the terminal device 10.

ここで、端末装置10は、車両Cの前方を撮影できるように設置されている。例えば、利用者Uは、端末装置10とともに車両Cに乗り込み、車両Cの車内に端末装置10を設置(固定)する。なお、端末装置10は、予め車両Cの車内に設置されていてもよい。 Here, the terminal device 10 is installed so that the front of the vehicle C can be photographed. For example, the user U gets into the vehicle C together with the terminal device 10 and installs (fixes) the terminal device 10 in the vehicle C. The terminal device 10 may be installed in the vehicle C in advance.

端末装置10の制御部30は、端末装置10に対する利用者Uの操作に応じて、ドライブレコーダ機能が搭載されたカーナビアプリを起動する(ステップS201)。 The control unit 30 of the terminal device 10 activates a car navigation application equipped with a drive recorder function in response to an operation of the user U on the terminal device 10 (step S201).

制御部30は、カーナビアプリに対する利用者Uの目的地の入力に応じて、その目的地までのルート検索を行う(ステップS202)。 The control unit 30 searches for a route to the destination in response to the input of the destination of the user U to the car navigation application (step S202).

制御部30は、通信部11を介して、情報処理装置100から、その目的地までのルート上に存在する、車両走行上の警戒対象に関するデータを受信する(ステップS203)。 The control unit 30 receives data from the information processing device 100 via the communication unit 11 regarding the warning target on the vehicle traveling on the route to the destination (step S203).

このとき、制御部30は、車両走行上の警戒対象に関するデータに基づいて、カーナビアプリの地図上に、利用者Uが視認可能な形式で、車両走行上の警戒対象の存在を示す情報を表示してもよい。例えば、POIとして表示してもよい。 At this time, the control unit 30 displays information indicating the existence of the warning target on the vehicle running on the map of the car navigation application in a format that can be visually recognized by the user U, based on the data on the warning target on the vehicle running. You may. For example, it may be displayed as POI.

制御部30は、車両Cの走行開始(利用者Uの運転開始)とともに、カーナビアプリのナビゲーション機能による目的地への案内を開始し、ドライブレコーダ機能による撮影を開始する(ステップS204)。 The control unit 30 starts traveling of the vehicle C (start of driving of the user U), starts guiding the destination by the navigation function of the car navigation application, and starts shooting by the drive recorder function (step S204).

制御部30は、カーナビアプリのドライブレコーダ機能により、車両C1の走行中に、車両Cの前方の路上や路肩等を撮影する(ステップS205)。 The control unit 30 uses the drive recorder function of the car navigation application to take a picture of the road surface, the road shoulder, and the like in front of the vehicle C while the vehicle C1 is traveling (step S205).

制御部30は、車両走行上の警戒対象に関するデータに基づいて、車両走行上の警戒対象が存在する場所の手前で、警報を発する(ステップS206)。 The control unit 30 issues an alarm in front of the place where the warning target in the vehicle running exists based on the data regarding the warning target in the vehicle running (step S206).

例えば、制御部30は、車両走行上の警戒対象に関するデータに基づいて、車両Cの現在位置が警戒対象の位置から所定範囲内である場合には、警報を発する。 For example, the control unit 30 issues an alarm when the current position of the vehicle C is within a predetermined range from the position of the warning target based on the data regarding the warning target on the vehicle running.

制御部30は、車両走行上の警戒対象に関するデータの通りの場所に、車両走行上の警戒対象が存在しているか否かを判断する(ステップS207)。 The control unit 30 determines whether or not there is a warning target for vehicle running at a location according to the data regarding the warning target for vehicle running (step S207).

例えば、制御部30は、車両走行上の警戒対象に関するデータの通りの場所で撮影された画像の中に、車両走行上の警戒対象が写っているか否かを判断する。 For example, the control unit 30 determines whether or not the warning target on the vehicle running is included in the image taken at the location according to the data on the warning target on the vehicle running.

制御部30は、車両走行上の警戒対象に関するデータの通りの場所に、車両走行上の警戒対象が存在していない場合には(ステップS207;No)、通信部11を介して、情報処理装置100に対して、車両走行上の警戒対象に関するデータの削除を要求する(ステップS208)。 The control unit 30 uses the information processing device via the communication unit 11 when the warning target for vehicle running does not exist at the location according to the data regarding the warning target for vehicle running (step S207; No). The 100 is requested to delete the data regarding the warning target on the vehicle running (step S208).

制御部30は、車両走行上の警戒対象に関するデータの通りの場所に、車両走行上の警戒対象が存在している場合には(ステップS207;Yes)、通信部11を介して、情報処理装置100に対して、車両走行上の警戒対象に関する最新のデータを送信し、車両走行上の警戒対象に関するデータを更新する(ステップS209)。 The control unit 30 uses the information processing device via the communication unit 11 when the warning target for vehicle running exists at the location according to the data regarding the warning target for vehicle running (step S207; Yes). The latest data on the warning target on vehicle running is transmitted to 100, and the data on the warning target on vehicle running is updated (step S209).

なお、車両走行上の警戒対象に関する最新のデータには、例えば車両走行上の警戒対象の現在の状態等に関する新たなコメントを追加してもよい。 It should be noted that, for example, a new comment regarding the current state of the warning target during vehicle running may be added to the latest data regarding the warning target during vehicle running.

ここで、車両走行上の警戒対象に関する最新のデータを送信し、車両走行上の警戒対象に関するデータを更新することで、車両走行上の警戒対象に関するデータの有効期限が更新/延長される。すなわち、情報処理装置100が車両走行上の警戒対象に関するデータを削除するタイミングが先に延びる。このように、車両走行上の警戒対象の存在が確認され続ける限り、車両走行上の警戒対象に関するデータも存続する。 Here, by transmitting the latest data on the warning target on vehicle running and updating the data on the warning target on vehicle running, the expiration date of the data on the warning target on vehicle running is updated / extended. That is, the timing at which the information processing device 100 deletes the data related to the warning target on the vehicle running is extended first. In this way, as long as the existence of the warning target in the vehicle running is continuously confirmed, the data regarding the warning target in the vehicle running will also continue.

〔5−3.情報処理装置による処理手順〕
次に、図8を用いて実施形態に係る情報処理装置100による処理手順について説明する。図8は、情報処理装置100による処理手順を示すフローチャートである。なお、以下に示す処理手順は、情報処理装置100の制御部130によって繰り返し実行される。
[5-3. Processing procedure by information processing device]
Next, the processing procedure by the information processing apparatus 100 according to the embodiment will be described with reference to FIG. FIG. 8 is a flowchart showing a processing procedure by the information processing apparatus 100. The processing procedure shown below is repeatedly executed by the control unit 130 of the information processing apparatus 100.

情報処理装置100の制御部130は、通信部110を介して、各利用者Uの端末装置10から、車両走行上の警戒対象に関するデータを収集する(ステップS301)。 The control unit 130 of the information processing device 100 collects data regarding a warning target on vehicle travel from the terminal device 10 of each user U via the communication unit 110 (step S301).

制御部130は、車両走行上の警戒対象に関するデータを警戒対象データベース123に記憶し、既に記憶されているデータであれば、上書きして最新のデータに更新する(ステップS302)。 The control unit 130 stores the data related to the warning target on the vehicle running in the warning target database 123, overwrites the already stored data with the latest data (step S302).

このとき、情報処理装置100は、各利用者Uの端末装置10から、車両走行上の警戒対象に関するデータに含まれるその警戒対象に関するコメント等を、事後的に入力/変更できるようにしてもよい。 At this time, the information processing device 100 may allow the terminal device 10 of each user U to input / change a comment or the like regarding the warning target included in the data regarding the warning target during vehicle travel after the fact. ..

また、制御部130は、複数(所定人数以上)の利用者Uから、その車両走行上の警戒対象に関するデータの削除の要求を受けた場合に、その車両走行上の警戒対象に関するデータを削除する。 Further, when the control unit 130 receives a request from a plurality of users (more than a predetermined number of people) to delete the data related to the warning target on the vehicle running, the control unit 130 deletes the data related to the warning target on the vehicle running. ..

制御部130は、記憶されている車両走行上の警戒対象に関するデータに対する機械学習を行う(ステップS303)。 The control unit 130 performs machine learning on the stored data regarding the warning target on the vehicle running (step S303).

制御部130は、機械学習の結果として作成された学習モデルに基づいて、収集された車両走行上の警戒対象に関するデータの中から、高精度なデータを抽出する(ステップS304)。 Based on the learning model created as a result of machine learning, the control unit 130 extracts highly accurate data from the collected data on the warning target on vehicle running (step S304).

制御部130は、通信部110を介して、利用者Uの端末装置10に対して、車両走行上の警戒対象に関する高精度なデータを提供する(ステップS305)。 The control unit 130 provides the terminal device 10 of the user U via the communication unit 110 with highly accurate data regarding the warning target during vehicle travel (step S305).

〔6.変形例〕
上述した端末装置10および情報処理装置100は、上記実施形態以外にも種々の異なる形態にて実施されてよい。そこで、以下では、実施形態の変形例について説明する。
[6. Modification example]
The terminal device 10 and the information processing device 100 described above may be implemented in various different forms other than the above-described embodiment. Therefore, a modified example of the embodiment will be described below.

上記の実施形態において、利用者Uは、車両走行上の警戒対象を特定した後、さらに特定された車両走行上の警戒対象をランク分けしてもよい。例えば、利用者Uは、特定された車両走行上の警戒対象を、5段階で評価(レベル1〜5にランク分け)してもよい。 In the above embodiment, the user U may specify the warning target on the vehicle running and then rank the specified warning target on the vehicle running. For example, the user U may evaluate the specified vehicle driving warning target on a five-point scale (ranked into levels 1 to 5).

また、上記の実施形態において、情報処理装置100は、各利用者Uがカーナビアプリの地図上に表示された車両走行上の警戒対象に対して投票を行うことができるようにしてもよい。例えば、情報処理装置100は、投票数に応じて、車両走行上の警戒対象をランク分け又はスコアリングしてもよい。また、情報処理装置100は、投票数に応じて、その車両走行上の警戒対象に関するデータを作成した利用者Uの端末装置10に対して、電子商店街(オンラインモール)等で使用できるクーポンやポイント等を提供してもよい。また、車両走行上の警戒対象に対する投票数を、保険に応用してもよい。 Further, in the above embodiment, the information processing device 100 may allow each user U to vote for the warning target on the vehicle running displayed on the map of the car navigation application. For example, the information processing device 100 may rank or score the warning target on the vehicle running according to the number of votes. Further, the information processing device 100 can be used as a coupon or a coupon that can be used in an electronic shopping district (online mall) or the like for the terminal device 10 of the user U who has created data on a warning target on the vehicle running according to the number of votes. Points and the like may be provided. In addition, the number of votes for the object of caution during vehicle driving may be applied to insurance.

また、上記の実施形態において、利用者Uの端末装置10は、カーナビアプリの動作中に、AI等による画像認識等により、車両走行上の警戒対象以外にも、高速道路の路側帯などにある非常電話、電話ボックス、パーキングメータ等を発見するようにしてもよい。 Further, in the above embodiment, the terminal device 10 of the user U is located in the roadside zone of the expressway, etc., in addition to the warning target for vehicle traveling by image recognition by AI or the like during the operation of the car navigation application. Emergency telephones, telephone booths, parking meters, etc. may be found.

また、上記の実施形態において、利用者Uの端末装置10は、カーナビアプリの動作中に、AI等による画像認識等により、逆走/あおり運転/蛇行運転等の危険運転が行われている車両を発見した場合には、それらの車両を車両走行上の警戒対象と判断し、それらの車両の画像データと、発見された位置および時刻とを組み合わせて、車両走行上の警戒対象に関するデータを作成し、情報処理装置100に対して、その車両走行上の警戒対象に関するデータを送信してもよい。 Further, in the above embodiment, the terminal device 10 of the user U is a vehicle in which dangerous driving such as reverse driving / tilting driving / meandering driving is performed by image recognition by AI or the like while the car navigation application is operating. If is found, those vehicles are judged to be warning targets for vehicle driving, and the image data of those vehicles is combined with the discovered position and time to create data related to the warning target for vehicle driving. Then, the data regarding the warning target on the vehicle traveling may be transmitted to the information processing device 100.

また、上記の実施形態において、利用者Uの端末装置10は、カーナビアプリの動作中に、利用者Uの車両Cが事故にあった場合や、検問や取締りを受けた場合には、その際にドライブレコーダ機能により撮影された画像データと、その際の現在位置を示す位置情報とを組み合わせて、車両走行上の警戒対象に関するデータを作成し、情報処理装置100に対して、その車両走行上の警戒対象に関するデータを送信してもよい。 Further, in the above embodiment, the terminal device 10 of the user U is in the event that the vehicle C of the user U has an accident, or is inspected or cracked down while the car navigation application is operating. By combining the image data taken by the drive recorder function and the position information indicating the current position at that time, data on the warning target on the vehicle running is created, and the information processing device 100 is subjected to the vehicle running. You may send data about your alert.

また、上記の実施形態において、利用者Uの端末装置10は、カーナビアプリの動作中に、インカメラによる画像認識等により、利用者Uの様子や挙動を観察し、車両走行上の警戒対象となり得る脇見運転や居眠り運転等と判断した場合には、警報や警告を発するようにしてもよい。 Further, in the above embodiment, the terminal device 10 of the user U observes the state and behavior of the user U by image recognition by an in-camera or the like during the operation of the car navigation application, and becomes a warning target when traveling the vehicle. If it is determined that the driver is looking aside or taking a nap, an alarm or warning may be issued.

また、上記の実施形態において、利用者Uの端末装置10は、カーナビアプリの動作中に、マイクによる音声認識や、インカメラによる画像認識等により、利用者Uの非常事態を示す音声(悲鳴や叫び声、助けを求める声等)やパニック状態の行動等を検知した場合には、その際の車内外の様子を撮影し、それらの画像を情報処理装置100に送信してもよいし、予め登録された他の利用者(家族、友人等)の端末装置に送信してもよい。また、情報処理装置100は、利用者Uの端末装置10から、それらの画像を受信した際に、それらの画像を予め登録された他の利用者の端末装置に転送してもよい。 Further, in the above embodiment, the terminal device 10 of the user U uses voice recognition by a microphone, image recognition by an in-camera, or the like during operation of the car navigation application to indicate a voice (scream or scream) indicating an emergency situation of the user U. When a scream, a voice asking for help, etc.) or a panicked behavior is detected, the inside and outside of the vehicle at that time may be photographed and the images may be transmitted to the information processing device 100 or registered in advance. It may be transmitted to the terminal device of another user (family, friend, etc.). Further, when the information processing device 100 receives the images from the terminal device 10 of the user U, the information processing device 100 may transfer the images to the terminal device of another user registered in advance.

また、上記の実施形態において、車両Cの前方(進行方向)の路上や路肩等を撮影しているが、実際には、さらに車両Cの側方や後方の路上や路肩等も撮影してもよい。例えば、車両Cが通過した後に落下物や崩落等が発生する可能性もあり、側方や後方を撮影することで、このような落下物や崩落等を発見することができる。特に、交通量の少ない道路で、車両Cの後続車が存在しない場合には、車両Cが側方や後方を撮影することは有益である。 Further, in the above embodiment, the road surface, the road shoulder, etc. in front of the vehicle C (in the direction of travel) are photographed, but in reality, the road surface, the road shoulder, etc. on the side or the rear side of the vehicle C may also be photographed. good. For example, there is a possibility that a falling object or a collapse may occur after the vehicle C has passed, and such a falling object or a collapse can be found by photographing the side or the rear. In particular, on a road with a small amount of traffic, it is useful for the vehicle C to photograph the side or the rear when there is no following vehicle of the vehicle C.

また、上記の実施形態において、屋外の道路(公道、私道等)上で撮影しているが、実際には、地下の道路やトンネル内で撮影してもよい。また、屋内で撮影してもよい。例えば、車両進入可能な屋内施設や、屋内駐車場/立体駐車場/地下駐車場等で撮影してもよい。このとき、GPS等の測位システムで位置情報を取得することが困難な場合には、自律航法(DR:Dead Reckoning)や歩行者自律航法(PDR)等の技術を用いて、車両Cや端末装置10の位置を測位する。 Further, in the above embodiment, the image is taken on an outdoor road (public road, private road, etc.), but in reality, the image may be taken in an underground road or tunnel. You may also shoot indoors. For example, the photograph may be taken in an indoor facility where vehicles can enter, an indoor parking lot / multi-story parking lot / underground parking lot, or the like. At this time, if it is difficult to acquire position information with a positioning system such as GPS, the vehicle C or terminal device is used by using technologies such as autonomous navigation (DR: Dead Reckoning) and pedestrian autonomous navigation (PDR). Position 10 positions.

また、上記の実施形態において、端末装置10は、カーナビアプリのドライブレコーダ機能により、車両の制御のために搭載された車載カメラ等と連携し、車載カメラ等で撮像した画像を取得して、取得された画像から車両走行上の警戒対象を発見してもよい。例えば、利用者Uの端末装置10は、車両周囲の画像を合成して俯瞰画像(俯瞰映像)を作成するための車載カメラや、先進運転支援システム(ADAS:Advanced Driver Assistance Systems)又は自動運転における車載カメラ、LiDAR(Light Detection and Ranging)、ミリ波レーダ等と連携して、それらの出力結果を取得し、それらの出力結果から車両走行上の警戒対象を発見してもよい。 Further, in the above embodiment, the terminal device 10 cooperates with an in-vehicle camera or the like mounted for controlling the vehicle by the drive recorder function of the car navigation application, and acquires and acquires an image captured by the in-vehicle camera or the like. You may find a warning target on the vehicle running from the image. For example, the terminal device 10 of the user U is used in an in-vehicle camera for synthesizing images around the vehicle to create a bird's-eye view image (bird's-eye view image), an advanced driver assistance system (ADAS), or automatic driving. In cooperation with an in-vehicle camera, LiDAR (Light Detection and Ranging), millimeter-wave radar, etc., the output results thereof may be acquired, and the warning target for vehicle driving may be discovered from the output results.

また、上記の実施形態において、車両Cに限らず、徒歩や自転車、車両以外の移動体を対象としてもよい。徒歩や自転車の場合は、利用者U自身が移動体であるとも言える。車両以外の移動体は、例えば、ドローン、ロボット、パーソナルモビリティ、河川を移動する船舶や水上オートバイ、各種グライダーや小型航空機等である。 Further, in the above embodiment, not only the vehicle C but also a walking body, a bicycle, and a moving body other than the vehicle may be targeted. In the case of walking or biking, it can be said that the user U himself is a moving body. Vehicles other than vehicles include, for example, drones, robots, personal mobility, ships moving in rivers, personal watercraft, various gliders, small aircraft, and the like.

〔7.効果〕
上述してきたように、本願に係る端末装置10は、移動体(車両等)に搭載された情報処理装置であって、撮影部と、作成部と、送信部とを備える。撮影部は、移動体の進行中に移動体進行上の警戒対象を撮影する。作成部は、利用者が移動体進行上の警戒対象の画像を確認した上で行った操作に応じて、移動体進行上の警戒対象に関するデータを作成する。送信部は、移動体進行上の警戒対象に関するデータを外部に送信する。これにより、移動体進行上の様々な警戒対象を発見して情報共有することができる。
[7. effect〕
As described above, the terminal device 10 according to the present application is an information processing device mounted on a moving body (vehicle or the like), and includes a photographing unit, a creating unit, and a transmitting unit. The photographing unit photographs a warning target on the progress of the moving body while the moving body is in progress. The creating unit creates data on the warning target on the movement of the moving object according to the operation performed after confirming the image of the warning target on the progress of the moving body. The transmission unit transmits data regarding the warning target for the progress of the moving object to the outside. As a result, it is possible to discover and share information on various warning targets in the progress of the moving body.

また、本願に係る端末装置10は、受信部と、確認部と、警報部とをさらに備える。受信部は、外部から、自身が送信したデータ以外の移動体進行上の警戒対象に関するデータを受信する。確認部は、移動体進行上の警戒対象に関するデータに基づいて、移動体進行上の警戒対象が存在する場所を確認する。警報部は、移動体進行上の警戒対象が存在する場所の手前で警報を発する。これにより、移動体進行上の様々な警戒対象に対する警報を発することができる。 Further, the terminal device 10 according to the present application further includes a receiving unit, a confirmation unit, and an alarm unit. The receiving unit receives from the outside data related to the warning target on the progress of the moving object other than the data transmitted by itself. The confirmation unit confirms the location of the warning target on the movement of the moving body based on the data on the warning target on the progress of the moving body. The alarm unit issues an alarm in front of the place where the warning target for the progress of the moving object exists. As a result, it is possible to issue an alarm for various warning targets in the progress of the moving body.

また、本願に係る端末装置10は、要求部をさらに備える。要求部は、移動体進行上の警戒対象に関するデータの通りの場所に、移動体進行上の警戒対象が存在しなかった場合に、外部に対して、移動体進行上の警戒対象に関するデータの削除を要求する。これにより、既に存在しない移動体進行上の様々な警戒対象に関するデータを削除し、実態を反映することができる。 Further, the terminal device 10 according to the present application further includes a requesting unit. The requesting unit deletes the data related to the mobile progress warning target to the outside when the mobile progress warning target does not exist at the location according to the data related to the mobile progress warning target. To request. As a result, it is possible to delete data related to various warning targets in the progress of the moving body that do not already exist and reflect the actual situation.

また、本願に係る端末装置10は、更新部をさらに備える。更新部は、移動体進行上の警戒対象に関するデータの通りの場所に、移動体進行上の警戒対象が存在していた場合に、外部に対して、移動体進行上の警戒対象に関するデータを最新のデータに更新する。これにより、自動的に削除される移動体進行上の警戒対象に関するデータの有効期限を更新/延長することができる。 Further, the terminal device 10 according to the present application further includes an update unit. The update unit updates the data on the mobile progress warning target to the outside when the mobile progress warning target exists in the same place as the data on the mobile progress warning target. Update to the data of. As a result, it is possible to update / extend the expiration date of the data regarding the alert target for the progress of the moving object, which is automatically deleted.

また、本願に係る端末装置10は、撮影時警報部をさらに備える。撮影時警報部は、移動体の進行中に、撮影部で撮影された移動体進行上の警戒対象の画像の中に、所定の条件に適合する警戒対象が含まれている場合に、警報を発する。これにより、未だデータが作成されていない警戒対象を発見しつつ、その警戒対象について、警報を発することができる。 Further, the terminal device 10 according to the present application further includes a shooting alarm unit. During the progress of the moving object, the shooting alarm unit issues an alarm when the image of the warning target on the movement of the moving object taken by the shooting unit includes a warning target that meets a predetermined condition. Emit. As a result, it is possible to issue an alarm for the warning target while discovering the warning target for which data has not yet been created.

また、本願に係る端末装置10は、判断部をさらに備える。判断部は、危険な挙動をしている他の移動体を、移動体進行上の警戒対象と判断する。これにより、危険運転に該当する車両を警戒対象とし、警報を発することができる。 Further, the terminal device 10 according to the present application further includes a determination unit. The judgment unit determines that another moving object that behaves dangerously is a warning target for the progress of the moving object. As a result, it is possible to set a warning target for a vehicle that falls under dangerous driving and issue an alarm.

また、本願に係る端末装置10は、投票部をさらに備える。投票部は、外部に対して、移動体進行上の警戒対象に関するデータに対する投票を行うための部位である。これにより、警戒対象に対する投票を行うことができ、警戒対象のランク付けやスコアリングが可能になる。 Further, the terminal device 10 according to the present application further includes a voting unit. The voting unit is a part for voting on the data regarding the object of caution regarding the progress of the moving object to the outside. As a result, it is possible to vote for the alert target, and it is possible to rank and score the alert target.

また、本願に係る端末装置10は、利用者撮影部と、警告部とをさらに備える。利用者撮影部は、移動体の内部にいる利用者を撮影する。警告部は、移動体進行上の警戒対象となる利用者の挙動に応じて警告する。これにより、移動体進行上の警戒対象となり得る脇見運転や居眠り運転等に対して警告することができる。 Further, the terminal device 10 according to the present application further includes a user photographing unit and a warning unit. The user photography unit photographs the user inside the moving body. The warning unit warns according to the behavior of the user who is the target of caution in the progress of the moving body. As a result, it is possible to warn against inattentive driving, dozing driving, etc., which may be a warning target in the progress of the moving body.

また、本願に係る端末装置10は、報告部をさらに備える。報告部は、利用者の様子が異常であると判断した場合に、外部に対して、撮影された移動体の内部の画像を報告する。これにより、非常事態に陥った利用者の様子を、予め登録された他の利用者(家族、友人等)に通知することができる。 Further, the terminal device 10 according to the present application further includes a reporting unit. When the reporting unit determines that the state of the user is abnormal, the reporting unit reports the photographed image of the inside of the moving body to the outside. As a result, it is possible to notify other users (family members, friends, etc.) registered in advance of the state of the user who has fallen into an emergency situation.

移動体進行上の警戒対象は、移動式の速度違反自動取締装置である。これにより、移動式の取締装置に対して警報を発することができる。 The object of caution regarding the progress of moving objects is a mobile speed-violation automatic control device. This makes it possible to issue an alarm to the mobile control device.

また、上述してきたように、本願に係る情報処理装置100は、取得部と、記憶部と、提供部とを備える。取得部は、各利用者の端末装置で移動体の進行中に撮影した移動体進行上の警戒対象であって、各利用者が画像を確認した移動体進行上の警戒対象に関するデータを取得する。記憶部は、移動体進行上の警戒対象に関するデータを記憶する。提供部は、移動体進行上の警戒対象に関するデータを各利用者の端末装置に提供する。これにより、移動体進行上の様々な警戒対象を発見して情報共有することができる。 Further, as described above, the information processing apparatus 100 according to the present application includes an acquisition unit, a storage unit, and a provision unit. The acquisition unit acquires data on the moving object progress warning target captured by each user's terminal device while the moving body is in progress, and the image is confirmed by each user. .. The storage unit stores data regarding a warning target in the progress of the moving body. The providing unit provides the terminal device of each user with the data regarding the warning target in the progress of the moving body. As a result, it is possible to discover and share information on various warning targets in the progress of the moving body.

また、本願に係る情報処理装置100は、学習部をさらに備える。学習部は、移動体進行上の警戒対象に関するデータに対する機械学習を行う。これにより、移動体進行上の警戒対象に関するデータの精度を累積的に向上させることができる。 Further, the information processing device 100 according to the present application further includes a learning unit. The learning unit performs machine learning on data related to the alert target in the progress of the moving body. As a result, the accuracy of the data regarding the alert target in the progress of the moving body can be cumulatively improved.

提供部は、機械学習の結果として作成された学習モデルに基づいて、移動体進行上の警戒対象に関するデータを各利用者の端末装置に提供する。これにより、車両走行上の警戒対象に関する高精度なデータを提供することができる。 Based on the learning model created as a result of machine learning, the providing unit provides the terminal device of each user with data regarding the warning target in the progress of the moving object. As a result, it is possible to provide highly accurate data regarding the warning target when the vehicle is running.

また、本願に係る情報処理装置100は、削除部をさらに備える。削除部は、移動体進行上の警戒対象に関するデータの有効期限が到来した場合、移動体進行上の警戒対象に関するデータを削除する。これにより、登録してから一定期間が経過した移動体進行上の警戒対象に関するデータを自動的に削除することができる。 Further, the information processing device 100 according to the present application further includes a deletion unit. When the expiration date of the data related to the warning target on the progress of the moving object has expired, the deletion unit deletes the data related to the warning target on the progress of the moving body. As a result, it is possible to automatically delete the data related to the warning target on the progress of the moving object for which a certain period of time has passed since the registration.

〔8.ハードウェア構成〕
また、上述した実施形態に係る端末装置10や情報処理装置100は、例えば図9に示すような構成のコンピュータ1000によって実現される。図9は、ハードウェア構成の一例を示す図である。コンピュータ1000は、出力装置1010、入力装置1020と接続され、演算装置1030、一次記憶装置1040、二次記憶装置1050、出力I/F(Interface)1060、入力I/F1070、ネットワークI/F1080がバス1090により接続された形態を有する。
[8. Hardware configuration]
Further, the terminal device 10 and the information processing device 100 according to the above-described embodiment are realized by, for example, a computer 1000 having a configuration as shown in FIG. FIG. 9 is a diagram showing an example of a hardware configuration. The computer 1000 is connected to the output device 1010 and the input device 1020, and the arithmetic unit 1030, the primary storage device 1040, the secondary storage device 1050, the output I / F (Interface) 1060, the input I / F 1070, and the network I / F 1080 are bused. It has a form connected by 1090.

演算装置1030は、一次記憶装置1040や二次記憶装置1050に格納されたプログラムや入力装置1020から読み出したプログラム等に基づいて動作し、各種の処理を実行する。演算装置1030は、例えばCPU(Central Processing Unit)、MPU(Micro Processing Unit)、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等により実現される。 The arithmetic unit 1030 operates based on a program stored in the primary storage device 1040 or the secondary storage device 1050, a program read from the input device 1020, or the like, and executes various processes. The arithmetic unit 1030 is realized by, for example, a CPU (Central Processing Unit), an MPU (Micro Processing Unit), an ASIC (Application Specific Integrated Circuit), an FPGA (Field Programmable Gate Array), or the like.

一次記憶装置1040は、RAM(Random Access Memory)等、演算装置1030が各種の演算に用いるデータを一次的に記憶するメモリ装置である。また、二次記憶装置1050は、演算装置1030が各種の演算に用いるデータや、各種のデータベースが登録される記憶装置であり、ROM(Read Only Memory)、HDD(Hard Disk Drive)、SSD(Solid State Drive)、フラッシュメモリ等により実現される。二次記憶装置1050は、内蔵ストレージであってもよいし、外付けストレージであってもよい。また、二次記憶装置1050は、USBメモリやSD(Secure Digital)メモリカード等の取り外し可能な記憶媒体であってもよい。また、二次記憶装置1050は、クラウドストレージ(オンラインストレージ)やNAS(Network Attached Storage)、ファイルサーバ等であってもよい。 The primary storage device 1040 is a memory device that temporarily stores data used by the arithmetic unit 1030 for various calculations, such as a RAM (Random Access Memory). Further, the secondary storage device 1050 is a storage device in which data used by the calculation device 1030 for various calculations and various databases are registered, and is a ROM (Read Only Memory), an HDD (Hard Disk Drive), and an SSD (Solid). State Drive), flash memory, etc. The secondary storage device 1050 may be internal storage or external storage. Further, the secondary storage device 1050 may be a removable storage medium such as a USB memory or an SD (Secure Digital) memory card. Further, the secondary storage device 1050 may be a cloud storage (online storage), a NAS (Network Attached Storage), a file server, or the like.

出力I/F1060は、ディスプレイ、プロジェクタ、およびプリンタ等といった各種の情報を出力する出力装置1010に対し、出力対象となる情報を送信するためのインターフェイスであり、例えば、USB(Universal Serial Bus)やDVI(Digital Visual Interface)、HDMI(登録商標)(High Definition Multimedia Interface)といった規格のコネクタにより実現される。また、入力I/F1070は、マウス、キーボード、キーパッド、ボタン、およびスキャナ等といった各種の入力装置1020から情報を受信するためのインターフェイスであり、例えば、USB等により実現される。 The output I / F 1060 is an interface for transmitting information to be output to an output device 1010 that outputs various information such as a display, a projector, and a printer. For example, USB (Universal Serial Bus) or DVI. (Digital Visual Interface), HDMI (registered trademark) (High Definition Multimedia Interface), etc. are realized by standard connectors. The input I / F 1070 is an interface for receiving information from various input devices 1020 such as a mouse, keyboard, keypad, buttons, and a scanner, and is realized by, for example, USB.

また、出力I/F1060および入力I/F1070はそれぞれ出力装置1010および入力装置1020と無線で接続してもよい。すなわち、出力装置1010および入力装置1020は、ワイヤレス機器であってもよい。 Further, the output I / F 1060 and the input I / F 1070 may be wirelessly connected to the output device 1010 and the input device 1020, respectively. That is, the output device 1010 and the input device 1020 may be wireless devices.

また、出力装置1010および入力装置1020は、タッチパネルのように一体化していてもよい。この場合、出力I/F1060および入力I/F1070も、入出力I/Fとして一体化していてもよい。 Further, the output device 1010 and the input device 1020 may be integrated like a touch panel. In this case, the output I / F 1060 and the input I / F 1070 may also be integrated as input / output I / F.

なお、入力装置1020は、例えば、CD(Compact Disc)、DVD(Digital Versatile Disc)、PD(Phase change rewritable Disk)等の光学記録媒体、MO(Magneto-Optical disk)等の光磁気記録媒体、テープ媒体、磁気記録媒体、または半導体メモリ等から情報を読み出す装置であってもよい。 The input device 1020 is, for example, an optical recording medium such as a CD (Compact Disc), a DVD (Digital Versatile Disc), a PD (Phase change rewritable Disk), a magneto-optical recording medium such as an MO (Magneto-Optical disk), or a tape. It may be a device that reads information from a medium, a magnetic recording medium, a semiconductor memory, or the like.

ネットワークI/F1080は、ネットワークNを介して他の機器からデータを受信して演算装置1030へ送り、また、ネットワークNを介して演算装置1030が生成したデータを他の機器へ送信する。 The network I / F 1080 receives data from another device via the network N and sends it to the arithmetic unit 1030, and also transmits the data generated by the arithmetic unit 1030 to the other device via the network N.

演算装置1030は、出力I/F1060や入力I/F1070を介して、出力装置1010や入力装置1020の制御を行う。例えば、演算装置1030は、入力装置1020や二次記憶装置1050からプログラムを一次記憶装置1040上にロードし、ロードしたプログラムを実行する。 The arithmetic unit 1030 controls the output device 1010 and the input device 1020 via the output I / F 1060 and the input I / F 1070. For example, the arithmetic unit 1030 loads a program from the input device 1020 or the secondary storage device 1050 onto the primary storage device 1040, and executes the loaded program.

例えば、コンピュータ1000が端末装置10として機能する場合、コンピュータ1000の演算装置1030は、一次記憶装置1040上にロードされたプログラムを実行することにより、制御部30の機能を実現する。また、コンピュータ1000の演算装置1030は、ネットワークI/F1080を介して他の機器から取得したプログラムを一次記憶装置1040上にロードし、ロードしたプログラムを実行してもよい。また、コンピュータ1000の演算装置1030は、ネットワークI/F1080を介して他の機器と連携し、プログラムの機能やデータ等を他の機器の他のプログラムから呼び出して利用してもよい。 For example, when the computer 1000 functions as the terminal device 10, the arithmetic unit 1030 of the computer 1000 realizes the function of the control unit 30 by executing the program loaded on the primary storage device 1040. Further, the arithmetic unit 1030 of the computer 1000 may load a program acquired from another device via the network I / F 1080 onto the primary storage device 1040 and execute the loaded program. Further, the arithmetic unit 1030 of the computer 1000 may cooperate with other devices via the network I / F 1080 to call the functions and data of the program from other programs of the other devices and use them.

〔9.その他〕
以上、本願の実施形態を説明したが、これら実施形態の内容により本発明が限定されるものではない。また、前述した構成要素には、当業者が容易に想定できるもの、実質的に同一のもの、いわゆる均等の範囲のものが含まれる。さらに、前述した構成要素は適宜組み合わせることが可能である。さらに、前述した実施形態の要旨を逸脱しない範囲で構成要素の種々の省略、置換又は変更を行うことができる。
[9. others〕
Although the embodiments of the present application have been described above, the present invention is not limited to the contents of these embodiments. In addition, the above-mentioned components include those that can be easily assumed by those skilled in the art, those that are substantially the same, that is, those in a so-called equal range. Furthermore, the components described above can be combined as appropriate. Further, various omissions, replacements or changes of the components can be made without departing from the gist of the above-described embodiment.

また、上記実施形態において説明した各処理のうち、自動的に行われるものとして説明した処理の全部又は一部を手動的に行うこともでき、あるいは、手動的に行われるものとして説明した処理の全部又は一部を公知の方法で自動的に行うこともできる。この他、上記文書中や図面中で示した処理手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。例えば、各図に示した各種情報は、図示した情報に限られない。 Further, among the processes described in the above-described embodiment, all or a part of the processes described as being automatically performed can be manually performed, or the processes described as being manually performed can be performed. All or part of it can be done automatically by a known method. In addition, the processing procedure, specific name, and information including various data and parameters shown in the above document and drawings can be arbitrarily changed unless otherwise specified. For example, the various information shown in each figure is not limited to the illustrated information.

また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部又は一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的又は物理的に分散・統合して構成することができる。 Further, each component of each of the illustrated devices is a functional concept, and does not necessarily have to be physically configured as shown in the figure. That is, the specific form of distribution / integration of each device is not limited to the one shown in the figure, and all or part of the device is functionally or physically dispersed / physically distributed in arbitrary units according to various loads and usage conditions. Can be integrated and configured.

例えば、上述した情報処理装置100は、複数のサーバコンピュータで実現してもよく、また、機能によっては外部のプラットホーム等をAPI(Application Programming Interface)やネットワークコンピューティング等で呼び出して実現するなど、構成は柔軟に変更できる。 For example, the information processing device 100 described above may be realized by a plurality of server computers, or may be realized by calling an external platform or the like by API (Application Programming Interface), network computing, or the like depending on the function. Can be changed flexibly.

また、上述してきた実施形態および変形例は、処理内容を矛盾させない範囲で適宜組み合わせることが可能である。 Further, the above-described embodiments and modifications can be appropriately combined as long as the processing contents do not contradict each other.

また、上述してきた「部(section、module、unit)」は、「手段」や「回路」などに読み替えることができる。例えば、受付部は、受付手段や受付回路に読み替えることができる。 Further, the above-mentioned "section, module, unit" can be read as "means" or "circuit". For example, the reception unit can be read as a reception means or a reception circuit.

1 情報処理システム
10 端末装置
12 表示部
15 音声出力部
30 制御部
31 送信部
32 受信部
33 処理部
34 警報部
100 情報処理装置
110 通信部
120 記憶部
121 利用者データベース
122 地図データベース
123 警戒対象データベース
130 制御部
131 受付部
132 取得部
133 学習部
134 提供部
1 Information processing system 10 Terminal device 12 Display unit 15 Voice output unit 30 Control unit 31 Transmission unit 32 Reception unit 33 Processing unit 34 Alarm unit 100 Information processing equipment 110 Communication unit 120 Storage unit 121 User database 122 Map database 123 Warning target database 130 Control unit 131 Reception unit 132 Acquisition unit 133 Learning unit 134 Providing unit

Claims (16)

移動体に搭載された情報処理装置であって、
前記移動体の進行中に移動体進行上の警戒対象を撮影する撮影部と、
利用者が前記移動体進行上の警戒対象の画像を確認した上で行った操作に応じて、前記移動体進行上の警戒対象に関するデータを作成する作成部と、
前記移動体進行上の警戒対象に関するデータを外部に送信する送信部と
を備えることを特徴とする情報処理装置。
An information processing device mounted on a mobile body
An imaging unit that captures a warning target on the progress of the moving body while the moving body is in progress.
A creation unit that creates data related to the warning target on the movement of the moving body in response to an operation performed by the user after confirming the image of the warning target on the progress of the moving body.
An information processing device including a transmission unit that transmits data related to a warning target in the progress of a moving object to the outside.
外部から、自身が送信したデータ以外の移動体進行上の警戒対象に関するデータを受信する受信部と、
前記移動体進行上の警戒対象に関するデータに基づいて、前記移動体進行上の警戒対象が存在する場所を確認する確認部と、
前記移動体進行上の警戒対象が存在する場所の手前で警報を発する警報部と
をさらに備えることを特徴とする請求項1に記載の情報処理装置。
A receiver that receives data related to the mobile object's progress warning target other than the data transmitted by itself from the outside,
Based on the data related to the warning target on the progress of the moving object, a confirmation unit for confirming the location of the warning target on the progress of the moving body, and a confirmation unit.
The information processing apparatus according to claim 1, further comprising an alarm unit that issues an alarm in front of a place where a warning target for the progress of a moving body exists.
前記移動体進行上の警戒対象に関するデータの通りの場所に、前記移動体進行上の警戒対象が存在しなかった場合に、外部に対して、前記移動体進行上の警戒対象に関するデータの削除を要求する要求部と
をさらに備えることを特徴とする請求項2に記載の情報処理装置。
If the mobile object progressing warning target does not exist at the location according to the data related to the moving body progress warning target, the data related to the moving body progress warning target is deleted from the outside. The information processing apparatus according to claim 2, further comprising a requesting unit.
前記移動体進行上の警戒対象に関するデータの通りの場所に、前記移動体進行上の警戒対象が存在していた場合に、外部に対して、前記移動体進行上の警戒対象に関するデータを最新のデータに更新する更新部と
をさらに備えることを特徴とする請求項2又は3に記載の情報処理装置。
When the warning target on the movement of the moving body exists in the place according to the data on the warning target on the progress of the moving body, the latest data on the warning target on the progress of the moving body is updated to the outside. The information processing apparatus according to claim 2 or 3, further comprising an update unit for updating data.
前記移動体の進行中に、前記撮影部で撮影された移動体進行上の警戒対象の画像の中に、所定の条件に適合する警戒対象が含まれている場合に、警報を発する撮影時警報部と
をさらに備えることを特徴とする請求項1〜4のうちいずれか1つに記載の情報処理装置。
An alarm during shooting that issues an alarm when the image of the warning target on the movement of the moving body taken by the photographing unit includes a warning target that meets a predetermined condition while the moving body is in progress. The information processing apparatus according to any one of claims 1 to 4, further comprising a unit.
危険な挙動をしている他の移動体を、前記移動体進行上の警戒対象と判断する判断部と
をさらに備えることを特徴とする請求項1〜5のうちいずれか1つに記載の情報処理装置。
The information according to any one of claims 1 to 5, further comprising a determination unit for determining another moving object having a dangerous behavior as a warning target in the progress of the moving object. Processing equipment.
外部に対して、前記移動体進行上の警戒対象に関するデータに対する投票を行うための投票部と
をさらに備えることを特徴とする請求項1〜6のうちいずれか1つに記載の情報処理装置。
The information processing apparatus according to any one of claims 1 to 6, further comprising a voting unit for voting on data relating to the warning target in the progress of the moving object to the outside.
前記移動体の内部にいる利用者を撮影する利用者撮影部と、
前記移動体進行上の警戒対象となる前記利用者の挙動に応じて警告する警告部と
をさらに備えることを特徴とする請求項1〜7のうちいずれか1つに記載の情報処理装置。
A user photographing unit that photographs a user inside the moving body, and
The information processing apparatus according to any one of claims 1 to 7, further comprising a warning unit that warns according to the behavior of the user who is a warning target in the progress of the moving body.
前記利用者の様子が異常であると判断した場合に、外部に対して、撮影された前記移動体の内部の画像を報告する報告部と
をさらに備えることを特徴とする請求項8に記載の情報処理装置。
The eighth aspect of claim 8, further comprising a reporting unit for reporting an image of the inside of the moving body to the outside when it is determined that the state of the user is abnormal. Information processing device.
前記移動体進行上の警戒対象は、移動式の速度違反自動取締装置である
ことを特徴とする請求項1〜9のうちいずれか1つに記載の情報処理装置。
The information processing device according to any one of claims 1 to 9, wherein the object of caution in the progress of the moving body is a mobile speed violation automatic control device.
各利用者の端末装置で移動体の進行中に撮影した移動体進行上の警戒対象であって、前記各利用者が画像を確認した移動体進行上の警戒対象に関するデータを取得する取得部と、
前記移動体進行上の警戒対象に関するデータを記憶する記憶部と、
前記移動体進行上の警戒対象に関するデータを前記各利用者の端末装置に提供する提供部と
を備えることを特徴とする情報処理装置。
An acquisition unit that acquires data related to the moving object progress warning target that each user has confirmed the image of, which is a moving body progress warning target taken by each user's terminal device while the moving body is in progress. ,
A storage unit that stores data related to the warning target in the progress of the moving body,
An information processing device including a providing unit that provides data on a warning target in the progress of a moving object to the terminal device of each user.
前記移動体進行上の警戒対象に関するデータに対する機械学習を行う学習部と
をさらに備えることを特徴とする請求項11に記載の情報処理装置。
The information processing apparatus according to claim 11, further comprising a learning unit that performs machine learning on data related to a warning target in the progress of a moving object.
前記提供部は、前記機械学習の結果として作成された学習モデルに基づいて、前記移動体進行上の警戒対象に関するデータを前記各利用者の端末装置に提供する
ことを特徴とする請求項12に記載の情報処理装置。
13. The information processing device described.
前記移動体進行上の警戒対象に関するデータの有効期限が到来した場合、前記移動体進行上の警戒対象に関するデータを削除する削除部と
をさらに備えることを特徴とする請求項11〜13のうちいずれか1つに記載の情報処理装置。
Any of claims 11 to 13, further comprising a deletion unit that deletes the data related to the mobile movement warning target when the expiration date of the data related to the mobile movement warning target has come. The information processing device according to one.
情報処理装置が実行する情報処理方法であって、
移動体に搭載されたカメラにより、前記移動体の進行中に移動体進行上の警戒対象を撮影する撮影工程と、
利用者が前記移動体進行上の警戒対象の画像を確認した上で行った操作に応じて、前記移動体進行上の警戒対象に関するデータを作成する作成工程と、
前記移動体進行上の警戒対象に関するデータを外部に送信する送信工程と
を含むことを特徴とする情報処理方法。
It is an information processing method executed by an information processing device.
A shooting process in which a camera mounted on the moving body captures a warning target on the progress of the moving body while the moving body is in progress.
A creation step of creating data on the warning target on the movement of the moving body according to the operation performed by the user after confirming the image of the warning target on the progress of the moving body.
An information processing method including a transmission step of transmitting data related to a warning target in the progress of a moving object to the outside.
移動体に搭載されたカメラにより、前記移動体の進行中に移動体進行上の警戒対象を撮影する撮影手順と、
利用者が前記移動体進行上の警戒対象の画像を確認した上で行った操作に応じて、前記移動体進行上の警戒対象に関するデータを作成する作成手順と、
前記移動体進行上の警戒対象に関するデータを外部に送信する送信手順と
をコンピュータに実行させるための情報処理プログラム。
A shooting procedure in which a camera mounted on the moving body captures a warning target on the progress of the moving body while the moving body is in progress, and a shooting procedure.
A creation procedure for creating data related to the warning target on the movement of the moving body according to the operation performed by the user after confirming the image of the warning target on the progress of the moving body, and
An information processing program for causing a computer to execute a transmission procedure for transmitting data related to a warning target in the progress of a moving object to the outside.
JP2020015871A 2020-01-31 2020-01-31 Information processing equipment, information processing methods and information processing programs Active JP7041700B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020015871A JP7041700B2 (en) 2020-01-31 2020-01-31 Information processing equipment, information processing methods and information processing programs

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020015871A JP7041700B2 (en) 2020-01-31 2020-01-31 Information processing equipment, information processing methods and information processing programs

Publications (2)

Publication Number Publication Date
JP2021124794A true JP2021124794A (en) 2021-08-30
JP7041700B2 JP7041700B2 (en) 2022-03-24

Family

ID=77458932

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020015871A Active JP7041700B2 (en) 2020-01-31 2020-01-31 Information processing equipment, information processing methods and information processing programs

Country Status (1)

Country Link
JP (1) JP7041700B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023188836A1 (en) * 2022-03-30 2023-10-05 ソフトバンク株式会社 Learning device, server, mobile body, learning method, learning program, and detection device
WO2024111105A1 (en) * 2022-11-25 2024-05-30 日本電気株式会社 Warning device, system, method, and computer-readable medium
JP7499663B2 (en) 2020-09-25 2024-06-14 株式会社Nttドコモ Information processing device

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005190082A (en) * 2003-12-25 2005-07-14 Fuji Photo Film Co Ltd Drowsy driving-warning device and car navigation device
JP2017151798A (en) * 2016-02-25 2017-08-31 住友電気工業株式会社 Road abnormality warning system and on-vehicle machine
WO2019116832A1 (en) * 2017-12-15 2019-06-20 株式会社デンソー Self-driving assistance device

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005190082A (en) * 2003-12-25 2005-07-14 Fuji Photo Film Co Ltd Drowsy driving-warning device and car navigation device
JP2017151798A (en) * 2016-02-25 2017-08-31 住友電気工業株式会社 Road abnormality warning system and on-vehicle machine
WO2019116832A1 (en) * 2017-12-15 2019-06-20 株式会社デンソー Self-driving assistance device

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7499663B2 (en) 2020-09-25 2024-06-14 株式会社Nttドコモ Information processing device
WO2023188836A1 (en) * 2022-03-30 2023-10-05 ソフトバンク株式会社 Learning device, server, mobile body, learning method, learning program, and detection device
WO2024111105A1 (en) * 2022-11-25 2024-05-30 日本電気株式会社 Warning device, system, method, and computer-readable medium

Also Published As

Publication number Publication date
JP7041700B2 (en) 2022-03-24

Similar Documents

Publication Publication Date Title
US10547967B2 (en) Integrated assistive system to support wayfinding and situation awareness
US9891058B2 (en) Method and apparatus for providing navigation guidance via proximate devices
JP7041700B2 (en) Information processing equipment, information processing methods and information processing programs
US10553113B2 (en) Method and system for vehicle location
US20090208054A1 (en) Measuring a cohort's velocity, acceleration and direction using digital video
CN104380047B (en) Navigation system
US11064322B2 (en) Method, apparatus, and system for detecting joint motion
CN111351492A (en) Method and system for autonomous vehicle navigation
US20210140787A1 (en) Method, apparatus, and system for detecting and classifying points of interest based on joint motion
US20210142187A1 (en) Method, apparatus, and system for providing social networking functions based on joint motion
US20220070619A1 (en) Method, apparatus, and system for detecting events or points of interest based on mobile device orientation changes
JP2022538097A (en) Collection of user-provided data about navigable networks
US11914747B2 (en) Method, apparatus, and computer program product for quantifying the linkability of trajectory data
US11107175B2 (en) Method, apparatus, and system for providing ride-sharing functions based on joint motion
CN114096996A (en) Method and apparatus for using augmented reality in traffic
Masatu et al. Development and testing of road signs alert system using a smart mobile phone
JP6976384B1 (en) Information processing equipment, information processing methods and information processing programs
US20230400322A1 (en) Computer-readable medium, information display device, and information display method
KR101440334B1 (en) Server for providing traffic information, electonic device and method for providing traffic information
US20230400312A1 (en) Method, apparatus, and system for machine learning of vehicular wait events using map data and sensor data
JP6687648B2 (en) Estimating device, estimating method, and estimating program
JP7155196B2 (en) Information processing device, information processing method and information processing program
JP2023027525A (en) Information processing device, information processing method, and information processing program
JP2022098912A (en) Passage information providing device, passage information providing method and computer program
JP7025480B2 (en) Information processing equipment, information processing methods and information processing programs

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210219

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20210219

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20210318

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210511

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210628

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210803

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210909

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20211005

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211224

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20211224

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20220107

C21 Notice of transfer of a case for reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C21

Effective date: 20220111

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220301

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220311

R150 Certificate of patent or registration of utility model

Ref document number: 7041700

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250