JP7365145B2 - Information provision device, information provision method, and program - Google Patents

Information provision device, information provision method, and program Download PDF

Info

Publication number
JP7365145B2
JP7365145B2 JP2019109809A JP2019109809A JP7365145B2 JP 7365145 B2 JP7365145 B2 JP 7365145B2 JP 2019109809 A JP2019109809 A JP 2019109809A JP 2019109809 A JP2019109809 A JP 2019109809A JP 7365145 B2 JP7365145 B2 JP 7365145B2
Authority
JP
Japan
Prior art keywords
image
type
unit
specific
landscape
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019109809A
Other languages
Japanese (ja)
Other versions
JP2020012815A (en
Inventor
安昭 兵藤
一浩 二宮
孝章 西岡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yahoo Japan Corp
Original Assignee
Yahoo Japan Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2018136146A external-priority patent/JP6606779B6/en
Application filed by Yahoo Japan Corp filed Critical Yahoo Japan Corp
Priority to JP2019109809A priority Critical patent/JP7365145B2/en
Publication of JP2020012815A publication Critical patent/JP2020012815A/en
Application granted granted Critical
Publication of JP7365145B2 publication Critical patent/JP7365145B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、情報提供装置、情報提供方法、およびプログラムに関する。 The present invention relates to an information providing device, an information providing method, and a program.

従来、同一地点の地物画像データを解析し、地物画像データの内容が異なるか否かを判定し、判定結果に基づいて、同一地点における地物画像データの内容変更を通知する地物画像データ変更通知装置が開示されている(例えば、特許文献1参照)。 Conventionally, feature images that analyze feature image data at the same location, determine whether the content of the feature image data differs, and notify changes in the content of feature image data at the same location based on the determination results. A data change notification device has been disclosed (for example, see Patent Document 1).

特許第4895123号公報Patent No. 4895123

しかしながら、従来の技術は、地物画像データの内容変更を通知するものであり、利用者にとって有用な情報を提供することができない場合があった。 However, the conventional technology notifies users of changes in the content of feature image data, and may not be able to provide useful information to users.

本発明は、このような事情を考慮してなされたものであり、利用者にとってより有用な情報を提供することができる情報提供装置、情報処理方法、およびプログラムを提供することを目的の一つとする。 The present invention has been made in consideration of such circumstances, and one of the objects is to provide an information providing device, an information processing method, and a program that can provide more useful information to users. do.

本発明の一態様は、位置特定部と撮像部を有する他装置から、前記位置特定部により特定された位置情報が対応付けられ、前記撮像部により風景が撮像された画像を取得する取得部と、前記取得部により取得された画像から、前記風景に含まれる地物に関連する特定の意味を表している意味領域を抽出し、複数の特定モデルの中から、前記取得部が取得した画像の風景に適用される特定モデルを用いて、前記意味領域内の特定の意味を認識する認識部と、前記意味領域を含む画像が撮像された位置に対応付けて、前記認識部により認識された特定の意味を利用者に提供する提供部とを備える情報提供装置である。 One aspect of the present invention includes an acquisition unit that acquires, from another device having a position identification unit and an imaging unit, an image in which the position information specified by the position identification unit is associated and a landscape is captured by the imaging unit. , extracting a semantic region expressing a specific meaning related to a feature included in the landscape from the image acquired by the acquisition unit, and selecting one of the images acquired by the acquisition unit from among a plurality of specific models. a recognition unit that recognizes a specific meaning within the semantic area using a specific model applied to a landscape; and a recognition unit that recognizes a specific meaning within the semantic area using a specific model that is applied to a landscape; The information providing device includes a providing unit that provides the meaning of the information to the user.

本発明の一態様によれば、利用者にとってより有用な情報を提供することができる。 According to one aspect of the present invention, more useful information can be provided to the user.

情報処理システム1の機能構成の一例を示す図である。1 is a diagram showing an example of a functional configuration of an information processing system 1. FIG. 撮像装置20と情報処理装置100とにより実行される処理の流れをシーケンス図である。3 is a sequence diagram illustrating the flow of processing executed by the imaging device 20 and the information processing device 100. FIG. 基準情報44の内容の一例を示す図である。4 is a diagram showing an example of the contents of reference information 44. FIG. 対応情報42の内容の一例を示す図である。4 is a diagram showing an example of the contents of correspondence information 42. FIG. 更新された基準情報44の一例を示す図である。4 is a diagram showing an example of updated reference information 44. FIG. 撮像装置20に実行される処理の流れの一例を示すフローチャートである。5 is a flowchart illustrating an example of the flow of processing executed by the imaging device 20. FIG. 情報処理装置100により実行される特定処理の流れ一例を示すフローチャートである。2 is a flowchart illustrating an example of the flow of specific processing executed by the information processing device 100. FIG. 対象画像において矩形が導出された様子の一例を示す図である。FIG. 3 is a diagram illustrating an example of how a rectangle is derived in a target image. 矩形の画像IMが特定モデル126に入力され、特定モデル126がレギュラーガソリンの価格を出力する様子の一例を示す図である。7 is a diagram showing an example of how a rectangular image IM is input to a specific model 126, and the specific model 126 outputs the price of regular gasoline. FIG. 認識情報128の内容の一例を示す図である。3 is a diagram showing an example of the content of recognition information 128. FIG. 端末装置300の表示される画像の一例を示す図である。3 is a diagram showing an example of an image displayed on the terminal device 300. FIG. 第2実施形態の撮像装置20Aの機能構成の一例を示す図である。It is a figure showing an example of functional composition of imaging device 20A of a 2nd embodiment. 撮像装置20Aに実行される処理の流れの一例を示すフローチャートである。It is a flowchart which shows an example of the flow of the process performed by 20 A of imaging devices. 撮像装置20Aが送信対象の画像とするか、送信対象外の画像とするかを判定する処理の概念図である。FIG. 3 is a conceptual diagram of a process in which the imaging device 20A determines whether an image is to be transmitted or an image not to be transmitted. 第3実施形態の撮像装置20Aにより実行される処理の流れの一例を示すフローチャートである。It is a flowchart which shows an example of the flow of processing performed by 20A of imaging devices of 3rd Embodiment. 給油された前後の画像が特定される処理について説明するための図である。FIG. 6 is a diagram for explaining a process in which images before and after refueling are specified. パーキングに停車された前後の画像が特定される処理について説明するための図である。FIG. 6 is a diagram for explaining a process in which images before and after the vehicle is parked in a parking lot are identified. 複数の特定モデル126の内容の一例を示す図である。12 is a diagram illustrating an example of the contents of a plurality of specific models 126. FIG. 第4実施形態の情報処理装置100により実行される処理の流れの一例を示すフローチャートである。12 is a flowchart illustrating an example of the flow of processing executed by the information processing apparatus 100 of the fourth embodiment. 複数の特定モデル126の内容の一例を示す図である。12 is a diagram illustrating an example of the contents of a plurality of specific models 126. FIG. 第5実施形態の情報処理装置100により実行される処理の流れの一例を示すフローチャートである。12 is a flowchart illustrating an example of the flow of processing executed by the information processing apparatus 100 of the fifth embodiment. 第6実施形態の情報処理システム1Aの機能構成の一例を示す図である。It is a figure showing an example of functional composition of information processing system 1A of a 6th embodiment. 学習データ412の内容の一例を示す図である。4 is a diagram showing an example of the contents of learning data 412. FIG. 学習データ412の内容の他の一例を示す図である。4 is a diagram showing another example of the content of learning data 412. FIG.

以下、図面を参照し、本発明の情報提供装置、情報提供方法、およびプログラムの実施形態について説明する。 DESCRIPTION OF EMBODIMENTS Hereinafter, embodiments of an information providing apparatus, an information providing method, and a program of the present invention will be described with reference to the drawings.

[概要(その1)]
実施形態の情報処理装置は、一以上のプロセッサにより実現される。情報処理装置(サーバ)は、他装置と通信する通信部、風景を撮像する基準を示した基準情報に基づいて風景を撮像する撮像部に画像を撮像させる撮像制御部、および位置を取得する位置取得部を含む端末装置から、位置情報が対応付けられた前記風景が撮像された画像を取得し、取得した画像から、前記撮像された風景の表す意味を認識し、前記基準情報を前記端末装置に送信し、前記端末装置に前記画像を送信させる。
[Summary (Part 1)]
The information processing device of the embodiment is realized by one or more processors. The information processing device (server) includes a communication unit that communicates with other devices, an imaging control unit that causes an imaging unit to image a landscape based on reference information indicating a standard for imaging a landscape, and a position acquisition unit that acquires a position. An image of the landscape associated with location information is acquired from a terminal device including an acquisition unit, the meaning of the captured landscape is recognized from the acquired image, and the reference information is transmitted to the terminal device. and causes the terminal device to transmit the image.

「端末装置(エッジ)」は、車両に搭載された端末装置であってもよいし、車両に取り付け可能な携帯型端末装置であってもよい。例えば、端末装置は、ドライブレコーダや、スマートフォンなどの端末装置である。また、端末装置は、車両に搭載された撮像部により撮像された画像を取得したり、車両に搭載された位置特定部の特定結果を取得したりしてもよい。以下の説明では、端末装置は、ドライブレコーダであるものとして説明する。 The "terminal device (edge)" may be a terminal device mounted on a vehicle, or may be a portable terminal device that can be attached to a vehicle. For example, the terminal device is a drive recorder, a smartphone, or the like. Further, the terminal device may acquire an image captured by an image capturing unit mounted on the vehicle, or may acquire a determination result from a position identifying unit mounted on the vehicle. In the following description, the terminal device will be explained as a drive recorder.

「基準情報」は、例えば、風景を撮像する位置を示す情報や、所定の出来事が起こった位置に基づく情報、所定の地物が存在する位置に基づく情報、車両の挙動(例えば速度など)を示す情報、車両の状態(例えば停車した状態や給油している状態)を示す情報である。所定の地物とは、例えばガソリンスタンドや、パーキングなどである。「風景の表す意味」とは、例えば、風景から認識される地物や文字、記号等である。 "Reference information" includes, for example, information indicating the location at which a landscape is imaged, information based on the location where a predetermined event has occurred, information based on the location of a predetermined feature, and information indicating vehicle behavior (such as speed). information indicating the state of the vehicle (for example, a stopped state or a refueling state). The predetermined feature is, for example, a gas station or a parking lot. The "meaning expressed by a landscape" is, for example, a feature, a character, a symbol, etc. that can be recognized from the landscape.

[概要(その2)]
実施形態の情報処理装置は、一以上のプロセッサにより実現される。情報処理装置は、他装置と通信する通信部、風景を撮像する撮像部に画像を撮像させる撮像制御部、位置を取得する位置取得部、および撮像された画像とモデル情報とに基づいて送信する画像を決定する決定部を含む端末装置から、位置情報が対応付けられた前記風景が撮像された画像を取得し、取得した画像から、前記撮像された風景の表す意味を認識する認識し、前記モデル情報を前記端末装置に送信し、前記端末装置に前記画像を送信させる。
[Summary (Part 2)]
The information processing device of the embodiment is realized by one or more processors. The information processing device includes a communication unit that communicates with other devices, an imaging control unit that causes an imaging unit that captures a landscape to capture an image, a position acquisition unit that acquires a position, and transmits information based on the captured image and model information. An image in which the landscape associated with position information is captured is acquired from a terminal device including a determination unit that determines the image, and from the acquired image, a meaning expressed by the captured landscape is recognized, and the Model information is transmitted to the terminal device, and the terminal device is caused to transmit the image.

「風景が撮像された画像」は、例えばガソリンスタンドや、パーキングなどの所定の地物が撮像された画像である。「モデル情報」は、撮像部に撮像された画像を入力すると送信対象の画像であるかを示す情報を出力するものである。モデル情報は、送信対象の画像と送信対象であることを示す情報とが対応付けられた学習データが機械学習されて生成されたものである。 The "image of a landscape" is an image of a predetermined feature such as a gas station or a parking lot. "Model information" is information that, when a captured image is input to the imaging unit, outputs information indicating whether the image is a transmission target image. The model information is generated by machine learning of learning data in which an image to be transmitted is associated with information indicating that the image is to be transmitted.

[概要(その3)]
実施形態の情報処理装置(「情報提供装置」の一例)は、一以上のプロセッサにより実現される。情報処理装置は、位置特定部と撮像部を有する他装置から、位置特定部により特定された位置情報が対応付けられ、撮像部により風景が撮像された画像を取得し、取得した画像から、前記風景に含まれる地物に関連する特定の意味を表している意味領域を抽出し、前記意味領域内の特定の意味を認識し、前記意味領域を含む画像が撮像された位置に対応付けて、認識された特定の意味を利用者に提供する。
[Overview (Part 3)]
The information processing device (an example of an “information providing device”) of the embodiment is realized by one or more processors. The information processing device acquires, from another device having a position specifying unit and an imaging unit, an image in which the position information specified by the position specifying unit is associated and a scenery is captured by the image capturing unit, and from the acquired image, Extracting a semantic region expressing a specific meaning related to a feature included in a landscape, recognizing the specific meaning within the semantic region, and associating it with a position where an image including the semantic region was captured, Providing the user with a specific recognized meaning.

「地物」は、例えば、ガソリンスタンドまたはパーキングのうち一方または双方を含む。「意味領域」とは、例えば、ガソリンスタンドの看板やパーキングの看板などである。「特定の意味」とは、例えば、ガソリンスタンドの看板の燃料の価格や、パーキングの看板の空き状況を示す情報などである。「位置に対応付けて、認識した特定の意味を利用者に提供する」とは、例えば、その位置またはその位置(または付近)の事物に対応付けて、前記認識した特定の意味を利用者に提供することである。また、「特定の意味を利用者に提供する」とは、例えば、利用者が保持する端末装置に特定の意味を提供することや、利用者が保持する端末装置に提供するためにデータベースにおいて特定の意味を地物に対応付けて記憶させることである。 A "local feature" includes, for example, one or both of a gas station and a parking lot. The "semantic area" is, for example, a gas station sign, a parking sign, or the like. The "specific meaning" is, for example, information indicating the price of fuel on a gas station sign or the availability of a parking sign. "Providing the user with the recognized specific meaning in association with the location" means, for example, providing the user with the recognized specific meaning in association with the location or things at that location (or in the vicinity). It is to provide. Furthermore, "providing a specific meaning to a user" means, for example, providing a specific meaning to a terminal device held by a user, or specifying a meaning in a database in order to provide a specific meaning to a terminal device held by a user. The purpose of this is to associate the meanings of the objects with the features and to memorize them.

また、情報処理装置は、複数の特定モデルの中から、前記取得部が取得した画像が撮像された位置ごとに適用される特定モデルを用いて、前記意味領域内の特定の意味を認識してもよい。位置ごとに適用される特定モデルは、前記位置において撮像された学習用画像と前記学習用画像内の前記意味領域内の特定の意味とが互いに対応付けられた学習用データが機械学習されて生成されたものである。 Further, the information processing device recognizes a specific meaning within the semantic area using a specific model that is applied to each position where the image acquired by the acquisition unit is captured, from among the plurality of specific models. Good too. The specific model applied to each location is generated by machine learning of learning data in which a learning image taken at the location and a specific meaning in the semantic area in the learning image are associated with each other. It is what was done.

また、情報処理装置は、複数の特定モデルの中から、前記取得部が取得した画像の風景に適用される特定モデルを用いて、前記意味領域内の特定の意味を認識してもよい。画像の風景に適用される特定モデルは、前記風景が撮像された学習用画像と前記学習用画像内の前記意味領域内の特定の意味とが互いに対応付けられた学習用データが機械学習されて生成されたものである。 Further, the information processing device may recognize the specific meaning within the meaning area using a specific model applied to the scenery of the image acquired by the acquisition unit from among the plurality of specific models. The specific model applied to the landscape of the image is obtained by machine learning learning data in which a learning image in which the landscape is captured and a specific meaning in the semantic area in the learning image are associated with each other. It was generated.

また、情報処理装置は、複数の特定モデルの中から、前記取得部が取得した画像に含まれる看板に適用される特定モデルを用いて、前記意味領域内の特定の意味を認識してもよい。看板が適用される特定モデルは、前記看板が撮像された学習用画像と前記看板が示す特定の意味とが互いに対応付けられた学習用データが機械学習されて生成されたものである。 Further, the information processing device may recognize a specific meaning within the meaning area by using a specific model applied to a signboard included in the image acquired by the acquisition unit from among a plurality of specific models. . The specific model to which the signboard is applied is generated by machine learning of learning data in which a learning image of the signboard and a specific meaning indicated by the signboard are associated with each other.

また、情報処理装置は、第1時刻において前記取得部により取得された特定事物を含む画像から前記画像内で前記特定事物の意味を表している意味領域を抽出し、第2時刻において前記取得部により取得された前記特定事物を含む画像から前記画像内で特定事物の意味を表している意味領域を抽出し、第1時刻において前記取得部により取得された画像の意味領域の情報と、第2時刻において前記取得部により取得された意味領域の情報との差分に基づいて、前記意味領域内の特定の意味を認識してもよい。特定の意味とは、例えば、車両の燃料の価格や、パーキングの空き状況である。 Further, the information processing device extracts a semantic region representing the meaning of the specific thing in the image from the image including the specific thing acquired by the acquisition unit at a first time, and the information processing device extracts a semantic region expressing the meaning of the specific thing in the image, and A semantic region expressing the meaning of the specific thing in the image is extracted from the image including the specific thing acquired by the above-mentioned image, and information on the semantic region of the image acquired by the acquisition unit at a first time and a second A specific meaning within the semantic area may be recognized based on a difference between the semantic area and the information acquired by the acquisition unit at the time. The specific meaning is, for example, the price of fuel for a vehicle or the availability of parking spaces.

<第1実施形態>
[構成]
図1は、情報処理システム1の機能構成の一例を示す図である。情報処理システム1は、例えば、車両10と、情報処理装置100と、ニュースサーバ200と、端末装置300とを備える。これらの装置は、ネットワークNWを介して互いに通信する。ネットワークNWは、例えば、WAN(Wide Area Network)やLAN(Local Area Network)、インターネット、専用回線、無線基地局、プロバイダなどを含む。なお、情報処理装置100に含まれる構成または機能の一部または全部は、車両10に含まれてもよい。また、車両10に含まれる機能または構成の一部または全部は、情報処理装置100に含まれてもよい。
<First embodiment>
[composition]
FIG. 1 is a diagram showing an example of the functional configuration of an information processing system 1. As shown in FIG. The information processing system 1 includes, for example, a vehicle 10, an information processing device 100, a news server 200, and a terminal device 300. These devices communicate with each other via the network NW. The network NW includes, for example, a WAN (Wide Area Network), a LAN (Local Area Network), the Internet, a dedicated line, a wireless base station, a provider, and the like. Note that some or all of the configurations or functions included in the information processing device 100 may be included in the vehicle 10. Further, some or all of the functions or configurations included in the vehicle 10 may be included in the information processing device 100.

[車両]
車両10には、撮像装置20が搭載されている。撮像装置20は、例えば、通信部22と、撮像部24と、位置特定部26と、撮像制御部28と、送信制御部30と、記憶部40とを備える。撮像制御部28、および送信制御部30は、CPU(Central Processing Unit)等のハードウェアプロセッサが記憶部40に記憶された撮像アプリ46を実行することにより実現される。撮像制御部28および送信制御部30は、情報処理装置100と協働して、撮像部24に画像を撮像させたり、撮像された画像を情報処理装置100に送信したりする。記憶部40は、例えば、ROM(Read Only Memory)、フラッシュメモリ、SDカード、RAM(Random Access Memory)等によって実現される。記憶部40には、対応情報42、基準情報44、および撮像アプリ46が記憶されている。対応情報42および基準情報44の内容の詳細については後述する。
[vehicle]
An imaging device 20 is mounted on the vehicle 10. The imaging device 20 includes, for example, a communication section 22, an imaging section 24, a position specifying section 26, an imaging control section 28, a transmission control section 30, and a storage section 40. The imaging control unit 28 and the transmission control unit 30 are realized by a hardware processor such as a CPU (Central Processing Unit) executing an imaging application 46 stored in the storage unit 40. The imaging control unit 28 and the transmission control unit 30 cooperate with the information processing device 100 to cause the imaging unit 24 to capture an image and to transmit the captured image to the information processing device 100. The storage unit 40 is realized by, for example, a ROM (Read Only Memory), a flash memory, an SD card, a RAM (Random Access Memory), or the like. The storage unit 40 stores correspondence information 42, reference information 44, and an imaging application 46. Details of the contents of the correspondence information 42 and reference information 44 will be described later.

通信部22は、無線通信を行ってネットワークNWに接続し、ネットワークNWを介して他装置と通信する。撮像部24は、風景を撮像する。撮像部24によって、例えば、風景が動画として取得される。撮像部24は、例えば、CCD(Charge Coupled Device)カメラやCMOS(Complementary Metal Oxide Semiconductor)カメラである。 The communication unit 22 performs wireless communication to connect to the network NW, and communicates with other devices via the network NW. The imaging unit 24 images the scenery. For example, the imaging unit 24 captures a landscape as a moving image. The imaging unit 24 is, for example, a CCD (Charge Coupled Device) camera or a CMOS (Complementary Metal Oxide Semiconductor) camera.

位置特定部26は、GNSS(Global Navigation Satellite System)衛星から受信した信号に基づいて、自装置の位置を特定する。 The position specifying unit 26 specifies the position of the own device based on signals received from GNSS (Global Navigation Satellite System) satellites.

撮像制御部28は、基準情報44に基づいて、撮像部24に風景を撮像させる。送信制御部30は、通信部22を用いて、撮像部24に撮像された画像を情報処理装置100に送信する。なお、撮像部24に撮像された画像は、車両10の通信部を用いて情報処理装置100に送信されてもよい。 The imaging control unit 28 causes the imaging unit 24 to image the scenery based on the reference information 44. The transmission control unit 30 uses the communication unit 22 to transmit the image captured by the imaging unit 24 to the information processing device 100. Note that the image captured by the imaging unit 24 may be transmitted to the information processing device 100 using the communication unit of the vehicle 10.

[情報処理装置]
情報処理装置100は、例えば、通信部102と、第1処理部104と、第2処理部106と、第3処理部108と、追跡処理部110と、情報管理部112と、更新部114と、提供部116と、記憶部120とを備える。第1処理部104、第2処理部106、第3処理部108、追跡処理部110、情報管理部112、更新部114、および提供部116は、CPU等のハードウェアプロセッサが、記憶装置に記憶されたプログラムを実行することにより実現される。また、これらの機能部は、LSI(Large Scale Integration)、ASIC(Application Specific Integrated Circuit)、FPGA(Field-Programmable Gate Array)、GPU(Graphics Processing Unit)等のハードウェアによって実現されてもよいし、ソフトウェアとハードウェアの協働によって実現されてもよい。また、上記のプログラムは、予め記憶装置に格納されていてもよいし、DVDやCD-ROMなどの着脱可能な記憶媒体に格納されており、記憶媒体が情報処理装置100のドライブ装置に装着されることで記憶装置にインストールされてもよい。
[Information processing device]
The information processing device 100 includes, for example, a communication section 102, a first processing section 104, a second processing section 106, a third processing section 108, a tracking processing section 110, an information management section 112, and an updating section 114. , a providing section 116, and a storage section 120. The first processing section 104, the second processing section 106, the third processing section 108, the tracking processing section 110, the information management section 112, the updating section 114, and the providing section 116 are stored in a storage device by a hardware processor such as a CPU. This is achieved by executing the program. Further, these functional units may be realized by hardware such as LSI (Large Scale Integration), ASIC (Application Specific Integrated Circuit), FPGA (Field-Programmable Gate Array), GPU (Graphics Processing Unit), etc. It may also be realized by cooperation of software and hardware. Further, the above program may be stored in advance in a storage device or in a removable storage medium such as a DVD or CD-ROM, and when the storage medium is installed in the drive device of the information processing device 100. It may be installed on the storage device by

記憶部120は、例えば、ROM、フラッシュメモリ、SDカード、RAM、HDD(Hard Disc Drive)、レジスタ等によって実現される。また、記憶部120の一部または全部は、NAS(Network Attached Storage)や外部ストレージサーバ装置等であってもよい。記憶部120には、例えば、対応情報122、基準情報124、特定モデル126、および認識情報128が記憶されている。各情報の詳細については後述する。 The storage unit 120 is realized by, for example, a ROM, flash memory, SD card, RAM, HDD (Hard Disc Drive), register, or the like. Further, part or all of the storage unit 120 may be a NAS (Network Attached Storage), an external storage server device, or the like. The storage unit 120 stores, for example, correspondence information 122, reference information 124, specific model 126, and recognition information 128. Details of each piece of information will be described later.

通信部102は、ネットワークNWを介して、撮像装置20と通信する。通信部102は、例えば、NIC(Network Interface Card)等の通信インターフェースを含む。 The communication unit 102 communicates with the imaging device 20 via the network NW. The communication unit 102 includes, for example, a communication interface such as a NIC (Network Interface Card).

第1処理部104は、撮像部24により撮像された動画を画像に分割し、処理対象の対象画像を生成する。 The first processing unit 104 divides the moving image captured by the imaging unit 24 into images, and generates a target image to be processed.

第2処理部106は、画像から所定の地物を含むと推定される矩形、または所定の特徴を有すると推定される矩形を導出する。第2処理部106は、所定の矩形検出アルゴリズムに基づいて、矩形を導出する。 The second processing unit 106 derives a rectangle estimated to include a predetermined feature or a rectangle estimated to have a predetermined feature from the image. The second processing unit 106 derives a rectangle based on a predetermined rectangle detection algorithm.

第3処理部108は、第2処理部106により導出された矩形の画像を所定の特定モデル126に入力し、特定モデル126の出力結果に基づいて矩形に含まれる風景の表す意味を認識する。特定モデル126は、機械学習などによって生成されたニューラルネットワーク(Neural Network)などの画像を分類するためのモデルである。 The third processing unit 108 inputs the rectangular image derived by the second processing unit 106 to a predetermined specific model 126, and recognizes the meaning of the scenery included in the rectangle based on the output result of the specific model 126. The specific model 126 is a model for classifying images, such as a neural network generated by machine learning or the like.

追跡処理部110は、複数の対象画像において同一の地物を追跡し、同一の地物に対する処理結果を統合する。追跡処理部110は、例えば、所定数の画像において同一の地物に対する認識結果に基づいて、その地物の意味を抽出する。例えば、追跡処理部110は、連続した所定数の画像(フレーム)で地物の意味を認識する。また、追跡処理部110は、複数のフレーム間の地物の位置の移動を判定する。より具体的には、追跡処理部110は、複数の画像を用いて意味を認識する処理において、地物が2回ガソリンスタンドの看板と認識され、同一の地物が1回飲食店の看板と認識された場合、例えば、その地物はガソリンスタンドの看板であると特定する。 The tracking processing unit 110 tracks the same feature in a plurality of target images and integrates processing results for the same feature. The tracking processing unit 110 extracts the meaning of the same feature, for example, based on the recognition results for the same feature in a predetermined number of images. For example, the tracking processing unit 110 recognizes the meaning of a feature using a predetermined number of consecutive images (frames). The tracking processing unit 110 also determines movement of the position of the feature between multiple frames. More specifically, in the process of recognizing meaning using a plurality of images, the tracking processing unit 110 recognizes that a feature is recognized twice as a gas station sign, and once as a restaurant sign. If recognized, the feature is identified as a gas station sign, for example.

情報管理部112は、自装置により取得された情報や、自装置の処理結果を管理する。更新部114は、基準情報124を更新し、更新した基準情報124を撮像装置20に送信する。提供部116は、端末装置300の依頼に基づいて、認識情報128に含まれる情報を端末装置300に提供する。 The information management unit 112 manages information acquired by the own device and processing results of the own device. The updating unit 114 updates the reference information 124 and transmits the updated reference information 124 to the imaging device 20. The providing unit 116 provides the information included in the recognition information 128 to the terminal device 300 based on a request from the terminal device 300.

ニュースサーバ200は、情報処理装置100にニュースに関する情報を提供する。ニュースに関する情報とは、例えば、事件やイベント、事故などのように世間が注目する出来事や、その出来事が起こった場所や位置を含む情報である。 The news server 200 provides information related to news to the information processing device 100. Information related to news is, for example, information that includes events that attract attention from the public, such as incidents, events, and accidents, and the places and positions where the events occur.

端末装置300は、利用者が保持する端末装置である。端末装置300は、例えば、スマートフォンやタブレット端末、ナビゲーション装置などである。 The terminal device 300 is a terminal device held by a user. The terminal device 300 is, for example, a smartphone, a tablet terminal, a navigation device, or the like.

[情報処理システムにより実行される処理]
図2は、撮像装置20と情報処理装置100とにより実行される処理の流れをシーケンス図である。本処理は、動画を撮像する場所・時間を、情報処理装置100が補正や指示し、撮像装置20が撮像部24に風景を撮像させる指示を行う。
[Processing executed by the information processing system]
FIG. 2 is a sequence diagram showing the flow of processing executed by the imaging device 20 and the information processing device 100. In this process, the information processing device 100 corrects and instructs the location and time for capturing a moving image, and the imaging device 20 instructs the imaging unit 24 to capture a landscape.

まず、情報処理装置100が、撮像装置20に基準情報124を送信する(S10)。次に、撮像装置20は、送信された基準情報124を取得し、取得した基準情報124(44)を記憶部40に記憶させる(S12)。次に、撮像装置20は、位置特定部26により特定された位置情報と基準情報44とに基づいて、撮像部24に画像を撮像させ(S14)、撮像された画像と画像が撮像された位置情報とを対応付けた対応情報42を情報処理装置100に送信する(S16)。次に、情報処理装置100が、取得した対応情報42を記憶部120に記憶させる(S18)。 First, the information processing device 100 transmits the reference information 124 to the imaging device 20 (S10). Next, the imaging device 20 acquires the transmitted reference information 124 and stores the acquired reference information 124 (44) in the storage unit 40 (S12). Next, the imaging device 20 causes the imaging unit 24 to capture an image based on the position information specified by the position specifying unit 26 and the reference information 44 (S14), and displays the captured image and the location where the image was captured. The correspondence information 42 associated with the information is transmitted to the information processing device 100 (S16). Next, the information processing device 100 stores the acquired correspondence information 42 in the storage unit 120 (S18).

(基準情報)
図3は、基準情報44の内容の一例を示す図である。基準情報44は、風景を撮像する撮像領域と、撮像対象の時間帯とが対応付けられた情報である。基準情報44は、例えば、前回の画像からの情報抽出をもとに、撮像装置20などの移動体で撮像される場所や時間が規定された情報である。例えば、これまでに、その位置が撮像された画像が十分に集まっていない場合は、その位置が撮像されるように基準情報44が生成されている。図3に示す基準情報44には、撮像領域AR1~AR3が含まれ、撮像領域AR1~AR3には日時が対応付けられている。例えば、撮像領域AR1~3は、所定の位置を中心として、所定の半径で形成された円で示される領域である。例えば、撮像装置20は、撮像領域AR1~AR3に進入した場合に撮像部24に撮像を開始させる。なお、基準情報44は、撮像領域のみが対応付けられていてもよい。
(Standard information)
FIG. 3 is a diagram showing an example of the contents of the reference information 44. The reference information 44 is information in which an imaging area for imaging a landscape is associated with a time period of the imaging target. The reference information 44 is, for example, information that defines the location and time at which images are captured by a moving object such as the imaging device 20, based on information extracted from the previous image. For example, if enough images of that position have not been collected so far, the reference information 44 is generated so that that position will be imaged. The reference information 44 shown in FIG. 3 includes imaging areas AR1 to AR3, and dates and times are associated with the imaging areas AR1 to AR3. For example, the imaging areas AR1 to AR3 are areas indicated by circles having a predetermined radius and having a predetermined position as the center. For example, the imaging device 20 causes the imaging unit 24 to start imaging when entering the imaging regions AR1 to AR3. Note that the reference information 44 may be associated with only the imaging area.

(対応情報)
図4は、対応情報42の内容の一例を示す図である。対応情報42は、例えば、基準情報44に基づいて、撮像された動画(画像)と、その動画が撮像された日時とが互いに対応付けられた情報である。例えば、対応情報42において動画の撮像時刻ごとに位置情報が対応付けられている。
(Compatible information)
FIG. 4 is a diagram showing an example of the contents of the correspondence information 42. The correspondence information 42 is, for example, information in which a captured moving image (image) and the date and time at which the moving image was captured are associated with each other based on the reference information 44. For example, in the correspondence information 42, position information is associated with each imaging time of a moving image.

図2の説明に戻る。情報処理装置100が、対応情報122に基づいて、特定処理を実行する(ステップS20)。特定処理とは、画像において風景の表す意味を認識する処理である。特定処理の詳細については、後述する図7~9で説明する。 Returning to the explanation of FIG. 2. The information processing device 100 executes specific processing based on the correspondence information 122 (step S20). The specific process is a process that recognizes the meaning of scenery in an image. The details of the identification process will be explained later with reference to FIGS. 7 to 9.

次に、情報処理装置100が、基準情報124(44)を更新するタイミングが到来したか否かを判定する(S22)。基準情報124を更新するタイミングが到来した場合、情報処理装置100が、基準情報124を更新し(S24)、更新した基準情報124を撮像装置20に送信する(S26)。そして、撮像装置20は、更新された基準情報124(44)を取得し、取得した基準情報124に基づいて画像を取得する(S28)。 Next, the information processing device 100 determines whether the timing to update the reference information 124 (44) has arrived (S22). When the timing to update the reference information 124 has arrived, the information processing device 100 updates the reference information 124 (S24), and transmits the updated reference information 124 to the imaging device 20 (S26). The imaging device 20 then acquires the updated reference information 124 (44) and acquires an image based on the acquired reference information 124 (S28).

(更新された基準情報)
図5は、更新された基準情報44の一例を示す図である。例えば、情報処理装置100が、ニュースサーバ200からニュースに関する情報を取得した場合、取得したニュースに関する情報に基づいて、基準情報124を更新する。情報処理装置100は、ニュースに関する情報の位置を含む撮像領域AR4を撮像領域AR1~AR3に加え、基準情報124を更新する。例えば、撮像領域AR4は、事件が起こった位置を中心として、所定の半径で形成された円で示される領域である。なお、更新は、基準情報44を前回送信したときから所定の期間が経過した場合に行われてもよい。
(Updated standard information)
FIG. 5 is a diagram showing an example of the updated reference information 44. For example, when the information processing device 100 acquires information regarding news from the news server 200, the reference information 124 is updated based on the acquired information regarding the news. The information processing device 100 adds the imaging area AR4 including the position of news-related information to the imaging areas AR1 to AR3, and updates the reference information 124. For example, the imaging area AR4 is an area indicated by a circle with a predetermined radius centered on the position where the incident occurred. Note that the update may be performed when a predetermined period of time has passed since the last time the reference information 44 was transmitted.

また、更新部114は、前回撮像した時間、緯度経度、または速度のうちから一以上の項目に基づいて撮像位置や時間を修正した基準情報44を生成してもよい。この場合、例えば、更新部114は、前回、十分に撮像されたなった場所や時間帯の画像が撮像されるように基準情報44を更新(修正)する。また、所定速度以上で走行した場所は、十分に画像を撮像することができなかったため、再度、その場所を撮像するように基準情報44が生成される。この場合、情報処理装置100は、例えば、車両10や撮像装置20の移動速度を特定するための情報(例えば、速度そのものや、所定間隔で取得された位置情報)を取得する。 Furthermore, the updating unit 114 may generate the reference information 44 in which the imaging position and time are corrected based on one or more of the time, latitude and longitude, or speed of the previous imaging. In this case, for example, the updating unit 114 updates (corrects) the reference information 44 so that an image of a place or time period that was sufficiently imaged last time is imaged. Further, since it was not possible to sufficiently capture an image of a location where the vehicle traveled at a speed higher than a predetermined speed, the reference information 44 is generated so as to capture an image of that location again. In this case, the information processing device 100 acquires, for example, information for specifying the moving speed of the vehicle 10 or the imaging device 20 (for example, the speed itself or position information acquired at predetermined intervals).

上述したように、情報処理装置100が、撮像装置20が撮像する場所や位置を修正し、撮像装置20に指示する。そして、撮像装置20が、指示に基づいて風景を撮像する。このように、撮像装置20と情報処理装置100とは、協働して処理を行うことにより、通信量を抑制しつつ必要な情報を取得することができる。 As described above, the information processing device 100 corrects the location and position that the imaging device 20 images, and instructs the imaging device 20 to do so. The imaging device 20 then images the scenery based on the instruction. In this way, the imaging device 20 and the information processing device 100 can obtain necessary information while suppressing the amount of communication by performing processing in cooperation.

[撮像装置により実行される処理]
図6は、撮像装置20に実行される処理の流れの一例を示すフローチャートである。まず、撮像制御部28が、基準情報44と、位置特定部26により特定された位置とに基づいて、現在の位置が撮像する撮像領域内であるか否か判定する(S100)。撮像領域でない場合は、本フローチャートの1ルーチンの処理が終了する。
[Processing executed by the imaging device]
FIG. 6 is a flowchart illustrating an example of the flow of processing executed by the imaging device 20. First, the imaging control unit 28 determines whether the current position is within the imaging area to be imaged, based on the reference information 44 and the position specified by the position specifying unit 26 (S100). If it is not the imaging area, the processing of one routine in this flowchart ends.

撮像領域である場合、撮像制御部28は、撮像部24に撮像を開始させる(S102)。次に、撮像制御部28は、撮像部24に撮像させた画像と、位置情報とを対応付けた対応情報42を記憶部40に記憶させる(S104)。次に、送信制御部30が、対応情報42を情報処理装置100に送信する(S106)。情報処理装置100は、送信された対応情報42を対応情報122として記憶部120に記憶させる。これにより本フローチャートの1ルーチンの処理が終了する。 If it is the imaging area, the imaging control unit 28 causes the imaging unit 24 to start imaging (S102). Next, the imaging control unit 28 causes the storage unit 40 to store correspondence information 42 that associates the image captured by the imaging unit 24 with position information (S104). Next, the transmission control unit 30 transmits the correspondence information 42 to the information processing device 100 (S106). The information processing device 100 stores the transmitted correspondence information 42 in the storage unit 120 as the correspondence information 122. This completes the processing of one routine in this flowchart.

例えば、車両に搭載されたドライブレコーダ等が撮像した動画を活用するために、その動画を情報処理装置100に全て送信すると通信量が許容量を超えてしまう場合がある。これに対して、上述した処理により、撮像装置20は、基準情報44に基づいて撮像した画像を情報処理装置100に送信することで、通信量を抑制しつつ必要な情報を情報処理装置100に送信することができる。 For example, in order to utilize a video captured by a drive recorder or the like mounted on a vehicle, if all the video is transmitted to the information processing device 100, the amount of communication may exceed the allowable amount. On the other hand, through the process described above, the imaging device 20 transmits the image captured based on the reference information 44 to the information processing device 100, thereby suppressing the amount of communication and transmitting necessary information to the information processing device 100. Can be sent.

[情報処理装置により実行される特定処理]
図7は、情報処理装置100により実行される特定処理の流れ一例を示すフローチャートである。まず、情報処理装置100の第1処理部104が、対応情報122に未処理の動画が存在するか否かを判定する(S200)。未処理の動画が存在しない場合、本フローチャートの1ルーチンの処理が終了する。
[Specific processing executed by information processing device]
FIG. 7 is a flowchart illustrating an example of the flow of specific processing executed by the information processing apparatus 100. First, the first processing unit 104 of the information processing device 100 determines whether an unprocessed video exists in the correspondence information 122 (S200). If there is no unprocessed moving image, the processing of one routine in this flowchart ends.

未処理の動画が存在する場合、第1処理部104が動画を分割し(S202)、処理対象の対象画像を生成する(S204)。次に、第2処理部106は、対象画像において矩形を導出する(S206)。図8は、対象画像において矩形が導出された様子の一例を示す図である。対象画像において、所定の地物(特徴)を含むと推定される矩形が導出される。 If an unprocessed video exists, the first processing unit 104 divides the video (S202) and generates target images to be processed (S204). Next, the second processing unit 106 derives a rectangle in the target image (S206). FIG. 8 is a diagram illustrating an example of how a rectangle is derived in a target image. In the target image, a rectangle that is estimated to include a predetermined feature (feature) is derived.

次に、第3処理部108は、矩形の画像を特定モデル126に入力する(S208)。例えば、第3処理部108は、対象画像において導出された全ての矩形を取り出し、その取り出した矩形の画像を一つずつ選択し、選択した画像を特定モデル126に入力する。 Next, the third processing unit 108 inputs the rectangular image to the specific model 126 (S208). For example, the third processing unit 108 extracts all the rectangles derived from the target image, selects images of the extracted rectangles one by one, and inputs the selected images to the specific model 126.

次に、第3処理部108は、特定モデル126に出力された出力結果に基づいて、画像に含まれる地物を特定する(S210)。図9は、矩形の画像IMが特定モデル126に入力され、特定モデル126がレギュラーガソリンの価格を出力する様子の一例を示す図である。例えば、矩形の画像に、レギュラーガソリンの価格が記載された看板が含まれ、この画像(または画像の特徴)が特定モデル126に入力された場合、特定モデル126がレギュラーガソリンの価格を導出する。画像の特徴とは、例えば画素ごとの輝度や、輝度勾配、所定の範囲における複数の画素に基づいて導出された特徴量である。 Next, the third processing unit 108 identifies a feature included in the image based on the output result output to the specific model 126 (S210). FIG. 9 is a diagram showing an example of how a rectangular image IM is input to the specific model 126, and the specific model 126 outputs the price of regular gasoline. For example, if a rectangular image includes a signboard with the price of regular gasoline written on it, and this image (or features of the image) is input to specific model 126, specific model 126 derives the price of regular gasoline. The image features are, for example, the brightness of each pixel, the brightness gradient, or a feature amount derived based on a plurality of pixels in a predetermined range.

図7の説明に戻る。次に、第3処理部108は、分割した全ての画像を処理したか否かを判定する(S212)。全ての画像を処理した場合、本フローチャートの1ルーチンの処理が終了する。全ての対象画像を処理していない場合、S204の処理に戻る。なお、本フローチャートの処理において、複数の対象画像が処理された場合、追跡処理部110が、複数の対象画像の処理結果を統合する処理を実行し、対象画像における同一の地物の意味を認識してもよい。 Returning to the explanation of FIG. 7. Next, the third processing unit 108 determines whether all the divided images have been processed (S212). When all images have been processed, the processing of one routine in this flowchart is completed. If all target images have not been processed, the process returns to S204. In addition, in the process of this flowchart, when multiple target images are processed, the tracking processing unit 110 executes processing to integrate the processing results of the multiple target images, and recognizes the meaning of the same feature in the target images. You may.

上述した処理により、情報処理装置100の情報管理部112は、例えば、認識情報128を生成する。図10は、認識情報128の内容の一例を示す図である。認識情報128は、例えば、動画ごとに規定された情報である。認識情報128は、例えば、画像の識別情報、画像が撮像された位置情報、矩形の識別情報、地物を示す情報、地物から導出される意味情報、画像の取得日時、および画像を撮像した撮像装置20の識別情報(ID)が対応付けられた情報である。 Through the processing described above, the information management unit 112 of the information processing device 100 generates, for example, recognition information 128. FIG. 10 is a diagram showing an example of the contents of the recognition information 128. The recognition information 128 is, for example, information defined for each video. The recognition information 128 includes, for example, image identification information, location information where the image was captured, rectangle identification information, information indicating a feature, semantic information derived from the feature, the date and time of image acquisition, and the date and time when the image was captured. This information is associated with identification information (ID) of the imaging device 20.

情報処理装置100は、認識情報128に基づいて、所定の位置に存在するガソリンスタンドのガソリン価格や、所定のパーキングの空き状況を認識することができる。そして、情報処理装置100は、上記の認識結果を端末装置300に送信することができる。これにより、端末装置300の利用者は、所望の地物に関する情報を取得することができる。 Based on the recognition information 128, the information processing device 100 can recognize the gasoline price at a gas station located at a predetermined location and the availability of a predetermined parking lot. The information processing device 100 can then transmit the above recognition result to the terminal device 300. Thereby, the user of the terminal device 300 can obtain information regarding a desired feature.

図11は、端末装置300の表示される画像の一例を示す図である。例えば、情報処理装置100の提供部116は、端末装置300の依頼に応じて、認識情報128を端末装置300に提供する。例えば、提供部116は、端末装置300から、端末装置300の位置情報Pcと共に位置情報Pcの周辺のガソリン価格の提供依頼を取得した場合、認識情報128から位置情報Pcの周辺のガソリンスタンドのガソリン価格を抽出し、抽出したガソリンスタンドの位置とガソリン価格とを対応付けた情報を端末装置300に提供する。これにより、図11に示すように位置情報Pcの周辺のガソリンスタンドのガソリン価格が端末装置300の表示部に表示される。 FIG. 11 is a diagram showing an example of an image displayed on the terminal device 300. For example, the providing unit 116 of the information processing device 100 provides the recognition information 128 to the terminal device 300 in response to a request from the terminal device 300. For example, when the providing unit 116 acquires from the terminal device 300 a request to provide the location information Pc of the terminal device 300 as well as the price of gasoline in the vicinity of the location information Pc, the providing unit 116 acquires from the recognition information 128 a request for providing gasoline prices in the vicinity of the location information Pc. The price is extracted, and information associating the extracted gas station location with the gasoline price is provided to the terminal device 300. Thereby, as shown in FIG. 11, the gasoline prices at gas stations around the location information Pc are displayed on the display section of the terminal device 300.

また、通信部102、車両10が走行する予定の経路(指定された経路)を取得してもよい。この場合、提供部116は、取得された経路に基づいて、上述した処理によって認識された燃料の価格、またはパーキングの空き状況を示す情報を利用者に提供してもよい。例えば、提供部116は、予定の経路の途中や道沿いに存在するガソリンスタンドの燃料の価格や、目的地の近くに存在する空き状況を利用者に提供してもよい。また、提供部116は、燃料の価格が、最も安いガソリンスタンドの位置を利用者に提供してもよい。 Further, the communication unit 102 may acquire the route (designated route) on which the vehicle 10 is scheduled to travel. In this case, the providing unit 116 may provide the user with information indicating the fuel price or parking availability recognized through the above-described process based on the acquired route. For example, the providing unit 116 may provide the user with the price of fuel at gas stations located along or along the planned route, or the availability of gas stations near the destination. Further, the providing unit 116 may provide the user with the location of the gas station where the price of fuel is lowest.

以上説明した第1実施形態によれば、情報処理装置100が、撮像装置20から、位置情報が対応付けられた前記風景が撮像された画像し、取得した画像から、撮像された風景の表す意味を認識し、基準情報124を撮像装置20に送信し、撮像装置20に画像を送信させることにより、通信量を抑制しつつ必要な情報を取得することができる。 According to the first embodiment described above, the information processing device 100 obtains an image of the scenery associated with position information from the imaging device 20, and determines the meaning of the captured scenery from the obtained image. By recognizing the reference information 124, transmitting the reference information 124 to the imaging device 20, and having the imaging device 20 transmit the image, necessary information can be acquired while suppressing the amount of communication.

<第2実施形態>
以下、第2実施形態について説明する。第1実施形態では、撮像装置20が、基準情報44に基づいて、撮像装置20の位置が撮像領域内に存在する場合に画像を撮像するものとして説明した。これに対して、第2実施形態では、撮像装置20は、基準情報44に代えて(または加えて)判定モデル45を情報処理装置100から取得する。そして、撮像装置20は、判定モデル45に基づいて、撮像した画像が送信対象であると判定した場合に、その画像を情報処理装置100に送信する。以下、第2実施形態について説明する。
<Second embodiment>
The second embodiment will be described below. In the first embodiment, the imaging device 20 is described as capturing an image based on the reference information 44 when the position of the imaging device 20 is within the imaging region. In contrast, in the second embodiment, the imaging device 20 acquires the determination model 45 from the information processing device 100 instead of (or in addition to) the reference information 44 . Then, when the imaging device 20 determines that the captured image is a transmission target based on the determination model 45, the imaging device 20 transmits the image to the information processing device 100. The second embodiment will be described below.

図12は、第2実施形態の撮像装置20Aの機能構成の一例を示す図である。撮像装置20Aは、記憶部40に代えて記憶部40Aを備える。記憶部40Aには、判定モデル45が格納されている。判定モデル45は、画像を入力すると、その画像に対するスコアを導出するモデルである。例えば、判定モデル45は、画像が所定の地物(例えばガソリンスタンドやパーキング)を含む画像であることを示すスコアを導出するモデルである。判定モデル45は、学習データが機械学習などによって生成されたニューラルネットワークなどの画像を分類するためのモデルである。学習データは、例えば、所定の地物を含む画像と、その地物を識別するための情報とが互いに対応付けられた情報である。 FIG. 12 is a diagram illustrating an example of the functional configuration of an imaging device 20A according to the second embodiment. The imaging device 20A includes a storage section 40A instead of the storage section 40. A determination model 45 is stored in the storage unit 40A. The judgment model 45 is a model that, when an image is input, derives a score for the image. For example, the determination model 45 is a model that derives a score indicating that the image includes a predetermined feature (for example, a gas station or a parking lot). The determination model 45 is a model for classifying images, such as a neural network whose learning data is generated by machine learning or the like. The learning data is, for example, information in which an image including a predetermined feature and information for identifying the feature are associated with each other.

撮像装置20Aは、撮像装置20の機能構成に加え、更に決定部29を備える。決定部29は、撮像部24に撮像された画像を判定モデル45に入力し、判定モデル45が出力したスコアを取得する。そして、決定部29は、取得したスコアに基づいて、その画像を情報処理装置100に送信するか否かを決定する。なお、第2実施形態の撮像制御部28は、例えば、常時、画像を撮像部24に撮像させる。 In addition to the functional configuration of the imaging device 20, the imaging device 20A further includes a determining unit 29. The determining unit 29 inputs the image captured by the imaging unit 24 to the determination model 45, and obtains the score output by the determination model 45. Then, the determining unit 29 determines whether or not to transmit the image to the information processing device 100 based on the acquired score. Note that the imaging control unit 28 of the second embodiment causes the imaging unit 24 to constantly capture images, for example.

[撮像装置により実行される処理]
図13は、撮像装置20Aに実行される処理の流れの一例を示すフローチャートである。まず、撮像制御部28が、撮像部24に動画を撮像させる(S300)。次に、撮像制御部28は、撮像部24に撮像させた画像と、位置情報とを対応付けた対応情報42を記憶部40に記憶させる(S302)。次に、決定部29が、撮像した画像(動画を分割した画像)を判定モデル45に入力し(S304)、判定モデル45により出力された結果に基づいて、判定モデル45に入力した画像が送信対象の画像であるか否かを判定する(S306)。判定モデル45に入力した画像が送信対象の画像でない場合、本フローチャートの1ルーチンの処理が終了する。判定モデル45に入力した画像が送信対象の画像である場合、送信制御部30が、判定モデル45に入力された画像を情報処理装置100に送信する(S308)。これにより本フローチャートの1ルーチンの処理が終了する。
[Processing executed by the imaging device]
FIG. 13 is a flowchart illustrating an example of the flow of processing executed by the imaging device 20A. First, the imaging control unit 28 causes the imaging unit 24 to capture a moving image (S300). Next, the imaging control unit 28 causes the storage unit 40 to store correspondence information 42 that associates the image captured by the imaging unit 24 with position information (S302). Next, the determining unit 29 inputs the captured image (an image obtained by dividing the video) into the judgment model 45 (S304), and based on the result output by the judgment model 45, the image input to the judgment model 45 is transmitted. It is determined whether the image is the target image (S306). If the image input to the determination model 45 is not the image to be transmitted, the processing of one routine in this flowchart ends. If the image input to the determination model 45 is the image to be transmitted, the transmission control unit 30 transmits the image input to the determination model 45 to the information processing apparatus 100 (S308). This completes the processing of one routine in this flowchart.

図14は、撮像装置20Aが画像を送信対象の画像とするか、送信対象外の画像とするかを判定する処理の概念図である。図示する例では、判定モデル45は、画像にガソリンスタンドらしい地物が含まれる度合を示す情報を出力するモデルである。図14の上図のように判定モデル45が、入力された画像にガソリンスタンドらしい地物が含まれていることを示す結果を出力した場合、この画像を送信対象の画像とされる。図14の下図のように判定モデル45が、入力された画像にガソリンスタンドらしい地物が含まれていないことを示す結果を出力した場合、この画像を送信対象外の画像とされる。 FIG. 14 is a conceptual diagram of a process in which the imaging device 20A determines whether an image is an image to be transmitted or an image not to be transmitted. In the illustrated example, the determination model 45 is a model that outputs information indicating the degree to which an image includes a feature that resembles a gas station. If the determination model 45 outputs a result indicating that the input image includes a feature that looks like a gas station, as shown in the upper diagram of FIG. 14, this image is determined to be the image to be transmitted. When the determination model 45 outputs a result indicating that the input image does not include any features that are typical of a gas station, as shown in the lower diagram of FIG. 14, this image is determined to be an image that is not to be transmitted.

なお、判定モデル45は、一つに限らず、複数用意されてもよい。例えば、撮像装置20は、画像を複数の判定モデル45に入力し、いずれかの判定モデル45が送信対象とする結果を出力した場合に、その画像を送信対象としてもよい。 Note that the number of determination models 45 is not limited to one, and a plurality of determination models may be prepared. For example, the imaging device 20 may input an image to a plurality of determination models 45, and if any of the determination models 45 outputs a result to be transmitted, the image may be designated as a transmission target.

また、決定部29は、複数の判定モデル45を用いて、第1の地物が認識された後に、第2の地物が認識されるまでの間において撮像された画像を情報処理装置100に送信してもよい。例えば、決定部29は、ガードレールが認識された後、赤いビルが認識されるまでの間において撮像された画像を情報処理装置100に送信してもよい。 Further, the determining unit 29 uses the plurality of determination models 45 to send to the information processing device 100 images captured after the first feature is recognized and until the second feature is recognized. You can also send it. For example, the determining unit 29 may transmit to the information processing device 100 an image captured after the guardrail is recognized and until the red building is recognized.

以上説明した第2実施形態によれば、情報処理装置100が、判定モデル45を撮像装置20Aに送信する。そして、撮像装置20Aは、判定モデル45に基づいて、撮像部24により撮像された画像が送信対象の画像であると判定した場合に、その画像を情報処理装置100に送信する。このように、情報処理装置100は、広範囲において撮像領域を設定する必要がないため、より容易に通信量を抑制しつつ必要な情報を取得することができる。 According to the second embodiment described above, the information processing device 100 transmits the determination model 45 to the imaging device 20A. When the imaging device 20A determines based on the determination model 45 that the image captured by the imaging unit 24 is the image to be transmitted, the imaging device 20A transmits the image to the information processing device 100. In this way, the information processing apparatus 100 does not need to set an imaging area over a wide range, and therefore can more easily acquire necessary information while suppressing communication traffic.

<第3実施形態>
以下、第3実施形態について説明する。第3実施形態では、情報処理装置100は、基準情報44に代えて、所定の条件を撮像装置20Aに送信する。撮像装置20Aは、画像が撮像されたタイミングが所定の条件を満たす場合、そのタイミングで撮像された画像を情報処理装置100に送信する。所定の条件とは、車両に関する情報に対して設定される条件である。以下、第1実施形態との相違点を中心に第3実施形態について説明する。
<Third embodiment>
The third embodiment will be described below. In the third embodiment, the information processing device 100 transmits predetermined conditions to the imaging device 20A instead of the reference information 44. If the timing at which the image was captured satisfies a predetermined condition, the imaging device 20A transmits the image captured at that timing to the information processing device 100. The predetermined condition is a condition set for information regarding a vehicle. The third embodiment will be described below, focusing on the differences from the first embodiment.

図15は、第3実施形態の撮像装置20Aにより実行される処理の流れの一例を示すフローチャートである。本処理は、例えば、所定の間隔で実行される処理である。まず、撮像制御部28が、撮像部24に動画を撮像させる(S400)。次に、撮像制御部28は、撮像部24に撮像させた画像と、位置情報とを対応付けた対応情報42を記憶部40に記憶させる(S402)。なお、撮像装置20は、車両と通信し、時刻ごとの車両の状態を取得しているものとする。 FIG. 15 is a flowchart illustrating an example of the flow of processing executed by the imaging device 20A of the third embodiment. This process is, for example, a process executed at predetermined intervals. First, the imaging control unit 28 causes the imaging unit 24 to capture a moving image (S400). Next, the imaging control unit 28 causes the storage unit 40 to store correspondence information 42 that associates the image captured by the imaging unit 24 with position information (S402). It is assumed that the imaging device 20 communicates with the vehicle and acquires the state of the vehicle at each time.

次に、決定部29が、対応情報42および車両に関する情報を参照し、送信対象の画像を特定し(S404)、特定した画像を情報処理装置100に送信する(S406)。これにより本フローチャートの処理が終了する。 Next, the determining unit 29 refers to the correspondence information 42 and the information regarding the vehicle, identifies an image to be transmitted (S404), and transmits the identified image to the information processing device 100 (S406). This completes the processing of this flowchart.

以下、対応情報42および車両に関する情報を参照し、送信対象の画像を特定する手法について説明する。例えば、決定部29は、予め設定された制御手順で車両が制御されたタイミングで撮像された画像を送信対象の画像として決定する。予め設定された制御手順で車両が制御されたとは、例えば、加速度が閾値以上に制御された状態や、速度が第1所定速度以上で制御された後、第2所定速度以下に制御された状態、操舵が所定度合以上操作されたことなどである。 Hereinafter, a method for identifying an image to be transmitted will be described with reference to the correspondence information 42 and information regarding the vehicle. For example, the determining unit 29 determines an image captured at a timing when the vehicle is controlled according to a preset control procedure as the image to be transmitted. The vehicle is controlled according to a preset control procedure, for example, when the acceleration is controlled to be above a threshold value, or when the speed is controlled to be above a first predetermined speed and then below a second predetermined speed. , the steering has been operated to a predetermined degree or more.

また、決定部29は、車両の位置情報と速度情報とが所定の条件を満たすタイミングで撮像された画像を送信対象の画像として決定してもよい。例えば、高速道路において80km前後で走行していたが、所定の区間のみ50kmで走行した場合などのように速度が変化した前後の画像が情報処理装置100に送信されてもよい。この場合、事故や障害物などが存在している場合があるためである。 Further, the determining unit 29 may determine, as the image to be transmitted, an image captured at a timing when the position information and speed information of the vehicle satisfy a predetermined condition. For example, images before and after the speed has changed may be transmitted to the information processing device 100, such as when the vehicle was traveling at around 80 km on an expressway but traveled at 50 km only in a predetermined section. This is because in this case, there may be an accident or an obstacle.

また、例えば、決定部29は、以下のように、車両の状態に基づいて、送信する画像を決定してもよい。例えば、(1)給油された前後の画像や、(2)パーキングに停車した前後の画像が情報処理装置100に送信されてもよい。(1)給油された前後の画像は、燃料タンクの燃料の変化に基づいて特定される。図16は、給油された前後の画像が特定される処理について説明するための図である。図16の縦軸は燃料タンクの燃料の度合を示し、図16の横軸は時間を示している。例えば、決定部29は、図中の時間P1に示すように燃料の度合が所定の傾きで上昇した場合、その時間に燃料が補給されたと判定し(例えば、ガソリンスタンドでガソリンが給油されたと判定し)、その前後の時間P2およびP3の画像を送信対象の画像と判定する。 Further, for example, the determining unit 29 may determine the image to be transmitted based on the state of the vehicle, as described below. For example, (1) images before and after refueling, and (2) images before and after stopping at a parking lot may be transmitted to the information processing device 100. (1) Images before and after refueling are identified based on changes in the fuel in the fuel tank. FIG. 16 is a diagram for explaining a process in which images before and after refueling are specified. The vertical axis in FIG. 16 indicates the level of fuel in the fuel tank, and the horizontal axis in FIG. 16 indicates time. For example, when the level of fuel increases at a predetermined slope as shown at time P1 in the figure, the determining unit 29 determines that fuel has been refilled at that time (for example, determines that gasoline has been refilled at a gas station). ), the images at times P2 and P3 before and after that are determined to be images to be transmitted.

上述したように、ガソリンスタンドの画像を送信対象とする場合において、撮像装置20Aは、上述したように処理により、より確実にガソリンスタンドの画像を情報処理装置100に送信することができる。 As described above, when an image of a gas station is to be transmitted, the imaging device 20A can more reliably transmit the image of the gas station to the information processing device 100 through the process described above.

(2)パーキングに停車した前後の画像は、車両の速度とパーキングブレーキの状態とに基づいて特定される。図17は、パーキングに停車された前後の画像が特定される処理について説明するための図である。図17の縦軸は車両の速度を示し、図17の横軸は時間を示している。例えば、決定部29は、図中の時間P11に示すように車両の速度が所定時間ゼロであり、且つパーキングブレーキがオン状態である特定状態である場合、その時間にパーキングに車両が停車したと判定し、少なくとも特定状態の後の時間P13の画像を送信対象の画像と判定する。 (2) Images before and after the vehicle is parked are identified based on the speed of the vehicle and the state of the parking brake. FIG. 17 is a diagram for explaining a process in which images before and after the vehicle is parked in a parking lot are identified. The vertical axis in FIG. 17 shows the speed of the vehicle, and the horizontal axis in FIG. 17 shows time. For example, if the speed of the vehicle is zero for a predetermined time and the parking brake is in an on state, as shown at time P11 in the figure, the determining unit 29 determines that the vehicle has stopped in the parking lot at that time. At least the image at time P13 after the specific state is determined to be the image to be transmitted.

上述したように、パーキングの画像を送信対象とする場合において、撮像装置20Aは、上述したように処理により、より確実にパーキングの画像を情報処理装置100に送信することができる。 As described above, when a parking image is to be transmitted, the imaging device 20A can more reliably transmit the parking image to the information processing device 100 through the processing described above.

以上説明した第3実施形態によれば、情報処理装置100が、所定の条件を撮像装置20Aに送信する。そして、撮像装置20Aは、所定の条件に基づいて、撮像部24により撮像された画像が送信対象の画像であると判定した場合に、その画像を情報処理装置100に送信する。このように、情報処理装置100は、広範囲において撮像領域を設定する必要がないため、より容易に通信量を抑制しつつ必要な情報を取得することができる。 According to the third embodiment described above, the information processing device 100 transmits the predetermined conditions to the imaging device 20A. Then, when the imaging device 20A determines that the image captured by the imaging unit 24 is the image to be transmitted based on a predetermined condition, the imaging device 20A transmits the image to the information processing device 100. In this way, the information processing apparatus 100 does not need to set an imaging area over a wide range, and therefore can more easily acquire necessary information while suppressing communication traffic.

<第4実施形態>
以下、第4実施形態について説明する。第4実施形態は、第1実施形態の処理を前提に説明する。第4実施形態では、情報処理装置100は、複数の特定モデル126を備える。そして、情報処理装置100は、複数の特定モデル126のうちから、画像が撮像された位置に基づいて特定モデル126を選択し、選択した特定モデル126に画像を入力して、画像を解析する。以下、第1実施形態との相違点を中心について説明する。
<Fourth embodiment>
The fourth embodiment will be described below. The fourth embodiment will be described based on the processing of the first embodiment. In the fourth embodiment, the information processing device 100 includes a plurality of specific models 126. Then, the information processing apparatus 100 selects a specific model 126 from among the plurality of specific models 126 based on the position where the image was captured, inputs the image to the selected specific model 126, and analyzes the image. Hereinafter, differences from the first embodiment will be mainly explained.

第4実施形態の情報処理装置100の記憶部120には、特定モデル126が記憶されている。図18は、複数の特定モデル126の内容の一例を示す図である。例えば、複数の特定モデル126は、それぞれ位置(或いは領域)、特定モデル126の種別、および認識対象が互いに対応付けられた情報である。位置に対応付けられた特定モデル126は、対応付けられた位置が撮像された画像の矩形に含まれる風景の表す意味を、他の特定モデル126よりも、精度よく認識可能な特定モデルである。なお、図示するように、特定モデル126の認識対象は一つに限らず、複数であってもよい。 A specific model 126 is stored in the storage unit 120 of the information processing device 100 of the fourth embodiment. FIG. 18 is a diagram showing an example of the contents of the plurality of specific models 126. For example, each of the plurality of specific models 126 is information in which a position (or region), a type of the specific model 126, and a recognition target are associated with each other. The specific model 126 associated with a position is a specific model that can more accurately recognize the meaning of the scenery included in the rectangle of the image in which the associated position is captured than the other specific models 126. Note that, as illustrated, the recognition target of the specific model 126 is not limited to one, but may be multiple.

図19は、第4実施形態の情報処理装置100により実行される処理の流れの一例を示すフローチャートである。図7と同様の処理については説明を省略する。S200の処理後、第1処理部104が、動画を分割する(S202)。次に、第1処理部104が、対象画像および対象画像が特定された位置を特定する(S203)。次に、第1処理部104が、特定された位置に基づいて、特定モデル126を特定する(S205)。次に、第2処理部106は、対象画像において矩形を導出する(S206)。次に、第3処理部108は、S205で特定された特定モデル126に矩形の画像を入力する(S208)。そして、以降の処理に進む。 FIG. 19 is a flowchart illustrating an example of the flow of processing executed by the information processing apparatus 100 of the fourth embodiment. Description of processes similar to those in FIG. 7 will be omitted. After the processing in S200, the first processing unit 104 divides the video (S202). Next, the first processing unit 104 identifies the target image and the position where the target image is identified (S203). Next, the first processing unit 104 identifies the specific model 126 based on the identified position (S205). Next, the second processing unit 106 derives a rectangle in the target image (S206). Next, the third processing unit 108 inputs a rectangular image to the specific model 126 specified in S205 (S208). Then, the process proceeds to the subsequent steps.

上述したように、情報処理装置100は、画像に含まれた風景の位置に基づいて、用いる特定モデル126を特定することにより、より精度よく画像に含まれる意味を認識することができる。 As described above, the information processing apparatus 100 can more accurately recognize the meaning contained in an image by specifying the specific model 126 to be used based on the position of the scenery contained in the image.

以上説明した第4実施形態によれば、情報処理装置100は、画像が撮像された位置ごとに適用される複数の特定モデル126の中から、取得した画像が撮像された位置ごとに適用される特定モデル126を用いて、風景に含まれる地物に関連する特定の意味を表している意味領域内の特定の意味を認識し、認識した特定の意味を利用者に提供することにより、利用者にとってより有用な情報を提供することができる。 According to the fourth embodiment described above, the information processing apparatus 100 applies one of the plurality of specific models 126 to each position where the acquired image is taken, from among the plurality of specific models 126 applied to each position where the image is taken. By using the specific model 126 to recognize a specific meaning within a semantic domain that represents a specific meaning related to a feature included in a landscape, and by providing the recognized specific meaning to the user, can provide more useful information.

なお、例えば、対象画像が所定の位置に存在するガソリンスタンドの看板が撮像された画像である場合、第3処理部108は、同じガソリンスタンドの看板を撮像した前回の画像と、同じガソリンスタンドの看板を撮像した今回の画像との差分から価格の異同を抽出してもよい。例えば、第3処理部108は、前回撮像された画像および今回撮像された画像のガソリンの価格を含む矩形内の画像間の相違を導出し、導出した相違と、予め設定されたテンプレートとに基づいて、今回撮像された画像におけるガソリンの価格を導出してもよい。このように、第3処理部108は、画像認識を実施する際に前回撮像した画像との差分を元にガソリンの価格を抽出することができる。 Note that, for example, if the target image is an image of a gas station signboard located at a predetermined position, the third processing unit 108 may combine a previous image of the same gas station signboard with a previous image of the same gas station signboard. The difference in price may be extracted from the difference between this image and the current image of the signboard. For example, the third processing unit 108 derives the difference between the images within the rectangle including the gasoline price of the previously captured image and the currently captured image, and based on the derived difference and a preset template. Then, the price of gasoline in the currently captured image may be derived. In this way, the third processing unit 108 can extract the price of gasoline based on the difference from the previously captured image when performing image recognition.

<第5実施形態>
以下、第5実施形態について説明する。第5実施形態は、第2実施形態の処理を前提に説明する。第5実施形態では、第1処理部104が、複数の特定モデル126のうちから、撮像装置20から送信された画像の種別に基づいて特定モデル126を選択し、選択した特定モデル126に画像を入力して、画像を解析する。以下、第1実施形態との相違点を中心について説明する。
<Fifth embodiment>
The fifth embodiment will be described below. The fifth embodiment will be described based on the processing of the second embodiment. In the fifth embodiment, the first processing unit 104 selects a specific model 126 from among the plurality of specific models 126 based on the type of image transmitted from the imaging device 20, and assigns the image to the selected specific model 126. Enter and analyze images. Hereinafter, differences from the first embodiment will be mainly explained.

第5実施形態の情報処理装置100の記憶部120には、複数の特定モデル126が記憶されている。図20は、複数の特定モデル126の内容の一例を示す図である。例えば、複数の特定モデル126は、それぞれ画像の種別、モデルの種別、および認識対象が互いに対応付けられた情報である。画像の種別に対応付けられた特定モデル126は、対応付けられた種別の画像の矩形に含まれる風景の表す意味を、他の特定モデル126よりも、精度よく認識可能な特定モデルである。なお、例えば、画像の種別は、図示するようにガソリンスタンドやパーキングなどのように分類された種別に限らず、建物や看板などのように分類された種別であってもよい。また、図示するように、特定モデル126の認識対象は一つに限らず、複数であってもよい。 A plurality of specific models 126 are stored in the storage unit 120 of the information processing device 100 of the fifth embodiment. FIG. 20 is a diagram showing an example of the contents of the plurality of specific models 126. For example, the plurality of specific models 126 are information in which image types, model types, and recognition targets are associated with each other. The specific model 126 associated with the type of image is a specific model that can more accurately recognize the meaning of the scenery included in the rectangle of the image of the associated type than the other specific models 126. Note that, for example, the type of image is not limited to the type classified as gas station, parking lot, etc. as shown in the figure, but may be classified as a building, signboard, etc. Further, as illustrated, the recognition target of the specific model 126 is not limited to one, but may be multiple.

図21は、第5実施形態の情報処理装置100により実行される処理の流れの一例を示すフローチャートである。図7と同様の処理については説明を省略する。S200の処理後、第1処理部104が、動画を分割し(S202)、処理対象の対象画像を生成する(S204)。次に、第1処理部104は、対象画像の種別に基づいて、特定モデル126を特定する(S205#)。次に、第2処理部106は、対象動画において矩形を導出する(S206)。次に、第3処理部108は、S205#で特定した特定モデル126に矩形の画像を入力する(S208)。そして、以降の処理に進む。 FIG. 21 is a flowchart illustrating an example of the flow of processing executed by the information processing apparatus 100 of the fifth embodiment. Description of processes similar to those in FIG. 7 will be omitted. After the processing in S200, the first processing unit 104 divides the video (S202) and generates target images to be processed (S204). Next, the first processing unit 104 identifies the specific model 126 based on the type of the target image (S205#). Next, the second processing unit 106 derives a rectangle in the target video (S206). Next, the third processing unit 108 inputs a rectangular image to the specific model 126 specified in S205# (S208). Then, the process proceeds to the subsequent steps.

上述したように、情報処理装置100は、画像の種別に基づいて、用いる特定モデル126を特定することにより、より精度よく画像に含まれる意味を認識することができる。 As described above, the information processing apparatus 100 can more accurately recognize the meaning contained in an image by specifying the specific model 126 to be used based on the type of image.

以上説明した第5実施形態によれば、情報処理装置100は、画像の風景(種別)ごとに適用される複数の特定モデル126の中から、取得した画像の風景ごとに適用される特定モデル126を用いて、風景に含まれる地物に関連する特定の意味を表している意味領域内の特定の意味を認識し、認識した特定の意味を利用者に提供することにより、利用者にとってより有用な情報を提供することができる。 According to the fifth embodiment described above, the information processing apparatus 100 selects the specific model 126 that is applied to each landscape of the acquired image from among the multiple specific models 126 that are applied to each landscape (type) of the image. is used to recognize a specific meaning within a semantic domain that represents a specific meaning related to a feature included in the landscape, and provide the user with the recognized specific meaning, thereby making it more useful to the user. information.

<第6実施形態>
以下、第6実施形態について説明する。第6実施形態の情報処理システム1Aは、学習装置400を更に備える点で、各実施形態と異なる。以下、第1実施形態との相違点を中心について説明する。
<Sixth embodiment>
The sixth embodiment will be described below. The information processing system 1A of the sixth embodiment differs from each embodiment in that it further includes a learning device 400. Hereinafter, differences from the first embodiment will be mainly explained.

図22は、第6実施形態の情報処理システム1Aの機能構成の一例を示す図である。情報処理システム1Aは、例えば、第1実施形態の情報処理システム1の機能構成に加え、更に学習装置400を備える。 FIG. 22 is a diagram illustrating an example of the functional configuration of an information processing system 1A according to the sixth embodiment. The information processing system 1A, for example, further includes a learning device 400 in addition to the functional configuration of the information processing system 1 of the first embodiment.

学習装置400は、例えば、学習部410と、学習データ412とを備える。学習部410は、学習データ412に基づいて、特定モデル126を生成する。そして、学習装置400は、生成した特定モデル126を情報処理装置100に送信する。 The learning device 400 includes, for example, a learning section 410 and learning data 412. Learning unit 410 generates specific model 126 based on learning data 412. The learning device 400 then transmits the generated specific model 126 to the information processing device 100.

図23は、学習データ412の内容の一例を示す図である。例えば、学習データ412は、ガソリンスタンドの燃料の価格が表された画像と、正解データとが対応付けられた情報である。ガソリンスタンドの燃料の価格が表された画像は、例えば、同じガソリンスタンドの燃料の価格が表示された看板が撮像された画像(または同じ位置や同じ風景が撮像された画像)であってもよいし、異なるガソリンスタンドの燃料の価格が表示された看板が撮像された画像であってもよい。正解データは、画像に含まれる地物の識別情報(例えばレギュラーガソリンの価格が表された看板)と、地物に表された情報(例えばレギュラーガソリンの価格)と、地物に対応する領域とが互いに対応付けられた情報である。 FIG. 23 is a diagram showing an example of the contents of the learning data 412. For example, the learning data 412 is information in which an image showing the price of fuel at a gas station is associated with correct data. The image showing the price of fuel at a gas station may be, for example, an image of a signboard displaying the price of fuel at the same gas station (or an image of the same location or the same scenery). However, the image may be a signboard displaying fuel prices at different gas stations. The correct data includes the identification information of the feature included in the image (for example, a signboard displaying the price of regular gasoline), the information expressed on the feature (for example, the price of regular gasoline), and the area corresponding to the feature. are information that are associated with each other.

学習部410は、学習データ412を機械学習して、画像を入力するとレギュラーガソリンの価格、またはレギュラーガソリンの価格が画像に含まれていないことを示す情報を出力する特定モデル126を生成する。すなわち、同じ種類の看板を認識する処理が行われるため、看板専用に学習処理が行われ、精度の良い特定モデル126が生成される。 The learning unit 410 performs machine learning on the learning data 412 to generate a specific model 126 that, when an image is input, outputs the price of regular gasoline or information indicating that the price of regular gasoline is not included in the image. That is, since processing is performed to recognize the same type of signboard, learning processing is performed exclusively for the signboard, and a highly accurate specific model 126 is generated.

図24は、学習データ412の内容の他の一例を示す図である。例えば、学習データ412は、パーキングの空き状況が表された画像と、正解データとが対応付けられた情報である。パーキングの空き状況が表された画像は、例えば、同じパーキングの空き状況が表示された看板が撮像された画像(または同じ位置や同じ風景が撮像された画像)であってもよいし、異なるパーキングの空き状況が表示された看板が撮像された画像であってもよい。正解データは、画像に含まれる地物の識別情報(例えばパーキングの空き状況を表す看板)と、看板が空車または満車を示している情報と、地物に対応する領域とが互いに対応付けられた情報である。学習部410は、学習データ412を機械学習して、画像を入力するとパーキングの空き状況、またはパーキングの空き情報を表す看板が画像に含まれていないことを示す情報を出力する特定モデル126を生成する。 FIG. 24 is a diagram showing another example of the contents of the learning data 412. For example, the learning data 412 is information in which an image representing parking availability and correct answer data are associated with each other. The image showing the parking availability may be, for example, an image of a signboard displaying the same parking availability (or an image of the same location or the same scenery), or an image of a different parking lot. The image may be a captured image of a signboard displaying the availability status of. Correct data includes the identification information of a feature included in the image (for example, a signboard indicating parking availability), information indicating whether the signboard is empty or full, and the area corresponding to the feature. It is information. The learning unit 410 performs machine learning on the learning data 412 to generate a specific model 126 that, when an image is input, outputs information indicating that the image does not include parking availability or a signboard representing parking availability information. do.

なお、所定の地物は、閉店したガソリンスタンドや、閉店したコンビニエンスストア、開店した店舗なであってもよい。この場合、正解データは、閉店したガソリンスタンドや、閉店したコンビニエンスストア、開店した店舗などの情報と、これらの領域を示す情報が対応付けられた情報である。学習部410は、この学習データ412を学習して、画像を入力すると、画像に閉店したガソリンスタンドが含まれる情報や、画像に閉店したコンビニエンスストアが含まれる情報、画像に開店した店舗が含まれることを示す情報を出力する特定モデル126を生成する。これにより、画像に基づいて、容易に店舗の開店や閉店を認識することができる。 Note that the predetermined feature may be a closed gas station, a closed convenience store, or an opened store. In this case, the correct data is information in which information such as closed gas stations, closed convenience stores, and opened stores is associated with information indicating these areas. The learning unit 410 learns this learning data 412 and when an image is input, information that the image includes a closed gas station, information that the image includes a closed convenience store, and information that the image includes a store that has opened. A specific model 126 that outputs information indicating this is generated. Thereby, it is possible to easily recognize the opening or closing of a store based on the image.

また、所定の地物は、車両のナンバーや人物の顔等であってもよい。この場合、正解データは、車両のナンバーを含む画像と車両のナンバーの領域を示す情報とが対応付けられた情報や、人物の顔を含む画像と人物の顔の領域を示す情報とが対応付けられた情報である。学習部410は、この学習データ412を学習して、画像を入力すると、人物の顔を含むか否かを示す情報や、人物の顔の領域を示す情報を出力する特定モデル126を生成する。これにより、画像に基づいて人物の顔を容易に認識することができる。 Furthermore, the predetermined feature may be a vehicle number, a person's face, or the like. In this case, the correct data may include information in which an image containing a vehicle number plate is associated with information indicating the area of the vehicle number plate, or information in which an image containing a person's face is associated with information indicating the area of the person's face. This is the information given. The learning unit 410 learns this learning data 412 and, when an image is input, generates a specific model 126 that outputs information indicating whether the image includes a person's face and information indicating the area of the person's face. Thereby, a person's face can be easily recognized based on the image.

このように、個々の看板や、同じ位置が撮像された画像の情報の差分などの情報を学習することにより、個々の看板や、所定の位置の意味情報をより精度よく認識することができる特定モデル126が生成される。特定モデル126は、画像の情報の差分が学習されて生成されたモデルであるため、情報処理装置100が、特定モデル126を用いて意味領域内の特定の意味を認識する処理は、第1時刻において取得された画像の意味領域の情報と、第2時刻において取得された意味領域の情報との差分に基づいて、意味領域内の特定の意味を認識する処理の一例である。 In this way, by learning information such as differences in information between individual signboards and images taken at the same location, it is possible to more accurately recognize individual signboards and the semantic information of a given location. A model 126 is generated. Since the specific model 126 is a model generated by learning the difference in image information, the information processing device 100 performs the process of recognizing a specific meaning in the semantic region using the specific model 126 at the first time. This is an example of a process of recognizing a specific meaning within the semantic region based on the difference between the information on the semantic region of the image acquired at the second time and the information on the semantic region acquired at the second time.

以上説明した第6実施形態によれば、学習装置400が、学習データ412を学習して、特定モデル126を生成する。情報処理装置100は、この特定モデル126を用いて、地物に関連する特定の意味を表している意味領域内の特定の意味を、精度よく認識することができる。この結果、利用者にとってより有用な情報を提供することができる。 According to the sixth embodiment described above, the learning device 400 learns the learning data 412 and generates the specific model 126. Using this specific model 126, the information processing device 100 can accurately recognize a specific meaning within a semantic area that represents a specific meaning related to a feature. As a result, more useful information can be provided to the user.

また、上述したように学習データ412が機械学習されて、矩形導出モデルが生成されてもよい。矩形導出モデルは、例えば、第2処理部106が、矩形を導出する処理に用いるモデルである。これにより、情報処理装置100は、所定の地物を含む矩形を精度よく導出することができる。 Further, as described above, the learning data 412 may be subjected to machine learning to generate a rectangular derivation model. The rectangle derivation model is, for example, a model used by the second processing unit 106 in the process of deriving a rectangle. Thereby, the information processing apparatus 100 can accurately derive a rectangle including the predetermined feature.

また、上述したように学習データ412が機械学習されて、判定モデル45が生成されてもよい。これにより、情報処理装置100は、撮像装置20が送信対象の画像であるか否かを判定することができるモデルを撮像装置20に提供することができる。 Further, as described above, the learning data 412 may be subjected to machine learning to generate the determination model 45. Thereby, the information processing apparatus 100 can provide the imaging device 20 with a model that allows the imaging device 20 to determine whether the image is to be transmitted.

以上説明した各実施形態によれば、情報処理装置100が、他装置と通信する通信部22、風景を撮像する基準を示した基準情報に基づいて風景を撮像する撮像部24に画像を撮像させる撮像制御部28、および位置を取得する位置特定部26を含む撮像装置20から、位置情報が対応付けられた風景が撮像された画像を取得する通信部102と、通信部102により取得された画像から、撮像された風景の表す意味を認識する第3処理部108と、基準情報を撮像装置20に送信し、撮像装置20に画像を送信させる更新部114とを備えることにより、通信量を抑制しつつ必要な情報を取得することができる。 According to each of the embodiments described above, the information processing device 100 causes the communication unit 22 that communicates with other devices and the imaging unit 24 that images a landscape to capture an image based on reference information indicating a standard for capturing a landscape. A communication unit 102 that acquires an image of a landscape associated with position information from an imaging device 20 including an imaging control unit 28 and a position specifying unit 26 that acquires a position, and an image acquired by the communication unit 102. The third processing unit 108 recognizes the meaning of the captured scenery, and the updating unit 114 transmits reference information to the imaging device 20 and causes the imaging device 20 to transmit images, thereby suppressing the amount of communication. You can obtain the necessary information while doing so.

また、以上説明した各実施形態によれば、情報処理装置100が、位置特定部と撮像部を有する他装置から、位置特定部により特定された位置情報が対応付けられ、撮像部24により風景が撮像された画像を取得する通信部102と、通信部102により取得された画像から、風景に含まれる地物に関連する特定の意味を表している意味領域を抽出し、意味領域内の特定の意味を認識する第3処理部108と、意味領域を含む画像が撮像された位置に対応付けて、第3処理部108により認識された特定の意味を利用者に提供する提供部116とを備えることにより、利用者にとってより有用な情報を提供することができる。 Further, according to each of the embodiments described above, the information processing device 100 associates the position information specified by the position specifying unit with the other device having the position specifying unit and the imaging unit, and the image capturing unit 24 detects the scenery. A communication unit 102 that acquires a captured image extracts a semantic region expressing a specific meaning related to a feature included in the landscape from the image acquired by the communication unit 102, and It includes a third processing unit 108 that recognizes the meaning, and a providing unit 116 that provides the user with the specific meaning recognized by the third processing unit 108 in association with the position where the image including the semantic region was captured. This makes it possible to provide more useful information to users.

以上、本発明を実施するための形態について実施形態を用いて説明したが、本発明はこうした実施形態に何等限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々の変形及び置換を加えることができる。 Although the mode for implementing the present invention has been described above using embodiments, the present invention is not limited to these embodiments in any way, and various modifications and substitutions can be made without departing from the gist of the present invention. can be added.

10‥車両、20‥撮像装置、22‥通信部、24‥撮像部、26‥位置特定部、28‥撮像制御部、29‥決定部、30‥送信制御部、40、40A‥記憶部、42‥対応情報、44‥基準情報、45‥判定モデル、46‥撮像アプリ、100‥情報処理装置、102‥通信部、104‥第1処理部、106‥第2処理部、108‥第3処理部、110‥追跡処理部、112‥情報管理部、114‥更新部、116‥提供部、120‥記憶部、122‥対応情報、124‥基準情報、126‥特定モデル、128‥認識情報、200‥ニュースサーバ、300‥端末装置、400‥学習装置 DESCRIPTION OF SYMBOLS 10...Vehicle, 20...Imaging device, 22...Communication section, 24...Imaging section, 26...Position specifying section, 28...Imaging control section, 29...Determining section, 30...Transmission control section, 40, 40A...Storage section, 42 .. Correspondence information, 44.. Reference information, 45.. Judgment model, 46.. Imaging application, 100.. Information processing device, 102.. Communications department, 104.. First processing section, 106.. Second processing section, 108.. Third processing section. , 110... Tracking processing unit, 112... Information management unit, 114... Updating unit, 116... Providing unit, 120... Storage unit, 122... Correspondence information, 124... Reference information, 126... Specific model, 128... Recognition information, 200... News server, 300‥Terminal device, 400‥Learning device

Claims (20)

他装置と通信する通信部、風景を撮像する撮像部に画像を撮像させる撮像制御部、位置を取得する位置取得部、および前記画像とモデル情報とに基づいて送信する画像を決定する決定部を含む端末装置から、前記風景が撮像された画像のうち前記決定部により送信対象であると決定された画像であって、位置情報が対応付けられた前記風景が撮像された画像を取得する取得部と、
前記取得部により取得された画像から、前記風景に含まれる地物に関連する特定の意味を表している意味領域を抽出し、複数の特定モデルの中から、前記取得部が取得した前記決定部により送信する画像と決定された画像の前記意味領域の前記特定の意味の種別に適用される特定モデルを用いて、前記意味領域内の特定の意味を認識する認識部と、
前記意味領域を含む画像が撮像された位置に対応付けて、前記認識部により認識された特定の意味を利用者に提供する提供部と、
を備える情報提供装置。
A communication unit that communicates with other devices, an imaging control unit that causes an imaging unit that captures a landscape to capture an image, a position acquisition unit that acquires a position, and a determination unit that determines an image to be transmitted based on the image and model information. an acquisition unit that acquires, from a terminal device including, an image that is determined to be a transmission target by the determination unit from among the images that capture the landscape, and that is associated with position information; and,
The determining unit extracts a semantic region expressing a specific meaning related to a feature included in the landscape from the image acquired by the acquiring unit, and selects a semantic region that is acquired by the acquiring unit from among the plurality of specific models. a recognition unit that recognizes a specific meaning within the semantic area using a specific model applied to the specific meaning type of the semantic area of the image determined to be transmitted by;
a providing unit that provides a user with the specific meaning recognized by the recognition unit in association with the position where the image including the meaning area was captured;
An information providing device comprising:
位置特定部と撮像部を有する他装置から、前記位置特定部により特定された位置情報が対応付けられ、前記撮像部により風景が撮像された第1種別の地物を含む第1種別の画像または第2種別の地物を含む第2種別の画像を取得する取得部と、
前記取得部が前記第1種別の画像を取得した場合、前記第1種別の画像から、前記風景に含まれる前記第1種別の地物に関連する特定の意味を表している意味領域を抽出し、複数の特定モデルの中から、前記取得部が取得した画像の前記意味領域の前記第1種別の前記特定の意味の風景に適用される第1の特定モデルを用いて、前記意味領域内の特定の意味を認識し、
前記取得部が前記第2種別の画像を取得した場合、前記第2種別の画像から、前記風景に含まれる前記第2種別の地物に関連する特定の意味を表している意味領域を抽出し、複数の特定モデルの中から、前記取得部が取得した画像の前記意味領域の前記第2種別の前記特定の意味の風景に適用される第2の特定モデルを用いて、前記意味領域内の特定の意味を認識する認識部と、
前記意味領域を含む画像が撮像された位置に対応付けて、前記認識部により認識された特定の意味を利用者に提供する提供部と、
を備える情報提供装置。
An image of a first type including a first type of feature whose landscape is imaged by the imaging unit, from another device having a position identification unit and an imaging unit, with which positional information identified by the location identification unit is associated, or an acquisition unit that acquires a second type of image including a second type of feature;
When the acquisition unit acquires the first type of image, extracts a semantic region representing a specific meaning related to the first type of feature included in the landscape from the first type of image; , out of a plurality of specific models, a first specific model that is applied to the first type of scenery with a specific meaning in the semantic area of the image acquired by the acquisition unit is used to determine the landscape in the semantic area. recognize a specific meaning,
When the acquisition unit acquires the second type of image, extracts a semantic region representing a specific meaning related to the second type of feature included in the landscape from the second type of image; , out of a plurality of specific models, a second specific model that is applied to the second type of landscape of the specific meaning in the semantic area of the image acquired by the acquisition unit is used to determine the landscape within the semantic area. a recognition part that recognizes a specific meaning;
a providing unit that provides a user with the specific meaning recognized by the recognition unit in association with the position where the image including the meaning area was captured;
An information providing device comprising:
前記特定モデルは、前記風景が撮像された学習用画像と前記学習用画像内の前記意味領域内の特定の意味とが互いに対応付けられた学習用データが機械学習されて生成されたものである、
請求項1または2に記載の情報提供装置。
The specific model is generated by machine learning of learning data in which a learning image in which the scenery is captured and a specific meaning in the semantic area in the learning image are associated with each other. ,
The information providing device according to claim 1 or 2.
他装置と通信する通信部、風景を撮像する撮像部に画像を撮像させる撮像制御部、位置を取得する位置取得部、および前記画像とモデル情報とに基づいて送信する画像を決定する決定部を含む端末装置から、前記風景が撮像された画像のうち前記決定部により送信対象であると決定された画像であって、位置情報が対応付けられた前記風景が撮像された画像を取得する取得部と、
前記取得部により取得された画像から、前記風景に含まれる地物に関連する特定の意味を表している意味領域を抽出し、複数の特定モデルの中から、前記取得部が取得した前記決定部により送信する画像と決定された画像の前記意味領域の前記地物である看板の種別に適用される特定モデルを用いて、前記意味領域内の特定の意味を認識する認識部と、
前記意味領域を含む画像が撮像された位置に対応付けて、前記認識部により認識された特定の意味を利用者に提供する提供部と、
を備える情報提供装置。
A communication unit that communicates with other devices, an imaging control unit that causes an imaging unit that captures a landscape to capture an image, a position acquisition unit that acquires a position, and a determination unit that determines an image to be transmitted based on the image and model information. an acquisition unit that acquires, from a terminal device including, an image that is determined to be a transmission target by the determination unit from among the images that capture the landscape, and that is associated with position information; and,
The determining unit extracts a semantic region expressing a specific meaning related to a feature included in the landscape from the image acquired by the acquiring unit, and selects a semantic region that is acquired by the acquiring unit from among the plurality of specific models. a recognition unit that recognizes a specific meaning in the semantic area using a specific model applied to the type of signboard that is the feature in the semantic area of the image determined to be transmitted by;
a providing unit that provides a user with the specific meaning recognized by the recognition unit in association with the position where the image including the meaning area was captured;
An information providing device comprising:
位置特定部と撮像部を有する他装置から、前記位置特定部により特定された位置情報が対応付けられ、前記撮像部により風景が撮像された第1種別の地物を含む第1種別の画像または第2種別の地物を含む第2種別の画像を取得する取得部と、
前記取得部が前記第1種別の画像を取得した場合、前記第1種別の画像から、前記風景に含まれる前記第1種別の地物に関連する特定の意味を表している意味領域を抽出し、複数の特定モデルの中から、前記取得部が取得した画像の前記意味領域の前記第1種別の前記特定の意味の前記地物である看板に適用される第1の特定モデルを用いて、前記意味領域内の特定の意味を認識し、
前記取得部が前記第2種別の画像を取得した場合、前記第2種別の画像から、前記風景に含まれる前記第2種別の地物に関連する特定の意味を表している意味領域を抽出し、複数の特定モデルの中から、前記取得部が取得した画像の前記意味領域の前記第2種別の前記特定の意味の前記地物である看板に適用される第2の特定モデルを用いて、前記意味領域内の特定の意味を認識する認識部と、
前記意味領域を含む画像が撮像された位置に対応付けて、前記認識部により認識された特定の意味を利用者に提供する提供部と、
を備える情報提供装置。
An image of a first type including a first type of feature whose landscape is imaged by the imaging unit, from another device having a position identification unit and an imaging unit, with which positional information identified by the location identification unit is associated, or an acquisition unit that acquires a second type of image including a second type of feature;
When the acquisition unit acquires the first type of image, extracts a semantic region representing a specific meaning related to the first type of feature included in the landscape from the first type of image; , from among a plurality of specific models, using a first specific model that is applied to a signboard that is the feature of the specific meaning of the first type in the semantic region of the image acquired by the acquisition unit, recognizing a specific meaning within said semantic domain;
When the acquisition unit acquires the second type of image, extracts a semantic region representing a specific meaning related to the second type of feature included in the landscape from the second type of image; , from among a plurality of specific models, using a second specific model that is applied to a signboard that is the feature of the specific meaning of the second type in the semantic area of the image acquired by the acquisition unit, a recognition unit that recognizes a specific meaning within the semantic area;
a providing unit that provides a user with the specific meaning recognized by the recognition unit in association with the position where the image including the meaning area was captured;
An information providing device comprising:
前記特定モデルは、前記看板が撮像された学習用画像と前記看板が示す特定の意味とが互いに対応付けられた学習用データが機械学習されて生成されたものである、
請求項4または5に記載の情報提供装置。
The specific model is generated by machine learning of learning data in which a learning image of the signboard and a specific meaning indicated by the signboard are associated with each other.
The information providing device according to claim 4 or 5.
前記地物は、ガソリンスタンドまたはパーキングである、
請求項1から6のうちいずれか1項に記載の情報提供装置。
The feature is a gas station or a parking lot.
The information providing device according to any one of claims 1 to 6.
前記認識部は、前記取得部により取得された画像から前記画像内で車両用の燃料価格を表している意味領域を抽出し、前記意味領域内において燃料価格を認識し、
前記提供部は、前記意味領域を含む画像が撮像された位置に対応付けて、前記認識部により認識された燃料価格を利用者に提供する、
請求項1から6のうちいずれか1項に記載の情報提供装置。
The recognition unit extracts a semantic region representing a vehicle fuel price within the image from the image acquired by the acquisition unit, and recognizes the fuel price within the semantic region,
The providing unit provides the fuel price recognized by the recognition unit to the user in association with the position where the image including the semantic region was captured.
The information providing device according to any one of claims 1 to 6.
前記取得部は、指定された経路を取得し、
前記提供部は、前記取得部により取得された経路に基づいて、前記認識部が認識した前記燃料価格を利用者に提供する、
請求項8に記載の情報提供装置。
The acquisition unit acquires the specified route,
The providing unit provides the fuel price recognized by the recognition unit to the user based on the route acquired by the acquisition unit.
The information providing device according to claim 8.
前記認識部は、前記取得部により取得された画像から前記画像内でパーキングの空き状況を表している意味領域を抽出し、前記意味領域内において空き状況を認識し、
前記提供部は、前記意味領域を含む画像が撮像された位置に対応付けて、前記認識部により認識されたパーキングの空き状況を利用者に提供する、
請求項1から6のうちいずれか1項に記載の情報提供装置。
The recognition unit extracts a semantic region representing parking availability in the image from the image acquired by the acquisition unit, and recognizes the availability in the semantic region,
The providing unit provides the user with the parking availability status recognized by the recognition unit in association with the position where the image including the semantic region was captured.
The information providing device according to any one of claims 1 to 6.
前記取得部は、指定された経路を取得し、
前記提供部は、前記取得部により取得された経路に基づいて、前記認識部が認識した前記空き状況を利用者に提供する、
請求項10に記載の情報提供装置。
The acquisition unit acquires the specified route,
The providing unit provides the availability status recognized by the recognition unit to the user based on the route acquired by the acquisition unit.
The information providing device according to claim 10.
前記意味領域を含む画像が撮像された位置と、前記認識部により認識された特定の意味とを互いに対応付けた認識情報を管理する情報管理部を、更に備え、
前記提供部は、前記情報管理部により管理されている認識情報を利用者に提供する、
請求項1から10のうちいずれか1項に記載の情報提供装置。
further comprising an information management unit that manages recognition information that associates a position where the image including the meaning region is captured with a specific meaning recognized by the recognition unit,
The provision unit provides the user with the recognition information managed by the information management unit.
The information providing device according to any one of claims 1 to 10.
コンピュータが、
他装置と通信する通信部、風景を撮像する撮像部に画像を撮像させる撮像制御部、位置を取得する位置取得部、および前記画像とモデル情報とに基づいて送信する画像を決定する決定部を含む端末装置から、前記風景が撮像された画像のうち前記決定部により送信対象であると決定された画像であって、位置情報が対応付けられた前記風景が撮像された画像を取得し、
前記取得した画像から、前記風景に含まれる地物に関連する特定の意味を表している意味領域を抽出し、複数の特定モデルの中から、前記取得した前記決定部により送信する画像と決定された画像の前記意味領域の前記特定の意味の種別に適用される特定モデルを用いて、前記意味領域内の特定の意味を認識し、
前記意味領域を含む画像が撮像された位置に対応付けて、前記認識した特定の意味を利用者に提供する、
情報提供方法。
The computer is
A communication unit that communicates with other devices, an imaging control unit that causes an imaging unit that captures a landscape to capture an image, a position acquisition unit that acquires a position, and a determination unit that determines an image to be transmitted based on the image and model information. acquiring from a terminal device including an image that is determined to be a transmission target by the determining unit from among images that capture the landscape, and that is an image that captures the landscape that is associated with position information;
A semantic region expressing a specific meaning related to a feature included in the landscape is extracted from the acquired image, and the acquired image is determined to be transmitted by the determining unit from among the plurality of specific models. recognizing a specific meaning within the semantic region using a specific model applied to the specific meaning type of the semantic region of the image;
providing the recognized specific meaning to the user in association with the position where the image including the meaning area was captured;
Information provision method.
コンピュータに、
他装置と通信する通信部、風景を撮像する撮像部に画像を撮像させる撮像制御部、位置を取得する位置取得部、および前記画像とモデル情報とに基づいて送信する画像を決定する決定部を含む端末装置から、前記風景が撮像された画像のうち前記決定部により送信対象であると決定された画像であって、位置情報が対応付けられた前記風景が撮像された画像を取得させ、
前記取得させた画像から、前記風景に含まれる地物に関連する特定の意味を表している意味領域を抽出させ、複数の特定モデルの中から、前記取得させた前記決定部により送信する画像と決定された画像の前記意味領域の前記特定の意味の種別に適用される特定モデルを用いて、前記意味領域内の特定の意味を認識させ、
前記意味領域を含む画像が撮像された位置に対応付けて、前記認識させた特定の意味を利用者に提供させる、
プログラム。
to the computer,
A communication unit that communicates with other devices, an imaging control unit that causes an imaging unit that captures a landscape to capture an image, a position acquisition unit that acquires a position, and a determination unit that determines an image to be transmitted based on the image and model information. acquiring from a terminal device including an image that is determined to be a transmission target by the determining unit among images that capture the landscape, and that is associated with position information, and that captures the landscape;
A semantic region expressing a specific meaning related to a feature included in the landscape is extracted from the acquired image, and the acquired image is transmitted by the determination unit from among a plurality of specific models. recognizing a specific meaning within the semantic area using a specific model applied to the specific meaning type of the semantic area of the determined image;
providing the user with the recognized specific meaning in association with the position where the image including the meaning area was captured;
program.
コンピュータが、
位置特定部と撮像部を有する他装置から、前記位置特定部により特定された位置情報が対応付けられ、前記撮像部により風景が撮像された第1種別の地物を含む第1種別の画像または第2種別の地物を含む第2種別の画像を取得し、
前記第1種別の画像を取得した場合、前記第1種別の画像から、前記風景に含まれる前記第1種別の地物に関連する特定の意味を表している意味領域を抽出し、複数の特定モデルの中から、前記取得した画像の前記意味領域の前記第1種別の前記特定の意味の風景に適用される第1の特定モデルを用いて、前記意味領域内の特定の意味を認識し、
前記第2種別の画像を取得した場合、前記第2種別の画像から、前記風景に含まれる前記第2種別の地物に関連する特定の意味を表している意味領域を抽出し、複数の特定モデルの中から、前記取得した画像の前記意味領域の前記第2種別の前記特定の意味の風景に適用される第2の特定モデルを用いて、前記意味領域内の特定の意味を認識し、
前記意味領域を含む画像が撮像された位置に対応付けて、前記認識した特定の意味を利用者に提供する、
情報提供方法。
The computer is
An image of a first type including a first type of feature whose landscape is imaged by the imaging unit, from another device having a position identification unit and an imaging unit, with which positional information identified by the location identification unit is associated, or Obtaining a second type of image including a second type of feature;
When the first type of image is acquired, a semantic region representing a specific meaning related to the first type of feature included in the landscape is extracted from the first type of image, and a plurality of specific meanings are extracted from the first type of image. Recognizing a specific meaning within the semantic area using a first specific model from among the models that is applied to the specific semantic landscape of the first type in the semantic area of the acquired image;
When the second type of image is acquired, a semantic region expressing a specific meaning related to the second type of feature included in the landscape is extracted from the second type of image, and a plurality of specific meanings are extracted from the second type of image. Recognizing a specific meaning within the semantic area using a second specific model from among the models that is applied to the second type of the specific semantic landscape of the semantic area of the acquired image;
providing the recognized specific meaning to the user in association with the position where the image including the meaning area was captured;
Information provision method.
コンピュータに、
位置特定部と撮像部を有する他装置から、前記位置特定部により特定された位置情報が対応付けられ、前記撮像部により風景が撮像された第1種別の地物を含む第1種別の画像または第2種別の地物を含む第2種別の画像を取得させ、
前記第1種別の画像を取得した場合、前記第1種別の画像から、前記風景に含まれる前記第1種別の地物に関連する特定の意味を表している意味領域を抽出させ、複数の特定モデルの中から、前記取得させた画像の前記意味領域の前記第1種別の前記特定の意味の風景に適用される第1の特定モデルを用いて、前記意味領域内の特定の意味を認識させ、
前記第2種別の画像を取得した場合、前記第2種別の画像から、前記風景に含まれる前記第2種別の地物に関連する特定の意味を表している意味領域を抽出させ、複数の特定モデルの中から、前記取得させた画像の前記意味領域の前記第2種別の前記特定の意味の風景に適用される第2の特定モデルを用いて、前記意味領域内の特定の意味を認識させ、
前記意味領域を含む画像が撮像された位置に対応付けて、前記認識させた特定の意味を利用者に提供させる、
プログラム。
to the computer,
An image of a first type including a first type of feature whose landscape is imaged by the imaging unit, from another device having a position identification unit and an imaging unit, with which positional information identified by the location identification unit is associated, or acquiring a second type of image including a second type of feature;
When the first type of image is acquired, a semantic region expressing a specific meaning related to the first type of feature included in the landscape is extracted from the first type of image, and a plurality of specific From among the models, a first specific model that is applied to the landscape of the first type of the specific meaning in the semantic area of the acquired image is used to recognize a specific meaning in the semantic area. ,
When the second type of image is acquired, a semantic region expressing a specific meaning related to the second type of feature included in the landscape is extracted from the second type of image, and a plurality of specific meanings are extracted from the second type of image. From among the models, a second specific model that is applied to the second type of landscape of the specific meaning in the semantic area of the acquired image is used to recognize the specific meaning in the semantic area. ,
providing the user with the recognized specific meaning in association with the position where the image including the meaning area was captured;
program.
コンピュータが、
他装置と通信する通信部、風景を撮像する撮像部に画像を撮像させる撮像制御部、位置を取得する位置取得部、および前記画像とモデル情報とに基づいて送信する画像を決定する決定部を含む端末装置から、前記風景が撮像された画像のうち前記決定部により送信対象であると決定された画像であって、位置情報が対応付けられた前記風景が撮像された画像を取得し、
前記取得された画像から、前記風景に含まれる地物に関連する特定の意味を表している意味領域を抽出し、複数の特定モデルの中から、前記取得した前記決定部により送信する画像と決定された画像の前記意味領域の前記地物である看板の種別に適用される特定モデルを用いて、前記意味領域内の特定の意味を認識し、
前記意味領域を含む画像が撮像された位置に対応付けて、前記認識した特定の意味を利用者に提供する、
情報提供方法。
The computer is
A communication unit that communicates with other devices, an imaging control unit that causes an imaging unit that captures a landscape to capture an image, a position acquisition unit that acquires a position, and a determination unit that determines an image to be transmitted based on the image and model information. acquiring from a terminal device including an image that is determined to be a transmission target by the determining unit from among images that capture the landscape, and that is an image that captures the landscape that is associated with position information;
A semantic region expressing a specific meaning related to a feature included in the landscape is extracted from the acquired image, and the acquired image is determined to be transmitted by the determining unit from among a plurality of specific models. recognizing a specific meaning in the semantic area using a specific model applied to the type of signboard that is the feature in the semantic area of the image,
providing the recognized specific meaning to the user in association with the position where the image including the meaning area was captured;
Information provision method.
コンピュータに、
他装置と通信する通信部、風景を撮像する撮像部に画像を撮像させる撮像制御部、位置を取得する位置取得部、および前記画像とモデル情報とに基づいて送信する画像を決定する決定部を含む端末装置から、前記風景が撮像された画像のうち前記決定部により送信対象であると決定された画像であって、位置情報が対応付けられた前記風景が撮像された画像を取得させ、
前記取得された画像から、前記風景に含まれる地物に関連する特定の意味を表している意味領域を抽出させ、複数の特定モデルの中から、前記取得させた前記決定部により送信する画像と決定された画像の前記意味領域の前記地物である看板の種別に適用される特定モデルを用いて、前記意味領域内の特定の意味を認識させ、
前記意味領域を含む画像が撮像された位置に対応付けて、前記認識させた特定の意味を利用者に提供させる、
プログラム。
to the computer,
A communication unit that communicates with other devices, an imaging control unit that causes an imaging unit that captures a landscape to capture an image, a position acquisition unit that acquires a position, and a determination unit that determines an image to be transmitted based on the image and model information. acquiring from a terminal device including an image that is determined to be a transmission target by the determining unit among images that capture the landscape, and that is associated with position information, and that captures the landscape;
A semantic region expressing a specific meaning related to a feature included in the landscape is extracted from the acquired image, and the acquired image is transmitted by the determining unit from among a plurality of specific models. Recognizing a specific meaning within the semantic area using a specific model applied to the type of signboard that is the feature in the semantic area of the determined image;
providing the user with the recognized specific meaning in association with the position where the image including the meaning area was captured;
program.
コンピュータが、
位置特定部と撮像部を有する他装置から、前記位置特定部により特定された位置情報が対応付けられ、前記撮像部により風景が撮像された第1種別の地物を含む第1種別の画像または第2種別の地物を含む第2種別の画像を取得し、
前記第1種別の画像を取得した場合、前記第1種別の画像から、前記風景に含まれる前記第1種別の地物に関連する特定の意味を表している意味領域を抽出し、複数の特定モデルの中から、前記取得した画像の前記意味領域の前記第1種別の前記特定の意味の前記地物である看板に適用される第1の特定モデルを用いて、前記意味領域内の特定の意味を認識し、
前記第2種別の画像を取得した場合、前記第2種別の画像から、前記風景に含まれる前記第2種別の地物に関連する特定の意味を表している意味領域を抽出し、複数の特定モデルの中から、前記取得した画像の前記意味領域の前記第2種別の前記特定の意味の前記地物である看板に適用される第2の特定モデルを用いて、前記意味領域内の特定の意味を認識し、
前記意味領域を含む画像が撮像された位置に対応付けて、前記認識した特定の意味を利用者に提供する、
情報提供方法。
The computer is
An image of a first type including a first type of feature whose landscape is imaged by the imaging unit, from another device having a position identification unit and an imaging unit, with which positional information identified by the location identification unit is associated, or Obtaining a second type of image including a second type of feature;
When the first type of image is acquired, a semantic region representing a specific meaning related to the first type of feature included in the landscape is extracted from the first type of image, and a plurality of specific meanings are extracted from the first type of image. From among the models, a first specific model that is applied to a signboard that is the feature of the first type and the specific meaning in the semantic area of the acquired image is used to identify a specific model in the semantic area. recognize the meaning,
When the second type of image is acquired, a semantic region expressing a specific meaning related to the second type of feature included in the landscape is extracted from the second type of image, and a plurality of specific meanings are extracted from the second type of image. From among the models, a second specific model is applied to a signboard that is a feature of the second type and the specific meaning in the semantic area of the acquired image. recognize the meaning,
providing the recognized specific meaning to the user in association with the position where the image including the meaning area was captured;
Information provision method.
コンピュータに、
位置特定部と撮像部を有する他装置から、前記位置特定部により特定された位置情報が対応付けられ、前記撮像部により風景が撮像された第1種別の地物を含む第1種別の画像または第2種別の地物を含む第2種別の画像を取得させ、
前記第1種別の画像を取得した場合、前記第1種別の画像から、前記風景に含まれる前記第1種別の地物に関連する特定の意味を表している意味領域を抽出させ、複数の特定モデルの中から、前記取得させた画像の前記意味領域の前記第1種別の前記特定の意味の前記地物である看板に適用される第1の特定モデルを用いて、前記意味領域内の特定の意味を認識させ、
前記第2種別の画像を取得した場合、前記第2種別の画像から、前記風景に含まれる前記第2種別の地物に関連する特定の意味を表している意味領域を抽出させ、複数の特定モデルの中から、前記取得した画像の前記意味領域の前記第2種別の前記特定の意味の前記地物である看板に適用される第2の特定モデルを用いて、前記意味領域内の特定の意味を認識させ、
前記意味領域を含む画像が撮像された位置に対応付けて、前記認識させた特定の意味を利用者に提供させる、
プログラム。
to the computer,
An image of a first type including a first type of feature whose landscape is imaged by the imaging unit, from another device having a position identification unit and an imaging unit, with which positional information identified by the location identification unit is associated, or acquiring a second type of image including a second type of feature;
When the first type of image is acquired, a semantic region expressing a specific meaning related to the first type of feature included in the landscape is extracted from the first type of image, and a plurality of specific From among the models, a first specific model that is applied to a signboard that is the feature of the first type and the specific meaning in the semantic area of the acquired image is used to specify the specific meaning within the semantic area. Recognize the meaning of
When the second type of image is acquired, a semantic region expressing a specific meaning related to the second type of feature included in the landscape is extracted from the second type of image, and a plurality of specific meanings are extracted from the second type of image. From among the models, a second specific model is applied to a signboard that is a feature of the second type and the specific meaning in the semantic area of the acquired image. Recognize the meaning,
providing the user with the recognized specific meaning in association with the position where the image including the meaning area was captured;
program.
JP2019109809A 2018-07-19 2019-06-12 Information provision device, information provision method, and program Active JP7365145B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019109809A JP7365145B2 (en) 2018-07-19 2019-06-12 Information provision device, information provision method, and program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018136146A JP6606779B6 (en) 2018-07-19 2018-07-19 Information providing apparatus, information providing method, and program
JP2019109809A JP7365145B2 (en) 2018-07-19 2019-06-12 Information provision device, information provision method, and program

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2018136146A Division JP6606779B6 (en) 2018-07-19 2018-07-19 Information providing apparatus, information providing method, and program

Publications (2)

Publication Number Publication Date
JP2020012815A JP2020012815A (en) 2020-01-23
JP7365145B2 true JP7365145B2 (en) 2023-10-19

Family

ID=88328458

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019109809A Active JP7365145B2 (en) 2018-07-19 2019-06-12 Information provision device, information provision method, and program

Country Status (1)

Country Link
JP (1) JP7365145B2 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002083297A (en) 2000-06-28 2002-03-22 Matsushita Electric Ind Co Ltd Object recognition method and object recognition device
JP2016045678A (en) 2014-08-22 2016-04-04 パイオニア株式会社 Price display system, price determination apparatus, display device, price determination method, and price determination program
JP2016197314A (en) 2015-04-03 2016-11-24 株式会社日立製作所 Driving support system, driving support apparatus and driving support method
JP2018081404A (en) 2016-11-15 2018-05-24 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America Discrimination method, discrimination device, discriminator generation method and discriminator generation device

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002083297A (en) 2000-06-28 2002-03-22 Matsushita Electric Ind Co Ltd Object recognition method and object recognition device
JP2016045678A (en) 2014-08-22 2016-04-04 パイオニア株式会社 Price display system, price determination apparatus, display device, price determination method, and price determination program
JP2016197314A (en) 2015-04-03 2016-11-24 株式会社日立製作所 Driving support system, driving support apparatus and driving support method
JP2018081404A (en) 2016-11-15 2018-05-24 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America Discrimination method, discrimination device, discriminator generation method and discriminator generation device

Also Published As

Publication number Publication date
JP2020012815A (en) 2020-01-23

Similar Documents

Publication Publication Date Title
US10540554B2 (en) Real-time detection of traffic situation
JP6729673B2 (en) Location of traffic event by cooperation of multiple vehicles
CN105761500B (en) Traffic accident treatment method and traffic accident treatment device
US10317240B1 (en) Travel data collection and publication
CN106796755B (en) Enhance the security system of road surface object in head up display
US11127162B2 (en) Method and apparatus for improved location decisions based on surroundings
CN113379805A (en) Multi-information resource fusion processing method for traffic nodes
US11138876B2 (en) Information system, information processing method, and non-transitory storage medium
CN109515439B (en) Automatic driving control method, device, system and storage medium
US11430199B2 (en) Feature recognition assisted super-resolution method
US11270136B2 (en) Driving support device, vehicle, information providing device, driving support system, and driving support method
CN112712036A (en) Traffic sign recognition method and device, electronic equipment and computer storage medium
CN114003672B (en) Method, device, equipment and medium for processing road dynamic event
JP7160763B2 (en) Information processing device, information processing system, information processing method, program, and application program
JP6606779B6 (en) Information providing apparatus, information providing method, and program
JP6686076B2 (en) Information processing apparatus, information processing method, program, and application program
JP7365145B2 (en) Information provision device, information provision method, and program
CN116959265A (en) Traffic information prompting method, device, electronic equipment and readable storage medium
JP7258666B2 (en) Information providing device, information providing system, information providing method, and program
JP7258667B2 (en) Information providing device, information providing system, and information providing method
US20220303738A1 (en) On-board machine vision device for activating vehicular messages from traffic signs
Marques et al. An evaluation of machine learning methods for speed-bump detection on a GoPro dataset
KR20160117985A (en) Service Method and System for Intermediating Recorded Video
KR102493800B1 (en) Driving environment static object recognition AI data processing method and device therefor
CN113221756A (en) Traffic sign detection method and related equipment

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20191101

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20191108

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210316

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220531

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220801

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221129

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230113

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20230418

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230622

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20230704

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230919

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231006

R150 Certificate of patent or registration of utility model

Ref document number: 7365145

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20231026

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20231030

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350