JP2020095353A - Information processing device - Google Patents

Information processing device Download PDF

Info

Publication number
JP2020095353A
JP2020095353A JP2018231195A JP2018231195A JP2020095353A JP 2020095353 A JP2020095353 A JP 2020095353A JP 2018231195 A JP2018231195 A JP 2018231195A JP 2018231195 A JP2018231195 A JP 2018231195A JP 2020095353 A JP2020095353 A JP 2020095353A
Authority
JP
Japan
Prior art keywords
information
vehicle
image
evaluation
control unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018231195A
Other languages
Japanese (ja)
Inventor
大輝 久保
Daiki Kubo
大輝 久保
亮 神田
Akira Kanda
亮 神田
功一 鈴木
Koichi Suzuki
功一 鈴木
光一郎 三巻
Koichiro Mimaki
光一郎 三巻
美久 安藤
Miku Ando
美久 安藤
俊治 立石
Toshiharu Tateishi
俊治 立石
吉孝 増田
Yoshitaka Masuda
吉孝 増田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2018231195A priority Critical patent/JP2020095353A/en
Publication of JP2020095353A publication Critical patent/JP2020095353A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

To provide an information processing device capable of easily collecting information of interest to a user.SOLUTION: An information processing device 10 is provided, comprising: a communication unit 12 configured to acquire an in-vehicle camera image, shot location information of the in-vehicle camera image, and shot time information of the in-vehicle camera image; and a control unit 11 configured to extract an evaluation target image from the in-vehicle camera image according to predetermined conditions, evaluate the evaluation target image, and output an evaluation result of the evaluation target image in association with the shot location information and the shot time information.SELECTED DRAWING: Figure 1

Description

本開示は、情報処理装置に関する。 The present disclosure relates to an information processing device.

従来、景観スポットを表示するナビゲーション装置が知られている。例えば、特許文献1には、車両の走行ルートに基づいて、予め登録されている景観スポットの情報を表示するナビゲーション装置が開示されている。 Conventionally, a navigation device that displays a landscape spot is known. For example, Patent Document 1 discloses a navigation device that displays information on landscape spots that are registered in advance, based on the traveling route of the vehicle.

特開2017−150972号公報JP, 2017-150972, A

装置の利用者に提供する情報として、利用者が関心を示す情報を収集することが求められる。 As information provided to the user of the device, it is required to collect information that the user is interested in.

かかる事情に鑑みてなされた本開示の目的は、利用者が関心を示す情報を容易に収集することにある。 An object of the present disclosure made in view of such circumstances is to easily collect information in which a user is interested.

本開示の一実施形態に係る情報処理装置は、
車載カメラ画像と、前記車載カメラ画像の撮影位置情報と、前記車載カメラ画像の撮影時刻情報とを取得する通信部と、
前記車載カメラ画像から所定の条件に基づいて評価対象画像を抽出し、前記評価対象画像を評価し、前記評価対象画像の評価結果と、前記撮影位置情報と、前記撮影時刻情報とを関連づけて出力する制御部と
を備える。
An information processing device according to an embodiment of the present disclosure,
A vehicle-mounted camera image, a communication unit that acquires shooting position information of the vehicle-mounted camera image, and shooting time information of the vehicle-mounted camera image,
An evaluation target image is extracted from the vehicle-mounted camera image based on a predetermined condition, the evaluation target image is evaluated, and an evaluation result of the evaluation target image, the shooting position information, and the shooting time information are output in association with each other. And a control unit for controlling.

本開示の一実施形態に係る情報処理装置によれば、利用者が関心を示す情報が容易に収集されうる。 According to the information processing device according to the embodiment of the present disclosure, information in which the user is interested can be easily collected.

一実施形態に係る情報処理システムの構成例を示すブロック図である。It is a block diagram showing an example of composition of an information processing system concerning one embodiment. 情報処理方法の手順の一例を示すフローチャートである。It is a flowchart which shows an example of the procedure of an information processing method.

(一実施形態に係る情報処理システムの構成例)
図1に示されるように、一実施形態に係る情報処理システム100は、情報処理装置10と、撮影車両1とを備える。撮影車両1は、例えば自動車であるが、これに限られず任意の車両であってよい。情報処理システム100は、複数の撮影車両1を備えてもよい。撮影車両1は、情報処理装置10と通信可能である。撮影車両1は、ネットワーク60を介して情報処理装置10と通信してもよい。
(Example of configuration of information processing system according to one embodiment)
As shown in FIG. 1, an information processing system 100 according to an embodiment includes an information processing device 10 and a photographing vehicle 1. The photographing vehicle 1 is, for example, an automobile, but is not limited to this and may be any vehicle. The information processing system 100 may include a plurality of photographing vehicles 1. The photographing vehicle 1 can communicate with the information processing device 10. The photographing vehicle 1 may communicate with the information processing device 10 via the network 60.

情報処理装置10は、制御部11と、通信部12と、記憶部13とを備える。情報処理装置10は、サーバを含んでよい。制御部11は、1つ以上のプロセッサを含んでよい。本実施形態において「プロセッサ」は、汎用のプロセッサ、特定の処理に特化した専用のプロセッサ等であるが、これらに限られない。通信部12は、通信モジュールを含み、撮影車両1の通信装置30と通信する。記憶部13は、1つ以上のメモリを含んでよい。本実施形態において「メモリ」は、例えば半導体メモリ、磁気メモリ、又は光メモリ等であるが、これらに限られない。記憶部13に含まれる各メモリは、例えば主記憶装置、補助記憶装置、又はキャッシュメモリとして機能してもよい。記憶部13は、磁気ディスク等の電磁記憶媒体を含んでよい。記憶部13は、情報処理装置10の動作に用いられる任意の情報を記憶する。例えば、記憶部13は、システムプログラム、又はアプリケーションプログラム等を記憶してもよい。 The information processing device 10 includes a control unit 11, a communication unit 12, and a storage unit 13. The information processing device 10 may include a server. The control unit 11 may include one or more processors. In the present embodiment, the “processor” is a general-purpose processor, a dedicated processor specialized for specific processing, or the like, but is not limited to these. The communication unit 12 includes a communication module and communicates with the communication device 30 of the photographing vehicle 1. The storage unit 13 may include one or more memories. In the present embodiment, the “memory” is, for example, a semiconductor memory, a magnetic memory, an optical memory, or the like, but is not limited to these. Each memory included in the storage unit 13 may function as, for example, a main storage device, an auxiliary storage device, or a cache memory. The storage unit 13 may include an electromagnetic storage medium such as a magnetic disk. The storage unit 13 stores arbitrary information used for the operation of the information processing device 10. For example, the storage unit 13 may store a system program, an application program, or the like.

撮影車両1は、車載カメラ20と、位置情報取得装置25と、通信装置30とを搭載している。車載カメラ20と、位置情報取得装置25と、通信装置30とは、例えばCAN(Controller Area Network)等の車載ネットワーク又は専用線を介して、互いに通信可能に接続されている。 The photographing vehicle 1 is equipped with an in-vehicle camera 20, a position information acquisition device 25, and a communication device 30. The vehicle-mounted camera 20, the position information acquisition device 25, and the communication device 30 are communicably connected to each other via a vehicle-mounted network such as a CAN (Controller Area Network) or a dedicated line.

通信装置30は、情報処理装置10の通信部12と通信する。通信装置30は、ネットワーク60を介して、情報処理装置10の通信部12と通信してよい。通信装置30は、例えばDCM(Data Communication Module)等の車載通信機であってよい。通信装置30は、ネットワーク60に接続する通信モジュールを含んでよい。通信モジュールは、例えば4G(4th Generation)及び5G(5th Generation)等の移動体通信規格に対応する通信モジュールを含んでよいが、これらに限られない。 The communication device 30 communicates with the communication unit 12 of the information processing device 10. The communication device 30 may communicate with the communication unit 12 of the information processing device 10 via the network 60. The communication device 30 may be an in-vehicle communication device such as a DCM (Data Communication Module). The communication device 30 may include a communication module connected to the network 60. The communication module may include, but is not limited to, a communication module compatible with mobile communication standards such as 4G (4th Generation) and 5G (5th Generation).

車載カメラ20は、撮影車両1の周囲又は車室内に位置する対象物を撮影する。車載カメラ20が撮影した画像は、車載カメラ画像ともいう。車載カメラ画像は、撮影位置に関する情報、又は、撮影時刻に関する情報と対応づけられる。車載カメラ画像は、静止画像を含んでよいし、動画を含んでもよい。車載カメラ20は、車載カメラ画像を情報処理装置10に出力する。 The vehicle-mounted camera 20 photographs an object located around the photographing vehicle 1 or in the passenger compartment. The image captured by the vehicle-mounted camera 20 is also referred to as a vehicle-mounted camera image. The vehicle-mounted camera image is associated with information about the shooting position or information about the shooting time. The vehicle-mounted camera image may include a still image or a moving image. The vehicle-mounted camera 20 outputs the vehicle-mounted camera image to the information processing device 10.

車載カメラ20は、前方カメラ、側方カメラ、後方カメラ及び車内カメラのうち少なくとも1つを備えてよい。前方カメラは、撮影車両1の前方に位置する対象物を撮影する。前方カメラが撮影した画像は、前方画像ともいう。側方カメラは、撮影車両1の側方に位置する対象物を撮影する。側方カメラが撮影した画像は、側方画像ともいう。後方カメラは、撮影車両1の後方に位置する対象物を撮影する。後方カメラが撮影した画像は、後方画像ともいう。車内カメラは、撮影車両1の車室内に位置する対象物及び撮影車両1の後方に位置する対象物を撮影する。車内カメラが撮影した画像は、車内画像ともいう。 The vehicle-mounted camera 20 may include at least one of a front camera, a side camera, a rear camera, and an in-vehicle camera. The front camera shoots an object located in front of the shooting vehicle 1. The image captured by the front camera is also referred to as a front image. The side camera photographs an object located on the side of the photographing vehicle 1. The image captured by the side camera is also referred to as a side image. The rear camera photographs an object located behind the photographing vehicle 1. The image captured by the rear camera is also referred to as the rear image. The in-vehicle camera images an object located inside the vehicle interior of the imaging vehicle 1 and an object located behind the imaging vehicle 1. The image captured by the in-vehicle camera is also referred to as an in-vehicle image.

位置情報取得装置25は、自車両の位置情報を取得する。位置情報取得装置25は、衛星測位システムに対応する受信機を含んでよい。衛星測位システムに対応する受信機は、例えばGPS(Global Positioning System)受信機を含んでもよい。撮影車両1は、車載カメラ画像に対して、車載カメラ画像が撮影された位置に関する情報として、位置情報取得装置25で取得した自車両の位置情報を対応づけてよい。 The position information acquisition device 25 acquires the position information of the own vehicle. The position information acquisition device 25 may include a receiver compatible with the satellite positioning system. The receiver compatible with the satellite positioning system may include, for example, a GPS (Global Positioning System) receiver. The photographing vehicle 1 may associate the vehicle-mounted camera image with the position information of the own vehicle acquired by the position information acquisition device 25 as the information regarding the position where the vehicle-mounted camera image is captured.

情報処理システム100は、端末70をさらに備えてよい。端末70は、情報処理装置10と通信する。端末70は、ネットワーク60を介して情報処理装置10と通信してよい。端末70は、例えばスマートフォン等の携帯端末を含んでよい。 The information processing system 100 may further include a terminal 70. The terminal 70 communicates with the information processing device 10. The terminal 70 may communicate with the information processing device 10 via the network 60. The terminal 70 may include a mobile terminal such as a smartphone.

(情報処理システムの動作)
情報処理システム100は、撮影車両1が撮影した車載カメラ画像に基づいて、利用者が関心を示す情報を収集する。
(Operation of information processing system)
The information processing system 100 collects information in which the user is interested based on the vehicle-mounted camera image captured by the capturing vehicle 1.

情報処理装置10の通信部12は、車載カメラ画像と、車載カメラ画像が撮影された位置を特定する情報と、車載カメラ画像が撮影された時刻を特定する情報とを取得する。車載カメラ画像が撮影された位置を特定する情報は、撮影位置情報ともいう。車載カメラ画像が撮影された時刻を特定する情報は、撮影時刻情報ともいう。 The communication unit 12 of the information processing device 10 acquires the vehicle-mounted camera image, information that identifies the position at which the vehicle-mounted camera image was captured, and information that identifies the time at which the vehicle-mounted camera image was captured. The information that specifies the position where the vehicle-mounted camera image is captured is also referred to as shooting position information. The information that specifies the time when the vehicle-mounted camera image was captured is also referred to as capturing time information.

情報処理装置10の制御部11は、車載カメラ画像から、利用者がどの程度の関心を示すかを評価する対象となる画像を抽出する。利用者がどの程度の関心を示すかを評価する対象となる画像は、評価対象画像ともいう。評価対象画像の撮影位置情報及び撮影時刻情報は、その評価対象画像の抽出元である車載カメラ画像の撮影位置情報及び撮影時刻情報と同一であるとする。 The control unit 11 of the information processing device 10 extracts, from the vehicle-mounted camera image, an image that is a target for evaluating how much interest the user shows. An image that is a target for evaluating how much interest a user shows is also referred to as an evaluation target image. It is assumed that the shooting position information and the shooting time information of the evaluation target image are the same as the shooting position information and the shooting time information of the vehicle-mounted camera image from which the evaluation target image is extracted.

制御部11は、評価対象画像に対する利用者の関心の程度を評価する。制御部11は、評価対象画像について、評価値を算出してよい。評価対象画像に対する利用者の関心が高いほど、評価値は高く算出されてよい。 The control unit 11 evaluates the degree of interest of the user with respect to the evaluation target image. The control unit 11 may calculate an evaluation value for the evaluation target image. The higher the user's interest in the evaluation target image, the higher the evaluation value may be calculated.

制御部11は、評価対象画像の評価結果と、評価対象画像の撮影位置情報及び撮影時刻情報とを関連づける。評価対象画像の評価結果と、評価対象画像の撮影位置情報及び撮影時刻情報とが関連づけられた情報は、スポット評価情報ともいう。制御部11は、スポット評価情報を記憶部13に出力してよい。記憶部13は、スポット評価情報を格納する。記憶部13は、スポット評価情報を格納するデータベースを有してよい。スポット評価情報を格納するデータベースは、スポット評価DBと略称されるとする。 The control unit 11 associates the evaluation result of the evaluation target image with the shooting position information and the shooting time information of the evaluation target image. The information in which the evaluation result of the evaluation target image is associated with the shooting position information and the shooting time information of the evaluation target image is also referred to as spot evaluation information. The control unit 11 may output the spot evaluation information to the storage unit 13. The storage unit 13 stores spot evaluation information. The storage unit 13 may have a database that stores spot evaluation information. A database that stores spot evaluation information is abbreviated as a spot evaluation DB.

情報処理システム100は、以上述べてきたように動作することによって、利用者にとって関心の高いスポットの情報を容易に収集できる。 By operating as described above, the information processing system 100 can easily collect information on spots of high interest to the user.

情報処理システム100は、スポット評価DBに格納した情報を撮影車両1に出力し、撮影車両1の運転者又は同乗者に閲覧させてよい。情報処理システム100は、スポット評価DBに格納した情報を撮影車両1以外の車両の運転者又は同乗者に閲覧させてもよい。このようにすることで、利用者にとって関心の高い情報が提供されうる。 The information processing system 100 may output the information stored in the spot evaluation DB to the photographing vehicle 1 so that the driver or fellow passenger of the photographing vehicle 1 can browse the information. The information processing system 100 may allow a driver or a passenger of a vehicle other than the photographing vehicle 1 to browse the information stored in the spot evaluation DB. By doing so, information of high interest to the user can be provided.

制御部11は、車載カメラ画像から、所定の条件に基づいて、評価対象画像を抽出する。評価対象画像を抽出する所定の条件は、抽出条件ともいう。抽出条件は、山、丘、川、湖又は海等の地形が写っていることを含んでもよい。抽出条件は、森、林、草原、花畑、開花した桜、又は、紅葉した木等の植生が写っていることを含んでもよい。抽出条件は、花火大会又は祭礼等のイベントが写っていることを含んでもよい。抽出条件は、ビルの照明又はイルミネーション等の夜景が写っていることを含んでもよい。抽出条件は、朝焼け空、夕焼け空、青空、雲が浮かんでいる空、又は、月若しくは星が出ている夜空等の空の風景が写っていることを含んでもよい。制御部11は、例示した抽出条件に限られず、種々の抽出条件に基づいて評価対象画像を抽出してもよい。制御部11は、複数の条件を組み合わせた抽出条件に基づいて評価対象画像を抽出してもよい。抽出条件は、ディープラーニング等の機械学習によって生成された条件を含んでもよい。 The control unit 11 extracts an evaluation target image from the vehicle-mounted camera image based on a predetermined condition. The predetermined condition for extracting the evaluation target image is also referred to as an extraction condition. The extraction condition may include that topography such as a mountain, a hill, a river, a lake, or the sea is shown. The extraction conditions may include the presence of vegetation such as forests, forests, meadows, flower fields, blooming cherry trees, or red-colored trees. The extraction condition may include that an event such as a fireworks display or a festival is shown. The extraction condition may include that a night view such as lighting or illumination of a building is captured. The extraction condition may include that the landscape of the sky such as the sunrise sky, the sunset sky, the blue sky, the sky in which the clouds are floating, or the night sky in which the moon or the star appears appears. The control unit 11 may extract the evaluation target image based on various extraction conditions without being limited to the exemplified extraction conditions. The control unit 11 may extract the evaluation target image based on an extraction condition that is a combination of a plurality of conditions. The extraction condition may include a condition generated by machine learning such as deep learning.

制御部11は、評価対象画像に対する利用者の関心の程度を評価する。制御部11は、評価対象画像に含まれる要素を解析してよい。制御部11は、評価対象画像に含まれる要素として、地形、植生、イベント、夜景、及び、空の風景のうち少なくとも1つを解析してよい。制御部11は、評価対象画像に含まれる要素の数を解析結果として取得してよい。制御部11は、評価対象画像に含まれる要素の種類の組合せを解析結果として取得してよい。制御部11は、評価対象画像に含まれる各要素について、画像全体に占める面積の割合を解析結果として取得してよい。制御部11は、評価対象画像に含まれる各要素の彩度、輝度又はコントラストを解析結果として取得してよい。制御部11は、評価対象画像全体の彩度、輝度又はコントラストを解析結果として取得してよい。制御部11は、解析結果に基づいて、評価対象画像に対する利用者の関心の程度を評価してよい。制御部11は、評価対象画像に対する利用者の関心の程度を表す評価値を、解析結果に基づいて算出してよい。 The control unit 11 evaluates the degree of interest of the user with respect to the evaluation target image. The control unit 11 may analyze the elements included in the evaluation target image. The control unit 11 may analyze at least one of the topography, vegetation, event, night view, and sky landscape as an element included in the evaluation target image. The control unit 11 may acquire the number of elements included in the evaluation target image as the analysis result. The control unit 11 may acquire a combination of types of elements included in the evaluation target image as an analysis result. The control unit 11 may acquire the ratio of the area occupied by the entire image for each element included in the evaluation target image as the analysis result. The control unit 11 may acquire the saturation, the brightness, or the contrast of each element included in the evaluation target image as the analysis result. The control unit 11 may acquire the saturation, brightness, or contrast of the entire evaluation target image as an analysis result. The control unit 11 may evaluate the degree of user's interest in the evaluation target image based on the analysis result. The control unit 11 may calculate an evaluation value indicating the degree of interest of the user with respect to the evaluation target image based on the analysis result.

制御部11は、例えば、打ち上げ花火とタワー又は高層ビル等のイルミネーションとが写っている評価対象画像に高い関心が示されると判定し、その評価値を高く算出してもよい。制御部11は、例えば、遠くに小さく見える山脈と近くで大きく見える満開の桜とが写っている評価対象画像に高い関心が示されると判定し、その評価値を高く算出してもよい。制御部11は、例えば、谷間に形成されている雲海が写っている評価対象画像に高い関心が示されると判定し、その評価値を高く算出してもよい。制御部11は、種々のアルゴリズムに基づいて、評価対象画像の評価値を算出してよい。評価値を算出するアルゴリズムは、例えばディープラーニング等の機械学習によって生成されたアルゴリズムを含んでもよい。 For example, the control unit 11 may determine that a high interest is shown in the evaluation target image in which the fireworks display and the illumination of the tower or the skyscraper are shown, and the evaluation value may be calculated high. For example, the control unit 11 may determine that the evaluation target image in which a mountain range that looks small in the distance and a cherry tree in full bloom that looks large in the vicinity are shown is highly interested, and the evaluation value may be calculated high. For example, the control unit 11 may determine that the evaluation target image showing the sea of clouds formed in the valley is highly interested, and may calculate the evaluation value to be high. The control unit 11 may calculate the evaluation value of the evaluation target image based on various algorithms. The algorithm for calculating the evaluation value may include an algorithm generated by machine learning such as deep learning.

制御部11は、評価対象画像が撮影された位置及び時刻における天気の情報をさらに取得してよい。制御部11は、評価対象画像に写っている空の状態を解析することによって、評価対象画像が撮影された位置及び時刻における天気の情報を取得してよい。制御部11は、気象庁又は民間の気象サービス事業者等によって提供されている天気の情報に関するデータベースから、評価対象画像の撮影位置情報及び撮影時刻情報における天気の情報を取得してもよい。天気の情報は、晴れ、曇り又は雨等の分類を含んでよい。天気の情報は、雲量を含んでもよい。天気の情報は、気温又は湿度等を含んでもよい。制御部11は、天気の情報にさらに基づいて評価値を算出してもよい。制御部11は、天気の情報を評価結果と関連づけてもよい。 The control unit 11 may further acquire weather information at the position and time when the evaluation target image was captured. The control unit 11 may acquire weather information at the position and time at which the evaluation target image was captured by analyzing the sky state captured in the evaluation target image. The control unit 11 may acquire the weather information in the shooting position information and the shooting time information of the evaluation target image from a database regarding weather information provided by the Meteorological Agency, a private weather service business, or the like. The weather information may include a classification such as sunny, cloudy, or rain. The weather information may include cloud cover. The weather information may include temperature or humidity. The control unit 11 may calculate the evaluation value further based on the weather information. The control unit 11 may associate the weather information with the evaluation result.

スポット評価情報として、評価値だけでなく、撮影位置情報及び撮影時刻情報が提供されることによって、利用者は、高い評価値を有するスポットに行きやすくなる。スポット評価情報として、撮影時の天気の情報がさらに提供されることによって、利用者が期待した風景を見ることができる確率が高まりうる。また、評価結果に撮影時の天気の情報が反映されていることによって、評価値の精度が高まりうる。結果として、利用者の満足度が高まりうる。 By providing not only the evaluation value but also the shooting position information and the shooting time information as the spot evaluation information, the user can easily go to a spot having a high evaluation value. By further providing the weather information at the time of shooting as the spot evaluation information, the probability that the user can see the expected scenery can be increased. In addition, since the weather information at the time of shooting is reflected in the evaluation result, the accuracy of the evaluation value can be increased. As a result, user satisfaction can be increased.

撮影位置情報は、評価対象画像が撮影車両1からどの方角を向いて撮影された画像であるかを表す方角情報を含んでもよい。制御部11は、評価対象画像に遠くからでも見える富士山等の高い山、又は、タワー等の高い建造物が写っている場合、方角情報に基づいて、写っている対象を特定してもよい。制御部11は、評価対象画像の評価結果を、特定した対象に関連づけてもよい。 The shooting position information may include direction information indicating in which direction the evaluation target image is taken from the shooting vehicle 1. When a high mountain such as Mt. Fuji that can be seen from a distance or a tall building such as a tower is reflected in the evaluation target image, the control unit 11 may specify the reflected target based on the direction information. The control unit 11 may associate the evaluation result of the evaluation target image with the specified target.

情報処理装置10は、図2に例示されるフローチャートの手順を含む情報処理方法を実行してよい。情報処理方法は、プロセッサに実行させる情報処理プログラムとして実現されてもよい。 The information processing device 10 may execute an information processing method including the procedure of the flowchart illustrated in FIG. The information processing method may be realized as an information processing program executed by a processor.

通信部12は、撮影車両1から、車載カメラ画像と撮影位置情報と撮影時刻情報とを取得する(ステップS1)。 The communication unit 12 acquires an in-vehicle camera image, shooting position information, and shooting time information from the shooting vehicle 1 (step S1).

制御部11は、撮影位置情報に基づいて、車載カメラ画像が観光スポット付近を撮影した画像であるか判定する(ステップS2)。制御部11は、観光スポットの位置情報に基づき、撮影車両1が観光スポットから所定範囲内に位置する場合に、車載カメラ画像が観光スポット付近を撮影した画像であると判定してよい。観光スポットの位置情報は、予め記憶部13に格納されていてもよい。つまり、観光スポットは予め登録されていてよい。制御部11は、地図データに基づいて観光スポットの位置情報を取得してもよい。 The control unit 11 determines whether the vehicle-mounted camera image is an image obtained by photographing the vicinity of a tourist spot based on the photographing position information (step S2). The control unit 11 may determine that the vehicle-mounted camera image is an image of the vicinity of the tourist spot when the photographing vehicle 1 is located within a predetermined range from the tourist spot, based on the position information of the tourist spot. The location information of the tourist spot may be stored in the storage unit 13 in advance. That is, the tourist spot may be registered in advance. The control unit 11 may acquire the position information of the tourist spot based on the map data.

制御部11は、車載カメラ画像が観光スポット付近を撮影した画像である場合(ステップS2:YES)、車載カメラ画像に観光スポットを関連づける(ステップS3)。これによって、車載カメラ画像が観光スポット付近で撮影された画像であることが特定される。 When the vehicle-mounted camera image is an image of the vicinity of the tourist spot (step S2: YES), the control unit 11 associates the vehicle-mounted camera image with the tourist spot (step S3). As a result, it is specified that the vehicle-mounted camera image is an image captured near the tourist spot.

制御部11は、車載カメラ画像が観光スポット付近を撮影した画像でない場合(ステップS2:NO)、ステップS4の手順に進む。 When the vehicle-mounted camera image is not an image of the vicinity of a tourist spot (step S2: NO), the control unit 11 proceeds to the procedure of step S4.

制御部11は、車載カメラ画像から評価対象画像を抽出する(ステップS4)。 The control unit 11 extracts the evaluation target image from the vehicle-mounted camera image (step S4).

制御部11は、評価対象画像の撮影時の天気の情報を取得する(ステップS5)。 The control unit 11 acquires weather information at the time of shooting the evaluation target image (step S5).

制御部11は、評価対象画像の評価値を算出する(ステップS6)。制御部11は、ステップS6の手順を実行した後、図2のフローチャートに示されている手順の実行を終了する。制御部11は、ステップS6の手順を実行した後、評価値と撮影位置情報と撮影時刻情報とを関連づけて出力してもよい。制御部11は、天気の情報をさらに関連づけて出力してもよい。 The control unit 11 calculates the evaluation value of the evaluation target image (step S6). After executing the procedure of step S6, the control unit 11 ends the execution of the procedure shown in the flowchart of FIG. After executing the procedure of step S6, the control unit 11 may output the evaluation value, the shooting position information, and the shooting time information in association with each other. The controller 11 may further output the weather information in association with each other.

制御部11は、図2のフローチャートに示されるステップS2及びS3の手順を省略してもよい。 The control unit 11 may omit the procedure of steps S2 and S3 shown in the flowchart of FIG.

制御部11は、評価対象画像が所定期間にわたって続く動画として抽出されたり、所定期間にわたって連続して撮影された静止画像として抽出されたりしている場合、ステップS4及びS6の手順を繰り返してもよい。このようにすることで、制御部11は、所定期間にわたって評価対象画像の評価値を算出し続けてもよい。制御部11は、所定期間にわたって算出した評価値を平均してもよい。 The control unit 11 may repeat the procedure of steps S4 and S6 when the evaluation target image is extracted as a moving image that continues for a predetermined period or is extracted as a still image continuously shot for a predetermined period. .. By doing so, the control unit 11 may continue to calculate the evaluation value of the evaluation target image for a predetermined period. The control unit 11 may average the evaluation values calculated over a predetermined period.

制御部11は、評価対象画像が観光スポット付近を撮影した画像でない場合、この評価対象画像が撮影された位置を新たな観光スポットとして登録し、評価対象画像に関連づけてもよい。制御部11は、所定値以上の評価値が算出された場合に、その評価対象画像が撮影された位置を新たな観光スポットとして登録してもよい。 When the evaluation target image is not an image of the vicinity of a tourist spot, the control unit 11 may register the position where the evaluation target image is captured as a new tourist spot and associate it with the evaluation target image. When the evaluation value equal to or greater than the predetermined value is calculated, the control unit 11 may register the position where the evaluation target image is captured as a new tourist spot.

制御部11は、各観光スポットに関連づけられている評価対象画像の評価値に基づいて、観光スポットのランキングを決定してもよい。 The control unit 11 may determine the ranking of the tourist spots based on the evaluation value of the evaluation target image associated with each tourist spot.

本実施形態に係る情報処理システム100及び情報処理装置10は、車載カメラ画像に基づいてスポット評価情報を収集できる。車載カメラ20は、様々な位置から様々な方角を撮影できる。車載カメラ20は、撮影車両1のイグニッションがオンになっている期間、走行している期間、又は、アイドリングしている期間等に撮影を継続できる。これによって、情報処理システム100及び情報処理装置10は、様々な種類の車載カメラ画像を取得できる。その結果、情報処理システム100及び情報処理装置10は、車載カメラ画像を評価することによってスポット評価情報を容易に収集できる。 The information processing system 100 and the information processing apparatus 10 according to the present embodiment can collect spot evaluation information based on an in-vehicle camera image. The vehicle-mounted camera 20 can photograph various directions from various positions. The vehicle-mounted camera 20 can continue shooting while the ignition of the shooting vehicle 1 is on, running, or idling. Thereby, the information processing system 100 and the information processing apparatus 10 can acquire various types of vehicle-mounted camera images. As a result, the information processing system 100 and the information processing device 10 can easily collect the spot evaluation information by evaluating the in-vehicle camera image.

仮に定点カメラで撮影された画像に基づいてスポット評価情報を収集する場合、撮影範囲が限定される。車載カメラ画像に基づいてスポット評価情報を収集することによって、撮影範囲が広がるとともに、想定されていなかった視点から撮影された画像も収集されうる。 If spot evaluation information is collected based on an image taken by a fixed-point camera, the shooting range is limited. By collecting the spot evaluation information based on the in-vehicle camera image, the image capturing range can be expanded, and the image captured from an unexpected viewpoint can also be collected.

仮に携帯端末に搭載されているカメラ又はコンパクトカメラ若しくは一眼レフカメラ等の個人所有のカメラで撮影された画像に基づいてスポット評価情報を収集する場合、撮影のタイミングが限定される。車載カメラ画像に基づいてスポット評価情報を収集することによって、想定されていなかったタイミングで撮影された画像も収集されうる。また、個人所有のカメラで撮影された画像は、撮影者の行動範囲によって撮影位置が限定されるとともに、撮影者の想定の範囲内に撮影位置が限定される。車載カメラ画像に基づいてスポット評価情報を収集することによって、撮影範囲が広がるとともに、想定されていなかった視点から撮影された画像も収集されうる。 If the spot evaluation information is collected based on an image taken by a camera mounted on the mobile terminal, a compact camera, a single-lens reflex camera, or the like, the timing of shooting is limited. By collecting the spot evaluation information based on the vehicle-mounted camera image, it is possible to collect an image taken at an unexpected timing. In addition, an image taken by a personally owned camera has a limited shooting position depending on the action range of the photographer, and the shooting position is limited within the range assumed by the photographer. By collecting the spot evaluation information based on the in-vehicle camera image, the image capturing range can be expanded, and the image captured from an unexpected viewpoint can also be collected.

つまり、本実施形態に係る情報処理システム100及び情報処理装置10によれば、想定されていなかったスポット評価情報が収集されうる。これによって、利用者は新たなスポットを知ることができる。結果として、利用者の利便性が向上する。 That is, according to the information processing system 100 and the information processing apparatus 10 according to the present embodiment, unexpected spot evaluation information can be collected. This allows the user to know a new spot. As a result, user convenience is improved.

(他の実施形態)
制御部11は、スポット評価情報を撮影車両1又は端末70等に出力してよい。撮影車両1は、スポット評価情報を運転者又は同乗者に報知する。端末70は、スポット評価情報を端末70の利用者に報知する。
(Other embodiments)
The control unit 11 may output the spot evaluation information to the photographing vehicle 1, the terminal 70, or the like. The photographing vehicle 1 notifies the driver or the passenger of the spot evaluation information. The terminal 70 notifies the user of the terminal 70 of the spot evaluation information.

撮影車両1又は端末70は、スポット評価情報を報知する報知部を備えてよい。報知部は、表示デバイスを含んでよい。表示デバイスは、端末所持者に対して報知する情報を表す、文字、図形又は画像等を表示してよい。表示デバイスは、LED(Light Emission Diode)等の発光デバイスを含んでよい。表示デバイスは、例えば、液晶ディスプレイ(LCD:Liquid Crystal Display)であってよい。表示デバイスは、有機EL(Electro-Luminescence)ディスプレイ又は無機ELディスプレイであってよい。表示デバイスは、プラズマディスプレイ(PDP:Plasma Display Panel)であってよい。表示デバイスは、これらのディスプレイに限られず、他の種々の方式のディスプレイであってもよい。報知部は、スピーカを含んでよい。スピーカは、端末所持者に対して報知する情報を表す音声を出力してよい。報知部は、振動デバイスを含んでよい。振動デバイスは、端末所持者に対して報知する情報を表す振動パターンを出力してよい。報知部は、これらの例に限られず、他の種々のデバイスを含んでよい。 The photographing vehicle 1 or the terminal 70 may include a notification unit that notifies the spot evaluation information. The notification unit may include a display device. The display device may display a character, a figure, an image, or the like that represents information to be notified to the terminal holder. The display device may include a light emitting device such as an LED (Light Emission Diode). The display device may be, for example, a liquid crystal display (LCD). The display device may be an organic EL (Electro-Luminescence) display or an inorganic EL display. The display device may be a plasma display (PDP). The display device is not limited to these displays, and may be displays of various other types. The notification unit may include a speaker. The speaker may output a voice that represents information to be notified to the terminal holder. The notification unit may include a vibrating device. The vibrating device may output a vibration pattern representing information to be notified to the terminal holder. The notification unit is not limited to these examples, and may include various other devices.

撮影車両1に搭載されている報知部は、撮影車両1の運転者に対して情報を報知する場合において、ドライバーディストラクションの観点から、報知する情報の量が多い場合、報知する情報が要約されてよいし、短文化又は記号化されてもよい。 In the case of notifying the driver of the photographing vehicle 1 of information, the notification unit mounted on the photographing vehicle 1 summarizes the information to be notified when the amount of information to notify is large from the viewpoint of driver distraction. It may be short culture or symbolized.

スポット評価情報は、ナビゲーション装置に提供されてもよい。スポット評価情報は、SNS(Social Networking Service)の記事として投稿されてもよい。スポット評価情報は、対象となるスポットを含む地域又は近隣の地域のホームページに掲載されてもよい。スポット評価情報は、テレビ、新聞若しくは雑誌、又はウェブメディア等の各種のメディアで紹介されてもよい。スポット評価情報は、旅行業者に提供されてもよい。スポット評価情報は、これらの例に限られず、種々の態様で利用されてもよい。 The spot evaluation information may be provided to the navigation device. The spot evaluation information may be posted as an article of SNS (Social Networking Service). The spot evaluation information may be posted on the home page of the area including the target spot or a nearby area. The spot evaluation information may be introduced on various media such as television, newspapers or magazines, or web media. The spot rating information may be provided to the travel agent. The spot evaluation information is not limited to these examples and may be used in various modes.

情報処理装置10は、評価対象画像として、石焼いも若しくはわらびもち等を販売する移動販売車両、又は、ラーメン若しくはおでん等を提供する屋台車両等の移動型店舗として機能する車両を抽出し、撮影位置情報及び撮影時刻情報と関連づけて出力してもよい。情報処理装置10が利用者にこれらの車両に関する情報を報知することによって、利用者の購買意欲が刺激されうるとともに、利用者の行動の選択肢が広がりうる。結果として、利用者の利便性が向上する。また、地域経済が活性化しうる。 The information processing device 10 extracts, as an image to be evaluated, a mobile sales vehicle that sells stone-roasted potatoes, warabimochi, or the like, or a vehicle that functions as a mobile store such as a stall vehicle that provides ramen or oden, and shoots the image. It may be output in association with the position information and the shooting time information. When the information processing device 10 notifies the user of the information regarding these vehicles, the user's willingness to purchase can be stimulated and the user's action options can be expanded. As a result, user convenience is improved. In addition, the regional economy can be activated.

本開示に係る実施形態について、諸図面及び実施例に基づき説明してきたが、当業者であれば本開示に基づき種々の変形及び修正を行うことが容易であることに注意されたい。したがって、これらの変形及び修正は本開示の範囲に含まれることに留意されたい。例えば、各手段又は各ステップ等に含まれる機能等は論理的に矛盾しないように再配置可能であり、複数の手段又はステップ等を1つに組み合わせたり、或いは分割したりすることが可能である。 Although the embodiments according to the present disclosure have been described based on the drawings and the examples, it should be noted that those skilled in the art can easily make various variations and modifications based on the present disclosure. Therefore, it should be noted that these variations and modifications are included in the scope of the present disclosure. For example, the functions and the like included in each means or each step can be rearranged so as not to logically contradict, and a plurality of means or steps or the like can be combined into one or divided. ..

1 撮影車両
10 情報処理装置
11 制御部
12 通信部
13 記憶部
20 車載カメラ
25 位置情報取得装置
30 通信装置
60 ネットワーク
70 端末
100 情報処理システム
1 Photography Vehicle 10 Information Processing Device 11 Control Unit 12 Communication Unit 13 Storage Unit 20 Vehicle-Mounted Camera 25 Position Information Acquisition Device 30 Communication Device 60 Network 70 Terminal 100 Information Processing System

Claims (1)

車載カメラ画像と、前記車載カメラ画像の撮影位置情報と、前記車載カメラ画像の撮影時刻情報とを取得する通信部と、
前記車載カメラ画像から所定の条件に基づいて評価対象画像を抽出し、前記評価対象画像を評価し、前記評価対象画像の評価結果と、前記撮影位置情報と、前記撮影時刻情報とを関連づけて出力する制御部と
を備える情報処理装置。
A vehicle-mounted camera image, a communication unit that acquires shooting position information of the vehicle-mounted camera image, and shooting time information of the vehicle-mounted camera image,
An evaluation target image is extracted from the vehicle-mounted camera image based on a predetermined condition, the evaluation target image is evaluated, and an evaluation result of the evaluation target image, the shooting position information, and the shooting time information are output in association with each other. Information processing apparatus including a control unit for controlling the information processing apparatus.
JP2018231195A 2018-12-10 2018-12-10 Information processing device Pending JP2020095353A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018231195A JP2020095353A (en) 2018-12-10 2018-12-10 Information processing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018231195A JP2020095353A (en) 2018-12-10 2018-12-10 Information processing device

Publications (1)

Publication Number Publication Date
JP2020095353A true JP2020095353A (en) 2020-06-18

Family

ID=71086183

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018231195A Pending JP2020095353A (en) 2018-12-10 2018-12-10 Information processing device

Country Status (1)

Country Link
JP (1) JP2020095353A (en)

Similar Documents

Publication Publication Date Title
CN111307166B (en) Method and device for constructing occupied grid map and processing equipment
US10929494B2 (en) Systems and methods for tagging objects for augmented reality
US11386672B2 (en) Need-sensitive image and location capture system and method
US9733097B2 (en) Classifying routes of travel
US10289940B2 (en) Method and apparatus for providing classification of quality characteristics of images
US9672223B2 (en) Geo photo searching based on current conditions at a location
US9299129B2 (en) Method and apparatus for removing shadow from aerial or satellite photograph
Fedorov et al. A framework for outdoor mobile augmented reality and its application to mountain peak detection
US20140281851A1 (en) Computer-Readable Storage Device, System and Method of Automatically Generating a Hunt Story
CN106203292A (en) Method, device and the mobile terminal that the augmented reality of a kind of image processes
CN116917929A (en) System and method for super-resolution image processing in remote sensing
CN103808317A (en) Vehicle image capture system
JP2015028759A (en) Photography plan creation device, photography plan creation program and photography plan creation method
JP6238738B2 (en) Route search apparatus and method, computer program for searching for route, and recording medium recording computer program
JP2020095353A (en) Information processing device
CN111238526A (en) Meteorological information processing method based on commuting trip
US20150379040A1 (en) Generating automated tours of geographic-location related features
EP2415013A1 (en) Method for virtually extending and enhancing the field of view of a scene
US10331733B2 (en) System and method for presenting condition-specific geographic imagery
KR101285509B1 (en) Apparatus and method for saving image file
US11961254B2 (en) Systems and methods for location triangulation based on time based panoramic frames
CN110276837B (en) Information processing method and electronic equipment
CN113885550B (en) Information processing apparatus, information processing method, and non-transitory storage medium
JP2015103156A (en) Camera and server device
JP2023163749A (en) Information processing apparatus, information processing method, program, recording medium