JP2023068487A - Information processing method, program, and information processor - Google Patents

Information processing method, program, and information processor Download PDF

Info

Publication number
JP2023068487A
JP2023068487A JP2021179638A JP2021179638A JP2023068487A JP 2023068487 A JP2023068487 A JP 2023068487A JP 2021179638 A JP2021179638 A JP 2021179638A JP 2021179638 A JP2021179638 A JP 2021179638A JP 2023068487 A JP2023068487 A JP 2023068487A
Authority
JP
Japan
Prior art keywords
information
sensor
image
similarity
target object
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021179638A
Other languages
Japanese (ja)
Inventor
俊之 谷脇
Toshiyuki Taniwaki
拓也 杉本
Takuya Sugimoto
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tokyo Electron Device Ltd
Original Assignee
Tokyo Electron Device Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tokyo Electron Device Ltd filed Critical Tokyo Electron Device Ltd
Priority to JP2021179638A priority Critical patent/JP2023068487A/en
Publication of JP2023068487A publication Critical patent/JP2023068487A/en
Pending legal-status Critical Current

Links

Images

Abstract

To provide an information processing method and the like capable of improving identification accuracy of an object.SOLUTION: An information processing method includes: acquiring image information on an image of an object captured by an information processing terminal; acquiring sensor information detected by a sensor of the information processing terminal when capturing the object; and referring to a storage section that stores the image information and the sensor information corresponding to a plurality of object candidates to execute processing of identifying the captured object from the plurality of object candidates on the basis of the acquired image information and sensor information.SELECTED DRAWING: Figure 1

Description

本発明は、情報処理方法、プログラム及び情報処理装置に関する。 The present invention relates to an information processing method, a program, and an information processing apparatus.

近年、画像に基づいて対象物を識別するニーズが高まっている。特許文献1には、それぞれ異なる複数の撮影条件毎に生成された複数の識別器の中から、撮影条件に応じた識別器を選択し、選択した識別器を用いて画像データ中の対象物を識別する識別方法が開示されている。 In recent years, there has been an increasing need to identify objects based on images. In Patent Document 1, a classifier corresponding to an imaging condition is selected from a plurality of classifiers generated for each of a plurality of different imaging conditions, and an object in image data is identified using the selected classifier. An identification method for identifying is disclosed.

特開2018-081404号公報JP 2018-081404 A

しかしながら、特許文献1に係る発明は、撮影した対象物が同一形状である場合、対象物の背景に変化がない場合、または同一形状の対象物が複数存在している場合に、対象物を識別(特定)することができない問題がある。 However, the invention according to Japanese Patent Laid-Open No. 2003-100002 can identify an object when the photographed objects have the same shape, when there is no change in the background of the object, or when a plurality of objects with the same shape exist. There is a problem that cannot be (specified).

一つの側面では、対象物の識別精度を向上することが可能な情報処理方法等を提供することを目的とする。 An object of one aspect is to provide an information processing method and the like capable of improving the accuracy of identifying a target object.

一つの側面に係る情報処理方法は、情報処理端末で撮影した対象物の画像に関する画像情報を取得し、前記対象物の撮影時に前記情報処理端末のセンサにより検出されたセンサ情報を取得し、複数の対象物候補に対応する画像情報及びセンサ情報を記憶した記憶部を参照し、取得した画像情報及びセンサ情報に基づいて、前記複数の対象物候補の中から撮影した対象物を特定する処理を実行させることを特徴とする。 An information processing method according to one aspect acquires image information related to an image of an object photographed by an information processing terminal, acquires sensor information detected by a sensor of the information processing terminal when the object is photographed, obtains a plurality of referring to a storage unit storing image information and sensor information corresponding to the target object candidates, and based on the acquired image information and sensor information, identifying the photographed object from among the plurality of object candidates; It is characterized by executing

一つの側面では、対象物の識別精度を向上することが可能となる。 In one aspect, it is possible to improve the accuracy of object identification.

対象物特定システムの概要を示す説明図である。1 is an explanatory diagram showing an outline of an object identification system; FIG. サーバの構成例を示すブロック図である。It is a block diagram which shows the structural example of a server. 対象物DBのレコードレイアウトの一例を示す説明図である。FIG. 4 is an explanatory diagram showing an example of a record layout of an object DB; 端末の構成例を示すブロック図である。2 is a block diagram showing a configuration example of a terminal; FIG. 端末で撮影した対象物を特定する処理動作を示す説明図である。FIG. 4 is an explanatory diagram showing a processing operation for identifying an object photographed by a terminal; 重みづけに基づいて類似度を算出する処理を説明する説明図である。FIG. 10 is an explanatory diagram illustrating processing for calculating similarity based on weighting; 対象物の特定画面の一例を示す説明図である。FIG. 4 is an explanatory diagram showing an example of a target object identification screen; 撮影した対象物を特定する際の処理手順を示すフローチャートである。4 is a flow chart showing a processing procedure when specifying a photographed object; 類似度を算出する処理のサブルーチンの処理手順を示すフローチャートである。FIG. 10 is a flowchart showing the procedure of a subroutine of processing for calculating similarity; FIG. 実施形態2におけるサーバの構成例を示すブロック図である。FIG. 11 is a block diagram showing a configuration example of a server according to Embodiment 2; 訓練データDBのレコードレイアウトの一例を示す説明図である。FIG. 4 is an explanatory diagram showing an example of a record layout of a training data DB; 類似度出力モデルを説明する説明図である。It is an explanatory view explaining a similarity output model. 類似度出力モデルを用いる類似度の算出処理のサブルーチンの処理手順を示すフローチャートである。FIG. 10 is a flowchart showing a procedure of a subroutine for similarity calculation processing using a similarity output model; FIG.

以下、本発明をその実施形態を示す図面に基づいて詳述する。 Hereinafter, the present invention will be described in detail based on the drawings showing its embodiments.

(実施形態1)
実施形態1は、情報処理端末で撮影した対象物の画像情報、及び当該情報処理端末のセンサにより検出されたセンサ情報に基づき、複数の対象物候補の中から撮影した対象物を特定する形態に関する。対象物は、例えば配電盤もしくは分電盤等の受変電設備、環境測定装置、パーソナルコンピュータ等のあらゆる装置、車両、物体、動物または人等である。
(Embodiment 1)
Embodiment 1 relates to a mode for identifying a photographed object from among a plurality of object candidates based on image information of the object photographed by an information processing terminal and sensor information detected by a sensor of the information processing terminal. . The object is, for example, a switchboard or power receiving and transforming equipment such as a distribution board, an environment measuring device, any device such as a personal computer, a vehicle, an object, an animal, a person, or the like.

図1は、対象物特定システムの概要を示す説明図である。本実施形態のシステムは、情報処理装置1及び情報処理端末2を含み、各装置はインターネット等のネットワークNを介して情報の送受信を行う。 FIG. 1 is an explanatory diagram showing an outline of an object identification system. The system of this embodiment includes an information processing device 1 and an information processing terminal 2, and each device transmits and receives information via a network N such as the Internet.

情報処理装置1は、種々の情報に対する処理、記憶及び送受信を行う情報処理装置である。情報処理装置1は、例えばサーバ装置、パーソナルコンピュータまたは汎用のタブレットPC(パソコン)等である。本実施形態において、情報処理装置1はサーバ装置であるものとし、以下では簡潔のためサーバ1と読み替える。 The information processing device 1 is an information processing device that processes, stores, and transmits/receives various information. The information processing device 1 is, for example, a server device, a personal computer, a general-purpose tablet PC (personal computer), or the like. In the present embodiment, the information processing device 1 is assumed to be a server device, which is replaced with the server 1 for the sake of brevity.

情報処理端末2は、対象物の画像に関する画像情報の取得、当該情報処理端末2のセンサによるセンサ情報の検出、並びに、画像情報及びセンサ情報の送信等を行う端末装置である。情報処理端末2は、例えばスマートフォン、携帯電話、アップルウォッチ(Apple Watch:登録商標)等のウェアラブルデバイス、タブレット、ウェアラブルグラス、パーソナルコンピュータ端末等の情報処理機器である。以下では簡潔のため、情報処理端末2を端末2と読み替える。 The information processing terminal 2 is a terminal device that acquires image information about an image of a target object, detects sensor information using a sensor of the information processing terminal 2, and transmits image information and sensor information. The information processing terminal 2 is, for example, an information processing device such as a smart phone, a mobile phone, a wearable device such as Apple Watch (registered trademark), a tablet, wearable glasses, or a personal computer terminal. For the sake of brevity, the information processing terminal 2 is replaced with the terminal 2 below.

本実施形態に係るサーバ1は、複数のセンサを備える端末2で撮影した対象物の画像に関する画像情報を取得する。サーバ1は、当該対象物の撮影時に端末2の各センサにより検出された複数のセンサ情報を取得する。サーバ1は、複数の対象物候補に対応する画像情報及びセンサ情報を記憶した記憶部を参照し、取得した画像情報及び複数のセンサ情報に基づいて、対象物候補ごとに対象物と当該対象物候補との類似度を算出する。サーバ1は、類似度の最も高い対象物候補を、撮影した対象物として特定する。なお、画像情報及びセンサ情報に関しては後述する。 A server 1 according to the present embodiment acquires image information regarding an image of an object captured by a terminal 2 having a plurality of sensors. The server 1 acquires a plurality of sensor information detected by each sensor of the terminal 2 when the object is photographed. The server 1 refers to a storage unit that stores image information and sensor information corresponding to a plurality of object candidates, and based on the acquired image information and the plurality of sensor information, the object and the relevant object for each object candidate. Calculate the degree of similarity with the candidate. The server 1 identifies the object candidate with the highest degree of similarity as the photographed object. Image information and sensor information will be described later.

図2は、サーバ1の構成例を示すブロック図である。サーバ1は、制御部11、記憶部12、通信部13、読取部14及び大容量記憶部15を含む。各構成はバスBで接続されている。 FIG. 2 is a block diagram showing a configuration example of the server 1. As shown in FIG. The server 1 includes a control section 11 , a storage section 12 , a communication section 13 , a reading section 14 and a mass storage section 15 . Each configuration is connected by a bus B.

制御部11はCPU(Central Processing Unit)、MPU(Micro-Processing Unit)、GPU(Graphics Processing Unit)等の演算処理装置を含み、記憶部12に記憶された制御プログラム1P(プログラム製品)を読み出して実行することにより、サーバ1に係る種々の情報処理、制御処理等を行う。なお、制御プログラム1Pは、単一のコンピュータ上で、または1つのサイトにおいて配置されるか、もしくは複数のサイトにわたって分散され、通信ネットワークによって相互接続された複数のコンピュータ上で実行されるように展開することができる。なお、図2では制御部11を単一のプロセッサであるものとして説明するが、マルチプロセッサであっても良い。 The control unit 11 includes arithmetic processing units such as a CPU (Central Processing Unit), an MPU (Micro-Processing Unit), and a GPU (Graphics Processing Unit), and reads out the control program 1P (program product) stored in the storage unit 12. Various information processing, control processing, etc. related to the server 1 are performed by execution. It should be noted that the control program 1P is deployed to run on a single computer or on multiple computers located at one site or distributed across multiple sites and interconnected by a communication network. can do. Note that although FIG. 2 illustrates the controller 11 as a single processor, it may be a multiprocessor.

記憶部12はRAM(Random Access Memory)、ROM(Read Only Memory)等のメモリ素子を含み、制御部11が処理を実行するために必要な制御プログラム1P又はデータ等を記憶している。また、記憶部12は、制御部11が演算処理を実行するために必要なデータ等を一時的に記憶する。通信部13は通信に関する処理を行うための通信モジュールであり、ネットワークNを介して、端末2等との間で情報の送受信を行う。 The storage unit 12 includes memory elements such as RAM (Random Access Memory) and ROM (Read Only Memory), and stores the control program 1P or data necessary for the control unit 11 to execute processing. The storage unit 12 also temporarily stores data and the like necessary for the control unit 11 to perform arithmetic processing. The communication unit 13 is a communication module for performing processing related to communication, and transmits/receives information to/from the terminal 2 or the like via the network N.

読取部14は、CD(Compact Disc)-ROM又はDVD(Digital Versatile Disc)-ROMを含む可搬型記憶媒体1aを読み取る。制御部11が読取部14を介して、制御プログラム1Pを可搬型記憶媒体1aより読み取り、大容量記憶部15に記憶しても良い。また、ネットワークN等を介して他のコンピュータから制御部11が制御プログラム1Pをダウンロードし、大容量記憶部15に記憶しても良い。さらにまた、半導体メモリ1bから、制御部11が制御プログラム1Pを読み込んでも良い。 The reader 14 reads a portable storage medium 1a including CD (Compact Disc)-ROM or DVD (Digital Versatile Disc)-ROM. The control unit 11 may read the control program 1P from the portable storage medium 1a via the reading unit 14 and store it in the large-capacity storage unit 15 . Alternatively, the control unit 11 may download the control program 1P from another computer via the network N or the like and store it in the large-capacity storage unit 15 . Furthermore, the control unit 11 may read the control program 1P from the semiconductor memory 1b.

大容量記憶部15は、例えばHDD(Hard disk drive:ハードディスク)、SSD(Solid State Drive:ソリッドステートドライブ)等の記録媒体を備える。大容量記憶部15は、対象物DB(database)151を含む。対象物DB151は、対象物に関する情報、当該対象物の画像情報、及び当該対象物の撮影時に端末2のセンサにより検出されたセンサ情報等を記憶している。 The large-capacity storage unit 15 includes a recording medium such as an HDD (Hard disk drive) or an SSD (Solid State Drive). The mass storage unit 15 includes an object DB (database) 151 . The target object DB 151 stores information about the target object, image information of the target object, sensor information detected by the sensor of the terminal 2 when the target object is photographed, and the like.

なお、本実施形態において記憶部12及び大容量記憶部15は一体の記憶装置として構成されていても良い。また、大容量記憶部15は複数の記憶装置により構成されていても良い。更にまた、大容量記憶部15はサーバ1に接続された外部記憶装置であっても良い。 In addition, in this embodiment, the storage unit 12 and the large-capacity storage unit 15 may be configured as an integrated storage device. Also, the large-capacity storage unit 15 may be composed of a plurality of storage devices. Furthermore, the large-capacity storage unit 15 may be an external storage device connected to the server 1 .

サーバ1は、種々の情報処理及び制御処理等をコンピュータ単体で実行しても良いし、複数のコンピュータで分散して実行しても良い。また、サーバ1は、1台のサーバ内に設けられた複数の仮想マシンによって実現されても良いし、クラウドサーバを用いて実現されても良い。なお、サーバ1の処理は端末2で実行されても良い。 The server 1 may execute various information processing, control processing, and the like as a single computer, or may be distributed among a plurality of computers. Moreover, the server 1 may be realized by a plurality of virtual machines provided in one server, or may be realized by using a cloud server. Note that the processing of the server 1 may be executed by the terminal 2 .

図3は、対象物DB151のレコードレイアウトの一例を示す説明図である。対象物DB151は、対象物ID(Identifier)列、種類列、設置情報列、画像情報列及びセンサ情報列を含む。対象物ID列は、各対象物を識別するために、一意に特定される対象物のIDを記憶している。種類列は、対象物の種類(配電盤または分電盤など)を記憶している。設置情報列は、対象物を所有している人の氏名等の所有者情報、または設置位置等を記憶している。 FIG. 3 is an explanatory diagram showing an example of the record layout of the object DB 151. As shown in FIG. The object DB 151 includes an object ID (Identifier) column, a type column, an installation information column, an image information column, and a sensor information column. The object ID column stores the ID of a uniquely specified object in order to identify each object. The type column stores the types of objects (distribution board, distribution board, etc.). The installation information column stores owner information such as the name of the person who owns the object, or the installation position.

画像情報列は、文字列、特徴点列及び特徴量列を含む。文字列は、対象物の画像に含まれている文字及び当該文字の座標等を記憶している。特徴点は、対象物の画像に含まれている特徴点及び当該特徴点の座標等を記憶している。特徴点は、例えばプレスの抜き加工形状もしくはドリル穴、エッジ形状、塗料、シール、強制打痕穴、レーザー捺印、または立体文字等である。 The image information string includes a character string, a feature point string and a feature amount string. The character string stores characters included in the image of the object, the coordinates of the characters, and the like. The feature points store the feature points included in the image of the object, the coordinates of the feature points, and the like. Characteristic points are, for example, stamped shapes or drilled holes, edge shapes, paints, seals, forced dent holes, laser markings, three-dimensional characters, or the like.

特徴量列は、対象物の画像の特徴量データを記憶している。特徴量データは、画像におけるRGB(Red, Blue, Green)階調値、YMCK(Yellow, Cyan, Magenta, Key plate)階調値、明度、輝度、色相、濃度、彩度もしくはコントラストに関する特徴量、またはLBP(Local Binary Pattern)特徴量等を含む。LBP特徴量は、画像の局所的な表現を特徴量として、各画素を周囲の近傍画素と比較した相対値で構成される。 The feature quantity string stores feature quantity data of the image of the object. Feature data includes RGB (Red, Blue, Green) gradation values, YMCK (Yellow, Cyan, Magenta, Key plate) gradation values, brightness, luminance, hue, density, saturation or contrast feature values in an image, Alternatively, LBP (Local Binary Pattern) feature quantity or the like is included. The LBP feature amount is composed of relative values obtained by comparing each pixel with its surrounding neighboring pixels, with the local expression of the image as the feature amount.

センサ情報列は、無線LAN列、GPS(Global Positioning System, Global Positioning Satellite)列、気圧列、高度列、ジャイロセンサ列及びライダー(LiDAR:Light Detection and Ranging)センサ列を含む。無線LAN列は、端末2の無線LAN情報を記憶している。なお、無線LAN情報に関しては後述する。GPS列は、端末2のGPS機能を介して読み取ったGPSデータ(経緯度等)を記憶している。 The sensor information column includes a wireless LAN column, a GPS (Global Positioning System, Global Positioning Satellite) column, an atmospheric pressure column, an altitude column, a gyro sensor column, and a LiDAR (Light Detection and Ranging) sensor column. The wireless LAN column stores wireless LAN information of the terminal 2 . Note that the wireless LAN information will be described later. The GPS column stores GPS data (latitude and longitude, etc.) read via the GPS function of the terminal 2 .

気圧列は、端末2に内蔵されている圧力センサ(気圧計)により取得された気圧データを記憶している。高度列は、端末2に内蔵されている高度センサ(高度計)により取得された高度データを記憶している。ジャイロセンサ列は、端末2に内蔵されているジャイロセンサ(角速度センサ)により取得されたジャイロセンサデータを記憶している。ジャイロセンサは、回転角速度(物体が回転している速度)の測定を実現する慣性センサの一種である。 The atmospheric pressure column stores atmospheric pressure data acquired by a pressure sensor (barometer) built in the terminal 2 . The altitude column stores altitude data acquired by an altitude sensor (altimeter) built in the terminal 2 . The gyro sensor array stores gyro sensor data acquired by a gyro sensor (angular velocity sensor) built in the terminal 2 . A gyro sensor is a type of inertial sensor that enables the measurement of rotational angular velocity (the speed at which an object is rotating).

ライダーセンサ列は、端末2に内蔵されているライダーセンサにより取得されたライダーセンサデータを記憶している。ライダーセンサは、レーザー光を走査しながら対象物に照射してその散乱または反射光を観測することにより、離れた場所にある対象物までの距離、位置または形状等を検知する。 The lidar sensor column stores lidar sensor data acquired by the lidar sensor built into the terminal 2 . A lidar sensor detects the distance, position, shape, etc. to a distant object by irradiating the object with scanning laser light and observing the scattered or reflected light.

なお、上述した各DBの記憶形態は一例であり、データ間の関係が維持されていれば、他の記憶形態であっても良い。 Note that the storage form of each DB described above is an example, and other storage forms may be used as long as the relationship between data is maintained.

図4は、端末2の構成例を示すブロック図である。端末2は、制御部21、記憶部22、通信部23、入力部24、表示部25、撮影部26、GPSモジュール27、気圧モジュール28、高度モジュール29、ジャイロモジュール30及びライダーモジュール31を含む。各構成はバスBで接続されている。 FIG. 4 is a block diagram showing a configuration example of the terminal 2. As shown in FIG. The terminal 2 includes a control section 21 , a storage section 22 , a communication section 23 , an input section 24 , a display section 25 , an imaging section 26 , a GPS module 27 , an atmospheric pressure module 28 , an altitude module 29 , a gyro module 30 and a lidar module 31 . Each configuration is connected by a bus B.

制御部21はCPU、MPU等の演算処理装置を含み、記憶部22に記憶された制御プログラム2P(プログラム製品)を読み出して実行することにより、端末2に係る種々の情報処理、制御処理等を行う。なお、図4では制御部21を単一のプロセッサであるものとして説明するが、マルチプロセッサであっても良い。記憶部22はRAM、ROM等のメモリ素子を含み、制御部21が処理を実行するために必要な制御プログラム2P又はデータ等を記憶している。また、記憶部22は、制御部21が演算処理を実行するために必要なデータ等を一時的に記憶する。 The control unit 21 includes an arithmetic processing unit such as a CPU and an MPU, and reads and executes a control program 2P (program product) stored in the storage unit 22 to perform various information processing, control processing, etc. related to the terminal 2. conduct. Note that although FIG. 4 describes the controller 21 as a single processor, it may be a multiprocessor. The storage unit 22 includes memory elements such as RAM and ROM, and stores the control program 2P or data necessary for the control unit 21 to execute processing. The storage unit 22 also temporarily stores data and the like necessary for the control unit 21 to perform arithmetic processing.

通信部23は通信に関する処理を行うための通信モジュールであり、ネットワークNを介して、サーバ1等と情報の送受信を行う。入力部24は、キーボード、マウスまたは表示部25と一体化したタッチパネルでも良い。表示部25は、液晶ディスプレイ又は有機EL(electroluminescence)ディスプレイ等であり、制御部21の指示に従い各種情報を表示する。 The communication unit 23 is a communication module for performing processing related to communication, and transmits/receives information to/from the server 1 or the like via the network N. The input unit 24 may be a keyboard, a mouse, or a touch panel integrated with the display unit 25 . The display unit 25 is a liquid crystal display, an organic EL (electroluminescence) display, or the like, and displays various information according to instructions from the control unit 21 .

撮影部26は、例えばCCD(Charge Coupled Device)カメラ、CMOS(Complementary Metal Oxide Semiconductor)カメラ等の撮影装置である。なお、撮影部26は端末2の中に内蔵せず、外部で直接に端末2と接続し、撮影可能な構成としても良い。 The imaging unit 26 is an imaging device such as a CCD (Charge Coupled Device) camera, a CMOS (Complementary Metal Oxide Semiconductor) camera, or the like. Note that the photographing unit 26 may be directly connected to the terminal 2 externally, instead of being built in the terminal 2, so as to be capable of photographing.

GPSモジュール27は、GPS衛星を利用して位置情報(経緯度等)を取得するためのモジュールである。気圧モジュール28は、気圧データを取得するためのセンサモジュールである。高度モジュール29は、高度データを取得するためのセンサモジュールである。ジャイロモジュール30は、ジャイロセンサデータを取得するためのセンサモジュールである。ライダーモジュール31は、ライダーセンサデータを取得するためのセンサモジュールである。なお、上述したセンサモジュールの種類に限られず、例えば加速度センサデータを取得するための加速度モジュールを設けても良い。 The GPS module 27 is a module for acquiring position information (latitude and longitude, etc.) using GPS satellites. The atmospheric pressure module 28 is a sensor module for acquiring atmospheric pressure data. The altitude module 29 is a sensor module for acquiring altitude data. The gyro module 30 is a sensor module for acquiring gyro sensor data. The lidar module 31 is a sensor module for acquiring lidar sensor data. Note that the types of sensor modules are not limited to those described above, and for example, an acceleration module for acquiring acceleration sensor data may be provided.

なお、気圧モジュール28、高度モジュール29、ジャイロモジュール30またはライダーモジュール31は端末2の中に内蔵せず、外部で直接に端末2と接続し、センサデータを取得可能な構成としても良い。 The atmospheric pressure module 28, the altitude module 29, the gyro module 30, or the lidar module 31 may not be built in the terminal 2, but may be directly connected to the terminal 2 outside to acquire sensor data.

なお、気圧モジュール28、高度モジュール29、ジャイロモジュール30及びライダーモジュール31のうちの複数種の併用とすることで、一体とする構造であっても良い。 It should be noted that a plurality of types of the atmospheric pressure module 28, the altitude module 29, the gyro module 30, and the rider module 31 may be used together to form an integrated structure.

図5は、端末2で撮影した対象物を特定する処理動作を示す説明図である。端末2は、撮影部26を介して対象物を撮影する。端末2は、撮影した対象物の画像に関する画像情報を取得する。画像情報は、対象物の画像に含まれている文字もしくは特徴点、または当該画像の特徴量を含む。 FIG. 5 is an explanatory diagram showing a processing operation for specifying an object photographed by the terminal 2. As shown in FIG. The terminal 2 captures an image of the object via the imaging unit 26 . The terminal 2 acquires image information related to the captured image of the object. The image information includes characters or feature points included in the image of the object, or feature amounts of the image.

画像の特徴量について、端末2は例えばA-KAZE(Accelerated KAZE)、SIFT(Scale Invariant Feature Transform)、SURF(Speeded-Up Robust Features)、ORB(Oriented FAST and Rotated BRIEF)またはHOG(Histograms of Oriented Gradients)等の局所特徴量抽出方法を用いて、撮影した対象物の画像の特徴量を抽出する。文字または特徴点について、例えば、端末2は対象物の画像の特徴量を抽出し、抽出した特徴量に基づいて撮影画像中の文字または特徴点を認識する。なお、文字または特徴点については、機械学習によって構築した学習モデルを用いて自動認識しても良く、または画像処理ライブラリであるOpenCV(Open Source Computer Vision Library)を用いて認識しても良い。 For the image feature amount, the terminal 2 can, for example, use A-KAZE (Accelerated KAZE), SIFT (Scale Invariant Feature Transform), SURF (Speeded-Up Robust Features), ORB (Oriented FAST and Rotated BRIEF), or HOG (Histograms of Oriented Gradients ) is used to extract the feature amount of the captured image of the object. As for characters or feature points, for example, the terminal 2 extracts the feature amount of the image of the object, and recognizes the characters or feature points in the captured image based on the extracted feature amount. Note that characters or feature points may be automatically recognized using a learning model constructed by machine learning, or may be recognized using an image processing library, OpenCV (Open Source Computer Vision Library).

端末2は、当該対象物の撮影時に当該端末2のセンサにより検出されたセンサ情報を取得する。センサ情報は、無線LAN情報、衛星測位システムデータ(例えば、GPSデータ)、気圧データ、高度データ、ジャイロセンサデータ、またはライダーセンサデータを含む。なお、これらのセンサデータに限られず、例えばセンサ情報には、AR(Augmented Reality;拡張現実)データ、MR(Mixed Reality;複合現実)データ、地磁気(コンパス)センサデータ、加速度センサデータ、輝度センサデータ、近接センサデータまたは指紋センサデータが含まれても良い。すなわち、対象物の撮影時の場所、環境、状況または状態等に応じて、各種類のセンサにより検出されたセンサデータを利用しても良い。 The terminal 2 acquires sensor information detected by the sensor of the terminal 2 when the object is photographed. Sensor information includes wireless LAN information, satellite positioning system data (eg, GPS data), barometric pressure data, altitude data, gyro sensor data, or lidar sensor data. Not limited to these sensor data, for example, sensor information includes AR (Augmented Reality) data, MR (Mixed Reality) data, geomagnetic (compass) sensor data, acceleration sensor data, luminance sensor data, , proximity sensor data or fingerprint sensor data. That is, sensor data detected by various types of sensors may be used according to the location, environment, situation, state, or the like at the time of photographing the object.

端末2は、無線通信方式を用いて無線LAN情報を取得する。無線LAN情報は、アクセスポイントのMACアドレス(Media Access Control address)、無線LAN機能の識別子であるSSID(Service Set Identifier)、当該SSIDの電波強度、及び周波数チャネルのうちの少なくとも一つを含んでも良い。無線通信方式は、BLE(Bluetooth Low Energy)通信方式、BLE規格以外のBluetooth(登録商標)規格に準拠した通信方式、Bluetooth規格以外の近距離無線通信規格に準拠した通信方式、Wi-Fi(登録商標) Direct通信方式、または、LTE(Long Term Evolution)、4G(Generation)もしくは5G等の端末無線通信方式等を含む。 Terminal 2 acquires wireless LAN information using a wireless communication method. The wireless LAN information may include at least one of the MAC address (Media Access Control address) of the access point, the SSID (Service Set Identifier) that is the identifier of the wireless LAN function, the radio wave intensity of the SSID, and the frequency channel. . Wireless communication methods include BLE (Bluetooth Low Energy) communication method, communication method conforming to the Bluetooth (registered trademark) standard other than the BLE standard, communication method conforming to the short-range wireless communication standard other than the Bluetooth standard, Wi-Fi (registered Trademark) Direct communication system, terminal wireless communication system such as LTE (Long Term Evolution), 4G (Generation) or 5G.

端末2は、端末2のGPS機能を介して、GPSの測位衛星からの送信電波を受信してGPSデータ(経緯度等)を取得する。端末2は、当該端末2に内蔵されている圧力センサ、高度センサ、ジャイロセンサ及びライダーセンサから、気圧データ、高度データ、ジャイロセンサデータ、及びライダーセンサデータのそれぞれを取得する。なお、GPSデータには高度データが含まれても良い。なお、これらのセンサ種類に限られず、他のセンサにも同様に適用することができる。 The terminal 2 acquires GPS data (latitude and longitude, etc.) by receiving transmission radio waves from GPS positioning satellites via the GPS function of the terminal 2 . The terminal 2 acquires atmospheric pressure data, altitude data, gyro sensor data, and lidar sensor data from the pressure sensor, altitude sensor, gyro sensor, and lidar sensor built into the terminal 2 . Note that the GPS data may include altitude data. It should be noted that the present invention is not limited to these types of sensors, and can be applied to other sensors as well.

端末2は、取得した対象物の画像情報及びセンサ情報をサーバ1に送信する。なお、本実施形態では、端末2は対象物の画像情報をサーバ1に送信した例を説明したが、これに限るものではない。例えば端末2は、対象物の画像をサーバ1に送信しても良い。この場合、サーバ1は端末2から送信された対象物の画像に基づいて画像情報を取得する。 The terminal 2 transmits the acquired image information and sensor information of the object to the server 1 . In this embodiment, an example in which the terminal 2 transmits the image information of the target object to the server 1 has been described, but the present invention is not limited to this. For example, the terminal 2 may transmit the image of the target object to the server 1 . In this case, the server 1 acquires image information based on the image of the object transmitted from the terminal 2 .

サーバ1は、端末2から送信された対象物の画像情報及びセンサ情報に基づき、対象物DB151に記憶された複数の対象物候補に対応する画像情報及びセンサ情報を参照し、当該複数の対象物候補の中から撮影した対象物を特定する。 The server 1 refers to the image information and sensor information corresponding to the plurality of target object candidates stored in the target object DB 151 based on the image information and sensor information of the target object transmitted from the terminal 2, and selects the plurality of target object candidates. Identify the photographed object from among the candidates.

具体的には、サーバ1は、対象物の画像情報、及び端末2に内蔵されている各センサにより検出された複数のセンサ情報と、対象物DB151に記憶された各対象物候補の画像情報及び複数のセンサ情報とに基づき、対象物候補ごとに対象物と当該対象物候補との類似度を算出する。例えばサーバ1は、対象物の画像情報及び複数のセンサ情報に係る各評価項目、及び各評価項目に対応する重みづけに基づいて、類似度を算出する。 Specifically, the server 1 stores image information of an object, a plurality of sensor information detected by each sensor built in the terminal 2, image information of each object candidate stored in the object DB 151, and Based on information from a plurality of sensors, the degree of similarity between the target object and the target object candidate is calculated for each target object candidate. For example, the server 1 calculates the degree of similarity based on each evaluation item related to the image information of the object and the information from the plurality of sensors, and the weighting corresponding to each evaluation item.

図6は、重みづけに基づいて類似度を算出する処理を説明する説明図である。サーバ1は、対象物の画像情報及び複数のセンサ情報に係る各評価項目、及び各評価項目に対応する重みづけを取得する。評価項目は、画像情報及びセンサ情報に基づいて設けられる。図示のように、サーバ1は、「特徴点」、「文字列」、「無線LAN情報」、「高度」及び「ジャイロ」を含む評価項目を取得する。 FIG. 6 is an explanatory diagram for explaining the process of calculating the degree of similarity based on weighting. The server 1 acquires each evaluation item related to the image information of the object and the information from the plurality of sensors, and the weighting corresponding to each evaluation item. Evaluation items are provided based on image information and sensor information. As illustrated, the server 1 acquires evaluation items including "feature point", "character string", "wireless LAN information", "altitude" and "gyro".

サーバ1は、各評価項目に対応する重みづけを取得する。重みづけは、評価項目の重要度との相関を表す係数である。例えば、重要度に応じて、各評価項目に対して5段階の重みづけが設けられ、各段階における重みづけの点数のそれぞれが9点、7点、5点、3点及び1点である。各評価項目に対応する重みづけは、予め記憶部12または大容量記憶部15に記憶されても良く、または、重みづけの設定が受け付けられも良い。 The server 1 acquires the weighting corresponding to each evaluation item. Weighting is a coefficient representing the correlation with the importance of the evaluation item. For example, five levels of weighting are provided for each evaluation item according to the degree of importance, and the weighting points in each level are 9 points, 7 points, 5 points, 3 points, and 1 point, respectively. The weighting corresponding to each evaluation item may be stored in advance in the storage unit 12 or the large-capacity storage unit 15, or the weighting setting may be accepted.

重みづけの設定の受付処理に関しては、サーバ1側または端末2側で行われても良い。例えば、端末2は、各評価項目に対応する重みづけの入力を受け付け、受け付けた重みづけをサーバ1に送信する。サーバ1は、端末2から送信された重みづけを受信して記憶部12または大容量記憶部15に記憶する。 The weighting setting acceptance process may be performed on the server 1 side or the terminal 2 side. For example, the terminal 2 receives an input of weighting corresponding to each evaluation item and transmits the received weighting to the server 1 . The server 1 receives the weighting transmitted from the terminal 2 and stores it in the storage unit 12 or the large-capacity storage unit 15 .

また、対象物ごとに各評価項目に対応する重みづけの設定を受け付けることができる。例えば、配電盤である対象物に対し、各評価項目における5段階の重みづけが「9点、7点、5点、3点及び1点」である。環境測定装置である対象物に対し、各評価項目における5段階の重みづけが「10点、8点、6点、4点及び2点」である。 In addition, it is possible to receive settings for weighting corresponding to each evaluation item for each object. For example, for an object that is a switchboard, the five-level weighting in each evaluation item is "9 points, 7 points, 5 points, 3 points and 1 point". Five-level weighting in each evaluation item is "10 points, 8 points, 6 points, 4 points and 2 points" for the target object which is the environment measuring device.

サーバ1は、取得した各評価項目及び各評価項目に対応する重みづけに基づき、所定の計算式を用いて、類似度の各評価項目のスコアを算出する。計算式は、各評価項目のスコアを算出可能な計算式であれば、特に限定されない。 The server 1 calculates the score of each similarity evaluation item using a predetermined calculation formula based on the acquired evaluation items and the weights corresponding to each evaluation item. The calculation formula is not particularly limited as long as it can calculate the score of each evaluation item.

「特徴点」評価項目におけるスコアの計算式の一例としては、以下の式(1)で表される。
「特徴点」スコア=係数×一致率×重みづけ …(1)
係数は、計算の便宜上に設けられた任意の数値(例えば、255)である。一致率は、例えばOpenCV(Open Source Computer Vision Library)を用いて得られた特徴点の比較結果である。
An example of the score calculation formula for the “feature point” evaluation item is represented by the following formula (1).
"Feature point" score = coefficient x matching rate x weighting (1)
A coefficient is an arbitrary numerical value (for example, 255) provided for convenience of calculation. The match rate is a comparison result of feature points obtained using, for example, OpenCV (Open Source Computer Vision Library).

「文字列」評価項目におけるスコアの計算式の一例としては、以下の式(2)で表される。
「文字列」スコア=係数×同一文字列数×重みづけ …(2)
係数は、式(1)の係数と同様である。同一文字列数は、画像情報に含まれている文字列に対し、同一の文字列の数である。
An example of the score calculation formula for the “character string” evaluation item is represented by the following formula (2).
"Character string" score = coefficient x number of identical character strings x weighting (2)
The coefficients are the same as those in equation (1). The number of identical character strings is the number of identical character strings among the character strings included in the image information.

「無線LAN情報」評価項目におけるスコアの計算式の一例としては、以下の式(3)で表される。
「無線LAN情報」スコア=係数×アクセスポイント数×重みづけ …(3)
係数は、式(1)の係数と同様である。アクセスポイント数は、複数のアクセスポイントのうち一致したアクセスポイントの数である。
An example of the score calculation formula for the “wireless LAN information” evaluation item is represented by the following formula (3).
"Wireless LAN information" score = coefficient x number of access points x weighting (3)
The coefficients are the same as those in equation (1). The number of access points is the number of matching access points among a plurality of access points.

「高度」評価項目におけるスコアの計算式の一例としては、以下の式(4)で表される。
「高度」スコア=係数×高度点数×重みづけ …(4)
係数は、式(1)の係数と同様である。高度点数は、高度の差分に基づいて設けられても良い。高度の差分は、対象物の高度の検出値と対象物候補の高度の検出値との差である。例えば、高度の差分が5m未満である場合、建物における同一フロアとして判定され、高度点数は1点である。高度の差分が5m以上である場合、建物における異なるフロアとして判定され、高度点数は0点である。
An example of the score calculation formula for the "advanced" evaluation item is represented by the following formula (4).
"Altitude" score = coefficient x altitude score x weighting (4)
The coefficients are the same as those in equation (1). The altitude score may be provided based on the difference in altitude. The altitude difference is the difference between the detected altitude value of the object and the detected altitude value of the candidate object. For example, if the altitude difference is less than 5 m, it is determined that the floors are on the same floor in the building, and the altitude score is 1 point. If the height difference is 5 m or more, it is determined as a different floor in the building, and the altitude score is 0 points.

「ジャイロ」評価項目におけるスコアの計算式の一例としては、以下の式(5)で表される。
「ジャイロ」スコア=係数×角速度係数×重みづけ …(5)
係数は、式(1)の係数と同様である。角速度は、単位時間あたりの回転角である。角速度係数は、角速度の変化を示す指標である。X軸、Y軸及びZ軸方向への回転角度を用いて、角速度係数=1-(X-Y-Z)/360により角速度係数が算出されても良い。例えば、端末2が3軸方向とも回転していない場合、角速度係数=1-(0-0-0)/360により算出された角速度係数が1である。または、端末2がX軸方向へ10°を回転し、Y軸方向へ40°を回転し、且つ、Z軸方向へ回転していない場合、角速度係数=1-(10-40-0)/360により算出された角速度係数が0.92である。
An example of the score calculation formula for the “gyro” evaluation item is represented by the following formula (5).
"Gyro" score = coefficient x angular velocity coefficient x weighting (5)
The coefficients are the same as those in equation (1). Angular velocity is the rotation angle per unit time. The angular velocity coefficient is an index indicating changes in angular velocity. The angular velocity coefficient may be calculated by angular velocity coefficient=1−(XYZ)/360 using the rotation angles in the X-axis, Y-axis and Z-axis directions. For example, when the terminal 2 does not rotate in any of the three axial directions, the angular velocity coefficient calculated by angular velocity coefficient=1-(0-0-0)/360 is 1. Alternatively, when the terminal 2 rotates 10° in the X-axis direction, rotates 40° in the Y-axis direction, and does not rotate in the Z-axis direction, the angular velocity coefficient = 1-(10-40-0)/ The angular velocity coefficient calculated by 360 is 0.92.

サーバ1は、「特徴点」、「文字列」、「無線LAN情報」、「高度」及び「ジャイロ」評価項目に対応する重みづけ、画像情報及びセンサ情報を取得した場合、上述した計算式(1)~(5)を用いて、各評価項目のスコアを算出する。なお、サーバ1は、「特徴点」、「文字列」、「無線LAN情報」、「高度」及び「ジャイロ」評価項目のうちの少なくとも一つの評価項目のスコアを算出しても良い。サーバ1は、算出した各評価項目のスコアの合計を算出する。サーバ1は、各評価項目のスコアの最大値を算出する。スコアの最大値は、係数(例えば、255)に重みづけを乗算することにより算出される。例えば「特徴点」評価項目に対応する重みづけが9点である場合、サーバ1は、当該評価項目のスコアの最大値が2295(255×9)であると算出する。 When the server 1 acquires the weighting, image information, and sensor information corresponding to the "feature point", "character string", "wireless LAN information", "altitude", and "gyro" evaluation items, the above calculation formula ( Using 1) to (5), the score for each evaluation item is calculated. Note that the server 1 may calculate the score of at least one evaluation item among the "feature point", "character string", "wireless LAN information", "altitude", and "gyro" evaluation items. The server 1 calculates the total score of each calculated evaluation item. The server 1 calculates the maximum score of each evaluation item. The maximum score is calculated by multiplying the weight by a factor (eg, 255). For example, when the weighting corresponding to the “feature point” evaluation item is 9 points, the server 1 calculates that the maximum value of the score of the evaluation item is 2295 (255×9).

サーバ1は、算出した各評価項目のスコアの合計と、各評価項目のスコアの最大値の合計とに基づき、対象物と当該対象物候補との類似度(スコアの合計/スコアの最大値 × 100%)を算出する。図示のように、スコアの合計は6024.8であり、スコアの最大値の合計は9435である。サーバ1は、スコアの合計とスコアの最大値の合計とに基づき、対象物と当該対象物候補との類似度が63.86%(6024.8/9435×100%)であると算出する。 Based on the calculated total score of each evaluation item and the total maximum score of each evaluation item, the server 1 calculates the degree of similarity between the target object and the target object candidate (total score/maximum score x 100%) is calculated. As shown, the total score is 6024.8 and the maximum total score is 9435. The server 1 calculates that the degree of similarity between the target object and the target object candidate is 63.86% (6024.8/9435×100%) based on the total score and the total maximum score value.

このように、サーバ1は、対象物候補ごとに対象物と当該対象物候補との類似度を算出する。サーバ1は、類似度の最も高い対象物候補を、撮影した対象物として特定する。また、類似度の所定閾値を利用して対象物を特定しても良い。例えば、類似度の所定閾値(例えば、70%)が予め設けられた場合、サーバ1は、対象物と対象物候補との類似度が所定閾値以上であるか否かを判定する。サーバ1は、類似度が所定閾値以上であると判定した場合、当該対象物候補を、撮影した対象物として特定する。サーバ1、類似度が所定閾値未満であると判定した場合、当該対象物候補を排除する。 In this way, the server 1 calculates the degree of similarity between the target object and the target object candidate for each target object candidate. The server 1 identifies the object candidate with the highest degree of similarity as the photographed object. Alternatively, a target object may be specified using a predetermined threshold value of similarity. For example, when a predetermined similarity threshold (for example, 70%) is set in advance, the server 1 determines whether or not the similarity between the target object and the target object candidate is greater than or equal to the predetermined threshold. When the server 1 determines that the degree of similarity is equal to or greater than the predetermined threshold value, the server 1 identifies the object candidate as the photographed object. When the server 1 determines that the degree of similarity is less than the predetermined threshold, it excludes the object candidate.

なお、単純に類似度が高い対象物候補を撮影対象物として特定する処理に限るものではない。例えばサーバ1は、複数の対象物候補から、類似度における所定の上位順位(例えば、第3位)までの対象物候補を取得する。このように、類似度にしたがった順位付けして、複数の対象物候補を特定することができる。 Note that the processing is not limited to simply specifying an object candidate with a high degree of similarity as a photographing object. For example, the server 1 acquires target object candidates up to a predetermined high order (for example, third place) in similarity from a plurality of target object candidates. In this way, it is possible to specify a plurality of object candidates by ranking them according to similarity.

なお、類似度の算出処理に関しては、上述した重みづけに基づく処理に限るものではない。例えば、コサイン類似度、ピアソンの相関係数、又は偏差パターン類似度を類似度として用いても良い。また、機械学習モデルを利用して類似度を算出することができる。なお、機械学習モデルによる類似度の算出処理に関しては、実施形態2で説明する。 Note that the similarity calculation process is not limited to the process based on the weighting described above. For example, cosine similarity, Pearson's correlation coefficient, or deviation pattern similarity may be used as the similarity. Also, the degree of similarity can be calculated using a machine learning model. A similarity calculation process using a machine learning model will be described in a second embodiment.

サーバ1は、特定した対象物の対象物IDに基づき、当該対象物に関する情報を対象物DB151から取得する。対象物に関する情報は、対象物ID、対象物の種類または位置情報等を含む。なお、対象物に関する情報には、対象物の画像情報及び当該対象物の撮影時に端末2のセンサにより検出されたセンサ情報が含まれても良い。サーバ1は、取得した対象物に関する情報を端末2に送信する。端末2は、サーバ1から送信された対象物に関する情報を受信し、受信した対象物に関する情報を画面に表示する。 The server 1 acquires information about the target object from the target object DB 151 based on the target object ID of the specified target object. The information about the object includes object ID, object type or position information, and the like. The information about the object may include image information of the object and sensor information detected by the sensor of the terminal 2 when the object is photographed. The server 1 transmits the acquired information about the object to the terminal 2 . The terminal 2 receives the information about the object transmitted from the server 1 and displays the received information about the object on the screen.

なお、サーバ1は、複数の対象物候補から、類似度における所定の上位順位までの対象物候補を取得した場合、取得したすべての対象物候補に関する情報を端末2に送信する。端末2は、サーバ1から送信されたすべての対象物候補に関する情報を受信し、受信したすべての対象物候補に関する情報を画面に表示する。なお、対象物候補に関する情報は、対象物に関する情報と同様であるため、説明を省略する。 In addition, when the server 1 acquires target object candidates up to a predetermined high ranking in similarity from a plurality of target object candidates, the server 1 transmits information regarding all the acquired target object candidates to the terminal 2 . The terminal 2 receives the information about all the object candidates transmitted from the server 1, and displays the received information about all the object candidates on the screen. Note that the information about the target object candidate is the same as the information about the target object, so a description thereof will be omitted.

図7は、対象物の特定画面の一例を示す説明図である。特定画面は、画像表示欄11a、撮影ボタン11b、画像選択ボタン11c、特定ボタン11d、特定結果表示欄11e及び候補表示欄11fを含む。 FIG. 7 is an explanatory diagram showing an example of a target object identification screen. The specific screen includes an image display field 11a, a shooting button 11b, an image selection button 11c, a specific button 11d, a specific result display field 11e, and a candidate display field 11f.

画像表示欄11aは、対象物の画像を表示する表示欄である。撮影ボタン11bは、対象物を撮影するボタンである。画像選択ボタン11cは、対象物の画像を選択するボタンである。特定ボタン11dは、複数の対象物候補から、撮影した対象物を特定するボタンである。特定結果表示欄11eは、対象物の特定結果を表示する表示欄である。候補表示欄11fは、類似度に従った順位付けして、特定した対象物候補を表示する表示欄である。 The image display column 11a is a display column for displaying the image of the object. The shooting button 11b is a button for shooting an object. The image selection button 11c is a button for selecting an image of an object. The specifying button 11d is a button for specifying a photographed object from a plurality of object candidates. The identification result display column 11e is a display column for displaying the identification result of the object. The candidate display column 11f is a display column for displaying the identified object candidates by ranking them according to the degree of similarity.

端末2は、撮影ボタン11bのタッチ操作を受け付けた場合、撮影部26を介して対象物を撮影し、撮影した対象物の画像を取得する。端末2は、画像選択ボタン11cのタッチ操作を受け付けた場合、記憶部12または大容量記憶部15に記憶された対象物の画像を取得する。 When receiving the touch operation of the shooting button 11b, the terminal 2 shoots the object via the shooting unit 26 and acquires the image of the shot object. The terminal 2 acquires the image of the object stored in the storage unit 12 or the large-capacity storage unit 15 when receiving the touch operation of the image selection button 11c.

端末2は、特定ボタン11dのタッチ操作を受け付けた場合、撮影ボタン11bまたは画像選択ボタン11cにより取得された対象物の画像に基づいて、当該画像に関する画像情報(文字、特徴点または特徴量等)を取得する。端末2は、当該対象物の撮影時に当該端末2のセンサにより検出された複数のセンサ情報(無線LAN情報、GPSデータ、気圧データ、高度データ、ジャイロセンサデータ、またはライダーセンサデータ等)を取得する。 When the terminal 2 receives the touch operation of the specific button 11d, based on the image of the object acquired by the shooting button 11b or the image selection button 11c, image information (characters, feature points, feature amounts, etc.) related to the image is obtained. to get The terminal 2 acquires a plurality of sensor information (wireless LAN information, GPS data, atmospheric pressure data, altitude data, gyro sensor data, lidar sensor data, etc.) detected by the sensor of the terminal 2 when the object is photographed. .

端末2は、取得した画像情報及び複数のセンサ情報をサーバ1に送信する。サーバ1は、端末2から送信された画像情報及び複数のセンサ情報を受信する。サーバ1は、受信した対象物に対応する画像情報及び複数のセンサ情報と、対象物DB151に記憶された複数の対象物候補に対応する画像情報及び複数のセンサ情報とに基づき、対象物候補ごとに対象物と当該対象物候補との類似度を算出する。 The terminal 2 transmits the acquired image information and multiple sensor information to the server 1 . The server 1 receives image information and a plurality of sensor information transmitted from the terminal 2 . Based on the received image information corresponding to the target object and the plurality of sensor information, and the image information and the plurality of sensor information corresponding to the plurality of target object candidates stored in the target object DB 151, the server 1 performs Then, the similarity between the target object and the target object candidate is calculated.

サーバ1は、算出した類似度に基づき、複数の対象物候補から、類似度における所定の上位順位(例えば、第3位)までの対象物候補を取得する。サーバ1は、取得した各対象物候補の対象物IDに基づき、各対象物候補に関する情報を対象物DB151から取得する。対象物候補に関する情報は、対象物ID、対象物の種類、対象物を所有している所有者情報(例えば、所有者の氏名)、または位置情報(例えば、位置名称または経緯度)等を含む。サーバ1は、取得した各対象物候補に関する情報を端末2に送信する。 Based on the calculated degree of similarity, the server 1 acquires object candidates up to a predetermined high rank (for example, third rank) in similarity from the plurality of object candidates. The server 1 acquires information about each target object candidate from the target object DB 151 based on the acquired target object ID of each target object candidate. Information about object candidates includes object ID, object type, owner information (eg owner's name) who owns the object, or location information (eg location name or latitude and longitude). . The server 1 transmits information about each acquired object candidate to the terminal 2 .

端末2は、サーバ1から送信された各対象物候補に関する情報を受信して画面に表示する。端末2は、対象物候補ごとに対象物と当該対象物候補との類似度に基づき、類似度の最も高い対象物候補に関する情報を特定結果表示欄11eに表示し、次の類似度に対応する対象物候補に関する情報を候補表示欄11fに表示する。 The terminal 2 receives the information about each target object candidate transmitted from the server 1 and displays it on the screen. Based on the degree of similarity between the object and the object candidate for each object candidate, the terminal 2 displays information about the object candidate with the highest degree of similarity in the identification result display field 11e, and displays information corresponding to the next degree of similarity. Information about the object candidate is displayed in the candidate display field 11f.

図示のように、最も高い対象物候補の対象物ID、対象物の種類、所有者情報(例えば、A氏)及び位置情報(位置名称及び経緯度等)が特定結果表示欄11eに表示される。次の類似度に対応する各対象物候補の対象物ID、対象物の種類、所有者情報及び位置情報が候補表示欄11fに表示される。なお、対象物候補の類似度が特定結果表示欄11e及び候補表示欄11fに表示されても良い。 As shown, the object ID, object type, owner information (for example, Mr. A), and position information (position name, latitude and longitude, etc.) of the highest object candidate are displayed in the identification result display column 11e. . The object ID, object type, owner information, and position information of each object candidate corresponding to the next degree of similarity are displayed in the candidate display field 11f. Note that the degree of similarity of the target object candidates may be displayed in the identification result display field 11e and the candidate display field 11f.

なお、図7では、3つの対象物候補を取得した例を説明したが、対象物候補の数が特に限定されない。なお、対象物候補の数が多い場合、例えば、横方向に並べられた複数の対象物候補が候補表示欄11fに収まりきらない場合、複数の対象物候補を横方向にスクロール可能に表示しても良い。 Although FIG. 7 illustrates an example in which three target object candidates are acquired, the number of target object candidates is not particularly limited. When there are many object candidates, for example, when the plurality of object candidates arranged in the horizontal direction cannot fit in the candidate display field 11f, the plurality of object candidates are horizontally scrollable. Also good.

図8は、撮影した対象物を特定する際の処理手順を示すフローチャートである。端末2の制御部21は、撮影部26を介して対象物を撮影する(ステップS201)。なお、撮影された対象物の画像が予め記憶部12または大容量記憶部15に記憶された場合、制御部21は、記憶部12または大容量記憶部15から対象物の画像を取得しても良い。制御部21は、撮影した対象物の画像に関する画像情報(文字、特徴点または特徴量等)を取得する(ステップS202)。 FIG. 8 is a flow chart showing a processing procedure for identifying a photographed object. The control unit 21 of the terminal 2 takes an image of the object via the imaging unit 26 (step S201). Note that if the captured image of the object is stored in advance in the storage unit 12 or the large-capacity storage unit 15, the control unit 21 may obtain the image of the object from the storage unit 12 or the large-capacity storage unit 15. good. The control unit 21 acquires image information (characters, feature points, feature amounts, etc.) related to the captured image of the object (step S202).

制御部21は、当該対象物の撮影時に当該端末2のセンサにより検出された複数のセンサ情報(無線LAN情報、GPSデータ、気圧データ、高度データ、ジャイロセンサデータ、またはライダーセンサデータ等)を取得する(ステップS203)。 The control unit 21 acquires a plurality of sensor information (wireless LAN information, GPS data, atmospheric pressure data, altitude data, gyro sensor data, lidar sensor data, etc.) detected by the sensor of the terminal 2 when the object is photographed. (step S203).

具体的には、制御部21は、無線通信方式(例えば、Wi-Fi Direct)を用いて無線LAN情報(アクセスポイントのMACアドレス、SSID、電波強度または周波数等)を取得する。制御部21は、GPSモジュール27を介して、GPSの測位衛星からの送信電波を受信してGPSデータ(経緯度等)を取得する。制御部21は、気圧モジュール28を介して気圧データを取得する。制御部21は、高度モジュール29を介して高度データを取得する。制御部21は、ジャイロモジュール30を介してジャイロセンサデータを取得する。制御部21は、ライダーモジュール31を介してライダーセンサデータを取得する。なお、これらのセンサ種類に限られず、他のセンサにも同様に適用することができる。 Specifically, the control unit 21 acquires wireless LAN information (MAC address of access point, SSID, radio wave intensity or frequency, etc.) using a wireless communication method (eg, Wi-Fi Direct). The control unit 21 receives radio waves transmitted from GPS positioning satellites via the GPS module 27 and acquires GPS data (latitude and longitude, etc.). The control unit 21 acquires atmospheric pressure data via the atmospheric pressure module 28 . The control unit 21 acquires altitude data via the altitude module 29 . The control unit 21 acquires gyro sensor data via the gyro module 30 . The control unit 21 acquires lidar sensor data via the lidar module 31 . It should be noted that the present invention is not limited to these types of sensors, and can be applied to other sensors as well.

制御部21は、取得した対象物の画像情報及び複数のセンサ情報を通信部23によりサーバ1に送信する(ステップS204)。サーバ1の制御部11は、端末2から送信された対象物の画像情報及び複数のセンサ情報を通信部13により受信する(ステップS101)。制御部11は、受信した画像情報及び複数のセンサ情報に基づき、対象物と当該対象物候補との類似度を算出する処理のサブルーチンを実行する(ステップS102)。なお、類似度の算出処理のサブルーチンに関しては後述する。 The control unit 21 transmits the obtained image information of the object and the information of the plurality of sensors to the server 1 through the communication unit 23 (step S204). The control unit 11 of the server 1 receives the image information of the object and the plural sensor information transmitted from the terminal 2 through the communication unit 13 (step S101). The control unit 11 executes a subroutine of processing for calculating the degree of similarity between the target object and the target object candidate based on the received image information and multiple sensor information (step S102). A subroutine for similarity calculation processing will be described later.

制御部11は、算出した類似度に基づき、類似度の最も高い対象物候補を、撮影した対象物として特定する(ステップS103)。なお、類似度の所定閾値を利用して対象物を特定しても良い。例えば制御部11は、対象物と対象物候補との類似度が所定閾値(例えば、70%)以上であると判定した場合、当該対象物候補を、撮影した対象物として特定する。 Based on the calculated degrees of similarity, the control unit 11 identifies the object candidate with the highest degree of similarity as the photographed object (step S103). It should be noted that the target object may be specified using a predetermined similarity threshold. For example, when the control unit 11 determines that the degree of similarity between the target object and the target object candidate is equal to or greater than a predetermined threshold value (for example, 70%), the control unit 11 identifies the target object candidate as the photographed target object.

制御部11は、特定した対象物の対象物IDに基づき、当該対象物に関する情報(対象物ID、種類または位置情報等)を大容量記憶部15の対象物DB151から取得する(ステップS104)。制御部11は、取得した対象物に関する情報を通信部13により端末2に送信する(ステップS105)。端末2の制御部21は、サーバ1から送信された対象物に関する情報を通信部23により受信する(ステップS205)。制御部21は、受信した対象物に関する情報を表示部25により表示し(ステップS206)、処理を終了する。 Based on the object ID of the specified object, the control unit 11 acquires information about the object (object ID, type, position information, etc.) from the object DB 151 of the large-capacity storage unit 15 (step S104). The control unit 11 transmits the acquired information about the object to the terminal 2 through the communication unit 13 (step S105). The control unit 21 of the terminal 2 receives the information about the object transmitted from the server 1 through the communication unit 23 (step S205). The control unit 21 displays the received information about the object on the display unit 25 (step S206), and ends the process.

図9は、類似度を算出する処理のサブルーチンの処理手順を示すフローチャートである。サーバ1の制御部11は、対象物の画像情報及び複数のセンサ情報に係る各評価項目を記憶部12または大容量記憶部15からを取得する(ステップS01)。評価項目は、例えば「特徴点」、「文字列」、「無線LAN情報」、「高度」及び「ジャイロ」を含む。 FIG. 9 is a flow chart showing the procedure of a subroutine of processing for calculating the degree of similarity. The control unit 11 of the server 1 acquires each evaluation item related to the image information of the target object and the information of a plurality of sensors from the storage unit 12 or the large-capacity storage unit 15 (step S01). Evaluation items include, for example, "feature point", "character string", "wireless LAN information", "altitude" and "gyro".

制御部11は、各評価項目に対応する重みづけの設定を受け付ける(ステップS02)。具体的には、端末2の制御部21は、各評価項目に対応する重みづけの設定を入力部24により受け付け、受け付けた重みづけを通信部23によりサーバ1に送信する。サーバ1の制御部11は、端末2から送信された各評価項目に対応する重みづけを通信部13により受信する。なお、サーバ1の制御部11は、各評価項目に対応する重みづけの設定を直接受け付けても良い。 The control unit 11 receives settings for weighting corresponding to each evaluation item (step S02). Specifically, the control unit 21 of the terminal 2 receives the setting of weighting corresponding to each evaluation item through the input unit 24 and transmits the received weighting to the server 1 through the communication unit 23 . The control unit 11 of the server 1 receives the weighting corresponding to each evaluation item transmitted from the terminal 2 through the communication unit 13 . Note that the control unit 11 of the server 1 may directly receive settings for weighting corresponding to each evaluation item.

なお、各評価項目に対応する重みづけが予め記憶部12または大容量記憶部15に記憶された場合、制御部11は、各評価項目に対応する重みづけを記憶部12または大容量記憶部15から取得する。また、対象物ごとに各評価項目に対応する重みづけの設定を受け付けることができる。 When the weighting corresponding to each evaluation item is stored in advance in the storage unit 12 or the large-capacity storage unit 15, the control unit 11 stores the weighting corresponding to each evaluation item in the storage unit 12 or the large-capacity storage unit 15. Get from In addition, it is possible to receive settings for weighting corresponding to each evaluation item for each object.

制御部11は、複数の対象物候補に対応する画像情報及びセンサ情報を大容量記憶部15の対象物DB151から取得する(ステップS03)。制御部11は、取得した複数の対象物候補から、1つの対象物候補に対応する画像情報及びセンサ情報を取得する(ステップS04)。制御部11は、各評価項目に対応する重みづけ、画像情報及び複数のセンサ情報に基づき、上述した計算式(1)~(5)を用いて、各評価項目のスコアを算出する(ステップS05)。 The control unit 11 acquires image information and sensor information corresponding to a plurality of object candidates from the object DB 151 of the large-capacity storage unit 15 (step S03). The control unit 11 acquires image information and sensor information corresponding to one target object candidate from the multiple acquired target object candidates (step S04). The control unit 11 calculates the score of each evaluation item using the above-described calculation formulas (1) to (5) based on the weighting corresponding to each evaluation item, the image information, and the information from the plurality of sensors (step S05 ).

制御部11は、算出した各評価項目のスコアの合計を算出する(ステップS06)。制御部11は、係数(例えば、255)に重みづけを乗算することにより、各評価項目のスコアの最大値を算出する(ステップS07)。制御部11は、算出したスコアの合計とスコアの最大値の合計とに基づき、対象物と当該対象物候補との類似度(スコアの合計/スコアの最大値 × 100%)を算出する(ステップS08)。 The control unit 11 calculates the total score of each calculated evaluation item (step S06). The control unit 11 calculates the maximum score of each evaluation item by multiplying the coefficient (for example, 255) by the weight (step S07). The control unit 11 calculates the degree of similarity between the target object and the target object candidate (total score/maximum score×100%) based on the calculated total score and maximum score (step S08).

制御部11は、複数の対象物候補の中に当該対象物候補が最後の対象物候補であるか否かを判定する(ステップS09)。制御部11は、当該対象物候補が最後の対象物候補でないと判定した場合(ステップS09でNO)、ステップS04の処理に戻る。制御部11は、当該対象物候補が最後の対象物候補であると判定した場合(ステップS09でYES)、対象物候補ごとに算出した類似度を取得する(ステップS10)。制御部11は、類似度の算出処理のサブルーチンを終了してリターンする。 The control unit 11 determines whether or not the target object candidate is the last target object candidate among the plurality of target object candidates (step S09). When the control unit 11 determines that the target object candidate is not the last target object candidate (NO in step S09), the process returns to step S04. When determining that the target object candidate is the last target object candidate (YES in step S09), the control unit 11 acquires the similarity calculated for each target object candidate (step S10). The control unit 11 ends the subroutine of the similarity calculation process and returns.

本実施形態によると、画像情報及びセンサ情報に基づいて、複数の対象物候補から撮影した対象物を特定することが可能となる。 According to this embodiment, it is possible to specify a photographed object from a plurality of object candidates based on image information and sensor information.

本実施形態によると、特定した対象物に関する情報を出力することが可能となる。 According to this embodiment, it is possible to output information about the specified object.

本実施形態によると、複数の対象物候補から、類似度における所定の上位順位までの対象物候補を取得し、取得したすべての対象物候補に関する情報を出力することが可能となる。 According to this embodiment, it is possible to obtain target object candidates up to a predetermined high rank in similarity from a plurality of target object candidates, and output information about all the obtained target object candidates.

(実施形態2)
実施形態2は、対象物に対応する画像情報及びセンサ情報と、当該対象物候補に対応する画像情報及びセンサ情報とに基づき、人工知能(AI:Artificial Intelligence)により対象物と当該対象物候補との類似度を出力する形態に関する。なお、実施形態1と重複する内容については説明を省略する。
(Embodiment 2)
In the second embodiment, based on image information and sensor information corresponding to the target object and image information and sensor information corresponding to the target object candidate, AI (Artificial Intelligence) identifies the target object and the target object candidate. It relates to a form of outputting the similarity of . In addition, description is abbreviate|omitted about the content which overlaps with Embodiment 1. FIG.

図10は、実施形態2におけるサーバ1の構成例を示すブロック図である。なお、図2と重複する内容については同一の符号を付して説明を省略する。サーバ1の大容量記憶部15には、類似度出力モデル152及び訓練データDB153が含まれている。 FIG. 10 is a block diagram showing a configuration example of the server 1 according to the second embodiment. In addition, the same code|symbol is attached|subjected about the content which overlaps with FIG. 2, and description is abbreviate|omitted. The large-capacity storage unit 15 of the server 1 contains a similarity output model 152 and a training data DB 153 .

類似度出力モデル152は、対象物に対応する画像情報及びセンサ情報と、当該対象物候補に対応する画像情報及びセンサ情報とに基づき、対象物と当該対象物候補との類似度を出力(推定)する出力器であり、機械学習により生成された学習済みモデルである。訓練データDB153は、類似度出力モデル152を構築(作成)するための訓練データを記憶している。 The similarity output model 152 outputs (estimates) the similarity between the target object and the target object candidate based on the image information and sensor information corresponding to the target object and the image information and sensor information corresponding to the target object candidate. ) and is a trained model generated by machine learning. The training data DB 153 stores training data for constructing (creating) the similarity output model 152 .

図11は、訓練データDB153のレコードレイアウトの一例を示す説明図である。訓練データDB153は、入力データ列及び出力データ列を含む。入力データ列は、対象物列及び対象物候補列を含む。対象物列は、対象物に対応する画像情報及びセンサ情報を記憶している。対象物候補列は、当該対象物候補に対応する画像情報及びセンサ情報を記憶している。出力データ列は、対象物と当該対象物候補とが一致するか否かの情報(例えば、一致または不一致)を記憶している。 FIG. 11 is an explanatory diagram showing an example of the record layout of the training data DB 153. As shown in FIG. The training data DB 153 includes input data strings and output data strings. The input data string includes an object string and an object candidate string. The target object column stores image information and sensor information corresponding to the target object. The target object candidate string stores image information and sensor information corresponding to the target object candidate. The output data string stores information on whether or not the target object matches the target object candidate (for example, match or mismatch).

図12は、類似度出力モデル152を説明する説明図である。類似度出力モデル152は、人工知能ソフトウェアの一部であるプログラムモジュールとして利用される。類似度出力モデル152は、対象物に対応する画像情報及びセンサ情報と、当該対象物候補に対応する画像情報及びセンサ情報とを入力とし、対象物と当該対象物候補との類似度を出力とするニューラルネットワークを構築済みの出力器である。 FIG. 12 is an explanatory diagram for explaining the similarity output model 152. As shown in FIG. Similarity output model 152 is utilized as a program module that is part of artificial intelligence software. The similarity output model 152 receives image information and sensor information corresponding to an object and image information and sensor information corresponding to the object candidate, and outputs the similarity between the object and the object candidate. It is an output device with a built-in neural network.

ニューラルネットワークは、例えばCNN(Convolutional Neural Network)であり、対象物に対応する画像情報及びセンサ情報と、当該対象物候補に対応する画像情報及びセンサ情報との入力を受け付ける入力層と、活性化関数を用いて対象物と当該対象物候補との類似度を出力する出力層と、バックプロパゲーションにより学習済の中間層とを有する。各層は、1または複数のニューロン(ノード)を持ち、各ニューロンは値を持つ。そして、ある層と次の層の間のニューロン同士はエッジで結ばれ、各エッジは重みやバイアス等の変数(またはパラメータ)を持つ。 The neural network is, for example, a CNN (Convolutional Neural Network). and an intermediate layer that has been learned by back propagation. Each layer has one or more neurons (nodes), and each neuron has a value. Neurons between one layer and the next layer are connected by edges, and each edge has variables (or parameters) such as weights and biases.

CNNにおいて、各層のニューロンの値は、前段の層のニューロンの値とエッジの重み等に基づく所定の演算を実行して求められる。そして、入力データが入力層のニューロンに入力されると、次の層のニューロンの値が所定の演算により求められ、さらに、演算により求められたデータを入力として次の層のニューロンの値がその層の所定の演算により求められる。そして、最終層である出力層のニューロンの値が、入力データに対する出力データとなる。 In the CNN, the values of neurons in each layer are obtained by executing a predetermined operation based on the values of neurons in the preceding layer and edge weights. Then, when the input data is input to the neurons of the input layer, the values of the neurons of the next layer are obtained by a predetermined operation. It is obtained by a predetermined operation of layers. Then, the value of the neuron in the output layer, which is the final layer, becomes the output data for the input data.

例えばサーバ1は、訓練データDB153に蓄積された訓練データを用いて、類似度出力モデル152を生成する。訓練データDB153の各レコードがそれぞれ訓練データである。出力データ列の値が出力層から出力されるべき正解データ(対象物と当該対象物候補とが一致するか否かの情報)である。入力データ列の対象物に対応する画像情報及びセンサ情報と、当該対象物候補に対応する画像情報及びセンサ情報とが入力データである。 For example, the server 1 uses training data accumulated in the training data DB 153 to generate the similarity output model 152 . Each record of the training data DB 153 is training data. The value of the output data string is the correct data (information as to whether or not the target object matches the target object candidate) to be output from the output layer. The input data are image information and sensor information corresponding to the target object in the input data string and image information and sensor information corresponding to the target object candidate.

訓練データは、対象物に対応する画像情報及びセンサ情報、並びに、当該対象物候補に対応する画像情報及びセンサ情報と、対象物と当該対象物候補とが一致するか否かの情報とが対応付けられた組み合わせのデータである。訓練データは、対象物から収集された大量の経験データに基づいて生成される。なお、訓練データは別途人手で作成されたデータであっても良い。 The training data includes image information and sensor information corresponding to the object, image information and sensor information corresponding to the object candidate, and information indicating whether or not the object matches the object candidate. It is the data of the combination attached. Training data is generated based on large amounts of empirical data collected from objects. Note that the training data may be data separately created manually.

サーバ1は、取得した訓練データを用いて学習を行う。具体的には、サーバ1は、訓練データである対象物に対応する画像情報及びセンサ情報と、当該対象物候補に対応する画像情報及びセンサ情報とを入力層に入力し、中間層での演算処理を経て、出力層から対象物と当該対象物候補との類似度を出力する。出力層は、例えばシグモイド関数またはソフトマックス関数を含み、中間層から出力された特徴量に基づいて、推定された類似度を出力する。 The server 1 performs learning using the acquired training data. Specifically, the server 1 inputs image information and sensor information corresponding to an object, which is training data, and image information and sensor information corresponding to the object candidate into the input layer, and performs calculations in the intermediate layer. After processing, the similarity between the target object and the target object candidate is output from the output layer. The output layer includes, for example, a sigmoid function or a softmax function, and outputs estimated similarity based on the feature quantity output from the intermediate layer.

サーバ1は、出力層から出力された類似度(推定結果)を、訓練データにおける正解値(出力データ列の値)と比較し、出力層からの出力値が正解値に近づくように、中間層での演算処理に用いるパラメータを最適化する。当該パラメータは、例えばニューロン間の重み(結合係数)等である。パラメータの最適化の方法は特に限定されないが、例えばサーバ1は誤差逆伝播法を用いて各種パラメータの最適化を行う。 The server 1 compares the similarity (estimation result) output from the output layer with the correct value (value of the output data string) in the training data, and adjusts the intermediate layer so that the output value from the output layer approaches the correct value. Optimize the parameters used in the calculation process. The parameters are, for example, weights (coupling coefficients) between neurons. Although the parameter optimization method is not particularly limited, for example, the server 1 optimizes various parameters using the error backpropagation method.

サーバ1は、訓練データDB153に記憶してある各レコードについて上記の処理を行い、類似度出力モデル152の学習を行う。これにより、対象物と当該対象物候補との類似度を出力可能なモデルを構築することができる。なお、他のコンピュータ(図示せず)により上述の学習処理を行い、類似度出力モデル152を生成しても良い。この場合、サーバ1は、他のコンピュータにより生成された類似度出力モデル152を取得してインストールする。なお、類似度出力モデル152を構築せずに、機械学習モデルを使ったWEB API(Application Programming Interface)を利用することにより、類似度を出力しても良い。 The server 1 performs the above processing for each record stored in the training data DB 153 and learns the similarity output model 152 . This makes it possible to build a model capable of outputting the degree of similarity between the target object and the target object candidate. Note that the similarity output model 152 may be generated by performing the above-described learning process using another computer (not shown). In this case, the server 1 obtains and installs the similarity output model 152 generated by another computer. The similarity may be output by using a WEB API (Application Programming Interface) using a machine learning model without building the similarity output model 152 .

サーバ1は、対象物に対応する画像情報及びセンサ情報と、当該対象物候補に対応する画像情報及びセンサ情報とを取得した場合、取得した対象物に対応する画像情報及びセンサ情報と、当該対象物候補に対応する画像情報及びセンサ情報とを類似度出力モデル152に入力する。サーバ1は、類似度出力モデル152の中間層にて、入力層から入力された入力情報の次元数を変化させることで、入力情報が有する特徴を抽出する。サーバ1は、抽出した特徴を類似度出力モデル152の出力層に入力して、対象物と当該対象物候補との類似度を推定した推定結果を出力する。 When the server 1 acquires the image information and the sensor information corresponding to the target object and the image information and the sensor information corresponding to the target object candidate, the server 1 acquires the image information and the sensor information corresponding to the acquired target object and the target object. Image information and sensor information corresponding to object candidates are input to the similarity output model 152 . The server 1 extracts features of the input information by changing the number of dimensions of the input information input from the input layer in the intermediate layer of the similarity output model 152 . The server 1 inputs the extracted features to the output layer of the similarity output model 152 and outputs an estimation result of estimating the degree of similarity between the target object and the target object candidate.

図示のように、対象物に対応する画像情報及びセンサ情報と、当該対象物候補に対応する画像情報及びセンサ情報と対し、類似度出力モデル152により推定された各類似度の確率値の中に、最も高い確率が出力される。例えば、推定された類似度が75.4%である。なお、上述した出力結果に限定せず、推定した各類似度の確率値が直接出力されても良い。 As shown in the figure, the similarity probability values estimated by the similarity output model 152 for the image information and sensor information corresponding to the target object and the image information and sensor information corresponding to the target object candidate include , the highest probability is output. For example, the estimated similarity is 75.4%. The output result is not limited to the above-described output result, and the estimated probability value of each degree of similarity may be directly output.

なお、類似度出力モデル152は、CNNに限られず、RCNN(Regions with Convolutional Neural Network)、Fast RCNN、Faster RCNN、SSD(Single Shot Multibook Detector)、YOLO(You Only Look Once)、SVM(Support Vector Machine)、ベイジアンネットワーク、トランスフォーマー(Transformer)ネットワーク、回帰木またはランダムフォレストといった他のモデルによって実現されて良い。 In addition, the similarity output model 152 is not limited to CNN, RCNN (Regions with Convolutional Neural Network), Fast RCNN, Faster RCNN, SSD (Single Shot Multibook Detector), YOLO (You Only Look Once), SVM (Support Vector Machine ), Bayesian Networks, Transformer Networks, Regression Trees or Random Forests.

図13は、類似度出力モデル152を用いる類似度の算出処理のサブルーチンの処理手順を示すフローチャートである。サーバ1の制御部11は、複数の対象物候補に対応する画像情報及びセンサ情報を大容量記憶部15の対象物DB151から取得する(ステップS21)。制御部11は、取得した複数の対象物候補から、1つの対象物候補に対応する画像情報及びセンサ情報を取得する(ステップS22)。 FIG. 13 is a flowchart showing the procedure of a subroutine for similarity calculation processing using the similarity output model 152 . The control unit 11 of the server 1 acquires image information and sensor information corresponding to multiple object candidates from the object DB 151 of the large-capacity storage unit 15 (step S21). The control unit 11 acquires image information and sensor information corresponding to one target object candidate from the multiple acquired target object candidates (step S22).

制御部11は、対象物に対応する画像情報及びセンサ情報と、取得した対象物候補に対応する画像情報及びセンサ情報とを類似度出力モデル152に入力する(ステップS23)。制御部11は、対象物と当該対象物候補との類似度を類似度出力モデル152から出力する(ステップS24)。 The control unit 11 inputs the image information and sensor information corresponding to the object and the image information and sensor information corresponding to the acquired object candidate to the similarity output model 152 (step S23). The control unit 11 outputs the degree of similarity between the target object and the target object candidate from the similarity output model 152 (step S24).

制御部11は、複数の対象物候補の中に当該対象物候補が最後の対象物候補であるか否かを判定する(ステップS25)。制御部11は、当該対象物候補が最後の対象物候補でないと判定した場合(ステップS25でNO)、ステップS22の処理に戻る。制御部11は、当該対象物候補が最後の対象物候補であると判定した場合(ステップS25でYES)、対象物候補ごとに算出した類似度を取得する(ステップS26)。制御部11は、類似度の算出処理のサブルーチンを終了してリターンする。 The control unit 11 determines whether or not the target object candidate is the last target object candidate among the plurality of target object candidates (step S25). When the control unit 11 determines that the target object candidate is not the last target object candidate (NO in step S25), the process returns to step S22. When determining that the target object candidate is the last target object candidate (YES in step S25), the control unit 11 acquires the similarity calculated for each target object candidate (step S26). The control unit 11 ends the subroutine of the similarity calculation process and returns.

本実施形態によると、対象物に対応する画像情報及びセンサ情報と、当該対象物候補に対応する画像情報及びセンサ情報とに基づいて、類似度出力モデル152を用いて対象物と当該対象物候補との類似度を出力することが可能となる。 According to this embodiment, based on the image information and sensor information corresponding to the target object and the image information and sensor information corresponding to the target object candidate, the similarity output model 152 is used to extract the target object and the target object candidate. It is possible to output the similarity with

本実施形態によると、類似度出力モデル152を用いて類似度を出力することにより、精度の高い類似度を得ることが可能となる。 According to this embodiment, it is possible to obtain a highly accurate similarity by outputting the similarity using the similarity output model 152 .

今回開示された実施形態はすべての点で例示であって、制限的なものではないと考えられるべきである。本発明の範囲は、上記した意味ではなく、特許請求の範囲によって示され、特許請求の範囲と均等の意味及び範囲内でのすべての変更が含まれることが意図される。 The embodiments disclosed this time are illustrative in all respects and should be considered not restrictive. The scope of the present invention is indicated by the scope of the claims rather than the above-described meaning, and is intended to include all modifications within the scope and meaning equivalent to the scope of the claims.

1 情報処理装置(サーバ)
11 制御部
12 記憶部
13 通信部
14 読取部
15 大容量記憶部
151 対象物DB
152 類似度出力モデル
153 訓練データDB
1a 可搬型記憶媒体
1b 半導体メモリ
1P 制御プログラム
2 情報処理端末(端末)
21 制御部
22 記憶部
23 通信部
24 入力部
25 表示部
26 撮影部
27 GPSモジュール
28 気圧モジュール
29 高度モジュール
30 ジャイロモジュール
31 ライダーモジュール
2P 制御プログラム
1 Information processing device (server)
REFERENCE SIGNS LIST 11 control unit 12 storage unit 13 communication unit 14 reading unit 15 large-capacity storage unit 151 object DB
152 similarity output model 153 training data DB
1a portable storage medium 1b semiconductor memory 1P control program 2 information processing terminal (terminal)
21 control unit 22 storage unit 23 communication unit 24 input unit 25 display unit 26 photographing unit 27 GPS module 28 atmospheric pressure module 29 altitude module 30 gyro module 31 rider module 2P control program

Claims (11)

情報処理端末で撮影した対象物の画像に関する画像情報を取得し、
前記対象物の撮影時に前記情報処理端末のセンサにより検出されたセンサ情報を取得し、
複数の対象物候補に対応する画像情報及びセンサ情報を記憶した記憶部を参照し、取得した画像情報及びセンサ情報に基づいて、前記複数の対象物候補の中から撮影した対象物を特定する
情報処理方法。
Acquiring image information related to an image of an object photographed by an information processing terminal,
Acquiring sensor information detected by a sensor of the information processing terminal when the object is photographed,
referring to a storage unit storing image information and sensor information corresponding to a plurality of object candidates, and specifying a photographed object from among the plurality of object candidates based on the obtained image information and sensor information; Processing method.
前記情報処理端末は複数のセンサを備え、
取得した画像情報、及び各センサにより検出された複数のセンサ情報と、前記記憶部に記憶した各対象物候補に対応する画像情報及び複数のセンサ情報とに基づき、対象物候補ごとに前記対象物と前記対象物候補との類似度を算出し、
類似度の最も高い対象物候補を、撮影した対象物として特定する
請求項1に記載の情報処理方法。
The information processing terminal includes a plurality of sensors,
Based on the acquired image information, a plurality of sensor information detected by each sensor, and the image information and the plurality of sensor information corresponding to each target object candidate stored in the storage unit, the target object for each target object candidate and calculating the similarity between the object candidate and
The information processing method according to claim 1, wherein an object candidate with the highest degree of similarity is specified as the photographed object.
前記対象物の画像情報及び複数のセンサ情報に係る各評価項目、及び各評価項目に対応する重みづけを取得し、
取得した各評価項目及び各評価項目に対応する重みづけに基づいて、前記対象物候補ごとに類似度を算出する
請求項2に記載の情報処理方法。
Acquiring each evaluation item related to the image information of the object and the plurality of sensor information and the weighting corresponding to each evaluation item,
The information processing method according to claim 2, wherein the degree of similarity is calculated for each of the object candidates based on each acquired evaluation item and weighting corresponding to each evaluation item.
対象物ごとに前記各評価項目に対応する重みづけの設定を受け付ける
請求項3に記載の情報処理方法。
4. The information processing method according to claim 3, wherein setting of weighting corresponding to each evaluation item is received for each object.
複数の対象物候補に対応する画像情報及びセンサ情報を前記記憶部から取得し、
前記対象物に対応する画像情報及びセンサ情報と、前記対象物候補に対応する画像情報及びセンサ情報とを入力した場合に、前記対象物と前記対象物候補との類似度を出力するよう学習された学習モデルに、前記対象物に対応する画像情報及びセンサ情報と、取得した対象物候補に対応する画像情報及びセンサ情報とを入力して、対象物候補ごとに類似度を出力し、
類似度の最も高い対象物候補を、撮影した対象物として特定する
請求項1に記載の情報処理方法。
acquiring image information and sensor information corresponding to a plurality of object candidates from the storage unit;
When image information and sensor information corresponding to the object and image information and sensor information corresponding to the object candidate are input, learning is performed to output the degree of similarity between the object and the object candidate. inputting image information and sensor information corresponding to the target object and image information and sensor information corresponding to the obtained target object candidate to the learning model, and outputting a similarity for each target object candidate;
The information processing method according to claim 1, wherein an object candidate with the highest degree of similarity is specified as the photographed object.
前記複数の対象物候補から、類似度における所定の上位順位までの対象物候補を取得し、
取得したすべての対象物候補に関する情報を出力する
請求項2から5までのいずれかひとつに記載の情報処理方法。
acquiring target object candidates up to a predetermined high rank in similarity from the plurality of target object candidates;
6. The information processing method according to any one of claims 2 to 5, further comprising: outputting information about all acquired object candidates.
特定した対象物に関する情報を出力する
請求項1から6までのいずれかひとつに記載の情報処理方法。
7. The information processing method according to any one of claims 1 to 6, further comprising outputting information about the specified object.
前記画像情報は、前記対象物の画像に含まれている文字もしくは特徴点、または前記画像の特徴量を含む
請求項1から7までのいずれかひとつに記載の情報処理方法。
The information processing method according to any one of claims 1 to 7, wherein the image information includes characters or feature points included in the image of the object, or feature amounts of the image.
前記センサ情報は、無線LAN情報、衛星測位システムデータ、気圧データ、高度データ、ジャイロセンサデータ、またはライダーセンサデータを含む
請求項1から8までのいずれかひとつに記載の情報処理方法。
The information processing method according to any one of claims 1 to 8, wherein the sensor information includes wireless LAN information, satellite positioning system data, atmospheric pressure data, altitude data, gyro sensor data, or lidar sensor data.
情報処理端末で撮影した対象物の画像に関する画像情報を取得し、
前記対象物の撮影時に前記情報処理端末のセンサにより検出されたセンサ情報を取得し、
複数の対象物候補に対応する画像情報及びセンサ情報を記憶した記憶部を参照し、取得した画像情報及びセンサ情報に基づいて、前記複数の対象物候補の中から撮影した対象物を特定する
処理をコンピュータに実行させるプログラム。
Acquiring image information related to an image of an object photographed by an information processing terminal,
Acquiring sensor information detected by a sensor of the information processing terminal when the object is photographed,
referring to a storage unit storing image information and sensor information corresponding to a plurality of object candidates, and identifying the photographed object from among the plurality of object candidates based on the acquired image information and sensor information; A program that makes a computer run
情報処理端末で撮影した対象物の画像に関する画像情報を取得する第1取得部と、
前記対象物の撮影時に前記情報処理端末のセンサにより検出されたセンサ情報を取得する第2取得部と、
複数の対象物候補に対応する画像情報及びセンサ情報を記憶した記憶部を参照し、取得した画像情報及びセンサ情報に基づいて、前記複数の対象物候補の中から撮影した対象物を特定する特定部と
を備える情報処理装置。
a first acquisition unit that acquires image information related to an image of an object captured by an information processing terminal;
a second acquisition unit that acquires sensor information detected by a sensor of the information processing terminal when the object is photographed;
Identifying by referring to a storage unit storing image information and sensor information corresponding to a plurality of object candidates and identifying a photographed object from among the plurality of object candidates based on the acquired image information and sensor information An information processing device comprising:
JP2021179638A 2021-11-02 2021-11-02 Information processing method, program, and information processor Pending JP2023068487A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021179638A JP2023068487A (en) 2021-11-02 2021-11-02 Information processing method, program, and information processor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021179638A JP2023068487A (en) 2021-11-02 2021-11-02 Information processing method, program, and information processor

Publications (1)

Publication Number Publication Date
JP2023068487A true JP2023068487A (en) 2023-05-17

Family

ID=86327028

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021179638A Pending JP2023068487A (en) 2021-11-02 2021-11-02 Information processing method, program, and information processor

Country Status (1)

Country Link
JP (1) JP2023068487A (en)

Similar Documents

Publication Publication Date Title
US11763541B2 (en) Target detection method and apparatus, model training method and apparatus, device, and storage medium
US11308334B2 (en) Method and apparatus for integration of detected object identifiers and semantic scene graph networks for captured visual scene behavior estimation
CN102194367B (en) Information processing device, map update method, and information processing system
JP6976270B2 (en) Remote determination of the amount stored in a container in a geographic area
JP5563494B2 (en) Corresponding reference image search device and method, content superimposing device, system and method, and computer program
US11334986B2 (en) System and method for processing images of agricultural fields for remote phenotype measurement
US20210097344A1 (en) Target identification in large image data
TWI643137B (en) Object recognition method and object recognition system
US20190164040A1 (en) Visual Inertial Odometry Health Fitting
CN108256563B (en) Visual dictionary closed-loop detection method and device based on distance measurement
US11334801B2 (en) Systems and methods for determining an artificial intelligence model in a communication system
KR102556765B1 (en) Apparatus and method for visual localization
JP2023068487A (en) Information processing method, program, and information processor
CN114882115B (en) Vehicle pose prediction method and device, electronic equipment and storage medium
CN113065521B (en) Object identification method, device, equipment and medium
Bernabé et al. A new system to perform unsupervised and supervised classification of satellite images from Google Maps
KR102299902B1 (en) Apparatus for providing augmented reality and method therefor
CN111968030B (en) Information generation method, apparatus, electronic device and computer readable medium
KR102556767B1 (en) Apparatus and method for visual localization
WO2023053317A1 (en) Image matching apparatus, control method, and non-transitory computer-readable storage medium
CN115019400B (en) Illegal behavior detection method and device
CN113723464B (en) Remote sensing image classification method and device
KR102600915B1 (en) Apparatus and method for generating data for visual localization
KR102600939B1 (en) Apparatus and method for generating data for visual localization
US11821754B2 (en) Sensor calibration