JP2023068487A - Information processing method, program, and information processor - Google Patents
Information processing method, program, and information processor Download PDFInfo
- Publication number
- JP2023068487A JP2023068487A JP2021179638A JP2021179638A JP2023068487A JP 2023068487 A JP2023068487 A JP 2023068487A JP 2021179638 A JP2021179638 A JP 2021179638A JP 2021179638 A JP2021179638 A JP 2021179638A JP 2023068487 A JP2023068487 A JP 2023068487A
- Authority
- JP
- Japan
- Prior art keywords
- information
- sensor
- image
- similarity
- target object
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
Description
本発明は、情報処理方法、プログラム及び情報処理装置に関する。 The present invention relates to an information processing method, a program, and an information processing apparatus.
近年、画像に基づいて対象物を識別するニーズが高まっている。特許文献1には、それぞれ異なる複数の撮影条件毎に生成された複数の識別器の中から、撮影条件に応じた識別器を選択し、選択した識別器を用いて画像データ中の対象物を識別する識別方法が開示されている。
In recent years, there has been an increasing need to identify objects based on images. In
しかしながら、特許文献1に係る発明は、撮影した対象物が同一形状である場合、対象物の背景に変化がない場合、または同一形状の対象物が複数存在している場合に、対象物を識別(特定)することができない問題がある。 However, the invention according to Japanese Patent Laid-Open No. 2003-100002 can identify an object when the photographed objects have the same shape, when there is no change in the background of the object, or when a plurality of objects with the same shape exist. There is a problem that cannot be (specified).
一つの側面では、対象物の識別精度を向上することが可能な情報処理方法等を提供することを目的とする。 An object of one aspect is to provide an information processing method and the like capable of improving the accuracy of identifying a target object.
一つの側面に係る情報処理方法は、情報処理端末で撮影した対象物の画像に関する画像情報を取得し、前記対象物の撮影時に前記情報処理端末のセンサにより検出されたセンサ情報を取得し、複数の対象物候補に対応する画像情報及びセンサ情報を記憶した記憶部を参照し、取得した画像情報及びセンサ情報に基づいて、前記複数の対象物候補の中から撮影した対象物を特定する処理を実行させることを特徴とする。 An information processing method according to one aspect acquires image information related to an image of an object photographed by an information processing terminal, acquires sensor information detected by a sensor of the information processing terminal when the object is photographed, obtains a plurality of referring to a storage unit storing image information and sensor information corresponding to the target object candidates, and based on the acquired image information and sensor information, identifying the photographed object from among the plurality of object candidates; It is characterized by executing
一つの側面では、対象物の識別精度を向上することが可能となる。 In one aspect, it is possible to improve the accuracy of object identification.
以下、本発明をその実施形態を示す図面に基づいて詳述する。 Hereinafter, the present invention will be described in detail based on the drawings showing its embodiments.
(実施形態1)
実施形態1は、情報処理端末で撮影した対象物の画像情報、及び当該情報処理端末のセンサにより検出されたセンサ情報に基づき、複数の対象物候補の中から撮影した対象物を特定する形態に関する。対象物は、例えば配電盤もしくは分電盤等の受変電設備、環境測定装置、パーソナルコンピュータ等のあらゆる装置、車両、物体、動物または人等である。
(Embodiment 1)
図1は、対象物特定システムの概要を示す説明図である。本実施形態のシステムは、情報処理装置1及び情報処理端末2を含み、各装置はインターネット等のネットワークNを介して情報の送受信を行う。
FIG. 1 is an explanatory diagram showing an outline of an object identification system. The system of this embodiment includes an
情報処理装置1は、種々の情報に対する処理、記憶及び送受信を行う情報処理装置である。情報処理装置1は、例えばサーバ装置、パーソナルコンピュータまたは汎用のタブレットPC(パソコン)等である。本実施形態において、情報処理装置1はサーバ装置であるものとし、以下では簡潔のためサーバ1と読み替える。
The
情報処理端末2は、対象物の画像に関する画像情報の取得、当該情報処理端末2のセンサによるセンサ情報の検出、並びに、画像情報及びセンサ情報の送信等を行う端末装置である。情報処理端末2は、例えばスマートフォン、携帯電話、アップルウォッチ(Apple Watch:登録商標)等のウェアラブルデバイス、タブレット、ウェアラブルグラス、パーソナルコンピュータ端末等の情報処理機器である。以下では簡潔のため、情報処理端末2を端末2と読み替える。
The
本実施形態に係るサーバ1は、複数のセンサを備える端末2で撮影した対象物の画像に関する画像情報を取得する。サーバ1は、当該対象物の撮影時に端末2の各センサにより検出された複数のセンサ情報を取得する。サーバ1は、複数の対象物候補に対応する画像情報及びセンサ情報を記憶した記憶部を参照し、取得した画像情報及び複数のセンサ情報に基づいて、対象物候補ごとに対象物と当該対象物候補との類似度を算出する。サーバ1は、類似度の最も高い対象物候補を、撮影した対象物として特定する。なお、画像情報及びセンサ情報に関しては後述する。
A
図2は、サーバ1の構成例を示すブロック図である。サーバ1は、制御部11、記憶部12、通信部13、読取部14及び大容量記憶部15を含む。各構成はバスBで接続されている。
FIG. 2 is a block diagram showing a configuration example of the
制御部11はCPU(Central Processing Unit)、MPU(Micro-Processing Unit)、GPU(Graphics Processing Unit)等の演算処理装置を含み、記憶部12に記憶された制御プログラム1P(プログラム製品)を読み出して実行することにより、サーバ1に係る種々の情報処理、制御処理等を行う。なお、制御プログラム1Pは、単一のコンピュータ上で、または1つのサイトにおいて配置されるか、もしくは複数のサイトにわたって分散され、通信ネットワークによって相互接続された複数のコンピュータ上で実行されるように展開することができる。なお、図2では制御部11を単一のプロセッサであるものとして説明するが、マルチプロセッサであっても良い。
The
記憶部12はRAM(Random Access Memory)、ROM(Read Only Memory)等のメモリ素子を含み、制御部11が処理を実行するために必要な制御プログラム1P又はデータ等を記憶している。また、記憶部12は、制御部11が演算処理を実行するために必要なデータ等を一時的に記憶する。通信部13は通信に関する処理を行うための通信モジュールであり、ネットワークNを介して、端末2等との間で情報の送受信を行う。
The
読取部14は、CD(Compact Disc)-ROM又はDVD(Digital Versatile Disc)-ROMを含む可搬型記憶媒体1aを読み取る。制御部11が読取部14を介して、制御プログラム1Pを可搬型記憶媒体1aより読み取り、大容量記憶部15に記憶しても良い。また、ネットワークN等を介して他のコンピュータから制御部11が制御プログラム1Pをダウンロードし、大容量記憶部15に記憶しても良い。さらにまた、半導体メモリ1bから、制御部11が制御プログラム1Pを読み込んでも良い。
The
大容量記憶部15は、例えばHDD(Hard disk drive:ハードディスク)、SSD(Solid State Drive:ソリッドステートドライブ)等の記録媒体を備える。大容量記憶部15は、対象物DB(database)151を含む。対象物DB151は、対象物に関する情報、当該対象物の画像情報、及び当該対象物の撮影時に端末2のセンサにより検出されたセンサ情報等を記憶している。
The large-
なお、本実施形態において記憶部12及び大容量記憶部15は一体の記憶装置として構成されていても良い。また、大容量記憶部15は複数の記憶装置により構成されていても良い。更にまた、大容量記憶部15はサーバ1に接続された外部記憶装置であっても良い。
In addition, in this embodiment, the
サーバ1は、種々の情報処理及び制御処理等をコンピュータ単体で実行しても良いし、複数のコンピュータで分散して実行しても良い。また、サーバ1は、1台のサーバ内に設けられた複数の仮想マシンによって実現されても良いし、クラウドサーバを用いて実現されても良い。なお、サーバ1の処理は端末2で実行されても良い。
The
図3は、対象物DB151のレコードレイアウトの一例を示す説明図である。対象物DB151は、対象物ID(Identifier)列、種類列、設置情報列、画像情報列及びセンサ情報列を含む。対象物ID列は、各対象物を識別するために、一意に特定される対象物のIDを記憶している。種類列は、対象物の種類(配電盤または分電盤など)を記憶している。設置情報列は、対象物を所有している人の氏名等の所有者情報、または設置位置等を記憶している。
FIG. 3 is an explanatory diagram showing an example of the record layout of the
画像情報列は、文字列、特徴点列及び特徴量列を含む。文字列は、対象物の画像に含まれている文字及び当該文字の座標等を記憶している。特徴点は、対象物の画像に含まれている特徴点及び当該特徴点の座標等を記憶している。特徴点は、例えばプレスの抜き加工形状もしくはドリル穴、エッジ形状、塗料、シール、強制打痕穴、レーザー捺印、または立体文字等である。 The image information string includes a character string, a feature point string and a feature amount string. The character string stores characters included in the image of the object, the coordinates of the characters, and the like. The feature points store the feature points included in the image of the object, the coordinates of the feature points, and the like. Characteristic points are, for example, stamped shapes or drilled holes, edge shapes, paints, seals, forced dent holes, laser markings, three-dimensional characters, or the like.
特徴量列は、対象物の画像の特徴量データを記憶している。特徴量データは、画像におけるRGB(Red, Blue, Green)階調値、YMCK(Yellow, Cyan, Magenta, Key plate)階調値、明度、輝度、色相、濃度、彩度もしくはコントラストに関する特徴量、またはLBP(Local Binary Pattern)特徴量等を含む。LBP特徴量は、画像の局所的な表現を特徴量として、各画素を周囲の近傍画素と比較した相対値で構成される。 The feature quantity string stores feature quantity data of the image of the object. Feature data includes RGB (Red, Blue, Green) gradation values, YMCK (Yellow, Cyan, Magenta, Key plate) gradation values, brightness, luminance, hue, density, saturation or contrast feature values in an image, Alternatively, LBP (Local Binary Pattern) feature quantity or the like is included. The LBP feature amount is composed of relative values obtained by comparing each pixel with its surrounding neighboring pixels, with the local expression of the image as the feature amount.
センサ情報列は、無線LAN列、GPS(Global Positioning System, Global Positioning Satellite)列、気圧列、高度列、ジャイロセンサ列及びライダー(LiDAR:Light Detection and Ranging)センサ列を含む。無線LAN列は、端末2の無線LAN情報を記憶している。なお、無線LAN情報に関しては後述する。GPS列は、端末2のGPS機能を介して読み取ったGPSデータ(経緯度等)を記憶している。
The sensor information column includes a wireless LAN column, a GPS (Global Positioning System, Global Positioning Satellite) column, an atmospheric pressure column, an altitude column, a gyro sensor column, and a LiDAR (Light Detection and Ranging) sensor column. The wireless LAN column stores wireless LAN information of the
気圧列は、端末2に内蔵されている圧力センサ(気圧計)により取得された気圧データを記憶している。高度列は、端末2に内蔵されている高度センサ(高度計)により取得された高度データを記憶している。ジャイロセンサ列は、端末2に内蔵されているジャイロセンサ(角速度センサ)により取得されたジャイロセンサデータを記憶している。ジャイロセンサは、回転角速度(物体が回転している速度)の測定を実現する慣性センサの一種である。
The atmospheric pressure column stores atmospheric pressure data acquired by a pressure sensor (barometer) built in the
ライダーセンサ列は、端末2に内蔵されているライダーセンサにより取得されたライダーセンサデータを記憶している。ライダーセンサは、レーザー光を走査しながら対象物に照射してその散乱または反射光を観測することにより、離れた場所にある対象物までの距離、位置または形状等を検知する。
The lidar sensor column stores lidar sensor data acquired by the lidar sensor built into the
なお、上述した各DBの記憶形態は一例であり、データ間の関係が維持されていれば、他の記憶形態であっても良い。 Note that the storage form of each DB described above is an example, and other storage forms may be used as long as the relationship between data is maintained.
図4は、端末2の構成例を示すブロック図である。端末2は、制御部21、記憶部22、通信部23、入力部24、表示部25、撮影部26、GPSモジュール27、気圧モジュール28、高度モジュール29、ジャイロモジュール30及びライダーモジュール31を含む。各構成はバスBで接続されている。
FIG. 4 is a block diagram showing a configuration example of the
制御部21はCPU、MPU等の演算処理装置を含み、記憶部22に記憶された制御プログラム2P(プログラム製品)を読み出して実行することにより、端末2に係る種々の情報処理、制御処理等を行う。なお、図4では制御部21を単一のプロセッサであるものとして説明するが、マルチプロセッサであっても良い。記憶部22はRAM、ROM等のメモリ素子を含み、制御部21が処理を実行するために必要な制御プログラム2P又はデータ等を記憶している。また、記憶部22は、制御部21が演算処理を実行するために必要なデータ等を一時的に記憶する。
The
通信部23は通信に関する処理を行うための通信モジュールであり、ネットワークNを介して、サーバ1等と情報の送受信を行う。入力部24は、キーボード、マウスまたは表示部25と一体化したタッチパネルでも良い。表示部25は、液晶ディスプレイ又は有機EL(electroluminescence)ディスプレイ等であり、制御部21の指示に従い各種情報を表示する。
The
撮影部26は、例えばCCD(Charge Coupled Device)カメラ、CMOS(Complementary Metal Oxide Semiconductor)カメラ等の撮影装置である。なお、撮影部26は端末2の中に内蔵せず、外部で直接に端末2と接続し、撮影可能な構成としても良い。
The
GPSモジュール27は、GPS衛星を利用して位置情報(経緯度等)を取得するためのモジュールである。気圧モジュール28は、気圧データを取得するためのセンサモジュールである。高度モジュール29は、高度データを取得するためのセンサモジュールである。ジャイロモジュール30は、ジャイロセンサデータを取得するためのセンサモジュールである。ライダーモジュール31は、ライダーセンサデータを取得するためのセンサモジュールである。なお、上述したセンサモジュールの種類に限られず、例えば加速度センサデータを取得するための加速度モジュールを設けても良い。
The
なお、気圧モジュール28、高度モジュール29、ジャイロモジュール30またはライダーモジュール31は端末2の中に内蔵せず、外部で直接に端末2と接続し、センサデータを取得可能な構成としても良い。
The
なお、気圧モジュール28、高度モジュール29、ジャイロモジュール30及びライダーモジュール31のうちの複数種の併用とすることで、一体とする構造であっても良い。
It should be noted that a plurality of types of the
図5は、端末2で撮影した対象物を特定する処理動作を示す説明図である。端末2は、撮影部26を介して対象物を撮影する。端末2は、撮影した対象物の画像に関する画像情報を取得する。画像情報は、対象物の画像に含まれている文字もしくは特徴点、または当該画像の特徴量を含む。
FIG. 5 is an explanatory diagram showing a processing operation for specifying an object photographed by the
画像の特徴量について、端末2は例えばA-KAZE(Accelerated KAZE)、SIFT(Scale Invariant Feature Transform)、SURF(Speeded-Up Robust Features)、ORB(Oriented FAST and Rotated BRIEF)またはHOG(Histograms of Oriented Gradients)等の局所特徴量抽出方法を用いて、撮影した対象物の画像の特徴量を抽出する。文字または特徴点について、例えば、端末2は対象物の画像の特徴量を抽出し、抽出した特徴量に基づいて撮影画像中の文字または特徴点を認識する。なお、文字または特徴点については、機械学習によって構築した学習モデルを用いて自動認識しても良く、または画像処理ライブラリであるOpenCV(Open Source Computer Vision Library)を用いて認識しても良い。
For the image feature amount, the
端末2は、当該対象物の撮影時に当該端末2のセンサにより検出されたセンサ情報を取得する。センサ情報は、無線LAN情報、衛星測位システムデータ(例えば、GPSデータ)、気圧データ、高度データ、ジャイロセンサデータ、またはライダーセンサデータを含む。なお、これらのセンサデータに限られず、例えばセンサ情報には、AR(Augmented Reality;拡張現実)データ、MR(Mixed Reality;複合現実)データ、地磁気(コンパス)センサデータ、加速度センサデータ、輝度センサデータ、近接センサデータまたは指紋センサデータが含まれても良い。すなわち、対象物の撮影時の場所、環境、状況または状態等に応じて、各種類のセンサにより検出されたセンサデータを利用しても良い。
The
端末2は、無線通信方式を用いて無線LAN情報を取得する。無線LAN情報は、アクセスポイントのMACアドレス(Media Access Control address)、無線LAN機能の識別子であるSSID(Service Set Identifier)、当該SSIDの電波強度、及び周波数チャネルのうちの少なくとも一つを含んでも良い。無線通信方式は、BLE(Bluetooth Low Energy)通信方式、BLE規格以外のBluetooth(登録商標)規格に準拠した通信方式、Bluetooth規格以外の近距離無線通信規格に準拠した通信方式、Wi-Fi(登録商標) Direct通信方式、または、LTE(Long Term Evolution)、4G(Generation)もしくは5G等の端末無線通信方式等を含む。 Terminal 2 acquires wireless LAN information using a wireless communication method. The wireless LAN information may include at least one of the MAC address (Media Access Control address) of the access point, the SSID (Service Set Identifier) that is the identifier of the wireless LAN function, the radio wave intensity of the SSID, and the frequency channel. . Wireless communication methods include BLE (Bluetooth Low Energy) communication method, communication method conforming to the Bluetooth (registered trademark) standard other than the BLE standard, communication method conforming to the short-range wireless communication standard other than the Bluetooth standard, Wi-Fi (registered Trademark) Direct communication system, terminal wireless communication system such as LTE (Long Term Evolution), 4G (Generation) or 5G.
端末2は、端末2のGPS機能を介して、GPSの測位衛星からの送信電波を受信してGPSデータ(経緯度等)を取得する。端末2は、当該端末2に内蔵されている圧力センサ、高度センサ、ジャイロセンサ及びライダーセンサから、気圧データ、高度データ、ジャイロセンサデータ、及びライダーセンサデータのそれぞれを取得する。なお、GPSデータには高度データが含まれても良い。なお、これらのセンサ種類に限られず、他のセンサにも同様に適用することができる。
The
端末2は、取得した対象物の画像情報及びセンサ情報をサーバ1に送信する。なお、本実施形態では、端末2は対象物の画像情報をサーバ1に送信した例を説明したが、これに限るものではない。例えば端末2は、対象物の画像をサーバ1に送信しても良い。この場合、サーバ1は端末2から送信された対象物の画像に基づいて画像情報を取得する。
The
サーバ1は、端末2から送信された対象物の画像情報及びセンサ情報に基づき、対象物DB151に記憶された複数の対象物候補に対応する画像情報及びセンサ情報を参照し、当該複数の対象物候補の中から撮影した対象物を特定する。
The
具体的には、サーバ1は、対象物の画像情報、及び端末2に内蔵されている各センサにより検出された複数のセンサ情報と、対象物DB151に記憶された各対象物候補の画像情報及び複数のセンサ情報とに基づき、対象物候補ごとに対象物と当該対象物候補との類似度を算出する。例えばサーバ1は、対象物の画像情報及び複数のセンサ情報に係る各評価項目、及び各評価項目に対応する重みづけに基づいて、類似度を算出する。
Specifically, the
図6は、重みづけに基づいて類似度を算出する処理を説明する説明図である。サーバ1は、対象物の画像情報及び複数のセンサ情報に係る各評価項目、及び各評価項目に対応する重みづけを取得する。評価項目は、画像情報及びセンサ情報に基づいて設けられる。図示のように、サーバ1は、「特徴点」、「文字列」、「無線LAN情報」、「高度」及び「ジャイロ」を含む評価項目を取得する。
FIG. 6 is an explanatory diagram for explaining the process of calculating the degree of similarity based on weighting. The
サーバ1は、各評価項目に対応する重みづけを取得する。重みづけは、評価項目の重要度との相関を表す係数である。例えば、重要度に応じて、各評価項目に対して5段階の重みづけが設けられ、各段階における重みづけの点数のそれぞれが9点、7点、5点、3点及び1点である。各評価項目に対応する重みづけは、予め記憶部12または大容量記憶部15に記憶されても良く、または、重みづけの設定が受け付けられも良い。
The
重みづけの設定の受付処理に関しては、サーバ1側または端末2側で行われても良い。例えば、端末2は、各評価項目に対応する重みづけの入力を受け付け、受け付けた重みづけをサーバ1に送信する。サーバ1は、端末2から送信された重みづけを受信して記憶部12または大容量記憶部15に記憶する。
The weighting setting acceptance process may be performed on the
また、対象物ごとに各評価項目に対応する重みづけの設定を受け付けることができる。例えば、配電盤である対象物に対し、各評価項目における5段階の重みづけが「9点、7点、5点、3点及び1点」である。環境測定装置である対象物に対し、各評価項目における5段階の重みづけが「10点、8点、6点、4点及び2点」である。 In addition, it is possible to receive settings for weighting corresponding to each evaluation item for each object. For example, for an object that is a switchboard, the five-level weighting in each evaluation item is "9 points, 7 points, 5 points, 3 points and 1 point". Five-level weighting in each evaluation item is "10 points, 8 points, 6 points, 4 points and 2 points" for the target object which is the environment measuring device.
サーバ1は、取得した各評価項目及び各評価項目に対応する重みづけに基づき、所定の計算式を用いて、類似度の各評価項目のスコアを算出する。計算式は、各評価項目のスコアを算出可能な計算式であれば、特に限定されない。
The
「特徴点」評価項目におけるスコアの計算式の一例としては、以下の式(1)で表される。
「特徴点」スコア=係数×一致率×重みづけ …(1)
係数は、計算の便宜上に設けられた任意の数値(例えば、255)である。一致率は、例えばOpenCV(Open Source Computer Vision Library)を用いて得られた特徴点の比較結果である。
An example of the score calculation formula for the “feature point” evaluation item is represented by the following formula (1).
"Feature point" score = coefficient x matching rate x weighting (1)
A coefficient is an arbitrary numerical value (for example, 255) provided for convenience of calculation. The match rate is a comparison result of feature points obtained using, for example, OpenCV (Open Source Computer Vision Library).
「文字列」評価項目におけるスコアの計算式の一例としては、以下の式(2)で表される。
「文字列」スコア=係数×同一文字列数×重みづけ …(2)
係数は、式(1)の係数と同様である。同一文字列数は、画像情報に含まれている文字列に対し、同一の文字列の数である。
An example of the score calculation formula for the “character string” evaluation item is represented by the following formula (2).
"Character string" score = coefficient x number of identical character strings x weighting (2)
The coefficients are the same as those in equation (1). The number of identical character strings is the number of identical character strings among the character strings included in the image information.
「無線LAN情報」評価項目におけるスコアの計算式の一例としては、以下の式(3)で表される。
「無線LAN情報」スコア=係数×アクセスポイント数×重みづけ …(3)
係数は、式(1)の係数と同様である。アクセスポイント数は、複数のアクセスポイントのうち一致したアクセスポイントの数である。
An example of the score calculation formula for the “wireless LAN information” evaluation item is represented by the following formula (3).
"Wireless LAN information" score = coefficient x number of access points x weighting (3)
The coefficients are the same as those in equation (1). The number of access points is the number of matching access points among a plurality of access points.
「高度」評価項目におけるスコアの計算式の一例としては、以下の式(4)で表される。
「高度」スコア=係数×高度点数×重みづけ …(4)
係数は、式(1)の係数と同様である。高度点数は、高度の差分に基づいて設けられても良い。高度の差分は、対象物の高度の検出値と対象物候補の高度の検出値との差である。例えば、高度の差分が5m未満である場合、建物における同一フロアとして判定され、高度点数は1点である。高度の差分が5m以上である場合、建物における異なるフロアとして判定され、高度点数は0点である。
An example of the score calculation formula for the "advanced" evaluation item is represented by the following formula (4).
"Altitude" score = coefficient x altitude score x weighting (4)
The coefficients are the same as those in equation (1). The altitude score may be provided based on the difference in altitude. The altitude difference is the difference between the detected altitude value of the object and the detected altitude value of the candidate object. For example, if the altitude difference is less than 5 m, it is determined that the floors are on the same floor in the building, and the altitude score is 1 point. If the height difference is 5 m or more, it is determined as a different floor in the building, and the altitude score is 0 points.
「ジャイロ」評価項目におけるスコアの計算式の一例としては、以下の式(5)で表される。
「ジャイロ」スコア=係数×角速度係数×重みづけ …(5)
係数は、式(1)の係数と同様である。角速度は、単位時間あたりの回転角である。角速度係数は、角速度の変化を示す指標である。X軸、Y軸及びZ軸方向への回転角度を用いて、角速度係数=1-(X-Y-Z)/360により角速度係数が算出されても良い。例えば、端末2が3軸方向とも回転していない場合、角速度係数=1-(0-0-0)/360により算出された角速度係数が1である。または、端末2がX軸方向へ10°を回転し、Y軸方向へ40°を回転し、且つ、Z軸方向へ回転していない場合、角速度係数=1-(10-40-0)/360により算出された角速度係数が0.92である。
An example of the score calculation formula for the “gyro” evaluation item is represented by the following formula (5).
"Gyro" score = coefficient x angular velocity coefficient x weighting (5)
The coefficients are the same as those in equation (1). Angular velocity is the rotation angle per unit time. The angular velocity coefficient is an index indicating changes in angular velocity. The angular velocity coefficient may be calculated by angular velocity coefficient=1−(XYZ)/360 using the rotation angles in the X-axis, Y-axis and Z-axis directions. For example, when the
サーバ1は、「特徴点」、「文字列」、「無線LAN情報」、「高度」及び「ジャイロ」評価項目に対応する重みづけ、画像情報及びセンサ情報を取得した場合、上述した計算式(1)~(5)を用いて、各評価項目のスコアを算出する。なお、サーバ1は、「特徴点」、「文字列」、「無線LAN情報」、「高度」及び「ジャイロ」評価項目のうちの少なくとも一つの評価項目のスコアを算出しても良い。サーバ1は、算出した各評価項目のスコアの合計を算出する。サーバ1は、各評価項目のスコアの最大値を算出する。スコアの最大値は、係数(例えば、255)に重みづけを乗算することにより算出される。例えば「特徴点」評価項目に対応する重みづけが9点である場合、サーバ1は、当該評価項目のスコアの最大値が2295(255×9)であると算出する。
When the
サーバ1は、算出した各評価項目のスコアの合計と、各評価項目のスコアの最大値の合計とに基づき、対象物と当該対象物候補との類似度(スコアの合計/スコアの最大値 × 100%)を算出する。図示のように、スコアの合計は6024.8であり、スコアの最大値の合計は9435である。サーバ1は、スコアの合計とスコアの最大値の合計とに基づき、対象物と当該対象物候補との類似度が63.86%(6024.8/9435×100%)であると算出する。
Based on the calculated total score of each evaluation item and the total maximum score of each evaluation item, the
このように、サーバ1は、対象物候補ごとに対象物と当該対象物候補との類似度を算出する。サーバ1は、類似度の最も高い対象物候補を、撮影した対象物として特定する。また、類似度の所定閾値を利用して対象物を特定しても良い。例えば、類似度の所定閾値(例えば、70%)が予め設けられた場合、サーバ1は、対象物と対象物候補との類似度が所定閾値以上であるか否かを判定する。サーバ1は、類似度が所定閾値以上であると判定した場合、当該対象物候補を、撮影した対象物として特定する。サーバ1、類似度が所定閾値未満であると判定した場合、当該対象物候補を排除する。
In this way, the
なお、単純に類似度が高い対象物候補を撮影対象物として特定する処理に限るものではない。例えばサーバ1は、複数の対象物候補から、類似度における所定の上位順位(例えば、第3位)までの対象物候補を取得する。このように、類似度にしたがった順位付けして、複数の対象物候補を特定することができる。
Note that the processing is not limited to simply specifying an object candidate with a high degree of similarity as a photographing object. For example, the
なお、類似度の算出処理に関しては、上述した重みづけに基づく処理に限るものではない。例えば、コサイン類似度、ピアソンの相関係数、又は偏差パターン類似度を類似度として用いても良い。また、機械学習モデルを利用して類似度を算出することができる。なお、機械学習モデルによる類似度の算出処理に関しては、実施形態2で説明する。 Note that the similarity calculation process is not limited to the process based on the weighting described above. For example, cosine similarity, Pearson's correlation coefficient, or deviation pattern similarity may be used as the similarity. Also, the degree of similarity can be calculated using a machine learning model. A similarity calculation process using a machine learning model will be described in a second embodiment.
サーバ1は、特定した対象物の対象物IDに基づき、当該対象物に関する情報を対象物DB151から取得する。対象物に関する情報は、対象物ID、対象物の種類または位置情報等を含む。なお、対象物に関する情報には、対象物の画像情報及び当該対象物の撮影時に端末2のセンサにより検出されたセンサ情報が含まれても良い。サーバ1は、取得した対象物に関する情報を端末2に送信する。端末2は、サーバ1から送信された対象物に関する情報を受信し、受信した対象物に関する情報を画面に表示する。
The
なお、サーバ1は、複数の対象物候補から、類似度における所定の上位順位までの対象物候補を取得した場合、取得したすべての対象物候補に関する情報を端末2に送信する。端末2は、サーバ1から送信されたすべての対象物候補に関する情報を受信し、受信したすべての対象物候補に関する情報を画面に表示する。なお、対象物候補に関する情報は、対象物に関する情報と同様であるため、説明を省略する。
In addition, when the
図7は、対象物の特定画面の一例を示す説明図である。特定画面は、画像表示欄11a、撮影ボタン11b、画像選択ボタン11c、特定ボタン11d、特定結果表示欄11e及び候補表示欄11fを含む。
FIG. 7 is an explanatory diagram showing an example of a target object identification screen. The specific screen includes an
画像表示欄11aは、対象物の画像を表示する表示欄である。撮影ボタン11bは、対象物を撮影するボタンである。画像選択ボタン11cは、対象物の画像を選択するボタンである。特定ボタン11dは、複数の対象物候補から、撮影した対象物を特定するボタンである。特定結果表示欄11eは、対象物の特定結果を表示する表示欄である。候補表示欄11fは、類似度に従った順位付けして、特定した対象物候補を表示する表示欄である。
The
端末2は、撮影ボタン11bのタッチ操作を受け付けた場合、撮影部26を介して対象物を撮影し、撮影した対象物の画像を取得する。端末2は、画像選択ボタン11cのタッチ操作を受け付けた場合、記憶部12または大容量記憶部15に記憶された対象物の画像を取得する。
When receiving the touch operation of the
端末2は、特定ボタン11dのタッチ操作を受け付けた場合、撮影ボタン11bまたは画像選択ボタン11cにより取得された対象物の画像に基づいて、当該画像に関する画像情報(文字、特徴点または特徴量等)を取得する。端末2は、当該対象物の撮影時に当該端末2のセンサにより検出された複数のセンサ情報(無線LAN情報、GPSデータ、気圧データ、高度データ、ジャイロセンサデータ、またはライダーセンサデータ等)を取得する。
When the
端末2は、取得した画像情報及び複数のセンサ情報をサーバ1に送信する。サーバ1は、端末2から送信された画像情報及び複数のセンサ情報を受信する。サーバ1は、受信した対象物に対応する画像情報及び複数のセンサ情報と、対象物DB151に記憶された複数の対象物候補に対応する画像情報及び複数のセンサ情報とに基づき、対象物候補ごとに対象物と当該対象物候補との類似度を算出する。
The
サーバ1は、算出した類似度に基づき、複数の対象物候補から、類似度における所定の上位順位(例えば、第3位)までの対象物候補を取得する。サーバ1は、取得した各対象物候補の対象物IDに基づき、各対象物候補に関する情報を対象物DB151から取得する。対象物候補に関する情報は、対象物ID、対象物の種類、対象物を所有している所有者情報(例えば、所有者の氏名)、または位置情報(例えば、位置名称または経緯度)等を含む。サーバ1は、取得した各対象物候補に関する情報を端末2に送信する。
Based on the calculated degree of similarity, the
端末2は、サーバ1から送信された各対象物候補に関する情報を受信して画面に表示する。端末2は、対象物候補ごとに対象物と当該対象物候補との類似度に基づき、類似度の最も高い対象物候補に関する情報を特定結果表示欄11eに表示し、次の類似度に対応する対象物候補に関する情報を候補表示欄11fに表示する。
The
図示のように、最も高い対象物候補の対象物ID、対象物の種類、所有者情報(例えば、A氏)及び位置情報(位置名称及び経緯度等)が特定結果表示欄11eに表示される。次の類似度に対応する各対象物候補の対象物ID、対象物の種類、所有者情報及び位置情報が候補表示欄11fに表示される。なお、対象物候補の類似度が特定結果表示欄11e及び候補表示欄11fに表示されても良い。
As shown, the object ID, object type, owner information (for example, Mr. A), and position information (position name, latitude and longitude, etc.) of the highest object candidate are displayed in the identification
なお、図7では、3つの対象物候補を取得した例を説明したが、対象物候補の数が特に限定されない。なお、対象物候補の数が多い場合、例えば、横方向に並べられた複数の対象物候補が候補表示欄11fに収まりきらない場合、複数の対象物候補を横方向にスクロール可能に表示しても良い。
Although FIG. 7 illustrates an example in which three target object candidates are acquired, the number of target object candidates is not particularly limited. When there are many object candidates, for example, when the plurality of object candidates arranged in the horizontal direction cannot fit in the
図8は、撮影した対象物を特定する際の処理手順を示すフローチャートである。端末2の制御部21は、撮影部26を介して対象物を撮影する(ステップS201)。なお、撮影された対象物の画像が予め記憶部12または大容量記憶部15に記憶された場合、制御部21は、記憶部12または大容量記憶部15から対象物の画像を取得しても良い。制御部21は、撮影した対象物の画像に関する画像情報(文字、特徴点または特徴量等)を取得する(ステップS202)。
FIG. 8 is a flow chart showing a processing procedure for identifying a photographed object. The
制御部21は、当該対象物の撮影時に当該端末2のセンサにより検出された複数のセンサ情報(無線LAN情報、GPSデータ、気圧データ、高度データ、ジャイロセンサデータ、またはライダーセンサデータ等)を取得する(ステップS203)。
The
具体的には、制御部21は、無線通信方式(例えば、Wi-Fi Direct)を用いて無線LAN情報(アクセスポイントのMACアドレス、SSID、電波強度または周波数等)を取得する。制御部21は、GPSモジュール27を介して、GPSの測位衛星からの送信電波を受信してGPSデータ(経緯度等)を取得する。制御部21は、気圧モジュール28を介して気圧データを取得する。制御部21は、高度モジュール29を介して高度データを取得する。制御部21は、ジャイロモジュール30を介してジャイロセンサデータを取得する。制御部21は、ライダーモジュール31を介してライダーセンサデータを取得する。なお、これらのセンサ種類に限られず、他のセンサにも同様に適用することができる。
Specifically, the
制御部21は、取得した対象物の画像情報及び複数のセンサ情報を通信部23によりサーバ1に送信する(ステップS204)。サーバ1の制御部11は、端末2から送信された対象物の画像情報及び複数のセンサ情報を通信部13により受信する(ステップS101)。制御部11は、受信した画像情報及び複数のセンサ情報に基づき、対象物と当該対象物候補との類似度を算出する処理のサブルーチンを実行する(ステップS102)。なお、類似度の算出処理のサブルーチンに関しては後述する。
The
制御部11は、算出した類似度に基づき、類似度の最も高い対象物候補を、撮影した対象物として特定する(ステップS103)。なお、類似度の所定閾値を利用して対象物を特定しても良い。例えば制御部11は、対象物と対象物候補との類似度が所定閾値(例えば、70%)以上であると判定した場合、当該対象物候補を、撮影した対象物として特定する。
Based on the calculated degrees of similarity, the
制御部11は、特定した対象物の対象物IDに基づき、当該対象物に関する情報(対象物ID、種類または位置情報等)を大容量記憶部15の対象物DB151から取得する(ステップS104)。制御部11は、取得した対象物に関する情報を通信部13により端末2に送信する(ステップS105)。端末2の制御部21は、サーバ1から送信された対象物に関する情報を通信部23により受信する(ステップS205)。制御部21は、受信した対象物に関する情報を表示部25により表示し(ステップS206)、処理を終了する。
Based on the object ID of the specified object, the
図9は、類似度を算出する処理のサブルーチンの処理手順を示すフローチャートである。サーバ1の制御部11は、対象物の画像情報及び複数のセンサ情報に係る各評価項目を記憶部12または大容量記憶部15からを取得する(ステップS01)。評価項目は、例えば「特徴点」、「文字列」、「無線LAN情報」、「高度」及び「ジャイロ」を含む。
FIG. 9 is a flow chart showing the procedure of a subroutine of processing for calculating the degree of similarity. The
制御部11は、各評価項目に対応する重みづけの設定を受け付ける(ステップS02)。具体的には、端末2の制御部21は、各評価項目に対応する重みづけの設定を入力部24により受け付け、受け付けた重みづけを通信部23によりサーバ1に送信する。サーバ1の制御部11は、端末2から送信された各評価項目に対応する重みづけを通信部13により受信する。なお、サーバ1の制御部11は、各評価項目に対応する重みづけの設定を直接受け付けても良い。
The
なお、各評価項目に対応する重みづけが予め記憶部12または大容量記憶部15に記憶された場合、制御部11は、各評価項目に対応する重みづけを記憶部12または大容量記憶部15から取得する。また、対象物ごとに各評価項目に対応する重みづけの設定を受け付けることができる。
When the weighting corresponding to each evaluation item is stored in advance in the
制御部11は、複数の対象物候補に対応する画像情報及びセンサ情報を大容量記憶部15の対象物DB151から取得する(ステップS03)。制御部11は、取得した複数の対象物候補から、1つの対象物候補に対応する画像情報及びセンサ情報を取得する(ステップS04)。制御部11は、各評価項目に対応する重みづけ、画像情報及び複数のセンサ情報に基づき、上述した計算式(1)~(5)を用いて、各評価項目のスコアを算出する(ステップS05)。
The
制御部11は、算出した各評価項目のスコアの合計を算出する(ステップS06)。制御部11は、係数(例えば、255)に重みづけを乗算することにより、各評価項目のスコアの最大値を算出する(ステップS07)。制御部11は、算出したスコアの合計とスコアの最大値の合計とに基づき、対象物と当該対象物候補との類似度(スコアの合計/スコアの最大値 × 100%)を算出する(ステップS08)。
The
制御部11は、複数の対象物候補の中に当該対象物候補が最後の対象物候補であるか否かを判定する(ステップS09)。制御部11は、当該対象物候補が最後の対象物候補でないと判定した場合(ステップS09でNO)、ステップS04の処理に戻る。制御部11は、当該対象物候補が最後の対象物候補であると判定した場合(ステップS09でYES)、対象物候補ごとに算出した類似度を取得する(ステップS10)。制御部11は、類似度の算出処理のサブルーチンを終了してリターンする。
The
本実施形態によると、画像情報及びセンサ情報に基づいて、複数の対象物候補から撮影した対象物を特定することが可能となる。 According to this embodiment, it is possible to specify a photographed object from a plurality of object candidates based on image information and sensor information.
本実施形態によると、特定した対象物に関する情報を出力することが可能となる。 According to this embodiment, it is possible to output information about the specified object.
本実施形態によると、複数の対象物候補から、類似度における所定の上位順位までの対象物候補を取得し、取得したすべての対象物候補に関する情報を出力することが可能となる。 According to this embodiment, it is possible to obtain target object candidates up to a predetermined high rank in similarity from a plurality of target object candidates, and output information about all the obtained target object candidates.
(実施形態2)
実施形態2は、対象物に対応する画像情報及びセンサ情報と、当該対象物候補に対応する画像情報及びセンサ情報とに基づき、人工知能(AI:Artificial Intelligence)により対象物と当該対象物候補との類似度を出力する形態に関する。なお、実施形態1と重複する内容については説明を省略する。
(Embodiment 2)
In the second embodiment, based on image information and sensor information corresponding to the target object and image information and sensor information corresponding to the target object candidate, AI (Artificial Intelligence) identifies the target object and the target object candidate. It relates to a form of outputting the similarity of . In addition, description is abbreviate|omitted about the content which overlaps with
図10は、実施形態2におけるサーバ1の構成例を示すブロック図である。なお、図2と重複する内容については同一の符号を付して説明を省略する。サーバ1の大容量記憶部15には、類似度出力モデル152及び訓練データDB153が含まれている。
FIG. 10 is a block diagram showing a configuration example of the
類似度出力モデル152は、対象物に対応する画像情報及びセンサ情報と、当該対象物候補に対応する画像情報及びセンサ情報とに基づき、対象物と当該対象物候補との類似度を出力(推定)する出力器であり、機械学習により生成された学習済みモデルである。訓練データDB153は、類似度出力モデル152を構築(作成)するための訓練データを記憶している。
The
図11は、訓練データDB153のレコードレイアウトの一例を示す説明図である。訓練データDB153は、入力データ列及び出力データ列を含む。入力データ列は、対象物列及び対象物候補列を含む。対象物列は、対象物に対応する画像情報及びセンサ情報を記憶している。対象物候補列は、当該対象物候補に対応する画像情報及びセンサ情報を記憶している。出力データ列は、対象物と当該対象物候補とが一致するか否かの情報(例えば、一致または不一致)を記憶している。
FIG. 11 is an explanatory diagram showing an example of the record layout of the
図12は、類似度出力モデル152を説明する説明図である。類似度出力モデル152は、人工知能ソフトウェアの一部であるプログラムモジュールとして利用される。類似度出力モデル152は、対象物に対応する画像情報及びセンサ情報と、当該対象物候補に対応する画像情報及びセンサ情報とを入力とし、対象物と当該対象物候補との類似度を出力とするニューラルネットワークを構築済みの出力器である。
FIG. 12 is an explanatory diagram for explaining the
ニューラルネットワークは、例えばCNN(Convolutional Neural Network)であり、対象物に対応する画像情報及びセンサ情報と、当該対象物候補に対応する画像情報及びセンサ情報との入力を受け付ける入力層と、活性化関数を用いて対象物と当該対象物候補との類似度を出力する出力層と、バックプロパゲーションにより学習済の中間層とを有する。各層は、1または複数のニューロン(ノード)を持ち、各ニューロンは値を持つ。そして、ある層と次の層の間のニューロン同士はエッジで結ばれ、各エッジは重みやバイアス等の変数(またはパラメータ)を持つ。 The neural network is, for example, a CNN (Convolutional Neural Network). and an intermediate layer that has been learned by back propagation. Each layer has one or more neurons (nodes), and each neuron has a value. Neurons between one layer and the next layer are connected by edges, and each edge has variables (or parameters) such as weights and biases.
CNNにおいて、各層のニューロンの値は、前段の層のニューロンの値とエッジの重み等に基づく所定の演算を実行して求められる。そして、入力データが入力層のニューロンに入力されると、次の層のニューロンの値が所定の演算により求められ、さらに、演算により求められたデータを入力として次の層のニューロンの値がその層の所定の演算により求められる。そして、最終層である出力層のニューロンの値が、入力データに対する出力データとなる。 In the CNN, the values of neurons in each layer are obtained by executing a predetermined operation based on the values of neurons in the preceding layer and edge weights. Then, when the input data is input to the neurons of the input layer, the values of the neurons of the next layer are obtained by a predetermined operation. It is obtained by a predetermined operation of layers. Then, the value of the neuron in the output layer, which is the final layer, becomes the output data for the input data.
例えばサーバ1は、訓練データDB153に蓄積された訓練データを用いて、類似度出力モデル152を生成する。訓練データDB153の各レコードがそれぞれ訓練データである。出力データ列の値が出力層から出力されるべき正解データ(対象物と当該対象物候補とが一致するか否かの情報)である。入力データ列の対象物に対応する画像情報及びセンサ情報と、当該対象物候補に対応する画像情報及びセンサ情報とが入力データである。
For example, the
訓練データは、対象物に対応する画像情報及びセンサ情報、並びに、当該対象物候補に対応する画像情報及びセンサ情報と、対象物と当該対象物候補とが一致するか否かの情報とが対応付けられた組み合わせのデータである。訓練データは、対象物から収集された大量の経験データに基づいて生成される。なお、訓練データは別途人手で作成されたデータであっても良い。 The training data includes image information and sensor information corresponding to the object, image information and sensor information corresponding to the object candidate, and information indicating whether or not the object matches the object candidate. It is the data of the combination attached. Training data is generated based on large amounts of empirical data collected from objects. Note that the training data may be data separately created manually.
サーバ1は、取得した訓練データを用いて学習を行う。具体的には、サーバ1は、訓練データである対象物に対応する画像情報及びセンサ情報と、当該対象物候補に対応する画像情報及びセンサ情報とを入力層に入力し、中間層での演算処理を経て、出力層から対象物と当該対象物候補との類似度を出力する。出力層は、例えばシグモイド関数またはソフトマックス関数を含み、中間層から出力された特徴量に基づいて、推定された類似度を出力する。
The
サーバ1は、出力層から出力された類似度(推定結果)を、訓練データにおける正解値(出力データ列の値)と比較し、出力層からの出力値が正解値に近づくように、中間層での演算処理に用いるパラメータを最適化する。当該パラメータは、例えばニューロン間の重み(結合係数)等である。パラメータの最適化の方法は特に限定されないが、例えばサーバ1は誤差逆伝播法を用いて各種パラメータの最適化を行う。
The
サーバ1は、訓練データDB153に記憶してある各レコードについて上記の処理を行い、類似度出力モデル152の学習を行う。これにより、対象物と当該対象物候補との類似度を出力可能なモデルを構築することができる。なお、他のコンピュータ(図示せず)により上述の学習処理を行い、類似度出力モデル152を生成しても良い。この場合、サーバ1は、他のコンピュータにより生成された類似度出力モデル152を取得してインストールする。なお、類似度出力モデル152を構築せずに、機械学習モデルを使ったWEB API(Application Programming Interface)を利用することにより、類似度を出力しても良い。
The
サーバ1は、対象物に対応する画像情報及びセンサ情報と、当該対象物候補に対応する画像情報及びセンサ情報とを取得した場合、取得した対象物に対応する画像情報及びセンサ情報と、当該対象物候補に対応する画像情報及びセンサ情報とを類似度出力モデル152に入力する。サーバ1は、類似度出力モデル152の中間層にて、入力層から入力された入力情報の次元数を変化させることで、入力情報が有する特徴を抽出する。サーバ1は、抽出した特徴を類似度出力モデル152の出力層に入力して、対象物と当該対象物候補との類似度を推定した推定結果を出力する。
When the
図示のように、対象物に対応する画像情報及びセンサ情報と、当該対象物候補に対応する画像情報及びセンサ情報と対し、類似度出力モデル152により推定された各類似度の確率値の中に、最も高い確率が出力される。例えば、推定された類似度が75.4%である。なお、上述した出力結果に限定せず、推定した各類似度の確率値が直接出力されても良い。
As shown in the figure, the similarity probability values estimated by the
なお、類似度出力モデル152は、CNNに限られず、RCNN(Regions with Convolutional Neural Network)、Fast RCNN、Faster RCNN、SSD(Single Shot Multibook Detector)、YOLO(You Only Look Once)、SVM(Support Vector Machine)、ベイジアンネットワーク、トランスフォーマー(Transformer)ネットワーク、回帰木またはランダムフォレストといった他のモデルによって実現されて良い。
In addition, the
図13は、類似度出力モデル152を用いる類似度の算出処理のサブルーチンの処理手順を示すフローチャートである。サーバ1の制御部11は、複数の対象物候補に対応する画像情報及びセンサ情報を大容量記憶部15の対象物DB151から取得する(ステップS21)。制御部11は、取得した複数の対象物候補から、1つの対象物候補に対応する画像情報及びセンサ情報を取得する(ステップS22)。
FIG. 13 is a flowchart showing the procedure of a subroutine for similarity calculation processing using the
制御部11は、対象物に対応する画像情報及びセンサ情報と、取得した対象物候補に対応する画像情報及びセンサ情報とを類似度出力モデル152に入力する(ステップS23)。制御部11は、対象物と当該対象物候補との類似度を類似度出力モデル152から出力する(ステップS24)。
The
制御部11は、複数の対象物候補の中に当該対象物候補が最後の対象物候補であるか否かを判定する(ステップS25)。制御部11は、当該対象物候補が最後の対象物候補でないと判定した場合(ステップS25でNO)、ステップS22の処理に戻る。制御部11は、当該対象物候補が最後の対象物候補であると判定した場合(ステップS25でYES)、対象物候補ごとに算出した類似度を取得する(ステップS26)。制御部11は、類似度の算出処理のサブルーチンを終了してリターンする。
The
本実施形態によると、対象物に対応する画像情報及びセンサ情報と、当該対象物候補に対応する画像情報及びセンサ情報とに基づいて、類似度出力モデル152を用いて対象物と当該対象物候補との類似度を出力することが可能となる。
According to this embodiment, based on the image information and sensor information corresponding to the target object and the image information and sensor information corresponding to the target object candidate, the
本実施形態によると、類似度出力モデル152を用いて類似度を出力することにより、精度の高い類似度を得ることが可能となる。
According to this embodiment, it is possible to obtain a highly accurate similarity by outputting the similarity using the
今回開示された実施形態はすべての点で例示であって、制限的なものではないと考えられるべきである。本発明の範囲は、上記した意味ではなく、特許請求の範囲によって示され、特許請求の範囲と均等の意味及び範囲内でのすべての変更が含まれることが意図される。 The embodiments disclosed this time are illustrative in all respects and should be considered not restrictive. The scope of the present invention is indicated by the scope of the claims rather than the above-described meaning, and is intended to include all modifications within the scope and meaning equivalent to the scope of the claims.
1 情報処理装置(サーバ)
11 制御部
12 記憶部
13 通信部
14 読取部
15 大容量記憶部
151 対象物DB
152 類似度出力モデル
153 訓練データDB
1a 可搬型記憶媒体
1b 半導体メモリ
1P 制御プログラム
2 情報処理端末(端末)
21 制御部
22 記憶部
23 通信部
24 入力部
25 表示部
26 撮影部
27 GPSモジュール
28 気圧モジュール
29 高度モジュール
30 ジャイロモジュール
31 ライダーモジュール
2P 制御プログラム
1 Information processing device (server)
REFERENCE SIGNS
152
1a
21
Claims (11)
前記対象物の撮影時に前記情報処理端末のセンサにより検出されたセンサ情報を取得し、
複数の対象物候補に対応する画像情報及びセンサ情報を記憶した記憶部を参照し、取得した画像情報及びセンサ情報に基づいて、前記複数の対象物候補の中から撮影した対象物を特定する
情報処理方法。 Acquiring image information related to an image of an object photographed by an information processing terminal,
Acquiring sensor information detected by a sensor of the information processing terminal when the object is photographed,
referring to a storage unit storing image information and sensor information corresponding to a plurality of object candidates, and specifying a photographed object from among the plurality of object candidates based on the obtained image information and sensor information; Processing method.
取得した画像情報、及び各センサにより検出された複数のセンサ情報と、前記記憶部に記憶した各対象物候補に対応する画像情報及び複数のセンサ情報とに基づき、対象物候補ごとに前記対象物と前記対象物候補との類似度を算出し、
類似度の最も高い対象物候補を、撮影した対象物として特定する
請求項1に記載の情報処理方法。 The information processing terminal includes a plurality of sensors,
Based on the acquired image information, a plurality of sensor information detected by each sensor, and the image information and the plurality of sensor information corresponding to each target object candidate stored in the storage unit, the target object for each target object candidate and calculating the similarity between the object candidate and
The information processing method according to claim 1, wherein an object candidate with the highest degree of similarity is specified as the photographed object.
取得した各評価項目及び各評価項目に対応する重みづけに基づいて、前記対象物候補ごとに類似度を算出する
請求項2に記載の情報処理方法。 Acquiring each evaluation item related to the image information of the object and the plurality of sensor information and the weighting corresponding to each evaluation item,
The information processing method according to claim 2, wherein the degree of similarity is calculated for each of the object candidates based on each acquired evaluation item and weighting corresponding to each evaluation item.
請求項3に記載の情報処理方法。 4. The information processing method according to claim 3, wherein setting of weighting corresponding to each evaluation item is received for each object.
前記対象物に対応する画像情報及びセンサ情報と、前記対象物候補に対応する画像情報及びセンサ情報とを入力した場合に、前記対象物と前記対象物候補との類似度を出力するよう学習された学習モデルに、前記対象物に対応する画像情報及びセンサ情報と、取得した対象物候補に対応する画像情報及びセンサ情報とを入力して、対象物候補ごとに類似度を出力し、
類似度の最も高い対象物候補を、撮影した対象物として特定する
請求項1に記載の情報処理方法。 acquiring image information and sensor information corresponding to a plurality of object candidates from the storage unit;
When image information and sensor information corresponding to the object and image information and sensor information corresponding to the object candidate are input, learning is performed to output the degree of similarity between the object and the object candidate. inputting image information and sensor information corresponding to the target object and image information and sensor information corresponding to the obtained target object candidate to the learning model, and outputting a similarity for each target object candidate;
The information processing method according to claim 1, wherein an object candidate with the highest degree of similarity is specified as the photographed object.
取得したすべての対象物候補に関する情報を出力する
請求項2から5までのいずれかひとつに記載の情報処理方法。 acquiring target object candidates up to a predetermined high rank in similarity from the plurality of target object candidates;
6. The information processing method according to any one of claims 2 to 5, further comprising: outputting information about all acquired object candidates.
請求項1から6までのいずれかひとつに記載の情報処理方法。 7. The information processing method according to any one of claims 1 to 6, further comprising outputting information about the specified object.
請求項1から7までのいずれかひとつに記載の情報処理方法。 The information processing method according to any one of claims 1 to 7, wherein the image information includes characters or feature points included in the image of the object, or feature amounts of the image.
請求項1から8までのいずれかひとつに記載の情報処理方法。 The information processing method according to any one of claims 1 to 8, wherein the sensor information includes wireless LAN information, satellite positioning system data, atmospheric pressure data, altitude data, gyro sensor data, or lidar sensor data.
前記対象物の撮影時に前記情報処理端末のセンサにより検出されたセンサ情報を取得し、
複数の対象物候補に対応する画像情報及びセンサ情報を記憶した記憶部を参照し、取得した画像情報及びセンサ情報に基づいて、前記複数の対象物候補の中から撮影した対象物を特定する
処理をコンピュータに実行させるプログラム。 Acquiring image information related to an image of an object photographed by an information processing terminal,
Acquiring sensor information detected by a sensor of the information processing terminal when the object is photographed,
referring to a storage unit storing image information and sensor information corresponding to a plurality of object candidates, and identifying the photographed object from among the plurality of object candidates based on the acquired image information and sensor information; A program that makes a computer run
前記対象物の撮影時に前記情報処理端末のセンサにより検出されたセンサ情報を取得する第2取得部と、
複数の対象物候補に対応する画像情報及びセンサ情報を記憶した記憶部を参照し、取得した画像情報及びセンサ情報に基づいて、前記複数の対象物候補の中から撮影した対象物を特定する特定部と
を備える情報処理装置。 a first acquisition unit that acquires image information related to an image of an object captured by an information processing terminal;
a second acquisition unit that acquires sensor information detected by a sensor of the information processing terminal when the object is photographed;
Identifying by referring to a storage unit storing image information and sensor information corresponding to a plurality of object candidates and identifying a photographed object from among the plurality of object candidates based on the acquired image information and sensor information An information processing device comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021179638A JP2023068487A (en) | 2021-11-02 | 2021-11-02 | Information processing method, program, and information processor |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021179638A JP2023068487A (en) | 2021-11-02 | 2021-11-02 | Information processing method, program, and information processor |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2023068487A true JP2023068487A (en) | 2023-05-17 |
Family
ID=86327028
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021179638A Pending JP2023068487A (en) | 2021-11-02 | 2021-11-02 | Information processing method, program, and information processor |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2023068487A (en) |
-
2021
- 2021-11-02 JP JP2021179638A patent/JP2023068487A/en active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11763541B2 (en) | Target detection method and apparatus, model training method and apparatus, device, and storage medium | |
US11308334B2 (en) | Method and apparatus for integration of detected object identifiers and semantic scene graph networks for captured visual scene behavior estimation | |
CN102194367B (en) | Information processing device, map update method, and information processing system | |
JP6976270B2 (en) | Remote determination of the amount stored in a container in a geographic area | |
JP5563494B2 (en) | Corresponding reference image search device and method, content superimposing device, system and method, and computer program | |
US11334986B2 (en) | System and method for processing images of agricultural fields for remote phenotype measurement | |
US20210097344A1 (en) | Target identification in large image data | |
TWI643137B (en) | Object recognition method and object recognition system | |
US20190164040A1 (en) | Visual Inertial Odometry Health Fitting | |
CN108256563B (en) | Visual dictionary closed-loop detection method and device based on distance measurement | |
US11334801B2 (en) | Systems and methods for determining an artificial intelligence model in a communication system | |
KR102556765B1 (en) | Apparatus and method for visual localization | |
JP2023068487A (en) | Information processing method, program, and information processor | |
CN114882115B (en) | Vehicle pose prediction method and device, electronic equipment and storage medium | |
CN113065521B (en) | Object identification method, device, equipment and medium | |
Bernabé et al. | A new system to perform unsupervised and supervised classification of satellite images from Google Maps | |
KR102299902B1 (en) | Apparatus for providing augmented reality and method therefor | |
CN111968030B (en) | Information generation method, apparatus, electronic device and computer readable medium | |
KR102556767B1 (en) | Apparatus and method for visual localization | |
WO2023053317A1 (en) | Image matching apparatus, control method, and non-transitory computer-readable storage medium | |
CN115019400B (en) | Illegal behavior detection method and device | |
CN113723464B (en) | Remote sensing image classification method and device | |
KR102600915B1 (en) | Apparatus and method for generating data for visual localization | |
KR102600939B1 (en) | Apparatus and method for generating data for visual localization | |
US11821754B2 (en) | Sensor calibration |