JP2018181081A - 画像認識エンジン連携装置およびプログラム - Google Patents

画像認識エンジン連携装置およびプログラム Download PDF

Info

Publication number
JP2018181081A
JP2018181081A JP2017081729A JP2017081729A JP2018181081A JP 2018181081 A JP2018181081 A JP 2018181081A JP 2017081729 A JP2017081729 A JP 2017081729A JP 2017081729 A JP2017081729 A JP 2017081729A JP 2018181081 A JP2018181081 A JP 2018181081A
Authority
JP
Japan
Prior art keywords
engine
cooperation
image
recognition
processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017081729A
Other languages
English (en)
Other versions
JP6807268B2 (ja
Inventor
潮 渋沢
Ushio Shibusawa
潮 渋沢
督史 鈴木
Masafumi Suzuki
督史 鈴木
幸博 中村
Yukihiro Nakamura
幸博 中村
手塚 博久
Hirohisa Tezuka
博久 手塚
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2017081729A priority Critical patent/JP6807268B2/ja
Publication of JP2018181081A publication Critical patent/JP2018181081A/ja
Application granted granted Critical
Publication of JP6807268B2 publication Critical patent/JP6807268B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

【課題】画像中の被写体の認識精度の向上を図ることができる画像認識エンジン連携装置およびプログラムを提供する。【解決手段】画像認識エンジン連携装置2は、画像認識エンジン3,4,5および画像認識エンジン3,4,5とは異なる画像解析手法により画像中の被写体の認識を行う異種エンジンであるバーコード検出エンジン6を含む複数のエンジンへの問い合わせ処理と、問い合わせ処理に応じた認識結果の受け付け処理とを含むエンジン連携処理を実行する連携処理部を有する。連携処理部は、エンジン連携処理を連携シナリオとして管理する。連携シナリオは、被認識結果の信頼性が高いエンジンから順に問い合わせ処理を行う直列型連携処理と、複数のエンジンに同時に問い合わせを処理を行い、最も信頼性の高い認識結果を採用する並列型連携処理と、直列型連携処理と並列型連携処理との組み合わせと、を含む。【選択図】図1

Description

本発明は、複数のエンジンを連携させて画像中の被写体の認識を行う画像認識エンジン連携装置およびプログラムに関する。
従来、カメラで撮影した画像(静止画あるいは動画)に対して、事前にデータベースに登録された被写体の画像の画像特徴量などを用いて照合を行うことで、撮影画像に含まれる被写体を特定(認識)する画像認識技術を適用した装置およびプログラム(以下、画像認識エンジンと称する)がある(例えば、非特許文献1参照)。
「3次元物体をどんな方向から撮影しても高精度に認識・検索し、関連情報を提示する「アングルフリー物体検索技術」を開発〜スマホなどを看板や建物にかざすだけで、観光ナビゲーションサービスを実現〜」、[online]、[平成29年3月24日検索]、インターネット<URL:http://www.ntt.co.jp/news2015/1502/150216a.html>
上述した画像認識エンジンを単体で用いる場合、被写体や撮影の条件によっては、被写体の認識に失敗することがある。例えば、事前にデータベースに登録された被写体と画像特徴量が類似しているが異なる被写体を撮影した場合、データベースに登録された被写体と誤認識することがある。
本発明の目的は、上述した課題を解決し、画像中の被写体の認識精度の向上を図ることができる画像認識エンジン連携装置およびプログラムを提供することにある。
上記課題を解決するため、本発明に係る画像認識エンジン連携装置は、画像中の被写体の認識を行う画像認識エンジン、および、前記画像認識エンジンとは異なる画像解析手法により、画像中の被写体の認識を行う異種エンジンを含む複数のエンジンへの、入力画像中の被写体の問い合わせ処理と、前記問い合わせ処理に応じたエンジンによる被写体の認識結果の受け付け処理とを含むエンジン連携処理を実行する連携処理部を有し、前記連携処理部は、前記エンジン連携処理を連携シナリオとして管理し、前記連携シナリオは、被写体の認識結果の信頼性が高いエンジンから順に前記問い合わせ処理を行い、前記信頼性が高いエンジンから認識結果が得られない場合に、他のエンジンに前記問い合わせ処理を行う直列型連携処理と、前記複数のエンジンに同時に前記問い合わせを処理を行い、前記複数のエンジンの認識結果のうち、最も信頼性の高い認識結果を採用する並列型連携処理と、前記直列型連携処理と前記並列型連携処理との組み合わせと、を含む。
また、上記課題を解決するため、本発明に係るプログラムは、コンピュータを上述した画像認識装置として機能させる。
本発明に係る画像認識エンジン連携装置およびプログラムによれば、画像中の被写体の認識精度の向上を図ることができる。
本発明の一実施形態に係る画像認識エンジン連携装置を含む画像認識システムの構成例を示す図である。 図1に示す画像認識エンジン連携装置の構成例を示す図である。 図2に示すID解決部が用いるID対応表の一例を示す概念図である。 図2に示す画像認識エンジン連携装置による、画像認識エンジンとバーコード検出エンジンとの直列型連携処理の一例を示すフローチャートである。 図2に示す画像認識エンジン連携装置による、画像認識エンジンとバーコード検出エンジンとの並列型連携処理の一例を示すフローチャートである。 図2に示す画像認識エンジン連携装置による、画像認識エンジンと物体領域抽出エンジンとの直列型連携処理の一例を示すフローチャートである。 図2に示す画像認識エンジン連携装置による、画像認識エンジンと位置推定エンジンとの並列型連携処理の一例を示すフローチャートである。
以下、本発明の実施の形態について説明する。
図1は、本発明の一実施形態に係る画像認識エンジン連携装置2を含む画像認識システム100の構成例を示す図である。
図1に示す画像認識システム100は、利用者端末1と、画像認識エンジン連携装置2と、画像認識エンジン3,4,5と、バーコード検出エンジン6と、物体領域抽出エンジン7と、位置推定エンジン8とを備える。
利用者端末1は、撮影機能を備えたスマートフォン、携帯電話、タブレット端末などの端末である。また、利用者端末1は、利用者端末1の位置、姿勢など種々の情報を検出する各種のセンサを備えている。
利用者端末1は、利用者の操作などに応じて、画像中の被写体の認識を要求する認識要求を画像認識エンジン連携装置2に送信する。認識要求には、利用者端末1により撮影された画像(静止画あるいは動画を構成するフレーム画像)、利用者端末1が備える各種センサで検出された情報(例えば、GPS(Global Positioning System)情報、Bluetooth(登録商標)のビーコンID、無線LAN(Local Area Network)のSSID(Service Set Identifier)、ジャイロセンサ情報)、後述する画像認識エンジン連携装置2が実行するエンジン連携処理(以下、連携シナリオと称する)を識別する識別子(以下、連携シナリオ名と称する)などが含まれる。
また、利用者端末1は、画像認識エンジン連携装置2から送信されてきた、認識要求に対する回答情報を受信し、利用者に提示する。
画像認識エンジン連携装置2は、利用者端末1から受信した認識要求に基づき、画像認識エンジン3,4,5、バーコード検出エンジン6、物体領域抽出エンジン7および位置推定エンジン8の中の1または複数のエンジンに個別要求を送信する。個別要求には、個別要求の送信先のエンジンが処理を実行するためのコマンド、個別要求の送信先のエンジンが処理を実行するための入力データなどが含まれる。個別要求の送信先が画像認識エンジン3,4,5、バーコード検出エンジン6および物体領域抽出エンジン7である場合には、入力データは、認識要求に含まれる画像である。また、個別要求の送信先が位置推定エンジン8である場合には、入力データは、認識要求に含まれるGPS情報、BluetoothのビーコンID、無線LANのSSIDなどである。
また、画像認識エンジン連携装置2は、個別要求の送信先のエンジンから個別要求に対する実行結果である個別結果を受信する。画像認識エンジン連携装置2は、受信した個別結果に対して加工処理や判定処理を行い、個別結果を送信してきたエンジンとは別のエンジンに個別要求を送信するか、あるいは、認識要求に対する回答情報を利用者端末1に送信する。
画像認識エンジン3,4,5は、画像認識エンジン連携装置2から受信した個別要求に含まれる画像(入力画像)を用いて画像認識処理を実行し、認識結果を個別結果として画像認識エンジン連携装置2に送信する。画像認識処理とは、入力画像と画像認識エンジン3,4,5の画像データベースに登録された参照画像とに対して、画像解析により抽出した画像特徴量の類似度を計算し、最も類似度の高い参照画像を決定する処理である。画像認識エンジン3,4,5が送信する個別結果には、入力画像との類似度が最も高いと決定した参照画像を示す識別子(以下、被写体ラベルと称する)、入力画像中の被写体の領域を示す四隅座標、認識処理の信頼度を示すスコアなどが含まれる。
画像認識エンジン3は、例えば、商品のパッケージやラベルの画像を蓄積するデータベースである商品画像DB9に接続し、商品画像DB9に蓄積された画像を参照画像として画像認識処理を行う。画像認識エンジン4は、例えば、東京駅構内の構内看板の画像を蓄積するデータベースである東京駅構内看板画像DB10に接続し、東京駅構内看板画像DB10に蓄積された画像を参照画像として画像認識処理を行う。画像認識エンジン5は、例えば、大阪駅構内の構内看板の画像を蓄積するデータベースである大阪駅構内看板画像DB11に接続し、大阪駅構内看板画像DB11に蓄積された画像を参照画像として画像認識処理を行う。
バーコード検出エンジン6は、画像認識エンジン連携装置2から受信した個別要求に含まれる画像(入力画像)を用いてバーコードの認識処理(バーコード検出処理および検出したバーコードの読み取り処理)を実行し、認識結果を個別結果として画像認識エンジン連携装置2に送信する。バーコード検出エンジン6が送信する個別結果には、入力画像中のバーコードの有無、バーコードが示す文字列(例えば、JAN(Japanese Article Number)コード)、入力画像中のバーコードの領域を示す四隅座標などが含まれる。
一般に、バーコードは所定のパターンに従って作成されており、画像認識エンジン3,4,5が行う画像認識処理のように画像特徴量の抽出などを行うことなく、高精度に読取り可能である。そのため、バーコード検出エンジン6の誤読率は、画像認識エンジン3,4,5の誤認識率と比べて低い。したがって、バーコード検出エンジン6は、画像認識エンジン3,4,5よりも認識結果の信頼性が高いエンジンである。すなわち、バーコード検出エンジン6は、画像認識エンジン3,4,5とは異なる画像解析手法により、画像中の被写体(バーコード)の認識を、画像認識エンジン3,4,5よりも高い精度で行うことができる。バーコード検出エンジン6は、画像認識エンジン3,4,5とは異なる画像解析手法により、画像中の被写体の認識を行う異種エンジンの一例である。
物体領域抽出エンジン7は、画像認識エンジン連携装置2から受信した個別要求に含まれる画像(入力画像)を用いて物体領域抽出処理を行い、抽出結果を個別結果として画像認識エンジン連携装置2に送信する。物体領域抽出処理とは、入力画像に対して視覚特性などを利用した画像解析を行い、入力画像中の被写体(物体や人物)を含む可能性が高い(被写体を含むと想定される)領域(以下、物体領域と称する)を抽出する処理である。物体領域抽出エンジン7が送信する個別結果には、入力画像から抽出された個々の被写体を含む物体領域を区別する識別子、個々の物体領域を示す四隅座標などが含まれる。物体領域抽出エンジン7は、領域抽出エンジンの一例である。
位置推定エンジン8は、画像認識エンジン連携装置2から受信した個別要求に含まれるGPS情報、BluetoothのビーコンID、無線LANのSSIDなどを用いて位置推定処理を行い、推定結果を個別結果として画像認識エンジン連携装置2に送信する。位置推定処理とは、GPS情報、BluetoothのビーコンID、無線LANのSSIDなどを用いて利用者端末1が位置する現在地の地名、建物内の区画などを推定する処理である。位置推定エンジン8が送信する個別結果には、利用者端末1が位置する現在地の地名、建物内の区画などを示す情報(地名情報)が含まれる。
なお、位置推定エンジン8は、撮影機能を有する利用者端末1のセンサ情報に基づき、画像が撮影された際の付帯情報(利用者端末1の位置、姿勢、画像が撮影された時間帯、画像が撮影された際の天候など)を推定する付帯情報推定エンジンの一例である。
次に、本実施形態に係る画像認識エンジン連携装置2の構成について、図2を参照して説明する。なお、利用者端末1、画像認識エンジン3,4,5、バーコード検出エンジン6、物体領域抽出エンジン7および位置推定エンジン8の構成は当業者によく知られており、また、本発明と直接関係しないため、説明を省略する。
図2に示す画像認識エンジン連携装置2は、連携処理部12と、エンジン実行処理部13とを備える。エンジン実行処理部13は、画像認識エンジン3,4,5、バーコード検出エンジン6、物体領域抽出エンジン7および位置推定エンジン8それぞれに対応して設けられている。
連携処理部12は、画像認識エンジン3,4,5および画像認識エンジン3,4,5とは異なる画像解析手法により、画像中の被写体の認識を行う異種エンジンであるバーコード検出エンジン6を含む複数のエンジンへの、入力された画像(入力画像)中の被写体の問い合わせ処理と、問い合わせ処理に応じたエンジンによる被写体の認識結果の受け付け処理とを含むエンジン連携処理を実行する。
具体的には、連携処理部12は、利用者端末1から認識要求を受信すると、問い合わせ処理として、認識要求に含まれる画像(入力画像)中の被写体の認識を要求するエンジン実行要求を、入力画像中の被写体の認識を要求するエンジンに対応するエンジン実行処理部13に出力する。また、連携処理部12は、受け付け処理として、エンジン実行要求の送信先のエンジンによる実行結果であるエンジン実行結果をエンジン実行処理部13から取得する。
そして、連携処理部12は、取得したエンジン実行結果に対して加工処理や判定処理を行い、個別結果を送信してきたエンジンとは別のエンジンに対して個別要求を送信するか、あるいは、認識要求に対する回答情報を利用者端末1に送信する。
エンジン実行処理部13は、連携処理部12から出力されたエンジン実行要求を個別要求に変換して、対応するエンジンに出力する。また、エンジン実行処理部13は、対応するエンジンから送信されてきた個別要求を、エンジン実行結果に変換して連携処理部12に出力する。
次に、連携処理部12およびエンジン実行処理部13の構成について説明する。まず、連携処理部12の構成について説明する。
図2に示す連携処理部12は、連携制御部14と、認識要求キャッシュ部15と、連携シナリオ管理部16と、エンジン実行結果キャッシュ部17と、ID解決部18とを備える。
認識要求キャッシュ部15は、利用者端末1から送信されてきた認識要求を記憶する。
連携シナリオ管理部16は、連携処理部12が実行するエンジン連携処理の内容を記述(規定)する連携シナリオを管理する。すなわち、連携シナリオ管理部16は、連携処理部12が実行するエンジン連携処理を連携シナリオとして管理する。
連携シナリオとしては、例えば、直列型連携処理がある。直列型連携処理とは、被写体の認識結果の信頼性が高いエンジンから順に問い合わせ処理を行い、信頼性の高いエンジンから認識結果が得られない場合に、他のエンジンに問い合わせ処理を行う処理である。また、連携シナリオとしては、例えば、並列型連携処理がある。並列型連携処理とは、複数のエンジンに同時に問い合わせ処理を行い、複数のエンジンの認識結果のうち、最も信頼性の高い認識結果を採用する処理である。
連携シナリオ管理部16は、連携シナリオ毎に、連携シナリオ名、個別要求の送信先のエンジン、直列型連携処理を行うか、並列型連携処理を行うかなどを記憶している。連携シナリオ管理部16で管理される連携シナリオは利用者端末1においても既知である。そのため、利用者端末1は、認識を要求する画像などに応じて、実行を要求する連携シナリオの連携シナリオ名を含む認識要求を画像認識エンジン連携装置2に送信することができる。
エンジン実行結果キャッシュ部17は、エンジン実行処理部13から出力されたエンジン実行結果を記憶する。
連携制御部14は、利用者端末1から受信した認識要求を認識要求キャッシュ部15に記憶させる。また、連携制御部14は、認識要求に含まれる連携シナリオ名に対応する連携シナリオを連携シナリオ管理部16から取得する。
連携制御部14は、連携シナリオ管理部16から取得した連携シナリオに基づき、エンジン実行要求を出力するエンジン実行処理部13(個別要求を送信するエンジンに対応するエンジン実行処理部13)を特定する。そして、連携制御部14は、受信した認識要求に応じたエンジン実行要求を生成し、エンジン実行要求の出力先として特定したエンジン実行処理部13に出力する。エンジン実行要求には、認識要求の送信元の利用者端末1を特定する識別子、エンジン実行要求の識別子、エンジン実行要求を出力するエンジン実行処理部13の名称、認識要求に含まれる画像(利用者端末1が撮影した画像(静止画または動画を構成するフレーム画像))、利用者端末1のセンサで検出された情報などが含まれる。
また、連携制御部14は、エンジン実行要求の出力に応じて、エンジン実行処理部13から出力されたエンジン実行結果を取得する。エンジン実行結果には、認識要求の送信元の利用者端末1の識別子、エンジン実行結果の元となったエンジン実行要求の識別子、エンジン実行結果を出力するエンジン実行処理部13の名称、エンジン実行処理部13に対応するエンジン内において認識対象を区別するために用いられている識別子やコード(以下、局所IDと称する)、エンジン実行処理部13に対応するエンジンの個別結果などが含まれる。局所IDとは、例えば、画像認識エンジン3,4,5により認識結果に含まれる被写体ラベル、バーコード検出エンジン6による認識結果に含まれるバーコード文字列などである。
また、連携制御部14は、エンジン実行結果に含まれる局所IDを用いてID解決部18に問い合わせを行い、画像認識エンジン連携装置2において認識する対象を区別するために用いるコード(以下、共通IDと称する)を取得する。そして、連携制御部14は、受信したエンジン実行要求と、ID解決部18から取得した共通IDとを対応付けて、エンジン実行結果キャッシュ部17に記憶させる。
また、連携制御部14は、連携シナリオ管理部16から取得した連携シナリオに基づき、エンジン実行結果の判定処理を行う。判定処理には、利用者端末1に送信する回答情報に採用する認識結果、他のエンジンへの個別要求の送信の要否の判定などが含まれる。また、連携制御部14は、他のエンジンへの個別要求の入力とするために認識結果を加工する加工処理を行う。また、連携制御部14は、エンジン実行結果に基づき生成した回答情報を利用者端末1に送信する。
ID解決部18は、予め記憶されたID対応表を用いて、連携制御部14から問い合わせを受けた局所IDに対応する共通IDを取得し、連携制御部14に出力する。
図3は、ID解決部18が用いるID対応表の構成例を示す図である。図3に示すように、対応表では、画像認識エンジン3,4,5のエンジン実行結果に含まれる局所ID(画像認識エンジン3,4,5により認識された商品あるいは看板)、あるいは、バーコード検出エンジン6のエンジン実行結果に含まれる局所ID(バーコード検出エンジン6により読み取られたバーコード文字列)と、その商品あるいは看板を特定する識別子である共通IDとが対応付けられている。
例えば、バーコードが貼り付けられた商品において、画像認識エンジン3に被写体として商品のラベル画像が登録されている場合、画像認識エンジン3の被写体ラベルと、バーコード検出エンジン6により読み取られるバーコード文字列とに対して、同一の共通IDが設定される。
次に、エンジン実行処理部13の構成について、図2を再び参照して説明する。
図2に示すエンジン実行処理部13は、実行制御部19と、個別要求生成部20と、個別結果変換部21とを備える。
実行制御部19は、連携処理部12から出力されたエンジン実行要求を取得し、個別要求生成部20に出力する。また、実行制御部19は、個別結果変換部21から出力されたエンジン実行結果を取得し、連携処理部12に出力する。
個別要求生成部20は、実行制御部19から出力されたエンジン実行要求を個別要求に変換し、エンジン実行処理部13に対応するエンジンに送信する。
個別結果変換部21は、エンジン実行処理部13に対応するエンジンから送信されてきた個別結果を受信し、エンジン実行結果に変換して実行制御部19に出力する。
次に、本実施形態に係る画像認識エンジン連携装置2の動作について、連携制御部14の動作を中心に説明する。
図4は、画像認識エンジン3とバーコード検出エンジン6との直列型連携処理の一例を示すフローチャートである。
連携制御部14は、利用者端末1から認識要求を受信すると、受信した認識要求を認識要求キャッシュ部15に記憶(キャッシュ)させる(ステップS1)。なお、図4においては、認識要求には、画像認識エンジン3とバーコード検出エンジン6との直列型連携処理を記述した連携シナリオを示す連携シナリオ名が含まれているものとする。
次に、連携制御部14は、受信した認識要求に含まれる連携シナリオ名に対応する連携シナリオを連携シナリオ管理部16から取得する。そして、連携制御部14は、取得した連携シナリオに基づき、バーコード検出エンジン6に対するエンジン実行要求を認識要求キャッシュ部15に記憶された認識要求から生成し、バーコード検出エンジン6に対応するエンジン実行処理部13に出力する(ステップS2)。上述したように、バーコード検出エンジン6は、画像認識エンジン3よりも認識結果の信頼性が高いエンジンである。連携制御部14は、画像認識エンジン3とバーコード検出エンジン6との直列型連携処理においては、信頼性が高いバーコード検出エンジン6に対応するエンジン実行処理部13からエンジン実行要求を出力する。
バーコード検出エンジン6に対応するエンジン実行処理部13に出力されたエンジン実行要求は、エンジン実行処理部13において個別要求に変換され、バーコード検出エンジン6に送信される。そして、個別要求に応じた処理がバーコード検出エンジン6において実行され、実行結果が個別結果として画像認識エンジン連携装置2に送信される。バーコード検出エンジン6から送信された個別結果は、エンジン実行処理部13においてエンジン実行結果に変換され、連携処理部12に出力される。
連携制御部14は、エンジン実行処理部13から出力されたエンジン実行結果を取得し、エンジン実行結果キャッシュ部17に記憶(キャッシュ)させる。そして、連携制御部14は、取得したエンジン実行結果にバーコード文字列が含まれる場合、そのバーコード文字列に対応する共通IDをID解決部18から取得し、エンジン実行結果とともにエンジン実行結果キャッシュ部17に記憶(キャッシュ)させる(ステップS3)。
共通IDを取得した場合には、連携制御部14は、取得した共通IDを用いて回答情報を生成し(ステップS4)、後述するステップS8の処理に進む。
共通IDを未取得の場合には、連携制御部14は、画像認識エンジン3に対するエンジン実行要求を認識要求キャッシュ部15に記憶された認識要求から生成し、画像認識エンジン3に対応するエンジン実行処理部13に出力する(ステップS5)。連携制御部14は、画像認識エンジン3とバーコード検出エンジン6との直列型連携処理においては、バーコード検出エンジン6から認識結果が得られない場合に、画像認識エンジン3に対応するエンジン実行処理部13にエンジン実行要求を出力する。
画像認識エンジン3に対応するエンジン実行処理部13に出力されたエンジン実行要求は、エンジン実行処理部13において個別要求に変換され、画像認識エンジン3に送信される。そして、個別要求に応じた処理が画像認識エンジン3において実行され、実行結果が個別結果として画像認識エンジン連携装置2に送信される。画像認識エンジン3から送信された個別結果は、エンジン実行処理部13においてエンジン実行結果に変換され、連携処理部12に出力される。
連携制御部14は、エンジン実行処理部13から出力されたエンジン実行結果を取得し、エンジン実行結果キャッシュ部17に記憶(キャッシュ)させる。そして、連携制御部14は、取得したエンジン実行結果に被写体ラベルが含まれる場合、その被写体ラベルに対応する共通IDをID解決部18から取得し、エンジン実行結果とともにエンジン実行結果キャッシュ部17に記憶(キャッシュ)させる(ステップS6)。
共通IDを取得した場合には、連携制御部14は、取得した共通IDから回答情報を生成し(ステップS7)。そして、連携制御部14は、ステップS4またはステップS7で生成した回答情報を利用者端末1に送信する(ステップS8)。なお、連携制御部14は、ステップS7において、エンジン実行結果に被写体ラベルが含まれない場合には、認識結果が無いことを示す回答情報を生成し、利用者端末1に送信する。
上述したように、バーコード検出エンジン6は、画像認識エンジン3よりも認識結果の信頼性が高いエンジンである。図4を参照して説明した画像認識エンジン3とバーコード検出エンジン6との直列型連携処理では、バーコード検出エンジン6のエンジン実行結果から共通IDが得られた場合には、その共通IDを回答情報として採用し、バーコード検出エンジン6のエンジン実行結果から共通IDが得られなかった場合に、画像認識エンジン3のエンジン実行結果から得られた共通IDを回答情報として採用する。そのため、より信頼性の高いエンジンによる認識結果が優先的に回答情報に採用されるので、画像認識エンジン3を単体で用いる場合と比べて、画像中の被写体の認識精度の向上を図ることができる。
図5は、画像認識エンジン3とバーコード検出エンジン6との並列型連携処理の一例を示すフローチャートである。なお、図5において、図4と同様の処理については同じ符号を付し、説明を省略する。また、図5においては、認識要求には、画像認識エンジン3とバーコード検出エンジン6との並列型連携処理を記述した連携シナリオを示す連携シナリオ名が含まれているものとする。
連携制御部14は、利用者端末1から受信した認識要求に含まれる連携シナリオ名に対応する連携シナリオを連携シナリオ管理部16から取得する。
連携制御部14は、取得した連携シナリオに基づき、バーコード検出エンジン6に対するエンジン実行要求を認識要求キャッシュ部15に記憶された認識要求から生成し、バーコード検出エンジン6に対応するエンジン実行処理部13に出力する。また、連携制御部14は、取得した連携シナリオに基づき、画像認識エンジン3に対するエンジン実行要求を認識要求キャッシュ部15に記憶された認識要求から生成し、画像認識エンジン3に対応するエンジン実行処理部13に出力する(ステップS2a)。
バーコード検出エンジン6に対応するエンジン実行処理部13に出力されたエンジン実行要求は、個別要求に変換され、バーコード検出エンジン6に送信される。また、画像認識エンジン3に対応するエンジン実行処理部13に出力されたエンジン実行要求は、個別要求に変換され、画像認識エンジン3に送信される。そして、各エンジンにおいて、個別要求に応じた処理が実行され、実行結果が個別結果として画像認識エンジン連携装置2に送信される。バーコード検出エンジン6および画像認識エンジン3から送信された個別結果は、対応するエンジン実行処理部13においてエンジン実行結果に変換され、連携処理部12に出力される。
連携制御部14は、エンジン実行要求を出力した各エンジンのエンジン実行結果を待ち受ける。連携制御部14は、エンジン実行処理部13から出力された各エンジンのエンジン実行結果を取得し、エンジン実行結果キャッシュ部17に記憶(キャッシュ)させる。そして、連携制御部14は、取得したエンジン実行結果にバーコード文字列あるいは被写体ラベルが含まれる場合、そのバーコード文字列あるいは被写体ラベルに対応する共通IDをID解決部18から取得し、エンジン実行結果とともにエンジン実行結果キャッシュ部17に記憶(キャッシュ)させる(ステップS3a)。
共通IDを取得した場合には、連携制御部14は、取得した共通IDから回答情報を生成する。ここで、連携制御部14は、バーコード検出エンジン6のエンジン実行結果にバーコード文字列が含まれる場合には、そのバーコード文字列に対応する共通IDを用いて回答情報を生成する。また、連携制御部14は、バーコード検出エンジン6のエンジン実行結果にバーコード文字列が含まれず、画像認識エンジン3のエンジン実行結果に被写体ラベルが含まれる場合には、その被写体ラベルに対応する共通IDを用いて回答情報を生成する(ステップS4a)。なお、連携制御部14は、バーコード検出エンジン6のエンジン実行結果にバーコード文字列が含まれず、かつ、画像認識エンジン3のエンジン実行結果に被写体ラベルが含まれない場合には、認識結果が無いことを示す回答情報を生成し、利用者端末1に送信する。
上述したように、バーコード検出エンジン6は、画像認識エンジン3よりも認識結果の信頼性が高いエンジンである。図5を参照して説明した画像認識エンジン3とバーコード検出エンジン6との並列型連携処理では、バーコード検出エンジン6および画像認識エンジン3の両方にエンジン実行要求を出力し、バーコード検出エンジン6のエンジン実行結果から共通IDが得られた場合には、その共通IDを回答情報として採用し、バーコード検出エンジン6のエンジン実行結果から共通IDが得られず、画像認識エンジン3のエンジン実行結果から共通IDが得られた場合には、画像認識エンジン3のエンジン実行結果から得られた共通IDを回答情報として採用する。そのため、より信頼性の高いエンジンによる認識結果が優先的に回答情報に採用されるので、画像認識エンジン3を単体で用いる場合と比べて、画像中の被写体の認識精度の向上を図ることができる。
図6は、画像認識エンジン3と物体領域抽出エンジン7との直列型連携処理の一例を示すフローチャートである。なお、図6において、図4と同様の処理については同じ符号を付し、説明を省略する。また、図6においては、認識要求には、画像認識エンジン3と物体領域抽出エンジン7との直列型連携処理を記述した連携シナリオを示す連携シナリオ名が含まれているものとする。
連携制御部14は、利用者端末1から受信した認識要求に含まれる連携シナリオ名に対応する連携シナリオを連携シナリオ管理部16から取得する。
連携制御部14は、取得した連携シナリオに基づき、物体領域抽出エンジン7に対するエンジン実行要求を認識要求キャッシュ部15に記憶された認識要求から生成し、物体領域抽出エンジン7に対応するエンジン実行処理部13に出力する(ステップS2b)。
物体領域抽出エンジン7に対応するエンジン実行処理部13に出力されたエンジン実行要求は、個別要求に変換され、物体領域抽出エンジン7に送信される。そして、物体領域抽出エンジン7において、個別要求に応じた処理が実行され、実行結果が個別結果として画像認識エンジン連携装置2に送信される。物体領域抽出エンジン7から送信された個別結果は、エンジン実行処理部13においてエンジン実行結果に変換され、連携処理部12に出力される。
連携制御部14は、エンジン実行処理部13から出力されたエンジン実行結果を取得し、エンジン実行結果キャッシュ部17に記憶(キャッシュ)させる(ステップS3b)。そして、連携制御部14は、取得したエンジン実行結果に物体領域の抽出結果が1つ以上含まれる場合には、物体領域抽出エンジン7のエンジン実行結果に基づき、認識要求キャッシュ部15に記憶された認識要求に含まれる入力画像を加工する(ステップS9)。具体的には、連携制御部14は、認識要求に含まれる入力画像を、物体領域の四隅座標でトリミングした画像を新たな入力画像とする。
次に、連携制御部14は、画像認識エンジン3に対するエンジン実行要求を生成し、画像認識エンジン3に対応するエンジン実行処理部13に出力する。ここで、連携制御部14は、物体領域の四隅座標でトリミングした加工後の入力画像を用いてエンジン実行要求を生成する(ステップS5b)。なお、連携制御部14は、物体領域抽出エンジン7のエンジン実行結果に物体領域が含まれない場合には、認識要求に含まれる入力画像を用いてエンジン実行要求を生成する。
画像認識エンジン3に対応するエンジン実行処理部13に出力されたエンジン実行要求は、個別要求に変換され、画像認識エンジン3に送信される。そして、画像認識エンジン3において、個別要求に応じた処理が実行され、実行結果が個別結果として画像認識エンジン連携装置2に送信される。画像認識エンジン3から送信された個別結果は、エンジン実行処理部13においてエンジン実行結果に変換され、連携処理部12に出力される。
連携制御部14は、図4を参照して説明したように、エンジン実行処理部13から出力されたエンジン実行結果に被写体ラベルが含まれる場合、その被写体ラベルに対応する共通IDを取得し、取得した共通IDを用いて回答情報を生成して、利用者端末1に送信する(ステップS6〜S8)。
画像認識処理においては、入力画像全体の画像特徴量と、データベース(参照画像を記憶するデータベース)に登録された被写体の画像の画像特徴量とに対して照合が行われる。そのため、入力画像に複数の被写体が映り込んでいる場合、照合対象の被写体と異なる被写体の画像特徴量がノイズとなって類似度が低下し、誤認識の可能性が高くなる。
図6を参照して説明した画像認識エンジン3と物体領域抽出エンジン7との直列型連携処理では、画像中の被写体を含むと想定される物体領域を抽出する物体領域抽出エンジン7への、入力画像中の物体領域の問い合わせ処理(エンジン実行要求の出力)と、問い合わせ処理に応じた物体領域抽出エンジン7による物体領域の抽出結果の受け付け処理(エンジン実行結果の取得)とが含まれる。そして、連携制御部14は、物体領域抽出エンジン7による物体領域の抽出結果に基づき、入力画像をトリミングした画像を画像認識エンジン3に入力する(入力画像をトリミングした画像を含むエンジン実行要求を出力する)。
入力画像から被写体を含む可能性が高い(被写体を含むと想定される)部分領域を抽出して画像認識エンジン3への入力とすることで、複数の被写体が映り込んだ画像や、背景部分が多い画像をそのまま画像認識エンジン3に入力する場合に比べて、画像中の被写体の認識精度の向上を図ることができる。
図7は、画像認識エンジン4,5と位置推定エンジン8との並列型連携処理の一例を示すフローチャートである。なお、図7において、図4と同様の処理については同じ符号を付し、説明を省略する。また、図7においては、認識要求には、画像認識エンジン4,5と位置推定エンジン8との並列型連携処理を記述した連携シナリオを示す連携シナリオ名が含まれているものとする。
連携制御部14は、利用者端末1から受信した認識要求に含まれる連携シナリオ名に対応する連携シナリオを連携シナリオ管理部16から取得する。
連携制御部14は、取得した連携シナリオに基づき、位置推定エンジン8に対するエンジン実行要求を認識要求キャッシュ部15に記憶された認識要求から生成し、位置推定エンジン8に対応するエンジン実行処理部13に出力する。また、連携制御部14は、取得した連携シナリオに基づき、画像認識エンジン4に対するエンジン実行要求を認識要求から生成し、画像認識エンジン4に対応するエンジン実行処理部13に出力する。また、連携制御部14は、取得した連携シナリオに基づき、画像認識エンジン5に対するエンジン実行要求を認識要求から生成し、画像認識エンジン5に対応するエンジン実行処理部13に出力する(ステップS2c)。
位置推定エンジン8に対応するエンジン実行処理部13に出力されたエンジン実行要求は、個別要求に変換され、位置推定エンジン8に送信される。また、画像認識エンジン4に対応するエンジン実行処理部13に出力されたエンジン実行要求は、個別要求に変換され、画像認識エンジン4に送信される。また、画像認識エンジン5に対応するエンジン実行処理部13に出力されたエンジン実行要求は、個別要求に変換され、画像認識エンジン5に送信される。そして、各エンジンにおいて、個別要求に応じた処理が実行され、実行結果が個別結果として画像認識エンジン連携装置2に送信される。位置推定エンジン8および画像認識エンジン4,5から送信された個別結果は、対応するエンジン実行処理部13においてエンジン実行結果に変換され、連携処理部12に出力される。
連携制御部14は、エンジン実行要求を出力した各エンジンのエンジン実行結果を待ち受ける。連携制御部14は、エンジン実行処理部13から出力された各エンジンのエンジン実行結果を取得し、エンジン実行結果キャッシュ部17に記憶(キャッシュ)させる。そして、連携制御部14は、画像認識エンジン4のエンジン実行結果に被写体ラベルが含まれる場合、その被写体ラベルに対応する共通IDをID解決部18から取得し、エンジン実行結果とともにエンジン実行結果キャッシュ部17に記憶(キャッシュ)させる。また、連携制御部14は、画像認識エンジン5のエンジン実行結果に被写体ラベルが含まれる場合、その被写体ラベルに対応する共通IDをID解決部18から取得し、エンジン実行結果とともにエンジン実行結果キャッシュ部17に記憶(キャッシュ)させる(ステップS3c)。
次に、連携制御部14は、位置推定エンジン8のエンジン実行結果および画像認識エンジン4,5のエンジン実行結果から得られた共通IDを用いて回答情報を生成する。具体的には、連携制御部14は、位置推定エンジン8のエンジン実行結果に含まれる地名情報が「東京駅」を示し、かつ、東京駅構内看板画像DB10に記録された画像を参照する画像認識エンジン4のエンジン実行結果から共通IDを取得した場合、その共通IDから回答情報を生成する。また、連携制御部14は、位置推定エンジン8のエンジン実行結果に含まれる地名情報が「大阪駅」を示し、かつ、大阪駅構内看板画像DB11に記録された画像を参照する画像認識エンジン5のエンジン実行結果から共通IDを取得した場合、その共通IDから回答情報を生成する。また、連携制御部14は、位置推定エンジン8のエンジン実行結果に含まれる地名情報が「東京駅」を示すものでも、「大阪駅」を示すものでもない場合、信頼度のスコアが高い方の画像認識エンジンのエンジン実行結果から得られた共通IDを用いて回答情報を生成する(ステップS4c)。連携制御部14は、画像認識エンジン4のエンジン実行結果にも、画像認識エンジン5のエンジン実行結果にも被写体ラベルが含まれない場合には、認識結果が無いことを示す回答情報を生成する。
なお、図7においては、位置推定エンジン8のエンジン実行結果に含まれる地名情報が「東京駅」を示す場合には、画像認識エンジン4のエンジン実行結果から取得した共通IDを用いて回答情報を生成し、「大阪駅」を示す場合には、画像認識エンジン5のエンジン実行結果から取得した共通IDを用いて回答情報を生成している。すなわち、位置推定エンジン8のエンジン実行結果に含まれる地名情報に応じて、画像認識エンジン4の推定結果の信頼度と、画像認識エンジン5の推定結果の信頼度とに重み付けを行っている。この重み付けは、付帯情報推定エンジンにより推定される付帯情報などに応じて、適宜、設定することができる。
一般に、異なる被写体であっても画像特徴量が類似している画像は、画像特徴量のみを用いた画像認識処理では誤認識する可能性が高い。例えば、異なる駅の構内看板を画像特徴量の類似のみで区別することは困難である。
図7を参照して説明した画像認識エンジン4,5と位置推定エンジン8との並列型連携処理では、画像を撮影する機能を有する利用者端末1により画像が撮影された際の付帯情報を推定する付帯情報推定エンジン(位置推定エンジン8)への、被写体の認識が要求された画像の付帯情報(地名情報)の問い合わせ処理(エンジン実行要求の出力)と、問い合わせ処理に応じた位置推定エンジン8による画像の付帯情報の推定結果の受け付け処理(エンジン実行結果の取得)とがさらに含まれる。そして、連携制御部14は、位置推定エンジン8による地名情報の推定結果に基づき、複数のエンジン(画像認識エンジン4,5)による認識結果の信頼度に対する重み付けを行い、最も信頼度の高い認識結果を採用する。
付帯情報(図7の例では、位置推定エンジン8によって推定された位置)の推定結果に基づき、複数のエンジン(画像認識エンジン4,5)による認識結果の信頼度に対する重み付けを行うことで、画像特徴量が類似する被写体を画像認識エンジンだけで認識する場合に比べて、画像中の被写体の認識精度の向上を図ることができる。
なお、上述した図4から図7においては、連携シナリオが、直列型連携処理あるいは並列型連携処理を記述したものである例を用いて説明したが、これに限られるものではない。連携シナリオは、直列型連携処理と並列型連携処理とを組み合わせたものであってもよい。例えば、画像認識システム100が、画像認識エンジン3,4,5とは異なる手法により画像認識を行うエンジン(例えば、電子透かしを用いた画像認識を行うエンジン)をさらに備える場合、直列型連携処理と並列型連携処理とを組み合わせた連携シナリオを用いることが考えられる。この場合、例えば、まず、画像認識エンジン3とバーコード検出エンジン6との直列型連携処理が行われ、バーコード検出エンジン6から認識結果が得られなかった場合、画像認識エンジン3と画像認識エンジン3とは異なる手法により画像認識を行うエンジンとの並列型連携処理が行われる。こうすることで、バーコード検出エンジン6から認識結果が得られなかった場合、手法の異なる複数の画像解析エンジンの並列型連携処理が行われることで、画像中の被写体の認識精度の向上を図ることができる。
このように本実施形態においては、画像認識エンジン連携装置2は、画像中の被写体の認識を行う画像認識エンジン3,4,5、および、画像認識エンジン3,4,5とは異なる画像解析手法により、画像中の被写体の認識を行う異種エンジン(バーコード検出エンジン6)を含む複数のエンジンへの、入力画像中の被写体の問い合わせ処理と、問い合わせ処理に応じたエンジンによる被写体の認識結果の受け付け処理とを含むエンジン連携処理を実行する連携処理部12を有する。連携処理部12は、エンジン連携処理を連携シナリオとして管理する。そして、連携シナリオは、被写体の認識結果の信頼性が高いエンジンから順に問い合わせ処理を行い、信頼性が高いエンジンから認識結果が得られない場合に、他のエンジンに問い合わせ処理を行う直列型連携処理と、複数のエンジンに同時に問い合わせを処理を行い、複数のエンジンの認識結果のうち、最も信頼性の高い認識結果を採用する並列型連携処理と、直列型連携処理と並列型連携処理との組み合わせとを含む。
直列型連携処理、並列型連携処理あるいはこれらの組み合わせとして規定される連携シナリオによって、画像認識エンジン3,4,5に加え、画像認識エンジン3,4,5とは異なる画像解析手法により、画像中の被写体の認識を行う異種エンジン(バーコード検出エンジン6)への問い合わせ処理と、認識結果の受け付け処理とが行われるので、画像認識エンジン3,4,5単体での画像認識に比べて、画像中の被写体の認識精度の向上を図ることができる。
なお、実施形態では特に触れていないが、画像認識エンジン連携装置2が行う各処理をコンピュータに実行させるプログラムが提供されてもよい。また、プログラムは、コンピュータ読取り可能媒体に記録されていてもよい。コンピュータ読取り可能媒体を用いれば、コンピュータにインストールすることが可能である。ここで、プログラムが記録されたコンピュータ読取り可能媒体は、非一過性の記録媒体であってもよい。非一過性の記録媒体は、特に限定されるものではないが、例えば、CD−ROMやDVD−ROMなどの記録媒体であってもよい。
あるいは、画像認識エンジン連携装置2が行う各処理を実行するためのプログラムは記憶するメモリおよびメモリに記憶されたプログラムを実行するプロセッサによって構成され、画像認識エンジン連携装置2に搭載されるチップが提供されてもよい。
本発明を図面および実施形態に基づき説明してきたが、当業者であれば本開示に基づき種々の変形または修正を行うことが容易であることに注意されたい。したがって、これらの変形または修正は本発明の範囲に含まれることに留意されたい。例えば、各ブロックなどに含まれる機能などは論理的に矛盾しないように再配置可能であり、複数のブロックを1つに組み合わせたり、或いは分割したりすることが可能である。
1 利用者端末
2 画像認識エンジン連携装置
3,4,5 画像認識エンジン
6 バーコード検出エンジン
7 物体領域抽出エンジン
8 位置推定エンジン
9 商品画像DB
10 東京駅構内看板画像DB
11 大阪駅構内看板画像DB
12 連携処理部
13 エンジン実行処理部
14 連携制御部
15 認識要求キャッシュ部
16 連携シナリオ管理部
17 エンジン実行結果キャッシュ部
18 ID解決部
19 実行制御部
20 個別要求生成部
21 個別結果変換部
100 画像認識システム

Claims (4)

  1. 画像中の被写体の認識を行う画像認識エンジン、および、前記画像認識エンジンとは異なる画像解析手法により、画像中の被写体の認識を行う異種エンジンを含む複数のエンジンへの、入力画像中の被写体の問い合わせ処理と、前記問い合わせ処理に応じたエンジンによる被写体の認識結果の受け付け処理とを含むエンジン連携処理を実行する連携処理部を有し、
    前記連携処理部は、前記エンジン連携処理を連携シナリオとして管理し、
    前記連携シナリオは、
    被写体の認識結果の信頼性が高いエンジンから順に前記問い合わせ処理を行い、前記信頼性が高いエンジンから認識結果が得られない場合に、他のエンジンに前記問い合わせ処理を行う直列型連携処理と、
    前記複数のエンジンに同時に前記問い合わせを処理を行い、前記複数のエンジンの認識結果のうち、最も信頼性の高い認識結果を採用する並列型連携処理と、
    前記直列型連携処理と前記並列型連携処理との組み合わせと、を含むことを特徴とする画像認識エンジン連携装置。
  2. 請求項1に記載の画像認識エンジン連携装置において、
    前記エンジン連携処理には、画像中の被写体を含むと想定される物体領域を抽出する領域抽出エンジンへの、前記入力画像中の前記物体領域の問い合わせ処理と、前記問い合わせ処理に応じた前記領域抽出エンジンによる前記物体領域の抽出結果の受け付け処理とがさらに含まれ、
    前記連携処理部は、前記直列型連携処理において、前記領域抽出エンジンによる前記物体領域の抽出結果に基づき、前記入力された画像をトリミングした画像を前記画像認識エンジンに入力することを特徴とする画像認識エンジン連携装置。
  3. 請求項1または2に記載の画像認識エンジン連携装置において、
    前記エンジン連携処理には、画像を撮影する機能を有する利用者端末により前記入力画像が撮影された際の付帯情報を推定する付帯情報推定エンジンへの、前記入力画像の付帯情報の問い合わせ処理と、前記問い合わせ処理に応じた前記付帯情報推定エンジンによる前記画像の付帯情報の推定結果の受け付け処理とがさらに含まれ、
    前記連携処理部は、前記並列型連携処理において、前記付帯情報推定エンジンによる前記入力画像の付帯情報の推定結果に基づき、前記複数のエンジンによる認識結果の信頼度に対する重み付けを行い、最も信頼度の高い認識結果を採用することを特徴とする画像認識エンジン連携装置。
  4. コンピュータを請求項1から3のいずれか一項に記載の画像認識装置として機能させるためのプログラム。
JP2017081729A 2017-04-18 2017-04-18 画像認識エンジン連携装置およびプログラム Active JP6807268B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017081729A JP6807268B2 (ja) 2017-04-18 2017-04-18 画像認識エンジン連携装置およびプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017081729A JP6807268B2 (ja) 2017-04-18 2017-04-18 画像認識エンジン連携装置およびプログラム

Publications (2)

Publication Number Publication Date
JP2018181081A true JP2018181081A (ja) 2018-11-15
JP6807268B2 JP6807268B2 (ja) 2021-01-06

Family

ID=64275632

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017081729A Active JP6807268B2 (ja) 2017-04-18 2017-04-18 画像認識エンジン連携装置およびプログラム

Country Status (1)

Country Link
JP (1) JP6807268B2 (ja)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021060630A (ja) * 2019-10-02 2021-04-15 キヤノン株式会社 中間サーバ装置、情報処理装置、通信方法
WO2021112234A1 (ja) * 2019-12-06 2021-06-10 京セラ株式会社 情報処理システム、情報処理装置及び情報処理方法
JP2021092826A (ja) * 2019-12-06 2021-06-17 京セラ株式会社 情報処理システム、情報処理装置、および情報処理方法
JP2021099629A (ja) * 2019-12-20 2021-07-01 京セラ株式会社 情報処理システム、情報処理装置及び情報処理方法
JP2021103349A (ja) * 2019-12-24 2021-07-15 京セラ株式会社 情報処理システム、情報処理装置及び情報処理方法
US11228803B1 (en) * 2020-09-24 2022-01-18 Innopia Technologies, Inc. Method and apparatus for providing of section divided heterogeneous image recognition service in a single image recognition service operating environment
JP7431370B1 (ja) 2023-04-19 2024-02-14 株式会社日立パワーソリューションズ 用役管理装置およびプログラム

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06203192A (ja) * 1992-12-28 1994-07-22 Dainippon Printing Co Ltd カード識別処理システム
JP2002140706A (ja) * 2000-11-01 2002-05-17 Mitsubishi Heavy Ind Ltd 画像識別装置および画像データ処理装置
JP2006018706A (ja) * 2004-07-05 2006-01-19 Nippon Telegr & Teleph Corp <Ntt> 被写体識別器設定装置、その設定方法とその設定プログラム、および被写体識別装置、その識別方法とその識別プログラム
JP2013501975A (ja) * 2009-08-07 2013-01-17 グーグル インコーポレイテッド 視覚クエリに応答するためのアーキテクチャ

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06203192A (ja) * 1992-12-28 1994-07-22 Dainippon Printing Co Ltd カード識別処理システム
JP2002140706A (ja) * 2000-11-01 2002-05-17 Mitsubishi Heavy Ind Ltd 画像識別装置および画像データ処理装置
JP2006018706A (ja) * 2004-07-05 2006-01-19 Nippon Telegr & Teleph Corp <Ntt> 被写体識別器設定装置、その設定方法とその設定プログラム、および被写体識別装置、その識別方法とその識別プログラム
JP2013501975A (ja) * 2009-08-07 2013-01-17 グーグル インコーポレイテッド 視覚クエリに応答するためのアーキテクチャ

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021060630A (ja) * 2019-10-02 2021-04-15 キヤノン株式会社 中間サーバ装置、情報処理装置、通信方法
JP7379059B2 (ja) 2019-10-02 2023-11-14 キヤノン株式会社 中間サーバ装置、情報処理装置、通信方法
WO2021112234A1 (ja) * 2019-12-06 2021-06-10 京セラ株式会社 情報処理システム、情報処理装置及び情報処理方法
JP2021092826A (ja) * 2019-12-06 2021-06-17 京セラ株式会社 情報処理システム、情報処理装置、および情報処理方法
JP7316203B2 (ja) 2019-12-06 2023-07-27 京セラ株式会社 情報処理システム、情報処理装置、および情報処理方法
JP2021099629A (ja) * 2019-12-20 2021-07-01 京セラ株式会社 情報処理システム、情報処理装置及び情報処理方法
JP2021103349A (ja) * 2019-12-24 2021-07-15 京セラ株式会社 情報処理システム、情報処理装置及び情報処理方法
JP7381330B2 (ja) 2019-12-24 2023-11-15 京セラ株式会社 情報処理システム、情報処理装置及び情報処理方法
US11228803B1 (en) * 2020-09-24 2022-01-18 Innopia Technologies, Inc. Method and apparatus for providing of section divided heterogeneous image recognition service in a single image recognition service operating environment
JP7431370B1 (ja) 2023-04-19 2024-02-14 株式会社日立パワーソリューションズ 用役管理装置およびプログラム

Also Published As

Publication number Publication date
JP6807268B2 (ja) 2021-01-06

Similar Documents

Publication Publication Date Title
JP2018181081A (ja) 画像認識エンジン連携装置およびプログラム
JP2020509633A5 (ja)
JP2018526698A5 (ja)
CN105246039B (zh) 一种基于图像处理的室内定位方法及系统
US20160063429A1 (en) Apparatus and method for performing an item picking process
US20170055118A1 (en) Location and activity aware content delivery system
CN102402568A (zh) 提供增强现实的方法和设备
US11315430B2 (en) System, program, and method for detecting information on a person from a video of an on-vehicle camera
US20150106373A1 (en) Generating search database based on earth&#39;s magnetic field measurements
Heya et al. Image processing based indoor localization system for assisting visually impaired people
TWI683123B (zh) 位置測量用終端裝置、電腦程式及位置測量系統
KR20080088434A (ko) 탐색 시스템, 탐색 시스템의 관리 서버, 탐색 시스템의이동 통신 장치, 탐색 방법 및 프로그램을 기록한 컴퓨터로판독가능한 기록 매체
KR102107208B1 (ko) 네트워크를 통한 오프라인 매장 정보 제공 방법 및 이에 사용되는 관리 서버
CN105681613A (zh) 多网协同追踪预警方法及系统
CN111294552A (zh) 图像采集设备确定方法及装置
KR101954800B1 (ko) 위치 확인 서비스 시스템, 그 시스템에서의 영상을 이용한 위치정보 제공 방법, 이를 위한 서비스장치 및 이를 위한 단말장치
JP2015153324A (ja) 情報検索装置、情報検索方法及び情報検索プログラム
US9723440B2 (en) Prioritized activity based location aware content delivery system
TW202004551A (zh) 攝像裝置、影像處理系統及方法
TWM453928U (zh) 停車場車位尋找系統
JP2010044630A (ja) 建築物関連情報提供システム
CN114241620B (zh) 一种数据采集方法、装置、电子设备及存储介质
US10488488B2 (en) Systems and methods for estimating a geographical location of an unmapped object within a defined environment
JP2023135715A (ja) 計測端末装置
JP2007074657A (ja) 画像記録システムおよび画像記録方法

Legal Events

Date Code Title Description
A80 Written request to apply exceptions to lack of novelty of invention

Free format text: JAPANESE INTERMEDIATE CODE: A80

Effective date: 20170425

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181106

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190918

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191008

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191202

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20200421

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200716

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20200716

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20200728

C21 Notice of transfer of a case for reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C21

Effective date: 20200729

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200910

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201105

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20201203

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20201207

R150 Certificate of patent or registration of utility model

Ref document number: 6807268

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150