JP6433928B2 - 検索装置、検索方法および検索システム - Google Patents

検索装置、検索方法および検索システム Download PDF

Info

Publication number
JP6433928B2
JP6433928B2 JP2016025593A JP2016025593A JP6433928B2 JP 6433928 B2 JP6433928 B2 JP 6433928B2 JP 2016025593 A JP2016025593 A JP 2016025593A JP 2016025593 A JP2016025593 A JP 2016025593A JP 6433928 B2 JP6433928 B2 JP 6433928B2
Authority
JP
Japan
Prior art keywords
object data
information
search
unit
specific information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016025593A
Other languages
English (en)
Other versions
JP2017146644A (ja
Inventor
浜田 伸一郎
伸一郎 浜田
邦男 長田
邦男 長田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Toshiba Digital Solutions Corp
Original Assignee
Toshiba Corp
Toshiba Digital Solutions Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp, Toshiba Digital Solutions Corp filed Critical Toshiba Corp
Priority to JP2016025593A priority Critical patent/JP6433928B2/ja
Priority to SG10201700584XA priority patent/SG10201700584XA/en
Priority to US15/415,968 priority patent/US11347739B2/en
Publication of JP2017146644A publication Critical patent/JP2017146644A/ja
Application granted granted Critical
Publication of JP6433928B2 publication Critical patent/JP6433928B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/24Querying
    • G06F16/245Query processing
    • G06F16/2455Query execution
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/28Databases characterised by their database models, e.g. relational or object models
    • G06F16/284Relational databases
    • G06F16/285Clustering or classification

Description

本発明の実施形態は、検索装置、検索方法および検索システムに関する。
街中等に設置された監視映像群等を活用した、迷子および容疑者などの行方不明者の捜索ソリューションが実用化されつつある。例えば、行方不明者の顔や全身像などの画像を手掛かりとして、蓄積された監視映像群の中から、類似画像パタンを探し出す技術が提案されている。
特開2006−221355号公報
しかしながら、従来技術では、例えば、行方不明者自身ではない、事案や事件に関与した関係者を捜索することができなかった。
実施形態の検索装置は、検索部と取得部と選択部とを含む。検索部は、オブジェクトを特定する特定情報と、時刻および位置の少なくとも一方である属性情報と、を対応づけたオブジェクトデータを記憶する記憶部から、指定された特定情報と一致または類似する特定情報を含む第1オブジェクトデータを検索する。取得部は、第1オブジェクトデータに含まれる属性情報と一致または類似する属性情報を含み、第1オブジェクトデータに含まれる特定情報と異なる特定情報を含む1以上の第2オブジェクトデータを記憶部から取得する。選択部は、第2オブジェクトデータのうち1つを選択する。検索部は、選択された第2オブジェクトデータに含まれる特定情報を指定された特定情報として、第1オブジェクトデータをさらに検索する。
図1は、第1の実施形態にかかる検索システムの構成例を示すブロック図である。 図2は、第1の実施形態のオブジェクトデータの例を示す図である。 図3は、第1の実施形態のオブジェクトデータの例を示す図である。 図4は、第1の実施形態のオブジェクトデータの例を示す図である。 図5は、第1の実施形態における連想検索処理の一例を示すフローチャートである。 図6は、第1の実施形態の検索処理の一例を示すフローチャートである。 図7は、第1の実施形態のクエリ候補取得処理の一例を示すフローチャートである。 図8は、第1の実施形態のフィルタ処理の一例を示すフローチャートである。 図9は、第1の実施形態の地図表示処理の一例を示すフローチャートである。 図10は、第1の実施形態の表示画面の一例を示す図である。 図11は、第1の実施形態のオブジェクト関係図の例を示す図である。 図12は、第1の実施形態の生成処理の一例を示すフローチャートである。 図13は、第2の実施形態にかかる検索装置の構成の一例を示すブロック図である。 図14は、第2の実施形態のオブジェクトデータの例を示す図である。 図15は、第2の実施形態における検索処理の一例を示すフローチャートである。 図16は、第2の実施形態におけるクエリ候補取得処理の一例を示すフローチャートである。 図17は、第2の実施形態におけるフィルタ処理の一例を示すフローチャートである。 図18は、第2の実施形態のフィルタ処理の他の例を示すフローチャートである。 図19は、第2の実施形態の表示画面の一例を示す図である。 図20は、第2の実施形態のオブジェクト関係図の一例を示す図である。 図21は、第1または第2の実施形態にかかる装置のハードウェア構成例を示す説明図である。
以下に添付図面を参照して、この発明にかかる検索システムの好適な実施形態を詳細に説明する。
上記のように、従来の技術では、行方不明者自身ではない、関係者を捜索することができなかった。例えば、迷子の事案が児童誘拐事件だった場合、誘拐犯が児童をフードなどで覆い隠すなどの処置を施すと、犯人接触後の児童の足取りは追跡困難となる。この場合、児童に接触した誘拐犯自身の足取りを追跡する必要がある。別の例として、事件発生直後の容疑者の足取り追跡においては、グループや組織による犯罪の可能性を想定し、関与している人物の存在確認および追跡を行うニーズがある。
以下の各実施形態にかかる検索システムは、位置(位置情報)および時刻(時刻情報)の少なくとも一方である属性情報が対応づけられるデータ群を対象とした連想検索を可能とする。検索対象とするデータをオブジェクトデータという場合がある。連想検索は、通常検索機能、連想的クエリ提示機能、および、芋づる検索機能を含む。各機能の詳細は後述する。連想検索により、行方不明者自身ではない関係者を捜索することが可能となる。
次に、連想検索の各機能の例について説明する。以下では、画像パタンとは、検索対象となる画像領域を示す。顔画像検索の場合、画像中に含まれる顔領域が画像パタンとなる。画像パタンは、1画像中に複数含まれていてもよい。
(1)通常検索機能
ユーザなどにより外部から与えられた画像パタンをクエリとして、位置情報が付与されている画像群に対し類似画像検索を行う。検索結果として得られた各画像パタンについて、その画像パタンと、その画像パタンが属する画像とを、画像に付与されている位置情報に基づいて地図に配置する。
(2)連想的クエリ提示機能
(2−1)検索結果の各画像パタンを含む画像(第1画像)群に含まれる各画像について、位置的に近傍となる画像(第2画像)群を検索する。
(2−2)第2画像群を、画像に付与されている位置情報に基づいて地図に配置する。
(2−3)第1画像群および第2画像群に含まれる画像パタン群を検出して得られた画像パタン群のうち、通常検索結果の画像パタンでないものを、ユーザが選択できる連想的クエリとして提示する。
(2−4)手順(2−3)で提示した画像パタンのいずれかに対するユーザ選択操作(例えばクリックなど)を受け取り、選択操作で選択された画像パタンを連想的クエリとする。
(3)芋づる検索機能
処理(2)で指定された連想的クエリを入力として処理(1)に戻る。これにより、ユーザが所望する回数だけ反復的な芋づる検索を行うことが可能となる。
上記例では、位置情報に基づいて位置的に近傍となる画像群を検索した。すなわち、位置情報を属性情報として、位置情報が示す位置が一致または類似する画像群を検索した。属性情報は位置情報のみに限られず、例えば、時刻を示す時刻情報を属性情報としてもよいし、時刻情報と位置情報とを属性情報としてもよい。
属性情報が一致または類似とは、例えば、複数の属性情報間の差分が閾値より小さいことを示す。属性情報が位置情報の場合であれば、位置が一致または類似するとは、複数の位置間の差分(距離)が閾値より小さいことを示す。属性情報が時刻情報の場合は、時刻が一致または類似するとは、複数の時刻間の差分が閾値より小さいことを示す。位置情報と時刻情報の両者を用いる場合は、属性情報が一致または類似とは、両者それぞれで差分が閾値より小さいことを示す。
属性情報に含まれる時刻情報と位置情報のそれぞれの類似度の重み付け加算した値を属性情報の類似度としてもよい。この場合、時刻情報と位置情報のうち一方の重みを0にすれば、他方のみを属性情報として考慮させることができる。
また各実施形態では、上記の連想検索の各機能に加えた発展的機能として、芋づる検索の履歴(例えば誰を元にさらに誰を探したか)を用いて、人間関係ネットワークを構築し、当該ネットワークを可視化する機能を提供する。
検索システムの適用範囲は人物捜索に限られない。例えば車および犬など任意の移動オブジェクトの追跡にも応用可能である。検索対象となるデータ(オブジェクトデータ)群は、例えば監視カメラにより撮像された画像データ群(静止画、動画など)であるが、これに限られるものではない。例えば、ジオタグなどの位置情報が付与されたツイートデータなどをオブジェクトデータ群として用いてもよい。オブジェクトデータは、例えば随時記録される画像データまたはツイートデータなどのログデータであるが、これに限られるものではない。
上記のように、属性情報は、時刻および位置の少なくとも一方でよい。時刻のみを属性情報として用いる場合は、時間軸上で近傍となるデータ群を検索するように構成すればよい。位置のみを属性情報として用いる場合は、特定の空間上で近傍となるデータ群を検索するように構成すればよい。特定の空間は、例えば緯度および経度などで表される現実の空間(ユークリッド空間など)であるが、これに限られるものではない。例えば、道路網を示す空間、鉄道網を示す空間、コンピュータネットワークを示す空間、および、コンピュータ等を用いて構成された仮想空間などを用いてもよい。
以上のように、実施形態の検索システムは、オブジェクトデータの検索により、空間を移動するオブジェクトを追跡可能とするシステムである。実施形態の検索システムは、さらに時空間上の近傍性をヒントに関連性の高いオブジェクトをインタラクティブかつ芋づる的に発見する機能を備える。仕組みの汎用性については、実施形態の中で具体的に説明する。
以下では、ラベルありオブジェクトを対象とした検索システム(第1の実施形態)と、ラベルなしオブジェクトを対象とした検索システム(第2の実施形態)との2種類に分けて説明する。ラベルとはオブジェクトを識別するための名前およびIDなどの識別情報である。
(第1の実施形態)
本実施形態は、ラベルありオブジェクトを対象とした検索システムである。追跡対象がラベルありオブジェクトとなる応用例として以下が挙げられる。
・テーマパークおよび工場などの、入場者が管理されたエリアでの監視画像による人物追跡
・位置情報が付与されたユーザ発信情報(例:ジオタグ付ツイート、位置情報ゲームのプレイログ情報)に基づく人物追跡
・カーナンバー認識などを伴う高速道路等での車の追跡
以下では、監視画像による人物追跡の例を中心に説明し、他の応用例については補足的に説明する。
図1は、本実施形態にかかる検索システムの構成例を示すブロック図である。図1に示すように、本実施形態の検索システムは、検索装置100と、カメラ201、202と、携帯電話203と、PC(パーソナルコンピュータ)204と、サーバ装置300と、PC500と、ネットワーク601、602と、を備えている。
ネットワーク601は、検索装置100と、カメラ201、202と、携帯電話203と、PC204と、サーバ装置300と、を接続する。ネットワーク602は、検索装置100と、PC500とを接続する。図1のネットワーク構成は一例であり、これに限られるものではない。例えば、ネットワーク601、602を統合してもよいし、これらの少なくとも一方をさらに複数のネットワークに分割してもよい。ネットワーク601、602は、インターネット、および、LAN(ローカルエリアネットワーク)などの任意のネットワーク形態により構成できる。
カメラ201、202は、人物11、12などを撮像する、例えば監視カメラなどの撮像装置である。カメラ201、202は、それぞれ送信部201a、202aを備えている。送信部201a、202aは、撮像した画像などのオブジェクトデータをネットワーク601に向けて送信する。カメラ202のように、撮像した画像を一時的に記憶する記憶部221が備えられていてもよい。送信されたオブジェクトデータは、監視システムなどに送信されて記憶されてもよい。
携帯電話203、および、PC204は、例えばツイートデータなどのオブジェクトデータをサーバ装置300などに送信する情報処理装置である。オブジェクトデータを送信する装置であれば、携帯電話やPC以外の情報処理装置を適用してもよい。携帯電話203、および、PC204は、オブジェクトデータを送信する送信部203a、204aをそれぞれ備えている。
サーバ装置300は、例えばツイートデータを共有するサービスを提供する装置である。サーバ装置300は、記憶部321を備えている。記憶部321は、サービスのユーザ(例えば人物13、14)が使用する情報処理装置(携帯電話203、PC204等)から送信されたツイートデータなどを記憶する。
PC500は、検索装置100の連想検索を利用するための情報処理装置の例である。例えばPC500は、ユーザである人物15により入力された、検索するオブジェクト(追跡する人物など)の特定情報を検索装置100に送信し、特定情報に基づく検索結果を検索装置100から受け取る。検索結果は、PC500の表示装置などに表示されてもよい。
特定情報は、オブジェクトを特定する情報である。本実施形態のようにラベルありの場合は、ラベル(オブジェクトを識別する識別情報)を特定情報としてもよい。なおラベルなしの場合は、例えば、オブジェクトの特徴を表す特徴情報を特定情報とすることができる。
検索装置100は、記憶部121と、表示部122と、検索部101と、取得部102と、分類部103と、選択部104と、表示制御部105と、生成部106と、を備えている。
記憶部121は、検索装置100による各種処理で用いる各種データを記憶する。例えば記憶部121は、オブジェクトの特定情報と属性情報とを対応づけたオブジェクトデータを記憶する。
図2〜図4は、オブジェクトデータの例を示す図である。図2〜図4では、時刻と、緯度および経度である位置情報と、を属性情報とする例が示されている。図2、図3、および、図4は、それぞれ氏名、ログインID、および、カーナンバーをラベル(特定情報)とする例である。
図2は、テーマパークおよび工場内など、入場者が管理されたエリアでの監視画像による人物追跡を行う応用でのログデータの例を示している。例えば、敷地内などに設置された各監視カメラによって撮影された画像の中から、人物の顔が検出および認識される。撮影時刻、撮影位置(緯度、経度)、顔認識の結果得られた氏名、および、抽出された顔画像を含むログデータが、テーブルのレコードとして蓄積される。
図3は、位置情報が付与されたユーザ発信情報(例:ジオタグ付ツイート、位置情報ゲームのプレイログ情報)に基づく人物追跡を行う応用でのログデータの例を示している。例えば、ツイートデータを共有するサービスに投稿されたジオタグ付のメッセージ群を元に、メッセージの投稿時刻、投稿位置(緯度、経度)、投稿ユーザのログインID、および、投稿メッセージを含むログデータが、テーブルのレコードとして蓄積される。
図4は、カーナンバー認識などを伴う高速道路等での車の追跡を行う応用でのログデータの例を示している。例えば、ゲートなどに設置された各監視カメラによって撮影された画像の中から、ナンバープレートが検出および認識される。撮影時刻、撮影位置(緯度、経度)、ナンバープレート認識結果として得られたカーナンバー、および、抽出された車両画像を含むログデータが、テーブルのレコードとして蓄積される。
図2〜図4に示すように、オブジェクトデータは、ラベルとして利用できる氏名、ログインID、および、カーナンバーなどを含む。またオブジェクトデータは、抽出された顔画像、メッセージ、および、抽出された車両画像などをオブジェクトのコンテンツとして含む。本実施形態の検索ステムは、時刻、位置、および、ラベルを用いたアルゴリズムを用いるため、いずれのオブジェクトデータであっても処理可能である。以下では、主に図2に示すような顔認識のログデータを用いた人物追跡への応用を例に説明する。
記憶部121は、例えば、管理者などの指定に応じて、または、定期的にサーバ装置300の記憶部321などから収集されたオブジェクトデータを記憶してもよい。
なお、記憶部121、321は、HDD(Hard Disk Drive)、光ディスク、メモリカード、RAM(Random Access Memory)などの一般的に利用されているあらゆる記憶媒体により構成することができる。
表示部122は、検索装置100による各種処理で用いる各種データを表示する。表示部122は、例えば、液晶ディスプレイなどにより構成できる。なお、検索結果などを例えばPC500の表示装置に表示させるように構成する場合などであれば、表示部122を検索装置100に備えなくてもよい。
検索部101は、上記の通常検索機能を実現する。すなわち検索部101は、記憶部121から、指定されたラベルと一致するラベルのオブジェクトデータ(第1オブジェクトデータ)を検索する。通常検索に用いるクエリ(通常クエリ)は、ラベルの他に、基準時刻および基準位置を含んでもよい。基準時刻は、基準となる時刻を意味する。基準位置は、基準となる位置を意味する。
通常クエリは、PC500のユーザ(人物15など)により指定され検索装置100に送信されてもよいし、検索装置100の入力インタフェースなどから入力されてもよい。
検索部101は、入力された通常クエリにより記憶部121内のログデータを検索する。検索部101は、検索の結果得られる検索結果データを表示制御部105に渡す。
表示制御部105は、表示部122に対する各種データの表示を制御する。例えば表示制御部105は、検索部101から受け取った検索結果データを地図上に配置して表示部122に表示する。
取得部102は、検索部101による検索結果データを元に、時空間上で近く、別のラベルを持つオブジェクト群を取得する。すなわち取得部102は、第1オブジェクトデータに含まれる属性情報と一致する属性情報を含み、第1オブジェクトデータに含まれるラベルと異なるラベルを含む1以上のオブジェクトデータ(第2オブジェクトデータ)を記憶部121から取得する。取得部102は、取得した第2オブジェクトデータを連想クエリ候補群として出力する。
連想クエリ候補群には、例えば通常クエリのオブジェクトへの接近が一時的であったオブジェクトも含まれる。そこで、このようなオブジェクトを排除して連想クエリ候補群を絞り込む処理(フィルタ処理)を行ってもよい。フィルタ処理は必須ではなく、処理を行わない場合は、取得部102により取得された連想クエリ候補群をそのまま後段処理で用いればよい。
分類部103は、フィルタ処理のために、連想クエリ候補を、属性情報が一致または類似する連想クエリ候補ごとに1以上のグループに分類する。例えば分類部103は、連想クエリ候補を、ラベルが一致する連想クエリ候補ごとにグループに分類する。
フィルタ処理が行われた場合、取得部102は、さらに、分類された連想クエリ候補の個数に基づいて選択されたグループ(個数が他のグループより多いグループなど)に含まれる連想クエリ候補を取得してもよい。例えば取得部102は、連想クエリ候補の個数が閾値以上であるグループ、または、連想クエリ候補の個数が多い順に所定数のグループを選択し、選択したグループに含まれる連想クエリ候補を取得してもよい。これにより、連想クエリ候補群を、通常クエリのオブジェクトに接近した頻度が高いオブジェクトのみに絞り込むことができる。このような処理により、通常クエリのオブジェクトに関連する可能性が高いオブジェクトに絞り込むことが可能となる。
なお、例えば動画像から特定された人物を追跡する場合は、連想クエリ候補の個数が多いことは、動画像を構成するフレームの個数が多いこと、言い換えると通常クエリのオブジェクトに接近した時間の合計(合計時間)が大きいことに相当する。すなわち、フィルタ処理により、連想クエリ候補群を、通常クエリのオブジェクトに接近した時間の合計が大きいオブジェクトに絞り込むことが可能となる。
表示制御部105は、取得部102により取得された連想クエリ候補群を地図上に配置して表示部122に表示する。
選択部104は、連想クエリ候補のうち1つを選択する。例えば選択部104は、表示部122に表示された地図上で、ユーザにより指示された連想クエリ候補を選択し、連想クエリとする。
この後、検索部101は、連想クエリとして選択されたオブジェクトのラベルを指定して、再度、記憶部121内のログデータを検索する。このようにして、連想的クエリ提示機能および芋づる検索機能が実現される。以上の手順はユーザの望む限り繰り返すことができる。
生成部106は、一連のユーザ検索操作における通常クエリおよび連想クエリの履歴を元に、各クエリが示すオブジェクト同士の関係性を示す情報を生成する。すなわち生成部106は、通常クエリで指定されたオブジェクト(第1オブジェクト)を示す情報と、連想クエリとして選択されたオブジェクト(第2オブジェクト)を示す情報と、両者を関連づける情報を生成する。例えば生成部106は、通常クエリで指定されるオブジェクトを依存元とし、連想クエリとして選択されたオブジェクトを依存先としたオブジェクト間の関係ネットワークを示す情報を生成する。生成された情報は、表示制御部105により表示部122に表示されてもよい。
なお、上記各部(検索部101、取得部102、分類部103、選択部104、表示制御部105、および、生成部106)は、例えば、CPU(Central Processing Unit)などの処理装置にプログラムを実行させること、すなわち、ソフトウェアにより実現してもよいし、IC(Integrated Circuit)などのハードウェアにより実現してもよいし、ソフトウェアおよびハードウェアを併用して実現してもよい。
次に、このように構成された第1の実施形態にかかる検索装置100による連想検索処理について図5を用いて説明する。図5は、第1の実施形態における連想検索処理の一例を示すフローチャートである。
まず、検索部101等による検索処理(通常検索)が実行される(ステップS101)。次に取得部102等によるクエリ候補取得処理が実行される(ステップS102)。次に分類部103等によるフィルタ処理が実行される(ステップS103)。次に表示制御部105等による地図表示処理が実行される(ステップS104)。
次に、検索部101は、例えば地図上でオブジェクトが選択されたか否かを判断する(ステップS105)。選択されていない場合(ステップS105:No)、選択されるまで処理が繰り返される。選択された場合(ステップS105:Yes)、ステップS101に戻り、通常検索が再度実行され、処理が繰り返される。
次に、図5の各処理(ステップS101〜ステップS104)の詳細について説明する。図6は、ステップS101の検索処理の一例を示すフローチャートである。
検索部101は、ラベル、基準時刻および基準位置を含む通常クエリを受け取る(ステップS301)。検索部101は、記憶部121に記憶されたログデータから、通常クエリに含まれるラベルが一致し、通常クエリに含まれる基準時刻および基準位置に近いレコード群を検索し、検索結果データとして出力する(ステップS302)。
例えば検索部101は、時間差が閾値以下かつ位置的距離が閾値以下かなどにより、時刻および位置が近いか否かを判定する。通常の地図のようなユークリッド空間であればユークリッド距離や測地線距離を位置的距離として用いればよい。高速道路やコンピュータネットワークなどのネットワーク空間であれば最短パスの距離やホップ数を位置的距離として用いればよい。
表示制御部105は、得られた検索結果データを地図上に表示する(ステップS303)。表示画面の例および表示処理の具体例は後述する。
図7は、ステップS102のクエリ候補取得処理の一例を示すフローチャートである。
取得部102は、空の出力用バッファを作成する(ステップS401)。出力用バッファは、例えば検索装置100が備えるRAMおよび記憶部121などの記憶媒体の中に設けられる。
取得部102は、検索部101から、検索結果データを入力として受け取る(ステップS402)。取得部102は、検索結果データから順に1つのレコードを取り出す(ステップS403)。取得部102は、取り出したレコードに含まれる基準時刻と基準位置を取り出す(ステップS404)。取得部102は、取り出した基準時刻および基準位置に近く、かつ、通常クエリと異なるラベルを持つレコード群を、記憶部121に記憶されたログデータから取得し、出力用バッファに追加する(ステップS405)。
取得部102は、すべての検索結果データを取り出したか否かを判断する(ステップS406)。すべての検索結果データを取り出していない場合(ステップS406:No)、取得部102は、ステップS403に戻り処理を繰り返す。
すべての検索結果データを取り出した場合(ステップS406:Yes)、取得部102は、出力用バッファ内のレコード群を連想クエリ候補群として出力し(ステップS407)、クエリ候補取得処理を終了する。
なおステップS405で、取り出した基準時刻および基準位置と一致するログデータ、すなわち、同一時間かつ同一場所のオブジェクトのみを連想クエリ候補として取得してもよい。この場合、通常クエリのオブジェクトと同じ監視画像内に映っている別ラベルを持つオブジェクト群が取り出される。
図8は、ステップS103のフィルタ処理の一例を示すフローチャートである。
分類部103は、連想クエリ候補群を、同じラベルを持つレコード同士が同じクラスタ(グループの一例)に属するように分類する(ステップS501)。取得部102は、得られたクラスタ群のうち、サイズが閾値以下のクラスタ群に属するレコードを破棄する(ステップS502)。取得部102は、残ったレコード群を連想クエリ候補群として出力する(ステップS503)。表示制御部105は、得られた連想クエリ候補群を地図上に配置し、表示部122に表示する(ステップS504)。表示画面の例および表示処理の具体例は後述する。
図9は、ステップS104の地図表示処理の一例を示すフローチャートである。
表示制御部105は、レコード群(連想クエリ候補群)を入力として受け取る(ステップS601)。表示制御部105は、レコードを順に1つずつ取り出す(ステップS602)。表示制御部105は、レコードに含まれる緯度および経度の情報を元に、レコードを配置すべき地図上の位置を決定する(ステップS603)。表示制御部105は、決定した位置に当該レコードのラベル、時刻、および、オブジェクトのコンテンツ(人物追跡の場合は抽出された顔画像等)を含むレコード情報(ピン、吹出等)を表示する(ステップS604)。
表示制御部105は、オブジェクトの種類などに応じてレコード情報の表示態様(形状、大きさ、色、輝度、点滅の有無、など)を異ならせてもよい。例えば表示制御部105は、通常検索により検索された検索結果データであるか、連想クエリ候補群であるかを区別できるように、レコード情報の表現を変えて表示する。また表示制御部105は、より新しい時刻のレコード情報をより明るい色で表示させてもよい。
表示制御部105は、すべてのレコード群を取り出したか否かを判断する(ステップS605)。すべてのレコード群を取り出していない場合(ステップS605:No)、ステップS602に戻り処理を繰り返す。すべてのレコード群を取り出した場合(ステップS605:Yes)、地図表示処理を終了する。
表示制御部105は、配置されたレコード情報群の情報を元に移動の流れを矢印などで示してもよい。例えば表示制御部105は、レコード情報群を時間帯ごとに分類し、各時間帯に属するレコード情報の位置の中心を算出し、算出した中心群を結ぶスプライン曲線などを表示してもよい。
同一時間および同一場所のオブジェクトが複数存在する場合、すなわち同一画像上のオブジェクトを表示する場合は、表示制御部105は、レコード情報を共有して1枚の画像で2つのオブジェクトを表示してもよい。
図10は、第1の実施形態の表示画面の一例を示す図である。図10の表示画面では、地図上に、「長田太郎」についての3つのレコード情報、「古畑太郎」のレコード情報、および、「湯浅花子」のレコード情報が表示されている。「長田太郎」のレコード情報は通常クエリによる検索結果であり、それ以外は連想クエリ候補群である。図10に示すように、連想クエリ候補群のレコード情報は、破線で囲んで表示されている。連想クエリ候補群のレコード情報の背景色など、その他の表示態様を、通常クエリの検索結果のレコード情報と異ならせてもよい。
例えば図10のような表示画面上で、レコード情報群のいずれかをユーザがクリックした場合、選択部104は、クリックされたレコード情報に対応する連想クエリ候補を、連想クエリとして選択して出力する。出力された連想クエリは、検索部101に送信される。生成部106には、出力された連想クエリとその元となった通常クエリのペアが送信される。
生成部106は、送信された情報を基に、各クエリが示すオブジェクト同士の関係性を示す情報(オブジェクト関係図など)を生成する。図11は、生成部106が生成するオブジェクト関係図の例を示す図である。
最初に「長田太郎」で通常検索が行われ、その連想クエリとして得られた「湯浅花子」で通常検索が行われ、さらに「湯浅花子」の連想クエリとして得られた「小野太郎」および「古畑太郎」で通常検索が行われた場合に、図11に示す図が生成される。
図11の関係図は、単に検索履歴から生成された図であるが、オブジェクト間の近接の有無を示す図としての意味を持つ。この例では、他のいずれの人間とも近接した登場人物は、「湯浅花子」である。この関係図の解釈はユーザ等に依存するが、例えば「湯浅花子」が当該人間ネットワークにおける中核人物であると解釈できる。このような視点でオブジェクト関係図を活用することで、例えば犯罪組織の全容解明などの一助とすることができる。
図12は、生成部106による生成処理の一例を示すフローチャートである。
生成部106は、既存のオブジェクト関係ネットワーク(オブジェクト関係図の一例)を取り出す(ステップS901)。オブジェクト関係ネットワークは、例えば、オブジェクトのラベルを持つノードからなる有向グラフである。
生成部106は、通常クエリのオブジェクトを示すノードがオブジェクト関係ネットワークに含まれていればそのノードを取り出し、含まれていなければ、新規にノードを追加してそのノードを取り出す(ステップS902)。
生成部106は、連想クエリのオブジェクトを示すノードがオブジェクト関係ネットワークに含まれていればそのノードを取り出し、含まれていなければ、新規にノードを追加してそのノードを取り出す(ステップS903)。
生成部106は、ステップS902で取り出された通常クエリのオブジェクトのノードから、ステップS903で取り出された連想クエリのオブジェクトのノードに対して、矢印を描画する(ステップS904)。
表示制御部105は、更新されたオブジェクト関係ネットワークを表示部122上の画面に表示する(ステップS905)。
(第2の実施形態)
第2の実施形態にかかる検索システムは、ラベルなしオブジェクトを対象とした検索システムである。追跡対象がラベルなしオブジェクトとなる応用例として以下の例が挙げられる。
・街中および駅構内など、自由に移動可能なエリアでの監視画像による人物や動物などの追跡
・カーナンバー認識などを伴わない一般道路等での車の追跡
以下では、監視画像による人物追跡の例を中心に説明する。第2の実施形態では、ラベルの一致を用いていた判定条件が、特徴ベクトル(特徴情報の一例)の距離の近さに変更され、検索結果等の表示にラベルが用いられない点などが第1の実施形態と異なる。上記のようにラベルなしの場合は、オブジェクトの特徴を表す特徴情報を特定情報として用いることができる。
図13は、第2の実施形態にかかる検索装置100−2の構成の一例を示すブロック図である。なお、検索装置100−2以外の装置は第1の実施形態(図1)と同様であるため図13には記載せず、説明を省略する。
図13に示すように、検索装置100−2は、記憶部121と、表示部122と、検索部101−2と、取得部102−2と、分類部103−2と、選択部104と、表示制御部105と、生成部106−2と、を備えている。
第2の実施形態では、記憶部121に記憶されるオブジェクトデータのデータ構造、検索部101−2、取得部102−2、分類部103−2、および、生成部106−2が第1の実施形態と異なっている。その他の構成および機能は、第1の実施形態にかかる検索装置100のブロック図である図1と同様であるので、同一符号を付し、ここでの説明は省略する。
図14は、本実施形態のオブジェクトデータの例を示す図である。図14は、街中および駅構内など、自由に移動可能なエリアでの監視画像による人物や動物などの追跡を行う応用でのログデータを示している。例えば、街中などに設置された各監視カメラによって撮影された画像の中から、人物の顔が検出および認識される。撮影時刻、撮影位置(緯度、経度)、顔認識の結果得た特徴ベクトル、および、抽出された顔画像を含むログデータが、テーブルのレコードとして蓄積される。第1の実施形態のログデータとの違いは、ラベル(氏名など)の列がない代わりに、特徴ベクトルの列が加わっている点である。
図13に戻り、検索部101−2は、指定されたラベルと一致するラベルのオブジェクトデータを検索する代わりに、指定された特徴情報(特定情報の例)と一致または類似する特徴情報のオブジェクトデータを検索する点が、第1の実施形態の検索部101と異なる。
取得部102−2は、検索部101−2による検索結果データを元に、時空間上で近く、検索結果データに含まれないオブジェクト群を取得する。すなわち取得部102−2は、第1オブジェクトデータに含まれる属性情報と一致または類似する属性情報を含み、第1オブジェクトデータ以外のオブジェクトデータ(第2オブジェクトデータ)を記憶部121から取得する。取得部102−2は、取得した第2オブジェクトデータを連想クエリ候補群として出力する。
分類部103−2は、ラベルの代わりに特徴情報(特徴ベクトルなど)の類似性を用いて分類する点が、第1の実施形態の分類部103と異なる。例えば分類部103−2は、相互に類似する特徴ベクトルを持つオブジェクト同士は同一オブジェクト(例:同一人物)であると解釈する。特徴ベクトル間の類似度は、例えば、特徴ベクトル間の距離の小ささにより判定できる。特徴ベクトルの類似度の判定方法はこれに限られるものではなく、従来から用いられているあらゆる方法を適用できる。例えば、特徴ベクトルの内積などを判定に用いてもよい。
生成部106−2は、ラベルの代わりにオブジェクトのコンテンツなどを用いてオブジェクト同士の関係性を示す情報を生成する点が、第1の実施形態の生成部106と異なっている。例えば画像データがログデータの場合、画像(顔画像、車両画像など)がラベルの代わりに用いられる。ツイートデータがログデータの場合、メッセージがラベルの代わりに用いられる。
次に、このように構成された第2の実施形態にかかる検索装置100−2による連想検索処理について説明する。連想検索処理の全体の流れは、第1の実施形態の連想検索処理(図5)と同様である。第2の実施形態では、ステップS101の検索処理、ステップS102のクエリ候補取得処理、および、ステップS103のフィルタ処理が第1の実施形態と異なる。以下、これらの各処理について説明する。
図15は、第2の実施形態における検索処理の一例を示すフローチャートである。
ユーザなどにより顔画像、基準時刻、および、基準位置が入力されると、検索部101−2は、顔画像を元に特徴ベクトルを生成し、特徴ベクトル、基準時刻、および、基準位置を含む通常クエリを生成する(ステップS1001)。特徴ベクトルは、CoHOG(Co−occurrence Histograms of Oriented Gradients)、SIFT(Scale−Invariant Feature Transform)、および、Surf(Speeded Up Robust Features)などの従来から用いられているあらゆる特徴量を用いることができる。
検索部101−2は、記憶部121に記憶されたログデータから、通常クエリに含まれる特徴ベクトルと一致または類似する特徴ベクトルを含み、通常クエリに含まれる基準時刻および基準位置に近いレコード群を検索し、検索結果データとして出力する(ステップS1002)。
例えば検索部101−2は、ユークリッド距離が閾値以下かなどにより、特徴ベクトルが類似するか否かを判定する。また検索部101−2は、時間差が閾値以下かつ位置的距離が閾値以下かなどにより、時刻および位置が近いか否かを判定する。
表示制御部105は、得られた検索結果データを地図上に表示する(ステップS1003)。表示画面の例は後述する。
なおステップS1001では、ユーザ等によりクエリの生成元となる顔画像が入力されるものとしたが、顔画像の代わりに特徴ベクトルが入力されてもよい。またステップS1002で扱う位置的距離モデルには、通常の地図のようなユークリッド空間であればユークリッド距離を用い、道路網や鉄道網などの位相空間であれば最短の道のりなどを用いてもよい。
図16は、第2の実施形態におけるクエリ候補取得処理の一例を示すフローチャートである。ステップS1101〜ステップS1104は、図7のステップS401〜ステップS404までと同様であるため説明を省略する。
取得部102−2は、取り出した基準時刻および基準位置に近く、かつ、検索結果データに含まれていないレコード群を、記憶部121に記憶されたログデータから取得し、出力用バッファに追加する(ステップS1105)。
ステップS1106〜ステップS1107は、図7のステップS406〜ステップS407までと同様であるため説明を省略する。
なおステップS1105で、取り出した基準時刻および基準位置と一致するログデータ、すなわち、同一時間かつ同一場所のオブジェクトのみを連想クエリ候補として取得してもよい。この場合、通常クエリのオブジェクトと同じ監視画像内に映っている他のオブジェクト群が取り出される。
図17は、第2の実施形態におけるフィルタ処理の一例を示すフローチャートである。
分類部103−2は、連想クエリ候補群を、特徴ベクトルを元に、階層型クラスタリングなどの手法を用いて1以上のクラスタ(グループの一例)にクラスタリングする(ステップS1201)。
ステップS1202〜ステップS1204は、図8のステップS502〜ステップS504までと同様であるため説明を省略する。
階層型クラスタリングを用いる場合、各オブジェクトは高々1つのクラスタに属する結果となる。しかし特徴ベクトルの類似性によるオブジェクトの同一性の判定は確率的であり、誤分類を含む可能性がある。この問題を解決するため、オブジェクトが複数クラスタに所属可能とする分類方法を適用してもよい。図18は、オブジェクトを複数クラスタに所属可能とする分類方法を適用する場合のフィルタ処理の一例を示すフローチャートである。
分類部103−2は、各連想クエリ候補について、距離が閾値以下となる他の連想クエリ候補群数(以下、近傍オブジェクト数と呼ぶ)を数える(ステップS1301)。取得部102−2は、近傍オブジェクト数が閾値以下の各連想クエリ候補を、連想クエリ候補群から破棄する(ステップS1302)。
ステップS1303〜ステップS1304は、図8のステップS503〜ステップS504までと同様であるため説明を省略する。
図19は、第2の実施形態の表示画面の一例を示す図である。図19の表示画面は、ラベルを表示しない点以外は、第1の実施形態の表示画面を示す図10と同様である。地図表示処理の全体の流れは図9と同様であるため説明を省略する。
図20は、第2の実施形態のオブジェクト関係図の一例を示す図である。図20の表示画面は、ラベルの代わりにオブジェクトのコンテンツなどを含む点が、第1の実施形態のオブジェクト関係図を示す図11と異なっている。例えば図20では、特徴ベクトルを生成する元となった顔画像がラベルの代わりに用いられている。オブジェクト関係図の生成処理の全体の流れは図11と同様であるため説明を省略する。
以上説明したとおり、第1から第2の実施形態によれば、位置(位置情報)および時刻(時刻情報)の少なくとも一方である属性情報が対応づけられるデータ群を対象とした連想検索が可能となる。
次に、第1または第2の実施形態にかかる各装置(検索装置、サーバ装置、PCなど)のハードウェア構成について図21を用いて説明する。図21は、第1または第2の実施形態にかかる装置のハードウェア構成例を示す説明図である。
第1または第2の実施形態にかかる装置は、CPU(Central Processing Unit)51などの制御装置と、ROM(Read Only Memory)52やRAM(Random Access Memory)53などの記憶装置と、ネットワークに接続して通信を行う通信I/F54と、各部を接続するバス61を備えている。
第1または第2の実施形態にかかる装置で実行されるプログラムは、ROM52等に予め組み込まれて提供される。
第1または第2の実施形態にかかる装置で実行されるプログラムは、インストール可能な形式又は実行可能な形式のファイルでCD−ROM(Compact Disk Read Only Memory)、フレキシブルディスク(FD)、CD−R(Compact Disk Recordable)、DVD(Digital Versatile Disk)等のコンピュータで読み取り可能な記録媒体に記録してコンピュータプログラムプロダクトとして提供されるように構成してもよい。
さらに、第1または第2の実施形態にかかる装置で実行されるプログラムを、インターネット等のネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせることにより提供するように構成してもよい。また、第1または第2の実施形態にかかる装置で実行されるプログラムをインターネット等のネットワーク経由で提供または配布するように構成してもよい。
第1または第2の実施形態にかかる装置で実行されるプログラムは、コンピュータを上述した装置の各部として機能させうる。このコンピュータは、CPU51がコンピュータ読取可能な記憶媒体からプログラムを主記憶装置上に読み出して実行することができる。
本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。
100 検索装置
101 検索部
102 取得部
103 分類部
104 選択部
105 表示制御部
106 生成部
121 記憶部
122 表示部
201、202 カメラ
203 携帯電話
204 PC
300 サーバ装置
321 記憶部
500 PC
601、602 ネットワーク

Claims (15)

  1. オブジェクトを特定する特定情報と、時刻および位置の少なくとも一方である属性情報と、を対応づけたオブジェクトデータを記憶する記憶部から、指定された特定情報と一致または類似する特定情報を含む第1オブジェクトデータを検索する検索部と、
    前記第1オブジェクトデータに含まれる前記属性情報と一致または類似する属性情報を含み、前記第1オブジェクトデータに含まれる特定情報と異なる特定情報を含む1以上の第2オブジェクトデータを前記記憶部から取得する取得部と、
    前記第2オブジェクトデータのうち1つを選択する選択部と、
    取得された前記第2オブジェクトデータを、前記属性情報が一致または類似する前記第2オブジェクトデータごとにグループに分類する分類部と、を備え、
    前記取得部は、さらに、分類された前記第2オブジェクトデータの個数に基づいて選択されたグループに含まれる前記第2オブジェクトデータを取得し、
    前記検索部は、選択された前記第2オブジェクトデータに含まれる前記特定情報を指定された特定情報として、前記第1オブジェクトデータをさらに検索する、
    検索装置。
  2. 前記特定情報は、前記オブジェクトを識別する識別情報であり、
    前記検索部は、指定された識別情報と一致する識別情報を含む第1オブジェクトデータを検索する、
    請求項1に記載の検索装置。
  3. 前記特定情報は、前記オブジェクトの特徴を表す特徴情報であり、
    前記検索部は、指定された特徴情報と一致または類似する特徴情報を含む第1オブジェクトデータを検索する、
    請求項1に記載の検索装置。
  4. 前記取得部は、分類された前記第2オブジェクトデータの個数が他のグループより多いグループに含まれる前記第2オブジェクトデータを取得する、
    請求項1に記載の検索装置。
  5. 前記取得部は、分類された前記第2オブジェクトデータの個数が閾値より多いグループ、または、分類された前記第2オブジェクトデータの個数が多い順に所定数のグループに含まれる前記第2オブジェクトデータを取得する、
    請求項4に記載の検索装置。
  6. 前記特定情報は、前記オブジェクトを識別する識別情報であり、
    前記分類部は、前記識別情報が一致する前記第2オブジェクトデータごとにグループに分類する、
    請求項1に記載の検索装置。
  7. 前記特定情報は、前記オブジェクトの特徴を表す特徴情報であり、
    前記分類部は、前記特徴情報が一致または類似する前記第2オブジェクトデータごとにグループに分類する、
    請求項1に記載の検索装置。
  8. 前記第1オブジェクトデータに含まれる特定情報により特定される第1オブジェクトを示す情報と、前記第2オブジェクトデータに含まれる特定情報により特定される第2オブジェクトを示す情報と、前記第1オブジェクトおよび前記第2オブジェクトを関連づける情報を生成する生成部と、
    生成された情報を表示部に表示させる表示制御部と、をさらに備える、
    請求項1に記載の検索装置。
  9. 前記特定情報は、前記オブジェクトを識別する識別情報であり、
    前記第1オブジェクトを示す情報は、前記第1オブジェクトの識別情報であり、
    前記第2オブジェクトを示す情報は、前記第2オブジェクトの識別情報である、
    請求項8に記載の検索装置。
  10. 前記特定情報は、前記オブジェクトの特徴を表す特徴情報であり、
    前記第1オブジェクトを示す情報は、前記第1オブジェクトの特徴情報を生成する元となる情報であり、
    前記第2オブジェクトを示す情報は、前記第2オブジェクトの特徴情報を生成する元となる情報である、
    請求項8に記載の検索装置。
  11. 前記属性情報は、オブジェクトの位置を含み、
    前記第1オブジェクトデータに含まれる前記位置に対応する地図上の位置に、前記第1オブジェクトデータに含まれる特定情報により特定される第1オブジェクトを示す情報を表示し、前記第2オブジェクトデータに含まれる前記位置に対応する地図上の位置に、前記第2オブジェクトデータに含まれる特定情報により特定される第2オブジェクトを示す情報を表示する表示制御部をさらに備える、
    請求項1に記載の検索装置。
  12. 前記特定情報は、前記オブジェクトを撮像した画像から生成される、
    請求項1に記載の検索装置。
  13. 前記選択部は、前記第2オブジェクトデータのうち指定された1つの前記第2オブジェクトデータを選択する、
    請求項1に記載の検索装置。
  14. オブジェクトを特定する特定情報と、時刻および位置の少なくとも一方である属性情報と、を対応づけたオブジェクトデータを記憶する記憶部から、指定された特定情報と一致または類似する特定情報を含む第1オブジェクトデータを検索する第1検索ステップと、
    前記第1オブジェクトデータに含まれる前記属性情報と一致または類似する属性情報を含み、前記第1オブジェクトデータに含まれる特定情報と異なる特定情報を含む1以上の第2オブジェクトデータを前記記憶部から取得する第1取得ステップと、
    取得された前記第2オブジェクトデータを、前記属性情報が一致または類似する前記第2オブジェクトデータごとにグループに分類する分類ステップと、
    分類された前記第2オブジェクトデータの個数に基づいて選択されたグループに含まれる前記第2オブジェクトデータを取得する第2取得ステップと、
    前記第2取得ステップにより取得された前記第2オブジェクトデータのうち1つを選択する選択ステップと、
    選択された前記第2オブジェクトデータに含まれる前記特定情報を指定された特定情報として、前記第1オブジェクトデータを検索する第2検索ステップと、
    を含む検索方法。
  15. 情報処理装置と、検索装置と、を備える検索システムであって、
    前記情報処理装置は、
    オブジェクトを特定する特定情報と、時刻および位置の少なくとも一方である属性情報と、を対応づけたオブジェクトデータを送信する送信部を備え、
    前記検索装置は、
    前記オブジェクトデータを記憶する記憶部から、指定された特定情報と一致または類似する特定情報を含む第1オブジェクトデータを検索する検索部と、
    前記第1オブジェクトデータに含まれる前記属性情報と一致または類似する属性情報を含み、前記第1オブジェクトデータに含まれる特定情報と異なる特定情報を含む1以上の第2オブジェクトデータを前記記憶部から取得する取得部と、
    前記第2オブジェクトデータのうち1つを選択する選択部と、
    取得された前記第2オブジェクトデータを、前記属性情報が一致または類似する前記第2オブジェクトデータごとにグループに分類する分類部と、を備え、
    前記取得部は、さらに、分類された前記第2オブジェクトデータの個数に基づいて選択されたグループに含まれる前記第2オブジェクトデータを取得し、
    前記検索部は、選択された前記第2オブジェクトデータに含まれる前記特定情報を指定された特定情報として、前記第1オブジェクトデータをさらに検索する、
    検索システム。
JP2016025593A 2016-02-15 2016-02-15 検索装置、検索方法および検索システム Active JP6433928B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2016025593A JP6433928B2 (ja) 2016-02-15 2016-02-15 検索装置、検索方法および検索システム
SG10201700584XA SG10201700584XA (en) 2016-02-15 2017-01-24 Retrieval device, retrieval method, and retrieval system
US15/415,968 US11347739B2 (en) 2016-02-15 2017-01-26 Performing a chained search function

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016025593A JP6433928B2 (ja) 2016-02-15 2016-02-15 検索装置、検索方法および検索システム

Publications (2)

Publication Number Publication Date
JP2017146644A JP2017146644A (ja) 2017-08-24
JP6433928B2 true JP6433928B2 (ja) 2018-12-05

Family

ID=59561704

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016025593A Active JP6433928B2 (ja) 2016-02-15 2016-02-15 検索装置、検索方法および検索システム

Country Status (3)

Country Link
US (1) US11347739B2 (ja)
JP (1) JP6433928B2 (ja)
SG (1) SG10201700584XA (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10870056B2 (en) * 2017-11-01 2020-12-22 Sony Interactive Entertainment Inc. Emoji-based communications derived from facial features during game play
JP7215936B2 (ja) * 2019-03-08 2023-01-31 本田技研工業株式会社 迷子予防支援システム
JP7110293B2 (ja) * 2020-09-28 2022-08-01 楽天グループ株式会社 情報処理装置、情報処理方法およびプログラム
DE102020212897A1 (de) * 2020-10-13 2022-04-14 Robert Bosch Gesellschaft mit beschränkter Haftung Zugriffsverfahren auf Daten in einem externen Speicher eines Mikrocontrollers
CN113377989A (zh) * 2021-06-04 2021-09-10 上海云从汇临人工智能科技有限公司 基于gpu的数据检索方法、系统、介质及装置

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3738631B2 (ja) * 1999-09-27 2006-01-25 三菱電機株式会社 画像検索システムおよび画像検索方法
JP2005078413A (ja) * 2003-09-01 2005-03-24 Matsushita Electric Ind Co Ltd 電子機器及び電子機器における応答情報出力方法
CN100550014C (zh) * 2004-10-29 2009-10-14 松下电器产业株式会社 信息检索装置
JP2006221355A (ja) 2005-02-09 2006-08-24 Hitachi Ltd 監視装置及び監視システム
US7519200B2 (en) * 2005-05-09 2009-04-14 Like.Com System and method for enabling the use of captured images through recognition
GB0512869D0 (en) * 2005-06-24 2005-08-03 Ibm Method and system for facial recognition in groups
JP5098253B2 (ja) * 2006-08-25 2012-12-12 コニカミノルタエムジー株式会社 データベースシステム、プログラム、及びレポート検索方法
JP5136819B2 (ja) * 2006-09-14 2013-02-06 カシオ計算機株式会社 画像分類装置、画像分類方法及びプログラム
JP4866754B2 (ja) * 2007-02-19 2012-02-01 パナソニック株式会社 行動履歴検索装置及び行動履歴検索方法
JP4933354B2 (ja) * 2007-06-08 2012-05-16 キヤノン株式会社 情報処理装置、及び情報処理方法
CN102016841B (zh) * 2008-07-29 2013-06-05 松下电器产业株式会社 图像检索装置以及图像检索方法
US8520979B2 (en) * 2008-08-19 2013-08-27 Digimarc Corporation Methods and systems for content processing
JP2011081763A (ja) * 2009-09-09 2011-04-21 Sony Corp 情報処理装置、情報処理方法及び情報処理プログラム
JP2011065277A (ja) * 2009-09-15 2011-03-31 Toshiba Corp 電子機器、画像表示方法およびコンテンツ再生プログラム
DE102012216191A1 (de) * 2011-09-14 2013-03-14 Hitachi Information & Communication Engineering, Ltd. Authentifizierungssystem
WO2013051619A1 (ja) * 2011-10-03 2013-04-11 日本電気株式会社 類似性検出装置及び指向性近傍検出方法
JP5863400B2 (ja) 2011-11-07 2016-02-16 株式会社日立国際電気 類似画像検索システム
JP2014095967A (ja) * 2012-11-08 2014-05-22 Sony Corp 情報処理装置、情報処理方法およびプログラム
JP2014139734A (ja) * 2013-01-21 2014-07-31 Sony Corp 情報処理装置および方法、並びにプログラム
JP6173754B2 (ja) 2013-04-18 2017-08-02 株式会社日立製作所 画像検索システム、画像検索装置および画像検索方法

Also Published As

Publication number Publication date
US20170235793A1 (en) 2017-08-17
JP2017146644A (ja) 2017-08-24
US11347739B2 (en) 2022-05-31
SG10201700584XA (en) 2017-09-28

Similar Documents

Publication Publication Date Title
JP6433928B2 (ja) 検索装置、検索方法および検索システム
JP6607271B2 (ja) 顕著フラグメントへのビデオストリームの分解
US10068024B2 (en) Method and apparatus for correlating and viewing disparate data
JP5976237B2 (ja) 映像検索システム及び映像検索方法
US8831352B2 (en) Event determination from photos
US8582832B2 (en) Detecting behavioral deviations by measuring eye movements
US8218871B2 (en) Detecting behavioral deviations by measuring respiratory patterns in cohort groups
JP5934653B2 (ja) 画像分類装置、画像分類方法、プログラム、記録媒体、集積回路、モデル作成装置
Hakeem et al. Video analytics for business intelligence
US20130198197A1 (en) Method and apparatus for correlating and viewing disparate data
CN106663196A (zh) 视频中的计算机显著人物识别
Adams et al. Extraction of social context and application to personal multimedia exploration
Castanon et al. Retrieval in long-surveillance videos using user-described motion and object attributes
Aziz et al. Automated solutions for crowd size estimation
Liu et al. Place-centric visual urban perception with deep multi-instance regression
Hoffmann et al. Using social media images for building function classification
Revaud et al. Did it change? learning to detect point-of-interest changes for proactive map updates
Kim et al. TVDP: Translational visual data platform for smart cities
JP2007265259A (ja) 画像検索支援装置
CN114677627A (zh) 目标线索寻找方法、装置、设备及介质
CN112236777A (zh) 混合云中基于向量的对象识别
WO2019078164A1 (ja) 検索装置、端末装置、解析装置、検索方法、端末装置の動作方法、解析方法及びプログラム
Medina et al. Where is this? Video geolocation based on neural network features
Bowman et al. Content-Based Multimedia Analytics for Big Data Challenges
US20230131392A1 (en) Travel destination searching system and method using color based space information database

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20170904

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20170905

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20170904

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20170905

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180119

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180306

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180424

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20181009

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20181107

R150 Certificate of patent or registration of utility model

Ref document number: 6433928

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150