JP6151085B2 - サービス提供システム、サービス提供方法およびサービス提供管理装置 - Google Patents

サービス提供システム、サービス提供方法およびサービス提供管理装置 Download PDF

Info

Publication number
JP6151085B2
JP6151085B2 JP2013102507A JP2013102507A JP6151085B2 JP 6151085 B2 JP6151085 B2 JP 6151085B2 JP 2013102507 A JP2013102507 A JP 2013102507A JP 2013102507 A JP2013102507 A JP 2013102507A JP 6151085 B2 JP6151085 B2 JP 6151085B2
Authority
JP
Japan
Prior art keywords
service
service providing
data
recognition data
application module
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2013102507A
Other languages
English (en)
Other versions
JP2014222480A (ja
Inventor
馬場 賢二
賢二 馬場
助川 寛
寛 助川
信 落合
信 落合
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2013102507A priority Critical patent/JP6151085B2/ja
Publication of JP2014222480A publication Critical patent/JP2014222480A/ja
Application granted granted Critical
Publication of JP6151085B2 publication Critical patent/JP6151085B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Description

本発明の実施形態は、画像処理技術に関する。
顔認証技術は、画像センサで取得された画像データを処理して人間の顔を抽出し、人物を個別に識別可能とする技術である。この技術を応用して特定の人物を検索したり、人間の分布を表すデータを作成することなどが考えられている。顔認証技術は、エネルギーやコミュニティをスマートに管理しようとする将来の社会ではキーテクノロジーの一つになり得る技術として注目されている。
特開2010−257450号公報 特開平4−131600号公報 特開2011−170711号公報 特開2007−4767号公報 特開2007−249953号公報 特開2003−141551号公報 特開平09−147119号公報 特開平10−260772号公報 特開2012−3623号公報 特許第4901676号公報
三田雄志ほか、「顔検出に適した共起に基づくJoint Haar-like特徴」、電子情報通信学会論文誌(D), vol. J89-D, 8, pp1791-1801(2006) Tomoki Watanabe, Satoshi Ito, and Kentaro Yokoi: "Co-occurrence Histograms of Oriented Gradients for Pedestrian Detection, In Proceedings of the 3rd Pacific-Rim Symposium on Image and Video Technology" (PSIVT2009), pp. 37-47. 福井和広、山口修、「形状抽出とパタン照合の組合せによる顔特徴点抽出」、電子情報通信学会論文誌(D), vol. J80-D-ll, No. 8, pp2170-2177(1997) 福井和広、山口修、前田賢一、「動画像を用いた顔認識システム」、電子情報通信学会研究報告PRMU, vol97, No, 113, pp17-24(1997) 伊藤聡、「新たなカラー特徴を用いた画像認識技術」、東芝レビュー、株式会社東芝 TOSHIBA CORPORATION,Vol. 66 No. 01 (2011),第54-55ページ
顔認証技術は、人物認識システムや人物検索システムなどの種々のシステムに利用されている。しかしながら現在のところ、各々のシステムにより提供されるサービスはシステムごとに固定的である。例えば既存の顔認証システムは、画像データから抽出された顔データにマッチする人物をデータベースから検索する、「検索」というサービスに特化したものであった。
つまり既存のシステムは、特定のサービスが専用のハードウェアリソースにより提供される、いわゆるクローズド型ビジネス、あるいはコンポーネント型ビジネスと称される形態にとどまる。このような旧来の枠組みから脱却し、多様なサービスを柔軟に提供することができ、ユーザにとって使い勝手の良いシステムの提供が待たれている。
目的は、サービスを柔軟に提供することの可能なサービス提供システム、サービス提供方法およびサービス提供管理装置を提供することにある。
実施形態によれば、サービス提供システムは、認識エンジンと、複数のアプリケーションモジュールと、選択部と、割り当て部と、サービス提供部とを具備する。認識エンジンは、画像センサにより取得された画像データを処理して対象の認識データを生成する。各アプリケーションモジュールは、認識データを利用してそれぞれ異なるサービスを提供する。選択部は、提供すべきサービスに応じたアプリケーションモジュールを選択する。割り当て部は、選択されたアプリケーションモジュールに応じた機能を画像センサに割り当てる。サービス提供部は、選択されたアプリケーションモジュールに基づきサービスを提供する。
また実施形態によれば、サービス提供システムは、認識エンジンと、データベースと、取得部と、サービス提供部とを具備する。認識エンジンは、画像センサにより取得された画像データを処理して対象の認識データを生成する。データベースは、認識データを蓄積する。取得部は、提供すべきサービスに応じた認識データをデータベースから取得する。サービス提供部は、取得された認識データに基づきサービスを提供する。
図1は、実施形態に係わるサービス提供システムの一例を示すシステム図である。 図2は、顔認証クラウド100に備わる機能の一例を示す機能ブロック図である。 図3は、認識エンジン100aおよびサービス提供部100dに係わる詳細を示す機能ブロック図である。 図4は、第1の実施形態に係わる処理手順の一例を示すシーケンスチャートである。 図5は、サービス内容と、アプリケーションと、画像センサへの機能割り当てとの関係の一例を示す図である。 図6は、サービス内容と、アプリケーションと、画像センサへの機能割り当てとの関係の他の例を示す図である。 図7は、サービスの柔軟性の一例について説明するための図である。 図8は、顔認証技術について説明するための図である。 図9は、実施形態に係わるサービス提供システムの一例を示す図である。 図10は、実施形態に係わるサービス提供システムの他の例を示す図である。 図11は、顔認証クラウド100に備わる機能の他の例を示す機能ブロック図である。 図12は、第2の実施形態に係わる処理手順の一例を示すシーケンスチャートである。 図13は、例えば或る日付における、或る地点の人口分布の時間推移の集計値の一例を示す図である。 図14は、グラフデータの一例を示す図である。 図15は、グラフデータの他の例を示す図である。 図16は、グラフデータの他の例を示す図である。 図17は、第3の実施形態に係わるサービス提供管理装置の一例を示す機能ブロック図である。 図18は、管理テーブル200dの一例を示す図である。 図19は、管理テーブル200dの一例を示す図である。
図1は、実施形態に係わるサービス提供システムの一例を示すシステム図である。図1に示されるシステムは複数の画像センサC1〜Cnを備える。画像センサC1〜Cnは地理的領域であるMエリアおよびKエリアに分散して配置され、それぞれ、その視野内に捉えた画像をセンシングして画像データを生成する。
画像センサC1〜Cnはクラウドコンピューティングシステム(以下、顔認証クラウドと称する)100に接続される。画像センサC1〜Cnでそれぞれ生成された画像データは顔認証クラウド100に送られる。顔認証クラウド100は、画像データを処理して認識データを生成する認識エンジン100aと、画像データおよび認識データを始めとする各種のデータを累積的に蓄積するデータベース部200を備える。
Mエリアは例えば超高層のオフィスビルが立ち並ぶビル街を含むコミュニティであり、Kエリアは例えば住宅街を含むコミュニティである。従ってそれぞれのエリアにおいて求められるサービスの種別や形態、クオリティなどは自ずと異なるものになる。
ここで、Mエリアはエリアサーバ10Mを備える。エリアサーバ10MはMエリアの管理事業者などにより使用され、Mエリアと顔認証クラウド100との通信インタフェース機能や、Mエリアの管理機能などを備える。Kエリアも、同様の役割を担うエリアサーバ10Kを備える。
[第1の実施形態]
図2は、顔認証クラウド100に備わる機能の第1の実施形態を示す機能ブロック図である。顔認証クラウド100は認識エンジン100aと、選択部100b、機能割り当て部100c、サービス提供部100d、データベース部200、アプリケーションライブラリ300およびファンクションライブラリ400を備える。これらの機能ブロックは、例えば単一のサーバコンピュータに備わる処理機能やストレージユニットを利用して実現可能である。あるいは、コンピュータネットワーク上に分散配置された機能オブジェクトとして実現されることも可能である。
要するに顔認証クラウド100のユーザから見れば、認識エンジン100a、選択部100b、機能割り当て部100c、サービス提供部100d、データベース部200、アプリケーションライブラリ300およびファンクションライブラリ400は、仮想化されたサーバコンピュータにより実現されるように見える機能である。
認識エンジン100aから出力される認識データ200cは、画像データ200a、顔写真データ200bなどのデータとともにデータベース部200に記憶される。画像データ200aは、画像センサC1〜Cnの各々により取得されるデータである。つまり画像センサC1〜Cnにより取得された画像データ200aは、データベース部200に蓄積される。
顔写真データ200bは、人物認識アプリケーションが起動された場合などに利用されるデータである。例えば、画像データ200aと顔写真データ200bとを照合して認識データ200cが生成される。これに限らず、建物や車両、自然物(例えば山や川)なども画像認識処理の対象とすることができる。つまり認識データ200cは、画像センサC1〜Cnからの画像データ200aを処理して得られるデータである。
なお、画像データと顔データとの照合に代えて、人間のシルエットや動きの情報を用いて人物の存在を認識することも可能である。顔認証クラウド100は人間だけでなく、車両(車、電車)、飛行機、船、河川、土手、山、海、道路など、画像センサの撮影対象となる全ての映像を認識することが可能である。
アプリケーションライブラリ300は、複数のアプリケーションモジュールAPL1、APL2、…、APLNを記憶する。各アプリケーションモジュールは単独で、あるいは複数組み合わせて起動されてそれぞれ固有のサービスを提供する。サービスを提供するために各アプリケーションモジュールは、認識データ200cを利用する。
ファンクションライブラリ400は、複数の機能モジュールFNC1、FNC2、…、FNCMを記憶する。各機能モジュールは、提供すべきサービスの実現のために画像センサC1〜Cnに動的に割りつけられる。つまり画像センサC1〜Cnは、アドオンされた機能モジュールに基づいて処理したデータを出力し、顔認証クラウド100に渡す。
選択部100bは、提供すべきサービスに応じたアプリケーションモジュールを選択する。すなわち選択部100bは、例えば人間、またはコンピュータにより要求されたサービスに応じたアプリケーションモジュールを選択する。あるいは選択部100bは、1日の中での時間帯に応じたアプリケーションモジュールを選択する。または選択部100bは、画像センサC1〜Cnのそれぞれの設置箇所(ロケーション)に応じたアプリケーションモジュールを選択する。これにより適切なアプリケーションモジュールが選択され、提供すべきサービスは、選択されたアプリケーションモジュールによって実現される。
機能割り当て部100cは、選択部100bにより選択されたアプリケーションモジュールの実現に要する機能モジュールをファンクションライブラリ400から読み出し、画像センサC1〜Cnのそれぞれに割り当てる。例えば機能割り当て部100cは、画像センサC1〜Cnの相関関係、あるいはコミュニティの特性(道路や建物などの属性情報)などに基づいて機能モジュールを読み出すとともに、画像センサC1〜Cnに対する機能モジュールの配置を自動的、あるいは半自動的(オペレータの介入を含む)に決定する。
サービス提供部100dは、アプリケーションを実行する主体であり、例えばコンピュータを備える処理系である。この処理系にアプリケーションモジュールがロードされ提供されることで、所要のサービスが提供される。すなわちサービス提供部100dは、選択されたアプリケーションモジュールに基づいて、提供すべきサービスを実行する。
さらに、顔認証クラウド100は課金サーバ500を備える。課金サーバ500は、選択部100bにより選択されたアプリケーションモジュールに応じて、サービスの受益者に課金する。サービスの受益者は、例えばサービスをリクエストした人間であったり、あるいはエリアサーバ10M、10Kであって良い。エリアサーバ10M、10Kへの課金は、各エリア(Mエリア、Kエリア)に居住する人間への課金に代えても良い。
図3は、認識エンジン100aおよびサービス提供部100dに係わる詳細を示す機能ブロック図である。図3において、複数の入力部はそれぞれ画像センサC1〜Cnからの画像データを取得する。画像データは、認識エンジン100aの検出部10にそれぞれ送られる。検出部10は画像データから認識すべき対象を検出し、その結果を認識部20に渡す。認識エンジン100aの認識部20は、検出された対象を認識し、認識データ200cをデータベース部200に記憶する。
サービス推奨部30、サービス要求入力部40および出力部50は、サービス提供部100dに係わる機能ブロックである。
サービス推奨部30は、例えば画像センサC1〜Cnのロケーションや、入力部を介して入力された情報などに基づいて、提供すべきサービスを判別する。判別されたサービスはリストアップされ、例えばメニュー形式でユーザに提示される。このメニューには、リストアップされたサービスコンテンツや、画像センサに対する機能モジュールの配置などを推奨案として提示しても良い。そして、いずれかのサービスが選択されると、その旨がサービス要求入力部40を介してサービス提供部100dに通知される。
ここで、サービス提供部100dにより提供可能なサービスの一例を列挙する。
<人物に関するあらゆる情報の把握>
(例)人物の検出、追跡、特定人物の検索、属性情報、人数情報、挙動解析
上記したこれらの情報は認識エンジン100aにより生成される情報の一例である。つまり認識エンジン100aは、人物の検出、追跡、特定人物の検索、属性情報、人数情報および挙動解析の少なくともいずれかに係わる認識データを画像データ200aから生成する。
<人物の属性情報の特定>
(例)
属性情報(属人):年齢、性別、人種、身長、髪型、富裕度
属性情報(着用):アクセサリ(マスク、メガネ、サングラス、帽子、服装)
属性情報(動作):表情、目つぶり、会話中、挙動、顔向き、目線
上記したこれらの属性情報は、人物に属する情報、人物の着用物に関する情報、および、人物の動作に係わる情報の少なくともいずれかを含む情報である。
<人以外への拡張>
(例)車両(車、電車)、飛行機、船、河川、土手、山、海、道路
つまり認識エンジン100aは、車両、列車、飛行機、船、河川、土手、山、海および道路の少なくともいずれかに係わる認識データを画像データから生成する。
このほか、人を対象とするサービスの例として以下のものが挙げられる。
[人を対象とするサービスの例]
・本人認証(eコマース・入退室)
・人物監視(迷子・BL・VIP・俳個老人)
・人物属性判別(デジタルサイネージ)
・人物存在検知(照明空調制御)
・人物進入検知(重要施設監視)
・人数カウント(注目度判定、機器制御)
・人流解析(マーケティング、施設設計)
・属性+人数(顧客分析)
車両を対象とするサービスの例として以下のものが挙げられる。
[車両を対象とするサービスの例]
・車両検知(侵入検知、駐車場管理)
・車種判別(料金課金、駐車場管理)
・車両個体検知(顧客管理、VIP検知、不審車両検知)
物を対象とするサービスの例として以下のものが挙げられる。
[物を対象とするサービスの例]
・物体検知(監視)
・物体変化検知(崩落検知など)
・所持品検知(所持品チェック、分析)
サービス要求入力部40によりサービスを要求されたサービス提供部100dは、アプリケーションを起動し、認識データ200cを処理して所望のサービスを提供し、その結果を出力部50に出力する。出力部50は例えばGUI(Graphical User Interface)を介してサービス内容を表示したり、通信機能によりサービス要求者に結果を通知したりする。このほか、ユーザの保持するモバイル端末、あるいはタブレット端末の画面に情報を表示するようにしても良い。
なお画像認識の具体的な方法については、例えば上記した先行技術文献により既に既知であるので詳しい説明は省略する。以下では、実施形態に特有の、画像認識の結果を利用したサービスの提供の手法について詳しく説明する。
図4は、実施形態に係わる処理手順の一例を示すシーケンスチャートである。図4においてはエリアサーバ10Mと顔認証クラウド100との処理について説明するが、エリアサーバ10Kについても同様である。顔認証クラウド100は、サービスコンテンツ及びその単価をリストアップしたサービスメニューを、エリアサーバ10Mに提示する(ステップS1)。エリアサーバ10Mは例えばオペレータの選択操作、あるいは自動判定によりいずれかのサービスを選択し、選択したサービスの提供を要求するリクエスト信号を顔認証クラウド100に通知する(ステップS2)。
顔認証クラウド100は、要求されたサービスコンテンツを提供するためのアプリケーションを選択し(ステップS3)、このアプリケーションを実行するのに必要となる、画像センサC1〜Cnへの機能割り当てを算出する(ステップS4)。選択されたアプリケーションはアプリケーションライブラリ300から読み出されてサービス提供部100dにロードされる。顔認証クラウド100はファンクションライブラリ400から、算出された割り当てに応じた機能モジュールを読み出し、各画像センサC1〜Cnに個別に割り当てる。
例えば、選択部100bにより、サービスAAというサービスを提供するためにはアプリケーションAPL20を要することが判断されたとする。そうすると図5に示されるように、サービス提供部100dにアプリケーションAPL20がロードされる。そして、このアプリケーションAPL20を実行するために、画像センサC3にファンクションFNC3,FNC12が割り当てられ、画像センサC4にファンクションFNC3,FNC13,FNC20が割り当てられる。
一方、別のサービスであるサービスBBが要求されたとすると、図6に示されるように、別のアプリケーションAPL30がサービス提供部100dにロードされる。そして、アプリケーションAPL30を実行するために、画像センサC3にファンクションFNC3が、画像センサC4にファンクションFNC2が、画像センサC6にファンクションFNC10とFNC15が、画像センサC7にファンクションFNC15が、それぞれアサインされる。このように、サービスと、アプリケーションと、画像センサへの機能割り当てとの間には密接な関係がある。実施形態では要求されたサービスに応じて、それらの組み合わせをダイナミックに可変する。
図4に戻り、機能を割り当てられた画像センサC1〜Cnは、それぞれ取得した画像データを顔認証クラウド100に送信する。画像データの画質、圧縮率、検知対象、あるいは送信タイミングなどの各種パラメータは、割り当てられた機能に応じて異なっていても良い。
顔認証クラウド100は受信した画像データを処理して認識処理を実行し(ステップS5)、生成された認識データをデータベース200に記録する。そして、この認識データを用いて、サービス提供部100dはサービスを提供する(ステップS6)。そうすると、要求された情報の表示、警告、あるいは通知など、リクエストされたサービスがエリアサーバ10Mに提供される(ステップS7)。
要求されたサービスの期限がタイムアウトしたり、サービス終了を求められた場合などには、サービスを終了することが顔認証クラウド100により判定される(ステップS8でYes)。そうすると機能開放処理が実行され(ステップS9)、画像センサC1〜Cnに割り当てられた各ファンクションが、開放要求メッセージの送信に伴って開放される。
次に、課金サーバ500による課金処理が実行される(ステップS10)。すなわち課金サーバ500は要求されたサービス、あるいは選択されたアプリケーションモジュールに基づいて課金データを算出し、サービスの受益者(エリアサーバ10MやエリアMの居住者など)に課金要求メッセージを送信する。
図7は、サービスの柔軟性の一例について説明するための図である。或るコミュニティにおいて、建物に対する距離を基準として境界部、および共用エリアが設定されているとする。境界部、共用エリアおよび建物では、それぞれ求められるサービスが異なる。例えば境界部では(ブラックリスト検索)というサービスが推奨される。このサービスでは境界部に存在する人の顔を認識してデータベース検索を行い、その人をコミュニティに入れて良いか否かが判定される。
共用エリアでは、人物ごとの属性を特定する(属性判別)サービスが推奨される。このサービスでは性別や、男性であればその年齢などが特定される。例えば(或る年齢層の、何人くらいの集団が何処に向かって移動中。性別比は男性:女性=60:40)などといったデータが算出される。得られたデータは共用エリアの店舗などに通知され、マーケティングなどに利用される。
建物においては、入退室管理アプリケーションにより、建物に入れて良いか否かが人物ごとに判定される。判定の結果がNGであればその旨がエリアサーバから建物のローカルサーバに通知されて、ゲートがロックされるなどの対応がなされる。
このように境界部、共用エリアおよび建物では要求されるサービスが異なる。また、場所が違えばその場所を受け持つ画像センサも異なる。そこで実施形態では、顔認証クラウド100において画像センサへの機能割り当てを動的に可変し、これによりサービスを場所、時間、あるいはリクエストなどに応じて柔軟に可変できるようにした。
このようにロケーションに応じて異なるサービスを実現することで、働きやすい街づくり、安全・安心な街づくり、快適・便利な街づくり、あるいは災害に強い街づくりに資することが可能になる。同様の技術思想により、時間に応じて異なるサービスを実現することもできるし、他のそのような観点からも、あらゆるサービスを自在に実現することが可能になる。
このほか、時間帯に応じて異なるサービスを提供することもできる。例えば店舗に対しては、昼間はマーケティング情報を供給するサービスを提供し、夜間には不審者情報を提供するサービスを提供するようにしても良い。マーケティング情報、不審者情報のいずれも、認識データを利用して生成することができる情報である。さらに、場所、人の数、課金体系などに応じてサービスを切り替えることもできる。
図8は、顔認証技術について説明するための図である。歩行中の人物の顔を画像センサC1〜C3から得られる画像データから検出し、以下のような処理を行うことができる。
(1)顔検出…顔を記録、簡易人数計測、映像検索効率化、冗長な映像記録の削減
(2)属性判別…顔の情報による年齢・性別判別等の推定
防災・BCP(日時別の通行人数、災害時の残留人数確認)
マーケティング(年齢・性別別の人数カウント、注目視線検出)
セキュリティ(不審人物=サングラスやマスク着用者の検知)
(3)顔検索…個人識別(顔写真DB内からの候補者検索)
特定人物(VIP/不審者の検出)、人物の所在管理・出入り管理
認識エンジン100aは、画像センサ(カメラ)C1〜Cnからの画像データを取得し、顔検出・追跡処理、あるいは顔特徴量計算などの処理を実施し、認識データを作成する。認識データはサーバ51により、顔画像データベースの検索処理、顔画像データベースの管理(登録・削除)、履歴保存(ファイル保存)などの処理に利用される。その際、顔写真データベース52に記憶される顔写真データを利用することも可能である。
図9は、実施形態に係わるサービス提供システムの一例を示す図である。サービス提供システムは、例えばオフィス60内において、顔写真データベース52にアクセス可能な顔検出サーバ53にソフトウェアをインストールして実現可能である。システムの拡充に応じて、既設IPカメラ(画像センサ)に新設IPカメラを追加することが可能である。このシステムを発展させたものとして図10に示されるように、データセンタ50にサーバ装置51および顔写真データベース52を備えるようにしたシステムも考えられる。
以上説明したようにこの実施形態では、画像センサC1〜Cnにより取得された画像データを収集し、認識エンジン100aによる顔認証処理により認識データを生成する。そして、ユーザのニーズや画像センサの設置場所(ロケーション)に応じた機能を画像センサごとに動的に割り当てることで、認識データを利用して種々のサービスを提供することが可能になる。つまり、画像センサから得られるデータを利用して、1つの画像センサで多様なサービスを切り替えて提供することができる。
すなわち、センシングされた人物の情報を利用してサービスを動的に切り替え、提供することができる。サービスを実施するための画像センサの機能は、ユーザ側からのニーズ、あるいは画像センサの位置などによってサービスを動的に割り当てる。つまり画像データを顔認証クラウド100に集約することで、画像データを利用するサービスコンテンツを動的に切り替えることができる。
サービスの切り替えは、ユーザ(オペレータ)が手動で選択することが可能である。あるいは、画像センサの位置や判別内容に応じて、サービスを自動的に(バックグラウンドで)実行することも可能である。
つまり実施形態によれば、本発明はセンシングされた人物の情報を利用してサービスを動的に提供できるようになる。サービスおよび画像センサへの機能の割り当ては、ユーザ側からのニーズ、画像センサの位置などにより動的に変化させることができる。このように、コアとなる機能(認識エンジン100a)をクラウドコンピューティングシステムに設けることで、画像センサのインテリジェント化(認識機能の割り付け)をコントロールできるようになる。これにより、画像センサC1〜Cnにテンポラリに機能を割り付けたり、異なる機能の同時起動が可能になったりする。また、クローズド型、あるいはコンポーネント型とは異なり、ハードウェアリソースを任意に増加/減少させることができ、コストメリットを得ることも可能になる。
さらに、顔認証クラウド100に課金サーバ500を設けることで、課金サーバ500による課金制御を実現することもできる。すなわち、サービス内容に応じた金額を課金することや、逆に、サポートされるサービスの機能/グレードを支払い金額に応じてコントロールするといった制御を実現することもできる。
システムの管理者は、ユーザに提供するサービスの機能、性能、ロケーション、サポート画像センサ台数などに応じて、適宜サービスフィーを設定することができる。もちろん、複数のユーザが同じ1台の画像センサを利用しても良いし、この場合にはユーザの数だけ料金を倍増しても良い。
このほか、ユーザのニーズに応じて、画像認識処理を組み合わせて結果を出力するようにしてもよい。また、画像データの集計単位(時間)も種々に設定可能である。さらに、認識エンジン100aは、画像センサからの画像データを並列もしくはシーケンシャルに処理し、映像内に生じた変化点を抽出し、ユーザが設定した認識サービスに依存して、ユーザに認識処理の結果をレポートする。出力情報は瞬時値(アラート情報)だけでなく、Daily/Weekly/Monthly/Annualy等などの集計単位でレポート化するようにしても良い。
また、顔認証クラウド100に異種のシステム(例えば、SNSサービスや各種イベントサービス、天気予報や交通情報)からのデータを与えれば、複数のシステムを連携した多様なサービスを実現することも可能になる。またユーザは、クラウドシステムに対してテンポラリなサービスの起動を要求することが可能である。
例えば、遠隔地に設置される画像センサを連携させるサービスとして、人物を全地球の範囲で追跡するというサービスが考えられる。例えば、或る指名手配犯人が北半球のXXX地点の画像センサで捕捉されると、このことをトリガとして全世界の画像センサに「人物捕捉機能」を割り付け、クラウドコンピューティングシステム100に「犯人追跡アプリケーション」を起動する。そして、例えば南半球のYYY空港の画像センサでこの犯人が認識されると、警備会社のサーバにそのことを直ちに通知し、当該人物を待ち構える。その後、犯人が拘束されると画像センサに割り付けられた機能を開放し、次のサービスに備えて待機する、といった応用事例を考えることができる。
これらのことから、サービスを柔軟に提供することの可能なサービス提供システム、サービス提供方法およびサービス提供管理装置を提供することが可能となる。
[第2の実施形態]
第1の実施形態では、提供すべきサービスに応じて、画像センサにアサインすべき機能を動的に変更し、また、アプリケーションを選択するという例を開示した。第2の実施形態では画像データの取得と認識データの生成とを同時並行的に実施し、データベースに蓄積されたデータをサービスの提供に活かすという例を開示する。
図11は、顔認証クラウド100に備わる機能の第2の実施形態を示す機能ブロック図である。図11において図2と共通する箇所には同じ符号を付して示し、ここでは異なる部分についてのみ説明する。図11に示される顔認証クラウド100は、認識エンジン100aと、取得部100e、データ加工部100f、サービス提供部100dおよびデータベース部200を備える。
認識エンジン100aは、画像センサC1〜Cnから送られた画像データ200aを取得すると直ちに認識データ200cを生成し、データベース部200に蓄積する。つまり第2の実施形態では、画像データ200aの取得と認識データ200cの生成とが同時進行的に実施され、画像データ200aおよび認識データ200cは時間の経過とともに累積的にデータベース200に蓄積される。
画像データ200aから認識データ200cを生成し、データベース部200に蓄積するという、認識エンジン100aの処理は、非構造化データから構造化データを生成し、データベースに記憶するという処理の一例である。
認識データ200cとしては例えば属性情報、人数データ、人数分布データ、性別分布データ、人流データ、マーケティング情報、不審者情報、アラート情報、車両データ、乗り物データ、建物データ、等、ありとあらゆるデータや情報が考えられる。
取得部100eは、提供すべきサービスに応じた認識データをデータベース部200から取得する。すなわち取得部100eは、例えば人間、またはコンピュータにより要求されたサービスに応じた認識データを取得する。あるいは取得部100eは、1日の中での時間帯に応じた認識データを取得する。または取得部100eは、画像センサC1〜Cnのそれぞれの設置箇所(ロケーション)に応じた認識データを取得する。これにより適切な認識データが取得される。
サービス提供部100dは、取得された認識データを利用してサービスを提供する。サービスの種別によっては、データベース部200から取得されたデータを加工する必要がある。そこでデータ加工部100fは、取得された認識データ200cをサービスの種別に応じて加工し、サービス提供部100dに渡す。
図12は、第2の実施形態に係わる処理手順の一例を示すシーケンスチャートである。図12において、画像センサC1〜Cnはそれぞれ取得した画像データを顔認証クラウド100にリアルタイム送信する(ステップS11)。送信された画像データはデータベース200に蓄積されるとともに認識エンジン100aに与えられ、認識処理により画像データから認識データ200cが生成される(ステップS12)。生成された各種の認識データ200cはデータベースに蓄積される。
エリアサーバ10Mからサービスを要求されると(ステップS14)、顔認証クラウド100はリクエスト信号の到来を認識し(ステップS15でYes)、リクエスト信号に含まれるサービスコード(ID:IDentification)を解読する(ステップS16)。顔認証クラウド100の取得部100eは、データベース200を検索して(ステップS17)、解読されたサービスコードのサービスを提供するのに必要な認識データを取得する(ステップS18)。
その後、取得された認識データは必要に応じて加工され(ステップS19)、エリアサーバ10Mに送信されてサービスが提供される(ステップS20)。要求されたサービスが人物追跡サービスであれば人物追跡データが送信され、マーケティングサービスであればマーケティングデータが送信され、統計サービスであれば例えば図13に示される集計データや、図14〜図16に示されるグラフデータが送信されるであろう(ステップS21)。
図13は、例えば或る日付における、或る地点の人口分布の時間推移の集計値の一例を示す図である。このテーブルも認識データの一つの形態であり、画像センサで取得された画像データを解析して生成することが可能である。つまり図13に示されるようなデータ(人流データと称することもある)は顔認証クラウド100の画像処理により既に生成されてデータベース200に蓄積されているので、リクエストに応じて読み出すことでサービスを提供することができる。
図14はグラフデータの一例を示す図であり、例えば図13に示される人流データをデータ加工部100fによりグラフ形式に加工して得られるグラフを示す。図15は人口分布の男女比を時間別に示すグラフであり、例えば、より高いグレードのサービスに対応する。
つまり基本サービスでは図14のグラフだけが示され、そのワンランク上を要求すれば図15のグラフが示され、さらにその上のグレードのサービスを要求すれば、図16の年齢別グラフが示される。図16は、例えば図14および図15と同じ日の、16:00における、性別ごとの人数の分布を世代別に示すグラフである。図14〜図16のいずれのグラフも図13の人流データから生成することが可能である。
このように、サービスのグレードに応じて異なる認識データを示すことが可能であり、例えばグレードがアップするにつれてより詳細なデータを示す、といったかたちでサービスを提供することが可能になる。サービスのグレードはサービスの対価として、例えば課金データに反映させることができる。サービスフィーがアップするにつれて、示されるデータの詳細度もアップする、といったかたちのサービスも可能である。なおサービスおよびそのグレードは、サービスコード(ID)により区別できる。
図12に戻り、課金サーバ500はサービスのグレードに応じてエリアサーバ10Mに課金し(ステップS22)、顔認証クラウド100は画像データの受信および認識処理を継続するとともに、サービスリクエストの到来を待ち受ける。
なお、予め既定の料金(サービスフィー)をシステムに納入しておき、その金額に見合ったサービスを受ける、という形態も可能である。つまりサービスの提供後でなく、提供前に納入された金額に応じたグレードのサービスを与える、という形態である。この形態では要するに、サービスフィーに応じた認識データをデータベース200から取得するようにすれば良い。
さらに、必要な時に、必要なだけのサービスフィーを支払うことで、それに見合ったサービスの提供を受けられるようにすることも可能である。
以上述べたように第2の実施形態によれば、画像センサC1〜Cnによる画像データの取得と認識データの生成とを同時進行的に実行し、得られたデータをデータベース200に累積的に蓄積する。そして、リクエストされたサービスの種別やグレードに応じた認識データをデータベース200から取得し、リクエスト元に送信する。
第2の実施形態では、構造化データ、非構造化データを問わず、考え得るあらゆるデータをビッグデータ(Big Data)に蓄積し、要求に応じてデータを取り出すようにしている。つまりサービスを提供するのに必要になるデータを予め作成してデータベース200に蓄積しているので、リクエストから提供までに掛かる時間を短縮できるなどのメリットを得られる。また、元になる画像データや周辺データが失われサービスリクエストに応えられないといった事態を招く虞もない。
また、納入されるサービスフィーの金額に応じて、顧客(サービスの受益者)に提示される情報を制御することも可能である。例えば金額が多ければ多いほど、詳細な情報を提供するようにすることができる。図13〜図15に示されるように、例えば或る場所を通過した人物を分析し、高額の支払者には年齢や性別ごとに細かいグループ単位で傾向分析を出力し、低額の支払者には人数だけを出力する(年齢や性別の情報は隠して出す)、という形態も可能である。このように、提供するサービス(情報)をサービス対象によって変えることができるし、さらには、金額の追加に応じて分析レポートなども追加する、といった形態も可能である。
これらのことから、第2の実施形態によっても、サービスを柔軟に提供することの可能なサービス提供システム、サービス提供方法およびサービス提供管理装置を提供することが可能となる。
[第3の実施形態]
第3の実施形態では、第2の実施形態に係わる処理を、単一のコンピュータ(サーバ装置)に実装する形態について説明する。
図17は、第3の実施形態に係わるサービス提供管理装置の一例を示す機能ブロック図である。図17において図2または図11と共通する箇所には同じ符号を付して示し、ここでは異なる部分についてのみ説明する。
図17に示されるサービス提供管理装置1は、CPU(Central Processing Unit)2、プログラムメモリ3、インタフェース部4、表示部5、データベース部200および入出力部6を備える。CPU2は、プログラムメモリ3に記憶される認識プログラム3a、取得プログラム3b、データ加工プログラム3c、サービス提供プログラム3dおよび管理プログラム3eに記載されたコマンド列に基づいて、図11に示される認識エンジン100a、取得部100e、データ加工部100f、サービス提供部100dの機能と、管理部100gの機能とを実現する。
管理部100gは、管理プログラム3eに基づいて、サービス提供部100dによるサービス提供機能の有効/無効を管理する。その際、管理部100gは、管理テーブル200dを参照し、サービス提供機能の有効/無効を決定する。
図18および図19は、管理テーブル200dの内容の一例を示す図である。図18を参照すると、サービス提供プログラムの実行が許可されており、詳しくは車両検知サービス、および所持品検知サービスだけが実行を許可されていることがわかる。図19によれば、サービス提供プログラムの実行が許可されていない状態が示される。管理テーブルの内容は、別途設けられるコンピュータとしての管理端末(図示せず)からリモートで設定することが可能である。
このように、クラウドコンピューティングシステム100に設けた機能をサーバコンピュータ、あるいはデータセンタにインプリメントすることができる。サーバコンピュータにはサービスの提供に係る機能や動作の有効/無効を管理するための管理テーブルを持たせることで、実施形態に係る機能の有効/無効を設定することができる。
図17には、図11に示される第2の実施形態に係わる機能ブロックを備えるコンピュータを示したが、図2に示される、第1の実施形態に係わる機能ブロックを備えるコンピュータも同様に実現可能である。もちろん、サービス提供管理装置1が課金サーバ500の機能を備えることも可能である。
本発明のいくつかの実施形態を説明したが、これらの実施形態は例として提示するものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。
C1〜Cn…画像センサ、100…クラウドコンピューティングシステム(顔認証クラウド)、100a…認識エンジン、10M,10K…エリアサーバ、100b…選択部、100c…機能割り当て部、100d…サービス提供部、200…データベース部、300…アプリケーションライブラリ、400…ファンクションライブラリ、200a…画像データ、200b…顔写真データ、200c…認識データ、500…課金サーバ、30…サービス推奨部、40…サービス要求入力部、50…出力部、51…サーバ装置、52…顔写真データベース、53…顔検出サーバ、60…オフィス、100e…取得部、100f…データ加工部、1…サービス提供管理装置、2…CPU、100g…管理部、3…プログラムメモリ、3a…認識プログラム、3b…取得プログラム、3c…データ加工プログラム、3d…サービス提供プログラム、3e…管理プログラム、200d…管理テーブル、4…インタフェース部、5…表示部、6…入出力部

Claims (33)

  1. 画像センサにより取得された画像データを処理して対象の認識データを生成する認識エンジンと、
    複数の画像センサからの画像データに基づく前記認識データを利用してそれぞれ異なるサービスを提供する複数のアプリケーションモジュールと、
    提供すべきサービスに応じたアプリケーションモジュールを選択する選択部と、
    前記選択されたアプリケーションモジュールに応じた機能を前記複数の画像センサのそれぞれに割り当てる割り当て部と、
    前記選択されたアプリケーションモジュールに基づき前記サービスを提供するサービス提供部とを具備する、サービス提供システム。
  2. 複数の画像センサからの画像データに基づく前記認識データを蓄積するデータベースと、
    提供すべきサービスに応じた認識データを前記データベースから取得する取得部とをさらに具備し
    前記サービス提供部は、前記取得された認識データに基づき前記サービスを提供する、請求項1に記載のサービス提供システム。
  3. 前記認識エンジンは、人物の検出、追跡、特定人物の検索、属性情報、人数情報および挙動解析の少なくともいずれかに係わる認識データを前記画像データから生成する、請求項1および2のいずれか1項に記載のサービス提供システム。
  4. 前記属性情報は、前記人物に属する情報、前記人物の着用物に関する情報、および、前記人物の動作に係わる情報の少なくともいずれかを含む、請求項3の記載のサービス提供システム。
  5. 前記認識エンジンは、車両、列車、飛行機、船、河川、土手、山、海および道路の少なくともいずれかに係わる認識データを前記画像データから生成する、請求項1および2のいずれか1項に記載のサービス提供システム。
  6. 前記選択部は、要求されたサービスに応じたアプリケーションモジュールを選択する、請求項1に記載のサービス提供システム。
  7. 前記選択部は、時間帯に応じたアプリケーションモジュールを選択する、請求項1に記載のサービス提供システム。
  8. 前記選択部は、前記画像センサのロケーションに応じたアプリケーションモジュールを選択する、請求項1に記載のサービス提供システム。
  9. さらに、前記選択されたアプリケーションモジュールに応じて前記サービスの受益者に課金する課金処理部を具備する、請求項1に記載のサービス提供システム。
  10. 前記取得部は、要求されたサービスに応じた認識データを取得する、請求項2に記載のサービス提供システム。
  11. さらに、前記取得された認識データに応じて前記サービスの受益者に課金する課金処理部を具備する、請求項2に記載のサービス提供システム。
  12. 前記取得部は、事前に納入されたサービスフィーに見合う認識データを取得する、請求項2に記載のサービス提供システム。
  13. クラウドコンピューティングシステムに設けられる認識エンジンが、画像センサにより取得された画像データを処理して対象の認識データを生成し、
    複数の画像センサからの画像データに基づく前記認識データを利用してそれぞれ異なるサービスを提供する複数のアプリケーションモジュールから、提供すべきサービスに応じたアプリケーションモジュールを選択し、
    前記選択されたアプリケーションモジュールに応じた機能を前記複数の画像センサのそれぞれに割り当て、
    前記選択されたアプリケーションモジュールに基づき前記サービスを提供する、サービス提供方法。
  14. さらに、複数の画像センサからの画像データに基づく前記認識データをデータベースに蓄積し、
    提供すべきサービスに応じた認識データを前記データベースから取得し、
    前記取得された認識データに基づき前記サービスを提供する、請求項13に記載のサービス提供方法。
  15. さらに、前記選択されたアプリケーションモジュールに応じて前記サービスの受益者に課金する、請求項13に記載のサービス提供方法。
  16. 前記選択することは、要求されたサービスに応じたアプリケーションモジュールを選択する、請求項13に記載のサービス提供方法。
  17. 前記選択することは、時間帯に応じたアプリケーションモジュールを選択する、請求項13に記載のサービス提供方法。
  18. 前記選択することは、前記画像センサのロケーションに応じたアプリケーションモジュールを選択する、請求項13に記載のサービス提供方法。
  19. 前記取得することは、要求されたサービスに応じた認識データを取得する、請求項14に記載のサービス提供方法。
  20. さらに、前記取得された認識データに応じて前記サービスの受益者に課金する、請求項14に記載のサービス提供方法。
  21. 前記取得することは、事前に納入されたサービスフィーに見合う認識データを取得する、請求項14に記載のサービス提供方法。
  22. 画像センサにより取得された画像データを処理して対象の認識データを生成する認識エンジンと、
    複数の画像センサからの画像データに基づく前記認識データを利用してそれぞれ異なるサービスを提供する複数のアプリケーションモジュールと、
    提供すべきサービスに応じたアプリケーションモジュールを選択する選択部と、
    前記選択されたアプリケーションモジュールに応じた機能を前記複数の画像センサのそれぞれに割り当てる割り当て部と、
    前記選択されたアプリケーションモジュールに基づき前記サービスを提供するサービス提供部と、
    前記サービス提供部によるサービス提供機能の有効/無効を管理する管理部とを具備する、サービス提供管理装置。
  23. 複数の画像センサからの画像データに基づく前記認識データを蓄積するデータベースと、
    提供すべきサービスに応じた認識データを前記データベースから取得する取得部と、
    前記サービス提供部によるサービス提供機能の有効/無効を管理する管理部とをさらに具備し、
    前記サービス提供部は、前記取得された認識データに基づき前記サービスを提供する、請求項22に記載のサービス提供管理装置。
  24. 前記認識エンジンは、人物の検出、追跡、特定人物の検索、属性情報、人数情報および挙動解析の少なくともいずれかに係わる認識データを前記画像データから生成する、請求項22および23のいずれか1項に記載のサービス提供管理装置。
  25. 前記属性情報は、前記人物に属する情報、前記人物の着用物に関する情報、および、前記人物の動作に係わる情報の少なくともいずれかを含む、請求項24の記載のサービス提供管理装置。
  26. 前記認識エンジンは、車両、列車、飛行機、船、河川、土手、山、海および道路の少なくともいずれかに係わる認識データを前記画像データから生成する、請求項22および23のいずれか1項に記載のサービス提供管理装置。
  27. 前記選択部は、要求されたサービスに応じたアプリケーションモジュールを選択する、請求項22に記載のサービス提供管理装置。
  28. 前記選択部は、時間帯に応じたアプリケーションモジュールを選択する、請求項22に記載のサービス提供管理装置。
  29. 前記選択部は、前記画像センサのロケーションに応じたアプリケーションモジュールを選択する、請求項22に記載のサービス提供管理装置。
  30. さらに、前記選択されたアプリケーションモジュールに応じて前記サービスの受益者に課金する課金処理部を具備する、請求項22に記載のサービス提供管理装置。
  31. 前記取得部は、要求されたサービスに応じた認識データを取得する、請求項23に記載のサービス提供管理装置。
  32. さらに、前記取得された認識データに応じて前記サービスの受益者に課金する課金処理部を具備する、請求項23に記載のサービス提供管理装置。
  33. 前記取得部は、事前に納入されたサービスフィーに見合う認識データを取得する、請求項23に記載のサービス提供管理装置。
JP2013102507A 2013-05-14 2013-05-14 サービス提供システム、サービス提供方法およびサービス提供管理装置 Active JP6151085B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013102507A JP6151085B2 (ja) 2013-05-14 2013-05-14 サービス提供システム、サービス提供方法およびサービス提供管理装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013102507A JP6151085B2 (ja) 2013-05-14 2013-05-14 サービス提供システム、サービス提供方法およびサービス提供管理装置

Publications (2)

Publication Number Publication Date
JP2014222480A JP2014222480A (ja) 2014-11-27
JP6151085B2 true JP6151085B2 (ja) 2017-06-21

Family

ID=52121966

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013102507A Active JP6151085B2 (ja) 2013-05-14 2013-05-14 サービス提供システム、サービス提供方法およびサービス提供管理装置

Country Status (1)

Country Link
JP (1) JP6151085B2 (ja)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108027784A (zh) * 2015-09-25 2018-05-11 索尼公司 信息处理装置、服务处理装置、信息处理方法、程序、以及信息处理系统
JP2017068627A (ja) * 2015-09-30 2017-04-06 株式会社東芝 画像処理端末及び画像処理サーバ
WO2018092226A1 (ja) * 2016-11-17 2018-05-24 株式会社オプティム コンピュータシステム、api提供方法及びプログラム
WO2018100683A1 (ja) * 2016-11-30 2018-06-07 株式会社オプティム コンピュータシステム、エッジデバイス制御方法及びプログラム
JP6267838B1 (ja) * 2016-11-30 2018-01-24 株式会社オプティム コンピュータシステム、エッジデバイス制御方法及びプログラム
JP6610517B2 (ja) * 2016-11-30 2019-11-27 横河電機株式会社 オンデマンドサービス提供システム及びオンデマンドサービス提供方法
JP6483214B1 (ja) * 2017-09-20 2019-03-13 東芝エレベータ株式会社 エレベータシステム及びエレベータの迷子検出方法
JP6992883B2 (ja) * 2018-05-07 2022-01-13 日本電気株式会社 モデル提供システム、方法およびプログラム
JP7122693B2 (ja) * 2019-02-01 2022-08-22 パナソニックIpマネジメント株式会社 顔認証システムおよび顔認証方法
JP7134279B1 (ja) * 2021-02-26 2022-09-09 ヤフー株式会社 情報処理装置、情報処理方法及び情報処理プログラム

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003163859A (ja) * 2001-11-28 2003-06-06 Konica Corp フォトサービスシステムおよび画像形成装置
US6972694B2 (en) * 2003-01-28 2005-12-06 Honeywell International Inc. Cabin awareness and warning system
JP2005056312A (ja) * 2003-08-07 2005-03-03 Fuji Xerox Co Ltd ネットプリントシステムのサービス提供方法および装置並びにプログラム、サービス依頼方法および装置並びにプログラム
WO2010100735A1 (ja) * 2009-03-05 2010-09-10 キーパー=スミス エル・エル・ピー 情報サービス提供システム、情報サービス提供装置およびその方法
JP5482580B2 (ja) * 2010-09-03 2014-05-07 トヨタ自動車株式会社 充電施設情報提供装置
WO2013024673A1 (ja) * 2011-08-12 2013-02-21 オムロン株式会社 情報管理装置、ネットワークシステム、情報管理プログラム、および情報管理方法

Also Published As

Publication number Publication date
JP2014222480A (ja) 2014-11-27

Similar Documents

Publication Publication Date Title
JP6151085B2 (ja) サービス提供システム、サービス提供方法およびサービス提供管理装置
JP5605512B2 (ja) 情報管理装置、ネットワークシステム、情報管理プログラム、および情報管理方法
CN113196331B (zh) 利用卫星影像的应用服务提供装置及方法
WO2018180588A1 (ja) 顔画像照合システムおよび顔画像検索システム
CN107038675B (zh) 一种公安盘查管理系统及其运行方法
US20160294960A1 (en) Systems, Devices And Methods For Person And Object Tracking And Data Exchange
CN114446056B (zh) 车辆信息码的生成以及车辆通行控制方法、装置及设备
EP3479270B1 (en) Incident response analytic maps
WO2021180004A1 (zh) 视频分析方法、视频分析的管理方法及相关设备
KR102295660B1 (ko) 1 인 가구를 위한 IoT 기기 공유 서비스 제공 시스템
JP7103229B2 (ja) 不審度推定モデル生成装置
CN115002414A (zh) 监测方法、装置及服务器和计算机可读存储介质
KR101479260B1 (ko) 사진 기반 인물 친밀도 검색 방법
JP2013046135A (ja) 映像提供装置、映像利用装置、映像提供システム、映像提供方法、および、コンピュータ・プログラム
KR102328199B1 (ko) 추적 가능한 비식별화 방법, 장치 및 시스템
CN111861139A (zh) 商户推荐方法、装置及计算机设备
CN115205838A (zh) 一种车辆监测方法、装置、系统及可读存储介质
KR102436142B1 (ko) 단속 카메라로 촬영된 위반 사실을 이용한 확률적 예측 서비스 제공 방법 및 이를 위한 장치
JP2014042170A (ja) 撮影システム、撮影支援方法、撮影装置及びその制御方法、管理装置及びその制御方法、並びにプログラム
CN110992098A (zh) 一种获得对象信息的方法、装置、设备和介质
CN113449563A (zh) 一种人员跟踪标记方法、装置、电子设备及存储介质
CN110348379A (zh) 一种公共交通工具中目标对象确定方法、装置、系统及存储介质
WO2016114378A1 (ja) 情報収集システム、情報収集装置、情報収集端末、情報収集方法及び情報収集プログラム
KR102420151B1 (ko) 집합적 인지 추적 기반의 모바일 온디맨드 cctv 시스템
Orellana et al. Face Recognition for Criminal Identification: An Alert System in Suspects Scenarios

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160303

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20161221

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170110

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170313

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170425

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170524

R151 Written notification of patent or utility model registration

Ref document number: 6151085

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151