JP5699802B2 - 情報処理装置、情報処理方法、プログラム、及び情報処理システム - Google Patents

情報処理装置、情報処理方法、プログラム、及び情報処理システム Download PDF

Info

Publication number
JP5699802B2
JP5699802B2 JP2011117610A JP2011117610A JP5699802B2 JP 5699802 B2 JP5699802 B2 JP 5699802B2 JP 2011117610 A JP2011117610 A JP 2011117610A JP 2011117610 A JP2011117610 A JP 2011117610A JP 5699802 B2 JP5699802 B2 JP 5699802B2
Authority
JP
Japan
Prior art keywords
unit
information processing
subject
change
timing data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2011117610A
Other languages
English (en)
Other versions
JP2012247888A (ja
Inventor
健 宮下
健 宮下
脩 繁田
脩 繁田
顕博 小森
顕博 小森
斉昭 佐藤
斉昭 佐藤
山本 一幸
一幸 山本
野田 卓郎
卓郎 野田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2011117610A priority Critical patent/JP5699802B2/ja
Priority to US13/474,252 priority patent/US8803982B2/en
Priority to CN201210157380.0A priority patent/CN102999450B/zh
Publication of JP2012247888A publication Critical patent/JP2012247888A/ja
Application granted granted Critical
Publication of JP5699802B2 publication Critical patent/JP5699802B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • G06V40/173Classification, e.g. identification face re-identification, e.g. recognising unknown faces across different face tracks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris

Landscapes

  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Ophthalmology & Optometry (AREA)
  • Image Analysis (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Image Processing (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Description

本開示は、情報処理装置、情報処理方法、プログラム、及び情報処理システムに関する。
近年、インターネットの普及やハードウェア技術の向上に伴って、多くのユーザがパーソナルコンピュータ、携帯電話機、TV装置等の情報処理装置を利用するようになっている。また、被写体を撮像するカメラの小型化等に伴い、情報処理装置にカメラが搭載されている。そして、カメラを搭載した情報処理装置において、被写体を認識する被写体認識技術が提案されている(特許文献1参照)。
特開2010−61465号公報
ところで、カメラ等の撮像部を搭載した複数の情報処理装置が、同一のタイミングで被写体を撮像するケースがある。かかる際に、各情報処理装置によって撮像された画像間で、同一の被写体の抽出を求めるニーズがある。しかし、複数の情報処理装置が異なる視点で被写体を撮像する場合には、撮像された画像間で被写体の顔向きが異なるため、同一の被写体の抽出が困難である。
そこで、本開示は、視点が異なる複数の装置によって被写体が撮像された際に、容易に同一又は類似の被写体の抽出を行う方法を提案する。
本開示によれば、被写体を撮像する撮像部と、前記撮像部によって撮像される前記被写体の動きの変化を検出する動き検出部と、前記動き検出部によって前記動きの変化が検出された変化タイミングに関する第1タイミングデータを生成するデータ生成部と、前記撮像部による撮像中に、他の装置によって撮像される被写体の動きが検出された変化タイミングに関する第2タイミングデータを、前記他の装置から受信する受信部と、前記データ生成部によって生成された前記第1タイミングデータと前記受信部によって受信された前記第2タイミングデータとに基づいて、前記撮像部によって撮像された被写体と前記他の装置によって撮像された被写体とが同一又は類似の被写体か否かを判定する判定部と、を備える、情報処理装置が提供される。
また、本開示によれば、一の装置の撮像部によって撮像される被写体の動きの変化を検出することと、前記動きの変化が検出された変化タイミングに関する第1タイミングデータを生成することと、前記撮像部による撮像中に、他の装置によって撮像される被写体の動きが検出された変化タイミングに関する第2タイミングデータを、前記他の装置から受信することと、生成された前記第1タイミングデータと、受信された前記第2タイミングデータとに基づいて、前記撮像部によって撮像された被写体と前記他の装置によって撮像された被写体とが同一又は類似の被写体か否かを判定することと、を含む、情報処理方法が提供される。
また、本開示によれば、コンピュータに、一の装置の撮像部によって撮像される被写体の動きの変化を検出することと、前記動きの変化が検出された変化タイミングに関する第1タイミングデータを生成することと、前記撮像部による撮像中に、他の装置によって撮像される被写体の動きが検出された変化タイミングに関する第2タイミングデータを、前記他の装置から受信することと、生成された前記第1タイミングデータと、受信された前記第2タイミングデータとに基づいて、前記撮像部によって撮像された被写体と前記他の装置によって撮像された被写体とが同一又は類似の被写体か否かを判定することと、を実行させるための、プログラムが提供される。
また、本開示によれば、被写体を撮像する第1撮像部と、前記第1撮像部によって撮像される前記被写体の動きの変化を検出する第1動き検出部と、前記第1動き検出部によって前記動きの変化が検出された変化タイミングに関する第1タイミングデータを生成する第1データ生成部と、を備える情報処理装置と、被写体を撮像する第2撮像部と、前記第2撮像部によって撮像される前記被写体の動きの変化を検出する第2動き検出部と、前記第2動き検出部によって前記動きの変化が検出された変化タイミングに関する第2タイミングデータを生成する第2データ生成部と、前記第2データ生成部によって生成された前記第2タイミングデータを前記情報処理装置に送信する送信部と、を備える通信装置と、を有し、前記情報処理装置は、前記第1撮像部による撮像中に、前記送信部を介して前記第2タイミングデータを前記通信装置から受信する受信部と、前記第1タイミングデータと前記第2タイミングデータとに基づいて、前記第1撮像部によって撮像された被写体と前記第2撮像部によって撮像された被写体とが同一又は類似の被写体か否かを判定する判定部と、を更に備える、情報処理システムが提供される。
以上説明したように本開示によれば、視点が異なる複数の装置によって被写体が撮像された際に、容易に同一又は類似の被写体の抽出を行うことが可能となる。
第1の実施形態に係る情報処理システムの構成を示す図である。 ユーザ端末とTV装置で撮像された画像間でユーザの顔向きが異なることを説明するための模式図である。 ユーザ端末の詳細構成を示す図である。 コード生成部により生成されたタイミングデータとしてのコードの例を示す。 第1の実施形態に係るTV装置の詳細構成を示す図である。 TV装置とユーザ端末で生成されたタイムテーブル列を示す図である。 判定部による判定処理のアルゴリズム例を示す図である。 情報処理システムの動作例を示すフローチャートである。 第2の実施形態に係るTV装置の詳細構成を示す図である。 表示部による表示例を示す図である。 第3の実施形態に係る情報処理システムを示す図である。 ペアリング処理が実行される際の情報処理システムの動作を説明するためのシーケンス図である。
以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
なお、説明は以下の順序で行うものとする。
1.第1の実施形態
1−1.情報処理システムの構成
1−2.ユーザ端末の詳細構成
1−3.TV装置の詳細構成
1−4.情報処理システムの動作
2.第2の実施形態
3.第3の実施形態
<1.第1の実施形態>
(1−1.情報処理システムの構成)
図1を参照しながら、第1の実施形態に係る情報処理システム10の構成について説明する。図1は、第1の実施形態に係る情報処理システム10の構成を示す図である。
図1に示すように、情報処理システム10は、通信装置の一例であるユーザ端末100A、100B、100Cと、情報処理装置の一例であるTV装置200と、を有する。ユーザ端末100A、100B、100Cと、TV装置200とは、無線ネットワーク等を介して通信を行うことが可能である。なお、図1では、ユーザ端末が3つ示されているが、ユーザ端末の数は3つに限定されない。
ユーザ端末100A、100B、100Cは、ユーザにより使用される携帯電話、PDA、パーソナルコンピュータ等の端末である。ユーザ端末100A、100B、100C(以下では、説明の便宜上、総称してユーザ端末100とも呼ぶ)は、カメラ等の撮像部130を有し、端末の使用者であるユーザを被写体として撮像する。すなわち、ユーザは、ユーザ端末100を用いて自分撮りを行うことが可能である。例えば、ユーザ端末100Aは、ユーザ端末100Aの使用者であるユーザAを撮像し、ユーザ端末100Bは、ユーザ端末100Bの使用者であるユーザBを撮像し、ユーザ端末100Cは、ユーザ端末100Cの使用者であるユーザCを撮像する。また、ユーザ端末100は、撮像中のユーザの顔を検出する顔検出機能を有する。各ユーザA、B、Cの顔は、実際には、図1と異なり、ユーザ端末100A、100B、100Cを向いている。なお、ユーザ端末100の詳細構成については、後述する。
TV装置200は、映像等の画像を表示する装置である。TV装置200は、ユーザ端末100と同様に撮像部230を有し、ユーザ端末100A、100B、100Cの使用者であるユーザA、B、C(単に、ユーザとも呼ぶ)を被写体として撮像する。また、TV装置200は、撮像中のユーザの顔を検出する顔検出機能を有する。なお、TV装置200の詳細構成については、後述する。
ところで、本実施形態の情報処理システム10において、ユーザ端末100とTV装置200が、同じタイミングでユーザを撮像するケースがある。例えば、ユーザ端末100AとTV装置200が、同じタイミングでユーザAを撮像する。かかる際に、ユーザAに対するユーザ端末100AとTV装置200の視点が異なるので、撮像された画像間でユーザAの顔向きが異なる。
図2は、ユーザ端末100AとTV装置200で撮像された画像間でユーザの顔向きが異なることを説明するための模式図である。図2に示すように、ユーザ端末100Aの撮像部130はユーザAに対面して位置するので、撮像部130によって撮像された画像(静止画像)には、正面を見ているユーザAが含まれている。一方で、TV装置200の撮像部230はユーザAに対して斜めに位置するので、撮像部230によって撮像された画像には、斜めを見ているユーザAが含まれている。
このようにユーザ端末100とTV装置200が異なる視点でユーザを撮像しても、容易に同一又は類似のユーザの抽出を行うために、ユーザ端末100とTV装置200は、協働して以下のような処理を行う。
すなわち、詳細は後述するが、まず、TV装置200は、撮像部230によって撮像されるユーザの動きの変化(例えば、ユーザの目の瞬き)を検出し、ユーザの動きの変化が検出された変化タイミングに関するタイミングデータ(以下、第1タイミングデータとも呼ぶ)を生成する。同様に、ユーザ端末100も、撮像部130によって撮像されるユーザの動きの変化(例えば、ユーザの目の瞬き)を検出し、ユーザの動きの変化が検出された変化タイミングに関するタイミングデータ(以下、第2タイミングデータとも呼ぶ)を生成する。
次に、TV装置200は、撮像部230による撮像中に、ユーザ端末100が生成した第2タイミングデータをユーザ端末100から受信する。そして、TV装置200は、第1タイミングデータと第2タイミングデータとに基づいて、撮像部230によって撮像されたユーザと撮像部130によって撮像されたユーザと同一又は類似のユーザか否かを判定する。
かかる構成の場合には、視点が異なる複数の装置によってユーザが撮像された場合に、ユーザの顔向きが異なることがあっても、顔の動きのタイミングに基づいて同一のユーザを撮像しているかを判定できる。このため、視点が異なる複数の装置によってユーザが撮像された際に、容易に同一又は類似のユーザの抽出を行うことが可能となる。
(1−2.ユーザ端末の詳細構成)
図3を参照しながら、図1のユーザ端末100A、100B、100C(ここでは、ユーザ端末100と総称する)の詳細構成について説明する。図3は、ユーザ端末100の詳細構成を示す図である。
図3に示すように、ユーザ端末100は、入力部110と、表示部120と、撮像部130と、通信部140と、記憶部150と、制御部160と、を有する。
入力部110は、ユーザ端末100のユーザからの操作情報の入力を受け付ける機能を有する。例えば、入力部110は、撮像部130に撮像を行わせるためにユーザが操作した際の入力を受け付ける。入力部110は、スイッチ、ボタン、タッチパネル、キーボード、マウス等の入力装置により構成される。
表示部120は、制御部160による制御に基づいて、各種情報を表示する機能を有する。例えば、表示部120は、撮像部130により撮像された画像を表示する。表示部120は、液晶ディスプレイ、プラズマディスプレイ、有機ELディスプレイ等の表示装置により構成される。
撮像部130は、被写体を撮像する機能を有する。例えば、撮像部130は、ユーザ端末100の使用者であるユーザを撮像する。すなわち、ユーザ端末100のユーザは、自分撮りを行う。撮像部130により撮像された画像データは、画像処理等され、制御部160に順次入力される。例えば、撮像部130は、一定間隔で、撮像された画像データ(フレーム)を制御部160に出力する。撮像部130は、レンズと撮像素子を有するカメラ等の撮像装置により構成される。
通信部140は、制御部160による制御に基づいて、TV装置200と通信を行う送信部及び受信部としての機能を有する通信インタフェースである。通信部140は、有線又は無線LAN、Bluetooth用の通信カード、通信用ルータ、通信用モデム等の通信装置により構成される。
記憶部150は、制御部160により使用される各種情報を記憶する機能を有する。例えば、記憶部150は、撮像部130により撮像された画像データを記憶する。記憶部150は、磁気記憶デバイス、半導体記憶デバイス、光記憶デバイス等のストレージ装置により構成される。
制御部160は、ユーザ端末100の動作全体を制御する機能を有しており、例えば、入力部110から出力された操作情報、通信部140により受信された情報などに基づいてユーザ端末100の動作を制御することが可能である。制御部160は、CPU、ROM、RAMにより構成される。
図3に示すように、制御部160は、顔検出部161と、動き検出部162と、コード生成部163と、通信制御部164と、を有する。
顔検出部161は、撮像部130から順次入力された画像データを解析し、解析した画像データの中からユーザの顔を検出する機能を有する。顔検出部161は、撮像部130から入力される各画像データの中からユーザの顔を検出する。顔検出部161は、検出された顔に関する情報を動き検出部162に出力する。例えば、顔検出部161は、ユーザ端末100のユーザが自分撮りをしている際に、ユーザの顔を検出し、検出した顔に関する情報を動き検出部162に出力する。
動き検出部162は、顔検出部161から入力された顔に関する情報に基づいて、撮像部130によって撮像されるユーザの顔の動きの変化を検出する機能を有する。例えば、動き検出部162は、ユーザの動きの変化としてユーザの目の動き(具体的には、目の瞬き)を検出する。ここで、瞬きはユーザが無意識に行うものであるので、ユーザが意図的に顔を動かさなくても、動き検出部162は、瞬きを検出することで容易にユーザの動きの変化を検出できる。動き検出部162は、検出した目の動きに関する情報(目を瞬いたタイミングに関する情報も含む)を、コード生成部163に出力する。なお、上記では、ユーザの目の動きを検出することとしたが、これに限定されない。例えば、ユーザの顔の動きの変化として唇の動きを検出することとしても良い。
コード生成部163は、動き検出部162から入力された顔の動き(目の動き)に関する情報に基づいて、動き検出部162によって目の動きの変化が検出された変化タイミングに関するタイミングデータ(第2タイミングデータ)を生成する機能を有する。コード生成部163は、生成した第2タイミングデータを通信制御部164に出力する。
ここで、図4を参照しながら、生成されたタイミングデータについて説明する。図4は、コード生成部163により生成されたタイミングデータとしてのコードの例を示す。ここで、図4に示すコードは、通信部140による処理が容易となるように、XML(eXtensinble Markup Language)で表現されている。また、図4のtimestampタグの属性には、動き検出部162がユーザの目の瞬きを検出した時刻が記述されている。検出された時刻として、ユーザ端末100の内部時計の絶対時刻が記述されている。
図3に戻って、制御部160の構成の説明を続ける。通信制御部164は、通信部140によるTV装置200との通信を制御する。例えば、通信制御部164は、コード生成部163によって生成された第2タイミングデータをTV装置200に送信するように、通信部140を制御する。通信部140は、第2タイミングデータを所定量のパケットデータとして、TV装置200に送信する。この際に、通信制御部164は、TV装置200による処理の負担の増加を抑制するために、所定量のパケットデータに対応する第2タイミングデータを送信させている。なお、通信制御部164は、TV装置200との通信遅延時間の計測を行うことにより、ユーザ端末100とTV装置200の内部時計の同期を行う。このアルゴリズムが、公知のNTP(Network Time Protocol)プロトコル等を実装することで実現される。
(1−3.TV装置の詳細構成)
図5を参照しながら、TV装置200の詳細構成について説明する。図5は、第1の実施形態に係るTV装置200の詳細構成を示す図である。
図5に示すように、TV装置200は、入力部210と、表示部220と、撮像部230と、通信部240と、記憶部250と、制御部260と、を有する。
入力部210は、TV装置200のユーザからの操作情報の入力を受け付ける機能を有する。例えば、入力部210は、撮像部230に撮像を行わせるためにユーザが操作した際の入力を受け付ける。入力部210は、スイッチ、ボタン、タッチパネル、キーボード、マウス等の入力装置により構成される。
表示部220は、制御部260による制御に基づいて、各種情報を表示する機能を有する。例えば、表示部220は、撮像部230により撮像された画像を表示する。表示部220は、液晶ディスプレイ、プラズマディスプレイ、有機ELディスプレイ等の表示装置により構成される。
撮像部230は、被写体を撮像する機能を有する。例えば、撮像部230は、ユーザ端末100の使用者であるユーザ(図1においては、ユーザ端末100AのユーザA、ユーザ端末100BのユーザB、ユーザ端末100CのユーザC)を撮像する。撮像部230により撮像された画像データは、画像処理等され、制御部260に順次入力される。例えば、撮像部230は、一定間隔で、撮像された画像データ(フレーム)を制御部260に出力する。撮像部230は、レンズと撮像素子を有するカメラ等の撮像装置により構成される。
通信部240は、制御部260による制御に基づいて、ユーザ端末100と通信を行う送信部及び受信部としての機能を有する通信インタフェースである。通信部240は、撮像部230による撮像中に、ユーザ端末100で生成された第2タイミングデータを、ユーザ端末100から受信する。通信部240は、有線又は無線LAN、Bluetooth用の通信カード、通信用ルータ、通信用モデム等の通信装置により構成される。
記憶部250は、制御部260により使用される各種情報を記憶する機能を有する。例えば、記憶部250は、撮像部230により撮像された画像データを記憶する。記憶部250は、磁気記憶デバイス、半導体記憶デバイス、光記憶デバイス等のストレージ装置により構成される。
制御部260は、TV装置200の動作全体を制御する機能を有しており、例えば、入力部210から出力された操作情報、通信部240により受信された情報などに基づいてTV装置200の動作を制御することが可能である。制御部260は、CPU、ROM、RAMにより構成される。
図5に示すように、制御部260は、顔検出部261と、動き検出部262と、コード生成部263と、通信制御部264と、判定部265と、を有する。
顔検出部261は、撮像部230から順次入力された画像データを解析し、解析した画像データの中からユーザ(ユーザA、ユーザB、ユーザC)の顔を検出する機能を有する。顔検出部261は、撮像部230から入力される各画像データの中からユーザの顔を検出する。顔検出部261は、検出された顔に関する情報を動き検出部262に出力する。
動き検出部262は、顔検出部261から入力された顔に関する情報に基づいて、撮像部230によって撮像されるユーザ(ユーザA、ユーザB、ユーザC)の顔の動きの変化を検出する機能を有する。例えば、動き検出部262は、ユーザの動きの変化としてユーザの目の動き(具体的には、目の瞬き)を検出する。ここで、瞬きはユーザが無意識に行うものであるので、ユーザが意図的に顔を動かさなくても、動き検出部262は、瞬きを検出することで容易にユーザの動きの変化を検出できる。動き検出部262は、検出した目の動きに関する情報(目を瞬いたタイミングに関する情報も含む)を、コード生成部263に出力する。なお、上記では、ユーザの目の動きを検出することとしたが、これに限定されない。例えば、ユーザの顔の動きの変化として唇の動きを検出することとしても良い。
コード生成部263は、動き検出部262から入力された顔の動き(目の動き)に関する情報に基づいて、動き検出部262によって目の動きの変化が検出された変化タイミングに関するタイミングデータ(第1タイミングデータ)を生成する機能を有する。コード生成部263は、生成した第1タイミングデータを判定部265に出力する。
通信制御部264は、通信部240によるユーザ端末100との通信を制御する。例えば、通信制御部264は、撮像部230による撮像中に、ユーザ端末100で生成された第2タイミングデータを通信部240に受信させるように制御する。通信制御部264は、通信部240によって受信された第2タイミングデータを判定部265に出力する。
判定部265は、撮像部230によって撮像された被写体とユーザ端末100によって撮像された被写体とが同一又は類似の被写体か否かを判定する。具体的には、判定部265は、コード生成部263によって生成された第1タイミングデータと通信部240によって受信された第2タイミングデータとに基づいて、2つの被写体が同一又は類似であるか否かを判定する。かかる場合には、2つのタイミングデータに基づいて判定を行うので、画像同士を比較する場合に比べて処理量を低減でき、この結果、リアルタイムに同一又は類似のユーザを抽出することが可能となる。
また、判定部265は、第1タイミングデータにおける変化タイミングと第2タイミングデータにおける変化タイミングとの差が所定値よりも小さい場合に、撮像部230によって撮像された被写体とユーザ端末100によって撮像された被写体とが同一又は類似の被写体であると判定しうる。これにより、ユーザ端末100とTV装置200のユーザに対する異なる視点に起因して検出された2つのタイミングデータがずれている場合でも、高い確率で同一又は類似のユーザを抽出できる。
ところで、第1タイミングデータ及び第2タイミングデータは、それぞれ、一定期間内の異なるタイミングで検出された複数の変化タイミングを含む(後述する図6A参照)。かかる場合に、判定部265は、第1タイミングデータ及び第2タイミングデータに含まれる互いに対応した変化タイミング同士を、それぞれ比較する(例えば、タイミングの誤差を比較する)。そして、判定部265は、比較した変化タイミング間の差が所定値よりも小さい回数の割合が、所定割合よりも大きい場合に、同一又は類似の被写体であると判定しうる。これにより、より高い確率で、視点が異なるユーザ端末100とTV装置200で撮像された同一又は類似のユーザを抽出できる。
ここで、図6A、図6Bを参照しながら、判定部265による具体的な判定処理について説明する。なお、図6Aは、TV装置200とユーザ端末100で生成されたタイムテーブル列を示す図である。図6Bは、判定部265による判定処理のアルゴリズム例を示す図である。
図6Aにおいて、tはTV装置200において生成されたタイムテーブル列(第1タイミングデータ)を示し、uはユーザ端末100において生成されたタイムテーブル列(第2タイミングデータ)を示す。tとuは、ユーザが目を瞬いた瞬間のタイミングを示す。ここでは、説明の便宜上、タイムテーブル列uは、図1のユーザ端末100A、100B、100Cのうち一つのユーザ端末において生成されたものとする。
図6Bのアルゴリズムにおいて、判定部265は、まず、TminとTmaxを算出する。TminとTmaxは、それぞれ、tとuが共通でカバーしている範囲(以下、時刻範囲とも呼ぶ)の最小値、第大値である。図6Aにおいては、Tminはuであり、Tmaxはt12である。
次に、判定部265は、iminとimaxを算出する。iminとimaxは、それぞれ、時刻範囲に含まれるtのインデックスの最小値、最大値である。図6Aにおいては、iminはtであり、imaxはt12である。
次に、判定部265は、時刻範囲中のtに対して、最も近いuを求める。図6Aにおいては、tに対してuが、t10に対してuが、t11に対してuが、t12に対してuが、それぞれ最も近い。
次に、判定部265は、上記で求めたtとuの2つのタイムスタンプの誤差errを求める。すなわち、判定部265は、tとuの誤差と、t10とuの誤差と、t11とuの誤差と、t12とuの誤差を求める。そして、判定部265は、求めた誤差errが上限値ERRmax以下である回数をカウントする。
次に、判定部265は、時刻範囲中の全てのtに対応するuが見つかった割合scoreを求める。このように求めた割合scoreが、所定の基準値(例えば、90%)以上の場合、判定部265は、TV装置200とユーザ端末100が個別に認識したユーザの顔は同一又は類似のものであると判定する。
なお、上記では、判定のアルゴリズムとして、tとuの2つのタイムスタンプの誤差errを求めて、ユーザの顔が同一又は類似であるか否かを判定するものを例に挙げて説明したが、これに限定されない。例えば、tにおける変化タイミングの差分と、uにおける変化タイミングの差分とを比較して、ユーザの顔が同一又は類似であるか否かを判定するアルゴリズムであっても良い。
また、第1の実施形態においては、判定部265がTV装置200に設けられていることとして説明したが、これに限定されない。例えば、判定部は、TV装置200の代わりにユーザ端末100に設けられても良く、また、TV装置200及びユーザ端末100の両方に設けられても良い。
また、第1の実施形態においては、撮像部230が第1撮像部に該当し、撮像部130が第2撮像部に該当する。また、動き検出部262が第1動き検出部に該当し、動き検出部162が第2動き検出部に該当し、コード生成部263が第1データ生成部に該当し、コード生成部163が第2データ生成部に該当する。
(1−4.情報処理システムの動作)
図7を参照しながら、情報処理システム10の動作例について説明する。図7は、情報処理システム10の動作例を示すフローチャートである。図7のフローチャートは、図1に示すように、自分撮りをしているユーザ端末100のユーザを、TV装置200が撮像するところから開始される。
本処理は、ユーザ端末100の制御部160のCPU(コンピュータ)、及びTV装置200の制御部260のCPU(コンピュータ)が、それぞれROMに格納されているプログラムを実行することによって、実現される。なお、実行されるプログラムは、CD(Compact Disk)、DVD(Digital Versatile Disk)、メモリカード等の記録媒体に記憶されても良く、インターネットを介してサーバ等からダウンロードされても良い。
まず、ユーザ端末100は、撮像部130により撮像された画像を取り込む。同様に、TV装置200も、撮像部230により撮像された画像を取り込む(ステップS102)。次に、ユーザ端末100の顔検出部161は、撮像部130から入力された画像中の顔を検出する。同様に、TV装置200の顔検出部261も、撮像部230から入力された画像中の顔を検出する(ステップS104)。
検出された顔に対して図4で示すコードを生成する処理は、ユーザ端末100とTV装置200で同様であるので、以下では、TV装置200側での処理例を説明する。
次に、TV装置200の動き検出部262は、1フレーム前に検出している顔集合(id=0、・・・、n)のうちで、もっとも距離が近い顔(id=a)との距離distを求める(ステップS106)。そして、動き検出部262は、求めた距離distが所定の閾値以上であるか否かを判定する(ステップS108)。
ステップS108で距離distが閾値以上である場合には(Yes)、動き検出部262は、新規に登場した顔として新しいid(=b)を割り振る(ステップS110)。そして、コード生成部263は、新しいid(=b)の顔に対するコード(タイミングデータ)を生成する(ステップS114)。
ステップS108で距離distが閾値未満である場合には(No)、動き検出部262は、既にidが割り振られた顔(id=a)に対するコード(タイミングデータ)を取り出す(ステップS112)。
ステップS112又はステップS114後に、動き検出部262は、目の瞬きを検出したか否かを判定する(ステップS116)。ステップS116で目の瞬きが検出された場合には(Yes)、コード生成部263は、生成したコード又は取り出したコードに瞬きの瞬間のタイムスタンプを追加する(ステップS118)。
これにより、TV装置200は、図4に示すタイミングデータを生成することになる。同様に、ユーザ端末100も、上述した処理S106〜S118を行うことにより、図4に示すタイミングデータを生成することになる。なお、上記のステップS106〜S118の処理は、ステップS104で検出された顔が複数ある場合には、検出した顔毎に実行される。
ステップS102の画像の取り込みから一定時間経過すると、ユーザ端末100とTV装置200は、顔毎のコードを他の装置に送信する(ステップS122)。次に、ユーザ端末100とTV装置200は、他の装置からコードを受信したか否かを判定する(ステップS124)。
以下では、TV装置200がユーザ端末100からコードを受信したものとして説明する。ステップS124でTV装置200がユーザ端末100からコード(id=x)を受信すると(Yes)、TV装置200の判定部265は、保持している顔集合のコード(id=0、・・・n)と、受信した顔のコード(id=x)の間で、前述した図6Bの判定処理を行う(ステップS126)。ここで、判定部265は、顔集合のコードのうち、受信した顔のコード(id=x)に対応した顔のコード(id=mとする)と、受信した顔のコードとを比較判定する。
判定部265は、判定処理において、顔(id=x)のコードと顔(id=m)のコードとの間で、図6Bの割合scoreが所定の基準値よりも大きいか否かを判定する(ステップS128)。ステップS128で割合scoreが基準値よりも大きい場合には(Yes)、判定部265は、2つのコードに係る顔が同一(又は類似)の顔であると判定する(ステップS130)。
なお、ステップS126でTV装置200が複数のユーザ端末100からコードを受信した場合には、判定部265は、受信した顔のコード毎に、上記のステップS126〜S130の処理を実行する。
第1の実施形態によれば、TV装置200は、撮像部230による撮像中に、ユーザ端末100が生成した第2タイミングデータをユーザ端末100から受信する。そして、TV装置200は、第1タイミングデータと第2タイミングデータとに基づいて、撮像部230によって撮像されたユーザと撮像部130によって撮像されたユーザと同一又は類似のユーザか否かを判定する。
かかる構成の場合には、視点が異なるTV装置200とユーザ端末100によってユーザが撮像された場合に、ユーザの顔向きが異なることがあっても、顔の動きのタイミングに基づいて同一のユーザを撮像しているかを判定できる。このため、視点が異なるTV装置200とユーザ端末100によってユーザが撮像された際に、容易に同一又は類似のユーザの抽出を行うことが可能となる。特に、特定の顔画像を事前に記憶する必要が無いので、リアルタイムに同一又は類似のユーザの抽出を行うことが可能となる。なお、上記では、ユーザ端末100のユーザを抽出することとしたが、TV装置200とユーザ端末100が撮像したユーザ以外の人物を抽出することも可能である。
<2.第2の実施形態>
図8を参照しながら、第2の実施形態に係るTV装置300について説明する。図8は、第2の実施形態に係るTV装置300の詳細構成を示す図である。TV装置300の構成は、前述した図5のTV装置200と同様の構成であるが、TV装置300の制御部360の構成が、TV装置200の制御部260の構成と異なる。そこで、以下においては、制御部360の構成について主に説明する。なお、説明を省く構成の機能等については、図5に示す構成と同様である。
第2の実施形態に係るTV装置300も、図1に示すように、3つのユーザ端末100A、100B、100CのユーザA、B、Cを撮像可能である。また、ユーザA、B、Cは、各自のユーザ端末100A、100B、100Cを入力デバイスとして、TV装置300に対して操作を行うことができる。
図8に示すように、制御部360は、前述した顔検出部261、動き検出部262、コード生成部263、通信制御部264、及び判定部265に加えて、表示制御部366と、関連付け部367と、を有する。
表示制御部366は、表示部220の表示を制御する。例えば、表示制御部366は、撮像部230によって撮像されるユーザ(図1に示すユーザ端末100AのユーザA、ユーザ端末100BのユーザB、ユーザ端末100CのユーザC)に対応する画像を、図9に示すように表示部220に表示させる。
図9は、表示部220による表示例を示す図である。図9においては、撮像部230によって撮像されるユーザに対応する画像として、ユーザAの顔を示す顔画像I1、ユーザBの顔を示す顔画像I2、及びユーザCの顔を示す顔画像I3が、それぞれ表示画面の下側に表示されている。なお、表示画面の上側には、画像(写真画像等)が示されている。
関連付け部267は、判定部265によって、撮像部230が撮像したユーザとユーザ端末100が撮像したユーザとが同一又は類似のユーザであると判定された場合に、表示部220に表示された顔画像とユーザ端末100とを関連づける。図9においては、関連付け部267は、顔画像I1をユーザ端末100Aと関連付け、顔画像I2をユーザ端末100Bと関連付け、顔画像I3をユーザ端末100Cと関連付ける。これにより、TV装置300(表示部220に表示されている顔画像)と各ユーザ端末100A、100B、100Cとの間で対応関係が自動的に確立されるので、ユーザが、TV装置300(具体的には顔画像)とユーザ端末との対応付けを行う操作が不要となる。
ところで、ユーザ(TV装置300のユーザやユーザ端末100のユーザ)は、図9の表示画面上で操作を行うことが可能であり、例えば顔画像I1、I2、I3に対して操作を行いうる。このため、TV装置300の入力部210は、関連付け部267によってユーザ端末100と関連付けられた画像に対する、操作を受け付けることになる。
例えば、ユーザが図9に示す表示画面上の写真画像P1を顔画像I1の上にドラッグ・アンド・ドロップすると、通信部240は、写真画像P1を顔画像I1に関連付けられたユーザ端末100Aに送信する。同様に、通信部240は、写真画像P2を顔画像I2に関連付けられたユーザ端末100Bに送信し、写真画像P3を顔画像I3に関連付けられたユーザ端末100Cに送信する。このように、通信制御部264は、入力部210によって顔画像に対する操作を受け付けられた際に、顔画像が関連付けられたユーザ端末100と通信を行うように通信部240を制御し、操作に対応した処理を行う。
第2実施形態によれば、TV装置300に表示されている顔画像と各ユーザ端末100A、100B、100Cとの間で対応関係が自動的に確立されるので、ユーザが、TV装置300に表示された顔画像とユーザ端末との対応付けを行う操作が不要となる。また、画面上のユーザによる直感的な操作で、データ送信等の通信が可能となる。
<3.第3の実施形態>
図10を参照しながら、第3の実施形態に係る情報処理システム11について説明する。図10は、第3の実施形態に係る情報処理システム11を示す図である。
図10に示す情報処理システム11は、同一のネットワーク上に存在するユーザ端末100、TV装置200、及びTV装置400を有する。ただし、TV装置200とユーザ端末100が同じ部屋に位置し、TV装置400が壁を隔てて別の部屋に位置する。このため、TV装置200は、ユーザ端末100のユーザを撮像できるが、TV装置400は、ユーザ端末100のユーザを撮像できない。
第3の実施形態においても、ユーザ端末100、TV装置200、及びTV装置400は、図4で説明したコード(タイミングデータ)を生成する。ここで、生成されたコードは、通信接続を確立するためのペアリング時にPINコードとして送信される。そして、送受信されたコードが一致する装置同士で通信が確立される。これにより、同じ部屋に位置するユーザ端末100とTV装置200が、安全にペアリングすることができる。
図11は、ペアリング処理が実行される際の情報処理システム11の動作を説明するためのシーケンス図である。
まず、ユーザ端末100は、同一ネットワーク上に存在するデバイス(ここでは、TV装置200とTV装置400)に対して、デバイス探索のためのパケットをブロードキャストする(ステップS202、S204)。TV装置200及びTV装置400は、デバイス探索のパケットを受信すると、ユーザ端末100に対して応答パケットを送信する(ステップS206、S208)。
次に、ユーザ端末100、TV装置200、及びTV装置400は、それぞれ、前述したように図4に示すコード(タイミングデータ)を生成する処理を行う(ステップS210、S212、S214)。ここで、ユーザ端末100及びTV装置200は、ユーザ端末100のユーザを撮像するので、ユーザの顔の動き(目の瞬き)に対応したコードを生成する。一方で、TV装置400は、ユーザ端末100のユーザを撮像できないので、ユーザ端末100のユーザの顔の動きに対応しないコードが生成される(又は、コードが生成されないものとしても良い)。なお、上記では、応答パケットの送信後にコードの生成が行われることとしたが、これに限定されず、例えば応答パケットの送信前にコードの生成が行われてもよい。
次に、ユーザ端末100は、ステップS212で生成したコードをPINコードとして、TV装置200及びTV装置400に送信する(ステップS216、S218)。すなわち、図4のコードが、通信接続を確立するためのペアリング時のPINコードの機能も有することとなり、専用のPINコードの生成が不要となる。
TV装置200の判定部265は、通信部240によりユーザ端末100から受信したコードと、ステップS210で生成したコードを比較する(ステップS220)。ここで、TV装置200とユーザ端末100は同一のユーザを撮像しているので、判定部265は、2つのコードは同一であると判定する。そして、TV装置200の通信制御部264は、接続要求の受け入れパケットをユーザ端末100に送信する(ステップS222)。
同様に、TV装置400も、ユーザ端末100から受信したコードと、ステップS214で生成したコードを比較する(ステップS224)。ここで、TV装置400は、ユーザ端末100のユーザを撮像できないので、2つのコードは同一でないと判定する。そして、TV装置400は、接続要求の拒絶パケットをユーザ端末100に送信する(ステップS226)。
そして、同一ネットワーク上のユーザ端末100、TV装置200、400のうちの同一の部屋に位置するユーザ端末100及びTV装置400が、互いに接続を確立し、その後に通信を行う(ステップS228)。これにより、第3の実施形態のペアリング処理が終了する。
第3の実施形態によれば、同じ部屋に位置する機器(ユーザ端末100とTV装置200)を、ユーザを撮像して生成されたコードを用いて識別できるので、簡易な方法にて、ユーザ端末100とTV装置200を安全にペアリングすることができる。
以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示の技術的範囲はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
また、上記の実施形態では、動き検出部はユーザの顔のパーツ(目や唇)の動きを検出することとしたが、これに限定されない。例えば、ユーザの手や足等の動きを検出することとしても良い。また、上記の実施形態では、被写体としてユーザを例に挙げて説明したが、これに限定されず、動きのある被写体であれば良く、例えば動物であっても良い。
また、上記の実施形態のフローチャートに示されたステップは、記載された順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的に又は個別的に実行される処理をも含む。また時系列的に処理されるステップでも、場合によっては適宜順序を変更することが可能であることは言うまでもない。
なお、以下のような構成も本開示の技術的範囲に属する。
(1)被写体を撮像する撮像部と、
前記撮像部によって撮像される前記被写体の動きの変化を検出する動き検出部と、
前記動き検出部によって前記動きの変化が検出された変化タイミングに関する第1タイミングデータを生成するデータ生成部と、
前記撮像部による撮像中に、他の装置によって撮像される被写体の動きが検出された変化タイミングに関する第2タイミングデータを、前記他の装置から受信する受信部と、
前記データ生成部によって生成された前記第1タイミングデータと前記受信部によって受信された前記第2タイミングデータとに基づいて、前記撮像部によって撮像された被写体と前記他の装置によって撮像された被写体とが同一又は類似の被写体か否かを判定する判定部と、
を備える、情報処理装置。
(2)前記判定部は、前記第1タイミングデータにおける変化タイミングと前記第2タイミングデータにおける変化タイミングとの差が所定値よりも小さい場合に、前記撮像部によって撮像された被写体と前記他の装置によって撮像された被写体とが前記同一又は類似の被写体であると判定する、前記(1)に記載の情報処理装置。
(3)前記第1タイミングデータ及び前記第2タイミングデータは、それぞれ、一定期間内の異なるタイミングで検出された複数の変化タイミングを含み、
前記判定部は、
前記第1タイミングデータ及び前記第2タイミングデータに含まれる互いに対応した変化タイミング同士を、それぞれ比較し、
比較された変化タイミング間の差が前記所定値よりも小さい回数の割合が、所定割合よりも大きい場合に、前記同一又は類似の被写体であると判定する、前記(2)に記載の情報処理装置。
(4)前記動き検出部は、前記被写体の動きの変化として人物の目の瞬きを検出する、前記(1)〜(3)のいずれか1項に記載の情報処理装置。
(5)前記撮像部によって撮像される前記被写体に対応する画像を表示部に表示させる表示制御部と、
前記判定部によって、前記撮像部によって撮像された被写体と前記他の装置によって撮像された被写体とが同一又は類似の被写体であると判定された場合に、前記表示部に表示された画像と前記他の装置とを関連づける関連付け部と、
を更に備える、前記(1)〜(4)のいずれか1項に記載の情報処理装置。
(6)前記関連付け部によって前記他の装置と関連付けられた前記画像に対する、操作を受け付ける入力部と、
前記入力部によって前記操作を受け付けられた際に、前記他の装置と通信を行う通信制御部と、
を更に備える、前記(5)に記載の情報処理装置。
(7)前記受信部は、前記第2タイミングデータを、前記他の装置と通信接続を確立するためのペアリング時のPINコードとして受信する、前記(1)〜(6)のいずれか1項に記載の情報処理装置。
(8)前記判定部によって、前記撮像部によって撮像された被写体と前記他の装置によって撮像された被写体とが同一又は類似の被写体であると判定された場合に、前記他の装置と通信接続を確立させる通信制御部を更に備える、前記(7)に記載の情報処理装置。
(9)一の装置の撮像部によって撮像される被写体の動きの変化を検出することと、
前記動きの変化が検出された変化タイミングに関する第1タイミングデータを生成することと、
前記撮像部による撮像中に、他の装置によって撮像される被写体の動きが検出された変化タイミングに関する第2タイミングデータを、前記他の装置から受信することと、
生成された前記第1タイミングデータと、受信された前記第2タイミングデータとに基づいて、前記撮像部によって撮像された被写体と前記他の装置によって撮像された被写体とが同一又は類似の被写体か否かを判定することと、
を含む、情報処理方法。
(10)コンピュータに、
一の装置の撮像部によって撮像される被写体の動きの変化を検出することと、
前記動きの変化が検出された変化タイミングに関する第1タイミングデータを生成することと、
前記撮像部による撮像中に、他の装置によって撮像される被写体の動きが検出された変化タイミングに関する第2タイミングデータを、前記他の装置から受信することと、
生成された前記第1タイミングデータと、受信された前記第2タイミングデータとに基づいて、前記撮像部によって撮像された被写体と前記他の装置によって撮像された被写体とが同一又は類似の被写体か否かを判定することと、
を実行させるための、プログラム。
(11)被写体を撮像する第1撮像部と、前記第1撮像部によって撮像される前記被写体の動きの変化を検出する第1動き検出部と、前記第1動き検出部によって前記動きの変化が検出された変化タイミングに関する第1タイミングデータを生成する第1データ生成部と、を備える情報処理装置と、
被写体を撮像する第2撮像部と、前記第2撮像部によって撮像される前記被写体の動きの変化を検出する第2動き検出部と、前記第2動き検出部によって前記動きの変化が検出された変化タイミングに関する第2タイミングデータを生成する第2データ生成部と、前記第2データ生成部によって生成された前記第2タイミングデータを前記情報処理装置に送信する送信部と、を備える通信装置と、
を有し、
前記情報処理装置は、
前記第1撮像部による撮像中に、前記送信部を介して前記第2タイミングデータを前記通信装置から受信する受信部と、
前記第1タイミングデータと前記第2タイミングデータとに基づいて、前記第1撮像部によって撮像された被写体と前記第2撮像部によって撮像された被写体とが同一又は類似の被写体か否かを判定する判定部と、
を更に備える、情報処理システム。
10 情報処理システム
100 ユーザ端末
110 入力部
120 表示部
130 撮像部
140 通信部
150 記憶部
160 制御部
161 顔検出部
162 動き検出部
163 コード生成部
164 通信制御部
200 TV装置
210 入力部
220 表示部
230 撮像部
240 通信部
250 記憶部
260 制御部
261 顔検出部
262 動き検出部
263 コード生成部
264 通信制御部
265 判定部
360 制御部
366 表示制御部
367 関連付け部

Claims (10)

  1. 被写体を撮像する撮像部と、
    前記撮像部によって撮像される前記被写体の動きの変化を検出する動き検出部と、
    前記動き検出部によって前記動きの変化が検出された変化タイミングに関する第1タイミングデータを生成するデータ生成部と、
    前記撮像部による撮像中に、他の装置によって撮像される被写体の動きが検出された変化タイミングに関する第2タイミングデータを、前記他の装置から受信する受信部と、
    前記データ生成部によって生成された前記第1タイミングデータと前記受信部によって受信された前記第2タイミングデータとに基づいて、前記撮像部によって撮像された被写体と前記他の装置によって撮像された被写体とが同一又は類似の被写体か否かを判定する判定部と、
    を備える、情報処理装置。
  2. 前記判定部は、前記第1タイミングデータにおける変化タイミングと前記第2タイミングデータにおける変化タイミングとの差が所定値よりも小さい場合に、前記撮像部によって撮像された被写体と前記他の装置によって撮像された被写体とが前記同一又は類似の被写体であると判定する、請求項1に記載の情報処理装置。
  3. 前記動き検出部は、前記被写体の動きの変化として人物の目の瞬きを検出する、請求項1に記載の情報処理装置。
  4. 前記撮像部によって撮像される前記被写体に対応する画像を表示部に表示させる表示制御部と、
    前記判定部によって、前記撮像部によって撮像された被写体と前記他の装置によって撮像された被写体とが同一又は類似の被写体であると判定された場合に、前記表示部に表示された画像と前記他の装置とを関連づける関連付け部と、
    を更に備える、請求項1に記載の情報処理装置。
  5. 前記関連付け部によって前記他の装置と関連付けられた前記画像に対する、操作を受け付ける入力部と、
    前記入力部によって前記操作を受け付けられた際に、前記他の装置と通信を行う通信制御部と、
    を更に備える、請求項に記載の情報処理装置。
  6. 前記受信部は、前記第2タイミングデータを、前記他の装置と通信接続を確立するためのペアリング時のPINコードとして受信する、請求項1に記載の情報処理装置。
  7. 前記判定部によって、前記撮像部によって撮像された被写体と前記他の装置によって撮像された被写体とが同一又は類似の被写体であると判定された場合に、前記他の装置と通信接続を確立させる通信制御部を更に備える、請求項に記載の情報処理装置。
  8. 情報処理装置が備える動き検出部が、一の装置の撮像部によって撮像される被写体の動きの変化を検出することと、
    前記情報処理装置が備えるデータ生成部が、前記動きの変化が検出された変化タイミングに関する第1タイミングデータを生成することと、
    前記情報処理装置が備える受信部が、前記撮像部による撮像中に、他の装置によって撮像される被写体の動きが検出された変化タイミングに関する第2タイミングデータを、前記他の装置から受信することと、
    前記情報処理装置が備える判定部が、生成された前記第1タイミングデータと、受信された前記第2タイミングデータとに基づいて、前記撮像部によって撮像された被写体と前記他の装置によって撮像された被写体とが同一又は類似の被写体か否かを判定することと、
    を含む、情報処理方法。
  9. コンピュータに、
    一の装置の撮像部によって撮像される被写体の動きの変化を検出することと、
    前記動きの変化が検出された変化タイミングに関する第1タイミングデータを生成することと、
    前記撮像部による撮像中に、他の装置によって撮像される被写体の動きが検出された変化タイミングに関する第2タイミングデータを、前記他の装置から受信することと、
    生成された前記第1タイミングデータと、受信された前記第2タイミングデータとに基づいて、前記撮像部によって撮像された被写体と前記他の装置によって撮像された被写体とが同一又は類似の被写体か否かを判定することと、
    を実行させるための、プログラム。
  10. 被写体を撮像する第1撮像部と、前記第1撮像部によって撮像される前記被写体の動きの変化を検出する第1動き検出部と、前記第1動き検出部によって前記動きの変化が検出された変化タイミングに関する第1タイミングデータを生成する第1データ生成部と、を備える情報処理装置と、
    被写体を撮像する第2撮像部と、前記第2撮像部によって撮像される前記被写体の動きの変化を検出する第2動き検出部と、前記第2動き検出部によって前記動きの変化が検出された変化タイミングに関する第2タイミングデータを生成する第2データ生成部と、前記第2データ生成部によって生成された前記第2タイミングデータを前記情報処理装置に送信する送信部と、を備える通信装置と、
    を有し、
    前記情報処理装置は、
    前記第1撮像部による撮像中に、前記送信部を介して前記第2タイミングデータを前記通信装置から受信する受信部と、
    前記第1タイミングデータと前記第2タイミングデータとに基づいて、前記第1撮像部によって撮像された被写体と前記第2撮像部によって撮像された被写体とが同一又は類似の被写体か否かを判定する判定部と、
    を更に備える、情報処理システム。
JP2011117610A 2011-05-26 2011-05-26 情報処理装置、情報処理方法、プログラム、及び情報処理システム Active JP5699802B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2011117610A JP5699802B2 (ja) 2011-05-26 2011-05-26 情報処理装置、情報処理方法、プログラム、及び情報処理システム
US13/474,252 US8803982B2 (en) 2011-05-26 2012-05-17 Information processing apparatus, information processing method, program, and information processing system for determining a subject as being imaged by a plurality of imaging devices
CN201210157380.0A CN102999450B (zh) 2011-05-26 2012-05-18 信息处理装置、信息处理方法和信息处理系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011117610A JP5699802B2 (ja) 2011-05-26 2011-05-26 情報処理装置、情報処理方法、プログラム、及び情報処理システム

Publications (2)

Publication Number Publication Date
JP2012247888A JP2012247888A (ja) 2012-12-13
JP5699802B2 true JP5699802B2 (ja) 2015-04-15

Family

ID=47218997

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011117610A Active JP5699802B2 (ja) 2011-05-26 2011-05-26 情報処理装置、情報処理方法、プログラム、及び情報処理システム

Country Status (3)

Country Link
US (1) US8803982B2 (ja)
JP (1) JP5699802B2 (ja)
CN (1) CN102999450B (ja)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101919008B1 (ko) * 2012-02-24 2018-11-19 삼성전자주식회사 정보 제공 방법 및 이를 위한 이동 단말기
KR101894395B1 (ko) * 2012-02-24 2018-09-04 삼성전자주식회사 캡쳐 데이터 제공 방법 및 이를 위한 이동 단말기
JP6270325B2 (ja) * 2013-03-15 2018-01-31 キヤノン株式会社 情報処理装置およびその制御方法
TWI578184B (zh) * 2013-12-27 2017-04-11 由田新技股份有限公司 基於眼部開闔狀態的密碼輸入方法及應用其之保全裝置
CN104751114B (zh) * 2013-12-27 2018-09-18 由田新技股份有限公司 通过眼部开闭状态控制的验证系统及其手持式控制装置
CN105205420A (zh) * 2015-10-16 2015-12-30 上海斐讯数据通信技术有限公司 一种电子装置及其应用的密码输入方法及装置
CN105709418A (zh) * 2015-12-31 2016-06-29 联想(北京)有限公司 电子设备及其信息处理方法和信息处理装置
US11721308B2 (en) 2018-11-21 2023-08-08 Sony Corporation Information processing apparatus and information processing method

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004354420A (ja) * 2003-05-27 2004-12-16 Fuji Photo Film Co Ltd 自動撮影システム
JP2007114885A (ja) * 2005-10-18 2007-05-10 National Institute Of Information & Communication Technology 画像の類似性による分類方法及び装置
WO2007059301A2 (en) * 2005-11-16 2007-05-24 Integrated Equine Technologies Llc Automated video system for context-appropriate object tracking
WO2007136332A1 (en) * 2006-05-22 2007-11-29 Axis Ab Method and apparatus for identifying properties of an object detected by a video surveillance camera
US20080278589A1 (en) * 2007-05-11 2008-11-13 Karl Ola Thorn Methods for identifying a target subject to automatically focus a digital camera and related systems, and computer program products
US8144939B2 (en) * 2007-11-08 2012-03-27 Sony Ericsson Mobile Communications Ab Automatic identifying
CN100568262C (zh) * 2007-12-29 2009-12-09 浙江工业大学 基于多摄像机信息融合的人脸识别检测装置
JP2010056720A (ja) * 2008-08-27 2010-03-11 Panasonic Corp ネットワークカメラおよびネットワークカメラシステム
US9615064B2 (en) * 2010-12-30 2017-04-04 Pelco, Inc. Tracking moving objects using a camera network
JP2012186535A (ja) * 2011-03-03 2012-09-27 Nikon Corp 電子機器及びグループ化方法

Also Published As

Publication number Publication date
JP2012247888A (ja) 2012-12-13
US20120300086A1 (en) 2012-11-29
CN102999450B (zh) 2016-12-14
CN102999450A (zh) 2013-03-27
US8803982B2 (en) 2014-08-12

Similar Documents

Publication Publication Date Title
JP5699802B2 (ja) 情報処理装置、情報処理方法、プログラム、及び情報処理システム
US11196930B1 (en) Display device content selection through viewer identification and affinity prediction
US9277165B2 (en) Video surveillance system and method using IP-based networks
US20190026559A1 (en) Information display method, device, and system
EP2693394B1 (en) Information processor, information processing method, computer program and storage medium
EP2453386B1 (en) Multimedia device, multiple image sensors having different types and method for controlling the same
US20160062456A1 (en) Method and apparatus for live user recognition
US20130169530A1 (en) Human eye controlled computer mouse interface
KR101895846B1 (ko) 소셜 네트워킹 툴들과의 텔레비전 기반 상호작용의 용이화
US11763720B2 (en) Methods, systems, and media for detecting a presentation of media content on a display device
US9305227B1 (en) Hybrid optical character recognition
US20180183997A1 (en) Automatic detection of panoramic gestures
CN111565298B (zh) 视频处理方法、装置、设备及计算机可读存储介质
JP2010225118A (ja) 画像処理装置、方法及びプログラム
CN105892637A (zh) 手势识别方法及虚拟现实显示输出设备
JP6267350B2 (ja) データ処理装置、データ処理システム、データ処理方法及びプログラム
CN113454634A (zh) 信息处理系统、信息处理装置、信息处理方法和程序
KR101411636B1 (ko) 스마트 티비 기반의 상황 인지를 통한 엔스크린 서비스 제공 시스템, 장치, 방법 및 컴퓨터 판독 가능한 기록 매체
EP2925009A1 (en) Viewer engagement estimating system and method of estimating viewer engagement
US20230267741A1 (en) Analysis system and control method for analysis system
KR101525223B1 (ko) 데이터 이동 시스템, 데이터 이동 방법 및 이를 수행하기 위한 프로그램을 포함하는 컴퓨터로 판독 가능한 기록매체
JP2024129396A (ja) 不審行動検知装置、不審行動検知方法、プログラム及び記録媒体

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140403

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20141028

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20141031

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20141215

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150120

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150202

R151 Written notification of patent or utility model registration

Ref document number: 5699802

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250