JP5675089B2 - 映像情報処理装置および方法 - Google Patents

映像情報処理装置および方法 Download PDF

Info

Publication number
JP5675089B2
JP5675089B2 JP2009286892A JP2009286892A JP5675089B2 JP 5675089 B2 JP5675089 B2 JP 5675089B2 JP 2009286892 A JP2009286892 A JP 2009286892A JP 2009286892 A JP2009286892 A JP 2009286892A JP 5675089 B2 JP5675089 B2 JP 5675089B2
Authority
JP
Japan
Prior art keywords
terminal
presentation
determination
real space
event
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2009286892A
Other languages
English (en)
Other versions
JP2011130202A (ja
Inventor
穴吹 まほろ
まほろ 穴吹
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2009286892A priority Critical patent/JP5675089B2/ja
Priority to US13/515,222 priority patent/US20120262534A1/en
Priority to PCT/JP2010/007104 priority patent/WO2011074205A1/en
Publication of JP2011130202A publication Critical patent/JP2011130202A/ja
Application granted granted Critical
Publication of JP5675089B2 publication Critical patent/JP5675089B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/16Analogue secrecy systems; Analogue subscription systems
    • H04N7/173Analogue secrecy systems; Analogue subscription systems with two-way working, e.g. subscriber sending a programme selection signal
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/4223Cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/442Monitoring of processes or resources, e.g. detecting the failure of a recording device, monitoring the downstream bandwidth, the number of times a movie has been viewed, the storage space available from the internal hard disk
    • H04N21/44213Monitoring of end-user related data
    • H04N21/44218Detecting physical presence or behaviour of the user, e.g. using sensors to detect if the user is leaving the room or changes his face expression during a TV program
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/478Supplemental services, e.g. displaying phone caller identification, shopping application
    • H04N21/4788Supplemental services, e.g. displaying phone caller identification, shopping application communicating with other users, e.g. chatting
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/141Systems for two-way working between two video terminals, e.g. videophone
    • H04N7/147Communication arrangements, e.g. identifying the communication as a video-communication, intermediate storage of the signals

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Social Psychology (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Databases & Information Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Telephonic Communication Services (AREA)

Description

本発明は、遠隔コミュニケーションする双方の事象に応じて、適切なコミュニケーションチャンネルを選択し、遠隔コミュニケーションを実施する装置および方法に関する。
昨今の核家族化や単身赴任などにより、家族間の日常的なコミュニケーションが疎遠になりつつある。相手の都合を気にして連絡を躊躇し、コミュニケーションのきっかけがつかめないなど、互いの生活状況を共有することが難しい。
特開2002−314963 特開2001−119749
特許文献1には、相手の存在を確認すると、コミュニケーションを開始することが開示されている。しかし、この技術は、知らせたくないプライベートなことまで知られる場合があるという課題があった。
特許文献2には、電車の中や病院の中にいるときに、携帯電話に着信を受けると、留守番電話などの通信タスクに切り替えることが開示されている。この技術は、コミュニケーションの相手が、いつになったらコミュニケーションを開始できる状況になるか判断することができない。このため、コミュニケーションのきっかけをつかむには不十分であるという課題があった。
以上を鑑み、本発明は、お互いの状態を考慮してプライバシーに配慮し、コミュニケーションのタイミング若しくは内容を判断することにより、コミュニケーションをより有用に提供することを目的とする。
上記の目的は、以下の方法によって達成される。
第一の認識手段が、第一の撮影手段によって第一の端末が存在する第一の現実空間を予め撮影した第一の撮影映像に基づいて、該第一の現実空間における第一の事象を認識する第一の認識工程と、
第二の認識手段が、第二の撮影手段によって前記第一の端末とは異なる第二の端末が存在する第二の現実空間を予め撮影した第二の撮影映像に基づいて、該第二の現実空間における第二の事象を認識する第二の認識工程と、
双方向判定手段が、前記第一の事象、及び、前記第二の事象に基づいて、
前記第一の端末が備える第一の提示手段が前記第二の現実空間を提示でき、かつ前記第二の端末が備える第二の提示手段が前記第一の現実空間を提示できるか否かを判定する双方向判定工程と、
通信手段が、前記双方向判定工程にて提示できると判定された場合に、前記第一の端末と前記第二の端末とで、映像を用いた双方向の通信を開始する通信工程と、を有し、
前記双方向判定工程は、
第一の判定手段が、前記第一の現実空間を前記第二の端末に提示するか否かを判定する第一の判定工程と、
第二の判定手段が、前記第二の現実空間を前記第一の端末に提示するか否かを判定する第二の判定工程と、
照合手段が、前記第一の判定工程の判定の結果、及び、前記第二の判定工程の判定の結果を照らし合わせて、前記第一の端末が備える第一の提示手段及び前記第二の端末が備える第二の提示手段の各々が前記第二の現実空間及び前記第一の現実空間の各々を双方向に提示するか否かを判定する照合工程と、を有し、
前記第一の判定工程では、
前記第一の事象を前記第二の端末に提示できる第一の提示レベルを判定し、
前記第二の判定工程では、
前記第二の事象を前記第一の端末に提示できる第二の提示レベルを判定し、
前記第一の生成工程では、
前記双方向判定工程の判定の結果、及び、第二の提示レベル、及び、前記第二の撮影映像に基づいて、第一の端末に提示する第一の提示映像を生成し、
前記第二の生成工程では、
前記双方向判定工程の判定の結果、及び、第一の提示レベル、及び、前記第一の撮影映像に基づいて、第二の端末に提示する第二の提示映像を生成することを特徴とする映像情報処理方法。
また、上記の目的は、以下の方法によっても達成される。
第一の認識手段が、第一の撮影手段によって該第一の端末が存在する第一の現実空間を
予め撮影した第一の撮影映像に基づいて、該第一の現実空間における第一の事象を認識する第一の認識工程と、
双方向判定手段が、前記第一の事象、及び、
第二の撮影手段によって前記第一の端末とは異なる第二の端末が存在する第二の現実空
間を予め撮影した第二の撮影映像に基づいて、第二の認識手段が認識する該第二の現実空
間における第二の事象に基づいて、
前記第一の端末が備える第一の提示手段が前記第二の現実空間を提示でき、かつ前記第二の端末が備える第二の提示手段が前記第一の現実空間を提示できるか否かを判定する双方向判定工程と、
通信手段が、前記双方向判定工程にて提示できると判定された場合に、前記第一の端末
と前記第二の端末とで、映像を用いた双方向の通信を開始する通信工程と、を有し、
前記双方向判定工程は、
第一の判定手段が、前記第一の現実空間を前記第二の端末に提示するか否かを判定する第一の判定工程と、
第二の判定手段が、前記第二の現実空間を前記第一の端末に提示するか否かを判定する第二の判定工程と、
照合手段が、前記第一の判定工程の判定の結果、及び、前記第二の判定工程の判定の結果を照らし合わせて、前記第一の端末が備える第一の提示手段及び前記第二の端末が備える第二の提示手段の各々が前記第二の現実空間及び前記第一の現実空間の各々を双方向に提示するか否かを判定する照合工程と、を有し、
前記第一の判定工程では、
前記第一の事象を前記第二の端末に提示できる第一の提示レベルを判定し、
前記第二の判定工程では、
前記第二の事象を前記第一の端末に提示できる第二の提示レベルを判定し、
前記第一の生成工程では、
前記双方向判定工程の判定の結果、及び、第二の提示レベル、及び、前記第二の撮影映像に基づいて、第一の端末に提示する第一の提示映像を生成し、
前記第二の生成工程では、
前記双方向判定工程の判定の結果、及び、第一の提示レベル、及び、前記第一の撮影映像に基づいて、第二の端末に提示する第二の提示映像を生成することを特徴とする映像情報処理方法。
本発明は、お互いの状態を考慮してプライバシーに配慮し、コミュニケーションのタイミング若しくは内容を判断することにより、コミュニケーションをより有用に提供することができる。
第一の実施形態に係る映像情報処理装置の構成を示す図である。 第一の実施形態に係る映像情報処理装置の一部である双方向判定部の構成例を示す図である。 第一の実施形態に係る映像情報処理装置の処理を示す図である。 第二の実施形態に係る映像情報処理装置の構成を示す図である。 第二の実施形態に係る映像情報処理装置の処理を示す図である。 第三の実施形態に係る映像情報処理装置の構成を示す図である。 第三の実施形態に係る映像情報処理装置の処理を示す図である。 コンピュータの構成例を示す図である。
以下、添付図面を参照して本発明をその好適な実施形態に従って詳細に説明する。
〔第一の実施形態〕
本実施形態に係る映像情報処理装置は、離れた現実空間に二人のユーザの各々が存在し、双方の空間で認識した事象に応じてコミュニケーションを開始する。
ここでの事象は、ユーザ(人物)または環境(空間)に関するものである。例えば、決められた現実空間において人が存在するか否か、存在する人が誰か、人の移動、表示、姿勢、動作、行動などがある。例えば、現実空間の明るさ、温度、物体の移動などがある。
以下、図1を用いて本実施形態に係る映像情報処理装置の構成および処理について説明する。
図1は、本実施形態に係る映像情報処理装置100の概略を示す図である。
映像情報処理装置100は、不図示の第一の端末部100−1と第二の端末部100−2から構成される。第一の端末部100−1は、第一の撮影部101、第一の提示部110から構成される。第二の端末部100−2は、第二の撮影部102、第二の提示部111で構成される。映像情報処理装置100は、更に、第一の認識部103、双方向判定部107、第一の生成部108、第二の認識部104、第二の生成部109から構成される。加えて、第一のレベルデータ保持部105、第二のレベルデータ保持部106、第一のデータ入力部112、第二のデータ入力部113で構成される。
第一の撮影部101は、第一のユーザが存在する第一の現実空間を撮影する。例えば、カメラによって第一のユーザが住む家の居間を撮影する。また、第一の撮影部101は、天井から吊り下げられていてもよいし、床や台やテレビの上に据え置いてもよいし、テレビなどの家電に内蔵されていてもよい。また、第一の撮影部101は、音声を収録するマイクを更に備えてもよい。また、第一の撮影部101は、現実空間の事象について計測する人感センサや温度センサなどを合わせて備えてもよい。第一の撮影部101によって撮影された第一の撮影映像は第一の認識部103へと出力される。また、第一の撮影映像にその他の音声やセンサの計測結果を伴って出力してもよい。
第二の撮影部102は、第二のユーザが存在する第二の現実空間を撮影する。例えば、カメラによって第二のユーザが住む家の居間を撮影する。第二の撮影部102は、第一の撮影部101と同じ種類のものでよい。第二の撮影部102によって撮影された第二の撮影映像は第二の認識部104へと出力される。
第一の認識部103は、第一の撮影部101から第一の撮影映像を受け取り、第一の撮影映像に映る第一の事象を認識する。例えば、第一のユーザの行動(事象)を認識する。具体的には、居る、家族皆で食事をしている、帰宅した、テレビを見ている、テレビを見終わった、誰もいない、じっとしている、うろうろしている、寝ているなどの行動(事象)がある。例えば、事象の認識を実現する方法として、撮影映像から抽出される人物の位置や動きや抽出時間を事前にリスト化したものから見つけることにより、行動を認識してもよい。例えば、事象の認識を実現する方法として、カメラに備えたセンサの計測結果を用いてもよい。例えば、第一の認識部の所在は、第一の撮影部と同じ場所でも、遠隔地サーバのようにネットワーク越しに接続された別の場所に置かれた場所にあってもよい。第一の認識部103に認識された第一の事象は、双方向判定部107へと出力される。
第二の認識部104は、第二の撮影部102から第二の撮影映像を受け取り、第二の撮影映像に映る第二の事象を認識する。例えば、第二のユーザの行動(事象)を認識する。第二の認識部104は、第一の認識部103と同じ種類のものでよい。第一の認識部104に認識された第一の事象は、双方向判定部107へと出力される。
第一のレベルデータ保持部105は、第一の認識部が出力しうる第一の事象と、第一の事象に対応する第一の提示レベルとの第一の対応づけを保持する。
ここでの提示レベルは、事象を相手に提示するときの、提示する映像の詳細度である。例えば、撮影映像のように多い情報を提示する場合は詳細度が高い提示レベルであり、モザイクをかけた撮影映像や、テキスト表示や、光点灯、音のように少ない情報を提示する場合は詳細度が低い提示レベルである。更に、何も提示しないという提示レベルを用意してもよい。ここでは、撮影映像、モザイクをかけた撮影映像、テキスト表示、光点灯、音のような提示する情報の詳細度の高低に合わせて段階的に順位付けしたものを提示レベルの高低と合わせて用いる。具体的には、提示レベルの高低は、詳細度の高い撮影映像を提示する提示レベルは高く、何も提示しないレベルは低い。なお、提示レベルは、後述の第一の生成部108、第二の生成部109にて生成できる映像の種類に割り当てられているものとする。
ここでの対応づけを持たせるとは、例えば、単に居るという事象は、テキスト表示を行う提示レベルと対応づけを持たせ、食事をしているという事象は、撮影映像を含む提示レベルと対応づけを持たせることができる。また、帰宅したという事象には、何も提示しないレベルと対応づけを持たせることができる。また、例えば、第一のユーザから第二のユーザには容易に提示してもよいが、第三のユーザには提示しないという条件を、対応づけの各々に更に組み合わせてもよい。また、第一のユーザから他のユーザへ、他のユーザから第一のユーザへ提示する事象の各々に提示レベルとの対応づけを持たせてもよい。
これらの事象と提示レベルの第一の対応づけは、後述の第一のデータ入力手段112から入力され、第一のレベルデータ保持部105で保持される。また、本発明で処理が実行されている途中でも、動的に変更してもよい。
第一のレベルデータ保持部105は、双方向判定部107から第一の事象を受け取ることで、第一の事象をもつ第一の対応づけが示す提示レベルを、第一の提示レベルとして、双方向判定部107に出力する。
第二のレベルデータ保持部106は、第二の認識部が出力しうる第二の事象と、第二の事象に対応する第二の提示レベルとの第二の対応づけを保持する。第二のレベルデータ保持部106は、第一のレベルデータ保持部107と同じ種類のものでよい。これらの事象と提示レベルの第二の対応づけは、後述の第二のデータ入力手段113から入力され、第二のレベルデータ保持部106で保持される。第二のレベルデータ保持部106は、双方向判定部107から第二の事象を受け取ることで、第二の事象をもつ第二の対応づけが示す提示レベルを、第二の提示レベルとして、双方向判定部107に出力する。
双方向判定部107は、第一の提示レベルと第二の提示レベルを照らし合わせることで、第一のユーザと第二のユーザが互いに実施可能なコミュニケーションのレベルを判定する。
具体的には、双方向判定部107は、第一の認識部103から第一の事象を受け取り、第二の認識部104から第二の事象を受け取る。また、第一のレベルデータ保持手段105と第二のレベルデータ保持手段106に、第一の事象と第二の事象を送ることで、第一の提示レベルと第二の提示レベルを取得する。
取得した第一の提示レベルと第二の提示レベルを照らし合わせる。第一の提示レベルと第二の提示レベルが同じときは、その同じ提示レベルを互いに実施可能なコミュニケーションレベルと判定する。
もし、第一の提示レベルが第二の提示レベルよりも詳細度が高いとき、第一のユーザは第二のユーザに高い詳細度で提示してもよい状態だが、第二のユーザは第一のユーザに高い詳細度で提示してもよい状態ではない。逆に、第一の提示レベルが第二の提示レベルよりも詳細度が低いとき、第一のユーザは第二のユーザに高い詳細度で提示してもよい状態ではないが、第二のユーザは第一のユーザに高い詳細度で提示してもよい状態である。
そこで、第一のユーザと第二のユーザが互いに同じ提示レベルで表示する場合は、互いの提示に問題のなく、最も詳細度の高い第二の提示レベルを互いに実施可能な提示レベルとして判定する。第一の提示レベルが第二の提示レベルよりも詳細度が低いとき、互いの提示に問題のなく、最も詳細度の高い第一の提示レベルを実施可能な提示レベルとして判定する。
具体的に例を挙げると、第一の提示レベルが詳細度の高い撮影映像を提示する提示レベルで、第二の提示レベルが詳細度の低いテキスト表示を提示する提示レベルである場合、何も表示しない、又は、双方テキスト表示を提示するレベルで表示する判定を行う。
また、互いに同じレベルにならないときは、互いに何も提示しないレベルを判定してもよい。
判定された結果、第二のユーザが第一のユーザに提示する提示レベルは、第一の生成部108に出力される。加えて、第一のユーザが第二のユーザに提示する提示レベルは、第二の生成部109に出力される。
ここで、双方向判定部107は、図1に示すように、第一の認識部103および第二の認識部104と直接接続しても良いが、それぞれとネットワーク越しに接続しても良い。また、内部に二つのサブシステムを持つように、双方向判定部107を構成しても良い。図2に、構成例を3通り示す。
図2(a)では、双方向判定部107が、第一の認識部103と第一の通信部114を介してネットワーク越しに接続する。第二の認識部104と、第二の通信部115を介してネットワーク越しに接続する。双方向判定部107は、第一のユーザおよび第二のユーザが存在する現実空間とは別の場所に置かれたサーバなどの装置上に実現される。第一のレベルデータ保持部105、第二のレベルデータ保持部106も同様である。
図2(b)では、双方向判定部107が、第一の認識部103と直接接続する。第二の認識部104と、第一の通信部114を介してネットワーク越しに接続する。第一のレベルデータ保持部105および第二のレベルデータ保持部106は、第一のユーザが存在する第一の現実空間に置かれた装置上に実現される。第二のユーザが存在する第二の現実空間のほうに配置されても良い。
図2(c)では、双方向判定部107が、内部に二つのサブシステムを備える。すなわち、第一の判定部107−1と第二の判定部107−2とを備える。双方が、第三通信部116を介して情報をやり取りする。そして、レベル照合部で、第一の提示レベルと、第二の提示レベルを照らし合わせる。これにより、実施可能なコミュニケーションのレベルを判定する。双方向判定部107が、第一のユーザと第二のユーザが存在する現実空間にまたがって配置される。
なお、図2には、双方向判定部107に接続する第一の認識部103、第二の認識部104が記載されている。また、第一のレベルデータ保持部105、第二のレベルデータ保持部106が記載されている。第一のユーザと第二のユーザが存在する現実空間に配置しても、第一のユーザと第二のユーザが存在する現実空間以外の現実空間に配置してもよい。
また、図2には第一の生成部108および第二の生成部109を示していない。これらが置かれる第一のユーザと第二のユーザが存在する現実空間以外に双方向判定部107がある場合の接続を述べる。双方向判定部107を、通信部を介して、第一の生成部108及び第二の生成部109に接続する。
第一の生成部108は、第一のユーザに提示する第一の提示映像を生成する。これは、双方向判定部107より受け取る第二の提示レベルに従う。また、生成には、第二の撮影部102が撮影した第二の撮影映像や第二の事象を用いる。
例えば、提示レベルが撮影映像を表示するとき、第二の撮影映像をそのまま第一の提示映像とする。また、第二の事象が食事中であれば、「食事中」という事象を示す文字を合成した映像を第一の提示映像とする。
例えば、提示レベルがテキスト表示のとき、第二の事象を示す「食事中」という文字や、食事を始めた時刻をテキストとして表示した第一の提示映像を生成する。
例えば、提示レベルが光点灯であったならば、第二の事象から就寝中や食事中や外出中を示す色を点すことができる。
例えば、提示レベルが音であったならば、「音声のみ」をテキストとして表示した第一の提示映像を生成する。
生成された第一の提示映像は、第一の提示部110に出力される。
第二の生成部109は、第二のユーザに提示する第二の提示映像を生成する。これは、双方向判定部107から受け取る第一の提示レベルに従う。また、生成には、第一の撮影部101が撮影した第一の撮影映像や第一の事象を用いる。第二の生成部109は、第一の生成部108と同じ種類のものでよい。生成された第二の提示映像は、第二の提示部111に出力される。
第一の提示部110は、第一の生成部108から取得した第一の提示映像を、第一の現実空間に提示する。例えば、ディスプレイやスピーカーなどの複数のコミュニケーションチャンネルで構成され、ディスプレイやプロジェクタによって提示映像が提示される。例えば、電光掲示板でテキストを提示する。
第二の提示部111は、第二の生成部109から取得した第二の提示映像を、第二の現実空間に提示する。第二の提示部111は、第一の提示部と同じ種類のものでよい。
第一のデータ入力部112は、第一の認識部が出力しうる第一の事象と、第一の事象に対応する第一の提示レベルとの第一の対応づけを入力する。例えば、マウスとキーボードからなる。ここでの入力では、対応づけを追加、編集、削除を行う。
第二のデータ入力部113は、第二の認識部が出力しうる第二の事象と、第二の事象に対応する第二の提示レベルとの第二の対応づけを示すデータを入力する。
以上が、本実施形態にかかる映像情報処理装置100に関する構成である。
図3に示したフローチャートを用いて、本実施形態の映像情報処理装置100が行う処理について説明する。
ステップS101では、第一の撮影部101が、第一のユーザが存在する第一の現実空間を撮影する。このとき、第一の現実空間の音声を収録してもよい。第一の撮影部101によって撮影された第一の撮影映像は第一の認識部103へと出力され、ステップS102へ進む。
ステップS102では、第一の認識部103が、第一の撮影部101から第一の撮影映像を受け取り、第一の撮影映像に映る第一の事象を認識する。第一の認識部103に認識された第一の事象は、双方向判定部107へと出力され、ステップS103へ進む。
ステップS103では、双方向判定部107が、第一の認識部103から第一の事象を受け取る。そして、第一のレベルデータ保持手段105に、第一の事象を送ることで、第一の提示レベルを取得し、ステップS104へ進む。なお、第一のレベルデータ保持部105は、第一の認識部が出力しうる第一の事象と、第一の事象に対応する第一の提示レベルとの第一の対応づけを保持している。また、第一のデータ入力部112により、第一の認識部が出力しうる第一の事象と、第一の事象に対応する第一の提示レベルとの第一の対応づけが入力されているものとする。
ステップS104では、第二の撮影部102が、第二のユーザが存在する第二の現実空間を撮影する。このとき、第二の現実空間の音声を収録してもよい。第二の撮影部102によって撮影された第二の撮影映像は第二の認識部104へと出力され、ステップS105へ進む。
ステップS105では、第二の認識部104が、第二の撮影部102から第二の撮影映像を受け取り、第二の撮影映像に映る第二の事象を認識する。第二の認識部104に認識された第二の事象は、双方向判定部107へと出力され、ステップS106へ進む。
ステップS106では、双方向判定部107は、第二の認識部104から第二の事象を受け取る。そして、第二のレベルデータ保持手段106に、第二の事象を送ることで、第二の提示レベルを取得し、ステップS107へ進む。なお、第二のレベルデータ保持部106は、第二の認識部が出力しうる第二の事象と、第二の事象に対応する第二の提示レベルとの第二の対応づけを保持している。また、第二のデータ入力部113により、第二の認識部が出力しうる第二の事象と、第二の事象に対応する第二の提示レベルとの第二の対応づけが入力されているものとする。
続いてステップS107へ進む。
ここで、処理の流れをステップS101からステップS106まで順に進むように説明してきたが、必ずしもそうでなくても良い。すなわち、ステップS101のあとにステップS102があり、その後にステップS103があるのであればこの3つのステップは連続でなくても良い。ステップS104のあとにステップS105があり、その後にステップS106があるのであればこの3つのステップは連続でなくても良い。例えば、ステップS101のあとにステップS104が割り込んでいても良いし、ステップS104、S105、S106を終えてからステップS101、S102、S103を実施しても良い。
ステップS107では、双方向判定部107が、第一の提示レベルと第二の提示レベルを照らし合わせることで、第一のユーザと第二のユーザが互いに実施可能なコミュニケーションのレベルを判定する。判定された結果、第二のユーザが第一のユーザに提示する提示レベルは、第一の生成部108に出力される。加えて、第一のユーザが第二のユーザに提示する提示レベルは、第二の生成部109に出力される。
ステップS108では、双方向判定部107で、互いに提示可能なコミュニケーションレベルが得られたかを判定する。互いに提示可能なコミュニケーションの提示レベルが得られないときは、ステップS101に戻る。互いに提示可能なコミュニケーションの提示レベルが得られたときは、ステップS109へ進む。
ステップS109では、第一の生成部108が、第一のユーザに提示する第一の提示映像を生成する。生成された第一の提示映像は、第一の提示部110に出力され、ステップS110へ進む。
ステップS110では、第一の提示部110が、第一の生成部108から取得した第一の提示映像を、第一の現実空間に提示し、ステップS111へ進む。
ステップS111では、第二の生成部109が、第二のユーザに提示する第二の提示映像を生成する。生成された第二の提示映像は、第二の提示部111に出力され、ステップS112へ進む。
ステップS112では、第二の提示部111が、第二の生成部109から取得した第二の提示映像を、第二の現実空間に提示し、S101に戻る。
ここで、処理の流れをステップS109からステップS112まで順に進むように説明してきたが、必ずしもそうでなくても良い。すなわち、ステップS109のあとにステップS110があるのであればこの2つのステップは連続でなくても良い。ステップS111のあとにステップS112があるのであればこの2つのステップは連続でなくても良い。例えば、ステップS109のあとにステップS111が割り込んでいても良い。ステップS111、S112を終えてからステップS109、S110を実施しても良い。
なお、本実施形態の説明では二人のユーザ間のコミュニケーションに適用する事例を取り上げた。三人以上のユーザ間のコミュニケーションにも適用するときも、二者間で提示すればよい。
以上の処理によって、映像情報処理装置100は、常に二つの現実空間の撮影映像を認識し、その双方の事象に応じて提示する。それぞれの空間における事象は時々刻々と変更すると、その事象変化に応じて提示レベルも変わる。ユーザの明示的なインタラクションなしに自動的に始まる。例えば、双方とも食事をしている事象では撮影映像を含む提示での事象の提示も受け取りも許可すると、それぞれの食事時間が一致したときに、自動的に提示映像を介して双方の空間がつながる。これにより、離れている二者間での仮想的な食事の団らんが自然に実現する。
本実施形態によれば、例えば、離れている二人ないしそれ以上のユーザは、事前にこの事象の時には、このレベルのコミュニケーションならば実施して良いという条件を指定する。その条件が双方で折り合う場合には、自動的に両者が了解しているレベルのコミュニケーションを始めることができる。このコミュニケーションでは、ユーザ自身がコミュニケーションをしようと思うきっかけがなくてもよい。両者の了解しているレベルに応じたコミュニケーションチャンネルが選ばれるので、相手の都合を気にせずにコミュニケーションを始めることができる。
〔第二の実施形態〕
第一の実施形態では実時間の遠隔コミュニケーションを自動的に開始した。一方、第二の実施形態では時間差のある遠隔コミュニケーションを自動的に開始する。
以下、図を用いて本実施形態に係る映像情報処理装置の構成および処理について説明する。
図4は、本実施形態に係る映像情報処理装置200の概略を示す図である。図4に示すように、映像情報処理装置200は、第一の撮影部101、第二の撮影部102、第一の認識部103、第二の認識部104で構成される。更に、第一のレベルデータ保持部105、第二のレベルデータ保持部106、双方向判定部107で構成される。加えて、第二の生成部109、第二の提示部111、第一の記録部201から構成される。加えて、第一の生成部108、第一の提示部110、第二の記録部202から構成される。図1に示した映像情報処理装置100と同様の構成には同じ名称をつけており、重複する部分についての詳細な説明は以下では割愛する。
第一の撮影部101は、第一のユーザが存在する第一の現実空間を撮影する。第一の撮影部101によって撮影された第一の撮影映像は第一の認識部103へと出力される。
第二の撮影部102は、第二のユーザが存在する第二の現実空間を撮影する。第二の撮影部102によって撮影された第二の撮影映像は第二の認識部104へと出力される。
第一の認識部103は、第一の撮影部101から第一の撮影映像を受け取り、第一の撮影映像に映る第一の事象を認識する。第一の認識部103に認識された第一の事象は、双方向判定部107へと出力される。
第二の認識部104は、第二の撮影部102から第二の撮影映像を受け取り、第二の撮影映像に映る第二の事象を認識する。第一の認識部104に認識された第一の事象は、双方向判定部107へと出力される。
第一のレベルデータ保持部105は、第一の認識部が出力しうる第一の事象と、第一の事象に対応する第一の提示レベルとの第一の対応づけを保持する。第一のレベルデータ保持部105は、双方向判定部107から第一の事象を受け取ることで、第一の事象をもつ第一の対応づけが示す提示レベルを、第一の提示レベルとして、双方向判定部107に出力する。
第二のレベルデータ保持部106は、第二の認識部が出力しうる第二の事象と、第二の事象に対応する第二の提示レベルとの第二の対応づけを保持する。第二のレベルデータ保持部106は、双方向判定部107から第二の事象を受け取ることで、第二の事象をもつ第二の対応づけが示す提示レベルを、第二の提示レベルとして、双方向判定部107に出力する。
双方向判定部107は、第一の提示レベルと第二の提示レベルを照らし合わせることで、第一のユーザと第二のユーザが互いに実施可能なコミュニケーションのレベルを判定する。判定された結果、第二のユーザが第一のユーザに提示する提示レベルは、第一の生成部108に出力される。加えて、第一のユーザが第二のユーザに提示する提示レベルは、第二の生成部109に出力される。
また、判定した結果、互いに実施可能なコミュニケーションレベルが提示しないレベルであった場合、後述の第一の記録部201と第二の記録部202に、撮影映像及び認識された事象を記録する指示を出力する。記録を開始してから、互いに実施可能なコミュニケーションレベルが提示可能な提示レベルとなったときに、記録された映像情報を元に提示画像を生成するよう第一の生成部108と第二の生成部109に指示を出力する。提示しないレベルが所定の時間を経過しても変化されないときは、記録されてから所定の時間が経過した撮影映像や事象を削除する指示を、第一の記録部201と第二の記録部202に出力する。
第一の生成部108は、第一のユーザに提示する第一の提示映像を生成する。例えば、第一の提示映像は、ある一時点の撮影映像および事象だけを使って生成してもよい。複数の時点の撮影映像および事象を使って生成してもよい。具体的には、複数時点の撮影映像によるスライドショーや、複数撮影映像から一部ずつを抜き出してつないだダイジェスト映像や、複数の事象の分布表などがある。生成された第一の提示映像は、第一の提示部110に出力される。
第二の生成部109は、第二のユーザに提示する第二の提示映像を生成する。第二の生成部109は、第一の生成部と同じものでよい。生成された第二の提示映像は、第二の提示部111に出力される。
第一の提示部110は、第一の生成部108から取得した第一の提示映像を、第一の現実空間に提示する。
第二の提示部111は、第二の生成部109から取得した第二の提示映像を、第二の現実空間に提示する。
第一のデータ入力部112は、第一の認識部が出力しうる第一の事象と、第一の事象に対応する第一の提示レベルとの第一の対応づけを入力する。
第二のデータ入力部113は、第二の認識部が出力しうる第二の事象と、第二の事象に対応する第二の提示レベルとの第二の対応づけを入力する。
第一の記録部201は、第一の撮影部101から送られてくる第一の撮影映像および第一の認識部103から送られてくる第一の事象と記録時間を記録する。例えば、データサーバである。記録してから所定の時間が経過し、記録してから所定の時間を経過したデータを削除する指示を双方向判定部107から受け取ると、対象となるデータを削除する。記録された第一の撮影映像、第一の事象、及び、記録時間は、双方向判定部107に出力する。
第二の記録部202は、第二の撮影部102から送られてくる第二の撮影映像および第二の認識部104から送られてくる第二の事象と記録時間を記録する。記録してから所定の時間が経過し、記録してから所定の時間を経過したデータを削除する指示を双方向判定部107から受け取ると、対象となるデータを削除する。記録された第二の撮影映像、第二の事象、及び、記録時間は、双方向判定部107に出力する。
以上が、本実施形態にかかる映像情報処理装置200に関する構成である。
図5に示したフローチャートを用いて、本実施形態の映像情報処理装置200が行う処理について説明する。なお、同フローチャートに従ったプログラムコードは、本実施形態の装置内の、RAMやROMなどのメモリ内に格納され、CPUなどにより読み出され、実行される。
ステップS201では、第一の撮影部101が、第一のユーザが存在する第一の現実空間を撮影する。このとき、第一の現実空間の音声を収録してもよい。第一の撮影部101によって撮影された第一の撮影映像は第一の認識部103へと出力され、ステップS202へ進む。
ステップS202では、第一の認識部103が、第一の撮影部101から第一の撮影映像を受け取り、第一の撮影映像に映る第一の事象を認識する。第一の認識部103に認識された第一の事象は、双方向判定部107へと出力され、ステップS203へ進む。
ステップS203では、双方向判定部107が、第一の認識部103から第一の事象を受け取る。そして、第一のレベルデータ保持手段105に、第一の事象を送ることで、第一の提示レベルを取得し、ステップS204へ進む。なお、第一のレベルデータ保持部105は、第一の認識部が出力しうる第一の事象と、第一の事象に対応する第一の提示レベルとの第一の対応づけを保持している。また、第一のデータ入力部112により、第一の認識部が出力しうる第一の事象と、第一の事象に対応する第一の提示レベルとの第一の対応づけが入力されているものとする。
ステップS204では、双方向判定部107が、取得した第一の提示レベルが、第二のユーザに提示可能な提示レベルであるかを判定する。提示しないレベルのとき、ステップS201へ戻る。提示可能な提示レベルであるとき、ステップS205へ進む。
ステップS205では、第一の記録部201が、第一の撮影部101から送られてくる第一の撮影映像および第一の認識部103から送られてくる第一の事象と記録時間を記録し、ステップS206へ進む。
ステップS206では、第二の撮影部102が、第二のユーザが存在する第二の現実空間を撮影する。第二の撮影部102によって撮影された第二の撮影映像は第二の認識部104へと出力され、ステップS207へ進む。
ステップS207では、第二の認識部104が、第二の撮影部102から第二の撮影映像を受け取り、第二の撮影映像に映る第二の事象を認識する。第二の認識部104に認識された第二の事象は、双方向判定部107へと出力され、ステップS208へ進む。
ステップS208では、双方向判定部107は、第二の認識部104から第二の事象を受け取る。そして、第二のレベルデータ保持手段106に、第二の事象を送ることで、第二の提示レベルを取得し、ステップS209へ進む。なお、第二のレベルデータ保持部106は、第二の認識部が出力しうる第二の事象と、第二の事象に対応する第二の提示レベルとの第二の対応づけを保持している。また、第二のデータ入力部113により、第二の認識部が出力しうる第二の事象と、第二の事象に対応する第二の提示レベルとの第二の対応づけが入力されているものとする。
ステップS209では、双方向判定部107が、取得した第二の提示レベルが、第一のユーザに提示可能な提示レベルであるかを判定する。提示しないレベルのとき、ステップS210へ進む。提示可能な提示レベルであるとき、ステップS211へ進む。
ステップS210では、双方向判定部107が、記録してから所定の時間が経過し、記録してから所定の時間を経過したデータを削除する指示を第一の記録部201に出力する。出力部201が、双方向判定部107から任意のデータを削除する指示を受け取ると、対象となるデータを削除し、ステップS201へ戻る。
ステップS211では、双方向判定部107が、第一の記録部201に記録された第一の撮影映像および第一の事象と記録時間を取得する。取得された第一の撮影映像および第一の事象と記録時間は、第二の生成部に出力され、ステップS212へ進む。
ステップS212では、第二の生成部109が、第二のユーザに提示する第二の提示映像を生成する。生成された第二の提示映像は、第二の提示部111に出力され、ステップS213へ進む。
ステップS213では、第二の提示部111が、第二の生成部109から取得した第二の提示映像を、第二の現実空間に提示し、ステップS201へ戻る。
以上の処理によって、映像情報処理装置200は、二つの現実空間の撮影映像を認識し、その双方の事象に応じて提示する。このとき、映像情報処理装置200は、映像を受け取る方である第二のユーザの都合が悪いときに、映像提示元である第一のユーザの事象を逐次記録する。映像を受け取る方である第二のユーザの都合が良くなったときに、記録しておいた事象の素材も含めて提示することができる。これにより、映像の受け取り手である第二のユーザは、都合が良くなったときに、過去の事象も含めてまとめて第一のユーザの映像を知ることができる。
なお、本実施形態における第一のユーザから第二のユーザへの提示は、第二のユーザから第一のユーザへの提示も同様に行ってもよい。
〔第3の実施形態〕
第1の実施形態および第2の実施形態では、双方向判定部107が、第一の事象および第二の事象から第一の提示レベルおよび第二の提示レベルを取得していた。第3の実施形態では、提示レベルの取得を行うことなく、判定を行う。具体的には、第一の事象および第二の事象が特定の状況にあるときに、撮影映像を提示することを判定する。
図6は、本実施形態に係る映像情報処理装置300の概略を示す図である。図4に示すように、映像情報処理装置300は、第一の撮影部101、第二の撮影部102、第一の認識部103、第二の認識部104、双方向判定部107で構成される。加えて、第二の生成部109、第二の提示部111から構成される。加えて、第一の生成部108、第一の提示部110から構成される。図1に示した映像情報処理装置100と同様の構成には同じ名称をつけており、重複する部分についての詳細な説明は以下では割愛する。
第一の撮影部101は、第一のユーザが存在する第一の現実空間を撮影する。第一の撮影部101によって撮影された第一の撮影映像は第一の認識部103へと出力される。
第二の撮影部102は、第二のユーザが存在する第二の現実空間を撮影する。第二の撮影部102によって撮影された第二の撮影映像は第二の認識部104へと出力される。
第一の認識部103は、第一の撮影部101から第一の撮影映像を受け取り、第一の撮影映像に映る第一の事象を認識する。第一の認識部103に認識された第一の事象は、双方向判定部107へと出力される。
第二の認識部104は、第二の撮影部102から第二の撮影映像を受け取り、第二の撮影映像に映る第二の事象を認識する。第一の認識部104に認識された第一の事象は、双方向判定部107へと出力される。
双方向判定部107は、第一の事象と第二の事象を照らし合わせることで、第一のユーザと第二のユーザが互いに実施可能か否かを判定する。例えば、互いに食事中のときのみ互いに提示すると判定する。具体的には、第一のユーザが食事中であり、第二のユーザも同じく食事中であれば、互いに提示する判定を行う。一方、第一のユーザが食事中でも、第二のユーザが食事以外のとき、提示しない判定を行う。判定された結果、第二の撮影映像と第二の事象は、第一の生成部108に出力され、第一の撮影映像と第一の事象は、第二の生成部109に出力される。
第一の生成部108は、第一のユーザに提示する第一の提示映像を生成する。例えば、第一の提示映像は、第二の撮影映像に、食事のメニューをテキスト合成してもよい。生成された第一の提示映像は、第一の提示部110に出力される。
第二の生成部109は、第二のユーザに提示する第二の提示映像を生成する。第二の生成部109は、第一の生成部と同じものでよい。生成された第二の提示映像は、第二の提示部111に出力される。
第一の提示部110は、第一の生成部108から取得した第一の提示映像を、第一の現実空間に提示する。
第二の提示部111は、第二の生成部109から取得した第二の提示映像を、第二の現実空間に提示する。
図7に示したフローチャートを用いて、本実施形態の映像情報処理装置300が行う処理について説明する。
ステップS301では、第一の撮影部101が、第一のユーザが存在する第一の現実空間を撮影する。このとき、第一の現実空間の音声を収録してもよい。第一の撮影部101によって撮影された第一の撮影映像は第一の認識部103へと出力され、ステップS302へ進む。
ステップS302では、第一の認識部103が、第一の撮影部101から第一の撮影映像を受け取り、第一の撮影映像に映る第一の事象を認識する。第一の認識部303に認識された第一の事象は、双方向判定部107へと出力され、ステップS103へ進む。
ステップS303では、第二の撮影部102が、第二のユーザが存在する第二の現実空間を撮影する。このとき、第二の現実空間の音声を収録してもよい。第二の撮影部102によって撮影された第二の撮影映像は第二の認識部104へと出力され、ステップS304へ進む。
ステップS304では、第二の認識部104が、第二の撮影部102から第二の撮影映像を受け取り、第二の撮影映像に映る第二の事象を認識する。第二の認識部104に認識された第二の事象は、双方向判定部107へと出力され、ステップS305へ進む。
ステップS305では、双方向判定部107が、第一の事象と第二の事象を照らし合わせることで、第一のユーザと第二のユーザが互いに実施可能か否かを判定し、ステップS306へ進む。
ステップS306では、提示しないと判定された場合、ステップS301へ戻る。互いに提示すると判定された場合、第二の撮影映像と第二の事象は、第一の生成部108に出力され、第一の撮影映像と第一の事象は、第二の生成部109に出力され、ステップS307へ進む。
ステップS307では、第一の生成部108が、第一のユーザに提示する第一の提示映像を生成する。生成された第一の提示映像は、第一の提示部110に出力され、ステップS308へ進む。
ステップS308では、第一の提示部110が、第一の生成部108から取得した第一の提示映像を、第一の現実空間に提示し、ステップS309へ進む。
ステップS309では、第二の生成部109が、第二のユーザに提示する第二の提示映像を生成する。生成された第二の提示映像は、第二の提示部111に出力され、ステップS310へ進む。
ステップS310では、第二の提示部111が、第二の生成部109から取得した第二の提示映像を、第二の現実空間に提示し、S301に戻る。
以上の処理によって、映像情報処理装置300は、常に二つの現実空間の撮影映像を認識し、その双方の事象に応じて提示する。それぞれの空間における事象は時々刻々と変更すると、ユーザの明示的なインタラクションなしに自動的に始まる。例えば、双方とも食事をしている事象では撮影映像を含む提示での事象の提示も受け取りも許可すると、それぞれの食事時間が一致したときに、自動的に提示映像を介して双方の空間がつながる。これにより、離れている二者間での仮想的な食事の団らんが自然に実現する。
〔その他の実施形態〕
図6は、コンピュータの構成例を示す図である。また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク607又は各種のコンピュータ読み取り可能な記憶媒体602、603を介してシステム或いは装置に供給する。そして、そのシステム或いは装置のコンピュータ601(またはCPUやMPU等)がプログラムを読み出して実行する処理である。
遠隔コミュニケーションにて利用できる。

Claims (10)

  1. 第一の認識手段が、第一の撮影手段によって第一の端末が存在する第一の現実空間を予め撮影した第一の撮影映像に基づいて、該第一の現実空間における第一の事象を認識する第一の認識工程と、
    第二の認識手段が、第二の撮影手段によって前記第一の端末とは異なる第二の端末が存在する第二の現実空間を予め撮影した第二の撮影映像に基づいて、該第二の現実空間における第二の事象を認識する第二の認識工程と、
    双方向判定手段が、前記第一の事象、及び、前記第二の事象に基づいて、
    前記第一の端末が備える第一の提示手段が前記第二の現実空間を提示でき、かつ前記第二の端末が備える第二の提示手段が前記第一の現実空間を提示できるか否かを判定する双方向判定工程と、
    通信手段が、前記双方向判定工程にて提示できると判定された場合に、前記第一の端末と前記第二の端末とで、映像を用いた双方向の通信を開始する通信工程と、
    を有し、
    前記双方向判定工程は、
    第一の判定手段が、前記第一の現実空間を前記第二の端末に提示するか否かを判定する第一の判定工程と、
    第二の判定手段が、前記第二の現実空間を前記第一の端末に提示するか否かを判定する第二の判定工程と、
    照合手段が、前記第一の判定工程の判定の結果、及び、前記第二の判定工程の判定の結果を照らし合わせて、前記第一の端末が備える第一の提示手段及び前記第二の端末が備える第二の提示手段の各々が前記第二の現実空間及び前記第一の現実空間の各々を双方向に提示するか否かを判定する照合工程と、を有し、
    前記第一の判定工程では、
    前記第一の事象を前記第二の端末に提示できる第一の提示レベルを判定し、
    前記第二の判定工程では、
    前記第二の事象を前記第一の端末に提示できる第二の提示レベルを判定し、
    前記第一の生成工程では、
    前記双方向判定工程の判定の結果、及び、第二の提示レベル、及び、前記第二の撮影映像に基づいて、第一の端末に提示する第一の提示映像を生成し、
    前記第二の生成工程では、
    前記双方向判定工程の判定の結果、及び、第一の提示レベル、及び、前記第一の撮影映像に基づいて、第二の端末に提示する第二の提示映像を生成することを特徴とする映像情報処理方法。
  2. 第一の生成手段が、前記通信が開始された場合に、前記双方向判定工程の判定の結果及び前記第二の撮影映像に基づいて、前記第一の提示手段に提示する第一の提示映像を生成する第一の生成工程と、
    第二の生成手段が、前記通信が開始された場合に、前記双方向判定工程の判定の結果及び前記第一の撮影映像に基づいて、前記第二の提示手段に提示する第二の提示映像を生成する第二の生成工程と、
    を有することを特徴とする請求項1に記載の映像情報処理方法。
  3. 第一のレベルデータ保持手段が、前記第一の認識工程で認識できる事象の各々に、前記第一の提示レベルを対応づける第一の対応づけ情報を保持する第一のレベルデータ保持工程と、
    第二のレベルデータ保持手段が、前記第二の認識工程で認識できる事象の各々に、前記第二の提示レベルを対応づける第二の対応づけ情報を保持する第二のレベルデータ保持工程と、を更に有することを特徴とする請求項に記載の映像情報処理方法。
  4. 前記第一の判定工程では、
    前記第一の事象に基づいて、当該第一の事象が、前記第一の対応づけ情報に対応づけられた第一の提示レベルを判定し、
    前記第二の判定工程では、
    前記第二の事象に基づいて、当該第二の事象が、前記第二の対応づけ情報に対応づけられた第二の提示レベルを判定し、
    前記照合工程では、
    前記第一の提示レベル及び前記第二の提示レベルとが所定の組み合わせになるまで、第一の提示手段及び第二の提示手段の各々が前記第二の現実空間及び前記第一の現実空間の各々を双方向に提示できないと判定する
    ことを特徴とする請求項に記載の映像情報処理方法。
  5. 前記所定の組み合わせなるまで所定の時間を経過した場合に、
    前記第一の記録工程では、
    前記第一の撮影映像及び前記第一の事象を削除し、
    前記第二の記録工程では、
    前記第二の撮影映像及び前記第二の事象を削除する
    ことを特徴とする請求項に記載の映像情報処理方法。
  6. データ入力手段が、前記第一の対応づけの情報及び前記第二の対応づけの情報を入力するデータ入力工程
    を更に有することを特徴とする請求項乃至請求項の何れか1項に記載の映像情報処理方法。
  7. 第一の認識手段が、第一の撮影手段によって該第一の端末が存在する第一の現実空間を
    予め撮影した第一の撮影映像に基づいて、該第一の現実空間における第一の事象を認識する第一の認識工程と、
    双方向判定手段が、前記第一の事象、及び、
    第二の撮影手段によって前記第一の端末とは異なる第二の端末が存在する第二の現実空
    間を予め撮影した第二の撮影映像に基づいて、第二の認識手段が認識する該第二の現実空
    間における第二の事象に基づいて、
    前記第一の端末が備える第一の提示手段が前記第二の現実空間を提示でき、かつ前記第二の端末が備える第二の提示手段が前記第一の現実空間を提示できるか否かを判定する双方向判定工程と、
    通信手段が、前記双方向判定工程にて提示できると判定された場合に、前記第一の端末
    と前記第二の端末とで、映像を用いた双方向の通信を開始する通信工程と、を有し、
    前記双方向判定工程は、
    第一の判定手段が、前記第一の現実空間を前記第二の端末に提示するか否かを判定する第一の判定工程と、
    第二の判定手段が、前記第二の現実空間を前記第一の端末に提示するか否かを判定する第二の判定工程と、
    照合手段が、前記第一の判定工程の判定の結果、及び、前記第二の判定工程の判定の結果を照らし合わせて、前記第一の端末が備える第一の提示手段及び前記第二の端末が備える第二の提示手段の各々が前記第二の現実空間及び前記第一の現実空間の各々を双方向に提示するか否かを判定する照合工程と、を有し、
    前記第一の判定工程では、
    前記第一の事象を前記第二の端末に提示できる第一の提示レベルを判定し、
    前記第二の判定工程では、
    前記第二の事象を前記第一の端末に提示できる第二の提示レベルを判定し、
    前記第一の生成工程では、
    前記双方向判定工程の判定の結果、及び、第二の提示レベル、及び、前記第二の撮影映像に基づいて、第一の端末に提示する第一の提示映像を生成し、
    前記第二の生成工程では、
    前記双方向判定工程の判定の結果、及び、第一の提示レベル、及び、前記第一の撮影映像に基づいて、第二の端末に提示する第二の提示映像を生成することを特徴とする映像情報処理方法。
  8. 請求項1乃至請求項の何れか1項に記載の映像情報処理方法をコンピュータに実行さ
    せることを特徴とするプログラム。
  9. 第一の撮影手段によって第一の端末が存在する第一の現実空間を予め撮影した第一の撮影映像に基づいて、該第一の現実空間における第一の事象を認識する第一の認識手段と、
    前記第一の端末とは異なる第二の端末が存在する第二の現実空間を予め撮影した第二の撮影映像に基づいて、該第二の現実空間における第二の事象を認識する第二の認識手段と、
    前記第一の事象、及び、前記第二の事象に基づいて、
    前記第一の端末が備える第一の提示手段が前記第二の現実空間を提示でき、かつ前記第二の端末が備える第二の提示手段が前記第一の現実空間を提示できるか否かを判定する双方向判定手段と、
    前記双方向判定手段にて提示できると判定された場合に、前記第一の端末と前記第二の
    端末とで、映像を用いた双方向の通信を開始する通信手段と、
    を備え、
    前記双方向判定手段は、
    前記第一の現実空間を前記第二の端末に提示するか否かを判定する第一の判定手段と、
    前記第二の現実空間を前記第一の端末に提示するか否かを判定する第二の判定手段と、
    前記第一の判定工程の判定の結果、及び、前記第二の判定工程の判定の結果を照らし合わせて、前記第一の端末が備える第一の提示手段及び前記第二の端末が備える第二の提示手段の各々が前記第二の現実空間及び前記第一の現実空間の各々を双方向に提示するか否かを判定する照合手段と、を有し、
    前記第一の判定手段では、
    前記第一の事象を前記第二の端末に提示できる第一の提示レベルを判定し、
    前記第二の判定手段では、
    前記第二の事象を前記第一の端末に提示できる第二の提示レベルを判定し、
    前記第一の生成手段では、
    前記双方向判定工程の判定の結果、及び、第二の提示レベル、及び、前記第二の撮影映像に基づいて、第一の端末に提示する第一の提示映像を生成し、
    前記第二の生成手段では、
    前記双方向判定工程の判定の結果、及び、第一の提示レベル、及び、前記第一の撮影映像に基づいて、第二の端末に提示する第二の提示映像を生成することを特徴とする映像情報処理装置。
  10. 第一の撮影手段によって第一の端末が存在する第一の現実空間を予め撮影した第一の撮影映像に基づいて、該第一の現実空間における第一の事象を認識する第一の認識手段と、
    前記第一の事象、及び、第二の撮影手段によって前記第一の端末とは異なる第二の端末が存在する第二の現実空間を予め撮影した第二の撮影映像に基づいて、第二の認識手段が認識する該第二の現実空間における第二の事象に基づいて、
    前記第一の端末が備える第一の提示手段が前記第二の現実空間を提示でき、かつ前記第二の端末が備える第二の提示手段が前記第一の現実空間を提示できるか否かを判定する双方向判定手段と、
    前記双方向判定工程にて提示できると判定された場合に、前記第一の端末と前記第二の
    端末とで、映像を用いた双方向の通信を開始する通信手段と、を備え
    前記双方向判定手段は、
    前記第一の現実空間を前記第二の端末に提示するか否かを判定する第一の判定手段と、
    前記第二の現実空間を前記第一の端末に提示するか否かを判定する第二の判定手段と、
    前記第一の判定工程の判定の結果、及び、前記第二の判定工程の判定の結果を照らし合わせて、前記第一の端末が備える第一の提示手段及び前記第二の端末が備える第二の提示手段の各々が前記第二の現実空間及び前記第一の現実空間の各々を双方向に提示するか否かを判定する照合手段と、を有し、
    前記第一の判定手段では、
    前記第一の事象を前記第二の端末に提示できる第一の提示レベルを判定し、
    前記第二の判定手段では、
    前記第二の事象を前記第一の端末に提示できる第二の提示レベルを判定し、
    前記第一の生成手段では、
    前記双方向判定工程の判定の結果、及び、第二の提示レベル、及び、前記第二の撮影映像に基づいて、第一の端末に提示する第一の提示映像を生成し、
    前記第二の生成手段では、
    前記双方向判定工程の判定の結果、及び、第一の提示レベル、及び、前記第一の撮影映像に基づいて、第二の端末に提示する第二の提示映像を生成することを特徴とする映像情報処理装置。
JP2009286892A 2009-12-17 2009-12-17 映像情報処理装置および方法 Expired - Fee Related JP5675089B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2009286892A JP5675089B2 (ja) 2009-12-17 2009-12-17 映像情報処理装置および方法
US13/515,222 US20120262534A1 (en) 2009-12-17 2010-12-07 Video image information processing apparatus and video image information processing method
PCT/JP2010/007104 WO2011074205A1 (en) 2009-12-17 2010-12-07 Video image information processing apparatus and video image information processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009286892A JP5675089B2 (ja) 2009-12-17 2009-12-17 映像情報処理装置および方法

Publications (2)

Publication Number Publication Date
JP2011130202A JP2011130202A (ja) 2011-06-30
JP5675089B2 true JP5675089B2 (ja) 2015-02-25

Family

ID=44166980

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009286892A Expired - Fee Related JP5675089B2 (ja) 2009-12-17 2009-12-17 映像情報処理装置および方法

Country Status (3)

Country Link
US (1) US20120262534A1 (ja)
JP (1) JP5675089B2 (ja)
WO (1) WO2011074205A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2508417B (en) * 2012-11-30 2017-02-08 Toshiba Res Europe Ltd A speech processing system

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07123146A (ja) * 1993-10-26 1995-05-12 Nippon Telegr & Teleph Corp <Ntt> 自動応答通信制御装置
JP2000078276A (ja) * 1998-08-27 2000-03-14 Nec Corp 在席管理システム及び在席管理方法及び記録媒体
JP2006229490A (ja) * 2005-02-16 2006-08-31 Ftl International:Kk テレビ通話システム、これに用いるctiサーバおよびテレビ通話プログラム
US7564476B1 (en) * 2005-05-13 2009-07-21 Avaya Inc. Prevent video calls based on appearance
US7847815B2 (en) * 2006-10-11 2010-12-07 Cisco Technology, Inc. Interaction based on facial recognition of conference participants
JP2008131412A (ja) * 2006-11-22 2008-06-05 Casio Hitachi Mobile Communications Co Ltd テレビ電話装置及びプログラム
JP2009065620A (ja) * 2007-09-10 2009-03-26 Panasonic Corp テレビ電話装置及びテレビ電話装置の着信応答方法
CN101884216A (zh) * 2007-11-22 2010-11-10 皇家飞利浦电子股份有限公司 用于接收和发送存在的指示的方法和设备
US8218753B2 (en) * 2008-04-22 2012-07-10 Cisco Technology, Inc. Processing multi-party calls in a contact center
US8223187B2 (en) * 2008-07-17 2012-07-17 Cisco Technology, Inc. Non-bandwidth intensive method for providing multiple levels of censoring in an A/V stream
JP5073049B2 (ja) * 2010-12-27 2012-11-14 株式会社東芝 映像表示装置

Also Published As

Publication number Publication date
WO2011074205A1 (en) 2011-06-23
US20120262534A1 (en) 2012-10-18
JP2011130202A (ja) 2011-06-30

Similar Documents

Publication Publication Date Title
US7831598B2 (en) Data recording and reproducing apparatus and method of generating metadata
JP5088321B2 (ja) 再生装置、再生システム、およびテレビジョンセット
JP5218989B2 (ja) 通信端末装置、及び、プログラム
US20120242840A1 (en) Using face recognition to direct communications
KR20160086752A (ko) 기기 네트워킹 방법, 장치, 프로그램 및 기록매체
JP2013504933A (ja) 時間シフトされたビデオ通信
JP2007282072A (ja) 電子会議システム、電子会議支援プログラム、電子会議支援方法、電子会議システムにおける情報端末装置
JP6445707B2 (ja) 画像処理方法及び装置
CN109151642B (zh) 一种智能耳机、智能耳机处理方法、电子设备及存储介质
KR20180113503A (ko) 정보 처리 장치, 정보 처리 방법 및 프로그램
JP2010086194A (ja) シェア画像閲覧方法および装置
JP2008005175A (ja) 情報配信装置、情報配信方法およびプログラム
JP2004129071A (ja) 双方向コミュニケーションシステム
JP2011172205A (ja) 映像情報処理装置および方法
JP2005102156A (ja) 連動システム、連動制御装置、連動制御方法
US20160261828A1 (en) Method, Device, and System for Multipoint Video Communication
CN106791563A (zh) 信息传输方法、本端设备、对端设备及系统
JPWO2019026919A1 (ja) 画像処理システム、画像処理方法、及びプログラム
JP5675089B2 (ja) 映像情報処理装置および方法
JP4830670B2 (ja) 再生装置
JP2004158950A (ja) 記録映像自動生成システム,記録映像自動生成方法,記録映像自動生成プログラムおよび記録映像自動生成プログラムの記録媒体
JP5550114B2 (ja) 撮像装置
WO2021237744A1 (zh) 拍摄方法及装置
JP2006203955A (ja) 情報処理システムおよびそれらを構成する通信装置
JP7141921B2 (ja) 絵本の読み聞かせシステムおよびプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20121217

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140204

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140407

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20140701

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20141001

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20141009

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20141125

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20141224

R151 Written notification of patent or utility model registration

Ref document number: 5675089

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees