JP2006048644A - 映像表示装置及び視聴意志判定装置 - Google Patents

映像表示装置及び視聴意志判定装置 Download PDF

Info

Publication number
JP2006048644A
JP2006048644A JP2005154216A JP2005154216A JP2006048644A JP 2006048644 A JP2006048644 A JP 2006048644A JP 2005154216 A JP2005154216 A JP 2005154216A JP 2005154216 A JP2005154216 A JP 2005154216A JP 2006048644 A JP2006048644 A JP 2006048644A
Authority
JP
Japan
Prior art keywords
unit
person
viewing intention
display device
viewing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2005154216A
Other languages
English (en)
Inventor
Kazuyuki Imagawa
和幸 今川
Eiji Fukumiya
英二 福宮
Katsuhiro Iwasa
克博 岩佐
Yasunori Ishii
育規 石井
Shogo Hamazaki
省吾 濱崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Holdings Corp
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Priority to JP2005154216A priority Critical patent/JP2006048644A/ja
Publication of JP2006048644A publication Critical patent/JP2006048644A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Power Sources (AREA)
  • Digital Computer Display Output (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

【課題】 人物の視聴意志にあわせ、タイムリーにインタフェースを提示でき、使いやすい映像表示装置を提供する。
【解決手段】 映像入力制御部101と、操作入力部106と、ユーザインタフェース構成要素の作成とその選択を受け付ける操作構成要素作成選択部107と、ユーザインタフェース構成要素と入力した映像とを合成する合成部108と、合成映像を表示する表示部102と、表示部周辺の人物の情報を取得する人物状況取得部103と、人物の視聴意志を判定する視聴意志判定部104と、判定結果が視聴意志有りから視聴意志無へ、もしくはその逆へ遷移するとき、操作構成要素作成選択部と操作入力部とを制御する操作制御部105とを備える。
【選択図】 図1

Description

本発明は、人物の視聴意志をセンサ等を用いて検知し、表示部の制御に工夫を凝らすことにより、人物の視聴意志にあわせてタイミングよく映像を表示できる映像表示装置に関するものである。
従来より、センサを通じて人物を検知し表示部を制御する装置として、赤外線センサなどにより人物の有無を検知し、表示部の電源のON/OFFを制御するものがあった。例えば、特許文献1(特開平7−44144号公報)は、表示部の前に、センサを取り付ける技術を開示する。
特許文献1によると、センサは、表示部の正面に人物が存在するか否かを検知し、表示部の正面に人物が存在しない場合、表示部の電源をOFFにする。また、表示部の正面から人までの距離が、所定距離以下か否かを検知し所定距離以下の場合には、表示部の電源をONにする。
特許文献2(特開平11−288259号公報)は、センサにより人物を検知し表示内容を変更する技術を開示する。即ち、センサが人を検知すると、表示装置が、広告等の映像データを再生する。また、この手法では、センサが人を検知すると、あらかじめ記録部に蓄積されている電子広告映像を表示する。
特許文献3(特開2002−123237号公報)は、撮像装置により人物の動きを検出し、人物の動きに応じて効果的な映像を表示する技術を開示する。そして、人物の位置を検出することにより、人物が動いているか否かが検出され、人物の位置の変化に伴って合成画像が作成される。
特許文献4(特開平11−24603号公報)は、表示部における人物の注視点を視線検出部によって検出し、注視点に、所定の情報(例えば電子広告画像等)を表示する技術を開示する。
しかしながら、特許文献1から特許文献3では、人の有無や人の動きによって表示部の電源のON/OFFや表示内容を制御している。したがって、視聴意志がない場合(例えば単なる通行人が通りすぎる場合等)においても、表示部の電源のON/OFFが切り替えられたり、表示内容が変更される。
したがって、人物が表示部の近辺を頻繁に移動するような環境(例えば、家庭内のリビングルーム、店舗、展示会場等)では、電源もしくは省電力モードのON/OFFが頻繁に切り替えられ、あるいは、表示内容が頻繁に変更される結果となり、これらの特許文献が意図する省電力効果や、映像表示を人物の移動に合わせる効果が、得られない。
特許文献2では、記録部に蓄積された映像データが再生される。ところが、映像データが、その途中まで再生されているとき、センサが人を検知すると、その映像データは最後まで再生されず、その映像データの最初のシーンにさかのぼって、再び同じ映像データが再生される結果となる。この現象は、センサが人を検知するたびに発生するため、人の往来が激しい場所(広告効果が一般に高いと考えられる場所)に、特許文献2に従う装置を設置しても、本来の広告効果を発揮できるとは考えられない。
特許文献4のように注視点を利用する情報表示装置では、注視点に応じてその注視点の場所に一方的に情報を提示するだけであり、人物とのインタフェースを考慮していない。例えば、操作メニューは、常に注視点に表示され、注視点が変わると、それに合わせて、操作メニューが移動することになる。したがって、人物が操作メニュー以外の部分の画像を見たいと考えても、操作メニューに邪魔されてその希望は叶えられない。要するに、効果的な表示制御ができているとは言い難い。
特開平7−44144号公報(第1−4頁、図2) 特開平11−288259号公報 特開2002−123237号公報 特開平11−24603号公報
そこで本発明は、人物の視聴意志にあわせ、タイムリーにインタフェースを提示できる映像表示装置を提供することを目的とする。
第1の発明に係る映像表示装置は、外部からの映像入力を制御する映像入力制御部と、操作入力を受け付ける操作入力部と、ユーザインタフェース構成要素を作成し、作成したユーザインタフェース構成要素の選択を受け付ける操作構成要素作成選択部と、操作構成要素作成選択部が作成したユーザインタフェース構成要素と映像入力制御部が入力した映像とを合成し合成映像を生成する合成部と、合成部が生成した合成映像を表示する表示部と、表示部と関連付けられ、表示部周辺の人物の情報を取得する人物状況取得部と、人物状況取得部が取得した情報に基づいて人物の視聴意志を判定する視聴意志判定部と、視聴意志判定部の判定結果が視聴意志有りから視聴意志無へ、もしくは視聴意志無から視聴意志有りへ遷移するとき、操作構成要素作成選択部と操作入力部とを制御する操作制御部とを備える。
ここで、本明細書にいう「ユーザインタフェース構成要素」とは、操作メニューや擬人化されたコンピュータグラフィクスキャラクタなど、表示部を介して表示されるユーザインタフェースに関連するグラフィカルなイメージである。
この構成により、視聴者が視聴意志を示した時点でタイミングよく操作のためのインタフェースを提示でき、映像表示装置は、操作入力可能な状態になる。これにより、使いやすいインタフェースをもつ映像表示装置を提供できる。
第2の発明に係る映像表示装置では、視聴意志判定部の判定結果が、視聴意志無しから視聴意志有りに遷移したことを示してから一定時間継続して操作入力部が操作入力が受け付けていない場合、操作制御部は、操作構成要素作成選択部と操作入力部とについて、既に実施した制御を解除する。
この構成により、複数の視聴者が存在する場合、ある視聴者の操作が終了し、さらに他の視聴者が一定時間継続して操作しなければ、インタフェースは自然に消えることになり、インタフェースが他の視聴者の視聴を邪魔することがない。
第3の発明に係る映像表示装置では、人物状況取得部は、所定の領域における人物の有無及び所定の領域において人物が静止しているか否かを示す情報を取得し、視聴意志判定部は、人物状況取得部が取得した情報が、所定の領域に人物が存在し、かつ、その人物が静止していることを示すとき、視聴意志有りと判定する。
この構成により、単なる通行人が表示部の付近を通りすぎても、視聴意志無しとすることができるため、省電力効果を高め、操作画面提示を効果的に実施できる。
第4の発明に係る映像表示装置では、人物状況取得部は、更に、所定の領域に存在する人物の顔向きが所定の方向を向いているか否かの情報を取得し、視聴意志判定部は、人物状況取得部が取得した情報が、所定の領域に存在する人物の顔向きが所定の方向を向いていることを示すとき、視聴意志有りと判定する。
この構成により、人物の周囲に複数の表示部が存在する場合、人物は、顔を見たい表示部に向けさえすれば、それだけで、見たい表示部を具体的に特定した結果となり、操作メニューは、視聴者により的確に提示される。
本発明によれば、人物が視聴意志を示した時点にタイミングよく、操作用のインタフェースを提示でき、映像表示装置は、操作入力可能な状態になる。したがって、人物が表示部近辺を頻繁に移動する場所(例えば、家庭内のリビングルーム及び店舗や展示会場等)においても、視聴意志が示された時のみに操作インタフェースが提示され、しかも、操作インタフェースが他の視聴者の視聴を妨げない。その結果、無用の操作入力を未然に防ぐことができる。更に、表示部の無駄なON/OFFを避けて、省エネルギーに資することができる。
以下図面を参照しながら、本発明の実施の形態を説明する。
(実施の形態1)
図1は、本発明の実施の形態1における映像表示装置の機能ブロック図である。
図1において、映像入力制御部101は、レコーダ、プレーヤ、チューナ、ネットワーク等を介して、映像を入力する。入力された映像は、表示部102により表示される。本発明では、映像の入力経路を特に区別する必要はない。
人物状況取得部103は、赤外線センサ、超音波センサもしくはカメラ等を備え、人物100の状況をセンシングし、センシング結果を示す情報を出力する。なお、本形態では以下カメラを中心に説明し、適宜、赤外線センサ、超音波センサに対する説明を適宜加えるものとする。
視聴意志判定部104は、人物状況取得部103が取得したカメラ画像等のセンシング結果を解析し、人物の有無と共にその人物に視聴意志があるか否かを判定する。視聴意志判定部104の詳細については、後に図7等を参照しながら説明する。
操作制御部105は、操作をするためのインタフェースの決定・作成・開始・終了・中断・再開を制御し、後述する操作構成要素作成選択部107と操作入力部106の両方を制御する。
操作入力部106は、実際に人物が操作のための入力をすることができる要素であり、具体的には、表示部102の操作が可能なタッチパネル、ボタン、遠隔操作可能なリモコン、携帯端末等で構成される。そして、操作制御部105は、操作入力部106による操作可能開始/操作可能終了を制御する。
操作構成要素作成選択部107は、操作制御部105の指示に応じ、操作メニューや擬人化エージェント(コンピュータグラフィクスキャラクタの例)などユーザインタフェースの対象となる画面を作成し、作成したユーザインタフェースの選択を受け付ける。
合成部108は、映像入力制御部101から入力された映像と操作構成要素作成選択部107が作成したインタフェース用画面を合成し合成映像を出力する。この合成映像は、表示部102に表示される。
図2は、図1の映像表示装置のブロック図である。表示部201は、表示部102に相当し、LCDやPDP等のディスプレイにより構成される。この表示部201と関連付けられた状態で、人物状況取得部103を構成するカメラ202等が設置されており、カメラ202は、表示部201の周辺の人物の状況をセンシングする。
視聴意志判定部104は、このカメラ202を通じて入力された映像に基づいて、人物の有無や人物の動作、人物の顔の向き等を解析し、人物の視聴意志の有無を判定する。なお、カメラ202と表示部201とは、一体的に構成しても良いし、カメラ202と表示部201とがネットワークを介して接続されても良い。また、カメラ202と表示部201とは、必ずしも1対1に関連付けられていなくても良く、1対他、他対1で関連付けられていても良い。
人物状況取得部103が取得した情報に基づいて、視聴意志判定部104が、新たに視聴意志が有りと判定すると、表示部201の表示内容は、次のようになる。
即ち、図3(a)に示すように、操作構成要素作成選択部107がポップアップ型の操作メニューを選択し、その操作メニュー301が表示部201に表示される。あるいは、図3(b)に示すように、操作構成要素作成選択部107が擬人化エージェントを選択し、その擬人化エージェント302が表示部201に表示される。
なお、図3(a)、(b)に示すように、操作メニュー301、擬人化エージェント302は、既に表示部201に表示されている映像に重ね合わせて表示することが望ましく、操作メニュー301や擬人化エージェント302は、その位置が表示部201の端部周辺となるように配置することが望ましい。
また、操作メニュー301、擬人化エージェント302に加えて、コンテンツの属性情報(タイトル、残り時間、字幕等の属性等)や、その他ユーザに有効な付加情報(天気予報や日付、時間等)を同時に、若しくは、それのみを表示するようにしても構わない。この場合も、現在の状態を、操作を受け付ける状態に変更できる限り、本発明に包含される。
また、同時に音量を操作してもよい。例えば、メニューが表示されている間、視聴者が操作に集中しやすくするために、音量を下げておくとよい。あるいは、視聴者に操作を促すメッセージを発音しても良い。
操作入力部106は、音声入力による入力、表示部201の周辺にあるボタンやタッチパネル(視聴者の指が触れたことを表示部201が直接検知できる場合)等での入力、人物が持っているもしくは周辺にあるリモコンや携帯端末での操作入力等の入力を受け付ける。
図3(a)に示す操作メニュー301は、図2に示す状態に対応しており、「チャネル」、「コントロール」、「コンテンツ」及び「設定」の各ボタンを備える。図2に示す状態では、操作制御部105がネットワークインタフェース203や送受信部204等を通じて、人物100が持つ携帯端末205に受付可能である情報を送り、人物100が携帯端末205を用いて、表示部201を制御する。
次に、図4、図5を参照しながら、本形態の映像表示装置の動作について説明する。ここでは、カメラ202は、人物100に対して正面もしくは上部に設置されており、人物100の顔の位置が把握可能であるとする。
図5は、視聴意志判定部104が使用する領域を例示する。図5に示すように、カメラ202の撮像領域501に基づいて、人物100が表示部201を視聴すると考えられる定義領域502が設定される。
そして本形態では、視聴意志の有無を次のように定義する。即ち、「視聴意志有り」とは、人物100が定義領域502内に入り、人物100がその後静止し、人物100の顔が表示部201に向いている状態をいい、そうでないとき、「視聴意志無し」とする。
次に、図4を参照しながら、本形態における映像表示装置の処理の流れを説明する。
まず、人物状況取得部103が人物状況の情報を取得する(ステップ S401)。次に、視聴意志判定部104が、取得された人物状況取得結果に基づいて視聴意志の有無を判定する(ステップ S402)。そして、操作制御部105は、視聴意志が遷移したか否かによって制御すべき処理を変える(ステップ S403)。
まず、視聴意志が無から有へ遷移したとき、もしくは有から無へ遷移したとき、操作制御部105は、操作構成要素作成選択部107を制御して操作すべき画面を作成させる(ステップ S404)と共に、操作入力部106を操作可能な状態にする(ステップ S405)。また、視聴意志が無から有に遷移し且つ表示部201の電源の状態が第1の状態(表示部201の電源OFF若しくは省電力モード)である場合(ステップ S410)、表示部201の状態を、第2の状態(表示部201の電源ON若しくは通常モード)に変更する(ステップ S411)。そして、合成部108が、映像入力制御部101が入力した映像と操作構成要素作成選択部107が作成した画面とを合成し、その合成画像が、表示部102に表示される。また、人物100は、操作入力部106を用いて映像表示装置を操作可能な状態になる。
一方、視聴意志の遷移が確認されなかった場合、操作制御部105は、前回視聴意志が遷移してから一定時間継続して(ステップ S406)、操作入力がない状態にあるかどうか(ステップ S407)をチェックする。
チェック結果が「是」ならば、操作制御部105は、操作構成要素作成選択部107に操作画面の終了を命じ(ステップ S408)、同時に操作入力部106を受付不可能な状態にする(ステップ S409)。そして、操作制御部105は、処理をステップ S401へ戻す。
なお、チェック結果が「否」ならば、操作制御部105は、ただちに処理をステップ S401へ戻す。
次に、人物状況取得部103及び視聴意志判定部104について、より具体的に説明する。図6は、人物状況取得部103の内部構成を示すブロック図である。
図6に示すように、人物状況取得部103は、表示部201の周辺を、その光学系を用いて撮像する撮像部601と、撮像部601が撮像した画像から人物を検知する人物検知部602と、人物が静止しているか否かを判定する静止判定部603と、人物の顔向きが所定の向き(表示部201への向き)を向いているか否かを判定する顔向き判定部604とを備える。
次に、人物状況取得部103の動作を説明する。まず、撮像部601が、図5に示す撮像領域501を撮像する。次に、人物検知部602が人物の定義領域502内への存在有無を検知し、静止判定部603が人物が静止しているか否かを判定する。そして、顔向き判定部604が、定義領域502内の顔領域を取得し、人物100の顔が表示部201を向いているか否かを判定する。
なお、静止判定部603は、必ずしも身体が完全に静止している状態を判定するわけではなく、身体全体の移動、すなわち、歩き等によって身体全体が移動している状態を判定するものであり、身体の一部の動作、すなわち、頭部や上半身の動作が静止しているか否かを判定するものではない。
以下、図7を用いて、人物状況取得部103が取得した情報に基づく具体的な手順を説明する。
まず、装置の電源がONになると、撮像部601及び人物検知部602が起動する(ステップ S701)。そして、人物検知部601は、定義領域502内の人物100の存在有無を検知する(ステップ S702)。
次に、操作制御部105は、人物100の存在有無の遷移により、処理を変更する(ステップ S703)。まず、人物100の存在有無が無から有に遷移したとき、操作制御部105は静止判定部603を起動し(ステップ S704)、静止判定部603は人物100の静止を判定する(ステップ S705)。一方、人物100が存在し続けている場合には、既に静止判定部603が起動されているので、静止判定部603は、そのまま人物の静止を判定する(ステップ S705)。一方、人物が存在しない場合、操作制御部105は処理をステップ S702に移す。
次に、人物100の静止判定結果が、人物100が動作状態から静止状態へ遷移したことを示すとき、操作制御部105は、次の処理を行う(ステップ S706)。まず、操作制御部105は、顔向き判定部604を起動し(ステップ S707)、顔向き判定部604は、顔が所定の向きを向いているか否かを判定する(ステップ S708)。一方、人物が静止し続けているとき、顔向き判定部604は既に起動されているので、顔向き判定部604は、顔が所定の向きを向いているか否かを判定する(ステップ S708)。一方、人物が動作状態である場合、操作制御部105はステップ S702へ処理を移す。
ステップ S709では、顔向き判定部604は、顔向き判定結果が所定の向きか否かを判定し(ステップ S709)、顔向きが遷移したかどうかを判定する(ステップ S710)、(ステップ S711)。そして、視聴意志判定部104は、視聴意志有り状態へ遷移した(ステップ S712)のか、視聴意志有り状態のまま(ステップ S713)なのか、視聴意志無し状態に遷移した(ステップ S715)のか、視聴意志無し状態のまま(ステップ S714)であるかを判定し、その結果を出力する。この4とおりの状態のいずれにあるかを示す情報が、操作制御部105へ出力され、操作制御部105は、この情報を操作制御のために使用する。
次に、図6、図8から図10を参照しながら、人物検知部602、静止判定部603及び顔向き判定部604について、より具体的に説明する。図8は、人物検知部602及び静止判定部603の処理の流れを示す。人物検知部602と静止判定部603のいずれも、前段の動き差分(ステップ S801)とエッジ検出(ステップ S802)とを実施する。
まず、静止判定部603は、撮像部601が取得した動画像から2つの画像を求める。この2つ画像の1つは、図9(a)に示すように、注目するフレーム(時刻t)における画像F(t)であり、もう1つは、時刻tからΔtだけ前(時刻t−Δt)のフレーム画像F(t−Δt)である。
図9(c)に示すように、静止判定部603は、これらの画像の差分の絶対値をとった画像M(t)(=|F(t)−F(t−Δt)|)を求める(ステップ S801)。そして、図9(d)〜図9(f)に示すように、静止判定部603は、この画像M(t)に対し上から動き差分点を探索しエッジ点を設定した画像をエッジ画像E(t)とする(ステップ S802)。なお、静止判定部603は、エッジ点の個数があらかじめ設定した値以下であれば静止状態であると判定し、閾値以上であれば動状態であると判定する(ステップ S806)
人物検知部602は、エッジ画像から細かなノイズを除去した稜線画像(あるいは、包絡線画像)を求める。具体的には、人物検知部602は、ステップ S801からステップ S802まで、図10(a)に示すように、静止判定部603と同様の処理を行い、その後、図10(b)に示すように、エッジ画像E(t)に対し、細かなノイズを除去するため空間のローパスフィルタをかけ、稜線画像R(t)を求める(ステップ S803)。そして、人物検知部602は、稜線画像R(t)における稜線を波形と捉え、この波形の極大点を検出し、極大点の位置m(x,y;t)を人物の位置と決定する(ステップ S804)。
さらに、人物検知部602は、人物100が定義領域502内に存在するかどうかを判定し、存在すれば、人物100が表示部201を見る位置にいると判定する(ステップ S805)。
なお、人物検知部602と静止判定部603とは、必ずしもカメラ等の撮像部601を用いて取得した映像を用いなくても差し支えない。その代わりに、人物検知部602と静止判定部603とが、光電センサや超音波センサを利用するようにしてもよい。例えば、発光部と受光部からなる光電センサを用いる場合、発光部から所定領域に照射された赤外線などの光線が反射して受光部に受光される。受光部は、これを出力電圧、出力電流もしくは抵抗値の変化として出力し、その値がある値以上であれば人物を検知したとみなすことも可能である。また、そのセンサをアレイセンサとして用いて複数のセンサの結果を統合して人物が静止したか否かを判定することも可能である。
その他、床面に埋設する圧力センサや、天井に設置する赤外線エリアセンサ、熱画像センサ、鼓動センサ、超音波センサ等を、設置環境にあわせて適宜選択し、人物検知部602と静止判定部603とを構成してもよい。
次に、顔向き判定部604について説明する。顔向き判定部604は、人物100の顔が所定の向きを向いているか否かを判定する。これを実現するために、人物100の頭部に赤外線発光部を装着し、その赤外線発光部が所定の向きを向いているか否かを判定してもよい。あるいは、撮像部601を用いて取得した画像から顔向きを判定することもできる。こうすれば、人物100が赤外線発光部を装着する必要がなく、顔向き判定部604は簡易に構成される。特に、撮像部601が、人物の目・鼻・口等の顔部品を撮像可能な場合、顔向き判定部604として、顔部品のテンプレート画像を用いて顔向きを検出できる。
なお本形態では、人物検知部602、静止判定部603、顔向き判定部604の全ては、撮像部601が撮像した画像を入力することにしたが、上述したように、この点は必須ではない。安全安心への要求が高まる中、撮像部601と表示部201とが、物理的に離れた位置にそれぞれ設置されることがある。そして、撮像部601と表示部201とをネットワークを経由して接続でき、撮像部601が設置された建物に人が出入りしないとき、撮像部601は、監視カメラとして使用できる。また、人が出入りするとき、撮像部601を本形態における人物状況取得部103の構成要素として使用できる。このように、撮像部601を本形態とは異なる用途(監視カメラ)に使用することができる。そのような場合であっても、本形態と同等の構成を含む限り、本発明に包含される。
次に、図11を参照しながら、操作構成要素作成選択部107が作成するポップアップ型で階層構造を有する操作メニュー301(図3(a)参照)について、さらに詳細に説明する。図11は、操作メニューの体系を示している。
図11に示すように、操作メニューは、何かのアイテムを選択すれば、次の階層に移る多階層型の体系となっている。そして、操作構成要素作成選択部107は、現在実行中の階層の項目を指すポインタを持っている(現在の状態A)。ここでは、現在なんらかのメディアを再生中の状態であることを示している。
操作構成要素作成選択部107は、操作制御部105から操作画面を作成するように要求されると、現在持っているポインタを選択肢の1つとして持つ階層をホームポジションとして定義し、そのポジションの画面を作成する。
例えば、図11の場合では、「コントロール」の配下にある項目であるところの、「再生」「停止」「一時停止」「早送り」及び「巻き戻し」というメニューが表示される。なお、このようなホームポジション型だけでなく必ずトップメニューを表示する形にしても良いが、複数の操作体系が複雑にからむ場合には、操作性を向上させるため、ホームポジション型の操作体系を採用することが望ましい。
一方、図3(b)に示した、擬人化エージェント302の場合には、擬人化エージェント302が現れるように処理をするだけでなく、その状況に応じて、擬人化エージェント302の動作や表情を制御したり、擬人化エージェント302の声(擬人化エージェント302の出現と同期して再生される音声データ)を変えるように制御することもできる。
例えば、擬人化エージェント302が現れるときの動作パターンや表情パターンをいくつか保持しておき、その時の時間によって表情や動作、発声の内容(例えば、朝ならば「おはようございます」と発音する等)を変えてもよい。さらに、擬人化エージェント302の場合でも、現在の状況をホームポジションで管理しておくと、擬人化エージェント302に発声させる単語や連語を選択したり、擬人化エージェント302の発声を動的に変更したりするような場合、都合がよい。
操作制御部105は、上述したように、操作構成要素作成選択部107を制御すると共に、操作入力部106の受け付け待ち状態を制御する。既に述べたが、操作入力部106による入力は、タッチパネル入力、音声入力、ボタン入力、携帯端末による操作、リモコンによる入力など各種の場合が考えられるが、そのいずれを用いたとしても、本発明に包含される。
(実施の形態2)
実施の形態1では、基本的に起動中の1台の表示部201を、少なくとも1つのカメラ等から取得した視聴意志の状況によって、操作入力と表示を制御している。本形態では、複数の表示部を用いて映像入力制御部に入力される映像を視聴する場合を想定し、人物が見ようとしている表示部をONにし、ONになった表示部を用いた映像表示の制御を実現する。また、これらの制御を電源OFFの状態からの一連の流れとして説明する。なお、本形態において、実施の形態1と同様の機能を有する要素には、実施の形態1の要素と同じ名前を付する。
図12は、実施の形態2が適する場面の外観を平面視で示している。図12に示す状態では、1つの部屋の中に、3つの表示部(第1表示部1201、第2表示部1202及び第3表示部1203)が存在し、2つのカメラ(第1カメラ1204及び第2カメラ1205)を用いて人物状況を取得し、これらの表示部1201〜1203を制御する。また、人感センサ1209が別途設置されており、部屋の中に人がいるか否かを検知できるようにしている。図13は、本発明の実施の形態2におけるネットワーク構成図である。各カメラ1204〜1205は、人物状況取得部1305、1316、1307がネットワークインタフェース1306、1317、1308を介してサーバ部1207と接続する。また、各表示部1201、1202において、操作制御部1303、1314及び表示部1302、1313は、ネットワークインタフェース1304、1315を介してサーバ部1207と接続する。なお、サーバ部1207は、全体を制御する全体制御部1320と、操作構成要素作成選択部1310と、映像入力制御部1309と、合成部1311及びネットワークインタフェース1312とを備える。また、図13で示すように、人感センサ1209は、センサ本体1319と、ネットワークインタフェース1318とを備える。
次に、図13を参照しながら、電源が投入された段階からの全体の流れについて説明する。人感センサ1209とカメラ1204、1205は、サーバ部1207の全体制御部1320によって、監視用途とユーザインタフェース用途との間を切り替えながら使用される。
例えば、ユーザが全体制御部1320を介し、「セキュリティON」モードが選択されると、カメラ1204、1205は、監視用のカメラ及びセンサとして使われ、「セキュリティOFF」モードが選択されると、カメラ1204、1205は、本発明のために使用される。
「セキュリティOFFモード」の初期状態は「スタンバイモード」であり、そのとき、人感センサ1209とサーバ部1207のみが起動している。部屋に人が入ってくると、人感センサ1209が人を検知し、全体制御部1320にネットワークインターフェース1318を介して通知する。その結果、全体制御部1320は、カメラ1204、1205及び視聴意志判定部1206をONにする(この状態を「カメラONモード」という。)そして、カメラ1204、1205は、人物状況を取得し、視聴意志判定部1206が視聴意志有と判定すると、全体制御部1320は、視聴意志が向けられた表示部(第1表示部1201、第2表示部1202のいずれか)の電源をONにすると共に、その表示部の操作制御部を操作入力待ちの状態にする。
なお、人感センサ1209が一定期間人を検知しなくなったら、部屋の中に人がいないと判断され、全体制御部1320は、現在の状態を「スタンバイモード」に変更する。
次に、「カメラONモード」以降の処理の流れについて、図12、図13を用いて説明する。まず、人物状況取得部1305、1316は、それぞれ第1カメラ1204、第2カメラ1205を用いて人物状況を取得する。図14に示すように、カメラ1204、1205には、第1表示部1201、第3表示部1203のそれぞれの位置に基づいて予め定義された撮像領域1401内の定義領域1402、1403が設定されている。
視聴意志判定部1307は、実施の形態1で述べた人物の定義領域に対する存在有無、静止判定結果、顔向き判定結果に加え、その結果がどの表示部のどのカメラの結果にあたるのかも判定する。なお、実施の形態1では、顔向き判定部について、顔部品(例えば、目・鼻・口等)の存在を前提とする記述をしていたが、本形態においては、任意の向きでの顔向き検出が必要である。任意の向きでの顔向き検出については、日本国特開2003−44853号公報の実施の形態1に記載の構成により実現できる。詳細は、同公報を参照されたい。
視聴意志判定部1206は、各カメラ1204、1205の人物状況取得結果と表示部のサイズや向きといった情報に基づいて、どの表示部により視聴しようとしているかを判定する。そのために、各カメラ1204、1205からの出力に基づいて、視聴意志判定部1307は、図15に示すようなマップを作成する。例えば、第1カメラ1204の撮像結果により、ある人物の像が、第1表示部1201の定義領域1402と第3表示部1203の定義領域1403の両方に存在し静止しているが、その人物の顔向きは、第1表示部1201を向いているという結果が得られる。
視聴意志判定部1307は、これをもとづいて、その人物は、第3表示部1203にではなく、第1表示部1201に対して、視聴意志があると判断し、第1表示部1201をONし、同時に操作制御をするように通知する。
通知を受けた第1表示部1201は、その操作制御部1302が操作入力部1301による操作入力を受け付け可能な状態にするとともに、ネットワークを介してサーバ部1207に映像と操作構成要素を合成した結果を送信するよう要求する。
サーバ部1207は、その要求を受け、操作構成要素作成選択部1310が作成した操作構成要素と映像入力制御部1309が取得した映像とを、合成部1311が合成し、合成部1311は合成映像をネットワークインタフェース1312、1304を介して、第1表示部1302に送信し、第1表示部1302は受信した映像を、表示部1302上に表示する。
以上の結果、複数の表示部がある場合にも、人物が特に意識しなくとも、人物が視聴意志を向けた第1表示部1201が、サーバ部1207を内部的に操作し、所望の結果を得ることができるから、インタフェースの使い勝手を大幅に向上できる。
更に、図16に示すように、複数の人物が存在する場合、表示部の大きさと人物の方向の中から最適な表示部を少なくとも1台決定すれば、最適な台数の表示部を用いて制御することができる。
例えば、第1人物1501及び第2人物1502が、図16に示すような方向を向いている場合、人物に最も近い表示部を使用することにすると、第1人物1501が第1表示部1201を使用し、第2人物1502が第2表示部1503を使用することになる。
しかしながら、図16に示す場合において、表示部と人物との距離だけでなく、表示部のサイズをも加味して制御すれば、次のようになる。図16に示す状態では、第4表示部1503のサイズが非常に小さいため、例えば、サイズが大きい第1表示部1201に対応して、第1表示部1201の定義領域を大きく設定し、この定義領域を、第1人物1501と第2人物1502とで共用させ、第1人物1501と第2人物1502とは、いずれも第1表示部1201を使用するようにすることができる。このような制御を行うと、インタフェースの使いやすさをさらに向上できるし、省電力に資することができる。
本発明に係る映像表示装置は、例えば、家庭内のテレビジョン装置や屋外の大型映像表示装置あるいはそれらを用いたシステム等の分野において好適に利用できる。
本発明の実施の形態1における映像表示装置の機能ブロック図 本発明の実施の形態1における映像表示装置のブロック図 (a)本発明の実施の形態1における表示例図 (b)本発明の実施の形態1における表示例図 本発明の実施の形態1における操作制御部のフローチャート 本発明の実施の形態1における撮像領域と定義領域の関係図 本発明の実施の形態1における人物状況取得部のブロック図 本発明の実施の形態1における人物状況取得部及び視聴意志判定部のフローチャート 本発明の実施の形態1における人物検知部及び静止判定部のフローチャート (a)本発明の実施の形態1におけるフレーム画像の例示図 (b)本発明の実施の形態1におけるフレーム画像の例示図 (c)本発明の実施の形態1における差分画像の説明図 (d)本発明の実施の形態1における差分画像の処理過程図 (e)本発明の実施の形態1における差分画像の処理過程図 (f)本発明の実施の形態1における差分画像の処理過程図 (a)本発明の実施の形態1における差分画像の処理過程図 (b)本発明の実施の形態1における差分画像の処理過程図 本発明の実施の形態1における操作構成要素の階層を示すチャート 本発明の実施の形態2における映像表示装置の外観図 本発明の実施の形態2における映像表示装置のネットワーク構成図 本発明の実施の形態2における撮像エリアと定義領域の関係図 本発明の実施の形態2における人物配置例の説明図 本発明の実施の形態2における人物配置例の説明図
符号の説明
101、1309 映像入力制御部
102、1302、1313 表示部
103、1305、1316 人物状況取得部
104、1307 視聴意志判定部
105、1303、1314 操作制御部
107、1310 操作構成要素作成選択部
108、1311 合成部
201 表示部
202 カメラ
203、1304、1306、1308、1312、1315、1317 ネットワークインタフェース
204 送受信部
205 携帯端末
301 操作メニュー
302 擬人化エージェント
501、1301 撮像領域
502、1302、1303 定義領域
601 撮像部
602 人物検知部
603 静止判定部
604 顔向き判定部
1201 第1表示部
1202 第2表示部
1203 第3表示部
1204 第1カメラ
1205 第2カメラ
1207 サーバ部
1208、1501 第1人物
1301 操作入力部
1502 第2人物
1503 第4表示部

Claims (16)

  1. 外部からの映像入力を制御する映像入力制御部と、
    操作入力を受け付ける操作入力部と、
    ユーザインタフェース構成要素を作成し、作成したユーザインタフェース構成要素の選択を受け付ける操作構成要素作成選択部と、
    前記操作構成要素作成選択部が作成したユーザインタフェース構成要素と前記映像入力制御部が入力した映像とを合成し合成映像を生成する合成部と、
    前記合成部が生成した合成映像を表示する表示部と、
    前記表示部と関連付けられ、前記表示部周辺の人物の情報を取得する人物状況取得部と、
    前記人物状況取得部が取得した情報に基づいて人物の視聴意志を判定する視聴意志判定部と、
    前記視聴意志判定部の判定結果が視聴意志有りから視聴意志無へ、もしくは視聴意志無から視聴意志有りへ遷移するとき、前記操作構成要素作成選択部と前記操作入力部とを制御する操作制御部とを備える映像表示装置。
  2. 前記視聴意志判定部の判定結果が、視聴意志無しから視聴意志有りに遷移したとき、前記操作制御部は、前記操作構成要素作成選択部にユーザインタフェース構成要素を作成させ、前記操作入力部を操作入力受け付け可能な状態にする請求項1記載の映像表示装置。
  3. 前記視聴意志判定部の判定結果が、視聴意志無しから視聴意志有りに遷移したとき、前記操作制御部は、前記表示部の電力消費状態を、第1の状態から前記第1の状態よりも多くの電力を消費する第2の状態へ変更する請求項1記載の映像表示装置。
  4. 前記第1の状態は、前記表示部の電源オフと省電力モードの少なくとも一つであり、前記第2の状態は、前記表示部の電源オンと通常モードの少なくとも一つである請求項3記載の映像表示装置。
  5. 前記視聴意志判定部の判定結果が、視聴意志無しから視聴意志有りに遷移したことを示してから一定時間継続して前記操作入力部が操作入力が受け付けていない場合、前記操作制御部は、前記操作構成要素作成選択部と前記操作入力部とについて、既に実施した制御を解除する請求項1から2記載の映像表示装置。
  6. 前記人物状況取得部は、所定の領域における人物の有無及び前記所定の領域において人物が静止しているか否かを示す情報を取得し、前記視聴意志判定部は、前記人物状況取得部が取得した情報が、前記所定の領域に人物が存在し、かつ、その人物が静止していることを示すとき、視聴意志有りと判定する請求項1から5記載の映像表示装置。
  7. 前記人物状況取得部は、更に、前記所定の領域に存在する人物の顔向きが所定の方向を向いているか否かの情報を取得し、前記視聴意志判定部は、前記人物状況取得部が取得した情報が、前記所定の領域に存在する人物の顔向きが所定の方向を向いていることを示すとき、視聴意志有りと判定する請求項6記載の映像表示装置。
  8. 前記人物状況取得部は、光学系を有する撮像部を含む請求項1から7記載の映像表示装置。
  9. 前記操作構成要素作成選択部が作成する前記ユーザインターフェイス構成要素は、操作階層構造を持つグラフィカルユーザインタフェースを含む請求項1から8記載の映像表示装置。
  10. 前記操作階層構造は、前記視聴意志判定部から視聴意志を入力したとき及びそれ以前の操作階層を含む請求項9記載の映像表示装置。
  11. 前記操作構成要素作成選択部は、コンピュータグラフィクスキャラクタを作成する請求項8から10記載の映像表示装置。
  12. 前記操作構成要素作成選択部は、前記コンピュータグラフィクスキャラクタの動作及び前記コンピュータグラフィクスキャラクタの表情の少なくとも一方を作成する請求項11記載の映像表示装置。
  13. 前記操作構成要素作成選択部は、前記コンピュータグラフィクスキャラクタの声を作成する請求項12記載の映像表示装置。
  14. 音声入力部をさらに備え、前記操作制御部は、前記音声入力部による音声入力の受け付けを制御する請求項1から13記載の映像表示装置。
  15. 人物の情報を取得する人物状況取得部と、
    前記人物状況取得部が取得した情報に基づいて人物の視聴意志を判定する視聴意志判定部とを備え、
    前記人物状況取得部は、所定の領域における人物の有無及び前記所定の領域において人物が静止しているか否かを示す情報を取得し、前記視聴意志判定部は、前記人物状況取得部が取得した情報が、前記所定の領域に人物が存在し、かつ、その人物が静止していることを示すとき、視聴意志有りと判定する視聴意志判定装置。
  16. 前記人物状況取得部は、更に、前記所定の領域に存在する人物の顔向きが所定の方向を向いているか否かの情報を取得し、前記視聴意志判定部は、前記人物状況取得部が取得した情報が、前記所定の領域に存在する人物の顔向きが所定の方向を向いていることを示すとき、視聴意志有りと判定する請求項15記載の視聴意志判定装置。
JP2005154216A 2004-07-06 2005-05-26 映像表示装置及び視聴意志判定装置 Pending JP2006048644A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005154216A JP2006048644A (ja) 2004-07-06 2005-05-26 映像表示装置及び視聴意志判定装置

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2004199021 2004-07-06
JP2005154216A JP2006048644A (ja) 2004-07-06 2005-05-26 映像表示装置及び視聴意志判定装置

Publications (1)

Publication Number Publication Date
JP2006048644A true JP2006048644A (ja) 2006-02-16

Family

ID=36027080

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005154216A Pending JP2006048644A (ja) 2004-07-06 2005-05-26 映像表示装置及び視聴意志判定装置

Country Status (1)

Country Link
JP (1) JP2006048644A (ja)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010067104A (ja) * 2008-09-12 2010-03-25 Olympus Corp デジタルフォトフレーム、情報処理システム、制御方法、プログラム及び情報記憶媒体
JP2010113693A (ja) * 2008-11-10 2010-05-20 Nec Software Kyushu Ltd 顔画像抽出装置・方法及び電子広告装置並びにプログラム
JP2012220959A (ja) * 2011-04-08 2012-11-12 Sony Computer Entertainment Inc 入力された発話の関連性を判定するための装置および方法
JP2013068813A (ja) * 2011-09-22 2013-04-18 Casio Comput Co Ltd 投影装置、投影制御方法及びプログラム
JP2013223098A (ja) * 2012-04-16 2013-10-28 Fujitsu Ltd 音声処理装置、音声処理方法および音声処理プログラム
JP2020170522A (ja) * 2020-06-10 2020-10-15 パラマウントベッド株式会社 表示制御装置
JP2022069681A (ja) * 2020-05-19 2022-05-11 パラマウントベッド株式会社 寝台装置

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04287091A (ja) * 1991-03-16 1992-10-12 Fujitsu Ltd デモンストレーション装置
JPH05266198A (ja) * 1992-03-24 1993-10-15 N T T Data Tsushin Kk 物体検出装置
JPH0738884A (ja) * 1993-07-19 1995-02-07 Sharp Corp テレビインターホン装置
JPH09144401A (ja) * 1995-11-17 1997-06-03 Cleanup Corp 荷物等自動管理ロッカー装置
JP2001273551A (ja) * 2000-01-20 2001-10-05 Norio Watanabe 自動販売装置
JP2004007089A (ja) * 2002-05-30 2004-01-08 Nippon Advantage Corp 状態変化判定装置
JP2004046386A (ja) * 2002-07-10 2004-02-12 Hitachi Ltd 携帯型情報端末および携帯型情報端末の省電力方法、記録媒体

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04287091A (ja) * 1991-03-16 1992-10-12 Fujitsu Ltd デモンストレーション装置
JPH05266198A (ja) * 1992-03-24 1993-10-15 N T T Data Tsushin Kk 物体検出装置
JPH0738884A (ja) * 1993-07-19 1995-02-07 Sharp Corp テレビインターホン装置
JPH09144401A (ja) * 1995-11-17 1997-06-03 Cleanup Corp 荷物等自動管理ロッカー装置
JP2001273551A (ja) * 2000-01-20 2001-10-05 Norio Watanabe 自動販売装置
JP2004007089A (ja) * 2002-05-30 2004-01-08 Nippon Advantage Corp 状態変化判定装置
JP2004046386A (ja) * 2002-07-10 2004-02-12 Hitachi Ltd 携帯型情報端末および携帯型情報端末の省電力方法、記録媒体

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010067104A (ja) * 2008-09-12 2010-03-25 Olympus Corp デジタルフォトフレーム、情報処理システム、制御方法、プログラム及び情報記憶媒体
JP2010113693A (ja) * 2008-11-10 2010-05-20 Nec Software Kyushu Ltd 顔画像抽出装置・方法及び電子広告装置並びにプログラム
JP2012220959A (ja) * 2011-04-08 2012-11-12 Sony Computer Entertainment Inc 入力された発話の関連性を判定するための装置および方法
JP2013068813A (ja) * 2011-09-22 2013-04-18 Casio Comput Co Ltd 投影装置、投影制御方法及びプログラム
JP2013223098A (ja) * 2012-04-16 2013-10-28 Fujitsu Ltd 音声処理装置、音声処理方法および音声処理プログラム
JP2022069681A (ja) * 2020-05-19 2022-05-11 パラマウントベッド株式会社 寝台装置
JP7270796B2 (ja) 2020-05-19 2023-05-10 パラマウントベッド株式会社 寝台装置
JP2020170522A (ja) * 2020-06-10 2020-10-15 パラマウントベッド株式会社 表示制御装置
JP7113045B2 (ja) 2020-06-10 2022-08-04 パラマウントベッド株式会社 表示制御装置
JP2022125029A (ja) * 2020-06-10 2022-08-26 パラマウントベッド株式会社 表示制御装置
JP7365456B2 (ja) 2020-06-10 2023-10-19 パラマウントベッド株式会社 表示制御装置

Similar Documents

Publication Publication Date Title
KR101541561B1 (ko) 유저 인터페이스 장치, 유저 인터페이스 방법, 및 기록 매체
KR102595795B1 (ko) 디스플레이 장치 및 그 제어 방법
US9565369B2 (en) Adaptive switching of views for a video conference that involves a presentation apparatus
US6812956B2 (en) Method and apparatus for selection of signals in a teleconference
US8797451B2 (en) Embedded camera with privacy filter
JP2006048644A (ja) 映像表示装置及び視聴意志判定装置
CN105683863A (zh) 通过触摸屏显示器来召开会议的用户体验
US20060007135A1 (en) Image display device and viewing intention judging device
US7358985B2 (en) Systems and methods for computer-assisted meeting capture
US20120229509A1 (en) System and method for user interaction
EP1466238A2 (en) Method and apparatus for a gesture-based user interface
EP1429558A2 (en) Adaptive display system
JPWO2008001877A1 (ja) 再生装置、再生システム、およびテレビジョンセット
US20180012537A1 (en) Display apparatus, driving method thereof, and computer readable recording medium
EP3813378B1 (en) Electronic apparatus and control method thereof
JP2011239029A (ja) 映像表示装置、省電力制御装置、及び省電力方法
CN115175004A (zh) 用于视频播放的方法、装置、可穿戴设备及电子设备
JP2007318431A (ja) 表示制御システムおよび表示制御方法
US20240080408A1 (en) Combining video streams having different information-bearing levels
JP2012173683A (ja) 表示制御装置、情報表示装置、及び表示制御方法
JP2009118423A (ja) 表示装置及び制御方法
WO2016157654A1 (ja) 情報処理装置、情報処理方法およびプログラム
TW201926050A (zh) 車輛多螢幕控制系統及車輛多螢幕控制方法
JP2005033682A (ja) 映像表示システム
JP2010145765A (ja) 表示システム、及び、表示システムの制御方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080229

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100113

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100120

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100319

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20100602