JP2000138872A - 情報処理装置および方法、並びに提供媒体 - Google Patents

情報処理装置および方法、並びに提供媒体

Info

Publication number
JP2000138872A
JP2000138872A JP10310767A JP31076798A JP2000138872A JP 2000138872 A JP2000138872 A JP 2000138872A JP 10310767 A JP10310767 A JP 10310767A JP 31076798 A JP31076798 A JP 31076798A JP 2000138872 A JP2000138872 A JP 2000138872A
Authority
JP
Japan
Prior art keywords
image
user
screen
displayed
information processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP10310767A
Other languages
English (en)
Inventor
Tetsujiro Kondo
哲二郎 近藤
Junichi Ishibashi
淳一 石橋
Yasuaki Takahashi
康昭 高橋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP10310767A priority Critical patent/JP2000138872A/ja
Publication of JP2000138872A publication Critical patent/JP2000138872A/ja
Pending legal-status Critical Current

Links

Abstract

(57)【要約】 【課題】 容易に番組を選択できるようにする。 【解決手段】 視線検出装置1は、ユーザの視線を検出
し、その結果を演算装置2に出力する。ディスプレイ8
にマルチ画面が表示されている状態で、その画面内の1
つの画像が、所定時間以上注視された場合、マルチ画面
が解除され、その注視された画像に対応する番組のみが
表示される。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】本発明は情報処理装置および
方法、並びに提供媒体に関し、特に、ユーザの視線を検
出し、その検出された視線の方向に位置する部分の情報
に応じた処理を行うようにした情報処理装置および方
法、並びに提供媒体に関する。
【0002】
【従来の技術】近年、テレビジョン放送は、多チャンネ
ル時代になりつつある。その時代の流れに対応し、テレ
ビジョン受像機のなかには、1つのチューナを用いて、
時分割に複数の番組を順次受信し、記憶したり、複数の
チューナを用いて複数の番組を受信し、1画面を複数の
小画面に分割して生成した、いわゆるマルチ画面に、同
時に複数の番組を表示することができるものがある。こ
のようなテレビジョン受像機において、1画面に複数の
番組の画像を同時に表示させ、それら表示された番組全
ての音声を同時にスピーカから出力させた場合、その音
声は混じり合ってしまい、全く意味を聞き取れない状態
となるので、通常、表示されている番組内の1つを選択
し、その選択されている番組の音声が出力される。
【0003】また、インターネットの普及に伴い、テレ
ビジョン受像機でもインターネットを楽しめるようにし
た機種がある。通常、ユーザは、インターネットなどを
楽しんでいるとき、その画面に表示されている単語の意
味がわからないと、辞書(本)などを用いてその単語の
意味を調べるようにしている。
【0004】
【発明が解決しようとする課題】上述したテレビジョン
受像機が複数の番組の画像を同時に表示している場合、
その番組内の1つの音声を出力させたいときや、1つの
番組自体を選択するとき、ユーザは、リモートコントロ
ーラなどに備え付けられている所定のボタンを操作す
る。しかしながら、上述したように、近年のテレビジョ
ン受像機には、インターネットの機能や、その他の機能
がたくさん付加されているため、リモートコントローラ
に備えつけられているボタンの数も増え、どのボタンを
操作すれば所望の処理が行えるのかを理解するのはわか
りづらいといった課題があった。
【0005】また、インターネットなどを楽しんでいる
時に、わからない単語があった場合、辞書などを用いて
調べていたが、そのようにすることは、ユーザにとって
は、処理が中断され、めんどうなことであり、もっと簡
便に単語の意味を調べられることが望まれている。
【0006】本発明はこのような状況に鑑みてなされた
ものであり、ユーザの視線を検出することにより、所定
の時間以上、ユーザが注視している部分を検出し、その
部分に位置する情報に対応した処理ができるようにする
ものである。
【0007】
【課題を解決するための手段】請求項1に記載の情報処
理装置は、表示部に表示されている画像の、ユーザが所
定時間以上、注視していた部分を検出する検出手段と、
検出手段により検出された部分に対応して、その部分に
位置する画像、またはその部分に位置する画像に対応す
る音声のうち、少なくとも一方を制御する制御手段とを
備えることを特徴とする。
【0008】請求項5に記載の情報処理方法は、表示部
に表示されている画像の、ユーザが所定時間以上、注視
していた部分を検出する検出ステップと、検出ステップ
で検出された部分に対応して、その部分に位置する画
像、またはその部分に位置する画像に対応する音声のう
ち、少なくとも一方を制御する制御ステップとを含むこ
とを特徴とする。
【0009】請求項6に記載の提供媒体は、表示部に表
示されている画像の、ユーザが所定時間以上、注視して
いた部分を検出する検出ステップと、検出ステップで検
出された部分に対応し、その部分に位置する画像、また
はその部分に位置する画像に対応する音声のうち、少な
くとも一方を制御する制御ステップとを含む処理を情報
処理装置に実行させるコンピュータが読み取り可能なプ
ログラムを提供することを特徴とする。
【0010】請求項1に記載の情報処理装置、請求項5
に記載の情報処理方法、および請求項6に記載の提供媒
体においては、表示されている画像の、ユーザが所定時
間以上、注視していた部分が検出され、検出された部分
に対応して、その部分に位置する画像、またはその部分
に位置する画像に対応する音声のうち、少なくとも一方
が制御される。
【0011】
【発明の実施の形態】以下に本発明の実施の形態を説明
するが、特許請求の範囲に記載の発明の各手段と以下の
実施の形態との対応関係を明らかにするために、各手段
の後の括弧内に、対応する実施の形態(但し一例)を付
加して本発明の特徴を記述すると、次のようになる。但
し勿論この記載は、各手段を記載したものに限定するこ
とを意味するものではない。
【0012】請求項1に記載の情報処理装置は、表示部
に表示されている画像の、ユーザが所定時間以上、注視
していた部分を検出する検出手段(例えば、図5のステ
ップS11)と、検出手段により検出された部分に対応
して、その部分に位置する画像、またはその部分に位置
する画像に対応する音声のうち、少なくとも一方を制御
する制御手段(例えば、図5のステップS12)とを備
えることを特徴とする。
【0013】図1は、本発明を適用したテレビジョン受
像機のうち、本発明の実施の形態を説明するうえで、必
要な構成を示すブロック図である。視線検出装置1は、
ユーザの視線を後述する方法で検出する装置である。視
線検出装置1により検出されたユーザの視線に関するデ
ータは、演算装置2に入力される。演算装置2には、電
子辞書が記憶されている記憶装置3と、リモートコント
ローラなどから構成される操作装置4とからのデータも
入力される。
【0014】演算装置2から出力された信号は、画像合
成装置5と音声出力装置6に入力される。画像合成装置
5は、演算装置2から入力された信号に従って、受信装
置7で受信された画像データをディスプレイ8に出力す
る。また、画像合成装置5は、内部に、例えばVRAM(Vi
deo Random Access Memory)などを備えており、また、
受信装置7は、時分割に複数の番組を受信する事が可能
とされており、受信装置7により時分割に受信された番
組の画像は、画像合成装置5のVRAMに記憶されることに
より、同時にディスプレイ9の所定の位置に表示され
る。すなわち、1画面に複数の番組の画像がマルチ画面
に表示される。
【0015】同様に、音声出力装置6は、演算装置2か
ら入力されたデータに従って、受信装置7で受信された
音声データをスピーカ9に出力する。通信部10は、イ
ンターネットなどのネットワークに接続され、他の装置
とデータの授受を行うことが可能とされている。
【0016】マルチ画面の時は、その各画像は、間欠し
た画像であり、音声は、1つの画像に対する音声のみ、
または全く出力されない状態である。
【0017】次に、視線検出装置1が行う視線検出につ
いて、図2のフローチャートを参照して説明する。図2
のフローチャートに従って、ユーザの視線検出を行う場
合、視線検出装置1には、ユーザの顔を撮像する撮像装
置(不図示)が備え付けられている。
【0018】ステップS1において、撮像装置が撮像し
たユーザの画像データが、視線検出装置1に供給され
る。ステップS2において、視線検出装置1は、供給さ
れた画像の色彩情報(肌色、白目の白、および黒目の黒
等)を用いて、両目の輪郭を検出し、さらに、両目の両
端の位置を検出する。ステップS3において、視線検出
装置1は、ステップS2で検出した両目の両端の位置を
基準として、所定の探索範囲を限定し、画像の輝度情報
を用いて鼻孔の位置を検出する。
【0019】ステップS4において、視線検出装置1
は、目の両端、および鼻孔の位置の幾何学的な位置関係
に基づいて、眼球の中心の位置および半径を推定する。
ステップS5において、目の輪郭内の輝度情報を用いて
瞳孔の中心の位置が検出される。ステップS6におい
て、図3に示すように、ステップS4で検出された眼球
の中心と、ステップS5で検出された瞳孔の中心を結ぶ
ベクトルが演算され、得られたベクトルが視線の方向と
されることにより、ユーザの視線の検出が行われる。
【0020】なお、視線を検出する他の方法としては、
ユーザの顔に赤外線を照射し、反射した赤外線の画像を
用いて行う方法も知られており、それらの方法を用いる
ようにしてもよい。
【0021】図4は、ディスプレイ8(図1)に表示さ
れるマルチ画面の表示例を表している。図4の表示例で
は、1つの画面が16分割され、分割されたそれぞれの
領域に、画像1乃至16が表示されている。このような
マルチ画面は、テレビジョン受像機10の電源がオンに
されたとき、初期画面として表示されるようにしても良
いし、その他の処理により表示されるようにしても良
い。そのような設定は、ユーザにより行われる。
【0022】図5のフローチャートを参照して、図1に
示したテレビジョン受像機11の動作について説明す
る。まず、前提として、ディスプレイ8には、図4に示
したようなマルチ画面が表示されているものとする。す
なわち、受信装置7は、所定の16個のチャンネルの信
号を順次受信し、その画像データを画像合成装置5に出
力する。画像合成装置5は、入力された各チャンネルの
画像データを、通常の画面の大きさの1/16の大きさ
に縮小し、所定の位置に配置して、マルチ画面を生成
し、ディスプレイ8に表示させる。このとき音声出力装
置6は、音声信号を出力していない。ステップS11に
おいて、ユーザが、画像1乃至16の内の1つの画像
を、所定の時間以上注視したか否かが判断される。
【0023】この判断は、演算装置2が、視線検出装置
1により検出されたユーザの視線が、例えば、5秒間動
かずに、マルチ画面内の1つの小画面に注がれていたか
否かを判断することにより行われる。所定時間以上、同
一小画面が注視されていたと判断されるまで、ステップ
S11の処理は繰り返される。ユーザが所定時間以上、
同一小画面を注視するということは、その小画面の番組
に興味があると判断することができる。
【0024】ステップS11において、所定時間以上、
同一の小画面が注視されたと判断された場合、ステップ
S12に進み、注視されたと判断された小画面に対応す
る音声が出力される。すなわち、演算装置2は受信装置
7を制御し、注視されたと判断された小画面のチャンネ
ルを継続的に受信させる。このとき、そのチャンネルの
音声データは音声出力装置6に供給され、音声出力装置
6は、その供給された音声データをスピーカ9に出力す
る。このようにして、音声が出力されている小画面を、
他の小画面と区別するために、例えば、音声が出力され
ている小画面の領域枠を色を付けて表示する、点滅して
表示するなどしても良い。また、画像合成装置5には、
1つのチャンネルの画像データだけが連続して供給され
ることになるので、そのチャンネルの小画面だけが動画
像として表示され、他のチャンネルの小画面は更新され
ず制止画として表示される。
【0025】ステップS13において、ユーザにより、
番組が選択されたか否かが判断される。番組の選択は、
ユーザが、その時出力されている音声に対応する番組で
良ければ、操作装置4の所定のボタンを操作することに
より行われる。ユーザは、音声が出力されている番組が
所望の番組ではない場合、ボタン操作を行わず、マルチ
画面内の他の画面を注視する。そして、演算装置2が、
ステップS11以降の処理を繰り返す。
【0026】ステップS13において、ユーザにより所
望の番組の選択が行われたと判定されたとき、ステップ
S14に進み、選択された番組の通常再生が行われる。
すなわち、演算装置2は、画像合成装置5を制御し、受
信装置7がそのとき連続的に受信してる番組の画像を、
通常の大きさの画像として、ディスプレイ8に出力させ
る。音声出力装置6は、受信装置7で連続的に受信され
ている番組の音声をスピーカ9に出力する動作をそのま
ま継続する。
【0027】このようにして、1つの番組が選択され、
通常再生が行われている最中に、ユーザが再びマルチ画
面を表示させたいと思った場合、操作装置4の所定のボ
タンが操作される。所定のボタンが操作されることによ
り、マルチ画面が再びディスプレイ8に表示された場
合、図5のフローチャートを参照して説明した処理が繰
り返され、新たな番組が選択される。
【0028】上述した実施の形態においては、マルチ画
面内の1つの小画面が注視されることにより、そのチャ
ンネルの音声が出力され、その後に、ボタン操作が行な
われることにより通常再生する番組が選択されるように
したが、ユーザによっては、より迅速に所望の番組を選
択したいといった場合がある。このように、迅速に番組
選択させる場合のテレビジョン受像機11の動作につい
て、図6のフローチャートを参照して説明する。このフ
ローチャートにおける処理においても、テレビジョン受
像機11には、マルチ画面が表示されていることが前提
となる。
【0029】ステップS21において、図5のステップ
S11の処理と同様に、ユーザがマルチ画面内の1つの
小画面を注視しているか否かが判断される。ステップS
21において、ユーザがマルチ画面内の1つの画像を注
視していると判断された場合、ステップS22に進み、
図5のステップS14における場合と同様に、注視され
たと判断された画像に対応する番組が、通常再生され
る。
【0030】このように、マルチ画面からユーザが注視
した画像が通常再生されるようにすることにより、ユー
ザは、ボタン操作を行うことなく、所望の番組を迅速か
つ容易に選択することができる。
【0031】次に、テレビジョン受像機11の他の動作
について、図7のフローチャートを参照して説明する。
ステップS31において、演算装置2は、視線検出装置
1から供給されるユーザの視線方向の情報から、そのユ
ーザがマルチ画面内の1つの小画面を注視した時間が、
しきい値T1以上であるか否かを判断する。同一画像を
注視していた時間が、しきい値T1以上であると判断さ
れるまで、ステップS31の処理が繰り返され、しきい
値T1以上であると判断された場合、ステップS32に
進む。ステップS32において、注視されたと判断され
た画像に対応する音声が出力される。
【0032】ステップS32において、音声が出力され
た画像が、さらにユーザにより、注視され続け、その合
計の時間がしきい値T2以上になったか否かが、ステッ
プS33において判断される。ここで、しきい値T1
しきい値T2は、しきい値T1<しきい値T2の関係にあ
る。ステップS33において、同一画面が注視されてい
た時間がしきい値T2以上ではないと判断された場合、
すなわち、ユーザが、音声が出力されている番組に興味
がなく、視線をその画像からはずした場合、ステップS
31に戻り、それ以降の処理が繰り返される。
【0033】一方、ステップS33において、同一画像
が注視されていた時間がしきい値T2以上であると判断
された場合、ステップS34に進み、注視されていたと
判断された画像、換言すれば、音声が出力されている番
組が通常再生される。
【0034】このように、ユーザの視線を検出し、その
検出された結果から、注視されている画像を判断し、そ
の注視されていた時間により、音声を出力し、さらに、
通常再生まで行うようにすることにより、ユーザは、操
作装置4のボタンを操作しなくても、マルチ画面から所
望の番組を容易に選択する事が可能となる。
【0035】次に、図1に示したテレビジョン受像機1
1の他の動作について、図8のフローチャートを参照し
て説明する。ステップS41において、テレビジョン受
像機11の通信部10は、インターネットを介して所定
のホームページにアクセスし、図9に示したような画像
を受信し、ディスプレイ8に表示させる。図9に示した
ホームページの表示例では、他ページとリンクが張られ
ており、カーソル21が操作されることにより、または
後述する視線検出により、クリックされると、通信によ
りそのリンク先へ移動する領域1と領域2が表示され、
領域2の下に、文章が記述され、記憶装置3に記憶され
ているデータ(ファイル)とリンクされている領域3が
ある。
【0036】ステップS42において、演算装置2は、
視線検出装置1が検出したユーザの視線の結果に従っ
て、その視線が、同一領域に対して所定時間以上、注視
されていたか否かが判断される。ステップS42の処理
は、同一領域が所定時間以上注視されたと判断されるま
で繰り返され、注視されたと判断された場合、ステップ
S43に進む。ステップS43において、注視されたと
判断された領域にリンク先が存在するか否かが判断され
る。すなわち、図2に示した領域1乃至3には、リンク
先が存在しており、それ以外の領域にはリンク先が設定
されていないので、ステップS43の処理では、換言す
ると、注視された領域は、領域1乃至3のうちの、いず
れかの領域であるか否かが判断される。
【0037】ステップS43において、注視された領域
にリンク先が存在していないと判断された場合、ステッ
プS42に戻り、それ以降の処理が繰り返され、リンク
先が存在すると判断された場合、ステップS44に進
む。ステップS44において、存在すると判断されたリ
ンク先は、外部に位置するか否かが判断される。領域1
と領域2は、リンク先が外部に位置するので、領域1と
領域2が注視されたと判断された場合、ステップS45
に進む。
【0038】例えば、注視されたと判断された領域が、
領域1である場合、いま表示されている関連ホームペー
ジ1がリンク先であり、ステップS45において、通信
部10は、そのホームページにアクセスし、その画像デ
ータを受信して、ディスプレイ8に表示させる。このよ
うにして表示された新たなページに対して、ステップS
42以降の処理が繰り返される。
【0039】一方、ステップS44において、リンク先
は外部ではないと判断された場合、換言すれば、注視さ
れた領域(いまの場合、領域3)のリンク先が記憶装置
3であると判断された場合、ステップS46に進む。ス
テップS46において、演算装置2は、注視されたと判
断された領域3のうち、どの単語が注視されたのかを判
断し、その注視されたと判断された単語の意味を、記憶
装置3に記憶されているデータ(電子辞書)を検索し、
読み出す。ここでは、領域3’の"connection”という
単語が注視された領域として判断された場合を例にあげ
て説明する。記憶装置3から読み出された"connectio
n”という単語の意味は、図10に示したように、その
単語の近傍に表示される。
【0040】ユーザが単語を注視する場合としては、そ
の単語の意味が分からなくて考えている場合が想定さ
れ、上述したように、所定時間以上、1つの単語を注視
していると判断された場合、その単語の意味が表示され
るようにすることにより、ユーザは、辞書(本)などを
引くことなしに、わからない単語の意味を知ることがで
き、使いがってが向上する。
【0041】ステップS47において、ユーザが、単語
の意味が表示されている領域から、視線を外したか否か
が判断される。ユーザが単語の意味が表示されている領
域から視線を外した場合、ユーザは、その単語の意味を
理解し、次の文章を読み始めていると判断できるので、
視線が外されたと判断された場合、ステップS48に進
み、単語の意味の表示が終了される。すなわち、図9に
示した表示例に戻る。単語の意味の表示が終了された
ら、ステップS42に戻り、それ以降の処理が繰り返さ
れる。
【0042】このフローチャートの処理は、ユーザがイ
ンターネットのサーフィンを終了した場合、テレビジョ
ン受像機11の電源がオフにされた場合などに、割り込
み処理として終了される。
【0043】ユーザが、領域3内に表示されている文章
の最終行を読んでおり、次の行に移ろうとしていること
が、視線により検出された場合、演算装置2は、画面を
スクロールすることにより、次の行を表示させるような
機能をつけてもよい。
【0044】図11は、ユーザの視線を検出することに
より、ユーザが所望する画像や音声の情報を選択させる
ための装置の構成例を示すブロック図である。この構成
において、画像供給装置31は、例えば、複数のビデオ
テープレコーダから構成され、画像供給装置31から出
力された画像データは、画像切り換え装置32に入力さ
れる。画像切り換え装置32は、演算装置2から出力さ
れたデータに従って、スイッチ33−1を切り換え、選
択した画像データをディスプレイ8に出力する。
【0045】音声供給装置34は、画像供給装置31に
供給される画像に対応する音声を記憶し、その記憶して
いる音声データを音声切り替え装置35に供給する。音
声切り換え装置35は、演算装置2から出力されたデー
タに従って、スイッチ33−2を切り換え、選択した音
声データをスピーカ9に出力する。
【0046】画像切り換え装置32に入力された画像1
は、端子I1に供給される。同様に、画像切り換え装置
32に入力された画像2乃至画像Nは、それぞれ対応す
る端子I2乃至IN+1に供給される。スイッチ33−1
は、演算装置2からのデータに従って、端子I1乃至I
N+1のうちの1つの端子を選択し、端子O1と接続する。
端子IN+1には、メニュー画像が供給される。このメニ
ュー画像は、画像1乃至Nが、例えば、図4で示したマ
ルチ画面で表示されるように、予め作成された画像であ
る。
【0047】音声供給装置34の音声1乃至Nは、それ
ぞれ画像供給装置31の画像1乃至Nと対応している。
音声1は、端子P1に供給される。同様に、音声2乃至
音声Nは、それぞれ対応する端子P2乃至PNに供給され
る。端子PN+1には、メニュー画像に対応するメニュー
音声が供給されるスイッチ33−2は、演算装置2か
ら入力されたデータに従って、端子P1乃至PN+1の内の
いずれか1つの端子と、端子Q1とを接続する。
【0048】図11に示した装置の動作について、図1
2のフローチャートを参照して説明する。ステップS5
1において、ディスプレイ8にメニュー画面が表示され
る。メニュー画面がディスプレイ8に表示されるため、
画像切り換え装置32のスイッチ33−1は、端子I
N+1と端子O1を接続する。メニュー画面が表示されてい
る間、音声切り換え装置35のスイッチ33−2は、端
子PN+1と端子Q1とを接続する。これにより、メニュー
画面の選択を促すメッセージがアナウンスされる。
【0049】ステップS52において、演算装置2は、
視線検出装置1から出力される検出結果を用いて、メニ
ュー画面内の同一領域が、所定時間以上、注視されたか
否かを判断する。所定時間以上、注視されている領域が
存在するまで、ステップS52の処理は繰り返され、注
視されている領域が存在した場合、ステップS53に進
む。ステップS53において、注視されたと判断された
メニュー内の画像に対応する画像と音声が再生される。
【0050】すなわち、演算装置2は、画像切り換え装
置32と音声切り換え装置35に、メニュー画面内の、
どの画像が注視されたのかを示すデータを供給する。そ
して、画像切り換え装置3は、その供給されたデータに
従って、スイッチ33−1を切り換える。これにより、
ディスプレイ8に、ユーザが所望とした画像が供給さ
れ、再生される。同様に、音声切り換え装置35は、演
算装置2より供給されたデータに従って、スイッチ33
−2を切り換える。これにより、スピーカ9に、ユーザ
が所望とした画像に対応する音声が供給され、再生され
る。
【0051】このような装置は、例えば、画像1乃至N
が行楽地の画像であり、メニュー画像が、行楽地の名前
が列挙された画像である場合、ユーザが、表示されたメ
ニュー画面内の興味ある行楽地名を注視するだけで、所
望の行楽地の情報が得られといった装置に適用する事が
できる。
【0052】なお、本明細書中において、上記処理を実
行するコンピュータプログラムをユーザに提供する提供
媒体には、磁気ディスク、CD-ROMなどの情報記録媒体の
他、インターネット、デジタル衛星などのネットワーク
による伝送媒体も含まれる。
【0053】
【発明の効果】以上の如く、請求項1に記載の情報処理
装置、請求項5に記載の情報処理方法、および請求項6
に記載の提供媒体によれば、表示されている画像の、ユ
ーザが所定時間以上、注視していた部分を検出し、検出
された部分に対応して、その部分に位置する画像、また
はその部分に位置する画像に対応する音声のうち、少な
くとも一方を制御するようにしたので、例えば、ボタン
操作を行わなくても、マルチ画面から所望の番組を選択
することが可能となる。
【図面の簡単な説明】
【図1】本発明を適用したテレビジョン受像機の一実施
の形態の構成を示すブロック図である。
【図2】視線検出処理を説明するフローチャートであ
る。
【図3】視線検出処理を説明する図である。
【図4】ディスプレイに表示されるマルチ画面の表示例
である。
【図5】番組選択の方法を説明するフローチャートであ
る。
【図6】番組選択の他の方法を説明するフローチャート
である。
【図7】番組選択のさらに他の方法を説明するフローチ
ャートである。
【図8】テレビ所の受像機の動作について説明するフロ
ーチャートである。
【図9】ディスプレイの表示例を表す図である。
【図10】ディスプレイの他の表示例を表す図である。
【図11】視線検出により、情報を選択する装置の構成
例を示すブロック図である。
【図12】図11に示し装置の動作を説明するフローチ
ャートである。
【符号の説明】 1 視線検出装置, 2 演算装置, 3 記憶装置,
4 操作装置, 5画像合成装置, 6 音声出力装
置, 7 受信装置, 8 ディスプレイ,9 スピー
カ, 10 テレビジョン受像機
───────────────────────────────────────────────────── フロントページの続き (72)発明者 高橋 康昭 東京都品川区北品川6丁目7番35号 ソニ ー株式会社内 Fターム(参考) 5B087 AB13 AB14 BC05 BC12 BC13 BC26 BC32 DE02 5C025 AA23 CA03 CA06 5C026 DA00 DA14 5C082 AA02 AA27 CA03 CA54 CA62 CA76 CB01 DA87 MM09

Claims (6)

    【特許請求の範囲】
  1. 【請求項1】 表示部に表示されている画像に対応する
    処理を行う情報処理装置において、 前記表示部に表示されている画像の、ユーザが所定時間
    以上、注視していた部分を検出する検出手段と、 前記検出手段により検出された部分に対応して、その部
    分に位置する画像、またはその部分に位置する画像に対
    応する音声のうち、少なくとも一方を制御する制御手段
    とを備えることを特徴とする情報処理装置。
  2. 【請求項2】 前記表示部に表示される画像は、マルチ
    画面であり、 前記制御手段は、前記マルチ画面内の、前記検出手段に
    より検出された部分に位置する画像を動画像として表示
    させることを特徴とする請求項1に記載の情報処理装
    置。
  3. 【請求項3】 前記表示部に表示される画像は、マルチ
    画面であり、 前記制御手段は、前記マルチ画面内の、前記検出手段に
    より検出された部分に位置する画像に対応する音声を出
    力させることを特徴とする請求項1に記載の情報処理装
    置。
  4. 【請求項4】 前記制御手段は、前記検出手段により検
    出された部分に対応する画像がリンクされている画像を
    表示させることを特徴とする請求項1に記載の情報処理
    装置。
  5. 【請求項5】表示部に表示されている画像に対応する処
    理を行う情報処理装置の情報処理方法において、 前記表示部で表示されている画像の、ユーザが所定時間
    以上、注視していた部分を検出する検出ステップと、 前記検出ステップで検出された部分に対応して、その部
    分に位置する画像、またはその部分に位置する画像に対
    応する音声のうち、少なくとも一方を制御する制御ステ
    ップとを含むことを特徴とする情報処理方法。
  6. 【請求項6】表示部に表示されている画像に対応する処
    理を行う情報処理装置に、 前記表示部で表示されている画像の、ユーザが所定時間
    以上、注視していた部分を検出する検出ステップと、 前記検出ステップで検出された部分に対応して、その部
    分に位置する画像、またはその部分に位置する画像に対
    応する音声のうち、少なくとも一方を制御する制御ステ
    ップとを含む処理を実行させるコンピュータが読み取り
    可能なプログラムを提供することを特徴とする提供媒
    体。
JP10310767A 1998-10-30 1998-10-30 情報処理装置および方法、並びに提供媒体 Pending JP2000138872A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP10310767A JP2000138872A (ja) 1998-10-30 1998-10-30 情報処理装置および方法、並びに提供媒体

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP10310767A JP2000138872A (ja) 1998-10-30 1998-10-30 情報処理装置および方法、並びに提供媒体

Publications (1)

Publication Number Publication Date
JP2000138872A true JP2000138872A (ja) 2000-05-16

Family

ID=18009239

Family Applications (1)

Application Number Title Priority Date Filing Date
JP10310767A Pending JP2000138872A (ja) 1998-10-30 1998-10-30 情報処理装置および方法、並びに提供媒体

Country Status (1)

Country Link
JP (1) JP2000138872A (ja)

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003015816A (ja) * 2001-06-29 2003-01-17 Honda Motor Co Ltd ステレオカメラを使用した顔・視線認識装置
JP2003280805A (ja) * 2002-03-26 2003-10-02 Gen Tec:Kk データ入力装置
JP2005038008A (ja) * 2003-07-15 2005-02-10 Canon Inc 画像処理方法、画像処理装置
JP2006013645A (ja) * 2004-06-23 2006-01-12 Hitachi Ltd 情報処理装置
JP2008263524A (ja) * 2007-04-13 2008-10-30 Sharp Corp テレビジョン受像機
JP2010101949A (ja) * 2008-10-21 2010-05-06 Sharp Corp 表示装置および表示方法
JP2012014455A (ja) * 2010-06-30 2012-01-19 Toshiba Corp 情報表示装置、情報表示方法
JP2012195633A (ja) * 2011-03-15 2012-10-11 Olympus Imaging Corp 音声・映像情報報知システム及びその制御方法
WO2013046942A1 (ja) * 2011-09-26 2013-04-04 Necカシオモバイルコミュニケーションズ株式会社 表示装置
CN103765346A (zh) * 2011-09-08 2014-04-30 英特尔公司 基于眼睛凝视的用于音频视觉回放的位置选择
JP2014516181A (ja) * 2011-05-25 2014-07-07 株式会社ソニー・コンピュータエンタテインメント 視線によるデバイスの挙動の変更
WO2015029554A1 (ja) * 2013-09-02 2015-03-05 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム
JP2015064513A (ja) * 2013-09-26 2015-04-09 カシオ計算機株式会社 表示装置、コンテンツ表示方法及びプログラム
KR20160145054A (ko) * 2014-04-10 2016-12-19 마이크로소프트 테크놀로지 라이센싱, 엘엘씨 시선 추적 방법 및 디바이스에서의 시각적 변경의 비시각적 피드백

Cited By (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003015816A (ja) * 2001-06-29 2003-01-17 Honda Motor Co Ltd ステレオカメラを使用した顔・視線認識装置
JP2003280805A (ja) * 2002-03-26 2003-10-02 Gen Tec:Kk データ入力装置
JP2005038008A (ja) * 2003-07-15 2005-02-10 Canon Inc 画像処理方法、画像処理装置
JP4734855B2 (ja) * 2004-06-23 2011-07-27 株式会社日立製作所 情報処理装置
JP2006013645A (ja) * 2004-06-23 2006-01-12 Hitachi Ltd 情報処理装置
JP2008263524A (ja) * 2007-04-13 2008-10-30 Sharp Corp テレビジョン受像機
JP2010101949A (ja) * 2008-10-21 2010-05-06 Sharp Corp 表示装置および表示方法
JP2012014455A (ja) * 2010-06-30 2012-01-19 Toshiba Corp 情報表示装置、情報表示方法
JP2012195633A (ja) * 2011-03-15 2012-10-11 Olympus Imaging Corp 音声・映像情報報知システム及びその制御方法
US10120438B2 (en) 2011-05-25 2018-11-06 Sony Interactive Entertainment Inc. Eye gaze to alter device behavior
JP2014516181A (ja) * 2011-05-25 2014-07-07 株式会社ソニー・コンピュータエンタテインメント 視線によるデバイスの挙動の変更
CN103765346B (zh) * 2011-09-08 2018-01-26 英特尔公司 基于眼睛凝视的用于音频视觉回放的位置选择
CN103765346A (zh) * 2011-09-08 2014-04-30 英特尔公司 基于眼睛凝视的用于音频视觉回放的位置选择
JP2014526725A (ja) * 2011-09-08 2014-10-06 インテル・コーポレーション 視線に基づくオーディオビジュアル再生の位置選択
JP2013069211A (ja) * 2011-09-26 2013-04-18 Nec Casio Mobile Communications Ltd 表示装置、表示方法およびプログラム
WO2013046942A1 (ja) * 2011-09-26 2013-04-04 Necカシオモバイルコミュニケーションズ株式会社 表示装置
JPWO2015029554A1 (ja) * 2013-09-02 2017-03-02 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム
WO2015029554A1 (ja) * 2013-09-02 2015-03-05 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム
US10379610B2 (en) 2013-09-02 2019-08-13 Sony Corporation Information processing device and information processing method
JP2015064513A (ja) * 2013-09-26 2015-04-09 カシオ計算機株式会社 表示装置、コンテンツ表示方法及びプログラム
KR20160145054A (ko) * 2014-04-10 2016-12-19 마이크로소프트 테크놀로지 라이센싱, 엘엘씨 시선 추적 방법 및 디바이스에서의 시각적 변경의 비시각적 피드백
JP2017517053A (ja) * 2014-04-10 2017-06-22 マイクロソフト テクノロジー ライセンシング,エルエルシー 注視トラッキングの方法およびデバイスにおける視覚的な変更の非視覚的なフィードバック
KR102358939B1 (ko) 2014-04-10 2022-02-04 마이크로소프트 테크놀로지 라이센싱, 엘엘씨 시선 추적 방법 및 디바이스에서의 시각적 변경의 비시각적 피드백

Similar Documents

Publication Publication Date Title
JP4796209B1 (ja) 表示装置、制御装置、テレビジョン受像機、表示装置の制御方法、プログラム及び記録媒体
EP0788711B1 (en) Multipicture television receiver
US7852352B2 (en) Information processing apparatus, method, and program
JP2000138872A (ja) 情報処理装置および方法、並びに提供媒体
WO2011125905A1 (ja) テレビ受信機の動作モード自動設定装置、動作モード自動設定装置を備えたテレビ受信機、動作モード自動設定方法
EP1653422A2 (en) Remote control system and remote controlled appliance
CN113064684B (zh) 一种虚拟现实设备及vr场景截屏方法
US5486872A (en) Method and apparatus for covering and revealing the display of captions
CN113051432A (zh) 显示设备及媒资播放方法
JP2004213486A (ja) 画像処理装置および方法、記録媒体、並びにプログラム
WO2011118836A1 (ja) 表示装置、テレビジョン受像機、表示装置の制御方法、遠隔操作装置、遠隔操作装置の制御方法、制御プログラム、および制御プログラムを記録したコンピュータ読み取り可能な記録媒体
EP2519022A2 (en) Video processing apparatus and video processing method
JP4817635B2 (ja) 画像表示装置及び画像表示方法
CN111372140A (zh) 弹幕调整方法及装置、计算机可读存储介质和电子设备
JP2004070103A (ja) 映像信号処理装置および方法、記録媒体、並びにプログラム
JP4815949B2 (ja) マルチディスプレイ装置及び表示装置
JP3139661B2 (ja) テレビゲームシステム
JP4802618B2 (ja) コンテンツ再生装置及びコンテンツ再生方法
JPH04126479A (ja) Tv付きパーソナルコンピュータ
JPH1141536A (ja) テレビジョン装置、その制御方法及び記憶媒体
JP2011259232A (ja) 表示装置及びその制御方法、プログラム並びに記録媒体
JP2003036069A (ja) ヘッドマウントディスプレイ装置
JP4638318B2 (ja) リモートコントロールシステムおよびリモートコントロールシステムで用いられる装置
JP2007279994A (ja) Osd機能を有する電子機器
CN117812340A (zh) 一种显示设备及双应用显示方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050921

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080303

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080418

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20081225