JP2004213486A - Image processor and processing method, storage medium, and program - Google Patents

Image processor and processing method, storage medium, and program Download PDF

Info

Publication number
JP2004213486A
JP2004213486A JP2003001551A JP2003001551A JP2004213486A JP 2004213486 A JP2004213486 A JP 2004213486A JP 2003001551 A JP2003001551 A JP 2003001551A JP 2003001551 A JP2003001551 A JP 2003001551A JP 2004213486 A JP2004213486 A JP 2004213486A
Authority
JP
Japan
Prior art keywords
image
display
user
displayed
images
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2003001551A
Other languages
Japanese (ja)
Inventor
Yutaka Hasegawa
豊 長谷川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2003001551A priority Critical patent/JP2004213486A/en
Publication of JP2004213486A publication Critical patent/JP2004213486A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Position Input By Displaying (AREA)
  • Television Signal Processing For Recording (AREA)
  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To easily select one piece of information from a plurality of pieces of information. <P>SOLUTION: When a plurality of slave pictures are displayed on a display part 25, a visual line detection part 24 detects a user's visual line. An image specification part 22 determines which of the slave pictures displayed on the display part 25 is observed from the information related to the user's visual line supplied from the visual line detection part 24. A display control part 23 performs a control so as to display the observed slave picture in a large size. This invention is applicable to a television receiver displaying a plurality of programs simultaneously as slave pictures. <P>COPYRIGHT: (C)2004,JPO&NCIPI

Description

【0001】
【発明の属する技術分野】
本発明は画像処理装置および方法、記録媒体、並びにプログラムに関し、特に、ユーザの視線を検出し、その検出された視線の方向に位置する部分の情報に応じた処理を行うようにした画像処理装置および方法、記録媒体、並びにプログラムに関する。
【0002】
【従来の技術】
近年、テレビジョン放送は、多チャンネル時代になりつつある。その時代の流れに対応し、テレビジョン受像機のなかには、1つのチューナを用いて、時分割に複数の番組を順次受信し、記憶したり、複数のチューナを用いて複数の番組を受信し、1画面を複数の小画面に分割して生成した、いわゆるマルチ画面に、同時に複数の番組を表示することができるものがある。
【0003】
また、DVD(Digital Versatile Disc)プレーヤや、そのDVDプレーヤで再生できるDVDソフトウェアが普及しつつあるが、そのようなプレーヤとソフトウェアの組み合わせにより、マルチアングルなどと称される機能が実現されている。マルチアングルとは、1場面を複数のアングル(角度)から撮像した画像を、ユーザの指示により切り換えられるような機能である。このようなことは、本格化しつつあるデジタルテレビジョン放送などでも実施することが可能であると考えられる。
【0004】
さらにパーソナルコンピュータの普及により、また、そのパーソナルコンピュータが高性能化になることにより、複数の作業を1台のパーソナルコンピュータで並列的に行うことが可能となってきている。そのような複数の作業を並列的に行うとき、パーソナルコンピュータに接続されているディスプレイ上には、複数のウィンドウ(画像)が表示されている。複数のウィンドウが表示されている状態では、ユーザが所望のウィンドウを選択することが面倒であるような場合があるが、そのような不都合を回避するために、ユーザが表示されているウィンドウの内、所望のウィンドウを簡便に選択できるようにする方法も提案されている。(例えば、特許文献1参照)
【0005】
【特許文献1】
特開平5−150929号公報
【0006】
【発明が解決しようとする課題】
上述したテレビジョン受像機が複数の番組の画像を同時に表示している場合に、1つの番組を選択するとき、又は、DVDプレーヤなどによる再生で、表示された複数のアングルの画像から1つの画像(アングル)を選択するとき、ユーザは、リモートコントローラなどに備え付けられている所定のボタンを操作する。しかしながら、近年のテレビジョン受像機やDVDプレーヤなどには、機能がたくさん付加されているため、リモートコントローラに備えつけられているボタンの数も増え、どのボタンを操作すれば所望の処理が行えるのかを理解しずらいといった課題があった。
【0007】
本発明はこのような状況に鑑みてなされたものであり、ユーザの視線を検出し、所定の時間以上、ユーザが注視している部分を検出し、その部分に位置する情報に対応した処理ができるようにするものである。
【0008】
【課題を解決するための手段】
本発明の画像処理装置は、ユーザの視線を検出する検出手段と、画像を表示する表示手段に複数の画像を表示させる表示制御手段と、表示手段により表示されている複数の画像の内、ユーザが注視している画像を、検出手段による検出結果から判断する判断手段と、判断手段により、ユーザが注視していると判断された画像に関する処理を制御する処理制御手段とを備えることを特徴とする。
【0009】
前記処理制御手段は、ユーザが注視していると判断された画像を、その画像のみを拡大して表示手段に表示させる処理、または、他の画像より大きいサイズで表示手段に表示させる処理を制御するようにすることができる。
【0010】
前記処理制御手段は、ユーザが注視していると判断された画像にリンクされている情報を取得する処理を制御するようにすることができる。
【0011】
前記表示制御手段は、表示手段により表示される複数の画像が、時間経過とともに、表示されるサイズが変更され、表示される位置が変更されるように制御するようにすることができる。
【0012】
前記表示制御手段は、表示手段により表示される複数の画像それぞれが、表示される位置が、それぞれの画像に付随する位置情報に基づいて決定されるように制御するようにすることができる。
【0013】
本発明の画像処理方法は、ユーザの視線を検出する検出ステップと、表示手段により表示されている複数の画像の内、ユーザが注視している画像を、検出ステップの処理による検出結果から判断する判断ステップと、判断ステップの処理で、ユーザが注視していると判断された画像に関する処理を制御する処理制御ステップとを含むことを特徴とする。
【0014】
本発明の記録媒体のプログラムは、ユーザの視線を検出する検出ステップと、表示手段により表示されている複数の画像の内、ユーザが注視している画像を、検出ステップの処理による検出結果から判断する判断ステップと、判断ステップの処理で、ユーザが注視していると判断された画像に関する処理を制御する処理制御ステップとを含むことを特徴とする。
【0015】
本発明のプログラムは、ユーザの視線を検出する検出ステップと、表示手段により表示されている複数の画像の内、ユーザが注視している画像を、検出ステップの処理による検出結果から判断する判断ステップと、判断ステップの処理で、ユーザが注視していると判断された画像に関する処理を制御する処理制御ステップとを含む。
【0016】
本発明においては、ユーザの注視している部分の画像に関する処理が実行される。
【0017】
【発明の実施の形態】
以下に、本発明の実施の形態について図面を参照して説明する。図1は、本発明を適用した画像処理装置の一実施の形態の構成を示す図である。画像処理装置10は、画像供給部21を備える。画像供給部21は、画像特定部22と表示制御部23に、画像データを供給する。画像特定部22には、視線検出部24からの視線検出情報も入力される。
【0018】
画像供給部21から供給される画像データに基づく画像が、複数の異なる画像を含む場合、ここでは、後述するように、複数の異なる画像のうちから1つの画像が選択できるようになされているが、その選択された画像は、どの画像であるかを判断し、特定するための判断手段として、画像特定部22が設けられている。選択された画像を特定するための情報として、視線検出部24からの視線検出情報が用いられる。
【0019】
画像特定部22からの画像特定情報は、表示制御部23に供給される。表示制御部23は、画像供給部21から供給された画像データのうち、画像特定情報に基づき、ユーザにより選択されたと判断される画像の画像データを抽出し、その抽出した画像データに基づき、表示部25における画像の表示を制御する表示制御手段として設けられている。記憶部26は、画像特定部22が、画像を特定するうえで必要となるデータを適宜記憶し、必要に応じ、画像特定部22に、記憶されているデータを供給する。
【0020】
画像供給部21は、例えば、テレビジョン放送を受信するアンテナや、受信したテレビジョン放送から所定のチャンネルのデータを抽出するチューナなどから構成される。又は、DVDプレーヤなどの、所定の記録媒体に記憶されている画像データや音声データを読み出せる機能の装置で構成されるようにしても良い。画像供給部21は、表示部25に表示される画像を供給できる機能を有していればよい。
【0021】
視線検出部24は、ユーザの視線を検出するための検出手段として設けられているが、その検出方法は、どのようなものを用いても良い。例えば、図2に示すように、ユーザが装着する眼鏡41に、視線を検出するための機能を設けるようにしても良い。その眼鏡41としては、眼鏡形状のものであることが好ましいと考えられるが、ユーザの視線を監視できるような部分に位置するように、ユーザが装着することが可能な形状であればどのような形状でもよい。
【0022】
そのような眼鏡41を用いた場合、ユーザの眼球のうち、黒目と称される部分を検出し、その検出された黒目の動きを監視することにより、ユーザの視線を検出することができる。ユーザの黒目の部分を検出する方法としては、白(白目の部分)と黒(黒目の部分、白以外の色)を識別できる機能を有するカメラなどを用いることにより実現できる。
【0023】
眼鏡41などを用いた場合、その眼鏡41をかけたユーザの視線のみが、視線検出部24が視線を検出する対象となる。そのため、例えば、複数のユーザが、同時に、表示部25に表示されている複数の画像を閲覧しているような状況においても、どのユーザの視線を監視すればよいのかなどの問題が発生するようなこと防ぐことが可能となる。
【0024】
しかしながら、眼鏡41などをユーザに装着させなくてはならないと、ユーザの視線を監視できないという問題がある。すなわち、ユーザが、そのような眼鏡41を装着していなければ、後述するような画像の選択は行えないことになる。勿論、画像の選択を行うか否かの判断を、ユーザ側が、眼鏡41を装着するか否かで意思表示できるということは、1つの利点ともなるが、通常、眼鏡を装着しないユーザにとっては、眼鏡41を装着して画像を閲覧することは煩わしいことである。また、眼鏡を普段から装着しているユーザにとっても、その眼鏡の代わりに、または、その上に眼鏡41を装着するというのは煩わしいことである。
【0025】
このようなことを考慮すると、ユーザが装着するという動作を行わなくても、視線を検出できるようにすることが好ましい。例えば、ユーザの顔の画像を撮像できる位置に、撮像装置を設け、その撮像装置により撮像された画像により、ユーザの視線を検出するようにしても良い。その撮像装置が取り付けられる位置としては、例えば、図3に示したような位置が考えられる。
【0026】
この場合、ユーザが表示部25に表示されている複数の画像から1つの画像を選択する際、ユーザの視線を検出することにより行うことができるようにすることを目的としているため、ユーザが、表示部25の方向に向き、表示部25を閲覧しているときだけ、ユーザの視線が検出されれば良い。このようなことを考慮し、表示部25の例えば、右側の上部に、撮像装置61を設ける。このような位置に撮像装置61を設置することにより、ユーザが、表示部25に表示されている画像を閲覧しているときに、ユーザの顔を撮像することが可能となる。
【0027】
この撮像装置61により撮像されたユーザの顔のうち、例えば、目と口の位置を検出する。目は俗に、白目と黒目から構成されている。黒目の部分は、ユーザにより異なる色の場合が考えられるが、白目の部分は、通常、白である。よって、例えば、撮像された画像のうち、白色と判断される部分を抽出し、さらに、その白色と判断される部分の中に、黒などの他の色が存在しているか否かを判断することにより、目の部分を検出することが可能である。
【0028】
また、口は、赤など、顔の他の部分(肌色の部分)とは異なる色をしているため、その特徴を利用することにより、撮像装置61により撮像された画像から、口であると判断される部分を抽出することは可能である。このようにして抽出された目と口とを結ぶ線から構成される三角形を用いて、ユーザが向いている方向を検出することは可能である。すなわち、定点からユーザの顔を撮像しているような場合、ユーザが顔の向きを変えると、その変化に応じて、目と口を結んだ線から構成される三角形の形も変化するため、その変化を監視することにより、ユーザの向いている方向を検出することが可能である。
【0029】
又は、撮像装置61により撮像された画像から、目の部分を検出し、その検出された目の部分のうち、黒目の部分の向きを監視するようにすれば、ユーザの視線の方向を検出することが可能である。
【0030】
どのような方式を用いても良いが、視線検出部24は、ユーザの視線を検出する機能を有する。視線検出部24は、画像処理装置10の一部を構成するが、画像処理装置10を構成する他の部分と一体化されている必要は必ずしもなく、例えば、図2に示した眼鏡41のように、表示部25とは別体として構成されるようにしても良い。
【0031】
表示部25は、テレビジョン受像機や、プロジェクタとスクリーンの組み合わせにより構成される。
【0032】
次に、図1に示した画像処理装置10の動作について、図4のフローチャートを参照して説明する。図4のフローチャートに基づく処理が実行されるのは、ユーザにより、画像処理装置10の電源がオンにされ、画像を表示部25に表示できる状態にされていることを前提とする。ステップS11において、視線検出部24による、ユーザ(視聴者)の視線の検出が開始される。視線検出部24により検出されたユーザの視線に関する視線検出情報は、画像特定部22に出力される。
【0033】
ステップS12において、マルチ画面の表示が、表示部25において、表示制御部23の制御のもと行われる。マルチ画面は、画像処理装置10の電源がオンにされたとき、初期画面として表示されるようにしても良いし、その他の処理により表示されるようにしても良い。そのような設定は、ユーザにより行われるようにしても良いし、画像供給部21により供給される画像に関する情報(メタデータ)などを判断材料として行われるようにしても良い。
【0034】
ここで、表示部25において表示されるマルチ画面について説明する。図5は、表示部25に表示されるマルチ画面の一例であり、テレビジョン放送として送信されている複数のチャンネルの画像データに基づき複数の画面で構成されるマルチ画面として表示されている例を示している。図5の表示例では、表示部25の表示画面に、チャンネル(CH)1乃至7の7チャンネル分の画像を表示するための領域が、それぞれ設けられている例を示し、それらの対応する領域に、それぞれのチャンネルで放送されている番組の1画像が表示されている。
【0035】
画像処理装置10は、このようなマルチ画面を表示部25に表示させる場合、は、所定の7個のチャンネルの信号を順次受信し、各チャンネルの画像データを、通常の画面の大きさ(例えば、表示部25の表示可能領域と同等の大きさ)の1/7の大きさに縮小し(但し、図5に示すように、各領域間に所定の隙間を設ける場合その隙間を考慮し、また、ボタンなども表示させる場合、そのボタンなどのスペースも考慮し、1/7以下の大きさに縮小される)、所定の位置に配置して、マルチ画面を生成し、表示部25に表示させる。このような画像の表示の制御は、表示制御部23が、画像供給部21からの画像データを用いて行う。
【0036】
図5に示した表示例において、“前へ”というボタン101は、表示されているチャンネルよりも、番号の小さいチャンネルの画像を表示させたときに操作される(注視される)ボタンであり、“次へ”というボタン102は、表示されているチャンネルよりも、番号の大きいチャンネルの画像を表示させたときに操作される(注視される)ボタンである。
【0037】
次に、表示部25における他の表示例を示す。テレビジョン放送やインターネットなどの情報を表示部25に表示させたときの表示例を図6に示す。図6に示した表示例では、表示部25上に世界地図が表示されている。その世界地図上には、対応する国名が表示されている。その国名が、この場合、選択対象とされる。各国名は、例えば、その国の情報を取得できるホームページとリンクされている、その国の番組を放送しているチャンネルとリンクしているなどの実施の形態が考えられる。
【0038】
図7は、表示部25に表示される他の表示例を示す図である。図7に示した表示例は、所定のチャンネルの番組として、サッカーの試合が中継されており、そのサッカーの試合の画像が表示されている状態を示している。図7に示した表示例は、背景として、サッカースタジアムをイメージする絵が表示され、その絵の上に、仮に、スタジアムに座って観戦していたら見られるであろう試合の画像が、スタジアムの絵の対応する位置(すなわち、撮像しているカメラが設置されている位置)に設けられた領域内に表示されている。
【0039】
図7に示した例では、例えば、領域131には、メインスタンドから観戦しているときの画像が、領域132には、ホームチーム側のスタンドから観戦しているときの画像が、領域133には、バックスタンド側のスタンドから観戦しているときの画像が、領域134には、アウェイ(AWAY)のチーム側のスタンドから観戦しているときの画像が、それぞれ表示されている。
【0040】
図7に示した表示例では、サッカースタジアムの4つの位置に撮像用のカメラが設置されている状態を示している。このような画像を表示部25上で表示させるには、画像特定部22または表示制御部23で、画像供給部21から供給される画像データを解析し、表示部25のどの領域に表示させるべきかを判断する必要がある。
【0041】
そのために、例えば、画像供給部21が供給する画像データ、換言すれば、この場合、テレビジョン放送として放送されている番組の画像データであり、画像供給部21により受信される画像データには、どの位置に表示されるべきかの情報が含まれる。例えば、送受信されるデータには、図8に示すように、領域131用のデータとして、位置情報131’と画像データ131”が含まれ、領域132用のデータとして、位置情報132’と画像データ132”が含まれ、領域133用のデータとして、位置情報133’と画像データ133”が含まれ、領域134用のデータとして、位置情報134’と画像データ134”が含まれる。
【0042】
このようなデータが受信されるときの画像処理装置10の動作について、図9のフローチャートを参照して説明する。図9に示したフローチャートの処理は、ステップS12の処理として行われる。すなわち、テレビジョン放送で、マルチアングルによるマルチ画面を表示させるときの処理であり、他のデータを受信したときは、そのデータに合わせた処理がマルチ画面の表示に関わる処理として行われる。ステップS31において、画像供給部21は、図8に示したようなデータを受信し、画像特定部22と表示制御部23に、それぞれ供給する。
【0043】
ステップS31において、画像特定部22に対してデータの供給が開始されると、ステップS32において、画像特定部22は、供給されたデータから、位置情報と、画像データを分離する。図8に示したようなデータが供給された場合、位置情報131’乃至134’と画像データ131”乃至134”が、それぞれ分離される。
【0044】
ステップS32における処理により、画像特定部22において、位置情報と画像データの分離が行われると、画像特定部22は、分離された位置情報、この場合、位置情報131’乃至134’を用いて、ステップS33における表示させる位置(領域)の決定の処理を実行する。
【0045】
分離された位置情報としては、例えば、試合を撮像しているカメラにGPS(Global Positioning System)装置を備えておき、そのGPSから得られる位置情報が考えられる。そのGPSから得られる位置情報を、カメラから出力される画像データと共に、ユーザ側の画像処理装置10に対して送信できるようにしておけば、上述したように画像処理装置10で、その位置情報を画像データと分離し、位置決定の際の情報として用いることが可能となる。
【0046】
例えば、位置情報としてGPSから得られた情報が用いられる場合、画像特定部22は、分離された位置情報131’乃至134’のそれぞれの位置情報が示す緯度と経度を比較する。例えば、位置情報131’乃至134’が示す緯度のうち、最も北緯が高いのは、どの位置情報であるかを判断する。そして、その判断の結果、最も北緯が高いと判断された位置情報(例えば、位置情報131’とする)に対応する画像データ(この場合、画像データ131”)に基づく画像が、領域131(図7)に表示されるように処理が実行されるようにすればよい。
【0047】
このような判断の結果を示すデータは、画像特定部22から表示制御部23に供給される。なお、位置情報としてGPSにより得られる情報が用いられるようにしても良いし、他の情報が用いられるようにしても良い。他の情報としては、表示部25のどの領域に表示させるかを示す端的な情報、例えば、上の領域に表示させる、下の領域に表示されるといった情報そのものを用いるようにしても良い。
【0048】
位置情報の、他の情報の例として、画像の属性を用いるようにしても良い。例えば、画像の属性として、情緒的、活動的、色合いが暖色系、色合いが寒色系という4つの属性を設ける。この属性により、表示される位置が特定されるようにしても良い。4つの属性を設けるのは、縦方向と横方向を規定するためである。すなわち、例えば、情緒的と活動的という属性は、横方向の表示位置を決めるのに用いられ、色合いの暖色系、寒色系という属性は、縦方向の表示位置を決めるのに用いられる。
【0049】
これらの属性は、1つの画像データに1つの属性が割り当てられるわけではなく、それぞれの属性の割合が割り当てられるようにしても良い。
【0050】
図7に示したようなサッカーの試合の中継などの場合においても、選手達が活発に動いている画像を撮像してるカメラから出力されるデータに、活動的という属性の情報を含め、その逆に、選手達が活発に動いていない画像を撮像してるカメラから出力されるデータに、情緒的という属性の情報を含めるようにする。このようにすれば、活動的という属性のデータにより画像が、例えば、常に、上側に表示されるようにするといったことが可能となり、さらに、その上側に表示される画像が、大きなサイズで表示されるように設定しておけば、常に、ユーザは、選手達が活発に動いている、観戦していて最もおもしろいと思われる画像を、閲覧することが可能となる。
【0051】
また、そのような属性により位置表示の制御を行うようにすると、1つの子画像が、属性により、さまざまな位置に表示されることになり、子画像を動的に表示させることが可能となる。
【0052】
いずれかの情報に基づき、ステップS33において、画像特定部22が、供給された画像データに基づく画像の表示するための領域を決定し、その決定内容を示すデータを表示制御部23に供給すると、ステップS34において、表示制御部23は、画像特定部22により決定された領域に、その決定に対応する画像データに基づく画像が配置されて表示されるように、表示部25を制御する。
【0053】
すなわち、表示制御部23には、画像供給部21から、図8に示したような位置情報や画像データを含むデータが供給されるわけだが、表示制御部23は、供給された画像データを処理し、その処理した画像データに基づく画像が、画像特定部22からのデータが示す表示部25の所定の領域に表示されるように、表示部25を制御する。
【0054】
このような処理が実行されることにより、図7に示したような画面が、表示部25に表示される。
【0055】
ここでは、マルチ画面の表示例として、図5乃至図7に示した例を挙げて説明したが、それらの表示は一例であり、限定を示すものではない。
【0056】
なお、上述した実施の形態においては、マルチ画面を構成する画像の領域(以下、適宜、子画面と称する)の大きさや位置は、固定されているとして説明したが、必ずしも固定されている必要はなく、1つの子画面に注目したとき、その子画面が、表示部25の表示領域内を動きまわる感じで表示されたり、表示されるサイズが変化するように表示されるようにしても良い。
【0057】
例えば、図7に示した表示例のような、サッカーの試合の中継番組が表示部25に表示されているような場合、ボールの動きに合わせて、最も良いと思われる子画面が、他の子画面よりも大きく表示されるようにしても良い。また、臨場感を出すために、子画面を動きまわらせといった表示が行われるようにしても良い。このようにした場合、どの子画面を大きく表示させる、移動させるのかといった情報を、番組を放送する側で、送信するデータ内に含ませるようにすればよい。また、子画面自体を、ボールの動きに合わせて移動させるといったような表示を行うようにしても良い。
【0058】
図4に示したフローチャートを参照した説明に戻り、ステップS12において、マルチ画面が、表示部25に表示されると、ステップS13において、所定の時間以上、同一の画像(領域)が注視されたか否かが判断される。この判断は、画像特定部22が、視線検出部24により検出されたユーザの視線が、例えば、5秒間動かずに、マルチ画面内の1つの領域に注がれていたか否かを判断することにより行われる。
【0059】
ユーザが所定の時間以上、同一の領域を注視していたと判断されるまで、ステップS13の処理は繰り返される。ユーザが、所定の時間以上、同一の領域を注視するということは、その領域に表示されている画像(番組)に興味があると判断することができる。
【0060】
ステップS13において、所定時間以上、同一の領域が注視されたと判断された場合、ステップS14に進み、注視されたと判断された領域(子画面)に対応する画像(画面)が拡大表示される。マルチ画面では、表示されている各画面は、表示部25が表示できる最大のサイズよりも小さいサイズで表示されている。そのような小画面が、その子画面より大きいサイズの画面として表示部25上に表示される。
【0061】
例えば、図7に示したマルチ画面の状態で、ユーザが、領域131に表示されている画像を注視したと判断された場合、領域131のマルチ画面のときと比較してサイズが大きくされ、図10に示したような画面になる。図10に示した表示例では、ユーザが注視したと判断された領域131が、他の領域132乃至134と比較して大きいサイズで表示されている一方で、領域132乃至134は、小さいサイズに変更されている。
【0062】
図10に示した表示例では、領域132乃至134も表示されているが、領域131のみが表示されるようにしても良い。そのようにした場合、表示部25の表示可能領域と同一の大きさ、又は、ほぼ同一の大きさにされて表示される。そのような、選択された領域のみが表示されるような表示は、例えば、図5や図6に示したようなマルチ画面のときから、1つの画面(番組)が選択されたときの表示に適している。
【0063】
図5に示したマルチ画面は、異なるチャンネルで放送されている番組を、異なる領域に同時期に表示させるというものであるが、このようなマルチ画面から1つの番組が選択されたときには、その選択された番組のみが表示される方が好まし。逆に、選択された後も、選択された番組以外のチャンネルの番組も、表示し続けるようにすると、選択した番組に集中できず、見づらい画面となってしまう。
【0064】
また、図6に示したマルチ画面は、世界地図と、その地図上に対応する国名が表示されているような画面であるが、このような画面から、1つの国名が選択された場合、その国名(国)に関する情報を取得できるホームページや番組に表示が切り換えられる。この場合、選択された国に関するホームページや番組のみが表示されれば良く、選択されていない国の国名を、マルチ画面の状態から、そのまま引き続き表示を維持する必要はないと考えられる。また、引き続き表示を維持すると、逆に、見づらいものとなってしまうと考えられる。
【0065】
このようなマルチ画面に対し、図7に示したようなサッカー中継のようなマルチ画面の場合、図10に示したように、選択された領域(この場合、領域131)以外の領域(この場合、領域132乃至134)も、合わせて表示させておいた方が良いと考えられる。領域132乃至134の表示を維持することにより、ユーザは、他の領域の画像も合わせて閲覧でき、また、後述する処理により、他の領域の画像に表示を切り換えることも可能となるので、図10に示したように、複数の領域を表示させておくようにしても良い。
【0066】
このような場合、1つの情報(この場合、サッカーの試合)に対して、複数の観点からの情報(この場合、複数のアングルから撮像された画像)を、同時にユーザに提供することにより、ユーザに沢山の情報を提供することが可能となる。また、このような沢山の情報をユーザに、同時に提供したとしても、同一の情報に対する異なる観点からの情報なので、各情報が、どのような情報であるのかを把握しづらい、混乱してしまうといったような状況が発生することはないと考えられる。よって、このような時には、複数の情報を、同時に提供した方が、1つの情報しか提供しないよりも、ユーザに対して好ましい形態であると考えられる。
【0067】
このように、マルチ画面から1つの画面が選択された際、その選択された画面のみを表示させるか、又は、その選択された画面と、選択されていない画面を合わせて表示させるかは、表示される情報(内容)に合わせて切り換えられるようにすればよい。その切り換えは、ユーザが選択できるようにしても良いし、画像処理装置10側で、例えば、受信したデータに含まれるデータを参照することにより行うなどの仕組みを設けるようにしても良い。
【0068】
さらに、サッカーの試合の中継のように、例えば、ゴールシーンだけを繰り返し、または、他のアングルからみたいといったような要望があると考えられる番組の場合、図11に示すように、現在のシーンの後ろに、時間的に前の時刻のシーンの一部が表示されるようにする。例えば、領域131−1は、その時点でのリアルタイムの画像とし、その領域131−1の背後の領域131−2は、所定の時間(数十秒単位でも良いし、数分単位でも良い)だけ前の時刻の画像であり、さらに、その領域131−2の背後の領域131−3は、所定の時間だけ前の時刻の画像である。
【0069】
他の領域に対しても、同様に、時間的に前の時刻の画像が、リアルタイムの画像の背後に表示されている。このように、1つのアングルに対して、複数の時刻における画像を選択可能な状態にした表示においても、ユーザは、背後に表示されている画像も合わせて、所望の領域の画像を、注視するだけで、選択することが可能とされている。
【0070】
このように、背後に表示されている領域も選択可能な画像として表示させることにより、例えば、見逃してしまったゴールシーンをみることが可能となり、また、同一のゴールシーンを複数のアングルから楽しむことができるようになる。なお、同一のアングル(領域)に対して、背後に表示する領域の数は、幾つでも良い。
【0071】
いずれの表示がされるにせよ、このようにして、1つの番組(領域)が選択され、その領域内の画像が、通常再生されている最中に、ユーザが再びマルチ画面を表示させたいと思った場合、図10に示したマルチ画面を表示させるためのボタンとして設けられているマルチ画面ボタン150が操作(注視)される。
【0072】
ステップS15(図4)においては、図10(図11)に示したマルチ画面ボタン150が注視されたか否かが判断される。ステップS15において、マルチ画面ボタン150は注視されていないと判断された場合、そのままの拡大された画像の表示が継続される。一方、ステップS15において、マルチ画面ボタン150が注視されたと判断された場合、ステップS12に戻り、それ以降の処理が繰り返される。
【0073】
図10(図11)に示したようなマルチ画面ボタン150を表示させるようにし、そのボタンが注視されたか否かを判断するようにしても良いが、そのようなボタンを表示させずに、マルチ画面への切り換えが行われるようにしても良い。例えば、マルチ画面への切り換えが指示されるときは、ユーザが、その表示されている番組などに飽きて、他の番組などを閲覧したいと所望しているときであると考えられる。そのようなときには、拡大表示されている画面から、ユーザは、視線をはずすと考えられる。
【0074】
よって、ステップS15の処理として、拡大表示されている画面(領域)から、ユーザの視線が、所定の時間だけ、はずされたか否かを判断することにより、マルチ画面への切り換えの指示があったか否かを判断するようにしても良い。
【0075】
ステップS12に処理が戻ることにより、例えば、図11に示したようなサッカーの試合を中継しているような番組が閲覧されているときには、図7に示したようなマルチ画面に、表示部25の表示が切り換えられる。
【0076】
このように、マルチ画面からユーザが注視した画像が通常再生(他の領域に表示されている画像とは異なる表示)されるようにすることにより、ユーザは、ボタン操作を行うことなく、所望の番組を迅速かつ容易に選択することができる。
【0077】
上述した実施の形態においては、図5に示したようなマルチ画面からは、番組が選択されるとし、図6に示したようなマルチ画面からは、国名(その国の情報)が選択されるとし、図7に示したようなマルチ画面からは、所定のアングルから撮像された画像が選択されるとして説明した。このように、本実施の形態においては、どのようなマルチ画面を表示させ、どのようなものを選択させるかは、適宜変更が可能であり、上述した実施の形態に限定されるものではない。
【0078】
例えば、図示はしないが、マルチ画面として、コンパクトディスクに記録されている楽曲の曲名を一覧表示させ、その一覧表示された曲名のなかから、再生を所望する楽曲をユーザが注視すると、その楽曲が再生されるようにすることも、本発明を適用することにより可能である。
【0079】
上述した実施の形態において、例えば、図5に示したマルチ画面、すなわち、複数の番組に対応する子画面が、表示されているようなマルチ画面の場合、多チャンネル化が進むと、ユーザが全ての番組の子画面を閲覧するまで、時間がかかってしまうという問題がある。そこで、ユーザの嗜好により、マルチ画面に表示させる番組を、予め画像処理装置10側で選択するような機能を持たせるようにしても良い。
【0080】
ユーザの嗜好に関する情報は、ユーザが、図5に示したマルチ画面から、番組を選択する毎に、記憶部26(図1)に蓄積されるようにする。蓄積される情報としては、番組を選択する毎に、その番組が属するジャンルを判断し、そのジャンルの番組が選択された回数を累積していくことにより、ユーザの好みのジャンルを判断するようにする。番組が属するジャンルの情報は、受信される番組のデータ内に含ませることが可能であり、そのようにして含まれているデータを抽出することにより、ジャンルの情報を取得することが可能となる。
【0081】
累積された回数が、少ないジャンルの番組は、マルチ画面の子画面として表示させない、又は、表示させたとしても、時間的に後の方で表示されるようにする。換言すれば、累積された回数が多いジャンルの番組から順に、マルチ画面の子画面として表示されるようにする。
【0082】
このようなユーザの嗜好に関する情報は、マルチ画面や、選択された画像が拡大表示されている状態においても用いることができる。例えば、マルチ画面または拡大された画像が表示されている状態において、図12に示したように、異なる2つの領域171と領域172が重なり合ってしまうことがあると考えられる。図12に示した例では、領域172が領域172の背後に位置するため、ユーザ側からは、領域172に表示されている画像が見られない状態となっている。
【0083】
そのため、ユーザは、領域171の背後に領域172が存在していることを認識することができない。このようなことは、例えば、領域171で表示されている番組で、新たなアングルの画像の放送が開始されることにより、領域172が新たに設けられたような場合などに発生する可能性がある。
【0084】
このような場合、記憶部26に記憶されてるユーザの嗜好に関する情報を用い、ユーザが好みとしている画像(情報、番組など)を表示している領域を判断し、その判断に基づき、領域171又は領域172のどちらかを、前面に表示させるようにする。このような機能を持たせることにより、ユーザに、認識しづらいような位置に表示されている情報も提供することが可能となる。
【0085】
勿論、一方の領域が他方の領域に隠されてしまう場合や、一方の領域が他方の領域と重なってしまう場合など以外でも、ユーザの好みの画像(情報や番組)を、画像処理装置10が判断して、提供するような仕組みを設けることも、上述したような仕組みを適用することで可能である。
【0086】
上述した一連の処理、例えば、視線の検出やその検出に基づく画像の切り換えなどの処理は、それぞれの機能を有するハードウェアにより実行させることもできるが、ソフトウェアにより実行させることもできる。一連の処理をソフトウェアにより実行させる場合には、そのソフトウェアを構成するプログラムが専用のハードウェアに組み込まれているコンピュータ、または、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータなどに、記録媒体からインストールされる。
【0087】
記録媒体について説明する前に、簡便に、記録媒体からのデータの読み出し、又は、書き込みを行うパーソナルコンピュータについて説明する。図13は、汎用のパーソナルコンピュータの内部構成例を示す図である。パーソナルコンピュータのCPU(Central Processing Unit)301は、ROM(Read Only Memory)302に記憶されているプログラムに従って各種の処理を実行する。RAM(Random Access Memory)303には、CPU301が各種の処理を実行する上において必要なデータやプログラムなどが適宜記憶される。入出力インタフェース305は、キーボードやマウスから構成される入力部306が接続され、入力部306に入力された信号をCPU301に出力する。また、入出力インタフェース305には、ディスプレイやスピーカなどから構成される出力部7も接続されている。
【0088】
さらに、入出力インタフェース305には、ハードディスクなどから構成される記憶部308、および、インターネットなどのネットワークを介して他の装置とデータの授受を行う通信部309も接続されている。ドライブ310は、磁気ディスク321、光ディスク322、光磁気ディスク323、半導体メモリ324などの記録媒体からデータを読み出したり、データを書き込んだりするときに用いられる。
【0089】
記録媒体は、図13に示すように、パーソナルコンピュータとは別に、ユーザにプログラムを提供するために配布される、プログラムが記録されている磁気ディスク321(フレキシブルディスクを含む)、光ディスク322(CD−ROM(Compact Disc−Read Only Memory),DVD(Digital Versatile Disc)を含む)、光磁気ディスク323(MD(Mini−Disc)(登録商標)を含む)、若しくは半導体メモリ324などよりなるパッケージメディアにより構成されるだけでなく、コンピュータに予め組み込まれた状態でユーザに提供される、プログラムが記憶されているROM302や記憶部308が含まれるハードディスクなどで構成される。
【0090】
なお、本明細書において、媒体により提供されるプログラムを記述するステップは、記載された順序に従って、時系列的に行われる処理は勿論、必ずしも時系列的に処理されなくとも、並列的あるいは個別に実行される処理をも含むものである。
【0091】
また、本明細書において、システムとは、複数の装置により構成される装置全体を表すものである。
【0092】
【発明の効果】
本発明によれば、マルチ画面を表示することができる。
【0093】
本発明によれば、マルチ画面から所望の画面を、視線により簡便に選択することが可能となる。
【図面の簡単な説明】
【図1】本発明を適用した画像処理装置の一実施の形態の構成を示す図である。
【図2】視線検出部について説明するための図である。
【図3】視線検出部について説明するための図である。
【図4】画像処理装置の動作について説明するためのフローチャートである。
【図5】マルチ画面について説明するための図である。
【図6】マルチ画面について説明するための図である。
【図7】マルチ画面について説明するための図である。
【図8】画像処理装置が受信するデータについて説明するための図である。
【図9】マルチ画面の表示に関する処理について説明するフローチャートである。
【図10】拡大された画面を含む表示例を示す図である。
【図11】拡大された画面を含む表示例を示す図である。
【図12】領域が重なったときについて説明するための図である。
【図13】媒体を説明する図である。
【符号の説明】
10 画像処理装置, 21 画像供給部, 22 画像特定部, 23 表示制御部, 24 視線検出部, 25 表示部, 26 記憶部, 41 眼鏡, 61 撮像装置
[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to an image processing apparatus and method, a recording medium, and a program, and more particularly, to an image processing apparatus that detects a user's line of sight and performs processing according to information of a portion located in the direction of the detected line of sight. And a method, a recording medium, and a program.
[0002]
[Prior art]
In recent years, television broadcasting has entered a multi-channel era. In response to the trend of the era, some television receivers use a single tuner, receive and store multiple programs in a time-division manner, or receive multiple programs using multiple tuners, Some so-called multi-screens generated by dividing one screen into a plurality of small screens can simultaneously display a plurality of programs.
[0003]
In addition, a DVD (Digital Versatile Disc) player and DVD software that can be reproduced by the DVD player are becoming widespread, and a combination of such a player and software realizes a function called multi-angle. The multi-angle is a function that allows an image obtained by capturing one scene from a plurality of angles (angles) to be switched according to a user instruction. It is considered that such a thing can be implemented even in digital television broadcasting which is becoming full-scale.
[0004]
Further, with the spread of personal computers and the enhancement of the performance of the personal computers, it has become possible to perform a plurality of operations in parallel with one personal computer. When performing such a plurality of tasks in parallel, a plurality of windows (images) are displayed on a display connected to the personal computer. In a state where a plurality of windows are displayed, it may be troublesome for the user to select a desired window, but in order to avoid such inconvenience, the user is required to select one of the displayed windows. Also, a method has been proposed in which a desired window can be easily selected. (For example, see Patent Document 1)
[0005]
[Patent Document 1]
JP-A-5-150929
[0006]
[Problems to be solved by the invention]
In the case where the television receiver is displaying images of a plurality of programs at the same time, one image is selected from among a plurality of displayed images at the time of selecting one program or reproduction by a DVD player or the like. When selecting (angle), the user operates a predetermined button provided on a remote controller or the like. However, since many functions have been added to recent television receivers, DVD players, and the like, the number of buttons provided on the remote controller has also increased, and it has been difficult to determine which button should be operated to perform desired processing. There was a problem that it was difficult to understand.
[0007]
The present invention has been made in view of such a situation, and detects a user's line of sight, detects a part that the user is gazing at for a predetermined time or more, and performs a process corresponding to information located in the part. To make it possible.
[0008]
[Means for Solving the Problems]
An image processing apparatus according to an aspect of the invention includes a detecting unit configured to detect a line of sight of a user, a display control unit configured to display a plurality of images on a display unit configured to display an image, and a user configured to display a plurality of images displayed by the display unit. It is characterized by comprising a determining means for determining the image being watched from the detection result by the detecting means, and a processing control means for controlling the processing relating to the image determined to be watched by the user by the determining means. I do.
[0009]
The processing control unit controls a process of enlarging only the image determined to be watched by the user on the display unit and displaying the image on the display unit, or a process of displaying the image on the display unit in a size larger than other images. You can make it.
[0010]
The processing control means may control a process of acquiring information linked to an image determined to be gazed by a user.
[0011]
The display control means may control such that a plurality of images displayed by the display means are changed in size to be displayed and a displayed position is changed over time.
[0012]
The display control means may control the display positions of the plurality of images displayed by the display means so as to be determined based on position information attached to each image.
[0013]
According to the image processing method of the present invention, a detection step of detecting a user's line of sight and an image being watched by the user among a plurality of images displayed by the display unit are determined from a detection result obtained by the processing of the detection step. It is characterized by including a determining step and a processing control step of controlling processing relating to an image determined to be gazing by the user in the processing of the determining step.
[0014]
The recording medium program according to the present invention includes a detecting step of detecting a user's line of sight, and determining, from a plurality of images displayed by the display unit, an image that the user is gazing at from a detection result obtained by the processing of the detecting step. And a process control step of controlling a process related to an image determined to be gazing by the user in the process of the determining step.
[0015]
The program according to the present invention includes a detecting step of detecting a user's line of sight, and a determining step of determining, from a plurality of images displayed by the display unit, an image that the user is gazing at from a detection result of the processing of the detecting step. And a processing control step of controlling processing relating to the image determined to be gazing by the user in the processing of the determining step.
[0016]
In the present invention, a process related to an image of a part that the user is watching is executed.
[0017]
BEST MODE FOR CARRYING OUT THE INVENTION
Hereinafter, embodiments of the present invention will be described with reference to the drawings. FIG. 1 is a diagram showing a configuration of an embodiment of an image processing apparatus to which the present invention is applied. The image processing device 10 includes an image supply unit 21. The image supply unit 21 supplies image data to the image specifying unit 22 and the display control unit 23. The gaze detection information from the gaze detection unit 24 is also input to the image specifying unit 22.
[0018]
When an image based on the image data supplied from the image supply unit 21 includes a plurality of different images, one image can be selected from the plurality of different images, as described later. The image specifying unit 22 is provided as a determination unit for determining and specifying the selected image. Gaze detection information from the gaze detection unit 24 is used as information for specifying the selected image.
[0019]
The image specifying information from the image specifying unit 22 is supplied to the display control unit 23. The display control unit 23 extracts, from the image data supplied from the image supply unit 21, image data of an image determined to be selected by the user based on the image specifying information, and displays the image data based on the extracted image data. It is provided as display control means for controlling display of an image in the unit 25. The storage unit 26 appropriately stores data necessary for the image specifying unit 22 to specify an image, and supplies the stored data to the image specifying unit 22 as necessary.
[0020]
The image supply unit 21 includes, for example, an antenna for receiving a television broadcast, a tuner for extracting data of a predetermined channel from the received television broadcast, and the like. Alternatively, a device having a function of reading image data and audio data stored in a predetermined recording medium, such as a DVD player, may be used. The image supply unit 21 only needs to have a function of supplying an image displayed on the display unit 25.
[0021]
The line-of-sight detection unit 24 is provided as a detection unit for detecting the line of sight of the user, but any detection method may be used. For example, as shown in FIG. 2, a function for detecting the line of sight may be provided to the glasses 41 worn by the user. It is considered that the spectacles 41 are preferably in the form of spectacles. However, as long as the spectacles can be worn by the user, the spectacles 41 may be positioned at a portion where the user's line of sight can be monitored. Shape may be sufficient.
[0022]
When such glasses 41 are used, it is possible to detect the user's line of sight by detecting a portion of the user's eyeball called the iris and monitoring the movement of the detected iris. The method of detecting the iris of the user can be realized by using a camera having a function of distinguishing white (the iris) and black (the iris, a color other than white).
[0023]
When the spectacles 41 and the like are used, only the line of sight of the user wearing the spectacles 41 is a target for the line of sight detecting unit 24 to detect the line of sight. Therefore, for example, even in a situation where a plurality of users are simultaneously viewing a plurality of images displayed on the display unit 25, a problem such as which user's line of sight should be monitored may occur. Can be prevented.
[0024]
However, if the user needs to wear the glasses 41 and the like, there is a problem that the user's line of sight cannot be monitored. That is, if the user does not wear such glasses 41, an image cannot be selected as described later. Of course, it is one advantage that the user can determine whether or not to select an image based on whether or not the spectacles 41 are worn, but this is one advantage, but usually, for a user who does not wear spectacles, It is troublesome to view images while wearing the glasses 41. Also, it is troublesome for a user who usually wears glasses to wear the glasses 41 instead of or on the glasses.
[0025]
In consideration of such a situation, it is preferable to be able to detect the line of sight without performing the operation of wearing by the user. For example, an imaging device may be provided at a position where an image of the user's face can be captured, and the gaze of the user may be detected based on the image captured by the imaging device. As a position where the imaging device is attached, for example, a position as shown in FIG. 3 can be considered.
[0026]
In this case, when the user selects one image from the plurality of images displayed on the display unit 25, the purpose is to detect the user's line of sight. It suffices that the user's line of sight is detected while facing the display unit 25 and viewing the display unit 25 only. In consideration of such circumstances, the imaging device 61 is provided, for example, on the upper right side of the display unit 25. By installing the imaging device 61 at such a position, it is possible for the user to image the face of the user while viewing the image displayed on the display unit 25.
[0027]
Of the user's face imaged by the imaging device 61, for example, the positions of the eyes and the mouth are detected. The eyes are commonly composed of white and black eyes. The iris may be different in color depending on the user, but the iris is usually white. Therefore, for example, a portion determined to be white is extracted from the captured image, and it is determined whether another color such as black exists in the portion determined to be white. This makes it possible to detect the eye part.
[0028]
In addition, since the mouth has a color such as red that is different from other parts of the face (skin color part), it is determined that the mouth is a mouth from an image captured by the imaging device 61 by using its characteristic. It is possible to extract the part to be determined. It is possible to detect the direction in which the user is facing, using a triangle composed of the line connecting the eye and the mouth extracted in this way. In other words, in the case where the user's face is imaged from a fixed point, when the user changes the direction of the face, the shape of the triangle formed by the line connecting the eyes and the mouth changes according to the change, By monitoring the change, the direction in which the user is facing can be detected.
[0029]
Alternatively, if the eye portion is detected from the image captured by the imaging device 61 and the direction of the black eye portion is monitored among the detected eye portions, the direction of the user's line of sight is detected. It is possible.
[0030]
The gaze detection unit 24 has a function of detecting the gaze of the user, although any method may be used. The line-of-sight detection unit 24 constitutes a part of the image processing apparatus 10, but does not necessarily need to be integrated with other parts constituting the image processing apparatus 10, for example, like the glasses 41 shown in FIG. 2. Alternatively, the display unit 25 may be configured separately.
[0031]
The display unit 25 is configured by a television receiver or a combination of a projector and a screen.
[0032]
Next, the operation of the image processing apparatus 10 shown in FIG. 1 will be described with reference to the flowchart in FIG. The process based on the flowchart of FIG. 4 is performed on the assumption that the power of the image processing apparatus 10 is turned on by a user and the image is displayed on the display unit 25. In step S11, detection of the line of sight of the user (viewer) by the line of sight detection unit 24 is started. The gaze detection information on the gaze of the user detected by the gaze detecting unit 24 is output to the image specifying unit 22.
[0033]
In step S12, the display of the multi-screen is performed on the display unit 25 under the control of the display control unit 23. The multi-screen may be displayed as an initial screen when the power of the image processing apparatus 10 is turned on, or may be displayed by other processing. Such setting may be performed by the user, or may be performed using information (metadata) related to the image supplied by the image supply unit 21 as a determination material.
[0034]
Here, a multi-screen displayed on the display unit 25 will be described. FIG. 5 is an example of a multi-screen displayed on the display unit 25, and shows an example in which a multi-screen composed of a plurality of screens is displayed based on image data of a plurality of channels transmitted as a television broadcast. Is shown. The display example of FIG. 5 illustrates an example in which regions for displaying images of seven channels (CH) 1 to 7 are provided on the display screen of the display unit 25, and the corresponding regions are provided. 1 displays one image of a program broadcast on each channel.
[0035]
When displaying such a multi-screen on the display unit 25, the image processing apparatus 10 sequentially receives signals of predetermined seven channels and converts the image data of each channel into a normal screen size (for example, , The size is reduced to 1/7 of the size of the displayable area of the display unit 25 (however, when a predetermined gap is provided between the areas as shown in FIG. When displaying buttons and the like, the size is reduced to 1/7 or less in consideration of the space of the buttons and the like), arranged at a predetermined position, a multi-screen is generated, and displayed on the display unit 25. Let it. Such display control of the image is performed by the display control unit 23 using the image data from the image supply unit 21.
[0036]
In the display example illustrated in FIG. 5, the button 101 of “Previous” is a button that is operated (glanced) when displaying an image of a channel with a smaller number than the displayed channel, The button 102 of “next” is a button operated (glanced) when an image of a channel having a higher number than that of the displayed channel is displayed.
[0037]
Next, another display example on the display unit 25 will be described. FIG. 6 shows a display example when information such as a television broadcast or the Internet is displayed on the display unit 25. In the display example shown in FIG. 6, a world map is displayed on the display unit 25. The corresponding country name is displayed on the world map. In this case, the country name is selected. For example, each country name may be linked to a homepage from which information on the country can be obtained, or may be linked to a channel broadcasting a program in that country.
[0038]
FIG. 7 is a diagram illustrating another display example displayed on the display unit 25. The display example shown in FIG. 7 shows a state in which a soccer match is broadcast as a program of a predetermined channel, and an image of the soccer match is displayed. In the display example shown in FIG. 7, a picture imagining a soccer stadium is displayed as a background, and an image of a match that would be seen if the user was sitting at the stadium and watching a game is displayed on the picture. The image is displayed in an area provided at a position corresponding to the picture (that is, a position where the camera that is capturing the image is installed).
[0039]
In the example shown in FIG. 7, for example, an image when watching a game from the main stand is displayed in the area 131, and an image when watching a game from the stand on the home team side is displayed in the area 133 in the area 133. Shows an image when watching from the stand on the back stand side, and an image when watching from the stand on the away team side is displayed in the area 134, respectively.
[0040]
The display example shown in FIG. 7 shows a state in which imaging cameras are installed at four positions of the soccer stadium. In order to display such an image on the display unit 25, the image specifying unit 22 or the display control unit 23 analyzes the image data supplied from the image supply unit 21, and should display the image in any area of the display unit 25. You need to judge.
[0041]
For this purpose, for example, image data supplied by the image supply unit 21, in other words, in this case, image data of a program broadcast as a television broadcast, and image data received by the image supply unit 21 include: Contains information on where to display it. For example, as shown in FIG. 8, the transmitted / received data includes position information 131 ′ and image data 131 ″ as data for the region 131, and position data 132 ′ and image data 131 ′ as data for the region 132. 132 "is included, the position information 133 'and the image data 133" are included as the data for the area 133, and the position information 134' and the image data 134 "are included as the data for the area 134.
[0042]
The operation of the image processing apparatus 10 when such data is received will be described with reference to the flowchart in FIG. The processing of the flowchart shown in FIG. 9 is performed as the processing of step S12. That is, this is a process for displaying a multi-screen by a multi-angle in a television broadcast, and when other data is received, a process corresponding to the data is performed as a process related to the display of the multi-screen. In step S31, the image supply unit 21 receives the data as illustrated in FIG. 8 and supplies the data to the image specification unit 22 and the display control unit 23, respectively.
[0043]
When data supply to the image specifying unit 22 is started in step S31, the image specifying unit 22 separates position information and image data from the supplied data in step S32. When the data as shown in FIG. 8 is supplied, the position information 131 ′ to 134 ′ and the image data 131 ″ to 134 ″ are separated, respectively.
[0044]
When the position information and the image data are separated in the image specifying unit 22 by the processing in step S32, the image specifying unit 22 uses the separated position information, in this case, the position information 131 ′ to 134 ′. The process of determining the position (area) to be displayed in step S33 is executed.
[0045]
As the separated position information, for example, a camera that captures a game is provided with a GPS (Global Positioning System) device, and position information obtained from the GPS can be considered. If the position information obtained from the GPS can be transmitted to the image processing device 10 on the user side together with the image data output from the camera, the position information can be transmitted to the image processing device 10 as described above. It can be separated from image data and used as information for position determination.
[0046]
For example, when information obtained from the GPS is used as the position information, the image specifying unit 22 compares the latitude and longitude indicated by the position information of each of the separated position information 131 ′ to 134 ′. For example, of the latitudes indicated by the position information 131 ′ to 134 ′, it is determined which position information has the highest north latitude. Then, as a result of the determination, an image based on the image data (in this case, the image data 131 ″) corresponding to the position information (for example, the position information 131 ′) determined to have the highest north latitude is placed in the region 131 (FIG. What is necessary is just to perform a process so that it may be displayed on 7).
[0047]
Data indicating the result of such determination is supplied from the image specifying unit 22 to the display control unit 23. Note that information obtained by GPS may be used as position information, or other information may be used. As other information, simple information indicating which area of the display unit 25 is to be displayed, for example, information itself such as displaying in an upper area or being displayed in a lower area may be used.
[0048]
As an example of other information of the position information, an attribute of an image may be used. For example, four attributes of emotional, active, warm color and cool color are provided as image attributes. The display position may be specified by this attribute. The four attributes are provided to define the vertical direction and the horizontal direction. That is, for example, the attribute of emotional and active is used to determine the display position in the horizontal direction, and the attribute of warm and cool colors is used to determine the display position in the vertical direction.
[0049]
As for these attributes, one attribute is not necessarily assigned to one image data, and a ratio of each attribute may be assigned.
[0050]
Even in the case of relaying a soccer game as shown in FIG. 7, data output from a camera capturing an image in which players are actively moving includes information of the attribute of active, and vice versa. Then, data of an attribute of emotion is included in data output from a camera which captures an image in which players are not actively moving. In this way, it is possible to always display an image, for example, on the upper side by the data of the attribute of active, and further, the image displayed on the upper side is displayed in a large size. With such settings, the user can always browse the images in which the players are actively moving, watching the game, and deemed to be the most interesting.
[0051]
In addition, when the position display is controlled by such an attribute, one child image is displayed at various positions according to the attribute, and the child image can be dynamically displayed. .
[0052]
Based on any of the information, in step S33, the image specifying unit 22 determines an area for displaying an image based on the supplied image data, and supplies data indicating the determined content to the display control unit 23. In step S34, the display control unit 23 controls the display unit 25 so that an image based on the image data corresponding to the determination is arranged and displayed in the area determined by the image specifying unit 22.
[0053]
That is, the display control unit 23 is supplied with the data including the position information and the image data as shown in FIG. 8 from the image supply unit 21. The display control unit 23 processes the supplied image data. Then, the display unit 25 is controlled so that an image based on the processed image data is displayed in a predetermined area of the display unit 25 indicated by the data from the image specifying unit 22.
[0054]
By executing such processing, a screen as shown in FIG. 7 is displayed on the display unit 25.
[0055]
Here, the examples shown in FIGS. 5 to 7 have been described as display examples of the multi-screen, but these displays are merely examples and do not limit the present invention.
[0056]
In the above-described embodiment, the size and position of the image area (hereinafter, appropriately referred to as a sub-screen) constituting the multi-screen have been described as being fixed. Instead, when focusing on one child screen, the child screen may be displayed as if it moves around in the display area of the display unit 25, or may be displayed such that the displayed size changes.
[0057]
For example, when a relay program of a soccer match is displayed on the display unit 25 as in the display example shown in FIG. 7, a child screen which is considered to be the best according to the movement of the ball is displayed. You may make it display larger than a child screen. Further, in order to give a sense of realism, a display such as moving a child screen may be performed. In such a case, information such as which child screen is to be displayed larger or moved may be included in the data to be transmitted on the broadcast side of the program. Further, a display such as moving the child screen itself in accordance with the movement of the ball may be performed.
[0058]
Returning to the description with reference to the flowchart shown in FIG. 4, in step S12, when the multi-screen is displayed on the display unit 25, in step S13, it is determined whether the same image (region) has been watched for a predetermined time or more. Is determined. This determination is performed by the image specifying unit 22 determining whether the user's line of sight detected by the line of sight detection unit 24 is poured into one area in the multi-screen without moving for five seconds, for example. Is performed by
[0059]
The process of step S13 is repeated until it is determined that the user has been watching the same area for a predetermined time or more. When the user gazes at the same area for a predetermined time or more, it can be determined that the user is interested in the image (program) displayed in the area.
[0060]
If it is determined in step S13 that the same area has been watched for a predetermined time or more, the process proceeds to step S14, and an image (screen) corresponding to the area (child screen) determined to be watched is enlarged and displayed. In the multi-screen, each displayed screen is displayed in a size smaller than the maximum size that the display unit 25 can display. Such a small screen is displayed on the display unit 25 as a screen having a size larger than that of the child screen.
[0061]
For example, when it is determined that the user gazes at the image displayed in the area 131 in the state of the multi-screen illustrated in FIG. 7, the size is increased as compared with the case of the multi-screen in the area 131. The screen is as shown in FIG. In the display example shown in FIG. 10, the region 131 determined to be watched by the user is displayed in a larger size than the other regions 132 to 134, while the regions 132 to 134 are displayed in a smaller size. has been edited.
[0062]
In the display example shown in FIG. 10, the regions 132 to 134 are also displayed, but only the region 131 may be displayed. In such a case, the display area 25 is displayed in the same size or almost the same size as the displayable area. Such a display in which only the selected area is displayed is, for example, from a multi-screen as shown in FIGS. 5 and 6 to a display when one screen (program) is selected. Are suitable.
[0063]
The multi-screen shown in FIG. 5 displays programs broadcast on different channels in different areas at the same time. When one program is selected from such a multi-screen, the selection is made. It is preferable to display only the programs that were played. Conversely, if the program of the channel other than the selected program is kept displayed even after the selection, the user cannot concentrate on the selected program and the screen becomes difficult to see.
[0064]
The multi-screen shown in FIG. 6 is a screen in which a world map and corresponding country names are displayed on the map. When one country name is selected from such a screen, the multi-screen is displayed. The display is switched to a homepage or a program from which information on the country name (country) can be obtained. In this case, it is sufficient that only the homepage or the program related to the selected country is displayed, and it is not necessary to maintain the display of the country name of the non-selected country from the multi-screen state. Conversely, if the display is maintained, it will be difficult to see.
[0065]
In contrast to such a multi-screen, in the case of a multi-screen such as a soccer relay shown in FIG. 7, as shown in FIG. 10, an area other than the selected area (the area 131 in this case) (in this case, , Regions 132 to 134) should be displayed together. By maintaining the display of the regions 132 to 134, the user can browse images of other regions together, and can switch the display to an image of another region by a process described later. As shown in FIG. 10, a plurality of regions may be displayed.
[0066]
In such a case, for one piece of information (in this case, a soccer game), information from a plurality of viewpoints (in this case, images captured from a plurality of angles) is provided to the user at the same time. A lot of information. Also, even if such a large amount of information is provided to the user at the same time, it is difficult to grasp what kind of information each information is because it is information from a different viewpoint with respect to the same information. Such a situation is unlikely to occur. Therefore, in such a case, it is considered that providing a plurality of pieces of information at the same time is more preferable for the user than providing only one piece of information.
[0067]
As described above, when one screen is selected from the multi-screen, whether to display only the selected screen or to display the selected screen and the non-selected screen together is displayed. What is necessary is just to be able to switch according to the information (contents) to be performed. The switching may be performed by the user or a mechanism may be provided on the image processing apparatus 10 side, for example, by referring to data included in the received data.
[0068]
Further, in the case of a program that is considered to have a request such as repeating a goal scene or looking from another angle, as in the relay of a soccer game, as shown in FIG. Behind, a part of the scene at a time earlier in time is displayed. For example, the area 131-1 is a real-time image at that time, and the area 131-2 behind the area 131-1 is for a predetermined time (several tens of seconds or minutes). The image at the previous time, and an area 131-3 behind the area 131-2 is an image at a time earlier by a predetermined time.
[0069]
Similarly, for the other areas, the image at the previous time is displayed behind the real-time image. As described above, even in a display in which images at a plurality of times can be selected for one angle, the user gazes at an image in a desired area together with an image displayed behind. It is only possible to choose.
[0070]
By displaying the area displayed behind as a selectable image in this way, for example, it is possible to see a goal scene that has been missed, and to enjoy the same goal scene from a plurality of angles. Will be able to Note that the number of regions displayed behind the same angle (region) may be any number.
[0071]
Regardless of which display is performed, in this way, one program (region) is selected, and the user wants to display the multi-screen again while the image in the region is normally reproduced. When thinking, the multi-screen button 150 provided as a button for displaying the multi-screen shown in FIG. 10 is operated (gaze).
[0072]
In step S15 (FIG. 4), it is determined whether or not the multi-screen button 150 shown in FIG. 10 (FIG. 11) has been watched. If it is determined in step S15 that the multi-screen button 150 has not been watched, the display of the enlarged image is continued. On the other hand, if it is determined in step S15 that the multi-screen button 150 has been watched, the process returns to step S12, and the subsequent processing is repeated.
[0073]
The multi-screen button 150 as shown in FIG. 10 (FIG. 11) may be displayed to determine whether or not the button has been watched. However, without displaying such a button, the multi-screen button 150 may be displayed. Switching to the screen may be performed. For example, when switching to the multi-screen is instructed, it is considered that the user is tired of the displayed program or the like and desires to browse another program or the like. In such a case, it is considered that the user removes his / her line of sight from the enlarged screen.
[0074]
Therefore, as the process of step S15, it is determined whether or not the user's line of sight has been removed from the enlarged display screen (area) for a predetermined period of time to determine whether there has been an instruction to switch to the multi-screen. May be determined.
[0075]
By returning the process to step S12, for example, when a program that is broadcasting a soccer match as shown in FIG. 11 is being viewed, the display unit 25 is displayed on the multi-screen as shown in FIG. Is switched.
[0076]
In this way, by allowing the image watched by the user from the multi-screen to be normally reproduced (displayed differently from images displayed in other areas), the user can perform a desired operation without performing a button operation. Programs can be selected quickly and easily.
[0077]
In the above-described embodiment, it is assumed that a program is selected from the multi-screen as shown in FIG. 5, and a country name (information of the country) is selected from the multi-screen as shown in FIG. It has been described that an image captured from a predetermined angle is selected from the multi-screen as shown in FIG. As described above, in the present embodiment, what kind of multi-screen is displayed and what is selected can be changed as appropriate, and is not limited to the above-described embodiment.
[0078]
For example, although not shown, the song names of the songs recorded on the compact disc are displayed in a list as a multi-screen, and when the user gazes at the song desired to be reproduced from the song names displayed in the list, the song is displayed. Reproduction is also possible by applying the present invention.
[0079]
In the above-described embodiment, for example, in the case of the multi-screen shown in FIG. 5, that is, a multi-screen in which child screens corresponding to a plurality of programs are displayed, if the multi-channeling progresses, all the users There is a problem that it takes a long time to browse the child screen of the program. Therefore, a function of selecting a program to be displayed on the multi-screen on the image processing apparatus 10 side in advance according to the user's preference may be provided.
[0080]
Information on the user's preference is stored in the storage unit 26 (FIG. 1) every time the user selects a program from the multi-screen shown in FIG. As information to be stored, each time a program is selected, the genre to which the program belongs is determined, and the number of times the program of the genre is selected is accumulated, thereby determining the genre that the user prefers. I do. The information of the genre to which the program belongs can be included in the data of the received program, and the genre information can be obtained by extracting the data included in such a manner. .
[0081]
A program of a genre with a small accumulated number of times is not displayed as a multi-screen child screen, or even if it is displayed, it is displayed later in time. In other words, the programs of the genre with the largest number of times of accumulation are displayed as multi-screen child screens in order.
[0082]
Such information on the user's preference can be used even in a multi-screen or in a state where the selected image is displayed in an enlarged manner. For example, in a state where a multi-screen or an enlarged image is displayed, it is conceivable that two different areas 171 and 172 may overlap as shown in FIG. In the example shown in FIG. 12, since the region 172 is located behind the region 172, the user cannot see the image displayed in the region 172.
[0083]
Therefore, the user cannot recognize that the area 172 exists behind the area 171. This may occur, for example, when a new angle image is broadcasted in the program displayed in the area 171 and the area 172 is newly provided. is there.
[0084]
In such a case, using the information on the user's preference stored in the storage unit 26, the area displaying the image (information, program, etc.) that the user likes is determined, and based on the determination, the area 171 or the area 171 is determined. One of the areas 172 is displayed on the front. By providing such a function, it is possible to provide the user with information displayed at a position that is difficult to recognize.
[0085]
Of course, even when one area is hidden by the other area or one area overlaps with the other area, the image processing apparatus 10 can generate a user's favorite image (information or program). It is also possible to provide a mechanism for making a judgment and providing the information by applying the mechanism as described above.
[0086]
The above-described series of processing, for example, processing such as detection of a line of sight and switching of images based on the detection can be executed by hardware having respective functions, but can also be executed by software. When a series of processing is executed by software, it is possible to execute various functions by installing a computer in which the programs constituting the software are embedded in dedicated hardware, or by installing various programs For example, it is installed from a recording medium to a general-purpose personal computer or the like.
[0087]
Before describing the recording medium, a personal computer that reads or writes data from the recording medium will be briefly described. FIG. 13 is a diagram illustrating an internal configuration example of a general-purpose personal computer. A CPU (Central Processing Unit) 301 of a personal computer executes various processes according to a program stored in a ROM (Read Only Memory) 302. A RAM (Random Access Memory) 303 appropriately stores data and programs necessary for the CPU 301 to execute various processes. The input / output interface 305 is connected to an input unit 306 including a keyboard and a mouse, and outputs a signal input to the input unit 306 to the CPU 301. The input / output interface 305 is also connected to the output unit 7 including a display, a speaker, and the like.
[0088]
Further, the input / output interface 305 is also connected to a storage unit 308 composed of a hard disk or the like, and a communication unit 309 for exchanging data with another device via a network such as the Internet. The drive 310 is used to read data from or write data to a recording medium such as a magnetic disk 321, an optical disk 322, a magneto-optical disk 323, and a semiconductor memory 324.
[0089]
As shown in FIG. 13, the recording medium is a magnetic disk 321 (including a flexible disk) on which the program is recorded, which is distributed in order to provide the program to the user separately from a personal computer, and an optical disk 322 (CD-ROM). It is configured by a package medium including a ROM (Compact Disc-Read Only Memory), a DVD (including a Digital Versatile Disc), a magneto-optical disk 323 (including an MD (Mini-Disc) (registered trademark)), a semiconductor memory 324, or the like. Not only that, but also a hard disk including a ROM 302 and a storage unit 308 in which a program is stored, which is provided to a user in a state of being incorporated in a computer in advance.
[0090]
In this specification, the steps of describing a program provided by a medium include, in the order described, not only processing performed in chronological order but also processing in chronological order, or in parallel or individually. This includes the processing to be executed.
[0091]
Also, in this specification, a system refers to an entire device including a plurality of devices.
[0092]
【The invention's effect】
According to the present invention, a multi-screen can be displayed.
[0093]
ADVANTAGE OF THE INVENTION According to this invention, it becomes possible to easily select a desired screen from a multi-screen by gaze.
[Brief description of the drawings]
FIG. 1 is a diagram illustrating a configuration of an embodiment of an image processing apparatus to which the present invention has been applied.
FIG. 2 is a diagram for describing a line-of-sight detection unit.
FIG. 3 is a diagram for describing a line-of-sight detection unit.
FIG. 4 is a flowchart illustrating an operation of the image processing apparatus.
FIG. 5 is a diagram for explaining a multi-screen.
FIG. 6 is a diagram for explaining a multi-screen.
FIG. 7 is a diagram for explaining a multi-screen.
FIG. 8 is a diagram for describing data received by the image processing apparatus.
FIG. 9 is a flowchart illustrating a process related to multi-screen display.
FIG. 10 is a diagram illustrating a display example including an enlarged screen.
FIG. 11 is a diagram illustrating a display example including an enlarged screen.
FIG. 12 is a diagram for describing a case where areas overlap.
FIG. 13 is a diagram illustrating a medium.
[Explanation of symbols]
Reference Signs List 10 image processing device, 21 image supply unit, 22 image specification unit, 23 display control unit, 24 gaze detection unit, 25 display unit, 26 storage unit, 41 glasses, 61 imaging device

Claims (8)

ユーザの視線を検出する検出手段と、
画像を表示する表示手段に複数の画像を表示させる表示制御手段と、
前記表示手段により表示されている前記複数の画像の内、ユーザが注視している画像を、前記検出手段による検出結果から判断する判断手段と、
前記判断手段により、ユーザが注視していると判断された前記画像に関する処理を制御する処理制御手段と
を備えることを特徴とする画像処理装置。
Detecting means for detecting the user's line of sight;
Display control means for displaying a plurality of images on a display means for displaying images,
Among the plurality of images displayed by the display unit, a determination unit that determines an image that the user is gazing from a detection result by the detection unit,
An image processing apparatus, comprising: a processing control unit configured to control a process related to the image determined to be gazing by the user by the determination unit.
前記処理制御手段は、ユーザが注視していると判断された前記画像を、その画像のみを拡大して前記表示手段に表示させる処理、または、他の画像より大きいサイズで前記表示手段に表示させる処理を制御する
ことを特徴とする請求項1に記載の画像処理装置。
The processing control unit is configured to enlarge the image determined to be closely watched by the user and display the image on the display unit, or display the image on the display unit in a size larger than other images. The image processing apparatus according to claim 1, wherein the image processing apparatus controls processing.
前記処理制御手段は、ユーザが注視していると判断された前記画像にリンクされている情報を取得する処理を制御する
ことを特徴とする請求項1に記載の画像処理装置。
The image processing apparatus according to claim 1, wherein the processing control unit controls a process of acquiring information linked to the image determined to be gazing at the user.
前記表示制御手段は、前記表示手段に表示される前記複数の画像が、時間経過とともに、表示されるサイズが変更され、表示される位置が変更されるように制御する
ことを特徴とする請求項1に記載の画像処理装置。
The display control means controls the plurality of images displayed on the display means so that the displayed size is changed and the displayed position is changed over time. 2. The image processing device according to 1.
前記表示制御手段は、前記表示手段に表示される前記複数の画像それぞれが、表示される位置が、それぞれの画像に付随する位置情報に基づいて決定されるように制御する
ことを特徴とする請求項1に記載の画像処理装置。
The display control means controls the display positions of the plurality of images displayed on the display means so as to be determined based on position information attached to each image. Item 2. The image processing device according to item 1.
画像を表示する表示手段に複数の画像を表示させる表示制御手段を備える画像処理装置の画像処理方法において、
ユーザの視線を検出する検出ステップと、
前記表示手段により表示されている前記複数の画像の内、ユーザが注視している画像を、前記検出ステップの処理による検出結果から判断する判断ステップと、
前記判断ステップの処理で、ユーザが注視していると判断された前記画像に関する処理を制御する処理制御ステップと
を含むことを特徴とする画像処理方法。
In an image processing method of an image processing apparatus including a display control unit that displays a plurality of images on a display unit that displays images,
A detecting step of detecting a line of sight of the user;
A judging step of judging, from among the plurality of images displayed by the display means, an image that the user is gazing at from a detection result obtained by the processing of the detecting step;
A process control step of controlling a process relating to the image determined to be watched by the user in the process of the determining step.
画像を表示する表示手段に複数の画像を表示させる表示制御手段を備える画像処理装置のプログラムであって、
ユーザの視線を検出する検出ステップと、
前記表示手段により表示されている前記複数の画像の内、ユーザが注視している画像を、前記検出ステップの処理による検出結果から判断する判断ステップと、
前記判断ステップの処理で、ユーザが注視していると判断された前記画像に関する処理を制御する処理制御ステップと
を含むことを特徴とするコンピュータが読み取り可能なプログラムが記録されている記録媒体。
A program for an image processing apparatus including a display control unit configured to display a plurality of images on a display unit configured to display an image,
A detecting step of detecting a line of sight of the user;
A judging step of judging, from among the plurality of images displayed by the display means, an image that the user is gazing at from a detection result obtained by the processing of the detecting step;
A computer-readable program recorded thereon, comprising: a processing control step of controlling processing relating to the image determined to be gazing by the user in the processing of the determining step.
画像を表示する表示手段に複数の画像を表示させる表示制御手段を備える画像処理装置を制御するコンピュータに実行させるプログラムにおいて、
ユーザの視線を検出する検出ステップと、
前記表示手段により表示されている前記複数の画像の内、ユーザが注視している画像を、前記検出ステップの処理による検出結果から判断する判断ステップと、
前記判断ステップの処理で、ユーザが注視していると判断された前記画像に関する処理を制御する処理制御ステップと
を含むことを特徴とするプログラム。
In a program executed by a computer that controls an image processing apparatus including a display control unit that displays a plurality of images on a display unit that displays images,
A detecting step of detecting a line of sight of the user;
A judging step of judging, from among the plurality of images displayed by the display means, an image that the user is gazing at from a detection result obtained by the processing of the detecting step;
A program controlling step of controlling a process relating to the image determined to be gazing by the user in the process of the determining step.
JP2003001551A 2003-01-07 2003-01-07 Image processor and processing method, storage medium, and program Pending JP2004213486A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003001551A JP2004213486A (en) 2003-01-07 2003-01-07 Image processor and processing method, storage medium, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003001551A JP2004213486A (en) 2003-01-07 2003-01-07 Image processor and processing method, storage medium, and program

Publications (1)

Publication Number Publication Date
JP2004213486A true JP2004213486A (en) 2004-07-29

Family

ID=32819540

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003001551A Pending JP2004213486A (en) 2003-01-07 2003-01-07 Image processor and processing method, storage medium, and program

Country Status (1)

Country Link
JP (1) JP2004213486A (en)

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008022105A (en) * 2006-07-11 2008-01-31 Sharp Corp Television receiver
JP2008022110A (en) * 2006-07-11 2008-01-31 Sharp Corp Television receiver
WO2008050383A1 (en) * 2006-10-23 2008-05-02 Pioneer Corporation Video reproduction device, video display system, and recording medium
JP2009118423A (en) * 2007-11-09 2009-05-28 Canon Inc Display device, and control method
JP2010160274A (en) * 2009-01-07 2010-07-22 Oki Electric Ind Co Ltd Image display apparatus and image display method
JP2010230651A (en) * 2009-03-27 2010-10-14 Utechzone Co Ltd Visual line tracing method and visual line tracing system
JP2010239251A (en) * 2009-03-30 2010-10-21 Hitachi Ltd Television operation method
JP2011015301A (en) * 2009-07-03 2011-01-20 Sony Corp Apparatus and method for controlling display
JP2011146048A (en) * 2011-01-25 2011-07-28 Sony Corp Video display method and video display device
JP2011150583A (en) * 2010-01-22 2011-08-04 Sony Corp Image display device having imaging device
JP2012022632A (en) * 2010-07-16 2012-02-02 Canon Inc Information processing apparatus and control method thereof
WO2013069344A1 (en) * 2011-11-09 2013-05-16 楽天株式会社 Gaze position estimation system, control method for gaze position estimation system, gaze position estimation device, control method for gaze position estimation device, program, and information storage medium
KR20130059768A (en) * 2011-11-29 2013-06-07 삼성전자주식회사 Operation method for user function based on a eye-tracking and portable device supporting the same
US8619195B2 (en) 2008-07-02 2013-12-31 Sony Corporation Display apparatus and display method
US9104408B2 (en) 2008-08-22 2015-08-11 Sony Corporation Image display device, control method and computer program
US9167191B2 (en) 2006-09-15 2015-10-20 Sony Corporation Display control system and method, display control apparatus and method, and program
JP2017516333A (en) * 2014-03-13 2017-06-15 グーグル インコーポレイテッド Video chat picture-in-picture
KR101754750B1 (en) * 2011-09-08 2017-07-10 인텔 코포레이션 Apparatus, medium and method for interactive screen viewing

Cited By (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008022110A (en) * 2006-07-11 2008-01-31 Sharp Corp Television receiver
JP2008022105A (en) * 2006-07-11 2008-01-31 Sharp Corp Television receiver
US9167191B2 (en) 2006-09-15 2015-10-20 Sony Corporation Display control system and method, display control apparatus and method, and program
JP4890560B2 (en) * 2006-10-23 2012-03-07 パイオニア株式会社 Video playback device, video display system, and recording medium
WO2008050383A1 (en) * 2006-10-23 2008-05-02 Pioneer Corporation Video reproduction device, video display system, and recording medium
US8428434B2 (en) 2006-10-23 2013-04-23 Pioneer Corporation Video reproducing apparatus, video display system and record medium
JP2009118423A (en) * 2007-11-09 2009-05-28 Canon Inc Display device, and control method
US8994883B2 (en) 2008-07-02 2015-03-31 Sony Corporation Display apparatus and display method
US8619195B2 (en) 2008-07-02 2013-12-31 Sony Corporation Display apparatus and display method
US9104408B2 (en) 2008-08-22 2015-08-11 Sony Corporation Image display device, control method and computer program
JP2010160274A (en) * 2009-01-07 2010-07-22 Oki Electric Ind Co Ltd Image display apparatus and image display method
JP2010230651A (en) * 2009-03-27 2010-10-14 Utechzone Co Ltd Visual line tracing method and visual line tracing system
JP2010239251A (en) * 2009-03-30 2010-10-21 Hitachi Ltd Television operation method
US8963950B2 (en) 2009-07-03 2015-02-24 Sony Corporation Display control apparatus and display control method
JP2011015301A (en) * 2009-07-03 2011-01-20 Sony Corp Apparatus and method for controlling display
JP2011150583A (en) * 2010-01-22 2011-08-04 Sony Corp Image display device having imaging device
JP2012022632A (en) * 2010-07-16 2012-02-02 Canon Inc Information processing apparatus and control method thereof
JP2011146048A (en) * 2011-01-25 2011-07-28 Sony Corp Video display method and video display device
KR101754750B1 (en) * 2011-09-08 2017-07-10 인텔 코포레이션 Apparatus, medium and method for interactive screen viewing
JP2013101524A (en) * 2011-11-09 2013-05-23 Rakuten Inc Gaze position estimation system, control method for gaze position estimation system, gaze position estimation device, control method for gaze position estimation device, program, and information recording medium
WO2013069344A1 (en) * 2011-11-09 2013-05-16 楽天株式会社 Gaze position estimation system, control method for gaze position estimation system, gaze position estimation device, control method for gaze position estimation device, program, and information storage medium
US9619707B2 (en) 2011-11-09 2017-04-11 Rakuten, Inc. Gaze position estimation system, control method for gaze position estimation system, gaze position estimation device, control method for gaze position estimation device, program, and information storage medium
KR20130059768A (en) * 2011-11-29 2013-06-07 삼성전자주식회사 Operation method for user function based on a eye-tracking and portable device supporting the same
KR101891786B1 (en) * 2011-11-29 2018-08-27 삼성전자주식회사 Operation Method For User Function based on a Eye-Tracking and Portable Device supporting the same
JP2017516333A (en) * 2014-03-13 2017-06-15 グーグル インコーポレイテッド Video chat picture-in-picture
US9998707B2 (en) 2014-03-13 2018-06-12 Google Llc Video chat picture-in-picture

Similar Documents

Publication Publication Date Title
JP6558587B2 (en) Information processing apparatus, display apparatus, information processing method, program, and information processing system
JP2004213486A (en) Image processor and processing method, storage medium, and program
KR102567002B1 (en) Image display apparatus and operating method for the same
US9787627B2 (en) Viewer interface for broadcast image content
JP4683103B2 (en) Display control apparatus, display control method, and program
JP5302285B2 (en) Stereoscopic video output device, stereoscopic video output method, stereoscopic video output program, computer-readable recording medium, and stereoscopic video display device
EP3989056A1 (en) Concurrent use of multiple user interface devices
JP2011244318A (en) Use-spectacle identification device, video appreciation system, video appreciation spectacle, use-spectacle identification program, recording medium readable by computer, and display apparatus
JP2011229141A (en) Television receiver and operation mode automatic setting method for television receiver
US12001645B2 (en) Methods, systems, and media for presenting media content previews
US20180176628A1 (en) Information device and display processing method
US9204079B2 (en) Method for providing appreciation object automatically according to user&#39;s interest and video apparatus using the same
KR20130033746A (en) Display apparatus and control method thereof
JP5067472B2 (en) Display control apparatus, display control method, and program
JP2008042333A (en) Method and device for reproducing image
KR102063495B1 (en) Apparatus and control method for playing multimedia contents
JP4609244B2 (en) Content playback apparatus and content playback method
KR101138896B1 (en) Display method and apparatus having picture-in-picture function
WO2024142898A1 (en) Information processing device and information processing method
US20220109904A1 (en) System and method for audio control of concurrently displayed video programs
JP5562452B2 (en) Display method, display program
JP6926304B1 (en) Image display device and program
JP2007067740A (en) Contents reproducing apparatus and contents reproducing method
JP2022041908A (en) Image display device, image display method, and program
JP2010074788A (en) Device and method for display control and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20051005

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20080313

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080324

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20080715