JPWO2015029554A1 - 情報処理装置、情報処理方法、及びプログラム - Google Patents

情報処理装置、情報処理方法、及びプログラム Download PDF

Info

Publication number
JPWO2015029554A1
JPWO2015029554A1 JP2015534048A JP2015534048A JPWO2015029554A1 JP WO2015029554 A1 JPWO2015029554 A1 JP WO2015029554A1 JP 2015534048 A JP2015534048 A JP 2015534048A JP 2015534048 A JP2015534048 A JP 2015534048A JP WO2015029554 A1 JPWO2015029554 A1 JP WO2015029554A1
Authority
JP
Japan
Prior art keywords
line
user
image
display
information processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015534048A
Other languages
English (en)
Other versions
JP6421754B2 (ja
Inventor
安田 亮平
亮平 安田
野田 卓郎
卓郎 野田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Publication of JPWO2015029554A1 publication Critical patent/JPWO2015029554A1/ja
Application granted granted Critical
Publication of JP6421754B2 publication Critical patent/JP6421754B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/165Detection; Localisation; Normalisation using facial parts and geometric relationships
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/22Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of characters or indicia using display control signals derived from coded signals representing the characters or indicia, e.g. with a character-code memory
    • G09G5/24Generation of individual character patterns
    • G09G5/26Generation of individual character patterns for modifying the character dimensions, e.g. double width, double height
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/44Receiver circuitry for the reception of television signals according to analogue transmission standards
    • H04N5/445Receiver circuitry for the reception of television signals according to analogue transmission standards for displaying additional information
    • H04N5/44504Circuit details of the additional information generator, e.g. details of the character or graphics signal generator, overlay mixing circuits
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/04Changes in size, position or resolution of an image
    • G09G2340/0407Resolution change, inclusive of the use of different resolutions for different screen areas
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/04Changes in size, position or resolution of an image
    • G09G2340/045Zooming at least part of an image, i.e. enlarging it or shrinking it
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/14Solving problems related to the presentation of information to be displayed
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2354/00Aspects of interface with display user

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Hardware Design (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Graphics (AREA)
  • General Health & Medical Sciences (AREA)
  • Geometry (AREA)
  • User Interface Of Digital Computer (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Transforming Electric Information Into Light Information (AREA)

Abstract

本発明の情報処理装置は、利用者の位置と、前記利用者の視線方向に基づいて画像表示面において特定される点の位置との間の視線距離を算出する視線距離算出部(106)と、前記視線距離算出部(106)により算出された視線距離に応じて文字のサイズを決定する文字サイズ算出部(108)と、前記文字サイズ算出部(108)により算出された文字のサイズに応じて表示画像のサイズを決定する表示制御部(110)と、を備える。

Description

本開示は、情報処理装置、情報処理方法、及びプログラムに関する。
近年、例えば液晶ディスプレイやプラズマディスプレイなど、50インチ以上のディスプレイを有するテレビジョン受像機が開発されている。このようなテレビジョン受像機において、利用者は、例えば映画やテレビジョン番組などの映像を大画面において視聴することが可能である。
また、プロジェクタなど、表示面に表示される画像の大きさをユーザが調整可能な表示装置が広く普及している。例えば、特許文献1には、利用者が表示装置から離れるに従って、表示装置に表示される小画面の大きさを大きくする技術が開示されている。また、特許文献2には、ユーザが手に持つ把持モジュールと、テレビジョン装置に固定された発光モジュールとの間の距離によって、文字や図形を表示する大きさを変化させる技術が開示されている。
国際公開第2009/125481号 特開2008−096776号公報
しかしながら、上記の技術では、表示面に表示される画像の視認性を十分確保することができない。例えば、上記の技術では、利用者が同じ場所に位置する場合には、仮に利用者が顔の向きや視線の向きを変化させたとしても、画像のサイズは変わらない。このため、利用者が斜めの方向から表示面を見る場合には、利用者には画像が小さく感じられ、見難くなる。
そこで、本開示では、表示面に表示される画像の視認性を確保することが可能な、新規かつ改良された情報処理装置、情報処理方法、及びプログラムを提案する。
上記課題を解決するために、本開示のある観点によれば、利用者の位置と、前記利用者の視線方向に基づいて画像表示面において特定される点の位置との間の視線距離を算出する視線距離算出部と、前記視線距離算出部により算出された視線距離に応じて、前記画像表示面に表示される表示画像のサイズを決定する表示制御部と、を備える、情報処理装置が提供される。
また、上記課題を解決するために、本開示の別の観点によれば、利用者の位置と、前記利用者の視線方向に基づいて画像表示面において特定される点の位置との間の視線距離を算出することと、算出された視線距離に応じて、前記画像表示面に表示される表示画像のサイズをプロセッサにより決定することと、を備える、情報処理方法が提供される。
また、上記課題を解決するために、本開示の別の観点によれば、コンピュータを、利用者の位置と、前記利用者の視線方向に基づいて画像表示面において特定される点の位置との間の視線距離を算出する視線距離算出部と、前記視線距離算出部により算出された視線距離に応じて、前記画像表示面に表示される表示画像のサイズを決定する表示制御部、として機能させるための、プログラムが提供される。
以上説明したように本開示によれば、表示面に表示される画像の視認性を確保することができる。なお、ここに記載された効果は必ずしも限定されるものではなく、本開示中に記載されたいずれかの効果であってもよい。
本開示の実施形態による情報処理システムの構成例を示した説明図である。 同実施形態による情報処理装置10のハードウェア構成を示した説明図である。 同実施形態による情報処理装置10の構成を示した機能ブロック図である。 同実施形態による視線方向の特定方法を示した説明図である。 同実施形態による目視位置の算出方法を示した説明図である。 同実施形態によるフォントサイズの算出方法を示した説明図である。 同実施形態によるメニュー画像40の表示例を示した説明図である。 同実施形態によるメニュー画像40の表示例を示した説明図である。 メニュー画像40の表示開始時において、メニュー画像40の表示位置と、利用者2が見ている位置とがずれる例を説明するための説明図である。 同実施形態によるメニュー画像40の表示位置の例を示した説明図である。 同実施形態による通知情報42の表示位置の制御例を示した説明図である。 同実施形態によるポップアップウィンドウ44の表示例を示した説明図である。 同実施形態によるメニュー画像40の別の表示例を示した説明図である。 メニュー画像40の表示に関する利用者2の操作の流れを示した説明図である。 メニュー画像40に対する利用者2の操作の一例を示した説明図である。 同実施形態による動作を示したフローチャートである。 本開示の変形例による情報処理システムの構成例を示した説明図である。
以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
また、本明細書及び図面において、実質的に同一の機能構成を有する複数の構成要素を、同一の符号の後に異なるアルファベットを付して区別する場合もある。例えば、実質的に同一の機能構成を有する複数の構成を、必要に応じて表示面30aおよび表示面30bのように区別する。ただし、実質的に同一の機能構成を有する複数の構成要素の各々を特に区別する必要がない場合、同一符号のみを付する。例えば、表示面30aおよび表示面30bを特に区別する必要が無い場合には、単に表示面30と称する。
また、以下に示す項目順序に従って当該「発明を実施するための形態」を説明する。
1.情報処理システムの基本構成
2.実施形態の詳細な説明
2−1.構成
2−2.動作
2−3.効果
3.変形例
<<1.情報処理システムの基本構成>>
本開示は、一例として「2.実施形態の詳細な説明」において詳細に説明するように、多様な形態で実施され得る。以下では、まず、本開示による情報処理システムの基本構成について説明する。
図1は、本実施形態による情報処理システムの基本構成を示した説明図である。図1に示したように、本実施形態による情報処理システムは、情報処理装置10、およびカメラ20を含む。
<1−1.情報処理装置10>
情報処理装置10は、表示面30にメニュー画像40などの画像を表示させるための装置である。この情報処理装置10は、例えばテレビジョン受像機やディスプレイ装置などの表示装置であってもよい。
ここで、表示面30は、本開示における画像表示面の一例であり、例えば大型の画面である。この表示面30は、例えば後述する出力装置162により表示される。また、メニュー画像40は、本開示における表示画像の一例である。メニュー画像40の例としては、テレビジョン番組の番組表、webページ、DVD(Digital Versatile Disc)の再生用画像、または、ゲームソフトの表示画像などが挙げられる。
情報処理装置10は、例えば表示面30を見ている利用者2の操作に応じて、メニュー画像40を表示面30に表示させることが可能である。例えば、利用者2により、リモートコントローラー(図示省略)における「メニューボタン」の押下などの、メニュー画像40を表示させるための操作がされた場合には、情報処理装置10は、メニュー画像40を表示面30に表示させる。また、利用者2により、リモートコントローラーにおける「戻るボタン」の押下などの、メニュー画像40を消去させるための操作がされた場合には、情報処理装置10は、メニュー画像40を表示面30から消去させる。
また、情報処理装置10は、表示面30において、メニュー画像40の他に、背景画像を表示させることが可能である。情報処理装置10は、メニュー画像40と背景画像を一緒に表示面30に表示させること、メニュー画像40だけを表示させること、または、背景画像だけを表示させることのいずれも可能である。なお、メニュー画像40と背景画像が一緒に表示面30に表示される場合には、情報処理装置10は、背景画像よりも前面にメニュー画像40を表示、つまり重畳表示させる。
なお、背景画像は、表示面30において1種類だけ表示されることも可能であるし、2種類以上表示されることも可能である。また、背景画像の例としては、例えばテレビジョン番組の映像、後述するストレージ装置164から再生される動画像や静止画像、DVDやUSB(Universal Serial Bus)メモリなどの記録媒体から情報処理装置10により読み出される動画像や静止画像、または、OS(Operating
System)のデスクトップ画面など、各種の画像が挙げられる。また、背景画像は、文字や画像を含まない、例えば黒色や白色の一色の画面であってもよい。
また、情報処理装置10は、例えば図2に示すようなハードウェア構成を有する。図2に示したように、情報処理装置10は、CPU(Central Processing
Unit)150、ROM(Read Only Memory)152、RAM(Random Access Memory)154、内部バス156、インターフェース158、入力装置160、出力装置162、ストレージ装置164、および通信装置166を備える。
(CPU150)
CPU150は、例えば各種処理回路などで構成され、情報処理装置10全体を制御する制御部100として機能する。また、CPU150は、情報処理装置10において、例えば、後述する視線特定部102、目視位置算出部104、視線距離算出部106、文字サイズ算出部108、表示制御部110、および入力判断部112の機能を実現する。
(ROM152)
ROM152は、CPU150が使用するプログラムや演算パラメータなどの制御用データなどを記憶する。
(RAM154)
RAM154は、例えば、CPU150により実行されるプログラムなどを一時的に記憶する。
(インターフェース158)
インターフェース158は、入力装置160、出力装置162、ストレージ装置164、および通信装置166を、内部バス156と接続する。例えば入力装置160は、このインターフェース158および内部バス156を介して、CPU150などとの間でデータをやり取りする。
(入力装置160)
入力装置160は、例えばタッチパネル、ボタン、マイクロフォン、およびスイッチなどユーザが情報を入力するための入力手段と、ユーザによる入力に基づいて入力信号を生成し、CPU150に出力する入力制御回路などから構成されている。入力装置160は、例えば、後述する入力部122として機能する。
(出力装置162)
出力装置162は、例えば、液晶ディスプレイ(LCD:Liquid Crystal Display)装置、OLED(Organic Light Emitting
Diode)装置およびランプなどの表示装置を含む。さらに、出力装置162は、スピーカーなどの音声出力装置を含む。例えば、表示装置は、撮像された画像や生成された画像などを表示する。また、音声出力装置は、音声データ等を音声に変換して出力する。この出力装置162は、例えば、後述する表示部124として機能する。
(ストレージ装置164)
ストレージ装置164は、例えばCPU150が実行するプログラムや各種データを格納する、データ格納用の装置である。ストレージ装置164は、例えば、記憶媒体、記憶媒体にデータを記録する記録装置、記憶媒体からデータを読み出す読出し装置、または記憶媒体に記録されたデータを削除する削除装置などを含む。
(通信装置166)
通信装置166は、例えば公衆網やインターネットなどの通信網に接続するための通信デバイス等で構成された通信インターフェースである。また、通信装置166は、無線LAN対応通信装置、LTE(Long Term Evolution)対応通信装置、または有線による通信を行うワイヤー通信装置であってもよい。通信装置166は、例えば、後述する通信部120として機能する。
なお、情報処理装置10のハードウェア構成は、上述した構成に限定されない。例えば、情報処理装置10は、入力装置160、出力装置162、ストレージ装置164、または、通信装置166のうちいずれか一つ以上を備えなくてもよい。
<1−2.カメラ20>
カメラ20は、外部の映像を、レンズを通して例えばCCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)などの撮像素子に結像させ、静止画像又は動画像を撮影する機能を有する。例えば、カメラ20は、レンズの前方に位置する利用者2や物体の画像を撮影する。
また、カメラ20は、有線通信または無線通信により、撮像した画像を情報処理装置10へ送信することが可能である。
なお、本実施形態による情報処理システムは、上述した構成に限定されない。例えば、情報処理装置10がカメラ20を内部に含むなど、情報処理装置10とカメラ20は一体的に構成されてもよい。
<1−3.課題の整理>
ところで、表示面30に表示されるメニュー画像40の表示サイズが仮に変化しないとすると、例えば利用者2の位置や利用者2の視線方向によって、メニュー画像40の視認性は変化する。例えば、利用者2と表示面30との間の距離が大きいほど、利用者2にはメニュー画像40がより小さく視認され、見難くなる。また、利用者2が表示面30を斜めの方向から見る場合の方が、正面から見る場合よりもメニュー画像40が小さく視認されるので、見難い。特にメニュー画像40に文字が含まれる場合において、文字の可読性が顕著に低下する。
そこで、上記事情を一着眼点にして本開示の実施形態による情報処理装置10を創作するに至った。本開示の実施形態による情報処理装置10は、表示面30に表示されるメニュー画像40の視認性を確保することができる。以下、このような本開示の実施形態について詳細に説明する。
<<2.実施形態の詳細な説明>>
<2−1.構成>
図3は、本実施形態による情報処理装置10の構成を示した機能ブロック図である。図3に示したように、情報処理装置10は、制御部100、通信部120、入力部122、および表示部124を有する。
[2−1−1.制御部100]
制御部100は、情報処理装置10に内蔵されるCPU150、RAM154などのハードウェアを用いて、情報処理装置10の動作を全般的に制御する。また、図3に示したように、制御部100は、視線特定部102、目視位置算出部104、視線距離算出部106、文字サイズ算出部108、表示制御部110、および入力判断部112を有する。
[2−1−2.視線特定部102]
(A.利用者2の位置の特定)
視線特定部102は、カメラ20による撮影画像に基づいて、利用者2の位置を特定する。より具体的には、視線特定部102は、カメラ20による撮影画像に基づいて、利用者2の目の位置を特定する。例えば、視線特定部102は、カメラ20による撮影画像から、例えば目、鼻、または顔の輪郭などの特徴点を抽出することにより、利用者2の顔を検出する。そして、視線特定部102は、例えば検出された利用者2の目と目の間の距離、または利用者2の顔の大きさなどに基づいて、カメラ20からの利用者2の相対的な位置を算出する。
(B.利用者2の視線方向の特定)
また、視線特定部102は、カメラ20による撮影画像に基づいて、利用者2の視線方向を特定する。例えば、視線特定部102は、カメラ20による撮影画像から検出された利用者2の顔の画像に基づいて、利用者2の目を検出する。そして、視線特定部102は、検出された利用者2の目の画像に対してパターンマッチングを行うことにより、利用者2の視線方向を特定する。
ここで、図4を参照して、上記の機能についてより詳細に説明する。図4に示したように、例えば、視線特定部102は、利用者2aの目の画像に基づいて、利用者2aの視線方向としてV1(v1x、v1y、v1z)を特定する。また、視線特定部102は、利用者2bの目の画像に基づいて、利用者2bの視線方向としてV2(v2x、v2y、v2z)を特定する。
なお、特定方法の具体例としては、例えば以下が挙げられる。まず、ある画像処理装置により、視線方向と対応づけられた、複数人の目全体の撮影画像を用いて機械学習が行われることにより、パターンマッチング用の辞書データが作成される。そして、視線特定部102は、カメラ20による撮影画像から検出された、利用者2の目に関する特徴量と上記の辞書データとを比較することにより、利用者2の視線方向がいずれの方向であるかを特定する。なお、上記の画像処理装置は、情報処理装置10であってもよいし、異なる装置であってもよい。
‐変形例‐
なお、利用者2が表示面30に対して斜めの方向に位置している場合には、斜めに向いた顔の画像がカメラ20により撮影されるので、検出された利用者2の目の画像自体を用いてパターンマッチングを行うことは難しいという事情がある。このため、変形例として、視線特定部102は、パターンマッチングを行う前に、あらかじめ、例えば利用者2の顔の画像を正面を向いた画像へ変換するなど、画像の補正を行うことが可能である。
[2−1−3.目視位置算出部104]
目視位置算出部104は、視線特定部102により特定された利用者2の目の位置、および利用者2の視線方向に基づいて、表示面30における利用者2の目視位置を算出する。ここで、目視位置は、例えば図5に示した座標(a,b)の点の位置のように、利用者2が表示面30において見ている位置、または見ている位置の近傍の領域である。
例えば、図5に示したように、目視位置算出部104は、利用者2の目の位置(x,y,z)から利用者2の視線方向V(vx,vy,vz)へ伸ばした半直線と表示面30との交点(以下、視線交点とも称する)の位置を、目視位置として算出する。
‐変形例‐
なお、一般的に、人間の目の形状は横長の楕円形であるため、視線特定部102により特定される視線方向に関しては、垂直方向の成分の方が水平方向の成分よりも確度が低くなる傾向がある。このため、変形例として、目視位置算出部104は、目視位置の垂直方向の座標値に関しては、上記の視線交点における垂直方向の座標値、および利用者2の頭(または目)の高さに基づいて算出してもよい。例えば、目視位置算出部104は、目視位置の垂直方向の座標値に関しては、上記の視線交点における垂直方向の座標値と、利用者2の頭(または目)の垂直方向の座標値とを、例えば0.5などの所定の係数により重み付き平均した値として算出する。
[2−1−4.視線距離算出部106]
視線距離算出部106は、視線特定部102により特定された利用者2の目の位置と、利用者2の視線方向に基づいて表示面30において特定される点(以下、特定点とも称する)の位置との間の視線距離を算出する。ここで、特定点は、例えば、目視位置算出部104により算出される目視位置である。または、特定点は、水平方向に関しては目視位置と同じ座標値であり、垂直方向に関しては、視線特定部102により特定される利用者の目の高さの位置と同一または近傍の座標値である点であってもよい。または、特定点は、水平方向と垂直方向のうちいずれか一方に関して、あらかじめ定められた所定の座標値であり、いずれか他方に関しては目視位置と同じ座標値である点であってもよい。
[2−1−5.文字サイズ算出部108]
文字サイズ算出部108は、メニュー画像40に含まれる文字のサイズを、視線距離算出部106により算出された視線距離に応じて算出する。より具体的には、文字サイズ算出部108は、視線距離が大きいほど、メニュー画像40に含まれる文字のサイズをより大きく算出する。
ここで、図6を参照して、上記の機能についてより詳細に説明する。図6は、文字サイズ算出部108による文字サイズの算出方法を説明するための説明図である。なお、図6に示したθは、利用者2の垂直方向の視野角である。
図6に示したように、例えば、文字サイズ算出部108は、文字の高さhを、垂直視野角θと視線距離dを用いて、以下の計算式(1)により算出する。
Figure 2015029554
この計算式(1)によれば、視線距離dの値が大きくなるほど、文字のサイズがより大きく算出される。例えば、図6に示したように、垂直視野角θの値が同じである場合には、視線距離dの方が視線距離d’よりも大きいので、視線距離dに対応する文字の高さhは、視線距離d’に対応する文字の高さh’よりも大きく算出される。
一般的に、人間の目には、視線距離が大きい位置にある物体ほど小さく視認される。一方、計算式(1)によれば、視線距離が大きいほど、表示面30に表示される文字のサイズはより大きく算出される。従って、計算式(1)によれば、例えば利用者2が視線方向をずらすなどにより視線距離dの大きさが変化したとしても、利用者2には、表示面30に表示される文字が同程度の大きさで視認される。
なお、文字サイズ算出部108は、垂直視野角θの値として固定値を用いて文字のサイズを算出することが可能である。例えば、事前に複数の利用者2に対して行われたユーザテストにより、文字が最も読みやすいと多数の利用者2により感じられた垂直視野角の値が、垂直視野角θの値として設定されてもよい。
あるいは、文字サイズ算出部108は、垂直視野角θの値を、例えば部屋の明るさ、フォントの種類、言語、文字の背景画像、または利用者2の年齢などの属性といった所定の条件に応じて、動的に変化させることも可能である。例えば、文字サイズ算出部108は、部屋が暗いほど、垂直視野角θの値をより大きく設定する。また、文字サイズ算出部108は、文字の背景画像の輝度が低いほど、垂直視野角θの値をより大きく設定する。これらの設定例によれば、文字が通常よりも読みにくい状況では文字サイズがより大きく算出されるので、文字の可読性が向上する。
(A.変形例1)
また、文字サイズ算出部108は、メニュー画像40が文字を含まない場合に関しても、上記の計算式(1)により、仮の文字サイズを算出することが可能である。
(B.変形例2)
また、文字サイズ算出部108は、メニュー画像40に含まれる絵の最適サイズを、視線距離算出部106により算出された視線距離に応じて算出することも可能である。なお、計算式(1)における垂直視野角θの値に関しては、例えば、文字の場合と同様に、事前に複数の利用者2に対して行われたユーザテストにより、絵が最も見やすいと多数の利用者2により感じられた垂直視野角の値に設定されることが可能である。
(C.変形例3)
なお、上記の計算式(1)によれば、視線距離dが小さくなるほど文字のサイズが小さく算出されるので、視線距離dがとても小さくなると文字が潰れて表示され、利用者2が読めなくなる恐れがある。このため、変形例3として、文字サイズ算出部108は、上記の計算式(1)により算出された文字サイズが、あらかじめ定められた所定のサイズよりも小さくなる場合には、所定のサイズを文字のサイズとして設定することも可能である。なお、所定のサイズは、例えば、表示面30の解像度、フォントの種類、または出力装置162の種類などに応じて設定されてもよい。
[2−1−6.表示制御部110]
(A.メニュー画像40のサイズの決定)
表示制御部110は、視線距離算出部106により算出された視線距離に応じて、メニュー画像40のサイズを決定する。より具体的には、表示制御部110は、視線距離算出部106により算出された視線距離が大きいほど、メニュー画像40のサイズをより大きく決定することが可能である。
図7は、視線距離が異なる場合において、表示制御部110により決定されるメニュー画像40のそれぞれのサイズを示した説明図である。図7に示したように、例えば、表示制御部110は、視線距離算出部106により算出された視線距離dの方が視線距離d’よりも大きい場合には、視線距離dに対応するメニュー画像40aのサイズを、視線距離d’に対応するメニュー画像40bのサイズよりも大きくなるように決定する。
上記の機能についてさらに詳細に説明すると、表示制御部110は、文字サイズ算出部108により算出された文字のサイズに応じてメニュー画像40のサイズを決定する。例えば、表示制御部110は、文字サイズ算出部108により算出された文字のサイズが大きいほど、メニュー画像40のサイズをより大きな値に決定する。
上述したように、人間の目には、視線距離が大きい位置にある物体ほど小さく視認される。一方、上記の決定例によれば、視線距離が大きいほど、メニュー画像40はより大きく表示面30に表示される。このため、上記の決定例によれば、例えば利用者2が視線方向をずらすなどにより視線距離が変化したとしても、利用者2には、表示面30に表示されるメニュー画像40が同程度の大きさで視認されることになる。従って、メニュー画像40の視認性が維持される。
なお、上述した、表示面30に表示される背景画像に関してはメニュー画像40とは異なり、表示制御部110は、視線距離が変化しても背景画像のサイズを変化させないことが可能である。
‐変形例1‐
なお、メニュー画像40が複数のサイズの文字を含む場合には、表示制御部110は、メニュー画像40に含まれる最も小さい文字について文字サイズ算出部108により算出されたサイズに応じて、メニュー画像40のサイズを決定することが可能である。あるいは、表示制御部110は、メニュー画像40において利用者2に注目される可能性がより高い文字について文字サイズ算出部108により算出されたサイズに応じて、メニュー画像40のサイズを決定することが可能である。ここで、利用者2に注目される可能性が高い文字の例としては、メニュー画像40がテレビジョン番組表である場合におけるテレビジョン番組名であったり、メニュー画像40がwebページである場合におけるリンク先を示す文字列などが挙げられる。
‐変形例2‐
また、メニュー画像40が文字を含まない場合に関しては、表示制御部110は、下記の2種類の方法のいずれかによりメニュー画像40のサイズを決定することが可能である。第1に、表示制御部110は、文字サイズ算出部108により例えば計算式(1)を用いて算出される(仮の)文字のサイズに応じて、メニュー画像40のサイズを決定することが可能である。第2に、表示制御部110は、文字サイズ算出部108により算出される、絵の最適サイズに応じてメニュー画像40のサイズを決定することが可能である。
‐変形例3‐
なお、上記の決定例によれば、視線距離dが大きくなるほどメニュー画像40のサイズはより大きく算出されるので、視線距離dがとても大きくなるとメニュー画像40の一部が表示面30からはみ出してしまう恐れがある。このため、変形例3として、表示制御部110は、視線距離dに応じて算出されたメニュー画像40のサイズが所定のサイズよりも大きくなる場合には、メニュー画像40のサイズとして所定のサイズを決定することが可能である。なお、所定のサイズは、例えば、表示面30の大きさに応じて設定されてもよい。
(B.メニュー画像40の表示位置の決定)
(B−1.目視位置に表示)
また、表示制御部110は、決定したサイズでメニュー画像40を表示面30に表示させる。より具体的には、表示制御部110は、表示面30における、目視位置算出部104により算出された目視位置にメニュー画像40を表示させることが可能である。例えば、図8に示したように、表示制御部110は、メニュー画像40の中心位置を目視位置とするなど、メニュー画像40の表示領域に目視位置が含まれるようにメニュー画像40を表示させる。
この表示例によれば、メニュー画像40は、表示面30において利用者2が現在見ている位置に表示される。このため、利用者2は、メニュー画像40が表示された際に視線を移動させる必要がなく、メニュー画像40を快適に見ることができる。
(B−2.フィルタの適用)
ところで、例えば目の瞬きや姿勢の搖動などにより、一般的に、利用者2の視線方向は随時大きく変動するので、目視位置算出部104により算出される目視位置は随時大きく振動する傾向にある。このため、例えば利用者2によりメニュー画像40を表示させる操作がされた際において目視位置算出部104により算出された目視位置と、メニュー画像40が実際に表示される際に利用者2が見ている位置とは異なってしまう可能性が大きい。
そこで、変形例として、表示制御部110は、まず、メニュー画像40を表示させる操作がされた際から所定の時間の間において、目視位置算出部104により算出された複数の目視位置に対して所定のフィルタを掛けることにより、メニュー画像40の表示位置を算出することが可能である。そして、表示制御部110は、算出された表示位置にメニュー画像40を表示させることが可能である。なお、所定のフィルタの例としては、ローパスフィルタなどが挙げられる。
‐フィルタの係数の調整‐
但し、所定のフィルタの係数が強い場合には、例えば図9に示したように、利用者2の視線が移動されている状況において利用者2によりメニュー画像40を表示させる操作がなされた場合には、表示制御部110により算出された表示位置と、利用者2が表示面30において見ている位置とが大きく異なることも想定される。なお、図9は、メニュー画像40を表示させる操作がされてからメニュー画像40が表示されるまでに、利用者2の目視位置が図9において破線で示した領域46の内部まで移動されたことにより、メニュー画像40の表示位置と利用者2の目視位置とが大きくずれた例を示している。
このように、メニュー画像40の表示開始時において、利用者2が実際に見ている位置からずれてメニュー画像40が表示されると、利用者2はメニュー画像40の表示位置に違和感を抱く恐れがある。
そこで、所定のフィルタの係数に関しては、例えば利用者2が視線を移動させながらメニュー画像40を表示させる場合であっても、表示制御部110により算出される表示位置と、メニュー画像40の表示開始時において利用者2が見る位置とが大きく異なることがないような、適切な値に設定されることも可能である。この設定例によれば、利用者2がメニュー画像40の表示位置に関して違和感を抱く可能性を減少させることができる。
(B−3.固定位置に表示)
また、別の変形例として、表示制御部110は、表示面30における所定の位置にメニュー画像40を表示させることも可能である。例えば、図10に示したように、表示制御部110は、垂直方向に関しては、例えば表示面30の垂直方向における中心から、表示面30の垂直方向の長さHに所定の係数αを乗じた値だけ低くした座標値などの所定の座標値であり、水平方向に関しては例えば目視位置と同じ座標値である点の位置にメニュー画像40を表示させてもよい。
この変形例による効果として、例えば複数の利用者2が表示面30を一緒に見るような場面において、特定の利用者2の目視位置に合わせて表示させることがないので、複数の利用者2にとって見やすいようにメニュー画像40を表示できる点が挙げられる。
(C.通知情報42の表示)
また、変形例として、表示制御部110は、さらに、利用者に通知するための通知情報42を表示面30に表示させることが可能である。さらに、表示制御部110は、利用者2の目視位置の変化に応じて通知情報42の表示位置を移動させることも可能である。ここで、通知情報42は、例えば、情報処理装置10の異常などを通知するメッセージであったり、地震情報や緊急速報などであってもよい。または、通知情報42は、メニュー画像40のような、様々な形式の画像であってもよい。
ここで、図11を参照して、上記の機能についてより詳細に説明する。図11は、利用者2が視線方向を変化させた場合における通知情報42の表示位置の変化例を示した説明図である。なお、図11は、通知情報42として、「HDDに異常が発見されました。」というメッセージが表示されている例を示している。
例えば、図11に示したように、利用者2が、図11の左側の図に示した目視位置から右側の図に示した目視位置へ変化させるように、視線方向を変化させた場合には、表示制御部110は、通知情報42の表示位置を、通知情報42aから通知情報42bのように水平方向に変化させる。または、表示制御部110は、利用者2の目視位置の変化に応じて通知情報42の表示位置を垂直方向に変化させる。
あるいは、表示制御部110は、利用者2の目視位置に通知情報42を表示させ、そして、目視位置の変化に追従させて通知情報42の表示位置を移動させる。または、表示制御部110は、利用者2の目視位置から例えば水平方向または垂直方向に関して所定の距離だけ離れた位置に通知情報42を表示させ、そして、目視位置の変化に合わせて、通知情報42の表示位置を、目視位置から所定の距離だけ離しながら移動させる。
なお、図11に示したように、表示制御部110は、通知情報42を背景画像よりも前面に表示、つまり重畳表示させる。また、表示制御部110は、通知情報42の表示領域とメニュー画像40の表示領域とが重複する場合には、通知情報42をメニュー画像40よりも前面に表示させることが可能である。
これらの表示例によれば、利用者2の視線方向の変化に応じて通知情報42の表示位置が変わるので、通知情報42を利用者2に確実かつ迅速に気づかせることができる。例えば、緊急性の高い情報や、重要性の高い情報を迅速に利用者2に通知することができる。
(D.ポップアップ画像44の表示)
また、変形例として、表示制御部110は、メニュー画像40に加えて、ポップアップ画像44を表示面30に表示させることも可能である。このポップアップ画像44は、例えばメニュー画像40において利用者2により選択された項目に関するコンテキストメニューなど、メニュー画像40に関する補助的な内容を表示するための画像である。
ここで、図12を参照して、上記の機能についてより詳細に説明する。図12は、利用者2によりメニュー画像40において“Nature”という番組が選択された場合において、選択された番組の閲覧や録画を選択するためのポップアップ画像44が表示された例を示した説明図である。図12に示したように、例えば、表示制御部110は、利用者2によりポップアップ画像44を表示させるための操作がされた場合には、操作時における利用者2の目視位置または目視位置付近にポップアップ画像44を表示させる。
なお、表示制御部110は、ポップアップ画像44を、目視位置とは無関係な、例えばあらかじめ定められた所定の位置に表示させてもよい。
(E.メニュー画像40の表示の変形例)
‐変形例1‐
また、変形例として、表示制御部110は、図13に示したように、メニュー画像40の輪郭を例えば明るい色のイルミネーションで囲って、メニュー画像40を表示させることも可能である。この変形例によれば、メニュー画像40の輪郭をより明確に利用者2に視認させることができるので、メニュー画像40の視認性が向上する。
‐変形例2‐
また、別の変形例として、表示制御部110は、メニュー画像40の表示時において、図13に示したように、表示面30に表示される背景画像をより暗く表示させることが可能である。例えば、表示制御部110は、メニュー画像40の表示時において、背景画像全体に対して透過度50%程度の黒色の網掛けを重畳させる。この変形例によれば、特にメニュー画像40と背景画像とが似た階調の画像であったり、背景画像が明るい画像である場合などにおいて、メニュー画像40を背景画像よりも目立つように表示させることができる。このため、メニュー画像40の視認性が向上する。
なお、表示制御部110は、上記の変形例1および変形例2を組み合わせて表示させることも可能である。
[2−1−7.入力判断部112]
入力判断部112は、例えば後述する通信部120により取得される入力情報に基づいて、利用者2の入力の内容を判断する。ここで、図14を参照して、上記の機能についてより詳細に説明する。図14は、メニュー画像40の呼び出し操作(S11)から、メニュー画像40における利用者2の選択操作(S14)までの、利用者2の操作の流れを示した説明図である。なお、図14では、長方形はリモートコントローラーを用いた利用者2の操作を、六角形は利用者2のジェスチャーによる操作を、ひし形は利用者2の視線による操作を、そして、楕円は利用者2の発声による操作をそれぞれ示している。
(A.メニュー画像40の呼び出し)
入力判断部112は、例えばメニュー画像40が表示されていない場合には、通信部120により取得される入力情報などに基づいて、利用者2によるメニュー画像40を呼び出す操作を判断する(S11)。図14に示したように、例えば、入力判断部112は、リモートコントローラーから受信された入力情報がリモートコントローラーのメニューボタンが押下されたことを示すことを認識した場合には、入力判断部112は、メニュー画像40を呼び出すことを判断する。また、入力判断部112は、カメラ20から随時受信される映像を画像認識し、そして、利用者2による手を横に繰り返し振る動作を認識した場合には、入力判断部112は、メニュー画像40を呼び出すことを判断する。また、入力判断部112は、入力部122に対して入力された音声を音声認識し、そして、所定の音声を認識した場合には、入力判断部112は、認識結果に対応するメニュー画像40を呼び出すことを判断する。例えば、入力判断部112は、「番組表を出して」という音声を認識した場合には、番組表に対応するメニュー画像40を呼び出すことを判断する。
なお、S11の後、つまり入力判断部112によりメニュー画像40を呼び出すことが判断された場合には、表示制御部110は、メニュー画像40を表示面30において、例えば利用者2の目視位置付近に表示させる(S12)。
(B.項目間の移動)
また、入力判断部112は、S12の後において、例えば通信部120により取得された入力情報に基づいて、利用者2による、メニュー画像40に含まれる選択項目間を移動させる操作を判断する(S13)。図14に示したように、例えば、入力判断部112は、リモートコントローラーから受信された入力情報が、リモートコントローラーのカーソルボタンが押下されたことを示すことを認識した場合には、入力判断部112は、受信された入力情報に基づいて、利用者2による移動の指示内容を判断する。また、入力判断部112は、カメラ20から随時受信される映像を画像認識し、そして、利用者2による手の指を上下左右にフリックさせる動作を認識した場合には、入力判断部112は、認識された動作に基づいて、利用者2による移動の指示内容を判断する。また、入力判断部112は、カメラ20から随時受信される映像を画像認識し、そして、利用者2の視線方向の変化を認識した場合には、入力判断部112は、認識された視線方向の変化を、利用者2による移動の指示内容として判断する。
(C.メニュー画像の消去、または決定・中止操作)
また、入力判断部112は、S12またはS13の後において、例えば通信部120により取得された入力情報に基づいて、利用者2による、例えばメニュー画像40の消去などの、メニュー画像40における選択操作を判断する(S14)。
例えば、図14に示したように、入力判断部112は、リモートコントローラーから受信された入力情報がリモートコントローラーの「決定ボタン」が押下されたことを示すことを認識した場合には、入力判断部112は、S13における選択内容を決定することを判断する。また、入力判断部112は、リモートコントローラーから受信された入力情報がリモートコントローラーの「戻るボタン」が押下されたことを示すことを認識した場合には、入力判断部112は、S13における選択内容をキャンセルし、S12の処理へ遷移させることを判断する。
また、入力判断部112は、カメラ20から随時受信される映像を画像認識し、そして、利用者2による手を上から下におろす動作を認識した場合には、入力判断部112は、メニュー画像40を消去することを判断する。
また、入力判断部112は、入力部122に対して入力された音声を音声認識し、そして、所定の音声を認識した場合には、入力判断部112は、認識結果に対応する処理を実行することを判断する。例えば、入力判断部112は、「ACE9時からの番組」という音声を認識した場合には、“ACE”という放送局において9時から放送される番組を選択することを判断する。また、入力判断部112は、「決定」や「決める」という音声を認識した場合には、S13における選択内容を決定することを判断する。また、入力判断部112は、「中止」や「止める」という音声を認識した場合には、S13における選択内容をキャンセルし、S12の処理へ遷移させることを判断する。
‐変形例‐
また、S14の動作の変形例として、入力判断部112は、メニュー画像40の表示領域の中に、目視位置算出部104により算出された目視位置が含まれるか否かに基づいて、例えば通信部120により取得された入力情報が示す入力の内容を判断することが可能である。
より具体的には、入力判断部112は、入力情報の取得時において、メニュー画像40の表示領域の中に目視位置が含まれる場合には、取得された入力情報が示す入力の内容が決定操作であると判断することが可能である。また、入力判断部112は、入力情報の取得時において、メニュー画像40の表示領域の中に目視位置が含まれない場合には、取得された入力情報が示す入力の内容が中止操作であると判断することが可能である。
ここで、図15を参照して、上記の機能についてより詳細に説明する。例えば、図15における左側の図に示したように、入力判断部112は、所定のボタンが押下されたことを示す入力情報がリモートコントローラーから受信された場合において、メニュー画像40の表示領域の中に目視位置が含まれる場合には、受信された入力情報が示す入力の内容が決定操作であると判断する。また、図15における右側の図に示したように、入力判断部112は、所定のボタンが押下されたことを示す入力情報がリモートコントローラーから受信された場合において、メニュー画像40の表示領域の中に目視位置が含まれない場合には、受信された入力情報が示す入力の内容が中止操作であると判断する。
[2−1−8.通信部120]
通信部120は、本開示における取得部の一例である。通信部120は、有線通信または無線通信により、情報処理装置10と通信可能な各種の装置との間で情報を送受信する。例えば、通信部120は、カメラ20により撮像された画像をカメラ20から受信する。また、通信部120は、ボタンが押下されたことを示す入力情報をリモートコントローラーから受信する。
[2−1−9.入力部122]
入力部122は、本開示における取得部の一例である。入力部122は、利用者2による情報処理装置10に対する各種の入力操作を受け付ける。例えば、入力部122は、利用者2による発声を受け付ける。
[2−1−10.表示部124]
表示部124は、表示制御部110による制御に基づいて、例えばメニュー画像40や通知情報42などを表示面30に表示する。
なお、本開示の実施形態によれば、情報処理装置10に内蔵されるCPU150、ROM152、およびRAM154などのハードウェアを、上述した情報処理装置10の各構成と同等の機能を発揮させるためのコンピュータプログラムも提供可能である。また、該コンピュータプログラムが記録された記録媒体も提供される。
また、本開示の実施形態による構成は、上述した構成に限定されない。例えば、通信部120、入力部122、または表示部124のうちいずれか一つ以上は情報処理装置10に含まれず、他の装置に備えられてもよい。
<2−2.動作>
以上、本実施形態による構成について説明した。続いて、本実施形態による動作について説明する。図16は、本実施形態による動作を示したフローチャートである。
図16に示したように、まず、視線特定部102は、カメラ20による撮影画像から例えば人の顔に関する特徴点を抽出することにより、利用者2の顔を検出する(S101)。続いて、視線特定部102は、S101で検出された利用者2の顔の画像に基づいて、利用者2の目を検出する。そして、視線特定部102は、検出された利用者2の目の画像に基づいて、利用者2の視線方向を特定する(S102)。
続いて、目視位置算出部104は、S102で特定された利用者2の目の位置、および利用者2の視線方向に基づいて、表示面30における利用者2の目視位置を算出する(S103)。
続いて、視線距離算出部106は、S102で特定された利用者2の目の位置と、S103で算出された目視位置との間の視線距離を算出する(S104)。
続いて、文字サイズ算出部108は、メニュー画像40に含まれる文字のサイズを、例えば計算式(1)により、S104で算出された視線距離に基づいて算出する(S105)。
続いて、表示制御部110は、S105で算出された文字のサイズに応じてメニュー画像40のサイズを決定する(S106)。
その後、表示制御部110は、S103により算出された目視位置において、S106で決定されたサイズでメニュー画像40を表示させる(S107)。
<2−3.効果>
以上、例えば図3〜図8、図16等を参照して説明したように、本実施形態による情報処理装置10は、利用者2の位置と、利用者2の視線方向に基づいて表示面30における特定点の位置との間の視線距離を算出し、そして、算出された視線距離に応じて、表示面30に表示されるメニュー画像40のサイズを決定する。このため、情報処理装置10は、視線距離の大きさに応じてメニュー画像40のサイズを決定するので、表示面30に表示されるメニュー画像40の視認性を確保することができる。
例えば、利用者2が斜めの方向から表示面30を見る場合には、正面から見る場合と比べて視線距離が大きくなるので、情報処理装置10は、メニュー画像40をより大きく表示面30に表示させる。このため、利用者2が視線の向きを変化させたとしても、利用者2には、表示面30に表示されるメニュー画像40の大きさが同程度に感じられ、視認性が維持される。
また、情報処理装置10は、表示面30における利用者2の目視位置にメニュー画像40を表示させることが可能である。このため、利用者2は、メニュー画像40が表示された際に視線を移動させる必要がなく、メニュー画像40を快適に見ることができる。
<<3.変形例>>
なお、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示はかかる例に限定されない。本開示の属する技術の分野における通常の知識を有する者であれば、請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
<3−1.変形例1>
例えば、本開示による情報処理システムは、1節で述べた構成に限定されない。例えば、本開示による情報処理システムは、図17に示したような構成として設計されることも可能である。図17に示したように、この変形例1による情報処理システムは、情報処理端末70、投影装置80、投影面90、およびカメラ20を含む。なお、カメラ20は、本実施形態によるカメラ20と同様である。
[3−1−1.情報処理端末70]
情報処理端末70は、本開示における情報処理装置の別の例である。情報処理端末70は、例えば利用者2の操作により、メニュー画像40などの画像を投影面90へ投影装置80に投影させる装置である。この情報処理端末70は、図3に示した情報処理装置10の構成要素を全て含むことが可能である。また、各構成要素の機能は、2−1節で述べた機能と概略同様である。なお、図17では、情報処理端末70がラップトップ型のPC(Personal Computer)である例を示しているが、かかる例に限定されない。例えば、情報処理端末70は、デスクトップ型のPC、スマートフォンなどの携帯電話、タブレット端末、PDA(Personal Digital Assistant)、デジタルカメラ、メガネ型コンピュータ、またはゲーム機などであってもよい。
[3−1−2.投影装置80]
投影装置80は、発光により画像を投影する装置である。この投影装置80は、情報処理端末70から画像データを受信する受信部と、受信された画像データに従って形成される画像を発光により投影する投影部と、を備える。なお、変形例として、投影装置80および情報処理端末70は、一体的に構成されてもよい。
[3−1−3.投影面90]
投影面90は、本開示における画像表示面の別の例である。投影面90は、投影装置80により投影された画像を映し出す平面である。この投影面90は、例えばマットスクリーンなどの各種のスクリーン、建物の壁、または建物内の天井などであってもよい。
この変形例1によれば、情報処理端末70は、利用者2の位置と、利用者2の視線方向に基づいて投影面90における特定点の位置との間の視線距離を算出し、そして、算出された視線距離に応じて、投影面90に投影されるメニュー画像40のサイズを決定する。このため、情報処理端末70は、視線距離の大きさに応じてメニュー画像40のサイズを決定するので、投影面90に投影されるメニュー画像40の視認性を確保することができる。例えば、利用者2が視線の向きを変化させたとしても、利用者2には、投影面90に投影されるメニュー画像40の大きさが同程度に感じられ、視認性が維持される。
また、変形例1によれば、投影装置80および投影面90には、例えば市販されているような安価な製品を用いることが可能であり、かつ、本実施形態による情報処理装置10のような、大型のディスプレイは不要である。このため、変形例1による情報処理システムは、本実施形態による情報処理システムよりも安価に構成することが可能である。
<3−2.変形例2>
また、上記の説明では、本開示の実施形態による、例えば視線距離算出部106や表示制御部110などの、制御部100に含まれる各構成要素が情報処理装置10に備えられる例について説明したが、本開示はかかる例に限定されない。上述した制御部100に含まれる各構成要素は、情報処理装置10に備えられる代わりに、例えばサーバ装置などの、情報処理装置10と通信可能な通信装置に備えられてもよい。また、上述した制御部100に含まれる各構成要素と同等の機能を発揮させるためのコンピュータプログラムは、情報処理装置10に記憶される代わりに、上記の通信装置に記憶されてもよい。
なお、以下のような構成も本開示の技術的範囲に属する。
(1)
利用者の位置と、前記利用者の視線方向に基づいて画像表示面において特定される点の位置との間の視線距離を算出する視線距離算出部と、
前記視線距離算出部により算出された視線距離に応じて、前記画像表示面に表示される表示画像のサイズを決定する表示制御部と、
を備える、情報処理装置。
(2)
前記情報処理装置は、前記利用者の位置および前記利用者の視線方向に基づいて、前記画像表示面における前記利用者の目視位置を、前記画像表示面において特定される点の位置として算出する目視位置算出部をさらに備える、前記(1)に記載の情報処理装置。
(3)
前記表示制御部は、前記目視位置算出部により算出された目視位置に前記表示画像を表示させる、前記(2)に記載の情報処理装置。
(4)
前記情報処理装置は、前記表示画像に含まれる文字のサイズを前記視線距離に応じて算出する文字サイズ算出部をさらに備え、
前記表示制御部は、前記文字サイズ算出部により算出された文字のサイズに応じて前記表示画像のサイズを決定する、前記(2)または(3)に記載の情報処理装置。
(5)
前記表示制御部は、前記文字サイズ算出部により算出された文字のサイズが大きいほど、前記表示画像のサイズをより大きな値に決定する、前記(4)に記載の情報処理装置。(6)
前記文字サイズ算出部は、前記視線距離が大きいほど、前記表示画像に含まれる文字のサイズをより大きく算出する、前記(4)または(5)に記載の情報処理装置。
(7)
前記情報処理装置は、前記利用者の位置、および前記利用者の視線方向を特定する視線特定部をさらに備え、
前記目視位置算出部は、前記視線特定部による特定の結果に基づいて前記画像表示面における前記目視位置を算出する、前記(2)〜(6)のいずれか一項に記載の情報処理装置。
(8)
前記表示制御部は、さらに、利用者に通知するための通知情報を前記画像表示面に表示させ、
前記表示制御部は、前記目視位置の変化に応じて、前記通知情報の表示位置を移動させる、前記(2)〜(7)のいずれか一項に記載の情報処理装置。
(9)
前記情報処理装置は、利用者による入力情報を取得する取得部と、
前記画像表示面における前記表示画像の表示領域の中に、前記目視位置算出部により算出された目視位置が含まれるか否かに基づいて、前記取得部により取得された入力情報が示す入力の内容を判断する入力判断部と、をさらに備える、前記(2)〜(8)のいずれか一項に記載の情報処理装置。
(10)
前記入力判断部は、前記入力情報の取得時に、前記表示画像の表示領域の中に前記目視位置が含まれる場合には、前記入力情報が示す入力の内容が決定操作であると判断し、
前記入力判断部は、前記入力情報の取得時に、前記表示画像の表示領域の中に前記目視位置が含まれない場合には、前記入力情報が示す入力の内容が中止操作であると判断する、前記(9)に記載の情報処理装置。
(11)
利用者の位置と、前記利用者の視線方向に基づいて画像表示面において特定される点の位置との間の視線距離を算出することと、
算出された視線距離に応じて、前記画像表示面に表示される表示画像のサイズをプロセッサにより決定することと、
を備える、情報処理方法。
(12)
コンピュータを、
利用者の位置と、前記利用者の視線方向に基づいて画像表示面において特定される点の位置との間の視線距離を算出する視線距離算出部と、
前記視線距離算出部により算出された視線距離に応じて、前記画像表示面に表示される表示画像のサイズを決定する表示制御部、
として機能させるための、プログラム。
2 利用者
10 情報処理装置
20 カメラ
70 情報処理端末
80 投影装置
90 投影面
100 制御部
102 視線特定部
104 目視位置算出部
106 視線距離算出部
108 文字サイズ算出部
110 表示制御部
112 入力判断部
120 通信部
122 入力部
124 表示部
150 CPU
152 ROM
154 RAM
156 内部バス
158 インターフェース
160 入力装置
162 出力装置
164 ストレージ装置
166 通信装置

Claims (12)

  1. 利用者の位置と、前記利用者の視線方向に基づいて画像表示面において特定される点の位置との間の視線距離を算出する視線距離算出部と、
    前記視線距離算出部により算出された視線距離に応じて、前記画像表示面に表示される表示画像のサイズを決定する表示制御部と、
    を備える、情報処理装置。
  2. 前記情報処理装置は、前記利用者の位置および前記利用者の視線方向に基づいて、前記画像表示面における前記利用者の目視位置を、前記画像表示面において特定される点の位置として算出する目視位置算出部をさらに備える、請求項1に記載の情報処理装置。
  3. 前記表示制御部は、前記目視位置算出部により算出された目視位置に前記表示画像を表示させる、請求項2に記載の情報処理装置。
  4. 前記情報処理装置は、前記表示画像に含まれる文字のサイズを前記視線距離に応じて算出する文字サイズ算出部をさらに備え、
    前記表示制御部は、前記文字サイズ算出部により算出された文字のサイズに応じて前記表示画像のサイズを決定する、請求項2に記載の情報処理装置。
  5. 前記表示制御部は、前記文字サイズ算出部により算出された文字のサイズが大きいほど、前記表示画像のサイズをより大きな値に決定する、請求項4に記載の情報処理装置。
  6. 前記文字サイズ算出部は、前記視線距離が大きいほど、前記表示画像に含まれる文字のサイズをより大きく算出する、請求項4に記載の情報処理装置。
  7. 前記情報処理装置は、前記利用者の位置、および前記利用者の視線方向を特定する視線特定部をさらに備え、
    前記目視位置算出部は、前記視線特定部による特定の結果に基づいて前記画像表示面における前記目視位置を算出する、請求項2に記載の情報処理装置。
  8. 前記表示制御部は、さらに、利用者に通知するための通知情報を前記画像表示面に表示させ、
    前記表示制御部は、前記目視位置の変化に応じて、前記通知情報の表示位置を移動させる、請求項2に記載の情報処理装置。
  9. 前記情報処理装置は、利用者による入力情報を取得する取得部と、
    前記画像表示面における前記表示画像の表示領域の中に、前記目視位置算出部により算出された目視位置が含まれるか否かに基づいて、前記取得部により取得された入力情報が示す入力の内容を判断する入力判断部と、をさらに備える、請求項2に記載の情報処理装置。
  10. 前記入力判断部は、前記入力情報の取得時に、前記表示画像の表示領域の中に前記目視位置が含まれる場合には、前記入力情報が示す入力の内容が決定操作であると判断し、
    前記入力判断部は、前記入力情報の取得時に、前記表示画像の表示領域の中に前記目視位置が含まれない場合には、前記入力情報が示す入力の内容が中止操作であると判断する、請求項9に記載の情報処理装置。
  11. 利用者の位置と、前記利用者の視線方向に基づいて画像表示面において特定される点の位置との間の視線距離を算出することと、
    算出された視線距離に応じて、前記画像表示面に表示される表示画像のサイズをプロセッサにより決定することと、
    を備える、情報処理方法。
  12. コンピュータを、
    利用者の位置と、前記利用者の視線方向に基づいて画像表示面において特定される点の位置との間の視線距離を算出する視線距離算出部と、
    前記視線距離算出部により算出された視線距離に応じて、前記画像表示面に表示される表示画像のサイズを決定する表示制御部、
    として機能させるための、プログラム。
JP2015534048A 2013-09-02 2014-06-18 情報処理装置、情報処理方法、及びプログラム Active JP6421754B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2013181227 2013-09-02
JP2013181227 2013-09-02
PCT/JP2014/066201 WO2015029554A1 (ja) 2013-09-02 2014-06-18 情報処理装置、情報処理方法、及びプログラム

Publications (2)

Publication Number Publication Date
JPWO2015029554A1 true JPWO2015029554A1 (ja) 2017-03-02
JP6421754B2 JP6421754B2 (ja) 2018-11-14

Family

ID=52586133

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015534048A Active JP6421754B2 (ja) 2013-09-02 2014-06-18 情報処理装置、情報処理方法、及びプログラム

Country Status (5)

Country Link
US (1) US10379610B2 (ja)
EP (1) EP3043343A4 (ja)
JP (1) JP6421754B2 (ja)
CN (1) CN105474303B (ja)
WO (1) WO2015029554A1 (ja)

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016163150A (ja) * 2015-02-27 2016-09-05 株式会社リコー 通信端末、面談システム、通信方法及びプログラム
CN109479125A (zh) * 2016-07-14 2019-03-15 三星电子株式会社 具有增强的颜色和对比度的投影系统
EP3542705B1 (en) * 2016-12-28 2020-07-29 JVC Kenwood Corporation Visual function examination device, visual function examination method, and computer program
JP6426225B2 (ja) * 2017-04-05 2018-11-21 シャープ株式会社 表示装置、テレビジョン受像機、表示制御方法、表示制御プログラム、および記録媒体
WO2018205055A1 (zh) * 2017-05-07 2018-11-15 深圳市卓希科技有限公司 一种图像处理方法和系统
KR102011887B1 (ko) * 2017-11-30 2019-08-20 주식회사 꿀비 동공 추적을 이용한 온라인 강의의 수강태도 감독 시스템
CN108989571B (zh) * 2018-08-15 2020-06-19 浙江大学滨海产业技术研究院 一种针对手机文字阅读的自适应字体调整方法及装置
JP7215254B2 (ja) * 2019-03-13 2023-01-31 株式会社リコー 情報処理装置、表示制御方法、及びプログラム
US11259081B2 (en) * 2020-02-28 2022-02-22 Rovi Guides, Inc. Systems and methods for adaptively modifying presentation of media content
JP7296069B2 (ja) * 2021-01-28 2023-06-22 独立行政法人国立高等専門学校機構 視線入力装置、および視線入力方法
US11914646B1 (en) * 2021-09-24 2024-02-27 Apple Inc. Generating textual content based on an expected viewing angle
JP7316344B2 (ja) * 2021-11-30 2023-07-27 株式会社ドワンゴ アラート表示システム、アラート表示方法、およびアラート表示プログラム
CN117075740B (zh) * 2023-10-16 2024-05-24 深圳市宝视达光电有限公司 一种电子白板版面自动调整方法、装置和系统

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04199090A (ja) * 1990-11-29 1992-07-20 Hitachi Ltd 高精細ディスプレイ装置
JP2000138872A (ja) * 1998-10-30 2000-05-16 Sony Corp 情報処理装置および方法、並びに提供媒体
JP2004185007A (ja) * 2002-12-02 2004-07-02 Sony Internatl Europ Gmbh 表示装置の制御方法
US20050030322A1 (en) * 1998-06-25 2005-02-10 Gardos Thomas R. Perceptually based display
JP2006030615A (ja) * 2004-07-16 2006-02-02 Mitsubishi Motors Corp 車載モニタ表示装置,車両用文字情報提供装置及びそれらから成る車両用文字情報表示システム
JP2008096776A (ja) * 2006-10-13 2008-04-24 Konami Digital Entertainment:Kk 表示装置、表示方法、ならびに、プログラム
JP2008306509A (ja) * 2007-06-08 2008-12-18 Sharp Corp 表示装置
JP2009042187A (ja) * 2007-08-10 2009-02-26 Aisin Aw Co Ltd ナビゲーション装置、及びナビゲーションプログラム
WO2010089989A1 (ja) * 2009-02-05 2010-08-12 パナソニック株式会社 情報表示装置及び情報表示方法

Family Cites Families (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09274144A (ja) * 1996-04-02 1997-10-21 Canon Inc 画像表示装置
US6392657B1 (en) * 1998-11-13 2002-05-21 E-Color, Inc. Method and apparatus for characterizing an optimal viewing angle of flat display
JP3407298B2 (ja) * 2000-08-18 2003-05-19 日本電信電話株式会社 文書表示方法、装置、および文書表示プログラムを記録した記録媒体
JP4795149B2 (ja) * 2005-08-15 2011-10-19 キヤノン株式会社 情報処理装置及び情報処理方法及びプログラム及び記憶媒体
US7591558B2 (en) * 2006-05-31 2009-09-22 Sony Ericsson Mobile Communications Ab Display based on eye information
JP4310330B2 (ja) * 2006-09-26 2009-08-05 キヤノン株式会社 表示制御装置及び表示制御方法
JP4970122B2 (ja) * 2007-04-20 2012-07-04 株式会社ニデック 視力検査装置
JP5433935B2 (ja) 2007-07-24 2014-03-05 日本電気株式会社 画面表示制御方法、画面表示制御方式、電子機器及びプログラム
US8209635B2 (en) * 2007-12-20 2012-06-26 Sony Mobile Communications Ab System and method for dynamically changing a display
US8115877B2 (en) * 2008-01-04 2012-02-14 International Business Machines Corporation System and method of adjusting viewing angle for display based on viewer positions and lighting conditions
US20090239591A1 (en) * 2008-03-19 2009-09-24 Motorola Inc Wireless communication device and method with an orientation detector
US20110032274A1 (en) 2008-04-10 2011-02-10 Pioneer Corporation Screen display system and screen display program
JP5423183B2 (ja) * 2009-07-03 2014-02-19 ソニー株式会社 表示制御装置および表示制御方法
US8762846B2 (en) * 2009-11-16 2014-06-24 Broadcom Corporation Method and system for adaptive viewport for a mobile device based on viewing angle
JP2015039052A (ja) * 2009-12-29 2015-02-26 シャープ株式会社 画像処理装置、画像処理方法及び画像処理プログラム
WO2011158511A1 (ja) 2010-06-17 2011-12-22 パナソニック株式会社 指示入力装置、指示入力方法、プログラム、記録媒体および集積回路
JP2013120347A (ja) * 2011-12-08 2013-06-17 Samsung Yokohama Research Institute Co Ltd 画像表示システム及び画像表示方法
CN103207664B (zh) * 2012-01-16 2016-04-27 联想(北京)有限公司 一种图像处理方法和设备
US9423870B2 (en) * 2012-05-08 2016-08-23 Google Inc. Input determination method
CN102830796B (zh) * 2012-06-29 2016-08-03 广东威创视讯科技股份有限公司 在显示设备中动态确定窗口位置的方法及装置
JP6099948B2 (ja) * 2012-11-28 2017-03-22 京セラ株式会社 電子機器及び制御プログラム並びに表示制御方法
US20140247208A1 (en) * 2013-03-01 2014-09-04 Tobii Technology Ab Invoking and waking a computing device from stand-by mode based on gaze detection
US9348411B2 (en) * 2013-05-24 2016-05-24 Microsoft Technology Licensing, Llc Object display with visual verisimilitude

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04199090A (ja) * 1990-11-29 1992-07-20 Hitachi Ltd 高精細ディスプレイ装置
US20050030322A1 (en) * 1998-06-25 2005-02-10 Gardos Thomas R. Perceptually based display
JP2000138872A (ja) * 1998-10-30 2000-05-16 Sony Corp 情報処理装置および方法、並びに提供媒体
JP2004185007A (ja) * 2002-12-02 2004-07-02 Sony Internatl Europ Gmbh 表示装置の制御方法
JP2006030615A (ja) * 2004-07-16 2006-02-02 Mitsubishi Motors Corp 車載モニタ表示装置,車両用文字情報提供装置及びそれらから成る車両用文字情報表示システム
JP2008096776A (ja) * 2006-10-13 2008-04-24 Konami Digital Entertainment:Kk 表示装置、表示方法、ならびに、プログラム
JP2008306509A (ja) * 2007-06-08 2008-12-18 Sharp Corp 表示装置
JP2009042187A (ja) * 2007-08-10 2009-02-26 Aisin Aw Co Ltd ナビゲーション装置、及びナビゲーションプログラム
WO2010089989A1 (ja) * 2009-02-05 2010-08-12 パナソニック株式会社 情報表示装置及び情報表示方法

Also Published As

Publication number Publication date
EP3043343A1 (en) 2016-07-13
US10379610B2 (en) 2019-08-13
EP3043343A4 (en) 2017-04-05
WO2015029554A1 (ja) 2015-03-05
CN105474303A (zh) 2016-04-06
JP6421754B2 (ja) 2018-11-14
US20160231809A1 (en) 2016-08-11
CN105474303B (zh) 2018-05-18

Similar Documents

Publication Publication Date Title
JP6421754B2 (ja) 情報処理装置、情報処理方法、及びプログラム
US11315336B2 (en) Method and device for editing virtual scene, and non-transitory computer-readable storage medium
US10762876B2 (en) Information processing apparatus and control method
CN109683716B (zh) 基于眼睛跟踪的可见度提高方法和电子装置
AU2013205535B2 (en) Apparatus and method of controlling mobile terminal based on analysis of user's face
US20180240213A1 (en) Information processing system, information processing method, and program
JP6417787B2 (ja) 表示装置、伝送システムおよび伝送方法
US9900568B2 (en) Remote communication system, method for controlling remote communication system, and storage medium
KR20140012757A (ko) 시각 장애 사용자들에 의한 이미지 캡처 및 이미지 검토의 촉진
US20170371524A1 (en) Information processing apparatus, picture processing method, and program
KR102061867B1 (ko) 이미지 생성 장치 및 그 방법
US20200042105A1 (en) Information processing apparatus, information processing method, and recording medium
US11023050B2 (en) Display control device, display control method, and computer program
JP2016213674A (ja) 表示制御システム、表示制御装置、表示制御方法、及びプログラム
JP2019159261A (ja) 電子黒板、映像表示方法、プログラム
US11112961B2 (en) Information processing system, information processing method, and program for object transfer between devices
CN110086921B (zh) 终端性能状态的检测方法、装置、便携式终端和存储介质
KR102435737B1 (ko) 화상 처리 장치 및 화상 처리 방법
TW201337644A (zh) 資訊處理裝置、資訊處理方法、及記錄媒體
JP6737968B1 (ja) 歩行者信号識別装置
JP2014048775A (ja) 注視位置特定装置、および注視位置特定プログラム
CN108540726B (zh) 连拍图像的处理方法、装置、存储介质及终端
US9420012B2 (en) Computer readable recording medium, communication terminal device and teleconferencing method
WO2018179972A1 (ja) 情報処理装置、情報処理方法およびプログラム
JP2020154071A (ja) 表示制御装置、表示制御方法、プログラムおよび表示制御システム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170517

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170517

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180227

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180420

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180918

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20181001

R151 Written notification of patent or utility model registration

Ref document number: 6421754

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151