JP2014086085A - ディスプレイ装置及びその制御方法 - Google Patents

ディスプレイ装置及びその制御方法 Download PDF

Info

Publication number
JP2014086085A
JP2014086085A JP2013210769A JP2013210769A JP2014086085A JP 2014086085 A JP2014086085 A JP 2014086085A JP 2013210769 A JP2013210769 A JP 2013210769A JP 2013210769 A JP2013210769 A JP 2013210769A JP 2014086085 A JP2014086085 A JP 2014086085A
Authority
JP
Japan
Prior art keywords
user
recognition
unit
sight
recognized
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013210769A
Other languages
English (en)
Other versions
JP6271935B2 (ja
Inventor
Jae-Hong Ahn
在弘 安
Gyoung Chan Seol
景燦 薛
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Publication of JP2014086085A publication Critical patent/JP2014086085A/ja
Application granted granted Critical
Publication of JP6271935B2 publication Critical patent/JP6271935B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04812Interaction techniques based on cursor appearance or behaviour, e.g. being affected by the presence of displayed objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/179Human faces, e.g. facial parts, sketches or expressions metadata assisted face recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/4227Providing Remote input by a user located remotely from the client device, e.g. at work
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04803Split screen, i.e. subdividing the display area or the window area into separate subareas

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Optics & Photonics (AREA)
  • Signal Processing (AREA)
  • Library & Information Science (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Ophthalmology & Optometry (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)
  • Studio Devices (AREA)
  • Image Analysis (AREA)
  • Telephone Function (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

【課題】ユーザーの視線を認識してインタラクションモードに進入し、視線の位置をカーソルで表示するディスプレイ装置及びその制御方法を提供する。
【解決手段】ディスプレイ装置は、ユーザーの視線を認識する認識部と、視線が予め設定された認識領域に位置するか判断し、視線が予め設定された認識領域に位置すると、インタラクションモードの進入を制御する制御部と、前記モードに対応する映像を表示する表示部と、を備える。ユーザーの視線を追跡して前記モードの進入を行うことによって、前記モードの進入を容易に行うことができ、より直観的にインタラクションを行うことができる。また、顔認識、音声認識及び視線認識を組み合わせてマルチモーダルインタラクションモードを行うことによって、より拡張されたインタラクションモードを行うことができ、ユーザーの命令を正確に判断でき、これにより正確な機能を実行することができる。
【選択図】図1

Description

本開示は、ユーザーにより入力された情報の認識正確度を向上させるためのディスプレイ装置及びその制御方法に関する。
ディスプレイ装置は、視覚的で立体的な映像情報を表示する装置である。
近年、陰極線管(Cathode Ray Tube)の短所とされてきた重さと体積を軽減して設置空間の制約を減らす他、大画面の映像表示、平板化及び高画質化などを含む様々な性能に優れた平板ディスプレイ装置(Flat Display Device)が開発されてきている。
平板ディスプレイ装置の代表には、液晶ディスプレイ装置(Liquid Crystal Display Device:LCD)、エレクトロルミネセンスディスプレイ装置(Electro−Luminescence Display Device:ELD)、電界放出ディスプレイ装置(Field Emission Display Device:FED)、プラズマディスプレイ装置(Plasma Display Panel:PDP)、薄膜トランジスタ液晶ディスプレイ装置(Thin Film Transistor−LCD:TFT−LCD)、及びフレキシブルディスプレイ装置などがある。
このようなディスプレイ装置は、ユーザーの便宜性を向上させるための認識技術を有することがある。
その例には、モーション認識技術及び音声認識技術などがある。モーション認識技術は、モーションセンサーなどを用いてユーザーの動きを認識し、認識された動きから、ユーザーの命令する情報を判断する技術であり、音声認識技術は、音声センサーなどを用いてユーザーの音声を認識し、認識された音声から、ユーザーの命令する情報を判断する技術である。
これらの認識技術は、モーションや音声を正確に入力しないと、ユーザーが意図しなかった機能が実行されたり、ユーザー入力自体ができなくなるため、数回反復しなければならず、ユーザーに不便を掛けることがあった。
また、ユーザーが無意識に取るモーションや音声により、ユーザーが意図しなかったにもかかわらず特定の機能が動作してしまうこともあった。
その上、ディスプレイ装置にモーション認識技術を適用するとき、ユーザーが取れるモーションには制限があるにもかかわらず、ユーザーが平素よく取らないモーションや識別力の高いモーションを選択して命令語として設定しなければならず、命令語を設定するためのモーション選択において困難があった。
一側面は、ユーザーの視線を認識してインタラクションモードに進入し、視線の位置をカーソルで表示するディスプレイ装置及びその制御方法を提供する。
他の側面は、ユーザーの視線及びモーション、又はユーザーの視線及び音声を同時に認識して動作及び機能を制御するディスプレイ装置及びその制御方法を提供する。
一側面に係るディスプレイ装置は、ユーザーの視線を認識する認識部と、認識された視線があらかじめ設定された認識領域に位置するか否か判断し、認識された視線があらかじめ設定された認識領域に位置すると、インタラクションモードの進入を制御する制御部と、インタラクションモードに対応する映像を表示する表示部と、を備える。
表示部は、あらかじめ設定された認識領域を表示する。
制御部は、視線が認識されると、あらかじめ設定された領域の表示情報を、視線を認識する前と異なる表示情報で表示する。
表示部は、認識された視線の位置をカーソルで表示する。
認識部は、ユーザーのモーションを認識し、制御部は、認識されたモーションに対応する動作命令を判断し、判断された動作命令に基づいて表示部の駆動を制御する。
認識部は、ユーザーの音声を認識し、制御部は、認識された音声に対応する動作命令を判断し、判断された動作命令に基づいて表示部の駆動を制御する。
制御部は、インタラクションモードに進入すると、ユーザーとのインタラクションのための複数の認識モードの表示を制御し、認識された視線の位置に基づいて複数の認識モードからいずれか一つの認識モードを選択する。
ディスプレイ装置は、ユーザーの映像を収集する映像収集部と、ユーザーの音声を収集するサウンド収集部と、をさらに備え、制御部は、選択されたいずれか一つの認識モードに基づいて映像収集部及びサウンド収集部の活性化を制御する。
認識部は、ユーザーの顔を認識し、制御部は、認識されたユーザーがあらかじめ登録されたユーザーであるか否か判断し、認識されたユーザーがあらかじめ登録されたユーザーであればユーザーの視線認識を制御する。
制御部は、認識されたユーザーが複数であれば、あらかじめ保存された優先順位に基づいて優先順位の最も高いユーザーの視線認識を制御する。
制御部は、認識された視線があらかじめ設定された終了領域に位置するか否か判断し、認識された視線があらかじめ設定された終了領域に位置すると、インタラクションモードが終了するように制御する。
他の側面に係るディスプレイ装置は、ユーザーの視線を認識する第1認識部と、ユーザーの命令を認識する第2認識部と、認識された視線があらかじめ設定された認識領域に位置するか否か判断し、認識された視線があらかじめ設定された認識領域に位置すると、インタラクションモードの進入を制御し、認識された視線及び命令に基づいて複数の機能を選択的に制御する制御部と、インタラクションモードに対応する映像及び選択的に制御される機能に対応する映像を表示する表示部と、を備える。
第2認識部は、ユーザーのモーション及び音声のうち少なくとも一方の信号を認識し、認識された少なくとも一方の信号に対応する動作命令を認識する。
制御部は、あらかじめ設定された領域に視線が位置する状態でモーションが認識されると、認識されたモーションに対応する命令を確認し、確認された命令に対応する機能の実行を制御する。
制御部は、あらかじめ設定された領域に視線が位置する状態で音声が認識されると、認識された音声に対応する命令を確認し、確認された命令に対応する機能の実行を制御する。
複数の機能は、外部放送信号の再生、外部コンテンツの実行、再生モード及び画面調整モードのうち少なくとも一つを含む。
ディスプレイ装置は、外部のリモコンから伝送されたサウンド信号を受信する通信部をさらに備え、第2認識部は、受信したサウンド信号から音声を認識する。
さらに他の側面に係るディスプレイ装置は、外部の放送信号を受信するチューナー部と、放送信号を、映像情報を持つ映像信号とサウンド情報を持つサウンド信号とに分離し、分離された映像信号とサウンド信号をそれぞれ信号処理する信号処理部と、ユーザーの視線を認識する認識部と、認識された視線があらかじめ設定された認識領域に位置するか否か判断し、認識された視線があらかじめ設定された認識領域に位置すると、インタラクションモードの進入を制御する制御部と、信号処理された映像信号及びインタラクションモードに対応する映像を表示する表示部と、信号処理されたサウンド信号を出力するサウンド出力部と、を備える。
表示部は、あらかじめ設定された認識領域、チャンネルボタン及びボリュームボタンを表示し、認識された視線の位置をカーソルで表示する。
制御部は、表示部の領域外部にユーザーの視線が位置すると、インタラクションモードが終了するように制御する。
ディスプレイ装置は、ユーザーの音声及び映像のうち少なくとも一方の情報を収集する収集モジュールをさらに備え、認識部は、収集された音声及び映像のうち少なくとも一方の情報に対応する動作命令を認識し、制御部は、インタラクションモードに進入すると、認識された命令に基づいて複数の機能のうち少なくとも一つの機能を制御する。
さらに他の側面に係るディスプレイ装置の制御方法は、ユーザーの視線を認識し、認識された視線があらかじめ設定された認識領域に位置するか否か判断し、認識された視線があらかじめ設定された認識領域に位置すると、インタラクションモードに進入し、ユーザーとのインタラクションのための複数の認識モードを表示し、表示された複数の認識モードの中から、認識された視線が位置する認識モードを判断し、判断された認識モードを行ってユーザーの命令を認識し、認識された命令に対応する機能を実行する。
ディスプレイ装置の制御方法は、インタラクションモードに進入すると、あらかじめ設定された認識領域を他の表示情報で表示することをさらに含む。
インタラクションモードに進入することは、視線があらかじめ設定された領域を一定時間注視しているか否かを判断することを含む。
判断された認識モードを行ってユーザーの命令を認識することは、判断された認識モードがモーションモードであれば、ユーザーのモーションを認識し、認識されたモーションに対応する命令を判断することを含む。
判断された認識モードを行ってユーザーの命令を認識することは、判断された認識モードが音声モードであれば、ユーザーの音声を認識し、認識された音声に対応する命令を判断することを含む。
ディスプレイ装置の制御方法は、ユーザーの顔を認識し、認識されたユーザーがあらかじめ登録されたユーザーであるか否か判断し、認識されたユーザーがあらかじめ登録されたユーザーであれば、ユーザーの視線を認識することをさらに含む。
ディスプレイ装置の制御方法は、認識された視線があらかじめ設定された終了領域に位置するか否か判断し、認識された視線があらかじめ設定された終了領域に位置すると、インタラクションモードを終了させることをさらに含む。
ディスプレイ装置の制御方法は、あらかじめ設定された領域に視線が位置する状態でモーションが認識されると、認識されたモーションに対応する命令を確認し、確認された命令に対応する機能の実行を制御することをさらに含む。
ディスプレイ装置の制御方法は、あらかじめ設定された領域に視線が位置する状態で音声が認識されると、認識された音声に対応する命令を確認し、確認された命令に対応する機能の実行を制御する。
ディスプレイ装置の制御方法は、外部のリモコンから伝送された音声信号を受信し、受信した音声信号から命令を認識することをさらに含む。
ディスプレイ装置の制御方法は、ユーザーの視線が表示部の領域外部に一定時間以上位置すると、インタラクションモードを終了させることをさらに含む。
ディスプレイ装置の制御方法は、認識された視線の位置をカーソルで表示することをさらに含む。
ディスプレイ装置の制御方法は、認識された視線の位置があらかじめ設定された認識領域の内部と外部を交互に移動すると、インタラクションモードを終了させることをさらに含む。
一側面によれば、ユーザーの視線を追跡してインタラクションモードの進入を行うことによって、インタラクションモードの進入を容易に行うことができ、より直観的にインタラクションを行うことができる。
また、顔認識、音声認識及び視線認識を組み合わせてマルチモーダル(Multi−Modal)インタラクションモードを行うことによって、より拡張されたインタラクションモードを行うことができ、ユーザーの意図した命令を正確に判断でき、これにより正確な機能を実行でき、ユーザーの便宜性を向上させることができる。
また、ディスプレイ装置に視線の位置をカーソルで表示することによって、ユーザー視線の位置を正確に把握することができる。
また、ユーザーの顔又は瞳孔からユーザーを認識し、認識されたユーザーの特徴を考慮して視線、音声、モーションを認識することによって、認識率を向上させることができる。
一実施例に係るディスプレイ装置の例示図である。 一実施例に係るディスプレイ装置における表示例を示す図である。 一実施例に係るディスプレイ装置における表示例を示す図である。 一実施例に係るディスプレイ装置における表示例を示す図である。 一実施例に係るディスプレイ装置における表示例を示す図である。 一実施例に係るディスプレイ装置における表示例を示す図である。 一実施例に係るディスプレイ装置における表示例を示す図である。 一実施例に係るディスプレイ装置の制御構成図である。 一実施例に係るディスプレイ装置の認識部の詳細構成図である。 一実施例に係るディスプレイ装置に表示されたポップアップメニューの例示図である。 一実施例に係るディスプレイ装置の制御フローチャートである。 一実施例に係るディスプレイ装置の制御フローチャートである。 他の実施例に係るディスプレイ装置の制御構成図である。 他の実施例に係るディスプレイ装置の制御フローチャートである。 他の実施例に係るディスプレイ装置における表示例を示す図である。 さらに他の実施例に係るディスプレイ装置の例示図である。 さらに他の実施例に係るディスプレイ装置の制御構成図である。 さらに他の実施例に係るディスプレイ装置の制御フローチャートである。 さらに他の実施例に係るディスプレイ装置における表示例を示す図である。 さらに他の実施例に係るディスプレイ装置における表示例を示す図である。
以下、添付の図面を参照しつつ本開示の実施例について詳細に説明する。
図1は、一実施例に係るディスプレイ装置の例示図であり、該ディスプレイ装置の構成を、図2乃至図4を参照して説明する。
ディスプレイ装置は、テレビ、モニター及び移動通信端末機の表示装置などのように映像を表示する装置である。図1に示すように、ディスプレイ装置1は、映像をディスプレイする本体100と、ユーザーの映像情報及び音声情報を収集するための収集モジュール200と、を備えている。これについてより具体的に説明する。
本体100は、映像を表示する表示部110と、映像が非表示される領域をカバーするベゼル120と、を備えている。
表示部110は、ユーザーにより要請されたメイン映像を表示する表示領域110aと、インタラクションモード進入を可能にする認識領域110bと、インタラクションモード終了を可能にする終了領域110cと、を備えている。
すなわち、認識領域110bは、インタラクションモードに進入しようとする時、ユーザーが視線を置くべき領域であり、終了領域110cは、インタラクションモードを終了しようとする時、ユーザーが視線を置くべき領域である。
表示部110は、ユーザーが識別できるように、認識領域110b及び終了領域110cを表示領域110aと区別付く表示情報で表示する。
例えば、図2A及び図2Bに示すように、表示領域110aに認識領域110b及び終了領域110cを、半透明の色で埋められた図形又は半透明の色で引いた輪郭線で表示してもよく、図2Cに示すように、半透明のアイコンで表示してもよい。
このとき、表示部110は、認識領域110b及び終了領域110cを第1表示領域110aにオーバーラップして表示する。
また、表示領域110aに表示されるメイン映像をユーザが見ることに差し支えのない大きさの不透明なシンボル(図形、輪郭線、アイコンなど)で認識領域110b及び終了領域110cを表示してもよい。
表示部110は、認識領域110b及び終了領域110cを一定の時間間隔で周期的に表示してもよく、駆動初期に認識領域110b及び終了領域110cの位置及びインタラクションモードの利用に関する案内文を表示してもよい。
また、表示部110は、インタラクションモードの進入前後を異なるように表示する。すなわち、表示部110は、認識領域110bについてインタラクションモードの進入前と進入後を異なる表示情報で表示する。
例えば、図3Aに示すように、インタラクションモード進入前では認識領域110bを空の図形のみで表示し、インタラクションモードに進入すれば認識領域110bの空の図形中にアイコンを表示してもよく、又は、図3Bに示すように、インタラクションモード進入前では認識領域110bを第1色の図形で表示し、インタラクションモードに進入すれば認識領域110bを第2色の図形で表示してもよい。
また、表示部110は、認識領域110bのみを表示し、終了領域110cは表示しない状態に維持し、以降、インタラクションモードに進入すると終了領域110cを表示状態に切り替えてもよい。
表示部110は、インタラクションモード進入後にインタラクションモードが進行中であることをユーザーに知らせるために、インタラクションモード進入による表示情報を維持する。
例えば、認識領域110bの図形中のアイコン表示を維持したり、認識領域の図形を第2色に維持したりする。
表示部110は、インタラクションモードに進入すると、ディスプレイ装置の動作及び機能制御時に用いられる複数の認識モードを表示する。
図4に示すように、ユーザーとディスプレイ装置間のインタラクションのための認識モードを表示する。一例として、表示部110は表示領域110aに、モーション認識ボタンa1、音声認識ボタンa2及び視線認識ボタンa3を表示する。この時、表示部110はユーザーの視線をカーソルa4で表示する。
また、表示部110は、ユーザーにより要請されたコンテンツの映像を表示し、且つ、ユーザーにより画面調整情報が変更された場合には、変更された画面調整情報に基づいて映像を表示する。
このような表示部110は、ディスプレイパネル111、拡散板112、導光板113、バックライトユニット114、シャシー115を備えている。
ディスプレイパネル111は、文字、数字、任意のアイコンなどの映像を表示するパネルである。
表示部110は、ディスプレイパネル111を外部の衝撃から保護するためのガラス(図示せず)及びフィルター(図示せず)をさらに備えている。ここで、ガラスは、外部衝撃からフィルターが破損することを防止する。
フィルターは、光特性膜、電磁波(Electro Magnetic Interference:EMI)遮蔽膜及び紫外線遮蔽膜などを備える。
光特性膜は、ディスプレイパネルに入射する光のうち、赤色(R)及び緑色(G)の輝度を下げる一方で青色(B)の輝度を上げることで光特性を改善させ、電磁波遮蔽膜は、電磁波を遮蔽することでディスプレイパネルに入射する電磁波が外部に放出されることを防止する。
また、赤外線遮蔽膜は、ディスプレイパネルから放射される赤外線を遮蔽することで、リモコンなどが赤外線を用いて信号を正常に伝達できるよう、基準以上の赤外線が外部に放出されることを防止する。
拡散板112は、バックライトユニット114から発される光を面に沿って拡散させることで、画面全体として色及び明るさが均一に見えるようにする半透明パネルで、バックライトユニット114から発された光の輝度などを向上させてディスプレイパネルに供給する。すなわち、拡散板112は、バックライトユニット114の発光ダイオード(LED)の光を増大させ、全体面の明るさを均一に維持させる。
導光板113は、バックライトユニット114の光源をディスプレイパネル全体に均一に入射させ、バックライトユニット114は、ディスプレイパネル111の背面又は側面から光を放出する。
すなわち、ディスプレイパネル111は自ら発光しないため、バックライトユニットから放出された光の透過量及び色を調節することによって映像を表示する。
シャシー115は、映像表示及びサウンド出力に必要な駆動モジュール130が接続されるパネルである。
駆動モジュール130の例には、映像表示及びサウンド出力を制御するための各種印刷回路基板、外部機器との接続のためのインターフェース装置、各装置に動作電源を供給する電源装置などがある。
シャシー115は放熱及び強度に優れた金属で作られる。
ベゼル120は、表示部110の映像非表示面をカバーし、表示部110の外観を形成する。
ベゼル120にはさらに、複数のボタンを有する入力部(図示せず)が配置されていてもよい。すなわち、ディスプレイ装置1は、この入力部から動作命令が入力されてもよい。
本体100は、表示部110の非表示面を保護するためのカバー121と、表示部110のディスプレイパネル、拡散板、導光板、バックライトユニット、シャシーなどを離隔させた状態で支持する支持部材(図示せず)をさらに備える。ここで、支持部材及びカバー121はベゼル120と分離可能に結合される。
カバー121はベゼル120との結合時に収容空間を形成し、この収容空間内にはディスプレイパネル、拡散板、導光板、バックライトユニット及びシャシーなどが配置される。
収集モジュール200は、本体100のベゼル120の上端に配置されており、ユーザー及びその周辺の映像及びサウンドを収集し、収集された映像及びサウンドを駆動モジュール130に伝送する。
収集モジュール200は、本体100のベゼル120の上端の他、ユーザーの情報を収集し易い如何なる位置に装着されてもよい。
また、収集モジュール200はディスプレイ装置と個別に備えられてもよい。すなわち、収集モジュール200は本体100から分離可能に設けられ、本体100に設けられたインターフェース装置(図示せず)に連結されることで本体100に接続してもよい。
収集モジュール200についてより詳しく説明する。
収集モジュール(MOIP:Multimedia Over Internet Protocol)200は、ハウジング210と、ハウジング210に装着された映像収集部220であるカメラと、ハウジング210に装着されたサウンド収集部230である第1マイクロフォンと、カメラ及び第1マイクロフォンの駆動を制御し、カメラ及び第1マイクロフォンで収集された映像信号及びサウンド信号を駆動モジュール130に伝達する第1マイコン(図示せず)と、備えている。
ここで、第1マイクロフォンは、複数個のマイクロフォン230a,230bで構成されている。
映像収集部220であるカメラは、ユーザー及びその周辺の映像を収集し、収集された映像のデータを第1マイコンに伝送する。
サウンド収集部230a,230bである第1マイクロフォンは、ユーザーの音声を含む周辺のサウンドを収集し、収集されたサウンドのデータを第1マイコンに伝送する。
第1マイコンは、受信した映像データ及びサウンドデータを駆動モジュール130に伝送する。さらに、第1マイコンは、受信した映像データ及びサウンドデータがメモリー(図示せず)に保存されるようにしてもよい。
収集モジュール200は、イーサネット(登録商標)のような通信部(図示せず)をさらに備えてもよい。このとき、収集モジュール(MOIP)の第1マイコンは、映像信号及びサウンド信号を圧縮し、圧縮されたデータをイーサネット(登録商標)を介して駆動モジュール130に伝送する。
なお、収集モジュールのカメラ220及び第1マイクロフォン230は駆動モジュール130に直接接続しており、映像信号及びサウンド信号を駆動モジュールに直接伝送してもよい。
図5は一実施例に係るディスプレイ装置の制御構成図であり、このディスプレイ装置の構成を、図6乃至図7を参照して説明する。
一実施例に係るディスプレイ装置1は、ユーザーの意図により生成されたインタラクション信号及び入力部(図示せず)の信号のうち少なくとも一方に基づいて動作する。
このディスプレイ装置1は、ユーザーの意図した命令を収集する収集モジュールとして映像収集部220及びサウンド収集部230を備え、動作命令に基づいて動作を制御するための駆動モジュール130を備え、動作実行を出力するための出力モジュールとして表示部110及びサウンド出力部140を備える。
映像収集部220は、駆動モジュール130と電気的に接続しており、駆動モジュール130の命令に応じてユーザーの映像を収集し、収集された映像に関する信号を駆動モジュール130に伝送する。サウンド収集部230は、駆動モジュール130と電気的に接続しており、駆動モジュール130の命令に応じてユーザーの音声を収集し、収集された音声に関する信号を駆動モジュール130に伝送する。
駆動モジュール130は、入力部(図示せず)からの信号に基づいて表示部110及びサウンド出力部140の少なくとも一方の動作を制御する。
また、駆動モジュール130は、映像収集部220及びサウンド収集部230の少なくとも一方で収集された情報に基づいてインタラクションモードの進入及び終了を制御し、インタラクションモード進入後にインタラクションモードを行って表示部110及びサウンド出力部140の少なくとも一方の動作を制御する。
このような駆動モジュール130は、認識部131、データベース部132、ネットワークインターフェース部133、制御部134、保存部135、表示駆動部136及びサウンド駆動部137を備えている。
認識部131は、映像収集部220及びサウンド収集部230の少なくとも一方の収集部で収集された情報の信号を受信し、受信した信号に基づいて、ユーザー認識及びユーザーの意図した動作命令を認識し、認識された動作命令を制御部134に伝送する。これを図6を参照して説明する。
図6は、一実施例に係るディスプレイ装置に設けられた認識部の詳細構成図であり、認識部131は、インタラクションモードへの進入命令を認識するための第1認識部131−1と、機能実行及び動作命令を認識するための第2認識部131−2と、を備えている。
第1認識部131−1は、顔認識部131a及び視線認識部131bを備えている。
顔認識部131aは、映像収集部220から伝送されてきた映像から背景領域を除去してユーザーの顔映像を獲得し、獲得されたユーザーの顔映像からエッジ、色情報を用いて顔領域を抽出し、この顔領域から目、鼻、口などの特徴点を抽出することによって顔を認識し、認識された顔とあらかじめ登録された顔映像とを比較し、認識された顔があらかじめ登録されたユーザーの顔であるか否か判断する。
なお、認識部131は、顔認識時に顔映像をフィルタリングしてノイズを除去し、顔映像の特徴を分析するのに必要な前処理を行う。
視線認識部131bは、ユーザーの顔映像から目映像を検出し、検出された目映像から瞳孔の位置を獲得してユーザーの視線の位置を認識する。
第2認識部131−2は、モーション認識部131c及び音声認識部131dを備えている。
モーション認識部131cは、映像収集部220から伝送されてきた映像から背景領域を除去してユーザーの身体映像を獲得し、獲得されたユーザーの身体映像からエッジ、色情報を用いてユーザーの顔、腕、手、胴、脚及び足の領域を抽出し、抽出された顔、腕、手、胴、脚、足などから特徴点を抽出してユーザーの取ったモーションを認識し、該認識されたモーションとマッチするモーションを、データベース部132に保存されたモーションから検索し、検索されたモーションに対応する動作命令を認識する。
音声認識部131dは、サウンド収集部230から伝送されてきたサウンドからノイズを除去してユーザーの発声した音声を獲得し、ユーザーの発声した音声から特徴ベクトルを抽出し、抽出された特徴ベクトルとデータベース部132に保存された各単語の言語モデル又は音素単位の音響モデルとを比較することで候補単語又は候補音素を抽出し、候補単語又は候補音素に基づいて文章を認識し、該認識された文章とマッチする文章を、データベース部132に保存された文章から検索し、検索された文章に対応する動作命令を認識する。
なお、音声認識部131dは候補単語又は候補音素から動作命令を認識してもよい。
また、音声認識部131dは、音声の特徴的情報を用いてユーザーを認識してもよい。
データベース部132は、あらかじめ登録されたユーザーの顔映像、顔映像の特徴点情報及び瞳孔情報を保存し、モーション別動作命令及び音声別動作命令を保存する。ここで、瞳孔情報としては、瞳孔の大きさ、瞳孔の位置及び瞳孔間の距離情報を含み、このような瞳孔情報に基づいてユーザーが認識されてもよい。
なお、データベース部132は、ユーザーが複数である場合に、ユーザー別にモーションに対応する動作命令をそれぞれ保存し、且つユーザー別に音声に対応する動作命令をそれぞれ保存してもよい。
ネットワークインターフェース部133は、IPアドレスの割り当てを受けてネットワーク通信を行い、ネットワークを介して外部からデータパケットを受信して処理し、データパケットが映像、サウンドなどのマルチメディアデータである場合には保存や再生され得るように制御部に伝送する。
例えば、ネットワークインターフェース部133は放送、ゲーム、VOD、放送信号などのコンテンツ及びその関連情報を受信する。また、ネットワークインターフェース部133はファームウェアのアップデート情報及びアップデートファイルを受信することもある。
なお、ディスプレイ装置は、入力インターフェース部をさらに備えてもよい。このとき、入力インターフェース部は、USBのような外部記憶装置やDVD、CDのような光ディスク装置と接続してマルチメディアデータを受信し、受信したマルチメディアデータを制御部に伝送すればよい。
制御部134は、ディスプレイ装置1に電源が印加されたり、入力部(図示せず)のボタン入力によりインタラクションモードが要請されたりする場合に、映像収集部220及びサウンド収集部230に動作命令を伝送する。
制御部134は、認識部131で認識されたユーザーの登録有無によってインタラクションモードに進入するか否かを決定し、認識部131で認識されたユーザーが複数であれば、複数のユーザーの中から、優先順位の最も高いユーザーを確認し、確認されたユーザーの視線の位置に基づいてインタラクションモードの進入を制御する。
また、制御部134は、ユーザーが複数である場合に、認識領域に位置する視線が存在するか否か判断し、認識領域に位置する視線が存在すると、認識領域を注視しているユーザーの視線に基づいてインタラクションモードの進入を制御してもよい。
制御部134は、認識部131から伝送された視線の位置に基づいてユーザーの注視している位置を判断する。この時、制御部134は、ユーザーの視線が認識領域に一定時間以上位置するか否か判断し、ユーザーの視線が認識領域に一定時間以上位置するとインタラクションモードに進入するように制御する。
制御部134は、インタラクションモードに進入すると、表示部110の認識領域の表示情報をインタラクションモード進入前とは異なる表示情報に変更するように制御する。
制御部134は、インタラクションモードに進入すると、インタラクションにより動作命令を入力してもらうための複数の認識モードが表示されるように制御し、この時、認識部131から伝送された視線の位置とあらかじめ保存された複数の認識モードボタンの位置とをそれぞれ比較することで、ユーザーの選択しようとする認識モードを判断し、判断された認識モードに基づいて映像収集部220及びサウンド収集部230の動作がオン/オフになるように制御する。
例えば、制御部134は、複数の認識モードのうち音声認識モードが選択された場合に、サウンド収集部230の動作をオンにさせ、映像収集部220の動作はオフにさせる。複数の認識モードのうち、視線認識モードやモーション認識モードが選択された場合には、サウンド収集部230の動作をオフにさせ、映像収集部220の動作はオンにさせる。
ここで、動作命令としては、表示やサウンドなどの出力情報の変更及び機能の変更などを含む。
制御部134は、認識部131から伝送された動作命令に基づいて各駆動部136,137の駆動を制御する。
制御部134は、終了領域に視線が一定時間以上位置するとインタラクションモードを終了させる。
制御部134は、終了領域に視線が一定時間以上位置すると、ポップアップメニューが表示されるように制御してもよい。図7に示すように、ポップアップメニューP1は、優先順位変更ボタン、ボリューム調整ボタン、画面調整ボタン及び終了ボタンなどを有する。
なお、制御部134は、認識モード実行中に認識領域を注視すると、それをユーザーの認識モード変更要求と判断し、複数の認識モードボタンが再表示されるように制御してもよい。
制御部134は、ユーザーにより要請されたメイン映像信号の表示及びサウンド信号の出力がなされるように制御し、映像及びサウンドの出力中にインタラクションモードに対応する映像がメイン映像にオーバーラップして表示されるように制御する。
保存部135は、あらかじめ登録された複数のユーザーの優先順位を保存し、認識領域と終了領域の位置を保存し、インタラクションモード進入前、インタラクションモード進入、インタラクションモード実行にそれぞれ対応する認識領域の表示情報を保存し、複数の認識モードボタンの位置情報を保存する。
表示駆動部136は、制御部134の命令に基づいて表示部110を駆動させ、サウンド駆動部137は、制御部134の命令に基づいてサウンド出力部140を駆動させる。
出力モジュールである表示部110は、駆動モジュール130内の制御部134の命令に基づいて表示領域に映像を表示し、インタラクションモード実行に対応する映像を表示する。
出力モジュールであるサウンド出力部140は、駆動モジュール130内の制御部134の命令に基づいてサウンドを出力する。ここで、サウンド出力部140はディスプレイ装置1から分離可能にしてもよい。
すなわち、サウンド出力部140はスピーカーなどであり、ディスプレイ装置1とは個別に設けられ、ユーザーの選択によってディスプレイ装置1に接続されるものであってもよい。
図8A及び図8Bは、一実施例に係るディスプレイ装置の制御フローチャートであり、このディスプレイ装置の制御を、図1乃至図7を参照して説明する。
ディスプレイ装置は、ユーザーにより電源が印加されると、映像収集部220を動作させて映像を収集する(301)。
続いて、ディスプレイ装置は、収集された映像から背景領域を除去してユーザーの映像を獲得し、獲得された映像からエッジ情報及び色情報を用いて顔領域を抽出し、この顔領域から目、鼻、口などの特徴点を抽出して顔を認識する(302)。
続いて、ディスプレイ装置は、認識された顔の数に基づいて、認識されたユーザーの数を確認し(303)、確認されたユーザーの数が複数であるか否か判断する(304)。
この時、確認されたユーザーの数が単数であれば、認識された顔とあらかじめ登録されたユーザーの顔映像とを比較し、認識された顔のユーザーがあらかじめ登録されたユーザーであるか否か判断し(305)、認識された顔のユーザーがあらかじめ登録されたユーザーでないと、インタラクションモードの実行が不可能であることを表示部110を用いて表示し(306)、認識された顔のユーザーがあらかじめ登録されたユーザーであると、認識された顔の瞳孔を認識して視線を追跡する(310)。
一方、ディスプレイ装置は、認識されたユーザーの数が複数であれば、認識された複数の顔とあらかじめ登録されたユーザーの顔映像をそれぞれ比較し、認識された複数のユーザーの中からあらかじめ登録されたユーザーを確認し、あらかじめ登録されたユーザーとして判断されたユーザーの数を確認し(307)、確認された数が複数であるか否か判断する(308)。
ディスプレイ装置は、あらかじめ登録されたユーザーとして複数のユーザーが認識されたと判断されると、認識された複数のユーザーの中から、優先順位の最も高いユーザーを判断し(309)、判断されたユーザーの瞳孔を認識して視線を追跡する(310)。
次に、ディスプレイ装置は、認識された視線が認識領域に位置するか否か判断し(311)、認識された視線が認識領域に位置していると判断されると、認識された視線が認識領域をあらかじめ設定された一定時間以上注視しているか否か判断する。
続いて、ディスプレイ装置は、認識された視線が認識領域をあらかじめ設定された一定時間以上注視していると判断されると、インタラクションモードに進入し(312)、インタラクションモードに進入することをユーザーが認識できるように、表示部110内の認識領域の表示情報を変更して表示する(313)。
例えば、図3に示すように、認識領域110b内にアイコンを表示したり、認識領域110bの色を変更したりする。
次に、ディスプレイ装置は、動作命令を入力してもらうための複数の認識モードを表示し、ユーザーの視線の位置を確認した後(314)、確認された視線の位置に基づいて、ユーザーにより選択された認識モードを判断する(315)。
すなわち、ディスプレイ装置は、複数の認識モードボタンの位置の中から、確認された視線の位置とマッチする位置を判断することによって、ユーザーにより選択された認識モードを判断する。
この時、ディスプレイ装置は、ユーザーが視線の位置を確認できるように、表示部にユーザーの視線の位置をカーソルで実時間表示する。
次に、ディスプレイ装置は、判断された認識モードを実行し(316)、認識モード実行による認識結果に基づいて動作命令を認識し、認識された動作命令に基づいて各駆動部を動作させる(317)。
各認識モードの選択によって動作命令を認識する構成についてより具体的に説明すると、下記の通りである。
(1)ディスプレイ装置は、ユーザーによりモーション認識が選択された場合に、映像収集部の動作を維持させ、映像収集部で収集された映像から背景領域を除去してユーザーの身体映像を獲得し、獲得されたユーザーの身体映像からエッジ、色情報を用いてユーザーの顔、腕、手、胴、脚及び足の領域を抽出し、抽出された顔、腕、手、胴、脚、足などから特徴点を抽出することで、ユーザーの取ったモーションを認識し、該認識されたモーションとマッチするモーションをデータベース部132に保存されたモーションから検索し、検索されたモーションに対応する動作命令を認識する。
次に、ディスプレイ装置は、認識された動作命令に基づいて各駆動部136,137を駆動させることによって、ユーザーの要求したコンテンツの映像が表示部110に表示されるようにし、且つユーザーの要求したコンテンツのサウンドがサウンド出力部140から出力されるようにする。
(2)ディスプレイ装置は、ユーザーにより音声認識が選択された場合に、サウンド収集部を動作させ、サウンド収集部230で収集されたサウンドからノイズを除去してユーザーの発声した音声を獲得し、ユーザーの発声した音声から特徴ベクトルを抽出し、抽出された特徴ベクトルとデータベース部132に保存された各単語の言語モデル又は音素単位の音響モデルとを比較することで候補単語又は候補音素を抽出し、候補単語又は候補音素に基づいて文章を認識し、該認識された文章とマッチする文章を、データベース部132に保存された文章から検索し、検索された文章に対応する動作命令を認識する。
次に、ディスプレイ装置は、認識された動作命令に基づいて各駆動部136,137を駆動させることによって、ユーザーの要求したコンテンツの映像が表示部110に表示されるようにし、且つユーザーの要求したコンテンツのサウンドがサウンド出力部140から出力されるようにする。
(3)ディスプレイ装置は、ユーザーにより視線認識が選択された場合に、映像収集部の動作を維持させ、表示部110にポップアップメニューを表示し、映像収集部220で収集された映像を用いてユーザーの顔及び瞳孔を認識し、認識された瞳孔に基づいて視線を追跡し、追跡された視線の位置を確認することによって、ポップアップメニューのうちユーザーにより選択されたメニューに対応する動作を行う。
ここで、ポップアップメニューは複数のメニューを有し、各メニューは動作命令ボタンを有する。
すなわち、ディスプレイ装置は、ポップアップメニューにおける複数の動作命令ボタンの位置の中から、ユーザーの視線の位置とマッチする位置のボタンを確認し、確認されたボタンに対応する動作を行う。
例えば、図7に示すように、優先順位変更ボタン、ボリューム調整ボタン、画面調整ボタン及び終了ボタンを有しているポップアップメニューP1が表示された場合に、視線の位置がボリューム調整ボタンであれば、表示部110にボリューム調整のためのアップ/ダウンボタンを表示する。この時、ユーザーの視線がボリュームアップボタン上に位置するとボリュームをアップさせ、ボリュームダウンボタン上に位置するとボリュームをダウンさせる。
なお、視線認識を用いたメニューの選択は、目の瞬き、視線がボタンに位置する時間、又はその他ユーザーの目による動きに基づいて判断すればよい。
ディスプレイ装置は、ネットワークインターフェース部133又は入力インターフェース部を介して受信したコンテンツなどを表示部に表示させる。この時、ディスプレイ装置は、ユーザーにより要請されたメイン映像信号の表示及びサウンド信号の出力がなされるように制御し、且つ映像及びサウンド出力中に、インタラクションモードによる映像がメイン映像にオーバーラップして表示されるように制御する。
次に、ディスプレイ装置は、表示部110の終了領域に視線が一定時間以上位置するとインタラクションモードを終了し、以降、ユーザーの視線が認識領域に再び位置すると、ユーザーが認識モード変更を要求するものと判断し、複数の認識モードボタンを再表示する。
また、ディスプレイ装置は、表示部110の外部に視線が一定時間以上位置するとインタラクションモードを終了させてもよい。
図9は、他の実施例に係るディスプレイ装置の構成図であり、この実施例において、ディスプレイ装置1は、ユーザーの命令を入力してもらうための収集モジュールとして映像収集部220及びサウンド収集部230を備え、動作命令に基づいて動作を制御するための駆動モジュール150を備え、動作実行を出力するための出力モジュールとして表示部110及びサウンド出力部140を備えている。
ここで、映像収集部220、サウンド収集部230、表示部110及びサウンド出力部140は、上記の一実施例におけると同一であり、その説明を省略する。
駆動モジュール150は、認識部151、データベース部152、ネットワークインターフェース部153、制御部154、保存部155、表示駆動部156及びサウンド駆動部157を備えている。
認識部151は、映像収集部220及びサウンド収集部230の少なくとも一方で収集された情報の信号を受信し、受信した信号に基づいてユーザー認識及びユーザーの意図した動作命令を認識し、認識された動作命令を制御部154に伝送する。
認識部151は、モーションを取ったユーザーと認識領域を注視しているユーザーとが同一のユーザーであるか判断し、同一のユーザーと判断されると、視線が認識領域に位置する状態で認識されたモーションに対応する動作命令を認識する。
また、認識部151は、音声を発声したユーザーと認識領域を注視しているユーザーとが同一のユーザーであるか判断し、同一のユーザーと判断されると、視線が認識領域に位置する状態で認識された音声に対応する動作命令を認識する。
このような認識部151は、ユーザーの顔及び視線を認識するための第1認識部と、機能実行及びユーザーの動作命令を認識するための第2認識部と、を備え、第1認識部及び第2認識部は、一実施例の第1認識部131−1及び第2認識部131−2と同一であり、その説明を省略する。
データベース部152は、ユーザーの顔映像と瞳孔情報とをマッチングさせて保存し、且つユーザーの音声情報と瞳孔情報とをマッチングさせて保存する。
その他のデータベース部152の構成及びネットワークインターフェース部153の構成は、上記の一実施例におけるデータベース部132及びネットワークインターフェース部133と同一であり、その説明を省略する。
制御部154は、ディスプレイ装置1に電源が印加されたり、入力部(図示せず)のボタン入力によりインタラクションモードが要請されたりする場合に、映像収集部220及びサウンド収集部230に動作命令を伝送する。
制御部154は、認識部151で認識されたユーザーの登録有無によってインタラクションモードに進入するか否かを決定し、認識部151で認識されたユーザーが複数であれば、複数のユーザーの中から、優先順位の最も高いユーザーを確認し、確認されたユーザーの視線の位置に基づいてインタラクションモードの進入を制御する。
制御部154は、ユーザーの視線が認識領域に一定時間以上位置するか否か判断し、ユーザーの視線が認識領域に一定時間以上位置すると、インタラクションモードに進入するように制御する。
制御部154は、インタラクションモードに進入すると、ユーザーに命令を入力してもらうための複数の認識モードが表示されるように制御し、この時、認識部151で伝送された視線の位置とあらかじめ保存された複数の認識モードボタンの位置とをそれぞれ比較することでユーザーの選択しようとする認識モードを判断し、判断された認識モードに基づいて映像収集部220及びサウンド収集部230の動作をオン/オフになるように制御する。
ここで、複数の認識モードは、モーション認識及び音声認識を含む。
制御部154は、モーション認識が選択されると、視線認識及びモーション認識を組み合わせた第1マルチモーダルモード(Multi−Modal Mode)に対応する動作命令を受信し、音声認識が選択されると、視線認識及び音声認識を組み合わせた第2マルチモーダルモードに対応する動作命令を受信する。
制御部154は動作命令に基づいて各駆動部156,157の駆動を制御する。
制御部154は、終了領域に視線が一定時間以上位置するとインタラクションモードが終了するように制御する。
制御部154は、ユーザーにより要請されたメイン映像信号の表示及びサウンド信号の出力がなされるように制御する。
保存部155は、あらかじめ登録された複数ユーザーの優先順位を保存し、認識領域と終了領域の位置を保存し、インタラクションモード進入前、インタラクションモード進入、インタラクションモード実行にそれぞれ対応する認識領域の表示情報を保存し、複数の認識モードボタンの位置情報を保存する。
表示駆動部156及びサウンド駆動部157は、上記の一実施例における表示駆動部及びサウンド駆動部と同一であり、その説明を省略する。
図10は、他の実施例に係るディスプレイ装置の制御フローチャートであり、このディスプレイ装置の制御を、図9及び図11を参照して説明する。
ディスプレイ装置は、ユーザーにより電源が印加されると、映像収集部220を動作させて映像を収集し、収集された映像に基づいて顔を認識し、認識された顔に基づいて、認識されたユーザーの数を確認する。
次に、ディスプレイ装置は、確認されたユーザーの数が複数であるか否か判断し、認識された複数のユーザーの中から、あらかじめ登録されたユーザーを判断し、認識された複数のユーザーのうち、あらかじめ登録されたユーザーの数が複数であるか否か判断する。
次に、ディスプレイ装置は、認識された複数のユーザーのうち、あらかじめ登録されたユーザーの数が複数であれば、認識された複数のユーザーの中から、優先順位の最も高いユーザーを判断し、判断されたユーザーの瞳孔を認識して視線を認識する。
続いて、ディスプレイ装置は、認識された視線が認識領域に位置するか否か判断し、認識された視線が認識領域に位置していると判断されると、認識された視線が認識領域をあらかじめ設定された一定時間以上注視しているか否か判断し、この時、認識された視線が認識領域をあらかじめ設定された一定時間以上注視していると判断されると、インタラクションモードに進入し(401)、インタラクションモードに進入されることをユーザーが認識できるように、表示部110内の認識領域の表示情報を変更して表示する(402)。
以上の過程は上記の一実施例におけると同一である。
次に、ディスプレイ装置は、動作命令を入力してもらうための複数の認識モードを表示し、ユーザーの視線の位置を確認した後(403)、確認された視線の位置に基づいてユーザーにより選択された認識モードを判断する(404)。
すなわち、ディスプレイ装置は、複数の認識モードボタンの位置の中から、確認された視線の位置とマッチする位置を判断することによって、ユーザーにより選択された認識モードを判断する。
この時、ディスプレイ装置は、ユーザーが視線の位置を確認できるように、表示部110にユーザーの視線の位置をカーソルで実時間表示する。
次に、ディスプレイ装置は、判断された認識モード及び視線認識モードを組み合わせたマルチモーダルモードを実行し(405)、マルチモーダルモード実行による認識結果に基づいて動作命令を認識し、認識された動作命令に基づいて各駆動部を動作させる(406)。
この時、ディスプレイ装置は、モーション認識及び視線認識モードを組み合わせた第1マルチモーダルモードを行う前に、モーションを取るユーザーと認識領域を注視するユーザーとが同一人であるか否か判断し、同一人として判断されると、第1マルチモーダルモードに基づいてインタラクションモードを行い、同一人でないと判断されると、インタラクションモードの実行が不可能であることを表示するように構成されてもよい。
また、ディスプレイ装置は、音声認識及び視線認識モードを組み合わせた第2マルチモーダルモードを行う前に、音声を発声したユーザーと認識領域を注視するユーザーとが同一人であるか否か判断し、同一人として判断されると、第2マルチモーダルモードに基づいてインタラクションモードを行い、同一人でないと判断されれると、インタラクションモードの実行が不可能であることを表示するように構成されてもよい。
マルチモーダルモードによって動作命令を認識する構成をより具体的に説明すると、下記の通りである。
(1)ディスプレイ装置は、ユーザーによりモーション認識が選択された場合に、モーション認識モード及び視線認識モードを組み合わせた第1マルチモーダルモードを行う。この時、映像収集部220の動作を維持させ、認識領域に視線が位置するか否か判断し、認識領域に視線が位置していると判断されると、認識領域に視線が位置している状態でユーザーの取ったモーションを認識し、認識されたモーションに対応する動作命令を認識する。
すなわち、映像収集部220で収集された映像から背景領域を除去してユーザーの身体映像を獲得し、獲得されたユーザーの身体映像からエッジ、色情報を用いてユーザーの顔、腕、手、胴、脚及び足の領域を抽出し、抽出された顔、腕、手、胴、脚、足などから特徴点を抽出してユーザーの取ったモーションを認識し、認識されたモーションとマッチするモーションを、データベース部152に保存されたモーションから検索し、検索されたモーションに対応する動作命令を認識する。
次に、ディスプレイ装置は、認識された動作命令に基づいて各駆動部156,157を駆動させることによって、ユーザーの要求したコンテンツの映像をが表示部110に表示されるようにし、且つユーザーの要求したコンテンツのサウンドがサウンド出力部140から出力されるようにする。
その例を、図11を参照して説明する。
図11に示すように、ディスプレイ装置は、表示部の表示領域110aに複数の機能を表示した状態で第1マルチモーダルモードが実行中であれば、映像収集部を用いてユーザーの視線及びモーションを認識する。
ユーザーが認識領域110bを注視し、同時に一本の指を伸ばしたモーションを取ったとすれば、ディスプレイ装置は、認識領域に位置する視線を認識すると同時に、一本の指を伸ばしたモーションを認識し、一本の指を伸ばしたモーションに対応する動作命令を認識する。
このとき、一本の指を伸ばしたモーションに対応する動作命令が「検索」であれば、ネットワークインターフェース部を介してインターネットに接続し、検索を可能にする。
(2)ディスプレイ装置は、ユーザーにより音声認識が選択された場合に、音声認識モード及び視線認識モードを組み合わせた第2マルチモーダルモードを行う。この時、サウンド収集部230を動作させ、認識領域に視線が位置するか否かを判断し、認識領域に視線が位置していると判断されると、認識領域に視線が位置している状態でユーザーの発声した音声を認識し、認識された音声に対応する動作命令を認識する。
すなわち、サウンド収集部230を動作させ、サウンド収集部230で収集されたサウンドからノイズを除去してユーザーの発声した音声を獲得し、ユーザーの発声した音声から特徴ベクトルを抽出し、抽出された特徴ベクトルとデータベース部152に保存された各単語の言語モデル又は音素単位の音響モデルとを比較することで候補単語又は候補音素を抽出し、候補単語又は候補音素に基づいて文章を認識し、該認識された文章とマッチする文章を、データベース部152に保存された文章から検索し、検索された文章に対応する動作命令を認識する。
続いて、ディスプレイ装置は、認識された動作命令に基づいて各駆動部156,157を駆動させることによって、ユーザーの要求したコンテンツの映像が表示部110に表示されるようにし、且つユーザーの要求したコンテンツのサウンドがサウンド出力部140から出力されるようにする。
その例を、図11を参照して説明する。
図11に示すように、ディスプレイ装置は、表示部の表示領域110aに複数の機能を表示した状態で第2マルチモーダルモードが実行中であれば、映像収集部及びサウンド収集部を用いてユーザーの視線及び音声を認識する。
ユーザーが認識領域110bを注視し、同時に「サン」を発声したとすれば、ディスプレイ装置は、認識領域に位置する視線を認識すると同時に、音声「サン」を認識し、音声「サン」に対応する動作命令を認識する。
このとき、音声「サン」に対応する動作命令が「映画」であれば、ネットワークインターフェース部を介してダウンロードした映画や、別個の記憶装置に記憶された映画を再生したり、映画に関する下位目録を表示したりする。
ディスプレイ装置は、表示部にメイン映像表示中にインタラクションモードが実行されると、インタラクションモードに対応する映像をメイン映像にオーバーラップして表示する。
次に、ディスプレイ装置は、表示部110の終了領域に視線が一定時間以上位置すると、インタラクションモードを終了し、以降、ユーザーの視線が認識領域に再び位置すると、ユーザーのインタラクションモードの進入を再び行い、これを表示部に再び表示する。
図12は、さらに他の実施例に係るディスプレイ装置の例示図である。さらに他の実施例に係るディスプレイ装置としてテレビを取り上げて説明する。
さらに他の実施例に係るディスプレイ装置であるテレビは、映像をディスプレイする本体100、本体100の下端に装着されて本体100を下側で支持するスタンド160、及びユーザーに命令を入力してもらうためのリモコン170を備えている。
ここで、スタンド160は、分離可能に本体100に結合されている。また、ディスプレイ装置であるテレビは、ブラケットなどをさらに備え、このブラケットを介して本体100が壁に据え付けられるように構成されてもよい。このとき、スタンドは省かれてもよい。
本体100は、映像を表示する表示部110と、映像が非表示される領域をカバーするベゼル120と、を備えている。このような本体100の構成は上記の一実施例と同一であり、その説明を省略する。
本体100は、テレビの動作命令を入力してもらうための、複数のボタンを持つ入力部(図示せず)をさらに備えてもよい。
収集モジュール200は、本体100のベゼル120の上側に配置されており、ユーザー及びその周辺の映像及びサウンドを獲得し、獲得された映像及びサウンドを駆動モジュールに伝送する。
収集モジュール200は、本体100のベゼル120の上端の他、ユーザーの情報を収集しやすい如何なる位置に装着されてもよい。
また、収集モジュール200はテレビと個別に備えられてもよい。すなわち、収集モジュール200は本体100から分離可能に設けられ、本体100に設けられたインターフェース装置(図示せず)に連結されることで本体100に接続してもよい。
このような収集モジュール200は、上記の一実施例と同一であり、その説明を省略する。
リモコン170は、ユーザーの便宜のために、テレビを遠隔で制御するための装置である。
テレビを遠隔調整するリモコンは、多数の機能選択ボタン、数字ボタン、電源オン/オフボタン、チャンネル切替ボタン及びボリューム調節ボタンなどを含む複数のボタン171と、ユーザーの音声信号を収集する第2マイクロフォン172と、複数のボタン171の信号及び音声信号を取り込んで動作信号を生成する第2マイコン(図示せず)と、第2マイコンで生成された動作信号を送信する通信部173と、第2マイクロフォン、複数のボタン、マイコン及び通信部に駆動電源を供給するバッテリーと、を備えている。
ここで、第2サウンド収集部172は常に動作状態を維持する。
このようなリモコン170は、テレビを視聴するユーザーの操作に対応して、チャンネル切替信号をテレビに伝送したり、ボリューム調節信号などの動作信号をテレビに伝送したりする。これにより、ユーザーはテレビの各種機能を便利に調整することができる。
なお、放送視聴及びインターネット可能なディスプレイ装置を制御するためのリモコンは、放送視聴を制御するためのボタンの他にも、インターネット機能を選択及び制御するための複数のボタンを有する。
図13は、さらに他の実施例に係るディスプレイ装置であるテレビの制御構成図である。
さらに他の実施例に係るディスプレイ装置であるテレビは、ユーザーの命令を収集して生成されたインタラクション情報、本体100に設けられた入力部(図示せず)からの信号、又はリモコン170からの信号に基づいて動作する。
このテレビは、ユーザーの命令を収集する収集モジュールとして映像収集部220及びサウンド収集部230を備え、ユーザーの命令に基づいて動作を制御するための駆動モジュール180を備え、動作実行を出力するための出力モジュールとして表示部110及びサウンド出力部140を備えている。
ここで、駆動モジュール180は、入力部(図示せず)からの信号又はリモコン170からの信号に基づいて、表示部110及びサウンド出力部140の少なくとも一方の動作を制御する。
すなわち、駆動モジュール180は、映像収集部220及びサウンド収集部230の少なくとも一方の収集部で収集された情報に基づいて、インタラクションモードの進入及び終了を制御し、インタラクションモード進入後にインタラクションモードを行い、表示部110及びサウンド出力部140の少なくとも一方の動作を制御する。
このようなテレビの駆動モジュール180は、放送部181、インターフェース部182、認識部183、データベース部184、受信部185、制御部186、保存部187及び駆動部188を備えている。
放送部181は、チューナー部181a及び信号処理部181bを備えている。
チューナー部181aは、制御部186のチューニング制御信号に応じて対応の周波数帯域を持つ放送信号を放送局又は衛星から有線又は無線で受信してチューニングする。
信号処理部181bは、放送信号を、映像データを持つ映像信号と、サウンドデータを持つサウンド信号と、付加データを持つ付加信号とに分離し、分離された映像データの信号及びサウンドデータの信号をそれぞれ信号処理し、付加データをGUI生成部(図示せず)に伝送する。ここで、付加データはEPG(Electronic Program Guide)を含む。
信号処理部181bは、ネットワークインターフェース部182bから伝送された信号を、映像データを持つ映像信号と、サウンドデータを持つサウンド信号とに分離し、分離された映像信号及びサウンド信号をそれぞれ信号処理してもよい。
インターフェース部182は、入力インターフェース部182a及びネットワークインターフェース部182bを備えている。
入力インターフェース部182aは、収集モジュール200が接続され、収集モジュール200で収集された映像信号及びサウンド信号を受信して認識部183に伝送する。
ネットワークインターフェース部182bは、IPアドレスの割り当てを受けてネットワーク通信を行い、ネットワークを介して外部から伝送されたデータパケットを受信して処理し、データパケットが映像、サウンドなどのマルチメディアデータである場合には保存や再生され得るように制御部186に伝送する。
認識部183は、ユーザーの顔及び瞳孔を認識した後、認識された瞳孔の情報に基づいてユーザーの視線を認識し、ユーザーの命令を認識する。
認識部183は、受信部185から伝送されたサウンド信号からユーザーの音声を認識し、認識された音声に対応する動作命令を認識する。
その他の認識部183の構成は、上記の一実施例と同一であり、その説明を省略する。
データベース部184は、上記の一実施例と同一であり、その説明を省略する。
受信部185は、リモコン170に設けられた複数のボタン171のうちいずれかのボタン信号、及びリモコン170に設けられた第2サウンド収集部172のサウンド信号を受信する。
受信部185は、受信したリモコンのボタン信号及びサウンド信号を認識部183及び制御部183に伝送する。
制御部186は、信号処理部181bで信号処理された映像データが表示部110に表示されるように制御し、信号処理されたサウンドがサウンド出力部140から出力されるように制御する。
制御部186は、リモコン170から伝達されるボタン信号に基づいてユーザー命令を判断し、判断されたユーザー命令に応じて表示部110の駆動を制御し、リモコン170からインターネット機能実行要請信号を受信すると、ネットワークインターフェース部を制御しインターネット接続されるようにし、認識領域にユーザーの視線が位置すると、収集モジュールの駆動を制御してインタラクションモードが実行されるようにする。
インタラクションモード進入、インタラクションモード実行を制御する制御部186の構成は、上記の一実施例と同一であり、その説明を省略する。
保存部187は、上記の一実施例と同一であり、その説明を省略する。
駆動部188は、表示駆動部188a及びサウンド駆動部188bを備えている。ここで、表示駆動部188a及びサウンド駆動部188bは上記の一実施例と同一であり、その説明を省略する。
図14は、さらに他の実施例に係るディスプレイ装置であるテレビの制御フローチャートである。
まず、テレビは、電源が印加されると、映像収集部220を動作させて映像を収集し、収集された映像に基づいて顔を認識し、認識された顔に基づいてユーザーの瞳孔を認識し、瞳孔の位置に対応する視線を認識する(501)。
次いで、テレビは、認識された視線が認識領域に位置するか否か判断し(502)、認識された視線が認識領域に位置していると判断されると、認識された視線が認識領域をあらかじめ設定された一定時間以上注視しているか否か判断し(503)、この時、認識された視線が認識領域をあらかじめ設定された一定時間以上注視していると判断されると、インタラクションモードに進入し(504)、図10の動作402と同様、インタラクションモードに進入することをユーザーが認識できるように、表示部110内の認識領域の表示情報を変更して表示する。
以上の過程は、上記の一実施例と同一である。
次に、テレビは、動作命令を入力してもらうための複数の認識モードを表示し(505)、ユーザーの視線の位置を確認した後、確認された視線の位置に基づいて、ユーザーにより選択された認識モードを判断する(506)。
すなわち、テレビは、複数の認識モードボタンの位置の中から、確認された視線の位置とマッチする位置を判断することによって、ユーザーの選択した認識モードを判断する。
この時、テレビは、ユーザーが視線の位置を確認できるように、表示部110にユーザーの視線の位置をカーソルで実時間表示する。
続いて、テレビは、判断された認識モードを実行し(507)、認識モード実行による認識結果に基づいて動作命令を認識し、認識された動作命令に基づいて各駆動部を動作させる(508)。
各認識モードの選択によって動作命令を認識する構成についてより具体的に説明する。
(1)テレビは、ユーザーによりモーション認識が選択された場合に、ユーザーの取ったモーションを認識し、データベース部184に保存されたモーションの中から、認識されたモーションとマッチするモーションを検索し、検索されたモーションに対応する動作命令を認識する。
続いて、テレビは、認識された動作命令に基づいて駆動部188を駆動させることによって、ユーザーの要求した放送又はコンテンツの映像が表示部110に表示されるようにし、且つユーザーの要求した放送又はコンテンツのサウンドがサウンド出力部140から出力されるようにする。
(2)テレビは、ユーザーにより音声認識が選択された場合に、第1サウンド収集部230を動作させ、第1サウンド収集部230又は第2サウンド収集部172で収集されたサウンド内の音声による文章を認識し、認識された文章とマッチする文章を、データベース部184に保存された文章から検索し、検索された文章に対応する動作命令を認識する。
次いで、テレビは、認識された動作命令に基づいて駆動部188を駆動させることによって、ユーザーの要求した放送又はコンテンツの映像が表示部110に表示されるようにし、且つユーザーの要求した放送又はコンテンツのサウンドがサウンド出力部140から出力されるようにする。
(3)テレビは、ユーザーにより視線認識が選択された場合に、映像収集部の動作を維持させ、表示部110にポップアップメニューを表示し、映像収集部220で収集された映像を用いてユーザーの顔及び瞳孔を認識し、認識された瞳孔に基づいて視線を追跡し、追跡された視線の位置を確認することによって、ポップアップメニューのうち、ユーザーにより選択されたメニューに対応する動作を行う。
ここで、ポップアップメニューは複数のメニューを有し、各メニューは、動作命令ボタンを有する。
すなわち、テレビは、ポップアップメニュー内の複数の動作命令ボタンの位置の中から、ユーザーの視線の位置とマッチする位置を有するボタンを確認し、確認されたボタンに対応する動作を行う。これを、図15及び図16を参照して説明する。
図15に示すように、表示部110に、機能変更ボタン、チャンネル/ボリューム調整ボタン、認識モード変更ボタン、画面調整ボタン及び終了ボタンを有しているポップアップメニューP2が表示された場合に、各ボタンの位置の中から、視線の位置とマッチする位置を有するボタンを判断する。ここで、機能としては、放送機能、インターネット機能、外部機器との通信機能などを含む。
視線の位置がチャンネル/ボリューム調整ボタンの位置であれば、図16に示すように、表示部110に、ボリューム調整のためのボリュームアップ/ダウンボタンa5、チャンネル調整のためのチャンネルアップ/ダウンボタンa6、及び視線の位置を表すカーソルa4を表示する。
続いて、テレビは、ユーザーの視線の位置とボリュームアップ/ダウンボタンa5又はチャンネルアップ/ダウンボタンa6の位置とを比較し、チャンネル又はボリュームをアップさせたりダウンさせたりする。
なお、視線認識を用いたボタンの選択は、目の瞬き、又は視線がボタンに位置する時間に基づいて判断すればよい。
この時、テレビは、表示部に表示されるメイン映像に視線認識のためのボタンをオーバーラップして表示する。
次に、テレビは、表示部110の終了領域に視線が一定時間以上位置するとインタラクションモードを終了し、以降、ユーザーの視線が認識領域に再び位置すると、をユーザーの認識モード変更要求と判断し、複数の認識モードボタンを再表示する。
さらに、テレビは、表示部110の外部に視線が一定時間以上位置するとインタラクションモードを終了させてもよい。
100 本体
110 表示部
120 ベゼル
130,150,180 駆動モジュール
200 収集モジュール

Claims (15)

  1. ユーザーの視線を認識する認識部と、
    前記認識された視線があらかじめ設定された認識領域に位置するか否か判断し、前記認識された視線が前記あらかじめ設定された認識領域に位置すると、インタラクションモードの進入を制御する制御部と、
    前記インタラクションモードに対応する映像を表示する表示部と、
    を備えるディスプレイ装置。
  2. 前記表示部は、前記あらかじめ設定された認識領域を表示する、請求項1に記載のディスプレイ装置。
  3. 前記制御部は、前記視線が認識されると、前記あらかじめ設定された領域の表示情報を、前記視線を認識する前と異なる表示情報で表示する、請求項2に記載のディスプレイ装置。
  4. 前記表示部は、前記認識された視線の位置をカーソルで表示する、請求項1に記載のディスプレイ装置。
  5. 前記認識部は、前記ユーザーのモーションを認識し、
    前記制御部は、前記認識されたモーションに対応する動作命令を判断し、該判断された動作命令に基づいて前記表示部の駆動を制御する、請求項1に記載のディスプレイ装置。
  6. 前記認識部は、前記ユーザーの音声を認識し、
    前記制御部は、前記認識された音声に対応する動作命令を判断し、該判断された動作命令に基づいて前記表示部の駆動を制御する、請求項1に記載のディスプレイ装置。
  7. 前記制御部は、前記インタラクションモードに進入すると、前記ユーザーとのインタラクションのための複数の認識モードの表示を制御し、前記認識された視線の位置に基づいて前記複数の認識モードのいずれか一つの認識モードを選択する、請求項1に記載のディスプレイ装置。
  8. 前記ユーザーの映像を収集する映像収集部と、
    前記ユーザーの音声を収集するサウンド収集部と、
    をさらに備え、
    前記制御部は、前記選択されたいずれか一つの認識モードに基づいて前記映像収集部及びサウンド収集部の活性化を制御する、請求項7に記載のディスプレイ装置。
  9. 前記認識部は、前記ユーザーの顔を認識し、
    前記制御部は、前記認識されたユーザーがあらかじめ登録されたユーザーであるか否か判断し、前記認識されたユーザーがあらかじめ登録されたユーザーであれば、前記ユーザーの視線認識を制御し、前記認識されたユーザーが複数であれば、あらかじめ保存された優先順位に基づいて優先順位の最も高いユーザーの視線認識を制御する、請求項1に記載のディスプレイ装置。
  10. 前記制御部は、
    前記認識された視線があらかじめ設定された終了領域に位置するか否か判断し、
    前記認識された視線が前記あらかじめ設定された終了領域に位置すると、インタラクションモードが終了するように制御する、請求項1に記載のディスプレイ装置。
  11. 前記認識部は、
    ユーザーの視線を認識する第1認識部と、前記ユーザーのモーション及び音声のうち少なくとも一方の信号を認識し、認識された少なくとも一方の信号に対応する前記ユーザーの命令を認識する第2認識部と、を備え、
    前記制御部は、
    前記あらかじめ設定された領域に視線が位置する状態でモーションが認識されると、該認識されたモーションに対応する命令を確認し、確認された命令に対応する機能の実行を制御し、及び/又は
    前記あらかじめ設定された領域に視線が位置する状態で音声が認識されると、該認識された音声に対応する命令を確認し、確認された命令に対応する機能の実行を制御する、請求項1に記載のディスプレイ装置。
  12. 外部のリモコンから伝送されたサウンド信号を受信する通信部をさらに備え、
    前記第2認識部は、前記受信したサウンド信号から音声を認識する、請求項11に記載のディスプレイ装置。
  13. 外部の放送信号を受信するチューナー部と、
    前記放送信号を、映像情報を持つ映像信号とサウンド情報を持つサウンド信号とに分離し、分離された映像信号とサウンド信号をそれぞれ信号処理する信号処理部と、
    をさらに備え、
    前記表示部は、前記あらかじめ設定された認識領域、チャンネルボタン及びボリュームボタンを表示し、前記認識された視線の位置をカーソルで表示し、
    前記制御部は、前記表示部の領域外部に前記ユーザーの視線が位置すると、前記インタラクションモードが終了するように制御する、請求項1に記載のディスプレイ装置。
  14. ユーザーの視線を認識し、
    前記認識された視線があらかじめ設定された認識領域に位置するか否か判断し、
    前記認識された視線が前記あらかじめ設定された認識領域に一定時間位置すると、インタラクションモードに進入し、
    前記ユーザーとのインタラクションのための複数の認識モードを表示し、
    前記表示された複数の認識モードの中から、前記認識された視線が位置する認識モードを判断し、
    前記判断された認識モードを行って前記ユーザーの命令を認識し、
    前記認識された命令に対応する機能を行うこと、を含む、ディスプレイ装置の制御方法。
  15. 前記インタラクションモードに進入すると、前記あらかじめ設定された認識領域を他の表示情報で表示することをさらに含む、請求項14に記載のディスプレイ装置の制御方法。
JP2013210769A 2012-10-19 2013-10-08 ディスプレイ装置及びその制御方法 Expired - Fee Related JP6271935B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020120116956A KR102095765B1 (ko) 2012-10-19 2012-10-19 디스플레이 장치 및 그 제어 방법
KR10-2012-0116956 2012-10-19

Publications (2)

Publication Number Publication Date
JP2014086085A true JP2014086085A (ja) 2014-05-12
JP6271935B2 JP6271935B2 (ja) 2018-01-31

Family

ID=49518656

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013210769A Expired - Fee Related JP6271935B2 (ja) 2012-10-19 2013-10-08 ディスプレイ装置及びその制御方法

Country Status (9)

Country Link
US (2) US9524023B2 (ja)
EP (2) EP3425485B1 (ja)
JP (1) JP6271935B2 (ja)
KR (1) KR102095765B1 (ja)
CN (1) CN103826145B (ja)
IN (1) IN2015DN03276A (ja)
MX (1) MX346605B (ja)
RU (1) RU2617927C2 (ja)
WO (1) WO2014061916A1 (ja)

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015037310A1 (ja) * 2013-09-13 2015-03-19 ソニー株式会社 情報処理装置、および情報処理方法
WO2016136837A1 (ja) * 2015-02-25 2016-09-01 京セラ株式会社 ウェアラブル装置、制御方法及び制御プログラム
JP2019003228A (ja) * 2017-06-09 2019-01-10 富士通株式会社 機器連携システム、機器連携装置、機器連携方法及び機器連携プログラム
JP2019016378A (ja) * 2018-09-12 2019-01-31 株式会社東芝 メガネ型ウエアラブル端末およびこの端末を用いる方法
JP2019136475A (ja) * 2018-07-06 2019-08-22 グリー株式会社 ゲーム処理システム、ゲーム処理方法、及びゲーム処理プログラム
JP2019136474A (ja) * 2018-07-05 2019-08-22 グリー株式会社 ゲーム処理システム、ゲーム処理方法、及びゲーム処理プログラム
WO2020158218A1 (ja) * 2019-01-28 2020-08-06 ソニー株式会社 情報処理装置、情報処理方法及びプログラム
US10981052B2 (en) 2018-02-06 2021-04-20 Gree, Inc. Game processing system, method of processing game, and storage medium storing program for processing game
US10981067B2 (en) 2018-02-06 2021-04-20 Gree, Inc. Game processing system, method of processing game, and storage medium storing program for processing game
US10983590B2 (en) 2018-02-06 2021-04-20 Gree, Inc. Application processing system, method of processing application and storage medium storing program for processing application
US11083959B2 (en) 2018-02-06 2021-08-10 Gree, Inc. Game processing system, method of processing game, and storage medium storing program for processing game
JP7039753B1 (ja) 2021-07-01 2022-03-22 株式会社あかつき ゲームサーバ、ゲームプログラム、情報処理方法
JP7089128B1 (ja) 2021-07-01 2022-06-21 株式会社あかつき ゲームサーバ、ゲームプログラム、情報処理方法
JP7141556B1 (ja) 2022-03-09 2022-09-22 株式会社あかつき ゲームサーバ、ゲームプログラム、情報処理方法
JP2023009040A (ja) * 2022-03-09 2023-01-19 株式会社あかつき ゲームサーバ、ゲームプログラム、情報処理方法
JP2023078306A (ja) * 2022-03-09 2023-06-06 株式会社あかつき ゲームサーバ、ゲームプログラム、情報処理方法

Families Citing this family (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104598009A (zh) * 2013-10-30 2015-05-06 鸿富锦精密工业(武汉)有限公司 屏幕按键控制方法及系统
JP5884811B2 (ja) * 2013-11-18 2016-03-15 コニカミノルタ株式会社 Ar表示装置、ar表示制御装置、印刷条件設定システム、印刷システム、印刷設定表示方法およびプログラム
KR102193029B1 (ko) * 2014-05-09 2020-12-18 삼성전자주식회사 디스플레이 장치 및 그의 화상 통화 수행 방법
KR102337682B1 (ko) 2014-10-01 2021-12-09 삼성전자주식회사 디스플레이 장치 및 그의 제어 방법
KR102289904B1 (ko) * 2015-01-23 2021-08-18 삼성디스플레이 주식회사 표시 장치
KR20160116162A (ko) * 2015-03-26 2016-10-07 삼성디스플레이 주식회사 표시 장치
CN105630148A (zh) * 2015-08-07 2016-06-01 宇龙计算机通信科技(深圳)有限公司 终端的显示方法、终端的显示装置和终端
KR20180071092A (ko) 2016-12-19 2018-06-27 삼성전자주식회사 사용자의 시선 및 입력에 기반하여 제어되는 전자 장치, 모바일 전자 장치 및 디스플레이 장치
KR102203720B1 (ko) * 2017-06-26 2021-01-15 에스케이텔레콤 주식회사 음성 인식 방법 및 장치
US10732708B1 (en) * 2017-11-21 2020-08-04 Amazon Technologies, Inc. Disambiguation of virtual reality information using multi-modal data including speech
US11232645B1 (en) 2017-11-21 2022-01-25 Amazon Technologies, Inc. Virtual spaces as a platform
US10521946B1 (en) 2017-11-21 2019-12-31 Amazon Technologies, Inc. Processing speech to drive animations on avatars
CN109992237B (zh) * 2018-01-03 2022-04-22 腾讯科技(深圳)有限公司 智能语音设备控制方法、装置、计算机设备和存储介质
CN108509856A (zh) * 2018-03-06 2018-09-07 深圳市沃特沃德股份有限公司 音频调整方法、装置和音响设备
US11169668B2 (en) * 2018-05-16 2021-11-09 Google Llc Selecting an input mode for a virtual assistant
CN108897589B (zh) * 2018-05-31 2020-10-27 刘国华 显示设备中人机交互方法、装置、计算机设备和存储介质
US11949943B2 (en) * 2018-07-16 2024-04-02 Arris Enterprises Llc Gaze-responsive advertisement
CN109683705A (zh) * 2018-11-30 2019-04-26 北京七鑫易维信息技术有限公司 眼球注视控制交互控件的方法、装置和系统
EP3896983A4 (en) * 2018-12-11 2022-07-06 LG Electronics Inc. DISPLAY DEVICE
CN109788256A (zh) * 2019-01-30 2019-05-21 温州大学 一种多模态图像的显示系统
CN110211251A (zh) * 2019-04-26 2019-09-06 珠海格力电器股份有限公司 一种人脸识别方法、装置、存储介质及人脸识别终端
JP7277306B2 (ja) * 2019-07-31 2023-05-18 キヤノン株式会社 電子機器、電子機器の制御方法、プログラム、記憶媒体
CN112423190A (zh) * 2019-08-20 2021-02-26 苹果公司 用于头戴式设备的基于音频的反馈
CN113050852A (zh) * 2019-12-27 2021-06-29 通用电气精准医疗有限责任公司 医疗系统中显示单元的控制方法以及控制装置
US11112875B1 (en) * 2020-03-20 2021-09-07 Huawei Technologies Co., Ltd. Methods and systems for controlling a device using hand gestures in multi-user environment
US11698677B1 (en) * 2020-06-29 2023-07-11 Apple Inc. Presenting a notification based on an engagement score and an interruption priority value
CN112102828A (zh) * 2020-09-04 2020-12-18 杭州中软安人网络通信股份有限公司 大屏幕自动播报内容的语音控制方法及系统
US11762458B2 (en) * 2021-02-15 2023-09-19 Sony Group Corporation Media display device control based on eye gaze

Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0981309A (ja) * 1995-09-13 1997-03-28 Toshiba Corp 入力装置
JP2001070293A (ja) * 1999-09-06 2001-03-21 Toshiba Corp X線診断装置
JP2005117185A (ja) * 2003-10-03 2005-04-28 Canon Inc デジタルテレビジョン装置
JP2006337513A (ja) * 2005-05-31 2006-12-14 Funai Electric Co Ltd テレビ受像機
JP2007160473A (ja) * 2005-12-15 2007-06-28 Fujitsu Ltd ロボットにおける対話相手識別方法およびロボット
JP2007324866A (ja) * 2006-05-31 2007-12-13 Funai Electric Co Ltd 電子機器及びテレビ受像機
US20100121501A1 (en) * 2008-11-10 2010-05-13 Moritz Neugebauer Operating device for a motor vehicle
JP2012053545A (ja) * 2010-08-31 2012-03-15 Canon Inc 画像処理システムおよびその制御方法
JP2012060504A (ja) * 2010-09-10 2012-03-22 Hitachi Consumer Electronics Co Ltd 映像表示装置
WO2012083415A1 (en) * 2010-11-15 2012-06-28 Tandemlaunch Technologies Inc. System and method for interacting with and analyzing media on a display using eye gaze tracking
WO2012099584A1 (en) * 2011-01-19 2012-07-26 Hewlett-Packard Development Company, L.P. Method and system for multimodal and gestural control
WO2012105198A1 (ja) * 2011-01-31 2012-08-09 三洋電機株式会社 電動自転車

Family Cites Families (36)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19736995B4 (de) * 1997-08-26 2009-05-07 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtung zum Bestimmen eines Fixationspunktes
US7216351B1 (en) * 1999-04-07 2007-05-08 International Business Machines Corporation Systems and methods for synchronizing multi-modal interactions
JP2001350578A (ja) * 2000-06-06 2001-12-21 Sensor:Kk 視線による入力制御装置及び方法並びに視線により入力させる制御プログラムを記録した記録媒体
US20030038754A1 (en) * 2001-08-22 2003-02-27 Mikael Goldstein Method and apparatus for gaze responsive text presentation in RSVP display
US7760248B2 (en) * 2002-07-27 2010-07-20 Sony Computer Entertainment Inc. Selective sound source listening in conjunction with computer interactive processing
EP1978692B1 (en) * 2004-06-04 2011-07-27 QUALCOMM Incorporated High data rate interface apparatus and method
US7057888B2 (en) * 2004-09-22 2006-06-06 Intel Corporation Retractable and extendable camera and microphone array computer system
TWI287787B (en) * 2004-12-14 2007-10-01 Delta Electronics Inc A remote control device and method with speech control
DE102006011288A1 (de) * 2006-03-10 2007-09-13 Siemens Ag Verfahren zur Auswahl von Funktionen mithilfe einer Benutzerschnittstelle und Benutzerschnittstelle
US20080013262A1 (en) * 2006-06-30 2008-01-17 Logitech Europe S.A. Computer monitor with detachable module
JP4260215B1 (ja) * 2007-08-29 2009-04-30 任天堂株式会社 撮像装置
EP2201761B1 (en) * 2007-09-24 2013-11-20 Qualcomm Incorporated Enhanced interface for voice and video communications
TW200921483A (en) * 2007-11-09 2009-05-16 Tpk Touch Solutions Inc Touch-control display panel with an electric-field shielding layer
US8555207B2 (en) * 2008-02-27 2013-10-08 Qualcomm Incorporated Enhanced input using recognized gestures
DE102008025124A1 (de) * 2008-05-26 2009-12-03 Volkswagen Ag Anzeigesystem für ein Fahrzeug und Bedienverfahren für ein Anzeigesystem eines Fahrzeugs
KR101427686B1 (ko) * 2008-06-09 2014-08-12 삼성전자주식회사 프로그램 선택 방법 및 그 장치
KR20100064177A (ko) * 2008-12-04 2010-06-14 삼성전자주식회사 전자장치 및 그의 디스플레이방법
WO2010101697A2 (en) * 2009-02-06 2010-09-10 Oculis Labs, Inc. Video-based privacy supporting system
US20110025689A1 (en) * 2009-07-29 2011-02-03 Microsoft Corporation Auto-Generating A Visual Representation
US20110084897A1 (en) * 2009-10-13 2011-04-14 Sony Ericsson Mobile Communications Ab Electronic device
KR101626159B1 (ko) * 2009-11-25 2016-05-31 엘지전자 주식회사 사용자 적응형 디스플레이 장치 및 디스플레이 방법
US20110154014A1 (en) * 2009-12-18 2011-06-23 Sony Ericsson Mobile Communications Ab Data exchange for mobile devices
US8977972B2 (en) * 2009-12-31 2015-03-10 Intel Corporation Using multi-modal input to control multiple objects on a display
US8922480B1 (en) * 2010-03-05 2014-12-30 Amazon Technologies, Inc. Viewer-based device control
KR101815020B1 (ko) * 2010-08-26 2018-01-31 삼성전자주식회사 인터페이스 제어 장치 및 방법
JP4977249B1 (ja) * 2010-12-24 2012-07-18 株式会社東芝 電子機器
KR20120090621A (ko) * 2011-02-08 2012-08-17 삼성전자주식회사 백라이트 유닛 및 이를 갖는 표시장치
KR101191640B1 (ko) * 2011-02-23 2012-10-17 동국대학교 산학협력단 사용자에게 정보를 전달하는 정보전달장치 및 그 방법
US8643680B2 (en) * 2011-04-08 2014-02-04 Amazon Technologies, Inc. Gaze-based content display
KR101235594B1 (ko) * 2011-06-27 2013-02-21 엘지전자 주식회사 이동 단말기
US9727132B2 (en) * 2011-07-01 2017-08-08 Microsoft Technology Licensing, Llc Multi-visor: managing applications in augmented reality environments
JP5785015B2 (ja) * 2011-07-25 2015-09-24 京セラ株式会社 電子機器、電子文書制御プログラムおよび電子文書制御方法
US8988350B2 (en) * 2011-08-20 2015-03-24 Buckyball Mobile, Inc Method and system of user authentication with bioresponse data
US9823742B2 (en) * 2012-05-18 2017-11-21 Microsoft Technology Licensing, Llc Interaction and management of devices using gaze detection
US9594500B2 (en) * 2012-06-27 2017-03-14 sigmund lindsay clements Touch Free hygienic display control panel for a smart toilet
KR102081930B1 (ko) * 2013-03-21 2020-02-26 엘지전자 주식회사 시선 위치를 디텍트하는 디스플레이 디바이스 및 제어 방법

Patent Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0981309A (ja) * 1995-09-13 1997-03-28 Toshiba Corp 入力装置
JP2001070293A (ja) * 1999-09-06 2001-03-21 Toshiba Corp X線診断装置
JP2005117185A (ja) * 2003-10-03 2005-04-28 Canon Inc デジタルテレビジョン装置
JP2006337513A (ja) * 2005-05-31 2006-12-14 Funai Electric Co Ltd テレビ受像機
JP2007160473A (ja) * 2005-12-15 2007-06-28 Fujitsu Ltd ロボットにおける対話相手識別方法およびロボット
JP2007324866A (ja) * 2006-05-31 2007-12-13 Funai Electric Co Ltd 電子機器及びテレビ受像機
US20100121501A1 (en) * 2008-11-10 2010-05-13 Moritz Neugebauer Operating device for a motor vehicle
JP2012053545A (ja) * 2010-08-31 2012-03-15 Canon Inc 画像処理システムおよびその制御方法
JP2012060504A (ja) * 2010-09-10 2012-03-22 Hitachi Consumer Electronics Co Ltd 映像表示装置
WO2012083415A1 (en) * 2010-11-15 2012-06-28 Tandemlaunch Technologies Inc. System and method for interacting with and analyzing media on a display using eye gaze tracking
WO2012099584A1 (en) * 2011-01-19 2012-07-26 Hewlett-Packard Development Company, L.P. Method and system for multimodal and gestural control
JP2014507714A (ja) * 2011-01-19 2014-03-27 ヒューレット−パッカード デベロップメント カンパニー エル.ピー. マルチモーダル及びジェスチャー制御のための方法及びシステム
WO2012105198A1 (ja) * 2011-01-31 2012-08-09 三洋電機株式会社 電動自転車

Cited By (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015037310A1 (ja) * 2013-09-13 2015-03-19 ソニー株式会社 情報処理装置、および情報処理方法
US10120441B2 (en) 2013-09-13 2018-11-06 Sony Corporation Controlling display content based on a line of sight of a user
US10928896B2 (en) 2013-09-13 2021-02-23 Sony Corporation Information processing apparatus and information processing method
WO2016136837A1 (ja) * 2015-02-25 2016-09-01 京セラ株式会社 ウェアラブル装置、制御方法及び制御プログラム
JPWO2016136837A1 (ja) * 2015-02-25 2017-08-24 京セラ株式会社 ウェアラブル装置、制御方法及び制御プログラム
US10540009B2 (en) 2015-02-25 2020-01-21 Kyocera Corporation Wearable device, control method, and control program
JP2019003228A (ja) * 2017-06-09 2019-01-10 富士通株式会社 機器連携システム、機器連携装置、機器連携方法及び機器連携プログラム
US11083959B2 (en) 2018-02-06 2021-08-10 Gree, Inc. Game processing system, method of processing game, and storage medium storing program for processing game
US11161047B2 (en) 2018-02-06 2021-11-02 Gree, Inc. Game processing system, method of processing game, and storage medium storing program for processing game
US11110346B2 (en) 2018-02-06 2021-09-07 Gree, Inc. Game processing system, method of processing game, and storage medium storing program for processing game
US10981052B2 (en) 2018-02-06 2021-04-20 Gree, Inc. Game processing system, method of processing game, and storage medium storing program for processing game
US10981067B2 (en) 2018-02-06 2021-04-20 Gree, Inc. Game processing system, method of processing game, and storage medium storing program for processing game
US10983590B2 (en) 2018-02-06 2021-04-20 Gree, Inc. Application processing system, method of processing application and storage medium storing program for processing application
JP2019136474A (ja) * 2018-07-05 2019-08-22 グリー株式会社 ゲーム処理システム、ゲーム処理方法、及びゲーム処理プログラム
JP2019136475A (ja) * 2018-07-06 2019-08-22 グリー株式会社 ゲーム処理システム、ゲーム処理方法、及びゲーム処理プログラム
JP2019016378A (ja) * 2018-09-12 2019-01-31 株式会社東芝 メガネ型ウエアラブル端末およびこの端末を用いる方法
WO2020158218A1 (ja) * 2019-01-28 2020-08-06 ソニー株式会社 情報処理装置、情報処理方法及びプログラム
JP7039753B1 (ja) 2021-07-01 2022-03-22 株式会社あかつき ゲームサーバ、ゲームプログラム、情報処理方法
JP7089128B1 (ja) 2021-07-01 2022-06-21 株式会社あかつき ゲームサーバ、ゲームプログラム、情報処理方法
JP2023006919A (ja) * 2021-07-01 2023-01-18 株式会社あかつき ゲームサーバ、ゲームプログラム、情報処理方法
JP2023008793A (ja) * 2021-07-01 2023-01-19 株式会社あかつき ゲームサーバ、ゲームプログラム、情報処理方法
JP7141556B1 (ja) 2022-03-09 2022-09-22 株式会社あかつき ゲームサーバ、ゲームプログラム、情報処理方法
JP2023008792A (ja) * 2022-03-09 2023-01-19 株式会社あかつき ゲームサーバ、ゲームプログラム、情報処理方法
JP2023009040A (ja) * 2022-03-09 2023-01-19 株式会社あかつき ゲームサーバ、ゲームプログラム、情報処理方法
JP7248853B2 (ja) 2022-03-09 2023-03-29 株式会社あかつき ゲームサーバ、ゲームプログラム、情報処理方法
JP2023078306A (ja) * 2022-03-09 2023-06-06 株式会社あかつき ゲームサーバ、ゲームプログラム、情報処理方法
JP7387932B2 (ja) 2022-03-09 2023-11-28 株式会社あかつき ゲームサーバ、ゲームプログラム、情報処理方法

Also Published As

Publication number Publication date
RU2015114537A (ru) 2016-11-10
US20140111420A1 (en) 2014-04-24
EP2735938A2 (en) 2014-05-28
EP3425485A2 (en) 2019-01-09
RU2617927C2 (ru) 2017-04-28
IN2015DN03276A (ja) 2015-10-09
US9524023B2 (en) 2016-12-20
EP3425485B1 (en) 2020-12-02
EP2735938B1 (en) 2018-08-29
KR102095765B1 (ko) 2020-04-01
CN103826145A (zh) 2014-05-28
JP6271935B2 (ja) 2018-01-31
US20170060370A1 (en) 2017-03-02
EP2735938A3 (en) 2015-01-07
WO2014061916A1 (en) 2014-04-24
KR20140050484A (ko) 2014-04-29
EP3425485A3 (en) 2019-02-13
CN103826145B (zh) 2019-02-15
MX346605B (es) 2017-03-24
MX2015004841A (es) 2015-07-21

Similar Documents

Publication Publication Date Title
JP6271935B2 (ja) ディスプレイ装置及びその制御方法
US20190019508A1 (en) System and method for voice command context
CN106463114B (zh) 信息处理设备、控制方法及程序存储单元
JP6155622B2 (ja) 表示装置、頭部装着型表示装置、表示装置の制御方法、および、頭部装着型表示装置の制御方法
EP3719631B1 (en) Display device and method for controlling same
JP4796209B1 (ja) 表示装置、制御装置、テレビジョン受像機、表示装置の制御方法、プログラム及び記録媒体
JP2017518691A (ja) 画像の取り込みを支援するためにハプティックフィードバックを提供するためのシステムおよび方法
EP2685453A1 (en) Method for correcting voice recognition error and broadcast receiving apparatus applying the same.
US11449307B2 (en) Remote controller for controlling an external device using voice recognition and method thereof
JP2016033757A (ja) 表示装置、表示装置の制御方法、および、プログラム
EP3318969A1 (en) Display apparatus and method for controlling display apparatus
KR20150054490A (ko) 음성인식 시스템, 음성인식 서버 및 디스플레이 장치의 제어방법
JP6432197B2 (ja) 表示装置、表示装置の制御方法、および、プログラム
KR102454761B1 (ko) 영상표시장치의 동작 방법
JP6364735B2 (ja) 表示装置、頭部装着型表示装置、表示装置の制御方法、および、頭部装着型表示装置の制御方法
KR20190091782A (ko) 디스플레이 장치 및 디스플레이 장치의 화면 표시방법
US20240121501A1 (en) Electronic apparatus and method of controlling the same
US20210203878A1 (en) Display device, mobile device, video calling method performed by the display device, and video calling method performed by the mobile device
CN111316226A (zh) 电子设备及其控制方法
JP2017037212A (ja) 音声認識装置、制御方法、及び、コンピュータープログラム
CN117321547A (zh) 来自电子眼睛佩戴设备的情境视觉和语音搜索
JP2017183857A (ja) 頭部装着型表示装置、頭部装着型表示装置の制御方法、コンピュータープログラム
WO2022190406A1 (ja) 端末装置
KR20240048966A (ko) 인공지능 기기 및 그의 동작 방법
KR20140096747A (ko) 전자 기기

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20141226

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20161007

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170726

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170814

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171114

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20171204

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20171228

R150 Certificate of patent or registration of utility model

Ref document number: 6271935

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees