JP2010045658A - 情報処理装置、情報処理方法および情報処理プログラム - Google Patents

情報処理装置、情報処理方法および情報処理プログラム Download PDF

Info

Publication number
JP2010045658A
JP2010045658A JP2008208948A JP2008208948A JP2010045658A JP 2010045658 A JP2010045658 A JP 2010045658A JP 2008208948 A JP2008208948 A JP 2008208948A JP 2008208948 A JP2008208948 A JP 2008208948A JP 2010045658 A JP2010045658 A JP 2010045658A
Authority
JP
Japan
Prior art keywords
display
unit
gui
user
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2008208948A
Other languages
English (en)
Other versions
JP4720874B2 (ja
Inventor
Toshiharu Yabe
俊治 矢部
Kenichiro Kobayashi
賢一郎 小林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2008208948A priority Critical patent/JP4720874B2/ja
Priority to US12/539,422 priority patent/US8237655B2/en
Priority to CN201210063792.8A priority patent/CN102710911B/zh
Priority to CN2009101637162A priority patent/CN101651804B/zh
Publication of JP2010045658A publication Critical patent/JP2010045658A/ja
Application granted granted Critical
Publication of JP4720874B2 publication Critical patent/JP4720874B2/ja
Priority to US13/546,801 priority patent/US8698743B2/en
Priority to US14/245,716 priority patent/US20140333533A1/en
Priority to US15/298,351 priority patent/US20170102776A1/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04817Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04847Interaction techniques to control parameter settings, e.g. interaction with sliders or dials
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0485Scrolling or panning
    • G06F3/04855Interaction with scrollbars
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/107Static hand or arm
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/42203Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS] sound input device, e.g. microphone
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/4223Cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/442Monitoring of processes or resources, e.g. detecting the failure of a recording device, monitoring the downstream bandwidth, the number of times a movie has been viewed, the storage space available from the internal hard disk
    • H04N21/44213Monitoring of end-user related data
    • H04N21/44218Detecting physical presence or behaviour of the user, e.g. using sensors to detect if the user is leaving the room or changes his face expression during a TV program
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/472End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/482End-user interface for program selection
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/482End-user interface for program selection
    • H04N21/4821End-user interface for program selection using a grid, e.g. sorted out by channel and broadcast time
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/44Receiver circuitry for the reception of television signals according to analogue transmission standards

Abstract

【課題】ディスプレイに、操作用アイコンを表示することにより、ユーザが直感的に指を動かして各種機能を選択・実行することを可能とする、新規かつ改良された情報処理装置を提供する。
【解決手段】撮像部と、ディスプレイに操作用アイコンを表示させる操作用アイコン表示制御部と、撮像部により撮像された画像のうち、少なくともユーザの手の一部を含む画素領域から構成される入力操作領域画像をディスプレイに順次表示させる撮像画像表示制御部と、ユーザにより操作用アイコンが操作されたと判断するための条件であるイベント発行定義情報を、操作用アイコン毎に管理する操作用アイコン管理部と、ディスプレイに表示される入力操作領域画像およびイベント発行定義情報に基づいてユーザが操作用アイコンを操作したか否かを判断する操作判断部と、操作判断部による判断結果に応じて操作用アイコンに対応する所定の処理を実行する処理実行部と、を備える。
【選択図】図2

Description

本発明は、情報処理装置、情報処理方法および情報処理プログラムに関する。
近年は、テレビの映像配信技術の発達や、録画再生機器などのネットワーク機器の機能の複雑化などに伴い、テレビには種々の機能が搭載されるようになり、ユーザはリモコンなどを介して複雑な操作が要求されるようになった。一方で、多くの操作ボタンを備えたリモコンは、ユーザにとって操作性が悪いため、シンプルなボタン構成のリモコンが主流となりつつある。しかしながら、シンプルなボタン構成のリモコンであっても、ユーザは、ディスプレイに表示される階層化されたメニューに対して、リモコンから何度も指示を送信する必要がある。結局ユーザは、リモコンに構成される多くのボタンを介した複雑な操作、または、シンプルなボタン構成のリモコンを介してディスプレイに表示される複雑なメニューの操作が必要となってしまう。
このような、リモコンを介した操作性の煩わしさを解消する方法として、例えば、特許文献1には、リモコンを利用することなく、撮像装置によって撮像されるユーザの手の動きにより、テレビの各種機能を実行する技術が開示されている。特許文献1に記載の方法は、テレビのディスプレイに各種機能を選択するためのメニュー表示を指のオブジェクトなどで表示させる。また、テレビには撮像装置が備えられ、ユーザを撮像することができる。さらに、この撮像部により撮像されたユーザの指の動きと、メニュー表示の指との一致を判断し、一致した場合に当該メニューに対応する機能を実行することができる。これにより、ユーザは、リモコンを利用することなく、テレビに備えられる各種機能を選択することができる。
特開2004−356819号公報
しかし、特許文献1に記載の方法は、ディスプレイに表示された各種機能を選択するための指のオブジェクトなどで表現されるメニュー表示に従って、ユーザが指を動かす必要がある。したがって、ユーザはディスプレイの表示と同様の動きをする必要があり、直感的に指を動かすことにより、テレビに備えられる各種機能を選択することはできないという問題があった。
そこで、本発明は、上記問題に鑑みてなされたものであり、本発明の目的とするところは、ディスプレイに、操作用アイコンを表示することにより、ユーザが直感的に指を動かして各種機能を選択・実行することを可能とする、新規かつ改良された情報処理装置、情報処理方法および情報処理プログラムを提供することにある。
上記課題を解決するために、本発明のある観点によれば、被写体を撮像する撮像部と、ディスプレイに所定の処理に対応する操作用アイコンを表示させる操作用アイコン表示制御部と、前記撮像部により撮像された画像を構成する画素領域のうち、少なくともユーザの手の一部を含む画素領域から構成される入力操作領域画像を、前記ディスプレイに順次表示させる撮像画像表示制御部と、前記ユーザにより前記操作用アイコンが操作されたと判断するための条件であるイベント発行定義情報を、前記操作用アイコン毎に管理する操作用アイコン管理部と、前記ディスプレイに表示される入力操作領域画像および前記イベント発行定義情報に基づいて、前記ユーザが前記操作用アイコンを操作したか否かを判断する操作判断部と、前記操作判断部による判断結果に応じて、前記操作用アイコンに対応する所定の処理を実行する処理実行部と、を備える情報処理装置が提供される。
係る構成により、情報処理装置は、撮像部により撮像される画像のうち、少なくともユーザの手の一部を含む画素領域から構成される入力操作領域画像を、ディスプレイに順次表示させることができる。また、情報処理装置は、所定の処理に対応する操作用アイコンをディスプレイに表示させることができる。また、情報処理装置は、ディスプレイに表示させる操作用アイコンがユーザにより操作されたと判断するための条件であるイベント発行定義情報を管理することができる。また、情報処理装置は、ディスプレイに表示される入力操作領域画像および操作用アイコンと、イベント発行定義情報とに基づいて、ユーザが操作用アイコンを操作したか否かを判断することができる。さらに、情報処理装置は、当該判断結果に投じて、操作用アイコンに対応する所定の処理を実行することができる。
また、前記操作判断部は、前記入力操作領域画像を構成する画素領域の重心を算出し、前記ディスプレイに順次表示される前記入力操作領域画像を構成する画素領域の重心を結んで前記重心の動きベクトルを算出することにより、前記撮像部により撮像されるユーザの手の動きを認識することもできる。
また、前記操作判断部は、前記重心および動きベクトルと、前記イベント発行定義情報とに基づいて、前記ユーザが前記操作用アイコンを操作したか否かを判断することもできる。
また、前記操作用アイコン管理部は、前記ディスプレイに表示される操作用アイコンと、該操作用アイコンに対応する前記イベント発行定義情報と、該イベント発行定義情報に適合した場合に、前記処理実行部が行う処理の内容とを、操作用アイコン毎に関連付けて管理することもできる。
また、前記操作判断部によって前記ディスプレイに表示された表示アイコンが前記ユーザによって操作されたと判断された場合、前記処理実行部は、前記操作用アイコン管理部が管理する当該操作用アイコンに関連付けられた処理内容を実行することもできる。
また、前記操作用アイコン表示制御部は、前記ユーザによる操作に応じて、前記ディスプレイに表示される操作用アイコンを適宜更新することもできる。
また、前記撮像部により撮像された画像に対して、1フレーム前に撮像された画像と比較して変化のある画素領域を検出し、当該検出された画素領域のみによって構成される動き領域マスク画像を生成する動き検出部と、前記撮像部により撮像された画像を構成する画素領域において、所定の色相を有する画素領域を検出し、当該検出された画素領域のみによって構成される肌色領域マスク画像を生成する動き検出部と、をさらに備えてもよい。この場合、前記入力操作領域画像は、前記動き領域マスク画像を構成する画素領域と、肌色領域マスク画像を構成する画素領域と、を論理積(AND)演算することにより算出される画素領域によって構成されてもよい。
また、前記撮像画像表示部は、前記入力操作領域画像を構成する画素数が、あらかじめ設定された所定の時間以上、あらかじめ設定された所定の画素数以上である場合に、前記ディスプレイに前記入力操作領域画像を表示させることもできる。
また、前記撮像画像表示部は、前記入力操作領域画像を構成する画素数が、前記ディスプレイの表示可能画素数に対して所定の割合となるように、前記入力操作領域画像をスケーリングすることもできる。
また、前記ディスプレイは、前記情報処理装置とは別の外部装置に備えられてもよい。この場合、前記情報処理装置は、前記外部装置に備えられる前記ディスプレイに前記操作用アイコンおよび前記入力操作領域画像を表示させることもできる。
また、前記情報処理装置は、放送信号に含まれる所定の映像を表示する表示部をさらに備え、前記表示部は、前記ディスプレイを含むこともできる。
また、前記情報処理装置は、ユーザが発生する音声を入力する音声入力部と、前記音声入力部に入力される音声の種類を識別する音声認識処理部と、をさらに備えてもよい。この場合、前記操作用アイコン管理部は、前記音声の種類に対応して前記ディスプレイに表示する操作用アイコンの情報を、音声の種類毎に管理し、前記操作用アイコン表示制御部は、前記音声認識処理部により識別された音声の種類に応じて、当該識別された音声の種類に対応する操作用アイコンを、前記操作用アイコン管理部が管理する情報に基づいて、前記ディスプレイに表示させることもできる。
また、前記操作用アイコン表示制御部は、前記操作判断部により算出される前記重心の動きベクトルに基づいて、前記重心の軌跡を前記ディスプレイに表示させることもできる。
また、前記ディスプレイに表示される重心の軌跡が閉曲線となった場合、前記操作用アイコン表示部は、前記閉曲線により囲まれた表示領域に関する所定の処理に対応する操作用アイコンを前記ディスプレイに表示させることもできる。
また、上記課題を解決するために、本発明の別の観点によれば、撮像部により被写体を撮像する撮像ステップと、ディスプレイに所定の操作用アイコンを表示させる操作用アイコン表示ステップと、前記撮像ステップにより撮像された画像を構成する画素領域のうち、少なくともユーザの手の一部を含む画素領域から構成される入力操作領域画像を、前記ディスプレイに順次表示させる撮像画像表示ステップと、前記操作用アイコン表示ステップにより前記ディスプレイに表示された前記操作用アイコンと、前記撮像画像表示ステップにより前記ディスプレイに表示された前記入力操作領域画像と、前記操作用アイコン毎に管理される前記ユーザにより前記操作用アイコンが操作されたと判断するための条件であるイベント発行定義情報と、に基づいて、前記ユーザが前記操作用アイコンを操作したか否かを判断する操作判断ステップと、前記操作判断ステップによる判断結果に応じて、前記操作用アイコンに対応する所定の処理を実行する処理実行ステップと、を含む情報処理方法が提供される。
また、上記課題を解決するために、本発明の別の観点によれば、撮像部により被写体を撮像する撮像処理と、ディスプレイに所定の操作用アイコンを表示させる操作用アイコン表示処理と、前記撮像ステップにより撮像された画像を構成する画素領域のうち、少なくともユーザの手の一部を含む画素領域から構成される入力操作領域画像を、前記ディスプレイに順次表示させる撮像画像表示処理と、前記操作用アイコン表示ステップにより前記ディスプレイに表示された前記操作用アイコンと、前記撮像画像表示ステップにより前記ディスプレイに表示された前記入力操作領域画像と、前記操作用アイコン毎に管理される前記ユーザにより前記操作用アイコンが操作されたと判断するための条件であるイベント発行定義情報と、に基づいて、前記ユーザが前記操作用アイコンを操作したか否かを判断する操作判断処理と、前記操作判断ステップによる判断結果に応じて、前記操作用アイコンに対応する所定の処理を実行する処理実行処理と、をコンピュータに実行させる情報処理プログラムが提供される。
以上説明したように本発明によれば、ディスプレイに、操作用アイコンを表示することにより、ユーザが直感的に指を動かして各種機能を選択・実行することを可能とする、新規かつ改良された情報処理装置、情報処理方法および情報処理プログラムが提供される。
以下に添付図面を参照しながら、本発明の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。また、説明は以下の順序で行うものとする。
1.本発明の実施形態の概要
2.実施形態の1つに係る情報処理装置
2−1.テレビ100の機能構成
2−2.本実施形態の処理のフロー(撮像処理〜GUI操作の処理)
2−3.撮像データ処理フロー
2−4.状態遷移処理フロー
2−5.撮像画像表示処理フロー
2−6.GUI操作処理フロー
3.変形例
3−1.変形例1(音声入力機能の利用)
3−2.変形例2(カーソルGUIの利用)
(1.本発明の実施形態の概要)
本発明の実施形態の1つに係る情報処理装置の詳細について説明する前に、まず、本発明の実施形態の概要について説明する。上述したように、従来のディスプレイを備えるテレビなどの情報処理装置は、ディスプレイ上に各種機能に対応するメニューをユーザの指のオブジェクトなどを表示することができる。これによりユーザは、ディスプレイに表示される指に合わせた動きをすることにより、テレビなどの情報処理装置が備える各種機能を選択することができた。しかしながら、ユーザは、ディスプレイに表示された指示に従って指などを動かす必要がある。したがって、ユーザは結局、直感的な指の動きにより、情報処理装置の各種機能を選択することはできなかった。
これに対して、本発明の実施形態に係る情報処理装置は、ユーザが直感的に指(手のひらなどの部分を含む)を動かすことにより、情報処理装置の備える各種機能を選択・実行することを可能とする。具体的には、本実施形態にかかる情報処理装置は、ユーザが操作性を容易に認識可能な操作用アイコン(GUI:Graphic User Interface)をディスプレイに表示させることができる。また、本実施形態に係る情報処理装置は、撮像部により撮像されるユーザの指の動きもディスプレイに表示させることができる。さらに、本実施形態に係る情報処理装置は、ユーザの指の動きを検出し、ディスプレイに表示されたGUIに対してユーザがどのような操作を行ったかを認識することができる。したがって、本実施形態にかかる情報処理装置は、ディスプレイに表示されるGUIと、ユーザの指の動きと、に応じて各種機能を実行することができる。この結果、ユーザは、直感的に指を動かすことにより、ディスプレイに表示される各種GUIを操作することができ、情報処理装置の備える各種機能を選択・実行することが可能となる。
図1は、本発明の実施形態に係る情報処理装置の使用例の概念図である。図1に示すように、ユーザは、リモコンを使用することなく、ディスプレイに表示される各種GUIをあたかも自分の指で操作するように指を動かすことで、情報処理装置の備える各種機能を選択・実行することができる。
このような特徴を有する本発明の実施形態に係る情報処理装置の詳細について、以下説明する。なお、以下の実施形態においては、本発明の実施形態に係る情報処理装置の一例としてテレビ100を例に説明するが、これに限定されるものではない。例えば、パーソナルコンピュータや、各種操作用のディスプレイを備える情報処理装置であってもよい。また、ハードディスクレコーダ、DVD(Digital Versatile Disc)レコーダなどの各種録画再生機器や、ゲーム機器などのように、外部機器のディスプレイに操作メニューなどを表示させる情報処理装置であってもよい。また、以下の説明において、「指」と表現する場合であっても、必ずしも人間の指の部分のみを指すのではなく、手のひら、手首などを含む手全体を指す場合もある。
(2.実施形態の1つに係る情報処理装置)
(2−1.テレビ100の機能構成)
まず、本発明の実施形態の1つに係る情報処理装置の一例であるテレビジョン受像機100(以下テレビ100という)の機能構成について説明する。図2は、本実施形態に係るテレビ100の機能構成を示すブロック図である。
図2に示すように、テレビ100は主に、撮像部102と、ユーザ領域検出部104と、状態遷移処理部105と、撮像画像表示処理部106と、GUI表示制御部108と、GUI管理部110と、GUI操作判断部112と、GUI操作記憶部114と、処理実行部116と、表示部118と、を含んで構成される。これらの各構成部は、バスで接続され、CPU(Central Processing Unit)によって制御される。以下、テレビ100の各構成部の詳細について説明する。
(撮像部102)
撮像部102は、被写体からの光を撮像面に結像させるレンズ等の光学系と、撮像面を有するCCD(Charge Coupled Device)などの撮像素子などからなる。撮像部102は、レンズを通して捉えた被写体像を電気信号に変換して出力する。なお、撮像部102が備える撮像素子は、CCDに限定されず、例えばCMOS(Complementary Metal Oxide Semiconductor)などであってもよい。また、ユーザ操作に応じて、適切なズーム、フォーカス等で被写体が撮像されるように、撮像部102の駆動機構を制御して、ズームレンズ、フォーカスレンズ(図示せず)などを駆動させることなども可能である。撮像部102により撮像された映像信号は、AD変換機(図示せず)によりデジタル信号に変換された後に、ユーザ領域検出部104に伝送される。
(ユーザ領域検出部104)
ユーザ領域検出部104は、撮像部102によって撮像された映像領域に含まれるユーザの指(手)の領域を検出する。図2に示すように、ユーザ領域検出部104は主に、動き検出部120と、肌色検出部122と、演算処理部124と、を含んで構成される。以下、ユーザ領域検出部104を構成する各部の詳細について説明する。
(動き検出部120)
動き検出部120は、撮像部102によって撮像された所定のフレームと、当該フレームの1つ前に撮像されたフレームと、の映像差分を抽出する、いわゆるフレーム差分法に基づいて、ユーザの手の動きを検出する。例えば、動き検出部120は、撮像部102によって撮像されたフレームと、フレームメモリ(図示せず)に記録されている1つ前のフレームとの差分、すなわち両フレームの異なる部分を抽出することができる。動き検出部120は、このように、両フレームの差分を抽出することにより、1つ前のフレームから動きがあった部分を認識することができる。動き検出部120は、このようにして認識した動き部分に対応する領域のみからなる画像を動き領域マスク画像として生成し、演算処理部124へ伝送する。
なお、動き検出部120は、本実施形態においては、前後のフレームの差分により撮像されたオブジェクトの動きを検出するが、本発明はこれに限定されるものではない。例えば、動き検出部120は、より複雑な検出機能を備えることにより、より正確にユーザの動きを認識することも可能であるが、本発明はユーザの動きの検出精度を向上させることを目的としているわけではないため、詳細は省略する。すなわち、動き検出部120は、種々の方法によって、撮像部102による撮像領域内の動きを検出することができ、特定の検出方法に限定されるものではない。
(肌色検出部122)
肌色検出部122は、撮像部102によって撮像された所定のフレーム内に存在する肌色領域を検出する。上述した動き検出部120によって、撮像領域内の所定のオブジェクトの動きを検出することができるが、例えば、ユーザの手以外の物体が動いていた場合においても、動き検出部120は、当該物体の動きを検出してしまう。したがって、本実施形態に係るユーザ領域検出部104は、上述した動き検出部120に加えて、肌色検出部122を備えることで、より確実にユーザの手の動きを検出することができる。
例えば、肌色領域の検出は、撮像部102によって撮像された撮像画像を構成する各画素の色彩情報に基づいて、各画素の色相、彩度、明度などの情報を算出する。肌色検出部122は、算出された情報に基づいて、撮像画像に含まれる肌色領域を特定することができる。
撮像部102によって撮像された画像は、画素ごとに赤色(R:Red)、緑色(G:Green)、青色(B:Blue)からなるRGB色彩情報を有している。肌色検出部122は、このRGB色彩情報をHSV(Hue、Saturation、Brightnes)情報に変換する。ここでHSVとは、色相(Hue)、彩度(Saturation)、明度(Brightness)の3つの成分からなる情報である。色相とは、赤色、青色、黄色などの色の種類を意味する。彩度とは、色の鮮やかさを意味する。明度とは、色の明るさを意味する。
肌色検出部122は、撮像部102によって撮像された画像を構成する各画素のRGB色彩情報を、例えば以下の式によりHSV情報へと変換する。
Figure 2010045658
・・・(1)
Figure 2010045658
・・・(2)
Figure 2010045658
・・・(3)
Figure 2010045658
・・・(4)
Figure 2010045658
・・・(5)
ここでR、G、Bは、撮像部102によって撮像された画像を構成する各画素のRGB色彩情報の値であり、例えば0〜255の数字で表される。また「MAX」は、撮像部102によって撮像された画像を構成する各画素のRGB値の最大値であり、「MIN」は、最小値である。式(1)からは、ある画素のRGB値の中でR値が最大値(MAX)である場合に色相(H)を求めることができる。式(2)からは、ある画素のRGB値の中でG値が最大値(MAX)である場合に色相(H)を求めることができる。式(3)からは、ある画素のRGB値の中でB値が最大値(MAX)である場合に色相(H)を求めることができる。上記式(1)〜(5)により、Hは0〜359の範囲、Sは0〜255の範囲、Vは0〜255の範囲、の値がそれぞれ算出される。
上記式(1)〜(5)によって、肌色検出部122は、撮像部102によって撮像された画像を構成する各画素のHSV値を算出することができる。例えば、撮像部102によって撮像された画像を構成するある画素の色彩情報がR=208、G=145、B=130である場合、H=11、S=95、V=208と算出される。
このようにHSV値は色相に関する値(H)が独立しているため、肌色検出部122は、撮像部102によって撮像された画像中の所定の色相領域を特定することができる。
ここで、人間の肌を表す色相は経験的に約H=6〜38であるといわれている。したがって肌色検出部122は、撮像部102によって撮像された画像を構成する各画素のうち、H=6〜38を有する画素を抽出することにより、撮像画像に含まれる肌色領域を特定することができる。肌色検出部122は、このようにして認識した肌色領域のみからなる画像を肌色領域マスク画像として生成し、演算処理部124へ伝送する。
なお、上記のRGB値、HSV値は本実施形態を説明する上での一例であり、本発明はこれに限定されるものではない。例えば上記例ではRGBの値が0〜255の値で表現されているが、その他の数値、例えば0〜1、パーセンテージ表示などにより表されることも当然に可能であり、上記式(1)〜(5)もそれに応じて変更されるものであることが理解されるべきである。
(演算処理部124)
演算処理部124は、上述した動き検出部120によって生成された動き領域マスク画像と、肌色検出部122によって生成された肌色領域マスク画像と、に基づいて、表示部118に表示する入力操作領域画像を生成する。演算処理部124は、例えば、動き領域マスク画像を構成する画素領域と、肌色領域マスク画像を構成する画素領域と、を論理積(AND)演算により合成することにより、入力操作領域画像を生成することができる。このように、動き領域マスク画像と肌色領域マスク画像とをAND演算で合成することにより、ユーザの手が動いた領域のみを抽出して入力操作領域画像として生成することができる。
このようにして生成された入力操作領域画像は、後述する状態遷移処理部105および撮像画像表示処理部106による各種処理を経た後、表示部118に表示される。したがって、撮像部102によって撮像された映像のうち、ユーザの手が動いている部分の映像のみが表示部118に表示されることとなる。
なお、本実施形態においては、ユーザ領域検出部104は、動き検出および肌色検出を併用することによりユーザの手が動いている領域を特定したが、本発明は必ずしもこれに限定されるものではない。例えば、撮像部102が赤外線センサなどをそなえることにより、温度分布画像を生成することにより、ユーザの手の動く領域を検出する精度をさらに向上させることなども当然に可能である。また、上述した肌色検出ではユーザの顔に相当する領域も抽出してしまうおそれがある。したがって、顔センシング技術を用いることにより、撮像画像領域内のユーザの顔に相当する部分を特定し、NOT演算により入力操作領域画像からユーザの顔に相当する領域を除外することも可能である。顔センシング技術としては、例えば、サポートベクターマシン(SVM:Support Vector Machine)、ブースティング(Boosting)、ニューラルネットワーク、固有顔法(Eigen−Faces)などを用いることができる。
(状態遷移処理部105)
次に、ユーザ領域検出部104によって生成された入力操作領域画像に基づいて、表示部118に各種GUIや撮像画像を表示するか否かを判断する状態遷移処理部105について説明する。ユーザは、手を動かすことにより、表示部118に表示される各種GUIを操作することができる。したがって、撮像部102によって撮像された映像にユーザの手が映っていない場合や、映っていても動きがほとんどないような場合などは、表示部118に撮像画像を表示させる必要はない。すなわち、ユーザが所定の操作を希望して手を動かしたときのみ表示部118に撮像画像を表示させればよい。したがって、本実施形態においては、状態遷移処理部105は、ユーザ領域検出部104によって生成された入力操作領域画像に基づいて、表示部118に撮像画像を表示するか否かを判断する。
状態遷移処理部105は、例えば、あらかじめ設定された所定の時間以上継続して、入力操作領域画像を構成する画素数が、あらかじめ設定された所定の閾値以上であるか否かを判断する。所定時間以上、入力操作領域画像を構成する画素数が、閾値以上である場合は、状態遷移処理部105は、ユーザが表示部118に表示されるGUIの操作を希望していると判断し、入力操作領域画像を撮像画像表示処理部106へ伝送する。その後、入力操作領域画像は、撮像画像表示処理部106によるスケーリング処理および座標変換処理などを経た後、表示部118に表示される。
なお、このように、表示部118に、ユーザの動く手を含む入力操作領域画像が表示されることにより、ユーザが表示部118に表示される各種GUIを操作することができる状態を、以下「GUI操作状態」という。これに対して、ユーザが表示部118に表示される各種GUIを操作しないため、表示部118に撮像画像を表示しない状態を、以下「操作待機状態」という。
また、GUI操作状態に遷移するか否かを判断するための、所定の時間や画素数の所定の閾値は任意に設定されるものであり、特定の値に限定されるものではない。また、以下の説明においては、操作待機状態からGUI操作状態に遷移するために設定された所定の時間を「操作状態遷移設定時間」という。
上述したように、状態遷移処理部105は、操作状態遷移設定時間以上継続して、入力操作領域画像を構成する画素数が、あらかじめ設定された所定の閾値以上である場合には、操作待機状態からGUI操作状態へと遷移させる。一方、状態遷移処理部105は、操作状態遷移設定時間以上継続して、入力操作領域画像を構成する画素数が、あらかじめ設定された所定の閾値以上でない場合には、操作待機状態を維持する。また、GUI操作状態において、状態遷移処理部105は、例えば、あらかじめ設定された所定の時間以上継続して、入力操作領域画像を構成する画素数が、あらかじめ設定された所定の閾値以下である場合には、GUI操作状態から操作待機状態へと遷移させる。なお、以下の説明においては、このようにGUI操作状態から操作待機状態に遷移するために設定された所定の時間を「待機状態遷移設定時間」という。
このように、状態遷移処理部105が、GUI操作状態と操作待機状態との遷移を制御することにより、本実施形態に係るテレビ100は、ユーザがGUIの操作を所望するときにのみ、表示部118に入力操作領域画像を表示させることができる。したがって、ユーザが所定の番組を楽しんでいる場合などのように、GUIの操作を希望しない場合においては、表示部118には入力操作領域画像を表示させないことができる。
(撮像画像表示処理部106)
次に、ユーザ領域検出部104によって生成された入力操作領域画像に対して、表示部118に表示するために所定の処理を実行する撮像画像表示処理部106について説明する。撮像画像表示処理部106は、上述した状態遷移処理部105によって、操作待機状態からGUI操作状態へと遷移された場合に、入力操作領域画像に所定の処理を実行する。図2に示すように、撮像画像表示処理部106は主に、スケーリング処理部126と、座標変換処理部128と、を含んで構成される。以下、撮像画像表示処理部106を構成する各部の詳細について説明する。
(スケーリング処理部126)
スケーリング処理部126は、表示部118の有効画素数に基づいて、入力操作領域画像をスケーリングする。入力操作領域画像は、上述したように、基本的にユーザの動く手のみを含む画像である。したがって、テレビ100からユーザまでの距離や、撮像部102の撮像性能などによって、入力操作領域画像においてユーザの手が含まれる領域の画素数は異なる。したがって、一定の大きさの入力操作領域画像を常に表示部118に表示させるように、スケーリング処理部126は、入力操作領域画像に対してスケーリング処理を行う。
スケーリング処理部126は、例えば、状態遷移処理部105によりGUI操作状態に遷移された後、数フレーム前までの入力操作領域画像の平均画素数および画素領域の重心を算出する。その後、スケーリング処理部126は、算出された平均画素数が、表示部118の有効画素数の所定の割合となるように、スケーリングの比率を算出する。スケーリング処理部126は、例えば、表示部118の有効画素数の10%となるように入力操作領域画像をスケーリングすることができる。このときスケーリング処理部126は、例えば、算出された重心を中心として、入力操作領域画像をスケーリングすることができる。
これにより、撮像部102の撮像性能や、ユーザまでの距離などに関わらず、表示部118に常に一定の大きさの入力操作領域画像が表示されることとなる。
なお、上記のスケーリング比率は、例えば初期設定などで所定の値に設定することができ、ユーザにより適宜変更されることも当然に可能である。
(座標変換処理部128)
上述したようにしてスケーリング処理が施された入力操作領域画像は、その後、座標変換処理部128により座標変換処理が施されることもできる。座標変換処理部128は、スケーリング処理が施された入力操作領域画像に対して、表示部118に対応する画面座標に座標変換を行う。
撮像部102の仕様や表示部118のディスプレイ仕様などによっては、撮像画像から生成された入力操作領域画像の座標系と、表示部118の画面座標と、が異なる形式の場合がある。このような場合に、座標変換処理部128は、入力操作領域画像に対して座標変換処理を行い、表示部118の画面座標に合わせた座標系に変換する。これにより座標変換処理が施された入力操作領域画像は、表示部118に正確に表示されることとなる。
図3は、座標変換処理部128による座標変換の処理の一例を示す概念図である。図3に示す例は、スケーリング処理が施された入力操作領域画像の座標系が、中心を原点とした座標系で、表示部118の画面座標が、左上を原点として横1920×縦1080である場合である。このような場合、座標変換処理部128は、表示部118のスクリーン座標をXs、Ysとし、入力操作領域画像の座標をXc、Ycとすると、以下の式により座標変換を行うことができる。
Xs=スクリーン幅(1920)×(Xc+1.0)/2
Ys=スクリーン高さ(1080)×(2.0−(Yc+1.0))/2
なお、上記式は、アスペクト比を考慮しない座標変換であるが、撮像部102により撮像される画像および表示部118のディスプレイのアスペクト比を考慮して座標変換をすることも当然に可能である。アスペクト比を考慮した座標変換については、通常行われるクリッピング処理などを利用することができ、詳細の処理については省略する。また、上記例では、座標変換処理部128は、撮像部102により撮像される画像の座標系を表示部118の画面座標に適合するように、座標変換処理を行う例について説明したが、これに限定されるものではない。例えば、座標変換処理部128は、表示部118の画面座標を撮像部102により撮像される画像の座標系に適合するように、座標変換処理を行うこともできる。
このようにして、撮像画像表示処理部106によって各種処理が施された入力操作領域画像は、表示部118に伝送されて表示されることとなる。
(表示部118)
表示部118は、例えば、CRT(Cathode Ray Tube)、LCD(Liquid Crystal Display;液晶ディスプレイ)、有機ELディスプレイ(organic ElectroLuminescence display)などからなる表示装置である。表示部118は、アンテナ(図示せず)などにより放送局から受信した所定の番組や、撮像画像表示処理部106から伝送された入力操作領域画像や、各種GUIなどを表示することができる。ユーザは、表示部118に表示される各種GUIと、入力操作領域画像に含まれる自己の手の映像に基づいて、テレビ100の各種機能を選択・実行することができる。
(GUI表示制御部108)
次に、テレビ108が備える各種機能に対応するGUIの表示部108への表示を制御する、GUI表示制御部108について説明する。なお、GUI表示制御部108は、本発明の操作用アイコン表示制御部として機能するものである。
GUI表示制御部108は、上述した状態遷移処理部105によりGUI操作状態に遷移された場合や、後述するGUI操作判断部112によってユーザが何らかの機能を選択した場合などに、表示部118への各種GUIの表示切替などを制御する。GUI表示制御部108は、例えば、GUI管理部110が管理するGUIの中からGUI操作判断部112によって指示されたGUIを表示部118へ表示させる。なお、GUI表示制御部108による表示部118へのGUIの表示制御の詳細については、後述する処理フローにおいて説明する。
(GUI管理部110)
GUI管理部110は、テレビ104が備える各種機能に対応するGUIを管理する。表示部118に表示させるGUIは、ユーザが操作を直感的に認識できるような操作用アイコンで構成される。したがって、テレビ104が備える各種機能に対応して異なるGUIを表示部118に表示させる必要がある。GUI管理部110は、このような異なる複数のGUIを管理する。なお、GUI管理部110は、本発明の操作用アイコン管理部として機能するものである。
ここで、GUI管理部110によって管理されるGUIの一例について図4を参照にして説明する。図4は、GUI管理部110によって管理されるGUIの一例を示す説明図である。
図4に示すスライドバーGUI400は、例えば、音量調整や、ディスプレイの輝度・明度調整や、画面の上下方向へのスライドなどに利用される。すなわち、ユーザは、表示部118に表示されるスライドバーGUI400に対して、自己の指を上下方向に動かすことにより、テレビ100に対して、音量調整や、ディスプレイの輝度・明度調整や、画面の上下方向へのスライドなどを実行させることができる。
次に、ダイヤルGUI402は、例えば、音量調整や、再生画像のコマ送りや、設定画面の入力数字の切り替えなどに利用される。すなわち、ユーザは、表示部118に表示されるダイヤルGUI402に対して、円を描くように自己の指を動かすことにより、テレビ100に対して、音量調整や、再生画像のコマ送りや、設定画面の入力数字の切り替えなどを実行させることができる。
次に、押しボタンGUI404は、例えば、チャンネル選択や、設定画面の数字入力や、メニュー選択の決定などに利用される。すなわち、ユーザは、表示部118に表示される押しボタンGUI404に対して、自己の指を例えば下方向に動かすことにより、テレビ100に対して、チャンネル選択や、設定画面の数字入力や、メニュー選択の決定などを実行させることができる。
次に、ON/OFFスイッチGUI406は、例えば、消音モード、一時停止モード、二ヶ国語モードなどの所定のモードのON/OFF決定などに利用される。すなわち、ユーザは、表示部118に表示されるON/OFFスイッチGUI406に対して、自己の指を例えば上方向に動かすことにより、テレビ100に対して、消音モード、一時停止モード、二ヶ国語モードなどの所定のモードのON/OFF決定などを実行させることができる。
次に、ジョグダイヤルGUI408は、例えば、チャンネル切り替えや、音量調整や、設定モードの切り替えや、メニュー表示の切り替えなどに利用される。すなわち、ユーザは、表示部118に表示されるジョグダイヤルGUI408に対して、自己の指を例えば上下方向に動かすことにより、テレビ100に対して、チャンネル切り替えや、音量調整や、設定モードの切り替えや、メニュー表示の切り替えなどを実行させることができる。
なお、図4に示したGUIは、本実施形態においてGUI管理部110が管理し、表示部118に表示させるGUIの一例を示したものであり、これらに限定されるものではない。すなわち、GUI管理部110は、テレビ100が備える各種機能やモードなどに対応する種々のGUIを有することができ、これらのGUIはGUI表示制御部108によって表示部118に表示されることができる。
また、GUI管理部110は、管理するGUIに対応するイベント発行定義情報も管理している。上述したように、ユーザは、表示部118に表示される各GUIに対して、自己の指を動かすことにより各GUIに対応するテレビ100の種々の機能を選択・実行することができる。ここで、ユーザが、表示部118に表示されるGUIを操作したか否かは、後述するGUI操作判断112によって判断される。したがって、GUI操作判断部112は、ユーザがどのように指を動かしたときに、GUIを操作したと判断するかを認識しておく必要がある。したがって、GUI管理部110は、GUI毎に、操作入力に必要なユーザの指の動きに関する情報、すなわちイベント発行定義情報を管理する必要がある。通常、操作入力に必要なユーザの指の動きはGUI毎に異なるものである。例えば、図4に示したスライドバーGUI400は上下方向のみの操作に対応し、ダイヤルGUI402は回転方向のみの操作に対応する。また、押しボタンGUI404などは特に、操作入力に必要なユーザの指の動きをあらかじめ定義しておく必要がある。したがって、GUI管理部110は、GUI毎にイベント発行定義情報を管理しておく。これによりGUI操作判断部112は、表示部118に表示されるGUIと、入力操作領域画像に含まれるユーザの指の動きと、GUI管理部110が管理するイベント発行定義情報と、に基づいて、ユーザがGUIを操作したか否かを正確に判断することができる。
図5は、GUI管理部110が管理するGUIとイベント発行定義情報の一例を示す説明図である。図5に示すように、GUI管理部110は、テレビ100の機能と、当該機能に対応するGUIと、当該GUIに対応するイベント発行定義情報とを、データベースにより管理しておくことができる。
例えば、テレビ100の音量調整に対しては、横方向のスライドバーGUIが対応し、GUI管理部110は、当該スライドバーGUIに対応するイベント発行定義情報を有している。図5に示す例では、当該スライドバーGUIのイベント発行定義情報は、「カーソル位置から左右方向へ5フレーム連続で移動」である。これは、例えば、ユーザの動く指を表す入力操作領域画像の画素領域の重心が、当該スライドバーGUIのカーソル位置から、5フレーム連続で左または右方向へ移動した場合、当該スライドバーGUIへの操作入力を受け付けることができることを意味する。すなわち、入力操作領域画像の画素領域の重心が、当該スライドバーGUIのカーソル位置から、5フレーム連続で右方向に移動した場合、音量が増加し、5フレーム連続で左方向に移動した場合、音量が減少することとなる。このように、GUI管理部110が、図5に示すようなデータベースを管理することにより、操作判断部112は、当該データベースに基づいて、ユーザからのGUI操作を正確に受け付けることができる。
なお、図5に示したデータベースは、本実施形態を説明する上での一例であり、これらに限定されるものではない。すなわち、図5に示したイベント発行定義情報は、例えば、初期設定などで設定されることや、ユーザにより任意に設定変更されることが当然に可能なものである。したがって、ユーザは、自己の感覚に最も適合する指の動きによってGUIを操作できるように、GUIやイベント発行定義情報の設定を任意に変更することができる。
(GUI操作判断部112)
上述したように、GUI操作判断部112は、表示部118に表示されるGUIと、入力操作領域画像の画素領域の重心と、GUI管理部110が管理するイベント発行定義情報と、に基づいて、ユーザがGUIを操作したか否かを判断する。なお、GUI操作判断部112は、本発明の操作判断部として機能するものである。
GUI操作判断部112は、例えば、撮像画像表示処理部106によって所定の処理が施された入力操作領域画像に含まれるユーザの指の画素領域の重心をフレーム毎に算出する。このようにして算出された重心は、後述するGUI操作記憶部に記憶される。これにより、GUI操作判断部112は、過去のフレームの重心から現在のフレームの重心への軌跡を算出することにより、ユーザの指の動き認識することができる。GUI操作判断部112は、このようにして算出された重心の軌跡と、表示部118に表示されるGUIの位置する画素領域とを比較し、上記のイベント発行定義情報に基づいて、当該GUIの操作入力を受け付けるか否かを判断することができる。なお、GUI操作判断部112によって判断される、GUI操作の一例の詳細については、後述する処理フローにおいて説明する。
(GUI操作記憶部114)
GUI操作記憶部114は、上述したように、GUI操作判断部112によって算出された重心や、重心の軌跡などを記憶する記憶領域である。GUI操作記憶部114は、例えば、不揮発性のメモリやハードディスクなどによって構成されることができる。
(処理実行部116)
処理実行部116は、上述したGUI操作判断部112の判断結果に応じて、テレビ100の備える各種機能を実行する。上述したように、表示部118に表示される各GUIは、テレビ100の備える各種機能に対応している。したがって、例えば、音量調整に対応するスライドバー形式のGUIがユーザによって操作されたとGUI操作判断部112が判断した場合、処理実行部116は、テレビ100の音量調整を実行する。また、例えば、チャンネル選択に対応する押しボタン形式のGUIがユーザによって操作されたとGUI操作判断部112が判断した場合、処理実行部116は、テレビ100のチャンネル変更を実行する。
以上のような機能構成を有することにより、本実施形態に係るテレビ100は、ユーザが操作を容易に認識することが可能な操作用アイコンのGUIを、表示部118に表示させることができる。また、テレビ100の備える撮像部102によって撮像されるユーザの指の動きを、正確に表示部118に表示させることもできる。また、表示部118に表示される各GUIに対応するイベント発行定義情報を、GUI管理部110によって管理することもできる。これにより、本実施形態に係るテレビ100は、表示部118に表示されるGUIと、ユーザの指の動きと、イベント発行定義情報とに基づいて、GUIの操作入力を受け付けることができる。すなわち、本実施形態に係るテレビ100は、ディスプレイなどの表示部118に、操作用アイコンであるGUIを表示し、ユーザが直感的に指を動かして各種機能を選択・実行することを可能とする。
(2−2.撮像処理からGUI操作処理までの全体の処理フロー)
次に、上記のように構成される本実施形態のテレビ100を利用して、ユーザによりGUI操作が行われる処理の全体的な流れについて説明する。
図6は、本実施形態に係るテレビ100を利用して、ユーザによりGUI操作が行われる処理の全体的な流れを示すフロー図である。なお、図6は、全体的な処理の流れを示すフローであり、図6に示す各処理の詳細については、後述する各処理の処理フローにおいて説明する。
図6に示すように、ステップ700においては、撮像データ入力処理が行われる。これは、撮像部102によって撮像される撮像画像に対して、ユーザの指(手)が動いている領域のみを特定して、表示部118に表示するための入力操作領域画像を生成する処理である。上述したように、これらの処理は、ユーザ領域検出部104が備える動き検出部120、肌色検出部122および演算処理部124などによって実行される。
次に、ステップ900においては、ステップ700によって生成された入力操作領域画像に基づいて、GUI操作状態または操作待機状態のいずれかの状態に遷移させる処理が行われる。これは、ステップ700によって生成された入力操作領域画像を構成する画素数と、あらかじめ設定された所定時間や閾値などに基づいて、いずれの状態に遷移するかを決定し、決定された状態に遷移する処理である。上述したように、これらの処理は、状態遷移処理部105によって実行される。
次に、ステップ900においては、現在、GUI操作状態であるか操作待機状態であるかを判断する。GUI操作状態である場合には、ステップ1000以降の処理を実行し、操作待機状態である場合には、ユーザによるGUI操作は行われない。
次に、ステップ1000においては、ステップ700によって生成された入力操作領域画像を表示部118に正確に表示させるために、撮像画像表示処理が行われる。これは、ステップ700によって生成された入力操作領域画像に対して、スケーリング処理や座標変換処理などを行う処理である。上述したように、これらの処理は、撮像画像表示処理部106が備えるスケーリング処理部126および座標変換処理部128などによって実行される。
その後、ステップ1200においては、表示部118に表示されるGUIと、ステップ1000によって表示部118に表示されたユーザの指の動きとに基づいて、各GUIに対応するテレビ100の機能を実行する処理が行われる。これは、例えば、表示部118に表示されるGUIと、入力操作領域画像を構成するユーザの指の画素領域の重心の軌跡と、イベント発行定義情報などに基づいて、ユーザがGUIを操作したか否かを判断する処理である。さらに、当該判断結果に応じて、表示部118に表示されるGUIを変更したり、テレビ100の備える各種機能を実行したりする処理である。上述したように、これらの処理は、GUI操作判断部112、GUI表示制御部108および処理実行部116などによって実行される。
以上のような処理フローにより、本実施形態に係るテレビ100は、ユーザが容易に理解可能な操作用アイコンのGUIを表示部118に表示し、ユーザによる直感的な指の動きに応じて、テレビ100の備える各種機能を実行することができる。
次に、図6に示した各処理の詳細の処理フローについて以下説明する。
(2−3.撮像データ処理フロー)
まず、図6に示した処理フローのうち、ステップ700による撮像データ処理に関する詳細の処理フローについて説明する。図7は、図6に示したステップ700による撮像データ処理の詳細な処理の流れを示すフロー図である。
撮像データ処理フローは、まずステップ702において、撮像部102によって撮像された撮像データが、ユーザ領域検出部104が備える動き検出部120および肌色検出部122などに入力される。
次に、ステップ704においては、動き検出部120は、入力された現在の撮像データと、過去の撮像データとの差分に基づいて、撮像部102によって撮像された画像のうち、動きのある領域のみを特定する。その後、動き検出部120は、このようにして特定した動き領域のみから生成される画像である、動き領域マスク画像を生成し、演算処理部124へ伝送する。
次に、ステップ706においては、肌色検出部122は、入力された現在の撮像データに対して、上述したHSV変換処理などを行う。これにより、肌色検出部122は、撮像部102によって撮像された画像のうち、肌色領域のみを特定する。その後、肌色検出部122は、このようにして特定した肌色領域のみから生成される画像である、肌色領域マスク画像を生成し、演算処理部124へ伝送する。
次に、ステップ708においては、演算処理部124は、ステップ704によって伝送された動き領域マスク画像と、ステップ706によって伝送された肌色領域マスク画像とに基づいて、入力操作領域画像を生成する。上述したように、演算処理部124は、動き領域マスク画像を構成する画素領域と、肌色領域マスク画像を構成する画素領域とに対して、AND演算を行うことにより、入力操作領域画像を生成する。この結果、演算処理部124は、可能な限り、動きのあるユーザの指のみから構成される画像を、入力操作領域画像として生成することができる。
次に、ステップ710においては、ステップ708によって生成された入力操作領域画像が状態遷移処理部105に伝送される。
以上のような処理フローで構成される撮像データ処理は、撮像部102が所定の時間毎に撮像する撮像データ毎に実行される。
(2−4.状態遷移処理フロー)
次に、図6に示した処理フローのうち、ステップ800による状態遷移処理に関する詳細の処理フローについて説明する。図8は、図6に示したステップ800による状態遷移処理の詳細な処理の流れを示すフロー図である。
状態遷移処理フローは、まずステップ802において、状態遷移処理部105は、ユーザ領域検出部104から伝送された入力操作領域画像を構成する画素数が、あらかじめ設定された閾値以上か否かを決定する。撮像部102によって撮像された画像の中に、ユーザが動かす指(手)が映っていないような場合、すなわち、ユーザがGUIの操作を希望していない場合には、撮像画像を表示部118に表示させる必要がない。したがって、ステップ802において、入力操作領域画像を構成する画素数が、あらかじめ設定された閾値以上でないと判断された場合、状態遷移処理部105は、ステップ812において、操作待機状態を維持する。すなわち、表示部118には、撮像部102によって撮像された画像が表示されない。
一方、ステップ802において、入力操作領域画像を構成する画素数が、あらかじめ設定された閾値以上と判断された場合、状態遷移処理部105は、ステップ804の処理を行う。すなわち、状態遷移処理部105は、入力操作領域画像を構成する画素数が閾値以上である状態が、操作状態遷移設定時間以上継続したか否かを判断する。例えば、撮像部102の撮像可能領域に、一瞬だけユーザの手が入った場合に、表示部118に撮像画像を表示することは、ユーザにとって煩わしい結果となる。したがって、ユーザが表示部118に表示されるGUIの操作を真に要望する場合にのみ撮像画像を表示部118に表示させるため、状態遷移処理部105は、ステップ804の判断処理を行う。すなわち、ステップ804において、操作状態遷移設定時間以上継続して、入力操作領域画像を構成する画素数が、あらかじめ設定された閾値以上であると判断された場合にのみ、状態遷移処理部105は、GUI操作状態へ遷移させる。この結果、ユーザが所定時間以上、撮像部102の撮像可能領域で手を動かした場合にのみ、表示部118に、ユーザの手を含む画像が表示されることとなる。
その後、ステップ808において、入力操作領域画像は、表示部118への表示に必要な処理を施されるために、撮像画像表示処理部106へ伝送される。
また、GUI操作状態に遷移した場合においては、ステップ810において、GUI表示制御部108は、表示部118に所定のGUIを表示させることもできる。GUI表示制御部108は、例えば、ユーザがGUI操作を希望する場合における初期メニューなどを表示部118に表示させることができる。
図9は、ステップ810において、GUI表示制御部108が表示部118に表示させるGUIの一例を示す説明図である。図9に示す例では、表示部118を構成するディスプレイには、音量を調整するスライドバーGUIや、チャンネル選択をする押しボタンGUIや、番組表に画面を切り替える押しボタンGUIや、視聴中の番組を録画するON/OFFスイッチGUIなどが表示されている。なお、GUI操作状態に遷移した際に表示部118に表示されるこれらのGUIは、デフォルト設定などで任意に設定することができるものであり、図9に示す例に限定されるものではない。例えば、ユーザは、GUI操作状態に遷移した際に、頻繁に使用する機能に対応するGUIが表示部118に表示されるように任意に設定することができる。また、図8に示すフローでは、GUI操作状態に遷移した際に、GUIを表示部118に表示する例について説明したが、操作待機状態においても表示部118にこれらのGUIを表示させておくことなども当然に可能である。すなわち、表示部118には、常に所定のGUIを表示させておき、GUI操作状態に遷移した場合にのみ、ユーザの指(手)を含む入力操作領域画像を表示させることなどもできる。このように、どのようなGUIを表示部118のどの位置に、いつ表示させるかなどは、ユーザにより任意に設定変更することが可能である。
(2−5.撮像画像表示処理フロー)
次に、図6に示した処理フローのうち、ステップ1000による撮像画像表示処理に関する詳細の処理フローについて説明する。図10は、図6に示したステップ1000による撮像画像表示処理の詳細な処理の流れを示すフロー図である。
撮像画像表示処理フローは、まずステップ1002において、スケーリング処理部126が、入力操作領域画像に対してスケーリング処理を実行する。上述したように、スケーリング処理部126は、状態遷移処理部105から伝送された入力操作領域画像を構成する画素数が、表示部118の有効画素数に対して所定の割合となるようにスケーリング処理を行う。なお、スケーリング処理は、上述したように、入力操作領域画像の重心および画素数の平均値などに基づいて行われる。
次に、ステップ1004において、座標変換処理部128は、スケーリング処理が施された入力操作領域画像を、表示部118の画面座標に適合するように座標変換を行う。上述したように、当該処理は、入力操作領域画像の座標系式と、表示部118の画面座標とが異なる場合に行われる処理である。
その後、ステップ1006において、入力操作領域画像、すなわち、撮像部102により撮像された画像のうちユーザの指を含む部分の領域が表示部118に表示される。なお、この際、撮像画像表示処理部106は、入力操作領域画像を左右反転して表示部118に表示させることもできる。これにより、ユーザの手の動きに合わせて表示部118にユーザの手が表示されることとなる。この結果、ユーザは、あたかも自らの手で表示部118に表示されるGUIを操作するように、各GUIに対応するテレビ100の機能を選択・実行することができる。
図11は、ステップ1006によって、入力操作領域画像が表示部118に表示された場合の一例を示す説明図である。図11では、表示部118を構成するディスプレイには、ユーザの手を含む入力操作領域画像が表示されていることがわかる。ユーザは、ディスプレイに表示される自己の手の位置を参考にして手を動かすことにより、ディスプレイに表示される任意のGUIを操作することができる。
(2−6.GUI操作処理フロー)
次に、図6に示した処理フローのうち、ステップ1200によるGUI操作処理に関する詳細の処理フローについて説明する。なお、以下の説明においては、図11に示した例における、番組表表示用の押しボタンGUIの操作処理を例に説明する。図12は、図6に示したステップ1200により、押しボタンGUIを操作する処理の詳細な処理の流れを示すフロー図である。
GUI操作処理フローは、まずステップ1202において、GUI操作判断部112が、現在表示部118に表示される入力操作領域画像を構成する画素領域の重心を算出する。
次に、ステップ1204においては、GUI操作判断部112は、ステップ1202によって算出された重心が、押しボタンGUIが表示される表示部118の画素領域に位置するか否かを判断する。表示部118に表示されるユーザの指が押しボタンGUIに位置していない場合には、当該GUIに対応する機能を実行する必要はない。したがって、ステップ1204において、重心が、押しボタンGUIが表示される表示部118の画素領域に位置していないと判断された場合には、当該GUIに対応する処理は行われない。
一方、ステップ1204において、重心が、押しボタンGUIが表示される表示部118の画素領域に位置していると判断された場合には、GUI操作判断部112は、ステップ1206の処理を実行する。すなわち、GUI操作判断部112は、GUI操作記憶部114に記録されている過去の入力操作領域画像の重心と、現在の重心とに基づいて、重心の動きベクトルを算出する。詳細は後述するが、GUI操作判断部112によって算出された重心は、ステップ1212において、GUI操作記憶部114に記録される。したがって、GUI操作判断部112は、現在の重心と、過去の所定のフレーム数の重心とに基づいて、重心の軌跡を算出することにより、重心の動きベクトルを認識することができる。このようにして算出された動きベクトルは、ユーザが指を動かした軌跡に相当するものである。
次に、ステップ1208においては、GUI操作判断部112は、ステップ1206によって算出された動きベクトルが、GUI管理部110によって管理されるイベント発行定義情報を満足するか否かを判断する。例えば、図5に示したイベント発行定義情報を参照すると、番組表表示に対応する押しボタンGUIのイベント発行定義情報は、「ボタン位置から下方向へ3フレーム連続で移動」である。したがって、GUI操作判断部112は、算出された現在の重心および過去2フレームの重心に基づいて算出された動きベクトルが、表示部118の下方向に移動している場合は、イベント発行定義情報を満足していると判断することができる。一方、算出された現在の重心および過去2フレームの重心に基づいて算出された動きベクトルが、表示部118の下方向に移動していない場合は、GUI操作判断部112は、イベント発行定義情報を満足していないと判断することができる。
ステップ1208において、イベント発行定義情報を満足していると判断された場合、操作判断部112は、処理実行部116およびGUI表示制御部108に判断結果を伝送する。これを受けて処理実行部116は、ステップ1210において、表示部118に番組表を表示する。さらに、GUI表示制御部108は、ステップ1210において、新しいGUIを表示部118に表示する。
図13は、ステップ1210により表示部118が更新される流れの一例を示す概念図である。図13を参照すると、ユーザが指を、押しボタンGUI上で一定時間(本実施形態では3フレーム分に相当する時間)下方向に移動させると、表示部118の表示が番組表に切り替わっていることがわかる。また、表示部118には、番組表を上下方向や左右方向にスライドさせるための新しいスライドバーGUIが表示されていることがわかる。これにより、ユーザは当該スライドバーGUIに相当する位置で指を動かすことにより、表示部118に表示される番組表をスライドさせることができる。
なお、番組表表示の押しボタンGUIが選択された場合に、どのようなGUIを表示させるかなどは、例えば、GUI管理部110が管理しておくことができる。したがって、GUI表示制御部108は、GUI操作判断部112からの指示を受け付けると、GUI管理部110が管理する情報に基づいて新しいGUIを表示部118に表示することができる。
その後、ステップ1212においては、GUI操作判断部112は、ステップ1202によって算出された重心を、GUI操作記憶部114に記録する。上述したように、当該ステップにより記録された重心は、動きベクトルを算出するために利用される。
このようにして、GUI操作判断部112は、表示部118に表示される番組表表示の押しボタンGUIがユーザによって操作されたか否かを判断することができる。また、判断結果に応じて、処理実行部116は、番組表を表示部118に表示し、GUI表示制御部108は、新しいGUIを表示部118に表示することができる。
なお、上記の例においては、番組表表示の押しボタンGUIの操作処理を例に説明したが、他のGUIについても同様の処理フローにより実行されることが当然に可能である。すなわち、GUI処理判断部112は、GUI管理部110が管理するデータベースを参照することにより、対象となるGUIのイベント発行定義情報に基づいて、ユーザによるGUI操作の有無を判断することができる。
また、上記例においては、GUI操作判断部112は、入力操作領域画像を構成する画素領域の重心に基づいて動きベクトルを算出したが、これに限定されるものではない。例えば、重心以外の値、例えば、指先に相当する画素値など、入力操作領域画像を構成する画素領域の所定の位置を、重心の代わりとなる基準値として利用することも可能である。このように、入力操作領域画像を構成する画素領域のいずれの位置を基準値として判断するかは、適宜設定変更などにより変更することができるものである。
以上説明した処理フローにより、本実施形態に係る情報処理装置の一例であるテレビ100は、ユーザがテレビ100の所定の機能を選択・実行したい場合にのみ、ユーザが動かしている指(手)を含む入力操作領域画像を、表示部118に表示させることができる。また、テレビ100は、ユーザが用意に操作性を認識することができる操作用アイコンのGUIを、テレビ100が備える各種機能に応じて、表示部118に表示させることができる。また、テレビ100は、GUI毎にイベント発行定義情報を管理することにより、ユーザが表示部118に表示されるGUIの操作を行っているか否かを容易に判断することができる。これにより、テレビ100は、ユーザの指の動きに応じて、テレビ100が備える各種機能を実行したり、新しいGUIを表示部118に表示したりすることができる。すなわち、本実施形態に係る情報処理装置の一例であるテレビ100は、ディスプレイなどにより構成される表示部118に、操作用アイコンのGUIを表示することにより、ユーザが直感的に指を動かして各種機能を選択・実行することを可能とする。
(3.変形例)
上述したテレビ100は、上記実施形態を説明する上での一例であり、本発明はこれらに限定されるものではなく、さらなる別の機能を追加的に備えることなども可能である。以下上述した実施形態に係る情報処理装置の変形例について説明する。
(3−1.変形例1(音声入力機能の利用))
上記実施形態に係るテレビ100の変形例1として、テレビ200について以下説明する。なお、変形例1のテレビ200は、上述したテレビ100の有する各種機能に加えて、音声入力機能を備え、当該音声入力に応じて、各種GUIを表示部118に表示させることを可能とする。
図14は、変形例1のテレビ200の機能構成を示すブロック図である。変形例1のテレビ200は、上述したテレビ100と比較して、音声入力部202および音声認識処理部204をさらに備える。また、当該音声入力部202から入力される音声に応じて、表示部118に表示されるGUIの切り替えなどの処理を行うGUI表示制御部208と、所定の音声入力に対応するGUIをデータベースとして管理するGUI管理部210とを有する。
音声入力部202は、例えば、マイクロフォンなどで構成され、ユーザが発声する音声を入力し、電気信号としての音声信号に変換する。その後、AD変換機(図示せず)などによって音声信号はデジタル信号に変換され、音声認識処理部204へ伝送される。
音声認識処理部204は、例えば、音声入力部202から供給された音声データに対して所定の時間間隔で周波数分析などを行い、スペクトルやその他の音響的特徴量(パラメータ)を抽出する。音声認識処理部204は、このようにして抽出したパラメータなどと、あらかじめ設定された音声パターンなどとに基づいて、音声入力部202に入力された音声を認識する。音声認識処理部204による判断結果は、GUI表示制御部208へ伝送される。
なお、音声認識処理部204による音声認識は、特定の認識方法に限定されるものではなく、音声入力部202に入力される音声を認識することが可能な種々の方式を用いることができる。
GUI表示制御部208は、音声認識処理部204から伝送された音声判断結果に基づいて、表示部118のGUIの表示切り替えなどを実行する。GUI表示制御部208は、例えば、GUI管理部210が管理する、音声入力と、当該音声に対応するGUIとを関連付けたデータベースに基づいて、表示部118に表示するGUIを決定することができる。GUI管理部210は、例えば、「音量」、「ボリューム」、「音」などの音声入力に対しては音量調整用のスライドバーGUI、「チャンネル」、「xx局」などの音声入力に対してはチャンネル切り替え用の押しボタンGUI、といったように、音声入力と、当該音声に対応するGUIとを関連付けたデータベースを管理することができる。したがって、GUI表示制御部208は、GUI管理部210が管理するデータベースに基づいて、適切なGUIを選択して表示部118に表示させることができる。
以上の結果、変形例1のテレビ200は、ユーザが発生した音声に応じて、ユーザが所望するテレビ200の各種機能に対応するGUIを表示部118に表示させることができる。この結果、ユーザは、希望するテレビ200の機能を直感的に発声することにより、表示部118に当該機能に対応するGUIを表示させることができ、表示されたGUIに対して、直感的に指を動かすことにより各種機能を選択・実行することができる。
(3−2.変形例2(カーソルGUIの利用))
次に、上記実施形態に係るテレビ100の変形例2として、テレビ300について以下説明する。なお、変形例2のテレビ300は、上述したテレビ100の有する各種機能に加えて、ディスプレイに表示されるテキスト、人物や商品などの任意のオブジェクトなどを含む任意の表示領域を、ユーザが指を動かすことにより指定することを可能とする。さらに、変形例2のテレビ300は、ユーザにより指定された任意の表示領域に対して、所定の処理を実行することができる。
図15は、変形例2のテレビ300を利用して、ユーザがディスプレイ上の任意の表示領域を指定する概念図である。図15に示すように、ユーザは、例えば、視聴中の番組で気になったシーン、人物、テキストなどがあると、当該人物などを囲うように直感的に指を動かす。これを受けてテレビ300は、ユーザの指の動きを撮像部102により撮像し、ユーザの指の動きに合わせて、カーソルGUIをディスプレイ上で移動させる。このようにしてカーソルの軌跡によって囲まれた表示領域に対して、ユーザは、例えば、拡大表示、印刷、E−Mailへの添付、WEBによる検索など、様々な楽しみ方をすることができる。以下、このような特徴を有する変形例2のテレビ300の詳細について説明する。
図16は、変形例2のテレビ300の機能構成を示すブロック図である。変形例2のテレビ300は、上述したテレビ100と同様の機能構成を有するが、主に、GUI表示制御部308およびGUI操作判断部312が異なる機能をさらに有している。具体的には、GUI表時制御部308は、表示部118に、ユーザの指の動きに合わせてカーソルGUIを表示させる機能を有する。また、GUI操作判断部312は、カーソルGUIの動きに基づいて、ユーザにより所定の表示領域が選択されたか否かを判断する機能を有する。
GUI表示制御部308は、図15に示したように、ユーザの指の動きに合わせて表示部118にカーソルGUIを表示させる。なお、ユーザの指の動きの検出方法などの詳細については、上述した実施形態に係るテレビ100と同様であるためここでは省略する。GUI表示制御部308は、例えば、GUI操作判断部312によって算出された入力操作領域画像の重心に基づいて、当該重心を中心とする所定の大きさの円形状のカーソルGUIを表示部118に表示させることができる。上述した実施形態に係るテレビ100と同様に、GUI操作判断部312は、入力操作領域画像の重心、および当該重心の軌跡である動きベクトルを算出し、GUI操作記憶部114に記録しておくことができる。したがって、GUI表示制御部308は、GUI操作判断部312が算出した重心の動きベクトルに合わせて、カーソルGUIの軌跡を表示部118に表示させることができる。すなわち、GUI表示制御部308は、ユーザの指の動きに合わせて、カーソルGUIの軌跡を表示部118に表示させることができる。
GUI操作判断部312は、上述した実施形態に係るテレビ100と同様に、入力操作領域画像の重心、および当該重心の軌跡である動きベクトルを算出し、GUI操作記憶部114に記録する。また、GUI操作判断部312は、当該動きベクトルに基づいて、表示部118に表示されるカーソルGUIの軌跡が閉曲線を描いたか否かを判断する。すなわち、GUI操作判断部312は、ユーザが指を動かして、表示部118の所定領域を指定したか否かを判断することができる。GUI操作判断部312は、例えば、現在の動きベクトルが、過去の動きベクトルと交差したか否かなどにより、カーソルGUIの軌跡が閉曲線を描いたか否かを判断することができる。また、GUI操作判断部312は、動きベクトルが交差していない場合であっても、動きベクトルが所定のパターンを満たした場合には、軌跡補間処理を行うことにより、ユーザが所定の表示領域を指定したと判断することもできる。ここで、軌跡補間処理とは、実際には、重心の動きベクトルが閉曲線を描いていない場合においても、例えば、動きベクトルの始点と現在の重心とを結合するなどして、所定の表示領域を囲う閉曲線を生成することを言う。このような軌跡補間処理を行うことにより、ユーザは、正確に指を一周させなくても、容易に表示部118の所定の表示領域を指定することができる。
GUI操作判断部312は、ユーザにより所定の表示領域が指定されたと判断した場合、GUI表示制御部308や、処理実行部116に判断結果を伝送する。これにより、GUI表示制御部308は、指定された表示領域に対する所定の処理に関する操作用GUI、例えば、拡大表示用のスライドバーGUI、WEBへのアクセス用の押しボタンGUIなどの種々のGUIを表示部118に表示させることができる。また、処理実行部116は、ユーザによるGUI操作に応じて、拡大表示、WEBへのアクセス、印刷、E−MAILへの添付などの各種処理を実行することができる。
次に、このような特徴を有する変形例2のテレビ300により行われる、任意の表示領域に対する所定の処理の流れの一例について説明する。図17は、変形例2のテレビ300が、ユーザの指の動きに合わせて指定される所定の表示領域を特定し、当該表示領域に対して所定の処理を実行する処理の流れの一例を示すフロー図である。なお、テレビ300は、例えば、表示部118に表示される所定のボタンGUIなどを選択した場合や、音声入力があった場合などのように、ユーザが所定の表示領域の指示を希望する場合に、図17に示す処理フローを実行することができる。
図17に示すように、GUI操作判断部312は、ステップ1700においては、入力操作領域画像を構成する画素領域の重心を算出する。また、GUI操作判断部312は、算出した重心をGUI操作記憶部114に記録する。
次に、GUI操作判断部312は、ステップ1702において、現在の重心と、GUI操作記憶部114に記録されている過去の重心とを結ぶ動きベクトルを算出する。これによりGUI操作判断部312は、重心の軌跡を認識することができる。また、GUI操作判断部312は、算出した動きベクトルをGUI操作記憶部114に記録する。このようにしてGUI操作記憶部114に記録される動きベクトルを結合することにより、GUI操作判断部312は、重心の軌跡を認識することができる。図18は、重心を結ぶことにより動きベクトルが生成される一例を示す概念図である。図18に示すように、GUI操作判断部312は、現在の重心と、1つ前の入力操作領域画像を構成する画素領域の重心とを結んで動きベクトルを算出することができる。このようにして算出された動きベクトルを結合することにより、GUI操作判断部312は、表示部118の表示領域における、入力操作領域画像の重心の軌跡を認識することができる。
このようにして算出された重心および動きベクトルは、GUI表示制御部308へ伝送される。これを受けて、GUI表示制御部308は、ステップ1704において、重心の座標位置を中心に所定の大きさのカーソルGUIを表示し、動きベクトルの軌跡をカーソルGUIの軌跡として表示部118に表示させることができる。したがって、GUI表示制御部308は、ユーザの指の動きに合わせて、表示部118にカーソルGUIの軌跡を描くことができる。
次に、GUI操作判断部312は、ステップ1706においては、重心の軌跡が閉曲線を描いたか否か、すなわち、重心の軌跡により所定の表示領域が囲われたか否かを判断する。GUI操作判断部312は、例えば、ステップ1702により算出した動きベクトルが、過去に算出した動きベクトルと交差したか否かなどにより、重心の軌跡が閉曲線を描いたか否かを判断することができる。
ステップ1706において、重心の軌跡が閉曲線を描いたと判断された場合、GUI操作判断部312は、閉曲線で囲まれた表示領域をユーザが指定した領域と判断し、当該判断結果をGUI表示制御部308および処理実行部116へ伝送する。その後、ステップ1708において、GUI表示制御部308は、所定の操作用アイコンGUIを表示部118へ表示し、処理実行部116は、ユーザのGUI操作に応じたイベントを実行する。ユーザが所定の表示領域を指定することにより実行することができるイベント(機能)としては、例えば、当該領域の拡大表示、印刷、E−MAILへの添付、WEBでの検索などが想定されるが、特定の機能に限定されるものではない。このように、テレビ300は、例えば、通信部、プリンタとの接続部などを備えることにより、ユーザが指定した表示領域に対して種々の機能を実行することができる。また、上記例では、GUI操作判断部312は、閉曲線により囲まれた表示領域をユーザが指定した領域と判断したが、例えば、閉曲線の外側にある表示領域をユーザが指定した領域と判断してもよい。
なお、上記説明ではステップ1706で閉曲線が描かれたと判断された場合、ステップ1708の処理を実行したが、本実施形態はこれに限定されない。例えば、閉曲線が一度描かれた場合は指定領域の仮決定であり、2度描かれた場合は指定領域の決定であり、3度描かれた場合は当該指定領域をキャンセルするなどとすることも可能である。このように、閉曲線により指定される表示領域の決定は、例えばユーザ設定などにより任意に変更されることができる。
その後、ステップ1710において、GUI操作判断部312は、表示部118に表示されているカーソルGUIと、カーソルGUIの軌跡をクリアする。また、GUI操作判断部312は、GUI操作記憶部114に記録されている重心の動きベクトルを消去してもよい。これにより、ユーザは指を動かすことにより、再度、別の表示領域を指定することなどもできる。
一方、ステップ1706において、重心の軌跡が閉曲線を描いていないと判断された場合、GUI操作判断部312は、ステップ1712において、重心の軌跡が、軌跡補間条件を満足しているか否かを判断する。ここで、軌跡補間とは、実際は重心の軌跡が閉曲線を描いていない場合であっても、閉曲線となるように重心の軌跡を結合する処理をいう。これにより、ユーザは、閉曲線を描くように正確に指を動かさなくても、GUI操作判断部312が軌跡補間処理を行うことにより閉曲線が描かれたと判断することができる。
また、軌跡補間条件とは、GUI操作判断部312が軌跡補間処理を行うための条件である。軌跡補間条件は、任意に設定することが可能であり、特定の条件に限定されるものではない。軌跡補間条件の一例としては、例えば、動きベクトルが「++」、「+−」、「−−」、「−+」といった時計回りのパターンを一巡し、かついずれかの同じ符号ペアが再度現れたときとすることができる。また、同様に、動きベクトルが「−−」、「+−」、「++」、「−+」といった反時計回りのパターンを一巡し、かついずれかの同じ符号ペアが再度現れたときとすることができる。もちろんこれらの軌跡補間条件は本実施形態における一例であり、これらに限定されるものではない。
ステップ1712において、軌跡補間条件を満足していると判断された場合、GUI操作判断部312は、ステップ1714において、軌跡補間処理を行う。すなわち、GUI操作判断部312は、現在の重心と、重心の軌跡の開始点などを結合し、擬似的な閉曲線を生成する。図19は、軌跡補間処理により、実際には閉曲線を描いていない重心の軌跡を結合する一例を示す概念図である。図19を参照すると、実際には、重心の軌跡は閉曲線を描いていないが、軌跡補間処理により現在の重心と、任意の過去の重心とを結合して閉曲線が生成されていることがわかる。GUI操作判断部312は、このようにして生成された閉曲線を、ユーザが指定した表示領域と判断し、判断結果を、GUI表示制御部308および処理実行部116へ伝送する。その後、上述したステップ1708およびステップ1710により、ユーザが指定した表示領域に対して所定の処理が行われる。
一方、ステップ1712において軌跡補間条件を満足していないと判断された場合、GUI操作判断部312は、ユーザによりまだ所定の表示領域が選択されていないと判断する。これにより、GUI表示制御部308は、表示部118へのカーソルGUIの表示を継続する。
以上のステップを、撮像部102により撮像されるフレーム毎に行うことにより、変形例2のテレビ300は、ユーザが表示部118の所定の表示領域を指定したか否かを判断することができる。さらに、変形例2のテレビ300は、ユーザにより指定された所定の表示領域に対して実行可能な所定の処理に対応する操作用アイコンGUIを表示部118に表示させることができる。このようにして表示される操作用アイコンGUIがユーザにより選択等された場合に、変形例2のテレビ300は、当該GUIに対応する各種機能を実行することができる。すなわち、変形例2のテレビ300は、ディスプレイに表示される所定のオブジェクトやテキストなどを、ユーザが直感的に指を動かして指定することにより、当該指定されたオブジェクトやテキストなどに対して、各種機能を実行することを可能である。
以上、添付図面を参照しながら本発明の好適な実施形態について詳細に説明したが、本発明はかかる例に限定されない。本発明の属する技術の分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本発明の技術的範囲に属するものと了解される。
例えば、上記実施形態では、本発明の情報処理装置の一例としてテレビについて中心に説明したが、本発明はかかる例に限定されない。例えば、パーソナルコンピュータや、音楽プレイヤー、デジタルラジオなどの、各種操作用のディスプレイを備える情報処理装置であってもよい。また、ハードディスクレコーダ、DVD(Digital Versatile Disc)レコーダなどの各種録画再生機器や、ゲーム機器などのように、外部機器のディスプレイにGUIを表示させる情報処理装置であってもよい。このようなディスプレイを備えない情報処理装置においては、上述したテレビ100の実施形態における表示部118を備えず、外部機器が備えるディスプレイへの映像出力端子などを備えることにより、上述した本発明の効果を奏することが可能である。
また、情報処理装置は、上述した実施形態や変形例の各種機能や処理を実行する情報処理プログラムを実行することにより実現することもできる。当該プログラムは、例えば、情報処理装置が備えるプログラム記憶部などに格納され、CPU(Central Processing Unit)に読み込まれて実行されることにより、上述した各種機能や処理を情報処理装置が実行することができる。したがって、情報処理装置は、当該プログラムを更新することにより、新しい機能を追加したり、バージョンアップしたりすることもできる。また、情報処理プログラムは、情報処理装置で読み取り可能な記録媒体で提供されることもできる。記録媒体は、例えば、磁気ディスク、光ディスク、光磁気ディスク、フラッシュメモリなどである。また、当該情報処理プログラムは、記録媒体を用いずに、例えばネットワークを介して配信されてもよい。
また、上述した、動き検出、肌色検出、スケーリング処理、座標変換処理、軌跡補間処理などは、上記実施形態を説明する上での一例であり、上記説明の例に必ずしも限定されるものではない。例えば、上記説明とは異なる手法、条件、式などによる動き検出、肌色検出、座標変換処理、軌跡補間処理などであってもよい。
また、上述した実施形態に係るテレビ100、変形例1のテレビ200、変形例2のテレビ300などの有する機能を組み合わせることなども当然に可能である。例えば、変形例2のテレビ300において、ユーザにより所定の表示領域が指定された場合において、ユーザからの音声入力に応じて、当該表示領域に関する処理に対応するGUIを表示させることなども可能である。
また、本明細書において、フローチャートに記述されたステップは、記載された順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的に又は個別的に実行される処理をも含む。また時系列的に処理されるステップでも、場合によっては適宜順序を変更することが可能であることは言うまでもない。例えば、図7に示したステップ704による動き領域マスク画像の生成と、ステップ706による肌色領域マスク画像の生成とは、図7に示した順序に限らず、逆の順序、またはこれらのステップを平行して同時に行うことも当然に可能である。
本発明の実施形態に係る情報処理装置の使用例の概念図である。 本発明の第1実施形態に係るテレビ100の機能構成を示すブロック図である。 同実施形態において、座標変換処理部128による座標変換の処理の一例を示す概念図である。 同実施形態において、GUI管理部110によって管理されるGUIの一例を示す説明図である。 同実施形態において、GUI管理部110が管理するGUIとイベント発行定義情報の一例を示す説明図である。 同実施形態に係るテレビ100を利用して、ユーザによりGUI操作が行われる処理の全体的な流れを示すフロー図である。 同実施形態において、図6に示したステップ700による撮像データ処理の詳細な処理の流れを示すフロー図である。 同実施形態において、図6に示したステップ800による状態遷移処理の詳細な処理の流れを示すフロー図である。 同実施形態において、GUI操作状態に遷移した場合に、GUI表示制御部108が表示部118に表示させるGUIの一例を示す説明図である。 同実施形態において、図6に示したステップ1000による撮像画像表示処理の詳細な処理の流れを示すフロー図である。 同実施形態において、入力操作領域画像が表示部118に表示された場合の一例を示す説明図である。 同実施形態において、図6に示したステップ1200により、押しボタンGUIを操作する処理の詳細な処理の流れを示すフロー図である。 同実施形態において、図12に示したステップ1210により表示部118が更新される流れの一例を示す概念図である。 変形例1のテレビ200の機能構成を示すブロック図である。 変形例2のテレビ300を利用して、ユーザがディスプレイ上の任意の画像領域を選択する概念図である。 変形例2のテレビ300の機能構成を示すブロック図である。 変形例2のテレビ300が、ユーザの指の動きに合わせて、所定の表示領域に対して所定の処理を実行する処理の流れの一例を示すフロー図である。 変形例2のテレビ300において、重心の動きベクトルを算出する一例を示す概念図である。 変形例2のテレビ300において、軌跡補間処理の一例を示す概念図である。
符号の説明
100、200、300 テレビ
102 撮像部
104 ユーザ領域検出部
105 状態遷移処理部
106 撮像画像表示処理部
108、208、308 GUI表示制御部
110、210 GUI管理部
112、312 GUI操作判断部
114 GUI操作記憶部
116 処理実行部
118 表示部
120 動き検出部
122 肌色検出部
124 演算処理部
126 スケーリング処理部
128 座標変換処理部
202 音声入力部
204 音声認識処理部

Claims (16)

  1. 被写体を撮像する撮像部と、
    ディスプレイに所定の処理に対応する操作用アイコンを表示させる操作用アイコン表示制御部と、
    前記撮像部により撮像された画像を構成する画素領域のうち、少なくともユーザの手の一部を含む画素領域から構成される入力操作領域画像を、前記ディスプレイに順次表示させる撮像画像表示制御部と、
    前記ユーザにより前記操作用アイコンが操作されたと判断するための条件であるイベント発行定義情報を、前記操作用アイコン毎に管理する操作用アイコン管理部と、
    前記ディスプレイに表示される入力操作領域画像および前記イベント発行定義情報に基づいて、前記ユーザが前記操作用アイコンを操作したか否かを判断する操作判断部と、
    前記操作判断部による判断結果に応じて、前記操作用アイコンに対応する所定の処理を実行する処理実行部と、
    を備える情報処理装置。
  2. 前記操作判断部は、前記入力操作領域画像を構成する画素領域の重心を算出し、前記ディスプレイに順次表示される前記入力操作領域画像を構成する画素領域の重心を結んで前記重心の動きベクトルを算出することにより、前記撮像部により撮像されるユーザの手の動きを認識する、請求項1に記載の情報処理装置。
  3. 前記操作判断部は、前記重心および動きベクトルと、前記イベント発行定義情報とに基づいて、前記ユーザが前記操作用アイコンを操作したか否かを判断する、請求項2に記載の情報処理装置。
  4. 前記操作用アイコン管理部は、前記ディスプレイに表示される操作用アイコンと、該操作用アイコンに対応する前記イベント発行定義情報と、該イベント発行定義情報に適合した場合に前記処理実行部が行う処理の内容とを、操作用アイコン毎に関連付けて管理する、請求項3に記載の情報処理装置。
  5. 前記操作判断部によって前記ディスプレイに表示された表示アイコンが前記ユーザによって操作されたと判断された場合、前記処理実行部は、前記操作用アイコン管理部が管理する当該操作用アイコンに関連付けられた処理内容を実行する、請求項4に記載の情報処理装置。
  6. 前記操作用アイコン表示制御部は、前記ユーザによる操作に応じて、前記ディスプレイに表示される操作用アイコンを適宜更新する、請求項5に記載の情報処理装置。
  7. 前記撮像部により撮像された画像に対して、1フレーム前に撮像された画像と比較して変化のある画素領域を検出し、当該検出された画素領域のみによって構成される動き領域マスク画像を生成する動き検出部と、
    前記撮像部により撮像された画像を構成する画素領域において、所定の色相を有する画素領域を検出し、当該検出された画素領域のみによって構成される肌色領域マスク画像を生成する動き検出部と、
    をさらに備え、
    前記入力操作領域画像は、前記動き領域マスク画像を構成する画素領域と、肌色領域マスク画像を構成する画素領域と、を論理積(AND)演算することにより算出される画素領域によって構成される、請求項6に記載の情報処理装置。
  8. 前記撮像画像表示部は、前記入力操作領域画像を構成する画素数が、あらかじめ設定された所定の時間以上、あらかじめ設定された所定の画素数以上である場合に、前記ディスプレイに前記入力操作領域画像を表示させる、請求項7に記載の情報処理装置。
  9. 前記撮像画像表示部は、前記入力操作領域画像を構成する画素数が、前記ディスプレイの表示可能画素数に対して所定の割合となるように、前記入力操作領域画像をスケーリングする、請求項8に記載の情報処理装置。
  10. 前記ディスプレイは、前記情報処理装置とは別の外部装置に備えられ、
    前記情報処理装置は、前記外部装置に備えられる前記ディスプレイに前記操作用アイコンおよび前記入力操作領域画像を表示させる、請求項1に記載の情報処理装置。
  11. 放送信号に含まれる所定の映像を表示する表示部をさらに備え、
    前記表示部は、前記ディスプレイを含む、請求項1に記載の情報処理装置。
  12. ユーザが発生する音声を入力する音声入力部と、
    前記音声入力部に入力される音声の種類を識別する音声認識処理部と、
    をさらに備え、
    前記操作用アイコン管理部は、前記音声の種類に対応して前記ディスプレイに表示する操作用アイコンの情報を、音声の種類毎に管理し、
    前記操作用アイコン表示制御部は、前記音声認識処理部により識別された音声の種類に応じて、当該識別された音声の種類に対応する操作用アイコンを、前記操作用アイコン管理部が管理する情報に基づいて、前記ディスプレイに表示させる、請求項1に記載の情報処理装置。
  13. 前記操作用アイコン表示制御部は、前記操作判断部により算出される前記重心の動きベクトルに基づいて、前記重心の軌跡を前記ディスプレイに表示させる、請求項2に記載の情報処理装置。
  14. 前記ディスプレイに表示される重心の軌跡が閉曲線となった場合、
    前記操作用アイコン表示部は、前記閉曲線により囲まれた表示領域に関する所定の処理に対応する操作用アイコンを前記ディスプレイに表示させる、請求項13に記載の情報処理装置。
  15. 撮像部により被写体を撮像する撮像ステップと、
    ディスプレイに所定の処理に対応する操作用アイコンを表示させる操作用アイコン表示ステップと、
    前記撮像ステップにより撮像された画像を構成する画素領域のうち、少なくともユーザの手の一部を含む画素領域から構成される入力操作領域画像を、前記ディスプレイに順次表示させる撮像画像表示ステップと、
    前記操作用アイコン表示ステップにより前記ディスプレイに表示された前記操作用アイコンと、前記撮像画像表示ステップにより前記ディスプレイに表示された前記入力操作領域画像と、前記操作用アイコン毎に管理される前記ユーザにより前記操作用アイコンが操作されたと判断するための条件であるイベント発行定義情報と、に基づいて、前記ユーザが前記操作用アイコンを操作したか否かを判断する操作判断ステップと、
    前記操作判断ステップによる判断結果に応じて、前記操作用アイコンに対応する所定の処理を実行する処理実行ステップと、
    を含む情報処理方法。
  16. 撮像部により被写体を撮像する撮像処理と、
    ディスプレイに所定の処理に対応する操作用アイコンを表示させる操作用アイコン表示処理と、
    前記撮像ステップにより撮像された画像を構成する画素領域のうち、少なくともユーザの手の一部を含む画素領域から構成される入力操作領域画像を、前記ディスプレイに順次表示させる撮像画像表示処理と、
    前記操作用アイコン表示ステップにより前記ディスプレイに表示された前記操作用アイコンと、前記撮像画像表示ステップにより前記ディスプレイに表示された前記入力操作領域画像と、前記操作用アイコン毎に管理される前記ユーザにより前記操作用アイコンが操作されたと判断するための条件であるイベント発行定義情報と、に基づいて、前記ユーザが前記操作用アイコンを操作したか否かを判断する操作判断処理と、
    前記操作判断ステップによる判断結果に応じて、前記操作用アイコンに対応する所定の処理を実行する処理実行処理と、
    を、コンピュータに実行させる情報処理プログラム。
JP2008208948A 2008-08-14 2008-08-14 情報処理装置、情報処理方法および情報処理プログラム Active JP4720874B2 (ja)

Priority Applications (7)

Application Number Priority Date Filing Date Title
JP2008208948A JP4720874B2 (ja) 2008-08-14 2008-08-14 情報処理装置、情報処理方法および情報処理プログラム
US12/539,422 US8237655B2 (en) 2008-08-14 2009-08-11 Information processing apparatus, method and program
CN2009101637162A CN101651804B (zh) 2008-08-14 2009-08-14 信息处理装置和方法
CN201210063792.8A CN102710911B (zh) 2008-08-14 2009-08-14 信息处理装置和方法
US13/546,801 US8698743B2 (en) 2008-08-14 2012-07-11 Information processing apparatus, method and program
US14/245,716 US20140333533A1 (en) 2008-08-14 2014-04-04 Information processing apparatus, method and program
US15/298,351 US20170102776A1 (en) 2008-08-14 2016-10-20 Information processing apparatus, method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008208948A JP4720874B2 (ja) 2008-08-14 2008-08-14 情報処理装置、情報処理方法および情報処理プログラム

Publications (2)

Publication Number Publication Date
JP2010045658A true JP2010045658A (ja) 2010-02-25
JP4720874B2 JP4720874B2 (ja) 2011-07-13

Family

ID=41673891

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008208948A Active JP4720874B2 (ja) 2008-08-14 2008-08-14 情報処理装置、情報処理方法および情報処理プログラム

Country Status (3)

Country Link
US (4) US8237655B2 (ja)
JP (1) JP4720874B2 (ja)
CN (2) CN102710911B (ja)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012121404A1 (en) * 2011-03-07 2012-09-13 Sharp Kabushiki Kaisha A user interface, a device incorporating the same and a method for providing a user interface
JP2013140578A (ja) * 2011-12-30 2013-07-18 Samsung Electronics Co Ltd 電子装置及びその制御方法
JP2013533999A (ja) * 2010-06-10 2013-08-29 コーニンクレッカ フィリップス エヌ ヴェ オプションを提示するための方法及び装置
JP2014058268A (ja) * 2012-09-19 2014-04-03 Alps Electric Co Ltd 動作予測装置及びそれを用いた入力装置
JP2014512620A (ja) * 2011-04-20 2014-05-22 クゥアルコム・インコーポレイテッド 仮想キーボードおよびその提供方法
JP2014215634A (ja) * 2013-04-22 2014-11-17 シャープ株式会社 入力装置、および、画像表示装置
JP2016018514A (ja) * 2014-07-11 2016-02-01 三菱電機株式会社 入力装置
JP2016508646A (ja) * 2013-02-22 2016-03-22 ユニバーサル シティ スタジオズ リミテッド ライアビリティ カンパニー 受動的ワンドを追跡しそして検出されたワンド経路に基づき効果を作用させるシステム及び方法
WO2022220049A1 (ja) * 2021-04-13 2022-10-20 株式会社ソニー・インタラクティブエンタテインメント システム、情報処理方法および情報処理プログラム

Families Citing this family (49)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009128064A2 (en) * 2008-04-14 2009-10-22 Pointgrab Ltd. Vision based pointing device emulation
DE102008020772A1 (de) * 2008-04-21 2009-10-22 Carl Zeiss 3D Metrology Services Gmbh Darstellung von Ergebnissen einer Vermessung von Werkstücken
US8941625B2 (en) * 2009-07-07 2015-01-27 Elliptic Laboratories As Control using movements
KR101038323B1 (ko) * 2009-09-24 2011-06-01 주식회사 팬택 영상인식기법을 이용한 화면 프레임 제어장치
GB2474536B (en) 2009-10-13 2011-11-02 Pointgrab Ltd Computer vision gesture based control of a device
US10357714B2 (en) * 2009-10-27 2019-07-23 Harmonix Music Systems, Inc. Gesture-based user interface for navigating a menu
US9981193B2 (en) 2009-10-27 2018-05-29 Harmonix Music Systems, Inc. Movement based recognition and evaluation
JP5743416B2 (ja) * 2010-03-29 2015-07-01 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム
US9358456B1 (en) 2010-06-11 2016-06-07 Harmonix Music Systems, Inc. Dance competition game
JP2011258160A (ja) * 2010-06-11 2011-12-22 Namco Bandai Games Inc プログラム、情報記憶媒体及び画像生成システム
US8416187B2 (en) * 2010-06-22 2013-04-09 Microsoft Corporation Item navigation using motion-capture data
EP2428870A1 (en) * 2010-09-13 2012-03-14 Samsung Electronics Co., Ltd. Device and method for controlling gesture for mobile device
US8890803B2 (en) 2010-09-13 2014-11-18 Samsung Electronics Co., Ltd. Gesture control system
EP2453386B1 (en) * 2010-11-11 2019-03-06 LG Electronics Inc. Multimedia device, multiple image sensors having different types and method for controlling the same
KR20120051212A (ko) * 2010-11-12 2012-05-22 엘지전자 주식회사 멀티미디어 장치의 사용자 제스쳐 인식 방법 및 그에 따른 멀티미디어 장치
JP5617581B2 (ja) * 2010-12-08 2014-11-05 オムロン株式会社 ジェスチャ認識装置、ジェスチャ認識方法、制御プログラム、および、記録媒体
EP2501143A3 (en) * 2011-03-15 2016-12-28 LG Electronics Inc. Method of controlling electronic device and portable terminal thereof
JP5845002B2 (ja) * 2011-06-07 2016-01-20 ソニー株式会社 画像処理装置および方法、並びにプログラム
KR101789683B1 (ko) 2011-06-13 2017-11-20 삼성전자주식회사 디스플레이 장치 및 그의 제어 방법, 그리고 리모컨 장치
US9225891B2 (en) 2012-02-09 2015-12-29 Samsung Electronics Co., Ltd. Display apparatus and method for controlling display apparatus thereof
TWI476702B (zh) * 2012-03-16 2015-03-11 Pixart Imaging Inc 使用者辨識系統及辨識使用者的方法
US8938124B2 (en) 2012-05-10 2015-01-20 Pointgrab Ltd. Computer vision based tracking of a hand
US9196219B1 (en) * 2012-07-18 2015-11-24 Amazon Technologies, Inc. Custom color spectrum for skin detection
TWI471814B (zh) * 2012-07-18 2015-02-01 Pixart Imaging Inc 降低背景干擾的手勢判斷方法及其裝置
US9218114B1 (en) 2012-09-04 2015-12-22 Amazon Technologies, Inc. Providing time-dependent items
US9697649B1 (en) 2012-09-04 2017-07-04 Amazon Technologies, Inc. Controlling access to a device
US9167404B1 (en) 2012-09-25 2015-10-20 Amazon Technologies, Inc. Anticipating data use in a wireless device
TWI488092B (zh) * 2012-12-07 2015-06-11 Pixart Imaging Inc 光學式觸控裝置及其操作方法
CN103885646B (zh) * 2012-12-21 2016-12-28 原相科技股份有限公司 光学式触控装置及其操作方法
AU350155S (en) * 2013-01-09 2013-08-13 Samsung Electronics Co Ltd Display screen for an electronic device
US10262112B2 (en) * 2013-02-04 2019-04-16 Precera Bioscience, Inc. Prescription decision support system and method using comprehensive multiplex drug monitoring
CN104007808B (zh) * 2013-02-26 2017-08-29 联想(北京)有限公司 一种信息处理方法及电子设备
US10185406B2 (en) * 2013-03-14 2019-01-22 Omnivision Technologies, Inc. Information technology device input systems and associated methods
US10220303B1 (en) 2013-03-15 2019-03-05 Harmonix Music Systems, Inc. Gesture-based music game
JP2014239359A (ja) * 2013-06-10 2014-12-18 日立マクセル株式会社 表示装置、及びコンテンツ視聴システム
JP6221505B2 (ja) * 2013-08-22 2017-11-01 富士通株式会社 画像処理装置、画像処理方法および画像処理プログラム
US10222866B2 (en) 2014-03-24 2019-03-05 Beijing Lenovo Software Ltd. Information processing method and electronic device
CN104951051B (zh) * 2014-03-24 2018-07-06 联想(北京)有限公司 一种信息处理方法和电子设备
JP6508200B2 (ja) * 2014-05-15 2019-05-08 ソニー株式会社 情報処理装置、表示制御方法およびプログラム
USD772919S1 (en) * 2014-10-23 2016-11-29 Visa International Service Association Display screen or portion thereof with animated graphical user interface
US9977565B2 (en) 2015-02-09 2018-05-22 Leapfrog Enterprises, Inc. Interactive educational system with light emitting controller
JP6848591B2 (ja) * 2017-03-28 2021-03-24 ブラザー工業株式会社 画像処理装置
CN107147950A (zh) * 2017-06-16 2017-09-08 环球智达科技(北京)有限公司 一种支持自定义模板数据添加的智能电视系统
CN108600626A (zh) * 2018-04-24 2018-09-28 阿里巴巴集团控股有限公司 拍摄控制方法、装置及便携式电子设备
CN109168062B (zh) * 2018-08-28 2020-11-24 北京达佳互联信息技术有限公司 视频播放的展示方法、装置、终端设备及存储介质
CN110110142A (zh) * 2019-04-19 2019-08-09 北京大米科技有限公司 视频处理方法、装置、电子设备及介质
USD923029S1 (en) * 2019-05-23 2021-06-22 Td Ip Holdco, Llc Display screen or portion thereof with graphical user interface
CN111954043B (zh) * 2020-08-11 2023-01-20 海信视像科技股份有限公司 一种信息栏显示方法及显示设备
CN115033168A (zh) * 2022-06-01 2022-09-09 业成科技(成都)有限公司 一种手势识别装置及其控制方法

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07141101A (ja) * 1993-11-19 1995-06-02 Hitachi Ltd 画像を用いた入力システム
JPH086708A (ja) * 1994-04-22 1996-01-12 Canon Inc 表示装置
JPH08315154A (ja) * 1995-02-21 1996-11-29 Mitsubishi Electric Res Lab Inc ジェスチャ認識システム
JPH09128141A (ja) * 1995-11-07 1997-05-16 Sony Corp 制御装置および制御方法
JP2001005599A (ja) * 1999-06-22 2001-01-12 Sharp Corp 情報処理装置及び情報処理方法並びに情報処理プログラムを記録した記録媒体
JP2006268212A (ja) * 2005-03-23 2006-10-05 Hiroshi Mitsumata 命令入力装置
JP2007128158A (ja) * 2005-11-01 2007-05-24 Sony Computer Entertainment Inc 情報表示装置
JP2008118633A (ja) * 2006-10-11 2008-05-22 Victor Co Of Japan Ltd 電子機器の制御装置及び制御方法

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH02132510A (ja) * 1988-11-12 1990-05-22 Sony Corp 入力装置
EP0823683B1 (en) * 1995-04-28 2005-07-06 Matsushita Electric Industrial Co., Ltd. Interface device
JP3777650B2 (ja) * 1995-04-28 2006-05-24 松下電器産業株式会社 インターフェイス装置
US6144366A (en) * 1996-10-18 2000-11-07 Kabushiki Kaisha Toshiba Method and apparatus for generating information input using reflected light image of target object
KR19990011180A (ko) * 1997-07-22 1999-02-18 구자홍 화상인식을 이용한 메뉴 선택 방법
AU2001227797A1 (en) * 2000-01-10 2001-07-24 Ic Tech, Inc. Method and system for interacting with a display
US7095401B2 (en) * 2000-11-02 2006-08-22 Siemens Corporate Research, Inc. System and method for gesture interface
JP2002311936A (ja) * 2001-04-18 2002-10-25 Toshiba Tec Corp 電子機器
US7665041B2 (en) * 2003-03-25 2010-02-16 Microsoft Corporation Architecture for controlling a computer using hand gestures
JP2004356819A (ja) 2003-05-28 2004-12-16 Sharp Corp リモート操作装置
JP2007087100A (ja) * 2005-09-22 2007-04-05 Victor Co Of Japan Ltd 電子機器システム
JP4569555B2 (ja) * 2005-12-14 2010-10-27 日本ビクター株式会社 電子機器
JP2008040576A (ja) * 2006-08-02 2008-02-21 Sharp Corp 画像処理システム及び該システムを備えた映像表示装置
JP4267648B2 (ja) * 2006-08-25 2009-05-27 株式会社東芝 インターフェース装置及びその方法
US8958848B2 (en) * 2008-04-08 2015-02-17 Lg Electronics Inc. Mobile terminal and menu control method thereof

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07141101A (ja) * 1993-11-19 1995-06-02 Hitachi Ltd 画像を用いた入力システム
JPH086708A (ja) * 1994-04-22 1996-01-12 Canon Inc 表示装置
JPH08315154A (ja) * 1995-02-21 1996-11-29 Mitsubishi Electric Res Lab Inc ジェスチャ認識システム
JPH09128141A (ja) * 1995-11-07 1997-05-16 Sony Corp 制御装置および制御方法
JP2001005599A (ja) * 1999-06-22 2001-01-12 Sharp Corp 情報処理装置及び情報処理方法並びに情報処理プログラムを記録した記録媒体
JP2006268212A (ja) * 2005-03-23 2006-10-05 Hiroshi Mitsumata 命令入力装置
JP2007128158A (ja) * 2005-11-01 2007-05-24 Sony Computer Entertainment Inc 情報表示装置
JP2008118633A (ja) * 2006-10-11 2008-05-22 Victor Co Of Japan Ltd 電子機器の制御装置及び制御方法

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013533999A (ja) * 2010-06-10 2013-08-29 コーニンクレッカ フィリップス エヌ ヴェ オプションを提示するための方法及び装置
US9639151B2 (en) 2010-06-10 2017-05-02 Koninklijke Philips N.V. Method and apparatus for presenting an option
WO2012121404A1 (en) * 2011-03-07 2012-09-13 Sharp Kabushiki Kaisha A user interface, a device incorporating the same and a method for providing a user interface
JP2014512620A (ja) * 2011-04-20 2014-05-22 クゥアルコム・インコーポレイテッド 仮想キーボードおよびその提供方法
JP2013140578A (ja) * 2011-12-30 2013-07-18 Samsung Electronics Co Ltd 電子装置及びその制御方法
JP2014058268A (ja) * 2012-09-19 2014-04-03 Alps Electric Co Ltd 動作予測装置及びそれを用いた入力装置
JP2016508646A (ja) * 2013-02-22 2016-03-22 ユニバーサル シティ スタジオズ リミテッド ライアビリティ カンパニー 受動的ワンドを追跡しそして検出されたワンド経路に基づき効果を作用させるシステム及び方法
JP2014215634A (ja) * 2013-04-22 2014-11-17 シャープ株式会社 入力装置、および、画像表示装置
JP2016018514A (ja) * 2014-07-11 2016-02-01 三菱電機株式会社 入力装置
WO2022220049A1 (ja) * 2021-04-13 2022-10-20 株式会社ソニー・インタラクティブエンタテインメント システム、情報処理方法および情報処理プログラム

Also Published As

Publication number Publication date
JP4720874B2 (ja) 2011-07-13
CN101651804B (zh) 2013-03-20
US20120278720A1 (en) 2012-11-01
CN102710911B (zh) 2015-06-10
US20170102776A1 (en) 2017-04-13
CN102710911A (zh) 2012-10-03
US8698743B2 (en) 2014-04-15
US20140333533A1 (en) 2014-11-13
CN101651804A (zh) 2010-02-17
US20100039378A1 (en) 2010-02-18
US8237655B2 (en) 2012-08-07

Similar Documents

Publication Publication Date Title
JP4720874B2 (ja) 情報処理装置、情報処理方法および情報処理プログラム
JP5829390B2 (ja) 情報処理装置、および情報処理方法
US9704028B2 (en) Image processing apparatus and program
US10453246B2 (en) Image display apparatus and method of operating the same
JP5423183B2 (ja) 表示制御装置および表示制御方法
JP5625643B2 (ja) 情報処理装置、および情報処理方法
US20100134411A1 (en) Information processing apparatus and information processing method
TW201344597A (zh) 顯示裝置控制方法、控制器及多媒體系統
JP2010079332A (ja) 遠隔操作装置及び遠隔操作方法
US20230269459A1 (en) Photographing processing method and apparatus, electronic device, and readable storage medium
JP2009089068A (ja) 電子機器の制御装置、制御方法及び制御プログラム
JP2015170175A (ja) 情報処理装置、および情報処理方法
CN112866773A (zh) 一种显示设备及多人场景下摄像头追踪方法
EP3923570A1 (en) Image processing device, image processing method, and program
JP2009087095A (ja) 電子機器の制御装置、制御方法及び制御プログラム
CN113852756A (zh) 图像获取方法、装置、设备和存储介质
US9774812B1 (en) Image processing terminal and method for providing a service based on sensing levels of a key in a remote controller
JP2009010849A (ja) 電子機器の制御装置
CN114924648A (zh) 显示设备、终端设备和手势交互方法
CN116801052A (zh) 显示设备和播放进度调节方法
JP2011229139A (ja) 記録装置、記録システム、表示装置、テレビジョン受像機、記録方法、プログラム、および、記録媒体
KR20130028431A (ko) 영상표시장치 및 그 동작방법

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100611

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100713

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100906

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110308

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110321

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140415

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140415

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250