JP4419768B2 - 電子機器の制御装置 - Google Patents

電子機器の制御装置 Download PDF

Info

Publication number
JP4419768B2
JP4419768B2 JP2004272706A JP2004272706A JP4419768B2 JP 4419768 B2 JP4419768 B2 JP 4419768B2 JP 2004272706 A JP2004272706 A JP 2004272706A JP 2004272706 A JP2004272706 A JP 2004272706A JP 4419768 B2 JP4419768 B2 JP 4419768B2
Authority
JP
Japan
Prior art keywords
image
image signal
signal
hand
waveform
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2004272706A
Other languages
English (en)
Other versions
JP2006091948A (ja
JP2006091948A5 (ja
Inventor
正博 北浦
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Victor Company of Japan Ltd
Original Assignee
Victor Company of Japan Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Victor Company of Japan Ltd filed Critical Victor Company of Japan Ltd
Priority to JP2004272706A priority Critical patent/JP4419768B2/ja
Priority to CN2007101967869A priority patent/CN101257594B/zh
Priority to CN200510081427XA priority patent/CN1753474B/zh
Priority to US11/229,506 priority patent/US7629959B2/en
Publication of JP2006091948A publication Critical patent/JP2006091948A/ja
Publication of JP2006091948A5 publication Critical patent/JP2006091948A5/ja
Application granted granted Critical
Publication of JP4419768B2 publication Critical patent/JP4419768B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/42204User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/4223Cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/431Generation of visual interfaces for content selection or interaction; Content or additional data rendering
    • H04N21/4312Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/431Generation of visual interfaces for content selection or interaction; Content or additional data rendering
    • H04N21/4312Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations
    • H04N21/4316Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations for displaying supplemental content in a region of the screen, e.g. an advertisement in a separate window
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/431Generation of visual interfaces for content selection or interaction; Content or additional data rendering
    • H04N21/4318Generation of visual interfaces for content selection or interaction; Content or additional data rendering by altering the content in the rendering process, e.g. blanking, blurring or masking an image region
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
    • H04N21/44008Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving operations for analysing video streams, e.g. detecting features or characteristics in the video stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
    • H04N21/4402Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving reformatting operations of video signals for household redistribution, storage or real-time display
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/442Monitoring of processes or resources, e.g. detecting the failure of a recording device, monitoring the downstream bandwidth, the number of times a movie has been viewed, the storage space available from the internal hard disk
    • H04N21/44213Monitoring of end-user related data
    • H04N21/44218Detecting physical presence or behaviour of the user, e.g. using sensors to detect if the user is leaving the room or changes his face expression during a TV program

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • General Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Social Psychology (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Business, Economics & Management (AREA)
  • Databases & Information Systems (AREA)
  • Marketing (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Image Processing (AREA)
  • Details Of Television Systems (AREA)
  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)
  • Selective Calling Equipment (AREA)

Description

本発明は、電子機器の制御装置に関し、特にテレビジョン受像機やパーソナルコンピュータのように表示装置を有する電子機器の遠隔操作を行うための制御装置に関する。
1980年代に赤外線リモートコントローラ(通称リモコン)がテレビジョン受像機をはじめとする家電機器に付属するようになり、手元で制御できるユーザインターフェースが広く普及し、家電製品の利用形態を大きく変貌させた。現在においてもこの操作形態が主流であるが、リモコンは1機能を1押しで実行する仕組みが基本となっており、例えばテレビジョン受像機では、「電源」「チャンネル」「音量」「入力切替」などのキーがそれに該当し、これまでのテレビジョン受像機にとって大変便利な遠隔の操作方法であった。
しかしながら、最近始まったデータ放送は、所望のメニュー画面を選択するために、リモコンの「上下左右」や「決定」キーを何度も押下することになり、煩雑で使いづらくなっている。また、EPG(電子プログラムガイド)は、マトリクスに配列された案内画面から所望の位置を選択してキーを押下するため、同様の課題を有していた。
特許文献1には、このような課題を解決するために、マウスまたはこれに類似する位置指定操作装置により得られる位置指定情報を、キー押下信号の時系列パターンであるキー押下時系列符号に符号化し、そのキー押下時系列符号をテレビジョン受像機に送信するようにした制御装置が提案されている。
特開2003−283866号公報
特許文献1に示された制御装置は、パーソナルコンピュータ(パソコン)の操作と酷似したポインティングの操作により、テレビジョン受像機を遠隔操作するものである。したがって、パソコンを利用しない人にとっては使いづらいもので、情報リテラシー(情報を使いこなす能力)の観点から、パソコンの使い勝手をそのまま導入することは無理がある。遠隔操作が求められる今日のテレビジョン受像機の利用形態にマッチした新たな操作手段が必要になっている。
さらにネットワーク化の進展は、宅内のストレージメディアや宅外のインターネットから得られる多様な情報を、テレビジョン受像機やパソコンのディスプレイに表示することで情報を受容することになる。この場合の操作形態は情報源に依存するため、多様な操作形態に対応する必要があり、家電機器に付属する現状のリモコンでは充分な対応が出来なかった。
以上説明したように、従来のリモコンでは、テレビジョン受像機などの機能の多様化と複雑化に対して、リモコンを肥大化させる。データ放送などのメニュー画面の選択操作を従来のリモコンで行うと、ポインティング装置としての役割がより重要となるため、従来のリモコンでは使い勝手の面で難点が多い。またネットワーク化は、ネットワークにつながるあらゆる機器の機能を、表示装置を介して制御することになり、つながる機器の数に比例してリモコンの数が増える問題がある。この問題は、テレビジョン受像機につながるVTR・ビデオディスク・その他オーディオ機器などでも現実にどのリモコンが該当のリモコンであるか判別がつかなくなるようなことで、現状でもよく経験している現象である。さらにインターネットに至っては、あらゆるウェッブサイトの情報を選択制御することになり、もはや従来のリモコンの形態では限界に達していることは自明である。
本発明は上述した点に着目してなされたものであり、多様な電子機器に対する柔軟性と遠隔操作の利便性を両立させると共に、リモコンのような遠隔操作用機器を手元で利用することを不要とした電子機器の制御装置を提供することを目的とする。
本発明は、表示装置を有する電子機器を制御する制御装置において、前記表示装置の前に位置する操作者を撮影するビデオカメラと、前記ビデオカメラで撮影された画像の鏡像変換を行って鏡像変換画像信号を出力する鏡像変換器と、少なくとも1つの操作ボタンを含む操作用画像に対応した操作用画像信号を生成する操作用画像生成部と、前記鏡像変換画像信号と前記操作用画像信号とを混合する混合器と、前記混合器により混合された画像信号を前記表示装置の画面上に表示させた状態において、画面に表示された操作者が前記操作用画像を指し示したことを検出する検出器と、前記検出器により前記操作用画像を指し示したことが検出された状態で、前記操作者が前記操作用画像を操作したか否かを検出し、前記操作用画像を操作したことを検出した場合に前記操作用画像に対応して前記電子機器の制御動作を行う制御部とを備え、前記検出器は、前記鏡像変換画像信号における前記操作ボタンに対応する操作領域を指し示す前記操作者の手の領域を抽出する抽出器と、前記操作領域の画像信号に占める前記手の領域の画像信号の変化を示すデータを検出する特徴データ検出器とを備え、前記制御部は、前記特徴データ検出器によって検出された前記データに基づいた第1の波形の周期が予め定めた周期であれば前記第1の波形を通過させる第1のフィルタと、前記第1の波形に基づく第2の波形と、予め設定されている波形との相関を求め、相関が高いほど大きい値を出力する第2のフィルタとを備え、前記第2のフィルタが出力した値が予め定めた値以上となると、前記操作者が前記操作用画像を操作したことを確定することを特徴とする電子機器の制御装置である。
また本発明は、表示装置を有する電子機器を制御する制御方法において、前記表示装置の前に位置する操作者をビデオカメラで撮影するステップと、前記ビデオカメラで撮影された画像の鏡像変換を行って鏡像変換画像信号を出力するステップと、少なくとも1つの操作ボタンを含む操作用画像に対応した操作用画像信号を生成するステップと、前記鏡像変換画像信号と前記操作用画像信号とを混合するステップと、混合された画像信号を前記表示装置の画面上に表示させた状態において、前記画面に表示された前記操作者が前記操作用画像を指し示したことを検出する第1の検出ステップと、前記操作用画像を指し示したことが検出された状態で、前記操作者が前記操作用画像を操作したか否かを検出する第2の検出ステップと、前記操作用画像を操作したことを検出した場合に前記操作用画像に対応して前記電子機器の制御動作を行うステップとを含み、前記第1の検出ステップは、前記鏡像変換画像信号における前記操作ボタンに対応する操作領域を指し示す前記操作者の手の領域を抽出する抽出ステップと、前記操作領域の画像信号に占める前記手の領域の画像信号の変化を示すデータを検出する変化検出ステップとを含み、前記第2の検出ステップは、前記変化検出ステップにおいて検出されたデータに基づいた第1の波形の周期が予め定めた周期であれば前記第1の波形を通過させるフィルタリングステップと、前記第1の波形に基づく第2の波形と、予め設定された波形との相関を求め、相関が高いほど大きい値を出力する比較ステップと、前記比較ステップにおいて求められた値が予め定めた値以上となると、前記操作者が前記操作用画像を操作したことを検出する操作検出ステップとを含むことを特徴とする電子機器の制御方法である。
本発明によれば、操作者がビデオカメラで撮影され、鏡像変換された鏡像変換画像信号と、操作ボタンを含む操作用画像信号とが混合されて、すなわち重ね合わされて表示装置に表示される。その状態で画面に表示された操作者が操作用画像を指し示したことを検出し、さらに操作者が操作用画像を操作したことを検出した場合に、操作用画像に対応した電子機器の制御動作が実行される。より具体的には、鏡像変換画像信号における操作ボタンに対応する操作領域を指し示す操作者の手の領域が抽出され、操作領域の画像信号に占める手の領域の画像信号の変化を示すデータが検出される。そして、検出されたデータに基づいた第1の波形が予め定めた周期であるとき、この第1の波形に基づく第2の波形と予め設定されている波形との相関を求めた値が予め定めた値以上を示すことに基づいて操作者が操作用画像を操作したことを検出すると、操作用画像に対応した電子機器の制御動作が実行される。したがって、リモコンのような遠隔操作装置を用いることなく、電子機器の遠隔操作が可能となる。この場合、操作用画像は、選択すべき操作、あるいは情報の内容に応じて適宜設定できるので、多様な電子機器に対する柔軟性と遠隔操作の利便性を両立させることができる。
以下本発明の実施の形態を図面を参照して説明する。
図1は、従来のリモコン装置による操作形態と、本発明の操作形態との違いを説明するための図である。視聴者(ユーザ)3が、テレビジョン受像機1を操作する場合、従来は視聴者3がリモコン装置4を手に持って所望の機能を働かせるキーをテレビジョン受像機1に向けて押下することによって操作する。したがって、リモコン装置4が無ければ操作が出来ず、不便を強いられる場合を時々経験する。
これに対し、本実施形態では、テレビジョン受像機1にビデオカメラ2が設けられており、ビデオカメラ2により視聴者3が撮影され、ビデオカメラ2の画像から視聴者3の動作を得て、テレビジョン受像機1及びそれに関連する機器の操作が行われる。視聴者3の動作とは、具相的にはテレビジョン受像機1に表示されるメニュー画面から所望のボタンを選択する身体(手、足、顔など)の動きのことである。またテレビジョン受像機1の周囲が暗いときは、身体以外のもの、例えばペンライトを使えば同様の効果が得られる。本実施形態ではもっとも現実的な手の動きで操作する手法が採用されている。
図2は、テレビジョン受像機1の構成を示すブロック図であり、テレビジョン受像機1は、基準同期発生器11、タイミングパルス発生器12、グラフィックス生成器16、ビデオカメラ2、鏡像変換器14、スケーラ15、第1の混合器17、画素数変換器21、第2の混合器22、表示装置23、検出部19、及び制御情報判断器(CPU)20を備えている。
基準同期発生器11は、テレビジョン受像機1の基準になる水平周期パルスと垂直周期パルスを発生させる。テレビジョン放送受信時や外部の機器から映像信号が入力されている場合は、その入力信号の同期信号に同期するパルスを生成する。タイミングパルス発生器12は、図に示す各ブロックで必要とする水平方向と垂直方向の任意の位相と幅を有するパルスを生成する。ビデオカメラ2は、図1に示すようにテレビジョン受像機1の前面に位置して視聴者(ユーザ)3、またはテレビジョン受像機前の映像を撮影する。ビデオカメラ2の出力信号は、輝度(Y)信号、及び色差(R−Y、B−Y)信号で、基準同期発生器11から出力される水平周期パルス及び垂直周期パルスに同期している。また、本実施形態では、ビデオカメラ2で撮像される画像の画素数は、表示装置23の画素数と一致しているものとする。なお、画素数が一致していない場合は画素数変換器を挿入すればよい。
鏡像変換器14は、ビデオカメラ2で撮影した被写体像を表示装置23上に鏡と同じように左右を反転して表示するためのものである。したがって、文字を表示する場合は鏡と同じように左右が反転することになる。これについては図3に示すとおり、水平周期でデータの書き込み及び読み出しを行う第1のメモリと第2のメモリを用いてアドレス操作を行うことにより、容易に実現できる。例えば1水平周期をN画素とした場合、二つのメモリの書き込みアドレス0〜N−1まで1水平周期ごと交互に入力信号を書き込み、書き込み動作と排他的に読み出しを行い、書き込みアドレスと逆にN−1〜0へと辿り、水平方向の画像を左右に反転させる。なお、本実施形態では、メモリを活用して水平方向の画像を反転させる手法を採用したが、表示装置23としてCRT(Cathode Ray Tube)を用いる場合には、水平偏向を逆に操作することで同様の効果が得られる。その場合には、グラフィックスやその他混合する側の画像をあらかじめ水平方向に左右逆転しておく必要がある。
スケーラ15は、ビデオカメラ2により撮影した被写体像の大きさを調整するもので、制御情報判断器(CPU)20の制御で拡大率と縮小率を2次元で調整する。また、拡大縮小を行わずに、水平と垂直の位相調整を行うこともできる。これの利用の仕方について後で詳しく述べる。
グラフィックス生成器16は、制御情報判断器(CPU)20から転送されるメニュー画面を展開するもので、メモリ上の信号がR(赤)信号、G(緑)信号、B(青)信号の原色信号で展開されていても、後段で映像信号と合成または混合される出力信号は、Y(輝度)信号と色差信号(R−Y、B−Y)とする。また生成されるグラフィックスのプレーン数は限定するものではないが、説明に要するものは1プレーンである。画素数は、本実施形態では表示装置23の画素数に一致させるようにしている。一致していない場合は、画素数変換器を入れて一致させる必要がある。
第1の混合器17は、グラフィックス生成器16の出力信号Gsと、スケーラ15の出力信号S1とを、制御値α1により混合割合を制御して混合する。具体的には、下記式で出力信号M1oが表される。
M1o=α1・S1+(1−α1)・Gs
制御値α1は、「0」から「1」の間の値に設定され、制御値α1を大きくするとスケーラ出力信号S1の割合が大きくなり、グラフィックス生成器出力信号Gsの割合が小さくなる。混合器の例としてはこれに限らないが、本実施形態では、入力される2系統の信号情報が入っていれば同様の効果が得られる。
検出部19は、第1の検出器31,第2の検出器32,第3の検出器33,第4の検出器34,…からなる。検出部19に含まれる検出器は数を特定するものではなく、グラフィックス生成器16で生成されるメニュー画面と連携した制御内容を表すプッシュボタン(パソコンではマウスでクリック操作する操作ボタンに該当)の数に対応して変動する。
制御情報判断器(CPU)20は、検出部19から出力されるデータの解析を行い、各種制御信号を出力する。制御情報判断器(CPU)20の処理内容は、ソフトウェアで実現するものとなり、アルゴリズムについては詳細に記述する。本実施形態では、ハードウェア(各機能ブロック)による処理と、ソフト(CPU上で展開)処理が混在するが、特にここで示す切り分けに限定するものではない。
画素数変換器21は、外部から入力される外部入力信号の画素数と表示装置23の画素数を合わせるための画素数変換を行う。外部入力信号は、放送されてくるテレビ信号(データ放送なども含む)やビデオ(VTR)入力などテレビジョン受像機の外部から入力されてくる信号を想定している。外部入力信号の同期系については、ここでの説明から省いてあるが、同期信号(水平及び垂直)を取得し、基準同期発生器11にて同期を一致させている。
第2の混合器22は、第1の混合器17と同様の機能を有する。すなわち、第1の混合器17の出力信号M1oと、画素数変換器21の出力信号S2とを制御値α2で混合割合を制御して混合する。具体的には、下記式で出力信号M2oが表される。
M2o=α2・M1o+(1−α2)・S2
制御値α2は、「0」から「1」の間の値に設定され、制御値α2を大きくすると第1の混合器出力信号M1oの割合が大きくなり、画素数変換器出力信号S2の割合が小さくなる。混合器の例としてはこれに限らないが、本実施形態では、入力される2系統の信号情報が入っていれば同様の効果が得られる。
表示装置23は、CRT(陰極線管)、LCD(液晶ディスプレイ)、PDP(プラズマディスプレイ)、あるいはプロジェクションディスプレイなどを想定しているが、ディスプレイの表示方式を限定するものではない。表示装置23の入力信号は、輝度信号Yと、色差信号R−Y及びB−Yであり、表示装置23の内部にてRGB原色信号にマトリクス変換されて表示される。
以上のように構成されたテレビジョン受像機1の動作を、視聴者(ユーザ)の動作を交えて説明する。図4は、グラフィックス画像41と、ビデオカメラ画像を鏡像変換し、スケーリングによりグラフィックス画像41と画素数を一致させたスケーラ出力画像43とを示しており、二つの画像41及び43に対応する信号が、第1の混合器17で混合される。グラフィックス画像41は、制御を行うためのメニュー画面を形成しており、四角形の42はプッシュボタン(操作ボタン)を表す。一方のスケーラ出力画像43は、ユーザを撮影し、鏡と同じように表示するものである。スケーラ出力画像43の中の破線の四角形44は、複数の検出器31,32等からなる検出部19の検出エリアを表したもので、グラフィックス画像41上のプッシュボタン42と同一の位置に配置されている。
図5は、第1の混合器17における混合処理を説明するためのイメージ図である。図5(A)はグラフィックス生成器16で生成される制御メニュー画面を表したものであり、プッシュボタン(1−1)〜(1−8)が含まれている。図5(B)は、ビデオカメラ2でユーザを捉えた画面(鏡像変換、及びスケーラ処理済み)で、検出部19の各検出器に対応する検出エリア(2−1)〜(2−8)が含まれている。第1の混合器17にて、図5(A)及び(B)に示す画面を制御値α1に対応する混合割合で混合した画面が、図5(C)に示されている。なお、図5(C)に表示されるユーザの画像は、実際には、図5(B)に示される画像より、制御値α1に対応して輝度及びコントラストが低下したものとなる。
このように表示装置23には、ユーザの画像が鏡と同様に映ると共に、制御のメニュー画面も重畳されて表示される。これによりユーザ本人は、自分の動きと制御メニューの位置を認識することが出来る。制御は、ユーザが画面を見て、画面上のプッシュボタンに触れるように手(身体)を動かすことにより行う。言い換えれば手をプッシュボタン上に位置するように画面を見てユーザが動作することにより、制御を行う。そして手を触れた(該当する)プッシュボタンと1:1になっている検出エリア内の手を検出すれば、該当するプッシュボタンを押したことが認識できる。したがって制御情報判断器(CPU)20から該当プッシュボタンの制御内容に相当する制御信号を出力することができる。その際グラフィック状のメニュー画面のプッシュボタンは形状及び/または色を変化させて、動作が認識されたことを表示上に表す。例えばプッシュボタンが押されたように画像を変化させる。
図6は、ビデオカメラ2からの画像上に設定している検出エリア(2−1)〜(2−8)と、検出部19の検出器31〜34との対応関係を示し、さらに検出エリア(2−1)及び(2−8)を特定するタイミングパルス(水平垂直)を示す。
各検出器31〜34は、図7に示すように、オブジェクト抽出器51と、タイミングゲート器52と、オブジェクト特徴データ検出部53とを備えている。タイミングゲート器52は、図6に示したタイミングパルスでビデオカメラ2からの画像信号の通過を制御する。通過する領域は図6に破線の四角形で示す検出エリア内である。この検出エリア内に限定した信号を、さらにさまざまなフィルタ処理してビデオカメラ2で捉えたユーザの手を抽出する。
オブジェクト抽出器51は、画像の特徴に添ったフィルタを備えており、本実施形態ではユーザの手を検出するために、特に肌色に着目したフィルタ処理を行う。オブジェクト抽出器51は、具体的には、図8に示されるように、特定色フィルタ71と、階調限定器72と、合成器73と、オブジェクトゲート74とを備えている。特定色フィルタ71を、図9を参照して説明する。図9は、色差平面図で、縦軸をR−Y、横軸をB−Yとしたものである。テレビ信号のすべての色信号はこの座標上のベクトルで表すことができ、極座標で評価できる。特定色フィルタ71は、色差信号で入力される色信号の色相と色の濃さ(飽和度)を限定するものである。これを特定するために色相は、第1象限のB−Y軸を基準(零度)として左回りの角度で表現するものとする。また飽和度は、ベクトルのスカラ量となり、色差平面の原点が飽和度零で色がない状態となり、原点から離れるにしたがい飽和度が大きくなり色が濃いことを示す。
図9では、特定色フィルタ71により抽出される範囲は、等色相線L1に対応する角度θ1より小さくかつ等色相線L2に対応する角度θ2の範囲に設定され、また色の濃さは等飽和度線S2より小さくS1より大きい範囲に設定されている。第2象限のこの範囲は本実施形態で抽出する人間の手の色である肌色の領域に相当するが、特にこれに限定するものではない。特定色フィルタ71は、ビデオカメラ2からくる色差信号(R−Y、B−Y)が等色相線と等飽和度線で囲まれた領域に入っているか否かを検出する。そのためには色差信号から角度と飽和度を算出して判定する。
角度算出は、一例として図10に示すような処理によって、入力画素それぞれについて、図9に示す色差平面上でなす角度を算出する。図10は、角度算出処理をフローチャートにて図示しているが、角度算出処理はソフトウェア、ハードウェアのいずれで実現してもよい。本実施形態では、ハードウェアで実現するようにしている。図10のステップS401にて、入力画素それぞれの色差信号R−Y,B−Y成分の符号より、入力画素の色相が、色差平面上の第何象限に位置しているかを検出する。ステップS402にて、色差信号R−Y,B−Y成分それぞれの絶対値の大きい方をA、小さい方をBとして算出する。
そして、ステップS403にて、B/Aより角度T1を検出する。この角度T1は、ステップS402の処理より明らかなように、0〜45°となる。角度T1は、折れ線近似やROMテーブルによって算出することができる。ステップS404にて、Aが|R−Y|であるか、即ち、|R−Y|>|B−Y|であるか否かを判定する。|R−Y|>|B−Y|でなければ、そのままステップS406に進む。|R−Y|>|B−Y|であれば、ステップS405にて、角度T1を、(90−T1)に置き換える。これによって、tan-1((R−Y)/(B−Y))が求められる。
ステップS403において検出する角度T1を0〜45°としているのは、tan-1((R−Y)/(B−Y))のカーブは45°を超えると急激に勾配が大きくなり、角度の算出に不適であるからである。
さらに、ステップS406にて、ステップS401にて検出した象限のデータを用いて第2象限か否かを判定し、第2象限であれば、ステップS407にて、T=180−T1を算出する。第2象限でなければ、ステップS408にて、第3象限か否かを判定し、第3象限であれば、ステップS409にて、T=180+T1を算出する。第3象限でなければ、ステップS410にて、第4象限か否かを判定し、第4象限であれば、ステップS411にて、T=360−T1を算出する。第4象限でもない、すなわち第1象限であるときは、角度TをT1とする(ステップS412)。そして、最終的に、ステップS413にて、入力画素それぞれの図9の色差平面上でなす角度Tを出力する。
以上の処理により、入力された色差信号R−Y,B−Yの色差平面上での角度を0〜360°の範囲で求めることができる。ステップS404〜S411は、ステップS403にて検出した角度T1を角度Tに補正する処理である。また、ステップS404〜S411は、角度T1を、第1〜第4象限に応じて補正している。
次に色の濃さである飽和度の算出は、下記の式により行われる。
Vc=sqrt(Cr×Cr+Cb×Cb)
但し、Crは、図9に示すように色信号の(R−Y)軸成分であり、Cbは(B−Y)軸成分である。またsqrt( )は平方根の演算を行う演算子である。
ここでの処理はソフトウェアまたはハードウェアを特定するものではないが、乗算と平方根はハードウェアでは実現が容易でなく、またソフトでも演算のステップが多く好ましくないので以下のように近似することも出来る。
Vc=max(|Cr|,|Cb|)
+0.4×min(|Cr|,|Cb|)
但し、max(|Cr|,|Cb|)は、|Cr|と|Cb|のうち、大きい方を選択する演算処理であり、min(|Cr|,|Cb|)は、|Cr|と|Cb|のうち、小さい方を選択する処理である。またVcはベクトルのスカラー量であり、ここでは飽和度を表す。
以上より求めた角度(色相)Tと飽和度Vcが、等色相線の角度θ1からθ2の範囲、色の濃さは等飽和度線S2より小さくかつS1より大きい範囲に入っているか否かを評価する。範囲に入っている信号を通過させるのが、図8に示す特定色フィルタ71の役割である。
図8の階調限定器72は、図11に示すように、輝度信号の特定の階調を限定するものである。8ビットデジタル信号の場合、0〜255までの256階調を有するが、この範囲の階調を限定する最大レベルLmax及び最小レベルLminを設定し、レベルがその間にある輝度信号を出力する。
合成器73は、特定色フィルタ71と階調限定器72から入力される信号を、領域パルスに変換する。すなわち、特定色フィルタ71を通過した信号と、階調限定器72を通過した信号の両方が存在(AND)する場合に、高レベルとなるパルスを出力する。
合成器73で生成された領域パルスは、オブジェクトゲート74に供給される。オブジェクトゲート74は、領域パルスが高レベルであるとき、輝度信号と色差信号を通過させる。領域パルス外の範囲(領域パルスが低レベルであるとき)、すなわち入力信号を通過させない場合は、規定した値の信号を出力する。本実施形態では、通過させない範囲では、黒レベルの輝度信号、及び飽和度ゼロの色差信号を出力する。
このオブジェクト抽出器51の働きは、特定色フィルタ71で色信号の色相(角度)と飽和度を限定したものをさらに輝度信号レベルで限定するものである。特定色フィルタ71で色相と飽和度を限定することで人の肌色に絞ることは出来るが、人の肌は日焼け具合で変化し、また人種によっても異なる。これら肌色と言ってもさまざまであるが、色相、飽和度、輝度信号の階調限定の範囲を調整すれば概ね人の手を検出することが出来る。本実施形態では人の手を対象にしているが、その他の色相と階調を適切に調整すれば、本実施形態におけるパラメータの変更の範疇で同様にして他のものと区別することが出来る。
図12(A)及び図13(A)は,ビデオカメラ2から入力されてくる画像に対してプッシュボタンの領域(破線四角)が設定されていることを表す。本発明はビデオカメラ画像に手をかざしその動作を制御情報として判別するものである。図12(B)及び図13(B)は、その手の動きを示す。図12(B)は、手をプッシュボタンにかざしたところを示し、図13(B)は、手の指を折り曲げた状態を示す。本実施形態では、この指を折り曲げる動作を2度繰り返すことでプッシュボタンを押したことを認識するようにしている。手をかざしただけでも、1度でも3度以上の動作でも、同様の効果を得ることが出来ることはいうまでもない。
次に図14を参照して、手の動作を時間軸に添って説明する。指を伸ばしている状態から折り曲げた状態までの経過時間をTmとする。図は説明を分かり易くするためにこれを動作の最小単位としてT0,T1,…,T6と時間を区切っている。以下に時間経過に添って説明する。
時刻T−1では、手が存在しない状態が示され、時刻T0では、手を所望のプッシュボタンに手をかざした状態が示され、時刻T1から、手を最低Tm期間保持し、時刻T2では、手の指を折り曲げた状態が示され、時刻T3では、手の指を折り曲げた状態から手の指を伸ばした状態が示され、時刻T4では、再度手の指を折り曲げた状態が示され、時刻T5では、折り曲げた手の指を再度伸ばした状態が示され、時刻T6から、手の指を伸ばした状態を最低Tm期間保持し、時刻T7では、手が存在しない場合が示されている。
以上がプッシュボタン上での手の動きである。図14の上側の波形図は、下側にモデル化して描いたプッシュボタン上の手のひらの投影面積の変化を示す。この波形を解析し、手の動きを特定することで制御動作を捉えることができる。
図15に、オブジェクト抽出器51の出力信号に対応する画像を示す。オブジェクト抽出器51を通過した信号は、タイミングゲートでプッシュボタンの領域が限定され、それ以外の領域は無視される。タイミングゲート内は特定色フィルタ71で色が特定され、ここでは手の肌色領域のみが通過となり、また階調方向にも限定され、限定された領域のみが通過となり、それ以外の領域が黒(輝度信号色信号ともに零)とされる。したがって、図15に示すように手の指以外が黒(ハッチングを施して示す)となる。図15(A)は指をかざした状態を示し、図15(B)は指を折り曲げた状態を示している。ここで肌色領域以外の領域を黒に設定したのはあくまでも後段の検出器での検出精度を上げるためであり、検出すべき対象物によって最適レベル(特定のレベル)を設定することになる。
この図15からさらに画像の特徴を検出する。図7に示すオブジェクト特徴データ検出部53は、画像からさまざまな特徴を検出する機能ブロック、すなわち、ヒストグラム検出器61、平均輝度(APL)検出器62、高域頻度検出器63、最小値検出器64、及び最大値検出器65からなる。この他にも画像を特徴づける項目はあるが本実施形態では、これらの内容にて手であることを判別すると共にその動作を認識する。
これらの検出器61〜65は、本実施形態ではハードウェアにて構成され、空間内の検出枠内の状態を画面単位(フィールド及びフレーム単位:垂直周期単位)のデータに加工して、制御情報判断器(CPU)20のバスヘ送出する。制御情報判断器(CPU)20は、ソフトウェア上で変数に格納し、データ処理を行う。
ヒストグラム検出器61は、輝度信号の階調を8ステップに区切って各ステップに存在する画素の数をカウントし、1画面(フィールドまたはフレーム画面)ごとに各ステップの頻度の値を制御情報判断器(CPU)20へ出力するものである。APL検出器62は、同様に1画面内の輝度レベルを加算し、画素数で割った1画面の平均輝度値を制御情報判断器(CPU)20へ出力する。高域頻度検出器63は、空間フィルタ(2次元フィルタ)にて高域成分を抽出し、その高域成分の頻度を1画面単位で制御情報判断器(CPU)20に出力する。最小値検出器64は、1画面の輝度信号の最小階調値を、また最大値検出器65は1画面内の輝度信号の最大階調値を制御情報判断器(CPU)20へ出力する。
制御情報判断器(CPU)20は、受け取ったデータを変数に格納し、ソフトウェア処理する。ここから以降は本実施形態においてはソフトウェア処理となる。
図16〜図21は、ヒストグラム検出器61及び平均輝度検出器62の出力データを示す図である。これは階調のヒストグラムと、平均輝度(APL)を示し、APLについては大きさを感覚的に分かるように矢印で示している。これらの図においては、縦紬に頻度を示し、横軸に階調(明るさ)を8ステップに区切って示している。ケース1とケース2は手の明るさが異なるもので、ケース1が特定のステップに手の頻度が集中している場合であり、ケース2は二つのステップにまたがっている場合を表している。図16〜図21は、図14に表した各時刻T−1,T0〜T6に対応したヒストグラムである。オブジェクト抽出器51にて特定色肌色で且つ階調を限定し、その他の部分が黒にされているので、ヒストグラム上の頻度は黒の部分と階調を限定した部分に集中する。
以下、時間経過に添ってヒストグラムとAPLの値の変遷を説明する。
図16,時刻T−1:手が存在しない場合で基本的には頻度は存在しないが、カメラで捉える背景などに存在する肌色でかつ限定した階調の領域に入る成分の頻度を表している。またAPLは低い。
図17,時刻T0:手を所望のプッシュボタンに手をかざした状態で、ケース1ではステップ5の階調の頻度が大きくなることを表している。ケース2ではステップ5,6の領域にまたがっているため、ケース1ほど頻度は大きくならないが、ステップ5,6の合計の量はほぼ同じだけ増加していることを表している。またAPLは手の面積が大きくなるのでそれに比例する。
図18,時刻T1:手を最低Tm期間保持したときで、時刻T0と同様である。
図19,時刻T2:手の指を折り曲げた状態で、黒の領域が拡大しステップ5の頻度が減少する。またAPLについても減少する。
図20,時刻T3:折り曲げてから手の指を伸ばした状態で、時刻T0と同様である。
図21,時刻T4:再度手の指を折り曲げた状態で、時刻T2と同様である。
図22,時刻T5:折り曲げた手の指を再度伸ばした状態で、時刻T0と同様である。
図23,時刻T6:手を伸ばした状態を最低Tm期間保持した状態で、時刻T0と同様である。
ヒストグラムのデータ処理では、本実施形態ではオブジェクトとして抽出されなかった部分を黒にしているので、ステップ1は黒の領域であり、評価対象から外して考える。評価の仕方はいろいろ考えられるが、直接の手の情報は本実施形態では階調を限定した範囲に入るステップ4,5,6,7であるので、これを合計してその値を評価する。
ヒストグラムの合計値の変動はAPLの変動と近い内容になり、値のスケールが異なるだけで同様の解析で手の動作が判別できる。判別の確度を上げるために、異なる検出手段を用いて評価し判定する。前記した高域頻度検出器63、最小値検出器64、最大値検出器65などの検出データも同様に評価し、より多くの異なる検出データから判別をすることで精度を向上させることが出来る。本実施形態では、高域頻度検出は指と背景の黒とのエッジ成分の頻度を検出するものであり、図15から分かるように指を折り曲げたときはエッジ成分が少なくなり、その変動はヒストグラムやAPLと同様である。しかし、最大値検出は指のどこかがプッシュボタンのどこかに入っていたなら、大きく変化はなく検出精度が悪いものになる。また今回はオブジェクト抽出範囲から外れた部分は黒にしているので最小値検出は変化しないため全く意味をなさない。しかしビデオカメラで捉える対象物の色や階調によっては、オブジェクト抽出範囲から外れた部分を、逆に白にする方がよい場合もある。対象とするオブジェクトに対してコントラストのある色や白をオブジェクト抽出範囲から外れた部分に適用することで判別の精度が増すことになる。
判別に向けた評価の仕方は、決められた手の動作を判別するものであり、そのアルゴリズムの基本は同じで、検出項目によってスケールが異なる。前記図7に示すオブジェクト特徴データ検出部53の出力は、CPUバスを介して、制御情報判断器(CPU)20に転送される。制御情報判断器(CPU)20は、動作検出を行い、適切な制御信号を出力する。図24は、制御情報判断器(CPU)20の動作を説明するための機能ブロック図であり、制御情報判断器(CPU)20は、ヒストグラム検出器61に対応する第1の動作検出器201、平均輝度(APL)検出器62に対応する第2の動作検出器202、高域頻度検出器63に対応する第3の動作検出器203、最小値検出器64に対応する第4の動作検出器204、最大値検出器65に対応する第5の動作検出器205、及び制御情報生成器210を備えている。なおこれらの動作検出器201〜205及び制御情報生成器210の機能は、実際にはソフト処理により実現される。
動作検出器201〜205は、対応する検出器61〜65の検出結果に応じて検出フラグを出力し、制御情報発生器210に供給する。制御情報発生器210は、入力される検出フラグの内容を評価し、適切な制御情報を出力する。ここでの評価は、コンピュータ言語の演算子、例えば、論理和、論理積、排他的論理和、>、<などを活用して行われ、これらの演算子を含む演算式が満たされた場合に制御信号が出力される。本実施形態では、すべての動作検出器201〜205の出力の論理和、すなわち、少なくとも1つ以上の動作検出器が検出フラグを出力したときに制御情報を出力するようにしている。
前記動作検出器201〜205について詳しく説明する。ここではヒストグラムの限定されたステップの合計データから動作を検出する場合である。図25は、ヒストグラムから得られるデータの変動を示している。この図に示す時刻T0〜T6は、図14に示す時刻T0〜T6に対応している。図25(A)は、ヒストグラムの限定された4〜6ステップを合計した値の変動である。黒以外の部分に相当し、手が占める面積を表している。同図(B)はオフセット成分を除去したもので、Tm期間中変化がない場合、値が零となる。同図(C)は、同図(B)のデータを自乗したもので指の折り曲げ動作が正弦波に近く、その自乗なので周期が1/2の正弦波になる。同図(D)は、同図(A)の波形を積分したもので、手の動きを判別するためのゲートパルスを矢印で表したものである。同図(E)は、同図(C)の波形をデジタルフィルタで相互相関をかけて、手の動きとの相関を見ている。さらに同図(D)(E)間にわたって、最終判断すなわちユーザがプッシュボタンを操作したことを確定に導く過程を表している。
図25について以下詳細に説明する。
(A)は図14で手の動作と一緒に表した波形と同じである。特に判別に寄与しない部分は省いている。ここで手を伸ばしている状態から、折り曲げたところまでにかかる期間をTmとして、手の動作の基準期間(時間間隔)として考える。時刻T0からT1までは、手をかざした期間であり、ここでは約Tm期間かざして該当のプッシュボタンを活性化させる判別を行う。時刻T1からT2は、手の指を折り曲げていく過程である。時刻T2からT3は、手の指を伸ばしていく過程を表す。時刻T3〜T4は、再び手の指を折り曲げていく過程である。時刻T4〜T5は再び手の指を伸ばしていく過程である。時刻T5〜T6は指が伸び、そこで約Tm期間保持している状態である。この一連の動作は、マウスのダブルクリックに似ており、人にとって無理なく動作が出来るものである。
(B)はDCオフセット成分を除去したものである。除去するフィルタの構成例を、図26に示す。このフィルタは、時間Tmだけ入力信号を遅延させる遅延器81と、遅延器81の出力信号から入力信号を減算する減算器82と、信号レベルを1/2に減衰させる減衰器83とからなり、Tm期間前後で(−1/2,1/2)のタップ係数を要する高域通過のデジタルフィルタである。Tm期間の遅延は、手の動作の波形を通過させるためのものである。デジタルフィルタの形態は特にこれに限定するものではないが、ここでは一番簡単な構成で、しかも絶対遅延量が小さいものを採用した。またタップ係数の符号は、(1/2,−1/2)のように入れ替わると、出力される波形が反転するが、この後の処理には影響するものではなく、どちらを用いても同じ効果となる。
(C)は前記したとおり(B)の波形を自乗したもので、正弦波的な波形と考えると周期が1/2となる。この(C)の波形をデジタルフィルタで相関計算したものが(E)であるが、それを詳細に示したものが図27である。図27(A)(B)(C)は、図25と同様である。その下側に描いたものが相互相関デジタルフィルタである。四角にDと記載しているものは1垂直周期のディレイを表し、デジタル回路で使うDフリップフロップ(以降DFFと記載)に相当する。次にk0,k1,…,k8はデジタルフィルタのタップ係数を表す。Σはタップ係数出力の総和演算を意味し、その出力に相互相関計算値Y(nτ)を得る。相互相関をとる手の動作の波形は、(C)を加工したもので、一方の波形はタップ係数の値として存在し、手の動作とタップ係数間の相互相関で、波形の形が完全に一致または近い値のときに相互相関のデジタルフィルタ出力が最大値となる。
図27に示すデジタルフィルタによる演算処理を以下の数式で表すことができる。図27の構成例では、Nは「9」である。
Figure 0004419768
図27に示すデジタルフィルタは、右側から(C)に描く波形が入力される。このように右から信号が入力されるように描いたのは、(C)に示す各波形がDFFに入ったときに時間的に一致(一部矢印)するようにしているためである。したがって最後の手の動作が遅延していない一番右側に来る。そして相互相関の係数は(C)の波形をそのまま盛り込めばよい。但しスケールについてはここでは言及しない。また係数値がDC的に偏るのは好ましくないので、(C)の波形のレベルの中心を基準として、出来るだけDCオフセットがつかないようにする。係数値は手の動作との相関を計算するものであるので、ここで規定している動作の内容が変わればそれに添って係数値を変えれば、また異なった動作で制御できる制御装置となる。またいくつかの相関値を持っていてデジタルフィルタを複数走らせ、各々に違った意味を持たせることも出来る。ここでのタップ係数は9タップあるので9垂直周期となる。1秒に60垂直周期有するビデオ信号の場合、約1/7秒となり、手の動作としては少し速いが、遅くするためにはタップ係数を増やせば遅くなり調整が取れるものであるので、実際には実験により最適なタップ係数の数を設定すればよい。
また、ここでは(C)の波形を相関計数値として考えているが(B)に示す波形の時刻T1〜T5までの波形を用いてもよい。ただし、(C)の波形を用いた方がより精度が高くなる。
図25に戻り(E)の波形について説明する。(E)の波形は(C)の波形が前記相互相関デジタルフィルタに入力されて、その出力に現れる値をモデル化して表したものである。時刻が進むにつれて手の動作がタップ係数との一致度が増しピークが大きくなる。この波形の評価は、負の領域を矢印で示しているとおり、絶対値化して、さらに積分し(図では包絡線)、閾値TH4を上回ったところで制御させるべき手の動作であることを確定する。ここでの絶対値化は図28に示すように自乗してから積分しても同様である。
ここで、(C)に示す波形の大きさは最初のヒストグラムデータに基づくものであり、この大きさで判定の精度が変わってくる。また積分すなわち累積加算していくにあたっての初期化(リセット)が必要である。これを果たしているのが(D)に示す波形である。さらに検出精度を上げるための意味のない情報を抑制する処理が必要である。
(D)の波形は(A)のヒストグラムからのデータを時間軸に添って積分したものである。 時刻T1までの期間は手をかざした期間であり、(B)は(A)が変化しないとき零になるすなわち高域成分のみをピックアップしたものである。これは手をかざしているときは静止状態であることを意味する。当然人間の動作であるので変動はあるが、大きな動作からすると静止と見なせるものとし、処理についても容易に実現できる不感帯を設定するなどして切り捨てればよい。したがって、(B)が閾値TH1a,TH1b間にあるときでかつ(A)が閾値TH0以上のとき積分されて積分値が大きくなっていく。その波形が(D)である。また積分を始める初期状態は(A)の波形が、閾値TH0以下のときに初期化を行う。(D)に示す積分値が、閾値TH2を越えると活性化する。ここまでの領域を検出領域と呼ぶ。
(D)に示す積分値が、閾値TH2を越えてから矢印Y1のように特定の時定数を持った期間を設定し、その後の判定領域に入るまでを活性領域と呼ぶ。活性領域とは相関計算している領域である。判定領域は前記相関計算の結果をもって手の動作を制御状態と判断する領域で、相互相関デジタルフィルタ出力を絶対値化して積分した値が、閾値TH4を越えた時点からはじまる。(D)の波形に対してはもう一つの閾値TH3を設けている。閾値TH3は、閾値TH2よりも小さな値であり、その閾値TH3を越えた矢印Y2−1で示す期間を判定に使う。手の指の折り曲げ動作は最後指を伸ばして終了する。閾値TH3はその最後の動作を確認するものである。矢印Y2−1と逆の領域である矢印Y2−2の期間は判定を禁止する期間として考え、誤認識を避けるようにしている。そして矢印Y1、矢印Y2−1、矢印Y3が揃った時点で、判定領域で手の動作が制御情報であることを確定する。
この検出領域は、手をかざされたことを認識する領域で、この領域を越えた時点で、グラフィックスの制御画像の色や形状を変えて、ユーザを積極的に誘導することができる。また、活性領域を完了した時点及び判定領域で確定した時点で同様にグラフィックスの制御画像の色や形状を変えてユーザにそのことを認知させることができる。これはユーザに再試行させるなどの手間をかけないメリットがある。
次に閾値TH3の絶対レベルについて説明する。相互相関デジタルフィルタの出力値は手をかざす領域の範囲によって大きさが変わってくる。特に固定でも人がそれに合わせて必要な領域に手をかざせばよいが、人の曖昧さを吸収することも必要である。ここでは閾値TH2までの積分領域にかかる時間Trを見て、これによって調整する。期間Trは手をかざす面積が大きければ大きいほど期間が短くなり、逆に面積が小さいときは時間が長くなる。したがって時間Trが大きいときは閾値TH3とTH4を大きくし、時間Trが小さいときは閾値TH3とTH4を小さくするように補正する。この適応制御によって手のかざす面積に対する依存性を抑制し、正確な認識を行うことが可能となる。
本実施形態の操作方法では、ビデオカメラの撮影の画角に対して、人の位置によっては手の大きさが小さかったり、プッシュボタンの位置まで届かなかったりすることが考えられる。この場合は、図2に示すスケーラ15で画像を「拡大」「縮小」「位相(位置)」を調整して人を画面上に適切な大きさにする必要がある。図29は、これを説明するための図である。図29(A)に示す例は、人の姿が小さく制御しにくい画面である。この場合はスケーラ15を制御して「拡大」し、画面の中心に人が位置するように「位相」を調整することにより、同図(B)のように適切な大きさで適切な位置にユーザを表示させることができる。
また図30は、スケーラ15を制御して「縮小」し、人が画面の中心に来るように「位相」を調整した例を示したものである。
他の手法としては、図31に示すように、ビデオカメラ2を雲台に取り付け、雲台による画角制御、及びビデオカメラ2のズーム制御により、ユーザの画像を適切な大きさ及び位置に表示させるようにしてもよい。
また本発明の操作方法は、表示装置に映されたグラフィックス上に展開される制御画像をそれに重ね合わされた自分の鏡像を見ながら操作するものであるが、画像を重ね合わせるので見にくい場合がある。その場合は、図6に示した検出器の画面上の領域を特定するタイミングパルス(水平垂直)で、第1の混合器17または第2の混合器22の混合割合を制御して見やすいようにする。例えば制御画像であるプッシュボタンを見やすくするためには第1の混合器17にて、制御値α1の値を小さくするようにタイミングパルスで制御すればよい。このように混合器をきめ細かく制御することによって視聴者と、制御画像(プッシュボタン)の関係を分かり易くすることができる。
以上説明した本発明の実施形態では、ハードウェアとソフトウェアで切り分けて記載しているが、その切り分けの仕方はどのように行ってもよい。
本実施形態の操作方法は、人の手を使って対称となるグラフィックス上に描かれたプッシュボタンを触れるように操作するものである。対象となるプッシュボタンの意味する操作内容が「電源」「チャンネル」「音量」「入力切替」「上」「下」「左」「右」「決定」など従来のリモコンが備えていたものはすべて置き換えることが可能である。
以上のような操作方法を用いることにより、リモコンのような制御機器を用いることなく制御対象の制御が可能となる。したがって電池切れや接点不良などのリモコンに関するトラブルが解消される。また複数の機器のリモコンがある場合、被制御機器のリモコンを探さなければならなかったが、本発明の操作方法では、人の身体があればよく、このような問題も解消される。
また画面上に制御内容が示されるので、さまざまな制御機器の取り扱いが可能となる。これはネットワーク化された環境では重要であり、表示装置を有する機器を通じてネットワーク機器を制御する、言い換えれば、ネットワークにつながる機器の制御画面をネットワークを通じて表示装置を有する機器に転送することにより、表示装置の画面が制御画面になるため、どのような制御画面であっても対応できる。
またリモコンでメニュー画面から制御するためには、手元のボタンを何度も押下しながらメニュー画面上のプッシュボタンを選ぶ動作をするため、手元と画面を何度も繰り返し見ながら操作する必要がある。これに対し、本発明の操作方法によれば、ユーザ自身が操作画面上にオーバラップして映るため、常に画面を見て操作ができ、素速く操作ができるだけでなく、目が疲れ難く使い勝手を向上させることができる。
また、手の動作はパソコンのマウスを操るのと近い操作が可能である。本実施形態ではダブルクリック的に手の指を折り曲げる動作を採用した。パソコンは、現代において広く普及しており、パソコンの操作に近いことは、多くのユーザにとって取り扱いが容易となり、情報リテラシー上好ましい。
なお本発明は上述した実施形態に限るものではなく、種々の変形が可能である。例えば、図2に示した第1の混合器17及び第2の混合器22の混合割合を、レベル方向、空間方向、時間方向に効果的に組み合わせるようにしてもよい。これにより、ビデオカメラ2からの画像と生成されるグラフィックスのメニュー画面と、放送番組の映像の多様な組み合わせ方が可能となり、同時に多様な情報のやり取りが出来る。
また本発明の操作対象となる電子機器は、テレビジョン受像機に限るものではなく、パーソナルコンピュータや、テレビジョン受像機とビデオディスク録画装置の組み合わせや、テレビジョン受像機とビデオテープレコーダとの組み合わせなど、表示装置を有するものであればよい。
本発明の電子機器操作方法の概要を説明するための図である。 本発明の一実施形態にかかる電子機器(テレビジョン受像機)の要部の構成を示すブロック図である。 画像の鏡像変換の方法を説明するための図である。 操作者の画像と、操作用画像とを示す図である。 操作者の画像と、操作用画像とを重畳(混合)した状態を説明するための図である。 図2に示す検出器と、表示装置の画面上の検出領域との対応を説明するための図である。 図2に示す検出器の構成を示すブロック図である。 図7に示すオブジェクト抽出器の構成を示すブロック図である。 オブジェクト抽出器で抽出する対象物の色相及び飽和度を説明するための図である。 色差信号から色相を算出する処理のフローチャートである。 オブジェクト抽出器で抽出する対象物の輝度信号レベルを示す図である。 画面上の操作ボタンに手をかざした状態を示す図である。 画面上の操作ボタンの上で指を曲げた状態を示す図である。 指を曲げる動作を2回行った場合における、手の画面上への投影面積の変化を示すタイムチャートである。 操作ボタンと手の画像とが重なった状態を示す図である。 図14に示す時刻T−1における明るさの頻度分布及び平均輝度レベル(APL)を示す図である。 図14に示す時刻T0における明るさの頻度分布及び平均輝度レベル(APL)を示す図である。 図14に示す時刻T1における明るさの頻度分布及び平均輝度レベル(APL)を示す図である。 図14に示す時刻T2における明るさの頻度分布及び平均輝度レベル(APL)を示す図である。 図14に示す時刻T3における明るさの頻度分布及び平均輝度レベル(APL)を示す図である。 図14に示す時刻T4における明るさの頻度分布及び平均輝度レベル(APL)を示す図である。 図14に示す時刻T5における明るさの頻度分布及び平均輝度レベル(APL)を示す図である。 図14に示す時刻T6における明るさの頻度分布及び平均輝度レベル(APL)を示す図である。 図2に示す制御情報判断器(CPU)の動作を説明するための機能ブロック図である。 操作ボタンを選択する動作を確定するためのデータ処理を説明するためのタイムチャートである。 DCオフセット成分を除去するためのディジタルフィルタの構成を示すブロック図である。 図26に示すディジタルフィルタの具体的な構成と、処理波形との関係を説明するための図である。 検出される動作と、所定選択動作との相互相関計算値の推移を示すタイムチャートである。 ビデオカメラで撮影した操作者の画像が小さすぎる場合の処理を説明するための図である。 ビデオカメラで撮影した操作者の画像が大きすぎる場合の処理を説明するための図である。 ビデオカメラ、及びその画角を変更するための装置を示す図である。
符号の説明
1 テレビジョン受像機(電子機器)
2 ビデオカメラ
4 ユーザ(操作者)
12 タイミングパルス発生器
14 鏡像変換器(鏡像変換手段)
15 スケーラ
16 グラフィックス生成器
17 第1の混合器(第1の混合手段)
19 検出部(検出手段)
20 制御情報判断器(CPU)(制御手段)
22 第2の混合器(第2の混合手段)
23 表示装置
51 タイミングゲート器(位置判定手段)
52 オブジェクト抽出器(対象物特定手段)
53 オブジェクト特徴データ検出部(変化検出手段)

Claims (12)

  1. 表示装置を有する電子機器を制御する制御装置において、
    前記表示装置の前に位置する操作者を撮影するビデオカメラと、
    前記ビデオカメラで撮影された画像の鏡像変換を行って鏡像変換画像信号を出力する鏡像変換器と、
    少なくとも1つの操作ボタンを含む操作用画像の操作用画像信号を生成する操作用画像生成部と、
    前記鏡像変換画像信号と前記操作用画像信号とを混合する混合器と、
    前記混合器により混合された画像信号を前記表示装置の画面上に表示させた状態において、画面に表示された操作者が前記操作用画像を指し示したことを検出する検出器と、
    前記検出器により前記操作用画像を指し示したことが検出された状態で、前記操作者が前記操作用画像を操作したか否かを検出し、前記操作用画像を操作したことを検出した場合に前記操作用画像に対応して前記電子機器の制御動作を行う制御部とを備え、
    前記検出器は、
    前記鏡像変換画像信号における前記操作ボタンに対応する操作領域を指し示す前記操作者の手の領域を抽出する抽出器と、
    前記操作領域の画像信号に占める前記手の領域の画像信号の変化を示すデータを検出する特徴データ検出器とを備え、
    前記制御部は、
    前記特徴データ検出器によって検出された前記データに基づいた第1の波形の周期が予め定めた周期であれば前記第1の波形を通過させる第1のフィルタと、
    前記第1の波形に基づく第2の波形と、予め設定されている波形との相関を求め、相関が高いほど大きい値を出力する第2のフィルタとを備え、
    前記第2のフィルタが出力した値が予め定めた値以上となると、前記操作者が前記操作用画像を操作したことを確定することを特徴とする電子機器の制御装置。
  2. 前記特徴データ検出器は、
    前記抽出器で抽出した前記手の領域を示す画像信号の階調に対する発生頻度を示すヒストグラムを検出するヒストグラム検出器を備え、
    前記第1の波形は、
    前記ヒストグラム検出器によって検出されたヒストグラムの時間的な変化に基づ
    ことを特徴とする請求項1記載の電子機器の制御装置。
  3. 前記抽出器は、
    前記操作用画像を指し示す前記操作者の手を検出するため前記鏡像変換画像信号より特定色の領域を抽出する特定色フィルタを備える
    ことを特徴とする請求項1または2のいずれか1項記載の電子機器の制御装置。
  4. 前記抽出器は、さらに、
    前記鏡像変換画像信号より予め定めた階調の範囲を抽出する階調限定器と、
    前記特定色フィルタが前記特定色の領域の画像信号を抽出したことを示す信号及び、前記階調限定器が前記階調の範囲内の画像信号を抽出したことを示す信号を受け取ったことを示す合成信号を出力する合成器とを備える
    ことを特徴とする請求項3記載の電子機器の制御装置。
  5. 前記抽出器は、さらに前記合成器が前記合成信号を出力しないときは、前記鏡像変換画像信号における前記操作者の手を示す領域以外を特定の輝度または色に置き換えるゲートを備える
    ことを特徴とする請求項4記載の電子機器の制御装置。
  6. 前記制御装置は、さらに前記鏡像変換画像信号を拡大または縮小するスケーラを備え、
    前記制御部は、さらに、前記第1の波形を所定の時間で積分した積分値が第1の閾値に達するまでの時間を算出し、
    算出した前記時間に基づいて、前記スケーラを制御する
    ことを特徴とする請求項1から5のいずれか1項に記載の電子機器の制御装置。
  7. 表示装置を有する電子機器を制御する制御方法において、
    前記表示装置の前に位置する操作者をビデオカメラで撮影するステップと、
    前記ビデオカメラで撮影された画像の鏡像変換を行って鏡像変換画像信号を出力するステップと、
    少なくとも1つの操作ボタンを含む操作用画像に対応した操作用画像信号を生成するステップと、
    前記鏡像変換画像信号と前記操作用画像信号とを混合するステップと、
    混合された画像信号を前記表示装置の画面上に表示させた状態において、前記画面に表示された前記操作者が前記操作用画像を指し示したことを検出する第1の検出ステップと、
    前記操作用画像を指し示したことが検出された状態で、前記操作者が前記操作用画像を操作したか否かを検出する第2の検出ステップと、
    前記操作用画像を操作したことを検出した場合に前記操作用画像に対応して前記電子機器の制御動作を行うステップとを含み、
    前記第1の検出ステップは、
    前記鏡像変換画像信号における前記操作ボタンに対応する操作領域を指し示す前記操作者の手の領域を抽出する抽出ステップと、
    前記操作領域の画像信号に占める前記手の領域の画像信号の変化を示すデータを検出する変化検出ステップとを含み、
    前記第2の検出ステップは、
    前記変化検出ステップにおいて検出されたデータに基づいた第1の波形の周期が予め定めた周期であれば前記第1の波形を通過させるフィルタリングステップと、
    前記第1の波形に基づく第2の波形と、予め設定された波形との相関を求め、相関が高いほど大きい値を出力する比較ステップと、
    前記比較ステップにおいて求められた値が予め定めた値以上となると、前記操作者が前記操作用画像を操作したことを検出する操作検出ステップとを含む
    ことを特徴とする電子機器の制御方法。
  8. 前記変化検出ステップは、前記抽出ステップで抽出した前記手の領域を示す画像信号の階調に対する発生頻度を示すヒストグラムを検出し、
    前記第1の波形は、前記変化検出ステップにおいて検出されたヒストグラムの時間的な変化に基づ
    ことを特徴とする請求項7記載の電子機器の制御方法。
  9. 前記抽出ステップは、
    前記操作用画像を指し示す前記操作者の手を検出するため前記鏡像変換画像信号より特定色の領域を抽出する特定色領域抽出ステップを含む
    ことを特徴とする請求項7又は8のいずれか1項記載の電子機器の制御方法。
  10. 前記抽出ステップは、
    前記鏡像変換画像信号より予め定めた階調の範囲を抽出する階調範囲抽出ステップと、
    前記特定色領域抽出ステップで前記特定色の領域の画像信号を抽出したことを示す信号及び、前記階調範囲抽出ステップで前記階調の範囲内の画像信号を抽出したことを示す信号を受け取ったことを示す合成信号を出力する合成ステップとを含む
    ことを特徴とする請求項9記載の電子機器の制御方法。
  11. 前記抽出ステップは、
    前記合成ステップで前記合成信号が出力されないときは、前記鏡像変換画像信号における前記操作者の手を示す領域以外を特定の輝度または色に置き換えるステップを含む
    ことを特徴とする請求項10記載の電子機器の制御方法。
  12. 前記第2の検出ステップはさらに、
    第1の波形を所定の時間で積分した積分値が所定の閾値に達するまでの時間を算出する算出ステップと、
    前記算出ステップにおいて求められた時間に基づいて、前記鏡像変換画像信号を出力するステップで出力された前記鏡像変換画像信号を拡大又は縮小するステップとを含む
    ことを特徴とする請求項7から11のいずれか1項記載の電子機器の制御方法。
JP2004272706A 2004-09-21 2004-09-21 電子機器の制御装置 Expired - Fee Related JP4419768B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2004272706A JP4419768B2 (ja) 2004-09-21 2004-09-21 電子機器の制御装置
CN2007101967869A CN101257594B (zh) 2004-09-21 2005-06-30 电子设备的控制装置及方法
CN200510081427XA CN1753474B (zh) 2004-09-21 2005-06-30 电子设备的控制装置及方法
US11/229,506 US7629959B2 (en) 2004-09-21 2005-09-20 Controller for electronic appliance

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004272706A JP4419768B2 (ja) 2004-09-21 2004-09-21 電子機器の制御装置

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2009169922A Division JP2010003303A (ja) 2009-07-21 2009-07-21 電子機器の制御装置

Publications (3)

Publication Number Publication Date
JP2006091948A JP2006091948A (ja) 2006-04-06
JP2006091948A5 JP2006091948A5 (ja) 2007-11-08
JP4419768B2 true JP4419768B2 (ja) 2010-02-24

Family

ID=36073433

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004272706A Expired - Fee Related JP4419768B2 (ja) 2004-09-21 2004-09-21 電子機器の制御装置

Country Status (3)

Country Link
US (1) US7629959B2 (ja)
JP (1) JP4419768B2 (ja)
CN (2) CN1753474B (ja)

Families Citing this family (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4569555B2 (ja) 2005-12-14 2010-10-27 日本ビクター株式会社 電子機器
JP4650381B2 (ja) 2006-09-08 2011-03-16 日本ビクター株式会社 電子機器
US8144121B2 (en) 2006-10-11 2012-03-27 Victor Company Of Japan, Limited Method and apparatus for controlling electronic appliance
JP4720738B2 (ja) * 2006-12-20 2011-07-13 日本ビクター株式会社 電子機器
US8726194B2 (en) 2007-07-27 2014-05-13 Qualcomm Incorporated Item selection using enhanced control
CN101836207B (zh) * 2007-08-20 2017-03-01 高通股份有限公司 超出词汇的词的增强的拒绝
JP4569613B2 (ja) * 2007-09-19 2010-10-27 ソニー株式会社 画像処理装置および画像処理方法、並びにプログラム
JP2009265709A (ja) * 2008-04-22 2009-11-12 Hitachi Ltd 入力装置
US8514251B2 (en) * 2008-06-23 2013-08-20 Qualcomm Incorporated Enhanced character input using recognized gestures
JP2010122735A (ja) * 2008-11-17 2010-06-03 Toshiba Information Systems (Japan) Corp インタフェース装置及びインタフェース用プログラム
US8125569B2 (en) * 2008-12-03 2012-02-28 Sony Corporation Dynamic contrast on displays using average picture level and histogram analysis
JP2010157060A (ja) * 2008-12-26 2010-07-15 Sony Corp 表示装置
US8847984B2 (en) * 2009-07-27 2014-09-30 Disney Enterprises, Inc. System and method for forming a composite image in a portable computing device having a dual screen display
TW201227399A (en) * 2010-12-24 2012-07-01 Hon Hai Prec Ind Co Ltd Motion recognition module, electronic device appling the motion recognition module and method thereof
US20120221964A1 (en) * 2011-02-25 2012-08-30 Broadcom Corporation Opinion feedback in a computer-based social network
CN102196143B (zh) * 2011-04-19 2013-06-26 汉王科技股份有限公司 带有按键的图像采集装置
TWI455044B (zh) * 2012-10-31 2014-10-01 Hwa Hsia Inst Of Technology 應用影像辨識之反應訓練系統及方法
CN104076949B (zh) * 2013-03-29 2017-05-24 华为技术有限公司 一种激光笔光束同步方法及相关设备、系统
CN103618887B (zh) * 2013-11-29 2016-08-17 深圳Tcl新技术有限公司 图像处理方法及装置
JP6746775B2 (ja) * 2017-03-31 2020-08-26 シャープ株式会社 情報提供装置、端末装置、表示システム、プログラム及び情報提供方法
TWI731434B (zh) * 2019-10-14 2021-06-21 順悅科技有限公司 用於行動裝置遊戲螢幕控制方法

Family Cites Families (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5818970A (en) * 1991-04-26 1998-10-06 Canon Kabushiki Kaisha Image encoding apparatus
US5454943A (en) * 1991-11-01 1995-10-03 Ashton; Thomas E. Device for the magnetic treatment of fluids
JPH06153017A (ja) * 1992-11-02 1994-05-31 Sanyo Electric Co Ltd 機器の遠隔制御装置
JPH0844490A (ja) * 1994-07-28 1996-02-16 Matsushita Electric Ind Co Ltd インターフェイス装置
JPH08212327A (ja) * 1995-02-06 1996-08-20 Mitsubishi Electric Corp 身振り認識装置
US5594469A (en) 1995-02-21 1997-01-14 Mitsubishi Electric Information Technology Center America Inc. Hand gesture machine control system
US6191773B1 (en) * 1995-04-28 2001-02-20 Matsushita Electric Industrial Co., Ltd. Interface apparatus
JPH0981307A (ja) * 1995-09-08 1997-03-28 Clarion Co Ltd 機器制御装置
JP2951910B2 (ja) * 1997-03-18 1999-09-20 松下電器産業株式会社 撮像装置の階調補正装置及び階調補正方法
KR19990011180A (ko) * 1997-07-22 1999-02-18 구자홍 화상인식을 이용한 메뉴 선택 방법
US6072494A (en) * 1997-10-15 2000-06-06 Electric Planet, Inc. Method and apparatus for real-time gesture recognition
JPH11259206A (ja) * 1998-03-09 1999-09-24 Fujitsu Ltd 赤外線検出式入力装置
JP2000066805A (ja) * 1998-08-18 2000-03-03 Fujitsu Ltd 赤外線検出式入力装置
JP2000075991A (ja) * 1998-08-28 2000-03-14 Aqueous Research:Kk 情報入力装置
US6501515B1 (en) * 1998-10-13 2002-12-31 Sony Corporation Remote control system
JP5048890B2 (ja) * 1998-10-13 2012-10-17 ソニー エレクトロニクス インク 動作検知インターフェース
JP3834766B2 (ja) * 2000-04-03 2006-10-18 独立行政法人科学技術振興機構 マンマシーン・インターフェース・システム
JP2001307107A (ja) * 2000-04-21 2001-11-02 Sony Corp 画像処理装置および方法、並びに記録媒体
JP3725460B2 (ja) * 2000-10-06 2005-12-14 株式会社ソニー・コンピュータエンタテインメント 画像処理装置、画像処理方法、記録媒体、コンピュータプログラム、半導体デバイス
JP4275304B2 (ja) * 2000-11-09 2009-06-10 シャープ株式会社 インターフェース装置およびインターフェース処理プログラムを記録した記録媒体
JP3807669B2 (ja) 2002-03-22 2006-08-09 日本放送協会 位置指定操作装置、並びに、位置指定情報符号化プログラム及び位置指定情報復号プログラム
JP4323180B2 (ja) 2003-02-13 2009-09-02 日本電信電話株式会社 自己画像表示を用いたインタフェース方法、装置、およびプログラム
JP2004258766A (ja) 2003-02-24 2004-09-16 Nippon Telegr & Teleph Corp <Ntt> 自己画像表示を用いたインタフェースにおけるメニュー表示方法、装置、プログラム
JP2007087100A (ja) * 2005-09-22 2007-04-05 Victor Co Of Japan Ltd 電子機器システム
JP4650381B2 (ja) * 2006-09-08 2011-03-16 日本ビクター株式会社 電子機器
US8144121B2 (en) * 2006-10-11 2012-03-27 Victor Company Of Japan, Limited Method and apparatus for controlling electronic appliance

Also Published As

Publication number Publication date
CN1753474B (zh) 2010-05-12
JP2006091948A (ja) 2006-04-06
CN1753474A (zh) 2006-03-29
CN101257594A (zh) 2008-09-03
US7629959B2 (en) 2009-12-08
CN101257594B (zh) 2011-05-25
US20060061548A1 (en) 2006-03-23

Similar Documents

Publication Publication Date Title
JP4419768B2 (ja) 電子機器の制御装置
JP4650381B2 (ja) 電子機器
JP4569555B2 (ja) 電子機器
US10671175B2 (en) Image processing apparatus, image processing method, and program product to control a display to display an image generated based on a manipulation target image
US8144121B2 (en) Method and apparatus for controlling electronic appliance
JP4720738B2 (ja) 電子機器
US20170102776A1 (en) Information processing apparatus, method and program
US9704028B2 (en) Image processing apparatus and program
US20140247216A1 (en) Trigger and control method and system of human-computer interaction operation command and laser emission device
CN112135049B (zh) 图像处理方法、装置及电子设备
JP2007087100A (ja) 電子機器システム
RU2598598C2 (ru) Устройство обработки информации, система обработки информации и способ обработки информации
KR20130088493A (ko) Ui 제공 방법 및 이를 적용한 영상 수신 장치
JP2012238293A (ja) 入力装置
CN108665510A (zh) 连拍图像的渲染方法、装置、存储介质及终端
CN112115804B (zh) 一种重点区域监控视频控制方法、系统、智能终端及储存介质
JP2009087095A (ja) 電子機器の制御装置、制御方法及び制御プログラム
CN111818382B (zh) 一种录屏方法、装置及电子设备
WO2013084821A1 (ja) 情報処理装置、情報処理方法、および記録媒体
CN114995713B (zh) 显示控制方法、装置、电子设备和可读存储介质
JP2009010849A (ja) 電子機器の制御装置
JP2010003303A (ja) 電子機器の制御装置
JP2008118633A (ja) 電子機器の制御装置及び制御方法
JP4544195B2 (ja) 電子機器
CN114791784A (zh) 盲人辅助图像浏览方法和系统

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20061227

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070920

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20081218

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20081224

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090220

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20090421

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090721

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20090805

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20091110

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20091123

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121211

Year of fee payment: 3

R151 Written notification of patent or utility model registration

Ref document number: 4419768

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121211

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121211

Year of fee payment: 3

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121211

Year of fee payment: 3

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121211

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131211

Year of fee payment: 4

LAPS Cancellation because of no payment of annual fees