JP2010238145A - Information output device, remote control method and program - Google Patents
Information output device, remote control method and program Download PDFInfo
- Publication number
- JP2010238145A JP2010238145A JP2009087910A JP2009087910A JP2010238145A JP 2010238145 A JP2010238145 A JP 2010238145A JP 2009087910 A JP2009087910 A JP 2009087910A JP 2009087910 A JP2009087910 A JP 2009087910A JP 2010238145 A JP2010238145 A JP 2010238145A
- Authority
- JP
- Japan
- Prior art keywords
- information
- detecting
- gesture
- detection
- detected
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
Description
本発明は、人間の動作を検出して制御を行う情報出力装置、遠隔制御方法、及びプログラムに関する。 The present invention relates to an information output device, a remote control method, and a program for detecting and controlling human movements.
従来より、人間が機械を操作するマンマシンインタフェースとして多様なユーザインタフェース(UI:User Interface)が提案されている。このようなインタフェースとして、例えば、多くの電化製品や電子機器に設けられた操作パネルがあげられる。ユーザはこの操作パネルを操作することによって、当該電化製品や電子機器に各種の指示を入力をする。また、遠隔から電化製品や電子機器を操作するためのリモートコントローラ(以後、「リモコン」と言う)も存在している。リモコンは、ユーザが電化製品や電子機器に近づいて操作パネルを直接操作する作業を不要にしている。 Conventionally, various user interfaces (UI: User Interface) have been proposed as man-machine interfaces for manipulating machines. Examples of such an interface include operation panels provided in many electrical appliances and electronic devices. The user operates the operation panel to input various instructions to the appliance or electronic device. There are also remote controllers (hereinafter referred to as “remote controllers”) for remotely operating electrical appliances and electronic devices. The remote control eliminates the need for the user to operate the operation panel directly by approaching an electric appliance or electronic device.
遠隔操作に関する技術として、例えば、特許文献1に、カメラより入力した入力画像から被撮影者を特定し、被撮影者が行う身振り手振りによるジェスチャによって、カメラ及び雲台を制御するものが開示されている。
As a technique related to remote operation, for example,
しかしながら、特許文献1に記載の手法では、ジェスチャに応じて操作する設定項目を特定するため、操作する設定項目の数が増加すると、覚える必要のあるジェスチャの数も増加し、一つ一つのジェスチャと設定項目の関係を覚えきれなくなる可能性がある。また、ユーザが操作しようとする設定項目に対して、必要とするジェスチャが思い出せず、操作に時間と手間がかかることがある。
However, in the method described in
本発明は、このような課題に対して鑑みなされたものであり、ユーザの直感的なジェスチャによる制御を容易に実現することができる情報出力装置、遠隔制御方法、及び、プログラムを提供することを目的とする。 The present invention has been made in view of such problems, and provides an information output device, a remote control method, and a program that can easily realize control by a user's intuitive gesture. Objective.
上述の目的を達成するため、請求項1に記載の発明に係る情報出力装置は、撮像手段と、情報を出力する出力手段と前記撮像手段によって撮像した画像から、遠隔制御する者が有する前記情報の種類に対応する感覚器官の像を検出する検出手段と、前記検出手段によって前記感覚器官の像を検出すると、前記遠隔制御する者による前記感覚器官に対する所定の動作を検出する動作検出手段と、前記動作検出手段によって所定の動作を検出すると、前記出力手段による前記情報の出力を、前記動作検出手段によって検出した動作で特定される制御内容で制御する制御手段と、を備えたことを特徴とする。
In order to achieve the above-described object, an information output apparatus according to the first aspect of the present invention is an information output device according to
請求項2に記載の発明に係る情報出力装置は、前記情報とは画像であるとともに、前記情報の種類に対応する感覚器官とは前記遠隔制御する者の目であることを特徴とする。 In the information output apparatus according to the second aspect of the present invention, the information is an image, and the sensory organ corresponding to the type of the information is an eye of the person who performs the remote control.
請求項3に記載の発明に係る情報出力装置は、前記情報とは音声であるとともに、前記情報の種類に対応する感覚器官とは前記遠隔制御する者の口若しくは耳であることを特徴とする。 According to a third aspect of the present invention, in the information output device according to the third aspect, the information is a voice, and the sensory organ corresponding to the type of the information is the mouth or ear of the person who performs remote control. .
請求項4に記載の発明に係る情報出力装置は、前記出力手段が情報を出力した際に、前記検出手段による検出があったか否かを判断する検出判断手段と、この検出判断手段によって検出があったと判断されると、付加情報を入力する付加情報入力手段と、この付加情報入力手段によって入力された付加情報と前記出力手段が出力した情報に付加する情報付加手段と、を更に備えたことを特徴とする。 An information output apparatus according to a fourth aspect of the invention includes a detection determination unit that determines whether or not a detection has been performed by the detection unit when the output unit outputs information, and the detection determination unit detects the detection. If it is determined that the additional information is input, additional information input means for inputting the additional information, additional information input by the additional information input means, and information adding means for adding to the information output by the output means are further provided. Features.
請求項5に記載の発明に係る情報出力装置は、音声入力手段を更に備え、前記情報付加手段は、前記音声入力手段によって入力された音声を前記情報に付加することを特徴とする。 The information output apparatus according to a fifth aspect of the present invention further includes voice input means, and the information adding means adds the voice input by the voice input means to the information.
請求項6に記載の発明に係る遠隔制御方法は、複数種の機能を実現する装置の制御方法であって、撮像した画像から所定の特徴物を検出する検出ステップと、前記検出ステップにて所定の特徴物を検出すると、遠隔制御する者による当該特徴物に対する所定の動作を検出する動作検出ステップと、前記動作検出ステップにて所定の動作を検出すると、前記複数種の機能のうち前記所定の特徴物で特定される機能を、前記動作検出ステップにて検出した動作で特定される制御内容で制御する制御ステップとを有することを特徴とする。 According to a sixth aspect of the present invention, there is provided a remote control method for a device that realizes a plurality of functions, a detection step of detecting a predetermined feature from a captured image, and a predetermined step in the detection step. When detecting a feature, the operation detecting step for detecting a predetermined operation on the feature by a remote controller, and detecting the predetermined operation in the operation detecting step, the predetermined function among the plurality of types of functions is detected. And a control step of controlling the function specified by the characteristic object by the control content specified by the operation detected in the operation detection step.
請求項7に記載の発明に係る遠隔制御プログラムは、撮像した画像から所定の特徴物を検出する検出手段、前記検出手段によって所定の特徴物を検出すると、遠隔制御する者による当該特徴物に対する所定の動作を検出する動作検出手段、前記動作検出手段によって所定の動作を検出すると、前記複数種の機能のうち前記所定の特徴物で特定される機能を、前記動作検出手段によって検出した動作で特定される制御内容で制御する制御手段として機能をコンピュータに実行させることを特徴とする。 According to a seventh aspect of the present invention, there is provided a remote control program for detecting a predetermined feature from a captured image. When the predetermined feature is detected by the detection unit, a remote control person performs a predetermined control on the feature. When a predetermined motion is detected by the motion detection means, the function specified by the predetermined feature among the plurality of types of functions is identified by the motion detected by the motion detection means. It is characterized by causing a computer to execute a function as a control means for controlling according to the control content.
本発明によれば、ジェスチャによる設定項目の制御を容易に実現することができる。 According to the present invention, it is possible to easily realize control of setting items by gestures.
以下、本発明の実施の形態について、図面を参照しながら詳細に説明する。 Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
[第1の実施の形態]
まず、本発明の第1の実施の形態について説明する。
[First Embodiment]
First, a first embodiment of the present invention will be described.
[基本構成]
図1は本発明の第1の実施の形態の情報出力装置であるジェスチャ入力装置を備えたデジタルフォトフレームの外観斜視図である。デジタルフォトフレーム1は、本体ケース5に、液晶表示装置10、カメラレンズ12、複数の押しボタンからなる操作パネル14、スピーカ16、制御回路(図2参照)を構成する回路基板等を組み込むことによって構成されている。本体ケース5の表側には液晶表示装置10、カメラレンズ12、スピーカ16などを配設している。本体ケース5の裏側には、デジタルフォトフレーム1を立てた姿勢で維持するための支持部材19が取り付けられている。本体ケース5の側部には、メモリカード50(図2参照)を挿入するためのスロット(図示せず)を開閉させる開閉部材20や、操作パネル14が設けられている。
[Basic configuration]
FIG. 1 is an external perspective view of a digital photo frame provided with a gesture input device as an information output device according to a first embodiment of the present invention. The
[電気的構成]
図2は、デジタルフォトフレーム1の内部の電気的構成を示すブロック図である。デジタルフォトフレーム1は、制御回路30と、制御回路30に接続された撮像部44と、液晶表示装置10と、操作パネル14と、スピーカ16と、マイク18等を備える。制御回路30は、CPU32と、ROM34と、RAM36と、液晶表示装置10を駆動するための表示制御回路38と、スピーカ16やマイク18を駆動するための音声制御回路40と、カードI/F42等から構成されている。カードI/F42には、デジタルフォトフレーム1本体のカードスロット(図示せず)によってメモリカード50が着脱可能に接続される。本実施の形態の情報出力装置であるジェスチャ入力装置は、撮像部44及び制御回路30によって構成され、撮像部44によって撮像された画像データに基づいて制御回路30が、撮影されている遠隔操作者の動作、例えばジェスチャを検出し、検出した動作に対応する処理を実行して液晶表示装置10及びスピーカ16等の制御の対象となる機能を持った構成部を制御する。
[Electrical configuration]
FIG. 2 is a block diagram showing an internal electrical configuration of the
撮像部44は、カメラレンズ12と、撮像素子であるCCD46と、ユニット回路(CDS/AGC/AD)48を有する。
The
CCD46は、カメラレンズ12を介して投影された被写体の光を電気信号に変換し、撮像信号としてユニット回路48に出力する。
The
ユニット回路48は、CCD46から出力される撮像信号を相関二重サンプリングして保持するCDS(Correlated Double Sampling)回路と、CDS回路によりサンプリングを行った撮像信号の自動利得調整を行うAGC(Automatic Gain Control)回路と、ACG回路によって自動利得調整を行ったアナログの撮像信号をデジタル信号に変換するA/D変換器とを有し、CCD46から出力される撮像信号は、ユニット回路48を介してデジタル信号としてCPU32に送られる。
The
CPU32は、ROM34に記憶されたアプリケーションプログラムを実行して、ユニット回路48から送られてきた画像データの画像処理、振れ補正処理、画像データの圧縮・伸張(例えば、JPEG形式の圧縮・伸張)の処理等を行う機能を実行するとともに、デジタルフォトフレーム1の各部をROM34に記憶された制御プログラムにしたがって制御するワンチップマイコンである。
The
ROM34には、デジタルフォトフレーム1の各部を制御するための制御プログラム、ジェスチャを検出し、検出したジェスチャに対応する処理を含む、各種機能を実行するためのアプリケーションプログラム、画像認識処理を行うための顔全般、口、耳、目など感覚器官の像の特徴データ、ジェスチャを検出するための特徴データを含む各種機能を実行するための各種情報が記憶されている。
In the
RAM36は、CCD46によって撮像され、CPU32に送られてきた画像データを一時記憶するバッファメモリとして、さらに、CPU32のワーキングメモリとして使用される。また、情報として液晶表示装置10にスライドショーとして表示させる画像の画像データベース、同じく情報としてスピーカ16に音声出力させる音声の音声データベース、必要に応じて人間の感覚器官に関連するジェスチャと、対応する処理との関係を示すジェスチャ入力用テーブルなども記憶されている。
The
表示制御回路38は液晶表示装置10を制御して、CPU32の指示に基づいてRAM36の画像データベースから読み出した画像データを液晶表示装置10に表示させる。液晶表示装置10は、表示制御回路38の制御に基づいて画像表示を行う。
The
音声制御回路40はスピーカ16を制御して、CPU32の指示に基づいてRAM36の音声データベースから読み出された音声データをスピーカ16に音声出力させる。スピーカ16は、音声制御回路40の制御に基づいて音声出力を行う。また、音声制御回路40は、CPU32の指示に基づいてマイク18から入力されるアナログの音声データを付加すべき情報として、デジタル変換して表示出力されている画像と対応付けてRAM36に記憶する。
The
操作パネル14には、電源ボタン、選択ボタン、決定ボタン、モード選択ボタン等の複数の押しボタン等が含まれており、ユーザのボタン操作に応じて対応する操作信号をCPU32に入力する。
The
メモリカード50には、情報として画像データや音声データ等が記憶されている。操作パネル14の操作により、画像データあるいは音声データの読み出し先を、メモリカード50とRAM36のいずれか一方又は両方に設定することができる。
The
[指示入力処理]
このようにして構成された本実施の形態の情報出力装置であるジェスチャ入力装置は、撮像部44で検出した動作(ジェスチャ)に応じてユーザ(遠隔操作者)の指示を特定し、デジタルフォトフレーム1の該当する機能を持った構成部を制御して、指示に対応する様々な処理をデジタルフォトフレーム1に行わせることができる。本実施の形態では、撮像部44が検出する動作を、人間のジェスチャとして説明する。以下、デジタルフォトフレーム1がスライドショーを行っている状態で、撮像部44により人間のジェスチャを検出した場合に、制御回路30において実行される指示入力処理について、図3を参照して説明する。
[Instruction input processing]
The gesture input device, which is the information output device of the present embodiment configured as described above, specifies a user (remote operator) instruction according to an operation (gesture) detected by the
図3に示すように、まず、CPU32は、スライドショーを開始する処理を行う(ステップS10)。すなわち、CPU32は、RAM36に記憶されている画像データベースから一定時間ごとに一枚ずつ画像データを読み出して、液晶表示装置10に表示させる。
As shown in FIG. 3, first, the
次に、CPU32は、撮像部44を制御して、所定の周期間隔で繰り返しの撮像を開始する処理を行う(ステップS12)。この処理において、CPU32は、CCD46から出力される撮像信号をユニット回路48で処理してデジタル信号の画像データとして取得し、こうして取得した画像データをRAM36に順次一時記憶する。
Next, the
次に、CPU32は、RAM36に一時記憶した画像データに画像認識処理を実行して、画像中に人間の顔があるか否かを判定する(ステップS14)。人間の顔があると判定した場合には(ステップS14でYES)、ステップS16に処理を移し、人間の顔がないと判定した場合には(ステップS14でNO)、ステップS24に処理を移す。ここで実行する画像認識処理として様々な処理が可能である。本実施の形態では、CPU32は、例えば、RAM36に一次記憶した画像データから撮像された被写体の輪郭や特徴点の認識、及び、それらの位置関係等を認識し、それらを数値化した数値データである特徴データを算出し、こうして算出した特徴データを、予めROM34に記憶してある画像認識用の被写体の特徴データと比較照合して行う。したがって、ステップS14で、CPU32は、RAM36に一次記憶した画像データから特徴データを算出し、算出した特徴データを、予めROM34に記憶してある画像認識用の顔の特徴データと比較照合して行う。
Next, the
ステップS14において、CPU32は、画像中に人間の顔があると判断すると(ステップS14でYES)、ステップS16に進み、CPU32は、画像に感覚器官、例えば、口、耳、目の何れかが含まれているか否かを判定する(ステップS16)。具体的には、CPU32は、図4(a)に示すように、RAM36に一時記憶した画像データの顔の領域Fを特定し、この領域Fに上述の画像認識処理を実行して口、耳、目があるか否かを判定する。口、耳、目の少なくともいずれかがあると判定した場合には(ステップS16でYES)、ステップS18に処理を移し、口、耳、目のいずれもないと判定した場合には(ステップS16でNO)、ステップS24に処理を移す。
In step S14, if the
次にステップS18において、CPU32は、ステップS16で検出した感覚器官に対するジェスチャを検出し、どのようなジェスチャを行っているかを判定する(ステップS18)。ここでCPU32は、ステップS16において、例えば、感覚器官として「口」があると判定した場合には、RAM36に一時記憶した画像データから、図4(b)に示すように、口を基準とする口周辺の領域Bの画像を切り出し、RAM36に記憶する処理を行う。同様に、「目」があると判定された場合には、RAM36に一時記憶した画像データから、図4(b)に示すように、目を基準とする目周辺の領域Aの画像を切り出し、RAM36に記憶する処理を行い、「耳」があると判定された場合には、RAM36に一時記憶した画像データから、図4(b)に示すように、耳を基準とする耳周辺の領域Cの画像を切り出し、RAM36に記憶する処理を行う。そして、所定の期間の領域A、領域B、領域Cの画像データを複数枚蓄積し(例えば、所定の期間が3秒であり、撮像部44が1/4秒に1枚の撮像を行っている場合には、12枚の領域A、領域B、領域Cの画像がRAM36に蓄積されることになる)、所定の期間における領域A、領域B、領域Cの画像の変化から動きベクトルを算出する。動きベクトルは、例えば、代表点マッチング法や、ブロックマッチング法などを用いて算出してもよい。CPU32は、こうして取得した画像データと動きベクトルをROM34に記憶した特徴データと照合してジェスチャを検出する。なお、口周辺の画像の範囲としては、両手の手のひらが収まる程度の範囲あるいはそれよりも若干大きい範囲であることが考えられる。耳周辺や目周辺の画像の範囲も同様に、両手の手のひらが収まる程度の範囲あるいはそれよりも若干大きい範囲であることが考えられるが、これらの範囲については、CPUの処理能力、想定するジェスチャの大きさなどを考慮して、実装に応じて決定してもよい。この処理が終了した場合には、ステップS20に処理を移す。
Next, in step S18, the
ステップS20において、CPU32は、ステップS18において検出したジェスチャと、ROM34のジェスチャ入力用テーブルに登録されているステップS16で検出した感覚器官に対応するジェスチャとを比較し、ステップS18において検出したジェスチャの中に、ジェスチャ入力用テーブルに登録されているジェスチャと一致しているジェスチャがあるか否かを判定する処理を行う。一致しているジェスチャがあると判定した場合には(ステップS20でYES)、ステップS22に処理を移す。一致しているジェスチャがあると判定しない場合には(ステップS20でNO)、ステップS24に処理を移す。
In step S20, the
ステップS22において、CPU32は、ステップS18において一致していると判定したジェスチャに対応する処理プログラムに基づいて、液晶表示装置10あるいはスピーカ16を制御する処理を行う。次に、ステップS24に処理を移す。
In step S22, the
ステップS24において、CPU32は、スライドショー終了の指示があるか否かを判定する処理を行う。例えば、CPU32は、操作パネル14の操作によってスライドショー終了の指示が入力されたか否かを判定する。スライドショー終了の指示があると判定した場合には、本ルーチンの処理を終了する。スライドショー終了の指示がないとした場合には、ステップS12に処理を移し、スライドショーを続行する。なお、ステップS24の処理を実行する前に、ジェスチャの検出に用いた撮像部44の撮影画像データを消去してもよい。
In step S24, the
すなわち、デジタルフォトフレーム1においてスライドショーの表示が実行されている間は、CPU32は、撮像部44によって撮像部44の撮影範囲内における人間の口、耳、目に対するジェスチャを検出する。そして、CPU32が、それら人間の感覚器官に対するジェスチャを検知した場合には、CPU32は、ジェスチャ入力用テーブルを参照して実行する処理の内容を決定し、決定した処理にしたがって、液晶表示装置10の表示制御、あるいはスピーカ16の音声出力制御あるいはマイク18の音声入力制御を実行する。
That is, while the slide show display is being executed in the
次に、図5を用いて、ROM34に記憶されているジェスチャ入力用テーブルの内容について説明する。
Next, the contents of the gesture input table stored in the
ジェスチャ入力用テーブルは、人間の感覚器官、すなわち、目、耳、口に対するジェスチャと、液晶表示装置10あるいはスピーカ16に対してCPU32が行うべき処理に関する指示とを対応付けたものである。CPU32は、液晶表示装置10あるいはスピーカ16に対する指示を特定すると、この指示に対応する処理をROM34から読み出して、液晶表示装置10及びスピーカ16の制御を行う。具体的には、本実施の形態における人間の感覚器官としては、目、耳、口が該当しており、人間の感覚器官に対するジェスチャとしては、例えば、目付近における手のひらあるいは指の動作、耳付近における手のひらあるいは指の動作、口付近における手のひらあるいは指の動作が該当する。
The gesture input table associates gestures for human sensory organs, that is, eyes, ears, and mouth, with instructions regarding processing to be performed by the
ジェスチャ入力用テーブルから、本実施の形態においてジェスチャと、ジェスチャに対応してCPU32が行うべき処理の一例として、次のものがあげられる。図5(a)に示すように、目付近のジェスチャが、顔の前に両手で眼鏡の形を作るものである場合には(図6(a)参照)、写真の表示(スライドショー)を実行する。また、目付近のジェスチャが、手の平をのばし、両目の上でひさしの様にするというものである場合には、スライドショーを停止して、同じ写真をしばらく表示させたままの状態にする。また、目付近のジェスチャが、目の前で、親指と人差し指をくっつけては離すというものである場合には、画像の一部を拡大表示する。目付近のジェスチャが、まぶたを手のひらで覆うというものである場合には、液晶表示装置10のバックライトをオフにする(MUTE)。
From the gesture input table, as an example of the gesture and the processing to be performed by the
また、図5(b)に示すように、口付近のジェスチャが、口の前で、人差し指と親指で○のマークを作るというものである場合には、BGMの再生を実行する。また、口付近のジェスチャが、人差し指1本を口の前で立てる『し−っ』という動作である場合には(図6(b)参照)、音量を小さくする。また、口付近のジェスチャが、くっつけた人差し指と親指を口の前で離すというものである場合には、音量を大きくする。口付近のジェスチャが、口で両耳を覆うというものである場合には、音声出力を停止する(MUTE)。また、耳付近のジェスチャが、人差し指で、耳をふさぐというものである場合には(図6(c)参照)、音量を小さくする。また、耳付近のジェスチャが、耳に手のひらをかざすというものである場合には、音量を大きくする。また、耳付近のジェスチャが、手の平で両耳を覆うというものである場合には、音声出力を停止する(MUTE)。 Also, as shown in FIG. 5B, when the gesture near the mouth is to make a mark with a forefinger and thumb in front of the mouth, BGM playback is executed. Further, when the gesture near the mouth is an operation of “shi-tsu” in which one index finger is raised in front of the mouth (see FIG. 6B), the volume is reduced. Also, if the gesture near the mouth is to release the attached index finger and thumb in front of the mouth, the volume is increased. If the gesture near the mouth covers both ears with the mouth, the audio output is stopped (MUTE). If the gesture near the ear is to close the ear with the index finger (see FIG. 6C), the volume is reduced. Also, if the gesture near the ear is to hold the palm over the ear, the volume is increased. If the gesture near the ear covers both ears with the palm of the hand, the audio output is stopped (MUTE).
また、図5(c)に示すように、口付近のジェスチャが、口の前でマイクを握ったまねをするというものである場合には(図6(d)参照)、写真への音声の追加記録を実行する。また、口付近のジェスチャが、マイクを口から遠ざけるまねをするというものである場合には、録音音量を下げる。また、口付近のジェスチャが、マイクを口に近づけるまねをするというものである場合には、録音音量を上げる。 Also, as shown in FIG. 5 (c), when the gesture near the mouth is to imitate holding a microphone in front of the mouth (see FIG. 6 (d)), the voice of the photo Perform additional recording. Also, if the gesture near the mouth is to imitate the microphone away from the mouth, the recording volume is lowered. Also, if the gesture near the mouth is to imitate the microphone close to the mouth, the recording volume is increased.
図7は、本実施の形態の情報出力装置であるジェスチャ入力装置を備えたデジタルフォトフレーム1の使用例を示すものである。デジタルフォトフレーム1から出力されているBGMの音量を小さくしたい場合には、図7に示すように、口の前に人差し指を立てて「しーっ」という動作をすることにより、BGMの音量が小さくなる。なお、本実施の形態の情報出力装置であるジェスチャ入力装置においては、図6(c)に示すように、人差し指で耳をふさぐ動作をしても、BGMの音量を小さくすることができる。
FIG. 7 shows a usage example of the
以上説明したように、本実施の形態では、撮像部44によって撮像した画像から、CPU32が、顔を検出し、さらに顔から特徴物、例えば目、耳、口を検出し、さらに目、耳、口においてどのようなジェスチャを行っているかを検出し、ROM34に記憶されているジェスチャ入力用テーブルを参照して、該特徴物と関連した処理へのジェスチャに対応付けられた処理内容を特定し、この処理内容に基づいて検出した特徴物と関連した処理への制御を行う。このため、例えば、図5に示すように、くっつけた親指と人差し指を離すというジェスチャを、目の前で行えば目と関連した表示処理の制御(例えば写真表示を拡大)を行い、同様のジェスチャを口の前で行えば口と関連した音声出力処理の制御(例えばBGMの音量調整)を行うというようにして、同一のジェスチャであっても行う対象が、例えば、目、耳、口などと異なれば別の操作指示を指定することができるので、操作を指示する項目が多い場合であっても、対応するジェスチャの数は抑制できる。また、ジェスチャを行う対象である感覚器官と関連した処理を該ジェスチャに応じて制御するようにしたので、操作を指示したいときに直感的に対応することができる。
As described above, in the present embodiment, the
また、本実施の形態においては、検出された特徴物及びその周辺領域の画像から、特徴物に対するジェスチャを検出している。このため、撮像部44によって撮像した画像の画像データを全てジェスチャの検出に用いることなく、少ない画像データに基づいてジェスチャの検出を行うことが可能になり、CPU32の処理負担を軽減することができる。
In the present embodiment, a gesture for a feature is detected from the detected feature and an image of the surrounding area. For this reason, it is possible to detect a gesture based on a small amount of image data without using all the image data of the image captured by the
また、ジェスチャ入力用テーブルは、図5に示したものではなく、対応関係はこれに限らない。例えば、一方の手で口の前に指で○を作り、他方の手で耳の側に指で○を作れば通信オン、また、一方の手で口を覆い、他方の手で耳を覆うと通信オフというように、複数の感覚器官のジェスチャに1つのパラメータを対応させてもよい。 The gesture input table is not shown in FIG. 5, and the correspondence relationship is not limited to this. For example, if you make a circle with a finger in front of your mouth with one hand and make a circle with your finger on the side of the ear with the other hand, communication is turned on. Also, cover the mouth with one hand and cover the ear with the other hand. One parameter may correspond to gestures of a plurality of sensory organs, such as communication off.
ジェスチャ入力用テーブルはユーザが自由に設定できるようにしてもよい。また、本実施の形態では、ジェスチャ入力テーブルをROM34に記憶するとして説明したが、本発明はこれに限定されず、電気的にデータの書き換えが可能なメモリ、例えば、RAM36に記憶してもよい。このようにして、ユーザが操作パネル14を操作することによって、ユーザの好みに応じて、ジェスチャと、対応する処理とを、ジェスチャ入力用テーブルに自由に設定できるようにしてもよい。
The gesture input table may be freely set by the user. In the present embodiment, the gesture input table is described as being stored in the
さらに、本実施の形態においては、CPU32が検出する特徴物を人間の感覚器官としているため、例えば、表示関連の操作を指示する場合であれば目付近のジェスチャに対応させ、音量関連の操作を指示する場合であれば耳付近のジェスチャに対応させ、音声関連の操作を指示する場合であれば口付近のジェスチャに対応させるというように、操作の指示内容を感覚器官別に分類することができる。このように、感覚器官の機能に関連性のある操作とジェスチャとを対応させることによって、ジェスチャを親しみやすくし、かつ、覚えやすくすることができる。また、感覚器官を基にしたインタフェースとなるので、言語や文化が異なる世界中の国々で共通のインタフェースとして用いることが可能になる。さらに、リモコンなどの第3の機器を用いることなく、制御の対象となる機能を持った構成部を遠隔操作することができるになる。
Furthermore, in the present embodiment, since the feature detected by the
以上、本発明の実施の形態について説明したが、本発明は、上述した実施の形態に限るものではない。例えば、撮像部44の撮影画像の中に、複数の顔が含まれている場合には、最も中央よりの顔、あるいは最も大きく写されている顔を選択し、選択した顔の目、耳、口付近のジェスチャに基づいて、そのジェスチャの対象となっている感覚器官によって特定される機能を制御するようにしてもよい。
Although the embodiment of the present invention has been described above, the present invention is not limited to the above-described embodiment. For example, when a plurality of faces are included in the captured image of the
また、最初に検出する特徴物を、人間の感覚器官としたが、本発明はこれに限定されず、撮像部44の撮影範囲に含むことができ、CPU32が認識可能であれば、特徴物は眼鏡などのように、該感覚器官と関連している物体でもよい。この場合、CPU32は、設定した特徴物付近のジェスチャを検出して、操作の指示を決定して、その物体と関連している感覚器官(眼鏡であった場合は、目)によって特定される機能(目であった場合は、表示機能)を制御するようにしてもよい。
In addition, although the first feature to be detected is a human sensory organ, the present invention is not limited to this, and can be included in the imaging range of the
また、予め所有者の画像を登録し、撮像画像から顔を検出する時に、所有者の顔であるか否かを判別し、所有者の顔である場合に目、耳、口の検出を行うようにすることによって、所有者のみのジェスチャによって制御の対象となる機能を制御するようにしてもよい。 Also, when the owner image is registered in advance and the face is detected from the captured image, it is determined whether or not it is the owner's face, and if it is the owner's face, the eyes, ears, and mouth are detected. By doing so, a function to be controlled may be controlled by a gesture only by the owner.
上述の実施の形態では、本発明をデジタルフォトフレームに適用した場合について説明したが、本発明はこれに限定されず、例えば、テレビ、冷蔵庫、エアコンなどの電気製品や電子機器の制御部として適用してもよく、また上述の実施の形態で示した目、耳、口のうちの少なくとも何れか1つを検出し、その検出した感覚器官によって特定される機能を制御するものであればよい。あるいはCPUとメモリを含む、撮像部が有するコンピュータを上述した各手段として機能させるプログラムによって動作させることができる。プログラムは、通信回線を介して配布することも可能であるし、CD−ROM等の記録媒体に書き込んで配布することも可能である。 In the above-described embodiment, the case where the present invention is applied to a digital photo frame has been described. However, the present invention is not limited to this, and for example, the present invention is applied as a control unit of an electric product or electronic device such as a television, a refrigerator, or an air conditioner. Alternatively, any function may be used as long as it detects at least one of the eyes, ears, and mouth shown in the above embodiment and controls the function specified by the detected sensory organ. Or it can be made to operate | move by the program which functions as each means mentioned above which the computer which an imaging part contains CPU and memory has. The program can be distributed via a communication line, or can be distributed by writing on a recording medium such as a CD-ROM.
さらに、図1に示すデジタルフォトフレーム1においては、本体ケース5の内部に情報出力装置であるジェスチャ入力装置と液晶表示装置10及びスピーカ16等の制御対象となる機能を持った構成部とを設けているが、情報出力装置と制御の対象となる機能を持った構成部とを分離してもよい。ジェスチャ入力装置と制御の対象となる機能を持った構成部とを分離した場合については次の実施の形態で説明する。
Further, in the
[第2の実施の形態]
図8は本発明の第2の実施の形態の情報出力装置である遠隔制御装置を含むシステムの概要を示す図で、図9は本発明の第2の実施の形態の情報出力装置である遠隔制御装置の制御ブロック図である。第1の実施の形態と同様の構成には、同様の符号を付して詳細な説明を省略する。本実施の形態の情報出力装置である遠隔制御装置は、第1の実施の形態情報出力装置であるジェスチャ入力装置の特徴に加えて、遠隔制御装置と制御の対象となる機能を持った構成部とを分離しているという特徴を有する。図8に示すように、遠隔制御装置70は、デジタルテレビ受信装置150、DVD記録再生装置160、ビデオ記録再生装置170、衛星放送用チューナ180、地上デジタル放送用チューナ190のAV機器等をコントロールするためのコマンドを赤外線送信する機能、及び、例えば、図示していない浴室の湯沸器をオンオフするためのコマンドを無線送信する機能が備えられている。遠隔制御装置70からのコマンドを直接AV機器に赤外線送信できない場合には、遠隔制御装置70からのコマンドを中継装置120を介してAV機器に送信する。
[Second Embodiment]
FIG. 8 is a diagram showing an outline of a system including a remote control device which is an information output device according to the second embodiment of the present invention. FIG. 9 is a remote view which is an information output device according to the second embodiment of the present invention. It is a control block diagram of a control apparatus. The same components as those in the first embodiment are denoted by the same reference numerals, and detailed description thereof is omitted. The remote control device, which is the information output device of the present embodiment, is a constituent unit having functions to be controlled with the remote control device in addition to the features of the gesture input device which is the information output device of the first embodiment And are separated from each other. As shown in FIG. 8, the
遠隔制御装置70は、図9に示すように、制御回路100と、制御回路100に接続した撮像部110、操作パネル112、赤外線発生部104、アンテナ108とから構成されている。制御回路100は、CPU32と、ROM34と、RAM36と、赤外線送信回路102と、無線送信回路106とを有する。なお、図9に示す遠隔制御装置70の構成において、図2を参照して説明した制御回路30における構成要素と同様の構成要素については、同一の符号を付して詳細な説明を省略する。また、撮像部110についても、図2を参照して説明した撮像部44と同様の構成で実現可能であるため、詳細な説明を省略する。なお、本実施の形態では、制御回路100のROM34に記憶されたジェスチャ入力用テーブルには、図5を参照した人間の感覚器官に関連するジェスチャと、ジェスチャに対応する処理の項目に加えて、処理を実行する機器と送信方法も含んでいる。
As shown in FIG. 9, the
制御回路100を構成するCPU32は、図2を参照して説明した制御回路30と同様に、撮像部110によって撮影された画像データに基づいて、撮像部110の撮影範囲内における人間の感覚器官、例えば、口、耳、目、及び人間の口、耳、目付近のジェスチャを検出する。そして、CPU32が、人間の感覚器官に対するジェスチャを検知すると、CPU32は、ジェスチャ入力用テーブルを参照して、その感覚器官に対応する機器と送信方法及び処理の内容を決定する。そして、CPU32は、検出した感覚器官が赤外線で情報を送受信する機器に対するものであれば、赤外線送信回路102を制御して、赤外線発生部104から、決定した処理内容を赤外線信号によって該当する機器に送信する。該当する機器は、こうして送信された赤外線信号を受信すると、赤外線信号が示す処理コマンドを実行して、指定された処理を実行する。また、CPU32は、検出した感覚器官が無線通信で情報を送受信する機器に対するものであれば、無線送信回路106を制御して、アンテナ108から、決定した処理内容を無線信号によって該当する機器に送信する。該当する機器は、こうして送信された無線信号を受信すると、無線信号が示す検知したジェスチャに対応した処理コマンドを実行して、指定された処理を実行する。
Similar to the
さらに、制御回路100のROM34には、ジェスチャ入力用テーブルに加えて、さらに、それぞれの処理を赤外線リモコン又は無線リモコンによって各種の機器を遠隔操作するためのコマンドを記憶している。
Furthermore, in addition to the gesture input table, the
ジェスチャ入力用テーブルはユーザが自由に設定できるようにしてもよい。本実施の形態では、ジェスチャ入力テーブルをROM34に記憶するとしたが、本発明はこれに限定されず、例えば、電気的にデータの書き換えが可能なメモリ、例えば、RAM36に記憶してもよい。このようにして、ユーザが操作パネル112を操作することによって、ユーザの好みに応じて、ジェスチャと、遠隔操作したい機種の機能に対応するコマンドとを関連付けて、ジェスチャ入力用テーブルに設定入力を行うことができる。例えば、目付近のジェスチャは、DVD記録再生装置160の制御を行う操作の指示に対応させ、口付近のジェスチャはデジタルテレビ受信装置150の制御を行う操作の指示に対応させるように、デジタルテレビ受信装置150やDVD記録再生装置160を遠隔操作する際のユーザのジェスチャを分類してもよい。
The gesture input table may be freely set by the user. In the present embodiment, the gesture input table is stored in the
本発明は、上述の実施の形態に限定されるものでは無く、その趣旨を逸脱しない範囲で、上述の実施の形態を種々に組み合わせ、さらには上述の実施の形態に種々に変形を加えた形態とすることができる。 The present invention is not limited to the above-described embodiments, and various combinations of the above-described embodiments and various modifications are added to the above-described embodiments without departing from the spirit of the present invention. It can be.
1 デジタルフォトフレーム
10 液晶表示装置
12 カメラレンズ
14、112 操作パネル
16 スピーカ
18 マイク
30、100 制御回路
32 CPU
34 ROM
36 RAM
44、110 撮像部
70 遠隔制御装置(第2の実施の形態)
102 赤外線送信回路
104 赤外線発生部
106 無線送信回路
108 アンテナ
120 中継装置
150 デジタルテレビ受信装置
160 DVD記録再生装置
DESCRIPTION OF
34 ROM
36 RAM
44, 110
DESCRIPTION OF
Claims (7)
情報を出力する出力手段と
前記撮像手段によって撮像した画像から、遠隔制御する者が有する前記情報の種類に対応する感覚器官の像を検出する検出手段と、
前記検出手段によって前記感覚器官の像を検出すると、前記遠隔制御する者による前記感覚器官に対する所定の動作を検出する動作検出手段と、
前記動作検出手段によって所定の動作を検出すると、前記出力手段による前記情報の出力を、前記動作検出手段によって検出した動作で特定される制御内容で制御する制御手段と、
を備えたことを特徴とする情報出力装置。 Imaging means;
An output means for outputting information; a detection means for detecting an image of a sensory organ corresponding to the type of information possessed by a person remotely controlling from an image taken by the imaging means;
Detecting an image of the sensory organ by the detection means, a motion detection means for detecting a predetermined motion on the sensory organ by the remote control person;
Control means for controlling the output of the information by the output means with the control content specified by the action detected by the action detection means when a predetermined action is detected by the action detection means;
An information output device comprising:
この検出判断手段によって検出があったと判断されると、付加情報を入力する付加情報入力手段と、
この付加情報入力手段によって入力された付加情報と前記出力手段が出力した情報に付加する情報付加手段と、
を更に備えたことを特徴とする請求項1乃至3の何れか記載の情報出力装置。 Detection judgment means for judging whether or not there is detection by the detection means when the output means outputs information;
If it is determined by the detection determination means that there is detection, additional information input means for inputting additional information;
Additional information input by the additional information input means and information adding means added to the information output by the output means;
The information output device according to claim 1, further comprising:
前記情報付加手段は、前記音声入力手段によって入力された音声を前記情報に付加することを特徴とする請求項4記載の情報出力装置。 A voice input means;
5. The information output apparatus according to claim 4, wherein the information adding unit adds the voice input by the voice input unit to the information.
撮像した画像から所定の特徴物を検出する検出ステップと、
前記検出ステップにて所定の特徴物を検出すると、遠隔制御する者による当該特徴物に対する所定の動作を検出する動作検出ステップと、
前記動作検出ステップにて所定の動作を検出すると、前記複数種の機能のうち前記所定の特徴物で特定される機能を、前記動作検出ステップにて検出した動作で特定される制御内容で制御する制御ステップとを有することを特徴とする遠隔制御方法。 A method for controlling an apparatus that realizes a plurality of functions,
A detection step of detecting a predetermined feature from the captured image;
Detecting a predetermined feature in the detection step, an operation detecting step of detecting a predetermined operation on the feature by a person who remotely controls;
When a predetermined operation is detected in the operation detection step, a function specified by the predetermined feature among the plurality of types of functions is controlled by a control content specified by the operation detected in the operation detection step. A remote control method comprising: a control step.
撮像した画像から所定の特徴物を検出する検出手段、
前記検出手段によって所定の特徴物を検出すると、遠隔制御する者による当該特徴物に対する所定の動作を検出する動作検出手段、
前記動作検出手段によって所定の動作を検出すると、複数種の機能のうち前記所定の特徴物で特定される機能を、前記動作検出手段によって検出した動作で特定される制御内容で制御する制御手段、
として機能させることを特徴とするプログラム。
Computer
Detecting means for detecting a predetermined feature from the captured image;
An action detecting means for detecting a predetermined action on the feature by a person who remotely controls when a predetermined feature is detected by the detecting means;
Control means for controlling a function specified by the predetermined feature among a plurality of types of functions with a control content specified by the action detected by the action detection means when a predetermined action is detected by the action detection means,
A program characterized by functioning as
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009087910A JP2010238145A (en) | 2009-03-31 | 2009-03-31 | Information output device, remote control method and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009087910A JP2010238145A (en) | 2009-03-31 | 2009-03-31 | Information output device, remote control method and program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2010238145A true JP2010238145A (en) | 2010-10-21 |
Family
ID=43092377
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009087910A Pending JP2010238145A (en) | 2009-03-31 | 2009-03-31 | Information output device, remote control method and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2010238145A (en) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012160051A (en) * | 2011-02-01 | 2012-08-23 | Kddi Corp | Information terminal equipment |
JP2012208619A (en) * | 2011-03-29 | 2012-10-25 | Nec Corp | Electronic apparatus, notification method and program |
JP2014082668A (en) * | 2012-10-17 | 2014-05-08 | Sony Corp | Communication system and program |
WO2015037310A1 (en) * | 2013-09-13 | 2015-03-19 | ソニー株式会社 | Information processing device and information processing method |
WO2016017250A1 (en) * | 2014-08-01 | 2016-02-04 | ソニー株式会社 | Information processing apparatus, information processing method, and program |
JP2020144551A (en) * | 2019-03-05 | 2020-09-10 | 株式会社デンソーテン | Control device and control method |
JP2020160725A (en) * | 2019-03-26 | 2020-10-01 | 株式会社東海理化電機製作所 | Audio interactive device, input device and output device |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH08115408A (en) * | 1994-10-19 | 1996-05-07 | Hitachi Ltd | Finger language recognition device |
JP2003186596A (en) * | 2001-12-13 | 2003-07-04 | Seiko Epson Corp | Display device and input method of the same |
JP2004302992A (en) * | 2003-03-31 | 2004-10-28 | Honda Motor Co Ltd | Gesture recognition device, its method and gesture recognition program |
-
2009
- 2009-03-31 JP JP2009087910A patent/JP2010238145A/en active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH08115408A (en) * | 1994-10-19 | 1996-05-07 | Hitachi Ltd | Finger language recognition device |
JP2003186596A (en) * | 2001-12-13 | 2003-07-04 | Seiko Epson Corp | Display device and input method of the same |
JP2004302992A (en) * | 2003-03-31 | 2004-10-28 | Honda Motor Co Ltd | Gesture recognition device, its method and gesture recognition program |
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012160051A (en) * | 2011-02-01 | 2012-08-23 | Kddi Corp | Information terminal equipment |
JP2012208619A (en) * | 2011-03-29 | 2012-10-25 | Nec Corp | Electronic apparatus, notification method and program |
JP2014082668A (en) * | 2012-10-17 | 2014-05-08 | Sony Corp | Communication system and program |
US9952674B2 (en) | 2012-10-17 | 2018-04-24 | Sony Corporation | Communication system, communication method and program |
WO2015037310A1 (en) * | 2013-09-13 | 2015-03-19 | ソニー株式会社 | Information processing device and information processing method |
US10120441B2 (en) | 2013-09-13 | 2018-11-06 | Sony Corporation | Controlling display content based on a line of sight of a user |
US10928896B2 (en) | 2013-09-13 | 2021-02-23 | Sony Corporation | Information processing apparatus and information processing method |
WO2016017250A1 (en) * | 2014-08-01 | 2016-02-04 | ソニー株式会社 | Information processing apparatus, information processing method, and program |
JP2020144551A (en) * | 2019-03-05 | 2020-09-10 | 株式会社デンソーテン | Control device and control method |
JP2020160725A (en) * | 2019-03-26 | 2020-10-01 | 株式会社東海理化電機製作所 | Audio interactive device, input device and output device |
WO2020195457A1 (en) * | 2019-03-26 | 2020-10-01 | 株式会社東海理化電機製作所 | Speech interaction device, input device, and output device |
CN113544771A (en) * | 2019-03-26 | 2021-10-22 | 株式会社东海理化电机制作所 | Voice conversation device, input device, and output device |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP3451335B1 (en) | Optimum control method based on multi-mode command of operation-voice, and electronic device to which same is applied | |
JP2010238145A (en) | Information output device, remote control method and program | |
JP5652652B2 (en) | Display control apparatus and method | |
CN100546344C (en) | Digital camera, image playback apparatus, face image display apparatus and control method thereof | |
CN103869468B (en) | Information processing apparatus | |
JP4697279B2 (en) | Image display device and detection method | |
JP5617603B2 (en) | Display control apparatus, display control method, and program | |
KR20180100131A (en) | Information processing apparatus, information processing method, and program | |
JP2010134629A (en) | Information processing apparatus and method | |
JP6426484B2 (en) | Mobile terminal | |
JP4449082B2 (en) | Electronic camera | |
TW201344597A (en) | Control method and controller for display device and multimedia system | |
CN111405199B (en) | Image shooting method and electronic equipment | |
CN108184070A (en) | A kind of image pickup method and terminal | |
EP3462375A1 (en) | Body information analysis apparatus with augmented reality and eyebrow shape preview method thereof | |
CN110225241A (en) | A kind of video capture control method, terminal and computer readable storage medium | |
US20070214368A1 (en) | Remote control apparatus, remote control system and device-specific information display method | |
US20120242868A1 (en) | Image capturing device | |
JP2010079332A (en) | Remote operation device and remote operation method | |
US8692907B2 (en) | Image capturing apparatus and image capturing method | |
CN110881105B (en) | Shooting method and electronic equipment | |
JP5109853B2 (en) | Electronic camera | |
JP2017126980A (en) | Information processing apparatus, imaging apparatus, display device, information processing method, imaging apparatus control method, display device control method, information processing program, imaging apparatus control program, and display device control program | |
CN103037160B (en) | Digital photographing apparatus and the method for controlling the digital photographing apparatus | |
JP5262696B2 (en) | Imaging device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20120326 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20121213 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20130507 |