JP2006268212A - 命令入力装置 - Google Patents

命令入力装置 Download PDF

Info

Publication number
JP2006268212A
JP2006268212A JP2005082993A JP2005082993A JP2006268212A JP 2006268212 A JP2006268212 A JP 2006268212A JP 2005082993 A JP2005082993 A JP 2005082993A JP 2005082993 A JP2005082993 A JP 2005082993A JP 2006268212 A JP2006268212 A JP 2006268212A
Authority
JP
Japan
Prior art keywords
image
input device
control command
feedback
command input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2005082993A
Other languages
English (en)
Inventor
Hiroshi Mitsumata
浩史 三股
Kenji Miyamoto
健司 宮本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Individual
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Priority to JP2005082993A priority Critical patent/JP2006268212A/ja
Publication of JP2006268212A publication Critical patent/JP2006268212A/ja
Pending legal-status Critical Current

Links

Abstract

【課題】TV受像機などの多岐にわたる機器の手ぶらでの複雑な身体的操作を正確に行う命令入力装置を提供する。
【解決手段】命令入力装置はビデオカメラで撮影したユーザの身体の動作によって機器制御命令を発行する際、身体の基本動作と制御命令に対するフィードバックを(触覚の代わりに)画像または音声によって提供する。単純な動作にフィードバックを提供することで各動作の伝達を意図どおりの誤りないものにし、その結果、複雑な複合操作も基本動作の組み合わせとして確実に伝達できる。基本動作に分解することで、組み合わせによって多様な複合操作を定義できるようにする。
【選択図】 なし

Description

本発明は、身体の動作による非接触での機器操作を可能にする方法に関する。
情報機器を操作するためのわかりやすいインタフェースとして、ユーザ身体の動画像から画像処理によって動作を認識する手法は、リモコンなどのデバイスを用いずに手ぶらでの機器操作を実現する。
身体による動作認識の例として、非特許文献1に記載のインテリジェントルームでは、ユーザは指のジェスチャ、具体的には指の本数とその増減で命令入力を行う。例えば、複数の機器の中から、指を2本立てることでテレビを選択し、その後手を開く、閉じるなどの動作で操作を行う。
入江耕太,梅田和昇,若村直弘:ジェスチャ認識を利用したマン・マシン・インタフェースの構築−インテリジェントルームへの適用−,日本機械学会ロボティクス・メカトロニクス講演会'03講演論文集,2003
しかしながら、ジェスチャ認識では身体形状や動作に対しアドホックにジェスチャの意味を割り当てているため、認識できる動作が直感的でなく不自然なものである。また限られたパターンしか認識できない。このため、複雑・多様な操作に対応できない。
一般的にこうした状況を解決する手段は、非特許文献2に記載のダイレクト・マニピュレーションである。ダイレクト・マニピュレーション・インタフェースは、関心のあるオブジェクトを常に表現し続ける、複雑なシンタックスのコマンドではなく、実際にオブジェクトに働きかける動作やメニューによる選択により入力する、これらの操作は速く、可逆的で、結果は直ちにオブジェクトの変化としてみることができる、ことを特徴としている。
B. Shneiderman: Direct manipulation: A step beyond programming languages. IEEE Computer, Vol.16, No.8, pp.57-69 (1983).
しかしながら、ユーザ身体の動画像からの身体動作を入力とする場合、従来の身体動作認識のみからなるインタフェースは身体動作に対する明確なフィードバックがないため、ダイレクト・マニピュレーションを実現することができない。実世界では、対象物のある身体による操作においては、操作に関わる身体の特定の部位に対する触覚応答など何らかの感覚にフィードバックが必須である。しかし、仮想の操作においては触覚にフィードバックが与えられることは望めない。
本発明の目的は、実時間の動画像から得られる身体動作を用いた、確実性が高く、直ちにフィードバックの得られるユーザインタフェースを実現することにある。
本発明の更なる目的は、手ぶらでの直感的動作を用いたユーザインタフェースを実現することにある。
本発明の更なる目的は、個々の身体動作における操作の多様性を確保することにある。
本発明の更なる目的は、身体動作による操作と多様な操作パターンを両立することで複雑な操作を確実に行うことある。
請求項1に記載の命令入力装置は、身体動作によって外部機器への制御命令を生成する命令入力装置であって、ユーザの身体動作を撮影する撮影手段と、該撮影手段で得られたユーザの身体動作映像から身体の特定の部位の位置を表す点である特徴点を抽出する特徴点抽出手段と、該特徴点を監視して該特徴点の振る舞いに応じて制御命令に変換する変換手段と、身体動作と制御命令に応じたフィードバックを生成するフィードバック生成手段と、該フィードバック生成手段によって生成されたフィードバックを出力する出力手段と、外部機器を接続するための接続手段と、を備えることにより、上記目的を達成している。
上記構成によれば、ユーザの身体の一部を用いて、撮影手段に対して行われた身体動作から、特徴点抽出手段によって操作に関わる身体の特定の部位の動作を抽出することができるとともに、フィードバック生成手段によって生成され出力手段によって出力されたフィードバックをユーザが確認しながら操作を行うことで操作性を向上させることができる。
この場合、例えば、請求項2に記載するように、前記フィードバック生成手段は、身体動作に応じて制御される画像と制御命令に応じて制御される画像とを生成する画像生成手段または身体動作に応じて制御される音声と制御命令に応じて制御される音声とを生成する音声生成手段またはその両方を備えるものであってもよい。
上記構成によれば、ユーザは視覚または聴覚またはその両方に対してフィードバックを受けながら操作を行うことができる。
さらに、例えば、請求項3に記載するように、前記画像生成手段は、前記撮影手段によって撮影されたユーザの身体動作映像から身体領域の画像を抽出する領域抽出手段によって抽出された身体領域画像を生成するものであってもよい。
上記構成によれば、身体動作映像から抽出したユーザ自身の身体または身体の一部の画像を操作に用いることで、ユーザは自身の身体で直接操作を行うかのような直感的でわかりやすい操作を行うことができる。このことは自明である。
また、例えば、請求項4に記載するように、前記画像生成手段は、特徴点または特徴点から計算される点を表す画像を生成するものであってもよい。
上記構成によれば、各身体動作における注目度の高い部分をユーザに提示することで、操作の確実性を向上させることができる。例えば、特徴点または特徴点から計算される点の存在する位置にカーソルを表示するなどである。
さらに、例えば、請求項5に記載するように、前記画像生成手段は、制御命令の内容を表す画像を生成するものであってもよい。
上記構成によれば、画像生成手段の生成する画像を現在の身体動作や制御命令に即したものに変更するなど、現在の制御状態をユーザに提示することでユーザの判断を補助し、操作を円滑に行うことができる。例えば、任意の領域を切り取る制御命令を発行する場合、はさみの画像のアイコンを表示するなどである、
また、例えば、請求項6に記載するように、前記変換手段は、前記特徴点抽出手段から得た該特徴点の振る舞いに基づいてユーザの動作と動作の行われた画像上の位置の組であるイベントを検出するイベント検出手段と、該イベント検出手段により検出されたイベントおよびその履歴に応じて制御命令を発行する制御命令発行手段とを備えるものであってもよい。
上記構成によれば、イベントの履歴に応じて意味動作を行うことにより、単純な動作の組み合わせによる複雑な身体的操作を確実に行うことができる。
さらに、例えば、請求項7に記載するように、前記制御命令発行手段は、画像で示された領域ごとに前記イベントの履歴に対応する意味動作の集合を持つものであってもよい。
上記構成によれば、画像上の各領域ごとに、同じ身体動作に異なる意味を持たせることができる。また複数の意味動作のセットを持たせることにより、制御命令の種類を容易に追加することができる。
また、例えば、請求項8に記載するように、外部機器はテレビ受像機やビデオデッキなどであって、前記変換手段は放送番組の選局やビデオデッキにおける再生などの外部機器の機能操作用の制御命令も受け付けるものであってもよい。
上記構成によれば、接続手段によって命令入力装置と接続が可能であるあらゆる外部機器において、身体動作による操作が可能となる。
以下、図面を参照しながら本発明の実施例を詳解する。
図1には、本発明の実施に供される命令入力装置の外観を示す。また図2には、本実施例においてディスプレイ13に表示される画像の例を示す。本実施例は、家電の例としてのテレビ14と、使用者の手15を撮影するビデオカメラ11(撮影手段)と、画像処理(領域抽出手段、特徴点抽出手段、画像生成手段)や身体動作の制御命令への変換(変換手段)を行うパソコン12と、合成映像を出力する(表示手段)ディスプレイ13と、音声を出力するスピーカー20を必要とする。ビデオカメラ11は、使用者の手15の下に設置され、使用者16の身体動作を撮影する。パソコン12で映像から背景を除去し使用者の身体のみの映像にし、ディスプレイ13に表示する。使用者16はディスプレイ13に表示された手の画像17及び電源スイッチの画像18及びチャンネル操作スイッチの画像19を見ながら命令入力を行う。
図3は本実施例の命令入力装置全体のブロック図であって、21は領域抽出部、22は特徴点抽出部、23はイベント検出部、24は制御部、25はフィードバック生成部であり、図1に対応する部分には同一符号を付けている。
同図において、領域抽出部21は、ビデオカメラ12から得た使用者の手を含む映像から手領域画像を出力する。この手領域画像は特徴点抽出部22とフィードバック生成部25に供給される。
特徴点抽出部22は領域抽出部21の出力画像をもとに特徴点を抽出し、特徴点の現在位置をイベント検出部23に供給する。
イベント検出部23は、特徴点抽出部22の出力結果の履歴を基に特徴点の動きに対応するイベントを制御部24に供給する。
制御部24は、イベント検出部23の出力の履歴を基に、対応する制御命令をテレビ14と画像合成部25に供給する。
フィードバック生成部25は、制御部24の供給する制御命令に従って生成した画像と領域抽出部21から得た手領域画像とを合成し、ディスプレイ13に画像を出力する。また制御命令に従って音声を生成し、スピーカー20に音声を出力する。
この実施の形態では、手の画像17における人差し指と親指の先端の位置と動きを身体動作とする。また、イベントとして検出される身体動作は、人差し指と親指の「つまむ」「離す」及び人差し指と親指の「移動」とする。
図4において、この命令入力装置は、テレビの電源の操作を行う。ユーザは電源スイッチの画像18のつまみ部分をディスプレイ13に表示された手の画像17が見かけ上人差し指と親指でつまむように動作を行い、スイッチのOFF時は手を下方へ、スイッチのON時は手を上方へ移動させることで電源スイッチが操作される。応答の履歴依存性を状態で記録する。この状態遷移を図6に示す。
図5において、この命令入力装置は、テレビのチャンネルの操作を行う。ユーザは左右のチャンネル操作スイッチの画像19をディスプレイ13に表示された手の画像17が見かけ上人差し指と親指でつまむように動作を行うことでチャンネルの操作が行われる。応答の履歴依存性を状態で記録する。この状態遷移を図7に示す
なお、以上の実施形態では、画像表示装置をディスプレイとして説明したが、かかる画像表示装置としては、表示部を備えた操作対象となる外部機器であってもよい。

本研究の実施の形態の概略構成を説明する仕様状態の概念図である。 本実施例に係る命令入力装置の画面表示例を示した図である。 本実施例に係る命令入力装置のブロック図である。 身体動作によってテレビの電源を操作する際の画面表示例を示した図である。 身体動作によってテレビのチャンネルを操作する際の画面表示例を示した図である。 電源スイッチの状態遷移図 チャンネル操作スイッチの状態遷移図
符号の説明
1 命令入力装置
11 ビデオカメラ
12 パソコン
13 ディスプレイ
14 テレビ
15 使用者の手
16 使用者
17 手の画像
18 電源スイッチの画像
19 チャンネル操作スイッチの画像
20 スピーカー
21 領域抽出部
22 特徴点抽出部
23 イベント検出部
24 制御部
25 フィードバック生成部

Claims (9)

  1. 身体動作によって外部機器への制御命令を生成する命令入力装置であって、ユーザの身体動作を撮影する撮影手段と、該撮影手段で得られたユーザの身体動作映像から身体の特定の部位の位置を表す点である特徴点を有限個抽出する特徴点抽出手段と、該特徴点を監視して該特徴点の振る舞いに応じて制御命令に変換する変換手段と、身体動作と制御命令に応じたフィードバックを生成するフィードバック生成手段と、該フィードバック生成手段によって生成されたフィードバックを出力する出力手段と、外部機器を接続するための接続手段とを具備することを特徴とする命令入力装置。
  2. 請求項1において、フィードバック生成手段は、身体動作に応じて制御される画像と制御命令に応じて制御される画像とを生成する画像生成手段または身体動作に応じて制御される音声と制御命令に応じて制御される音声とを生成する音声生成手段またはその両方を具備することを特徴とする命令入力装置。
  3. 請求項2において、画像生成手段は、撮影手段によって撮影されたユーザの身体動作映像から身体領域の画像を抽出する領域抽出手段によって抽出された身体領域画像を生成することを特徴とする命令入力装置。
  4. 請求項2において、画像生成手段は、特徴点または特徴点から計算される点を表す画像を生成することを特徴とする命令入力装置。
  5. 請求項2において、画像生成手段は、制御命令の内容を表す画像を生成することを特徴とする命令入力装置。
  6. 請求項1から5において、前記変換手段は、前記特徴点抽出手段から得た該特徴点の振る舞いに基づいてユーザの動作の種類と動作の行われた画像上の位置の組であるイベントとするイベント検出手段と、該イベント検出手段により検出されたイベントおよびその履歴に応じて制御命令を出す制御命令発行手段とを具備した命令入力装置。
  7. 請求項6において、前記制御命令発行手段は、画像で示された領域ごとに前記イベントの履歴に対応する制御命令の集合を持つことを特徴とする命令入力装置。
  8. 請求項1から7において、前記出力手段は、前記画像生成手段によって生成された画像を表示する表示手段と、前記音声生成手段によって生成された音声を出力するスピーカー手段とを具備することを特徴とする命令入力装置。
  9. 請求項1から6において、外部機器はテレビ受像機やビデオデッキなどであって、前記変換手段は放送番組の選局やビデオデッキにおける再生などの外部機器の機能操作用の制御命令も受け付けることを特徴とする命令入力装置。
JP2005082993A 2005-03-23 2005-03-23 命令入力装置 Pending JP2006268212A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005082993A JP2006268212A (ja) 2005-03-23 2005-03-23 命令入力装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005082993A JP2006268212A (ja) 2005-03-23 2005-03-23 命令入力装置

Publications (1)

Publication Number Publication Date
JP2006268212A true JP2006268212A (ja) 2006-10-05

Family

ID=37204151

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005082993A Pending JP2006268212A (ja) 2005-03-23 2005-03-23 命令入力装置

Country Status (1)

Country Link
JP (1) JP2006268212A (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010045658A (ja) * 2008-08-14 2010-02-25 Sony Corp 情報処理装置、情報処理方法および情報処理プログラム
KR101513407B1 (ko) * 2012-02-06 2015-04-17 신닛테츠스미킨 카부시키카이샤 정정 작업 지원 장치, 정정 작업 지원 방법 및 정정 작업 지원 시스템
JP2016520946A (ja) * 2014-01-07 2016-07-14 ソフトキネティック ソフトウェア 人間対コンピュータの自然な3次元ハンドジェスチャベースのナビゲーション方法
US9864433B2 (en) 2012-07-13 2018-01-09 Softkinetic Software Method and system for human-to-computer gesture based simultaneous interactions using singular points of interest on a hand
JP2019135665A (ja) * 2012-07-13 2019-08-15 太郎 諌山 要素選択装置、要素選択方法、および、プログラム

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010045658A (ja) * 2008-08-14 2010-02-25 Sony Corp 情報処理装置、情報処理方法および情報処理プログラム
JP4720874B2 (ja) * 2008-08-14 2011-07-13 ソニー株式会社 情報処理装置、情報処理方法および情報処理プログラム
US8237655B2 (en) 2008-08-14 2012-08-07 Sony Corporation Information processing apparatus, method and program
US8698743B2 (en) 2008-08-14 2014-04-15 Sony Corporation Information processing apparatus, method and program
KR101513407B1 (ko) * 2012-02-06 2015-04-17 신닛테츠스미킨 카부시키카이샤 정정 작업 지원 장치, 정정 작업 지원 방법 및 정정 작업 지원 시스템
US9864433B2 (en) 2012-07-13 2018-01-09 Softkinetic Software Method and system for human-to-computer gesture based simultaneous interactions using singular points of interest on a hand
JP2019135665A (ja) * 2012-07-13 2019-08-15 太郎 諌山 要素選択装置、要素選択方法、および、プログラム
US11513601B2 (en) 2012-07-13 2022-11-29 Sony Depthsensing Solutions Sa/Nv Method and system for human-to-computer gesture based simultaneous interactions using singular points of interest on a hand
JP2016520946A (ja) * 2014-01-07 2016-07-14 ソフトキネティック ソフトウェア 人間対コンピュータの自然な3次元ハンドジェスチャベースのナビゲーション方法
US11294470B2 (en) 2014-01-07 2022-04-05 Sony Depthsensing Solutions Sa/Nv Human-to-computer natural three-dimensional hand gesture based navigation method

Similar Documents

Publication Publication Date Title
US8693732B2 (en) Computer vision gesture based control of a device
JP5183398B2 (ja) 入力装置
US10114463B2 (en) Display apparatus and method for controlling the same according to an eye gaze and a gesture of a user
US8866781B2 (en) Contactless gesture-based control method and apparatus
JP5802667B2 (ja) ジェスチャ入力装置およびジェスチャ入力方法
US9367202B2 (en) Information processing method and electronic device
EP2877909B1 (en) Multimodal interaction with near-to-eye display
CN105814522B (zh) 基于运动识别来显示虚拟输入设备的用户界面的设备和方法
US20100125815A1 (en) Gesture-based control method for interactive screen control
US20200218356A1 (en) Systems and methods for providing dynamic haptic playback for an augmented or virtual reality environments
CN106105247B (zh) 显示装置及其控制方法
US20140053115A1 (en) Computer vision gesture based control of a device
TW201331788A (zh) 利用手勢使電子裝置執行操作切換的方法
JP2006268212A (ja) 命令入力装置
US11693482B2 (en) Systems and methods for controlling virtual widgets in a gesture-controlled device
Nanjundaswamy et al. Intuitive 3D computer-aided design (CAD) system with multimodal interfaces
US20120313968A1 (en) Image display system, information processing apparatus, display device, and image display method
JP2013114647A (ja) ジェスチャー入力システム
JP5386645B2 (ja) 入力方法
JP2005063225A (ja) 自己画像表示を用いたインタフェース方法、装置、ならびにプログラム
KR20100048747A (ko) 안면 추적을 이용한 모바일 유저 인터페이스 장치
JP5665396B2 (ja) 情報処理装置およびその制御方法
CN105988686A (zh) 播放界面的显示方法、装置及终端
JP2007102415A (ja) 2つの入力モードを有する携帯端末、プログラム及び携帯端末への指令入力方法
CN103809846A (zh) 一种功能调用方法及电子设备