JP5723462B2 - マルチモーダル及びジェスチャー制御のための方法及びシステム - Google Patents

マルチモーダル及びジェスチャー制御のための方法及びシステム Download PDF

Info

Publication number
JP5723462B2
JP5723462B2 JP2013550458A JP2013550458A JP5723462B2 JP 5723462 B2 JP5723462 B2 JP 5723462B2 JP 2013550458 A JP2013550458 A JP 2013550458A JP 2013550458 A JP2013550458 A JP 2013550458A JP 5723462 B2 JP5723462 B2 JP 5723462B2
Authority
JP
Japan
Prior art keywords
gesture
devices
user
command
space
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2013550458A
Other languages
English (en)
Other versions
JP2014507714A (ja
Inventor
プラフル,チャンドラ
ランガナサン,パーササラシー
マドヴァナス,スリガネシュ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hewlett Packard Development Co LP
Original Assignee
Hewlett Packard Development Co LP
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hewlett Packard Development Co LP filed Critical Hewlett Packard Development Co LP
Publication of JP2014507714A publication Critical patent/JP2014507714A/ja
Application granted granted Critical
Publication of JP5723462B2 publication Critical patent/JP5723462B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/02Input arrangements using manually operated switches, e.g. using keyboards or dials
    • G06F3/0227Cooperation and interconnection of the input arrangement with other functional units of a computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/038Control and interface arrangements therefor, e.g. drivers or device-embedded control circuitry
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/038Indexing scheme relating to G06F3/038
    • G06F2203/0381Multimodal input, i.e. interface arrangements enabling the user to issue commands by simultaneous use of input devices of different nature, e.g. voice plus gesture on digitizer

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Details Of Television Systems (AREA)

Description

背景
技術において絶えず続く変化に起因して、家庭用娯楽機器(ホームエンターテイメント)及び特に、家庭用娯楽機器システム(ホームエンターテイメントシステム)が、ここ10年間にわたって劇的に変化した。例えば、今日のエンターテイメントシステムには、とりわけ、3次元(3D)が可能にされたテレビセット、ディジタルビデオレコーダ、ブルーレイメディアプレーヤ、及びビデオゲームシステムを含めることができる。その多くの技術的進歩にもかかわらず、エンターテイメントシステムの各装置は、依然として、ユーザからの何らかの物理的な操作(又は動作)のものである。現在、赤外線ベースのコントローラが、リモートに(遠隔で)装置を制御するのに最も人気がある方法のうちの1つである。しかしながら、同時に操作することが要求される装置の数が増加するにつれ、ユーザが学んで操作しなければならないコントローラの数もそのように増加する。
以下の図面と併せて用いられた際に、本発明の特定の実施形態の詳細な説明の結果として、本発明の特徴及び利点、並びに、その追加的な特徴及び利点が、下記においてよりはっきりと理解されることとなるであろう。
本発明の一例による、マルチモーダル及びジェスチャー制御システムの3次元の斜視図を示す図である。 本発明の一例による、マルチモーダル及びジェスチャー制御システムの簡略化されたブロック図を示す図である。 図3A〜図3Iは、本発明の一例による、様々なジェスチャーコマンドを示す図である。 本発明の一例による、相互作用が意図される特定のデバイスをユーザが指定することを可能にするための様々なメタ相互作用アプローチのうちの1つを示す図である。 本発明の一例による、相互作用が意図される特定のデバイスをユーザが指定することを可能にするための様々なメタ相互作用アプローチのうちの1つを示す図である。 本発明の一例による、相互作用が意図される特定のデバイスをユーザが指定することを可能にするための様々なメタ相互作用アプローチのうちの1つを示す図である。 本発明の一例による、相互作用が意図される特定のデバイスをユーザが指定することを可能にするための様々なメタ相互作用アプローチのうちの1つを示す図である。 本発明の一例による、相互作用が意図される特定のデバイスをユーザが指定することを可能にするための様々なメタ相互作用アプローチのうちの1つを示す図である。 本発明の一例による、マルチモーダル及びジェスチャー制御を可能にするための処理ステップの簡略化された流れ図を示す図である。
発明の詳細な説明
以下の説明は、様々な実施形態に向けられているものである。これら実施形態のうちの1つか又は複数は、詳細に検討される場合があるが、開示した実施形態は、特許請求の範囲を含めて本開示の範囲を限定するものとして解釈されるべきではないか、或いは別様にも用いられる。更に、以下の説明には広い用途があり、任意の実施形態の説明は、その実施形態の一例であることのみを意味しており、及び特許請求の範囲を含めて本開示の範囲がその実施形態に限定されるということを暗に示すように任意の実施形態の説明は意図されていないということを当業者であれば理解するであろう。更には、本明細書内において使用されると、識別子「A」、「B」、及び「N」は、具体的には図面内の参照数字について、そのように指定されたある番号の特定の特徴が、本開示の例と共に含まれる可能性があるということを示す。該識別子は、同じ番号か又は異なる番号の特定の特徴を表すことができる。
最初の1桁又は複数桁が図面番号に対応して、残りの桁がその図面内のある要素か又は構成要素を識別(又は特定)するというような番号付けの慣習に本明細書内の図は従っている。異なる図の間における類似の要素か又は構成要素は、類似の桁を有した図でユーザにより識別され得る。例えば、143は、図1内の要素「43」を参照することができ、及び、類似の要素が、図2内において243として参照され得る。本明細書内における様々な図内に示された要素は、本開示の多くの追加的な例を提供するために、追加され得る、交換され得る、及び/又は削除され得る。追加的には、図内に提供されている要素の比率(又は割合)及び相対的な縮尺(スケール)は、本開示の例を説明することが意図されており、限定する意味に受け取られるべきではない。
上述の問題に対する一般的な解決法は、複数のエンターテイメント装置を制御するユニバーサルリモコン(リモートコントローラ)を使用することである。ここで、複数の装置を制御するために、単一コントローラが設定(又は構成)される。装置のセットと、通信チャンネル(例えば、赤外線)上において該コントローラが発令することが可能なその対応するコマンドとが、事前に設定され得るか、或いは、ユーザによりカスタマイズされ得る。典型的には、物理コントローラは、ある特定のモードに置かれる。これにより、そのモードが変更されない限り、全ての後続するコマンドは、ある特定の装置に向けられたもの(ある特定の装置用)になることとなる。しかしながら、物理コントローラは、バッテリの交換がたびたび必要となり、頻繁に置き忘れ、及び時が経つにつれて最終的には摩耗する。
上述の問題に対する別の解決法は、ジェスチャー制御を用いることによって、物理コントローラを必要とせずに複数の装置の制御を可能にすることである。しかしながら、先行する解決法では、各装置は、それ自体の固有の相互作用ボキャブラリー(例えば、ジェスチャーコマンドデータベース)を有することに加えて、各装置には、ユーザからのジェスチャーを検出するためのコントローラが含まれなければならない。更には、物理コントローラが見当たらない時には、ジェスチャーがその目標を定める目標装置(目標とする装置、又は送り先装置)を指定することは、頻繁に困難となる。
物理コントローラが無い場合において、別のアプローチは、ユーザのジェスチャーの意図される方向を、彼/彼女が指し示している場所を観察することによって決定することを可能にすることである。このことは、ユーザのジェスチャーの赤外線カメラ画像か又はRGBを処理することによってか、或いは凝視(視線)検出により、成し遂げられ得る。このアプローチは、装置が空間内において物理的に離されている時に、時々働く(機能する)。すなわち、1度に1台のみのカメラ(例えば、前方を向いたカメラ)がユーザ相互作用を正確にキャプチャして ジェスチャーに対する目標装置(送り先装置)を決定することが可能であることとなるように、各装置が空間内において物理的に離されている状態で、独立したカメラを用いて、ビジュアルなジェスチャーを認識するよう複数のデバイスが構成されている。しかしながら、複数の装置が、互いにごく接近している状態にある場合には、このアプローチは、必要な精度で働かない(又は機能しない)。
共通に存在する複数の装置によってユーザ動作(すなわち、ジェスチャーコマンド)が作動され得る時には、ある特定の装置をあるユーザが指定することを、本発明の例が可能にする。すなわち、本発明の例は、複数のエンターテイメント装置を制御するために使用され得る単一ジェスチャー及びマルチモーダルコントローラを提供する。具体的には、本発明の例は、メタ相互作用を利用するか、或いは、如何なる動作も結果的に生じないが相互作用それ自体(すなわち、相互作用の目的装置)を解釈するのに有用であるような相互作用を利用する。つまり、別の言い方をすると、同じ相互作用メカニズムを介して2つか又は3つ以上の複数装置が制御され得るような該複数装置とユーザが相互作用する時には、マルチモーダル及びジェスチャー制御システムは、ある特定の相互作用が意図されるのがどの装置なのかを区別するのを助ける。従って、メタ相互作用と、それに関連付けられたジェスチャー制御システムとが、幾つかの相互作用モダリティ(すなわち、マルチモーダル(複数態様、複数様式))に及ぶことが可能であり、及び、複数の近接装置との液体相互作用を可能にする。
次に、図面(該図面内において、同様の数字は、図面全体を通じて対応する部分を同一視する)をより詳細に参照すると、図1は、本発明の一例による、マルチモーダル及びジェスチャー制御システムの3次元の斜視図である。ここで示されるように、システム100は、多数のエンターテイメント装置に105、110、115に結合されたディスプレイユニット124を備える。一実施形態によれば、ディスプレイユニット124は、操作ユーザに対するオーディオ及びビデオ信号の伝送を容易にするよう構成されたディジタルテレビである。エンターテイメント装置105、110、115は、衛星放送受信器(サテライトレシーバ)、ディジタルビデオレコーダ(DVR)、ディジタルビデオディスクプレーヤ(DVD/ブルーレイ)、ビデオゲームコンソール、オーディオ・ビデオ(AV)レシーバ、及びこれらに類するものような、ディスプレイユニット124とペアを組ませるためのマルチメディア民生用電子装置を表す。更に、ジェスチャー検出コントローラが、コントローラ(例えば、カメラ、マイクロホン、赤外線カメラ、など)に情報を入力するための必要不可欠なセンサと共に、エンターテイメント装置105、110、115のうちの少なくとも1つの中に組み込まれ得る。その他のエンターテイメント装置には、赤外線ベースか又は無線周波数(RF)プロトコルなどの標準無線通信手段を含めることができる。本発明の例は、多数のエンターテイメント装置105、110、及び115の空間的な近接性と、無線プロトコルのブロードキャスト性(特質)との両方を利用する。例えば、ホスト装置のジェスチャー検出コントローラが、該ホスト装置に対する目標先(送り先)が定められていないユーザからのジェスチャーコマンドを認識する時には、該ホスト装置が、該コマンドを、他の装置によって理解され得る代替コマンドコード(例えば赤外線)へと変換するよう構成される。該代替コマンドは、次いで、適切なコードか又は媒体(例えば赤外線)が用いられて該ホスト装置によって目標装置(送り先装置)へとブロードキャストされる。図1内に示された例を再び参照すると、エンターテイメント装置110がジェスチャーコントローラを含み、エンターテイメント装置105に対する目標(送り先)が定められたユーザからのジェスチャーコマンドを認識する場合には、エンターテイメント装置110は、次いで、受け取ったジェスチャーコマンドに関連付けられた赤外線コード(すなわち、代替コマンド)を生成して、該代替コマンドを装置105にブロードキャストすることができる。装置110と装置105とが、ごく接近した状態にあるので、装置105の赤外線受信器は、この代替の赤外線コマンドを受け取って、従って、それに基づいて作動する。更に、該代替のコマンドか又は赤外線コードは、エンターテイメント装置105に固有のものであるので、エンターテイメント装置115は、このコマンドによって影響を受けない。更にまた、ディスプレイユニット124は、ホスト装置を介して制御されるエンターテイメント装置のうちの1つとすることもできる。
図2は、本発明の一例による、マルチモーダル及びジェスチャー制御システムの簡略化されたブロック図である。この例の中に示されるように、システム200は、複数のエンターテイメント装置205、210、215(A、B、・・・N)、ディスプレイユニット224、ジェスチャーデータベース223、及びコンピュータ可読記憶媒体(CRSM)211を備える。本発明の例によるジェスチャー及びマルチモーダル制御を容易にするために、ホストか又はエンターテイメント装置210は、ジェスチャー検出モジュール211と信号プロセッサ209とを含む。より詳細には、ジェスチャー検出モジュール211は、ジェスチャーデータベース223に結合される。該ジェスチャーデータベース223は、関連付けられた動作コマンド及び目標装置(送り先装置)と共に記されたジェスチャーのリストを格納する。一例によれば、信号プロセッサ209は、ジェスチャーコマンドを代替コードか又はコマンド(例えば、無線周波数)に変換して、適切な目標装置(送り先装置)によって検出されるために、その変換されたコマンドを放出するよう構成される。装置205及び215は、ホストエンターテイメント装置210から放出された代替信号を検出するための信号受信器207、217をそれぞれ含む。ディスプレイユニット224は、液晶ディスプレイ(LCD)テレビか、プラズマディスプレイパネルか、陰極線管(CRT)ディスプレイか、ビデオプロジェクタか、又はこれらに類するもののような、ユーザに対して映像及び画像を提示するよう構成された電子映像ディスプレイを表す。更には、ディスプレイユニット224にはまた、ホスト装置からブロードキャストされた代替コマンド信号を検出するための信号受信器を含めることができる。記憶媒体219は、揮発性記憶装置(例えば、ランダムアクセスメモリ)か、不揮発性記憶装置(例えば、ハードディスクドライブ、読み出し専用メモリ、コンパンクトディスク可読専用メモリ、フラッシュ記憶装置、など)か、又はそれらの組み合わせを表す。更にまた、記憶媒体219には、本明細書内に記載された機能性(機能)のうちの幾つかか又は全てを実施するための、ホスト装置により実行可能なソフトウェア213を含めることができる。
図3(図3A〜図3I)は、本発明の一例による、様々なジェスチャーコマンドを示す。この例示的な実施形態の中に示されるように、図3Aは、ユーザの手が握り拳を形成して、親指が西向きの方向を指し示しているようなジェスチャーコマンドを図示する。このようなジェスチャーコマンドは、DVDプレーヤ装置上において以前のチャプタにスキップさせることか、或いはDVD装置上において30秒巻き戻すことのような「戻す(BACK)」操作にマッピングされ得る。同様に、図3Bは、ユーザの手が握り拳を形成して、親指が東向きの方向を指し示しているようなジェスチャーコマンドを図示する。このジェスチャーは、DVDプレーヤ上において次のチャプタにスキップさせることか、或いはDVD装置上において30秒先にスキップさせることのような「進める(FORWARD)」操作にマッピングされ得る。図3Cは、ユーザの手が開かれており、指が互いに閉じられており、及び親指が人差し指に対して垂直であるような、更に別のジェスチャーコマンドを図示する。このようなジェスチャーは、例えば、ブルーレイ・エンターテイメント装置上のブルーレイ映画の再生を停止させることのような「停止」操作にマッピングされ得る。
更にまた、図3Dは、ユーザの手の特質が、開かれていることと、指が本質的には等距離に離れていることと、手のひらが該ユーザに面していることとを含むようなジェスチャーコマンドを図示する。従って、このジェスチャーは、例えば、接続されたビデオゲームコンソール上においてセーブしたファイルをオープンさせることのような「オープン」操作にマッピングされ得る。同様に、図3Eは、ユーザの手の特質が、図3Dにおけるユーザの手の特質を模倣したものであるが、手のひらについてはユーザから離れる方向を向いているようなジェスチャーコマンドを図示する。一例によれば、このジェスチャーは、ディスプレイユニット上に示された画像か又は映像のビジュアルディスプレイ領域を増大させるための「最大化」操作にマッピングされ得る。更に言うと、図3Fは、ユーザの手が握り拳を形成するようなジェスチャーコマンドを図示する。ここで、このジェスチャーコマンドは、接続されたディスプレイユニット上に示された画像か又は映像のビジュアルディスプレイ領域を減少させるための「最小化」操作にマッピングされ得る。
図3Gは、人差し指が東向きの方向を指し示している状態で、及び中指が北の方向を指し示している状態で、該中指と該人差し指とを除いてユーザの手が閉じられているような、更に別のジェスチャーコマンドを図示する。一例によれば、このようなジェスチャーは、最後に受け取ったコマンドがキャンセルされるか又は削除されるような「アンドゥー(UNDO)」操作にマッピングされ得る。図3Hは、人差し指が西向きの方向を指し示すということを除いて図3Gに類似したジェスチャーコマンドを図示する。図3Gとは逆に、図3Hのジェスチャーは、以前のコマンドが適用されることとなるような「リドゥ(REDO)」操作にマッピングされ得る。更にまた、図3Iは、かぎ爪タイプのジェスチャーを形成するために、ユーザの手の各指が内側に丸められているようなジェスチャーコマンドを図示する。このようなジェスチャーコマンドは、ホスト装置のジェスチャーコントローラを介して、ある特定の目標装置(送り先装置)に関するデータファイルをセーブする(例えば、ビデオゲームコンソールのハードドライブ上に写真をセーブする)ための「セーブ」操作に、マッピングされ得る。上述のジェスチャーコマンドは、本発明のシステムによって利用され得るジェスチャーのタイプの小さなサブセットの単なる一例に過ぎない。更にまた、これらのジェスチャーコマンドは、任意のタイプの動作コマンドに対して各ジェスチャーがマッピングされ得るように、単に例示を目的として使用されているに過ぎない。
上述のように複数の装置を制御するために、ホストエンターテイメント装置内において単一ジェスチャー検出コントローラを用いることによって、特定のジェスチャーに対する目標装置(送り先装置)を指示することが必要になってくる。しかしながら、大量セットのジェスチャーコマンドを提供することは、ユーザが学び且つ吸収しなければならない多くのコマンドを増加させる働きをする。そのような方法はまた、大量セットのコマンド間の区別を行うためのセンサ及びコントローラの性能要件を増加させる働きもする。従って、本発明の例は、ユーザが、ある特定のジェスチャーコマンドをオーバーロードさせて、次いで、コマンドが意味付けられるか又は目標付けられるのがどの装置なのかを指定することを可能にするというような方法を提供する。具体的には、メタ相互作用か、或いは、如何なるアクションも結果として生じさせないけれども相互作用自体を解釈するためには有効な相互作用が、ある特定のユーザ相互作用か又はジェスチャーの目標装置(送り先装置)を識別するのに利用され得る。
図4A〜図4Eは、ユーザが、本発明の一例による、相互作用が意図される特定の装置を指定することを可能にすることのための様々なメタ相互作用アプローチを示す。図4Aは、「利き手でない手(又は非支配的な手、又は非優位な手、非主要な手)」のメタ相互作用アプローチを図示する。このアプローチによれば、ユーザ426の利き手でない手424は、目標装置(送り先装置)を指定するために使用され得る一方、利き手(又は支配的な手、又は優位な手、又は主要な手)432が、ジェスチャー相互作用のために使用されている。すなわち、利き手432を用いてなされているジェスチャーコマンドに対する目標装置(送り先装置)を適格とするために、利き手でない手(又は非支配的な手、又は非優位な手、非主要な手)434を用いてなされるある姿勢か又はジェスチャーが使用され得る。その提示例の中に示されているように、ユーザ426は、利き手424で「戻す(BACK)」ジェスチャーコマンドを形成している一方で、同時に、「戻す(BACK)」動作を実行するための目標エンターテイメント装置(すなわち、装置1)を指示するために利き手でない手で1本の指を立てている。
図4Bは、「クロスモードの」メタ相互作用アプローチを図示する。ここで、該メタ相互作用には、目標装置(送り先装置)を指定する別のモダリティ(例えば、スピーチ(言葉を発すること))によって同時に生じられるビジュアル手ジェスチャーを含めることができる。この例の中で示されているように、「戻す(BACK)」コマンドについてのビジュアル手ジェスチャーは、操作か又は制御するために「戻す(BACK)」コマンドが意味付けられるのがどの装置なのかを指定するための「DVD」か又は「DVR」などのスピーチタグによって成し遂げられ得る。図4Cは、「テンポラル」アプローチと呼ばれる更に別のメタ相互作用を図示する。この例では、同じ相互作用ドメイン内における幾つかのジェスチャーが、メタ相互作用として作用することができ、該メタ相互作用は、所与の期間内において今後(未来)のメタ相互作用が受容されない限り、目標装置(送り先装置)を設定する。例えば、ユーザ426は、目標装置(送り先装置)として「装置2」を選択することができ、次いで、所定の時間閾値(例えば、5秒)内において、及び、同じ相互作用ドメイン内において、ジェスチャーコマンド(例えば、「元に戻す(GO BACK)」、「ボリュームアップ(VOLUME UP)」など)を、選択した目標装置(送り先装置)を操作することのために形成する。代替的には、ある特定のジェスチャーは、異なる装置間において切り替えを行う「トグル・メタ相互作用」として作用することができる。
次に図4Dを参照すると、「空間的な」メタ相互作用アプローチが図示されている。この例示的な実施形態によれば、相互作用のジェスチャー認識空間が、異なる装置にマッピングされている異なる空間領域内へと細分化され得る。これにより、ある特定の空間領域内においてトリガーされる相互作用が、ある特定の装置に向かって目標付けられることとなる。例えば、もしも2つのエンターテイメント装置が、互いの上に積み重ねられている場合には、所定の閾値(例えば、ユーザの顔か又は肩)上のビジュアル手ジェスチャーが、最も上の装置に割り当てられ得る一方、該閾値未満のジェスチャーコマンドは、該最も上の装置の下の装置に割り当てられ得る。図4Dの例では、空間領域436a内(すなわち、ユーザ424の目の上)におけるジェスチャーコマンド436aは、エンターテイメント装置405に割り当てられることが可能であり、空間領域436b内(すなわち、ユーザ424の目のレベルと肩のレベルとの間)におけるジェスチャーコマンド432bは、エンターテイメント装置410に割り当てられることが可能であり、一方、空間領域436c内(すなわち、ユーザ424の肩のレベルと、ウエストのレベルとの間)におけるジェスチャーコマンド432cは、エンターテイメント装置415に割り当てられることが可能である。
図4Eは、複数の装置を制御するための、更に別のメタ相互作用アプローチ(「ジェスチャー属性(アトリビュート)」を図示する。ここで、ジェスチャーのその特定の属性(アトリビュート)が、適切な目標装置を決定することのために分析される。より詳細には、メタ相互作用が、ジェスチャーコマンドそれ自体の中において組み込まれ得る。図4Eの中に示された例では、左から右へと手を振る(スワイプする)ジェスチャーには、ある特定の装置の「ボリュームを増大させる」意味を持たせることが可能である一方で、ジェスチャーを行っている間に伸ばされた指の数は、ジェスチャーコマンドが、第1の装置405に対してか、第2の装置410に対してか、又は第3の装置415に対して目標づけられるかどうかを、指定することが可能である。ここで、手を振る(スワイプする)ジェスチャー432は、第2の装置410上においてボリュームを増大させる動作を実施するようホスト装置に対して指示するするための2本の指を含む(該ホスト装置は、第2の装置であることさえも可能である)。代替の例示的な実施形態において、ジェスチャーコマンドの目標(送り先)が、不明確であり、且つ、ディスプレイか又はグラフィカル・ユーザ・インターフェースを用いて複数のエンターテイメント装置間においてユーザに選択を行わせることによって決定され得る、というイベントにおいてメタ相互作用は相互作用的であることができる。
図5は、本発明の一例による、マルチモーダル及びジェスチャー制御を可能にするための処理ステップの簡略化された流れ図である。ステップ502において、ユーザからのジェスチャーコマンドが、ホストエンターテイメント装置のジェスチャー検出モジュールによって検出される。次に、ステップ504内において、ホスト装置が、該ジェスチャーコマンド(例えば、メタ相互作用)を分析して、目標装置(送り先装置)が該ホスト装置それ自体であるのかどうかを判定する。もしもそうであった場合には、ステップ512において、ジェスチャーデータベースは、クエリーがなされて、受け取ったジェスチャーコマンドに関連づけられた動作コマンドが決定されて、この動作コマンドは、ステップ514において、ホスト装置上において実行される。しかしながら、もしもホスト装置が、所望の目標装置であると判定されなかった場合には、ステップ506において、例えば上述のメタ相互作用に基づいて、該ホスト装置が適切な目標装置を決定する。ジェスチャーコマンドが、次いで、ステップ508内において、ホスト装置の信号プロセッサを介して代替コマンド信号(例えば、赤外線)に変換される。その後、ステップ510において、該代替コマンド信号がブロードキャストされるか又は該ホスト装置によって目標装置に伝送される。目標装置において受け取られたコマンド信号に基づいて、関連付けられた動作コマンドが、ステップ514内において該目標装置上において実行される。
本発明の例による、マルチモーダル及びジェスチャー制御システムによって、多くの利点が提供される。例えば、該ジェスチャー制御システムは、ユーザに、単一の組み込まれたジェスチャーコントローラにより複数の装置を制御する能力を提供する。結果として、複数のセンサ及びジェスチャーコントローラを製造して各エンターテイメント装置上に配置することの費用を、削減することができる。更には、複数の装置間にわたって共有化された相互作用言語/ボキャブラリーを利用することによって、ユーザが、少量セットのジェスチャーを学ぶことが可能になり、従って、これらのジェスチャーコマンドの再呼び出し(リコール)及び利用が増大させられる。更には、少量の相互作用ボキャブラリは、ホスト装置における組み込まれたジェスチャーコントローラによってジェスチャーコマンドの認識を改善するのに役立つ。
更にまた、本発明は、例示的な実施形態に関連して説明されてきたが、多くの改変が可能であるということを当業者は認識するであろう。例えば、本発明の例は、3つ以上か又は4つ以上のエンターテイメント装置に拡張可能であり、及び、ビジュアルジェスチャー以外の相互作用モダリティに拡張可能である。更にまた、各装置が、それ自体のジェスチャーコントローラを有しているけれども、(既存の凝視(視線)及びポインティング解決法を信頼不可能にさせるような)該装置が非常に接近しているという場合には、ジェスチャー制御システムは、平等に効果的とすることができる。更にまた、複数の装置を制御するためにユーザによって設定されている単一のユニバーサルリモコンに類似して、本発明の例は、ある特定の動作コマンドに対するジェスチャー及びメタ相互作用の手動設定を可能にさせるか、或いは、手動割り当てを可能にさせる。
更にまた、ユーザはまた、特定の装置にのみマッピングされている新たなジェスチャーを追加することもできるか、又は、セットアップにおいて更に多くの装置が追加される時には、新たなメタ相互作用を追加することもできる。メタ相互作用はまた、2つ以上の装置に対して(従って、複数の装置内におけるトリガアクションに対して単一ジェスチャーコマンドを用いて)、ある特定のコマンドが意味付けられるということを指定することもできる。従って、例示的な実施形態に関連して本発明が説明されてきたが、以下の特許請求の範囲内における全ての改変及び等価物をカバーすることを本発明が意図されているということが理解されよう。

Claims (10)

  1. ディスプレイ装置に結合された複数の装置にマルチモーダル及びジェスチャー制御を提供するための方法であって、
    前記複数の装置うちの少なくとも1つの装置を介してユーザからのジェスチャーコマンドを検出し、
    該ジェスチャーコマンドが検出された空間領域に基づいて前記複数の装置から1つの目標装置を決定し、ジェスチャー検出空間が複数の前記空間領域へと分割されており、その各空間領域が前記複数の装置のうちの1つの装置にマッピングされており、
    前記ジェスチャーコマンドに基づいて制御動作を決定し、及び、
    該決定された制御動作を前記決定された目標装置上実行する
    ことを含む、方法。
  2. 前記複数の装置が互いに積み重ねられており、前記ジェスチャー検出空間が、前記複数の空間領域が互いに積み重ねられるように、及び前記複数の空間領域の上から下までの各空間領域が前記複数の装置の上から下までの各装置にマッピングされるように、分割されている、請求項1に記載の方法。
  3. 前記複数の装置が、ディジタルビデオレコーダ、衛星放送受信器、ディジタルテレビセットトップユニット、又はマルチメディアプレーヤを含み、その各々が前記ディスプレイ装置と組み合わされる、請求項1又は請求項2に記載の方法。
  4. 前記ジェスチャーコマンドを、前記決定された目標装置によって検出することが可能な代替コマンド信号に変換し、及び、
    該代替コマンド信号を、前記目標装置によって検出するために、前記少なくとも1つの装置から伝送する
    ことを更に含む、請求項1ないし請求項3の何れか一項に記載の方法。
  5. 前記ジェスチャーコマンドを検出するステップが、前記ユーザ利き手のジェスチャーを検出することを含む、請求項1ないし請求項4の何れか一項に記載の方法。
  6. マルチモーダル及びジェスチャー制御システムであって、
    ディスプレイユニットと、
    ディスプレイユニットに結合された複数の装置であって、その少なくとも1つの装置が、ユーザからのジェスチャー入力を検出し及び該ジェスチャー入力が検出された空間領域に基づいて該複数の装置のうちの1つの目標装置を決定するジェスチャー検出モジュールを含み、ジェスチャー検出空間が複数の前記空間領域へと分割されており、その各空間領域が該複数の装置のうちの1つの装置にマッピングされている、複数の装置と
    を備え、
    前記ユーザからの前記ジェスチャー入力に基づいて制御動作が決定される、システム。
  7. 前記複数の装置が互いに積み重ねられており、前記ジェスチャー検出空間が、前記複数の空間領域が互いに積み重ねられるように、及び該複数の空間領域の上から下までの各空間領域が前記複数の装置の上から下までの各装置にマッピングされるように、分割されている、請求項6に記載のシステム。
  8. 前記複数の装置が、ディジタルビデオレコーダ、衛星放送受信器、ディジタルテレビセットトップユニット、又はマルチメディアプレーヤを含み、その各々がディスプレイ装置と組み合わされる、請求項6又は請求項7に記載のシステム。
  9. 前記複数の装置が互いに近接した状態にある、請求項6ないし請求項の何れか一項に記載のシステム。
  10. 前記複数の装置が、前記ユーザからのジェスチャー入力を検出するための前記ジェスチャー検出モジュールを有するホスト装置を含み、該ホスト装置が、前記ジェスチャー入力を代替信号へと変換し及び該代替信号を前記複数の装置へブロードキャストするよう構成されている、請求項6ないし請求項9の何れか一項に記載のシステム。
JP2013550458A 2011-01-19 2011-01-19 マルチモーダル及びジェスチャー制御のための方法及びシステム Expired - Fee Related JP5723462B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/US2011/021716 WO2012099584A1 (en) 2011-01-19 2011-01-19 Method and system for multimodal and gestural control

Publications (2)

Publication Number Publication Date
JP2014507714A JP2014507714A (ja) 2014-03-27
JP5723462B2 true JP5723462B2 (ja) 2015-05-27

Family

ID=46515983

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013550458A Expired - Fee Related JP5723462B2 (ja) 2011-01-19 2011-01-19 マルチモーダル及びジェスチャー制御のための方法及びシステム

Country Status (6)

Country Link
US (1) US9778747B2 (ja)
EP (1) EP2666070A4 (ja)
JP (1) JP5723462B2 (ja)
KR (1) KR101690117B1 (ja)
CN (1) CN103329066B (ja)
WO (1) WO2012099584A1 (ja)

Families Citing this family (59)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9292112B2 (en) * 2011-07-28 2016-03-22 Hewlett-Packard Development Company, L.P. Multimodal interface
US9142182B2 (en) * 2011-10-07 2015-09-22 Lg Electronics Inc. Device and control method thereof
US11493998B2 (en) 2012-01-17 2022-11-08 Ultrahaptics IP Two Limited Systems and methods for machine control
US20130194180A1 (en) * 2012-01-27 2013-08-01 Lg Electronics Inc. Device and method of controlling the same
KR101984154B1 (ko) * 2012-07-16 2019-05-30 삼성전자 주식회사 터치 및 제스처 입력을 이용한 단말의 제어 방법 및 그 단말
KR20140014548A (ko) * 2012-07-24 2014-02-06 삼성전자주식회사 전자 장치, 그 제어 방법, 및 컴퓨터 판독가능 기록매체
KR102095765B1 (ko) * 2012-10-19 2020-04-01 삼성전자주식회사 디스플레이 장치 및 그 제어 방법
DE102012110190B4 (de) * 2012-10-25 2015-03-26 Mis-Robotics Gmbh Manuell betätigte Robotersteuerung und Verfahren zum Steuern eines Robotersystems
US11157436B2 (en) 2012-11-20 2021-10-26 Samsung Electronics Company, Ltd. Services associated with wearable electronic device
US9477313B2 (en) 2012-11-20 2016-10-25 Samsung Electronics Co., Ltd. User gesture input to wearable electronic device involving outward-facing sensor of device
US11237719B2 (en) 2012-11-20 2022-02-01 Samsung Electronics Company, Ltd. Controlling remote electronic device with wearable electronic device
US10185416B2 (en) 2012-11-20 2019-01-22 Samsung Electronics Co., Ltd. User gesture input to wearable electronic device involving movement of device
US8994827B2 (en) 2012-11-20 2015-03-31 Samsung Electronics Co., Ltd Wearable electronic device
US10551928B2 (en) 2012-11-20 2020-02-04 Samsung Electronics Company, Ltd. GUI transitions on wearable electronic device
US11372536B2 (en) 2012-11-20 2022-06-28 Samsung Electronics Company, Ltd. Transition and interaction model for wearable electronic device
US10423214B2 (en) 2012-11-20 2019-09-24 Samsung Electronics Company, Ltd Delegating processing from wearable electronic device
US9910499B2 (en) 2013-01-11 2018-03-06 Samsung Electronics Co., Ltd. System and method for detecting three dimensional gestures to initiate and complete the transfer of application data between networked devices
DE102013201359A1 (de) * 2013-01-29 2014-07-31 Robert Bosch Gmbh Verfahren und Vorrichtung zum Steuern eines Werkstattgeräts
US20140245200A1 (en) * 2013-02-25 2014-08-28 Leap Motion, Inc. Display control with gesture-selectable control paradigms
US9766709B2 (en) * 2013-03-15 2017-09-19 Leap Motion, Inc. Dynamic user interactions for display control
CN104102335B (zh) 2013-04-15 2018-10-02 中兴通讯股份有限公司 一种手势控制方法、装置和系统
WO2015011703A1 (en) * 2013-07-21 2015-01-29 Pointgrab Ltd. Method and system for touchless activation of a device
US10585478B2 (en) 2013-09-13 2020-03-10 Nod, Inc. Methods and systems for integrating one or more gestural controllers into a head mounted wearable display or other wearable devices
US10139914B2 (en) 2013-09-13 2018-11-27 Nod, Inc. Methods and apparatus for using the human body as an input device
WO2015105919A2 (en) * 2014-01-07 2015-07-16 Nod, Inc. Methods and apparatus recognition of start and/or stop portions of a gesture using an auxiliary sensor and for mapping of arbitrary human motion within an arbitrary space bounded by a user's range of motion
US10338685B2 (en) * 2014-01-07 2019-07-02 Nod, Inc. Methods and apparatus recognition of start and/or stop portions of a gesture using relative coordinate system boundaries
US20150220158A1 (en) 2014-01-07 2015-08-06 Nod Inc. Methods and Apparatus for Mapping of Arbitrary Human Motion Within an Arbitrary Space Bounded by a User's Range of Motion
US10338678B2 (en) * 2014-01-07 2019-07-02 Nod, Inc. Methods and apparatus for recognition of start and/or stop portions of a gesture using an auxiliary sensor
US10725550B2 (en) 2014-01-07 2020-07-28 Nod, Inc. Methods and apparatus for recognition of a plurality of gestures using roll pitch yaw data
CN103728906B (zh) * 2014-01-13 2017-02-01 江苏惠通集团有限责任公司 智能家居控制装置及控制方法
KR20150084524A (ko) * 2014-01-14 2015-07-22 삼성전자주식회사 디스플레이 장치 및 이의 제어 방법
US9823749B2 (en) 2014-02-21 2017-11-21 Nod, Inc. Location determination and registration methodology for smart devices based on direction and proximity and usage of the same
CN104866084B (zh) * 2014-02-25 2021-04-30 中兴通讯股份有限公司 手势识别方法、装置和系统
CN104866083B (zh) * 2014-02-25 2020-03-17 中兴通讯股份有限公司 手势识别方法、装置和系统
US10691332B2 (en) 2014-02-28 2020-06-23 Samsung Electronics Company, Ltd. Text input on an interactive display
KR101556521B1 (ko) * 2014-10-06 2015-10-13 현대자동차주식회사 휴먼 머신 인터페이스 장치, 그를 가지는 차량 및 그 제어 방법
CN105589550A (zh) * 2014-10-21 2016-05-18 中兴通讯股份有限公司 信息发布方法、信息接收方法、装置及信息共享系统
CN104635537B (zh) * 2014-12-24 2017-10-20 北京元心科技有限公司 一种智能家电的控制方法
US9864430B2 (en) 2015-01-09 2018-01-09 Microsoft Technology Licensing, Llc Gaze tracking via eye gaze model
US10048749B2 (en) 2015-01-09 2018-08-14 Microsoft Technology Licensing, Llc Gaze detection offset for gaze tracking models
WO2016121052A1 (ja) * 2015-01-29 2016-08-04 三菱電機株式会社 マルチモーダル意図理解装置およびマルチモーダル意図理解方法
CN104699244B (zh) 2015-02-26 2018-07-06 小米科技有限责任公司 智能设备的操控方法及装置
US9653075B1 (en) * 2015-11-06 2017-05-16 Google Inc. Voice commands across devices
CN107329602A (zh) * 2016-04-28 2017-11-07 珠海金山办公软件有限公司 一种触摸屏轨迹识别方法及装置
US10684758B2 (en) * 2017-02-20 2020-06-16 Microsoft Technology Licensing, Llc Unified system for bimanual interactions
US10558341B2 (en) * 2017-02-20 2020-02-11 Microsoft Technology Licensing, Llc Unified system for bimanual interactions on flexible representations of content
CN107122053A (zh) * 2017-04-27 2017-09-01 奥英光电(苏州)有限公司 一种显示器的控制方法、装置及显示器
JP7006198B2 (ja) * 2017-12-01 2022-01-24 富士フイルムビジネスイノベーション株式会社 情報処理装置、情報処理システムおよびプログラム
KR102181499B1 (ko) * 2019-03-14 2020-11-23 주식회사 듀코젠 양손 입력을 지원하는 vr 콘텐츠 저작 방법 및 시스템
KR102192051B1 (ko) * 2019-04-16 2020-12-16 경북대학교 산학협력단 동작 인식 기반 조작 장치 및 방법
JP2021009619A (ja) * 2019-07-02 2021-01-28 富士ゼロックス株式会社 情報処理システム及びプログラム
US11476894B2 (en) 2019-12-10 2022-10-18 AR & NS Investment, LLC Edge communication system with cascaded repeater devices over wired medium
US11010129B1 (en) * 2020-05-08 2021-05-18 International Business Machines Corporation Augmented reality user interface
US11711126B2 (en) 2020-06-24 2023-07-25 AR & NS Investment, LLC Wireless communication system based on mmWave RF repeaters
US11283510B2 (en) 2020-06-24 2022-03-22 AR & NS Investment, LLC Phase noise removal in a network of radio frequency (RF) repeaters
US11177872B1 (en) 2020-06-24 2021-11-16 AR & NS Investment, LLC Managing a network of radio frequency (RF) repeater devices
US11989965B2 (en) * 2020-06-24 2024-05-21 AR & NS Investment, LLC Cross-correlation system and method for spatial detection using a network of RF repeaters
US11789542B2 (en) 2020-10-21 2023-10-17 International Business Machines Corporation Sensor agnostic gesture detection
US11763809B1 (en) * 2020-12-07 2023-09-19 Amazon Technologies, Inc. Access to multiple virtual assistants

Family Cites Families (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0823683B1 (en) * 1995-04-28 2005-07-06 Matsushita Electric Industrial Co., Ltd. Interface device
JPH0981309A (ja) 1995-09-13 1997-03-28 Toshiba Corp 入力装置
JP3521187B2 (ja) 1996-10-18 2004-04-19 株式会社東芝 固体撮像装置
JPH11327753A (ja) 1997-11-27 1999-11-30 Matsushita Electric Ind Co Ltd 制御方法及びプログラム記録媒体
US7028269B1 (en) * 2000-01-20 2006-04-11 Koninklijke Philips Electronics N.V. Multi-modal video target acquisition and re-direction system and method
JP2001216069A (ja) 2000-02-01 2001-08-10 Toshiba Corp 操作入力装置および方向検出方法
JP2004505305A (ja) * 2000-07-21 2004-02-19 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 複数の装置についてのスピーチ制御
JP4261145B2 (ja) * 2001-09-19 2009-04-30 株式会社リコー 情報処理装置、情報処理装置の制御方法、その方法をコンピュータに実行させるためのプログラム
JP3997392B2 (ja) * 2001-12-13 2007-10-24 セイコーエプソン株式会社 表示装置及び表示装置の入力方法
US7231609B2 (en) 2003-02-03 2007-06-12 Microsoft Corporation System and method for accessing remote screen content
EP1646240B1 (en) * 2003-07-11 2009-09-16 Hitachi, Ltd. Image processing camera system and image processing camera control method
JP2005242759A (ja) * 2004-02-27 2005-09-08 National Institute Of Information & Communication Technology 行動・意図推定システム、行動・意図推定方法、行動・意図推定プログラムおよびそのプログラムを記録したコンピュータ読み取り可能な記録媒体
TWI412392B (zh) 2005-08-12 2013-10-21 Koninkl Philips Electronics Nv 互動式娛樂系統及其操作方法
KR100630806B1 (ko) * 2005-11-29 2006-10-04 한국전자통신연구원 동작 인식 장치를 이용한 명령 입력 방법
JP2007318319A (ja) * 2006-05-24 2007-12-06 Seiko Epson Corp リモートコントローラ及びその制御方法
US9319741B2 (en) * 2006-09-07 2016-04-19 Rateze Remote Mgmt Llc Finding devices in an entertainment system
US8726194B2 (en) 2007-07-27 2014-05-13 Qualcomm Incorporated Item selection using enhanced control
JP5207513B2 (ja) 2007-08-02 2013-06-12 公立大学法人首都大学東京 制御機器操作ジェスチャ認識装置、制御機器操作ジェスチャ認識システムおよび制御機器操作ジェスチャ認識プログラム
US7991896B2 (en) 2008-04-21 2011-08-02 Microsoft Corporation Gesturing to select and configure device communication
US8154428B2 (en) 2008-07-15 2012-04-10 International Business Machines Corporation Gesture recognition control of electronic devices using a multi-touch device
US20100083189A1 (en) * 2008-09-30 2010-04-01 Robert Michael Arlein Method and apparatus for spatial context based coordination of information among multiple devices
US9134798B2 (en) 2008-12-15 2015-09-15 Microsoft Technology Licensing, Llc Gestures, interactions, and common ground in a surface computing environment
US20100199228A1 (en) 2009-01-30 2010-08-05 Microsoft Corporation Gesture Keyboarding
US20100287513A1 (en) 2009-05-05 2010-11-11 Microsoft Corporation Multi-device gesture interactivity
US8487871B2 (en) * 2009-06-01 2013-07-16 Microsoft Corporation Virtual desktop coordinate transformation
WO2010147600A2 (en) * 2009-06-19 2010-12-23 Hewlett-Packard Development Company, L, P. Qualified command
US8487888B2 (en) * 2009-12-04 2013-07-16 Microsoft Corporation Multi-modal interaction on multi-touch display
US9268404B2 (en) * 2010-01-08 2016-02-23 Microsoft Technology Licensing, Llc Application gesture interpretation
CN101777250B (zh) * 2010-01-25 2012-01-25 中国科学技术大学 家用电器的通用遥控装置及方法
US20120110456A1 (en) * 2010-11-01 2012-05-03 Microsoft Corporation Integrated voice command modal user interface

Also Published As

Publication number Publication date
WO2012099584A1 (en) 2012-07-26
KR20140014129A (ko) 2014-02-05
US20130290911A1 (en) 2013-10-31
KR101690117B1 (ko) 2016-12-27
EP2666070A1 (en) 2013-11-27
US9778747B2 (en) 2017-10-03
CN103329066B (zh) 2017-03-29
CN103329066A (zh) 2013-09-25
JP2014507714A (ja) 2014-03-27
EP2666070A4 (en) 2016-10-12

Similar Documents

Publication Publication Date Title
JP5723462B2 (ja) マルチモーダル及びジェスチャー制御のための方法及びシステム
US8963847B2 (en) User interface for a remote control device
US8896765B1 (en) Systems and methods for remote control of a television
US8638198B2 (en) Universal remote control systems, methods, and apparatuses
KR101276846B1 (ko) 미디어 데이터의 스트리밍 제어방법 및 제어장치
US9588677B2 (en) Systems and methods for touch-screen-based remote interaction with a graphical user interface
US9930392B2 (en) Apparatus for displaying an image and method of operating the same
EP2915024B1 (en) Contextual gesture controls
US20140130116A1 (en) Symbol gesture controls
EP3074850A1 (en) Multitasking and full screen menu contexts
KR20150043422A (ko) 피제어 장치로부터의 입력 모드 데이터를 이용하는 입력 장치
US20170083197A1 (en) Apparatus and method for providing user interface
US20130265501A1 (en) Remote touch gestures
CN105629751A (zh) 设备控制方法及装置
CN112041803A (zh) 电子设备及其操作方法
KR102250091B1 (ko) 디스플레이 장치 및 디스플레이 방법
KR102167289B1 (ko) 영상 표시 기기 및 그의 동작 방법
KR20150066132A (ko) 디스플레이 장치, 리모컨, 디스플레이 시스템, 및 디스플레이 방법
KR101833790B1 (ko) 포스 입력을 이용하여 다양한 모드들을 실현하는 미디어 시스템 및 방법
US20170180777A1 (en) Display apparatus, remote control apparatus, and control method thereof
KR102136463B1 (ko) 스마트 디바이스 및 그 제어 방법
US9367545B2 (en) Apparatus for providing digital content and method thereof
US20170300158A1 (en) Image processing device and method for displaying a force input of a remote controller with three dimensional image in the same
US20160227151A1 (en) Display apparatus, remote control apparatus, remote control system and control method thereof
US20090195705A1 (en) Information processing device and control method thereof

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140718

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140729

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20141002

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150310

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150327

R150 Certificate of patent or registration of utility model

Ref document number: 5723462

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees