JP2010541398A - 音声及びビデオ通信のための機能向上したインタフェース - Google Patents

音声及びビデオ通信のための機能向上したインタフェース Download PDF

Info

Publication number
JP2010541398A
JP2010541398A JP2010527077A JP2010527077A JP2010541398A JP 2010541398 A JP2010541398 A JP 2010541398A JP 2010527077 A JP2010527077 A JP 2010527077A JP 2010527077 A JP2010527077 A JP 2010527077A JP 2010541398 A JP2010541398 A JP 2010541398A
Authority
JP
Japan
Prior art keywords
user
state
item
gesture
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2010527077A
Other languages
English (en)
Other versions
JP5559691B2 (ja
Inventor
エヴァン ヒルドレス
Original Assignee
ジェスチャー テック,インコーポレイテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ジェスチャー テック,インコーポレイテッド filed Critical ジェスチャー テック,インコーポレイテッド
Publication of JP2010541398A publication Critical patent/JP2010541398A/ja
Application granted granted Critical
Publication of JP5559691B2 publication Critical patent/JP5559691B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/141Systems for two-way working between two video terminals, e.g. videophone
    • H04N7/147Communication arrangements, e.g. identifying the communication as a video-communication, intermediate storage of the signals
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M3/00Automatic or semi-automatic exchanges
    • H04M3/42Systems providing special services or facilities to subscribers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2203/00Aspects of automatic or semi-automatic exchanges
    • H04M2203/10Aspects of automatic or semi-automatic exchanges related to the purpose or context of the telephonic communication
    • H04M2203/1016Telecontrol
    • H04M2203/1025Telecontrol of avatars
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2203/00Aspects of automatic or semi-automatic exchanges
    • H04M2203/25Aspects of automatic or semi-automatic exchanges related to user interface aspects of the telephonic communication service
    • H04M2203/251Aspects of automatic or semi-automatic exchanges related to user interface aspects of the telephonic communication service where a voice mode or a visual mode can be used interchangeably
    • H04M2203/253Aspects of automatic or semi-automatic exchanges related to user interface aspects of the telephonic communication service where a voice mode or a visual mode can be used interchangeably where a visual mode is used instead of a voice mode
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2203/00Aspects of automatic or semi-automatic exchanges
    • H04M2203/60Aspects of automatic or semi-automatic exchanges related to security aspects in telephonic communication systems
    • H04M2203/6054Biometric subscriber identification

Abstract

ユーザのジェスチャを一連のカメラ画像から認識し、コントロールとユーザの描写を含むユーザインタフェースを提供する、音声及びビデオ通信のための機能向上したインタフェース。処理はまた、認識されたジェスチャに基づいて描写をコントロールと相互連動させ、この相互連動に基づいてテレコミュニケーションセッションを制御する。
【選択図】図1

Description

本発明は一般的にはユーザ入力機構に関し、少なくとも一つの特定の構成部が、ユーザが音声とビデオ通信を制御することを可能とするように構成されたユーザ入力機構を対象とする。
[関連出願についてのクロス・リファレンス]
本出願は、引用によって本出願に組み込まれる、2007年9月24日出願の米国仮特許出願番号第60/974,774号の優先権を主張する。
様々なビデオをベースとした電子制御システムが、ユーザが、コンピュータアプリケーション、あるいはその他の音声又はビデオアプリケーションと相互連動(interact)することを可能としている。しかしながら、これらのシステムは、テキスト、数字の入力、又は、多数のオプションからの選択を行うにはあまり適合していなかった。
一代表的な実施例によると、ユーザは、指定された様々なジェスチャを実行することによって、テレビ会議セッションなどの通信セッションを制御することができる。様々な時間にユーザの画像にアクセスすることによって、ジェスチャは自動的に認識され、マッピングされて、テレコミュニケーションセッションの開始又は終了の入力、セッションを様々な状態に移行させる入力などの、入力が制御される。いくつかある特徴の中で、インタフェースは、最初に認識されたユーザの描写(例えば、アバター)の周りを囲う、カスタマイズされたアイコンを表示してもよい。これによって、ユーザの身体の直接的、直感的、及び自然な動きによって、容易に文字のコマンドを選択できる。
他の代表的な実施例によると、コンピュータにより実施される処理は、一連のカメラ画像からユーザのジェスチャを認識するステップと、コントロールとユーザの描写を含むユーザインタフェースを生成するステップとを含む。この処理は、認識されたジェスチャに基づいて描写をコントロールと相互連動させるステップと、相互連動に基づいてテレコミュニケーションセッションを制御するステップと、も含む。
実施例は、1以上の以下の特徴を含んでもよい。例えば、テレコミュニケーションセッションを制御するステップは、テレコミュニケーションセッションを第1の状態から、異なる第2の状態に変更するステップをさらに含み、第1の状態又は第2の状態は、スタンバイ状態、通知状態、発信コール状態、接続状態、ミュート状態、メニュー状態、接続オプション状態、直接ダイアル状態、リダイアル状態、検索状態、ブラウザ状態、メッセージメニュー状態、メッセージ再生状態、又は構成設定状態を含んでもよい。テレコミュニケーションセッションは、音声とビデオのテレコミュニケーションセッションをさらに含んでもよい。
他の代表的な実施例では、テレコミュニケーションセッションを制御するステップは、関与表示ジェスチャの認識に基づいて、テレコミュニケーションセッションをスタンバイ状態からコール又はメニュー状態に変更するステップをさらに含んでもよい。この処理は、ユーザの識別を決定するステップと、決定された識別に基づいてコントロールを使用可能とするステップと、をさらに含んでもよい。この処理は、ユーザの決定された識別がコールの目的とされる受信者に適合した場合に限り、テレコミュニケーションセッションを接続状態からコール状態に変更するステップをさらに含んでもよい。この処理は、画像の中のユーザの識別を決定するステップと、決定された識別の少なくとも一つに基づいてコントロールを使用可能又は使用不可にするステップと、をさらに含んでもよい。
さらなる代表的な実施例では、テレコミュニケーションセッションを制御するステップは、非関与表示ジェスチャの認識に基づいて、テレコミュニケーションセッションをスタンバイ状態に変更するステップをさらに含んでもよい。この処理は、カメラ画像の一つをユーザに合焦するステップをさらに含んでもよい。カメラ画像の一つを合焦するステップは、移動しているユーザにカメラの焦点を保持するステップ、又は、カメラ画像の一つをユーザを中心に合わせるステップをさらに含んでもよい。この処理は、ユーザが中心となるように音声を定位するステップをさらに含んでもよい。ユーザのジェスチャを認識するステップは、第1のユーザが第1の関与表示ジェスチャを実行した後に第2のユーザが第2の関与表示ジェスチャを実行したことを認識するステップをさらに含み、テレコミュニケーションセッションを制御するステップが、第2のユーザが第2の関与表示ジェスチャを実行したことの認識に基づいて、第2のユーザに焦点を変更するステップをさらに含んでもよい。
他の代表的な実施例では、この処理は、第1のユーザが焦点を放棄したか否かを判定するステップを含み、第1のユーザが焦点を放棄した場合に限り、焦点は変更されるようにしてもよい。第1のユーザが焦点を放棄したか否かを判定するステップが、第1のユーザが話しを終えたか否かを判定するステップ、又は、第1のユーザが放棄ジェスチャを実行したか否かを判定するステップをさらに含んでもよい。この処理は、ユーザの識別を決定するステップをさらに含み、テレコミュニケーションセッションを制御するステップは、ブラウザ状態で、決定された識別に対応する連絡先群を表示するステップ、又は、ユーザによってかけられたコールの受信者に、決定されたユーザの識別を送信するステップをさらに含んでもよい。
他の代表的な実施例によると、デバイスは、一連のカメラ画像からユーザのジェスチャを認識し、コントロールとユーザの描写を含むユーザインタフェースを生成するように構成されたプロセッサを含む。プロセッサは、認識されたジェスチャに基づいて描写をコントロールと相互連動させ、相互連動に基づいてテレコミュニケーションセッションを制御するようにさらに構成される。
他の代表的な実施例によると、コンピュータ可読媒体はコンピュータプログラムで符号化される。コンピュータプログラムは、実行されると、一連のカメラ画像からユーザのジェスチャを認識するステップと、コントロールとユーザの描写を含むユーザインタフェースを生成するステップと、を含む動作を実行させる。この動作はまた、認識されたジェスチャに基づいて描写をコントロールと相互連動させるステップと、相互連動に基づいてテレコミュニケーションセッションを制御するステップと、を含む。
他の代表的な実施例によると、システムは、1以上のコンピュータと、1以上のコンピュータと連結したコンピュータ可読媒体とを含む。コンピュータ可読媒体は、自体の中に命令を保存している。かかる命令は、1以上のコンピュータによって実行されると、1以上のコンピュータに、一連のカメラ画像からユーザのジェスチャを認識するステップと、コントロールとユーザの描写を含むユーザインタフェースを生成するステップと、を含む動作を実行させる。この動作はまた、認識されたジェスチャに基づいて描写をコントロールと相互連動させるステップと、相互連動に基づいてテレコミュニケーションセッションを制御するステップと、を含む。
1以上の実施例の詳細について、以下、添付の図面を参照して説明する。本開示のその他の潜在的な特徴及び利点も、記載と図面、及び特許請求の範囲から明かになる。
機能強化されたカメラをベースとした入力を説明する概念図である。 機能強化されたカメラをベースとした入力を実施するために使用されるデバイスのブロック図である。 デバイスの構成要素の構成を示す図である。 機能強化されたカメラをベースとした入力を使用する代表的な処理を示す図である。 ユーザの描写を含むインタフェースの代表的な例を説明する図である。 ユーザの描写を含むインタフェースの代表的な例を説明する図である。 ユーザの描写を含むインタフェースの代表的な例を説明する図である。 図形と接触したユーザの描写の例を示す図である。 図形と接触したユーザの描写の例を示す図である。 項目を選択するインタフェースの例を示す図である。 ガイドラインに沿って配置された項目の代表的な選択を説明する図である。 ガイドラインに沿って配置された項目の代表的な選択を説明する図である。 ガイドラインに沿って配置された項目の代表的な選択を説明する図である。 ガイドラインに沿って配置された項目の代表的な選択を説明する図である。 ガイドラインに沿って配置された項目の代表的な選択を説明する図である。 ガイドラインに沿って配置された項目の代表的な選択を説明する図である。 ガイドラインに沿って配置された項目の代表的な選択を説明する図である。 ガイドラインに沿って配置された項目の代表的な選択を説明する図である。 ガイドラインに沿って配置された項目の代表的な選択を説明する図である。 ガイドラインに沿って配置された項目の代表的な選択を説明する図である。 ガイドラインに沿って配置された項目の代表的な選択を説明する図である。 ガイドラインに沿って配置された項目の代表的な選択を説明する図である。 ガイドラインに沿って配置された項目の代表的な選択を説明する図である。 ガイドラインに沿って配置された項目の代表的な選択を説明する図である。 ガイドラインに沿って配置された項目の代表的な選択を説明する図である。 ガイドラインに沿って配置された項目の代表的な選択を説明する図である。 ガイドラインに沿って配置された項目の代表的な選択を説明する図である。 ガイドラインに沿って配置された項目の代表的な選択を説明する図である。 ガイドラインに沿って配置された項目の代表的な選択を説明する図である。 システムの状態を説明するフロー図である。 通知ユーザインタフェースの例を示す図である。 関与表示ハンドジェスチャを実行するユーザを含む、カメラ画像の例を説明する図である。 非関与表示ハンドジェスチャを実行するユーザを含む、カメラ画像の例を説明する図である。 会議テーブルに座った複数の人々を含むカメラ画像の例を説明する図である。 カメラ画像をクロッピング及びスケール変換することによって、ユーザに合焦する例を示す図である。 カメラ画像をクロッピング及びスケール変換することによって、ユーザに合焦する例を示す図である。 第1のユーザから第2のユーザに焦点を変更するカメラ画像の例を示す図である。 メニュー状態ユーザインタフェースの例を示す図である。 直接ダイアル状態ユーザインタフェースの例を示す図である。 リダイアル状態ユーザインタフェースの例を示す図である。 リダイアル状態ユーザインタフェースの例を示す図である。 接続オプション及び情報状態ユーザインタフェースの例を示す図である。 メッセージ再生状態のユーザインタフェースの例を示す図である。 他の代表的な実施例に係る、代表的なコンピュータ処理システムの構成を説明する図である。
本書で説明する機能強化された(enhanced)手法を用いると、ユーザは、テレビ会議セッションなどの通信セッションを、様々な指定されたジェスチャを実行することによって、制御することが可能となる。様々な時間でユーザの画像にアクセスすることによって、ジェスチャは自動的に認識され、マッピングされて、テレコミュニケーションセッションの開始又は終了の入力、又は、セッションを様々な状態とする入力などの、入力を制御する。他の特徴の中で特に、インタフェースは、最初に、認識されたユーザの描写(例えば、アバター)を囲む、カスタマイズされたアイコンを表示して、ユーザの身体の直接的、直感的、及び自然な動きを通してキャラクタのコマンドの選択を容易にすることができる。
カメラ追跡を用いて、ユーザが音声及びビデオ通信を制御することを可能にするアプローチについて説明する。このアプローチは、例えば、通信システムが物理的にユーザの到達範囲外にある可能性のある役員室の環境、又は、ユーザがビジネスの環境にいるように現れることを希望する可能性のある他の場所で、使用することができる。このアプローチは、例えば、ソファに座っているユーザが、テレビ受信機又は他のディスプレイ装置に表示されるインタフェースを含む、通信システムと相互連動する可能性のある居間の環境でも使用してもよい。
アプローチは、一連のカメラ画像からユーザのジェスチャを認識し、コントロールとユーザの描写を含むユーザインタフェースを生成することができる。認識されたジェスチャに基づいて、システムは、描写をコントロールと相互連動させ、相互連動に基づいてテレコミュニケーションを制御することができる。
例えば、システムは、ユーザのハンドジェスチャを検出して、検出されたハンドジェスチャに基づいて機能を実行するように構成された、ハンドジェスチャ識別処理を含んでもよい。例えば、ユーザは、手、腕、又は身体の「関与表示(engagement)」ジェスチャを実行することによって、着信に応答してもよい。複数のユーザが呼に参加する実施例では、ユーザは、同一のジェスチャ、又は、「非関与表示」ジェスチャ、「焦点の変化」ジェスチャ、又は、「コントロール解除」ジェスチャなどの、異なるジェスチャを実行することによって、焦点を取得する、又は、焦点を変化することができる。
図1は、機能強化されたカメラをベースとした入力を説明するコンテキスト図である。図1は、居間102の図を含む。ユーザ104(すなわち、「ボブ」)は、カジュアルな服装をして、居間102の長椅子に、子供106の隣に座っている。ユーザ104と子供106は、ディスプレイ108(例えば、テレビ画面)の前に座っている。コールを受ける前は、番組を見ている、又はビデオゲームをプレイしていてもよい。
ディスプレイ108は、メディアハブ110に接続されている。メディアハブ110は、テレビ又はビデオ会議のコールを受けるように構成されている。メディアハブ110は、カメラ112(例えば、ウェブカメラ)に接続されている、又は、カメラ112(例えば、ウェブカメラ)を含む。本実施例では、ディスプレイ108は、スピーカ113を含む。他の実施例では、スピーカ113は、メディアハブに含まれる、又は、メディアハブとディスプレイ108(例えば、テレビ・スピーカ)の外部にある。メディアハブ110は、また、周囲の音を受けて、デジタル処理するマイクロホンを含む、あるいは、該マイクロホンに接続されている。
一つの例では、メディアハブ110は、着信を検出すると、ユーザ104に、音声、及び/又は、ビデオメッセージを用いて、ユーザ104に通知する。この例では、スピーカ113から「着信:取締役会」を示す音声が出力され、ユーザ104は、ユーザの会社の取締役会から着信があったことが通知される。このような通知は、例えば、テキスト音声変換機能をコーラID(発信者−ID)システムに適用する、又は、他の機構によって生成することができる。ボブのカジュアルな服装と周囲環境は、公式なテレビ会議を行う場合、懸念を生じかねないが、本書に記載の機能強化されたアプローチでは、カジュアルな服装と周囲環境を隠して、可視化されたアバターを生成することによって、又は、より好適な可視化によって置き換えることによって、これらの問題に対処している。
着信の検出に応答して、着信を受ける前までユーザ104が見ていたディスプレイ108の映像内容を、場合によっては、置換する、又は、該映像内容に部分的、又は完全に重ねて、ユーザインタフェース120をディスプレイ108に表示することができる。ユーザインタフェース120は、ユーザの描写121を含む。この例では、ユーザの描写121は、カメラの視野の領域124において、カメラ112によって撮像されたユーザ104の顔122を表示するアバターである。
ユーザ104がビジネススーツを着ていなくても、ユーザの描写121は、ユーザインタフェース120において、スーツとネクタイを着用して表示される。ユーザの描写121の外見(例えば、アバターの外見)は、発信者の識別、時刻、ユーザの好み、又は、その他の要因に基づいて変化してもよい。例えば、ユーザの設定に応じて、ユーザの描写は、ユーザ104により似せる、又は、より異ならせるように構成してもよい。より極端な例では、ユーザ描写121は、タキシードを着用している、又は、ユーザの実際の服装よりもカジュアルな服装(すなわち、水着)を着用していてもよい。さらに、ユーザの顔122又は他の身体部分を、例えば、より痩せて見える、異なった髪型又はスタイルで見える、アクセサリ(即ち、宝飾品)を取り外して見える、又は、全体的に全く異なって見える(即ち、宇宙人、アニメのキャラクタ、他の人間、又はその他の阿野)ように変化させてもよい。
ユーザインタフェース120は、項目126〜132の描写を含む。項目126〜132は、ガイドライン134に沿って配列してもよい。ガイドライン134は表示されてもよいし、表示されなくてもよい。
ユーザ描写121は、ユーザ104のジェスチャの動きに応じて制御される。例えば、ユーザ104が自身の左腕136を上げると、ユーザ描写121の左腕138も対応して上がる。他の例では、ユーザの動きとユーザ描写の動きとをミラー(mirror)させてもよい。ユーザ104は自身の腕136を動かして、ユーザ描写121の手140を、項目126〜132の一つに近接させる、又は、重ね合わせることができる。例えば、手140が「コールを受ける」項目130に重なると、項目130と相互連動(interaction)するようにしてもよい。「コールを受ける」項目130との相互連動の結果、着信は受け付けられる。
図1は、役員室150の図を含む。発信者152(すなわち、「ジェーン」)が役員室150で他の人々とともに立っている。発信者152は、同様のシステムを用いて同様のジェスチャを実行し、コールしている。ユーザ104が発信者152からの着信を受け入れた結果、ユーザ描写121の画像154が、役員室150に設置されたディスプレイ156に表示される。画像154は、ユーザ104の周りを中心として、居間102の他の存在(すなわち、子供106)は表示しない。カメラ158とマイクロホンとともに、ディスプレイ156も、役員室150に配置されたメディアハブに接続されてもよい。
カメラ158によって撮像された発信者152の描写160は、ディスプレイ108に表示される。役員室のマイクロホンによって集音された発信者152の声の音声(すなわち、「今日はボブさん。こちらジェーンです」)は、スピーカ113で再生される。ディスプレイ108の挿入画像162はユーザインタフェース120を表示し、ユーザが通信を制御すること、例えば、コールの切断、又は、コールをミュートにすることなどを可能としている。
ユーザインタフェース120は、また、メニューボタン170、ユーザ設定ボタン172、消去ボタン174、オートコンプリートボタン176、使用不可状態のボタン178、ダイアルボタン180、テキスト領域182を含む。メニューボタン170を選択すると、追加の機能が表示されるようにしてもよい。ユーザ設定ボタン172を選択すると、ユーザ104に固有の設定が構成されるようにしてもよい。例えば、顔検出及び認識処理は、ユーザ104を識別していてもよい。
ユーザ104は、電話番号、連絡先、又はテキストメッセージをテキスト領域182に入力してもよい。例えば、ガイドライン134に沿って文字の描写が表示され、選択された文字がテキスト領域182に表示されるようにしてもよい。ユーザがダイアルボタン180を選択すると、テキスト領域182に表示された電話番号又は連絡先にコールが接続するようにしてもよい。オートコンプリートボタン176を選択すると、テキスト領域182に表示されたテキストと部分的に適合する、以前にダイアルされた数字又は連絡先が受け付けられるようにしてもよい。ユーザが消去ボタン173を選択すると、テキスト領域182から文字が消去されるようにしてもよい。
ユーザ104が音声メールの項目126を選択すると、音声メール機能がナビゲートされるようにしてもよい。無視の項目128を選択すると、着信が無視されるようにしてもよい。オフィスへ転送の項目132を選択すると、例えば、着信がオフィスの内線に転送されるようにしてもよい。
ボタン178は、子供106の存在の検出、又は、他の理由により、使用不可状態とすることができる。子供がカメラ112の視野の中に検出された場合、例えば、スピードダイアル又は長距離ダイアル機能、アダルト向けコンテンツへのアクセスを使用不可としてもよい。他の例では、ボタン178に関連する機能を、例えば、テキストメッセージングサービスが修理中、又はサービスが停止中の場合などに、通信プロバイダによって使用不可となるようにしてもよい。
図2は、機能強化されたカメラをベースとした入力を実施するために使用するデバイス200のブロック図である。簡略には、デバイス200は、特に、ユーザインタフェース201、ストレージ媒体202、カメラ204、プロセッサ205、マイクロホン206、1以上のスピーカ207、ネットワークインタフェース208を含む。個別の構成要素、又はそれらの関連する機能は組み合わせてもよい。
デバイス200の代表的な物理的構成部又は構成要素について図3に示す。カメラ301とマイクロホン302はプロセッサ303に接続され、ディスプレイ104の頂部に配置されている。スピーカ305はディスプレイ304に取り付けられており、プロセッサ303はネットワーク306に接続されている。
図2に戻ると、プロセッサ205はPC(パーソナルコンピュータ)、ケーブルテレビ受信機、ビデオゲームコンソール、電話、又はその他の種類のデバイスに含まれてよい。プロセッサ205は、任意の種類の電子デバイスに含まれてもよく、複数のプロセッサと組み合わせて動作してもよい。カメラ204はカメラ画像を撮像又は生成し、得られたカメラ画像はプロセッサ205に送付されてもよい。プロセッサ205は、本書に開示する技術を用いてカメラ画像を処理することができる。
マイクロホン206は、全指向性又は単方向性であってもよく、フィルタリングされた、又はフィルタリングされていない音声入力を受け取り、音声データを生成することができる音声データはプロセッサ205に送られる。プロセッサ205は、ユーザインタフェース201にレンダリングするユーザインタフェースを生成することができる。プロセッサ205はまた、音声データを生成することができる。生成された音声データはスピーカ207に送られて音声に変換される。
デバイス200によって機能強化されたカメラをベースとした入力を用いて、ユーザインタフェースのコントロールとの相互連動、例えば、ユーザによる項目の選択などを容易にすることができる。コントロールとの相互連動は、再帰反射器、ジャイロ装置、又は、リモコンなどの特殊な対象物(object)をユーザが手に保持することを不要とし、むしろ直感的な腕又は手の動きをカーソル又は他の入力にマッピングする。システムの特定の所望の構成に基づいて、特殊な機器を用いてもよい。
ユーザインタフェース201は、ユーザがデバイス、又はデバイスによって呼び出されたアプリケーションと相互連動することを可能とする仕組みである。ユーザインタフェース201は、入力と出力の両方に影響を与え、ユーザがデバイスを走査すること、又は、デバイスがユーザの走査の結果を生成することを可能とする。デバイス200は、グラフィカルユーザインタフェース(GUI)、音声ユーザインタフェース、又は感知性又は触覚性ユーザインタフェースなど、任意の種類のユーザインタフェース201を用いることができる。
ユーザインタフェース201は、視覚的なディスプレイ画像を提供するように構成することができる。例えば、ユーザインタフェース201は、モニタ、テレビ受信機、液晶ディスプレイ(LCD)、プラズマディスプレイ装置、プロジェクタ画面を有するプロジェクタ、裸眼立体ディスプレイ、陰極線管(CRT)ディスプレイ、DLP(digigtal 光 processing)ディスプレイ、又は、ディスプレイ画像を提供するように構成されたその他の任意の種類のディスプレイ装置でよい。ユーザインタフェース201は、1以上のディスプレイ装置を含んでもよい。いくつかの構成では、ユーザインタフェース201は、コントロールと、アバターなどのオブジェクトを含む、アプリケーションによって生成されたディスプレイ画像など、アプリケーションに関連する画像を表示するように構成することができる。ストレージ媒体202は、情報又はデータを保存、及び記録し、光学式記憶媒体、磁気記憶媒体、フラッシュメモリ、又はその他の種類のストレージ媒体であってもよい。
カメラ204は、静止画像又は一連の動画像として画像を撮像するために用いるデバイスである。カメラ204は可視スペクトルの光を、あるいは、赤外線などの電磁スペクトルの他の部分とともに使用してもよい。例えば、カメラ204は、デジタルカメラ、デジタルビデオカメラ、又は、画像を撮像するために構成された、その他の任意の種類のデバイスでもよい。カメラ204は、1以上のカメラを含んでもよい。いくつかの例では、カメラ204は、アプリケーションと相互連動する、オブジェクト又はユーザの画像を撮像するように構成することができる。例えば、カメラ204は、カメラ204の視野の中でアプリケーションと物理的に相互連動するユーザ又は人物の画像を撮像するように構成することができる。
カメラ204は、ステレオカメラ、タイムオブフライトカメラ、又はその他の任意のカメラでよい。例えば、カメラ204は、動き、同様に、ユーザのジェスチャを検出するために背景画像をサンプリングすることができる画像検出器でもよい。カメラ204は、グレースケール画像、カラー画像、又は、距離画像を生成することができるステレオカメラ又はタイムオブフライトカメラなどのように、距離画像を生成することができる。ステレオカメラは、わずかに異なる視点で画像を取得する二つの画像センサを含むことができる。プロセッサは、異なる視点から取得された画像を比較し、画像の部分の距離を算出する。タイムオブフライトカメラは、光のパルスを生成するエミッタを含んでもよい。この光は赤外光でもよく、光のパルスがエミッタから対象物に至り、センサに戻る時間を測定して、画像の部分の距離を算出する。
デバイス200は、有線又は無線経路を介してカメラ204及びユーザインタフェース201と電気的に接続し、プロセッサ205の動作を制御して、カメラをベースとした入力を行うように構成されている。一つの構成では、デバイス200は、プロセッサ205又は他の制御回路を用いて、機能強化されたカメラをベースとした入力を行うアプリケーションを実行する。具体的には、デバイスはカメラ204から入力を受信し、受信した入力を処理して、ユーザインタフェース201のユーザの描写の位置と動きを算出し、これらの動きに基づいてコントロールと相互連動する。
一つの代表的な実施例では、カメラを用いてジェスチャを実行するユーザの画像を検出して、入力が行われる。例えば、携帯電話をテーブルに配置し、携帯電話は前を向いたカメラを用いて、ユーザの画像を生成するように動作することができる。あるいは、オプティカルフロー又はその他のアプローチを用いて、「左に傾く」ジェスチャを検出し、この検出したジェスチャを用いてユーザの描写を左に動かし、コントロールの左側にある項目を選択する、あるいは、「前方及び右に傾く」ジェスチャを検出して、ユーザの描写を上方、及び中立位置の右に動かし、コントロールの右上側にある項目を選択するなどして、ジェスチャをカメラ204を用いて検出又は認識してもよい。
したがって、カメラ204は、その他の種類の入力デバイス、又は、ジャイロスコープ、加速度計又はオプティカルフロー追跡器などの、デバイス200の角度位置を検出することができるモジュールで置き換えることができる。このため、カメラを、傾斜センサの入力で捕捉する、又は、置き換えて、ユーザによる所望の機能又はコマンドを実行するようにしてもよい。このように、ユーザのジェスチャの検出は、カメラを使用せずに行ってもよい。例えば、ユーザインタフェースのコントロールに可視化するのと同じ種類のストロークパターンでデバイスを動かすことにより、ユーザは、同様のインタフェース又はアプリケーションを直接的、直感的、及び、視覚的に楽しく刺激のある手法で制御することができる。
マイクロホン206は、空間的に音を定位するように動作する複数のセンサを含んでもよい。マイクロホン206は、背景ノイズを抑圧して、エコーを消去するように動作するフィルタリング処理を含んでもよい。コンピュータモニタがオンボードのマイクロホンを含むなど、マイクロホン206はユーザインタフェース201の一部でもよく、又は、内蔵マイクロホンを有するウェブカメラがコンピュータモニタのUSBポートと接続するなどして、ユーザインタフェース201から独立してもよい。音声スピーカ207は音声を生成するように動作する。マイクロホン206と同様に、音声スピーカ207は、ユーザインタフェース201の一部でもよく、又は、ユーザインタフェース201から独立してもよい。
プロセッサ205は、ネットワークインタフェース208を介して1以上のネットワークと接続することができる。プロセッサ205は、音声又はビデオ通信を他のシステムに送信することができる、コンピュータ、電話又はビデオネットワーク(例えば、インターネット、VOIP(Voice over Internet Protocol)、公衆交換電話網(PSTN)、テレビ会議サービス、又は、ケーブルテレビサービス)と接続することができる。ネットワークは、例えば、1以上のインターネット、WAN(Wide Area Network)、LAN(Local Area Network)、アナログ又はデジタルの有線又は無線の電話網(例えば、PSTN、ISDN(Integrated Serveces Digital Network)、xDSL(Digital Subscriber Line))、無線、テレビ、ケーブル、衛星、及び/又は、データ又はVOIPサービスを伝送するための、その他の任意の配信又はトンネリング機構を含むことができる。
ネットワークはさらに、回線交換方式の音声ネットワーク、パケット交換方式のデータネットワーク、又は、音声通信を伝送することができるその他の任意のネットワークを含むことができる。例えば、回線交換方式の音声ネットワークはPSTNを含むことができる。パケット交換方式のデータネットワークは、IP(internet protocol)、X.25、又はフレームリレー、又は、その他の互換性のある技術に基づくネットワークを含むことができ、例えば、VOIP、又は、音声データ通信のために使用される他の互換性のあるプロトコルを用いて音声をサポートすることができる。ネットワークは、複数のネットワーク又はサブネットワークを含むことができる。ネットワーク又はサブネットワークの各々は、例えば、有線又は無線のデータ経路を有することができる。
デバイス200は、音声及びビデオ通信を促す処理を実施することができる。例えば、プロセッサ205は、音声及びビデオ通信に関連するアプリケーションを実行して、ユーザを音声及びビデオ通信に関連するアプリケーションと相互連動させることができるインタフェースを、ユーザインタフェース201に描写することができる。
デバイス200は、音声データ伸長処理を実施することができる。遠隔のユーザからの音声は圧縮データとしてネットワークを介して送信され、スピーカ207によって音声に変換される前に伸長することができる。音声データ伸長処理は、CELP(Code Excited Linear Prediction)、AAC(Advanced Audio Coding)などの、音声圧縮方法を用いることができる。
デバイス200は、ビデオデータ伸長処理を実施することができる。遠隔ユーザのビデオは、圧縮されたデータとしてネットワークを介して送信され、ユーザインタフェース201によって表示される前に伸長することができる。画像伸長処理は、ITU(International Telecommunication Union)H.323、H.264、MPEG(Moving Picture Experts Group)MPEG−2、MPEG−4などの画像圧縮方法を用いることができる。
デバイス200は、音声エコーキャンセル処理を実施することができる。エコーキャンセルは、音響エコーキャンセルを含むことができる。音声エコーは、スピーカ207によって生成された音が、マイクロホン206によって検知されると発生することがある。即ち、ネットワークを介して送信され、スピーカ207によって再生される遠隔のユーザからの音声は、マイクロホン206によって検知され、ネットワークを介して遠隔のユーザに戻される可能性がある。これは、好ましいことではない。音響エコーは、スピーカ207、マイクロホン206、環境(例えば、部屋の残響又は音響特性)の特性によって影響を受けることがある。
音響エコーキャンセル処理は、基準音声信号をサンプリングするステップと、スピーカを用いて基準音声信号から音声を生成するステップと、マイクロホンを用いて、スピーカによって生成された音声を検知するステップと、マイクロホンによって検知された音声を第2の音声信号としてサンプリングするステップと、を含むことができる。スピーカ、マイクロホン、及び環境の特性の影響を相殺するための予測基準音声信号は、第2の音声信号と比較して生成することができる。予測基準音声信号を第2の音声信号から除去して、エコーが抑圧された、又は除去された第3の音声信号を生成することができる。本開示は、特定のエコーキャンセル処理に限定されず、エコーキャンセルのための他の技術を使用してもよい。
デバイス200は、音声データ圧縮処理を実行することができる。マイクロホンによって検知され、エコーキャンセル処理によって処理された、ローカルユーザからの音声は、圧縮して、ネットワークを介して遠隔のユーザに圧縮されたデータとして送信することができる。音声データ圧縮処理は、CELP(Code Excited Linear Prediction)、AAC(Advanced Audio Coding)などの、音声圧縮方法を用いることができる。
システムは、画像データ圧縮処理を実行することができる。カメラによって撮像された、ローカルユーザの画像は、圧縮して、ネットワークを介して遠隔のユーザに圧縮されたデータとして送信することができる。画像圧縮処理は、ITU(International Telecommunication Union)H.323、H.264、MPEG(Moving Picture Experts Group)MPEG−2、MPEG−4などの画像圧縮方法を用いることができる。
プロセッサ205は、ハンドジェスチャ識別処理、顔検出処理、顔識別処理、ユーザ位置処理、ユーザの描写を生成するための処理、ユーザの位置をアプリケーションが生成した項目と比較する処理を含む、複数のカメラ追跡処理を実行するように動作することができる。これらの処理のいくつかは、オプションであり、組み合わせてもよい。システムは、これらの処理に限定されず、他の処理を実行して、本開示に記載の技術を実施してもよい。
いくつかの実施例では、プロセッサ20は、音声伸長処理、画像伸長処理、エコーキャンセル処理、音声圧縮処理、画像圧縮処理を含む、複数の音声及びビデオ通信処理を実行するように動作することができる。音声及びビデオ通信を促す処理のいくつか、又は全てを、プロセッサ205が実行してもよい。あるいは、プロセッサ205が、通信動作を実行する外部のデバイスと通信してもよい。
デバイス200を、パーソナルコンピュータ(PC)又はセットトップボックスとして説明したが、かかる説明は、簡潔さのみを目的とするものであり、他の実施例又は具現化も想到可能である。例えば、デバイス200を、テレビ受信器、ミュージックプレーヤ、デジタルピクチャフレーム、UMPC(ultra−mobile personal computer)、MID(mobile internet device)、デジタルピクチャフレーム(DPF)、ポータブルメディアプレーヤ(PMP)、汎用コンピュータ、又は、専用コンピュータ(例えば、デスクトップコンピュータ、ワークステーション、又はラップトップコンピュータ)、サーバ、ゲーム機又はコンソール、又は、命令を実行するように構成された、プロセッサ又は他の制御回路を含む、他の任意の種類の電子デバイス、又は、ユーザインタフェースを含む他の任意の装置として実装してもよい。
図4は、テレコミュウニケーションセッションを制御するための代表的な処理400を説明する図である。簡潔には、処理400は、一連のカメラ画像からユーザの処理を認識するステップと、コントロールとユーザの描写を含むユーザインタフェースを生成するステップと、認識されたジェスチャに基づいて、描写をコントロールと相互連動させるステップと、相互連動に基づいてテレコミュニケーションセッションを制御するステップと、を含む。他の処理を用いてもよい。処理400は、図示とは異なる順序で行ってもよく、又は、より少ない動作、又はより多くの動作を含んでもよい。
より詳細には、処理400が開始すると(S401)、ユーザのジェスチャが一連のカメラ画像から認識される(S402)。例えば、1以上のカメラ画像を観測して、ハンドジェスチャ、又は、他のオブジェクト又は身体部分によって行ったジェスチャを識別することができる。例えば、カメラは、ディスプレイ装置に表示されるインタフェースと相互連動するユーザの一以上の画像を撮像することができる。プロセッサは、カメラによって撮像された画像にアクセスして、画像処理を実行することによってハンドジェスチャを識別することができる。
本書で使用する「ジェスチャ」とは、1以上の人体の一部又は全体を用いた非言語コミュニケーションの形態を意味し、会話などの言語コミュニケーションと対比するものである。例えば、ジェスチャは、第1の位置、姿勢又は表現と第2の位置、姿勢又は表現との間の動き、変化又は変形として定義されてもよい。代表的なジェスチャとして、例えば、「エアクオーツ」のジェスチャ、お辞儀のジェスチャ、挨拶、頬キス、指又は手の動き、ひざまずくこと、頭を振ること、又は頭の動き、ハイファイブ、頷き、悲しい顔、拳を上げること、敬礼、手を上げる、又は手を振る動き、親指を立てる動き、手で円を描く動き、手を振るジェスチャ、指を指すジェスチャなどを含むことができる。
したがって、一連の画像から、ユーザの考え、意見、感情、コミュニケーション、コマンド、実演又は表現を定義するジェスチャを導き出すことができる。例えば、ユーザのジェスチャは、1つ又は複数の指ジェスチャ、1つのハンドジェスチャ、1つの手及び腕のジェスチャ、1つの手、腕、及び身体ジェスチャ、両手で行うジェスチャ、頭部のポーズ又は姿勢の変化、目の位置の変化、顔の表情の変化、身体のポーズ又は姿勢の変化、又は、その他のいかなる表現可能な身体の状態の変化であってもよい。
簡潔のため、当該ジェスチャを行うために用いる身体の1以上の部分を概して、「コントロールオブジェクト」と呼ぶ。例えば、ユーザは、身体全体、又は、その他の物理的な物体を用いてコマンドを表現してもよく、そのような場合、身体全体又はその他の物理的な物体がコントロールオブジェクトとなりうる。ユーザは、目をまばたく、鼻を広げる、指をひらひらさせることによって、より微細にコマンドを表現することができる。その場合、まぶた、鼻又は指がコントロールオブジェクトとなりうる。一つの画面、又は二つの画面の間のユーザのジェスチャは、使用可能、又は「関与表示」ジェスチャを表すことができる。コントロールオブジェクトはまた、赤外線フィンガーライト、再帰反射器、又はリモコンなどの物理的なデバイスでもよい。
ハンドジェスチャを識別する処理は、動きを分析するステップを含むことができる。動きを分析するステップは、一連のカメラ画像からオプティカルフローマップを算出するステップと、類似した方向及び大きさの動きを有するフローマップの領域をクラスタ化するステップと、クラスタ化された時間期間の動きを統計モデル(例えば、隠れマルコフモデル)と比較して、動きをジェスチャとして分類するステップと、を含む。動きは、外見と位置が変わらないので、赤外線カメラ画像シーケンス(例えば、皮膚色とは依存しない)で検出することができる。動きが赤外線カメラ画像で検出される実施例では、ジェスチャは、低い周辺光で検出することができる。動きの分析は、距離を測定することができるカメラ(例えば、ステレオカメラ、タイムオブフライトカメラ)を用いた場合、二次元の動き、又は、三次元の動きを用いることができる。
ハンドジェスチャを識別する処理は、色を分析するステップを含んでもよい。色を分析するステップは、カメラ画像を色モデルと比較するステップと、人間の皮膚と一致した色を有するカメラ画像の部分を識別するステップと、人間の皮膚と一致する色を有するカメラ画像の部分をクラスタ化するステップと、クラスタがサイズと形状の基準群に適合する場合は、そのクラスタを手として分類するステップと、を含む。色を分析するステップは、クラスタの形状を手のポーズの基準群と比較して、手のポーズをハンドジェスチャとして識別するステップを、さらに含むことができる。色を分析するステップは、あるいは、時間期間にわたる、手のクラスタの位置の経路を生成するステップと、この経路を統計モデルと比較して、動きをジェスチャとして分類するステップと、含んでもよい。
ハンドジェスチャを識別する処理は、特徴を分析するステップを含むことができる。特徴を分析するステップは、カメラ画像の中の基本的な形状特徴(例えば、エッジ)を識別するステップと、手に相当することができる、特徴群を識別するステップを含むことができる。特徴の空間的構成を、統計モデルと比較して、手のポーズ又は手の動きをジェスチャとして分類することができる。
ハンドジェスチャを識別する処理は、手の位置を顔(又は身体)の位置と比較するステップと、相対的な手の位置を使用するステップと、をさらに含むことができる。顔の位置は、顔検出処理によって決定することができ、検出された顔の位置に対する相対的な手の位置を使用して、ジェスチャ又は他の入力コマンドを検出することができる。
ハンドジェスチャを識別する処理は、動き、色、形状の技術を組み合わせることができる。本開示は、特定のハンドジェスチャ検出処理に限定されず、ハンドジェスチャ又は他の入力コマンドを検出する他の技術を使用してもよい。
システムは、1以上のカメラ画像の中の顔を検出する処理を実施することができる。顔検出処理は、1以上のカメラ画像の中で人間の顔の場所、サイズ、又はその他の物理的特性を決定することができる。
カメラ画像の中の顔を検出する処理は、色を分析する処理を含むことができる。色を検出する処理は、カメラ画像を色モデルと比較するステップと、人間の皮膚と顔の特徴と一致する色を有するカメラ画像の部分を識別するステップと、人間の皮膚と顔の特徴と一致する色を有するカメラ画像の部分をクラスタ化するステップと、クラスタがサイズと形状の基準群に適合する場合は、そのクラスタを顔として分類するステップと、を含む。
カメラ画像の中の顔を検出する処理は、特徴を分析するステップを含むことができる。特徴を分析するステップは、1以上のカメラ画像の中の特徴(例えば、エッジ)を識別するステップと、顔に相当することができる、特徴群を識別するステップを含むことができる。本開示は、特定の顔検出処理に限定されず、顔を検出する他の技術を使用してもよい。
システムは、1以上のカメラ画像の中の顔を認識して特定のユーザを識別する処理を実施することができる。例えば、プロセッサ103は、カメラ101によって撮像された画像を分析して、カメラ101の前方に位置するユーザの顔を検出することができる。顔を検出した後、プロセッサ103は、検出された顔を分析して、検出された顔が、識別可能なユーザ又は既知のユーザに属するか否かを判断することができる。
カメラ画像の中の顔を識別する処理は、顔が検出された画像の部分を選択するステップと、画像のその部分を、テンプレートと比較するステップを含むことができる。システムは、ユーザのテンプレートを含むことができる。テンプレートは、以下により詳細に説明する技術を用いて、構成設定状態(configuration state)で生成することができる。
カメラ画像の中の顔を識別する処理は、距離カメラ(例えば、ステレオカメラ又はタイムオブフライトカメラ)を用い、三次元の顔認識処理を含むことができる。三次元の顔認識処理は、(例えば、顔検出処理の結果を用いて)顔が検出された画像の部分を選択するステップと、検出された顔の三次元モデル(例えば、メッシュデータ)とテクスチャモデルを生成するステップと、三次元モデルとテクスチャモデルをユーザのテンプレートと比較するステップを含むことができる。テンプレートは、以下により詳細に説明する技術を用いて、構成設定状態で生成することができる。
カメラ画像の中の顔を識別する処理は、固有画像(eigenimage)処理を用いるステップを含むことができる。固有画像顔認識処理は、(例えば、顔検出処理の結果を用いて)顔が検出された画像の部分を選択するステップと、共分散マトリクスを算出するステップと、共分散マトリクスの固有ベクトルと固有値を算出するステップと、主成分分析を実行して、主成分を選択し、固有値と固有ベクトルの次元数を削減するステップと、得られた固有画像データを所定の固有画像データ群とを比較して、検出された顔と、所定の固有画像データ群の顔との間の類似測定値群を生成するステップと、統計分析を実行して、固有画像を特定のユーザの顔として分類するステップと、を含むことができる。統計分析は、以下により詳細に説明する技術を用いて構成設定状態で実行された、学習処理の間に生成されたデータを使用することができ、本開示は、特定の顔識別処理に限定されず、顔を識別する他の技術を用いてもよい。
システムは、ユーザと関連するカメラ画像の部分を識別する処理を実施することができる。ユーザの位置は、1以上のユーザの手の位置を含むことができる。あるいは、ユーザの位置は、ユーザの身体、又は、ユーザの顔の位置を含むことができる。ユーザの位置は、ユーザの形状の記載を含んでもよい(例えば、シルエット又は輪郭)。ユーザの位置は、例えば、カメラ画像のピクセルごとに、ピクセルを前景(例えば、ユーザの一部)又は背景として分類する区分データを含んでもよい。ユーザの位置処理は、区分されたカメラ画像を生成する処理を含んでもよい。
区分されたカメラ画像は、クロマキー処理されたカメラ画像でもよい。クロマキー処理されたカメラ画像は、色のついた背景の前に立ったユーザから取得することができる。いくつかの実施例では、クロマキー処理は、背景の色と適合する色のカメラ画像の部分を識別し、それらの部分を背景として分類する。背景の色から外れた色のカメラ画像の部分は、ユーザの部分の可能性があり、前景として分類される。
クロマキー処理は、背景の色モデルを生成するステップを含むことができる。色モデルは、背景を表す色の範囲を定義することができる。クロマキー処理は、画像と色モデルとを比較するステップと、ピクセルごとに、ピクセルの色の値が、色モデルが示す色の範囲の中にある場合は背景として、そうでない場合は前景として分類するステップと、を含むことができる。
クロマキー処理は、ノイズを削減し、小さな孤立クラスタの分類を変更する(例えば、前景として分類されてもよい背景の孤立部分を削除し、前景の穴を埋める)、フィルタリング処理をさらに含むことができる。フィルタ処理は、畳み込みカーネルを含むことができる。
区分されたカメラ画像は、デプスキー(depth keyed)カメラ画像でもよい。デプスキーカメラ画像は、通常、範囲を判定できるカメラ(例えば、ステレオカメラ又はタイムオブフライトカメラ)によって取得する。タイムオブフライトカメラの一例は、赤外線エミッタが赤外線光のパルスを放射し、光が対象物に至り、カメラに戻る時間を光センサが測定する、Canesta社製のものを含む。タイムオブフライトカメラは、測定された時間に基づいて対象物の距離を算出する。
ステレオカメラの一例は、ステレオカメラが、複数の視点からのシーンの画像を撮像する複数の光センサを含み、複数の画像を比較して、複数の視点の間の対象物の位置の差異を判定する、Tyzx社製のものを含む。ステレオカメラは、判定した差異に基づいて対象物の距離を算出する。
画像の部分は、画像の部分に含まれる対象物の距離に基づいて、前景と背景に分類することができる。分類処理は、距離を閾値と比較し、距離が閾値より短い場合は部分を前景として分類し、距離が閾値よりも長い場合は部分を背景として分類するステップを含むことができる。例えば、分類処理は、距離と背景モデルを比較するステップを含むことができる。背景モデルは、ユーザのいないシーンの部分(例えば、床と家具)の深さを表す。この例では、分類処理は、距離がモデルの対応する部分よりも短い場合は部分を前景として分類し、距離がモデルの対応する部分以上の場合は部分を背景として分類する。
デプスキー処理は、ノイズを削減し、小さな孤立クラスタの分類を変更する(例えば、前景として分類されてもよい背景の孤立部分を削除し、前景の穴を埋める)、フィルタリング処理をさらに含むことができる。フィルタ処理は、畳み込みカーネルを含むことができる。
区分されたカメラ画像は、背景モデルを用いて区分してもよい。クロマキー処理されたカメラ画像は、任意の静止した背景の前に立ったユーザから取得することができる。カメラ画像は、背景の予想される外観を表す背景モデルと比較することができる。背景モデルは、背景の部分(例えば、ピクセル)ごとに、背景を表す色の範囲を有することができる。背景色モデルは、ユーザのいないシーンの画像を保存することによって取得することができる。カメラ画像の部分は、その部分の色が背景色モデルの対応する部分の色と類似している場合は、背景として分類することができる。カメラ画像の部分は、その部分の色が背景色モデルの対応する部分の色と類似していない場合は、前景として分類することができる。
背景区分処理は、ノイズを削減し、小さな孤立クラスタの分類を変更する(例えば、前景として分類されてもよい背景の孤立部分を削除し、前景の穴を埋める)、フィルタリング処理をさらに含むことができる。フィルタ処理は、畳み込みカーネルを含むことができる。背景区分処理は、背景又は周辺光の変化を補償するために背景モデルを更新する学習処理をさらに含むことができる。
区分されたカメラ画像は、皮膚色モデルを用いて区分してもよい。カメラ画像は、ユーザの皮膚の予想される外見を表す皮膚色モデルと比較することができる。皮膚色モデルは、サンプリングされた多数の人々の画像の皮膚色に基いて、予め定義しておくことができる。いくつかの実施例では、カメラ画像の部分は、その部分の色が皮膚色モデルの中の色と類似している場合は、前景として分類することができる。カメラ画像の部分は、その部分の色が皮膚色モデルの中の色と類似していない場合は、背景として分類することができる。
区分されたカメラ画像は、動画像でもよい。動きを含む画像の部分を前景として分類し、静止して見える画像の部分を背景として分類することができる。カメラ画像を動きによって区分する処理は、一連のカメラ画像を取得するステップと、連続する画像の間の差異を算出するステップと、差異を閾値と比較するステップと、を含むことができる。動き区分処理は、ノイズを削減し、小さな孤立クラスタの分類を変更する(例えば、前景として分類されてもよい背景の孤立部分を削除し、前景の穴を埋める)、フィルタリング処理をさらに含むことができる。フィルタ処理は、畳み込みカーネルを含むことができる。
動き区分処理は、動き履歴処理をさらに含むことができる。いくつかの例では、動き履歴処理は、ピクセルごとに最新の動きに対応する時間の描写を保存する。動き履歴処理は、ピクセルごとに、動き履歴からその動きが時間閾値の中で発生したことが明らかであると、そのピクセルを前景として分類し、そうでない場合はそのピクセルを背景として分類することができる。
区分データが表すユーザ位置を、ユーザの手に対応するユーザ位置に改良する処理は、区分されたカメラ画像の前景部分の形状を分析するステップを含むことができる。例えば、処理は、最上位の前景部分(例えば、ピクセル)を識別し、ユーザ位置を最上位の前景部分の位置として算出してもよい。あるいは、区分されたカメラ画像の前景部分の形状を分析するステップは、前景部分の輪郭を生成する処理、輪郭の形状特徴を識別する処理、及び、形状特徴を手として識別する処理を含むことができる。ユーザ位置を、手の位置として算出してもよい。
ユーザの手に対応するユーザ位置を判定する処理は、カメラ画像を分析して、ユーザの手を識別するステップと、手の位置を判定するステップを含むことができる。カメラ画像の中で手の位置を識別する代表的な方法は、カメラ画像の部分を、ユーザの皮膚の予想される外見を表す皮膚色モデルと比較する。カメラ画像の部分は、その部分の色が皮膚色モデルの中の色と類似している場合は、皮膚として分類することができる。皮膚として分類された部分を、部分のクラスタにクラスタ化され、全体の位置とサイズが1以上の基準に適合する部分のクラスタを手として分類することができる。本開示は、カメラ画像の中の手の位置を識別する特定の方法に限定されず、手を追跡する他の方法を採用してもよい。
図4に戻り、ジェスチャが認識されると、コントロールとユーザの描写を含むユーザインタフェースが生成される(S404)。ユーザの描写は、インタフェースと相互連動するために必要とする学習と技能を最小にするために表示することができる。ユーザの描写は、ユーザが、画面上の項目の位置に対する自身の手の位置を認識して、自身の手の位置を項目位置と一致するように動かすことを容易にできる。ユーザの描写は、例えば、アバター、又は、マウスカーソルでもよい。
ユーザインタフェースが生成されると、描写は、認識されたジェスチャに基づいてコントロールと相互連動する(S406)。例えば、ユーザの描写に近接した(例えば、マウスカーソルに近接した、又は、アバターの手に近接した)ボタン又は項目を選択することができる。
描写とユーザインタフェースのコントロールとの相互連動に基づいて、テレコミュニケーションセッションが制御され(S408)、処理400は終了する(S401)。いくつかの例を挙げると、例えば、着信が受け付けられるか、あるいは拒否される、音声メールメッセージが再生される、又は、電話番号又は連絡先がダイアルされる。
図5に、代表的なユーザインタフェース500を示す。ユーザインタフェース500は、ユーザ描写501を含む。ユーザインタフェース500は、項目502、テキスト503、ボタン504、505、506、507などの前景図形群を含むことができる。前景図形群は、一部がユーザ描写501に描写されてもよく、部分的にユーザ描写501を遮蔽してもよい。
ユーザインタフェース500を表示することは、カメラ画像を第2の画像と混合することを含むことができる。第2の画像は、アプリケーションにより生成された画像、ビデオゲーム画像、テレビ画像などを含むことができる。カメラ画像を混合することは、例えば、ユーザインタフェースのピクセルごとに、カメラ画像のピクセル値と第2の画像のピクセル値を結合することを含むことができる。以下に示すように、式(1)を用いて、カメラ画像と第2の画像とを混合してもよい。ここでDは結果を表し、Cはカメラ画像を表し、Sは第2の画像を表し、xとyは、画像の中のピクセル位置を示し、αは、0から1の範囲の混合比を表す。
Figure 2010541398
図6に、ユーザ描写601を含むユーザインタフェース600の他の例を示す。ユーザの描写を表示する実施例は、区分された画像を表示するステップを含むことができる。区分された画像は、前景部分と背景部分に区分されている。いくつかの実施例では、ユーザの描写の部分となりうる画像の部分(例えば、ピクセル、エリア、ブロック、ポイント又は領域)を、前景として分類し、ユーザの描写の部分となる見込みのない部分を背景として分類する。
区分された画像を表示することは、前景として分類された部分のみをレンダリングすることを含むことができる。前景として分類された部分のみをレンダリングする一実施例は、前景部分は不透明に、背景部分は透明になるように、不透過度を表すアルファチャネルを生成するステップを含むことができる。この実施例では、ユーザ描写601はアルファチャネルを用いて背景図形群と結合され、ユーザ描写601は背景図形603を(例えば、エリア602において)遮蔽する。項目604、テキスト606、ボタン608、610、612、614の描写を含む前景図形群は、結合されたユーザ描写601と背景図形の上にレンダリングされ、部分的にユーザ描写601と背景図形を遮蔽する。追加の前景及び背景図形はアプリケーションによって生成することができる。
図7に、ユーザ描写701を含むユーザインタフェース700のさらなる例を示す。ユーザの描写を表示する実施例は、コンピュータマウスカーソル又は手の図形描写など、コンピュータが生成した画像を表示するステップを含むことができる。図7に示すように、コンピュータが生成した画像701の位置は、ユーザの位置702に対応してもよく、ユーザの描写であってもよい。
ユーザの描写を表示する実施例は、(例えば、ビデオ会議コールで)発信するビデオのプレビューを表示するステップを含むことができる。ユーザがインタフェースと相互連動することを支援するために、ユーザの他の描写を表示してもよい。ユーザがインタフェースと相互連動することを支援するために、ユーザの動き(例えば、過去の動き又は動き履歴)の描写を表示してもよい。
システムは、ボタンなどの前景図形にユーザが接触した時を検出する処理を実施することができる。ユーザは、ユーザの描写、又は、描写の一部が、前景図形によって占められる位置と一致するユーザインタフェースの中の位置を占める、指し示す、又は近接する時を検出する処理を実施することができる。
図8に、図形と接触したユーザの描写の例を示す。ユーザの接触を判定する処理は、カメラ画像が前景部分と背景部分とに区分されたカメラ画像を分析するステップを含むことができる。図8に示すように、ユーザを表す可能性のある画像の部分(例えば、ピクセル)を前景803として分類し、ユーザを表す見込みのない画像の部分(例えば、ピクセル)を背景として分類することができる。領域801は、ボタン802などのように、相互連動する前景図形のサイズと位置を表すように領域801を規定することができる。処理は、陰影を付けたエリア804に示すように、領域の中(例えば、領域801の中)において、区分されたカメラ画像の部分(例えば、ピクセル)を判定することができる。区分されたカメラ画像を用いて接触を判定する処理は、領域801の中の前景部分(例えば、ピクセル)の数をカウントするステップと、カウントした数と閾値を比較するステップと、カウントした数が閾値を上回る場合、接触したとして領域を分類するステップと、を含むことができる。
いくつかの実施例では、区分けされたカメラ画像を用いてユーザ位置を判定する処理は、ある時間期間における領域801の中のカウントした前景部分(例えば、ピクセル)の数を累積するステップを含むことができる。ビデオフレームごとに、累積したカウント数から所定の数を最小でゼロまで引き、累積したカウント数に最新のカウント数を最大で閾値となるまで追加することができる。累積したカウント数が閾値に到達すると、領域を接触されたと分類することができる。前景図形は、ユーザに視覚的なフィードバックを与えるため、閾値に対する累積したカウント数の描写を含んでもよい。例えば、図形は、棒グラフ又は円グラフ805を含んでもよく。又は、累積したカウント数に応じて色又はサイズを描写するようにしてもよい。
図9に、図形と接触したユーザの描写の他の例を示す。ユーザの接触を判定する処理は、ユーザの位置と領域とを比較するステップを含むことができる。図9に示すように、領域901は、領域901が相互連動する、ボタン902などの前景図形のサイズと位置を表すように定義することができる。ユーザの位置を用いて接触を判定する処理は、ユーザ位置903が領域901の中にある時、領域901を接触されたと分類するステップを含むことができる。
いくつかの実施例では、区分されたカメラ画像を用いてユーザ位置を判定する処理は、ユーザ位置が領域の中にある時間期間又はビデオフレームの数をカウントするステップを含むことができる。ビデオフレームごとに、ユーザの位置が領域の中にあると判定された場合、カウントの数を(最大値の閾値まで)増加させ、ユーザの位置が領域の中にない場合はカウントの数を(最小値のゼロになるまで)減少させる。累積されたカウント数が閾値に到達した場合、領域は、接触されたと分類することができる。前景図形は、ユーザに視覚的なフィードバックを与えるため、閾値に対する累積したカウント数の描写を含んでもよい。例えば、図形は、棒グラフ又は円グラフ905を含んでもよく。又は、累積したカウント数に応じて色又はサイズを描写するようにしてもよい。
システムは、ユーザの項目選択を容易にする機能強化されたユーザインタフェース処理を実施してもよい。項目は、テキスト、数字を含むことができ、機能強化されたユーザインタフェース処理は、テキスト及び数字の入力を容易にする。
図10に、アイコン又はアバター(波線の円で描く)などのオブジェクト1002と、ガイドライン1004をさらに有するコントロール1005と、を含むユーザインタフェース1001を示す。ガイドライン1004は、図10では波線で描かれいているが、他の代表的な実施例では、ガイドライン1004は実線で描かれるか、又は、全く描かれない。
コントロール1005は、文字1006などの項目の直感的な選択又は出力を可能とすると同時に、ガイドライン1004に隣接する、近傍にある、部分的又は完全に境界される、あるいは、画定される領域のオブジェクト1002の一部又は全体を表示することができる。ユーザが、テキストデータの入力を要求する入力フィールドを選択するなどして、項目を出力又は選択すると判断されると、コントロール1005は、項目1006とオブジェクト1002を表示することができるユーザインタフェース1001の場所に配置される。このため、オブジェクト1002に対して、関連して、基づいて、又は関して画定される。換言すると、オブジェクト1002の位置は、ガイドライン1004とコントロール1005のその他の要素が方向付けされる、配列される、又は、他の要素を配置することができる、アンカー位置を表すことができる。
このアンカー位置を決定するため、ガイドライン1004を画定するオブジェクトと、そのオブジェクトの位置が決定される。いくつかのケースでは、コントロール1005がアバター、ユーザの画像、つまみ、アイコン、リスト、データのテーブル、データのグラフ、テキスト入力フィールド、他のコントロール又はウィジェット、又は、ユーザインタフェース1001の既知の空白領域と関連して、又は、含んで出力される場合など、オブジェクトは予め決定、又は画定しておいてもよい。他のケースでは、ユーザがテキストフィールドにタブ操作をし、テキストフィールドをオブジェクトして使用する時、ユーザインタフェース1001の空白領域がユーザインタフェース1001の現在の状態に基づいて配置される場合、画面で最大、最重要、最も色彩に富んでいる、又は最も色彩に乏しい対象物がオブジェクトとして動的に決定される場合、中心(in−focus)要素、領域又はウインドウがオブジェクトとして動的に決定される場合など、オブジェクトは、コントロール1005が出力される時に動的に決定される。
これらのケース又は他のケースでは、オブジェクト1002のサイズ、形状、位置、境界、その他のコンテキストが検出され、ガイドライン1004は、これらの検出されたコンテキストとの関係で定義される。例えば、ガイドライン1004は、オブジェクト、又はオブジェクトの一部と重複関係又は非重複関係、分岐関係、分割関係、空間的に制約される、又は制限される関係、又は、オブジェクト1002のサイズ、形状、割合、解剖学的モデルに基づくその他の任意の関係を有するように定義してもよい。
要約すると、特に、ユーザインタフェース1001は、オブジェクト1002と、項目群を形成する項目1006とを含む。オブジェクト1002は、ユーザの描写でもよい。項目1006は、ユーザが便利に信頼性をもって各項目を選択できるようなサイズと位置に表示されるように、項目1006は動的な方式で表示することができる。項目1006の各々を大きなサイズでユーザインタフェース1001の中に、又はガイドライン1004と配列することが困難である場合、項目1007の部分群をより大きなサイズで描写してもよい。
図11〜15に、ガイドラインに沿って配列された項目群から特定の項目を選択する代表的な例を図示する。図11において、項目群1101は、ガイドライン1101Aに沿って配列されており、カーソル1104は関心のある項目1101rに向けて移動する。カーソル1104はマッピングされてアバターの手として描写される。
図12において、カーソル1204の位置がガイドライン1202を交差する。ガイドライン1202との交差により、各項目とカーソル1204との間の距離に基づいて、項目群1201の部分群1201aを選択又は識別するさらなる検出処理を開始することができる。カーソル1204の位置は、カメラ画像で検出される、ユーザの身体の周りの空間のユーザの手の位置に基づいて決定される。
項目1201の部分群1201aをフォントのスケール又はサイズを大きくして表示し、ユーザによるより簡便でより直感的な選択を容易にする。項目1201の部分群1201aの選択、及び、項目1201の部分群1201aの表示の拡大は、カーソル1204がガイドライン1202を交差したことの検出に応じて、又は、ガイドライン1202に対するカーソル1204の位置とは無関係に行うことができる。カーソル1204がガイドライン1202を基本位置1206で交差したこと、又は、項目が選択されたことが検出されると、例えば、音、画像、点滅光、及び/又は、振動などの触覚出力を含む、ユーザへのフィードバックを生成することができる。
図13においてユーザは関心項目1301rを選択する。部分項目群1301が強調表示されるので、ユーザがそのエリアの中の関心項目1301rを含む一般エリアを選択し、そのエリアの中の項目を「ズームイン」し、文字「R」を表す関心項目1301rを信頼性と利便性をもって選択することができる。選択は、マウスイベント、キーボード又はキーボードの打ち込み、ジェスチャ認識、カメラをベースとした入力、又は、その他の多くのアプローチによって行うことができる。
カーソル1304がガイドライン1302を交差した位置を表す基本位置1306の場所は、多くの方法によって検出することができる。例えば、図14に示すように、基本位置1406の場所は、カーソル1404がガイドライン1401の上方、又は、項目1401rなどの強調表示された項目と最も近接して検出された後の時間に観察されたカーソル1404と最も近接したガイドライン1401の位置として決定することができる。
基本位置は、他のアプローチを用いて検出してもよい。例えば、基本位置1406の場所は、カーソル1404がガイドライン1401を交差する際に検出する、又は、ガイドライン1401を交差した前後の時間のカーソル1404の位置を用いて検出することができる。図15に、例えば、ガイドライン1502を交差する前の時間に観察されたカーソルの位置を表す端点1508と、ガイドライン1502を交差した後の時間に観察されたカーソルの位置を表す端点1510とを示す。基本位置1506は、端点1508と1510とによって画定される線分1504のとガイドライン1501との交点として決定することができる。
図12に戻ると、項目1201の部分群1201を強調表示することは、部分群1201aを構成する項目に対応するガイドライン1202に沿った位置を決定することを含むことができる。いくつかの実施例では、基本位置1206に近接して位置する項目は、強調表示される(例えば、大きなサイズで表示される)項目1201の部分群1201aの部分として選択される。こうして、基本位置1206に近接する項目は、強調表示されていないオリジナルの位置の中に、又は、それらの近傍に残り、基本位置1206から離れた項目は、項目1201の部分群1201aのサイズが増加するように、外側に移動する。
部分群1201aが強調表示された後、部分群1201aの中にない項目の位置は、以下の式(2)にを用いて決定することができる。
Figure 2010541398
式(2)において、Xiは、オリジナルの状態におけるガイドラインに沿った項目iの位置を表す。Xi’は、拡大された状態におけるガイドラインに沿った項目iの位置を表す。Xbは、ガイドラインに沿った基本位置を表す。Siは、オリジナルの状態における項目iの基本サイズを表す。Si’は、拡大された状態における項目iのサイズを表す。
図16に、部分項目群を強調表示する前の第1の状態1601と、部分項目群を強調表示した後の第2の状態1602の部分項目群を示す。例えば、カーソル1604が項目「S」の下で最初にガイドライン1605を(基本位置1606が項目「S」と一致するように)交差した場合、項目「S」はそのオリジナルの位置に残り、項目「R」は距離1607をもってオリジナルの位置から左側に移動する。第2の状態1602はこのように、強調表示に続いて、項目のスケール変更されたサイズと位置を示す。
図17に、部分項目群を強調表示する前の第1の状態1701と、部分項目群が強調表示された後の第2の状態1702の部分項目群を示す。例えば、カーソル1704が項目「Q」の下でガイドライン1705を(基本位置1706が項目「Q」と一致するように)交差した場合、項目「Q」はそのオリジナルの位置に残り、項目「R」は距離1707をもってオリジナルの位置から右側に移動する。第2の状態1702はこのように、強調表示に続いて、スケール変更された項目を示す。したがって、特定の項目を選択するために使用するカーソル1704の位置は、カーソル1704が最初にガイドライン1705を交差した位置に依存することができる。
図18に、部分項目群の強調表示に関連する状態1801〜1804の部分項目群を示す。具体的には、図18は、項目1810a〜cの第1から第3の部分項目群1806〜1808のそれぞれを選択して強調表示する概要を示す。第2と第3の部分群1807、1808は、第1と第2の部分群1806、1807に対するカーソル1811の位置に応じて配置される。
状態1801では、項目1810aは、オリジナルの強調表示されていないサイズと位置を反映する。状態1802では、項目1810bの第1の部分群1806が選択されて強調表示される。状態1803では、項目1810cの第2の部分群1807が選択されて強調表示される。状態1804では、項目1810dの第3の部分群1808が選択されて強調表示される。
状態1802では、カーソル1811aが項目「S」の下で最初にガイドライン1812aを(基本位置が項目「S」と一致するように)交差する。項目「S」はそのオリジナルの位置に残り、周りの文字がそれらのオリジナルの位置から外側に移動する。状態1802から状態1803への推移では、カーソル1811bが右側に移動すると、カーソル1811cのある距離の中にある項目1810cの第2の部分群1807が状態1803で選択される。カーソル1811cがガイドライン1812cに沿って拡大された項目「T」と一致するように移動すると、項目「T」はその拡大された位置に残り、項目「V」が強調表示されて、ガイドライン1812cに沿って距離1815さらに右側に移動する。
項目「W」〜「Z」などの特定の項目についてガイドライン1812cに十分な空間が存在しない場合、項目はガイドラインの端部から「押し出され」、表示されない。状態1803から状態1804への遷移では、カーソル1811cがガイドライン1812cの右端の方向にさらに移動を続けると、第2の部分群1807の部分である追加の項目を表示するための十分な空間がなくなる場合がある。このような場合、第3の部分群1808は(第2の部分群1807の部分群として)形成されなくてもよい。
例えば、項目「U」などの第2の部分群1807の右部分の項目、又は、項目「W」〜「Z」などのガイドラインの端部から「押し出され」た項目を選択する場合、ユーザはガイドライン1812cをカーソル1811cを用いて再び交差して、ガイドライン1812cを三回交差して、所望の項目に近接する新しい基本位置を確立することができる。さらに、項目をガイドライン1812cの右端部に「押し出す」代わりに、ガイドラインの左端部の項目を代わりに「押し出し」て、右端部で「押し出さ」れたであろう項目の表示を可能としてもよい。いくつかの実施例では、項目を「押し出す」代わりに、ガイドラインで利用可能な空間に応じて、サイズを縮小し、ガイドラインに全ての項目を表示することができる。
他の実施例では、ガイドラインの右端部で「押し出され」た項目を、ガイドラインの左端部に表示することができる。連続型(例えば、円形)ガイドラインを用いた実施例では、項目は、ガイドラインの周りを押し回しされてもよい。したがって、ユーザがカーソルを連続型ガイドラインの周りに時計方向に移動することができる、円形のガイドラインの例では、現在の部分項目群から除外された項目が、(部分群が追加されるので、項目が増加する空間を設けるために)カーソルより遅い角速度で時計方向に移動することができる。この例では、ガイドラインの周りを項目が1回転するごとに、カーソルはガイドラインの間を複数回回転することができる。
スクロール処理を用いて、さもなければガイドラインの端部から「押し出され」たであろう項目の選択を容易にしてもよい。スクロール処理は、例えば、カーソル1811cがガイドライン1812cの端部から所定の距離の中にあるか否かを判定するステップと、速度を項目位置に適用するステップとを含むことができる。項目位置は、基本位置に対して算出し(上述の式(1)を参照)、速度を基本位置に適用し、項目をそれに応じて移動させることができる。
図19に、水平軸1901がガイドラインに沿った位置を表し、垂直軸1902が速度を表す、代表的な速度関数を示す。この速度関数を用いて、カーソル位置がガイドラインの端部に近接した場合、速度を適用することによって、項目を移動又はシフトさせる。カーソル位置がガイドラインの中央にある場合は、項目は移動、又はシフトされない。
図20に、ガイドラインに対するカーソルの位置の間の距離(水平軸2002によって反映)に基づく部分項目群の項目(垂直軸2001によって反映)のサイズを変更する時に使用可能な代表的なスケーリング関数を示す。曲線2004によって表されるように、項目のサイズ(Si’)は、カーソルの現在位置の関数とすることができる。強調表示されていない1以上の項目に対応する基本サイズ(Si)は、カーソルがガイドラインを交差していない場合、ポイント2005を参照して決定することができる。線2006は、強調表示された項目に対応する最大サイズを規定する。
一代表的な実施例では、曲線2004の傾きは、ポイント2005の近傍で略1:1であり、項目のサイズは、カーソルとの距離(proximity)が減少するにつれて線形比例して大きく表示される。項目の拡大は、最大サイズに近づくと徐々に少なくなり始め、カーソルが次第に強調表示された項目に近づくにつれ、芸術的に美しい推移を遂げる。
図21及び図22を参照して、機能強化されたコントロール、例えば、カーソル2101がガイドライン2102を交差する時の、スケーリング関数の使用を説明する。高さ2104は、カーソル2101の位置とガイドライン2102との間の距離を表し、高さ2105は、部分群2107の中の項目2106rなどの項目のサイズを表す。部分群2107の項目の高さ2105は、高さ2104に応じてスケール変更されるので、カーソル2101がガイドライン2102を少量交差した図21では、カーソル2201がガイドライン2202をより少量交差した図22の場合よりも項目が大きく表示される。このように、カーソル2101の位置は、カメラをベースとした入力を用いて決定することができる。
図23及び図24に、部分項目群が強調表示された代表的なガイドラインを示す。具体的には、図23に、項目2304の部分群2302が拡大して表示された、代表的なガイドライン2301を示す。項目2304の部分群2302を選択することは、所定の数の項目を選択すること、又は、項目のサイズに基づいて部分群2302の中に複数の項目を動的に選択することを含む。
部分群2302に含む項目の数は、部分群2302に項目がガイドライン2301の全長2307に及ぶ、又は、ガイドライン2301の一部に及ぶように動的に選択することができる。図23に示すように、部分群2302から除外された項目2305a、2305bも、ガイドライン2301に沿って表示することができる。部分群2302の項目の数は、また、部分群の中の項目のサイズに基づいて変化してもよく、部分群2107(図21)の幅と部分群2207(図22)の幅が同一であっても、例えば、部分群2107が5つの項目を表示し、部分群2207が3つの項目を表示してもよい。
大きなサイズで部分群の項目を表示することによって、項目を強調表示することは、図23に示すように、強調表示された項目の全てを同一の大きさのサイズで表示することを含んでもよく、また、図24に示すように、部分群の中の個々の項目を、カーソルの位置に対するガイドラインに沿った位置に応じたサイズで表示してもよい。
図24に、項目2404の部分群2402を項目のサイズを変更して表示する代表的なガイドライン2401を示す。例えば、部分群2402の端部にある項目2405p、2405t(それぞれ文字「P」と「T」を表す)のサイズは、項目2405r(文字「R」を表す)などの部分群2402の中央の1以上の項目よりも小さいサイズとしてもよい。部分群2402の項目をサイズを変更して表示することは、見栄えが芸術的に美しくなり、機能強化されたコントロールをより直感的に使用できるようにする。図24に示すように、部分群2402から除外された項目2405a、2405bも、ガイドライン2401に沿って表示することができる。
部分群2302、2402の項目を大きなサイズで表示することは、項目をアニメーション化(animating)することを含むことができる。アニメーション処理は、部分群の項目を拡大することと、項目の位置を短い時間期間にわたってガイドラインに沿って並進(例えば、項目をガイドラインに対して垂直に保ちながら)することを含む。部分群2302、2402から除外された項目は、部分群2302、2402に「スペースを設けるため」サイズを縮小してアニメーション化されて、ガイドラインに沿って外側に移動することができる。
ガイドラインの端部から「押し出さ」れた項目は、単に消えてもよいし、又は、アニメーション化されてガイドラインのエッジから落ちてもよいし、又は、燃焼、内破、蒸発、爆発、液体化、炸裂、又はその他の技術など、視覚的に刺激のある、又はユーモアのある手法で破壊されてもよい。同様に、ガイドラインにスペースが生じたために既に「押し出さ」れた項目を再表示する場合も、単純に再表示してもよいし、又は、アニメーション化して、ユーザインタフェースの頂部からガイドラインに下りて戻ってくる、あるいは、視覚的に刺激のある、又はユーモアのある手法で自発的に生成されるようにしてもよい。
ガイドラインが不連続型の場合、項目をアニメーション化して、途切れ目を横断して移動するようにしてもよい。項目を、高速度で隙間を横断するようにアニメーション化する、又は、上述の視覚効果の何れかを用いて、「押し出さ」れて「再表示」されるようにアニメーション化することができる。同様に、ガイドラインの端部で「押し出さ」れ、対向する端部で再表示する項目を、ガイドラインの端点の間を高速で移動するようにアニメーション化する、又は、上述の視覚効果の何れかを用いて、「押し出さ」れて「再表示」されるようにアニメーション化してもよい。
図25に、ガイドラインに沿った項目の作動を示す。ここで、「作動」又は「強調表示」とは一般的に、選択する項目の決定に関する。選択する項目を決定するシステムは、ヒステリシスを用いる。選択は、カーソルが最初にガイドラインを横断した時に最初に選択された項目を決定することを含む。最初に選択された項目とは、基本位置との距離が最も近接した位置にある項目とすることができる。したがって、カーソルが項目の間に配置される際に二つの隣接する項目の間で不意のフリッカーを削減するため、選択は、カーソルが隣接する項目の間の中点から所定の距離移動する都度、新たに選択された項目を決定することを含んでもよい。
例えば、二つの項目2502r、2502sのガイドライン2501に沿った位置が線2504r、2504sで示され、項目2502r、2502sの中点の位置は、線2505で示され、距離2506は、所定の距離を表す。例えば、項目2502s(即ち、文字「S」)が最初に選択された項目である場合、ユーザはカーソルを線2507の左、中点2505の上方に項目2502r(即ち、文字「R」)に向かって所定の距離2506、動かし、項目2502rを選択する。項目2502rが続けて選択された場合、項目2502sを再選択するためには、ユーザはカーソルを線2509の右、中点2505の上方に項目2502sに向って所定の距離2506動かす。
所定の距離は、ユーザが静止を保とうとしている間のユーザの無意識の身体の震えによる影響、又は入力装置の制限を考慮して、カーソルが揺れる又は振れると予想されうる、所望の最大距離に基づいて定義することができる。カーソルの位置がガイドラインの下方にある、カーソルが特定のユーザインタフェースの内部、あるいは、機能強化されたコントロールによって占有されるユーザインタフェースの領域に見つからない、又は存在しない場合、項目は選択されないようにすることができる。項目の選択は、、例えば、音、画像、及び/又は、振動などの触覚出力を含む、ユーザフィードバックをさらに生成してもよい。
部分群の項目を表示することは、それらの外見が選択の状態についてユーザフィードバックを提供するように、項目を表示することを含むことができる。例えば、選択された項目を、固有の色で表示する、又は、輝いて見えるなどの視覚効果を用いて表示することができる。現在選択されている項目が、項目が選択された状態に第1の所定の持続時間閾値より長くある場合、作動又は強調表示されるようにしてもよい。この場合、カーソルがある時間期間、項目の上に保持されると、項目は作動する。選択された項目が第2の所定の持続時間閾値よりも長い間選択され続けていると、作動は反復される、又は無効になるようにしてもよい。
さらに、項目は、カーソルの位置がある時間期間静止している場合、作動される、又は、強調表示されるようにしてもよい。所定の時間閾値を上回る間、ガイドラインに対して平行の位置成分の変化が所定の距離閾値より少ない場合、カーソルは、静止していると分類することができる。例えば、カーソルの位置に最も近い項目が識別され、作動される。カーソルが第2の所定の持続時間閾値よりも長く静止しているとして分類されているた場合、作動は反復される、又は無効になるようにしてもよい。さらに、ガイドラインに対するカーソル位置の距離に基づいて、項目を作動してもよい。例えば、この距離が所定の距離閾値を上回った場合、項目が作動するようにしてもよい。
他の例では、項目の作動は、項目選択の後の、他の種類のユーザ入力によって行われるようにすることができる。例えば、ユーザは、選択された項目を作動するために、他の種類のユーザ入力を行ってもよい。これらの例では、選択された項目を作動するため、ユーザは、(例えば、コントローラの)ユーザ入力ボタンに接触する、音声入力を行う(例えば、「作動」と発話する)、他の種類のジェスチャを行う(例えば、項目の選択に用いた手をディスプレイの方向に動かす、又は、ユーザの他方の手を、選択された項目を作動するためのユーザインタフェースの他の部分に動かす)、又は、他の任意の種類のユーザ入力を行うことができる。
図26〜29に、代表的な項目群を示す。図26において、項目2601は、英語アルファベットの文字を含む。さらに、項目2601は、作動される、又は、選択されると、第2の項目群を開く、項目2602とを含む。選択されると、第2の項目群を、項目2601、又は、項目2601の部分とともに、ガイドラインに表示することができる。また、第2の項目群は、ガイドライン2604で項目2601を置き換えてもよい。項目2602を表すために用いる記号から、ユーザは第2の項目群が数字を含むことを直感的に判断できるようにしてもよい。
図27に、ガイドライン2702に配列された項目2701を示す。項目2701は、図26において、項目2602が選択されると表示される。第2の項目群が選択された場合、カーソルをガイドライン2702の下方から移動する、又は、カーソルを項目2701を表示するユーザインタフェースから移動すると、項目2601を再選択又は再作動することができる。項目2701は、項目2601を作動する、再び開く、あるいは、再選択する項目2704を含む。項目2704を表すために用いる記号から、ユーザは項目2601が英語のアルファベットの文字を含むことを直感的に判断できるようにしてもよい。
図28に、ガイドライン2803に配列された項目2801を示す。項目は各々、標準的な電話の電話キーパッドのキーと関連付けられて公知である、標準的な数字と文字の組み合わせを表している。図29に、項目2801の項目2802が選択された時(図28を参照)に表示される、項目2901を示す。項目2901は、標準的な電話キーパッドのキー番号「7」に関連付けられた文字の組み合わせを含む。
図26〜29に示された項目を用いて、順に文字を入力し、テキストフィールドに言葉を形成するなどする、カメラをベースとしたテキスト入力機構を提供することができる。数字、文字、テキスト、記号、又は所定のテキストを作動して、数字、文字、テキスト、記号、又は所定のテキストを、既に入力されている文字列に付加することができる。あるいは、項目(図26の項目2601からの項目など)の作動は、さらなる項目群を表示してもよく、さらなる項目群の項目の作動は、作動した文字を文字列に付加するようにしてもよい。項目の一つは、項目の列から最新の項目を除去することを容易とする、バックスペース項目でもよい。
カメラをベースとしたテキスト入力機構は、文字を組み合わせて複合文字を形成するこを含むことができる。日本語テキスト入力のテキスト入力機構は、(日本語パーソナルコンピュータキーボードのユーザには馴染みのある方法で)カナ文字を組み合わせて漢字文字を形成する処理を含む。第1の項目群は、カナを表す項目を含むことができる。カナ項目が作動すると、対応するカナ文字が文字列に付加される。項目群は、作動すると、最新のカナ文字の列を漢字に変換する処理を作動する動作を表す項目を含むことができる。最新のカナ文字の列を漢字に変換する処理は、第2の候補漢字の項目群を表示することを含むことができる。漢字項目を作動すると、最新のカナ文字の列を作動した漢字で置換する処理を作動する。このカメラをベースとしたテキスト入力方法は、他の言語に拡張することができる。
代替の日本語テキスト入力の方法は、カナを表す第1の項目群を表示することを含むことができる。カナ項目が作動すると、第2の項目群が表示される。第2の項目群は、作動したカナがその一部を形成する漢字を含むことができる。この群は、上述の第2の群よりも大きくてもよい。このテキスト入力方法は他の言語に拡張することができる。
テキスト入力機構は、項目群に確認項目を含むことができる。作動すると、確認項目は、処理を作動して、文字列がアプリケーションに提供される。さらに、テキスト入力機構は、予測テキスト完了処理を含むことができる。予測テキスト完了処理は、辞書を検索して、上記文字列の文字を含む最も確率の高いテキストを検索する。最も確率の高いテキストは、出力フィールドに表示してもよい。予測テキスト完了処理で使用される辞書は、テキスト入力機構で使用したコンテキストに基づいて選択することができる。例えば、辞書は、テキスト入力機構を用いて名称を入力する場合、名称を含むことができる。
アプリケーション処理は、アプリケーションの状態に応じて、ユーザインタフェースの項目を決定することができる。項目を作動することは、メッセージをアプリケーション処理に提供することを含む。アプリケーション処理は、メッセージに基づいて制御されるようにしてもよい。
図30に、システムの代表的な状態を示す。システムは、図30に示すように様々な状態を含むことができる。システムは次の状態を含んでもよい。すなわち、システムは、システムが着信又はユーザがシステムを作動することを待つスタンバイ状態3001、システムが、ユーザに着信を通知し、ユーザがシステムを作動するのを待つ、通知状態3002、システムが、他のシステムとの音声又はビデオ通信を促すコール状態3003、システムが、ユーザに選択するためのオプションと機能を表示するメニュー状態3004、システムが、ユーザが電話番号又はアドレスを入力することを可能とする直接ダイアル状態3005、システムが、ユーザが直近のコールに対応する連絡先を選択することを可能とするリダイアル状態3006、システムが、ユーザが名称を入力すると、適合する連絡先をデータベースから見つける検索状態3007、システムがユーザにデータベースから連絡先を閲覧することを可能とするブラウザ状態3008、システムが連絡先に関する情報を表示し、ユーザに連絡先にコールする意図を確認する接続オプション及び確認状態3009、システムが、遠隔のシステムとの接続を確立する接続状態3010、システムが、ユーザが検討するメッセージを選択することを可能とするメッセージメニュー状態3011、システムがメッセージを再生するメッセージ再生状態3012、コールをミュート(消音)とするメッセージミュート状態3013、ユーザが、自身の顔を登録するなど、システムを構成設定することができる構成設定状態3014を含むことができる。システムは、より少ない状態を含んでもよいし、ここに記載されていない他の状態を含んでもよい。システムは、図30に示すものとは異なる手法又は順序で様々な状態に入ってもよい。
システムは、スタンバイ状態3001を含む。スタンバイ状態3001の間、システムは、偶発的なユーザの動きに反応しない、又は、ディスプレイ装置104に不必要なものを表示しないなど、目立った動作はしないようにすることができる。これによって、システムがスタンバイの場合、ディスプレイを他のアプリケーション又は、他の目的のため(例えば、テレビを見る、ビデオゲームをするなど)に使用することができる。
スタンバイ状態3001の間、システムは、ネットワークで着信を監視することができる。着信又はその他のメッセージを受信すると、システムは、通知状態3002に入ることができる。
システムは、着信を受信すると、ディスプレイ装置に制御信号を送信するように構成することができる。制御信号は、ディスプレイ装置をオンにして、入力設定を選択し、ディスプレイ装置が、システムによって生成される画像を表示するようにする。システムは、着信を受信すると、制御信号を他のアプリケーション又はデバイスに送信するように構成することができる。例えば、コールを受信すると、制御信号は、実行しているアプリケーション又はプログラムを中断してもよい(例えば、コールを受信すると、プレイしているビデオゲーム又は見ているテレビ番組を中断する)。制御信号は、いくつかの例を挙げると、赤外線信号、直接配線接続を介した電子信号、又はネットワークメッセージなどでもよい。
システムは、顔検出処理で顔を検出すると、通知状態3002に入るようにしてもよい。これによって、システムが、ユーザが不在なのに、ディスプレイ装置をオンにすることを回避することができる。
システムは、複数のユーザへのコールを受信するように構成してもよい。システムは、
コールの宛先のユーザに対応するユーザの顔を識別する顔認識処理を条件に通知状態3002に入るようにすることができる。これによって、宛先とする受信者が不在なのに、他のユーザの活動を中断させることを回避することができる。これは、宛先とする受信者のプライバシー保護を確実に支援することもできる。
着信が検出されると、システムが通知状態3002に入るようにしてもよい。通知状態3002では、システムがディスプレイ装置に視覚的な合図(visual cue)を表示させることができる。
図31に、通知ユーザインタフェース3101の一例を描写する。視覚的な合図3102は、他のアプリケーション又は他のデバイスによって生成される映像内容3103(例えば、図31に示すようにテレビ番組又はビデオゲーム)の上に重ね合わせることができる。通知状態3002では、システムはまた、音声スピーカに音響的な合図を生成させることができる。音響的な合図は、他のアプリケーション又は他のデバイスによって生成される、例えば、テレビ番組又はビデオゲームのサウンドトラックなどの他の音声内容と混合することができる。
スタンバイ状態3001及び通知状態3002の間、システムは、カメラによって撮像された画像を関与表示ハンドジェスチャについて監視することができる。ユーザは関与表示ハンドジェスチャを実行することによってシステムに関与するように、プロセッサは、関与表示ハンドジェスチャを検出するようにしてもよい。関与表示ハンドジェスチャは、ユーザにより偶発的に行われる見込みの少ないジェスチャでよく、ユーザの描写をディスプレイ装置に表示する必要なく実行される、十分に容易なもとすることができる。
図32に、関与表示ハンドジェスチャを実行するユーザを含む、カメラ画像の例を示す。図32に示すように、代表的な関与表示ハンドジェスチャは、ユーザの頭上にくるまで手を上方に上げる垂直な動きを含む。このジェスチャは十分にまれであり、ユーザにより偶発的に又は無意識に実行される見込みは少ない。ユーザはこのジェスチャを、学校で学生が手を上げて、先生に「関与表示」を行うことを連想でき、直感的に考えることができる。
関与表示ジェスチャは、所定の時間期間にわたって保たれるディスプレイの前でカメラの追跡領域でジェスチャとして表現される、特定の手のポーズ又は手の動きのシーケンスでもよい。一つの代表的なジェスチャは、全ての指と親指を広く広げてまっすぐの位置で保つ手のポーズである。他の例は、ユーザが腕を自身の顔の前に伸ばし、自身の顔の前で円を描いて行う円形の手の動き又は手を振る動きである。基本的に、関与表示ジェスチャは、ユーザインタフェースを生成するデバイスに、ユーザが、カメラをベースとしたさらなる入力を行う準備ができたことを知らせるものである。誤操作を減らすため、関与表示ジェスチャは、通常の会話で無意識にボディランゲージとともに行われることのないジェスチャ、又は、通常の人間活動の一般的な行為として行われることのなジェスチャなど、非定型のジェスチャがよい。
システムがスタンバイ状態3001及び/又は通知状態3002の間に、ハンドジェスチャ識別処理は、関与表示ハンドジェスチャを識別することができる。図30に示すように、システムは、スタンバイ状態3001で関与表示ハンドジェスチャが検出された時にメニュー状態3004に入ることができる。システムは、通知状態3002で関与表示ハンドジェスチャが検出された時にコール状態3003に入ることができる。
システムは、コールの目的とする受信者、又は、システムで認定されたユーザのみがコールに応答できるように構成することができる。ハンドジェスチャ識別処理は、関与表示ハンドジェスチャを検出することができ、顔認識処理は、関与表示ハンドジェスチャを実行するユーザを識別することができる。この例では、関与表示ハンドジェスチャを行うユーザが顔認識処理によって、コールの目的とする受信者、又は、システムの認定ユーザとして識別された場合、あるいは、そのような場合に限り、システムはコール状態3003に入るようにすることができる。
非関与表示ハンドジェスチャを定義してもよい。非関与表示ハンドジェスチャは、ユーザにより偶発的に行われる見込みの少ないジェスチャでよい。図33に、非関与表示ハンドジェスチャを実行するユーザを含む、カメラ画像の例を示す。図33に示すように、代表的な非関与表示ハンドジェスチャは、手を水平方向に動かすことを含むことができる。
システムは、非関与表示ハンドジェスチャを検出すると、通知メッセージをミュートにするように構成することができる。通知状態3002において、プロセッサにより実行されるハンドジェスチャ識別処理が、カメラによって撮像された画像を非関与表示ハンドジェスチャについて監視することができる。プロセッサが非関与表示ハンドジェスチャを検出した場合、プロセッサは、スタンバイ状態3001に戻るようにシステムを導くことができる。
いくつかの実施例では、システムは、非関与表示ハンドジェスチャを検出した時にコールを切断するように構成することができる。コール状態3003において、プロセッサにより実行されるハンドジェスチャ識別処理は、カメラによって撮像されたモニタ画像を非関与表示ハンドジェスチャについて監視し、プロセッサが非関与表示ハンドジェスチャを検出した場合、プロセッサは、スタンバイ状態3001に戻るようにシステムを導くことができる。
ミュートハンドジェスチャも定義してもよい。ハンドジェスチャ識別処理は、カメラによって撮像された画像をミュートハンドジェスチャについて監視し、ミュートハンドジェスチャを検出した場合は、ミュート状態3013に入るようにすることができる。
システムは、ユーザに合焦するように構成してもよい。ユーザに合焦することは、カメラをパン又はズームして、ユーザの顔がカメラ画像の中央に特定のサイズで表示されるようにすることを含むことができる。ユーザに合焦することは、カメラ画像を、クロッピングして、スケール変更し、ユーザの顔がカメラ画像の中央に特定のサイズで表示されるようにすることを含むことができる。特定のサイズを、動きの範囲の中で、カメラ画像が、ユーザの腕を含むように定義することができる。また、ユーザが、カメラ画像のエッジから所定の距離の範囲内に到達できるように、特定のサイズを定義しして、相互連動する項目及びボタン(例えば、図5の項目502、504、505、506、507)を確実にユーザの到達範囲内とすることができる。
システムは、ユーザ基準位置に基づいてユーザに合焦するように構成してもよい。ユーザ基準位置は、顔検出処理によって検出することができる。例えば、ユーザ基準位置を、関与表示ハンドジェスチャが検出された位置と最も近接する顔位置として決定してもよい。
図34に、会議テーブルに座った複数の人間を含む、カメラ画像の例を示す。会議テーブルに座った複数の人間は、ビデオ会議セッションで拡大することができる。図34に示す、数字3401、3402、3403、3404、3405は、顔検出処理によって決定された顔位置を表す。関与表示ハンドジェスチャの位置は、番号3406で示されている。近接する顔位置(3404)がユーザ基準位置として選択される。近接する顔位置は、顔位置とジェスチャ位置との間の距離の水平成分の最小絶対値(3407)を有する顔位置とジェスチャ位置の組として算出してもよい。関与表示ハンドジェスチャの間、手の位置は頭の上方にあると予想されるため、距離の水平成分を分離することは有利であり得る。ユーザ基準位置は、また、区分された画像の前景部分の重心をユーザ位置として決定するユーザ位置処理によって決定してもよい。
ユーザが移動している間、システムは、ユーザ基準位置を追跡して(例えば、カメラ画像がユーザを追う)、カメラが、ユーザに合焦を維持するようにすることができる。カメラのパンニングとズーミングは、ユーザが、(例えば、ビデオ会議中に)送信された画像の中に確実に留まることを支援することができる。カメラのパンニングとズーミングは、また、ディスプレイ装置に表示することができるボタンが、確実にユーザが容易に到達できる範囲に留まることを支援することができる。
カメラをパンニング及びズーミングすることは、制御情報を電動アクチュエータに送信することを含むことができる。電動アクチュエータは、カメラ視点をパンニングし、カメラ光学部を操作して、カメラ画像をズームすることができる。ユーザに合焦することは、画像処理又はその他の演算技術を用いて、パン及びズーム機能をシミュレートすることを含むことができる。例えば、ユーザに合焦することは、カメラ画像をクロッピング及びスケール変更することによって、パン及びズーム機能をシミュレートすることを含むことができる。
図35及び36に、カメラ画像をクロッピング及びスケール変更することによって、ユーザに合焦する例を示す。図35に示すように、カメラ画像3501をクロッピングすることは、ユーザ基準位置3503を有するカメラ画像の部分3502を選択することを含むことができる。同様に、図36に示すように、カメラ画像3601をクロッピングすることは、ユーザ基準位置3603を有するカメラ画像の部分3602を選択することを含むことができる。カメラ画像をスケール変更することは、画像を拡大又はデシメーション(decimation)することによって画像を生成することを含み、こうして生成された画像のサイズを、その部分のサイズとは異なるようにすることができる。
システムは、ユーザ基準位置に基づいて、ユーザが中心となるように音を定位することをさらに含むことができる。マイクロホンは、複数のセンサ(例えば、複数のマイクロホン)を含むことができる。音像定位(sound localization)処理は、ユーザ基準位置に対応する方向からの音の感度を高くし、その他の方向からの音の感度を低くすることができる。例えば、音像定位処理を実行するプロセッサは、ユーザ基準位置から離れて配置されたマイクロホン又はセンサをオフにすることができる(例えば、プロセッサは、最も近接したマイクロホン又はセンサをオンのままにすることができる)。音像定位処理は、マイクロホンアレイのセンサによって受信された信号の位相と振幅を比較するビームフォーミング処理を用いることができる。
システムは、複数ユーザ環境(例えば、役員室)の場合、第1のユーザから第2のユーザに焦点を変更するように構成することができる。第1のユーザは、上述のように、ハンドジェスチャ(例えば、関与表示ハンドジェスチャ)を実行して、焦点を得ることができる。後に(しかし、同一のコールの間に)、第2のユーザがハンドジェスチャ(例えば、関与表示ハンドジェスチャ、又は、焦点移動ジェスチャ)を実行して、第1のユーザから焦点を得ることができる。例えば、第2のユーザによって実行された関与表示ハンドジェスチャの検出に応じて、カメラ画像が第1のユーザから第2のユーザにパンニングし、マイクロホンが第2のユーザに音を定位することができる。
図37に、第1のユーザから第2のユーザに焦点を変更するカメラ画像の例を示す。(図36の例と同様の画像を描写する)図37に示すように、カメラ画像3701の第1の部分3702を第1のユーザ基準位置3703に基づいて選択する。システムは、コール状態3003の際に動作するハンドジェスチャ識別処理を含む。カメラをパンニング及びズーミングすることがカメラ画像のクロッピングとスケール変更を含む実施例では、ハンドジェスチャ識別処理は、(例えば、部分3702のみではなく)全カメラ画像3701を分析し、第2のユーザを識別することができる。第2のユーザによる関与表示ハンドジェスチャが検出されると、第2のユーザ基準位置3705に基づいてカメラ画像3701の第2の部分3704が選択される。カメラ画像の部分(3702又は3704)は、画像圧縮処理によって圧縮して、ネットワークを介して送信することができる。この例では、複数ユーザ環境のユーザは、ハンドジェスチャを実行することによって、自らを発言者(active speaker)として選択させることができる。
システムはさらに、ユーザが焦点を得ることができる時に、制限を課す調停処理を含むことができる。例えば、調停処理は、第1のユーザの方向からの定位された音を分析し、音を音声と非音声とに分類し、第1のユーザの音声が検出されない場合に限り、第2のユーザが焦点を得ることを許可することによって、第2のユーザが第1のユーザを中断させることのないようにすることができる。調停処理は、焦点を取得するためのユーザ要求の待ち行列を作り、第1のユーザの音声がもはや検出されなくなると、待ち行列で2番目のユーザに焦点を合わせることができる。あるいは、調停処理は、焦点を取得するためのユーザ要求の待ち行列を作り、ジェスチャ識別処理が、第1のユーザにより実行されるハンドジェスチャを検出した時に、待ち行列で2番目のユーザに焦点を合わせることができる。これによって、第1のユーザは、自身が終了し、焦点を放棄する時を伝えることができる。
コール状態3003の間、システムは、合焦されたユーザのプレビュー画像を表示することができる。プレビュー画像は、パンニング及びズーミングされたカメラ画像、又は、クロッピングされてスケール変更されたカメラ画像の部分を含むことができる。プレビュー画像は、ユーザインタフェースの一部を占めることができる。遠隔のユーザの1以上のビデオ画像が、ユーザインタフェースの他の部分を占めてもよい。
システムに関与する、着信に応答する、などのいくつかの動作は、ハンドジェスチャを実行することによって、直接のユーザフィードバックなしに、実行することができる。しかし、直接のユーザフィードバックなしに、ユーザが実行可能なハンドジェスチャの数と複雑さは、ユーザの学習によって制限することができる。いくつかのシステム状態において、いくつかの動作は、連絡先の選択、又は、番号のダイアルなど、複雑なユーザとの相互連動を必要とする。これらの状態において、システムはユーザの描写を表示することができる。ユーザの描写を表示することは、ユーザが、画面の項目に接触することを支援することができ、ユーザの学習要件を減らし、直感的なインタフェースを実現する。ユーザの描写を生成する処理、ユーザの位置とアプリケーションが生成する項目とを比較する処理、及び、テキスト及び数字の入力を容易にする、機能強化されたユーザインタフェース処理について、以下、説明する。
システムは、メニュー状態3004を含むことができる。メニュー状態3004は、ユーザが異なる状態を選択する、ユーザがシステムのオプション又は設定を変更することを可能とする。図38に、メニュー状態ユーザインタフェース3801の一例を示す。メニュー状態ユーザインタフェース3801は、選択されると、システムを他の状態に切り替える、ボタン群(3802〜3807)を含む。ボタンの各々は、各ボタンのアイコン画像又はテキストによって各状態を表すことができる。
メニュー状態3004は、ユーザの識別(identity)を決定する顔認識処理を含むことができる。ユーザが認識されない場合、状態を使用不可とする、又は、特定の機能へのアクセスを不許可とすることができる。例えば、直接ダイアル状態は任意の連絡先にダイアルすることができるため、子供は直接ダイアル状態3005に入れないようにしてもよい。メニュー状態で状態(例えば、チェックしていないメッセージの数)を表示してもよい。
システムは直接ダイアル状態3005を含むことができる。直接ダイアル状態3005で、ユーザは、連絡先の番号又はアドレス(例えば、電話番号、電子メールアドレス、Skypeユーザハンドル名、Xbox Liveゲーマータグなど)を入力することができる。直接ダイアル状態3005は、ユーザの項目の選択を容易にする、機能強化されたユーザインタフェースを使用することができる。ユーザの項目の選択を容易にする機能強化されたユーザインタフェース処理は、数字、文字、一般的なフレーズ(例えば、「.com」ローカル電話エリアコード)、機能(例えば、バックスペース)を表す項目群を含むことができる。項目群は、通信ネットワークに基づいて決定することができる(例えば、電話回線網との接続が可能な場合は、項目群は数字を含むことができる)。文字又は数字はテキストとして入力することができる。
図39に、直接ダイアル状態ユーザインタフェース3900の一例を示す。文字を表す項目群が項目3902の描写として表示される。機能強化されたユーザインタフェース処理によって入力されるテキストは、テキスト3903として図示される。直接ダイアル状態3005では、最新の数字又は文字を削除することができるバックスペース機能のため、ボタン(例えば、ボタン3904)を表示する、又は、ハンドジェスチャを認識することができる。
直接ダイアル状態3005では、直前に入力された連絡先又は電話番号との通信を初期化する処理を開始するダイアル機能のため、ボタン(例えば、ボタン3905)を表示する、又はハンドジェスチャを認識することができる。ダイアル機能のためボタン又はハンドジェスチャはデフォルトでは使用不可であるが、連絡先情報の入力が完了した(例えば、正しい桁数の電話番号が入力された)と判断されると、使用可能とすることができる。直接ダイアル状態3005、又は接続オプション状態3009では、複数の様々な接続オプション(例えば、音声のみ、又は、音声と画像)を表す複数のダイアル機能を利用可能とすることができる。ダイアル機能を選択すると、システムは、接続オプション状態3009に入ることができる。あるいは、システムは、接続オプション状態を飛び越えて接続状態3010に直接進むことができる。
直接ダイアル状態3005はオートコンプリート処理を含むことができる。オートコンプリート処理は、部分的に入力された連絡先の番号又はアドレスに基づいて適合する可能性のある連絡先群を検索する。連絡先群は、最近ダイアルされた連絡先群、不在着信コール群、アドレス帳の連絡先群を含むことができる。オートコンプリート処理は、顔認識処理によって決定されたユーザの識別に基づいて連絡先群をフィルタリングすることを含んでもよい。例えば、識別されたユーザによってダイアルされた連絡先、又は、識別されたユーザの個人アドレス帳の連絡先のみを、適合する可能性があるとして考慮に含めてもよい。これは、ユーザのプライバシーを機能強化することができる。直接ダイアル状態3005において、オートコンプリート処理は、適合する可能性はユーザによって入力されたテキストとは区別される視覚的な様式(例えば、色)で表示してもよい(例えば、図39に示すテキスト3903の灰色文字)。オートコンプリート機能によって示された連絡先を受け付け、連絡先との通信を初期化する処理を開始するための受け付け機能のため、ボタン(例えば、3906)を表示する、又は、ハンドジェスチャを認識することができる。
直接ダイアル状態3005は、ユーザの識別を決定する顔認識処理を含むことができる。ユーザが入力し、ダイアルすることができる連絡先は、ユーザの識別に基づいて制限されてもよい。例えば、認識されないユーザは、長距離電話の番号をダイアルできないようにすることができる。
直接ダイアル状態3005は、システムをメニュー状態3004に戻す終了機能のため、ボタン(例えば、ボタン3907)を表示する、又は、ハンドジェスチャを認識することができる。あるいは、終了機能は、スタンバイ状態3001に戻してもよい。
システムは、検索状態3007を含むことができる。検索状態では、ユーザは、名前を入力することができる。システムは、入力された名前に対して適合する可能性について連作先群を検索することができる。検索状態は、ユーザの項目選択を容易にする機能強化されたユーザインタフェースを使用することができる。機能強化されたユーザインタフェースは、文字、数字、機能(例えば、バックスペース)を表す項目群を含むことができる。入力された文字又は数字は、テキストとして表示してもよい。
例えば、図39のユーザインタフェース3900は、ユーザが項目3902から文字を選択し、入力された文字をテキスト3903として表示する、検索状態ユーザインタフェースの一例を図示する。直接ダイアル状態3005と同様に、検索状態3007は、オートコンプリート処理を含むことができる。部分的に入力された連絡先、又は、完全に入力された連絡先に基づいて、検索処理は、適合する可能性について検索する。連絡先群は、最近ダイアルされた連絡先群、不在着信コール群、アドレス帳の連絡先群を含むことができる。オートコンプリート処理は、顔認識処理によって決定されたユーザの識別に基づいて連絡先群をフィルタリングすることを含んでもよい。例えば、そのユーザによってダイアルされた連絡先、又は、そのユーザの個人アドレス帳の連絡先のみを、適合する可能性があるとして考慮に含めてもよい。これは、ユーザのプライバシーを機能強化することができる。検索状態3007は、オートコンプリート処理で適合する可能性についてユーザによって入力されたテキストとは区別される視覚的な様式(例えば、色)で表示してもよい(例えば、図39に示すテキスト3903の灰色文字)。検索状態3007は、オートコンプリート機能によって示された連絡先を受け付け、連絡先との通信を初期化する処理を開始するための受け付け機能のため、ボタン(例えば、3906)を表示する、又は、ハンドジェスチャを認識することができる。
検索状態3007は、システムをメニュー状態3004に戻す終了機能のため、ボタン(例えば、ボタン3907)を表示する、又は、ハンドジェスチャを認識することができる。あるいは、終了機能は、スタンバイ状態3001に戻してもよい。システムは、リダイアル状態3006を含むことができる。リダイアル状態3006では、ユーザは、以前にダイアルした連絡先を選択することができる。リダイアル状態3006は、連絡先群をリストすることができる。連絡先群は、最近ダイアルした連絡先、発信コール、着信コール、不在着信コールを含むことができる。
リダイアル状態3006は、ユーザの識別を決定する顔認識処理を含むことができる。連絡先群は、ユーザの識別に基づいて連絡先群をフィルタリングしてもよい。例えば、識別されたユーザによって過去にダイアルされた連絡先のみを含めてもよい。
図40に、リダイアル状態ユーザインタフェース4000の一例を図示する。リダイアル状態は、連絡先群の部分群に対応する、ボタン群(例えば、ボタン4001)を表示する、又は、ハンドジェスチャ群を認識することができる。連絡先が選択されると、システムは、選択された連絡先との通信を初期化する処理を開始することができる。あるいは、システムは、連絡先と関連する機能を表す、追加のボタンを表示する、又は追加のハンドジェスチャを認識してもよい。連絡先と関連する機能は、連絡先に関する情報を表示すること、連絡先との通信方法(例えば、連絡先の携帯電話、オフィス、又は家庭の電話番号にダイアルする)を選択すること、連絡先にメッセージを送信する、又は、連絡先を群から削除することを含むことができる。
リダイアル状態は、ボタン(例えば、ボタン4002、4003)を表示する、又は、ハンドジェスチャを認識して、連絡先の部分群をスクロールすることをさらに含むことができる。ボタン4002、4003の一つを選択すると、連絡先の新しい部分群を選択することができる。スクロールによって、ユーザは、多数の連絡先の中からの選択が可能となる。
リダイアル状態3006は、ユーザの項目選択を容易にする機能強化されたユーザインタフェースを使用することができる。機能強化されたユーザインタフェースは、連絡先を表す群を含むことができる。図41に、リダイアル状態ユーザインタフェース4100の一例を図示する。大きなリストが表示されるように、項目群4102は小さいサイズで表示される。連絡先のサイズと位置は、連絡先の選択を容易にするために動的に調整される。図41に示すように、項目群4102は、ガイドライン4101に対して配列することができる。この図では、ガイドラインは垂直向きになっている。機能強化されたユーザインタフェースは、カテゴリーを表す第1の群を含むことができる。第1の群の項目を選択することにより、第1の選択されたカテゴリーの下で埋められた連絡先フィールドを含む第2の項目群を表示することができる。カテゴリーは、アルファベットの文字を含み、カテゴリーの項目はその文字で開始する連絡先を含むことができる。
連絡先を表示することは、連絡先の状態を表示することを含んでもよい。状態は、連絡先の利用可能性(例えば、連絡先が現在オンラインか否か)を表してもよい。リダイアル状態3006は、システムをメニュー状態3004に戻す終了機能のため、ボタン(例えば、ボタン4104)を表示する、又は、ハンドジェスチャを認識することができる。あるいは、終了機能は、スタンバイ状態3001に戻してもよい。
システムは、ブラウザ状態3008を含むことができる。ブラウザ状態3008では、ユーザは既知の連絡先を選択することができる。ブラウザ状態3008は、連絡先群をリストしてもよい。連絡先群は、個人連絡先リストの連絡先、遠隔データベースの連絡先(例えば、オンライン電話帳、社員名簿)を含むことができ、また、人名、会社名、部署名などを含んでもよい。
ブラウザ状態3008は、ユーザの識別を決定する顔認識処理を含むことができる。ユーザの識別に基づいて連絡先群をフィルタリングしてもよい。例えば、連絡先群は、識別されたユーザの個人アドレス帳の連絡先を含んでもよい。他の例では、連絡先群は、認定されたユーザが識別されない場合、データベースの連絡先を除外してもよい(例えば、未成年のユーザが成人向けビジネスに連絡することを回避することができる)。
ブラウザ状態3008のユーザインタフェースは、図40に図示したユーザインタフェース4000と類似に表示することができる。ブラウザ状態3008は、連絡先群の部分群の連絡先ごとにボタンを表示する、又はハンドジェスチャを認識することができる。連絡先が選択されると、システムは、選択された連絡先との通信を初期化する処理を開始することができる。さらに、システムは、連絡先と関連する機能を表す、追加のボタンを表示する又は追加のハンドジェスチャを認識してもよい。連絡先と関連する機能は、連絡先に関する情報を表示すること、連絡先との通信方法(例えば、連絡先の携帯電話、オフィス、又は家庭の電話番号にダイアルする)を選択すること、連絡先にメッセージを送信する、又は、連絡先に関する情報(アドレス又は宣伝)を表示することを含むことができる。これらのオプションは、リダイアル状態3006、又は、接続オプション状態3009で提示してもよい。ダイアル機能を選択すると、システムは、接続オプション状態3009に入ることができる。あるいは、システムは、接続オプション状態を飛び越えて接続状態3010に直接進むことができる。
ブラウザ状態3008は、1以上のボタンを表示する、又は、ハンドジェスチャを認識して、連絡先の部分群をスクロールすることをさらに含むことができる。スクロールボタンが選択される、又は、スクロールハンドジェスチャが実行されると、連絡先の新しい部分群を選択することができる。スクロールによって、ユーザは、多数の連絡先の中からの選択が可能となる。
ブラウザ状態3008は、ユーザの項目選択を容易にする機能強化されたユーザインタフェースを使用することができる。連絡先は小さいサイズで表示してもよい。連絡先のサイズと位置は、連絡先の選択を容易にするために動的に調整してもよい。機能強化されたユーザインタフェースは、カテゴリーを表す第1の群を含むことができる。第1の群の項目を選択することにより第2の項目群を表示することができる。第2の群は、第1の選択されたカテゴリーの下で埋められた連絡先フィールドを含む。カテゴリーは、アルファベットの文字を含み、カテゴリーの項目はその文字で開始する連絡先を含むことができる。カテゴリーは、ユーザとの関係を表すキーワード(例えば、友人、家族、仕事関係者)を含んでもよい。カテゴリーは、サービス(例えば、販売、サポート、出荷)を表すキーワードを含んでもよい。
連絡先を表示することは、連絡先の状態を表示することを含んでもよい。状態は、連絡先の利用可能性(例えば、連絡先が現在オンラインか否か、在席か、離席か、邪魔しないことを要求しているか)を表してもよい。状態は、アイコン(例えば、アイコン4005)によって表してもよい。接続オプション及び情報状態3009は、複数の様々な接続オプション(例えば、音声のみ、又は、音声と画像、連絡先の携帯電話、オフィス、又は家庭の電話番号にダイアルする)ことを表すことができる。接続オプション及び情報状態3009は、連絡先にメッセージを送信する、連絡先群に連絡先を追加、又は、連絡先群から連絡先を削除するオプションを提供してもよい。接続オプション及び情報状態3009は、連絡先に関する情報をさらに表示してもよい。
図42に、接続オプション及び情報状態ユーザインタフェース4200の例を示す。状態3009は、接続方法ごとに、ボタン(例えば、ボタン4201、4202、4203)を含む、又は、ハンドジェスチャを認識してもよい。接続方法を選択することによって、処理が接続状態3010に移行するようにしてもよい。接続方法を表示することは、接続方法の状態を表示することを含んでもよい。状態は、その方法による連絡先との接続の利用可能性(例えば、連絡先が現在オンラインであるか否か、離席か、又は邪魔されないことを要求しているか)を表してもよい。状態は、アイコン(例えば、アイコン4204)によって表してもよい。
接続オプション状態3009は、メッセージ機能のため、ボタン(例えば、ボタン4205)を含んでもよいし、又は、ハンドジェスチャを認識してもよい。メッセージ機能は、ユーザがメッセージを記録することを可能にする。メッセージは連絡先に送信してもよい。
連絡先がユーザの連絡先リストにない場合、接続オプション状態3009は、連絡先をユーザの連絡先リストに追加する機能のため、ボタンを含んでもよいし、又は、ハンドジェスチャを認識してもよい。連絡先がユーザの連絡先リストの連絡先にある場合、状態は、連絡先をユーザの連絡先リストから削除する機能のため、ボタン(例えば、ボタン4206)を含んでもよいし、又は、ハンドジェスチャを認識してもよい。状態は、また、システムをメニュー状態3004に戻す終了機能のため、ボタン(例えば、ボタン4207)を表示する、又は、ハンドジェスチャを認識することができる。あるいは、終了機能は、スタンバイ状態3001に戻してもよい。
接続オプション状態3009は、連絡先4208、又は連絡先に関する情報4209を表示してもよい。接続先に関する情報を表示することは、データベースから情報を検索して取り出すことを含むことができる。システムは、接続状態3010で選択された連絡先との通信を初期化する処理を含んでもよい。ユーザによる電話番号又は連絡先の入力の完了、オートコンプリート処理の開始、ダイアル機能の選択、着信の受け付けなどに応じて、処理は、接続状態3010に進むことができる。
システムは、顔認識処理を含んでもよい。遠隔のユーザとの通信が確立すると、発信者の識別を送信し、遠隔のユーザのシステムが、コールしている人間の識別を表示できるようにしてもよい。システムは、接続状態3010の間、接続状態を表示してもよい。接続状態は、接続の強度(例えば、強弱)を示してもよく、又は、接続の利用可能性(例えば、接続しているか、切断しているか)を示してもよい。
メッセージメニュー状態3011は、ユーザがメッセージをチェックすることを可能にする。メッセージメニュー状態3011は、メッセージのリストを提示してもよい。メッセージのリストは、図40又は図41に示す連絡先のリストと同様としてもよい。メッセージを選択すると、メッセージをメッセージ再生状態3102で再生することができる。
メッセージ再生状態3012でメッセージを再生することは、音声又はビデオの録画を提示することを含んでもよい。メッセージ再生状態3012は、再生動作(例えば、一時停止、早送り、巻き戻し、消去)に対応するボタン群を表示してもよく、又はハンドジェスチャ群を認識してもよい。
メッセージ再生状態3012の一実施例では、ユーザの描写は、再生するビデオ録画の一部を遮ってもよい。ユーザの描写は、録画されたビデオと混合されてもよい。あるいは、ユーザの描写は、メッセージ状態ユーザインタフェースの独立した一部として表示してもよい。
図43に、メッセージ再生状態のユーザインタフェースの一例を図示する。図43の例に示すように、ユーザインタフェース4300は、録画されたビデオが再生されている部分4301を含むことができる。ユーザインタフェース4300は、ユーザの描写が表示されている部分4302も含むことができる。部分4302がボタン(例えば、ボタン4303)を含み、再生動作にアクセスできるようにしてもよい。ユーザインタフェースはさらに、連絡先及びメッセージ(日付と時間)に関する情報4304を含んでもよい。
ミュート状態3013は、ローカルユーザにコール時のプライバシーを提供することができる。ミュート状態3013は、遠隔のユーザを継続して表示してもよい。ミュート状態3013は、コールを再開して、再びコール状態3003に入るためのボタンを含んでもよく、又はハンドジェスチャを認識してもよい。ミュート状態3013は、コールを終了して、スタンバイ状態3001又はメニュー状態3004に入るためのボタンを含んでもよく、又はハンドジェスチャを認識してもよい。ミュート状態3013は、直接ダイアル3005、リダイアル3006、検索3007、又はブラウザ状態3008に入るためのボタンを含んでもよく、又はハンドジェスチャを認識してもよい。選択された連絡先を、既存のコールに追加してもよい(例えば、三者通話)。
システムは、構成設定状態3014を含んでもよい。構成設定状態3014は、通信とネットワークオプション(例えば、IPアドレス)を提示してもよい。構成設定状態3014は、個人アドレス帳機能(例えば、連絡先の追加、編集又は削除)を提示してもよい。構成設定状態3014は、ユーザの顔を分析して、ユーザの名前とともに保存する、顔認識学習処理を含んでもよい。保存された画像は、顔認識処理においてテンプレートとして用いることができる。
図44は、汎用又は専用コンピュータシステム4400の一例の概略図である。本システム4400は、一実施例に係る処理400で説明した動作について使用してもよい。システム4400はプロセッサ4410、メモリ4420、ストレージデバイス4430、入力/出力デバイス4440を含む。構成部4410、4420、4430、4440の各々は、システムバス4450を用いて相互接続されている。プロセッサ4410は、システムの内部で実行する命令の処理を行うことができる。一実施例では、プロセッサ4410は、シングルスレッド(single−threaded)プロセッサである。他の実施例では、プロセッサ4410は、マルチスレッド(multi−threaded)プロセッサである。プロセッサ4410は、メモリ4420又はストレージデバイス4430に保存された命令を実行し、入力/出力デバイス4440のユーザインタフェースに図形情報を表示することができる。
メモリ4420は、情報をシステム4400内部の情報を保存する。一実施例では、メモリ4420は、コンピュータ可読媒体である。一実施例では、メモリ4420は、揮発性メモリユニットである。他の実施例では、メモリ4420は、不揮発性メモリユニットである。
ストレージデバイス4430は、システム4400のためのマスストレージを提供することができる。一実施例では、ストレージデバイス4430は、コンピュータ可読媒体である。様々な異なる実施例では、ストレージデバイス4430は、フロッピー(登録商標)ディスクデバイス、ハードディスクデバイス、光ディスクデバイス、又はテープデバイスであってもよい。
入力/出力デバイス4440は、システム4400に入力/出力動作を行わせる。一実施例では、入力/出力デバイス4440は、キーボード及び/又は、ポインティングデバイスを含む。他の実施例では、入力/出力デバイス4440は、グラフィカルユーザインタフェースを表示するためのディスプレイ装置を含む。
記載した本機能は、デジタル電子回路、コンピュータハードウェア、ファームウェア、ソフトウェア、又は、それらの組み合わせで実装してもよい。装置は、例えば、プログラマブルプロセッサによって実行されるために、マシン可読媒体、又は伝播される信号などの情報坦体で有形に具現化されるコンピュータプログラム製品によって実装してもよい。方法ステップは、命令のプログラムを実行して、入力データで動作して出力を生成することによる記載の実施例の機能を実行する、プログラマブルプロセッサによって実行してもよい。記載の機能は、データストレージシステム、少なくとも一つの入力デバイス、及び、少なくとも一つの出力デバイスとデータ及び命令を送受信するように連結された、少なくとも一つのプログラマブルプロセッサを含む、プログラマシステムで実行可能な1以上のコンピュータプログラムによって有利に実装することができる。コンピュータプログラムは命令群であり、特定の動作を実行する、又は特定の結果を生じるためにコンピュータで直接的に、又は間接的に利用してもよい。コンピュータプログラムは、コンパイラ型言語、インタプリタ型言語を含む、任意の形式のプログラミング言語で記述されてよい。コンピュータプログラムは、スタンドアローンプログラムとして、又は、モジュール、コンポーネント、サブルーチン又は、コンピューティング環境の使用に好適なその他のユニットとして展開することができる。
命令プログラムを実行するための好適なプロセッサは、例えば、汎用及び専用マイクロプロセッサ、及び、任意の種類のコンピュータの単一(sole)プロセッサ、又はマルチプロセッサの一つでもよい。一般的に、プロセッサは、読み出し専用メモリ、又はランダムアクセスメモリ、あるいは、その両方から、命令とデータを受け取る。コンピュータの基本要素は、命令を実行するプロセッサと、命令とデータを保存する1以上のメモリである。一般的に、コンピュータは、データファイルを保存する1以上のマスストレージデバイスを含む、又は、該マスストレージデバイスと通信をして動作可能に接続される。かかるマスストレージデバイスは、内部ハードディスク及び脱着可能なディスクなどの磁気ディスク、光磁気ディスク、及び光ディスクを含む。コンピュータプログラム命令とデータを有形に具現化するために好適なストレージデバイスは、例えば、半導体メモリ、磁気ディスク、磁気光ディスク、及びCD−ROM、DVD―ROMディスクを含むあらゆる形式の不揮発性メモリを含む。かかる半導体メモリとして、例えば、EPROM、EEPROM、フラッシュメモリがあげられる。磁気ディスクとして、例えば、内部ハードディスク及び脱着可能なディスがあげられる。プロセッサ及びメモリは、ASICs(application specific integrated circuits)によって追加されてもよいし、該ASICsに統合されてもよい。
ユーザとの相互連動を提供するため、本機能を、ユーザに情報を表示するディスプレイ装置、キーボード及びポインティングデバイスを有するコンピュータに実装してもよい。ディスプレイ装置は、例えば、CRT(陰極線管)又はLCD(液晶ディスプレイ)モニタなどでよく、ポインティングデバイスは、例えば、ユーザがコンピュータに入力を行うことができるマウス又はトラックボールなどでよい。
本機能は、データサーバなどの、バックエンドコンポーネントを含むコンピュータシステム、又は、アプリケーションサーバ又はインターネットサーバなどの、ミドルウェアコンポーネントを含むコンピュータシステム、又は、グラフィカルユーザインタフェース又はインターネットブラウザ、又はそれらの任意の組み合わせを有する、クライアントコンピュータなどの、フロントエンドコンポーネントを含むコンピュータシステムに実装してもよい。システムのコンポーネントは、通信ネットワークなどの任意の形式又は媒体のデジタルデータ通信によって接続されてもよい。通信ネットワークの例として、例えば、LAN、WAN、及びインターネットを形成するコンピュータとネットワークが含まれる。
コンピュータシステムは、クライアントとサーバを含んでもよい。クライアントとサーバは、一般的に、相互に離れて、通常、上述したものなどのネットワークを介して相互連動する。クライアントとサーバの関係は、それぞれのコンピュータで動作し、相対的にクライアントとサーバの関係を有するコンピュータプログラムによって生じる。
複数の実施例について説明した。しかしながら、特許請求の範囲の趣旨と範囲から逸脱することなく、様々な変形が可能であることは理解される。したがって、これ以外の実施の形態も以下に記載する特許請求の範囲の中に含まれる。

Claims (20)

  1. 一連のカメラ画像からユーザのジェスチャを認識するステップと、
    コントロールとユーザの描写を含むユーザインタフェースを生成するステップと、
    認識されたジェスチャに基づいて前記描写を前記コントロールと相互連動させるステップと、
    前記相互連動に基づいてテレコミュニケーションセッションを制御するステップと、を含む、コンピュータにより実施される方法。
  2. テレコミュニケーションセッションを制御するステップは、
    前記テレコミュニケーションセッションを第1の状態から、異なる第2の状態に変更するステップをさらに含み、
    第1の状態又は第2の状態は、スタンバイ状態、通知状態、発信コール状態、接続状態、ミュート状態、メニュー状態、接続オプション状態、直接ダイアル状態、リダイアル状態、検索状態、ブラウザ状態、メッセージメニュー状態、メッセージ再生状態、又は構成設定状態を含む、請求項1記載の方法。
  3. 前記テレコミュニケーションセッションは、音声とビデオのテレコミュニケーションセッションをさらに含む、請求項1記載の方法。
  4. 前記テレコミュニケーションセッションを制御するステップは、
    関与表示ジェスチャの認識に基づいて、前記テレコミュニケーションセッションをスタンバイ状態からコール又はメニュー状態に変更するステップをさらに含む、請求項1記載の方法。
  5. ユーザの識別を決定するステップと、
    決定された識別に基づいて前記コントロールを使用可能とするステップと、をさらに含む、請求項1記載の方法。
  6. ユーザの前記決定された識別がコールの目的とされる受信者に適合した場合に限り、前記テレコミュニケーションセッションを接続状態からコール状態に変更するステップをさらに含む、請求項5記載の方法。
  7. 前記カメラ画像の中の複数のユーザの識別を決定するステップと、
    決定された複数の識別の少なくとも一つに基づいて前記コントロールを使用可能又は使用不可にするステップと、をさらに含む、請求項1記載の方法。
  8. 前記テレコミュニケーションセッションを制御するステップは、
    非関与表示ジェスチャの認識に基づいて、前記テレコミュニケーションセッションをスタンバイ状態に変更するステップをさらに含む、請求項1記載の方法。
  9. 前記カメラ画像の一つをユーザに合焦するステップをさらに含む、請求項1記載の方法。
  10. 前記カメラ画像の一つを合焦するステップは、移動しているユーザにカメラの焦点を保持するステップをさらに含む、請求項9記載の方法。
  11. 前記カメラ画像の一つを合焦するステップは、前記カメラ画像の一つをユーザを中心に合わせるステップをさらに含む、請求項9記載の方法。
  12. ユーザが中心となるように音声を定位するステップをさらに含む、請求項1記載の方法。
  13. 前記ユーザのジェスチャを認識するステップが、
    第1のユーザが第1の関与表示ジェスチャを実行した後に第2のユーザが第2の関与表示ジェスチャを実行したことを認識するステップをさらに含み、
    前記テレコミュニケーションセッションを制御するステップが、前記第2のユーザが前記第2の関与表示ジェスチャを実行したことの認識に基づいて、前記第2のユーザに焦点を変更するステップをさらに含む、請求項1記載の方法。
  14. 前記第1のユーザが焦点を放棄したか否かを判定するステップを含み、
    前記第1のユーザが前記焦点を放棄した場合に限り、前記焦点は変更される、請求項13記載の方法。
  15. 前記第1のユーザが焦点を放棄したか否かを判定するステップが、
    前記第1のユーザが話しを終えたか否かを判定するステップをさらに含む、請求項14記載の方法。
  16. 前記第1のユーザが焦点を放棄したか否かを判定するステップが、前記第1のユーザが放棄ジェスチャを実行したか否かを判定するステップをさらに含む、請求項14記載の方法。
  17. ユーザの識別を決定するステップをさらに含み、
    前記テレコミュニケーションセッションを制御するステップは、ブラウザ状態で、決定された識別に対応する連絡先群を表示するステップをさらに含む、請求項1記載の方法。
  18. 顔認識に基づいてユーザの識別を決定するステップをさらに含み、
    前記テレコミュニケーションセッションを制御するステップは、前記ユーザによってかけられたコールの受信者に、決定された前記ユーザの識別を送信するステップをさらに含む、請求項1記載の方法。
  19. 一連のカメラ画像からユーザのジェスチャを認識し、
    コントロールとユーザの描写を含むユーザインタフェースを生成し、
    認識されたジェスチャに基づいて前記描写を前記コントロールと相互連動させ、
    前記相互連動に基づいてテレコミュニケーションセッションを制御するように構成されたプロセッサを含む、デバイス。
  20. 一連のカメラ画像からユーザのジェスチャを認識するステップと、
    コントロールとユーザの描写を含むユーザインタフェースを生成するステップと、
    認識されたジェスチャに基づいて前記描写を前記コントロールと相互連動させるステップと、
    前記相互連動に基づいてテレコミュニケーションセッションを制御するステップと、
    を含む動作を、実行時に、コンピュータに実行させる命令を含むコンピュータプログラムで符号化されたコンピュータ可読媒体。
JP2010527077A 2007-09-24 2008-09-23 音声及びビデオ通信のための機能向上したインタフェース Active JP5559691B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US97477407P 2007-09-24 2007-09-24
US60/974,774 2007-09-24
PCT/US2008/077351 WO2009042579A1 (en) 2007-09-24 2008-09-23 Enhanced interface for voice and video communications

Publications (2)

Publication Number Publication Date
JP2010541398A true JP2010541398A (ja) 2010-12-24
JP5559691B2 JP5559691B2 (ja) 2014-07-23

Family

ID=40471157

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010527077A Active JP5559691B2 (ja) 2007-09-24 2008-09-23 音声及びビデオ通信のための機能向上したインタフェース

Country Status (5)

Country Link
US (2) US8325214B2 (ja)
EP (2) EP2201761B1 (ja)
JP (1) JP5559691B2 (ja)
CN (2) CN103442201B (ja)
WO (1) WO2009042579A1 (ja)

Cited By (35)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012137899A (ja) * 2010-12-27 2012-07-19 Hitachi Consumer Electronics Co Ltd 映像処理装置及び映像表示装置
WO2012121405A1 (en) * 2011-03-07 2012-09-13 Sharp Kabushiki Kaisha A user interface, a device having a user interface and a method of providing a user interface
JP2012244374A (ja) * 2011-05-19 2012-12-10 Konica Minolta Business Technologies Inc 会議システム、会議管理装置、会議管理方法およびプログラム
JP2013012158A (ja) * 2011-06-30 2013-01-17 Toshiba Corp 電子機器および制御方法
JP2013025488A (ja) * 2011-07-19 2013-02-04 Ricoh Co Ltd 情報処理装置および情報処理方法
WO2013038733A1 (ja) * 2011-09-15 2013-03-21 オムロン株式会社 ジェスチャ認識装置、電子機器、ジェスチャ認識装置の制御方法、制御プログラムおよび記録媒体
WO2013038734A1 (ja) * 2011-09-15 2013-03-21 オムロン株式会社 ジェスチャ認識装置、電子機器、ジェスチャ認識装置の制御方法、制御プログラムおよび記録媒体
JP2013141236A (ja) * 2011-12-28 2013-07-18 Samsung Electronics Co Ltd ディスプレイ装置、映像処理システム、ディスプレイ方法及び映像処理方法
WO2013114806A1 (ja) * 2012-01-30 2013-08-08 九州日本電気ソフトウェア株式会社 生体認証装置及び生体認証方法
JP2013171490A (ja) * 2012-02-22 2013-09-02 Tokyo Denki Univ タッチ位置入力装置及びタッチ位置入力方法
JP2013239113A (ja) * 2012-05-17 2013-11-28 Sharp Corp 電子機器、電子機器におけるアイコン操作方法、および電子機器におけるアイコン操作をコンピュータに実行させるコンピュータプログラム
JP2013246743A (ja) * 2012-05-29 2013-12-09 Sony Corp 画像処理装置、およびプログラム
WO2014010543A1 (ja) * 2012-07-09 2014-01-16 Necカシオモバイルコミュニケーションズ株式会社 情報処理装置、入力受付方法及びプログラム
JP2014501415A (ja) * 2011-01-05 2014-01-20 ソフトキネティック ソフトウェア 自然なジェスチャに基づくユーザ・インターフェース方法及びシステム
KR20140039641A (ko) * 2012-09-24 2014-04-02 엘지전자 주식회사 영상표시장치, 및 그 동작방법
JP2014509758A (ja) * 2011-02-28 2014-04-21 フェイスケーキ マーケティング テクノロジーズ,インコーポレイテッド リアルタイムの仮想反射
WO2014119258A1 (ja) * 2013-01-31 2014-08-07 パナソニック株式会社 情報処理方法及び情報処理装置
JP2015507391A (ja) * 2011-12-05 2015-03-05 アルカテル−ルーセント ジェスチャを認識するための方法およびジェスチャ検出器
JP2015061086A (ja) * 2013-09-17 2015-03-30 株式会社リコー 伝送端末及びプログラム
JP2015524110A (ja) * 2012-06-01 2015-08-20 マイクロソフト コーポレーション コンテキスト・ユーザー・インターフェース
JP2015531197A (ja) * 2012-08-03 2015-10-29 アルカテル−ルーセント ビデオ会議中の参加者の映像ミュートを可能にするための方法および装置
WO2016002306A1 (ja) * 2014-07-02 2016-01-07 ソニー株式会社 情報処理システム、情報処理端末、および情報処理方法
JPWO2013175847A1 (ja) * 2012-05-22 2016-01-12 ソニー株式会社 画像処理装置、画像処理方法、及びプログラム
JP2016038810A (ja) * 2014-08-08 2016-03-22 株式会社東芝 仮想試着装置、仮想試着方法、およびプログラム
JP2017027098A (ja) * 2015-07-15 2017-02-02 株式会社東芝 操作認識装置、操作認識方法及びプログラム
JP2018005660A (ja) * 2016-07-05 2018-01-11 株式会社リコー 情報処理装置、プログラム、位置情報作成方法、情報処理システム
JP6275891B1 (ja) * 2017-01-27 2018-02-07 株式会社コロプラ 仮想空間を介して通信するための方法、当該方法をコンピュータに実行させるためのプログラム、および当該プログラムを実行するための情報処理装置
JP2019191946A (ja) * 2018-04-25 2019-10-31 パイオニア株式会社 情報処理装置
KR20200075149A (ko) * 2018-12-13 2020-06-26 한동대학교 산학협력단 인공지능 기반의 사용자 동작 인식을 통한 브라우저 제어 방법
KR20200087284A (ko) * 2012-08-01 2020-07-20 구글 엘엘씨 영상 회의 시스템에서의 아바타 이용
JP2021516836A (ja) * 2018-08-28 2021-07-08 テンセント・テクノロジー・(シェンジェン)・カンパニー・リミテッド アプリケーションシーンにおけるインタラクティブ方法並びにその方法を実行するモバイル端末及びコンピュータプログラム
JP2021176212A (ja) * 2020-05-01 2021-11-04 tonari株式会社 仮想的空間接続装置
US11294470B2 (en) 2014-01-07 2022-04-05 Sony Depthsensing Solutions Sa/Nv Human-to-computer natural three-dimensional hand gesture based navigation method
JP2022128366A (ja) * 2021-02-22 2022-09-01 Rsupport株式会社 人工ニューラルネットワークを用いた動作認識のテレビ会議方法
US11513601B2 (en) 2012-07-13 2022-11-29 Sony Depthsensing Solutions Sa/Nv Method and system for human-to-computer gesture based simultaneous interactions using singular points of interest on a hand

Families Citing this family (352)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8352400B2 (en) 1991-12-23 2013-01-08 Hoffberg Steven M Adaptive pattern recognition based controller apparatus and method and human-factored interface therefore
US7904187B2 (en) 1999-02-01 2011-03-08 Hoffberg Steven M Internet appliance system and method
EP1676442A2 (en) * 2003-10-24 2006-07-05 Reactrix Systems, Inc. Method and system for managing an interactive video display system
KR100960577B1 (ko) 2005-02-08 2010-06-03 오블롱 인더스트리즈, 인크 제스처 기반의 제어 시스템을 위한 시스템 및 방법
EP1889171A4 (en) * 2005-04-07 2012-11-28 Visionsense Ltd METHOD FOR RECONSTRUCTING A THREE-DIMENSIONAL SURFACE OF AN OBJECT
US9128519B1 (en) 2005-04-15 2015-09-08 Intellectual Ventures Holding 67 Llc Method and system for state-based control of objects
US11769398B2 (en) 2005-09-08 2023-09-26 Universal Electronics Inc. System and method for widget-assisted setup of a universal remote control
US9805591B2 (en) 2005-09-08 2017-10-31 Universal Electronics Inc. System and method for widget-assisted setup of a universal remote control
US8537111B2 (en) * 2006-02-08 2013-09-17 Oblong Industries, Inc. Control system for navigating a principal dimension of a data space
US8370383B2 (en) 2006-02-08 2013-02-05 Oblong Industries, Inc. Multi-process interactive systems and methods
US20090278915A1 (en) * 2006-02-08 2009-11-12 Oblong Industries, Inc. Gesture-Based Control System For Vehicle Interfaces
US8531396B2 (en) 2006-02-08 2013-09-10 Oblong Industries, Inc. Control system for navigating a principal dimension of a data space
US9823747B2 (en) 2006-02-08 2017-11-21 Oblong Industries, Inc. Spatial, multi-modal control device for use with spatial operating system
US9075441B2 (en) * 2006-02-08 2015-07-07 Oblong Industries, Inc. Gesture based control using three-dimensional information extracted over an extended depth of field
US9910497B2 (en) * 2006-02-08 2018-03-06 Oblong Industries, Inc. Gestural control of autonomous and semi-autonomous systems
US8537112B2 (en) * 2006-02-08 2013-09-17 Oblong Industries, Inc. Control system for navigating a principal dimension of a data space
US8059887B2 (en) * 2006-09-25 2011-11-15 Sri International System and method for providing mobile range sensing
WO2008124820A1 (en) * 2007-04-10 2008-10-16 Reactrix Systems, Inc. Display using a three dimensional vision system
JP5905662B2 (ja) 2007-04-24 2016-04-20 オブロング・インダストリーズ・インコーポレーテッド プロテイン、プール、およびスロークス処理環境
EP2188737A4 (en) 2007-09-14 2011-05-18 Intellectual Ventures Holding 67 Llc PROCESSING BREAKFAST USER INTERACTIONS
CN103442201B (zh) 2007-09-24 2018-01-02 高通股份有限公司 用于语音和视频通信的增强接口
US8159682B2 (en) 2007-11-12 2012-04-17 Intellectual Ventures Holding 67 Llc Lens system
US9330589B2 (en) 2011-11-16 2016-05-03 Nanolumens Acquisition, Inc. Systems for facilitating virtual presence
US20090177976A1 (en) 2008-01-09 2009-07-09 Bokor Brian R Managing and presenting avatar mood effects in a virtual world
US20100039500A1 (en) * 2008-02-15 2010-02-18 Matthew Bell Self-Contained 3D Vision System Utilizing Stereo Camera and Patterned Illuminator
US8259163B2 (en) 2008-03-07 2012-09-04 Intellectual Ventures Holding 67 Llc Display with built in 3D sensing
WO2009128064A2 (en) * 2008-04-14 2009-10-22 Pointgrab Ltd. Vision based pointing device emulation
KR101599875B1 (ko) * 2008-04-17 2016-03-14 삼성전자주식회사 멀티미디어의 컨텐트 특성에 기반한 멀티미디어 부호화 방법 및 장치, 멀티미디어의 컨텐트 특성에 기반한 멀티미디어 복호화 방법 및 장치
KR20090110242A (ko) * 2008-04-17 2009-10-21 삼성전자주식회사 오디오 신호를 처리하는 방법 및 장치
KR20090110244A (ko) * 2008-04-17 2009-10-21 삼성전자주식회사 오디오 시맨틱 정보를 이용한 오디오 신호의 부호화/복호화 방법 및 그 장치
DE102008020772A1 (de) * 2008-04-21 2009-10-22 Carl Zeiss 3D Metrology Services Gmbh Darstellung von Ergebnissen einer Vermessung von Werkstücken
US9740922B2 (en) 2008-04-24 2017-08-22 Oblong Industries, Inc. Adaptive tracking system for spatial input devices
US10642364B2 (en) 2009-04-02 2020-05-05 Oblong Industries, Inc. Processing tracking and recognition data in gestural recognition systems
US8723795B2 (en) 2008-04-24 2014-05-13 Oblong Industries, Inc. Detecting, representing, and interpreting three-space input: gestural continuum subsuming freespace, proximal, and surface-contact modes
US9740293B2 (en) 2009-04-02 2017-08-22 Oblong Industries, Inc. Operating environment with gestural control and multiple client devices, displays, and users
US9684380B2 (en) 2009-04-02 2017-06-20 Oblong Industries, Inc. Operating environment with gestural control and multiple client devices, displays, and users
US9495013B2 (en) 2008-04-24 2016-11-15 Oblong Industries, Inc. Multi-modal gestural interface
US9952673B2 (en) 2009-04-02 2018-04-24 Oblong Industries, Inc. Operating environment comprising multiple client devices, multiple displays, multiple users, and gestural control
US8595218B2 (en) * 2008-06-12 2013-11-26 Intellectual Ventures Holding 67 Llc Interactive display management systems and methods
US8433101B2 (en) * 2008-07-31 2013-04-30 Samsung Electronics Co., Ltd. System and method for waving detection based on object trajectory
JP5410720B2 (ja) * 2008-09-25 2014-02-05 日立コンシューマエレクトロニクス株式会社 ディジタル情報信号送受信装置、およびディジタル情報信号送受信方法
US20100091085A1 (en) * 2008-10-15 2010-04-15 Sony Corporation And Sony Electronics Inc. Augmenting tv menu icon with images in front of tv
US9586135B1 (en) 2008-11-12 2017-03-07 David G. Capper Video motion capture for wireless gaming
US10086262B1 (en) 2008-11-12 2018-10-02 David G. Capper Video motion capture for wireless gaming
US9383814B1 (en) 2008-11-12 2016-07-05 David G. Capper Plug and play wireless video game
US8788977B2 (en) * 2008-11-20 2014-07-22 Amazon Technologies, Inc. Movement recognition as input mechanism
US20100131864A1 (en) * 2008-11-21 2010-05-27 Bokor Brian R Avatar profile creation and linking in a virtual world
US20100153858A1 (en) * 2008-12-11 2010-06-17 Paul Gausman Uniform virtual environments
US20100199231A1 (en) * 2009-01-30 2010-08-05 Microsoft Corporation Predictive determination
US7996793B2 (en) * 2009-01-30 2011-08-09 Microsoft Corporation Gesture recognizer system architecture
US20100228153A1 (en) * 2009-03-05 2010-09-09 Searete Llc, A Limited Liability Corporation Of The State Of Delaware Postural information system and method
US9024976B2 (en) 2009-03-05 2015-05-05 The Invention Science Fund I, Llc Postural information system and method
WO2010103482A2 (en) * 2009-03-13 2010-09-16 Primesense Ltd. Enhanced 3d interfacing for remote devices
US8253774B2 (en) 2009-03-30 2012-08-28 Microsoft Corporation Ambulatory presence features
US20100257462A1 (en) * 2009-04-01 2010-10-07 Avaya Inc Interpretation of gestures to provide visual queues
US9317128B2 (en) 2009-04-02 2016-04-19 Oblong Industries, Inc. Remote devices used in a markerless installation of a spatial operating environment incorporating gestural control
US10824238B2 (en) 2009-04-02 2020-11-03 Oblong Industries, Inc. Operating environment with gestural control and multiple client devices, displays, and users
JP5256109B2 (ja) * 2009-04-23 2013-08-07 株式会社日立製作所 表示装置
KR101581883B1 (ko) * 2009-04-30 2016-01-11 삼성전자주식회사 모션 정보를 이용하는 음성 검출 장치 및 방법
US8942428B2 (en) 2009-05-01 2015-01-27 Microsoft Corporation Isolate extraneous motions
US8649554B2 (en) * 2009-05-01 2014-02-11 Microsoft Corporation Method to control perspective for a camera-controlled computer
US20100289912A1 (en) * 2009-05-14 2010-11-18 Sony Ericsson Mobile Communications Ab Camera arrangement with image modification
US9417700B2 (en) * 2009-05-21 2016-08-16 Edge3 Technologies Gesture recognition systems and related methods
US20100306685A1 (en) * 2009-05-29 2010-12-02 Microsoft Corporation User movement feedback via on-screen avatars
US9182814B2 (en) * 2009-05-29 2015-11-10 Microsoft Technology Licensing, Llc Systems and methods for estimating a non-visible or occluded body part
US8890937B2 (en) * 2009-06-01 2014-11-18 The Curators Of The University Of Missouri Anonymized video analysis methods and systems
US8711198B2 (en) * 2009-06-04 2014-04-29 Hewlett-Packard Development Company, L.P. Video conference
US9594431B2 (en) * 2009-06-19 2017-03-14 Hewlett-Packard Development Company, L.P. Qualified command
US8428368B2 (en) 2009-07-31 2013-04-23 Echostar Technologies L.L.C. Systems and methods for hand gesture control of an electronic device
US9277021B2 (en) * 2009-08-21 2016-03-01 Avaya Inc. Sending a user associated telecommunication address
JP5343773B2 (ja) * 2009-09-04 2013-11-13 ソニー株式会社 情報処理装置、表示制御方法及び表示制御プログラム
JP5568929B2 (ja) * 2009-09-15 2014-08-13 ソニー株式会社 表示装置および制御方法
US8305188B2 (en) * 2009-10-07 2012-11-06 Samsung Electronics Co., Ltd. System and method for logging in multiple users to a consumer electronics device by detecting gestures with a sensory device
GB2474536B (en) 2009-10-13 2011-11-02 Pointgrab Ltd Computer vision gesture based control of a device
US9933852B2 (en) 2009-10-14 2018-04-03 Oblong Industries, Inc. Multi-process interactive systems and methods
US9971807B2 (en) 2009-10-14 2018-05-15 Oblong Industries, Inc. Multi-process interactive systems and methods
US20110099476A1 (en) * 2009-10-23 2011-04-28 Microsoft Corporation Decorating a display environment
WO2011053315A1 (en) * 2009-10-30 2011-05-05 Hewlett-Packard Development Company, L.P. Video display systems
US10007768B2 (en) 2009-11-27 2018-06-26 Isaac Daniel Inventorship Group Llc System and method for distributing broadcast media based on a number of viewers
US20130232580A1 (en) * 2009-12-29 2013-09-05 Isaac S. Daniel System and method for administering remote content
US8355951B1 (en) 2009-12-29 2013-01-15 Lead Technology Capital Management, Llc System and method for monetizing broadcast media based on the number of viewers
US8613008B2 (en) 2010-01-11 2013-12-17 Lead Technology Capital Management, Llc System and method for broadcasting media
DE102009057725A1 (de) * 2009-12-10 2011-06-16 Siemens Enterprise Communications Gmbh & Co. Kg Signalgebende Vorrichtung, Signalisiervorrichtung, Signalgebungsverfahren sowie Signalisierverfahren
US9244533B2 (en) * 2009-12-17 2016-01-26 Microsoft Technology Licensing, Llc Camera navigation for presentations
CN102104766A (zh) * 2009-12-18 2011-06-22 深圳富泰宏精密工业有限公司 视频通话中的隐私保护系统及方法
US9711034B2 (en) * 2010-01-11 2017-07-18 Isaac S. Daniel Security system and method
TWI471755B (zh) * 2010-01-13 2015-02-01 Chao Lieh Chen 能操控電氣設備作動模式的操控裝置
US8334842B2 (en) * 2010-01-15 2012-12-18 Microsoft Corporation Recognizing user intent in motion capture system
FI20105105A0 (fi) * 2010-02-04 2010-02-04 Axel Technologies Medialaitteen käyttöliittymä
US8522308B2 (en) * 2010-02-11 2013-08-27 Verizon Patent And Licensing Inc. Systems and methods for providing a spatial-input-based multi-user shared display experience
GB2477959A (en) * 2010-02-19 2011-08-24 Sony Europ Navigation and display of an array of selectable items
US8379134B2 (en) * 2010-02-26 2013-02-19 Research In Motion Limited Object detection and selection using gesture recognition
IL204436A (en) * 2010-03-11 2016-03-31 Deutsche Telekom Ag A system and method for remote control of online TV by waving hands
US9535493B2 (en) * 2010-04-13 2017-01-03 Nokia Technologies Oy Apparatus, method, computer program and user interface
KR20110116525A (ko) * 2010-04-19 2011-10-26 엘지전자 주식회사 3d 오브젝트를 제공하는 영상표시장치, 그 시스템 및 그 동작 제어방법
JP2011232894A (ja) * 2010-04-26 2011-11-17 Renesas Electronics Corp インタフェース装置、ジェスチャ認識方法及びジェスチャ認識プログラム
US20110279368A1 (en) * 2010-05-12 2011-11-17 Microsoft Corporation Inferring user intent to engage a motion capture system
US8396252B2 (en) 2010-05-20 2013-03-12 Edge 3 Technologies Systems and related methods for three dimensional gesture recognition in vehicles
US8878773B1 (en) 2010-05-24 2014-11-04 Amazon Technologies, Inc. Determining relative motion as input
US9274594B2 (en) * 2010-05-28 2016-03-01 Microsoft Technology Licensing, Llc Cloud-based personal trait profile data
US20110304649A1 (en) * 2010-06-10 2011-12-15 Microsoft Corporation Character selection
US20110310010A1 (en) 2010-06-17 2011-12-22 Primesense Ltd. Gesture based user interface
EP2583152A4 (en) * 2010-06-17 2016-08-17 Nokia Technologies Oy METHOD AND APPARATUS FOR DETERMINING INPUT
US8542320B2 (en) * 2010-06-17 2013-09-24 Sony Corporation Method and system to control a non-gesture controlled device using gesture interactions with a gesture controlled device
RU2010126303A (ru) * 2010-06-29 2012-01-10 Владимир Витальевич Мирошниченко (RU) Распознавание сообщений человека
JP5012968B2 (ja) * 2010-07-15 2012-08-29 コニカミノルタビジネステクノロジーズ株式会社 会議システム
US20130135199A1 (en) * 2010-08-10 2013-05-30 Pointgrab Ltd System and method for user interaction with projected content
EP2421252A1 (en) * 2010-08-17 2012-02-22 LG Electronics Display device and control method thereof
TWI507047B (zh) * 2010-08-24 2015-11-01 Hon Hai Prec Ind Co Ltd 麥克風控制系統及方法
US8823739B2 (en) * 2010-08-25 2014-09-02 International Business Machines Corporation Background replacement for videoconferencing
US8666144B2 (en) 2010-09-02 2014-03-04 Edge 3 Technologies, Inc. Method and apparatus for determining disparity of texture
US8582866B2 (en) 2011-02-10 2013-11-12 Edge 3 Technologies, Inc. Method and apparatus for disparity computation in stereo images
US8467599B2 (en) 2010-09-02 2013-06-18 Edge 3 Technologies, Inc. Method and apparatus for confusion learning
US8655093B2 (en) 2010-09-02 2014-02-18 Edge 3 Technologies, Inc. Method and apparatus for performing segmentation of an image
US9213890B2 (en) * 2010-09-17 2015-12-15 Sony Corporation Gesture recognition system for TV control
JP2012068713A (ja) * 2010-09-21 2012-04-05 Sony Corp 情報処理装置、および情報処理方法
US8937551B2 (en) 2010-09-28 2015-01-20 Isaac S. Daniel Covert security alarm system
JP5740972B2 (ja) * 2010-09-30 2015-07-01 ソニー株式会社 情報処理装置および情報処理方法
JP2012085009A (ja) * 2010-10-07 2012-04-26 Sony Corp 情報処理装置および情報処理方法
US9294722B2 (en) * 2010-10-19 2016-03-22 Microsoft Technology Licensing, Llc Optimized telepresence using mobile device gestures
US8284082B2 (en) 2010-10-27 2012-10-09 Sling Media Pvt. Ltd. Dynamic encode setting adjustment
JP5605725B2 (ja) * 2010-11-10 2014-10-15 日本電気株式会社 情報報知システム、情報報知方法、情報処理装置及びその制御方法と制御プログラム
WO2012064309A1 (en) * 2010-11-11 2012-05-18 Echostar Ukraine L.L.C. Hearing and/or speech impaired electronic device control
EP2453386B1 (en) * 2010-11-11 2019-03-06 LG Electronics Inc. Multimedia device, multiple image sensors having different types and method for controlling the same
TW201222429A (en) * 2010-11-23 2012-06-01 Inventec Corp Web camera device and operating method thereof
JP2015038648A (ja) * 2010-12-24 2015-02-26 株式会社東芝 情報処理装置、制御方法およびプログラム
KR101781557B1 (ko) * 2011-01-05 2017-09-26 구글 인코포레이티드 텍스트 입력을 용이하게 하기 위한 방법 및 시스템
DE102011002577A1 (de) * 2011-01-12 2012-07-12 3Vi Gmbh Fernsteuerungseinrichtung zur Steuerung einer Vorrichtung anhand eines beweglichen Objektes sowie Schnittstellen-Modul zur Kommunikation zwischen Modulen einer derartigen Fernsteuerungseinrichtung oder zwischen einem der Module und einer externen Vorrichtung
JP5361913B2 (ja) * 2011-01-25 2013-12-04 株式会社ソニー・コンピュータエンタテインメント 入力装置、入力方法及びコンピュータプログラム
US20120206348A1 (en) * 2011-02-10 2012-08-16 Kim Sangki Display device and method of controlling the same
US8970589B2 (en) 2011-02-10 2015-03-03 Edge 3 Technologies, Inc. Near-touch interaction with a stereo camera grid structured tessellations
US9058059B2 (en) 2011-03-03 2015-06-16 Omron Corporation Gesture input device and method for controlling gesture input device
US20140218300A1 (en) * 2011-03-04 2014-08-07 Nikon Corporation Projection device
JP5585505B2 (ja) * 2011-03-17 2014-09-10 セイコーエプソン株式会社 画像供給装置、画像表示システム、画像供給装置の制御方法、画像表示装置、及び、プログラム
US9857868B2 (en) * 2011-03-19 2018-01-02 The Board Of Trustees Of The Leland Stanford Junior University Method and system for ergonomic touch-free interface
JP2012205037A (ja) * 2011-03-25 2012-10-22 Olympus Imaging Corp 画像処理装置および画像処理方法
US20120254735A1 (en) * 2011-03-30 2012-10-04 Elwha LLC, a limited liability company of the State of Delaware Presentation format selection based at least on device transfer determination
US10642934B2 (en) 2011-03-31 2020-05-05 Microsoft Technology Licensing, Llc Augmented conversational understanding architecture
US9842168B2 (en) 2011-03-31 2017-12-12 Microsoft Technology Licensing, Llc Task driven user intents
US9244984B2 (en) 2011-03-31 2016-01-26 Microsoft Technology Licensing, Llc Location based conversational understanding
US9298287B2 (en) 2011-03-31 2016-03-29 Microsoft Technology Licensing, Llc Combined activation for natural user interface systems
US9760566B2 (en) 2011-03-31 2017-09-12 Microsoft Technology Licensing, Llc Augmented conversational understanding agent to identify conversation context between two humans and taking an agent action thereof
US9858343B2 (en) 2011-03-31 2018-01-02 Microsoft Technology Licensing Llc Personalization of queries, conversations, and searches
US8497942B2 (en) 2011-04-07 2013-07-30 Sony Corporation User interface for audio video display device such as TV
US8928589B2 (en) * 2011-04-20 2015-01-06 Qualcomm Incorporated Virtual keyboards and methods of providing the same
KR101804848B1 (ko) * 2011-04-22 2017-12-06 삼성전자주식회사 비디오 객체 탐색 장치, 비디오 객체 변형 장치 및 그 방법
US8840466B2 (en) 2011-04-25 2014-09-23 Aquifi, Inc. Method and system to create three-dimensional mapping in a two-dimensional game
US9064006B2 (en) 2012-08-23 2015-06-23 Microsoft Technology Licensing, Llc Translating natural language utterances to keyword search queries
US9454962B2 (en) 2011-05-12 2016-09-27 Microsoft Technology Licensing, Llc Sentence simplification for spoken language understanding
US9123272B1 (en) 2011-05-13 2015-09-01 Amazon Technologies, Inc. Realistic image lighting and shading
US20120304067A1 (en) * 2011-05-25 2012-11-29 Samsung Electronics Co., Ltd. Apparatus and method for controlling user interface using sound recognition
US20120311503A1 (en) * 2011-06-06 2012-12-06 Microsoft Corporation Gesture to trigger application-pertinent information
JP5840399B2 (ja) * 2011-06-24 2016-01-06 株式会社東芝 情報処理装置
US8776250B2 (en) * 2011-07-08 2014-07-08 Research Foundation Of The City University Of New York Method of comparing private data without revealing the data
US9197637B2 (en) 2011-07-08 2015-11-24 Research Foundation Of The City University Of New York Method of comparing private data without revealing the data
US9041734B2 (en) 2011-07-12 2015-05-26 Amazon Technologies, Inc. Simulating three-dimensional features
US9084001B2 (en) 2011-07-18 2015-07-14 At&T Intellectual Property I, Lp Method and apparatus for multi-experience metadata translation of media content with metadata
US8943396B2 (en) 2011-07-18 2015-01-27 At&T Intellectual Property I, Lp Method and apparatus for multi-experience adaptation of media content
US10088924B1 (en) 2011-08-04 2018-10-02 Amazon Technologies, Inc. Overcoming motion effects in gesture recognition
US8891868B1 (en) 2011-08-04 2014-11-18 Amazon Technologies, Inc. Recognizing gestures captured by video
US9237362B2 (en) * 2011-08-11 2016-01-12 At&T Intellectual Property I, Lp Method and apparatus for multi-experience translation of media content with sensor sharing
US8942412B2 (en) 2011-08-11 2015-01-27 At&T Intellectual Property I, Lp Method and apparatus for controlling multi-experience translation of media content
US9218063B2 (en) 2011-08-24 2015-12-22 Apple Inc. Sessionless pointing user interface
US8947351B1 (en) 2011-09-27 2015-02-03 Amazon Technologies, Inc. Point of view determinations for finger tracking
US20130104089A1 (en) * 2011-10-20 2013-04-25 Fuji Xerox Co., Ltd. Gesture-based methods for interacting with instant messaging and event-based communication applications
US8490146B2 (en) * 2011-11-01 2013-07-16 Google Inc. Dual mode proximity sensor
US9672609B1 (en) 2011-11-11 2017-06-06 Edge 3 Technologies, Inc. Method and apparatus for improved depth-map estimation
EP2595031A3 (en) * 2011-11-16 2016-01-06 Samsung Electronics Co., Ltd Display apparatus and control method thereof
US8847881B2 (en) 2011-11-18 2014-09-30 Sony Corporation Gesture and voice recognition for control of a device
US8983089B1 (en) 2011-11-28 2015-03-17 Rawles Llc Sound source localization using multiple microphone arrays
US8754926B1 (en) 2011-11-29 2014-06-17 Google Inc. Managing nodes of a synchronous communication conference
CN103186227A (zh) * 2011-12-28 2013-07-03 北京德信互动网络技术有限公司 人机互动系统和方法
KR101910659B1 (ko) * 2011-12-29 2018-10-24 삼성전자주식회사 디지털 영상장치 및 그 제어방법
KR20130076947A (ko) * 2011-12-29 2013-07-09 삼성전자주식회사 영상장치 및 그 제어방법
US9931154B2 (en) 2012-01-11 2018-04-03 Biosense Webster (Israel), Ltd. Touch free operation of ablator workstation by use of depth sensors
US9625993B2 (en) 2012-01-11 2017-04-18 Biosense Webster (Israel) Ltd. Touch free operation of devices by use of depth sensors
US9223415B1 (en) 2012-01-17 2015-12-29 Amazon Technologies, Inc. Managing resource usage for task performance
US8884928B1 (en) 2012-01-26 2014-11-11 Amazon Technologies, Inc. Correcting for parallax in electronic displays
US9348323B2 (en) * 2012-02-03 2016-05-24 Oki Electric Industry Co., Ltd. Device cooperation control system and method based on motion of a mobile device
US8854433B1 (en) 2012-02-03 2014-10-07 Aquifi, Inc. Method and system enabling natural user interface gestures with an electronic system
KR101330810B1 (ko) * 2012-02-24 2013-11-18 주식회사 팬택 원거리 제스쳐 인식 기능을 갖는 디바이스 및 그 방법
CN103297742A (zh) * 2012-02-27 2013-09-11 联想(北京)有限公司 数据处理方法、微处理器、通信终端及服务器
US9063574B1 (en) 2012-03-14 2015-06-23 Amazon Technologies, Inc. Motion detection systems for electronic devices
US9060095B2 (en) * 2012-03-14 2015-06-16 Google Inc. Modifying an appearance of a participant during a video conference
US9285895B1 (en) 2012-03-28 2016-03-15 Amazon Technologies, Inc. Integrated near field sensor for display devices
WO2013149357A1 (en) 2012-04-01 2013-10-10 Intel Corporation Analyzing human gestural commands
US9448635B2 (en) * 2012-04-16 2016-09-20 Qualcomm Incorporated Rapid gesture re-engagement
US9408561B2 (en) 2012-04-27 2016-08-09 The Curators Of The University Of Missouri Activity analysis, fall detection and risk assessment systems and methods
US9597016B2 (en) 2012-04-27 2017-03-21 The Curators Of The University Of Missouri Activity analysis, fall detection and risk assessment systems and methods
TWI476706B (zh) * 2012-04-30 2015-03-11 Pixart Imaging Inc 偵測物件移動輸出命令的方法及其系統
US8938124B2 (en) 2012-05-10 2015-01-20 Pointgrab Ltd. Computer vision based tracking of a hand
US10114609B2 (en) * 2012-05-31 2018-10-30 Opportunity Partners Inc. Computing interface for users with disabilities
US9438805B2 (en) * 2012-06-08 2016-09-06 Sony Corporation Terminal device and image capturing method
EP2859732A4 (en) * 2012-06-11 2016-03-09 Intel Corp PROVISION OF SPONTANEOUS CONNECTIONS AND INTERACTIONS BETWEEN LOCAL AND REMOTE INTERACTION DEVICES
US8934675B2 (en) 2012-06-25 2015-01-13 Aquifi, Inc. Systems and methods for tracking human hands by performing parts based template matching using images from multiple viewpoints
US9111135B2 (en) 2012-06-25 2015-08-18 Aquifi, Inc. Systems and methods for tracking human hands using parts based template matching using corresponding pixels in bounded regions of a sequence of frames that are a specified distance interval from a reference camera
KR20140005688A (ko) * 2012-07-06 2014-01-15 삼성전자주식회사 사용자 인터페이스 방법 및 장치
US9697418B2 (en) * 2012-07-09 2017-07-04 Qualcomm Incorporated Unsupervised movement detection and gesture recognition
US10075801B2 (en) 2012-07-13 2018-09-11 Sony Corporation Information processing system and storage medium
TW201405443A (zh) * 2012-07-17 2014-02-01 Wistron Corp 手勢輸入系統及方法
US9122312B2 (en) 2012-07-19 2015-09-01 Infosys Limited System and method for interacting with a computing device
CN103576839B (zh) * 2012-07-24 2019-03-12 广州三星通信技术研究有限公司 基于面部识别来控制终端操作的设备和方法
US8819812B1 (en) * 2012-08-16 2014-08-26 Amazon Technologies, Inc. Gesture recognition for device input
US8836768B1 (en) 2012-09-04 2014-09-16 Aquifi, Inc. Method and system enabling natural user interface gestures with user wearable glasses
KR20140034612A (ko) * 2012-09-12 2014-03-20 삼성전자주식회사 멀티 유저를 위한 디스플레이 장치 및 그 제어 방법
US9148625B2 (en) * 2012-09-21 2015-09-29 Cisco Technology, Inc. Transition control in a videoconference
US9423886B1 (en) 2012-10-02 2016-08-23 Amazon Technologies, Inc. Sensor connectivity approaches
US20140098991A1 (en) * 2012-10-10 2014-04-10 PixArt Imaging Incorporation, R.O.C. Game doll recognition system, recognition method and game system using the same
US9268407B1 (en) * 2012-10-10 2016-02-23 Amazon Technologies, Inc. Interface elements for managing gesture control
US20140108940A1 (en) * 2012-10-15 2014-04-17 Nvidia Corporation Method and system of remote communication over a network
KR102095765B1 (ko) * 2012-10-19 2020-04-01 삼성전자주식회사 디스플레이 장치 및 그 제어 방법
KR20140063272A (ko) * 2012-11-16 2014-05-27 엘지전자 주식회사 영상표시장치, 및 그 동작방법
US9930082B2 (en) 2012-11-20 2018-03-27 Nvidia Corporation Method and system for network driven automatic adaptive rendering impedance
CN103873661B (zh) * 2012-12-14 2017-07-21 联想(北京)有限公司 状态切换方法及电子设备
US9235326B2 (en) * 2012-12-20 2016-01-12 International Business Machines Corporation Manipulation of user interface controls
KR101800617B1 (ko) * 2013-01-02 2017-12-20 삼성전자주식회사 디스플레이 장치 및 이의 화상 통화 방법
US9092665B2 (en) 2013-01-30 2015-07-28 Aquifi, Inc Systems and methods for initializing motion tracking of human hands
US9690378B2 (en) * 2013-01-30 2017-06-27 Olympus Corporation Operation apparatus
US9129155B2 (en) 2013-01-30 2015-09-08 Aquifi, Inc. Systems and methods for initializing motion tracking of human hands using template matching within bounded regions determined using a depth map
US9019337B2 (en) * 2013-02-21 2015-04-28 Avaya Inc. System and method for managing a presentation
DE102013003033A1 (de) * 2013-02-22 2014-08-28 Audi Ag Verfahren zum Betreiben einer Wiedergabeeinrichtung sowie Vorrichtung mit einer solchen Wiedergabeeinrichtung
KR102040288B1 (ko) * 2013-02-27 2019-11-04 삼성전자주식회사 디스플레이 장치
US20140250413A1 (en) * 2013-03-03 2014-09-04 Microsoft Corporation Enhanced presentation environments
US9065972B1 (en) * 2013-03-07 2015-06-23 Rawles Llc User face capture in projection-based systems
US9035874B1 (en) 2013-03-08 2015-05-19 Amazon Technologies, Inc. Providing user input to a computing device with an eye closure
US20140258943A1 (en) * 2013-03-08 2014-09-11 Google Inc. Providing events responsive to spatial gestures
US9519351B2 (en) 2013-03-08 2016-12-13 Google Inc. Providing a gesture-based interface
DE102013004246A1 (de) 2013-03-12 2014-09-18 Audi Ag Einem Fahrzeug zugeordnete Vorrichtung mit Buchstabiereinrichtung - Vervollständigungs-Kennzeichnung
DE102013004244A1 (de) * 2013-03-12 2014-09-18 Audi Ag Einem Fahrzeug zugeordnete Vorrichtung mit Buchstabiereinrichtung - Löschschaltfläche und/oder Listenauswahl-Schaltfläche
US9110541B1 (en) * 2013-03-14 2015-08-18 Amazon Technologies, Inc. Interface selection approaches for multi-dimensional input
US9274606B2 (en) 2013-03-14 2016-03-01 Microsoft Technology Licensing, Llc NUI video conference controls
US10721448B2 (en) 2013-03-15 2020-07-21 Edge 3 Technologies, Inc. Method and apparatus for adaptive exposure bracketing, segmentation and scene organization
US9467777B2 (en) * 2013-03-15 2016-10-11 Cirrus Logic, Inc. Interface for a digital microphone array
US10257470B2 (en) * 2013-03-18 2019-04-09 Fadi Ibsies Automated door
US10612289B2 (en) 2013-03-18 2020-04-07 Fadi Ibsies Automated door
US9858052B2 (en) * 2013-03-21 2018-01-02 Razer (Asia-Pacific) Pte. Ltd. Decentralized operating system
US9298266B2 (en) * 2013-04-02 2016-03-29 Aquifi, Inc. Systems and methods for implementing three-dimensional (3D) gesture based graphical user interfaces (GUI) that incorporate gesture reactive interface objects
US10514256B1 (en) * 2013-05-06 2019-12-24 Amazon Technologies, Inc. Single source multi camera vision system
US9829984B2 (en) * 2013-05-23 2017-11-28 Fastvdo Llc Motion-assisted visual language for human computer interfaces
US20140368434A1 (en) * 2013-06-13 2014-12-18 Microsoft Corporation Generation of text by way of a touchless interface
US20140380223A1 (en) * 2013-06-20 2014-12-25 Lsi Corporation User interface comprising radial layout soft keypad
CN104345871B (zh) * 2013-07-26 2017-06-23 株式会社东芝 设备选择系统
US9819604B2 (en) 2013-07-31 2017-11-14 Nvidia Corporation Real time network adaptive low latency transport stream muxing of audio/video streams for miracast
US9798388B1 (en) 2013-07-31 2017-10-24 Aquifi, Inc. Vibrotactile system to augment 3D input systems
US11921471B2 (en) 2013-08-16 2024-03-05 Meta Platforms Technologies, Llc Systems, articles, and methods for wearable devices having secondary power sources in links of a band for providing secondary power in addition to a primary power source
US10042422B2 (en) 2013-11-12 2018-08-07 Thalmic Labs Inc. Systems, articles, and methods for capacitive electromyography sensors
US20150124566A1 (en) 2013-10-04 2015-05-07 Thalmic Labs Inc. Systems, articles and methods for wearable electronic devices employing contact sensors
US9269012B2 (en) 2013-08-22 2016-02-23 Amazon Technologies, Inc. Multi-tracker object tracking
US11199906B1 (en) 2013-09-04 2021-12-14 Amazon Technologies, Inc. Global user input management
US9766855B2 (en) * 2013-09-10 2017-09-19 Avigilon Corporation Method and apparatus for controlling surveillance system with gesture and/or audio commands
US10055013B2 (en) 2013-09-17 2018-08-21 Amazon Technologies, Inc. Dynamic object tracking for user interfaces
US9507429B1 (en) * 2013-09-26 2016-11-29 Amazon Technologies, Inc. Obscure cameras as input
US9367203B1 (en) 2013-10-04 2016-06-14 Amazon Technologies, Inc. User interface techniques for simulating three-dimensional depth
US10152136B2 (en) * 2013-10-16 2018-12-11 Leap Motion, Inc. Velocity field interaction for free space gesture interface and control
US9854013B1 (en) * 2013-10-16 2017-12-26 Google Llc Synchronous communication system and method
CN103607538A (zh) 2013-11-07 2014-02-26 北京智谷睿拓技术服务有限公司 拍摄方法及拍摄装置
CN103605701A (zh) 2013-11-07 2014-02-26 北京智谷睿拓技术服务有限公司 通信对象的确定方法及确定装置
CN103634629A (zh) * 2013-11-07 2014-03-12 康佳集团股份有限公司 一种机顶盒共享移动终端摄像头的方法和装置
US9451434B2 (en) 2013-11-27 2016-09-20 At&T Intellectual Property I, L.P. Direct interaction between a user and a communication network
WO2015081113A1 (en) 2013-11-27 2015-06-04 Cezar Morun Systems, articles, and methods for electromyography sensors
US9740296B2 (en) 2013-12-16 2017-08-22 Leap Motion, Inc. User-defined virtual interaction space and manipulation of virtual cameras in the interaction space
CN103997616B (zh) * 2013-12-20 2019-02-05 三亚中兴软件有限责任公司 一种处理视频会议画面的方法、装置及会议终端
US9507417B2 (en) * 2014-01-07 2016-11-29 Aquifi, Inc. Systems and methods for implementing head tracking based graphical user interfaces (GUI) that incorporate gesture reactive interface objects
US9619105B1 (en) 2014-01-30 2017-04-11 Aquifi, Inc. Systems and methods for gesture based interaction with viewpoint dependent user interfaces
US9823748B2 (en) * 2014-02-07 2017-11-21 Lenovo (Singapore) Pte. Ltd. Control input handling
US10713389B2 (en) 2014-02-07 2020-07-14 Lenovo (Singapore) Pte. Ltd. Control input filtering
US10444938B1 (en) * 2014-02-26 2019-10-15 Symantec Corporation Systems and methods for customizing user icons
JP2015170173A (ja) * 2014-03-07 2015-09-28 ソニー株式会社 情報処理装置、情報処理システム、情報処理方法及びプログラム
JP6550643B2 (ja) * 2014-03-14 2019-07-31 本田技研工業株式会社 動作推定装置、ロボット、及び動作推定方法
US9990046B2 (en) 2014-03-17 2018-06-05 Oblong Industries, Inc. Visual collaboration interface
EP2940979A1 (en) * 2014-05-02 2015-11-04 Alcatel Lucent Process for managing the connection of users through their terminals to a multimedia conference session
KR102193029B1 (ko) * 2014-05-09 2020-12-18 삼성전자주식회사 디스플레이 장치 및 그의 화상 통화 수행 방법
CN105323531A (zh) * 2014-06-30 2016-02-10 三亚中兴软件有限责任公司 视频会议热点场景的检测方法和装置
US9531998B1 (en) * 2015-07-02 2016-12-27 Krush Technologies, Llc Facial gesture recognition and video analysis tool
US9445048B1 (en) 2014-07-29 2016-09-13 Google Inc. Gesture-initiated actions in videoconferences
US9888202B2 (en) * 2014-08-06 2018-02-06 Verizon Patent And Licensing Inc. Searching for broadcast channels based on channel names
US20160092034A1 (en) * 2014-09-26 2016-03-31 Amazon Technologies, Inc. Kiosk Providing High Speed Data Transfer
US10237329B1 (en) 2014-09-26 2019-03-19 Amazon Technologies, Inc. Wirelessly preparing device for high speed data transfer
JP6464635B2 (ja) * 2014-09-26 2019-02-06 株式会社リコー 画像処理装置、画像処理装置の制御方法、及びプログラム
US9940583B1 (en) 2014-09-26 2018-04-10 Amazon Technologies, Inc. Transmitting content to kiosk after determining future location of user
WO2016085830A1 (en) * 2014-11-25 2016-06-02 Horvath Jon Patrik Movement and distance triggered image recording system
US20160180799A1 (en) * 2014-12-23 2016-06-23 Intel Corporation Multi-user notification system
US10244175B2 (en) * 2015-03-09 2019-03-26 Apple Inc. Automatic cropping of video content
CN106921627A (zh) * 2015-12-25 2017-07-04 阿尔格布鲁控股有限公司 提供到外部电话网络的呼叫转发的VoIP
US10565455B2 (en) * 2015-04-30 2020-02-18 Ants Technology (Hk) Limited Methods and systems for audiovisual communication
JP6455310B2 (ja) * 2015-05-18 2019-01-23 本田技研工業株式会社 動作推定装置、ロボット、及び動作推定方法
US9843766B2 (en) 2015-08-28 2017-12-12 Samsung Electronics Co., Ltd. Video communication device and operation thereof
US10206630B2 (en) 2015-08-28 2019-02-19 Foresite Healthcare, Llc Systems for automatic assessment of fall risk
CN106488170B (zh) * 2015-08-28 2020-01-10 华为技术有限公司 视频通讯的方法和系统
US11864926B2 (en) 2015-08-28 2024-01-09 Foresite Healthcare, Llc Systems and methods for detecting attempted bed exit
US10353473B2 (en) * 2015-11-19 2019-07-16 International Business Machines Corporation Client device motion control via a video feed
US10431215B2 (en) 2015-12-06 2019-10-01 Voicebox Technologies Corporation System and method of conversational adjustment based on user's cognitive state and/or situational state
US10271012B2 (en) 2016-01-06 2019-04-23 Vivint, Inc. Home automation system-initiated calls
US10382729B2 (en) * 2016-01-06 2019-08-13 Vivint, Inc. Home automation system-initiated calls
US20170289766A1 (en) * 2016-03-29 2017-10-05 Microsoft Technology Licensing, Llc Digital Assistant Experience based on Presence Detection
CA3030850C (en) 2016-06-28 2023-12-05 Foresite Healthcare, Llc Systems and methods for use in detecting falls utilizing thermal sensing
EP3267289B1 (en) * 2016-07-05 2019-02-27 Ricoh Company, Ltd. Information processing apparatus, position information generation method, and information processing system
US10529302B2 (en) 2016-07-07 2020-01-07 Oblong Industries, Inc. Spatially mediated augmentations of and interactions among distinct devices and applications via extended pixel manifold
US11337652B2 (en) 2016-07-25 2022-05-24 Facebook Technologies, Llc System and method for measuring the movements of articulated rigid bodies
US11216069B2 (en) 2018-05-08 2022-01-04 Facebook Technologies, Llc Systems and methods for improved speech recognition using neuromuscular information
US10990174B2 (en) 2016-07-25 2021-04-27 Facebook Technologies, Llc Methods and apparatus for predicting musculo-skeletal position information using wearable autonomous sensors
US10409371B2 (en) 2016-07-25 2019-09-10 Ctrl-Labs Corporation Methods and apparatus for inferring user intent based on neuromuscular signals
WO2018033137A1 (zh) * 2016-08-19 2018-02-22 北京市商汤科技开发有限公司 在视频图像中展示业务对象的方法、装置和电子设备
US10528122B2 (en) * 2016-09-30 2020-01-07 Intel Corporation Gesture experiences in multi-user environments
CN106648063B (zh) * 2016-10-19 2020-11-06 北京小米移动软件有限公司 手势识别方法及装置
US10511891B2 (en) * 2016-11-21 2019-12-17 Google Llc Video playback in group communications
JP2018093412A (ja) * 2016-12-06 2018-06-14 株式会社日立製作所 演算装置、送信プログラム、送信方法
US11599890B1 (en) * 2016-12-22 2023-03-07 Wells Fargo Bank, N.A. Holistic fraud cocoon
JP2018136766A (ja) * 2017-02-22 2018-08-30 ソニー株式会社 情報処理装置、情報処理方法、プログラム
US10691217B2 (en) * 2017-04-20 2020-06-23 Fuji Xerox Co., Ltd. Methods and systems for providing a camera-based graphical user interface
CN109388231A (zh) * 2017-08-14 2019-02-26 广东畅响源教育科技有限公司 基于标准模型实现vr物体或场景交互操控的系统及方法
EP3697297A4 (en) 2017-10-19 2020-12-16 Facebook Technologies, Inc. SYSTEMS AND METHODS FOR IDENTIFYING BIOLOGICAL STRUCTURES ASSOCIATED WITH NEUROMUSCULAR SOURCE SIGNALS
US20190122031A1 (en) * 2017-10-25 2019-04-25 Interdigital Ce Patent Holdings Devices, systems and methods for privacy-preserving security
US10671974B2 (en) * 2018-01-09 2020-06-02 Sony Interactive Entertainment LLC Robot interaction with a tele-presence system
US11150730B1 (en) 2019-04-30 2021-10-19 Facebook Technologies, Llc Devices, systems, and methods for controlling computing devices via neuromuscular signals of users
US11481030B2 (en) 2019-03-29 2022-10-25 Meta Platforms Technologies, Llc Methods and apparatus for gesture detection and classification
CN112074870A (zh) 2018-01-25 2020-12-11 脸谱科技有限责任公司 重构的手部状态信息的可视化
US11907423B2 (en) 2019-11-25 2024-02-20 Meta Platforms Technologies, Llc Systems and methods for contextualized interactions with an environment
US11493993B2 (en) 2019-09-04 2022-11-08 Meta Platforms Technologies, Llc Systems, methods, and interfaces for performing inputs based on neuromuscular control
US10937414B2 (en) 2018-05-08 2021-03-02 Facebook Technologies, Llc Systems and methods for text input using neuromuscular information
US11961494B1 (en) 2019-03-29 2024-04-16 Meta Platforms Technologies, Llc Electromagnetic interference reduction in extended reality environments
US10592735B2 (en) 2018-02-12 2020-03-17 Cisco Technology, Inc. Collaboration event content sharing
US10592001B2 (en) 2018-05-08 2020-03-17 Facebook Technologies, Llc Systems and methods for improved speech recognition using neuromuscular information
WO2019217320A1 (en) * 2018-05-08 2019-11-14 Google Llc Mixing audio based on a pose of a user
US11875012B2 (en) 2018-05-25 2024-01-16 Ultrahaptics IP Two Limited Throwable interface for augmented reality and virtual reality environments
WO2019231911A1 (en) 2018-05-29 2019-12-05 Ctrl-Labs Corporation Shielding techniques for noise reduction in surface electromyography signal measurement and related systems and methods
CN112585600A (zh) 2018-06-14 2021-03-30 脸谱科技有限责任公司 使用神经肌肉标记进行用户识别和认证
US11045137B2 (en) 2018-07-19 2021-06-29 Facebook Technologies, Llc Methods and apparatus for improved signal robustness for a wearable neuromuscular recording device
CN112566553A (zh) 2018-08-13 2021-03-26 脸谱科技有限责任公司 实时尖峰检测和识别
JP2021535465A (ja) 2018-08-31 2021-12-16 フェイスブック・テクノロジーズ・リミテッド・ライアビリティ・カンパニーFacebook Technologies, Llc 神経筋信号のカメラ誘導による解釈
CN112789577B (zh) * 2018-09-20 2024-04-05 元平台技术有限公司 增强现实系统中的神经肌肉文本输入、书写和绘图
US10921764B2 (en) 2018-09-26 2021-02-16 Facebook Technologies, Llc Neuromuscular control of physical objects in an environment
WO2020072915A1 (en) 2018-10-05 2020-04-09 Ctrl-Labs Corporation Use of neuromuscular signals to provide enhanced interactions with physical objects in an augmented reality environment
CN113423341A (zh) 2018-11-27 2021-09-21 脸谱科技有限责任公司 用于可穿戴电极传感器系统的自动校准的方法和装置
CN109710205A (zh) * 2018-12-25 2019-05-03 华勤通讯技术有限公司 一种电子设备的屏幕显示方法及电子设备
US11294472B2 (en) 2019-01-11 2022-04-05 Microsoft Technology Licensing, Llc Augmented two-stage hand gesture input
US10905383B2 (en) 2019-02-28 2021-02-02 Facebook Technologies, Llc Methods and apparatus for unsupervised one-shot machine learning for classification of human gestures and estimation of applied forces
US11087162B2 (en) * 2019-08-01 2021-08-10 Nvidia Corporation Determining relative regions of interest in images using object detection
CN112540739B (zh) * 2019-09-21 2023-11-03 华为技术有限公司 一种投屏方法及系统
US11144128B2 (en) * 2019-11-20 2021-10-12 Verizon Patent And Licensing Inc. Systems and methods for controlling video wall content using air gestures
KR20210061638A (ko) * 2019-11-20 2021-05-28 삼성전자주식회사 전자 장치 및 그 제어 방법
US11460927B2 (en) * 2020-03-19 2022-10-04 DTEN, Inc. Auto-framing through speech and video localizations
US11112875B1 (en) * 2020-03-20 2021-09-07 Huawei Technologies Co., Ltd. Methods and systems for controlling a device using hand gestures in multi-user environment
JP6872066B1 (ja) * 2020-07-03 2021-05-19 株式会社シーエーシー コンピュータを介したコミュニケーションを実施するためのシステム、方法及びプログラム
CN112235520B (zh) * 2020-12-07 2021-05-04 腾讯科技(深圳)有限公司 一种图像处理方法、装置、电子设备及存储介质
JP2022122637A (ja) * 2021-02-10 2022-08-23 シャープ株式会社 表示装置、表示方法、及び表示プログラム
US11868531B1 (en) 2021-04-08 2024-01-09 Meta Platforms Technologies, Llc Wearable device providing for thumb-to-finger-based input gestures detected based on neuromuscular signals, and systems and methods of use thereof
FR3124872A1 (fr) * 2021-07-02 2023-01-06 Faurecia Interieur Industrie Dispositif électronique et procédé d'affichage de données sur un écran d’affichage, système d’affichage, véhicule et programme d’ordinateur associés
WO2023003544A1 (en) * 2021-07-20 2023-01-26 Hewlett-Packard Development Company, L.P. Virtual meeting exits
US11436708B1 (en) 2021-08-19 2022-09-06 Unity Technologies Sf Removing moving objects from a video scene captured by a moving camera
WO2023044352A1 (en) * 2021-09-15 2023-03-23 Neural Lab, Inc. Touchless image-based input interface
US20230090253A1 (en) * 2021-09-20 2023-03-23 Idoru, Inc. Systems and methods for authoring and managing extended reality (xr) avatars

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08315154A (ja) * 1995-02-21 1996-11-29 Mitsubishi Electric Res Lab Inc ジェスチャ認識システム
JP2002196855A (ja) * 2000-10-06 2002-07-12 Sony Computer Entertainment Inc 画像処理装置、画像処理方法、記録媒体、コンピュータプログラム、半導体デバイス
JP2005216061A (ja) * 2004-01-30 2005-08-11 Sony Computer Entertainment Inc 画像処理装置、画像処理方法、記録媒体、コンピュータプログラム、半導体デバイス
JP2007072564A (ja) * 2005-09-05 2007-03-22 Sony Computer Entertainment Inc マルチメディア再生装置、メニュー操作受付方法およびコンピュータプログラム
JP2007081732A (ja) * 2005-09-13 2007-03-29 Canon Inc 撮像装置
JP2007178542A (ja) * 2005-12-27 2007-07-12 Samsung Techwin Co Ltd 撮像装置

Family Cites Families (38)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR19990008158A (ko) * 1995-04-28 1999-01-25 모리시타요우이치 인터페이스 장치
JPH08332170A (ja) * 1995-06-08 1996-12-17 Matsushita Electric Ind Co Ltd ビデオスコープ
US6335927B1 (en) * 1996-11-18 2002-01-01 Mci Communications Corporation System and method for providing requested quality of service in a hybrid network
KR19990011180A (ko) * 1997-07-22 1999-02-18 구자홍 화상인식을 이용한 메뉴 선택 방법
US6720949B1 (en) * 1997-08-22 2004-04-13 Timothy R. Pryor Man machine interfaces and applications
US6353764B1 (en) * 1997-11-27 2002-03-05 Matsushita Electric Industrial Co., Ltd. Control method
US5940118A (en) * 1997-12-22 1999-08-17 Nortel Networks Corporation System and method for steering directional microphones
US6272231B1 (en) * 1998-11-06 2001-08-07 Eyematic Interfaces, Inc. Wavelet-based facial motion capture for avatar animation
US6301370B1 (en) * 1998-04-13 2001-10-09 Eyematic Interfaces, Inc. Face recognition from video images
DE19839638C2 (de) * 1998-08-31 2000-06-21 Siemens Ag System zur Ermöglichung einer Selbstkontrolle hinsichtlich durchzuführender Körperbewegungsabläufe durch die sich bewegende Person
US7227526B2 (en) * 2000-07-24 2007-06-05 Gesturetek, Inc. Video-based image control system
US6827579B2 (en) * 2000-11-16 2004-12-07 Rutgers, The State University Of Nj Method and apparatus for rehabilitation of neuromotor disorders
US6894714B2 (en) * 2000-12-05 2005-05-17 Koninklijke Philips Electronics N.V. Method and apparatus for predicting events in video conferencing and other applications
US6775014B2 (en) * 2001-01-17 2004-08-10 Fujixerox Co., Ltd. System and method for determining the location of a target in a room or small area
US6839417B2 (en) * 2002-09-10 2005-01-04 Myriad Entertainment, Inc. Method and apparatus for improved conference call management
US7761505B2 (en) * 2002-11-18 2010-07-20 Openpeak Inc. System, method and computer program product for concurrent performance of video teleconference and delivery of multimedia presentation and archiving of same
KR20050084263A (ko) * 2002-12-11 2005-08-26 코닌클리케 필립스 일렉트로닉스 엔.브이. 비디오 폰 이미지에서 머리 자세를 보정하기 위한 방법 및장치
US6920942B2 (en) * 2003-01-29 2005-07-26 Varco I/P, Inc. Method and apparatus for directly controlling pressure and position associated with an adjustable choke apparatus
US20050080849A1 (en) * 2003-10-09 2005-04-14 Wee Susie J. Management system for rich media environments
US20050239028A1 (en) * 2004-04-03 2005-10-27 Wu Chang J R Stance guide and method of use
JP4241484B2 (ja) * 2004-04-14 2009-03-18 日本電気株式会社 携帯端末装置、着信応答メッセージ送信方法およびサーバ装置
KR20070043962A (ko) * 2004-07-05 2007-04-26 코닌클리케 필립스 일렉트로닉스 엔.브이. 시스템에 대한 사용자의 액세스를 확립하는 방법
US20080289002A1 (en) * 2004-07-08 2008-11-20 Koninklijke Philips Electronics, N.V. Method and a System for Communication Between a User and a System
US8456506B2 (en) * 2004-08-03 2013-06-04 Applied Minds, Llc Systems and methods for enhancing teleconferencing collaboration
JP2006130221A (ja) * 2004-11-09 2006-05-25 Konica Minolta Medical & Graphic Inc 医用画像転送装置、プログラム及び記憶媒体
CN100345085C (zh) * 2004-12-30 2007-10-24 中国科学院自动化研究所 基于玩家姿势和语音的电子游戏场景和角色控制方法
KR100960577B1 (ko) * 2005-02-08 2010-06-03 오블롱 인더스트리즈, 인크 제스처 기반의 제어 시스템을 위한 시스템 및 방법
US20070009139A1 (en) * 2005-07-11 2007-01-11 Agere Systems Inc. Facial recognition device for a handheld electronic device and a method of using the same
US20070057912A1 (en) * 2005-09-14 2007-03-15 Romriell Joseph N Method and system for controlling an interface of a device through motion gestures
US8125509B2 (en) * 2006-01-24 2012-02-28 Lifesize Communications, Inc. Facial recognition for a videoconference
KR100705598B1 (ko) * 2006-02-10 2007-04-09 삼성전자주식회사 얼굴인식을 통한 화상전화기의 사용자 정보 접근제어장치그 방법
WO2007093984A2 (en) * 2006-02-16 2007-08-23 Ftk Technologies Ltd. A system and method of inputting data into a computing system
KR100783552B1 (ko) * 2006-10-11 2007-12-07 삼성전자주식회사 휴대 단말기의 입력 제어 방법 및 장치
US7873067B2 (en) * 2006-12-29 2011-01-18 Alcatel-Lucent Usa Inc. Adaptive method of floor control with fast response time and fairness in communication network
US8154583B2 (en) * 2007-05-31 2012-04-10 Eastman Kodak Company Eye gazing imaging for video communications
CN103442201B (zh) 2007-09-24 2018-01-02 高通股份有限公司 用于语音和视频通信的增强接口
TW201020896A (en) * 2008-11-19 2010-06-01 Nat Applied Res Laboratories Method of gesture control
US8749557B2 (en) * 2010-06-11 2014-06-10 Microsoft Corporation Interacting with user interface via avatar

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08315154A (ja) * 1995-02-21 1996-11-29 Mitsubishi Electric Res Lab Inc ジェスチャ認識システム
JP2002196855A (ja) * 2000-10-06 2002-07-12 Sony Computer Entertainment Inc 画像処理装置、画像処理方法、記録媒体、コンピュータプログラム、半導体デバイス
JP2005216061A (ja) * 2004-01-30 2005-08-11 Sony Computer Entertainment Inc 画像処理装置、画像処理方法、記録媒体、コンピュータプログラム、半導体デバイス
JP2007072564A (ja) * 2005-09-05 2007-03-22 Sony Computer Entertainment Inc マルチメディア再生装置、メニュー操作受付方法およびコンピュータプログラム
JP2007081732A (ja) * 2005-09-13 2007-03-29 Canon Inc 撮像装置
JP2007178542A (ja) * 2005-12-27 2007-07-12 Samsung Techwin Co Ltd 撮像装置

Cited By (65)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9746931B2 (en) 2010-12-27 2017-08-29 Hitachi Maxell, Ltd. Image processing device and image display device
JP2012137899A (ja) * 2010-12-27 2012-07-19 Hitachi Consumer Electronics Co Ltd 映像処理装置及び映像表示装置
US9086726B2 (en) 2010-12-27 2015-07-21 Hitachi Maxell, Ltd. Image processing device and image display device
JP2014501415A (ja) * 2011-01-05 2014-01-20 ソフトキネティック ソフトウェア 自然なジェスチャに基づくユーザ・インターフェース方法及びシステム
KR101554082B1 (ko) * 2011-01-05 2015-09-17 소프트키네틱 소프트웨어 자연스러운 제스처 기반 사용자 인터페이스 방법 및 시스템
US9081419B2 (en) 2011-01-05 2015-07-14 Softkinetic Software Natural gesture based user interface methods and systems
JP2014225288A (ja) * 2011-01-05 2014-12-04 ソフトキネティック ソフトウェア 自然なジェスチャに基づくユーザ・インターフェース方法及びシステム
JP2014509758A (ja) * 2011-02-28 2014-04-21 フェイスケーキ マーケティング テクノロジーズ,インコーポレイテッド リアルタイムの仮想反射
WO2012121405A1 (en) * 2011-03-07 2012-09-13 Sharp Kabushiki Kaisha A user interface, a device having a user interface and a method of providing a user interface
JP2012244374A (ja) * 2011-05-19 2012-12-10 Konica Minolta Business Technologies Inc 会議システム、会議管理装置、会議管理方法およびプログラム
JP2013012158A (ja) * 2011-06-30 2013-01-17 Toshiba Corp 電子機器および制御方法
JP2013025488A (ja) * 2011-07-19 2013-02-04 Ricoh Co Ltd 情報処理装置および情報処理方法
US9304600B2 (en) 2011-09-15 2016-04-05 Omron Corporation Gesture recognition device, electronic apparatus, gesture recognition device control method, control program, and recording medium
WO2013038734A1 (ja) * 2011-09-15 2013-03-21 オムロン株式会社 ジェスチャ認識装置、電子機器、ジェスチャ認識装置の制御方法、制御プログラムおよび記録媒体
JP2013065112A (ja) * 2011-09-15 2013-04-11 Omron Corp ジェスチャ認識装置、電子機器、ジェスチャ認識装置の制御方法、制御プログラムおよび記録媒体
KR101597922B1 (ko) * 2011-09-15 2016-02-25 오므론 가부시키가이샤 제스처 인식 장치, 전자 기기, 제스처 인식 장치의 제어 방법, 제어 프로그램 및 기록 매체
KR20140027469A (ko) * 2011-09-15 2014-03-06 오므론 가부시키가이샤 제스처 인식 장치, 전자 기기, 제스처 인식 장치의 제어 방법, 제어 프로그램 및 기록 매체
WO2013038733A1 (ja) * 2011-09-15 2013-03-21 オムロン株式会社 ジェスチャ認識装置、電子機器、ジェスチャ認識装置の制御方法、制御プログラムおよび記録媒体
JP2013065111A (ja) * 2011-09-15 2013-04-11 Omron Corp ジェスチャ認識装置、電子機器、ジェスチャ認識装置の制御方法、制御プログラムおよび記録媒体
US9348422B2 (en) 2011-12-05 2016-05-24 Alcatel Lucent Method for recognizing gestures and gesture detector
JP2015507391A (ja) * 2011-12-05 2015-03-05 アルカテル−ルーセント ジェスチャを認識するための方法およびジェスチャ検出器
JP2013141236A (ja) * 2011-12-28 2013-07-18 Samsung Electronics Co Ltd ディスプレイ装置、映像処理システム、ディスプレイ方法及び映像処理方法
WO2013114806A1 (ja) * 2012-01-30 2013-08-08 九州日本電気ソフトウェア株式会社 生体認証装置及び生体認証方法
JPWO2013114806A1 (ja) * 2012-01-30 2015-05-11 Necソリューションイノベータ株式会社 生体認証装置及び生体認証方法
JP2013171490A (ja) * 2012-02-22 2013-09-02 Tokyo Denki Univ タッチ位置入力装置及びタッチ位置入力方法
JP2013239113A (ja) * 2012-05-17 2013-11-28 Sharp Corp 電子機器、電子機器におけるアイコン操作方法、および電子機器におけるアイコン操作をコンピュータに実行させるコンピュータプログラム
JPWO2013175847A1 (ja) * 2012-05-22 2016-01-12 ソニー株式会社 画像処理装置、画像処理方法、及びプログラム
US10360706B2 (en) 2012-05-22 2019-07-23 Sony Corporation Device method and program for adjusting a display state of a superimposed image
US9704028B2 (en) 2012-05-29 2017-07-11 Sony Corporation Image processing apparatus and program
JP2013246743A (ja) * 2012-05-29 2013-12-09 Sony Corp 画像処理装置、およびプログラム
JP2015524110A (ja) * 2012-06-01 2015-08-20 マイクロソフト コーポレーション コンテキスト・ユーザー・インターフェース
US10248301B2 (en) 2012-06-01 2019-04-02 Microsoft Technology Licensing, Llc Contextual user interface
US10025478B2 (en) 2012-06-01 2018-07-17 Microsoft Technology Licensing, Llc Media-aware interface
US9798457B2 (en) 2012-06-01 2017-10-24 Microsoft Technology Licensing, Llc Synchronization of media interactions using context
WO2014010543A1 (ja) * 2012-07-09 2014-01-16 Necカシオモバイルコミュニケーションズ株式会社 情報処理装置、入力受付方法及びプログラム
US11513601B2 (en) 2012-07-13 2022-11-29 Sony Depthsensing Solutions Sa/Nv Method and system for human-to-computer gesture based simultaneous interactions using singular points of interest on a hand
KR20200087284A (ko) * 2012-08-01 2020-07-20 구글 엘엘씨 영상 회의 시스템에서의 아바타 이용
KR102444825B1 (ko) * 2012-08-01 2022-09-16 구글 엘엘씨 영상 회의 시스템에서의 아바타 이용
JP2017195629A (ja) * 2012-08-03 2017-10-26 アルカテル−ルーセント ビデオ会議中の参加者の映像ミュートを可能にするための方法および装置
JP2015531197A (ja) * 2012-08-03 2015-10-29 アルカテル−ルーセント ビデオ会議中の参加者の映像ミュートを可能にするための方法および装置
KR102056588B1 (ko) * 2012-08-03 2019-12-18 프라버넌스 어셋 그룹 엘엘씨 화상 회의 동안 참여자의 비주얼 뮤트를 가능케 하는 방법 및 장치
KR20140039641A (ko) * 2012-09-24 2014-04-02 엘지전자 주식회사 영상표시장치, 및 그 동작방법
KR102035134B1 (ko) 2012-09-24 2019-10-22 엘지전자 주식회사 영상표시장치, 및 그 동작방법
JPWO2014119258A1 (ja) * 2013-01-31 2017-01-26 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 情報処理方法及び情報処理装置
WO2014119258A1 (ja) * 2013-01-31 2014-08-07 パナソニック株式会社 情報処理方法及び情報処理装置
US9323343B2 (en) 2013-01-31 2016-04-26 Panasonic Intellectual Property Corporation Of America Information processing method and information processing apparatus
JP2015061086A (ja) * 2013-09-17 2015-03-30 株式会社リコー 伝送端末及びプログラム
US11294470B2 (en) 2014-01-07 2022-04-05 Sony Depthsensing Solutions Sa/Nv Human-to-computer natural three-dimensional hand gesture based navigation method
WO2016002306A1 (ja) * 2014-07-02 2016-01-07 ソニー株式会社 情報処理システム、情報処理端末、および情報処理方法
US10546402B2 (en) 2014-07-02 2020-01-28 Sony Corporation Information processing system, information processing terminal, and information processing method
JP2016038810A (ja) * 2014-08-08 2016-03-22 株式会社東芝 仮想試着装置、仮想試着方法、およびプログラム
US10296096B2 (en) 2015-07-15 2019-05-21 Kabushiki Kaisha Toshiba Operation recognition device and operation recognition method
JP2017027098A (ja) * 2015-07-15 2017-02-02 株式会社東芝 操作認識装置、操作認識方法及びプログラム
JP2018005660A (ja) * 2016-07-05 2018-01-11 株式会社リコー 情報処理装置、プログラム、位置情報作成方法、情報処理システム
JP2018120520A (ja) * 2017-01-27 2018-08-02 株式会社コロプラ 仮想空間を介して通信するための方法、当該方法をコンピュータに実行させるためのプログラム、および当該プログラムを実行するための情報処理装置
JP6275891B1 (ja) * 2017-01-27 2018-02-07 株式会社コロプラ 仮想空間を介して通信するための方法、当該方法をコンピュータに実行させるためのプログラム、および当該プログラムを実行するための情報処理装置
JP2019191946A (ja) * 2018-04-25 2019-10-31 パイオニア株式会社 情報処理装置
US11383166B2 (en) 2018-08-28 2022-07-12 Tencent Technology (Shenzhen) Company Limited Interaction method of application scene, mobile terminal, and storage medium
JP2021516836A (ja) * 2018-08-28 2021-07-08 テンセント・テクノロジー・(シェンジェン)・カンパニー・リミテッド アプリケーションシーンにおけるインタラクティブ方法並びにその方法を実行するモバイル端末及びコンピュータプログラム
JP7026267B2 (ja) 2018-08-28 2022-02-25 テンセント・テクノロジー・(シェンジェン)・カンパニー・リミテッド アプリケーションシーンにおけるインタラクティブ方法並びにその方法を実行するモバイル端末及びコンピュータプログラム
KR102192582B1 (ko) 2018-12-13 2020-12-17 한동대학교 산학협력단 인공지능 기반의 사용자 동작 인식을 통한 브라우저 제어 방법
KR20200075149A (ko) * 2018-12-13 2020-06-26 한동대학교 산학협력단 인공지능 기반의 사용자 동작 인식을 통한 브라우저 제어 방법
JP2021176212A (ja) * 2020-05-01 2021-11-04 tonari株式会社 仮想的空間接続装置
JP7387167B2 (ja) 2020-05-01 2023-11-28 tonari株式会社 仮想的空間接続装置、システム
JP2022128366A (ja) * 2021-02-22 2022-09-01 Rsupport株式会社 人工ニューラルネットワークを用いた動作認識のテレビ会議方法

Also Published As

Publication number Publication date
WO2009042579A1 (en) 2009-04-02
EP2201761A4 (en) 2010-12-01
CN103442201A (zh) 2013-12-11
EP2201761A1 (en) 2010-06-30
US8830292B2 (en) 2014-09-09
JP5559691B2 (ja) 2014-07-23
US8325214B2 (en) 2012-12-04
CN103442201B (zh) 2018-01-02
EP2201761B1 (en) 2013-11-20
EP2597868B1 (en) 2017-09-13
CN101874404B (zh) 2013-09-18
EP2597868A1 (en) 2013-05-29
US20090079813A1 (en) 2009-03-26
CN101874404A (zh) 2010-10-27
US20130027503A1 (en) 2013-01-31

Similar Documents

Publication Publication Date Title
JP5559691B2 (ja) 音声及びビデオ通信のための機能向上したインタフェース
US11849255B2 (en) Multi-participant live communication user interface
US9986206B2 (en) User experience for conferencing with a touch screen display
JP6998353B2 (ja) 複数参加者ライブ通信ユーザインターフェース
EP3430802B1 (en) Selectable interaction elements in a 360-degree video stream
JP2010534895A (ja) 高度なカメラをベースとした入力
JP2014220619A (ja) 会議情報記録システム、情報処理装置、制御方法およびコンピュータプログラム
AU2022228207B2 (en) Multi-participant live communication user interface
JP2018073237A (ja) 会議情報表示システム、会議情報表示方法および会議情報表示プログラム
AU2021203903B2 (en) Multi-participant live communication user interface
JPH09139928A (ja) 多地点ビデオ会議システム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110913

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20120206

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20121206

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20121218

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20130312

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20130319

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20130418

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20130425

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130614

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20131015

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140214

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20140224

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140507

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140606

R150 Certificate of patent or registration of utility model

Ref document number: 5559691

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250