JP2013089238A - ジェスチャ処理プログラム - Google Patents

ジェスチャ処理プログラム Download PDF

Info

Publication number
JP2013089238A
JP2013089238A JP2012224936A JP2012224936A JP2013089238A JP 2013089238 A JP2013089238 A JP 2013089238A JP 2012224936 A JP2012224936 A JP 2012224936A JP 2012224936 A JP2012224936 A JP 2012224936A JP 2013089238 A JP2013089238 A JP 2013089238A
Authority
JP
Japan
Prior art keywords
gesture
user
communication session
message
processing program
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012224936A
Other languages
English (en)
Other versions
JP2013089238A5 (ja
JP5935644B2 (ja
Inventor
Rieffel Eleanor
リーフェル エレノア
Jacob Biehl
ビール ジェイコブ
Ann Turner Althea
アン ターナー アルスィア
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Business Innovation Corp
Original Assignee
Fuji Xerox Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Xerox Co Ltd filed Critical Fuji Xerox Co Ltd
Publication of JP2013089238A publication Critical patent/JP2013089238A/ja
Publication of JP2013089238A5 publication Critical patent/JP2013089238A5/ja
Application granted granted Critical
Publication of JP5935644B2 publication Critical patent/JP5935644B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures

Abstract

【課題】会話を管理するためのジェスチャを使用して、複数の様式にわたって会話を管理する。
【解決手段】第1のユーザのジェスチャを検出し、前記ジェスチャと、第1のコミュニケーションセッションとに関連付けられた、第1のメッセージを、前記ジェスチャに基づいて判定し、前記ジェスチャと、第2のコミュニケーションセッションとに関連付けられた、第2のメッセージを、前記ジェスチャに基づいて判定し、前記第1のメッセージを、前記第1のコミュニケーションセッションに出力し、前記第2のメッセージを、前記第2のコミュニケーションセッションに出力する。
【選択図】図2

Description

本開示は、ジェスチャ処理方法に関し、特に、電子コミュニケーションセッションに参加しているユーザのコミュニケーションを管理するための、ジェスチャベースの方法に関する。
ユーザ間でコミュニケーションする方法は、直接顔を合わせた会話、電話での会話、インスタントメッセージング(IM)での会話、テレビ会議、及び仮想世界の中でのコミュニケーションなどの、リアルタイムコミュニケーションを含む。しばしば、人は、1つ以上の様式で行われる、複数の異なるタイプの会話に参加する場合がある。ほとんどの電子メッセージングクライアントは、様々な参加者間の複数のコミュニケーションセッションに、ユーザが同時に参加するための機能を含む。
一般に、人々は、全ての参加者が物理的に存在している、直接顔を合わせた複数の会話の間の折衝を行い、直接顔を合わせた様々な会話の間で、中断及び移行を調整することには長けている。しかし、電子メッセージングアプリケーションのユーザは、物理的に存在していない他のユーザとの、複数の会話を管理することには、長けていない可能性がある。例えば、進行中の電子コミュニケーションセッションにユーザが参加している場合、訪問者が到着した際に、ユーザがコンピュータへのタイプ入力を続けるのは、具合が悪い可能性がある。同様に、進行中の電子会話において、電子会話に参加している他のユーザに、参加をやめる理由を提供せずに、応答するのをやめることは、無礼とみなされる可能性がある。
同様に、このような事態は、コミュニケーションセッションにすでに参加しているユーザが、追加のコミュニケーションセッションへの参加を開始する場合にしばしば発生する。これは、現在のコミュニケーションツールによっても、社会的エチケットによってもまだ対処されていない、コミュニケーションセッションがどのように管理されるべきかについてのジレンマを、ユーザに与える。
たとえば、関連技術として、チャットもしくはインスタントメッセージングセッションにおいてネットワークを介して自動的にジェスチャを送信するためにビデオ画像解析を使用する技術(特許文献1)、点字、感情アイコンなどの特殊なシンボルに感情を変換する技術(特許文献2)、ユーザの視野外でなされた他者のジェスチャを該ユーザに知らせる技術(特許文献3)などがある。
米国特許第7,039,676号明細書 米国特許第7,607,097号明細書 米国特許第7,725,547号明細書
本出願は、会話を管理するためのジェスチャを使用して、複数の様式にわたって会話を管理する、改良された方法を提供する。
実施形態の一態様によれば、ジェスチャを処理する方法は、第1のユーザのジェスチャを検出し、ジェスチャと、第1のコミュニケーションセッションとに関連付けられた、第1のメッセージを、ジェスチャに基づいて判定し、ジェスチャと、第2のコミュニケーションセッションとに関連付けられた、第2のメッセージを、ジェスチャに基づいて判定し、第1のメッセージを、第1のコミュニケーションセッションに出力し、第2のメッセージを、第2のコミュニケーションセッションに出力することを含んでもよい。
実施形態の一態様によれば、ジェスチャを処理する方法は、第1のユーザのジェスチャを検出し、ジェスチャと、第2のユーザとに関連付けられた、第1のメッセージを、ジェスチャに基づいて判定し、ジェスチャと、第3のユーザとに関連付けられた、第2のメッセージを、ジェスチャに基づいて判定し、第1のメッセージを、第1のユーザと、第2のユーザとの間の、第1のコミュニケーションセッションに出力し、第2のメッセージを、第1のユーザと、第3のユーザとの間の、第2のコミュニケーションセッションに出力することを含んでもよい。
実施形態の一態様によれば、ジェスチャを処理する方法は、第1のユーザによって、非慣例的ジェスチャ(unconventional gesture)を定義し、非慣例的ジェスチャを、メッセージと関連付け、第1のユーザの非慣例的ジェスチャを検出し、非慣例的ジェスチャの検出に応えて、非慣例的ジェスチャと関連付けられたメッセージを、第1のユーザと、第2のユーザとの間の、コミュニケーションセッションに出力することを含んでもよい。
本発明の第1の態様のジェスチャ処理プログラムは、第1のユーザのジェスチャを検出する手段と、前記ジェスチャと、第1のコミュニケーションセッションとに関連付けられた、第1のメッセージを、前記ジェスチャに基づいて判定する手段と、前記ジェスチャと、第2のコミュニケーションセッションとに関連付けられた、第2のメッセージを、前記ジェスチャに基づいて判定する手段と、前記第1のメッセージを、前記第1のコミュニケーションセッションに出力し、前記第2のメッセージを、前記第2のコミュニケーションセッションに出力する手段と、として、コンピュータを機能させる。
本発明の第2の態様は、第1の態様のジェスチャ処理プログラムであって、前記第1のコミュニケーションセッションは、前記第1のユーザと、第2のユーザとの間の、ネットワークを介した、第1の電子コミュニケーションセッションであり、前記第2のコミュニケーションセッションは、前記第1のユーザと、第3のユーザとの間の、ネットワークを介した、第2の電子コミュニケーションセッションである。
本発明の第3の態様は、第2の態様のジェスチャ処理プログラムであって、前記第1の電子コミュニケーションセッション、及び前記第2の電子コミュニケーションセッションのうちの、少なくとも1つは、インスタントメッセージングコミュニケーションセッションである。
本発明の第4の態様は、第2の態様のジェスチャ処理プログラムであって、前記第1の電子コミュニケーションセッションは、前記第1のユーザと、前記第2のユーザとの間の、第1のアプリケーションプログラムを介した、コミュニケーションセッションであり、前記第2の電子コミュニケーションセッションは、前記ユーザと、前記第3のユーザとの間の、第2のアプリケーションプログラムを介した、コミュニケーションセッションである。
本発明の第5の態様は、第1の態様のジェスチャ処理プログラムであって、イベントの発生を検出する手段、として前記コンピュータをさらに機能させ、前記第1のメッセージを判定する手段は、前記ジェスチャと、前記第1のコミュニケーションセッションとに関連付けられた、前記第1のメッセージを、前記ジェスチャと、前記イベントの発生とに基づいて判定し、前記第2のメッセージを判定する手段は、前記ジェスチャと、前記第2のコミュニケーションセッションとに関連付けられた、前記第2のメッセージを、前記ジェスチャと、前記イベントの発生とに基づいて判定する。
本発明の第6の態様は、第5の態様のジェスチャ処理プログラムであって、前記イベントの発生は、前記第1のユーザの付近における客の存在の検出、及び、前記第1のユーザによる、新たなコミュニケーションセッションへの参加の開始、のうちの少なくとも1つを含む。
本発明の第7の態様は、第5の態様のジェスチャ処理プログラムであって、前記イベントの発生は、前記第1のコミュニケーションセッション、及び前記第2のコミュニケーションセッションへの、前記第1のユーザの参加の中断を含む。
本発明の第8の態様は、第1の態様のジェスチャ処理プログラムであって、前記第1のコミュニケーションセッションは、前記第1のユーザと、第2のユーザとの間の、コミュニケーションセッションであり、前記第2のコミュニケーションセッションは、前記第1のユーザと、第3のユーザとの間の、ネットワークを介した、コミュニケーションセッションであり、前記第2のユーザの識別情報と、前記第3のユーザの識別情報とを判定する手段、として前記コンピュータをさらに機能させ、前記第1のメッセージを判定する手段は、前記ジェスチャと、前記第1のコミュニケーションセッションとに関連付けられた、前記第1のメッセージを、前記ジェスチャと、前記第2のユーザの前記識別情報とに基づいて判定し、前記第2のメッセージを判定する手段は、前記ジェスチャと、前記第2のコミュニケーションセッションとに関連付けられた、前記第2のメッセージを、前記ジェスチャと、前記第3のユーザの前記識別情報とに基づいて判定する。
本発明の第9の態様のジェスチャ処理プログラムは、第1のユーザのジェスチャを検出する手段と、前記ジェスチャと、第2のユーザとに関連付けられた、第1のメッセージを、前記ジェスチャに基づいて判定する手段と、前記ジェスチャと、第3のユーザとに関連付けられた、第2のメッセージを、前記ジェスチャに基づいて判定する手段と、前記第1のメッセージを、前記第1のユーザと、前記第2のユーザとの間の、第1のコミュニケーションセッションに出力し、前記第2のメッセージを、前記第1のユーザと、前記第3のユーザとの間の、第2のコミュニケーションセッションに出力する手段と、としてコンピュータを機能させる。
本発明の第10の態様は、第9の態様のジェスチャ処理プログラムであって、前記第1のコミュニケーションセッションは、前記第1のユーザと、前記第2のユーザとの間の、ネットワークを介した、第1の電子コミュニケーションセッションであり、前記第2のコミュニケーションセッションは、前記第1のユーザと、前記第3のユーザとの間の、ネットワークを介した、第2の電子コミュニケーションセッションである。
本発明の第11の態様は、第10の態様のジェスチャ処理プログラムであって、前記第1の電子コミュニケーションセッション、及び前記第2の電子コミュニケーションセッションのうちの、少なくとも1つは、インスタントメッセージングコミュニケーションセッションである。
本発明の第12の態様は、第10の態様のジェスチャ処理プログラムであって、前記第1の電子コミュニケーションセッションは、前記第1のユーザと、前記第2のユーザとの間の、第1のアプリケーションプログラムを介した、コミュニケーションセッションであり、前記第2の電子コミュニケーションセッションは、前記第1のユーザと、前記第3のユーザとの間の、第2のアプリケーションプログラムを介した、コミュニケーションセッションである。
本発明の第13の態様のジェスチャ処理プログラムは、第1のユーザの非慣例的ジェスチャを定義する手段と、前記非慣例的ジェスチャを、メッセージと関連付ける手段と、前記第1のユーザの前記非慣例的ジェスチャを検出する手段と、前記非慣例的ジェスチャの検出に応えて、前記非慣例的ジェスチャと関連付けられた前記メッセージを、前記ユーザと、第2のユーザとの間の、コミュニケーションセッションに出力する手段と、としてコンピュータを機能させる。
本発明の第14の態様は、第13の態様のジェスチャ処理プログラムであって、前記非慣例的ジェスチャは、前記第1のユーザと、前記第2のユーザとの間の、非言語的コミュニケーションと関連付けられていないジェスチャである。
本発明の第15の態様は、第14の態様のジェスチャ処理プログラムであって、前記非慣例的ジェスチャを検出する手段は、前記第1のユーザの前記非慣例的ジェスチャを、前記第1のユーザが前記コミュニケーションセッションに参加している間に検出する。
本発明の第16の態様は、第13の態様のジェスチャ処理プログラムであって、前記非慣例的ジェスチャは、前記第1のユーザと、前記第2のユーザとの間で、メッセージを運ぶための、前記第2のユーザによって理解されないジェスチャである。
本発明の第17の態様は、第16の態様のジェスチャ処理プログラムであって、前記非慣例的ジェスチャを検出する手段は、前記第1のユーザの前記非慣例的ジェスチャを、前記第1のユーザが前記コミュニケーションセッションに参加している間に検出する。
本発明の第18の態様は、第13の態様のジェスチャ処理プログラムであって、前記非慣例的ジェスチャを定義する手段は、前記第1のユーザの前記非慣例的ジェスチャを記録し、前記第1のユーザの前記非慣例的ジェスチャを記憶する。
本発明の第19の態様は、第18の態様のジェスチャ処理プログラムであって、前記非慣例的ジェスチャを記憶することは、前記第1のユーザの身体部分の、動き、及び位置のうちの、少なくとも1つを、前記非慣例的ジェスチャとして割り当て、前記第1のユーザの前記身体部分の、前記動き、及び前記位置のうちの、前記少なくとも1つを表す座標を記憶する、ことを含む。
本発明の第20の態様のジェスチャ処理プログラムは、第1のユーザの非慣例的ジェスチャを定義する手段と、前記非慣例的ジェスチャを、前記第1のユーザと第2のユーザとの間のコミュニケーションセッションを提供するアプリケーションのコマンドと関連付ける手段と、前記第1のユーザの前記非慣例的ジェスチャを検出する手段と、前記非慣例的ジェスチャの検出に応えて、前記非慣例的ジェスチャと関連付けられた前記コマンドを、前記アプリケーションに出力し、前記アプリケーションの前記機能を実行する手段と、としてコンピュータを機能させるためのジェスチャ処理プログラムであって、前記コマンドは、前記アプリケーションの機能を前記アプリケーションに実行させる。
本発明の第21の態様は、第20の態様のジェスチャ処理プログラムであって、前記アプリケーションは、インスタントメッセージングアプリケーションであり、前記コマンドは、前記アプリケーション内での、前記ユーザのステータスを設定するためのコマンドである。
本発明によれば、ユーザが会話を管理すること(ジェスチャを介した、会話間の折衝を含む)が可能となる。
実施形態が適用されてもよいシステムのブロック図である。 実施形態による、ジェスチャを使用してコミュニケーションセッションを管理するシステムの図である。 実施形態による、ジェスチャを使用してコミュニケーションセッションを管理する、追加のシステムを示す。 実施形態による、コミュニケーションセッションを管理するシステムによって検出されるジェスチャの例を示す。 実施形態による、コミュニケーションセッションを管理するシステムによって検出されるジェスチャの例を示す。 実施形態による、コミュニケーションセッションを管理するシステムによって検出されるジェスチャの例を示す。 実施形態による、コミュニケーションセッションを管理するシステムによって検出されるジェスチャの例を示す。 実施形態による、ジェスチャ辞書を示す。 実施形態による、ジェスチャ処理を使用してコミュニケーションセッションを管理する方法を示す。
実施形態の、上記の、及びその他の態様は、添付の図面と組み合わせて提供される、実施形態の以下の説明を考慮することによって、より良く理解されるようになるであろう。
特定の実施形態を、以下の詳細な説明及び図面によって示す。
実施形態の説明は、例示及び説明の目的のために提示されるものであり、網羅的であることも、開示される形態に限定されることも意図するものではない。本開示の範囲及び思想から逸脱しない、多くの修正及び変形は、当業者にとって明白であろう。実施形態は、本開示の原理、及びその実際的な適用を最も良く説明するように、かつ、本開示、及び企図される特定の用途に適した様々な修正を、当業者が理解できるように、選択され、説明される。
実施形態の態様は、システム、方法、又は、コンピュータ読み取り可能なプログラムコードを組み入れたコンピュータ読み取り可能な媒体上で実施されるコンピュータプログラムであってもよい。従って、実施形態の態様は、完全にハードウェアの実施形態、完全にソフトウェアの実施形態、又は、ソフトウェア及びハードウェアの態様を組み合わせた実施形態の形態を取ってもよい。
図1は、実施形態が適用されてもよいシステムを示すブロック図である。
図1を参照すると、システム100は、汎用コンピュータ、専用コンピュータ、パーソナルコンピュータ、サーバ、タブレットなどであってもよい。システム100は、プロセッサ110と、メモリ120と、記憶ユニット130と、I/Oインタフェース140と、ユーザインタフェース150と、バス160とを含んでもよい。プロセッサ110は、システム100の要素110〜150をコミュニケーション可能なように互いに接続するバス160を介して、制御信号及び/又はデータを送信することによって、システム100の動作を制御する、中央処理ユニット(CPU)又はマイクロコントローラであってもよい。バス160は、制御バス、データバスなどであってもよい。プロセッサ110には、システム100の動作を実施及び制御するための命令が、例えば、コンピュータ読み取り可能なコードの形態で、提供されてもよい。コンピュータ読み取り可能なコードは、メモリ120、又は記憶ユニット130内に記憶されてもよい。あるいは、コンピュータ読み取り可能なコードは、I/Oインタフェース140、又はユーザインタフェース150を介して受信されてもよい。
上述したメモリ120は、RAM、ROM、EPROM、又はフラッシュメモリなどを含んでもよい。やはり上述した記憶ユニット130は、ハードディスクドライブ(HDD)、ソリッドステートドライブなどを含んでもよい。記憶ユニット130は、プロセッサ110による実行のためにメモリ120内にロードされる、オペレーティングシステム(OS)及びアプリケーションプログラムを記憶してもよい。I/Oインタフェース140は、システムと、他のシステム又は周辺装置などの、他の外部装置との間のデータ交換を、直接、あるいは、例えば、LAN、WAN、又はインターネットなどの、ネットワークを介して実行する。I/Oインタフェース140は、ユニバーサルシリアルバス(USB)ポート、ネットワークインタフェースカード(NIC)、米国電気電子技術者協会(IEEE)1394ポートなどを含んでもよい。ユーザインタフェース150は、ユーザの入力を受信し、ユーザに出力を提供する。ユーザインタフェース150は、ユーザの入力を受信するための、マウス、キーボード、タッチスクリーン、又はその他の入力装置を含んでもよい。ユーザインタフェース150は、ユーザに出力を提供するための、モニタ又は液晶ディスプレイ(LCD)などの、ディスプレイ、スピーカなども含んでもよい。
図におけるフローチャート及びブロック図は、様々な実施形態による、システム、方法、及びコンピュータプログラム製品の実施の、アーキテクチャ、機能、及び動作を示す。これに関して、フローチャート又はブロック図内の、各ブロックは、説明される機能を実施するための1つ以上の実行可能命令を含む、モジュール、セグメント、又はコードの部分を表してもよい。代替の実施では、ブロック内に記載された機能は、図中に記載された順序以外の順序で発生してもよく、図及び/又はフローチャート内の、ブロックの組み合わせが、指定された機能を実行する専用ハードウェアベースのシステムによって実施されてもよい。
図2は、ジェスチャを使用してコミュニケーションセッションを管理するシステムを示す。
システム200は、ポーズ検出ユニット210と、ジェスチャ検出ユニット220と、ジェスチャ解釈ユニット230と、コミュニケーションユニット240とを含んでもよい。システム200は、プロセッサ及びメモリを含む、ハードウェアと、入力を解釈し、様々なインタフェースを介して出力を提供するための、ハードウェアによって実行される、ソフトウェアとの組み合わせを介して実施されてもよい。
ポーズ検出ユニット210は、ユーザのポーズを検出する。ポーズは、ユーザの1つ以上の身体部分の位置を含んでもよい。従って、ポーズ検出ユニット210は、例えば、ユーザの指の位置、ユーザの手の位置、又はユーザ全体の位置を検出してもよい。ポーズ検出ユニット210は、ユーザの検出された動きなどの入力に応えて、ユーザの位置、ユーザの身体部分の位置、及び身体部分の向きを、継続的又は系統的に追跡する、センサ又はビデオカメラであってもよい。
ポーズを検出するために、ポーズ検出ユニット210は、身体部分の、基準点を基準にした座標、又は、少なくとも1つの他の身体部分の位置を基準にした座標を、検出してもよい。従って、ポーズ検出ユニット210は、関節角度、又は信頼性評価を、ユーザの検出されたポーズとして採用してもよい。
ポーズ検出ユニット210によって検出されるポーズは、ユーザの身体部分の、基準点又は他の身体部分を基準にした、位置又は向きの、任意の組み合わせを含む、複合ポーズであってもよい。例えば、複合ポーズは、ユーザの右手の位置と、ユーザの左手の位置とを含んでもよい。ポーズ検出ユニット210は、検出されたポーズを、ポーズデータとして、ジェスチャ検出ユニット220に出力する。
ポーズ検出ユニット210は、ユーザの動きも、ポーズとして検出してもよい。従って、ポーズ検出ユニット210は、ユーザの1つ以上の身体部分の、第1の位置から第2の位置までの平行移動を検出してもよい。身体部分の平行移動は、基準点に相対的な、第1の位置から第2の位置までの平行移動であってもよい。あるいは、平行移動は、少なくとも1つの他の身体部分の位置を基準にしたものであってもよい。
ユーザの複数の身体部分の位置又は向きの組み合わせの、複合ポーズは、複数の身体部分の1つ以上の平行移動を含んでもよい。これに関して、複合ポーズは、複数の身体部分の1つ以上の位置、複数の身体部分の1つ以上の平行移動、及び、位置と平行移動との任意の組み合わせを含んでもよい。
ジェスチャ検出ユニット220は、ポーズ検出ユニット210によって出力されたポーズデータを受信する。ポーズ検出ユニット210によって出力されたポーズデータの受信に応えて、ジェスチャ検出ユニットは、ユーザのポーズデータが、ユーザのジェスチャに対応するジェスチャデータを含むかどうかを判定する。
ポーズデータが、ユーザの身体部分の位置を示すデータを含む場合、ジェスチャ検出ユニット220は、ポーズデータを解析して、ポーズデータ内の、ある時点での、又はある期間にわたっての、1つ又は複数の身体部分の、位置又は位置の組が、所定のジェスチャに対応するかどうかを判定する。例えば、ジェスチャ検出ユニット220は、手のポーズが、ある期間にわたって、安定した位置で保持されているかどうかを、又は、手の位置が、ある期間の間に、第1の位置から第2の位置まで変化したかどうかを判定してもよい。ジェスチャ検出ユニット220は、ジェスチャデータのデータベースにアクセスして、ジェスチャに対応するジェスチャデータが、ポーズデータ内に存在するかどうかどうかを判定してもよい。ジェスチャデータが、複合ジェスチャに対応する場合、ジェスチャ検出ユニット220は、身体部分の様々な位置に対応するジェスチャデータの組み合わせを解析して、複合ジェスチャが、ポーズデータ内に存在するかどうかを判定してもよい。
ジェスチャデータが存在すると判定した結果として、ジェスチャ検出ユニット220は、判定されたジェスチャデータを、ジェスチャ解釈ユニット230に出力する。これに関して、ジェスチャ検出ユニット220によって出力されるジェスチャデータは、ポーズ検出ユニット210によって出力されたポーズデータのサブセットであってもよい。ここで、データのサブセットは、1つ以上の所定のジェスチャに対応すると判定されたデータのみであってもよい。あるいは、ジェスチャ検出ユニット220が、ポーズデータ全体が所定のジェスチャに対応すると判定した場合、ジェスチャ検出ユニット220は、ポーズデータ全体を、ジェスチャデータとして、ジェスチャ解釈ユニット230に出力してもよい。
ジェスチャ解釈ユニット230は、ジェスチャ検出ユニット220によって出力されたジェスチャデータを受信する。ジェスチャ検出ユニット220によって出力されたジェスチャデータの受信に応えて、ジェスチャ解釈ユニット230は、ジェスチャを解釈する。これに関して、ユーザの物理的ジェスチャを表すジェスチャデータは、電子コマンド、1つ以上のメッセージ、又は、1つ以上のコマンドと1つ以上のメッセージとの組み合わせに変換される。
ジェスチャ解釈ユニット230は、ジェスチャ、及びジェスチャに関連付けられた意味の、データベースにアクセスしてもよい。これに関して、ジェスチャのデータベースは、ジェスチャ辞書として概念化されてもよい。ジェスチャのデータベース内に記憶された各ジェスチャは、少なくとも1つの意味又は定義と関連付けられている。
ジェスチャの意味を判定するために、ジェスチャ解釈ユニット230は、ジェスチャと、ジェスチャの適切な意味を複数の意味の中から選択するためのコンテキストを提供する、追加データとを、関連付けてもよい。従って、追加情報源からのデータに基づいて、ジェスチャの意味が適切に判定されてもよい。
ジェスチャを解釈した結果として、ジェスチャ解釈ユニット230は、判定された解釈を、コミュニケーションユニット240に出力する。
コミュニケーションユニット240は、ジェスチャ解釈ユニット230によって出力された、ジェスチャの解釈を受信する。ジェスチャ解釈ユニット230によって出力された、ジェスチャの解釈の受信に応えて、コミュニケーションユニット240は、解釈を、1つ以上のアプリケーションに出力する。
上述したように、解釈は、1つ以上のコマンド、1つ以上のメッセージ、又は、コマンドとメッセージとの組み合わせであってもよい。解釈がメッセージを含む場合、解釈は、アプリケーションに、メッセージを出力するよう指示してもよい。コマンドは、機能を実行するようアプリケーションを制御する、1つ以上の指示であってもよい。機能は、アプリケーションを終了すること、又はアプリケーションの新たなインスタンスを開くことなどの、任意のアプリケーションによって実行される、アプリケーションに依存しない任意の機能であってもよい。機能は、アプリケーションに固有の、アプリケーションに依存する機能であってもよい。インスタントメッセージングアプリケーションの状況においては、コマンドは、別のユーザとのコミュニケーションセッション(例えば、テレビ会議、チャットセッションなど)を開始するように、あるいは、デスクトップ共有を有効又は無効にするように、あるいは、ユーザのステータスを示すステータスメッセージの設定又は変更の機能を実行するように、アプリケーションを制御してもよい。例えば、ステータスメッセージは、ユーザがコンピュータから離れていること、応対不可能(unavailable)であること、又は、応対可能(available)であることを示してもよい。ステータスメッセージは、カレンダなどの外部情報源からのコンテキストデータに従って決定されてもよい。従って、応対不可能のステータスメッセージは、カレンダ上で予定されているミーティングを参照することによって判定された、ミーティングが進行中などの、応対不可能であることの理由を示してもよい。あるいは、ステータスメッセージは、ユーザ間の会話が、非公開、又は機密であることを示してもよい。
メッセージは、テキストメッセージとしての文字列、文字列に対応する音声メッセージ、ビデオメッセージ、又は、テキスト、音声、及びビデオの任意の組み合わせであってもよい。
図3は、ジェスチャを使用してコミュニケーションセッションを管理する、追加のシステムを示す。
図3に示すシステム300は、図2に示すシステム200に類似しており、従って、図2の要素210、220、及び230に類似した機能を実行する、同様の要素310、320、及び330の説明は、理解を容易にするために省略する。
システム300は、追加データ源350を含み、追加データ源350からは、電子コミュニケーションセッションを管理するための追加データが取得されてもよい。追加データ源は、例えば、WiFi追跡装置、カレンダ、キーボード、火災警報システム、並びに、その他の動作検知及びカメラ装置を含んでもよい。
ジェスチャ検出ユニット320によって出力されたジェスチャデータに加えて、ジェスチャ解釈ユニットは、追加データ源350からの入力を受信してもよい。ジェスチャ検出ユニット320から受信したジェスチャデータと、追加データ源350から受信した追加データとに基づいて、ジェスチャ解釈ユニット330は、ジェスチャの意味を、複数の異なる意味の中から判定してもよい。従って、追加データ源350によって検出され、ジェスチャ解釈ユニット330に提供される、追加データは、検出されたジェスチャの意味を判定するためのコンテキストを提供してもよい。
ジェスチャ解釈ユニット330による、ジェスチャの解釈は、コミュニケーションユニット(図示せず)によって、様々なコミュニケーションアプリケーション360に出力されてもよい。コミュニケーションアプリケーション360は、例えば、1つ以上のインスタントメッセージング(IM)クライアント、テレビ会議アプリケーション、ゲームアプリケーションなどの仮想世界アプリケーション、又は、プレゼンスシステムであってもよい。
コミュニケーションアプリケーション360への出力は、コンテキスト依存であってもよい。検出された1つのジェスチャは、そのジェスチャ、及び第1のアプリケーション(IMクライアント#1)と関連付けられた、第1のメッセージが、第1のアプリケーション(IMクライアント#1)に出力され、そのジェスチャ、及び第2のアプリケーション(IMクライアント#2)と関連付けられた、第2のメッセージが、第2のアプリケーション(IMクライアント#2)に出力されるように、各アプリケーション(IMクライアント#1、及びIMクライアント#2)と、コンテキスト的に関連していてもよい。
同様に、コミュニケーションアプリケーションへの出力は、コミュニケーションに関与する他のユーザの識別情報と、コンテキスト的に関連していてもよい。検出された1つのジェスチャは、そのジェスチャ、及び第1のセッション(IMウィンドウ1A)内の第1のユーザと関連付けられた、第1のメッセージが、第1のセッション(IMウィンドウ1A)に出力され、そのジェスチャ、及び第2のセッション(IMウィンドウ1B)内の第2のユーザと関連付けられた、第2のメッセージが、第2のセッション(IMウィンドウ1B)に出力されるように、ユーザごとにコンテキスト的に関連していてもよい。
もちろん、ユーザ及びアプリケーションの各組み合わせが、異なる1つのジェスチャについての意味と関連付けられることが可能なように、ユーザ及びアプリケーションの全ての組み合わせが、ジェスチャと関連付けられてもよい。
図4A〜図4Dは、コミュニケーションセッションを管理するシステムによって検出されるジェスチャの例を示す。
図2のシステム200内のジェスチャ検出ユニット220に関して上述したように、ポーズデータは、ジェスチャを検出するために解析されてもよい。
例えば、ジェスチャを捕捉しているセンサ又はビデオカメラなどの、基準点からの、図4Aに示すように、ジェスチャは、ユーザが人差し指のみを伸ばすことであってもよい。図4Aに示すジェスチャは例示的なものにすぎず、指、及び指の位置付けの、任意の組み合わせが、ジェスチャとして使用されてもよいということを、当業者は理解するであろう。
図2のシステム200内のジェスチャ検出ユニット220に関してやはり上述したように、ポーズデータは、複合ジェスチャを検出するために解析されてもよい。
複合ジェスチャは、右手の位置と組み合わせた、左手の位置の検出であってもよい。同様に、複合ジェスチャは、両手を終了位置に向けて一つに合わせる動き、又は、両手を開始位置からお互いに離す動きの検出であってもよい。
図4Bは、物体の位置を基準点として参照することによって検出されてもよい、代替のジェスチャを示す。図4Bに示すように、ジェスチャは、モニタ上の位置にユーザが指を触れることであってもよい。図4Bでは、位置は、モニタの左上隅であるが、モニタに相対的な任意の位置が使用されてもよい。
図4Cは、ユーザの両腕が交差させられる、代替のジェスチャを示す。従って、図4Cに示すジェスチャは、各腕の、他方の腕を基準にした位置付けを基準にして検出されてもよい。
図4Dは、コンピュータ画面上に表示されたアプリケーションウィンドウをユーザの指が横切る動作が、ジェスチャとして検出される、ジェスチャを示す。従って、ジェスチャの検出は、表示されたアプリケーションウィンドウの位置を基準にしてもよい。ジェスチャは、アプリケーションウィンドウの、左上隅及び右上隅などの、選択された位置の間での、指の動作に基づいて、又は、アプリケーションウィンドウ内での、左から右への任意の動作に基づいて、検出されてもよい。
図4A〜図4Dに示すジェスチャは、例示的なものにすぎない。ジェスチャシステムのユーザは、任意のジェスチャを定義して、そのジェスチャを、任意のアプリケーションコマンドと関連付けてもよい。
具体的には、ユーザは、非慣例的ジェスチャを定義して、メッセージを、その非慣例的ジェスチャと関連付けてもよい。好ましくは、非慣例的ジェスチャは、現在のユーザとコミュニケーションを行っている他のユーザによって認識されないジェスチャであり、これにより、他のユーザは、第3のユーザとの別の会話を管理するための、非慣例的ジェスチャが何らかの特定の意味を有するものと解釈せず、混乱を回避する。
このように、非慣例的ジェスチャは、ユーザ間のコミュニケーション(特に、ユーザ間の非言語的コミュニケーション)と関連付けられていないことが好ましい。従って、第1のユーザと、第2のユーザとの間の、第1のコミュニケーションセッションを制御するための、非慣例的ジェスチャの検出は、第1のユーザと、第3のユーザとの間の、第2のコミュニケーションセッションに影響を及ぼさない。図4Bに示すように、非慣例的ジェスチャは、モニタの隅にユーザが指を触れることであってもよく、これにより、ユーザと、リモートユーザとの間の、電子コミュニケーションセッションが管理されてもよく、同時に、ユーザと、ローカルユーザとが、直接顔を合わせて、追加的にコミュニケーションを行ってもよい。
同様に、ユーザは、コミュニケーション中に多くのジェスチャを使用する可能性があるため、非慣例的ジェスチャは、コミュニケーション中に使用されるジェスチャではないことが好ましい。例えば、図4Aに示すようなジェスチャは、一般に、一時停止(pause)が必要であることを示すために使用され、従って、メッセージをそのようなジェスチャに割り当てると、関連付けられたメッセージが、コミュニケーションセッションに、ユーザによって意図されていない場合に出力される可能性がある。
非慣例的ジェスチャは、特定の位置に触れる場合の一群の単純なジェスチャを含んでもよく、例えば、ユーザの手が、少なくとも最小の時間にわたって、空間の特定の領域内で一時停止すること、又は、ユーザの手が、1つの領域内で一時停止し、その後すぐに、別の領域内で一時停止すること、又は、ユーザの手が、ある期間にわたって、物体の表面の近くで保持されること、を含んでもよい。
あるいは、非慣例的ジェスチャは、コミュニケーションアプリケーションが表示される画面を基準にするものであってもよく、又は、モニタ上に表示される1つ以上のコミュニケーションアプリケーションを表している、表面を基準にするものであってもよい。
上述したように、非慣例的ジェスチャは、複合ジェスチャであってもよく、例えば、ユーザの両方の手が、物体の表面の近くで保持されること、あるいは、ユーザの身体が正面を向いていない状態で、ユーザの手が、物体の表面の近くで保持されること、あるいは、(図4Dに示すように)左から右へ、右から左へ、上から下へ、下から上へ、又は斜めに画面を横切る、少なくとも1回のスワイプ、あるいは、ジェスチャがコミュニケーションを意図するものであることを確実にするために、ストロークの始めと終わりに、一時停止を、加えて要求すること、あるいは、消去又はクリーニングの動作におけるような、複数の速いスワイプ、あるいは、(図4Cに示すように)腕を交差させて、その位置を保つこと、あるいは、手をユーザの頭より高い位置に上げ、ある期間にわたってその位置を保つこと、であってもよい。
図5は、一実施形態による、ジェスチャ辞書を示す。
図2のシステム200内のジェスチャ解釈ユニット230に関して上述したように、ジェスチャは、ジェスチャに対応するコマンド又はメッセージを出力するために解釈されてもよい。
図5は、ジェスチャ辞書を示す。ジェスチャ辞書500は、ポーズデータから抽出されたジェスチャデータを、アプリケーションに出力されるメッセージ又はコマンドに関連付ける。
ジェスチャ辞書500の各エントリは、ジェスチャの適切な解釈を選択するために使用される、識別子510、ジェスチャデータ520、及びコンテキストデータ530と、ジェスチャの解釈540とを含んでもよい。
識別子510は、ジェスチャ辞書500内の各ジェスチャエントリを一意に識別する、共通識別子である。識別子は、数字又はテキストの任意の組み合わせであってもよく、そして、ジェスチャ辞書500のインデックスとして使用されてもよい。
ジェスチャデータ520は、ユーザの物理的な動きを表すデータである。前述したように、データは、ユーザの身体部分、及び身体部分の位置を、基準点を基準にして識別する座標データであってもよい。ジェスチャデータ520は、ジェスチャが検出されてもよい期間を示す、タイミング情報も含んでよい。例えば、タイミング情報は、ジェスチャを構成するためにユーザが身体部分の位置を維持しなければならない期間であってもよい。あるいは、タイミングは、身体部分の第1の位置から、身体部分の第2の位置までの、身体部分の動きが検出される期間を示してもよい。
コンテキストデータ530は、ジェスチャと組み合わせて検出される、非ジェスチャであってもよい。例えば、コンテキストデータ530は、イベントが発生したことを示してもよい。ジェスチャ辞書500のジェスチャEでは、図4Bに示すジェスチャに対応して、コンテキストデータ530は、ユーザの上司がユーザのオフィスに入ってきたことを示してもよい。従って、ユーザがモニタの左上隅に触れるのを検出すると、メッセージ「上司が来たので、離れなければならない(Boss walked in,have to go)」が判定されてもよい。他方、外部イベントが検出されず、ジェスチャの意味を判定するためにコンテキストデータが適用されない場合、代替のメッセージ「中断されたので、離れなければならない(Got interrupted,have to go)」が判定されてもよい。従って、コンテキストデータ530は、ジェスチャに関連付けられた、より詳細なメッセージを、追加の要因に基づいて提供してもよい。
コンテキストデータ530は、上記の例に限定されない。他のデータ源が、中断のタイプに関する情報を含めるために使用されてもよい。例えば、追跡システムは、人、又は複数の人々が、直接顔を合わせて話すために立ち寄ったかどうかを検出してもよい。追跡システムによって、又は電話システムから直接得られたデータによって、人が電話に出たかどうかが判定されてもよい。この情報が入手可能であり、かつ、「中断された(Got interrupted)」のジェスチャが行われた場合、システムは、「人々がちょっと立ち寄ったので(people just came by)」又は「電話がかかってきたので(I got a phone call)」などの、ユーザの嗜好に応じたより具体的なメッセージを、代わりに送信してもよい。
同様に、カレンダ情報は、予定されているミーティングと、参加者の識別情報とを示してもよく、これにより、予定されているミーティングの開始時に、ユーザのオフィスにおいて、中断が発生した場合、ジェスチャの意味によって、ミーティングの開始日時、ミーティングの終了日時、又はミーティングの参加者などの情報が、メッセージ内に組み込まれてもよい。
情報のタイプは、ユーザの嗜好、及び、ユーザがチャットしている相手によって異なってもよく、従って、異なる会話参加者は、ユーザの設定に応じて、より多くの情報を提供するメッセージ、又はより少ない情報を提供するメッセージを受信してもよい。例えば、カレンダエントリからの名前、又は、追跡された携帯電話に関連付けられた名前などの、他の情報源からの様々な情報が、メッセージに追加されてもよい。ユーザは、ジェスチャと関連付けられたメッセージ内に、データ源から入手可能な場合にこの情報を書き込むようシステムに命じる記号を配置してもよい。
上述したように、ジェスチャの解釈540は、ユーザによって定義されてもよく、又は、予め定義されてもよい。ジェスチャの組が与えられると、ユーザは、ユーザの独自の意味を、ジェスチャに割り当ててもよい。ある場合には、ユーザは、同じ意味を保ちながら、ユーザの個性に合うように言葉遣いを変更したいと考える可能性があり、他の場合には、ユーザは、全く新しい意味をジェスチャに割り当てたいと考える可能性がある。
ユーザの独自のテキストをジェスチャと関連付けるために、ユーザは、ジェスチャ関連付けモードに入り、ジェスチャを行う、又は、ジェスチャと関連付けられた意味をユーザが変更したいことを示す別の信号と共に、そのジェスチャを行う。ユーザは、ジェスチャ関連付けモードに出入りするために、例えば、GUIと対話してもよく、又は、そのモードに出入りするためのジェスチャを行ってもよい。あるいは、ユーザは、ジェスチャを行う間、例えばモバイル装置上の、ボタンを押してもよく、又は、第1のジェスチャと同時に、第2のジェスチャを行ってもよい。一方の手で行われるジェスチャの組について、ユーザが他方の手を頭上に保持することは、ユーザが、そのジェスチャに関連付けられた意味を変更したいと考えていることを示してもよい。これらのいずれの場合でも、ジェスチャが行われた場合、GUIウィンドウが表示され、このウィンドウ内で、ユーザは、そのジェスチャと関連付けたいとユーザが考えるテキストを入力してもよい。あるいは、ジェスチャには名前が付けられてもよく、テキストの関連付けは、単に、その名前と、関連付けられたテキストとを示す、GUIを引き出し、ユーザがテキストを変更するための手段を提供することによって、変更されてもよい。
やはり上述したように、ジェスチャの解釈540は、アプリケーションコマンドを出力することであってもよい。インスタントメッセージングコミュニケーションプログラムの状況においては、例えば、チャットセッションを終了するためのコマンドは、ユーザの腕がユーザの顔の前で交差させられることであってもよく、インスタントメッセージングコミュニケーションプログラム内で音声を切り換えるためのコマンドは、ユーザの両方の耳に触れることであってもよく、インスタントメッセージングコミュニケーションプログラム内で映像を切り換えるためのコマンドは、ユーザの両方の目に触れることであってもよく、機密のチャットを全て閉じるためのコマンドは、ユーザの頭頂部に両方の手で触れることであってもよい。
同様に、ユーザは、ジェスチャを、追加のコンテキストデータと関連付けてもよい。これに関して、ジェスチャは、ジェスチャが検出されるコンテキストに応じた、1つ以上の解釈を有してもよい。1つのジェスチャが行われた場合に、異なる人々又はクライアントに送信される、異なるメッセージをサポートするために、GUIは、全ての人々又はクライアントの名前を表示してもよく、そして、ユーザは、テキストが適用される人、クライアント、あるいは、人又はクライアントのグループを選択してもよい。ユーザは、次に、そのジェスチャについてのジェスチャ関連付けプロセスを繰り返して、異なる人々のグループを選択し、異なるテキストを入力してもよい。従って、ジェスチャ関連付けモードの外部でジェスチャが行われた場合、第1のテキストは、1つのグループの人々に送信されてもよく、第2のテキストは、別のグループに送信されてもよい。
図6は、一実施形態による、ジェスチャ処理を使用してコミュニケーションセッションを管理する方法を示す。
ステップ610で、ユーザのジェスチャが設定される。上述したように、ユーザのジェスチャは、予め定義されてもよい。あるいは、ユーザは、ジェスチャリングモードに入ることによって、ジェスチャを設定してもよく、ジェスチャリングモード内では、ユーザのジェスチャが、ジェスチャ処理システムによって検出される。ジェスチャリングモードは、ジェスチャを捕捉するためにユーザによって制御される、グラフィカルユーザインタフェース(GUI)の形態であってもよい。
ステップ620で、ジェスチャの意味が設定される。上述したように、ジェスチャの意味は、予め定義されてもよい。あるいは、ユーザは、ジェスチャリングモード内で、ジェスチャの意味を設定してもよく、ジェスチャリングモード内では、ジェスチャの意味が、GUIを介して入力される。ジェスチャの意味は、ジェスチャ辞書内に記憶されてもよい。
ジェスチャは、複数の意味を含んでもよく、それぞれの意味は、ジェスチャと、追加情報源から取得されるコンテキストデータとに関連付けられてもよい。それぞれの意味は、ジェスチャ辞書内でコンテキストデータと関連付けられてもよい。従って、検出されたジェスチャと、検出されたコンテキストデータとに基づいて、ジェスチャの異なる意味が設定されてもよい。
ステップ630で、ユーザのポーズが検出される。ユーザのポーズは、ユーザの位置を検出又は追跡する、センサ又はカメラによって検出されてもよい。
ステップ640で、ユーザのジェスチャが、ステップ630において検出されたポーズに基づいて検出され、ジェスチャが解釈される。ユーザのジェスチャは、ジェスチャ辞書を基準にして解釈される。例えば、ユーザが中断されたことを示すジェスチャを、ユーザが行ったと判定されてもよい。一般に、このジェスチャの意味は、メッセージ「中断された(I got interrupted)」であると判定されてもよい。ジェスチャ辞書を使用して、このジェスチャに関連付けられた複数の意味(デフォルトのメッセージ「中断された(I got interrupted)」、及び、メッセージ「来訪者が立ち寄った(Visitors stopped by)」、及び、メッセージ「<名前>が立ち寄った(<names> stopped by)」)が存在することが判定されてもよい。
ステップ650で、追加のコンテキストデータが検出されたかどうかが判定される。コンテキストデータは、追加の外部情報源から取得されてもよい。追加のコンテキストデータは、ジェスチャの様々な意味と関連付けられて、ジェスチャ辞書内に記憶されてもよい。
辞書は、デフォルトのメッセージを無効にして、ジェスチャと関連付けられた他のメッセージのうちの1つを選択するために、どのような情報が、追跡システムなどの追加情報源から入手可能でなければならないかを示す。ジェスチャ解釈ユニットは、追跡システムからのデータを記憶するデータベースに問い合わせて、例えば、中断が来訪者によるものである可能性があるかどうかを判定することが可能な情報を取得する。あるいは、ジェスチャ解釈ユニットは、追加情報源に直接問い合わせてもよい。
追加情報源として、例えば、追跡システムは、ビル内の人々の位置に関するデータを記録し、ジェスチャ解釈ユニットは、他の人々がユーザのオフィス内に位置しているかどうかを判定するために、追跡システムに問い合わせてもよい。他の人々がユーザのオフィス内に位置している場合、ジェスチャ解釈ユニットは、更に、他の人々がその位置に最近到着したかどうかを、例えば、データベースを参照して、判定してもよい。このようにして、ジェスチャ解釈ユニットは、代替の、予め定義されたメッセージのうちの1つを出力してもよい。
ジェスチャの意味は可変であってもよく、そして、プレースホルダを含んでもよく、プレースホルダ内には、追跡システムから得られる人々の名前が挿入されてもよい。どのようなメッセージが送信されるべきかを判定するために、ジェスチャ解釈ユニットは、例えばWiFi追跡データを使用した、最近到着した人々の名前を、データベースに要求する。WiFi追跡データベースが、トムとジョンがユーザのオフィス内に最近到着したことを示す場合、ジェスチャハンドラは、メッセージ「トムとジョンが立ち寄った(Tom and John stopped by)」を送出してもよい。WiFi追跡データベースが名前を何も含まず、しかし、例えば、カメラ追跡システムが、一人以上の人々が最近到着したことを示す場合、ジェスチャ解釈ユニットは、メッセージ「来訪者が立ち寄った(Visitors stopped by)」を送出してもよい。
従って、ステップ650で、コンテキストデータが検出された場合、ステップ660で、ジェスチャの意味が、関連付けられたコンテキストデータを基準にして判定される。
ステップ650で、コンテキストデータが検出されない場合、ステップ670で、ジェスチャの意味が、検出されたジェスチャのみに基づいて判定される。
ステップ680で、ジェスチャの判定された意味が出力される。上述したように、ジェスチャの意味は、アプリケーションを介して、ユーザに、テキストとして出力されてもよい。あるいは、ジェスチャの意味は、アプリケーションの処理又は機能をアプリケーションに実行させる、コマンドであってもよい。
結果として、上述したシステム及び方法は、ユーザが会話を管理すること(ジェスチャを介した、会話間の折衝を含む)を可能にする。
実施形態を示し、それらについて説明したが、発明概念の原理及び思想(その範囲は、添付の特許請求の範囲及びその均等物において規定される)から逸脱することなく、それらの実施形態に変更が行われてもよいということを、当業者は理解するであろう。
210 ポーズ検出ユニット
220 ジェスチャ検出ユニット
230 ジェスチャ解釈ユニット
240 コミュニケーションユニット

Claims (21)

  1. 第1のユーザのジェスチャを検出する手段と、
    前記ジェスチャと、第1のコミュニケーションセッションとに関連付けられた、第1のメッセージを、前記ジェスチャに基づいて判定する手段と、
    前記ジェスチャと、第2のコミュニケーションセッションとに関連付けられた、第2のメッセージを、前記ジェスチャに基づいて判定する手段と、
    前記第1のメッセージを、前記第1のコミュニケーションセッションに出力し、前記第2のメッセージを、前記第2のコミュニケーションセッションに出力する手段と、
    として、コンピュータを機能させるためのジェスチャ処理プログラム。
  2. 前記第1のコミュニケーションセッションは、前記第1のユーザと、第2のユーザとの間の、ネットワークを介した、第1の電子コミュニケーションセッションであり、前記第2のコミュニケーションセッションは、前記第1のユーザと、第3のユーザとの間の、ネットワークを介した、第2の電子コミュニケーションセッションである、請求項1に記載のジェスチャ処理プログラム。
  3. 前記第1の電子コミュニケーションセッション、及び前記第2の電子コミュニケーションセッションのうちの、少なくとも1つは、インスタントメッセージングコミュニケーションセッションである、請求項2に記載のジェスチャ処理プログラム。
  4. 前記第1の電子コミュニケーションセッションは、前記第1のユーザと、前記第2のユーザとの間の、第1のアプリケーションプログラムを介した、コミュニケーションセッションであり、前記第2の電子コミュニケーションセッションは、前記第1のユーザと、前記第3のユーザとの間の、第2のアプリケーションプログラムを介した、コミュニケーションセッションである、請求項2に記載のジェスチャ処理プログラム。
  5. イベントの発生を検出する手段、
    として前記コンピュータをさらに機能させ、
    前記第1のメッセージを判定する手段は、前記ジェスチャと、前記第1のコミュニケーションセッションとに関連付けられた、前記第1のメッセージを、前記ジェスチャと、前記イベントの前記発生とに基づいて判定し、
    前記第2のメッセージを判定する手段は、前記ジェスチャと、前記第2のコミュニケーションセッションとに関連付けられた、前記第2のメッセージを、前記ジェスチャと、前記イベントの前記発生とに基づいて判定する、
    請求項1に記載のジェスチャ処理プログラム。
  6. 前記イベントの発生は、前記第1のユーザの付近における客の存在の検出、及び、前記第1のユーザによる、新たなコミュニケーションセッションへの参加の開始、のうちの少なくとも1つを含む、請求項5に記載のジェスチャ処理プログラム。
  7. 前記イベントの発生は、前記第1のコミュニケーションセッション、及び前記第2のコミュニケーションセッションへの、前記第1のユーザの参加の中断を含む、請求項5に記載のジェスチャ処理プログラム。
  8. 前記第1のコミュニケーションセッションは、前記第1のユーザと、第2のユーザとの間の、コミュニケーションセッションであり、前記第2のコミュニケーションセッションは、前記第1のユーザと、第3のユーザとの間の、ネットワークを介した、コミュニケーションセッションであり、
    前記第2のユーザの識別情報と、前記第3のユーザの識別情報とを判定する手段、
    として前記コンピュータをさらに機能させ、
    前記第1のメッセージを判定する手段は、前記ジェスチャと、前記第1のコミュニケーションセッションとに関連付けられた、前記第1のメッセージを、前記ジェスチャと、前記第2のユーザの前記識別情報とに基づいて判定し、
    前記第2のメッセージを判定する手段は、前記ジェスチャと、前記第2のコミュニケーションセッションとに関連付けられた、前記第2のメッセージを、前記ジェスチャと、前記第3のユーザの前記識別情報とに基づいて判定する、
    請求項1に記載のジェスチャ処理プログラム。
  9. 第1のユーザのジェスチャを検出する手段と、
    前記ジェスチャと、第2のユーザとに関連付けられた、第1のメッセージを、前記ジェスチャに基づいて判定する手段と、
    前記ジェスチャと、第3のユーザとに関連付けられた、第2のメッセージを、前記ジェスチャに基づいて判定する手段と、
    前記第1のメッセージを、前記第1のユーザと、前記第2のユーザとの間の、第1のコミュニケーションセッションに出力し、前記第2のメッセージを、前記第1のユーザと、前記第3のユーザとの間の、第2のコミュニケーションセッションに出力する手段と、
    としてコンピュータを機能させるためのジェスチャ処理プログラム。
  10. 前記第1のコミュニケーションセッションは、前記第1のユーザと、前記第2のユーザとの間の、ネットワークを介した、第1の電子コミュニケーションセッションであり、前記第2のコミュニケーションセッションは、前記第1のユーザと、前記第3のユーザとの間の、ネットワークを介した、第2の電子コミュニケーションセッションである、請求項9に記載のジェスチャ処理プログラム。
  11. 前記第1の電子コミュニケーションセッション、及び前記第2の電子コミュニケーションセッションのうちの、少なくとも1つは、インスタントメッセージングコミュニケーションセッションである、請求項10に記載のジェスチャ処理プログラム。
  12. 前記第1の電子コミュニケーションセッションは、前記第1のユーザと、前記第2のユーザとの間の、第1のアプリケーションプログラムを介した、コミュニケーションセッションであり、前記第2の電子コミュニケーションセッションは、前記第1のユーザと、前記第3のユーザとの間の、第2のアプリケーションプログラムを介した、コミュニケーションセッションである、請求項10に記載のジェスチャ処理プログラム。
  13. 第1のユーザの非慣例的ジェスチャを定義する手段と、
    前記非慣例的ジェスチャを、メッセージと関連付ける手段と、
    前記第1のユーザの前記非慣例的ジェスチャを検出する手段と、
    前記非慣例的ジェスチャの検出に応えて、前記非慣例的ジェスチャと関連付けられた前記メッセージを、前記第1のユーザと、第2のユーザとの間の、コミュニケーションセッションに出力する手段と、
    としてコンピュータを機能させるためのジェスチャ処理プログラム。
  14. 前記非慣例的ジェスチャは、前記第1のユーザと、前記第2のユーザとの間の、非言語的コミュニケーションと関連付けられていないジェスチャである、請求項13に記載のジェスチャ処理プログラム。
  15. 前記非慣例的ジェスチャを検出する手段は、前記第1のユーザの前記非慣例的ジェスチャを、前記第1のユーザが前記コミュニケーションセッションに参加している間に検出する、請求項14に記載のジェスチャ処理プログラム。
  16. 前記非慣例的ジェスチャは、前記第1のユーザと、前記第2のユーザとの間で、メッセージを運ぶための、前記第2のユーザによって理解されないジェスチャである、請求項13に記載のジェスチャ処理プログラム。
  17. 前記非慣例的ジェスチャを検出する手段は、前記第1のユーザの前記非慣例的ジェスチャを、前記第1のユーザが前記コミュニケーションセッションに参加している間に検出する、請求項16に記載のジェスチャ処理プログラム。
  18. 前記非慣例的ジェスチャを定義する手段は、
    前記第1のユーザの前記非慣例的ジェスチャを記録し、
    前記第1のユーザの前記非慣例的ジェスチャを記憶する、
    請求項13に記載のジェスチャ処理プログラム。
  19. 前記非慣例的ジェスチャを記憶することは、
    前記第1のユーザの身体部分の、動き、及び位置のうちの、少なくとも1つを、前記非慣例的ジェスチャとして割り当て、
    前記第1のユーザの前記身体部分の、前記動き、及び前記位置のうちの、前記少なくとも1つを表す座標を記憶する、
    ことを含む、請求項18に記載のジェスチャ処理プログラム。
  20. 第1のユーザの非慣例的ジェスチャを定義する手段と、
    前記非慣例的ジェスチャを、前記第1のユーザと第2のユーザとの間のコミュニケーションセッションを提供するアプリケーションのコマンドと関連付ける手段と、
    前記第1のユーザの前記非慣例的ジェスチャを検出する手段と、
    前記非慣例的ジェスチャの検出に応えて、前記非慣例的ジェスチャと関連付けられた前記コマンドを、前記アプリケーションに出力し、前記アプリケーションの前記機能を実行する手段と、
    としてコンピュータを機能させるためのジェスチャ処理プログラムであって、
    前記コマンドは、前記アプリケーションの機能を前記アプリケーションに実行させる、
    ジェスチャ処理プログラム。
  21. 前記アプリケーションは、インスタントメッセージングアプリケーションであり、前記コマンドは、前記アプリケーション内での、前記第1のユーザのステータスを設定するためのコマンドである、請求項20に記載のジェスチャ処理プログラム。
JP2012224936A 2011-10-20 2012-10-10 ジェスチャ処理プログラム Active JP5935644B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US13/277,961 2011-10-20
US13/277,961 US20130104089A1 (en) 2011-10-20 2011-10-20 Gesture-based methods for interacting with instant messaging and event-based communication applications

Publications (3)

Publication Number Publication Date
JP2013089238A true JP2013089238A (ja) 2013-05-13
JP2013089238A5 JP2013089238A5 (ja) 2015-08-13
JP5935644B2 JP5935644B2 (ja) 2016-06-15

Family

ID=48137031

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012224936A Active JP5935644B2 (ja) 2011-10-20 2012-10-10 ジェスチャ処理プログラム

Country Status (2)

Country Link
US (1) US20130104089A1 (ja)
JP (1) JP5935644B2 (ja)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015015623A (ja) * 2013-07-05 2015-01-22 シャープ株式会社 テレビ電話機、及び、プログラム
JP2015075750A (ja) * 2013-10-11 2015-04-20 株式会社Nttドコモ 画像認識装置および画像認識方法
WO2015063879A1 (ja) * 2013-10-30 2015-05-07 三菱電機株式会社 情報処理装置、情報端末、情報通信中継装置、情報通信システムおよび情報処理方法
JP2015102897A (ja) * 2013-11-21 2015-06-04 株式会社Nttドコモ 画像認識装置、及び画像認識方法
KR20160137446A (ko) * 2015-05-22 2016-11-30 삼성전자주식회사 모바일 단말을 제어하는 방법 및 모바일 단말
WO2016190640A1 (ko) * 2015-05-22 2016-12-01 삼성전자 주식회사 모바일 단말을 제어하는 방법 및 모바일 단말
KR101861128B1 (ko) 2017-09-27 2018-05-29 넷마블 주식회사 터치 입력에 기초한 텍스트 메시지 제공 장치 및 방법

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9349040B2 (en) * 2010-11-19 2016-05-24 Microsoft Technology Licensing, Llc Bi-modal depth-image analysis
US9448635B2 (en) * 2012-04-16 2016-09-20 Qualcomm Incorporated Rapid gesture re-engagement
US8862104B2 (en) * 2012-06-29 2014-10-14 Intel Corporation System and method for gesture-based management
US9755995B2 (en) 2012-11-20 2017-09-05 Dropbox, Inc. System and method for applying gesture input to digital content
US9729695B2 (en) 2012-11-20 2017-08-08 Dropbox Inc. Messaging client application interface
US9935907B2 (en) 2012-11-20 2018-04-03 Dropbox, Inc. System and method for serving a message client
US20150148923A1 (en) * 2013-11-27 2015-05-28 Lenovo (Singapore) Pte. Ltd. Wearable device that infers actionable events
US9537805B2 (en) * 2014-03-27 2017-01-03 Dropbox, Inc. Activation of dynamic filter generation for message management systems through gesture-based input
JP6298538B2 (ja) 2014-03-27 2018-03-20 ドロップボックス, インコーポレイテッド ジェスチャに基づく入力を介したメッセージ管理システムのための動的なフィルタ生成の有効化
US9197590B2 (en) 2014-03-27 2015-11-24 Dropbox, Inc. Dynamic filter generation for message management systems
US9445048B1 (en) 2014-07-29 2016-09-13 Google Inc. Gesture-initiated actions in videoconferences
CN111443813B (zh) * 2020-04-08 2022-08-16 维沃移动通信有限公司 应用程序管理操作方法、装置、电子设备及存储介质

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007034525A (ja) * 2005-07-25 2007-02-08 Fuji Xerox Co Ltd 情報処理装置、および情報処理方法、並びにコンピュータ・プログラム
CN101854510A (zh) * 2009-04-01 2010-10-06 阿瓦亚公司 提供可视队列的姿势的解释

Family Cites Families (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6539421B1 (en) * 1999-09-24 2003-03-25 America Online, Inc. Messaging application user interface
US6784901B1 (en) * 2000-05-09 2004-08-31 There Method, system and computer program product for the delivery of a chat message in a 3D multi-user environment
US20040179039A1 (en) * 2003-03-03 2004-09-16 Blattner Patrick D. Using avatars to communicate
US20060117094A1 (en) * 2004-11-30 2006-06-01 France Telecom Systems and methods for providing information on a manner of communicating
US7725547B2 (en) * 2006-09-06 2010-05-25 International Business Machines Corporation Informing a user of gestures made by others out of the user's line of sight
WO2008061002A2 (en) * 2006-11-14 2008-05-22 Networked Insights, Inc. Method and system for automatically identifying users to participate in an electronic conversation
US20080244418A1 (en) * 2007-03-30 2008-10-02 Microsoft Corporation Distributed multi-party software construction for a collaborative work environment
EP2597868B1 (en) * 2007-09-24 2017-09-13 Qualcomm Incorporated Enhanced interface for voice and video communications
US20090100469A1 (en) * 2007-10-15 2009-04-16 Microsoft Corporation Recommendations from Social Networks
US7728735B2 (en) * 2007-12-04 2010-06-01 At&T Intellectual Property I, L.P. Methods, apparatus, and computer program products for estimating a mood of a user, using a mood of a user for network/service control, and presenting suggestions for interacting with a user based on the user's mood
US8307029B2 (en) * 2007-12-10 2012-11-06 Yahoo! Inc. System and method for conditional delivery of messages
US8407603B2 (en) * 2008-01-06 2013-03-26 Apple Inc. Portable electronic device for instant messaging multiple recipients
US20090234876A1 (en) * 2008-03-14 2009-09-17 Timothy Schigel Systems and methods for content sharing
US8291348B2 (en) * 2008-12-31 2012-10-16 Hewlett-Packard Development Company, L.P. Computing device and method for selecting display regions responsive to non-discrete directional input actions and intelligent content analysis
US8103959B2 (en) * 2009-01-07 2012-01-24 International Business Machines Corporation Gesture exchange via communications in virtual world applications
US8938677B2 (en) * 2009-03-30 2015-01-20 Avaya Inc. System and method for mode-neutral communications with a widget-based communications metaphor
US8264518B2 (en) * 2009-09-28 2012-09-11 Cisco Technology, Inc. Gesture-based actions in a video communication session
US9244533B2 (en) * 2009-12-17 2016-01-26 Microsoft Technology Licensing, Llc Camera navigation for presentations
US8522308B2 (en) * 2010-02-11 2013-08-27 Verizon Patent And Licensing Inc. Systems and methods for providing a spatial-input-based multi-user shared display experience
US8464183B2 (en) * 2010-06-03 2013-06-11 Hewlett-Packard Development Company, L.P. System and method for distinguishing multimodal commands directed at a machine from ambient human communications
WO2012048028A1 (en) * 2010-10-05 2012-04-12 Citrix Systems, Inc. Gesture support for shared sessions
US9542202B2 (en) * 2010-10-19 2017-01-10 Apple Inc. Displaying and updating workspaces in a user interface
WO2012068551A1 (en) * 2010-11-18 2012-05-24 Google Inc. Surfacing off-screen visible objects
US20120204120A1 (en) * 2011-02-08 2012-08-09 Lefar Marc P Systems and methods for conducting and replaying virtual meetings

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007034525A (ja) * 2005-07-25 2007-02-08 Fuji Xerox Co Ltd 情報処理装置、および情報処理方法、並びにコンピュータ・プログラム
CN101854510A (zh) * 2009-04-01 2010-10-06 阿瓦亚公司 提供可视队列的姿势的解释
US20100257462A1 (en) * 2009-04-01 2010-10-07 Avaya Inc Interpretation of gestures to provide visual queues
JP2010246085A (ja) * 2009-04-01 2010-10-28 Avaya Inc 視覚的情報の記憶行列を提供するための身振りの解釈

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
JPN6016005546; 瑞慶山浩希,沼尾雅之: 'RFIDと加速度センサを使ったコンテクスト依存型会話システムの設計' 2009年度人工知能学会全国大会(第23回)論文集 [CD-ROM] , 20090617, p.1-4, 社団法人人工知能学会 *

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015015623A (ja) * 2013-07-05 2015-01-22 シャープ株式会社 テレビ電話機、及び、プログラム
JP2015075750A (ja) * 2013-10-11 2015-04-20 株式会社Nttドコモ 画像認識装置および画像認識方法
WO2015063879A1 (ja) * 2013-10-30 2015-05-07 三菱電機株式会社 情報処理装置、情報端末、情報通信中継装置、情報通信システムおよび情報処理方法
US10237211B2 (en) 2013-10-30 2019-03-19 Mitsubishi Electric Corporation Information processing apparatus, information terminal, information communication relay apparatus, and information processing method
JP2015102897A (ja) * 2013-11-21 2015-06-04 株式会社Nttドコモ 画像認識装置、及び画像認識方法
KR20160137446A (ko) * 2015-05-22 2016-11-30 삼성전자주식회사 모바일 단말을 제어하는 방법 및 모바일 단말
WO2016190640A1 (ko) * 2015-05-22 2016-12-01 삼성전자 주식회사 모바일 단말을 제어하는 방법 및 모바일 단말
US10425523B2 (en) 2015-05-22 2019-09-24 Samsung Electronics Co., Ltd. Method for controlling mobile terminal, and mobile terminal
KR102321363B1 (ko) * 2015-05-22 2021-11-03 삼성전자주식회사 모바일 단말을 제어하는 방법 및 모바일 단말
KR101861128B1 (ko) 2017-09-27 2018-05-29 넷마블 주식회사 터치 입력에 기초한 텍스트 메시지 제공 장치 및 방법
WO2019066408A1 (ko) * 2017-09-27 2019-04-04 넷마블 주식회사 터치 입력에 기초한 텍스트 메시지 제공 장치 및 방법

Also Published As

Publication number Publication date
US20130104089A1 (en) 2013-04-25
JP5935644B2 (ja) 2016-06-15

Similar Documents

Publication Publication Date Title
JP5935644B2 (ja) ジェスチャ処理プログラム
US11849255B2 (en) Multi-participant live communication user interface
US20230004264A1 (en) User interface for multi-user communication session
EP3959866B1 (en) User interfaces for electronic voice communications
EP3342160B1 (en) Display apparatus and control methods thereof
US11931625B2 (en) User interfaces for group workouts
EP3751827A1 (en) Message processing method, unread message display method and computer terminal
US20150085060A1 (en) User experience for conferencing with a touch screen display
KR20190034248A (ko) 향상된 사용자 상호작용들에 대한 이미지 데이터
US11893214B2 (en) Real-time communication user interface
WO2019217477A1 (en) Multi-participant live communication user interface
KR20140120050A (ko) 그룹 대화에서 사적 대화 제공 장치 및 방법
US9804771B2 (en) Device, method, and computer readable medium for establishing an impromptu network
US10423237B2 (en) Gesture-based control and usage of video relay service communications
KR102225295B1 (ko) 비디오 통신 데이터의 동적 디스플레이
DK180961B1 (en) Camera and visitor user interfaces
US11765114B2 (en) Voice communication method
AU2019101062B4 (en) Multi-participant live communication user interface
Ito A proposal of body movement-based interaction towards remote collaboration for concurrent engineering
Alabdulkarim Towards hand-gesture frustration detection in interactive systems
AU2019266225B2 (en) Multi-participant live communication user interface
US20240118793A1 (en) Real-time communication user interface
JP2022095256A (ja) 表示制御装置、表示制御方法及び表示制御プログラム
JP2017016486A (ja) 情報処理装置、情報処理方法およびプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150306

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150624

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160128

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160216

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160311

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160412

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160425

R150 Certificate of patent or registration of utility model

Ref document number: 5935644

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350