JP5260643B2 - ユーザインターフェース装置、ユーザインターフェース方法、及び記録媒体 - Google Patents

ユーザインターフェース装置、ユーザインターフェース方法、及び記録媒体 Download PDF

Info

Publication number
JP5260643B2
JP5260643B2 JP2010513547A JP2010513547A JP5260643B2 JP 5260643 B2 JP5260643 B2 JP 5260643B2 JP 2010513547 A JP2010513547 A JP 2010513547A JP 2010513547 A JP2010513547 A JP 2010513547A JP 5260643 B2 JP5260643 B2 JP 5260643B2
Authority
JP
Japan
Prior art keywords
user
work area
interface device
user interface
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2010513547A
Other languages
English (en)
Other versions
JPWO2010035477A1 (ja
Inventor
幸太郎 坂田
茂則 前田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Panasonic Holdings Corp
Original Assignee
Panasonic Corp
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corp, Matsushita Electric Industrial Co Ltd filed Critical Panasonic Corp
Priority to JP2010513547A priority Critical patent/JP5260643B2/ja
Publication of JPWO2010035477A1 publication Critical patent/JPWO2010035477A1/ja
Application granted granted Critical
Publication of JP5260643B2 publication Critical patent/JP5260643B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1601Constructional details related to the housing of computer displays, e.g. of CRT monitors, of flat displays
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04806Zoom, i.e. interaction techniques or interactors for controlling the zooming operation
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2320/00Control of display operating conditions
    • G09G2320/02Improving the quality of display appearance
    • G09G2320/0261Improving the quality of display appearance in the context of movement of objects on the screen or movement of the observer relative to the screen
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/04Changes in size, position or resolution of an image
    • G09G2340/0464Positioning
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/14Display of multiple viewports

Description

本発明は、複数人により操作される大画面ディスプレイ向けのユーザインターフェース装置に関する。
ディスプレイの大画面化・薄型化に伴い、TVを単に番組や映画などを視聴するために利用するだけでなく、複数の情報の同時利用、大量の情報の一覧、実物大の臨場感を利用したコミュニケーション、常に情報を提示する掲示板、壁紙や額縁のような室内装飾、といった新しい利用方法への可能性が広がりつつある。
また、家庭内ネットワークの立ち上がりとともに、ネットワークを介して各機器で検知されたユーザの操作履歴や状態を共有し、総合的にユーザのコンテキスト・状況をセンシングすることも現実味を帯びてきている。
このような状況下で、従来の番組や映画を視聴するだけでなく、上記のような新しい利用方法を実現するためには、より複雑な機能を簡単に利用できるようにする必要がある。このため、直感的に行える新しい操作方式、及びユーザセンシング情報に基づきユーザの状況や意図を汲み先回りすることで、ユーザの明示的な操作量・負担を軽減する自律動作方式の実現が必要となる。また、リビングルームなどの家族の共有空間に設置されるTVの特徴を活かしつつ、受身的に視聴するのみでない使い方に対応するために、複数人による操作を前提とした入力方式、操作体系を採用することが望まれる。
従来のリモコンに代わる新しい操作方式として、ユーザはリモコンなどの機器を保持することなく、また特殊な装置を装着することなく、手振りや身振りで手軽にユーザの意図する情報を入力できる入力装置が開発されている。この種の装置では、高い操作性を実現するために、操作に対する適切なフィードバックをユーザに与えることが重要である。
このようなフィードバックを提示する装置として、例えば、下記の特許文献1には、画像処理対象の物体が画像処理可能な適正範囲にあるか否かを判定する手段と、物体が適正範囲にないと判定された場合、所定の視覚的情報および聴覚的情報の少なくとも一方を提示する手段とを備えるユーザインターフェース装置が開示されている。この装置は、例えば、適正範囲から遠方にはずれている場合、カーソルを小さく及び/または薄く表示し、近傍にずれている場合、カーソルを大きく表示し、左方にはずれている場合、カーソルの左方の端を歪ませて表示する。
特許第3819096号公報
上記の従来の技術は、物体検出のための受光装置は固定的に設置されるため、ユーザの手などを正常に検出可能な範囲が限定されることを課題として設定し、ユーザと受光装置との位置関係に応じてジェスチャ入力の適正範囲からのずれをフィードバックする。これに対して、物体検出のための受光装置を複数配置することにより検出可能な範囲を拡大させるという方法もある。ディスプレイの大画面化やカメラの普及などにより、物体検出のための受光装置を複数配置することは現実的となっており、ユーザの操作範囲を十分に確保することは可能である。
さらに、上記の従来の技術は、画面の前に複数のユーザがいる場合に、ユーザ間の位置関係を考慮してフィードバックを与えることはない。しかし、例えば、所定のジェスチャによりメニューを画面上に表示させる場合、複数のユーザが近づきすぎた位置で、メニューを出す所定のジェスチャを同時に行った場合、メニューが一部重なって表示されてしまうなどの不具合が生じうる。また、画面上で複数のユーザが各々のワークスペースに対して視聴、操作をしている場合、自身のワークスペースに熱中しすぎて、周囲のユーザのワークスペースに不用意に侵入してしまったりすることが起こりうる。
本発明は、前記従来の課題を解決するもので、ユーザインターフェース装置で複数の処理が平行して実行されている場合に、一方の処理が他方の処理に干渉するのを防止するインターフェース装置を提供することを目的とする。
本発明の一形態に係るユーザインターフェース装置は、アプリケーションプログラムを制御するインターフェースとなる作業領域を、ユーザに提供する。具体的には、前記ユーザに割り当てられた第1の作業領域、及び前記第1の作業領域と異なる第2の作業領域を表示する表示部と、前記ユーザの位置を検出する検出部と、前記第1の作業領域を通じて前記ユーザに制御される前記アプリケーションプログラムの種類に応じて、前記ユーザと前記第2の作業領域との間の適正距離を算出する算出部と、前記検出部によって検出された前記ユーザの位置と前記第2の作業領域との距離が、前記算出部によって算出された前記適正距離より短くなったことを前記ユーザに通知する通知部とを備える。
上記構成によれば、第1の作業領域で作業中のユーザが、隣接する第2の作業領域に誤って侵入してしまうのを未然に防止することができる。その結果、隣り合って作業しているユーザ同士が常に適正距離を保った状態で作業することができる。ただし、本発明は、ユーザインターフェース装置を複数のユーザで共用している場合に限定されない。例えば、ユーザが利用できないシステム領域を第2の作業領域としてもよい。
さらに、前記検出部は、前記ユーザが前記アプリケーションプログラムを制御するために行うジェスチャを検出する。前記表示部は、前記検出部によって検出された前記ジェスチャの位置に対応する位置に、前記ジェスチャの妥当性をユーザに伝えるためのフィードバック表示を表示する。そして、前記通知部は、前記フィードバック表示の表示態様を変化させることによって、前記ユーザの位置と前記第2の作業領域との距離が前記適正距離より短くなったことを前記ユーザに通知してもよい。
具体的には、前記通知部は、前記ユーザの位置が前記第2の作業領域に近付く程、前記フィードバック表示を小さく及び/又は薄く表示してもよい。これにより、適正距離を保っているか否かを、ユーザにリアルタイムに通知することができる。なお、本明細書中の「ユーザの位置」とは、例えば、ユーザの重心位置であってもよいし、ジェスチャの位置(ジェスチャをしている手の位置)であってもよい。どちらの場合であっても、検出部によって検出することが可能である。
また、前記第1の作業領域は、前記ユーザの動きに追従して前記表示部内を移動するウインドウであってもよい。そして、前記通知部は、前記ユーザが前記第2の作業領域に近付く程、前記ウインドウの追従度を低下させてもよい。これによっても、適正距離を保っているか否かを、ユーザにリアルタイムに通知することができる。
さらに、前記算出部は、前記ユーザの身体的特徴に応じて前記適正距離を算出してもよい。例えば、前記算出部は、前記ユーザの身長が高いほど、又は前記ユーザの腕の長さが長いほど、前記適正距離を長くしてもよい。または、前記算出部は、前記ユーザの利き手が前記第2の作業領域に近い側に位置する場合に、遠い側に位置する場合より前記適正距離を長くしてもよい。
さらに、前記算出部は、前記第1の作業領域を通じて前記ユーザに制御されるアプリケーションプログラムと、前記第2の作業領域を通じて他のユーザに制御されるアプリケーションプログラムとの類似度又は関連度が高いほど、前記適正距離を短くしてもよい。
さらに、前記算出部は、前記第1の作業領域で作業する前記ユーザと、前記第2の作業領域で作業する他のユーザとの関係に基づいて、前記適正距離を算出してもよい。例えば、前記算出部は、前記ユーザが前記他のユーザよりも社会的に上位である場合に、社会的に下位である場合よりも前記適正距離を短くしてもよい。
さらに、前記検出部は、前記ユーザ及び前記他のユーザの発する音声を検出する。そして、前記算出部は、前記検出部によって検出された発話量から前記ユーザ及び前記他のユーザの関係を推定してもよい。
例えば、前記通知部は、音声により通知してもよい。または、前記通知部は、照明により通知してもよい。さらには、前記通知部は、前記ユーザが保持する携帯機器を通じて通知してもよい。
本発明の一形態に係るユーザインターフェース方法は、ユーザに割り当てられた第1の作業領域、及び前記第1の作業領域と異なる第2の作業領域を表示する表示部を用いて、前記第1の作業領域を通じて前記ユーザにアプリケーションプログラムを制御させる。具体的には、前記ユーザの位置を検出する検出ステップと、前記第1の作業領域を通じて前記ユーザに制御される前記アプリケーションプログラムの種類に応じて、前記ユーザと前記第2の作業領域との間の適正距離を算出する算出ステップと、前記検出ステップで検出された前記ユーザの位置と前記第2の作業領域との距離が、前記算出ステップで算出された前記適正距離より短くなったことを前記ユーザに通知する通知ステップとを含む。
本発明の一形態に係るコンピュータ読み取り可能な記録媒体は、上記記載のユーザインターフェース方法を、コンピュータに実行させるプログラムを記録している。なお、本発明は、ユーザインターフェース装置として実現できるだけでなく、ユーザインターフェース装置の機能をコンピュータに実行させるプログラムとして実現したりすることもできる。そして、そのようなプログラムは、CD−ROM等の記録媒体及びインターネット等の伝送媒体を介して流通させることができるのは言うまでもない。
本発明のユーザインターフェース装置によれば、ユーザが第2の作業領域に近付き過ぎていることを通知するので、第1の作業領域で作業中のユーザが、隣接する第2の作業領域に誤って侵入してしまうのを未然に防止することができる。
図1Aは、本発明の一実施形態におけるユーザインターフェース装置の外観と関連機器とのインターフェースの一例を説明する図である。 図1Bは、本発明の一実施形態におけるユーザインターフェース装置の構成を示す機能ブロック図である。 図2Aは、本発明の一実施形態におけるユーザインターフェース装置の設置例を説明する図である。 図2Bは、本発明の一実施形態におけるユーザインターフェース装置の他の設置例を説明する図である。 図2Cは、本発明の一実施形態におけるユーザインターフェース装置の他の設置例を説明する図である。 図3は、本発明の一実施形態におけるユーザインターフェース装置の構成を示す機能ブロック図である。 図4Aは、本発明の一実施形態におけるユーザ情報データベースを説明する図である。 図4Bは、ユーザ情報データベースに含まれる基本属性情報の例を示す図である。 図4Cは、ユーザ情報データベースに含まれる身体特徴情報の例を示す図である。 図4Dは、ユーザ情報データベースに含まれる人間関係情報の例を示す図である。 図5Aは、本発明の一実施形態におけるユーザ位置の検出方法の概略を説明する図である。 図5Bは、ユーザ位置の検出方法の一例であるステレオ視の原理を説明する図である。 図6Aは、本発明の一実施形態におけるユーザインターフェース装置において、ユーザが表示部に平行に移動した場合の動作例を説明する図である。 図6Bは、本発明の一実施形態におけるユーザインターフェース装置において、ユーザと表示部との距離が変化した場合の動作例を説明する図である。 図6Cは、本発明の一実施形態におけるユーザインターフェース装置において、ユーザの身体的特徴に応じた動作例を説明する図である。 図7Aは、本発明の一実施形態におけるフリーハンドジェスチャの検出方法の概略を説明する図である。 図7Bは、本発明の一実施形態におけるフリーハンドジェスチャの検出処理の手順を示す図である。 図8は、本発明の一実施形態におけるユーザインターフェース装置の処理の概略を示すフローチャートである。 図9は、本発明の一実施形態におけるユーザインターフェース装置のフィードバックの一例を説明する図である。 図10Aは、本発明の一実施形態におけるユーザインターフェース装置の動作例を説明する図である。 図10Bは、本発明の一実施形態におけるユーザインターフェース装置の動作例を説明する図である。 図10Cは、本発明の一実施形態におけるユーザインターフェース装置の動作例を説明する図である。 図11Aは、本発明の一実施形態におけるユーザインターフェース装置の動作例を説明する図である。 図11Bは、本発明の一実施形態におけるユーザインターフェース装置の動作例を説明する図である。 図11Cは、本発明の一実施形態におけるユーザインターフェース装置の動作例を説明する図である。 図12Aは、本発明の一実施形態におけるユーザインターフェース装置の動作例を説明する図である。 図12Bは、本発明の一実施形態におけるユーザインターフェース装置の動作例を説明する図である。 図13Aは、本発明の一実施形態におけるユーザインターフェース装置の動作例を説明する図である。 図13Bは、本発明の一実施形態におけるユーザインターフェース装置の動作例を説明する図である。 図13Cは、本発明の一実施形態におけるユーザインターフェース装置の動作例を説明する図である。 図14Aは、本発明の一実施形態におけるユーザインターフェース装置の動作例を説明する図である。 図14Bは、本発明の一実施形態におけるユーザインターフェース装置の動作例を説明する図である。 図14Cは、本発明の一実施形態におけるユーザインターフェース装置の動作例を説明する図である。
以下、本発明の実施の形態について、図面を参照しながら説明する。
1 概要
本発明のユーザインターフェース装置は、例えば、映像表示部を複数の作業領域に分割して、複数のユーザが各々に割り当てられた作業領域を通じてアプリケーションプログラム(以下「アプリケーション」という)の制御を行う装置である。
2 構成
図1Aは、本発明のユーザインターフェース装置の外観と関連機器とのインターフェースの一例を説明する図である。ユーザインターフェース装置は、1以上のユーザ検出カメラなどを含む。ユーザ検出カメラにより撮影された画像情報の解析により検出されるユーザの位置及び動きにより映像表示部上の表示を制御する。
ジェスチャ入力リモコンを保持したユーザの手の動きや同リモコン上に配置されたボタンの押下といったユーザのリモコン操作に基づき、映像表示部上の表示を制御してもよい。
また、ユーザインターフェース装置は、静電式のタッチパッドを備えたタッチテーブルの入力を受け付けるようにしてもよい。これにより、ユーザは、さらに多様な入力方式をユーザの状況やアプリケーションの種類に応じて使い分けることができる。
また、ユーザインターフェース装置は、その他の家電機器、例えば、デジタルスチルカメラ、デジタルカムコーダなどと無線、ルータ/ハブなどを介してネットワーク接続されている。
図1Aでは示していないが、ユーザインターフェース装置における複数のスピーカーは、映像表示部の上端と下端、左端と右端というように離れて配置されてもよい。
次に、図1Bを参照して、本発明の一実施の形態に係るユーザインターフェース装置1の構成を詳細に説明する。図1Bは、ユーザインターフェース装置1のブロック図である。
まず、ユーザインターフェース装置1は、表示部2と、検出部3と、算出部4と、通知部5とを備える。なお、表示部2は図1Aに示される映像表示部に、検出部3は図1Aに示されるユーザ検出カメラに対応していてもよい。
このユーザインターフェース装置1は、アプリケーションを制御するインターフェースとなる作業領域を表示部2上に表示する。この作業領域は、ユーザ各々に割り当てられており、ユーザは、作業領域を通じてアプリケーションを制御することができる。典型的な使用形態としては、表示部2上に第1及び第2の作業領域が互いに隣り合って位置しており、第1のユーザが第1の作業領域を通じて、第2のユーザが第2の作業領域を通じて、それぞれアプリケーションを制御するようなシチュエーションが考えられる。
作業領域を通じて制御されるアプリケーションは特に限定されないが、例えば、表示部2上に絵を描く「お絵描きアプリケーション」、表示部2上に映像データを表示させる「再生アプリケーション」、及び実行するアプリケーションを選択するための「メニュー画面」等が考えられる。
また、これらのアプリケーションは、表示部2の前で所定のジェスチャをすることによって、制御(操作)することができる。例えば、掌を表示部2に向けて所定時間静止させることで、「メニュー画面」を表示させる。または、「お絵描きアプリケーション」を実行中に、人差し指を立てた状態で手を動かすと、手の動きに沿って表示部2に線が描かれる等が考えられる。さらに、「再生アプリケーション」は、例えば、映像を表示するウインドウを、ユーザに追従して移動させる「Stay−with−Me TV」であってもよい。
表示部2は、例えば、大型の表示パネルである。表示パネルとしては、液晶ディスプレイ、プラズマディスプレイ、有機ELディスプレイ等、既存のあらゆる表示パネルを採用することができる。この表示部2は、複数のユーザそれぞれに割り当てられる複数の作業領域に区分されている。
表示部2は、検出部3によって検出されたジェスチャの位置に対応する位置に、ジェスチャの妥当性をユーザに伝えるためのフィードバック表示を表示させてもよい。例えば、表示部2上のユーザの手に対応する位置に手形を表示し、この手形の濃淡、又はサイズによってジェスチャの妥当性をフィードバックしてもよい。
ここで、「ジェスチャの妥当性」とは、手の形が所定のルールに合致しているか否か等であってもよいが、本発明では、主に、ジェスチャが適切な位置で行われているか否かをフィードバックする態様を説明する。より具体的には、上述の第1及び第2のユーザが互いに隣り合ってアプリケーションを操作している場合において、第1のユーザが第2の作業領域に近付きすぎるのを防止する方法について説明する。
検出部3は、表示部2の前に位置するユーザの位置を検出する。さらには、表示部2の前に位置するユーザを識別したり、各ユーザのジェスチャを検出したり、各ユーザの発話量を検出したりしてもよい。この検出部3は、例えば、ユーザ検出カメラ等の撮影部と、撮影部で撮影された画像を解析して、ユーザの位置等を検出する解析部とで構成される。
算出部4は、第1のユーザと第2の作業領域との間の適正距離を算出する。この適正距離は、例えば、第1の作業領域を通じて第1のユーザに制御されているアプリケーションの種類に基づいて算出される。さらには、第1のユーザの身体的特徴、第1及び第2の作業領域それぞれを通じて制御されているアプリケーションの類似度や関連度、第1及び第2のユーザの人間関係(主従関係)等を考慮して、適正距離を算出してもよい。
算出部4は、第1の作業領域で実行されるアプリケーションの種類に応じて、第1のユーザと第2の作業領域との間の適正距離を算出する。例えば、「メニュー画面」や「再生アプリケーション」を実行する場合は、当該画面の幅に基づいて適正距離を算出すればよい。また、算出部4は、第1の作業領域を通じて制御されるアプリケーションと、第2の作業領域を通じて制御されるアプリケーションとの類似度又は関連度が高いほど、適正距離を短くしてもよい。
また、算出部4は、ユーザの身体的特徴に応じて適正距離を算出してもよい。例えば、「お絵描きアプリケーション」を実行する場合には、第1のユーザの腕の長さを適正距離とすればよい。その他、ユーザの身長が高いほど、又は腕の長さが長いほど、適正距離を長くすることが考えられる。または、ユーザの利き手が第2の作業領域に近い側に位置する場合に、遠い側に位置する場合より適正距離を長くすることも考えられる。
さらに、算出部4は、第1の作業領域で作業する第1のユーザと、第2の作業領域で作業する第2のユーザとの関係に基づいて、適正距離を算出してもよい。例えば、第1のユーザが第2のユーザよりも社会的に上位である場合に、社会的に下位である場合よりも適正距離を短くすることが考えられる。このとき、例えば、検出部3によって検出された発話量から第1のユーザ及び第2のユーザの関係を推定してもよい。
通知部5は、検出部3で検出されたユーザと、当該ユーザに割り当てられた作業領域に隣接する作業領域との距離が、適正距離より短くなったことを当該ユーザに通知する。なお、通知する方法は特に限定されないが、表示部2の表示によって通知する方法、音声により通知する方法、照明により通知する方法、及びユーザが保持する携帯機器を通じて通知する方法等、あらゆる通知方法を採用することができる。
一形態として、通知部5は、フィードバック表示の表示態様を変化させることによって、ユーザの位置と隣の作業領域との距離が適正距離より短くなったことをユーザに通知してもよい。例えば、適正距離より遠い場合は手形を濃く(若しくは、大きく)表示し、適正距離より近い場合は手形を薄く(若しくは、小さく)表示すればよい。
また、他の形態として、「Stay−with−Me TV」を実行している場合、通知部5は、ウインドウの追従度を変化させることによって、ユーザの位置と適正距離との関係を通知してもよい。例えば、ユーザと隣の作業領域との距離が適正距離より遠い場合は追従度を最大とし、適正距離より近い場合には追従度を順次低下させればよい。
図2A〜図2Cは、本発明のユーザインターフェース装置の設置の一例を説明する図である。ユーザ検出カメラは、図2Aに示されるように、映像表示部の周囲に設置されたものだけでなく、図2Bに示されるように、映像表示部が設置されている空間の壁や天井に設置されてもよい。さらには、映像表示部の周囲に設置されたものと壁や天井に設置されたものとを併用してもよい。また、図2Cに示されるように、床圧力センサを床に敷設すれば、ユーザ検出カメラの画像を解析せずとも前記床圧力センサの出力からユーザの位置を精度良く検出することができる。
図3は、本発明の好ましい実施形態におけるユーザインターフェース装置10の構成例を示す図である。
ユーザインターフェース装置10は、ユーザ検出カメラ11と、ユーザ識別部21と、ユーザ位置検出部22と、ユーザ動作検出部23と、適正位置算出部24と、表示制御部25と、映像表示部31とを備える。
なお、この実施形態では、ユーザ検出カメラ11、ユーザ識別部21、ユーザ位置検出部22、及びユーザ動作検出部23で、図1Bに示される検出部3を構成する。また、適正位置算出部24は図1Bに示される算出部4に、表示制御部25は図1Bに示される通知部5に、映像表示部31は図1Bに示される表示部2にそれぞれ対応する。
図4A〜図4Dは、ユーザ情報DB(データベース)のデータ構成の概略を説明する図である。
図3には示されていないが、ユーザインターフェース装置10は、基本属性情報、身体特徴情報、および人間関係情報などを格納するユーザ情報DBを備えるとよい。基本属性情報は、例えば、図4Bに示されるように、氏名、性別、年齢、続柄などである。この基本属性情報は、例えば、ユーザ識別部21が、映像表示部31の前に位置するユーザを識別する際に参照してもよい。
また、ユーザ情報DBに格納される身体特徴情報は、図4Cに示されるように、立位での身長と目の高さ、座位での身長と目の高さ、利き手、利き目、視力、聴力など、ユーザの姿勢別の身体形状、および視聴能力などを含む。この身体特徴情報は、例えば、適正位置算出部24が、適正位置を算出する際の参考情報として参照してもよい。
さらに、ユーザ情報DBに格納される人間関係情報は、例えば、図4Dに示されるように、該データベースに登録済みのユーザ間の親密度を0.0〜1.0で格納している。この人間関係情報は、例えば、適正位置算出部24が、適正位置を算出する際の参考情報として参照してもよい。具体的には、この親密度に基づいて、各ユーザに対応する画面上のワークスペースあるいはウインドウの主従関係を規定したり、フィードバックを制御することができる。
ユーザ検出カメラ11は、映像表示部31の周囲に設置されたCCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)などのイメージセンサである。ユーザ検出カメラ11は、映像表示部31の前方に存在するユーザを撮影する。
2.1 ユーザ識別部
ユーザ識別部21は、例えば、ユーザ検出カメラ11の画像から顔領域の抽出を行う。そして、あらかじめ登録された顔画像と抽出した顔画像との照合を行うことで、ユーザを特定するユーザ識別情報を出力する。
2.2 ユーザ位置検出部
ユーザ位置検出部22は、例えば、ユーザ検出カメラ11で撮影した複数の映像からユーザ領域の抽出を行う。そして、複数の映像におけるユーザ領域の対応関係からステレオ視の原理により、ユーザと映像表示部31との相対位置を算出する。
図5A及び図5Bは、本発明の一実施形態におけるユーザ位置検出部22におけるステレオ視の原理に基づくユーザ位置算出方法を説明する図である。
図5Aに示すように、2台1組のユーザ検出カメラ11を、間隔Bをおいて映像表示部31の画面に対して平行に設置する。ユーザ位置検出部22は、それぞれのユーザ検出カメラ11で撮影された画像内の対応するユーザ領域の位置のずれを基に、ユーザと映像表示部31の画面との距離Dを算出する。
各ユーザ検出カメラ11で撮影された画像内のユーザが写っている領域の抽出は、例えば、あらかじめユーザのいない状態でそれぞれのユーザ検出カメラ11で撮影した画像を保存しておき、ユーザが現れたときの画像との差分を求めることにより実現できる。また、顔画像検出及び顔画像の照合によりユーザの顔領域を求め、この顔領域をユーザ領域とすることもできる。
図5Bは、二つの画像上の対応するユーザ領域を基に、ユーザとユーザ検出カメラ11の設置面(映像表示部31の画面)との距離Dを求めるステレオ視の原理を示したものである。2台のユーザ検出カメラ11で撮影された画像それぞれで対応するユーザ領域を位置測定対象とすると、その像は二つの画像上に図5Bに示すように投影される。対応する像の画像上のずれをZとすると、ユーザ検出カメラ11の焦点距離fとユーザ検出カメラ11の光軸間の距離Bとから、ユーザと映像表示部31との距離Dは、D=f×B/Zで求められる。また、映像表示部31の画面に平行な方向のユーザ位置については、画像中のユーザ領域の位置と上記の距離Dとを基に求めることができる。ユーザ位置検出部22は、このようにして求めた映像表示部31に対するユーザの相対的な位置を出力する。
このユーザ位置情報に基づいて、例えば、当該ユーザに提示すべき情報の映像表示部31の画面上の表示位置を決定することで、図6A及び図6Bに示すように、ユーザが動いても常にユーザから見やすい位置にワークスペース、ウインドウ、情報を提示し続けることが可能である。これは、ユーザについてくるTV(Stay−with−Me TV)といえる。
例えば、図6Aに示すように、ユーザが映像表示部31の前方で移動すれば、ユーザの位置に近い画面上の位置に情報を表示するようにすることができる。また、図6Bに示すように、ユーザが映像表示部31に対して近づく、または遠ざかる場合は、情報の表示サイズを縮小または拡大し、ユーザにとって見やすい大きさで表示することができる。さらに、図6Cに示すように、各ユーザの顔の高さ位置に応じて、見やすい高さに情報を表示するようにすることができる。
なお、ユーザ検出カメラ11として、光波測距(Time of Flight)の原理により距離情報を出力する距離画像センサを用いてもよい。ユーザ位置検出部22は、距離画像センサを得ることにより容易に映像表示部31に対するユーザの相対位置を算出することができる。
また、図2Cに示すように、空間に床圧力センサが設置されていれば、ユーザ位置検出部22は、ユーザ検出カメラ11の情報を入力とせずとも、床圧力センサの出力値を入力として、映像表示部31に対するユーザの相対位置を算出することができる。
2.3 ユーザ動作検出部
ユーザ動作検出部23は、ユーザの手領域を抽出した後、手の位置と手の形状とがあらかじめ規定されたどの形状に合致するか照合して、例えば「グー」「パー」「右選択」「左選択」などの手形状情報を出力する。
図7A及び図7Bは、本発明の一実施形態におけるユーザ動作検出部23における手位置及び手形状の検出方法を示したものである。
ユーザ動作検出部23は、図7Aに示すように、ユーザ検出カメラ11で撮影された画像から、まずは人物位置を検出し、人物位置の周辺で手位置及び手形状の検出を行う。手位置及び手形状の推定の方法としては、例えば、以下の方法を用いることで推定できる。以下、図7Bを用いて説明する。
まず、オフライン処理として、ユーザ動作検出部23は、検出したい手の学習画像を大量に用意する(S501)。学習画像における照明環境、向きなどの条件は、実際に検出する環境になるべく沿った条件のものを揃えるのが望ましい。次に、S501で用意した学習画像から、主成分分析を用いて手の主成分を構成する固有空間を作成する(S502)。また、検出したい手のサンプルとして手のテンプレート画像を用意する。テンプレート画像は、用意した手の平均画像でもよいし、グー、パーなど、いくつかの手の画像を用意してもよい。作成した固有空間への射影行列および、手のテンプレート画像を手テンプレートデータベースに格納する(S503)。
次に、実際の検出を行うオンライン処理について説明する。
まず、ユーザ検出カメラ11が、映像表示部31の前方に存在するユーザを撮影する(S504)。ユーザ動作検出部23は、ユーザ検出カメラ11で撮影された画像から顔領域の検出を行う(S505)。
ユーザ動作検出部23は、S505で顔領域が検出されると、その領域の周辺で手の検出を行う。顔領域の周辺において、用意した手のテンプレートに類似した領域を、手テンプレートデータベースに格納した手のテンプレート画像を用いて走査する(S506)。顔の周辺領域の決定は、顔位置を基準としてあらかじめ設定したサイズの範囲でもよい。または、ユーザ検出カメラ11を2つ用いたステレオ視の原理により、顔の周辺領域で顔と奥行き距離が近い領域を走査して探索範囲を削減してもよい。
マッチングを行うための類似度の計算としては、ここではまず切り出した手の候補領域画像と、手のテンプレート画像とをあらかじめ用意した固有空間への射影行列を使って固有空間に射影する。そして、固有空間上での両者の距離を比較する手法を行う。手の主成分を表す空間上で距離を比較することで、背景などノイズの影響を低減した検出が可能である。探索領域内で、あらかじめ定めた閾値を満たし、かつ最も手テンプレートに近い距離が得られた領域を手の位置とする。また最も距離が近い手テンプレートの形状(例えばグー、パー等)を手の形状とする(S507)。
一方、探索領域内で閾値を満たす領域が無い場合には、手を出していないものとして検出を終了する。
この例では、手位置及び手形状の検出にテンプレートマッチングの手法を用いたが、その他の手法、例えば、ブースティング(Boosting)などの手法を用いてもよい。
本発明のユーザインターフェース装置10に適用されるアプリケーションは、例えば、当該ユーザに複数の選択肢と各選択肢に対応した手位置及び手形状とを予め対応付けておく。そして、ユーザ動作検出部23によって検出されたユーザの手位置及び手形状の変化に応じて、対応する選択肢が選ばれたことを判断することができる。
2.4 適正位置算出部
適正位置算出部24は、ユーザ識別部21が出力するユーザ識別情報、ユーザ位置検出部22が出力するユーザ位置、ユーザ動作検出部23が出力する手位置及び手形状情報を入力情報として、ユーザの周囲のユーザもしくは周囲のワークスペースとの適正距離を算出し、ユーザの適正位置を規定する。
2.5 表示制御部
表示制御部25は、適正位置算出部24で規定されたユーザの適正位置に基づいて、映像表示部31に表示されるアプリケーションを制御する。具体的な制御の方法については、下記の「3 動作」で説明する。
3 動作
図8は、本発明の一実施形態におけるユーザインターフェース装置10の処理の概略を示すフローチャートである。
まず、ユーザ識別部21は、ユーザ検出カメラ11によって撮影された画像からユーザの顔を検出する。そして、あらかじめ登録されたユーザ情報DBに格納される身体特徴情報との照合により、ユーザ識別を行う(S601)。次に、識別された各ユーザに対して、ユーザ位置検出部22はユーザ位置情報を、ユーザ動作検出部23は手位置及び手形状情報をそれぞれ算出する(S602)。
ユーザインターフェース装置10を操作するユーザが2人以上識別された場合(S603のYES)、適正位置算出部24は、ユーザの適正位置を算出する(S604)。そして、表示制御部25は、適正位置算出部24によって算出された適正位置に基づいて、映像表示部31に表示されるアプリケーションを制御する(S605)。
次に、ユーザインターフェース装置10の動作について、図9〜図14Cを用いて3つのユースケースを説明する。3つのケースは、ケース1:ジェスチャ入力によるメニュー画面の操作(図9〜図11C)、ケース2:ジェスチャ入力によるお絵描きアプリケーション(図12A及び図12B)、ケース3:ユーザ位置入力による「Stay−with−Me TV」(図13A〜図14C)である。
図9は、ユーザインターフェース装置10のユーザの手によるジェスチャのフィードバックの例を説明する図である。この例では、表示制御部25が、ユーザの手の位置の適正位置からのずれに応じて、画面上の手の表示(「フィードバック表示」という)を変化させてフィードバックすることで、ユーザにその旨を通知する。
図9の上段に示すように、適正位置からのずれが大きい位置ほど手のフィードバック表示を薄くするとよい。または、図9の中段に示すように、適正位置からのずれが大きい位置ほど手のフィードバック表示の大きさを小さくしてもよい。また、図9の下段に示すように、適正位置からのずれが大きい位置ほど手のフィードバック表示を振動的にしてもよい。
なお、図9に示される例では、適正位置の右側に他人に割り当てられた作業領域が存在することを前提としている。そして、この例では、適正位置より左側(隣接する作業領域から遠ざかる方向)に移動しても、適正位置からのずれを0と考えてフィードバック表示の表示態様を変更しない。一方、適正位置より右側(隣接する作業領域に近付く方向)に移動した場合は、その移動量に応じてフィードバック表示の表示態様を変更している。但し、上記の例に限ることなく、適正位置より左側に移動した場合に、フィードバック表示をより大きく(若しくは、より濃く)表示するようにしてもよい。
(ケース1:ジェスチャ入力によるメニュー操作)
図10A〜図11Cは、ケース1のユーザインターフェース装置10の動作例を説明する図である。なお、以下の説明では、2人のユーザA、Bがそれぞれに割り当てられた作業領域を通じてアプリケーションを制御している場合において、ユーザAに対して、ユーザBに割り当てられた作業領域に近付きすぎたことを通知する処理を説明する。一方、ユーザBに対する通知はユーザAの場合と共通するので、説明は省略する。
このケースでは、映像表示部31に2つの作業領域(図10A及び図10Bの破線枠で示される領域)が含まれている。そして、一方の作業領域がユーザAに、他方の作業領域がユーザBに割り当てられている。そして、ユーザAとユーザBとは、所定の時間、手を画面に向ける(かざす)ジェスチャを行うことにより、割り当てられた作業領域内に各々のメニュー画面を表示しようとしている場面である。
図10A〜図10Cは、ユーザが手を画面に向ける(かざす)ジェスチャを行うと、手のフィードバック表示を提示した上で、所定時間経過すると各ユーザのメニュー画面を表示する例である。また、図11A〜図11Cは、ユーザが手を画面に向ける(かざす)ジェスチャを行うと、手のフィードバック表示を提示せずに、所定時間経過すると各ユーザのメニュー画面を表示する例である。
まず、適正位置算出部24は、ユーザAの適正距離sを、ユーザAのメニュー画面の幅の半分(a/2)に設定する。このように適正距離sを定めた上でアプリケーションを制御することで、ユーザAのメニュー画面とユーザBのメニュー画面とが重なり合うことを防ぐことができる。適正距離sは、さらにマージンを加えた値にしてもよい。
ユーザ位置検出部22は、ユーザ検出カメラ11で撮影された画像に基づいて、ユーザAと、ユーザBに割り当てられた作業領域との間の現実の距離iを算出する。この距離iは、ユーザAの重心位置と、ユーザBに割り当てられた作業領域の左端との距離である。
図10Aでは、ユーザ位置検出部22で算出された距離iが適正距離sよりも小さい。そこで、表示制御部25は、ユーザAの手のフィードバック表示を薄くし、ユーザAに対して、適正距離sを越えて隣接する作業領域に近付いていることを通知する。ここでは、ユーザBには通常のフィードバック表示をしているが、ユーザBに対するフィードバック表示も通常より薄く表示してもよい。
ユーザAは、フィードバック表示を見て、図10Bに示すように、適正距離だけユーザBに割り当てられた作業領域から離れるように移動することができる。そして、図10Cに示すように、ユーザAがユーザBに割り当てられた作業領域から適正距離以上離れた位置で、ユーザA、B各々のメニュー画面が表示される。このとき、ユーザA、Bのメニュー画面が重ならずに表示される。
なお、ここでは、ユーザBに割り当てられた作業領域の左端の位置から適正距離sだけ離れた適正位置を基準として、当該適正位置から(ユーザBの作業領域に近付く方向に)離れるにつれて手のフィードバック表示を薄くしているが、薄くする代わりに、表示を小さくする、表示を振動させるなどしてもよい。また、これらの処理を組み合わせてもよい。
図11Aでは、図10Aと同様に、ユーザAとユーザBに割り当てられた作業領域との間の現実の距離iが適正距離sよりも小さい状態で、両ユーザが手を画面に向ける(かざす)ジェスチャを行ってメニュー画面を表示しようとしている。図11Bでは、ユーザBに割り当てられた作業領域の左端の位置を基準に、適正距離sだけ離れた位置を中心にユーザAのメニュー画面を表示する。
すなわち、ユーザAにとっては自身の体の正面から少し左側の位置にメニュー画面が現れることになる。そうすると、ユーザAは、ユーザBに割り当てられた作業領域に近付きすぎていることに気付いて、図11Cに示すように、メニュー画面の正面に立つように左側に移動することができる。この場合も、ユーザAのメニュー画面とユーザBのメニュー画面とが重なり合うことなく表示される。
(ケース2:ジェスチャ入力によるお絵かきアプリケーション)
図12A及び図12Bは、ケース2のユーザインターフェース装置10の動作例を説明する図である。なお、以下の説明では、2人のユーザA、Bがそれぞれに割り当てられた作業領域を通じてアプリケーションを制御している場合において、ユーザAに対して、ユーザBに割り当てられた作業領域に近付きすぎたことを通知する処理を説明する。一方、ユーザBに対する通知はユーザAの場合と共通するので、説明は省略する。
このケースは、ユーザAが、手の動きにあわせて表示部2上に描画するお絵かきアプリケーションを実行中であり、その隣接する位置でユーザBが放送コンテンツ(ニュース番組)を視聴中である場面である。
まず、距離iは、ユーザAの重心位置からユーザBに割り当てられた作業領域(視聴している表示領域)の左端までの距離とするとよい。この場合は、手の動きにあわせて画面上に描画するお絵かきアプリケーションであるので、適正距離sは、ユーザAの腕の長さにするとよい。また、ユーザAとユーザBとは、異なるアプリケーションを実行しているので、同種のアプリケーションを実行している場合より、マージンを大きくしてもよい。
図12Aでは、ユーザBの視聴している表示領域の左端からのユーザAの重心位置までの距離iが適正距離s以上であるので、表示制御部25は、手のフィードバック表示を通常の表示形態で提示する。そして、図12Bでは、距離iが適正距離s未満となっているので、表示制御部25は、距離iと適正距離sとの差の大きさに応じて、手のフィードバック表示を小さく提示している。このフィードバック表示の変化により、ユーザAは、ユーザBの作業領域に接近しすぎていることを知ることができ、不用意にユーザBの作業領域に侵入せずにすむ。
(ケース3:ユーザ位置入力によるStay−with−Me TV)
図13A〜図14Cは、ケース3のユーザインターフェース装置10の動作例を説明する図である。なお、以下の説明では、2人のユーザA、Bがそれぞれに割り当てられた作業領域を通じてアプリケーションを制御している場合において、ユーザAに対して、ユーザBに割り当てられた作業領域に近付きすぎたことを通知する処理を説明する。
このケースは、ユーザAとユーザBとが、各ユーザのワークスペースまたはウインドウが、ユーザが移動するのに追従してついてくる「Stay−with−Me TV」と呼ばれる機能を利用中の場面である。図13A〜図13Cは、ユーザAとユーザBとが同一の方向に移動中である場合であり、図14A〜図14Cは、ユーザAとユーザBとが互いに向き合う方向に移動中である場合である。
図13A〜図13Cの場合は、適正位置算出部24は、ユーザAのウインドウの幅(a)に所定のマージンを加えて、適正距離sを算出すればよい。
図13A及び図13Bでは、ユーザAとユーザBに割り当てられた作業領域との間の距離iが適正距離sよりも大きいため、通常の追従度でウインドウがユーザAの移動に追従する。しかし、図13Cでは、ユーザAとユーザBに割り当てられた作業領域との間の距離iが適正距離s未満となっているため、ユーザAがユーザAの適正位置を越えて、ユーザBの作業領域に近づいているといえる。そのため、表示制御部25は、ユーザAのウインドウの追従度を低くし、ユーザAに適正位置を越えていることを通知する。ユーザAにとっては、徐々にウインドウが自身の真横の位置から後方よりになることにより、この状況を知ることができる。また、ユーザによっては、ウインドウが自身の真横の位置から後方よりになると、自身の移動の速度を下げる場合もあると考えられる。
図13Aと図13Bと図13CとでユーザAの位置とユーザAのウインドウの左端との距離を比較すると、図13Aと図13Bに示す場合に比べて、図13Cに示す場合のウインドウの追従度が低くなっていることがわかる。
なお、図13A〜図13Cでは、ユーザAに着目して説明しているため、ユーザBのウインドウの追従度は、図13Aと図13Bと図13Cとでほぼ同一となっている。しかしながら、図13Cにおいて、ユーザBのウインドウの追従度を高めて(すなわち、ウインドウがユーザBを追い越して)、ユーザBに後ろから人が近づいていることを暗示させることもできる。そのような提示をすることで、ユーザBが移動の速度を上げる可能性もある。
図14A〜図14Cの場合は、適正位置算出部24は、ユーザAのウインドウの幅(a)に所定のマージンを加えて、適正距離sを算出すればよい。このときのマージンは、図13A〜図13Cに示す場合より大きく設定するのが望ましい。これは、図13A〜図13Cの場合に比べて、図14A〜図14Cの場合の方が、互いの存在が気になることを考慮したためである。
図14Aと図14Bとでは、ユーザAとユーザBに割り当てられた作業領域との間の距離iが適正距離sよりも大きいため、通常の追従度でウインドウがユーザAの移動に追従する。しかし、図14Cでは、ユーザAとユーザBに割り当てられた作業領域との間の距離iが適正距離s未満となっているため、ユーザAがユーザAの適正位置を越えて、ユーザBに近づいているといえる。そのため、表示制御部25は、ユーザAのウインドウの追従度を低くし、ユーザAに適正位置を越えていることを通知する。ユーザAにとっては、徐々にウインドウが自身の真横の位置から後方よりになることにより、状況を知ることができる。また、ユーザによっては、ウインドウが自身の真横の位置から後方よりになると、自身の移動の速度を下げる場合もあると考えられる。
かかる構成によれば、各ユーザの操作が周囲のユーザの操作の邪魔にならないように、少なくとも複数のユーザの位置関係に基づいてユーザの適正位置を規定し、適正位置に基づいて映像表示部31に表示されるアプリケーションを制御する。これにより、各ユーザの操作が周囲のユーザの操作の邪魔にならないようになる。また、各ユーザの操作が周囲のユーザに邪魔になる可能性がある場合に、その旨がフィードバック提示されるので、ユーザがその旨を認識することができる。
なお、本実施の形態において、ジェスチャはフリーハンドジェスチャを想定し、ユーザ検出カメラ11の画像からユーザの手位置及び手形状を画像解析により検出しているが、ユーザの一部または全員が図1Aに示すような静電式のタッチパッドを備えたタッチテーブル上でのジェスチャを行ってもよく、本願発明はそのようなユースケースでも勿論有効である。さらに、ユーザの一部または全員が図1Aに示すようなジェスチャ入力リモコンを用いてジェスチャを行った場合にも、本願発明は勿論有効である。
なお、上記の3つのユースケースにおいては、2人のユーザA、Bが隣り合った状態で作業をしている例を示したが、これに限ることなく、本発明は1人のユーザが当該ユーザインターフェース装置10を使用している場合にも適用できる。例えば、ユーザが第1の作業領域を通じてアプリケーションを制御しており、第1の作業領域に隣接する第2の作業領域はシステムが使用する領域である場合に、ユーザがシステム領域に侵入するのを有効に防止することができる。
4 変形例
以下、変形例について説明する。
4.1 適正位置の規定方法
適正位置算出部は、以下の点を考慮して、適正位置を規定してもよい。
(身体的特徴)
適正位置算出部24は、ユーザの身体的特徴に基づいて、適正位置を規定してもよい。例えば、ユーザの身長あるいは腕の長さを考慮し、隣り合うユーザが腕を互いの方向に伸ばしても腕が交錯しないように適正位置を規定することができる。また、ユーザが左利きか右利きのいずれであるかであるかを考慮して適正位置を規定することで、よりユーザの身体的特徴に即した適正位置の規定が実現できる。これらのユーザの身体的特徴の情報は、ユーザ情報DBからデータを取得することができる。また、ユーザの身長は、ユーザ検出カメラの画像を解析することからも算出できる。
(社会的関係)
適正位置は、隣接して位置するユーザ間の関係性に基づいて規定してもよい。ユーザ間の関係性は年齢もしくは親子、上司/部下など社会的関係であることとしてもよい。ユーザ間の関係性は発話量から推定される会話の主従関係であることとしてもよい。
また、図4Dに示すように、ユーザ情報DBに登録済みのユーザ間の親密度に基づいて、適正位置を規定してもよい。
4.2 フィードバック提示の方法
上記実施の形態では、画面上の表示を制御することにユーザにフィードバックを提示するものとして説明した。本発明のユーザインターフェース装置10は、以下の方法により、フィードバックを提示するように設定してもよい。
(音)
ユーザの位置と適正位置とのずれの大きさに応じて、ユーザインターフェース装置10のスピーカー(図示省略)から音を出力し、フィードバックを提示してもよい。
(照明)
ユーザの位置と適正位置とのずれの大きさに応じて、ユーザインターフェース装置10が設置されている空間の照明の照度または色などを変化させることとしてもよい。
(携帯機器)
ユーザが所持する携帯機器とユーザインターフェース装置10とがネットワーク接続されている場合において、携帯機器を通じてユーザにフィードバックを提示してもよい。例えば、ユーザの位置と適正位置とのずれの大きさに応じて、携帯機器のバイブレータの大きさを大きくするなどしてもよい。
なお、上記の音によるフィードバック、照明によるフィードバック、携帯機器によるフィードバックは、それらを組み合わせて実行してもよい。
<補足>
以上のように本発明にかかるユーザインターフェース装置について実施の形態に基づいて説明したが、以下のように変形することもでき、本発明は上述の実施の形態で示したユーザインターフェース装置に限られないことは勿論である。
(1)上記の各装置は、具体的には、マイクロプロセッサ、ROM、RAM、ハードディスクユニット、ディスプレイユニット、キーボード、マウスなどから構成されるコンピュータシステムである。前記RAM又は前記ハードディスクユニットには、コンピュータプログラムが記憶されている。前記マイクロプロセッサが、前記コンピュータプログラムに従って動作することにより、各装置は、その機能を達成する。ここで、コンピュータプログラムは、所定の機能を達成するために、コンピュータに対する指令を示す命令コードが複数個組み合わされて構成されたものである。なお、各装置は、マイクロプロセッサ、ROM、RAM、ハードディスクユニット、ディスプレイユニット、キーボード、マウスなどの全てを含むコンピュータシステムに限らず、これらの一部から構成されているコンピュータシステムであってもよい。
(2)上記の各装置を構成する構成要素の一部又は全部は、1個のシステムLSI(Large Scale Integration:大規模集積回路)から構成されているとしてもよい。システムLSIは、複数の構成部を1個のチップ上に集積して製造された超多機能LSIであり、具体的には、マイクロプロセッサ、ROM、RAMなどを含んで構成されるコンピュータシステムである。前記RAMには、コンピュータプログラムが記憶されている。前記マイクロプロセッサが、前記コンピュータプログラムに従って動作することにより、システムLSIは、その機能を達成する。
なお、ここでは、システムLSIとしたが、集積度の違いにより、IC、LSI、スーパーLSI、ウルトラLSIと呼称されることもある。また、集積回路化の手法はLSIに限るものではなく、専用回路又は汎用プロセッサで実現してもよい。LSI製造後に、プログラムすることが可能なFPGA(Field Programmable Gate Array)や、LSI内部の回路セルの接続や設定を再構成可能なリコンフィギュラブル・プロセッサを利用しても良い。
さらには、半導体技術の進歩又は派生する別技術によりLSIに置き換わる集積回路化の技術が登場すれば、当然、その技術を用いて機能ブロックの集積化を行ってもよい。バイオ技術の適用等が可能性としてありえる。
(3)上記の各装置を構成する構成要素の一部又は全部は、各装置に脱着可能なICカード又は単体のモジュールから構成されているとしてもよい。前記ICカード又は前記モジュールは、マイクロプロセッサ、ROM、RAM、などから構成されるコンピュータシステムである。前記ICカード又は前記モジュールは、上記の超多機能LSIを含むとしてもよい。マイクロプロセッサが、コンピュータプログラムに従って動作することにより、前記ICカード又は前記モジュールは、その機能を達成する。このICカード又はこのモジュールは、耐タンパ性を有するとしてもよい。
(4)本発明は、上記に示す方法であるとしてもよい。また、これらの方法をコンピュータにより実現するコンピュータプログラムであるとしてもよいし、前記コンピュータプログラムからなるデジタル信号であるとしてもよい。
また、本発明は、前記コンピュータプログラム又は前記デジタル信号をコンピュータ読み取り可能な記録媒体、例えば、フレキシブルディスク、ハードディスク、CD―ROM、MO、DVD、DVD−ROM、DVD−RAM、BD(Blu−ray Disc)、半導体メモリなど、に記録したものとしてもよい。また、これらの記録媒体に記録されている前記コンピュータプログラム又は前記デジタル信号であるとしてもよい。
また、本発明は、前記コンピュータプログラム又は前記デジタル信号を、電気通信回線、無線又は有線通信回線、インターネットを代表とするネットワーク、データ放送等を経由して伝送するものとしてもよい。
また、本発明は、マイクロプロセッサとメモリとを備えたコンピュータシステムであって、前記メモリは、上記コンピュータプログラムを記憶しており、前記マイクロプロセッサは、前記コンピュータプログラムに従って動作するとしてもよい。
また、前記プログラム又は前記デジタル信号を前記記録媒体に記録して移送することにより、又は前記プログラム又は前記デジタル信号を前記ネットワーク等を経由して移送することにより、独立した他のコンピュータシステムにより実施するとしてもよい。
(5)上記実施の形態及び上記変形例をそれぞれ組み合わせるとしてもよい。
本発明にかかるユーザインターフェース装置は、複数のユーザがユーザインターフェース装置に対して操作する場合に、各ユーザの操作が周囲のユーザの操作の邪魔にならないように表示制御を行うので、複数人による操作される大画面ディスプレイ、例えば大画面テレビや屋外電子広告(デジタル・サイネージ)等に適用するものとして有用である。
1,10 ユーザインターフェース装置
2 表示部
3 検出部
4 算出部
5 通知部
11 ユーザ検出カメラ
21 ユーザ識別部
22 ユーザ位置検出部
23 ユーザ動作検出部
24 適正位置算出部
25 表示制御部
31 映像表示部

Claims (16)

  1. アプリケーションプログラムを制御するインターフェースとなる作業領域を、ユーザに提供するユーザインターフェース装置であって、
    前記ユーザに割り当てられた第1の作業領域、及び前記第1の作業領域と異なる第2の作業領域を表示する表示部と、
    前記ユーザの位置を検出する検出部と、
    前記第1の作業領域を通じて前記ユーザに制御される前記アプリケーションプログラムの種類に応じて、前記ユーザと前記第2の作業領域との間の適正距離を算出する算出部と、
    前記検出部によって検出された前記ユーザの位置と前記第2の作業領域との距離が、前記算出部によって算出された前記適正距離より短くなったことを前記ユーザに通知する通知部とを備える
    ユーザインターフェース装置。
  2. 前記検出部は、さらに、前記ユーザが前記アプリケーションプログラムを制御するために行うジェスチャを検出し、
    前記表示部は、前記検出部によって検出された前記ジェスチャの位置に対応する位置に、前記ジェスチャの妥当性をユーザに伝えるためのフィードバック表示を表示し、
    前記通知部は、前記フィードバック表示の表示態様を変化させることによって、前記ユーザの位置と前記第2の作業領域との距離が前記適正距離より短くなったことを前記ユーザに通知する
    請求項1に記載のユーザインターフェース装置。
  3. 前記通知部は、前記ユーザの位置が前記第2の作業領域に近付く程、前記フィードバック表示を小さく及び/又は薄く表示する
    請求項2に記載のユーザインターフェース装置。
  4. 前記第1の作業領域は、前記ユーザの動きに追従して前記表示部内を移動するウインドウであって、
    前記通知部は、前記ユーザが前記第2の作業領域に近付く程、前記ウインドウの追従度を低下させる
    請求項1に記載のユーザインターフェース装置。
  5. 前記算出部は、さらに、前記ユーザの身体的特徴に応じて前記適正距離を算出する
    請求項1に記載のユーザインターフェース装置。
  6. 前記算出部は、前記ユーザの身長が高いほど、又は前記ユーザの腕の長さが長いほど、前記適正距離を長くする
    請求項5に記載のユーザインターフェース装置。
  7. 前記算出部は、前記ユーザの利き手が前記第2の作業領域に近い側に位置する場合に、遠い側に位置する場合より前記適正距離を長くする
    請求項5に記載のユーザインターフェース装置。
  8. 前記算出部は、さらに、前記第1の作業領域を通じて前記ユーザに制御されるアプリケーションプログラムと、前記第2の作業領域を通じて他のユーザに制御されるアプリケーションプログラムとの類似度又は関連度が高いほど、前記適正距離を短くする
    請求項1に記載のユーザインターフェース装置。
  9. 前記算出部は、さらに、前記第1の作業領域で作業する前記ユーザと、前記第2の作業領域で作業する他のユーザとの関係に基づいて、前記適正距離を算出する
    請求項1に記載のユーザインターフェース装置。
  10. 前記算出部は、前記ユーザが前記他のユーザよりも社会的に上位である場合に、社会的に下位である場合よりも前記適正距離を短くする
    請求項9に記載のユーザインターフェース装置。
  11. 前記検出部は、さらに、前記ユーザ及び前記他のユーザの発する音声を検出し、
    前記算出部は、前記検出部によって検出された発話量から前記ユーザ及び前記他のユーザの関係を推定する
    請求項9に記載のユーザインターフェース装置。
  12. 前記通知部は、音声により通知する
    請求項1に記載のユーザインターフェース装置。
  13. 前記通知部は、照明により通知する
    請求項1に記載のユーザインターフェース装置。
  14. 前記通知部は、前記ユーザが保持する携帯機器を通じて通知する
    請求項1に記載のユーザインターフェース装置。
  15. ユーザに割り当てられた第1の作業領域、及び前記第1の作業領域と異なる第2の作業領域を表示する表示部を用いて、前記第1の作業領域を通じて前記ユーザにアプリケーションプログラムを制御させるユーザインターフェース方法であって、
    前記ユーザの位置を検出する検出ステップと、
    前記第1の作業領域を通じて前記ユーザに制御される前記アプリケーションプログラムの種類に応じて、前記ユーザと前記第2の作業領域との間の適正距離を算出する算出ステップと、
    前記検出ステップで検出された前記ユーザの位置と前記第2の作業領域との距離が、前記算出ステップで算出された前記適正距離より短くなったことを前記ユーザに通知する通知ステップとを含む
    ユーザインターフェース方法。
  16. 請求項15に記載のユーザインターフェース方法を、コンピュータに実行させるプログラムを記録した
    コンピュータ読み取り可能な記録媒体。
JP2010513547A 2008-09-29 2009-09-25 ユーザインターフェース装置、ユーザインターフェース方法、及び記録媒体 Active JP5260643B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010513547A JP5260643B2 (ja) 2008-09-29 2009-09-25 ユーザインターフェース装置、ユーザインターフェース方法、及び記録媒体

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2008250867 2008-09-29
JP2008250867 2008-09-29
PCT/JP2009/004868 WO2010035477A1 (ja) 2008-09-29 2009-09-25 ユーザインターフェース装置、ユーザインターフェース方法、及び記録媒体
JP2010513547A JP5260643B2 (ja) 2008-09-29 2009-09-25 ユーザインターフェース装置、ユーザインターフェース方法、及び記録媒体

Publications (2)

Publication Number Publication Date
JPWO2010035477A1 JPWO2010035477A1 (ja) 2012-02-16
JP5260643B2 true JP5260643B2 (ja) 2013-08-14

Family

ID=42059490

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010513547A Active JP5260643B2 (ja) 2008-09-29 2009-09-25 ユーザインターフェース装置、ユーザインターフェース方法、及び記録媒体

Country Status (6)

Country Link
US (1) US8464160B2 (ja)
EP (1) EP2333652B1 (ja)
JP (1) JP5260643B2 (ja)
KR (1) KR101541561B1 (ja)
CN (1) CN101874234B (ja)
WO (1) WO2010035477A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10795831B2 (en) 2015-01-21 2020-10-06 Sony Corporation Information processing device, communication system, information processing method

Families Citing this family (69)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8843857B2 (en) * 2009-11-19 2014-09-23 Microsoft Corporation Distance scalable no touch computing
JP5618554B2 (ja) * 2010-01-27 2014-11-05 キヤノン株式会社 情報入力装置、情報入力方法及びプログラム
JP5709405B2 (ja) * 2010-05-18 2015-04-30 株式会社タイトー 画像認識によるラクガキ装置
CN103221968A (zh) * 2010-11-10 2013-07-24 日本电气株式会社 信息通知系统、信息通知方法、信息处理设备及其控制方法和控制程序
JP5777731B2 (ja) * 2010-12-29 2015-09-09 エンパイア テクノロジー ディベロップメント エルエルシー ジェスチャー認識のための環境依存型ダイナミックレンジ制御
CN102591446A (zh) * 2011-01-10 2012-07-18 海尔集团公司 手势控制显示系统及其控制方法
JP2012208619A (ja) * 2011-03-29 2012-10-25 Nec Corp 電子機器、通知方法およびプログラム
JP2014167496A (ja) * 2011-06-22 2014-09-11 Sharp Corp 表示装置
CN103797440B (zh) * 2011-09-15 2016-12-21 皇家飞利浦有限公司 具有用户反馈的基于姿势的用户界面
JP5869558B2 (ja) * 2011-10-19 2016-02-24 パナソニック インテレクチュアル プロパティ コーポレーション オブアメリカPanasonic Intellectual Property Corporation of America 表示制御装置、集積回路、表示制御方法およびプログラム
US9449583B2 (en) * 2011-12-15 2016-09-20 Lenovo (Beijing) Co., Ltd. Control method and electronic apparatus
CN103167263B (zh) * 2011-12-15 2017-05-24 联想(北京)有限公司 处理采集图像的方法及电子设备
JP2013137472A (ja) * 2011-12-28 2013-07-11 Nikon Corp 投影装置
CN107610627A (zh) * 2011-12-28 2018-01-19 株式会社尼康 显示装置以及投影装置
US10402879B2 (en) 2011-12-30 2019-09-03 Adidas Ag Offering a customized collection of products
US9690368B2 (en) 2011-12-30 2017-06-27 Adidas Ag Customization based on physiological data
JP5957893B2 (ja) * 2012-01-13 2016-07-27 ソニー株式会社 情報処理装置及び情報処理方法、並びにコンピューター・プログラム
US9684821B2 (en) 2012-01-20 2017-06-20 Thomson Licensing Method and apparatus for user recognition
US9264660B1 (en) 2012-03-30 2016-02-16 Google Inc. Presenter control during a video conference
US20130290867A1 (en) * 2012-04-27 2013-10-31 Litera Technologies, LLC Systems and Methods For Providing Dynamic and Interactive Viewing and Control of Applications
US9619036B2 (en) * 2012-05-11 2017-04-11 Comcast Cable Communications, Llc System and methods for controlling a user experience
KR20130130453A (ko) * 2012-05-22 2013-12-02 엘지전자 주식회사 영상표시장치 및 그 동작 방법
US9479549B2 (en) * 2012-05-23 2016-10-25 Haworth, Inc. Collaboration system with whiteboard with federated display
JP5900161B2 (ja) 2012-05-29 2016-04-06 ソニー株式会社 情報処理システム、方法およびコンピュータ読み取り可能な記録媒体
US9170667B2 (en) * 2012-06-01 2015-10-27 Microsoft Technology Licensing, Llc Contextual user interface
US10150028B2 (en) 2012-06-04 2018-12-11 Sony Interactive Entertainment Inc. Managing controller pairing in a multiplayer game
JP2013254080A (ja) * 2012-06-06 2013-12-19 Sharp Corp 表示装置
KR102035134B1 (ko) * 2012-09-24 2019-10-22 엘지전자 주식회사 영상표시장치, 및 그 동작방법
DE102012110190B4 (de) * 2012-10-25 2015-03-26 Mis-Robotics Gmbh Manuell betätigte Robotersteuerung und Verfahren zum Steuern eines Robotersystems
US9635305B1 (en) * 2012-11-03 2017-04-25 Iontank, Ltd. Display apparatus including a transparent electronic monitor
KR101360063B1 (ko) * 2012-12-18 2014-02-12 현대자동차 주식회사 제스처 인식 방법 및 시스템
JP2014174931A (ja) * 2013-03-12 2014-09-22 Sharp Corp 描画装置
JP5900388B2 (ja) 2013-03-15 2016-04-06 コニカミノルタ株式会社 オブジェクト表示装置及び操作制御方法並びに操作制御プログラム
JP6201408B2 (ja) * 2013-05-10 2017-09-27 株式会社ニコン 電子制御装置、制御方法及び制御プログラム
JP2015011106A (ja) * 2013-06-27 2015-01-19 カシオ計算機株式会社 投影装置、投影方法及びプログラム
TW201508609A (zh) * 2013-08-19 2015-03-01 Wistron Corp 互動方法及其相關互動式系統
US9740361B2 (en) * 2013-10-14 2017-08-22 Microsoft Technology Licensing, Llc Group experience user interface
JP2015090547A (ja) * 2013-11-05 2015-05-11 ソニー株式会社 情報入力装置及び情報入力方法、並びにコンピューター・プログラム
JP2015127897A (ja) * 2013-12-27 2015-07-09 ソニー株式会社 表示制御装置、表示制御システム、表示制御方法、およびプログラム
US9971490B2 (en) * 2014-02-26 2018-05-15 Microsoft Technology Licensing, Llc Device control
KR20150104711A (ko) * 2014-03-06 2015-09-16 엘지전자 주식회사 디스플레이 장치 및 그의 동작 방법
CA2946727A1 (en) * 2014-04-23 2015-10-29 President And Fellows Of Harvard College Telepresence apparatus and method enabling a case-study approach to lecturing and teaching
US10175825B2 (en) * 2014-07-30 2019-01-08 Sony Corporation Information processing apparatus, information processing method, and program for determining contact on the basis of a change in color of an image
EP2993645B1 (en) * 2014-09-02 2019-05-08 Nintendo Co., Ltd. Image processing program, information processing system, information processing apparatus, and image processing method
CN105511748A (zh) 2014-09-25 2016-04-20 阿里巴巴集团控股有限公司 自适应调整智能终端的用户界面的方法及装置
US10462517B2 (en) * 2014-11-04 2019-10-29 Sony Corporation Information processing apparatus, communication system, and information processing method
JP6412778B2 (ja) * 2014-11-19 2018-10-24 東芝映像ソリューション株式会社 映像装置、方法、およびプログラム
KR102113201B1 (ko) 2015-02-27 2020-05-20 삼성전자주식회사 기능 실행 방법 및 이를 지원하는 전자 장치
CN104750250A (zh) * 2015-03-04 2015-07-01 深圳市祈锦通信技术有限公司 支持手势交互的投影方法和投影系统
JP2016194792A (ja) * 2015-03-31 2016-11-17 ソニー株式会社 情報処理装置、情報処理方法およびプログラム
US9990033B2 (en) 2015-09-09 2018-06-05 International Business Machines Corporation Detection of improper viewing posture
US10678326B2 (en) * 2015-09-25 2020-06-09 Microsoft Technology Licensing, Llc Combining mobile devices with people tracking for large display interactions
US10218882B2 (en) * 2015-12-31 2019-02-26 Microsoft Technology Licensing, Llc Feedback for object pose tracker
US10591728B2 (en) * 2016-03-02 2020-03-17 Mentor Acquisition One, Llc Optical systems for head-worn computers
JP6728863B2 (ja) * 2016-03-25 2020-07-22 富士ゼロックス株式会社 情報処理システム
JP6093074B2 (ja) * 2016-06-22 2017-03-08 サターン ライセンシング エルエルシーSaturn Licensing LLC 情報処理装置及び情報処理方法、並びにコンピューター・プログラム
EP3267289B1 (en) 2016-07-05 2019-02-27 Ricoh Company, Ltd. Information processing apparatus, position information generation method, and information processing system
DE102016212813A1 (de) 2016-07-13 2018-01-18 Audi Ag Fahrzeug mit einer Bedien- und Anzeigevorrichtung und Verfahren zum Betreiben eines solchen Fahrzeugs
CN110073317A (zh) * 2016-12-23 2019-07-30 昕诺飞控股有限公司 显示机器可读码的交互式显示系统
US20180260105A1 (en) 2017-03-08 2018-09-13 Nanning Fugui Precision Industrial Co., Ltd. Method for displaying sub-screen and device using the same
CN108304817B (zh) * 2018-02-09 2019-10-29 深圳市无限动力发展有限公司 实现手势操作的方法和装置
US10564915B2 (en) * 2018-03-05 2020-02-18 Microsoft Technology Licensing, Llc Displaying content based on positional state
WO2020031696A1 (ja) * 2018-08-10 2020-02-13 ソニー株式会社 情報処理装置及び情報処理方法、並びに映像音声出力システム
WO2020031453A1 (ja) * 2018-08-10 2020-02-13 ソニー株式会社 情報処理装置及び情報処理方法、並びに映像音声出力システム
JP6603383B2 (ja) * 2018-10-01 2019-11-06 東芝映像ソリューション株式会社 映像装置、方法、およびプログラム
EP3641319A1 (en) * 2018-10-16 2020-04-22 Koninklijke Philips N.V. Displaying content on a display unit
US11403933B2 (en) * 2019-05-06 2022-08-02 Teleperformance Se Systems and methods for implementing and using a proximity dashboard
JP2020013613A (ja) * 2019-10-10 2020-01-23 東芝映像ソリューション株式会社 映像装置、方法、およびプログラム
WO2023188429A1 (ja) * 2022-04-01 2023-10-05 オリンパスメディカルシステムズ株式会社 画像表示システム、表示制御装置および画像表示方法

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03177918A (ja) * 1989-12-07 1991-08-01 Mitsubishi Electric Corp カーソル制御方式
JPH04198985A (ja) * 1990-11-28 1992-07-20 Matsushita Electric Ind Co Ltd データ表示装置
JPH09114430A (ja) * 1995-10-16 1997-05-02 Hitachi Ltd 情報処理装置
JPH113195A (ja) * 1997-06-11 1999-01-06 Fujitsu Ltd インタラクティブシステム及び記憶媒体
JPH1124839A (ja) * 1997-07-07 1999-01-29 Sony Corp 情報入力装置
JP2002300601A (ja) * 2001-03-30 2002-10-11 Shimane Pref Gov バーチャルリアリティ画像表示システム
JP2003280817A (ja) * 2002-03-22 2003-10-02 Ricoh Co Ltd 電子ボード用ユーザインタフェース装置および電子ボード用表示位置補正方法、およびその方法をコンピュータに実行させるプログラム、並びにその方法をコンピュータに実行させるプログラムを記録したコンピュータ読み取り可能な記録媒体
JP2007080228A (ja) * 2005-09-09 2007-03-29 Tani Electronics Corp センサ付きポインティングデバイスエミュレータ

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3819096B2 (ja) 1997-01-22 2006-09-06 株式会社東芝 ユーザインタフェース装置及び操作範囲呈示方法
US6266061B1 (en) 1997-01-22 2001-07-24 Kabushiki Kaisha Toshiba User interface apparatus and operation range presenting method
US6006188A (en) * 1997-03-19 1999-12-21 Dendrite, Inc. Speech signal processing for determining psychological or physiological characteristics using a knowledge base
EP0905644A3 (en) 1997-09-26 2004-02-25 Matsushita Electric Industrial Co., Ltd. Hand gesture recognizing device
US6195104B1 (en) * 1997-12-23 2001-02-27 Philips Electronics North America Corp. System and method for permitting three-dimensional navigation through a virtual reality environment using camera-based gesture inputs
US7227526B2 (en) * 2000-07-24 2007-06-05 Gesturetek, Inc. Video-based image control system
US7113169B2 (en) * 2002-03-18 2006-09-26 The United States Of America As Represented By The Secretary Of The Air Force Apparatus and method for a multiple-user interface to interactive information displays
US7348963B2 (en) * 2002-05-28 2008-03-25 Reactrix Systems, Inc. Interactive video display system
JP4742531B2 (ja) * 2004-07-21 2011-08-10 株式会社日立製作所 情報表示装置
US7917587B2 (en) * 2004-07-30 2011-03-29 Microsoft Corporation Method and system for prioritizing communications based on interpersonal relationships
WO2006085382A1 (ja) * 2005-02-10 2006-08-17 Fujitsu Limited 情報提供装置および情報提供システム
JP5535626B2 (ja) * 2006-07-28 2014-07-02 コーニンクレッカ フィリップス エヌ ヴェ ショップウィンドーに沿って自動的に分布するプライベート用スクリーン
JP5132131B2 (ja) * 2006-11-17 2013-01-30 任天堂株式会社 ポインティング装置の調整プログラムおよびポインティング装置
US20080252596A1 (en) * 2007-04-10 2008-10-16 Matthew Bell Display Using a Three-Dimensional vision System
CN101033955B (zh) 2007-04-18 2010-10-06 北京中星微电子有限公司 一种实现视力保护的方法、装置及一种显示器
EP2188737A4 (en) * 2007-09-14 2011-05-18 Intellectual Ventures Holding 67 Llc PROCESSING BREAKFAST USER INTERACTIONS
US20090106667A1 (en) * 2007-10-19 2009-04-23 International Business Machines Corporation Dividing a surface of a surface-based computing device into private, user-specific areas

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03177918A (ja) * 1989-12-07 1991-08-01 Mitsubishi Electric Corp カーソル制御方式
JPH04198985A (ja) * 1990-11-28 1992-07-20 Matsushita Electric Ind Co Ltd データ表示装置
JPH09114430A (ja) * 1995-10-16 1997-05-02 Hitachi Ltd 情報処理装置
JPH113195A (ja) * 1997-06-11 1999-01-06 Fujitsu Ltd インタラクティブシステム及び記憶媒体
JPH1124839A (ja) * 1997-07-07 1999-01-29 Sony Corp 情報入力装置
JP2002300601A (ja) * 2001-03-30 2002-10-11 Shimane Pref Gov バーチャルリアリティ画像表示システム
JP2003280817A (ja) * 2002-03-22 2003-10-02 Ricoh Co Ltd 電子ボード用ユーザインタフェース装置および電子ボード用表示位置補正方法、およびその方法をコンピュータに実行させるプログラム、並びにその方法をコンピュータに実行させるプログラムを記録したコンピュータ読み取り可能な記録媒体
JP2007080228A (ja) * 2005-09-09 2007-03-29 Tani Electronics Corp センサ付きポインティングデバイスエミュレータ

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10795831B2 (en) 2015-01-21 2020-10-06 Sony Corporation Information processing device, communication system, information processing method

Also Published As

Publication number Publication date
JPWO2010035477A1 (ja) 2012-02-16
EP2333652A4 (en) 2014-04-30
EP2333652B1 (en) 2016-11-02
US8464160B2 (en) 2013-06-11
WO2010035477A1 (ja) 2010-04-01
CN101874234B (zh) 2014-09-24
KR101541561B1 (ko) 2015-08-03
EP2333652A1 (en) 2011-06-15
CN101874234A (zh) 2010-10-27
US20100269072A1 (en) 2010-10-21
KR20110066901A (ko) 2011-06-17

Similar Documents

Publication Publication Date Title
JP5260643B2 (ja) ユーザインターフェース装置、ユーザインターフェース方法、及び記録媒体
US20210407203A1 (en) Augmented reality experiences using speech and text captions
JP5345129B2 (ja) ユーザインターフェース装置、ユーザインターフェース方法、及び記録媒体
US20210405761A1 (en) Augmented reality experiences with object manipulation
US10120454B2 (en) Gesture recognition control device
US9900498B2 (en) Glass-type terminal and method for controlling the same
KR101896947B1 (ko) 제스쳐를 이용한 입력 장치 및 방법
US9507420B2 (en) System and method for providing haptic feedback to assist in capturing images
US20200201446A1 (en) Apparatus, method and recording medium for controlling user interface using input image
US9900541B2 (en) Augmented reality remote control
US10564712B2 (en) Information processing device, information processing method, and program
TW201344597A (zh) 顯示裝置控制方法、控制器及多媒體系統
US11869156B2 (en) Augmented reality eyewear with speech bubbles and translation
CN106416223A (zh) 成像设备和通过成像设备进行的视频生成方法
US20200142495A1 (en) Gesture recognition control device
WO2019138682A1 (ja) 情報処理装置、情報処理方法及びプログラム
KR102023187B1 (ko) 디스플레이 장치에 설치되는 착탈식 터치 패널 장치
US11863860B2 (en) Image capture eyewear with context-based sending
US20240144611A1 (en) Augmented reality eyewear with speech bubbles and translation
US20240079031A1 (en) Authoring tools for creating interactive ar experiences
KR20150064597A (ko) 디스플레이 장치 및 그의 동작 방법

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120323

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130409

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130425

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160502

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 5260643

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250