JP2013145468A - 情報処理装置及び情報処理方法、並びにコンピューター・プログラム - Google Patents
情報処理装置及び情報処理方法、並びにコンピューター・プログラム Download PDFInfo
- Publication number
- JP2013145468A JP2013145468A JP2012005551A JP2012005551A JP2013145468A JP 2013145468 A JP2013145468 A JP 2013145468A JP 2012005551 A JP2012005551 A JP 2012005551A JP 2012005551 A JP2012005551 A JP 2012005551A JP 2013145468 A JP2013145468 A JP 2013145468A
- Authority
- JP
- Japan
- Prior art keywords
- user
- unit
- screen
- display
- information processing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
【解決手段】情報処理装置100は、タッチ検出部509、近接センサー511、カメラ部503、リモコン受信部501を備えており、画面へのタッチ、近接、手などを用いたジェスチャー、リモコン、ユーザー状態による間接操作など複数の入力手段を備え、ユーザーの位置やユーザーの状態に応じて入力手段を自動で選択する。また、画面に表示する被操作オブジェクトの枠組みや情報密度などの最適なGUI表示を、ユーザーの位置やユーザーの状態に応じて変化させる。
【選択図】 図24A
Description
表示部と、
前記表示部に対するユーザーの位置を検出するユーザー位置検出部と、
前記表示部の表示画面に対するユーザーの状態を検出するユーザー状態検出部と、
前記ユーザー位置検出部が検出したユーザーの位置と、前記ユーザー状態検出部が検出したユーザーの状態に応じて、前記表示部に表示するGUIを制御する演算部と、
を具備する情報処理装置である。
表示部と、
ユーザーが前記表示部の画面上に表示されている被操作オブジェクトを操作する1以上の入力手段と、
前記表示部に対するユーザーの位置を検出するユーザー位置検出部と、
前記表示部の表示画面に対するユーザーの状態を検出するユーザー状態検出部と、
前記ユーザー位置検出部が検出したユーザーの位置と、前記ユーザー状態検出部が検出したユーザーの状態に応じて、前記入力手段を最適化する演算部と、
を具備する情報処理装置である。
表示部と、
前記表示部に対するユーザーの位置を検出するユーザー位置検出部と、
前記表示部の画面からユーザーまでの距離を検出する複数の距離検出方式と、
前記ユーザー位置検出部が検出したユーザーの位置に応じて、距離検出方式の切り替えを制御する演算部と、
を具備する情報処理装置である。
表示画面に対するユーザーの位置を検出するユーザー位置検出ステップと、
表示画面に対するユーザーの状態を検出するユーザー状態検出ステップと、
前記ユーザー位置検出ステップで検出したユーザーの位置と、前記ユーザー状態検出ステップで検出したユーザーの状態に応じて、前記表示画面に表示するGUIを制御する演算ステップと、
を有する情報処理方法である。
表示画面に対するユーザーの位置を検出するユーザー位置検出ステップと、
前記表示画面に対するユーザーの状態を検出するユーザー状態検出ステップと、
前記ユーザー位置検出ステップで検出したユーザーの位置と、前記ユーザー状態検出ステップで検出したユーザーの状態に応じて、ユーザーが前記表示画面上に表示されている被操作オブジェクトを操作するための1以上の入力手段を最適化する演算ステップと、
を有する情報処理方法である。
表示画面に対するユーザーの位置を検出するユーザー位置検出ステップと、
前記ユーザー位置検出ステップで検出したユーザーの位置に応じて、前記表示画面からユーザーまでの距離を検出する複数の距離検出方式の切り替えを制御する演算ステップと、
を有する情報処理方法である。
表示部、
前記表示部に対するユーザーの位置を検出するユーザー位置検出部、
前記表示部の表示画面に対するユーザーの状態を検出するユーザー状態検出部、
前記ユーザー位置検出部が検出したユーザーの位置と、前記ユーザー状態検出部が検出したユーザーの状態に応じて、前記表示部に表示するGUIを制御する演算部、
としてコンピューターを機能させるようコンピューター可読形式で記述されたコンピューター・プログラムである。
表示部、
ユーザーが前記表示部の画面上に表示されている被操作オブジェクトを操作する1以上の入力手段、
前記表示部に対するユーザーの位置を検出するユーザー位置検出部、
前記表示部の表示画面に対するユーザーの状態を検出するユーザー状態検出部、
前記ユーザー位置検出部が検出したユーザーの位置と、前記ユーザー状態検出部が検出したユーザーの状態に応じて、前記入力手段を最適化する演算部、
としてコンピューターを機能させるようコンピューター可読形式で記述されたコンピューター・プログラムである。
表示部、
前記表示部に対するユーザーの位置を検出するユーザー位置検出部、
前記表示部の画面からユーザーまでの距離を検出する複数の距離検出方式、
前記ユーザー位置検出部が検出したユーザーの位置に応じて、距離検出方式の切り替えを制御する演算部、
としてコンピューターを機能させるようコンピューター可読形式で記述されたコンピューター・プログラムである。
本実施形態に係る情報処理装置100は、大画面を有するが、主な使用形態として、図1に示すように壁に掛ける「Wall」、並びに、図2に示すように卓上に設置する「Tabletop」が想定される。
情報処理装置100は、大画面における複数ユーザーによる同時操作が可能である。具体的には、大画面の4つの側縁部の各々に、ユーザーの存在又は状態を検出する近接センサー511を備えており、ユーザーの配置に応じて画面内にユーザー占有領域と共通領域を設定することで、複数のユーザーによる快適且つ効率的な同時操作を可能にする。
情報処理装置100は、距離センサー507や近接センサー511を備えており、例えば図1、図3に示したような壁掛け使用時において、情報処理装置100本体すなわち画面からユーザーまでの距離を検出することができる。
従来の物体表示システムでは、実在するオブジェクトの画像を、そのリアルサイズ情報を考慮せずに画面に表示する。このため、画面の大きさや解像度(dpi)に応じて表示されるオブジェクトのサイズが変動してしまう。例えば、横幅がaセンチメートルのバッグを32インチのモニターに表示したときの横幅a’と、50インチのモニターに表示したときの横幅a”は互いに異なる(a≠a’≠a”)(図30を参照のこと)。
表示システムにおいて、複数のソースの映像コンテンツを、並列又は重畳するという形態で同じ画面上に同時に表示する場合がある。例えば、(1)複数のユーザー同士でビデオ・チャットを行なう場合や、(2)ヨガなどのレッスンの際に、DVDなどの記録メディアから再生した(あるいは、ネットワーク経由でストリーミング再生する)インストラクターの映像とカメラ部503で撮影したユーザー本人の映像を同時に表示する場合、(3)ネット・ショッピングにおいて商品のサンプル画像とカメラ部503で撮影したユーザー本人の映像を重ねて表示してフィッティングする場合を挙げることができる。
既に述べたように、本実施形態に係る情報処理装置100本体は、例えば回転・取り付け機構部180によって壁面上で回転可能且つ着脱可能な状態で取り付けられている。情報処理装置100の電源オンすなわち表示部603で被操作オブジェクトを表示している最中に本体を回転操作すると、これに伴って、ユーザーが正しい姿勢の被操作オブジェクトを観察できるよう、被操作オブジェクトを回転処理する。
本明細書で開示する技術は、以下のような構成をとることも可能である。
(101)表示部と、前記表示部の周辺に存在するユーザーを検出するユーザー検出部と、前記ユーザー検出部がユーザーを検出したことに応じて、前記表示部に表示する被操作オブジェクトの処理を行なう演算部と、を具備する情報処理装置。
(102)前記ユーザー検出部は、前記表示部の画面の4つの側縁部の各々に配設された近接センサーを有し、各側縁付近に存在するユーザーを検出する、上記(101)に記載の情報処理装置。
(103)前記演算部は、前記ユーザー検出部が検出したユーザーの配置に応じて、前記表示部の画面内に、検出されたユーザー毎のユーザー占有領域と、ユーザー間で共有する共通領域を設定する、上記(101)に記載の情報処理装置。
(104)前記演算部は、前記表示部の画面上に、ユーザーの操作対象となる1以上の被操作オブジェクトを表示させる、上記(103)に記載の情報処理装置。
(105)前記演算部は、ユーザー占有領域内の被操作オブジェクトを最適化する、上記(104)に記載の情報処理装置。
(106)前記演算部は、ユーザー占有領域内の被操作オブジェクトが該当するユーザーに正対する方向となるように回転処理する、上記(104)に記載の情報処理装置。
(107)前記演算部は、共通領域又は他のユーザー占有領域からユーザー占有領域に移動してきた被操作オブジェクトが該当するユーザーに正対する方向となるように回転処理する、上記(104)に記載の情報処理装置。
(108)演算部は、ユーザーが被操作オブジェクトをドラッグして領域間を移動させる際に、被操作オブジェクトの重心位置に対してユーザーが操作した位置に応じて、被操作オブジェクトを回転処理する際の回転方向を制御する、上記(107)に記載の情報処理装置。
(109)前記演算部は、前記ユーザー検出部が新規に検出したユーザーのユーザー占有領域を前記表示部の画面内に設定するときに、ユーザーを新規に検出したことを表す検出インジケーターを表示させる、上記(103)に記載の情報処理装置。
(110)ユーザーが所持する端末とデータを送受信するデータ送受信部をさらに備える、上記(104)に記載の情報処理装置。
(111)前記データ送受信部は、前記ユーザー検出部が検出したユーザーが所持する端末とデータ送受信処理を行ない、前記演算部は、ユーザーが所持する端末から受信したデータに対応する被操作オブジェクトを、該当するユーザー占有領域に出現させる、上記(110)に記載の情報処理装置。
(112)前記演算部は、各ユーザーのユーザー占有領域間で被操作オブジェクトを移動させたことに応じて、移動先のユーザー占有領域に被操作オブジェクトを複製又は分割する、上記(104)に記載の情報処理装置。
(113)前記演算部は、移動先のユーザー占有領域に、別データとして作成した被操作オブジェクトの複製を表示させる、上記(112)に記載の情報処理装置。
(114)前記演算部は、移動先のユーザー占有領域に、ユーザー間で共同操作が可能なアプリケーションの別のウィンドウとなる被操作オブジェクトの複製を表示させる、上記(112)に記載の情報処理装置。
(115)周辺に存在するユーザーを検出するユーザー検出ステップと、前記ユーザー検出ステップでユーザーを検出したことに応じて、表示する被操作オブジェクトの処理を行なう演算ステップと、を有する情報処理方法。
(116)表示部、前記表示部の周辺に存在するユーザーを検出するユーザー検出部、前記ユーザー検出部がユーザーを検出したことに応じて、前記表示部に表示する被操作オブジェクトの処理を行なう演算部、としてコンピューターを機能させるようコンピューター可読形式で記述されたコンピューター・プログラム。
(201)表示部と、前記表示部に対するユーザーの位置を検出するユーザー位置検出部と、前記表示部の表示画面に対するユーザーの状態を検出するユーザー状態検出部と、前記ユーザー位置検出部が検出したユーザーの位置と、前記ユーザー状態検出部が検出したユーザーの状態に応じて、前記表示部に表示するGUIを制御する演算部と、を具備する情報処理装置。
(202)前記演算部は、前記表示部の画面上に表示する、ユーザーの操作対象となる1以上の被操作オブジェクトの枠組み又は情報密度を、ユーザーの位置及びユーザーの状態に応じて制御する、上記(201)に記載の情報処理装置。
(203)前記演算部は、ユーザーが前記表示部の画面を視聴している状態か否かに応じて、画面に表示する被操作オブジェクトの枠組みを制御する、上記(201)に記載の情報処理装置。
(204)前記演算部は、ユーザーの位置に応じて前記表示部の画面に表示する被操作オブジェクトの情報密度を制御する、上記(201)に記載の情報処理装置。
(205)前記演算部は、ユーザーが個人認証可能な位置か否かに応じて、前記表示部の画面に表示する被操作オブジェクトの選択を制御する、上記(201)に記載の情報処理装置。
(206)ユーザーが前記表示部の画面上に表示されている被操作オブジェクトを操作する1以上の入力手段をさらに備え、前記演算部は、ユーザーが前記入力手段で被操作オブジェクトを操作している状態か否かに応じて、画面に表示する被操作オブジェクトの枠組みを制御する、上記(201)に記載の情報処理装置。
(207)表示部と、ユーザーが前記表示部の画面上に表示されている被操作オブジェクトを操作する1以上の入力手段と、前記表示部に対するユーザーの位置を検出するユーザー位置検出部と、前記表示部の表示画面に対するユーザーの状態を検出するユーザー状態検出部と、前記ユーザー位置検出部が検出したユーザーの位置と、前記ユーザー状態検出部が検出したユーザーの状態に応じて、前記入力手段を最適化する演算部と、を具備する情報処理装置。
(208)前記演算部は、ユーザーが前記表示部の画面を視聴している状態か否かに応じて、前記入力手段の最適化を制御する、上記(207)に記載の情報処理装置。
(209)前記演算部は、ユーザーが前記表示部の画面を視聴している状態において、前記ユーザー位置検出部が検出したユーザーの位置に応じて入力手段を最適化する、上記(207)に記載の情報処理装置。
(210)表示部と、前記表示部に対するユーザーの位置を検出するユーザー位置検出部と、前記表示部の画面からユーザーまでの距離を検出する複数の距離検出方式と、前記ユーザー位置検出部が検出したユーザーの位置に応じて、距離検出方式の切り替えを制御する演算部と、を具備する情報処理装置。
(211)前記演算部は、遠方にいるユーザーまでの距離を検出する距離検出方式を常に機能オンにする、上記(210)に記載の情報処理装置。
(212)前記演算部は、近くにいるユーザーの距離を検出するとともに認識処理を兼ねた距離検出方式を、十分な認識精度が得られる距離範囲でのみ機能オンにする、上記(210)に記載の情報処理装置。
(213)表示画面に対するユーザーの位置を検出するユーザー位置検出ステップと、表示画面に対するユーザーの状態を検出するユーザー状態検出ステップと、前記ユーザー位置検出ステップで検出したユーザーの位置と、前記ユーザー状態検出ステップで検出したユーザーの状態に応じて、前記表示画面に表示するGUIを制御する演算ステップと、を有する情報処理方法。
(214)表示画面に対するユーザーの位置を検出するユーザー位置検出ステップと、前記表示画面に対するユーザーの状態を検出するユーザー状態検出ステップと、前記ユーザー位置検出ステップで検出したユーザーの位置と、前記ユーザー状態検出ステップで検出したユーザーの状態に応じて、ユーザーが前記表示画面上に表示されている被操作オブジェクトを操作するための1以上の入力手段を最適化する演算ステップと、を有する情報処理方法。
(215)表示画面に対するユーザーの位置を検出するユーザー位置検出ステップと、前記ユーザー位置検出ステップで検出したユーザーの位置に応じて、前記表示画面からユーザーまでの距離を検出する複数の距離検出方式の切り替えを制御する演算ステップと、を有する情報処理方法。
(216)表示部、前記表示部に対するユーザーの位置を検出するユーザー位置検出部、前記表示部の表示画面に対するユーザーの状態を検出するユーザー状態検出部、前記ユーザー位置検出部が検出したユーザーの位置と、前記ユーザー状態検出部が検出したユーザーの状態に応じて、前記表示部に表示するGUIを制御する演算部、としてコンピューターを機能させるようコンピューター可読形式で記述されたコンピューター・プログラム。
(217)表示部、ユーザーが前記表示部の画面上に表示されている被操作オブジェクトを操作する1以上の入力手段、前記表示部に対するユーザーの位置を検出するユーザー位置検出部、前記表示部の表示画面に対するユーザーの状態を検出するユーザー状態検出部、前記ユーザー位置検出部が検出したユーザーの位置と、前記ユーザー状態検出部が検出したユーザーの状態に応じて、前記入力手段を最適化する演算部、としてコンピューターを機能させるようコンピューター可読形式で記述されたコンピューター・プログラム。
(218)表示部、前記表示部に対するユーザーの位置を検出するユーザー位置検出部、前記表示部の画面からユーザーまでの距離を検出する複数の距離検出方式、前記ユーザー位置検出部が検出したユーザーの位置に応じて、距離検出方式の切り替えを制御する演算部、としてコンピューターを機能させるようコンピューター可読形式で記述されたコンピューター・プログラム。
(301)表示部と、前記表示部の画面に表示するオブジェクトの画像を取得するオブジェクト画像取得部と、前記表示部の画面に表示する前記オブジェクトのリアルサイズに関する情報を取得するリアルサイズ取得部と、前記リアルサイズ取得部が取得した前記オブジェクトのリアルサイズに基づいて、前記オブジェクトの画像を処理する演算部と、を具備する情報処理装置。
(302)前記表示部の画面サイズ及び解像度を含む表示性能に関する情報を取得する表示性能取得部をさらに備え、前記演算部は、前記リアルサイズ取得部が取得した前記オブジェクトのリアルサイズと、前記表示性能取得部が取得した表示性能に基づいて、前記表示部の画面上で、前記オブジェクトの画像がリアルサイズで表示されるよう処理する、上記(301)に記載の情報処理装置。
(303)前記オブジェクト画像取得部が取得した複数のオブジェクトの画像を前記表示部の画面に同時に表示する際に、前記演算部は、前記複数のオブジェクトの画像相互の大小関係が正しく表示されるように、前記複数のオブジェクトの画像を処理する、上記(301)に記載の情報処理装置。
(304)カメラ部と、前記カメラ部で撮影した画像に含まれるオブジェクトのリアルサイズを推定するリアルサイズ推定部をさらに備える、上記(301)に記載の情報処理装置。
(305)カメラ部と、前記カメラ部で撮影した画像に含まれるユーザーの顔を認識して顔データを取得する画像認識部と、前記ユーザーまでの距離を検出する距離検出部と、前記ユーザーの顔データと前記ユーザーまでの距離に基づいて、前記ユーザーの顔のリアルサイズを推定するリアルサイズ推定部と、をさらに備える上記(301)に記載の情報処理装置。
(306)画面に表示するオブジェクトの画像を取得するオブジェクト画像取得ステップと、前記画面に表示する前記オブジェクトのリアルサイズに関する情報を取得するリアルサイズ取得ステップと、前記リアルサイズ取得ステップで取得した前記オブジェクトのリアルサイズに基づいて、前記オブジェクトの画像を処理する演算ステップと、を有する情報処理方法。
(307)表示部、前記表示部の画面に表示するオブジェクトの画像を取得するオブジェクト画像取得部、前記表示部の画面に表示する前記オブジェクトのリアルサイズに関する情報を取得するリアルサイズ取得部、前記リアルサイズ取得部が取得した前記オブジェクトのリアルサイズに基づいて、前記オブジェクトの画像を処理する演算部、としてコンピューターを機能させるようコンピューター可読形式で記述されたコンピューター・プログラム。
(401)カメラ部と、表示部と、前記表示部の画面に表示する際に、前記カメラ部で撮影したユーザーの画像を正規化する演算部と、を具備する情報処理装置。
(402)前記表示部の画面に表示するオブジェクトの画像を取得するオブジェクト画像取得部と、前記ユーザーの画像と前記オブジェクトの画像を前記表示部の画面上に並列又は重畳する並列・重畳パターンを取得する並列・重畳パターン取得部と、をさらに備え、前記演算部は、前記ユーザーの画像と前記オブジェクトの大小関係と位置が正しくなるように正規化し、正規化した後の前記ユーザーの画像と前記オブジェクトを取得した並列・重畳パターンに従って並列又は重畳する、上記(401)に記載の情報処理装置。
(403)前記演算部は、前記カメラ部で撮影した前記ユーザーの画像を正規化するための前記カメラ部への制御を行なう、上記(402)に記載の情報処理装置。
(404)前記カメラ部で撮影したユーザーの顔データを取得するユーザー顔データ取得部と、前記表示部の画面に表示するオブジェクト内の顔データを取得するオブジェクト内顔データ取得部をさらに備え、前記演算部は、前記ユーザーの顔データと前記オブジェクト内の顔データの大小関係と位置が正しくなるように正規化する、上記(401)に記載の情報処理装置。
(405)前記演算部は、前記カメラ部で撮影した前記ユーザーの画像を正規化するための前記カメラ部への制御を行なう、上記(404)に記載の情報処理装置。
(406)画面に表示するオブジェクトの画像を取得するオブジェクト画像取得ステップと、カメラ部で撮影したユーザーの画像と前記オブジェクトの画像を前記表示部の画面上に並列又は重畳する並列・重畳パターンを取得する並列・重畳パターン取得ステップと、前記ユーザーの画像と前記オブジェクトの大小関係と位置が正しくなるように正規化する正規化ステップと、正規化した後の前記ユーザーの画像と前記オブジェクトを取得した並列・重畳パターンに従って並列又は重畳する画像加工ステップと、を有する情報処理方法。
(407)カメラ部で撮影したユーザーの顔データを取得するユーザー顔データ取得ステップと、画面に表示するオブジェクト内の顔データを取得するオブジェクト内顔データ取得ステップと、前記ユーザーの顔データと前記オブジェクト内の顔データの大小関係と位置が正しくなるように正規化する正規化ステップと、を有する情報処理方法。
(408)カメラ部、表示部、前記表示部の画面に表示する際に、前記カメラ部で撮影したユーザーの画像を正規化する演算部、としてコンピューターを機能させるようコンピューター可読形式で記述されたコンピューター・プログラム。
(501)映像コンテンツを画面に表示する表示部と、前記画面の回転角度を検出する回転角度検出部と、前記画面の任意の回転角度やその遷移過程において映像コンテンツの表示形態を決定する表示形態決定部と、映像コンテンツが、前記回転角度検出部で検出された回転角度だけ傾いた前記画面に適合するよう、前記表示形態決定部で決定した表示形態に従って画像加工する画像加工部と、
を具備する情報処理装置。
(502)前記表示形態決定部は、任意の回転角度において映像コンテンツが全く見切れないようにする表示形態、各回転角度において、映像コンテンツ中の注目コンテンツが最大となるようにする表示形態、無効領域がないように映像コンテンツを回転する表示形態の3つを含む複数の表示形態の中から決定する、上記(501)に記載の情報処理装置。
(503)前記表示形態決定部は、映像コンテンツが持つ属性情報に基づいて、前記画面の任意の回転角度やその遷移過程における表示形態を決定する、上記(501)に記載の情報処理装置。
(504)前記表示形態決定部は、保護された映像コンテンツについて、任意の回転角度において映像コンテンツが全く見切れないようにする表示形態を決定する、上記(501)に記載の情報処理装置。
(505)映像コンテンツを表示する画面の回転角度を検出する回転角度検出ステップと、前記画面の任意の回転角度やその遷移過程において映像コンテンツの表示形態を決定する表示形態決定ステップと、映像コンテンツが、前記回転角度検出ステップで検出された回転角度だけ傾いた前記画面に適合するよう、前記表示形態決定ステップで決定した表示形態に従って画像加工する画像加工ステップと、を有する情報処理方法。
(506)映像コンテンツを画面に表示する表示部、前記画面の回転角度を検出する回転角度検出部、前記画面の任意の回転角度やその遷移過程において映像コンテンツの表示形態を決定する表示形態決定部、映像コンテンツが、前記回転角度検出部で検出された回転角度だけ傾いた前記画面に適合するよう、前記表示形態決定部で決定した表示形態に従って画像加工する画像加工部、としてコンピューターを機能させるようコンピューター可読形式で記述されたコンピューター・プログラム。
110…入力インターフェース部
120…演算部
130…出力インターフェース部
140…記憶部
150…通信部
160…電源部
170…テレビ・チューナー部
180…回転・取り付け機構部
501…リモコン受信部、502…信号解析部
503…カメラ部、504…画像認識部
505…マイク部、506…音声認識部
507…距離センサー、508…信号解析部
509…タッチ検出部、510…信号解析部
511…近接センサー、512…信号解析部
513…超近距離通信部、514…信号解析部
515…3軸センサー部、516…GPS受信部、517…信号解析部
520…入力インターフェース統合部
601…コンテンツ表示部、602…GUI表示部
603…表示部、604…スピーカー部
605…イルミネーション表示部、606…イルミネーション部
710…モニター領域分割部
711…機器データベース、712…領域パターン・データベース
720…オブジェクト最適処理部、721…最適処理アルゴリズム
730…機器連携データ送受信部、731…送受信処理アルゴリズム
2310…表示GUI最適化部、2320…入力手段最適化部
2330…距離検出方式切替部
3210…リアルサイズ表示部、3220…リアルサイズ推定部
3230…リアルサイズ拡張部
4110…画像間正規化処理部、4120…顔正規化処理部
4130…リアルサイズ拡張部
4710…表示形態決定部、4720…回転位置入力部
4730…画像加工部
Claims (18)
- 表示部と、
前記表示部に対するユーザーの位置を検出するユーザー位置検出部と、
前記表示部の表示画面に対するユーザーの状態を検出するユーザー状態検出部と、
前記ユーザー位置検出部が検出したユーザーの位置と、前記ユーザー状態検出部が検出したユーザーの状態に応じて、前記表示部に表示するGUIを制御する演算部と、
を具備する情報処理装置。 - 前記演算部は、前記表示部の画面上に表示する、ユーザーの操作対象となる1以上の被操作オブジェクトの枠組み又は情報密度を、ユーザーの位置及びユーザーの状態に応じて制御する、
請求項1に記載の情報処理装置。 - 前記演算部は、ユーザーが前記表示部の画面を視聴している状態か否かに応じて、画面に表示する被操作オブジェクトの枠組みを制御する、
請求項1に記載の情報処理装置。 - 前記演算部は、ユーザーの位置に応じて前記表示部の画面に表示する被操作オブジェクトの情報密度を制御する、
請求項1に記載の情報処理装置。 - 前記演算部は、ユーザーが個人認証可能な位置か否かに応じて、前記表示部の画面に表示する被操作オブジェクトの選択を制御する、
請求項1に記載の情報処理装置。 - ユーザーが前記表示部の画面上に表示されている被操作オブジェクトを操作する1以上の入力手段をさらに備え、
前記演算部は、ユーザーが前記入力手段で被操作オブジェクトを操作している状態か否かに応じて、画面に表示する被操作オブジェクトの枠組みを制御する、
請求項1に記載の情報処理装置。 - 表示部と、
ユーザーが前記表示部の画面上に表示されている被操作オブジェクトを操作する1以上の入力手段と、
前記表示部に対するユーザーの位置を検出するユーザー位置検出部と、
前記表示部の表示画面に対するユーザーの状態を検出するユーザー状態検出部と、
前記ユーザー位置検出部が検出したユーザーの位置と、前記ユーザー状態検出部が検出したユーザーの状態に応じて、前記入力手段を最適化する演算部と、
を具備する情報処理装置。 - 前記演算部は、ユーザーが前記表示部の画面を視聴している状態か否かに応じて、前記入力手段の最適化を制御する、
請求項7に記載の情報処理装置。 - 前記演算部は、ユーザーが前記表示部の画面を視聴している状態において、前記ユーザー位置検出部が検出したユーザーの位置に応じて入力手段を最適化する、
請求項7に記載の情報処理装置。 - 表示部と、
前記表示部に対するユーザーの位置を検出するユーザー位置検出部と、
前記表示部の画面からユーザーまでの距離を検出する複数の距離検出方式と、
前記ユーザー位置検出部が検出したユーザーの位置に応じて、距離検出方式の切り替えを制御する演算部と、
を具備する情報処理装置。 - 前記演算部は、遠方にいるユーザーまでの距離を検出する距離検出方式を常に機能オンにする、
請求項10に記載の情報処理装置。 - 前記演算部は、近くにいるユーザーの距離を検出するとともに認識処理を兼ねた距離検出方式を、十分な認識精度が得られる距離範囲でのみ機能オンにする、
請求項10に記載の情報処理装置。 - 表示画面に対するユーザーの位置を検出するユーザー位置検出ステップと、
表示画面に対するユーザーの状態を検出するユーザー状態検出ステップと、
前記ユーザー位置検出ステップで検出したユーザーの位置と、前記ユーザー状態検出ステップで検出したユーザーの状態に応じて、前記表示画面に表示するGUIを制御する演算ステップと、
を有する情報処理方法。 - 表示画面に対するユーザーの位置を検出するユーザー位置検出ステップと、
前記表示画面に対するユーザーの状態を検出するユーザー状態検出ステップと、
前記ユーザー位置検出ステップで検出したユーザーの位置と、前記ユーザー状態検出ステップで検出したユーザーの状態に応じて、ユーザーが前記表示画面上に表示されている被操作オブジェクトを操作するための1以上の入力手段を最適化する演算ステップと、
を有する情報処理方法。 - 表示画面に対するユーザーの位置を検出するユーザー位置検出ステップと、
前記ユーザー位置検出ステップで検出したユーザーの位置に応じて、前記表示画面からユーザーまでの距離を検出する複数の距離検出方式の切り替えを制御する演算ステップと、
を有する情報処理方法。 - 表示部、
前記表示部に対するユーザーの位置を検出するユーザー位置検出部、
前記表示部の表示画面に対するユーザーの状態を検出するユーザー状態検出部、
前記ユーザー位置検出部が検出したユーザーの位置と、前記ユーザー状態検出部が検出したユーザーの状態に応じて、前記表示部に表示するGUIを制御する演算部、
としてコンピューターを機能させるようコンピューター可読形式で記述されたコンピューター・プログラム。 - 表示部、
ユーザーが前記表示部の画面上に表示されている被操作オブジェクトを操作する1以上の入力手段、
前記表示部に対するユーザーの位置を検出するユーザー位置検出部、
前記表示部の表示画面に対するユーザーの状態を検出するユーザー状態検出部、
前記ユーザー位置検出部が検出したユーザーの位置と、前記ユーザー状態検出部が検出したユーザーの状態に応じて、前記入力手段を最適化する演算部、
としてコンピューターを機能させるようコンピューター可読形式で記述されたコンピューター・プログラム。 - 表示部、
前記表示部に対するユーザーの位置を検出するユーザー位置検出部、
前記表示部の画面からユーザーまでの距離を検出する複数の距離検出方式、
前記ユーザー位置検出部が検出したユーザーの位置に応じて、距離検出方式の切り替えを制御する演算部、
としてコンピューターを機能させるようコンピューター可読形式で記述されたコンピューター・プログラム。
Priority Applications (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012005551A JP5957893B2 (ja) | 2012-01-13 | 2012-01-13 | 情報処理装置及び情報処理方法、並びにコンピューター・プログラム |
PCT/JP2013/000034 WO2013105493A1 (en) | 2012-01-13 | 2013-01-09 | Information processing apparatus, information processing method, and computer program |
CN201380004826.9A CN104040474B (zh) | 2012-01-13 | 2013-01-09 | 信息处理设备、信息处理方法以及记录介质 |
US14/368,950 US10261589B2 (en) | 2012-01-13 | 2013-01-09 | Information processing apparatus, information processing method, and computer program |
EP13701300.9A EP2802978B1 (en) | 2012-01-13 | 2013-01-09 | Information processing apparatus, information processing method, and computer program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012005551A JP5957893B2 (ja) | 2012-01-13 | 2012-01-13 | 情報処理装置及び情報処理方法、並びにコンピューター・プログラム |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016123996A Division JP6093074B2 (ja) | 2016-06-22 | 2016-06-22 | 情報処理装置及び情報処理方法、並びにコンピューター・プログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2013145468A true JP2013145468A (ja) | 2013-07-25 |
JP5957893B2 JP5957893B2 (ja) | 2016-07-27 |
Family
ID=47603965
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012005551A Active JP5957893B2 (ja) | 2012-01-13 | 2012-01-13 | 情報処理装置及び情報処理方法、並びにコンピューター・プログラム |
Country Status (5)
Country | Link |
---|---|
US (1) | US10261589B2 (ja) |
EP (1) | EP2802978B1 (ja) |
JP (1) | JP5957893B2 (ja) |
CN (1) | CN104040474B (ja) |
WO (1) | WO2013105493A1 (ja) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104423922A (zh) * | 2013-08-26 | 2015-03-18 | 夏普株式会社 | 图像显示装置和数据传送方法 |
JP2016051214A (ja) * | 2014-08-28 | 2016-04-11 | 株式会社リコー | 情報処理装置、情報処理方法、および情報処理システム |
CN109643167A (zh) * | 2016-09-30 | 2019-04-16 | 英特尔公司 | 基于用户和机器界面之间的检测距离的交互模式选择 |
KR20200028771A (ko) * | 2018-09-07 | 2020-03-17 | 삼성전자주식회사 | 사용자 의도 기반 제스처 인식 방법 및 장치 |
KR20200038111A (ko) * | 2018-10-02 | 2020-04-10 | 삼성전자주식회사 | 전자 장치 및 제스처 인식 방법 |
WO2020208937A1 (ja) * | 2019-04-08 | 2020-10-15 | 株式会社ワコム | デジタルインクを管理するホームuiシステム |
Families Citing this family (42)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5413250B2 (ja) * | 2010-03-05 | 2014-02-12 | ソニー株式会社 | 画像処理装置、画像処理方法およびプログラム |
JP5598232B2 (ja) * | 2010-10-04 | 2014-10-01 | ソニー株式会社 | 情報処理装置、情報処理システムおよび情報処理方法 |
US20150304593A1 (en) * | 2012-11-27 | 2015-10-22 | Sony Corporation | Display apparatus, display method, and computer program |
JP2014127879A (ja) * | 2012-12-26 | 2014-07-07 | Panasonic Corp | 放送画像出力装置、放送画像出力方法、およびテレビ |
JP6437226B2 (ja) * | 2013-07-22 | 2018-12-12 | 株式会社東芝 | 情報処理システム、プログラム情報生成方法、プログラム情報生成プログラム、および、プログラム情報表示システム |
US20150070263A1 (en) * | 2013-09-09 | 2015-03-12 | Microsoft Corporation | Dynamic Displays Based On User Interaction States |
JP2015090547A (ja) * | 2013-11-05 | 2015-05-11 | ソニー株式会社 | 情報入力装置及び情報入力方法、並びにコンピューター・プログラム |
JP2015127897A (ja) * | 2013-12-27 | 2015-07-09 | ソニー株式会社 | 表示制御装置、表示制御システム、表示制御方法、およびプログラム |
US20170039030A1 (en) * | 2013-12-27 | 2017-02-09 | Sony Corporation | Display control device, display control method, and program |
KR20160028272A (ko) * | 2014-09-03 | 2016-03-11 | 삼성전자주식회사 | 디스플레이 장치 및 그 제어 방법 |
US20160373376A1 (en) * | 2015-04-01 | 2016-12-22 | Samsung Electronics Co., Ltd. | Method and apparatus of playing contents seamlessly |
CN106155293B (zh) * | 2015-04-16 | 2019-09-10 | 北京智谷睿拓技术服务有限公司 | 交互方法、交互装置及用户设备 |
US9990078B2 (en) * | 2015-12-11 | 2018-06-05 | Immersion Corporation | Systems and methods for position-based haptic effects |
JP6841232B2 (ja) * | 2015-12-18 | 2021-03-10 | ソニー株式会社 | 情報処理装置、情報処理方法、及びプログラム |
CN105739878B (zh) * | 2016-01-25 | 2019-12-17 | 广州视睿电子科技有限公司 | 控制按钮显示方法和系统 |
JP6733393B2 (ja) * | 2016-07-25 | 2020-07-29 | 株式会社リコー | 共有端末、通信システム、画像送信方法、及びプログラム |
CN107493495B (zh) * | 2017-08-14 | 2019-12-13 | 深圳市国华识别科技开发有限公司 | 交互位置确定方法、系统、存储介质和智能终端 |
CN107656789A (zh) * | 2017-09-27 | 2018-02-02 | 惠州Tcl移动通信有限公司 | 一种多角度界面显示的方法、存储介质及智能终端 |
CN109698853A (zh) * | 2017-10-20 | 2019-04-30 | 北京仁光科技有限公司 | 远程控制方法、装置、设备、系统及计算机可读存储介质 |
KR20190054397A (ko) * | 2017-11-13 | 2019-05-22 | 삼성전자주식회사 | 디스플레이장치 및 그 제어방법 |
US20210019911A1 (en) * | 2017-12-04 | 2021-01-21 | Sony Corporation | Information processing device, information processing method, and recording medium |
US20190279256A1 (en) * | 2018-03-09 | 2019-09-12 | Avaya Inc. | System and method for making real-time decisions for routing communications and information in a contact center |
CN109753146B (zh) * | 2018-05-11 | 2020-07-03 | 北京字节跳动网络技术有限公司 | 一种移动终端启动应用的方法及移动终端 |
US11557215B2 (en) * | 2018-08-07 | 2023-01-17 | Physera, Inc. | Classification of musculoskeletal form using machine learning model |
US10984601B2 (en) | 2018-10-21 | 2021-04-20 | Oracle International Corporation | Data visualization objects in a virtual environment |
CN109933298B (zh) * | 2018-11-08 | 2022-04-22 | 闽江学院 | 一种根据用户位置进行显示的方法及装置 |
CN109684013A (zh) * | 2018-12-24 | 2019-04-26 | 杭州达现科技有限公司 | 一种基于多用户显示界面的显示方法和装置 |
CN109683744B (zh) * | 2018-12-24 | 2022-05-13 | 杭州达现科技有限公司 | 一种基于显示界面的目录整合方法和装置 |
CN109669655A (zh) * | 2018-12-25 | 2019-04-23 | 杭州达现科技有限公司 | 一种基于多用户的目录交换方法和装置 |
CN109656456B (zh) * | 2018-12-25 | 2020-10-20 | 杭州达现科技有限公司 | 一种显示界面的目录共享方法及装置 |
CN109683772A (zh) * | 2018-12-25 | 2019-04-26 | 杭州达现科技有限公司 | 一种基于显示界面的目录组合方法及装置 |
CN109582431A (zh) * | 2018-12-25 | 2019-04-05 | 杭州达现科技有限公司 | 一种显示界面的目录更新方法及装置 |
CN109684014A (zh) * | 2018-12-25 | 2019-04-26 | 杭州达现科技有限公司 | 一种显示界面的数据交互方法和装置 |
CN109614067A (zh) * | 2018-12-25 | 2019-04-12 | 杭州达现科技有限公司 | 一种基于多用户的目录交换方法和装置 |
CN109660667A (zh) * | 2018-12-25 | 2019-04-19 | 杭州达现科技有限公司 | 一种基于相同显示界面的资源共享方法和装置 |
EP3923149A4 (en) * | 2019-02-04 | 2022-04-06 | Sony Group Corporation | INFORMATION PROCESSING DEVICE AND INFORMATION PROCESSING METHOD |
KR20200117766A (ko) * | 2019-04-05 | 2020-10-14 | 삼성전자주식회사 | 디스플레이 아래에 배치된 센서의 성능을 보완하는 방법 및 이를 수행하는 전자 장치 |
US11175809B2 (en) * | 2019-08-19 | 2021-11-16 | Capital One Services, Llc | Detecting accessibility patterns to modify the user interface of an application |
US12118050B2 (en) * | 2019-10-31 | 2024-10-15 | Microstrategy Incorporated | Systems and methods for analytics presentation on large displays |
TWI800732B (zh) * | 2020-04-08 | 2023-05-01 | 開曼群島商粉迷科技股份有限公司 | 適地性個人化內容提供方法與系統 |
WO2022054283A1 (ja) * | 2020-09-14 | 2022-03-17 | 日本電信電話株式会社 | 情報処理システム、情報処理方法およびプログラム |
US11678006B2 (en) * | 2021-06-17 | 2023-06-13 | Microsoft Technology Licensing, Llc | Multiple device content management |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004185139A (ja) * | 2002-11-29 | 2004-07-02 | Fuji Photo Film Co Ltd | 表示システム及び表示装置の制御方法 |
JP2007272365A (ja) * | 2006-03-30 | 2007-10-18 | Advanced Telecommunication Research Institute International | コンテンツ提示装置 |
JP2008269044A (ja) * | 2007-04-17 | 2008-11-06 | Sharp Corp | 表示制御装置及び表示制御プログラム |
JP2008293419A (ja) * | 2007-05-28 | 2008-12-04 | Sharp Corp | 情報表示装置及び情報表示方法 |
JP2010016432A (ja) * | 2008-07-01 | 2010-01-21 | Olympus Corp | デジタルフォトフレーム、情報処理システム、制御方法、プログラム及び情報記憶媒体 |
WO2010035477A1 (ja) * | 2008-09-29 | 2010-04-01 | パナソニック株式会社 | ユーザインターフェース装置、ユーザインターフェース方法、及び記録媒体 |
JP2011203975A (ja) * | 2010-03-25 | 2011-10-13 | Fujitsu Ltd | 表示装置、表示方法及びプログラム |
JP2012003690A (ja) * | 2010-06-21 | 2012-01-05 | Toyota Infotechnology Center Co Ltd | ユーザインタフェース装置 |
Family Cites Families (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4576740B2 (ja) | 2001-04-02 | 2010-11-10 | ソニー株式会社 | 窓状撮像表示装置及びそれを使う双方向通信方法 |
JP4432462B2 (ja) | 2003-11-07 | 2010-03-17 | ソニー株式会社 | 撮像装置及び方法、撮像システム |
JP4595313B2 (ja) | 2003-11-14 | 2010-12-08 | ソニー株式会社 | 撮像表示装置及び方法、画像送受信システム |
KR101270847B1 (ko) | 2004-07-30 | 2013-06-05 | 애플 인크. | 터치 감지 입력 장치용 제스처 |
KR100764698B1 (ko) * | 2006-08-07 | 2007-10-08 | 삼성전자주식회사 | 카메라 영상의 패턴인식과 해석에 의한 휴대 단말기의사용자 인터페이스 제어 방법 및 그 단말기 |
US20080172627A1 (en) * | 2006-12-28 | 2008-07-17 | Sharp Kabushiki Kaisha | Information display apparatus, information providing server, information display system, method for controlling information display apparatus, method for controlling information providing server, control program and recording medium |
US8203577B2 (en) | 2007-09-25 | 2012-06-19 | Microsoft Corporation | Proximity based computer display |
EP2065795A1 (en) * | 2007-11-30 | 2009-06-03 | Koninklijke KPN N.V. | Auto zoom display system and method |
JP2010035477A (ja) | 2008-08-05 | 2010-02-18 | Kayoko Isayama | 生蛸入りパック |
US9104408B2 (en) | 2008-08-22 | 2015-08-11 | Sony Corporation | Image display device, control method and computer program |
JP4821859B2 (ja) * | 2009-01-29 | 2011-11-24 | ソニー株式会社 | 表示装置、表示方法およびプログラム |
US20100251171A1 (en) * | 2009-03-31 | 2010-09-30 | Parulski Kenneth A | Graphical user interface which adapts to viewing distance |
US20120019447A1 (en) * | 2009-10-02 | 2012-01-26 | Hanes David H | Digital display device |
US8957847B1 (en) * | 2010-12-28 | 2015-02-17 | Amazon Technologies, Inc. | Low distraction interfaces |
US9041734B2 (en) * | 2011-07-12 | 2015-05-26 | Amazon Technologies, Inc. | Simulating three-dimensional features |
-
2012
- 2012-01-13 JP JP2012005551A patent/JP5957893B2/ja active Active
-
2013
- 2013-01-09 WO PCT/JP2013/000034 patent/WO2013105493A1/en active Application Filing
- 2013-01-09 US US14/368,950 patent/US10261589B2/en active Active
- 2013-01-09 CN CN201380004826.9A patent/CN104040474B/zh active Active
- 2013-01-09 EP EP13701300.9A patent/EP2802978B1/en not_active Not-in-force
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004185139A (ja) * | 2002-11-29 | 2004-07-02 | Fuji Photo Film Co Ltd | 表示システム及び表示装置の制御方法 |
JP2007272365A (ja) * | 2006-03-30 | 2007-10-18 | Advanced Telecommunication Research Institute International | コンテンツ提示装置 |
JP2008269044A (ja) * | 2007-04-17 | 2008-11-06 | Sharp Corp | 表示制御装置及び表示制御プログラム |
JP2008293419A (ja) * | 2007-05-28 | 2008-12-04 | Sharp Corp | 情報表示装置及び情報表示方法 |
JP2010016432A (ja) * | 2008-07-01 | 2010-01-21 | Olympus Corp | デジタルフォトフレーム、情報処理システム、制御方法、プログラム及び情報記憶媒体 |
WO2010035477A1 (ja) * | 2008-09-29 | 2010-04-01 | パナソニック株式会社 | ユーザインターフェース装置、ユーザインターフェース方法、及び記録媒体 |
JP2011203975A (ja) * | 2010-03-25 | 2011-10-13 | Fujitsu Ltd | 表示装置、表示方法及びプログラム |
JP2012003690A (ja) * | 2010-06-21 | 2012-01-05 | Toyota Infotechnology Center Co Ltd | ユーザインタフェース装置 |
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104423922A (zh) * | 2013-08-26 | 2015-03-18 | 夏普株式会社 | 图像显示装置和数据传送方法 |
JP2016051214A (ja) * | 2014-08-28 | 2016-04-11 | 株式会社リコー | 情報処理装置、情報処理方法、および情報処理システム |
CN109643167A (zh) * | 2016-09-30 | 2019-04-16 | 英特尔公司 | 基于用户和机器界面之间的检测距离的交互模式选择 |
JP2019533846A (ja) * | 2016-09-30 | 2019-11-21 | インテル コーポレイション | ユーザとマシンインタフェースとの間の検出された距離に基づくインタラクションモード選択 |
KR20200028771A (ko) * | 2018-09-07 | 2020-03-17 | 삼성전자주식회사 | 사용자 의도 기반 제스처 인식 방법 및 장치 |
KR102582863B1 (ko) * | 2018-09-07 | 2023-09-27 | 삼성전자주식회사 | 사용자 의도 기반 제스처 인식 방법 및 장치 |
KR20200038111A (ko) * | 2018-10-02 | 2020-04-10 | 삼성전자주식회사 | 전자 장치 및 제스처 인식 방법 |
KR102627014B1 (ko) * | 2018-10-02 | 2024-01-19 | 삼성전자 주식회사 | 전자 장치 및 제스처 인식 방법 |
WO2020208937A1 (ja) * | 2019-04-08 | 2020-10-15 | 株式会社ワコム | デジタルインクを管理するホームuiシステム |
JPWO2020208937A1 (ja) * | 2019-04-08 | 2021-11-25 | 株式会社ワコム | デジタルインクを管理するホームuiシステム |
JP7168768B2 (ja) | 2019-04-08 | 2022-11-09 | 株式会社ワコム | デジタルインクを管理するホームuiシステム |
US11915504B2 (en) | 2019-04-08 | 2024-02-27 | Wacom Co., Ltd. | Home UI system for managing digital ink |
Also Published As
Publication number | Publication date |
---|---|
CN104040474A (zh) | 2014-09-10 |
CN104040474B (zh) | 2018-05-08 |
US10261589B2 (en) | 2019-04-16 |
US20140365927A1 (en) | 2014-12-11 |
JP5957893B2 (ja) | 2016-07-27 |
EP2802978A1 (en) | 2014-11-19 |
WO2013105493A1 (en) | 2013-07-18 |
EP2802978B1 (en) | 2017-12-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6257329B2 (ja) | 情報処理装置及び情報処理方法、並びにコンピューター・プログラム | |
JP6196017B2 (ja) | 情報処理装置及び情報処理方法、並びにコンピューター・プログラム | |
JP5957893B2 (ja) | 情報処理装置及び情報処理方法、並びにコンピューター・プログラム | |
JP5957892B2 (ja) | 情報処理装置及び情報処理方法、並びにコンピューター・プログラム | |
JP6200270B2 (ja) | 情報処理装置及び情報処理方法、並びにコンピューター・プログラム | |
JP2013145463A (ja) | 情報処理装置及び情報処理方法、並びにコンピューター・プログラム | |
JP6382721B2 (ja) | 表示装置及び表示方法、並びにコンピューター・プログラム | |
Schmitz et al. | Ad-Hoc Multi-Displays for Mobile Interactive Applications. | |
JP6093074B2 (ja) | 情報処理装置及び情報処理方法、並びにコンピューター・プログラム | |
JP7000289B2 (ja) | プログラム、情報処理装置、および方法 | |
US20230386162A1 (en) | Virtual action center based on segmented video feed for a video communication session | |
US11950030B2 (en) | Electronic apparatus and method of controlling the same, and recording medium | |
US20230388445A1 (en) | Non-mirrored preview of text based demonstration object in mirrored mobile webcam image | |
US11825237B1 (en) | Segmented video preview controls by remote participants in a video communication session | |
US20230409271A1 (en) | Function based selective segmented video feed from a transmitting device to different participants on a video communication session |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20141210 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20151110 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20151203 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20160315 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20160509 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20160524 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20160606 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 5957893 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |