JP2012003690A - User interface - Google Patents
User interface Download PDFInfo
- Publication number
- JP2012003690A JP2012003690A JP2010140571A JP2010140571A JP2012003690A JP 2012003690 A JP2012003690 A JP 2012003690A JP 2010140571 A JP2010140571 A JP 2010140571A JP 2010140571 A JP2010140571 A JP 2010140571A JP 2012003690 A JP2012003690 A JP 2012003690A
- Authority
- JP
- Japan
- Prior art keywords
- distance image
- transparent display
- display
- distance
- user interface
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- User Interface Of Digital Computer (AREA)
- Position Input By Displaying (AREA)
Abstract
Description
本発明は、距離画像センサを用いたユーザインタフェース装置に関する。 The present invention relates to a user interface device using a distance image sensor.
キーボードやマウスなどの入力装置を用いることなくユーザからの入力を受け付ける技術として、タッチパネルや距離画像センサを用いたユーザインタフェース装置が知られている。 As a technique for receiving an input from a user without using an input device such as a keyboard or a mouse, a user interface device using a touch panel or a distance image sensor is known.
タッチパネルを用いるユーザインタフェースでは、ユーザが指やスタイラスなどでディスプレイパネルに触れることで操作が行われる。タッチパネルの方式には、抵抗膜方式、静電容量方式、光センサ方式、赤外線方式、表面弾性波方式(超音波方式)、電磁誘導方式などが提案されている。抵抗膜方式は最も普及している方式であるが、パネル表面に触れるまで入力を検知できない。一方、静電容量方式や光センサ方式では、対象(指やスタイラス)がパネル表面に触れる前に近接検知を行うことが可能である。ただし、検出可能な距離はパネル表面から数cm程度であり、奥行きのあるジェスチャ入力(3次元入力)には適さない。 In a user interface using a touch panel, an operation is performed by a user touching the display panel with a finger or a stylus. As a touch panel method, a resistive film method, a capacitance method, an optical sensor method, an infrared method, a surface acoustic wave method (ultrasonic method), an electromagnetic induction method, and the like have been proposed. The resistive film method is the most popular method, but it cannot detect input until it touches the panel surface. On the other hand, in the capacitance method and the optical sensor method, proximity detection can be performed before an object (finger or stylus) touches the panel surface. However, the detectable distance is about several centimeters from the panel surface, and is not suitable for gesture input with a depth (three-dimensional input).
距離画像センサ(3次元カメラ、深度センサなどとも呼ばれる)を用いるユーザインタフェースでは、ディスプレイの前でユーザが手や体などを動かすことでジェスチャによって操作が行われる。距離画像センサは、数十cmから数mまでの距離を検知することが可能である。空中でのユーザ動作によって入力操作が可能となるが、画面上のアイコンを選択するような状況ではディスプレイを直接タッチする方が物理的なフィードバックを得られるので、精度の高い入力が行える。 In a user interface that uses a distance image sensor (also called a three-dimensional camera, a depth sensor, or the like), a user moves a hand or a body in front of a display, and an operation is performed by a gesture. The distance image sensor can detect a distance from several tens of centimeters to several meters. An input operation can be performed by a user operation in the air. However, in a situation where an icon on the screen is selected, a physical feedback can be obtained by directly touching the display, so that a highly accurate input can be performed.
本発明は、3次元ジェスチャ入力と2次元平面(ディスプレイ平面)における入力の両方の利点を兼ね備えたユーザインタフェース装置を提供することを目的とする。 It is an object of the present invention to provide a user interface device that combines the advantages of both three-dimensional gesture input and input in a two-dimensional plane (display plane).
上記の目的を達成するために、本発明ではディスプレイとして透明ディスプレイを採用し、透明ディスプレイの背後から透明ディスプレイ越しに得られる距離画像からユーザの入力操作を検出する。この際、ユーザの指やスタイラスなどの対象物が、透明ディスプレイからある程度離れている場合はジェスチャ入力と解釈し、透明ディスプレイに近づいている場合はパネルに対するタッチ式による入力であると解釈する。 In order to achieve the above object, the present invention employs a transparent display as a display, and detects a user input operation from a distance image obtained from behind the transparent display through the transparent display. At this time, if an object such as a user's finger or stylus is far away from the transparent display, it is interpreted as a gesture input, and if it is close to the transparent display, it is interpreted as a touch-type input to the panel.
より具体的には、本発明に係るユーザインタフェース装置は、透明ディスプレイと、
前記透明ディスプレイに画像を出力する画像出力手段と、
前記透明ディスプレイの背面に設置され、前記透明ディスプレイ越しに距離画像を取得する距離画像センサと、
前記距離画像センサによって取得される距離画像を解析してユーザの入力操作を検出す
る解析手段と、
を備え、
前記解析手段は、
距離画像内の対象物が前記透明ディスプレイから所定の距離よりも離れている場合は、距離画像内の対象物のジェスチャを認識して入力操作を検出し、
距離画像内の対象物が前記透明ディスプレイから前記所定の距離以内の場合は、距離画像内の対象物と対応する前記透明ディスプレイの位置に対するポインティング操作をユーザの入力操作として検出する。
More specifically, the user interface device according to the present invention includes a transparent display,
Image output means for outputting an image to the transparent display;
A distance image sensor installed on the back surface of the transparent display to obtain a distance image through the transparent display;
Analyzing means for analyzing a distance image acquired by the distance image sensor to detect a user input operation;
With
The analysis means includes
If the object in the distance image is more than a predetermined distance from the transparent display, the input operation is detected by recognizing the gesture of the object in the distance image,
When the object in the distance image is within the predetermined distance from the transparent display, a pointing operation for the position of the transparent display corresponding to the object in the distance image is detected as a user input operation.
ここで、上記の所定の距離は、実質的に透明ディスプレイに接触しているみなせる距離とすることが好ましい。すなわち、対象物が完全に透明ディスプレイに触れている場合だけでなく多少離れている場合も、ディスプレイに接触した入力操作と見なすことが好ましい。この所定距離は、たとえば、透明ディスプレイの大きさなどに応じて定めればよい。 Here, it is preferable that the predetermined distance is a distance that can be regarded as being substantially in contact with the transparent display. That is, it is preferable to regard the input operation in contact with the display not only when the object is completely touching the transparent display but also when being slightly separated. This predetermined distance may be determined according to the size of the transparent display, for example.
このような構成を採用することで、本発明に係るユーザインタフェース装置は、3次元ジェスチャ入力と2次元平面での入力を、タッチパネルを用いることなく距離画像センサだけで実現できる。 By adopting such a configuration, the user interface device according to the present invention can realize a three-dimensional gesture input and a two-dimensional plane input with only a distance image sensor without using a touch panel.
また、本発明において、距離画像内の対象物が透明ディスプレイから所定の距離よりも離れている場合に、対象物の形状が所定の形状であるときは、ポインティング動作を支援するためのユーザインタフェース要素を、透明ディスプレイに表示することが好ましい。 Further, in the present invention, when the object in the distance image is separated from the transparent display by a predetermined distance and the shape of the object is a predetermined shape, a user interface element for supporting a pointing operation Is preferably displayed on a transparent display.
ここで、所定の形状は、ポインティング操作を行うための形状であり、たとえば、1本の指だけを伸ばした掌の形状やスタイラスの形状など、尖った形状とすることができる。また、ポインティング動作を支援するためのユーザインタフェース要素の表示とは、メニュー要素などユーザが選択可能な要素の表示であったり、ポインティング位置付近の拡大表示などであったりする。 Here, the predetermined shape is a shape for performing a pointing operation, and may be a sharp shape such as a palm shape or a stylus shape with only one finger extended. In addition, the display of the user interface element for supporting the pointing operation is a display of an element that can be selected by the user such as a menu element, or an enlarged display near the pointing position.
このように、ユーザがポインティング動作を行う場合に、ユーザが透明ディスプレイに触れる前にポインティング動作のためのユーザインタフェース要素が表示されるので、利便性の高いユーザインタフェースを提供できる。 As described above, when the user performs the pointing operation, the user interface element for the pointing operation is displayed before the user touches the transparent display. Therefore, a highly convenient user interface can be provided.
また、本発明において、前記透明ディスプレイへの画像出力と、前記距離画像センサによる距離画像の取得は交互に行われることが好ましい。 In the present invention, it is preferable that image output to the transparent display and distance image acquisition by the distance image sensor are performed alternately.
このようにすれば、画像表示の影響を受けることなく距離画像の取得が行える。また、画像出力と距離画像取得の切り替えを十分高速に行えば、表示画像品質を損なうことなく距離画像の取得が行える。 In this way, the distance image can be acquired without being affected by the image display. Further, if the switching between image output and distance image acquisition is performed at a sufficiently high speed, the distance image can be acquired without impairing the display image quality.
本発明は、上記手段の少なくとも一部を含むユーザインタフェース装置として捉えることができる。また、これらの処理を行う情報入力方法、さらには、これらの方法を実現するためのプログラムとして捉えることもできる。上記手段および処理の各々は可能な限り互いに組み合わせて本発明を構成することができる。 The present invention can be understood as a user interface device including at least a part of the above means. Moreover, it can also be grasped as an information input method for performing these processes, and a program for realizing these methods. Each of the above means and processes can be combined with each other as much as possible to constitute the present invention.
本発明によれば、3次元ジェスチャ入力と2次元平面での入力を、タッチパネルを用いることなく実現できる。 According to the present invention, three-dimensional gesture input and two-dimensional plane input can be realized without using a touch panel.
本実施形態に係るユーザインタフェース装置の概要を、図1,2を参照して説明する。本実施形態においては、情報処理装置1からの画像出力は、透明ディスプレイ2に表示される。距離画像センサ3は透明ディスプレイ2の背面側に設置され、距離画像の取得は透明ディスプレイ2越しに行われる。 An overview of the user interface device according to the present embodiment will be described with reference to FIGS. In the present embodiment, the image output from the information processing apparatus 1 is displayed on the transparent display 2. The distance image sensor 3 is installed on the back side of the transparent display 2, and the distance image is acquired through the transparent display 2.
情報処理装置1は、CPU,主記憶装置、補助記憶装置、ネットワーク装置などを含むコンピュータである。情報処理装置1は、画像を透明ディスプレイ2に出力する。また、距離画像センサ3を入力装置として利用する。もちろん、距離画像センサに加えて、キーボードやマウス、コントローラ(有線/無線)などを入力装置として備えていてもよい。情報処理装置1は、メモリ上に展開されたプログラムをCPUが実行することで、本明細書において説明する各機能を実現する。 The information processing apparatus 1 is a computer including a CPU, a main storage device, an auxiliary storage device, a network device, and the like. The information processing apparatus 1 outputs an image to the transparent display 2. The distance image sensor 3 is used as an input device. Of course, in addition to the distance image sensor, a keyboard, a mouse, a controller (wired / wireless), or the like may be provided as an input device. The information processing apparatus 1 implements each function described in this specification by causing the CPU to execute a program developed on a memory.
なお、情報処理装置1と透明ディスプレイ2と距離画像センサ3を別体であるとして説明したが、透明ディスプレイ2と距離画像センサ3、または、情報処理装置1と透明ディスプレイ2と距離画像センサ3を一体として構成してもかまわない。 Although the information processing apparatus 1, the transparent display 2, and the distance image sensor 3 have been described as separate bodies, the transparent display 2 and the distance image sensor 3 or the information processing apparatus 1, the transparent display 2, and the distance image sensor 3 are separated. It may be configured as a single unit.
透明ディスプレイ2は、透明状態とデジタル画像の表示状態を切り換え可能な表示装置である。透明ディスプレイとしては、たとえば、EL素子を用いたELディスプレイ、液晶ディスプレイ等を用いることができる。本実施形態では、透明有機ELディスプレイを用いている。この有機ELディスプレイは、自発光であり、低電力で高輝度、高コントラスト、高視野角であるため表示画像が見やすく、液晶ディスプレイのようにバックライトを必要としないため薄型化が可能という利点がある。透明ディスプレイ2には、情報処理装置1から出力される画像が表示される。 The transparent display 2 is a display device capable of switching between a transparent state and a digital image display state. As the transparent display, for example, an EL display using an EL element, a liquid crystal display, or the like can be used. In this embodiment, a transparent organic EL display is used. This organic EL display is self-luminous, has low power, high brightness, high contrast, and a high viewing angle, so that the displayed image is easy to see, and unlike the liquid crystal display, it does not require a backlight and can be reduced in thickness. is there. An image output from the information processing apparatus 1 is displayed on the transparent display 2.
距離画像センサ3は、赤外光などの光パルスを照射し、物体に当たって戻ってくる反射光とその飛行時間を検出することで、物体の形状と距離を計測する。距離画像センサ3が取得した距離画像は、情報処理装置1に入力される。 The distance image sensor 3 irradiates a light pulse such as infrared light, and detects the reflected light that hits the object and its flight time, thereby measuring the shape and distance of the object. The distance image acquired by the distance image sensor 3 is input to the information processing apparatus 1.
情報処理装置1の画像出力部12は、制御部11によって生成された画像データを透明ディスプレイ2へ出力する。また、距離画像入力部13は、距離画像センサ3から距離画像を取得する。距離画像解析部14は、距離画像を解析して情報処理装置1へ対するユーザの入力操作を検出する。距離画像を介した入力操作に従って、制御部11はプログラムの実行を行う。
The
制御部11は、また、透明ディスプレイ2上での画像表示と、距離画像センサ3による距離画像取得のタイミングを制御して、画像表示のための光と距離画像センサの光パルスを時分割で交互に点滅させる。このとき、点滅の時間を人間の目には知覚されない程度に
十分短くすることで、表示画像を損なうことなく、かつ、ディスプレイの真裏から距離センシングのための光パルスを照射することができる。
The
図3に、本実施形態に係るユーザインタフェース装置が行う処理のフローチャートを示す。ユーザインタフェース装置は、図3に示す処理を繰り返し実行する。ここでは、透明ディスプレイ2が1秒間に30フレームの画像を表示するものとする。まず、1フレーム分の画像の出力を開始し(S1)、1/60秒後に画像出力を停止させる(S2)。透明ディスプレイ2に画像表示がされていない状態で、距離画像センサ3から距離計測用の光パルスを発光し距離画像を取得する(S3)。そして、距離画像を解析してユーザからの入力を取得する(S4)。これらの処理を繰り返すことで、画像の表示とユーザからの入力の受付が同時に行える。なお、ここでは距離画像の解析処理(S4)を透明ディスプレイ2に画像を表示していない状態で行うとして説明したが、距離画像の取得が画像非表示状態で行われれば十分であり、距離画像の解析は画像表示中に行ってもよい。 FIG. 3 shows a flowchart of processing performed by the user interface device according to the present embodiment. The user interface device repeatedly executes the process shown in FIG. Here, it is assumed that the transparent display 2 displays an image of 30 frames per second. First, output of an image for one frame is started (S1), and image output is stopped after 1/60 seconds (S2). In a state where no image is displayed on the transparent display 2, a distance measurement light pulse is emitted from the distance image sensor 3 to acquire a distance image (S3). And a distance image is analyzed and the input from a user is acquired (S4). By repeating these processes, it is possible to display an image and accept an input from the user at the same time. Here, the distance image analysis process (S4) has been described as being performed in a state where no image is displayed on the transparent display 2. However, it is sufficient that the distance image is acquired in an image non-display state. This analysis may be performed during image display.
なお、距離画像の取得がディスプレイの画像非表示時に行われればよいので、距離画像計測を1フレーム表示のたびにおこなう必要はないし、ディスプレイ表示と距離画像計測の時間を同一とする必要もない。たとえば、透明ディスプレイ2に数フレーム続けて表示した後に、距離画像の取得を1回行うというような動作を採用してもかまわない。 Since the distance image may be acquired when the display image is not displayed, it is not necessary to perform the distance image measurement every time one frame is displayed, and the display display and the distance image measurement time need not be the same. For example, an operation may be employed in which the distance image is acquired once after displaying several frames on the transparent display 2 continuously.
次に、ステップS4における距離画像解析処理の詳細について、図4〜図7を参照して説明する。図4は、距離画像解析処理の詳細処理を示すフローチャートである。距離画像解析処理では、まず、取得した距離画像からディスプレイに近づいている対象物(指やスタイラスなど)を抽出する(S41)。そして、この対象物との距離から、対象物がジェスチャ入力領域内に位置するか、接触入力領域内に位置するかを判断する(S42)。図5に示すように、接触入力領域は、透明ディスプレイ2からの距離がd1以下の領域である。ここで、d1は対象物が実質的に透明ディスプレイ2に接触していると見なせる距離である。ジェスチャ入力領域は、透明ディスプレイ2からの距離がd1より大きくd2以内の領域である。距離d1やd2は、ユーザインタフェースの要求や透明ディスプレイの大きさなどにより決定される。距離画像センサ3と透明ディスプレイ2との間の距離がLである場合は、距離画像において距離L〜L+d1の間に対象物があれば接触入力領域に存在すると判断し、距離L+d1〜L+d2の間に対象物があればジェスチャ入力領域に存在すると判断する。 Next, details of the distance image analysis processing in step S4 will be described with reference to FIGS. FIG. 4 is a flowchart showing detailed processing of the distance image analysis processing. In the distance image analysis process, first, an object (such as a finger or a stylus) approaching the display is extracted from the acquired distance image (S41). Then, based on the distance from the object, it is determined whether the object is located within the gesture input area or the contact input area (S42). As shown in FIG. 5, the contact input area is an area whose distance from the transparent display 2 is d1 or less. Here, d1 is a distance that can be considered that the object is substantially in contact with the transparent display 2. The gesture input area is an area whose distance from the transparent display 2 is greater than d1 and within d2. The distances d1 and d2 are determined according to user interface requirements, the size of the transparent display, and the like. When the distance between the distance image sensor 3 and the transparent display 2 is L, if there is an object between the distances L to L + d1 in the distance image, it is determined that the object exists in the contact input region, and between the distances L + d1 to L + d2 If there is an object, it is determined that it exists in the gesture input area.
距離画像から検出された対象物がジェスチャ入力領域内にある場合は、対象物の形状や動きなどからジェスチャの認識を行う(S43)。対象物の形状や動作と入力操作との間の関係は適宜設計により定めればよい。このような関係の一つとして、指先や棒などの尖った形状がポインティング操作に対応づけられる。ステップS43でのジェスチャ認識の結果、対象物の形状や動作がポインティング操作以外であると判定されれば、対象物のジェスチャを入力として処理する(S44)。たとえば、開いた手を動かすジェスチャをスクロール操作として処理したり、両手を近づけたり離したりすることでズームイン・ズームアウト操作として処理したりする。逆に、ステップS43でのジェスチャ認識の結果、対象物の形状や動作がポインティング操作を表すものと判定されれば、ポインティング操作を支援するためのユーザインタフェース要素を透明ディスプレイ2に表示する(S45)。たとえば、選択可能なメニュー部品を表示したり、カーソルを表示したり、カーソル部分の拡大表示をすることなどが考えられる。 If the object detected from the distance image is within the gesture input area, the gesture is recognized from the shape or movement of the object (S43). The relationship between the shape and movement of the object and the input operation may be determined by design as appropriate. As one of such relationships, a sharp shape such as a fingertip or a stick is associated with the pointing operation. As a result of the gesture recognition in step S43, if it is determined that the shape or movement of the object is other than the pointing operation, the gesture of the object is processed as an input (S44). For example, a gesture for moving an open hand is processed as a scroll operation, or a zoom-in / zoom-out operation is performed by bringing both hands closer to or away from each other. Conversely, if it is determined as a result of gesture recognition in step S43 that the shape or motion of the object represents a pointing operation, a user interface element for supporting the pointing operation is displayed on the transparent display 2 (S45). . For example, it is conceivable to display selectable menu parts, display a cursor, or display an enlarged portion of the cursor.
また、ステップS42で対象物が接触入力領域内にあると判定された場合は、対象物がポイントする透明ディスプレイ2内の位置(ポインティング位置)を算出し(S46)、その位置に対するポインティング操作として処理を行う(S47)。 If it is determined in step S42 that the object is in the contact input area, the position (pointing position) in the transparent display 2 to which the object points is calculated (S46) and processed as a pointing operation for that position. (S47).
図6,図7を参照してユーザの入力操作の一具体例を説明する。 A specific example of the user input operation will be described with reference to FIGS.
図6に示すように、ユーザが透明ディスプレイから離れた位置(ジェスチャ入力領域内)で開いた手を動かした場合は、ジェスチャ入力領域内でのポインティング操作以外のジェスチャであると判定される。そして、開いた手を動かすというジェスチャに対応した処理、ここでは画面のスクロール処理が実行される。 As shown in FIG. 6, when the user moves the open hand at a position away from the transparent display (in the gesture input area), the gesture is determined to be a gesture other than the pointing operation in the gesture input area. Then, a process corresponding to the gesture of moving the open hand, here, a screen scroll process is executed.
一方、図7Aに示すように、ユーザが透明ディスプレイから離れた位置(ジェスチャ入力領域内)で指先を透明ディスプレイに近づける場合は、ジェスチャ入力領域内でのポインティング操作のためのジェスチャであると判定される。そして、ポインティング操作支援のために、メニュー画面を透明ディスプレイに表示する。図7Bに示すように、ユーザが指先をさらに透明ディスプレイに近づけて接触させた(正確には接触領域内に移動させた)場合は、指先位置に対するポインティング操作、すなわち指先が触れた位置のメニューを選択したという処理が実行される。 On the other hand, as shown in FIG. 7A, when the user brings his fingertip close to the transparent display at a position away from the transparent display (in the gesture input area), it is determined that the gesture is for a pointing operation in the gesture input area. The Then, a menu screen is displayed on the transparent display for pointing operation support. As shown in FIG. 7B, when the user touches the fingertip closer to the transparent display (more precisely, moves it into the contact area), the pointing operation for the fingertip position, that is, the menu of the position touched by the fingertip is displayed. The process of selecting is executed.
本実施形態に係るユーザインタフェース装置によれば、3次元ジェスチャ入力とディスプレイへの接触入力の両方を実現できる。従来は3次元ジェスチャ入力のための距離画像センサと接触入力のためのタッチパネルの両方が必要であったが、本実施形態によればタッチパネルを用いずに両方式の入力が実現できる。さらに、透明ディスプレイの背面から距離画像を取得しているので、距離画像内での対象物の位置と、ユーザが操作を意図するディスプレイ内の位置とのずれが少なくなり、ユーザにとって利便性の高い入力が可能となる。 According to the user interface device according to the present embodiment, both the three-dimensional gesture input and the touch input to the display can be realized. Conventionally, both a distance image sensor for 3D gesture input and a touch panel for contact input are required. However, according to the present embodiment, both types of input can be realized without using a touch panel. Furthermore, since the distance image is acquired from the back surface of the transparent display, there is less deviation between the position of the object in the distance image and the position in the display that the user intends to operate, which is highly convenient for the user. Input is possible.
1 情報処理装置
2 透明ディスプレイ
3 距離画像センサ
11 制御部
12 画像出力部
13 距離画像入力部
14 距離画像解析部
DESCRIPTION OF SYMBOLS 1 Information processing apparatus 2 Transparent display 3
Claims (4)
前記透明ディスプレイに画像を出力する画像出力手段と、
前記透明ディスプレイの背面に設置され、前記透明ディスプレイ越しに距離画像を取得する距離画像センサと、
前記距離画像センサによって取得される距離画像を解析してユーザの入力操作を検出する解析手段と、
を備え、
前記解析手段は、
距離画像内の対象物が前記透明ディスプレイから所定の距離よりも離れている場合は、距離画像内の対象物のジェスチャを認識して入力操作を検出し、
距離画像内の対象物が前記透明ディスプレイから前記所定の距離以内の場合は、距離画像内の対象物と対応する前記透明ディスプレイの位置に対するポインティング操作を入力操作として検出する、
ユーザインタフェース装置。 A transparent display,
Image output means for outputting an image to the transparent display;
A distance image sensor installed on the back surface of the transparent display to obtain a distance image through the transparent display;
Analyzing means for analyzing a distance image acquired by the distance image sensor to detect a user input operation;
With
The analysis means includes
If the object in the distance image is more than a predetermined distance from the transparent display, the input operation is detected by recognizing the gesture of the object in the distance image,
When the object in the distance image is within the predetermined distance from the transparent display, a pointing operation for the position of the transparent display corresponding to the object in the distance image is detected as an input operation.
User interface device.
請求項1に記載のユーザインタフェース装置。 The predetermined distance is a distance that can be regarded as being substantially in contact with the transparent display.
The user interface device according to claim 1.
請求項1または2に記載のユーザインタフェース装置。 When the object in the distance image is farther than the predetermined distance from the transparent display and the shape of the object is a predetermined shape, the analyzing means is a user for assisting a pointing operation. Displaying interface elements on the transparent display;
The user interface device according to claim 1 or 2.
請求項1〜3のいずれか1項に記載のユーザインタフェース装置。 The image output to the transparent display and the distance image acquisition by the distance image sensor are performed alternately.
The user interface device according to claim 1.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010140571A JP2012003690A (en) | 2010-06-21 | 2010-06-21 | User interface |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010140571A JP2012003690A (en) | 2010-06-21 | 2010-06-21 | User interface |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2012003690A true JP2012003690A (en) | 2012-01-05 |
Family
ID=45535553
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010140571A Pending JP2012003690A (en) | 2010-06-21 | 2010-06-21 | User interface |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2012003690A (en) |
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013145468A (en) * | 2012-01-13 | 2013-07-25 | Sony Corp | Information processing apparatus and information processing method, and computer program |
JP2013218549A (en) * | 2012-04-10 | 2013-10-24 | Alpine Electronics Inc | Electronic equipment |
JP2014021748A (en) * | 2012-07-19 | 2014-02-03 | Alpine Electronics Inc | Operation input device and on-vehicle equipment using the same |
CN104049719A (en) * | 2013-03-11 | 2014-09-17 | 联想(北京)有限公司 | Information processing method and electronic equipment |
CN104272371A (en) * | 2012-04-08 | 2015-01-07 | 三星电子株式会社 | Transparent display apparatus and method thereof |
KR20150002776A (en) * | 2012-04-16 | 2015-01-07 | 퀄컴 인코포레이티드 | Rapid gesture re-engagement |
EP2869178A1 (en) | 2013-11-05 | 2015-05-06 | Sony Corporation | Information input apparatus, information input method, and computer program |
JP2015125777A (en) * | 2013-12-26 | 2015-07-06 | ビステオン グローバル テクノロジーズ インコーポレイテッド | Indicating transition from gesture based inputs to touch surfaces |
JP2016177845A (en) * | 2016-06-22 | 2016-10-06 | ソニー株式会社 | Information processing apparatus, information processing method, and computer program |
JP2016224686A (en) * | 2015-05-29 | 2016-12-28 | キヤノン株式会社 | Information processing apparatus, control method thereof, program, and storage medium |
JP2017062813A (en) * | 2016-11-01 | 2017-03-30 | 日立マクセル株式会社 | Video display and projector |
EP3153950A1 (en) | 2015-10-08 | 2017-04-12 | Funai Electric Co., Ltd. | Input device |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2009110951A1 (en) * | 2008-02-29 | 2009-09-11 | Microsoft Corporation | Interactive surface computer with switchable diffuser |
WO2010064387A1 (en) * | 2008-12-04 | 2010-06-10 | 三菱電機株式会社 | Display input device |
-
2010
- 2010-06-21 JP JP2010140571A patent/JP2012003690A/en active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2009110951A1 (en) * | 2008-02-29 | 2009-09-11 | Microsoft Corporation | Interactive surface computer with switchable diffuser |
JP2011513828A (en) * | 2008-02-29 | 2011-04-28 | マイクロソフト コーポレーション | Interactive surface computer with switchable diffuser |
WO2010064387A1 (en) * | 2008-12-04 | 2010-06-10 | 三菱電機株式会社 | Display input device |
Cited By (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013145468A (en) * | 2012-01-13 | 2013-07-25 | Sony Corp | Information processing apparatus and information processing method, and computer program |
US10261589B2 (en) | 2012-01-13 | 2019-04-16 | Saturn Licensing Llc | Information processing apparatus, information processing method, and computer program |
CN104272371A (en) * | 2012-04-08 | 2015-01-07 | 三星电子株式会社 | Transparent display apparatus and method thereof |
US10732729B2 (en) | 2012-04-08 | 2020-08-04 | Samsung Electronics Co., Ltd. | Transparent display apparatus and method thereof |
CN104272371B (en) * | 2012-04-08 | 2019-02-15 | 三星电子株式会社 | Transparent display device and its method |
JP2013218549A (en) * | 2012-04-10 | 2013-10-24 | Alpine Electronics Inc | Electronic equipment |
KR102230630B1 (en) * | 2012-04-16 | 2021-03-19 | 퀄컴 인코포레이티드 | Rapid gesture re-engagement |
KR20150002776A (en) * | 2012-04-16 | 2015-01-07 | 퀄컴 인코포레이티드 | Rapid gesture re-engagement |
JP2014021748A (en) * | 2012-07-19 | 2014-02-03 | Alpine Electronics Inc | Operation input device and on-vehicle equipment using the same |
CN104049719B (en) * | 2013-03-11 | 2017-12-01 | 联想(北京)有限公司 | A kind of information processing method and electronic equipment |
CN104049719A (en) * | 2013-03-11 | 2014-09-17 | 联想(北京)有限公司 | Information processing method and electronic equipment |
EP2869178A1 (en) | 2013-11-05 | 2015-05-06 | Sony Corporation | Information input apparatus, information input method, and computer program |
JP2015125777A (en) * | 2013-12-26 | 2015-07-06 | ビステオン グローバル テクノロジーズ インコーポレイテッド | Indicating transition from gesture based inputs to touch surfaces |
JP2016224686A (en) * | 2015-05-29 | 2016-12-28 | キヤノン株式会社 | Information processing apparatus, control method thereof, program, and storage medium |
EP3153950A1 (en) | 2015-10-08 | 2017-04-12 | Funai Electric Co., Ltd. | Input device |
JP2016177845A (en) * | 2016-06-22 | 2016-10-06 | ソニー株式会社 | Information processing apparatus, information processing method, and computer program |
JP2017062813A (en) * | 2016-11-01 | 2017-03-30 | 日立マクセル株式会社 | Video display and projector |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2012003690A (en) | User interface | |
US10761610B2 (en) | Vehicle systems and methods for interaction detection | |
JP6348211B2 (en) | Remote control of computer equipment | |
TWI492146B (en) | Virtual hand based on combined data | |
ES2761198T3 (en) | Eye interaction system | |
US20160179211A1 (en) | Systems and methods for triggering actions based on touch-free gesture detection | |
US8432301B2 (en) | Gesture-enabled keyboard and associated apparatus and computer-readable storage medium | |
KR102166330B1 (en) | Method and apparatus for providing user interface of medical diagnostic apparatus | |
JP2010086519A5 (en) | ||
WO2011119154A1 (en) | Gesture mapping for display device | |
RU2013122880A (en) | MEDICAL VISUALIZATION SYSTEM | |
TW201243672A (en) | Mobile phone with pointer and control pointer method thereof | |
KR101535738B1 (en) | Smart device with touchless controlling operation function and the control method of using the same | |
JP5575027B2 (en) | Display-integrated coordinate input device and virtual keyboard function activation method | |
Mahmood et al. | Research design for evaluation of finger input properties on multi-touch screen | |
JP2016015078A (en) | Display control device, display control method, and program | |
WO2012114791A1 (en) | Gesture operation system | |
JP2013238963A (en) | Interactive display device | |
KR101445062B1 (en) | Apparatus and method for controlling terminal display with backside input function and sight line sensor | |
KR20140021166A (en) | Two-dimensional virtual touch apparatus | |
JP2016115039A (en) | System, program, and method enabling pointer operation on head-mounted display with touch panel type device | |
JP5028676B2 (en) | Graphical user interface operation / control device | |
Mahmood et al. | Image Processing–I: Research design for evaluation of finger input properties on multi-touch screen | |
TWM486800U (en) | Variable angle double purpose body sensor capable of detecting image | |
KR20150041824A (en) | Interface apparatus using gesture |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20130425 |
|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A711 Effective date: 20131106 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20131113 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20131217 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20140527 |