JP2012003690A - User interface - Google Patents

User interface Download PDF

Info

Publication number
JP2012003690A
JP2012003690A JP2010140571A JP2010140571A JP2012003690A JP 2012003690 A JP2012003690 A JP 2012003690A JP 2010140571 A JP2010140571 A JP 2010140571A JP 2010140571 A JP2010140571 A JP 2010140571A JP 2012003690 A JP2012003690 A JP 2012003690A
Authority
JP
Japan
Prior art keywords
distance image
transparent display
display
distance
user interface
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2010140571A
Other languages
Japanese (ja)
Inventor
Sachi Mizobuchi
佐知 溝渕
Hikari Koga
光 古賀
Hitoshi Kumon
仁 久門
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Toyota InfoTechnology Center Co Ltd
Original Assignee
Toyota Motor Corp
Toyota InfoTechnology Center Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp, Toyota InfoTechnology Center Co Ltd filed Critical Toyota Motor Corp
Priority to JP2010140571A priority Critical patent/JP2012003690A/en
Publication of JP2012003690A publication Critical patent/JP2012003690A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a user interface that enables three-dimensional gesture input and touch input on a display surface.SOLUTION: A user interface of this invention comprises: a transparent display; an image output means for outputting an image on the transparent display; a distance image sensor that is installed behind the transparent display and obtains a distance image through the transparent display; and an analysis means for analyzing the distance image obtained by the distance image sensor to detect input operation of a user. The analysis means detects the input operation by gesture recognition when an object in the distance image is away from the display, and detects pointing operation as the input operation when the object touches the display substantially.

Description

本発明は、距離画像センサを用いたユーザインタフェース装置に関する。   The present invention relates to a user interface device using a distance image sensor.

キーボードやマウスなどの入力装置を用いることなくユーザからの入力を受け付ける技術として、タッチパネルや距離画像センサを用いたユーザインタフェース装置が知られている。   As a technique for receiving an input from a user without using an input device such as a keyboard or a mouse, a user interface device using a touch panel or a distance image sensor is known.

タッチパネルを用いるユーザインタフェースでは、ユーザが指やスタイラスなどでディスプレイパネルに触れることで操作が行われる。タッチパネルの方式には、抵抗膜方式、静電容量方式、光センサ方式、赤外線方式、表面弾性波方式(超音波方式)、電磁誘導方式などが提案されている。抵抗膜方式は最も普及している方式であるが、パネル表面に触れるまで入力を検知できない。一方、静電容量方式や光センサ方式では、対象(指やスタイラス)がパネル表面に触れる前に近接検知を行うことが可能である。ただし、検出可能な距離はパネル表面から数cm程度であり、奥行きのあるジェスチャ入力(3次元入力)には適さない。   In a user interface using a touch panel, an operation is performed by a user touching the display panel with a finger or a stylus. As a touch panel method, a resistive film method, a capacitance method, an optical sensor method, an infrared method, a surface acoustic wave method (ultrasonic method), an electromagnetic induction method, and the like have been proposed. The resistive film method is the most popular method, but it cannot detect input until it touches the panel surface. On the other hand, in the capacitance method and the optical sensor method, proximity detection can be performed before an object (finger or stylus) touches the panel surface. However, the detectable distance is about several centimeters from the panel surface, and is not suitable for gesture input with a depth (three-dimensional input).

距離画像センサ(3次元カメラ、深度センサなどとも呼ばれる)を用いるユーザインタフェースでは、ディスプレイの前でユーザが手や体などを動かすことでジェスチャによって操作が行われる。距離画像センサは、数十cmから数mまでの距離を検知することが可能である。空中でのユーザ動作によって入力操作が可能となるが、画面上のアイコンを選択するような状況ではディスプレイを直接タッチする方が物理的なフィードバックを得られるので、精度の高い入力が行える。   In a user interface that uses a distance image sensor (also called a three-dimensional camera, a depth sensor, or the like), a user moves a hand or a body in front of a display, and an operation is performed by a gesture. The distance image sensor can detect a distance from several tens of centimeters to several meters. An input operation can be performed by a user operation in the air. However, in a situation where an icon on the screen is selected, a physical feedback can be obtained by directly touching the display, so that a highly accurate input can be performed.

米国特許出願公開第2006/0026521号明細書US Patent Application Publication No. 2006/0026521 特表2009−528514号公報Special table 2009-528514 特開2010−015553号公報JP 2010-015553 A

本発明は、3次元ジェスチャ入力と2次元平面(ディスプレイ平面)における入力の両方の利点を兼ね備えたユーザインタフェース装置を提供することを目的とする。   It is an object of the present invention to provide a user interface device that combines the advantages of both three-dimensional gesture input and input in a two-dimensional plane (display plane).

上記の目的を達成するために、本発明ではディスプレイとして透明ディスプレイを採用し、透明ディスプレイの背後から透明ディスプレイ越しに得られる距離画像からユーザの入力操作を検出する。この際、ユーザの指やスタイラスなどの対象物が、透明ディスプレイからある程度離れている場合はジェスチャ入力と解釈し、透明ディスプレイに近づいている場合はパネルに対するタッチ式による入力であると解釈する。   In order to achieve the above object, the present invention employs a transparent display as a display, and detects a user input operation from a distance image obtained from behind the transparent display through the transparent display. At this time, if an object such as a user's finger or stylus is far away from the transparent display, it is interpreted as a gesture input, and if it is close to the transparent display, it is interpreted as a touch-type input to the panel.

より具体的には、本発明に係るユーザインタフェース装置は、透明ディスプレイと、
前記透明ディスプレイに画像を出力する画像出力手段と、
前記透明ディスプレイの背面に設置され、前記透明ディスプレイ越しに距離画像を取得する距離画像センサと、
前記距離画像センサによって取得される距離画像を解析してユーザの入力操作を検出す
る解析手段と、
を備え、
前記解析手段は、
距離画像内の対象物が前記透明ディスプレイから所定の距離よりも離れている場合は、距離画像内の対象物のジェスチャを認識して入力操作を検出し、
距離画像内の対象物が前記透明ディスプレイから前記所定の距離以内の場合は、距離画像内の対象物と対応する前記透明ディスプレイの位置に対するポインティング操作をユーザの入力操作として検出する。
More specifically, the user interface device according to the present invention includes a transparent display,
Image output means for outputting an image to the transparent display;
A distance image sensor installed on the back surface of the transparent display to obtain a distance image through the transparent display;
Analyzing means for analyzing a distance image acquired by the distance image sensor to detect a user input operation;
With
The analysis means includes
If the object in the distance image is more than a predetermined distance from the transparent display, the input operation is detected by recognizing the gesture of the object in the distance image,
When the object in the distance image is within the predetermined distance from the transparent display, a pointing operation for the position of the transparent display corresponding to the object in the distance image is detected as a user input operation.

ここで、上記の所定の距離は、実質的に透明ディスプレイに接触しているみなせる距離とすることが好ましい。すなわち、対象物が完全に透明ディスプレイに触れている場合だけでなく多少離れている場合も、ディスプレイに接触した入力操作と見なすことが好ましい。この所定距離は、たとえば、透明ディスプレイの大きさなどに応じて定めればよい。   Here, it is preferable that the predetermined distance is a distance that can be regarded as being substantially in contact with the transparent display. That is, it is preferable to regard the input operation in contact with the display not only when the object is completely touching the transparent display but also when being slightly separated. This predetermined distance may be determined according to the size of the transparent display, for example.

このような構成を採用することで、本発明に係るユーザインタフェース装置は、3次元ジェスチャ入力と2次元平面での入力を、タッチパネルを用いることなく距離画像センサだけで実現できる。   By adopting such a configuration, the user interface device according to the present invention can realize a three-dimensional gesture input and a two-dimensional plane input with only a distance image sensor without using a touch panel.

また、本発明において、距離画像内の対象物が透明ディスプレイから所定の距離よりも離れている場合に、対象物の形状が所定の形状であるときは、ポインティング動作を支援するためのユーザインタフェース要素を、透明ディスプレイに表示することが好ましい。   Further, in the present invention, when the object in the distance image is separated from the transparent display by a predetermined distance and the shape of the object is a predetermined shape, a user interface element for supporting a pointing operation Is preferably displayed on a transparent display.

ここで、所定の形状は、ポインティング操作を行うための形状であり、たとえば、1本の指だけを伸ばした掌の形状やスタイラスの形状など、尖った形状とすることができる。また、ポインティング動作を支援するためのユーザインタフェース要素の表示とは、メニュー要素などユーザが選択可能な要素の表示であったり、ポインティング位置付近の拡大表示などであったりする。   Here, the predetermined shape is a shape for performing a pointing operation, and may be a sharp shape such as a palm shape or a stylus shape with only one finger extended. In addition, the display of the user interface element for supporting the pointing operation is a display of an element that can be selected by the user such as a menu element, or an enlarged display near the pointing position.

このように、ユーザがポインティング動作を行う場合に、ユーザが透明ディスプレイに触れる前にポインティング動作のためのユーザインタフェース要素が表示されるので、利便性の高いユーザインタフェースを提供できる。   As described above, when the user performs the pointing operation, the user interface element for the pointing operation is displayed before the user touches the transparent display. Therefore, a highly convenient user interface can be provided.

また、本発明において、前記透明ディスプレイへの画像出力と、前記距離画像センサによる距離画像の取得は交互に行われることが好ましい。   In the present invention, it is preferable that image output to the transparent display and distance image acquisition by the distance image sensor are performed alternately.

このようにすれば、画像表示の影響を受けることなく距離画像の取得が行える。また、画像出力と距離画像取得の切り替えを十分高速に行えば、表示画像品質を損なうことなく距離画像の取得が行える。   In this way, the distance image can be acquired without being affected by the image display. Further, if the switching between image output and distance image acquisition is performed at a sufficiently high speed, the distance image can be acquired without impairing the display image quality.

本発明は、上記手段の少なくとも一部を含むユーザインタフェース装置として捉えることができる。また、これらの処理を行う情報入力方法、さらには、これらの方法を実現するためのプログラムとして捉えることもできる。上記手段および処理の各々は可能な限り互いに組み合わせて本発明を構成することができる。   The present invention can be understood as a user interface device including at least a part of the above means. Moreover, it can also be grasped as an information input method for performing these processes, and a program for realizing these methods. Each of the above means and processes can be combined with each other as much as possible to constitute the present invention.

本発明によれば、3次元ジェスチャ入力と2次元平面での入力を、タッチパネルを用いることなく実現できる。   According to the present invention, three-dimensional gesture input and two-dimensional plane input can be realized without using a touch panel.

本実施形態に係るユーザインタフェース装置の概要を示す図である。It is a figure which shows the outline | summary of the user interface apparatus which concerns on this embodiment. 本実施形態に係るユーザインタフェース装置の機能ブロックを示す図である。It is a figure which shows the functional block of the user interface apparatus which concerns on this embodiment. 本実施形態に係るユーザインタフェースの処理を示すフローチャートである。It is a flowchart which shows the process of the user interface which concerns on this embodiment. 本実施形態に係るユーザインタフェースの処理における距離画像解析処理の詳細を示すフローチャートである。It is a flowchart which shows the detail of the distance image analysis process in the process of the user interface which concerns on this embodiment. ジェスチャ入力領域と接触入力領域を説明する図である。It is a figure explaining a gesture input area and a contact input area. ジェスチャ入力領域でスクロール操作に対応するジェスチャ入力をする場合の動作を説明する図である。It is a figure explaining the operation | movement in the case of performing the gesture input corresponding to scroll operation in a gesture input area | region. ポインティング操作のジェスチャ入力のために指先を透明ディスプレイに接触させる場合の動作を説明する図である。It is a figure explaining operation | movement in the case of making a fingertip contact a transparent display for the gesture input of pointing operation.

本実施形態に係るユーザインタフェース装置の概要を、図1,2を参照して説明する。本実施形態においては、情報処理装置1からの画像出力は、透明ディスプレイ2に表示される。距離画像センサ3は透明ディスプレイ2の背面側に設置され、距離画像の取得は透明ディスプレイ2越しに行われる。   An overview of the user interface device according to the present embodiment will be described with reference to FIGS. In the present embodiment, the image output from the information processing apparatus 1 is displayed on the transparent display 2. The distance image sensor 3 is installed on the back side of the transparent display 2, and the distance image is acquired through the transparent display 2.

情報処理装置1は、CPU,主記憶装置、補助記憶装置、ネットワーク装置などを含むコンピュータである。情報処理装置1は、画像を透明ディスプレイ2に出力する。また、距離画像センサ3を入力装置として利用する。もちろん、距離画像センサに加えて、キーボードやマウス、コントローラ(有線/無線)などを入力装置として備えていてもよい。情報処理装置1は、メモリ上に展開されたプログラムをCPUが実行することで、本明細書において説明する各機能を実現する。   The information processing apparatus 1 is a computer including a CPU, a main storage device, an auxiliary storage device, a network device, and the like. The information processing apparatus 1 outputs an image to the transparent display 2. The distance image sensor 3 is used as an input device. Of course, in addition to the distance image sensor, a keyboard, a mouse, a controller (wired / wireless), or the like may be provided as an input device. The information processing apparatus 1 implements each function described in this specification by causing the CPU to execute a program developed on a memory.

なお、情報処理装置1と透明ディスプレイ2と距離画像センサ3を別体であるとして説明したが、透明ディスプレイ2と距離画像センサ3、または、情報処理装置1と透明ディスプレイ2と距離画像センサ3を一体として構成してもかまわない。   Although the information processing apparatus 1, the transparent display 2, and the distance image sensor 3 have been described as separate bodies, the transparent display 2 and the distance image sensor 3 or the information processing apparatus 1, the transparent display 2, and the distance image sensor 3 are separated. It may be configured as a single unit.

透明ディスプレイ2は、透明状態とデジタル画像の表示状態を切り換え可能な表示装置である。透明ディスプレイとしては、たとえば、EL素子を用いたELディスプレイ、液晶ディスプレイ等を用いることができる。本実施形態では、透明有機ELディスプレイを用いている。この有機ELディスプレイは、自発光であり、低電力で高輝度、高コントラスト、高視野角であるため表示画像が見やすく、液晶ディスプレイのようにバックライトを必要としないため薄型化が可能という利点がある。透明ディスプレイ2には、情報処理装置1から出力される画像が表示される。   The transparent display 2 is a display device capable of switching between a transparent state and a digital image display state. As the transparent display, for example, an EL display using an EL element, a liquid crystal display, or the like can be used. In this embodiment, a transparent organic EL display is used. This organic EL display is self-luminous, has low power, high brightness, high contrast, and a high viewing angle, so that the displayed image is easy to see, and unlike the liquid crystal display, it does not require a backlight and can be reduced in thickness. is there. An image output from the information processing apparatus 1 is displayed on the transparent display 2.

距離画像センサ3は、赤外光などの光パルスを照射し、物体に当たって戻ってくる反射光とその飛行時間を検出することで、物体の形状と距離を計測する。距離画像センサ3が取得した距離画像は、情報処理装置1に入力される。   The distance image sensor 3 irradiates a light pulse such as infrared light, and detects the reflected light that hits the object and its flight time, thereby measuring the shape and distance of the object. The distance image acquired by the distance image sensor 3 is input to the information processing apparatus 1.

情報処理装置1の画像出力部12は、制御部11によって生成された画像データを透明ディスプレイ2へ出力する。また、距離画像入力部13は、距離画像センサ3から距離画像を取得する。距離画像解析部14は、距離画像を解析して情報処理装置1へ対するユーザの入力操作を検出する。距離画像を介した入力操作に従って、制御部11はプログラムの実行を行う。   The image output unit 12 of the information processing apparatus 1 outputs the image data generated by the control unit 11 to the transparent display 2. The distance image input unit 13 acquires a distance image from the distance image sensor 3. The distance image analysis unit 14 analyzes a distance image and detects a user input operation to the information processing apparatus 1. In accordance with the input operation via the distance image, the control unit 11 executes the program.

制御部11は、また、透明ディスプレイ2上での画像表示と、距離画像センサ3による距離画像取得のタイミングを制御して、画像表示のための光と距離画像センサの光パルスを時分割で交互に点滅させる。このとき、点滅の時間を人間の目には知覚されない程度に
十分短くすることで、表示画像を損なうことなく、かつ、ディスプレイの真裏から距離センシングのための光パルスを照射することができる。
The control unit 11 also controls the timing of image display on the transparent display 2 and the distance image acquisition by the distance image sensor 3, and the light for image display and the light pulse of the distance image sensor alternate in time division. Flash on. At this time, by making the blinking time sufficiently short so as not to be perceived by human eyes, it is possible to irradiate a light pulse for distance sensing from the back of the display without impairing the display image.

図3に、本実施形態に係るユーザインタフェース装置が行う処理のフローチャートを示す。ユーザインタフェース装置は、図3に示す処理を繰り返し実行する。ここでは、透明ディスプレイ2が1秒間に30フレームの画像を表示するものとする。まず、1フレーム分の画像の出力を開始し(S1)、1/60秒後に画像出力を停止させる(S2)。透明ディスプレイ2に画像表示がされていない状態で、距離画像センサ3から距離計測用の光パルスを発光し距離画像を取得する(S3)。そして、距離画像を解析してユーザからの入力を取得する(S4)。これらの処理を繰り返すことで、画像の表示とユーザからの入力の受付が同時に行える。なお、ここでは距離画像の解析処理(S4)を透明ディスプレイ2に画像を表示していない状態で行うとして説明したが、距離画像の取得が画像非表示状態で行われれば十分であり、距離画像の解析は画像表示中に行ってもよい。   FIG. 3 shows a flowchart of processing performed by the user interface device according to the present embodiment. The user interface device repeatedly executes the process shown in FIG. Here, it is assumed that the transparent display 2 displays an image of 30 frames per second. First, output of an image for one frame is started (S1), and image output is stopped after 1/60 seconds (S2). In a state where no image is displayed on the transparent display 2, a distance measurement light pulse is emitted from the distance image sensor 3 to acquire a distance image (S3). And a distance image is analyzed and the input from a user is acquired (S4). By repeating these processes, it is possible to display an image and accept an input from the user at the same time. Here, the distance image analysis process (S4) has been described as being performed in a state where no image is displayed on the transparent display 2. However, it is sufficient that the distance image is acquired in an image non-display state. This analysis may be performed during image display.

なお、距離画像の取得がディスプレイの画像非表示時に行われればよいので、距離画像計測を1フレーム表示のたびにおこなう必要はないし、ディスプレイ表示と距離画像計測の時間を同一とする必要もない。たとえば、透明ディスプレイ2に数フレーム続けて表示した後に、距離画像の取得を1回行うというような動作を採用してもかまわない。   Since the distance image may be acquired when the display image is not displayed, it is not necessary to perform the distance image measurement every time one frame is displayed, and the display display and the distance image measurement time need not be the same. For example, an operation may be employed in which the distance image is acquired once after displaying several frames on the transparent display 2 continuously.

次に、ステップS4における距離画像解析処理の詳細について、図4〜図7を参照して説明する。図4は、距離画像解析処理の詳細処理を示すフローチャートである。距離画像解析処理では、まず、取得した距離画像からディスプレイに近づいている対象物(指やスタイラスなど)を抽出する(S41)。そして、この対象物との距離から、対象物がジェスチャ入力領域内に位置するか、接触入力領域内に位置するかを判断する(S42)。図5に示すように、接触入力領域は、透明ディスプレイ2からの距離がd1以下の領域である。ここで、d1は対象物が実質的に透明ディスプレイ2に接触していると見なせる距離である。ジェスチャ入力領域は、透明ディスプレイ2からの距離がd1より大きくd2以内の領域である。距離d1やd2は、ユーザインタフェースの要求や透明ディスプレイの大きさなどにより決定される。距離画像センサ3と透明ディスプレイ2との間の距離がLである場合は、距離画像において距離L〜L+d1の間に対象物があれば接触入力領域に存在すると判断し、距離L+d1〜L+d2の間に対象物があればジェスチャ入力領域に存在すると判断する。   Next, details of the distance image analysis processing in step S4 will be described with reference to FIGS. FIG. 4 is a flowchart showing detailed processing of the distance image analysis processing. In the distance image analysis process, first, an object (such as a finger or a stylus) approaching the display is extracted from the acquired distance image (S41). Then, based on the distance from the object, it is determined whether the object is located within the gesture input area or the contact input area (S42). As shown in FIG. 5, the contact input area is an area whose distance from the transparent display 2 is d1 or less. Here, d1 is a distance that can be considered that the object is substantially in contact with the transparent display 2. The gesture input area is an area whose distance from the transparent display 2 is greater than d1 and within d2. The distances d1 and d2 are determined according to user interface requirements, the size of the transparent display, and the like. When the distance between the distance image sensor 3 and the transparent display 2 is L, if there is an object between the distances L to L + d1 in the distance image, it is determined that the object exists in the contact input region, and between the distances L + d1 to L + d2 If there is an object, it is determined that it exists in the gesture input area.

距離画像から検出された対象物がジェスチャ入力領域内にある場合は、対象物の形状や動きなどからジェスチャの認識を行う(S43)。対象物の形状や動作と入力操作との間の関係は適宜設計により定めればよい。このような関係の一つとして、指先や棒などの尖った形状がポインティング操作に対応づけられる。ステップS43でのジェスチャ認識の結果、対象物の形状や動作がポインティング操作以外であると判定されれば、対象物のジェスチャを入力として処理する(S44)。たとえば、開いた手を動かすジェスチャをスクロール操作として処理したり、両手を近づけたり離したりすることでズームイン・ズームアウト操作として処理したりする。逆に、ステップS43でのジェスチャ認識の結果、対象物の形状や動作がポインティング操作を表すものと判定されれば、ポインティング操作を支援するためのユーザインタフェース要素を透明ディスプレイ2に表示する(S45)。たとえば、選択可能なメニュー部品を表示したり、カーソルを表示したり、カーソル部分の拡大表示をすることなどが考えられる。   If the object detected from the distance image is within the gesture input area, the gesture is recognized from the shape or movement of the object (S43). The relationship between the shape and movement of the object and the input operation may be determined by design as appropriate. As one of such relationships, a sharp shape such as a fingertip or a stick is associated with the pointing operation. As a result of the gesture recognition in step S43, if it is determined that the shape or movement of the object is other than the pointing operation, the gesture of the object is processed as an input (S44). For example, a gesture for moving an open hand is processed as a scroll operation, or a zoom-in / zoom-out operation is performed by bringing both hands closer to or away from each other. Conversely, if it is determined as a result of gesture recognition in step S43 that the shape or motion of the object represents a pointing operation, a user interface element for supporting the pointing operation is displayed on the transparent display 2 (S45). . For example, it is conceivable to display selectable menu parts, display a cursor, or display an enlarged portion of the cursor.

また、ステップS42で対象物が接触入力領域内にあると判定された場合は、対象物がポイントする透明ディスプレイ2内の位置(ポインティング位置)を算出し(S46)、その位置に対するポインティング操作として処理を行う(S47)。   If it is determined in step S42 that the object is in the contact input area, the position (pointing position) in the transparent display 2 to which the object points is calculated (S46) and processed as a pointing operation for that position. (S47).

図6,図7を参照してユーザの入力操作の一具体例を説明する。   A specific example of the user input operation will be described with reference to FIGS.

図6に示すように、ユーザが透明ディスプレイから離れた位置(ジェスチャ入力領域内)で開いた手を動かした場合は、ジェスチャ入力領域内でのポインティング操作以外のジェスチャであると判定される。そして、開いた手を動かすというジェスチャに対応した処理、ここでは画面のスクロール処理が実行される。   As shown in FIG. 6, when the user moves the open hand at a position away from the transparent display (in the gesture input area), the gesture is determined to be a gesture other than the pointing operation in the gesture input area. Then, a process corresponding to the gesture of moving the open hand, here, a screen scroll process is executed.

一方、図7Aに示すように、ユーザが透明ディスプレイから離れた位置(ジェスチャ入力領域内)で指先を透明ディスプレイに近づける場合は、ジェスチャ入力領域内でのポインティング操作のためのジェスチャであると判定される。そして、ポインティング操作支援のために、メニュー画面を透明ディスプレイに表示する。図7Bに示すように、ユーザが指先をさらに透明ディスプレイに近づけて接触させた(正確には接触領域内に移動させた)場合は、指先位置に対するポインティング操作、すなわち指先が触れた位置のメニューを選択したという処理が実行される。   On the other hand, as shown in FIG. 7A, when the user brings his fingertip close to the transparent display at a position away from the transparent display (in the gesture input area), it is determined that the gesture is for a pointing operation in the gesture input area. The Then, a menu screen is displayed on the transparent display for pointing operation support. As shown in FIG. 7B, when the user touches the fingertip closer to the transparent display (more precisely, moves it into the contact area), the pointing operation for the fingertip position, that is, the menu of the position touched by the fingertip is displayed. The process of selecting is executed.

本実施形態に係るユーザインタフェース装置によれば、3次元ジェスチャ入力とディスプレイへの接触入力の両方を実現できる。従来は3次元ジェスチャ入力のための距離画像センサと接触入力のためのタッチパネルの両方が必要であったが、本実施形態によればタッチパネルを用いずに両方式の入力が実現できる。さらに、透明ディスプレイの背面から距離画像を取得しているので、距離画像内での対象物の位置と、ユーザが操作を意図するディスプレイ内の位置とのずれが少なくなり、ユーザにとって利便性の高い入力が可能となる。   According to the user interface device according to the present embodiment, both the three-dimensional gesture input and the touch input to the display can be realized. Conventionally, both a distance image sensor for 3D gesture input and a touch panel for contact input are required. However, according to the present embodiment, both types of input can be realized without using a touch panel. Furthermore, since the distance image is acquired from the back surface of the transparent display, there is less deviation between the position of the object in the distance image and the position in the display that the user intends to operate, which is highly convenient for the user. Input is possible.

1 情報処理装置
2 透明ディスプレイ
3 距離画像センサ
11 制御部
12 画像出力部
13 距離画像入力部
14 距離画像解析部
DESCRIPTION OF SYMBOLS 1 Information processing apparatus 2 Transparent display 3 Distance image sensor 11 Control part 12 Image output part 13 Distance image input part 14 Distance image analysis part

Claims (4)

透明ディスプレイと、
前記透明ディスプレイに画像を出力する画像出力手段と、
前記透明ディスプレイの背面に設置され、前記透明ディスプレイ越しに距離画像を取得する距離画像センサと、
前記距離画像センサによって取得される距離画像を解析してユーザの入力操作を検出する解析手段と、
を備え、
前記解析手段は、
距離画像内の対象物が前記透明ディスプレイから所定の距離よりも離れている場合は、距離画像内の対象物のジェスチャを認識して入力操作を検出し、
距離画像内の対象物が前記透明ディスプレイから前記所定の距離以内の場合は、距離画像内の対象物と対応する前記透明ディスプレイの位置に対するポインティング操作を入力操作として検出する、
ユーザインタフェース装置。
A transparent display,
Image output means for outputting an image to the transparent display;
A distance image sensor installed on the back surface of the transparent display to obtain a distance image through the transparent display;
Analyzing means for analyzing a distance image acquired by the distance image sensor to detect a user input operation;
With
The analysis means includes
If the object in the distance image is more than a predetermined distance from the transparent display, the input operation is detected by recognizing the gesture of the object in the distance image,
When the object in the distance image is within the predetermined distance from the transparent display, a pointing operation for the position of the transparent display corresponding to the object in the distance image is detected as an input operation.
User interface device.
前記所定の距離は、実質的に前記透明ディスプレイに接触しているとみなせる距離である、
請求項1に記載のユーザインタフェース装置。
The predetermined distance is a distance that can be regarded as being substantially in contact with the transparent display.
The user interface device according to claim 1.
前記解析手段は、距離画像内の対象物が前記透明ディスプレイから前記所定の距離よりも離れている場合に、前記対象物の形状が所定の形状であるときは、ポインティング操作を支援するためのユーザインタフェース要素を、前記透明ディスプレイに表示する、
請求項1または2に記載のユーザインタフェース装置。
When the object in the distance image is farther than the predetermined distance from the transparent display and the shape of the object is a predetermined shape, the analyzing means is a user for assisting a pointing operation. Displaying interface elements on the transparent display;
The user interface device according to claim 1 or 2.
前記透明ディスプレイへの画像出力と、前記距離画像センサによる距離画像の取得は交互に行われる、
請求項1〜3のいずれか1項に記載のユーザインタフェース装置。
The image output to the transparent display and the distance image acquisition by the distance image sensor are performed alternately.
The user interface device according to claim 1.
JP2010140571A 2010-06-21 2010-06-21 User interface Pending JP2012003690A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010140571A JP2012003690A (en) 2010-06-21 2010-06-21 User interface

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010140571A JP2012003690A (en) 2010-06-21 2010-06-21 User interface

Publications (1)

Publication Number Publication Date
JP2012003690A true JP2012003690A (en) 2012-01-05

Family

ID=45535553

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010140571A Pending JP2012003690A (en) 2010-06-21 2010-06-21 User interface

Country Status (1)

Country Link
JP (1) JP2012003690A (en)

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013145468A (en) * 2012-01-13 2013-07-25 Sony Corp Information processing apparatus and information processing method, and computer program
JP2013218549A (en) * 2012-04-10 2013-10-24 Alpine Electronics Inc Electronic equipment
JP2014021748A (en) * 2012-07-19 2014-02-03 Alpine Electronics Inc Operation input device and on-vehicle equipment using the same
CN104049719A (en) * 2013-03-11 2014-09-17 联想(北京)有限公司 Information processing method and electronic equipment
CN104272371A (en) * 2012-04-08 2015-01-07 三星电子株式会社 Transparent display apparatus and method thereof
KR20150002776A (en) * 2012-04-16 2015-01-07 퀄컴 인코포레이티드 Rapid gesture re-engagement
EP2869178A1 (en) 2013-11-05 2015-05-06 Sony Corporation Information input apparatus, information input method, and computer program
JP2015125777A (en) * 2013-12-26 2015-07-06 ビステオン グローバル テクノロジーズ インコーポレイテッド Indicating transition from gesture based inputs to touch surfaces
JP2016177845A (en) * 2016-06-22 2016-10-06 ソニー株式会社 Information processing apparatus, information processing method, and computer program
JP2016224686A (en) * 2015-05-29 2016-12-28 キヤノン株式会社 Information processing apparatus, control method thereof, program, and storage medium
JP2017062813A (en) * 2016-11-01 2017-03-30 日立マクセル株式会社 Video display and projector
EP3153950A1 (en) 2015-10-08 2017-04-12 Funai Electric Co., Ltd. Input device

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009110951A1 (en) * 2008-02-29 2009-09-11 Microsoft Corporation Interactive surface computer with switchable diffuser
WO2010064387A1 (en) * 2008-12-04 2010-06-10 三菱電機株式会社 Display input device

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009110951A1 (en) * 2008-02-29 2009-09-11 Microsoft Corporation Interactive surface computer with switchable diffuser
JP2011513828A (en) * 2008-02-29 2011-04-28 マイクロソフト コーポレーション Interactive surface computer with switchable diffuser
WO2010064387A1 (en) * 2008-12-04 2010-06-10 三菱電機株式会社 Display input device

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013145468A (en) * 2012-01-13 2013-07-25 Sony Corp Information processing apparatus and information processing method, and computer program
US10261589B2 (en) 2012-01-13 2019-04-16 Saturn Licensing Llc Information processing apparatus, information processing method, and computer program
CN104272371A (en) * 2012-04-08 2015-01-07 三星电子株式会社 Transparent display apparatus and method thereof
US10732729B2 (en) 2012-04-08 2020-08-04 Samsung Electronics Co., Ltd. Transparent display apparatus and method thereof
CN104272371B (en) * 2012-04-08 2019-02-15 三星电子株式会社 Transparent display device and its method
JP2013218549A (en) * 2012-04-10 2013-10-24 Alpine Electronics Inc Electronic equipment
KR102230630B1 (en) * 2012-04-16 2021-03-19 퀄컴 인코포레이티드 Rapid gesture re-engagement
KR20150002776A (en) * 2012-04-16 2015-01-07 퀄컴 인코포레이티드 Rapid gesture re-engagement
JP2014021748A (en) * 2012-07-19 2014-02-03 Alpine Electronics Inc Operation input device and on-vehicle equipment using the same
CN104049719B (en) * 2013-03-11 2017-12-01 联想(北京)有限公司 A kind of information processing method and electronic equipment
CN104049719A (en) * 2013-03-11 2014-09-17 联想(北京)有限公司 Information processing method and electronic equipment
EP2869178A1 (en) 2013-11-05 2015-05-06 Sony Corporation Information input apparatus, information input method, and computer program
JP2015125777A (en) * 2013-12-26 2015-07-06 ビステオン グローバル テクノロジーズ インコーポレイテッド Indicating transition from gesture based inputs to touch surfaces
JP2016224686A (en) * 2015-05-29 2016-12-28 キヤノン株式会社 Information processing apparatus, control method thereof, program, and storage medium
EP3153950A1 (en) 2015-10-08 2017-04-12 Funai Electric Co., Ltd. Input device
JP2016177845A (en) * 2016-06-22 2016-10-06 ソニー株式会社 Information processing apparatus, information processing method, and computer program
JP2017062813A (en) * 2016-11-01 2017-03-30 日立マクセル株式会社 Video display and projector

Similar Documents

Publication Publication Date Title
JP2012003690A (en) User interface
US10761610B2 (en) Vehicle systems and methods for interaction detection
JP6348211B2 (en) Remote control of computer equipment
TWI492146B (en) Virtual hand based on combined data
ES2761198T3 (en) Eye interaction system
US20160179211A1 (en) Systems and methods for triggering actions based on touch-free gesture detection
US8432301B2 (en) Gesture-enabled keyboard and associated apparatus and computer-readable storage medium
KR102166330B1 (en) Method and apparatus for providing user interface of medical diagnostic apparatus
JP2010086519A5 (en)
WO2011119154A1 (en) Gesture mapping for display device
RU2013122880A (en) MEDICAL VISUALIZATION SYSTEM
TW201243672A (en) Mobile phone with pointer and control pointer method thereof
KR101535738B1 (en) Smart device with touchless controlling operation function and the control method of using the same
JP5575027B2 (en) Display-integrated coordinate input device and virtual keyboard function activation method
Mahmood et al. Research design for evaluation of finger input properties on multi-touch screen
JP2016015078A (en) Display control device, display control method, and program
WO2012114791A1 (en) Gesture operation system
JP2013238963A (en) Interactive display device
KR101445062B1 (en) Apparatus and method for controlling terminal display with backside input function and sight line sensor
KR20140021166A (en) Two-dimensional virtual touch apparatus
JP2016115039A (en) System, program, and method enabling pointer operation on head-mounted display with touch panel type device
JP5028676B2 (en) Graphical user interface operation / control device
Mahmood et al. Image Processing–I: Research design for evaluation of finger input properties on multi-touch screen
TWM486800U (en) Variable angle double purpose body sensor capable of detecting image
KR20150041824A (en) Interface apparatus using gesture

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130425

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20131106

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20131113

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20131217

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20140527