JP2014191629A - Display device and screen control method in the same device - Google Patents

Display device and screen control method in the same device Download PDF

Info

Publication number
JP2014191629A
JP2014191629A JP2013067169A JP2013067169A JP2014191629A JP 2014191629 A JP2014191629 A JP 2014191629A JP 2013067169 A JP2013067169 A JP 2013067169A JP 2013067169 A JP2013067169 A JP 2013067169A JP 2014191629 A JP2014191629 A JP 2014191629A
Authority
JP
Japan
Prior art keywords
screen
display
line
sight
display device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013067169A
Other languages
Japanese (ja)
Other versions
JP6081839B2 (en
Inventor
Takanori Obata
貴則 小畑
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kyocera Corp
Original Assignee
Kyocera Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kyocera Corp filed Critical Kyocera Corp
Priority to JP2013067169A priority Critical patent/JP6081839B2/en
Publication of JP2014191629A publication Critical patent/JP2014191629A/en
Application granted granted Critical
Publication of JP6081839B2 publication Critical patent/JP6081839B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

PROBLEM TO BE SOLVED: To allow a user to perform seamless operation that does not interfere stereoscopic vision in 3-D display, and requires only visual line input and eliminates the need of auxiliary operation.SOLUTION: A display device (portable information terminal 10) includes a display unit 13 that performs 3-D screen display, and a visual line measurement unit 12 that measures a visual line position to a screen of the display unit 13, and further includes a control unit 11 that executes applications. The control unit 11 detects the movement of a visual line with respect to a depth direction of the screen on the basis of information output from the visual line measurement unit 12, and displays a related screen overlapped on the display unit 13 to detect input to the applications.

Description

本発明は、3D映像表示を行う表示装置および同装置における画面制御方法に関する。   The present invention relates to a display device that performs 3D video display and a screen control method in the device.

携帯情報端末の高機能化とアプリケーションの多様化に伴い、画面上に多数のアイコンが配置されるようになった。アイコンの配置が多くなったため、それらの表示を管理するページめくりのような画面切り替えの方法が一般化してきた。   With the increase in functionality of mobile information terminals and the diversification of applications, many icons have been placed on the screen. Since the number of icons has increased, screen switching methods such as page turning for managing the display have become common.

また、近年、携帯情報端末に3D液晶が搭載されるようになり、立体空間上に多数のアイコンを表示することが可能になった。3D液晶は、光の進行方向を制御して左右の目に異なる画像が見えるようにすることで専用の眼鏡を必要とせずに立体表示が可能な表示装置である。例えば、右目用画像と左目用画像とを足し合わせ画像をTFT(Thin Film Transistor)液晶に表示することで、それぞれの目に応じた画像を見ることができる。   In recent years, 3D liquid crystal has been mounted on portable information terminals, and it has become possible to display a large number of icons in a three-dimensional space. The 3D liquid crystal is a display device capable of stereoscopic display without requiring dedicated glasses by controlling the traveling direction of light so that different images can be seen by the left and right eyes. For example, by adding the right-eye image and the left-eye image and displaying the image on a TFT (Thin Film Transistor) liquid crystal, an image corresponding to each eye can be seen.

ところで、マンマシンインタフェースとして頻繁に使用されるマウスやキーボード、あるいは現在主流となっているタッチパネルに加え、ユーザの視線を利用して操作が可能な視線入力インタフェースが知られている。視線入力によれば、ユーザの視線位置から画面上のどの位置を見ているかを判別することができる。例えば、特許文献1には、視線情報で画面決定を行う技術が開示されている。しかしながら、特許文献1に開示された技術は、2D画面上での操作方法であって3D画面上での適用はできない。   By the way, in addition to a mouse and keyboard frequently used as a man-machine interface, or a touch panel which is currently mainstream, a line-of-sight input interface that can be operated using a user's line of sight is known. According to the line-of-sight input, it is possible to determine which position on the screen the user is viewing from the line-of-sight position of the user. For example, Patent Document 1 discloses a technique for determining a screen based on line-of-sight information. However, the technique disclosed in Patent Document 1 is an operation method on a 2D screen and cannot be applied on a 3D screen.

特開平9−204287号公報JP-A-9-204287

上記したように、携帯情報端末では3D液晶の搭載により立体空間で多数表示されたアイコンを効率的に操作する方法が必要となったが、タッチパネルでは、3D液晶画面を隠すことに繋がり、立体視を阻害するという問題があった。これに対し、画面を隠すことがない視線入力であれば、3D画面上でも立体視を阻害することなく操作が可能になる。   As described above, a portable information terminal requires a method for efficiently operating a large number of icons displayed in a three-dimensional space by mounting a 3D liquid crystal. However, a touch panel leads to hiding the 3D liquid crystal screen, resulting in a stereoscopic view. There was a problem of inhibiting. On the other hand, if the line-of-sight input does not hide the screen, the operation can be performed on the 3D screen without obstructing the stereoscopic view.

しかしながら、視線入力には、マウスのクリック操作のようなユーザの意思決定を伝える手段が存在せず、このため、ボタンによる補助的な操作、視線位置を一定時間固定する方法、あるいはウィンク等による方法で代替している。したがって、3D表示の場合でも立体視を阻害することなく視線入力だけで補助的な操作を不要とするシームレスな操作方法の出現が望まれている。   However, there is no means for transmitting the user's decision making such as a mouse click operation for line-of-sight input. For this reason, an auxiliary operation using a button, a method for fixing the line-of-sight position for a certain time, or a method using wink or the like It substitutes with. Accordingly, there is a demand for the appearance of a seamless operation method that eliminates the need for an auxiliary operation only by line-of-sight input without obstructing stereoscopic vision even in the case of 3D display.

本発明は上記した課題を解決するためになされたものであり、3D表示の場合でも立体視を阻害せずに視線入力だけで補助的な操作を不要とするシームレスな操作を可能とした、表示装置および同装置における画面制御方法を提供することを目的とする。   The present invention has been made in order to solve the above-described problem, and even in the case of 3D display, a seamless operation that does not require an auxiliary operation with only a line-of-sight input without obstructing stereoscopic vision is possible. An object is to provide a device and a screen control method in the device.

上記した課題を解決するために本発明の一態様による表示装置は、3D画面表示を行う表示部と、前記表示部の画面に対する視線位置を計測する視線計測部とを備えた表示装置であって、アプリケーションを実行する制御部を更に備え、前記制御部は、前記視線計測
部から出力される情報に基づき、前記画面の奥行き方向に対する視線移動を検出し、関連する画面を前記表示部に重ね合わせ表示して前記アプリケーションに対する入力を検知することを特徴とする。
In order to solve the above-described problem, a display device according to an aspect of the present invention is a display device including a display unit that performs 3D screen display, and a line-of-sight measurement unit that measures a line-of-sight position with respect to the screen of the display unit. A control unit that executes an application, and the control unit detects line-of-sight movement in the depth direction of the screen based on information output from the line-of-sight measurement unit, and superimposes a related screen on the display unit. Displaying and detecting an input to the application.

本発明の別の態様による表示装置において、前記制御部は、前記奥行き方向へしきい値以上の移動を検出した場合に、前記アプリケーションに対する入力の検知を確定することを特徴とする。   In the display device according to another aspect of the present invention, the control unit determines detection of an input to the application when detecting a movement of a threshold value or more in the depth direction.

本発明の別の態様による表示装置において、前記制御部は、予め登録された情報に基づき、ユーザ毎に左目映像と右目映像間の距離を調整することにより焦点距離を変更制御することを特徴とする。   In the display device according to another aspect of the present invention, the control unit changes and controls the focal length by adjusting the distance between the left-eye image and the right-eye image for each user based on information registered in advance. To do.

本発明の別の態様による表示装置において、前記制御部は、前記視線が手前の画面にある場合、前記表示部の奥の画面をぼけた背景画像とし、手前で何も表示されていない位置で視線を奥行き方向に移動すると、前記手前の画面を透明にして奥の画面をぼけた状態から正常表示に変更制御することを特徴とする。   In the display device according to another aspect of the present invention, when the line of sight is in the foreground screen, the control unit uses a background image in the background of the display unit as a blurred background image at a position where nothing is displayed in the foreground. When the line of sight is moved in the depth direction, the front screen is made transparent, and the control is changed from normal to blurred display to the normal display.

本発明の別の態様による表示装置において、前記制御部は、前記表示部に表示された奥の画面に視線を移動する際に、前記奥の画面の任意の位置に焦点を合わせたガイド映像を表示することを特徴とする。   In the display device according to another aspect of the present invention, the control unit displays a guide video focused on an arbitrary position on the back screen when moving the line of sight to the back screen displayed on the display unit. It is characterized by displaying.

本発明の別の態様による表示装置において、前記制御部は、前記手前の画面で何も表示されていない任意の位置に視点を移動したときにキャンセル操作として認識することを特徴とする。   In the display device according to another aspect of the present invention, the control unit recognizes a cancel operation when the viewpoint is moved to an arbitrary position where nothing is displayed on the front screen.

本発明の別の態様による表示装置において、前記制御部は、前記奥行き方向への視点の移動に伴い前記表示部の画面に表示されるコンテンツを追従させて拡大縮小表示を行うことを特徴とする。   In the display device according to another aspect of the present invention, the control unit performs enlargement / reduction display by following the content displayed on the screen of the display unit as the viewpoint moves in the depth direction. .

また、本発明の一態様による画像制御方法は、3D画面表示を行う表示部と、前記表示部の画面に対する視線位置を計測する視線計測部と、アプリケーションを実行する制御部とを備えた表示装置において、前記アプリケーションに対する入力検知を行う画面制御方法であって、前記視線計測部から出力される情報に基づき、前記画面の奥行き方向に対する視線移動を検出するステップと、前記視線移動に関連する画面を前記表示部に重ね合わせ表示して前記アプリケーションに対する入力を検知するステップと、を有することを特徴とする。   In addition, an image control method according to an aspect of the present invention includes a display device that includes a display unit that performs 3D screen display, a line-of-sight measurement unit that measures a line-of-sight position of the display unit with respect to the screen, and a control unit that executes an application. A screen control method for detecting an input to the application, the step of detecting line-of-sight movement in the depth direction of the screen based on information output from the line-of-sight measurement unit, and a screen related to the line-of-sight movement And a step of detecting an input to the application by superimposing the display on the display unit.

本発明の一態様による表示装置および同装置における画面制御方法によれば、3D表示の場合でも立体視を阻害せずに視線入力だけで補助的な操作を不要とするシームレスな操作が可能になる。   According to the display device and the screen control method in the device according to one embodiment of the present invention, even in the case of 3D display, it is possible to perform a seamless operation that does not require an auxiliary operation only by a line-of-sight input without obstructing stereoscopic vision. .

本発明の実施の形態に係る携帯情報端末の構成を示すブロック図である。It is a block diagram which shows the structure of the portable information terminal which concerns on embodiment of this invention. 本発明の実施の形態に係る携帯情報端末の画面操作イメージを示す図である。It is a figure which shows the screen operation image of the portable information terminal which concerns on embodiment of this invention. 本発明の実施の形態に係る携帯情報端末における視点の焦点距離変更による決定処理の流れを示すフローチャートである。It is a flowchart which shows the flow of the determination process by the focal distance change of the viewpoint in the portable information terminal which concerns on embodiment of this invention. 本発明の実施の形態に係る携帯情報端末の3D表示イメージを示す図である。It is a figure which shows the 3D display image of the portable information terminal which concerns on embodiment of this invention. 本発明の実施の形態に係る携帯情報端末の別の画面操作イメージを示す図である。It is a figure which shows another screen operation image of the portable information terminal which concerns on embodiment of this invention. 図5に続いて、携帯情報端末の画面操作イメージを示す図である。FIG. 6 is a diagram illustrating a screen operation image of the portable information terminal following FIG. 5. 図6に続いて、携帯情報端末の画面操作イメージを示す図である。FIG. 7 is a diagram illustrating a screen operation image of the portable information terminal following FIG. 6. 図7に続いて、携帯情報端末の画面操作イメージを示す図である。FIG. 8 is a diagram illustrating a screen operation image of the portable information terminal following FIG. 7.

以下、添付図面を把握して本発明を実施するための実施の形態(以下、単に本実施形態という)について詳細に説明する。   Hereinafter, an embodiment for carrying out the present invention by grasping the attached drawings (hereinafter simply referred to as the present embodiment) will be described in detail.

(実施形態の構成)
図1は、本実施形態に係る表示装置としての携帯情報端末10の構成を示すブロック図である。図1に示すように、本実施形態に係る携帯情報端末10は、制御部11と、視線計測部12と、表示部13とを含み、いずれも、アドレス、データ、コントロールのためのラインが複数本で構成されたシステムバス14に接続されている。
(Configuration of the embodiment)
FIG. 1 is a block diagram showing a configuration of a portable information terminal 10 as a display device according to the present embodiment. As shown in FIG. 1, a portable information terminal 10 according to the present embodiment includes a control unit 11, a line-of-sight measurement unit 12, and a display unit 13, all of which have a plurality of lines for address, data, and control. It is connected to a system bus 14 composed of books.

制御部11は、例えば、メモリを含むマイクロプロセッサで構成され、メモリに記録されたプログラムを逐次読み出し実行することにより、例えば、アプリケーションを実行する。また、制御部11は、視線計測部12から出力される情報に基づき、画面の奥行き方向に対する視線移動を検出し、関連する画面を表示部13に重ね合わせ表示(スーパーインポーズ)してアプリケーションに対する入力を検知する機能を有する。   The control unit 11 includes, for example, a microprocessor including a memory, and executes, for example, an application by sequentially reading and executing a program recorded in the memory. In addition, the control unit 11 detects line-of-sight movement in the depth direction of the screen based on the information output from the line-of-sight measurement unit 12, superimposes the related screen on the display unit 13, and superimposes it on the application. Has a function to detect input.

制御部11は、奥行き方向へ、しきい値以上の移動を検出した場合に、アプリケーションに対する入力の検知を確定する。また、制御部11は、ユーザ毎に予め登録された情報に基づき、ユーザの左目映像と右目映像間の距離を調整することにより焦点距離を変更制御することができる。また、制御部11は、表示部13に重ね合わせ表示された画面構成において、ユーザの視線が手前の画面にある場合、表示部13の奥の画面をぼけた背景画像とし、手前で何も表示されていない位置で視線を奥行き方向に移動すると、手前の画面を透明にして奥の画面をぼけた状態から正常表示に変更制御してもよい。   When the control unit 11 detects a movement in the depth direction that is greater than or equal to the threshold value, the control unit 11 determines the detection of the input to the application. The control unit 11 can change and control the focal length by adjusting the distance between the left-eye video and the right-eye video of the user based on information registered in advance for each user. In addition, when the user's line of sight is on the front screen in the screen configuration superimposed on the display unit 13, the control unit 11 displays a blurred background image on the back screen of the display unit 13 and displays nothing in front. When the line of sight is moved in the depth direction at a position where the screen is not placed, the screen on the near side may be made transparent and the display on the back may be changed from the blurred state to the normal display.

制御部11は、表示部13に表示された奥の画面に視線を移動する際に、奥の画面の任意の位置に焦点を合わせたガイド映像を表示してもよい。また、制御部11は、手前の画面で何も表示されていない任意の位置で視線を奥行き方向に移動すると、キャンセル操作として認識してもよい。また、制御部11は、奥行き方向への視点の移動に伴い表示部13の画面に表示されるコンテンツを追従させて拡大縮小表示を行なってもよい。   When the control unit 11 moves the line of sight to the back screen displayed on the display unit 13, the control unit 11 may display a guide video focused on an arbitrary position on the back screen. Further, the control unit 11 may recognize the cancel operation when the line of sight is moved in the depth direction at an arbitrary position where nothing is displayed on the front screen. Further, the control unit 11 may perform enlargement / reduction display by following the content displayed on the screen of the display unit 13 as the viewpoint moves in the depth direction.

視線計測部12は、例えば、赤外線カメラで構成され、眼球に赤外線を照射してその反射光を検出することで眼球の移動角度(回転、角度)を追尾し、制御部11と協働してユーザが注視しているエリアを特定する機能を有する。   The line-of-sight measurement unit 12 is constituted by, for example, an infrared camera, tracks the movement angle (rotation, angle) of the eyeball by irradiating the eyeball with infrared rays and detects the reflected light, and cooperates with the control unit 11. It has a function of identifying the area that the user is watching.

表示部13は、例えば、3D液晶により構成される。3D液晶は、視差バリアを利用して立体表示を行うもので、例えば、TFT液晶ディスプレイとスイッチ液晶との組み合わせにより構成される。このスイッチ液晶を制御することにより光学視差バリアを発生させ、左右の目に異なる光が届くように光を分離し、右目画像と左目画像とを足し合わせた画像を3D表示用画像としてTFT液晶ディスプレイに表示する。このことにより、ユーザにそれぞれの目に応じた画像が見える仕組みになっている。   The display unit 13 is configured by, for example, 3D liquid crystal. The 3D liquid crystal performs stereoscopic display using a parallax barrier, and is configured by, for example, a combination of a TFT liquid crystal display and a switch liquid crystal. By controlling the switch liquid crystal, an optical parallax barrier is generated, the light is separated so that different light can reach the left and right eyes, and an image obtained by adding the right eye image and the left eye image is used as a 3D display image. To display. Thus, the user can see an image corresponding to each eye.

(実施形態の動作)
以下、図1に示す本実施形態に係る携帯情報端末10の動作について、図2〜図4を参照しながら詳細に説明する。
(Operation of the embodiment)
Hereinafter, the operation of the portable information terminal 10 according to the present embodiment shown in FIG. 1 will be described in detail with reference to FIGS.

まず、図2に示す画面操作イメージから説明する。3D画面上で視線入力による画面制御の方式として、まず、奥行き方向の特定位置に幾つかの座標を決める。図2に示す例では、A,Bの2箇所としている。ここで、ユーザがブラウジング等を行う場合の画面を、“画面位置B”に表示させていたとする。ユーザがブラウジングを行う場合、“OK”、“NG”の決定画面、またはリンク等の決定操作が必要になるが、視線入力の特徴として、ユーザが視点を奥行き方向へ意識的に動かすことで決定する方法がある。   First, the screen operation image shown in FIG. 2 will be described. As a screen control method by line-of-sight input on a 3D screen, first, some coordinates are determined at specific positions in the depth direction. In the example shown in FIG. 2, there are two locations A and B. Here, it is assumed that the screen when the user performs browsing or the like is displayed at “screen position B”. When a user performs browsing, a determination operation such as “OK” or “NG” or a link is necessary. However, as a feature of line-of-sight input, the determination is made by the user consciously moving the viewpoint in the depth direction. There is a way to do it.

具体的に、ユーザが画面位置Aに表示されたボタンAを見ている場合、視点はこのボタンAの表示枠範囲(XY座標)内であって、且つ、画面位置Aの焦点距離(Z軸座標)にある。この視点は、XY軸座標枠内でZ軸のみを移動変化させる(焦点距離を変える)ことが可能であるため、このZ軸方向へのしきい値(Z軸方向への移動距離)を超えた時点で、ボタンAの押下を決定したとみなす。そして、画面位置Bにボタン決定後の操作画面を表示することで、改めて視点距離(Z軸)を画面位置Aまで戻す必要がなくなるため、ユーザはスムーズでシームレスな画面操作が可能になる。   Specifically, when the user is looking at the button A displayed at the screen position A, the viewpoint is within the display frame range (XY coordinates) of the button A, and the focal length (Z-axis) of the screen position A Coordinates). Since this viewpoint can move and change only the Z axis within the XY axis coordinate frame (change the focal length), it exceeds the threshold in the Z axis direction (movement distance in the Z axis direction). At this point, it is considered that the button A has been pressed. Then, by displaying the operation screen after button determination at the screen position B, it becomes unnecessary to return the viewpoint distance (Z-axis) to the screen position A again, so that the user can perform a smooth and seamless screen operation.

尚、ボタンではなく、リンクの場合は、そのリンク表示を囲むように一定の枠を設定することにより同様に処理することが可能である。図3に、制御部11による始点の焦点距離による決定処理の流れがフローチャートで示されている。   In the case of a link instead of a button, the same processing can be performed by setting a certain frame so as to surround the link display. FIG. 3 is a flowchart showing a flow of determination processing based on the focal length of the starting point by the control unit 11.

図3において、制御部11は、まず、視線計測部12から出力される情報に基づきユーザがボタンまたはリンク枠内を見ているか否かを判定する(ステップS101)。視点がボタンの表示枠範囲(XY座標)内、あるいはリンクの表示枠範囲(XY座標)内であって(ステップS101“Yes”)、且つ、ユーザによるZ軸方向への視線の移動を検知すると(ステップS102“Yes”)、この視点は、XY軸座標枠内でZ軸のみを移動変化させる(焦点距離を変える)ことが可能であることから、制御部11は、Z軸方向へのしきい値(Z軸方向への移動距離)以上の移動か否かを判定する(ステップS103)。制御部11は、しきい値を超えた場合に(ステップS103“Yes”)、ボタン枠内(ステップS104“Yes”)、および決定方向であるZ軸方向への視線移動を確認して(ステップS105“Yes”)、ボタンあるいはリンクを決定したと認識する(ステップS106)。   In FIG. 3, the control unit 11 first determines whether the user is looking inside the button or the link frame based on information output from the line-of-sight measurement unit 12 (step S <b> 101). If the viewpoint is within the display frame range (XY coordinates) of the button or the display frame range (XY coordinates) of the link (“Yes” in step S101), and the movement of the line of sight in the Z-axis direction by the user is detected (Step S102 “Yes”) Since this viewpoint can move and change only the Z-axis (change the focal length) within the XY-axis coordinate frame, the control unit 11 performs the adjustment in the Z-axis direction. It is determined whether or not the movement is greater than or equal to a threshold value (movement distance in the Z-axis direction) (step S103). When the threshold value is exceeded (Step S103 “Yes”), the control unit 11 confirms the movement of the line of sight in the button frame (Step S104 “Yes”) and the Z axis direction that is the determination direction (Step S103 “Yes”). S105 “Yes”), it is recognized that the button or link has been determined (step S106).

続いて、制御部11は、表示部13に決定後の画面を表示し(ステップS107)、ステップS101のボタンまたはリンク枠内判定処理に戻り、視点の焦点距離変更による決定処理を繰り返す。   Subsequently, the control unit 11 displays the screen after the determination on the display unit 13 (step S107), returns to the button or link frame determination process in step S101, and repeats the determination process by changing the focal length of the viewpoint.

なお、視点がボタンの表示枠範囲(XY座標)内、あるいはリンクの表示枠範囲(XY座標)内にない(ステップS101“No”)、Z軸方向への視線の移動でない(ステップS102“No”)、しきい値以上の移動でない(ステップS103“No”)、ボタン枠内でない(ステップS104“No”)、決定方向であるZ軸方向への移動でない(ステップS105“No”)、いずれの場合もステップS101のボタンまたはリンク枠内判定処理に戻って、視点の焦点距離変更による決定処理を繰り返す。   The viewpoint is not within the button display frame range (XY coordinates) or the link display frame range (XY coordinates) (step S101 “No”), and the line of sight is not moved in the Z-axis direction (step S102 “No”). "), Not moving beyond the threshold value (step S103" No "), not within the button frame (step S104" No "), not moving in the Z-axis direction as the determination direction (step S105" No ") In this case also, the process returns to the button or link frame determination process in step S101, and the determination process by changing the focal length of the viewpoint is repeated.

図4に、本実施形態に係る携帯情報端末10の3D表示イメージが示されている。通常、ユーザが立体視を行う場合、ユーザ毎に立体視が快適に行える距離(z軸座標)がある。また、3D映像は、例えば、図4のように左右の目にそれぞれ異なる映像を送ることで立体的に見せることで実現しており、立体映像のZ軸方向の距離は、この左右の目に送り込む映像間の距離Aで決まる。   FIG. 4 shows a 3D display image of the portable information terminal 10 according to the present embodiment. Usually, when a user performs stereoscopic viewing, there is a distance (z-axis coordinate) at which stereoscopic viewing can be comfortably performed for each user. In addition, 3D video is realized by, for example, transmitting stereoscopically different images to the left and right eyes as shown in FIG. 4, and the distance in the Z-axis direction of the stereoscopic video is determined by the left and right eyes. It is determined by the distance A between the images to be sent.

つまり、立体映像を遠くに見せるには、立体映像が表示部13の物理的な画面の手前に
表示される場合(つまり、図4のように立体映像が飛び出して見える場合)には、距離Aを狭めると同時に映像を小さくすることで可能になり、立体映像が表示部13の物理的な画面の奥に表示される場合(つまり、立体映像が奥に見える場合)には、距離Aを離すと同時に映像を小さくすることで可能になる。よって、映像のサイズを変更せずに距離Aだけを調整することで、ユーザが認識する立体映像の大きさを変えずに、焦点距離だけを変更することができる。これを利用して、ユーザが閲覧中に、少しずつ距離Aをユーザが快適に行える距離に調整することで、ユーザに違和感を与えずに楽な焦点距離に画像表示を移動させることが可能になる。
In other words, in order to display a stereoscopic image at a distance, when the stereoscopic image is displayed in front of the physical screen of the display unit 13 (that is, when the stereoscopic image appears to pop out as shown in FIG. 4), the distance A When the stereoscopic image is displayed at the back of the physical screen of the display unit 13 (that is, when the stereoscopic image is visible at the back), the distance A is increased. At the same time, it becomes possible by reducing the image size. Therefore, by adjusting only the distance A without changing the size of the video, it is possible to change only the focal length without changing the size of the stereoscopic video recognized by the user. By using this, while the user is browsing, by adjusting the distance A little by little to a distance that the user can comfortably, it is possible to move the image display to an easy focal length without giving the user a sense of incongruity Become.

これを焦点距離による決定後の画面に適用することで、画面位置Bに表示された画像を、ユーザが違和感を感じることがないように快適な頂点距離(仮に画面位置A)に移動させる。また、Webブラウジングや2Dの動画視聴など、画面位置Aで長時間閲覧するような場合に、距離Aを徐々に変更させることで、目のストレッチを行うことが可能になり、目の疲れ防止が可能になる。また、視線のZ軸方向への移動による決定動作は、Z軸の奥方向と手前方向のどちらでも可能であり、画面位置Aより手前に焦点距離を動かして、画面位置Cを表示することも可能である。   By applying this to the screen after determination based on the focal length, the image displayed at the screen position B is moved to a comfortable vertex distance (tentatively the screen position A) so that the user does not feel uncomfortable. In addition, when browsing for a long time at the screen position A, such as Web browsing or 2D video viewing, it is possible to stretch the eyes by gradually changing the distance A, thereby preventing eye fatigue. It becomes possible. The determination operation by moving the line of sight in the Z-axis direction can be performed in either the back direction or the near direction of the Z axis, and the screen position C can be displayed by moving the focal length in front of the screen position A. Is possible.

このとき、ユーザがZ軸のいずれの方向に焦点を動かすことで決定と見なすかをわかりやすく表示するため、ボタン映像を半透明にし、画面位置Bに焦点を合わすガイド映像を表示しても良い。   At this time, in order to display in an easy-to-understand manner in which direction the user moves the focus in the Z-axis, the button image may be made translucent and a guide image focused on the screen position B may be displayed. .

(実施形態の効果)
以上説明のように本実施形態に係る携帯情報端末10によれば、制御部11は、視線計測部12から出力される情報に基づき、画面の奥行き方向に対する視線移動を検出し、関連する画面を表示部13に重ね合わせ表示してアプリケーションに対する入力を検知する。したがって、3D表示の場合でも立体視を阻害することなく視線入力だけで補助的な操作を不要とするシームレスな操作を実現できる。すなわち、視線入力では、ユーザの視線位置から画面上のどの位置を見ているかを判別するが、タッチパネルやマウスのような入力デバイスと異なり、XY軸(平面)だけでなく、Z軸(奥行き)の座標も焦点位置から判別可能になる。したがって、ユーザが意図的に奥行き方向の視点移動をユーザの意思表示の手段とすることで、補助的な操作が要らない視線入力だけでの操作が可能になる。
(Effect of embodiment)
As described above, according to the portable information terminal 10 according to the present embodiment, the control unit 11 detects line-of-sight movement in the depth direction of the screen based on information output from the line-of-sight measurement unit 12, and displays related screens. An input to the application is detected by overlaying on the display unit 13. Therefore, even in the case of 3D display, it is possible to realize a seamless operation that does not require an auxiliary operation only by a line-of-sight input without obstructing stereoscopic vision. That is, in line-of-sight input, it is determined which position on the screen the user is looking at from the line-of-sight position of the user. Unlike an input device such as a touch panel or a mouse, not only the XY axis (plane) but also the Z axis (depth) These coordinates can also be discriminated from the focal position. Therefore, when the user intentionally moves the viewpoint in the depth direction as a means for displaying the user's intention, an operation with only a line-of-sight input that does not require an auxiliary operation becomes possible.

例えば、立体空間上に配置された特定のアイコンAのデータが表示されており、ユーザはアイコンAに視点を合わせた状態であるとする。ユーザがこのアイコンAのデータをエディタ等により編集する場合、マウス等ではダブルクリックなどの意思表示でエディタ画面を開くが、本実施形態に係る携帯情報端末10では、ユーザが視線をアイコンAに固定(XY軸を固定)した状態から、Z軸方向に視線をずらすことでダブルクリックに相当する意思表示とし、ユーザがずらしたZ軸座標位置に関連する画面を表示する。具体的には、エディタ等の選択画面を表示し、あるいは直接エディタを開いたりすることが可能である。この方法を利用すると、視線入力だけで手軽に異なる機能を呼び出すことが可能になる。   For example, it is assumed that data of a specific icon A arranged in a three-dimensional space is displayed, and the user is in a state where the viewpoint is aligned with the icon A. When the user edits the data of the icon A with an editor or the like, the editor screen is opened with an intention display such as a double click with a mouse or the like. However, in the portable information terminal 10 according to the present embodiment, the user fixes the line of sight to the icon A. By shifting the line of sight in the Z-axis direction from the state in which the XY axes are fixed, an intention display corresponding to double-clicking is performed, and a screen related to the Z-axis coordinate position shifted by the user is displayed. Specifically, it is possible to display a selection screen such as an editor or directly open the editor. If this method is used, it becomes possible to easily call different functions only by eye-gaze input.

尚、本実施形態に係る携帯情報端末10では、視点をずらした際に、制御部11は、表示部13に画面を重ね合わせ表示(スーパインポーズ)するため、画面が複数重なった状態になる。この場合、手前の画面から奥の画面に戻りたい場合に、手前の画面で奥の画面が隠れると視点移動が困難になると考えられることから、ユーザが手前の画面を見ている際は、制御部11は、手前の画面を背景画像とし、ピントがぼけた奥の画面として表示しておく。そして、手前の画面でアイコンが表示された位置で、視点を奥の画面のZ軸方向に位置をずらすと、手前の画面を透明にして、奥の画面をぼけ表示から正常表示に変更制御する。また、手前の画面で何も表示されていない位置で、視点を奥の画面のZ軸方向に
位置をずらすと、キャンセル操作として認識する。
In the portable information terminal 10 according to the present embodiment, when the viewpoint is shifted, the control unit 11 displays the screen on the display unit 13 in a superimposed manner (superimpose). . In this case, if you want to return from the front screen to the back screen, it may be difficult to move the viewpoint if the back screen is hidden by the front screen. The unit 11 displays the front screen as a background image and displays it as a screen behind the focus. When the position of the viewpoint is shifted in the Z-axis direction of the back screen at the position where the icon is displayed on the front screen, the front screen is made transparent and the back screen is changed from blur display to normal display. . Also, if the viewpoint is shifted in the Z-axis direction of the back screen at a position where nothing is displayed on the front screen, it is recognized as a cancel operation.

ここで、図5乃至図7を用いて、より具体的な画面操作イメージを例示する。まず、図5に示すように、手前から奥に向かってA,B,Cの画面が重なって存在し、ユーザは視点を画面BのZ軸位置に合わせているとする。その際、制御部11は、画面Aを透明化(または半透明でぼかす)し、画面Cはピントがぼけた画像として、表示部13に画面Bの背景画像として表示する。次に、ユーザが画面Bに表示された特定のテキストファイル(ファイルb)に視点を合わせた状態から、画面Aの位置に焦点を合わせて視点を移動した場合に、制御部11は、表示部13に画面Aを表示させて画面Aのエディタ等のアイコン(ボタン)を表示する。ここでは、エディタアイコンの他に、例えば、ファイルを削除するための削除アイコン、ファイルを単に閲覧するための閲覧アイコン等を表示する。   Here, a more specific screen operation image is illustrated with reference to FIGS. First, as shown in FIG. 5, it is assumed that screens A, B, and C overlap from the front to the back, and the user aligns the viewpoint with the Z-axis position of screen B. At that time, the control unit 11 makes the screen A transparent (or blurs with semi-transparency), and the screen C is displayed as a background image of the screen B on the display unit 13 as an image that is out of focus. Next, when the user moves the viewpoint focusing on the position of the screen A from the state where the viewpoint is focused on the specific text file (file b) displayed on the screen B, the control unit 11 displays the display unit. 13 displays the screen A and displays an icon (button) such as an editor of the screen A. Here, in addition to the editor icon, for example, a deletion icon for deleting the file, a browsing icon for simply browsing the file, and the like are displayed.

そして、ユーザが画面A上でエディタアイコンに視点を合わせ(図6)、画面B位置に視点をずらすと、制御部11は、表示部13の画面Bに、「YES or No」の選択画面を表示する(図7)。なお、このとき、画面Bではなく、画面Aの手前の位置に選択画面を表示してもよいし、画面Cに選択画面を表示してもよい。図7に示す選択画面において、ユーザがYESを選択する、すなわち画面Bの選択画面において「YES」に視点を合わせて、そのまま画面Aに視線をずらすと、制御部11は、表示部13の画面Aに、ファイルbを編集するためのエディタ画面を表示する。なお、図6において、画面Aでエディタ等を起動せずに画面Bに戻る場合は、画面Aのアイコン表示が無い位置で画面Bの位置に焦点を戻す。   Then, when the user aligns the viewpoint with the editor icon on the screen A (FIG. 6) and shifts the viewpoint to the position of the screen B, the control unit 11 displays a selection screen of “YES or No” on the screen B of the display unit 13. Display (FIG. 7). At this time, instead of the screen B, the selection screen may be displayed at a position in front of the screen A, or the selection screen may be displayed on the screen C. In the selection screen shown in FIG. 7, when the user selects YES, that is, when the viewpoint is set to “YES” on the selection screen of screen B and the line of sight is shifted as it is, the control unit 11 displays the screen of the display unit 13. In A, an editor screen for editing the file b is displayed. In FIG. 6, when returning to the screen B without starting an editor or the like on the screen A, the focus is returned to the position of the screen B at a position where no icon is displayed on the screen A.

ところで、立体視を行うことにより目の疲労が発生しやすく、また、ユーザ毎に3D画面を閲覧中に疲労を感じにくいポイント(奥行き)が異なることが知られている。3D空間上でユーザが文字や画像情報を閲覧する際に、ユーザ毎に表示する奥行き座標(Z座標)を調整することで、目の疲労を軽減できる。これは、制御部11が、予めユーザ毎に登録された情報に基づき、ユーザ毎に左目映像と右目映像間の距離を調整することにより焦点距離を変更制御することで実現できる。   By the way, it is known that eye fatigue is likely to occur due to stereoscopic viewing, and points (depth) at which it is difficult to feel fatigue while browsing a 3D screen for each user are known. When the user browses text and image information in the 3D space, eye fatigue can be reduced by adjusting the depth coordinate (Z coordinate) displayed for each user. This can be realized by the control unit 11 changing and controlling the focal length by adjusting the distance between the left-eye video and the right-eye video for each user based on information registered in advance for each user.

したがって、視線入力中に文字や画面情報を閲覧しているユーザが、意識的に立体視が楽なポイント(Z座標)に視点を移動させ、そのZ座標に追従して文字や画像情報を追従させることで、ユーザの疲労が少ないポイントでの立体視が可能になる。なお、文字や画像情報をZ軸方向に移動させる際は、ユーザにとって文字の大きさが変わらないように、拡大縮小表示を行うことで、ユーザに違和感を感じさせないようにする。すなわち、例えば、手前から奥に風船の画像を移動させる際に、ユーザに見える大きさが変わらないように膨らませるイメージである。   Therefore, a user who is browsing text and screen information while inputting his / her line of sight moves his / her viewpoint to a point (Z coordinate) where stereoscopic viewing is easy, and follows the Z coordinate to follow the text and image information. By doing so, stereoscopic viewing at a point with less user fatigue becomes possible. When moving characters and image information in the Z-axis direction, enlargement / reduction display is performed to prevent the user from feeling uncomfortable so that the size of the character does not change for the user. That is, for example, when the balloon image is moved from the front to the back, the image is inflated so that the size visible to the user does not change.

また、上記したユーザの意識的な視点移動に合わせるのとは逆に、立体視で特定画像を長時間見る場合等、見かけの大きさが変わらないように、Z軸方向に画像情報を徐々に前後させることで、ユーザに違和感を与えずに視点をずらすことが可能になるため目の疲労防止がはかれる。更に、Z軸方向へ視点を移動した際に、制御部11が画像を拡大縮小処理することで、視点移動により、ピンチイン、ピンチアウトのような操作も可能になる。   Contrary to the above-mentioned conscious viewpoint movement of the user, the image information is gradually moved in the Z-axis direction so that the apparent size does not change when a specific image is viewed for a long time in a stereoscopic view. By moving back and forth, it becomes possible to shift the viewpoint without giving the user a sense of incongruity, thus preventing eye fatigue. Further, when the viewpoint is moved in the Z-axis direction, the control unit 11 performs an enlargement / reduction process on the image, so that operations such as pinch-in and pinch-out can be performed by moving the viewpoint.

なお、本実施形態に係る表示装置として、携帯情報端末10のみ例示したが、ゲーム機、スマートフォン、タブレット、PC等、3D表示可能な表示部13を有するものであれば、赤外線カメラ等の視点計測部12を付加するだけで、いずれの電子機器にも適用が可能である。   In addition, although only the portable information terminal 10 was illustrated as a display apparatus which concerns on this embodiment, if it has the display part 13 which can display 3D, such as a game machine, a smart phone, a tablet, PC, viewpoint measurement, such as an infrared camera It can be applied to any electronic device simply by adding the unit 12.

以上、本発明の好ましい実施形態について詳述したが、本発明の技術的範囲は上記実施形態に記載の範囲には限定されないことは言うまでもない。上記実施形態に、多様な変更
又は改良を加えることが可能であることが当業者に明らかである。またその様な変更又は改良を加えた形態も本発明の技術的範囲に含まれ得ることが、特許請求の範囲の記載から明らかである。
As mentioned above, although preferred embodiment of this invention was explained in full detail, it cannot be overemphasized that the technical scope of this invention is not limited to the range as described in the said embodiment. It will be apparent to those skilled in the art that various modifications or improvements can be added to the above embodiment. Further, it is apparent from the scope of the claims that the embodiments added with such changes or improvements can be included in the technical scope of the present invention.

10…表示装置(携帯情報端末)、11…制御部、12…視線計測部、13…表示部、14…システムバス   DESCRIPTION OF SYMBOLS 10 ... Display apparatus (portable information terminal), 11 ... Control part, 12 ... Gaze measurement part, 13 ... Display part, 14 ... System bus

Claims (8)

3D画面表示を行う表示部と、前記表示部の画面に対する視線位置を計測する視線計測部とを備えた表示装置であって、
アプリケーションを実行する制御部を更に備え、
前記制御部は、
前記視線計測部から出力される情報に基づき、前記画面の奥行き方向に対する視線移動を検出し、関連する画面を前記表示部に重ね合わせ表示して前記アプリケーションに対する入力を検知することを特徴とする表示装置。
A display device comprising: a display unit that performs 3D screen display; and a line-of-sight measurement unit that measures a line-of-sight position with respect to the screen of the display unit,
A control unit for executing the application;
The controller is
A display that detects gaze movement in the depth direction of the screen based on information output from the line-of-sight measurement unit and detects an input to the application by overlaying related screens on the display unit. apparatus.
前記制御部は、
前記奥行き方向へしきい値以上の移動を検出した場合に、前記アプリケーションに対する入力の検知を確定することを特徴とする請求項1記載の表示装置。
The controller is
The display device according to claim 1, wherein detection of an input to the application is determined when movement of a threshold value or more in the depth direction is detected.
前記制御部は、
予め登録された情報に基づき、ユーザ毎に左目映像と右目映像間の距離を調整することにより焦点距離を変更制御することを特徴とする請求項1または2記載の表示装置。
The controller is
3. The display device according to claim 1, wherein the focal length is changed and controlled by adjusting a distance between the left-eye image and the right-eye image for each user based on information registered in advance.
前記制御部は、
前記視線が手前の画面にある場合、前記表示部の奥の画面をぼけた背景画像とし、視線を奥行き方向に移動すると、前記手前の画面を透明にして奥の画面をぼけた状態から正常表示に変更制御することを特徴とする請求項1〜3のいずれか1項記載の表示装置。
The controller is
When the line of sight is on the front screen, the back screen of the display unit is a blurred background image, and when the line of sight is moved in the depth direction, the front screen becomes transparent and the normal screen is displayed from the blurred state. The display device according to claim 1, wherein the change control is performed.
前記制御部は、
前記表示部に表示された奥の画面に視線を移動する際に、前記奥の画面の任意の位置に焦点を合わせたガイド映像を表示することを特徴とする請求項4記載の表示装置。
The controller is
5. The display device according to claim 4, wherein when a line of sight is moved to a back screen displayed on the display unit, a guide video focused on an arbitrary position on the back screen is displayed.
前記制御部は、
前記手前の画面で何も表示されていない任意の位置で、視線が奥行き方向に移動すると、キャンセル操作として認識することを特徴とする請求項1〜5のいずれか1項記載の表示装置。
The controller is
The display device according to claim 1, wherein when the line of sight moves in the depth direction at an arbitrary position where nothing is displayed on the front screen, the display device is recognized as a cancel operation.
前記制御部は、
前記奥行き方向への視点の移動に伴い前記表示部の画面に表示されるコンテンツを追従させて拡大縮小表示を行うことを特徴とする請求項1記載の表示装置。
The controller is
The display device according to claim 1, wherein enlargement / reduction display is performed by following the content displayed on the screen of the display unit as the viewpoint moves in the depth direction.
3D画面表示を行う表示部と、前記表示部の画面に対する視線位置を計測する視線計測部と、アプリケーションを実行する制御部とを備えた表示装置において、前記アプリケーションに対する入力検知を行う画面制御方法であって、
前記視線計測部から出力される情報に基づき、前記画面の奥行き方向に対する視線移動を検出するステップと、
前記視線移動に関連する画面を前記表示部に重ね合わせ表示して前記アプリケーションに対する入力を検知するステップと、
を有することを特徴とする表示装置における画面制御方法。
In a display device including a display unit that performs 3D screen display, a line-of-sight measurement unit that measures a line-of-sight position with respect to the screen of the display unit, and a control unit that executes an application, There,
Detecting line-of-sight movement in the depth direction of the screen based on information output from the line-of-sight measurement unit;
Detecting an input to the application by overlaying a screen related to the line-of-sight movement on the display unit;
A screen control method for a display device, comprising:
JP2013067169A 2013-03-27 2013-03-27 Display device and screen control method in the same device Active JP6081839B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013067169A JP6081839B2 (en) 2013-03-27 2013-03-27 Display device and screen control method in the same device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013067169A JP6081839B2 (en) 2013-03-27 2013-03-27 Display device and screen control method in the same device

Publications (2)

Publication Number Publication Date
JP2014191629A true JP2014191629A (en) 2014-10-06
JP6081839B2 JP6081839B2 (en) 2017-02-15

Family

ID=51837811

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013067169A Active JP6081839B2 (en) 2013-03-27 2013-03-27 Display device and screen control method in the same device

Country Status (1)

Country Link
JP (1) JP6081839B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017182500A (en) * 2016-03-30 2017-10-05 富士通株式会社 Input device, input program, and input method
JP2019514092A (en) * 2016-02-26 2019-05-30 ザ コカ・コーラ カンパニーThe Coca‐Cola Company Touchless control graphical user interface
US10540009B2 (en) 2015-02-25 2020-01-21 Kyocera Corporation Wearable device, control method, and control program

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2020100422A1 (en) 2018-11-12 2021-10-14 ソニーグループ株式会社 Display device, display control method, and program

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09102052A (en) * 1995-10-06 1997-04-15 Olympus Optical Co Ltd Steroscopic picture display device
JP2006516772A (en) * 2003-01-23 2006-07-06 テングシェ,ヴィシュワス,ブイ. Gaze tracking system and method
JP2007110360A (en) * 2005-10-13 2007-04-26 Ntt Comware Corp Stereoscopic image processing apparatus and program
WO2011114564A1 (en) * 2010-03-18 2011-09-22 富士フイルム株式会社 Three dimensional image display device and method of controlling thereof
JP2012099956A (en) * 2010-10-29 2012-05-24 Toshiba Corp Video reproduction device and video reproduction method

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09102052A (en) * 1995-10-06 1997-04-15 Olympus Optical Co Ltd Steroscopic picture display device
JP2006516772A (en) * 2003-01-23 2006-07-06 テングシェ,ヴィシュワス,ブイ. Gaze tracking system and method
JP2007110360A (en) * 2005-10-13 2007-04-26 Ntt Comware Corp Stereoscopic image processing apparatus and program
WO2011114564A1 (en) * 2010-03-18 2011-09-22 富士フイルム株式会社 Three dimensional image display device and method of controlling thereof
JP2012099956A (en) * 2010-10-29 2012-05-24 Toshiba Corp Video reproduction device and video reproduction method

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
JPN6016037909; 工藤慎也 他: '開散性眼球運動による奥行き方向への視線入力手法' 情報処理学会研究報告 音声言語情報処理 Vol.2013-SLP-95 No.6, 20130125, 第1-4頁, 情報処理学会 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10540009B2 (en) 2015-02-25 2020-01-21 Kyocera Corporation Wearable device, control method, and control program
JP2019514092A (en) * 2016-02-26 2019-05-30 ザ コカ・コーラ カンパニーThe Coca‐Cola Company Touchless control graphical user interface
JP2017182500A (en) * 2016-03-30 2017-10-05 富士通株式会社 Input device, input program, and input method

Also Published As

Publication number Publication date
JP6081839B2 (en) 2017-02-15

Similar Documents

Publication Publication Date Title
KR102417968B1 (en) Gaze-based user interaction
JP6508280B2 (en) Control device, detection device, display system, electronic device, and program
TWI471820B (en) Mobile terminal and operation control method thereof
JP2019175510A (en) Head mounted display, information processing method, and program
KR102459238B1 (en) Display physical input devices as virtual objects
US20210303107A1 (en) Devices, methods, and graphical user interfaces for gaze-based navigation
JP2013196156A (en) Information processing apparatus, information processing method and program
JP6081839B2 (en) Display device and screen control method in the same device
US20230333646A1 (en) Methods for navigating user interfaces
JP2016126687A (en) Head-mounted display, operation reception method, and operation reception program
US20230106627A1 (en) Devices, Methods, And Graphical User Interfaces for Interacting with Three-Dimensional Environments
US20120120063A1 (en) Image processing device, image processing method, and program
JP2006323492A (en) Controller and program
US9674501B2 (en) Terminal for increasing visual comfort sensation of 3D object and control method thereof
US20240103614A1 (en) Devices, methods, for interacting with graphical user interfaces
WO2024064388A1 (en) Devices, methods, for interacting with graphical user interfaces
WO2024064036A1 (en) User interfaces for managing sharing of content in three-dimensional environments
CN117940880A (en) Device, method and graphical user interface for interacting with media and three-dimensional environments
WO2023049111A1 (en) Devices, methods, and graphical user interfaces for interacting with three-dimensional environments

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20151215

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160930

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20161004

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161118

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20161220

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170119

R150 Certificate of patent or registration of utility model

Ref document number: 6081839

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150