JP2020085914A - Information terminal with camera and program - Google Patents

Information terminal with camera and program Download PDF

Info

Publication number
JP2020085914A
JP2020085914A JP2018214220A JP2018214220A JP2020085914A JP 2020085914 A JP2020085914 A JP 2020085914A JP 2018214220 A JP2018214220 A JP 2018214220A JP 2018214220 A JP2018214220 A JP 2018214220A JP 2020085914 A JP2020085914 A JP 2020085914A
Authority
JP
Japan
Prior art keywords
user
camera
view camera
line
display unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018214220A
Other languages
Japanese (ja)
Other versions
JP2020085914A5 (en
JP7157444B2 (en
Inventor
篤幸 金田
Atsuyuki Kaneda
篤幸 金田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Gazo Co Ltd
Original Assignee
Gazo Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Gazo Co Ltd filed Critical Gazo Co Ltd
Priority to JP2018214220A priority Critical patent/JP7157444B2/en
Publication of JP2020085914A publication Critical patent/JP2020085914A/en
Publication of JP2020085914A5 publication Critical patent/JP2020085914A5/ja
Application granted granted Critical
Publication of JP7157444B2 publication Critical patent/JP7157444B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Lens Barrels (AREA)
  • Position Input By Displaying (AREA)
  • Controls And Circuits For Display Device (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

To provide an information terminal with a camera that performs a zoom operation with an icon gazed at after a prescribed action of an eye ball and head.SOLUTION: An information terminal with a camera has: a field-of-view camera (11) that is mounted to a face side of a user; a posture change detection unit (13) that detects a posture change of the field-of-view camera (11); an eyeball camera (14) that photographs an eyeball of the user; a line-of sight detection unit (15) that detects a line of sight from an image of the eyeball camera (14); and a display part (16) that can be viewed by the user. When a direction of the posture change of the field-of-view camera (11) the posture change detection unit (13) and line-of sight detection unit (15) detect respectively, and a direction of a line-of-sight change are a cancelling-out direction (STP4), a gaze icon (IC) is displayed around a center of the display part (16) (STP5), and a zoom rate of the field-of-view camera (11) is controlled so as to be large or small while a viewpoint of the user stays at the gaze icon (IC) (STP11).SELECTED DRAWING: Figure 8

Description

本発明は、頭部に装着するカメラ付き情報端末及プログラムに関するものである。 The present invention relates to a camera-equipped information terminal mounted on a head and a program.

顔を含めた頭部の向きや視線の向きに基づいて機器を制御するユーザインタフェースが知られている。例えば特許文献1には、アイコン(同文献にはポインタと記載)が表示されるディスプレイ(11)を備えたヘッドマウントディスプレイ(1)が記載されている。これは、使用者の視線の向きを検出するカメラ(12)と、使用者の頭部の動きを検出する加速度センサ(13)とを備えた頭部装着型装置である。この装置は、使用者がアイコンに視点を置いた状態で頭部を上下や左右に振ることで、パソコン操作でいうところのクリックや、ドラッグが可能なポインティングシステムである。使用者の眼球とディスプレイ(1)との相対的な位置は不変なので、ディスプレイ(1)内のアイコンの位置が変わらなければ、頭部を振る際に眼球は回転運動しない。つまり視線変化はない。使用者がアイコンから視点を外すと、頭部を振ってもクリック動作とみなされず、無意識に頭部を振る動作に対しては誤作動が防止されている。 2. Description of the Related Art There is known a user interface that controls a device based on the direction of the head including the face and the direction of the line of sight. For example, Patent Document 1 describes a head mounted display (1) including a display (11) on which an icon (described as a pointer in the document) is displayed. This is a head-mounted device that includes a camera (12) that detects the direction of the line of sight of the user and an acceleration sensor (13) that detects the movement of the head of the user. This device is a pointing system that allows the user to swing or move his/her head up/down or left/right while keeping his/her eyes on the icon, so that the user can click or drag the mouse to operate the computer. Since the relative position of the user's eyeball and the display (1) does not change, the eyeball does not rotate when the head is shaken unless the position of the icon in the display (1) changes. That is, there is no change in the line of sight. When the user removes the viewpoint from the icon, even if the user shakes his/her head, it is not regarded as a click motion, and an erroneous operation is prevented with respect to the motion of unconsciously shaking the head.

また、特許文献2には、頭部装着型装置ではないものの、使用者が、机上に置かれたディスプレイの表示部(20)のアイコン(30)に視点(同文献では視線と記載)を滞留させた状態で頭部を前後に倒したり戻したりする動作(同文献ではうなずきジェスチャと記載)をすることで、アイコン(30)を選択したと判断するジェスチャ認識装置が記載されている。これは表示部(20)の上部に備えられたカメラ10で使用者の視線と頭部前面の顔の向きを検出するものである。同装置では、使用者の頭部と表示部(20)との位置関係は相対的に固定されてはいない。したがって、使用者がアイコン(30)に視点を滞留させた状態でうなずきジェスチャをすれば、使用者の眼球は回転運動をし、頭部の向きと視線の向きは不一致な向きへ変化することとなる。このように、視線の向きと顔の向きの不一致動作をもって意思表示をする方法は特許文献3にも記載されている。 Further, in Patent Document 2, although not a head-mounted device, a user retains a viewpoint (described as a line of sight in the document) on an icon (30) of a display unit (20) of a display placed on a desk. There is described a gesture recognition device that judges that the icon (30) is selected by performing an operation of tilting the head back and forth while moving the head (described as a nod gesture). This is to detect the line of sight of the user and the direction of the face in front of the head with the camera 10 provided on the upper portion of the display unit (20). In this device, the positional relationship between the user's head and the display unit (20) is not relatively fixed. Therefore, if the user makes a nod gesture with the viewpoint retained on the icon (30), the user's eyeballs rotate, and the direction of the head and the direction of the line of sight change to directions that do not match. Become. As described above, Patent Document 3 also describes a method of indicating an intention by a disagreement operation between the direction of the line of sight and the direction of the face.

また、特許文献4には、使用者がファインダ画面(102)上の所定のマーク注視することによりカメラのズーム動作を制御する撮像装置が記載されている。これは、ファインダ画面(102)の隅にズーム動作のワイド側とテレ側とを示す指標(201、202)が表示されていて、使用者が所望のズーム率指標の表示箇所を所定時間注視すると、同撮像装置のズーム動作が行われるものである。ファインダ画面(102)隅という、通常注視しない場所にズーム率指標というマークを設けてこれをユーザインタフェースに用いることにより、使用者の意図しない誤作動を防止している。 Further, Patent Document 4 describes an imaging device that controls a zoom operation of a camera by a user gazing a predetermined mark on a finder screen (102). This is because the indexes (201, 202) indicating the wide side and the tele side of the zoom operation are displayed in the corners of the finder screen (102), and when the user looks at the display portion of the desired zoom ratio index for a predetermined time. The zoom operation of the imaging device is performed. A mark called a zoom ratio index is provided in a corner of the finder screen (102) where the user does not normally look, and this mark is used for the user interface to prevent a malfunction that is not intended by the user.

また、特許文献5には、タッチパネル式の操作表示部(106)において、ユーザの視線が向いている部分の表示の拡大処理を行うステップ(103)を有する画像形成装置が記載されている。これは、表示部(106)付近にユーザの指が検出された場合には拡大表示処理を行わない構成をとっている。このようにして、ユーザが指タッチ操作しているときに、不用意に拡大表示されて操作性が損なわれることを防止している。 In addition, Patent Document 5 describes an image forming apparatus including a step (103) of enlarging the display of a portion of the touch-panel operation display unit (106) where the user's line of sight is facing. This is configured such that the enlarged display process is not performed when the user's finger is detected near the display unit (106). In this way, it is possible to prevent the operability from being undesirably enlarged and displayed when the user is performing a finger touch operation.

また、特許文献6には、複数の決められたポイントを注視することによって画面を拡大表示するナビゲーション装置が記載されている。このように、複数のポイントを注視したときにのみ画面を拡大表示することとして、使用者の意図に反して拡大表示されることを防止している。このように、視線や顔、頭部の動きに基づいて機器を操作する技術が公開されている。これらは使用者の意図に反して動作しないための構成を伴っている。 Further, Patent Document 6 describes a navigation device that enlarges and displays a screen by gazing at a plurality of predetermined points. In this way, the screen is enlarged and displayed only when the user looks at a plurality of points, thereby preventing the enlarged display against the user's intention. In this way, technology for operating the device based on the movement of the line of sight, face, and head has been disclosed. These are accompanied by a structure that does not operate contrary to the user's intention.

しかし、これらの構成を、頭部装着型のカメラのズーム操作に適用しようとすると次のような課題が生じる。例えば、特許文献1の構成を適用するならば、カメラのファインダ若しくはこれに相当する画面に表示されているアイコンを注視しながら、ある程度の加速度をもって頭部を上下又は左右に振らなければならない。頭部を振るとこれに装着されているカメラも振れてしまい撮影の対象物をうまくとらえることができないという課題が生じる。 However, when these configurations are applied to the zoom operation of the head-mounted camera, the following problems occur. For example, if the configuration of Patent Document 1 is applied, it is necessary to shake the head up and down or left and right with some acceleration while gazing at the viewfinder of the camera or the icon displayed on the screen corresponding thereto. When the head is shaken, the camera attached to the head also shakes, which causes a problem that the object to be photographed cannot be captured properly.

また、特許文献2及び特許文献3に記載の構成をとると、使用者の視点を撮影対象に置くと、頭部の向きは撮影対象から外れることとなる。頭部装着型カメラは頭部の向きと一致しているから、カメラも撮影対象から外れることとなり、使用者にとっては対象を画面にとらえながらのズーム操作が難しくなるという課題がある。 Further, with the configurations described in Patent Document 2 and Patent Document 3, when the user's viewpoint is placed on the subject to be photographed, the orientation of the head is out of the subject to be photographed. Since the head-mounted camera matches the orientation of the head, the camera is also removed from the shooting target, and there is a problem that it is difficult for the user to perform a zoom operation while holding the target on the screen.

ところで、カメラのファインダ若しくはこれに相当する画面の中心は、カメラの中心と一致していることが好ましい。このようにすると、使用者はカメラが撮影する画像の中心と範囲を把握しやすくなるからである。これを踏まえて特許文献4に記載の構成をカメラに適用すると、撮影対象を画面中心にとらえながらも、ズーム操作のために、画面隅にあるズーム用アイコンを注視しなければならないという不自然な動作を強いられる課題が生じる。これを避けるためにズーム用アイコンを画面中心付近に表示すると、そもそも使用者は高い頻度で画面中心付近を注視するので、使用者の意図に反してズーム動作する誤作動が起こりやすくなる課題を生じる。 By the way, it is preferable that the center of the viewfinder of the camera or the screen corresponding thereto coincides with the center of the camera. This is because the user can easily understand the center and range of the image captured by the camera. If the configuration described in Patent Document 4 is applied to the camera based on this, it is unnatural that the zoom icon at the corner of the screen must be watched for the zoom operation while the shooting target is captured in the center of the screen. There is a problem of being forced to move. If the zoom icon is displayed near the center of the screen in order to avoid this, the user often looks at the vicinity of the center of the screen with high frequency, which causes a problem that the malfunction of the zoom operation tends to occur against the user's intention. ..

また、特許文献5の構成を頭部装着型のカメラのズーム操作に適用するならば、眼球や頭部の動作に加えて、指などの手の動作も必要となり、両手のフリーを確保するというそもそものメリットを実現できないという課題が生じる。また、特許文献6の構成を同ズーム操作に適用するならば、画面内の複数のアイコンを順次注視していく必要があり、手続きが煩雑で時間がかかるという課題が生じる。 Further, if the configuration of Patent Document 5 is applied to a zoom operation of a head-mounted camera, in addition to the movements of the eyeball and the head, the movements of the hands such as fingers are required, and the freeness of both hands is ensured. In the first place, there is a problem that the original merit cannot be realized. Further, if the configuration of Patent Document 6 is applied to the same zoom operation, it is necessary to sequentially gaze at a plurality of icons on the screen, which causes a problem that the procedure is complicated and takes time.

特開2006−243784号公報JP, 2006-243784, A 特開2000−163196号公報JP, 2000-163196, A 特開2007−94619号公報JP, 2007-94619, A 特開平8−46846号公報JP-A-8-46846 特開2018−18437号公報JP, 2018-18437, A 特開2018−77105号公報JP, 2018-77105, A

そこで、本発明の目的は、誤作動を防止しながらも、眼球動作と頭部の動作による操作であって、撮影対象を注視しながらズーム操作可能なカメラ付き情報端末及びプログラムを提供することにある。 Therefore, an object of the present invention is to provide a camera-equipped information terminal and a program that are capable of zoom operation while gazing at a subject to be photographed, which is an operation by eye movements and head movements while preventing malfunction. is there.

上記課題を解決する実施形態として、使用者の顔側に装着されている視界カメラ(11)と、視界カメラ(11)の姿勢変化を検出する姿勢変化検出部(13)と、使用者の眼球を撮影する眼球カメラ(14)と、眼球カメラ(14)の画像から視線を検出する視線検出部(15)と、使用者に視認し得る表示部(16)と、を有するカメラ付き情報端末とすることができる。そして、姿勢変化検出部(13)と視線検出部(15)とがそれぞれ検出した視界カメラ(11)の姿勢変化の向きと、視線の変化の向きとが相殺する向きであるときに、表示部(16)の中心付近に、注視アイコン(IC)が表示され、その注視アイコン(IC)に使用者の視点が滞留しているあいだは視界カメラ(11)のズーム率が大きく又は小さく制御される。 As an embodiment for solving the above-mentioned problems, a view camera (11) mounted on the user's face side, a posture change detection unit (13) for detecting a posture change of the view camera (11), and an eyeball of the user. An eyeball camera (14) for photographing the camera, a line-of-sight detection unit (15) for detecting a line of sight from an image of the eyeball camera (14), and a display unit (16) visible to the user, and a camera-equipped information terminal. can do. Then, when the orientation change direction of the view camera (11) detected by the posture change detection section (13) and the sight line detection section (15) respectively cancel out the direction of the sight line change, the display section A gaze icon (IC) is displayed in the vicinity of the center of (16), and the zoom ratio of the view camera (11) is controlled to be large or small while the user's viewpoint is retained on the gaze icon (IC). ..

本発明の実施形態は、誤作動を防止しながらも、眼球動作と頭部の動作による操作であって、撮影対象を注視しながらズーム操作可能なカメラ付き情報端末及びプログラムを提供することができる。 Embodiments of the present invention can provide a camera-equipped information terminal and a program capable of performing zoom operations while gazing at an object to be photographed, which is an operation based on eye movements and head movements while preventing malfunction. ..

図1は本発明に基づく第1実施形態に係るカメラ付き情報端末の図である。FIG. 1 is a diagram of an information terminal with a camera according to the first embodiment of the present invention. 図2は本発明に基づく第1実施形態に係るカメラ付き情報端末の撮影系と表示系を説明する図である。FIG. 2 is a diagram for explaining a photographing system and a display system of the information terminal with camera according to the first embodiment of the present invention. 図3は本発明に基づく第1実施形態に係るカメラ付き情報端末の等価視界カメラと等価表示部とを表す図である。FIG. 3 is a diagram showing an equivalent view camera and an equivalent display unit of the information terminal with camera according to the first embodiment of the present invention. 図4は使用者の動作と表示部の表示との関係を説明する図である。FIG. 4 is a diagram for explaining the relationship between the operation of the user and the display on the display unit. 図5は注視アイコンを説明する図である。FIG. 5 is a diagram illustrating a gaze icon. 図6は表示部の中心付近を表す図である。FIG. 6 is a diagram showing the vicinity of the center of the display unit. 図7は本発明に基づく第1実施形態に係るカメラ付き情報端末の構成を示すブロック図である。FIG. 7 is a block diagram showing the configuration of the camera-equipped information terminal according to the first embodiment of the present invention. 図8は本発明に基づく第1実施形態に係るカメラ付き情報端末の処理フローの図である。FIG. 8 is a process flow chart of the information terminal with camera according to the first embodiment of the present invention. 図9は使用者の視線が下向きに変化する動作を説明する図である。FIG. 9 is a diagram for explaining an operation in which the line of sight of the user changes downward. 図10はズーム率が小さくなる動作を表す図である。FIG. 10 is a diagram showing an operation in which the zoom ratio is reduced. 図11は本発明に基づく第2実施形態に係るカメラ付き情報端末の処理フローの図である。FIG. 11 is a diagram showing a processing flow of the camera-equipped information terminal according to the second embodiment of the present invention. 図12は眼球カメラ画像から視線を検出する方法を説明する図である。FIG. 12 is a diagram illustrating a method of detecting a line of sight from an eyeball camera image. 図13は第1実施形態及び第2実施形態に係る姿勢変化検出部の動作を説明する図である。FIG. 13 is a diagram for explaining the operation of the posture change detection unit according to the first embodiment and the second embodiment. 図14は本発明に基づく第3実施形態に係る情報システムの構成を示す図である。FIG. 14 is a diagram showing the configuration of the information system according to the third embodiment of the present invention. 図15は使用者のニュートラル視点と表示部中心及び視界カメラ中心の関係を表す図である(第4実施形態)。FIG. 15 is a diagram showing the relationship between the neutral viewpoint of the user and the center of the display unit and the center of the view camera (fourth embodiment).

〔第1実施形態 カメラ付き情報端末〕
図1を参照して、本発明に基づく第1実施形態に係るカメラ付き情報端末1を説明する。図1(A)は、使用者が、同カメラ付き情報端末1を装着した状態を表す図である。(A2)は使用者の右目側を示したものである。図1(B1)と(B2)とはそれぞれ、同カメラ付き情報端末1の一部を透明化して表した図である。図1に示すように、カメラ付き情報端末1の各構成物はフレーム1Fにより使用者の頭部に装着されている。そして、その右目側は右耳の手前まで覆う表示部カバー16Aで覆われている。表示部カバー16Aの内側には、使用者の前景を撮影する視界カメラ11と、使用者の右目を撮影する眼球カメラ14と、視界カメラ11が撮影取得する画像を使用者に視認し得るように表示する表示部16とが設けられている。また、図1(B1)において、表示部カバー16Aは透明に表されている。この内部には、表示や撮影に必要なプリズムやミラーが含まれているが、詳細は図2を参照して行うので、ここでは省略する。図1(A2)に記載されている視界カメラ11も外観上は視認し得ない状態で装着されている。
[First embodiment Information terminal with camera]
With reference to FIG. 1, a camera-equipped information terminal 1 according to a first embodiment of the present invention will be described. FIG. 1A is a diagram showing a state in which the user wears the camera-equipped information terminal 1. (A2) shows the right eye side of the user. FIGS. 1B1 and 1B2 are views showing a part of the information terminal 1 with the camera in a transparent manner. As shown in FIG. 1, each component of the camera-equipped information terminal 1 is mounted on the user's head by a frame 1F. The right eye side is covered with a display unit cover 16A that covers the front of the right ear. Inside the display cover 16A, a visual field camera 11 that captures the foreground of the user, an eyeball camera 14 that captures the right eye of the user, and an image captured and acquired by the visual field camera 11 are visible to the user. A display unit 16 for displaying is provided. Further, in FIG. 1(B1), the display cover 16A is transparent. Inside this, a prism and a mirror necessary for display and photographing are included, but the details will be described with reference to FIG. The view camera 11 shown in FIG. 1(A2) is also mounted in a state in which it cannot be visually recognized.

フレーム1Fには、コントロールボックス2Aも装着されている。この中には、後で詳しく説明する演算器21と、通信部22と、メモリ23とが収められている。演算器21では、視界カメラ11の姿勢変化を検出する姿勢変化検出処理と、眼球カメラ14が取得する画像から使用者の視線を検出する視線検出処理とが行われる。 A control box 2A is also mounted on the frame 1F. An arithmetic unit 21, a communication unit 22, and a memory 23, which will be described later in detail, are housed therein. The computing unit 21 performs a posture change detection process of detecting a posture change of the view camera 11 and a line-of-sight detection process of detecting a user's line of sight from an image acquired by the eyeball camera 14.

〔撮影系と表示系〕
図2を参照して、カメラ付き情報端末1の撮影系と表示系とについて説明をする。光路LP1は撮像用プリズム16Cにより、視界カメラ11へ導かれて動画撮影される。撮影用プリズム16Cは略三角柱であり、図2では三角形として表されている。この三辺のうち2番目の長さの辺は全ての入射角に対して光を反射するミラーで構成されている。従って、使用者の前景を伝える光の光路LP1は右目R−Eyeには直接入らない。使用者の前景は、視界カメラ11で撮影されてほぼリアルタイムに表示部16に表示される。使用者はこの表示部16を通じて自らの前景を視認することができる。表示部16から発せられた光の光路LP2は、表示部カバー16Aの内壁と、ミラー16Bと、視認用プリズム16Dとによって、右目R−Eyeに導かれる。また、視認用プリズム16Dの面のうち、撮影用プリズム16Cに面している面は全ての入射角に対して光を反射するミラーで構成されている。このようにして、使用者の頭部に装着された視界カメラ11の取得画像が、同頭部に装着された表示部16を介して、同使用者に視認される。
[Shooting system and display system]
The photographing system and the display system of the camera-equipped information terminal 1 will be described with reference to FIG. The optical path LP1 is guided to the view camera 11 by the imaging prism 16C and a moving image is captured. The photographing prism 16C is a substantially triangular prism, and is shown as a triangle in FIG. The second side of the three sides is composed of a mirror that reflects light for all incident angles. Therefore, the optical path LP1 of the light transmitting the foreground of the user does not directly enter the right eye R-Eye. The foreground of the user is captured by the view camera 11 and displayed on the display unit 16 in almost real time. The user can visually recognize his/her foreground through the display unit 16. The optical path LP2 of the light emitted from the display unit 16 is guided to the right eye R-Eye by the inner wall of the display unit cover 16A, the mirror 16B, and the viewing prism 16D. Further, among the surfaces of the prism 16D for visual recognition, the surface facing the prism 16C for photographing is composed of a mirror that reflects light for all incident angles. In this way, the captured image of the view camera 11 mounted on the head of the user is visually recognized by the user via the display unit 16 mounted on the head.

〔等価視界カメラと等価表示部〕
図1と図2とで説明した第1実施形態のカメラ付き情報端末1では、視界カメラ11と表示部16とは表示部カバー16A内に組み込まれていて外観に表れていない。一方、図3(A)と(B)とに示すカメラ付き情報端末1は、視界カメラ11と表示部16とが外部に表れている。しかし、図1と図2とで説明したものと、図3に示すものとは、次の点で等価であることを説明する。
[Equivalent field of view camera and equivalent display section]
In the camera-equipped information terminal 1 according to the first embodiment described with reference to FIGS. 1 and 2, the view camera 11 and the display unit 16 are incorporated in the display unit cover 16A and are not visible. On the other hand, in the camera-equipped information terminal 1 shown in FIGS. 3A and 3B, the field-of-view camera 11 and the display unit 16 are shown outside. However, it will be explained that what has been described with reference to FIGS. 1 and 2 is equivalent to that shown in FIG. 3 in the following points.

まず、図1と図2によるカメラ付き情報端末1の視界カメラ11は、使用者頭部の前景を取得することができる。そして、使用者の頭部の姿勢の変化に伴って視界カメラ11の姿勢も変化する。この観点で、図3(A)と(B)とに示されている視界カメラ11と図1及び2の視界カメラ11とは等価である。また、図1及び2によるカメラ付き情報端末1の表示部16は視界カメラ11の取得画像を表示する。そして、使用者の頭部の姿勢が変化しても、表示部16と使用者の右目R−Eyeとの相対的な位置関係は不変である。この観点で、図3(A)と(B)とに示されている表示部16は図1及び2による表示部16と等価である。そこで、以後、図3に示される視界カメラ11と表示部16とに基づいて、説明をする。 First, the view camera 11 of the information terminal with camera 1 according to FIGS. 1 and 2 can acquire the foreground of the user's head. Then, the posture of the view camera 11 also changes as the posture of the user's head changes. From this point of view, the field-of-view camera 11 shown in FIGS. 3A and 3B is equivalent to the field-of-view camera 11 of FIGS. Further, the display unit 16 of the camera-equipped information terminal 1 according to FIGS. 1 and 2 displays the acquired image of the view camera 11. Even if the posture of the user's head changes, the relative positional relationship between the display unit 16 and the user's right eye R-Eye remains unchanged. In this respect, the display 16 shown in FIGS. 3A and 3B is equivalent to the display 16 according to FIGS. 1 and 2. Therefore, hereinafter, description will be made based on the view camera 11 and the display unit 16 shown in FIG.

ところで、図3では表示部16が視界カメラ11の前方を遮っているように見える。しかし、以後、視界カメラ11にとっては、表示部16は視野に入らないものとして説明をする。それは、図1と図2によるカメラ付き情報端末1では、プリズムとミラーとによってお互いに他方を遮蔽する等の干渉は回避しているからである。すなわち、図1〜図3において、視界カメラ11は、使用者の鼻先の向く向きに向けて該使用者の顔側に装着されて使用者の前景を撮影できるようになっている。また、表示部16は、使用者が視認し得るように頭部に装着されて視界カメラ16の取得画像を表示するようになっている。また、前提として、視界カメラ11の取得する画像の中心は表示部16の中心に表示されるように調整されているものとする。そして、視界カメラ11がズーム動作したときは、取得画像の中心を基点として拡大あるいは縮小されるものとする。 By the way, in FIG. 3, the display unit 16 appears to block the front of the view camera 11. However, in the following description, it is assumed that the display unit 16 is out of the visual field of the view camera 11. This is because the camera-equipped information terminal 1 shown in FIGS. 1 and 2 avoids interference such as blocking the other from each other by the prism and the mirror. That is, in FIGS. 1 to 3, the field-of-view camera 11 is attached to the face side of the user so that the nose of the user faces, and is capable of photographing the foreground of the user. Further, the display unit 16 is mounted on the head so that the user can visually recognize it, and displays the acquired image of the view camera 16. Further, as a premise, it is assumed that the center of the image acquired by the view camera 11 is adjusted to be displayed at the center of the display unit 16. Then, when the view camera 11 performs a zoom operation, the center of the acquired image is used as a base point for enlargement or reduction.

〔使用者の動作〕
次に図4を参照して、同実施形態で重要な使用者の動作を説明する。図4は、使用者の動作に伴う、視界カメラ11が取得する画像の変化及び、表示部16に表示される画像の変化を説明する図である。図4(A1)、(B1)及び(C1)は使用者の動作を表す図である。一方、図4(A2)、(B2)及び(C2)はそれぞれ、表示部16に表示されている画像であって、視界カメラ11で撮影されている画像でもある。
[User action]
Next, with reference to FIG. 4, an important user operation in the embodiment will be described. FIG. 4 is a diagram for explaining a change in the image acquired by the view camera 11 and a change in the image displayed on the display unit 16 according to the operation of the user. 4(A1), (B1) and (C1) are diagrams showing the motion of the user. On the other hand, FIGS. 4(A2), (B2), and (C2) are images displayed on the display unit 16 and are also images captured by the view camera 11.

図4(A1)は、使用者が表示部16の中心に表示されている、小さな白い正方形に視線を向けて注視している状態である。つまり使用者の視線VDは表示部16の中心へ向かっている。また、上記したように、視界カメラ11で取得した画像の中心が表示部16の中心に表示されるように調整済みなので、視界カメラ11の向う向きCDは使用者の視線VDの方向と一致している。ここで、説明の都合上、使用者の視線VDが表示部16の表面と交差する点を視点VPと呼ぶこととする。 FIG. 4A1 shows a state in which the user is gazing at a small white square displayed in the center of the display unit 16 with his line of sight. That is, the line of sight VD of the user is toward the center of the display unit 16. Further, as described above, since the center of the image acquired by the view camera 11 has been adjusted to be displayed in the center of the display unit 16, the direction CD of the view camera 11 is the same as the direction of the line of sight VD of the user. ing. Here, for convenience of description, a point where the user's line of sight VD intersects the surface of the display unit 16 is referred to as a viewpoint VP.

図4(A2)はこのとき、表示部16に表示されている画像である。使用者は表示部16の中心にある小さな白い正方形を注視している。表示部16の画面に対して水平で、その中心を通る線分をカメララインCLとして表示している。また、視点VPを通り表示部16の画面に対して水平な線分を視点ラインVLとして表示している。この場合は、カメララインCLと視点ラインVLとは一致している。 FIG. 4(A2) is the image displayed on the display unit 16 at this time. The user is gazing at the small white square in the center of the display unit 16. A line segment that is horizontal to the screen of the display unit 16 and passes through the center is displayed as a camera line CL. Further, a line segment that passes through the viewpoint VP and is horizontal to the screen of the display unit 16 is displayed as a viewpoint line VL. In this case, the camera line CL and the viewpoint line VL match.

〔相殺動作〕
図4(B1)は、使用者が先の注視点である小さな正方形に視点を残しつつ、頭部の姿勢をやや下向きした状態を表している。これは、使用者が顎を少し引いた状態でもある。使用者の頭部に装着されている視界カメラ11と表示部16とは頭部と同じ角度だけ傾く。その結果、図4(B2)に示すように、表示部16に表示されている画像は、画面上やや上方へ移動する。このとき、視界カメラ11の向う向きCDと、使用者の視線VDの方向との間には差異が生じる。カメララインCLと視点ラインVLとの間にも差異が生じて、分離した2つの線分として表されている。ここで示した例のように、前景の特定の部分に視点VPを残しつつ頭部の姿勢を変化させると、視線は頭部の姿勢変化を相殺する向きに変化する。ここでは、このように頭部の姿勢変化と逆向きの視線変化を生じさせる動作を相殺動作ともいうこととする。
[Offset operation]
FIG. 4B1 shows a state in which the user leaves his/her viewpoint on a small square, which is the gazing point, and the posture of the head is slightly downward. This is also the state in which the user has pulled his chin a little. The field-of-view camera 11 mounted on the user's head and the display unit 16 are tilted at the same angle as the head. As a result, as shown in FIG. 4B2, the image displayed on the display unit 16 moves slightly upward on the screen. At this time, a difference occurs between the direction CD of the view camera 11 and the direction of the line of sight VD of the user. A difference also occurs between the camera line CL and the viewpoint line VL, which are represented as two separated line segments. As in the example shown here, when the posture of the head is changed while leaving the viewpoint VP in a specific portion of the foreground, the line of sight changes in a direction canceling the change in the posture of the head. Here, such an operation that causes a change in the line of sight in the direction opposite to the change in the posture of the head is also referred to as a canceling operation.

〔注視アイコン〕
図4(C1)と図4(B1)とは全く同じ姿勢である。使用者の動作に何ら変化はない。したがって、図4(C2)に表示されている画像と図4(B2)に表示されている画像とは一致する。しかし、図4(C2)においては、表示部16の中心に注視アイコンICが表示されている。
[Gaze icon]
4(C1) and FIG. 4(B1) have exactly the same posture. There is no change in the behavior of the user. Therefore, the image displayed in FIG. 4(C2) matches the image displayed in FIG. 4(B2). However, in FIG. 4C2, the gaze icon IC is displayed at the center of the display unit 16.

図5は表示部16に表示される注視アイコンICを説明する図である。図5(A1)は図4(C1)と頭部姿勢は同一の使用者である。ただし、視点VPは注視アイコンICに滞留している。その結果、視界カメラ11の向きCDと、使用者の視線VDの向きとは一致している。図5(A2)に示す表示部16の画面において、カメララインCLと視点ラインVLとは一致している。しかし、視点ラインVLは、最初に視点VPを滞留させていた場所である小さな白い正方形〔図4(A2)参照〕よりも下へずれている。 FIG. 5 is a diagram illustrating the gaze icon IC displayed on the display unit 16. FIG. 5(A1) is a user who has the same head posture as FIG. 4(C1). However, the viewpoint VP remains in the gazing icon IC. As a result, the orientation CD of the view camera 11 and the orientation of the user's line of sight VD match. On the screen of the display unit 16 shown in FIG. 5(A2), the camera line CL and the viewpoint line VL coincide. However, the viewpoint line VL is displaced downward from the small white square where the viewpoint VP was initially retained (see FIG. 4(A2)).

ここで、注視アイコンICに視点VPを滞留させつつも、同視点VPを最初に滞留していた小さな白い正方形に合わせることは簡単である。注視アイコンICへの視点滞留を維持しながら顎をやや突き出せばよい。この動作を実施した直後の様子が図5(B1)に示されている。この動作により、図5(B2)に示すように、表示部16の画像はやや下へ移動し、カメララインCLと視点ラインVL及び注視アイコンICとが、上記小さな白い正方形に重なるようになる。この時の使用者の姿勢は、図4(A1)と一致している。図4(A1)から、(B1)、(C1)、更に図5(A1)を経て、(B1)までの一連の動作は、通常、使用者が無意識にやる動作ではない。意識的でなければ行わない動作である。これは不自然な動作ではあるが、図4(C2)から図5(A2)及び(B2)までに注視アイコンICが表示部16に表示されることにより、簡単に行える動作となっている。そして、図5(C)と(D)とは、表示部16の中心、すなわち、注視アイコンICを中心として徐々にズーム率が大きくなって表示されていることを示している。 Here, while keeping the viewpoint VP in the gaze icon IC, it is easy to match the viewpoint VP with the small white square that was initially retained. The jaw may be slightly protruded while maintaining the retention of the viewpoint on the gaze icon IC. The state immediately after the execution of this operation is shown in FIG. 5(B1). As a result of this operation, as shown in FIG. 5B2, the image on the display unit 16 moves slightly downward, and the camera line CL, the viewpoint line VL, and the gaze icon IC overlap with the small white square. The posture of the user at this time coincides with that in FIG. 4(A1). The sequence of operations from FIG. 4(A1) to (B1), (C1), and further through FIG. 5(A1) to (B1) is not usually an operation unconsciously performed by the user. This is an action that is not performed unless it is conscious. Although this is an unnatural operation, the operation can be easily performed by displaying the gaze icon IC on the display unit 16 from FIGS. 4C2 to 5A2 and 5B2. Then, FIGS. 5C and 5D show that the zoom ratio is gradually increased and displayed with the center of the display unit 16, that is, the gaze icon IC as the center.

注視アイコンICは表示部16の中心に表示されることを原則とする。しかし、これに限るものではなく、表示部16の中心から広がりを持っていてもよい。例えば、図6(A)に示すように、表示部16の中心からある程度の広がりのある領域である。これを中心部領域161と称し、この領域内に注視アイコンICが表示される。分かりやすくするために中心部領域161は大きめに示している。図6(B)に示すように、使用者が表示部16の中心であるDS0を注視している状態から上方へ視線を2度隔てた視線をVDPとし、下方へ視線を2度隔てた視線をVDMとする。このときに、視線VDPと表示部16との交点と、視線VDMと表示部16との交点で規定する範囲内が中心部領域161である。表示部16の水平方向の範囲は、表示部16の中心DS0から左方へ視線を2度傾けた範囲と、右方へ視線を2度傾けた範囲とで定められる。この範囲を単に、表示部16の中心から視野角プラスマイナス2度の範囲内と表現することとする。視野角プラスマイナス2度の範囲内である中心部領域161に注視アイコンICが、視界カメラ11の取得画像に重ねて表示されるのでもよい。 In principle, the gaze icon IC is displayed in the center of the display unit 16. However, the present invention is not limited to this, and the display unit 16 may have a spread from the center. For example, as shown in FIG. 6(A), it is a region that extends from the center of the display unit 16 to some extent. This is called a central area 161 and the gaze icon IC is displayed in this area. The central region 161 is shown in a larger size for clarity. As shown in FIG. 6(B), the line of sight at which the user gazes at DS0, which is the center of the display unit 16, is defined as VDP, and the line of sight at which the line of sight is separated by 2 degrees is defined as VDP. Is VDM. At this time, the central area 161 is within the range defined by the intersection of the line of sight VDP and the display unit 16 and the intersection of the line of sight VDM and the display unit 16. The horizontal range of the display unit 16 is defined by a range in which the line of sight is tilted 2 degrees to the left and a range in which the line of sight is tilted 2 degrees to the right from the center DS0 of the display unit 16. This range is simply expressed as a range of the viewing angle plus or minus 2 degrees from the center of the display unit 16. The gaze icon IC may be displayed in an overlapping manner on the acquired image of the view camera 11 in the central region 161 within the range of the viewing angle plus or minus 2 degrees.

〔構成ブロック図〕
次に図7を参照して、第1実施形態の構成をブロック図で説明する。第1実施形態に係るカメラ付き情報端末1は、視界カメラ11と、眼球カメラ14と、表示部16と、演算器21と、メモリ23と、通信部22とを有している。演算器21は、姿勢変化検出部13と、ズーム制御部12と視線検出部15と、表示制御部17とを電子回路として有していてもよい。若しくは、同等の処理を実行するプログラムに基づく処理により実現されていてもよい。同プログラムは演算器21内に組み込まれていてもよいし、メモリ23内に展開されていてもよい。演算器21は視界カメラ11と、眼球カメラ14と、表示部16とメモリ23と、通信部22とを制御し、これらの機器を含めて第1実施形態に係るカメラ付き情報端末1を構成している。
[Structure block diagram]
Next, with reference to FIG. 7, the configuration of the first embodiment will be described with a block diagram. The camera-equipped information terminal 1 according to the first embodiment includes a field-of-view camera 11, an eyeball camera 14, a display unit 16, a computing unit 21, a memory 23, and a communication unit 22. The calculator 21 may include the posture change detection unit 13, the zoom control unit 12, the line-of-sight detection unit 15, and the display control unit 17 as electronic circuits. Alternatively, it may be realized by a process based on a program that executes an equivalent process. The program may be incorporated in the arithmetic unit 21 or may be expanded in the memory 23. The computing unit 21 controls the view camera 11, the eyeball camera 14, the display unit 16, the memory 23, and the communication unit 22, and configures the camera-equipped information terminal 1 according to the first embodiment including these devices. ing.

たとえば、演算器21は、ズーム制御部12又はこれに該当するプログラムにより、視界カメラ11のズーム機能を制御し、視界カメラ11で取得する画像を拡大したり縮小したりする。この画像は、表示制御部17の制御により表示部16に表示される。また、この画像をメモリ23に保存したり、通信部22を介して他の機器に送信したりできるようにしてもよい。また、姿勢変化検出部13は、視界カメラ11の画像の変化から視界カメラ11の姿勢変化を検出することができる。検出方法は後記する。視界カメラ11の姿勢変化とは、同カメラ付き情報端末1の使用者の頭部の姿勢が変化することでもある。 For example, the computing unit 21 controls the zoom function of the view camera 11 by the zoom control unit 12 or a program corresponding thereto, and enlarges or reduces the image acquired by the view camera 11. This image is displayed on the display unit 16 under the control of the display control unit 17. Further, this image may be stored in the memory 23 or may be transmitted to another device via the communication unit 22. Further, the posture change detection unit 13 can detect the posture change of the view camera 11 from the change of the image of the view camera 11. The detection method will be described later. The change in posture of the view camera 11 also means that the posture of the head of the user of the information terminal 1 with the camera changes.

また、表示制御部17は上記機能のほかに、所定の条件を満たした場合に、表示部16の中心若しくは、中心部領域161に注視アイコンICを表示し、あるいは消去する制御を行う。視線検出部15は眼球カメラ14が取得する使用者の眼球画像を処理して使用者の視線を検出する。視線検出とは、視線の方向若しくは、視線が表示部16の画面である表面と交差する点を視点VPとしてその座標を検出することである。 In addition to the above functions, the display control unit 17 also performs control to display or erase the gaze icon IC in the center of the display unit 16 or in the central region 161 when a predetermined condition is satisfied. The line-of-sight detection unit 15 processes the eyeball image of the user acquired by the eyeball camera 14 to detect the line of sight of the user. The line-of-sight detection is to detect the direction of the line-of-sight or the coordinates where the line-of-sight intersects the surface of the screen of the display unit 16 as the viewpoint VP.

〔処理フロー〕
次に、図8を参照して、第1実施形態のカメラ付き情報端末1の処理フローを説明する。図8(A)は、図4と図5とを参照しながら説明した、使用者の動作を検出するための処理フローである。演算器21で実行することができる。使用者が同カメラ付き情報端末1を使用中、この処理は繰り返し実行されている。この処理は使用者の視線変化と、視界カメラ11の姿勢変化とを検出し、両変化の向きが相反する向きであること、すなわち相殺する変化である場合は、注視アイコンICを、表示部16の中心又は中心付近に表示する。そして、使用者がその注視アイコンICに視点VPを滞留すればその表示を維持し、視点VPの滞留が無ければ注視アイコンICの表示を消去するものである。
[Processing flow]
Next, a processing flow of the camera-equipped information terminal 1 of the first embodiment will be described with reference to FIG. FIG. 8A is a processing flow for detecting the motion of the user, which has been described with reference to FIGS. 4 and 5. It can be executed by the calculator 21. While the user is using the camera-equipped information terminal 1, this process is repeatedly executed. This processing detects a change in the line of sight of the user and a change in the posture of the view camera 11, and if the directions of both changes are opposite directions, that is, the changes are offset, the gaze icon IC is displayed on the display unit 16 Display at or near the center of. Then, if the user retains the viewpoint VP on the gaze icon IC, the display is maintained, and if the viewpoint VP is not retained, the display of the gaze icon IC is erased.

まず、演算器21は視界カメラ11の姿勢変化を検出し(ステップSTP1)、眼球カメラ14が取得する画像から使用者の視線を検出する(ステップSTP2)。ステップSTP1とステップSTP2とは何れを先に実行してもよい。次に条件1に基づいて分岐する。条件1は使用者の視点VPが中心部領域161外にあれば‘真’である。この中心付近からの視線変位の条件は、より大きく変位することを条件1としてもよい。しかし、ここでは以後、視点VPが中心部領域161外にあることを「視線変化」とも表現する。通常、使用者の視点VPは、中心部領域161内にあり、使用者の何らかの動作に伴って、視点VPが同中心部領域161から外れるからである。‘真’でない場合、すなわち‘偽’の場合は処理を終了し、‘真’の場合は続く処理に分岐する(ステップSTP3)。 First, the calculator 21 detects a posture change of the view camera 11 (step STP1), and detects a user's line of sight from an image acquired by the eyeball camera 14 (step STP2). Either step STP1 or step STP2 may be executed first. Next, the process branches based on the condition 1. Condition 1 is'true' if the user's viewpoint VP is outside the central area 161. The condition of the line-of-sight displacement from the vicinity of the center may be that the displacement is larger than the condition 1. However, hereinafter, the fact that the viewpoint VP is outside the central region 161 is also referred to as a “line-of-sight change”. This is because the viewpoint VP of the user is usually inside the central area 161 and the viewpoint VP deviates from the central area 161 according to some movement of the user. If it is not'true', that is, if it is'false', the process is terminated, and if it is'true', the process branches to the subsequent process (step STP3).

続いて、条件2の判断をする。条件2は視線の変化、すなわち、視点VPが中心部領域161から外れている向きと、視界カメラ11の姿勢変化すなわち使用者頭部の姿勢変化の向きとの比較に基づく判断である。先の図4(B1)と(C1)では、視点VPは中心部領域161から上向きに外れている。一方使用者が頭部を前に倒すことにより、頭部装着の視界カメラ11は下向きに姿勢変化している。このような場合は、視線変化はカメラの姿勢変化を相殺する向きなので、条件2の判断は‘真’である。カメラ姿勢変化が検出されなかったり、カメラ姿勢変化の向きと視線変化の向きが反対向きでなかったりする場合は相殺ではなく、‘偽’と判断される。条件2の判断に基づいて、‘偽’であれば処理を終了し、‘真’であれば続く処理へ分岐する(ステップSTP4)。 Then, the condition 2 is judged. The condition 2 is a judgment based on a comparison between the change of the line of sight, that is, the direction in which the viewpoint VP deviates from the central area 161 and the direction of the posture change of the view camera 11, that is, the posture change of the user's head. In FIGS. 4B1 and 4C above, the viewpoint VP is deviated upward from the central region 161. On the other hand, when the user tilts his/her head forward, the posture of the field-of-view camera 11 is changed downward. In such a case, the change in the line of sight tends to cancel the change in the posture of the camera, and therefore the determination of Condition 2 is “true”. When the camera posture change is not detected or the direction of the camera posture change is not opposite to the direction of the line-of-sight change, it is determined as “false” instead of canceling. Based on the judgment of the condition 2, if "false", the process is ended, and if "true", the process branches to the subsequent process (step STP4).

続いて、注視アイコンICを中心部領域161に表示する。これは、視界カメラ11による取得画像に重ねて表示するものである。更に、後で説明を加える、注視フラグFGをセットする。そして、注視アイコンICの表示後は次の処理に進む前に所定時間だけ間を置く(ステップSTP5)。これは注視アイコンICが中心部領域161に表示され、使用者がそこに視点VPを滞留させる時間を確保するためである。この所定時間は1秒以内であることが望ましいが1秒を超える設定を除外するものではない。 Then, the gaze icon IC is displayed in the central area 161. This is displayed by being superimposed on the image acquired by the view camera 11. Further, a gaze flag FG, which will be described later, is set. Then, after displaying the gaze icon IC, a predetermined time is left before proceeding to the next process (step STP5). This is because the gaze icon IC is displayed in the central area 161 and the user secures the time for keeping the viewpoint VP there. It is desirable that this predetermined time is within 1 second, but the setting exceeding 1 second is not excluded.

次いで、再び視線検出をし(ステップSTP6)、条件3の判断をする。条件3の判断において、使用者の視点VPが注視アイコンICから外れていれば‘偽’、滞留していれば‘真’である。条件3の判断に基づいて分岐する(ステップSTP7)。‘偽’の場合は注視フラグFGをリセットし、注視アイコンICを消去して処理を終了する(ステップSTP9)。一方、‘真’の場合はステップSTP6の視線検出に戻る(ステップSTP7)。ここで、注視フラグFGとは、他の処理ルーチンでも参照可能な、オンとオフといった二値の参照用フラグである。 Next, the line of sight is detected again (step STP6), and the condition 3 is judged. In the determination of the condition 3, it is'false' if the user's viewpoint VP is out of the gaze icon IC, and'true' if it is stagnant. It branches based on the judgment of the condition 3 (step STP7). In the case of'false', the gazing flag FG is reset, the gazing icon IC is erased, and the processing is ended (step STP9). On the other hand, in the case of “true”, the process returns to the sight line detection in step STP6 (step STP7). Here, the gaze flag FG is a binary reference flag such as ON and OFF that can be referred to by other processing routines.

以上の処理を簡単に表すと、視線変化と、使用者の頭部に装着の視界カメラ11の動きが相殺する向きであるときは、中心部領域161に注視アイコンICが表示される。そして、使用者が視点VPをここに滞留させると、注視アイコンICの表示は維持されるが、視点VPをこれに滞留させないと注視アイコンICは消去される。また、注視アイコンICの表示が維持されている間は、注視フラグFGはセット状態を維持している。 To briefly describe the above processing, when the change in the line of sight and the movement of the view camera 11 mounted on the user's head are in a direction canceling each other, the gaze icon IC is displayed in the central area 161. Then, when the user retains the viewpoint VP here, the display of the gaze icon IC is maintained, but unless the viewpoint VP is retained therein, the gaze icon IC is erased. Further, while the display of the gaze icon IC is maintained, the gaze flag FG remains set.

ここで、演算器21はマルチスレッドで動作する演算器である。すなわち、複数の処理ルーチンが並行して実行される。演算器21の構成はシングルプロセッサかマルチプロセッサのいずれでもよい。シングルプロセッサの場合は、時分割で複数の処理ルーチンを実施し、見かけ上並行して実施しているように見える。マルチプロセッサの場合は、複数のプロセッサが共通のメモリをアクセスし、メモリアクセスの競合は適切の調整されているものとする。 Here, the computing unit 21 is a computing unit that operates in a multithread. That is, a plurality of processing routines are executed in parallel. The arithmetic unit 21 may be either a single processor or a multiprocessor. In the case of a single processor, a plurality of processing routines are executed in a time-sharing manner, and apparently they are executed in parallel. In the case of a multiprocessor, it is assumed that a plurality of processors access a common memory, and the memory access contention is appropriately adjusted.

図8(B)に示す処理は、(A)を参照して説明した処理と並行して行われる。さらに、先に説明した処理で出力される注視フラグFGを参照することができる。ここではまず条件4の判断をする。条件4において、注視フラグFGがセットされていれば‘真’、リセットされていれば‘偽’である。‘偽’であれば処理を終了し、‘真’であれば続く処理へ分岐する(ステップSTP10)。次いで、視界カメラ11のズーム動作を、ズーム制御部12を介して行う(ステップSTP11)。そして、再度、条件4の判断をする(ステップSTP10)。この処理を実行することにより、注視フラグFGがセットされている間、すなわち、中心部領域161に注視アイコンICが表示されている間は、視界カメラ11のズーム動作が継続される。 The process shown in FIG. 8B is performed in parallel with the process described with reference to FIG. Further, it is possible to refer to the gaze flag FG output by the processing described above. Here, the condition 4 is first determined. In Condition 4, if the gaze flag FG is set, it is'true', and if it is reset, it is'false'. If it is'false', the process is terminated, and if it is'true', the process branches to the subsequent process (step STP10). Next, the zoom operation of the view camera 11 is performed via the zoom control unit 12 (step STP11). Then, the condition 4 is judged again (step STP10). By executing this process, the zoom operation of the view camera 11 is continued while the gaze flag FG is set, that is, while the gaze icon IC is displayed in the central area 161.

以上、説明した処理フローにより、第1実施形態に係るカメラ付き情報端末の使用者は、頭部と眼球の動作のみで視界カメラ11のズーム操作を行うことができる。表示部16の中心付近である中心部領域161に表示されている注視アイコンICに視点VPを滞留させ続ければ、注視フラグFGのセット状態が続き視界カメラ11のズーム動作を継続させることができる。また、中心部領域161に注視アイコンICが表示されている場合において、視VP点が注視アイコンICから外れていることが、視線検出部15によって検出されると、ステップSTP9にて注視アイコンICは消去され、同時に注視フラグFGもリセットされる。その結果、図8(B)に示されるカメラズーム動作も終了する。 By the processing flow described above, the user of the camera-equipped information terminal according to the first embodiment can perform the zoom operation of the view camera 11 only by the movements of the head and eyes. If the viewpoint VP continues to stay in the gaze icon IC displayed in the central area 161 near the center of the display unit 16, the set state of the gaze flag FG continues and the zoom operation of the view camera 11 can be continued. Further, in the case where the gaze icon IC is displayed in the central area 161, when the gaze detection unit 15 detects that the visual VP point is out of the gaze icon IC, the gaze icon IC is displayed in step STP9. It is erased, and at the same time, the gaze flag FG is also reset. As a result, the camera zoom operation shown in FIG. 8B also ends.

使用者の顎引き動作については既に図4と図5とを参照して説明した。顎引き動作に伴って、頭部前面の顔面は下向きに傾く一方で、視線は上方へ変化し、両者は相殺するように相反する向きに変化していた。これと対照的な動作は、使用者による顎突出し動作である。図9を参照してこれを説明する。図9(A1)は通常の自然な状態であって、顔向きと視線方向は一致している。頭部前面に装着されている視界カメラ11の方向CDと、表示部16の中心付近に視点VPを定めている使用者の視線方向CDとは一致している。図9(A2)は視界カメラ11が取得している画像であり、表示部16に表示されている画像でもある。この画像において、カメララインCLと、視点ラインVLとは、表示部16の中心付近で一致している。使用者は表示部16の中心付近に表されている小さな白い正方形を注視している。 The jaw pulling operation of the user has already been described with reference to FIGS. 4 and 5. With the jaw-pulling movement, the face on the front of the head tilted downward, while the line of sight changed upward, and the two changed in opposite directions to cancel each other. In contrast to this, the jaw-projecting motion by the user. This will be described with reference to FIG. FIG. 9A1 shows a normal natural state, in which the face direction and the line-of-sight direction match. The direction CD of the view camera 11 mounted on the front surface of the head and the line-of-sight direction CD of the user who defines the viewpoint VP near the center of the display unit 16 match. FIG. 9A2 is an image acquired by the view camera 11, and is also an image displayed on the display unit 16. In this image, the camera line CL and the viewpoint line VL coincide near the center of the display unit 16. The user is gazing at a small white square displayed near the center of the display unit 16.

図9(B1)は、使用者が、表示部16の中心付近に表されている小さな白い正方形への注視を維持しながら顎を突き出し、その結果、顔面がやや上を向いた状態を表している。この時視界カメラ11の姿勢は上方へ姿勢変化し、視点VPは下方へ変化する。このときに視界カメラ11が取得して表示部16に表示している画像は(B2)に示されている。(A2)の画像と比較すると、やや下方へ移動している。勿論、カメララインCLは表示部16の中心に位置し続ける。一方で視点ラインVLは小さな白い正方形と共に下方へ移動している。この時は、視界カメラ11の姿勢変化の向きと使用者の視線変化の向きとが相反し、相殺する向きなので、表示部16の中心部領域161に注視アイコンICが表示される〔図9(C2)〕。 FIG. 9(B1) shows a state in which the user protrudes his chin while keeping his eyes on the small white square displayed near the center of the display unit 16, and as a result, the face is slightly upward. There is. At this time, the orientation of the view camera 11 changes upward, and the viewpoint VP changes downward. The image acquired by the view camera 11 and displayed on the display unit 16 at this time is shown in (B2). Compared with the image of (A2), it has moved slightly downward. Of course, the camera line CL continues to be located at the center of the display unit 16. On the other hand, the viewpoint line VL is moving downward together with the small white square. At this time, the orientation change direction of the view camera 11 and the orientation change direction of the user are opposite and cancel each other, so that the gaze icon IC is displayed in the central area 161 of the display unit 16 [FIG. C2)].

図10(A1)は、使用者が、視点VPの注視アイコンICヘの滞留を維持して、最初に注視していた小さな白い正方形を注視アイコンICへ重ねた様子を表している。(A2)はこの時の表示部16の表示画面である。図10(B)と(C)とは、表示部16の中心、すなわち注視アイコンICを中心にズーム率が小さくなるズーム動作がなされて、対象物が徐々に小さくなり、視野は徐々に拡大されていく様子を示している。 FIG. 10A1 illustrates a state in which the user keeps the viewpoint VP staying on the gaze icon IC and superimposes a small white square that was initially gazed on the gaze icon IC. (A2) is the display screen of the display unit 16 at this time. 10B and 10C, the zoom operation in which the zoom ratio is reduced is performed around the center of the display unit 16, that is, the gaze icon IC, the object is gradually reduced, and the field of view is gradually enlarged. It shows how it goes.

図4と図5で説明したのは、視線変化の向きが上方向で注視アイコンICが表示された例であり、図9と図10で説明したのは、視線変化の向きが下向で注視アイコンICが表示された例である。そのほか、視線変化が左右いずれかの向きに変化して、視界カメラ11がそれぞれこれを相殺する向きに姿勢変化する場合を作ることができる。次に説明する第2実施形態は、注視アイコンICが表示される動作において、視線変化が上方向であったときに視界カメラ11に拡大ズーム動作を起こさせ、視線変化が下方向であったときに視界カメラ11に縮小ズーム動作を起こさせるものである。ここで、拡大ズームとは対象物が大きくなる一方で視野範囲が狭くなるズーム動作とする。そして、縮小ズームとは対象物が小さくなる一方で視野範囲が広くなるズーム動作とする。 4 and 5 is an example in which the gaze icon IC is displayed with the direction of the line-of-sight change being upward, and the example illustrated in FIGS. 9 and 10 is that the line-of-sight change is directed downward. This is an example in which the icon IC is displayed. In addition, it is possible to create a case where the line-of-sight change changes to either the left or right direction and the view camera 11 changes its posture in a direction to offset the change. In the second embodiment described below, in the operation of displaying the gaze icon IC, when the sight line change is in the upward direction, the view camera 11 is caused to perform an enlarging zoom operation, and the sight line change is in the downward direction. The field-of-view camera 11 is caused to perform a reduction zoom operation. Here, the enlargement zoom is a zoom operation in which the object becomes larger but the field of view becomes narrower. Then, the reduction zoom is a zoom operation in which the object becomes smaller and the field of view becomes wider.

〔第2実施形態 カメラ付き情報端末〕
図11を参照して、本発明に基づく第2実施形態のカメラ付き情報端末2の処理フローを説明する。同カメラ付き情報端末2のブロック図で表される構成は第1実施形態のカメラ付き情報端末1と同様である。まず、図11(A)を参照する。ステップSTP1からステップSTP4までの処理は、第1実施形態のカメラ付き情報端末1と同様である。すなわち、視線変化の向きとカメラ姿勢変化の向きが相殺する関係になければ処理を終了する。相殺する関係にあれば、ステップSTP12に分岐する。
[Second embodiment Information terminal with camera]
The processing flow of the camera-equipped information terminal 2 according to the second embodiment of the present invention will be described with reference to FIG. The configuration represented by the block diagram of the camera-equipped information terminal 2 is the same as that of the camera-equipped information terminal 1 of the first embodiment. First, reference is made to FIG. The processing from step STP1 to step STP4 is the same as that of the camera-equipped information terminal 1 of the first embodiment. That is, if the direction of the change in the line of sight and the direction of the change in the camera attitude do not cancel each other, the process is terminated. If there is a canceling relationship, the process branches to step STP12.

条件5は、先のステップで検出した視線変化が上方への変化であったことである。上方へ視線変化するのは、使用者が顎を引き、頭部をやや下向きに向けたときに生じる変化である。条件5の判断をし、視線変化が上方ではなかった場合は、‘偽’としてステップSTP14へ分岐する。視線変化が上方であった場合は、‘真’としてステップSTP13へ分岐する(ステップSTP12)。ステップSTP13では、後で説明を加える、注視Uフラグをセットする。これは視線変化が上方であった時、すなわち、使用者が顎を引いたときにセットされる1ビットフラグである。後記する図11(B)で説明する処理ルーチンではこのフラグを参照する。ステップSTP14では、注視Dフラグをセットする。これは視線変化が下方であった時、すなわち、使用者が顎を突き出したときにセットされる1ビットフラグである。後記する図11(B)で説明する処理ルーチンではこのフラグを参照する。ただし、ここに示した処理フローでは視線変化が下方であったことを含めて、上方以外の視線変化では全て注視Dフラグがセットされる。厳格に、視線変化が下方の時のみ注視Dフラグをセットするのであれば、ステップSTP12の分岐を3通りとする必要がある。そして、視線変化が上下方向のいずれにも該当しない場合は、処理を終了するようにすればよい。 Condition 5 is that the line-of-sight change detected in the previous step was an upward change. The upward gaze change is a change that occurs when the user pulls the chin and turns the head slightly downward. When the condition 5 is judged and the line-of-sight change is not upward, “false” is determined and the process branches to step STP14. If the line-of-sight change is upward, it is judged as "true" and the process branches to step STP13 (step STP12). In step STP13, a gaze U flag, which will be described later, is set. This is a 1-bit flag that is set when the line of sight change is upward, that is, when the user pulls his chin. This flag is referred to in the processing routine described later with reference to FIG. In step STP14, the gaze D flag is set. This is a 1-bit flag that is set when the gaze change is downward, that is, when the user sticks out his chin. This flag is referred to in the processing routine described later with reference to FIG. However, in the processing flow shown here, the gaze D flag is set for all changes in the line of sight except for the changes in the line of sight. Strictly speaking, if the gaze D flag is set only when the line-of-sight change is downward, it is necessary to branch the step STP12 in three ways. Then, if the change in the line of sight does not correspond to any of the up and down directions, the process may be ended.

続く処理で、中心部領域161に注視アイコンICを表示し、所定時間維持する(ステップSTP5)。これは、使用者が視点VPを注視アイコンICに滞留させるまでの時間を確保するためである。次いで、再び視線検出をし(ステップSTP6)、条件3の判断をする。条件3の判断において、使用者の視点VPが注視アイコンICに滞留していなければ‘偽’、滞留していれば‘真’である。条件3の判断に基づいて分岐する(ステップSTP7)。‘偽’の場合は注視Uフラグまたは注視Dフラグをリセットし、注視アイコンICを消去して処理を終了する(ステップSTP15)。一方、‘真’の場合はステップSTP6の視線検出に戻る(ステップSTP7)。ここで、注視Uフラグと注視Dフラグとは、他の処理ルーチンでも参照可能な、オンとオフといった二値の参照用フラグである。 In the subsequent processing, the gaze icon IC is displayed in the central area 161 and maintained for a predetermined time (step STP5). This is to secure the time until the user retains the viewpoint VP in the gaze icon IC. Next, the line of sight is detected again (step STP6), and the condition 3 is judged. In the determination of the condition 3, it is'false' if the user's viewpoint VP is not staying in the gaze icon IC, and'true' if it is staying. It branches based on the judgment of the condition 3 (step STP7). In the case of'false', the gaze U flag or gaze D flag is reset, the gaze icon IC is erased, and the process ends (step STP15). On the other hand, in the case of “true”, the process returns to the sight line detection in step STP6 (step STP7). Here, the gaze U flag and the gaze D flag are binary reference flags such as ON and OFF that can be referred to by other processing routines.

以上の処理を簡単に表すと、視線変化と、使用者の頭部に装着の視界カメラ11の動きが相殺する向きであるときは、中心部領域161に注視アイコンICが表示される。使用者が視点VPをここに滞留させると、注視アイコンICの表示は維持されるが、視点VPをこれに滞留させないと注視アイコンICは消去される。また、注視アイコンICの表示が維持されている間は、注視Uフラグ又は注視Dフラグはセット状態を維持している。使用者の動作が顎を引く動作であった場合は注視Uフラグがセット状態となっており、使用者の動作が顎を突き出す動作であった場合は注視Dフラグがセット状態となっている。 To briefly describe the above processing, when the change in the line of sight and the movement of the view camera 11 mounted on the user's head are in a direction canceling each other, the gaze icon IC is displayed in the central area 161. If the user holds the viewpoint VP here, the display of the gaze icon IC is maintained, but if the user does not hold the viewpoint VP there, the gaze icon IC is erased. Also, while the display of the gaze icon IC is maintained, the gaze U flag or the gaze D flag remains set. The gaze U flag is in the set state when the user's action is the action of pulling the chin, and the gaze D flag is in the set state when the user's action is the action of protruding the chin.

図11(B)に示す処理は、(A)を参照して説明した処理と並行して行われる。さらに、先に説明した処理で出力される注視Uフラグと注視Dフラグとを参照することができる。ここではまず条件6の判断をする。条件6において、注視Uフラグがセットされていれば‘真’、リセットされていれば‘偽’である。‘偽’であればステップSTP18へ分岐し、‘真’であればステップSTP17に分岐する(ステップSTP16)。ステップSTP17では、視界カメラ11の拡大ズーム動作を行い、再びステップ16に戻る(ステップSTP17)。ステップSTP18では、条件7の判断をする。条件7において、注視Dフラグがセットされていれば‘真’、リセットされていれば‘偽’である。‘偽’の場合は処理を終了する。一方、‘真’の場合は視界カメラ11の縮小ズーム動作を行う。あるいは、視野範囲最大の状態に戻す動作でもよい。その後、再びステップ16に戻る(ステップSTP19)。 The process shown in FIG. 11B is performed in parallel with the process described with reference to FIG. Further, it is possible to refer to the gaze U flag and gaze D flag output in the processing described above. Here, the condition 6 is first determined. In Condition 6, if the gaze U flag is set, it is'true', and if it is reset,'false'. If'false', the process branches to step STP18, and if'true', the process branches to step STP17 (step STP16). In step STP17, the zoom camera of the view camera 11 is performed, and the process returns to step 16 again (step STP17). In step STP18, condition 7 is determined. In Condition 7, if the gaze D flag is set, it is'true', and if it is reset,'false'. If it is'false', the process is terminated. On the other hand, in the case of “true”, the reduction zoom operation of the view camera 11 is performed. Alternatively, the operation of returning to the maximum state of the visual field range may be performed. Then, it returns to step 16 again (step STP19).

以上、説明した処理フローにより、使用者にとって下を向く向きに視界カメラ11の姿勢変化が検出され。かつ、視点VPは中心部領域161から上へ変化したことが検出されると中心部領域161内に注視アイコンICが表示される。そして、使用者が視点VPを注視アイコンICに滞留している間は視界カメラ11のズーム率を増加する制御が行われるようにすることができる。 As described above, the posture change of the view camera 11 is detected in the downward direction for the user by the processing flow described above. In addition, when it is detected that the viewpoint VP has changed upward from the central area 161, the gaze icon IC is displayed in the central area 161. Then, while the user stays at the viewpoint VP on the gaze icon IC, control for increasing the zoom ratio of the view camera 11 can be performed.

また、使用者にとって上を向く向きに視界カメラ11の姿勢変化が検出され、かつ、視点VPは中心部領域161から下へ変化したことが検出されると中心部領域161内に注視アイコンICが表示される。そして、使用者が視点VPを注視アイコンICに滞留している間は視界カメラ11のズーム率を減少させる制御が行われるようにすることができる。 Further, when it is detected that the posture change of the view camera 11 is directed upwards for the user and the viewpoint VP is changed from the central area 161 to the downward direction, the gaze icon IC is displayed in the central area 161. Is displayed. Then, while the user stays at the viewpoint VP on the gaze icon IC, control for reducing the zoom ratio of the view camera 11 can be performed.

また、視点VPが注視アイコンICから外れていることが検出されると、表示部16から注視アイコンICは消去される。同時に注視Uフラグ若しくは注視Dフラグもリセットされるので、視界カメラ11のズーム率を変化させる動作は終了する。 Further, when it is detected that the viewpoint VP deviates from the gaze icon IC, the gaze icon IC is erased from the display unit 16. At the same time, the gaze U flag or gaze D flag is also reset, so that the operation of changing the zoom ratio of the view camera 11 ends.

次に、図12を参照して、視線検出部15の説明をする。視線検出部15は眼球カメラ14が取得する眼球画像から使用者の視線を検出するものである。より具体的には、使用者の視線と表示部16の表面とが交差する場所である視点VPの同表示部16の表面における座標を検出するものである。第1実施形態及び第2実施形態においては、眼球画像から使用者の右目の瞳の位置を検出する。瞳の検出を安定化するために、右目に近赤外照明を当てることもできる。この場合、眼球カメラ14は近赤外線領域に感度の高いカメラを用いる。 Next, the line-of-sight detection unit 15 will be described with reference to FIG. The line-of-sight detection unit 15 detects the line of sight of the user from the eyeball image acquired by the eyeball camera 14. More specifically, the coordinates of the viewpoint VP on the surface of the display unit 16 where the user's line of sight intersects the surface of the display unit 16 are detected. In the first embodiment and the second embodiment, the position of the pupil of the right eye of the user is detected from the eyeball image. Near infrared illumination can also be applied to the right eye to stabilize pupil detection. In this case, the eyeball camera 14 uses a camera having a high sensitivity in the near infrared region.

そして、視線検出に先立ち、図12(A1)と(A2)とに示されるキャリブレーション動作が必要である。第1実施形態及び第2実施形態のカメラ付き情報端末1及び2の表示部16の所定の位置には、キャリブレーション点P1と、P2、P3、P4が表示されている〔図12(A2)〕。同情報端末を装着した使用者はこれらの指定されたキャリブレーション点を目で追い、この時の眼球画像における瞳の位置が記録される。これは、使用者の視点VPの位置と瞳の位置との対応付けを行うことが目的である。この対応付けができたなら、例えば、図12(B2)ア)に示す右目眼球画像から、同じ行の(B3)のように瞳E1が検出されると、視点VPはキャリブレーション点P1上にあると判断される。ここで、使用者の視認する表示部16の表面(B1)と、眼球カメラからの画像による瞳(B3)とは、互いにほぼ逆向きゆえに左右逆転していることに注意する。(B3)アイウエのいずれにも一致しない位置に瞳を検出した場合には、(B1)のキャリブレーション点アイウエの位置から内そう又は外そうして視点VPの座標を検出する。以上が、視線検出部15の処理である。 Then, prior to the sight line detection, the calibration operation shown in FIGS. 12A1 and 12A2 is required. Calibration points P1, P2, P3, and P4 are displayed at predetermined positions on the display unit 16 of the camera-equipped information terminals 1 and 2 of the first and second embodiments [FIG. 12(A2)]. ]. The user wearing the information terminal tracks these designated calibration points with his/her eyes, and the position of the pupil in the eyeball image at this time is recorded. The purpose of this is to associate the position of the viewpoint VP of the user with the position of the pupil. If this correspondence is made, for example, when the pupil E1 is detected as in (B3) of the same row from the right eye eye image shown in (B2) A), the viewpoint VP is located on the calibration point P1. It is judged that there is. Here, it should be noted that the surface (B1) of the display section 16 visually recognized by the user and the pupil (B3) formed by the image from the eyeball camera are substantially opposite to each other and therefore are laterally reversed. (B3) When the pupil is detected at a position that does not match any of the eyeways, the coordinates of the viewpoint VP are detected by moving inward or outward from the position of the calibration point eyeway in (B1). The above is the processing of the line-of-sight detection unit 15.

次に、図13を参照して、姿勢変化検出部13の説明をする。使用者の頭部に装着された視界カメラ11が方向CD1に向かっているとき〔図13(A1)〕の、同カメラによる取得画像を図13(A2)に表す。ここで、使用者が顎を引いて頭部をやや下向きに傾けると、視界カメラ11の向きはCD2に向かう向きになる。このときに同カメラが取得する画像は図13(B2)に表されている。ここで、(A2)と(B2)との画像の差異からオプティカルフローを求めれば、視界カメラ11の姿勢変化を検出することができる。オプティカルフロー検出の方法を限定するものではないが、例えば、(A2)画像から局所的なテンプレートパタンを作成して〔図13(C1)のT1,T2,T3〕、(B2)画像についてパタンマッチングをすると、(C2)に示すようにマッチング領域を求めることができ〔(C2)のM1,M2,M3〕、T2の位置からM2の位置へのベクトルV2としてオプティカルフローが検出される。このベクトルの大きさ、方向が視界カメラ11の姿勢変化の大きさと方向である。そして、このベクトルの向きと反対の向きが視界カメラ11の姿勢変化の向きである。このように、カメラの姿勢変化前後の画像を処理して、カメラ姿勢変化と向きとを検出することができる。すなわち、オプティカルフロー検出部で姿勢変化検出部13を実現することができる。以上が姿勢変化検出部13の処理である。カメラ姿勢変化を検出するために、取得画像からオプティカルフローを検出する他に、使用者の頭部に加速度センサやジャイロセンサを装着してもよい。 Next, the posture change detection unit 13 will be described with reference to FIG. FIG. 13(A2) shows an image obtained by the view camera 11 mounted on the user's head when the view camera 11 is facing the direction CD1 [FIG. 13(A1)]. Here, when the user pulls the chin and tilts the head slightly downward, the direction of the view camera 11 is toward CD2. The image acquired by the camera at this time is shown in FIG. 13(B2). Here, if the optical flow is obtained from the difference between the images of (A2) and (B2), the posture change of the view camera 11 can be detected. Although the optical flow detection method is not limited, for example, a local template pattern is created from the (A2) image [T1, T2, T3 in FIG. 13(C1)], and pattern matching is performed on the (B2) image. Then, the matching area can be obtained as shown in (C2) [M1, M2, M3 of (C2)], and the optical flow is detected as the vector V2 from the position of T2 to the position of M2. The magnitude and direction of this vector are the magnitude and direction of the posture change of the view camera 11. The direction opposite to the direction of this vector is the direction of the posture change of the view camera 11. In this way, the images before and after the change in the posture of the camera can be processed to detect the change and the orientation of the posture of the camera. That is, the posture change detection unit 13 can be realized by the optical flow detection unit. The above is the processing of the posture change detection unit 13. In order to detect a change in the camera posture, an acceleration sensor or a gyro sensor may be attached to the head of the user in addition to detecting the optical flow from the acquired image.

以上が、第1実施形態及び第2実施形態に係るカメラ付き情報端末1及び2である。このような構成にすると、誤操作を抑えつつも、撮影対象を注視しながらカメラのズーム操作をすることができる。 The above is the information terminals 1 and 2 with a camera according to the first and second embodiments. With such a configuration, it is possible to perform the zoom operation of the camera while gazing at the object to be photographed while suppressing an erroneous operation.

〔第3実施形態 情報システム〕
次に、図14を参照して、本発明に基づく第3実施形態に係る情報システム3を説明する。第3実施形態の情報システム3は、頭部装着型端末3Aとサーバ3Bとからなる。サーバ3Bとしてパーソナルコンピュータを使用することができる。頭部装着型端末3Aに備えられた視界カメラ11と、眼球カメラ14が取得した画像はサーバ3Bへ送信される。サーバ3Bでは、視界カメラ11の画像を処理して視界カメラ11の姿勢変化を検出する。また、眼球カメラ14の画像を処理して視線変化が検出される。
[Third Embodiment Information System]
Next, with reference to FIG. 14, an information system 3 according to a third embodiment of the present invention will be described. The information system 3 according to the third embodiment includes a head-mounted terminal 3A and a server 3B. A personal computer can be used as the server 3B. The images obtained by the view camera 11 provided on the head-mounted terminal 3A and the eyeball camera 14 are transmitted to the server 3B. In the server 3B, the image of the view camera 11 is processed to detect the posture change of the view camera 11. In addition, the line-of-sight change is detected by processing the image of the eyeball camera 14.

そして、サーバ3Bにて、視界カメラ11の姿勢変化と眼球カメラ14の画像から得られた視線変化とが相殺する向きであることを検出したときは、頭部装着型端末3Aに対して、注視アイコンICを表示する指令を送る。指令を受けた頭部装着型端末3Aは、これに備えられている表示部16の中心部領域161に注視アイコンICを表示する。その後、サーバ3Bは眼球カメラ14の画像から視線を求め、この視線の表示部16の表面との交点である視点VPが注視アイコンICから外れていると判断したときは、頭部装着型端末3Aに対して、注視アイコンICを消去するように指令を送る。一方、視点VPが注視アイコンICに滞留している場合にサーバ3Bは、頭部装着型端末3Aに対して、視界カメラ11のズーム動作をしてズーム率を大きく又は小さく制御するように指令を送る。指令を受けた頭部装着型端末3Aは視界カメラ11のズーム率を大きく又は小さく制御する。 Then, when the server 3B detects that the posture change of the view camera 11 and the line-of-sight change obtained from the image of the eyeball camera 14 cancel each other, the head-mounted terminal 3A is watched. Send a command to display the icon IC. Upon receiving the command, the head-mounted terminal 3A displays the gaze icon IC in the central area 161 of the display section 16 provided therein. After that, the server 3B obtains the line of sight from the image of the eyeball camera 14, and when it is determined that the viewpoint VP, which is the intersection of the line of sight with the surface of the display unit 16, is out of the gaze icon IC, the head-mounted terminal 3A. , And sends a command to erase the gaze icon IC. On the other hand, when the viewpoint VP stays in the gaze icon IC, the server 3B issues a command to the head-mounted terminal 3A to perform the zoom operation of the view camera 11 to control the zoom ratio to be large or small. send. The head-mounted terminal 3A that has received the command controls the zoom ratio of the view camera 11 to be large or small.

以上の動作を踏まえて、図14(A)を参照する。頭部装着型端末3Aの構成は、図7に示した第1実施形態の構成から、姿勢変化検出部と、視線検出部の機能を除いたものである。より詳しくは、演算器31Aは演算器21から、姿勢変化検出部と、視線検出部の機能を除いたものになっている。これらの処理はサーバ3Bで行う。このような構成にすることで、演算器31Aの負荷を演算器21よりも軽減している。 Based on the above operation, FIG. 14A is referred to. The configuration of the head-mounted terminal 3A is obtained by removing the functions of the posture change detection unit and the line-of-sight detection unit from the configuration of the first embodiment shown in FIG. More specifically, the computing unit 31A is the same as the computing unit 21 except that the functions of the posture change detection unit and the line-of-sight detection unit are removed. These processes are performed by the server 3B. With such a configuration, the load on the computing unit 31A is lighter than that on the computing unit 21.

図14(B)には、サーバ3Bの構成が示されている。サーバ演算器31Bには視線検出部35と、姿勢変化検出部33と、ズーム動作指令部32と、表示制御指令部34とが含まれている。これらは専用の電子回路で構成されていてもよいし、同等の機能をソフトウェア処理するための処理ルーチンとして実現されていてもよい。姿勢変化検出部33は、視界カメラ11の画像からオプティカルフローを検出して、視界カメラ11の姿勢変化を検出する。頭部装着型端末3Aに加速度センサやジャイロセンサが備えられているときはこれらの機器の出力を受け取って、このオプティカルフローを検出する処理に変えてもよい。視線検出部35は眼球カメラ14の画像から視線及び視線変化を検出する。表示制御指令部34は表示部16に注視アイコンICを表示したり消去したりする指令を頭部装着型端末3A対してする。ズーム動作指令部32は頭部装着型端末3Aのズーム制御部12に対して視界カメラにズーム動作をさせるように指令を送る。尚、頭部装着型端末3Aとサーバ3Bとの通信は通信部22とサーバ通信部32とを介して行われる。以上が、第3実施形態に係る情報システム3の構成である。このような構成にすると、頭部装着型端末3Aの演算器31Aの負荷が軽くなり、その結果、頭部装着型端末3Aの発熱を抑えたり、消費電力を減らしたり、軽量化を達成しやすくなったりする効果がある。 FIG. 14B shows the configuration of the server 3B. The server computing unit 31B includes a line-of-sight detection unit 35, a posture change detection unit 33, a zoom operation command unit 32, and a display control command unit 34. These may be configured by a dedicated electronic circuit, or may be realized as a processing routine for performing software processing of equivalent functions. The posture change detection unit 33 detects the optical flow from the image of the view camera 11 and detects the posture change of the view camera 11. When the head-mounted terminal 3A is provided with an acceleration sensor or a gyro sensor, the output of these devices may be received and the processing may be changed to a process for detecting this optical flow. The line-of-sight detection unit 35 detects the line-of-sight and changes in the line-of-sight from the image of the eyeball camera 14. The display control command unit 34 issues a command to display or delete the gaze icon IC on the display unit 16 to the head-mounted terminal 3A. The zoom operation command unit 32 sends a command to the zoom control unit 12 of the head-mounted terminal 3A to cause the view camera to perform a zoom operation. Communication between the head-mounted terminal 3A and the server 3B is performed via the communication unit 22 and the server communication unit 32. The above is the configuration of the information system 3 according to the third embodiment. With such a configuration, the load on the computing unit 31A of the head-mounted terminal 3A is lightened, and as a result, heat generation of the head-mounted terminal 3A can be suppressed, power consumption can be reduced, and weight reduction can be easily achieved. Has the effect of becoming.

〔第4実施形態〕
次に図15を参照して、本発明に基づく第4実施形態を説明する。この実施形態は視界カメラ11による取得画像の中心と表示部16の中心との関係に関するものであり、上記第1実施形態から第3実施形態までのすべての実施形態に付加できる実施形態である。図15(A)は、視界カメラ11が取得する画像の中心IM0と、表示部16の中心DS0との位置関係を表す。視界カメラ11のレンズ系111が結像した画像113はイメージセンサ112で電気信号に変換されて表示部16に伝送される。そして、この画像が表示部16に画像16Sとして表示される。このとき、画像113の中心IM0は、表示部16の中心DS0に表示される。これは、使用者が、通常は、表示部16の中心DS0に視点を置いていることを前提としている。表示部16の中心DS0に画像113の中心IM0が一致しているので、視界カメラ11のズーム動作を行うと、表示部16の中心DS0に写る部分を中心に表示画像16Sは拡大若しくは縮小する。それ故に、第1〜3実施形態は、表示部16の中心に注視マーカICを表示させたのである。
[Fourth Embodiment]
Next, a fourth embodiment according to the present invention will be described with reference to FIG. This embodiment relates to the relationship between the center of the image acquired by the view camera 11 and the center of the display unit 16, and is an embodiment that can be added to all the embodiments from the first embodiment to the third embodiment. FIG. 15A shows the positional relationship between the center IM0 of the image acquired by the view camera 11 and the center DS0 of the display unit 16. The image 113 formed by the lens system 111 of the view camera 11 is converted into an electric signal by the image sensor 112 and transmitted to the display unit 16. Then, this image is displayed on the display unit 16 as an image 16S. At this time, the center IM0 of the image 113 is displayed at the center DS0 of the display unit 16. This presupposes that the user normally places his or her viewpoint on the center DS0 of the display unit 16. Since the center IM0 of the image 113 is coincident with the center DS0 of the display unit 16, when the view camera 11 is zoomed, the display image 16S is enlarged or reduced centering on the portion captured in the center DS0 of the display unit 16. Therefore, in the first to third embodiments, the gaze marker IC is displayed at the center of the display unit 16.

しかし、人間には個人差があり、通常状態で、必ずしも視線が表示部16の中心DS0に向かっているとは限らない。また、カメラ付き情報端末は、個人の眼鏡のように各人向けに調整して製造されているとは限らない。そうすると、なおさら、通常状態で表示部16の中心DS0に視点を置いている場合は少なくなると想定される。そこで、各使用者が通常視点を置く位置に応じて、画像を表示しようとする構成が第4実施形態である。 However, there are individual differences among humans, and the line of sight is not always directed to the center DS0 of the display unit 16 in a normal state. Further, the information terminal with camera is not necessarily manufactured by adjusting for each person like the individual eyeglasses. Then, it is expected that the number will be further reduced when the viewpoint is placed on the center DS0 of the display unit 16 in the normal state. Therefore, the fourth embodiment is a configuration in which each user tries to display an image in accordance with the position where the normal viewpoint is placed.

第4実施形態のカメラ付き情報端末では、常に、若しくは一定期間ごとに使用者の視点VPの位置である座標値をサンプルとして取得してメモリ23若しくはサーバメモリ33に保持する。これを統計処理して、使用者の視点VPが最も多く集まる位置の座標、若しくは平均的に集まる位置の座標を求める。統計処理としては平均値や最頻値をとることができる。サンプル取得するのは、使用者がズーム操作のために注視アイコンICを表示させている期間を除くのが好ましい。注視アイコンICに視点誘導されている期間は、使用者の通常の視点位置とは言えないからである。上記サンプルから古い物を捨てて、新しいものに入れ替えることで、使用者の通常の視点VPの位置が次第に変化していくことに追従する。 In the information terminal with camera of the fourth embodiment, the coordinate value, which is the position of the viewpoint VP of the user, is acquired as a sample at all times or at regular intervals, and is stored in the memory 23 or the server memory 33. By statistically processing this, the coordinates of the position where the user's viewpoints VP most gather or the coordinates of the position where the user's viewpoints VP gather most are obtained. As the statistical processing, an average value or a mode value can be taken. It is preferable to obtain the sample except the period when the user is displaying the gaze icon IC for the zoom operation. This is because the period in which the viewpoint is guided by the gaze icon IC cannot be said to be the normal viewpoint position of the user. By discarding the old one from the above sample and replacing it with a new one, it follows that the position of the normal viewpoint VP of the user gradually changes.

図15(B)の例では、統計処理で、視点VPが置かれる最頻値の座標を求めている。ここで、視点VPが置かれる最頻値の座標をニュートラル視点位置DS1と称することとする。このニュートラル視点位置DS1に画像113の中心IM0が一致するように移動させた画像16Qが表示部16に表示されるようにしている。(C)は、説明上の要部を拡大して表したものである。図では、ニュートラル視点位置DS1は表示部16の中心位置DS0に対して紙面上の上下方向のいずれかの移動に見えるが、実際には、紙面に直交する方向にも移動し得るものである。そして、中心部領域161も、ニュートラル視点位置DS1を中心に設定する。 In the example of FIG. 15B, the coordinates of the mode in which the viewpoint VP is placed are obtained by statistical processing. Here, the coordinates of the mode in which the viewpoint VP is placed will be referred to as the neutral viewpoint position DS1. The image 16Q moved so that the center IM0 of the image 113 coincides with the neutral viewpoint position DS1 is displayed on the display unit 16. (C) is an enlarged view of the main part of the explanation. In the figure, the neutral viewpoint position DS1 appears to move in either the vertical direction on the paper surface with respect to the center position DS0 of the display unit 16, but in reality, it can also move in a direction orthogonal to the paper surface. Then, the central area 161 is also set with the neutral viewpoint position DS1 as the center.

以上説明した第4実施形態は、視点VPの位置を表す座標値の平均値若しくは最頻値に当たる位置を検出してニュートラル視点位置DS1とし、このニュートラル視点位置DS1に視界カメラ11で取得した画像113の中心IM0を一致させて表示部16に表示する。更に、ニュートラル視点位置DS1を中心として中心部領域161を設ける。 In the fourth embodiment described above, the position corresponding to the average value or mode of the coordinate values representing the position of the viewpoint VP is detected as the neutral viewpoint position DS1, and the image 113 acquired by the view camera 11 at this neutral viewpoint position DS1. The center IM0 of the image is displayed on the display unit 16 so as to match. Further, a central area 161 is provided centered on the neutral viewpoint position DS1.

また、これらの処理を、プログラムを使って実現するには、視点VPの位置を表す座標値の平均値若しくは最頻値に当たる位置を検出して前記ニュートラル視点位置DS1とするステップを有し、表示部16に視界カメラ11の取得画像と、注視アイコンICとを表示するステップでは、視界カメラ11で取得した画像の中心をニュートラル視点位置DS1に一致させる。そして、ニュートラル視点位置DS1を中心として中心部領域161を定め、この中心部領域161内に注視アイコンICを表示する処理する。以上の一連の処理を演算器21又は演算器31Bに実行させればよい。このようにすることで、使用者ごとの視点の置き方の差異を吸収し、誰にとっても自然な操作ができる。以上、視点VPの位置を表す座標値の平均値若しくは最頻値に当たる位置を検出し、この位置に視界カメラ11で取得した画像113の中心IM0を一致させた画像16Qを表示部16に表示するカメラ付き情報端末を説明した。 In order to realize these processes using a program, there is a step of detecting the position corresponding to the average value or mode of the coordinate values representing the position of the viewpoint VP and setting it as the neutral viewpoint position DS1. In the step of displaying the acquired image of the view camera 11 and the gaze icon IC on the unit 16, the center of the image acquired by the view camera 11 is made to coincide with the neutral viewpoint position DS1. Then, the central area 161 is defined around the neutral viewpoint position DS1 and the gaze icon IC is displayed in the central area 161. The arithmetic unit 21 or the arithmetic unit 31B may execute the series of processes described above. By doing so, it is possible to absorb the difference in the way of placing the viewpoint for each user and perform a natural operation for anyone. As described above, the position corresponding to the average value or the mode value of the coordinate values representing the position of the viewpoint VP is detected, and the image 16Q in which the center IM0 of the image 113 acquired by the view camera 11 is matched with this position is displayed on the display unit 16. The information terminal with a camera has been described.

尚、図15では、視界カメラ11が取得した画像113と、表示部への表示画像16Sと、補正後の表示画像16Qとを、厚みのある物体のように表している。しかしこれは、説明の便宜上このように表現しているのであって、これら画像は電荷のチャージ等の電気信号であるから、現実には図のように厚みのあるものではない。 Note that, in FIG. 15, the image 113 acquired by the view camera 11, the display image 16S on the display unit, and the corrected display image 16Q are represented as a thick object. However, this is expressed in this way for convenience of explanation, and since these images are electric signals such as electric charges, they are not actually thick as shown in the figure.

1・・・第1実施形態のカメラ付き情報端末、11・・・視界カメラ、
111・・・視界カメラのレンズ系、112・・・視界カメラのイメージセンサ、
113・・視界カメラが取得した画像、12・・・ズーム制御部、
13・・・姿勢変化検出部、14・・・眼球カメラ、15・・・視線検出部、
16・・・表示部、17・・・表示制御部、1F・・・フレーム、
16A・・・表示部カバー、16B・・・ミラー、16C・・・撮像用プリズム、
16D・・・視認用プリズム、16S・・・表示部への表示画像、
16Q・・・表示部への補正後の表示画像、161・・・中心部領域、
2A・・・コントロールボックス、21・・・演算器、22・・・通信部、
23・・・メモリ、2・・・第2実施形態のカメラ付き情報端末、
3・・・第3実施形態の情報システム、3A・・・頭部装着型端末、
3B・・・サーバ、31A・・・演算器、31B・・・サーバ演算器、
32・・・ズーム動作指令部、33・・・姿勢変化検出部、
34・・・表示制御指令部、35・・・視線検出部、CL・・・カメラライン、
VL・・・視点ライン、E1,E2,E3,E4・・・検出された瞳、
T1,T2,T3・・・テンプレート、M1,M2,M3・・・マッチング領域、
IC・・・注視アイコン、FG・・・注視フラグ、
IM0・・・視界カメラが取得した画像の中心、DS0・・・表示部の中心、
DS1・・・ニュートラル視点位置、LP1,LP2・・・光路、
P1,P2,P3,P4・・・キャリブレーション点、
R−Eye・・・第1実施形態のカメラ付き情報端末の使用者の右目、
VD・・・使用者の視線の向きと方向、
CD,CD1,CD2・・・視界カメラの向きと方向、
VP・・・視点、V1,V2,V3・・・オプティカルフローベクトル
1... Information terminal with camera of the first embodiment, 11... View camera,
111... Lens system of view camera, 112... Image sensor of view camera,
113... Image acquired by the view camera, 12... Zoom control unit,
13... Posture change detection unit, 14... Eyeball camera, 15... Line-of-sight detection unit,
16... Display unit, 17... Display control unit, 1F... Frame,
16A... Display cover, 16B... Mirror, 16C... Imaging prism,
16D... Prism for visual recognition, 16S... Image displayed on display unit,
16Q... Display image after correction on display section, 161... Central area,
2A... control box, 21... arithmetic unit, 22... communication unit,
23... Memory, 2... Information terminal with camera of the second embodiment,
3... Information system of the third embodiment, 3A... Head-mounted terminal,
3B... server, 31A... arithmetic unit, 31B... server arithmetic unit,
32... Zoom operation command unit, 33... Attitude change detection unit,
34... Display control command section, 35... Line-of-sight detection section, CL... Camera line,
VL... viewpoint line, E1, E2, E3, E4... detected pupil,
T1, T2, T3... Template, M1, M2, M3... Matching area,
IC...Gaze icon, FG...Gaze flag,
IM0...Center of image acquired by view camera, DS0...Center of display,
DS1... Neutral viewpoint position, LP1, LP2... Optical path,
P1, P2, P3, P4... Calibration points,
R-Eye... The right eye of the user of the information terminal with camera of the first embodiment,
VD: direction and direction of user's line of sight,
CD, CD1, CD2... View camera direction and direction,
VP... viewpoint, V1, V2, V3... optical flow vector

Claims (8)

使用者の鼻先の向く向きに向けて該使用者の顔側に装着されている視界カメラと、
前記視界カメラの姿勢変化を検出する姿勢変化検出部と、
前記使用者の眼球に向けて該使用者の顔側に装着されている眼球カメラと、
前記眼球カメラが取得する画像から前記使用者の視線を検出する視線検出部と、
前記使用者が視認し得るように該使用者の頭部に装着されて、前記視界カメラが取得した画像を表示する表示部と、を有し
前記姿勢変化検出部と前記視線検出部とがそれぞれ検出した前記視界カメラの姿勢変化の向きと、視線の変化の向きとが相殺する向きであるときに、前記表示部の中心若しくは、前記表示部の中心から視野角プラスマイナス2度の範囲内である中心部領域に注視アイコンが、前記視界カメラが取得した画像に重ねて表示され、
前記使用者の視線が前記表示部の表面と交差する点である視点が、前記注視アイコンに滞留している間は前記視界カメラのズーム率が大きく又は小さく制御されるカメラ付き情報端末。
A field-of-view camera mounted on the face side of the user facing the direction of the tip of the user's nose,
A posture change detection unit that detects a posture change of the view camera,
An eyeball camera mounted on the face side of the user toward the eyeball of the user,
A line-of-sight detection unit that detects the line of sight of the user from the image acquired by the eyeball camera,
A display unit that is mounted on the head of the user so that the user can visually recognize the image and that displays the image acquired by the view camera; and the posture change detection unit and the line-of-sight detection unit, respectively. When the direction of the detected posture change of the view camera and the direction of the change of the line of sight are offset, within the range of the center of the display unit or the viewing angle plus or minus 2 degrees from the center of the display unit. A gaze icon in a certain central area is displayed overlaid on the image acquired by the view camera,
A camera-equipped information terminal in which a zoom ratio of the view camera is controlled to be large or small while a viewpoint, which is a point where the user's line of sight intersects the surface of the display unit, stays at the gaze icon.
前記視点の位置を表す座標値の平均値若しくは最頻値に当たる位置を検出してニュートラル視点位置とし、該ニュートラル視点位置に前記視界カメラで取得した画像の中心を一致させて該画像を前記表示部に表示し、前記ニュートラル視点位置を中心として前記中心部領域を設ける、請求項1に記載のカメラ付き情報端末。 The position corresponding to the average value or mode of the coordinate values representing the position of the viewpoint is detected as the neutral viewpoint position, the center of the image acquired by the view camera is made to coincide with the neutral viewpoint position, and the image is displayed on the display unit. The information terminal with a camera according to claim 1, wherein the information is displayed on the display device, and the central area is provided around the neutral viewpoint position. 前記使用者にとって下を向く向きに前記視界カメラの姿勢変化が検出されて前記中心部領域に前記注視アイコンが表示されている場合において、
前記視点が前記注視アイコンに滞留している間は前記視界カメラのズーム率を増す制御が行われる、請求項1または請求項2に記載のカメラ付き情報端末。
In the case where the attitude change of the view camera is detected in the direction facing downward for the user and the gaze icon is displayed in the central area,
The camera-equipped information terminal according to claim 1 or 2, wherein control is performed to increase the zoom ratio of the view camera while the viewpoint is staying at the gaze icon.
前記使用者にとって上を向く向きに前記視界カメラの姿勢変化が検出されて前記中心部領域に前記注視アイコンが表示されている場合において、
前記視点が前記注視アイコンに滞留している間は前記視界カメラのズーム率を減少させる制御が行われる、請求項1または請求項2に記載のカメラ付き情報端末。
In the case where the posture change of the view camera is detected in an upward direction for the user and the gaze icon is displayed in the central area,
The camera-equipped information terminal according to claim 1, wherein control is performed to reduce the zoom ratio of the view camera while the viewpoint is staying at the gaze icon.
前記中心領域に前記注視アイコンが表示されている場合において、
前記視点が前記注視アイコンから外れていることが検出された場合には、前記中心領域から前記注視アイコンが消去される、請求項1、請求項2、請求項3または請求項4のいずれか1項に記載のカメラ付き情報端末。
In the case where the gaze icon is displayed in the central area,
The gaze icon is erased from the central region when it is detected that the viewpoint is out of the gaze icon. An information terminal with a camera according to the item.
前記姿勢変化検出部は前記使用者の頭部に装着されたジャイロセンサ、加速度センサ、若しくは前記視界カメラの画像の変化で生じたオプティカルフローを検出するオプティカルフロー検出部で構成される、請求項1、請求項2、請求項3、請求項4または請求項5のいずれか1項に記載のカメラ付き情報端末。 The posture change detection unit is configured by a gyro sensor mounted on the head of the user, an acceleration sensor, or an optical flow detection unit that detects an optical flow caused by a change in an image of the view camera. The information terminal with camera according to claim 2, claim 3, claim 4, or claim 5. 使用者の鼻先の向く向きに向けて該使用者の顔側に装着されている視界カメラの姿勢変化を検出するステップと、
前記使用者の眼球に向けて該使用者の顔前に備えられた眼球カメラが取得する画像から前記使用者の視線を検出するステップと、
前記視界カメラの姿勢変化を検出するステップと前記視線を検出するステップとでそれぞれ検出された前記視界カメラの姿勢変化の向きと視線変化の向きとが相殺する向きであるときに、
前記使用者が視認し得るように該使用者の頭部に装着されて、前記視界カメラが取得した画像を表示する表示部の中心若しくは、前記表示部の中心から視野角プラスマイナス2度の範囲内である中心部領域に、注視アイコンを前記視界カメラが取得した画像に重ねて前記表示部に表示させるステップと、
前記使用者の視線が前記表示部の表面と交差する点である視点が前記注視アイコンに滞留している間は前記視界カメラのズーム率を大きく又は小さく制御させるステップとを有する処理を演算器に実行させるプログラム。
A step of detecting a posture change of a view camera attached to the face side of the user toward the direction toward which the tip of the user's nose is directed;
Detecting the line of sight of the user from an image acquired by an eyeball camera provided in front of the face of the user toward the eyeball of the user,
When the orientation change direction of the view camera and the orientation change direction of the view camera detected in the step of detecting the change in posture of the view camera and the step of detecting the line of sight are offset directions,
The display unit is attached to the user's head so that the user can visually recognize it, and the center of the display unit that displays the image acquired by the view camera, or a range of a viewing angle of ±2 degrees from the center of the display unit. A step of displaying the gaze icon on the display unit by superimposing the gaze icon on the image acquired by the view camera,
While the viewpoint, which is the point where the user's line of sight intersects the surface of the display unit, stays in the gaze icon, a step of controlling the zoom ratio of the view camera to increase or decrease to a computing unit The program to run.
前記視点の位置を表す座標値の平均値若しくは最頻値に当たる位置を検出してニュートラル視点位置とするステップを有し、
前記表示部に前記視界カメラが取得した画像と、前記注視アイコンとを重ねて表示するステップでは、前記視界カメラが取得した画像の中心を前記ニュートラル視点位置に一致させ、前記ニュートラル視点位置を中心として前記中心部領域を定め、該中心部領域内に前記注視アイコンを表示する処理を前記演算器に実行させる、請求項7に記載のプログラム。
A step of detecting the position corresponding to the average value or mode of the coordinate values representing the position of the viewpoint to be the neutral viewpoint position,
In the step of superimposing and displaying the image acquired by the view camera on the display unit and the gaze icon, the center of the image acquired by the view camera is matched with the neutral viewpoint position, and the neutral viewpoint position is set as the center. The program according to claim 7, which defines the central area and causes the computing unit to execute a process of displaying the gaze icon in the central area.
JP2018214220A 2018-11-14 2018-11-14 Information terminal with camera and program Active JP7157444B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018214220A JP7157444B2 (en) 2018-11-14 2018-11-14 Information terminal with camera and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018214220A JP7157444B2 (en) 2018-11-14 2018-11-14 Information terminal with camera and program

Publications (3)

Publication Number Publication Date
JP2020085914A true JP2020085914A (en) 2020-06-04
JP2020085914A5 JP2020085914A5 (en) 2021-09-09
JP7157444B2 JP7157444B2 (en) 2022-10-20

Family

ID=70907705

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018214220A Active JP7157444B2 (en) 2018-11-14 2018-11-14 Information terminal with camera and program

Country Status (1)

Country Link
JP (1) JP7157444B2 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150103003A1 (en) * 2013-10-11 2015-04-16 Bernard James Kerr User interface programmatic scaling
JP2015149552A (en) * 2014-02-05 2015-08-20 株式会社ニコン Wearable electronic apparatus
JP2016024751A (en) * 2014-07-24 2016-02-08 シャープ株式会社 Image display device

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150103003A1 (en) * 2013-10-11 2015-04-16 Bernard James Kerr User interface programmatic scaling
JP2015149552A (en) * 2014-02-05 2015-08-20 株式会社ニコン Wearable electronic apparatus
JP2016024751A (en) * 2014-07-24 2016-02-08 シャープ株式会社 Image display device

Also Published As

Publication number Publication date
JP7157444B2 (en) 2022-10-20

Similar Documents

Publication Publication Date Title
US11235871B2 (en) Control method, control system, and smart glasses for first person view unmanned aerial vehicle flight
JP2017199379A (en) Tracking display system, tracking display program, tracking display method, wearable device using the same, tracking display program for wearable device, and manipulation method for wearable device
US11107436B2 (en) Image processing device and image processing method
JP2013258614A (en) Image generation device and image generation method
KR20150092165A (en) Direct hologram manipulation using imu
JP2015192436A (en) Transmission terminal, reception terminal, transmission/reception system and program therefor
JP6711885B2 (en) Transmission terminal, reception terminal, transmission/reception system, and its program
JP6399692B2 (en) Head mounted display, image display method and program
EP3617851B1 (en) Information processing device, information processing method, and recording medium
JP7491300B2 (en) Information processing device, information processing method, and computer-readable recording medium
CN110968190B (en) IMU for touch detection
JP7459798B2 (en) Information processing device, information processing method, and program
JP2018180051A (en) Electronic device and control method thereof
US20190019308A1 (en) Image display device
WO2015136952A1 (en) Gesture recognition device, head-mounted display, and portable terminal
CN110895433A (en) Method and apparatus for user interaction in augmented reality
KR20230119003A (en) Eyewear with push-pull lens set
WO2021140938A1 (en) Information processing device, information processing method, and computer-readable recording medium
JP7157444B2 (en) Information terminal with camera and program
WO2018186004A1 (en) Electronic device and method for controlling same
JP7024010B2 (en) Sending terminal, receiving terminal, sending / receiving system, and its program
JP2018180050A (en) Electronic device and control method thereof
JP2017126009A (en) Display control device, display control method, and program
CN114791673B (en) Display method, display device, and recording medium
US20240103684A1 (en) Methods for displaying objects relative to virtual surfaces

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210729

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210729

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220527

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220617

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220721

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220916

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220930

R150 Certificate of patent or registration of utility model

Ref document number: 7157444

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150