JP7157444B2 - Information terminal with camera and program - Google Patents

Information terminal with camera and program Download PDF

Info

Publication number
JP7157444B2
JP7157444B2 JP2018214220A JP2018214220A JP7157444B2 JP 7157444 B2 JP7157444 B2 JP 7157444B2 JP 2018214220 A JP2018214220 A JP 2018214220A JP 2018214220 A JP2018214220 A JP 2018214220A JP 7157444 B2 JP7157444 B2 JP 7157444B2
Authority
JP
Japan
Prior art keywords
camera
user
change
sight
field
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018214220A
Other languages
Japanese (ja)
Other versions
JP2020085914A (en
JP2020085914A5 (en
Inventor
篤幸 金田
Original Assignee
株式会社ガゾウ
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社ガゾウ filed Critical 株式会社ガゾウ
Priority to JP2018214220A priority Critical patent/JP7157444B2/en
Publication of JP2020085914A publication Critical patent/JP2020085914A/en
Publication of JP2020085914A5 publication Critical patent/JP2020085914A5/ja
Application granted granted Critical
Publication of JP7157444B2 publication Critical patent/JP7157444B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、頭部に装着するカメラ付き情報端末及プログラムに関するものである。 The present invention relates to an information terminal with a camera attached to the head and a program.

顔を含めた頭部の向きや視線の向きに基づいて機器を制御するユーザインタフェースが知られている。例えば特許文献1には、アイコン(同文献にはポインタと記載)が表示されるディスプレイ(11)を備えたヘッドマウントディスプレイ(1)が記載されている。これは、使用者の視線の向きを検出するカメラ(12)と、使用者の頭部の動きを検出する加速度センサ(13)とを備えた頭部装着型装置である。この装置は、使用者がアイコンに視点を置いた状態で頭部を上下や左右に振ることで、パソコン操作でいうところのクリックや、ドラッグが可能なポインティングシステムである。使用者の眼球とディスプレイ(1)との相対的な位置は不変なので、ディスプレイ(1)内のアイコンの位置が変わらなければ、頭部を振る際に眼球は回転運動しない。つまり視線変化はない。使用者がアイコンから視点を外すと、頭部を振ってもクリック動作とみなされず、無意識に頭部を振る動作に対しては誤作動が防止されている。 A user interface is known that controls a device based on the orientation of the head including the face and the orientation of the line of sight. For example, Patent Document 1 describes a head-mounted display (1) having a display (11) on which an icon (described as a pointer in the document) is displayed. This is a head-mounted device equipped with a camera (12) for detecting the direction of the user's line of sight and an acceleration sensor (13) for detecting the movement of the user's head. This device is a pointing system that allows the user to click or drag as in a personal computer operation by shaking the head up and down or left and right while placing the eye on the icon. Since the relative positions of the user's eyeballs and the display (1) remain unchanged, the eyeballs do not rotate when the head is shaken unless the positions of the icons in the display (1) change. In other words, there is no line of sight change. When the user removes his/her eye from the icon, shaking his/her head is not regarded as a click action, and malfunctions are prevented from unintentionally shaking his/her head.

また、特許文献2には、頭部装着型装置ではないものの、使用者が、机上に置かれたディスプレイの表示部(20)のアイコン(30)に視点(同文献では視線と記載)を滞留させた状態で頭部を前後に倒したり戻したりする動作(同文献ではうなずきジェスチャと記載)をすることで、アイコン(30)を選択したと判断するジェスチャ認識装置が記載されている。これは表示部(20)の上部に備えられたカメラ10で使用者の視線と頭部前面の顔の向きを検出するものである。同装置では、使用者の頭部と表示部(20)との位置関係は相対的に固定されてはいない。したがって、使用者がアイコン(30)に視点を滞留させた状態でうなずきジェスチャをすれば、使用者の眼球は回転運動をし、頭部の向きと視線の向きは不一致な向きへ変化することとなる。このように、視線の向きと顔の向きの不一致動作をもって意思表示をする方法は特許文献3にも記載されている。 Further, Patent Document 2 discloses that although the device is not a head-mounted device, the user maintains the viewpoint (described as line of sight in the document) at the icon (30) of the display section (20) of the display placed on the desk. This document describes a gesture recognition device that determines that an icon (30) has been selected by tilting the head back and forth or returning it (referred to as a nodding gesture in the document). The camera 10 provided above the display unit (20) detects the user's line of sight and the orientation of the face in front of the head. In this device, the positional relationship between the user's head and the display (20) is not relatively fixed. Therefore, if the user makes a nodding gesture while keeping the viewpoint at the icon (30), the user's eyeballs rotate, and the direction of the head and the direction of the line of sight change in a direction that does not match. Become. In this way, Patent Document 3 also describes a method of expressing an intention by a motion that does not match the direction of the line of sight and the direction of the face.

また、特許文献4には、使用者がファインダ画面(102)上の所定のマーク注視することによりカメラのズーム動作を制御する撮像装置が記載されている。これは、ファインダ画面(102)の隅にズーム動作のワイド側とテレ側とを示す指標(201、202)が表示されていて、使用者が所望のズーム率指標の表示箇所を所定時間注視すると、同撮像装置のズーム動作が行われるものである。ファインダ画面(102)隅という、通常注視しない場所にズーム率指標というマークを設けてこれをユーザインタフェースに用いることにより、使用者の意図しない誤作動を防止している。 Further, Patent Document 4 describes an imaging device that controls the zoom operation of the camera by the user's gaze at a predetermined mark on the finder screen (102). This is because indexes (201, 202) indicating the wide side and the tele side of the zoom operation are displayed in the corners of the finder screen (102), and when the user gazes at the display position of the desired zoom ratio index for a predetermined time, , the zoom operation of the imaging apparatus is performed. A mark called a zoom rate index is provided in a corner of the viewfinder screen (102), which is a place where the user does not normally gaze, and is used in the user interface to prevent unintentional malfunction by the user.

また、特許文献5には、タッチパネル式の操作表示部(106)において、ユーザの視線が向いている部分の表示の拡大処理を行うステップ(103)を有する画像形成装置が記載されている。これは、表示部(106)付近にユーザの指が検出された場合には拡大表示処理を行わない構成をとっている。このようにして、ユーザが指タッチ操作しているときに、不用意に拡大表示されて操作性が損なわれることを防止している。 Further, Patent Document 5 describes an image forming apparatus having a step (103) of performing a process of enlarging the display of a portion of a touch panel type operation display unit (106) to which the user's line of sight is directed. This is configured such that when the user's finger is detected near the display unit (106), the enlarged display process is not performed. In this way, it is possible to prevent impairing the operability due to unintentional enlargement of the display when the user is performing a finger touch operation.

また、特許文献6には、複数の決められたポイントを注視することによって画面を拡大表示するナビゲーション装置が記載されている。このように、複数のポイントを注視したときにのみ画面を拡大表示することとして、使用者の意図に反して拡大表示されることを防止している。このように、視線や顔、頭部の動きに基づいて機器を操作する技術が公開されている。これらは使用者の意図に反して動作しないための構成を伴っている。 Further, Patent Document 6 describes a navigation device that enlarges and displays a screen by gazing at a plurality of predetermined points. In this way, the screen is enlarged and displayed only when a plurality of points are gazed at, thereby preventing enlargement and display against the user's intention. In this way, techniques for operating devices based on the line of sight, face, and head movements have been disclosed. These are accompanied by a configuration for not operating against the user's intention.

しかし、これらの構成を、頭部装着型のカメラのズーム操作に適用しようとすると次のような課題が生じる。例えば、特許文献1の構成を適用するならば、カメラのファインダ若しくはこれに相当する画面に表示されているアイコンを注視しながら、ある程度の加速度をもって頭部を上下又は左右に振らなければならない。頭部を振るとこれに装着されているカメラも振れてしまい撮影の対象物をうまくとらえることができないという課題が生じる。 However, when trying to apply these configurations to the zoom operation of a head-mounted camera, the following problems arise. For example, if the configuration of Patent Document 1 is applied, the user must shake the head up and down or left and right with a certain amount of acceleration while gazing at the icon displayed on the viewfinder of the camera or an equivalent screen. When the head is shaken, the camera attached to the head is also shaken, resulting in a problem that the object to be photographed cannot be captured well.

また、特許文献2及び特許文献3に記載の構成をとると、使用者の視点を撮影対象に置くと、頭部の向きは撮影対象から外れることとなる。頭部装着型カメラは頭部の向きと一致しているから、カメラも撮影対象から外れることとなり、使用者にとっては対象を画面にとらえながらのズーム操作が難しくなるという課題がある。 Further, with the configurations described in Patent Documents 2 and 3, when the user's viewpoint is placed on the object to be photographed, the direction of the head is out of the object to be photographed. Since the direction of the head-mounted camera is the same as the direction of the head, the camera is also out of the shooting target, making it difficult for the user to operate the zoom while capturing the target on the screen.

ところで、カメラのファインダ若しくはこれに相当する画面の中心は、カメラの中心と一致していることが好ましい。このようにすると、使用者はカメラが撮影する画像の中心と範囲を把握しやすくなるからである。これを踏まえて特許文献4に記載の構成をカメラに適用すると、撮影対象を画面中心にとらえながらも、ズーム操作のために、画面隅にあるズーム用アイコンを注視しなければならないという不自然な動作を強いられる課題が生じる。これを避けるためにズーム用アイコンを画面中心付近に表示すると、そもそも使用者は高い頻度で画面中心付近を注視するので、使用者の意図に反してズーム動作する誤作動が起こりやすくなる課題を生じる。 By the way, it is preferable that the center of the viewfinder of the camera or the screen corresponding thereto coincides with the center of the camera. This is because this makes it easier for the user to grasp the center and range of the image captured by the camera. Based on this, if the configuration described in Patent Document 4 is applied to a camera, it would be unnatural to have to look at the zoom icon at the corner of the screen for the zoom operation while capturing the object to be photographed in the center of the screen. A task that forces action arises. If the zoom icon is displayed in the vicinity of the center of the screen to avoid this, the user often gazes at the vicinity of the center of the screen in the first place, so there is a problem that the malfunction of zooming against the user's intention is likely to occur. .

また、特許文献5の構成を頭部装着型のカメラのズーム操作に適用するならば、眼球や頭部の動作に加えて、指などの手の動作も必要となり、両手のフリーを確保するというそもそものメリットを実現できないという課題が生じる。また、特許文献6の構成を同ズーム操作に適用するならば、画面内の複数のアイコンを順次注視していく必要があり、手続きが煩雑で時間がかかるという課題が生じる。 In addition, if the configuration of Patent Document 5 is applied to the zoom operation of a head-mounted camera, in addition to eyeball and head movements, hand movements such as fingers are also required, and both hands are said to be free. The problem arises that the original merit cannot be realized. Further, if the configuration of Patent Document 6 is applied to the same zoom operation, it is necessary to sequentially watch a plurality of icons in the screen, which causes a problem that the procedures are complicated and time consuming.

特開2006-243784号公報JP 2006-243784 A 特開2000-163196号公報JP-A-2000-163196 特開2007-94619号公報JP 2007-94619 A 特開平8-46846号公報JP-A-8-46846 特開2018-18437号公報JP 2018-18437 A 特開2018-77105号公報JP 2018-77105 A

そこで、本発明の目的は、誤作動を防止しながらも、眼球動作と頭部の動作による操作であって、撮影対象を注視しながらズーム操作可能なカメラ付き情報端末及びプログラムを提供することにある。 SUMMARY OF THE INVENTION It is an object of the present invention to provide an information terminal with a camera and a program capable of performing a zoom operation while gazing at an object to be photographed, which is an operation by an eye movement and a head movement while preventing malfunction. be.

上記課題を解決する実施形態として、使用者の顔側に装着されている視界カメラ(11)と、視界カメラ(11)の姿勢変化を検出する姿勢変化検出部(13)と、使用者の眼球を撮影する眼球カメラ(14)と、眼球カメラ(14)の画像から視線を検出する視線検出部(15)と、使用者に視認し得る表示部(16)と、を有するカメラ付き情報端末とすることができる。そして、姿勢変化検出部(13)と視線検出部(15)とがそれぞれ検出した視界カメラ(11)の姿勢変化の向きと、視線の変化の向きとが相殺する向きであるときに、表示部(16)の中心付近に、注視アイコン(IC)が表示され、その注視アイコン(IC)に使用者の視点が滞留しているあいだは視界カメラ(11)のズーム率が大きく又は小さく制御される。 As an embodiment for solving the above problems, a view camera (11) attached to the face of the user, a posture change detection section (13) for detecting a posture change of the view camera (11), and the user's eyeballs. a camera-equipped information terminal having an eyeball camera (14) for photographing, a line-of-sight detection unit (15) for detecting the line of sight from the image of the eyeball camera (14), and a display unit (16) visible to the user can do. Then, when the direction of the change in the posture of the field-of-view camera (11) detected by the posture change detection unit (13) and the line of sight detection unit (15) and the direction of change in the line of sight are mutually offset, the display unit A gaze icon (IC) is displayed near the center of (16), and while the user's viewpoint remains at the gaze icon (IC), the zoom ratio of the view camera (11) is controlled to be large or small. .

本発明の実施形態は、誤作動を防止しながらも、眼球動作と頭部の動作による操作であって、撮影対象を注視しながらズーム操作可能なカメラ付き情報端末及びプログラムを提供することができる。 The embodiment of the present invention can provide an information terminal with a camera and a program that can perform a zoom operation while gazing at an object to be photographed while preventing malfunction, and being an operation by an eyeball movement and a head movement. .

図1は本発明に基づく第1実施形態に係るカメラ付き情報端末の図である。FIG. 1 is a diagram of a camera-equipped information terminal according to a first embodiment of the present invention. 図2は本発明に基づく第1実施形態に係るカメラ付き情報端末の撮影系と表示系を説明する図である。FIG. 2 is a diagram for explaining a photographing system and a display system of the camera-equipped information terminal according to the first embodiment of the present invention. 図3は本発明に基づく第1実施形態に係るカメラ付き情報端末の等価視界カメラと等価表示部とを表す図である。FIG. 3 is a diagram showing an equivalent field of view camera and an equivalent display section of the camera-equipped information terminal according to the first embodiment of the present invention. 図4は使用者の動作と表示部の表示との関係を説明する図である。FIG. 4 is a diagram for explaining the relationship between the user's actions and the display on the display unit. 図5は注視アイコンを説明する図である。FIG. 5 is a diagram for explaining a gaze icon. 図6は表示部の中心付近を表す図である。FIG. 6 is a diagram showing the vicinity of the center of the display section. 図7は本発明に基づく第1実施形態に係るカメラ付き情報端末の構成を示すブロック図である。FIG. 7 is a block diagram showing the configuration of the camera-equipped information terminal according to the first embodiment of the present invention. 図8は本発明に基づく第1実施形態に係るカメラ付き情報端末の処理フローの図である。FIG. 8 is a processing flow diagram of the camera-equipped information terminal according to the first embodiment of the present invention. 図9は使用者の視線が下向きに変化する動作を説明する図である。FIG. 9 is a diagram for explaining an operation in which the line of sight of the user changes downward. 図10はズーム率が小さくなる動作を表す図である。FIG. 10 is a diagram showing the operation of decreasing the zoom rate. 図11は本発明に基づく第2実施形態に係るカメラ付き情報端末の処理フローの図である。FIG. 11 is a processing flow diagram of the camera-equipped information terminal according to the second embodiment of the present invention. 図12は眼球カメラ画像から視線を検出する方法を説明する図である。FIG. 12 is a diagram for explaining a method of detecting a line of sight from an eyeball camera image. 図13は第1実施形態及び第2実施形態に係る姿勢変化検出部の動作を説明する図である。13A and 13B are diagrams for explaining the operation of the posture change detection unit according to the first and second embodiments. FIG. 図14は本発明に基づく第3実施形態に係る情報システムの構成を示す図である。FIG. 14 is a diagram showing the configuration of an information system according to the third embodiment based on the present invention. 図15は使用者のニュートラル視点と表示部中心及び視界カメラ中心の関係を表す図である(第4実施形態)。FIG. 15 is a diagram showing the relationship between the user's neutral viewpoint, the center of the display unit, and the center of the field-of-view camera (fourth embodiment).

〔第1実施形態 カメラ付き情報端末〕
図1を参照して、本発明に基づく第1実施形態に係るカメラ付き情報端末1を説明する。図1(A)は、使用者が、同カメラ付き情報端末1を装着した状態を表す図である。(A2)は使用者の右目側を示したものである。図1(B1)と(B2)とはそれぞれ、同カメラ付き情報端末1の一部を透明化して表した図である。図1に示すように、カメラ付き情報端末1の各構成物はフレーム1Fにより使用者の頭部に装着されている。そして、その右目側は右耳の手前まで覆う表示部カバー16Aで覆われている。表示部カバー16Aの内側には、使用者の前景を撮影する視界カメラ11と、使用者の右目を撮影する眼球カメラ14と、視界カメラ11が撮影取得する画像を使用者に視認し得るように表示する表示部16とが設けられている。また、図1(B1)において、表示部カバー16Aは透明に表されている。この内部には、表示や撮影に必要なプリズムやミラーが含まれているが、詳細は図2を参照して行うので、ここでは省略する。図1(A2)に記載されている視界カメラ11も外観上は視認し得ない状態で装着されている。
[First embodiment information terminal with camera]
A camera-equipped information terminal 1 according to a first embodiment of the present invention will be described with reference to FIG. FIG. 1A is a diagram showing a state in which a user wears the camera-equipped information terminal 1. FIG. (A2) shows the right eye side of the user. FIGS. 1B1 and 1B2 are diagrams showing a part of the camera-equipped information terminal 1 transparently. As shown in FIG. 1, each component of the camera-equipped information terminal 1 is attached to the user's head by a frame 1F. The right eye side is covered with a display section cover 16A that covers up to the front of the right ear. Inside the display unit cover 16A, a field-of-view camera 11 for photographing the foreground of the user, an eyeball camera 14 for photographing the right eye of the user, and an image captured by the field-of-view camera 11 are arranged so that the user can visually recognize them. A display unit 16 for displaying is provided. In addition, in FIG. 1B1, the display section cover 16A is shown transparently. The interior contains prisms and mirrors necessary for display and photography, but the details will be omitted here since they will be described with reference to FIG. The field-of-view camera 11 shown in FIG. 1(A2) is also mounted in such a way that it cannot be visually recognized from the outside.

フレーム1Fには、コントロールボックス2Aも装着されている。この中には、後で詳しく説明する演算器21と、通信部22と、メモリ23とが収められている。演算器21では、視界カメラ11の姿勢変化を検出する姿勢変化検出処理と、眼球カメラ14が取得する画像から使用者の視線を検出する視線検出処理とが行われる。 A control box 2A is also attached to the frame 1F. It contains a computing unit 21, a communication unit 22, and a memory 23, which will be described later in detail. The calculator 21 performs posture change detection processing for detecting a posture change of the view camera 11 and line-of-sight detection processing for detecting the user's line of sight from the image acquired by the eyeball camera 14 .

〔撮影系と表示系〕
図2を参照して、カメラ付き情報端末1の撮影系と表示系とについて説明をする。光路LP1は撮像用プリズム16Cにより、視界カメラ11へ導かれて動画撮影される。撮影用プリズム16Cは略三角柱であり、図2では三角形として表されている。この三辺のうち2番目の長さの辺は全ての入射角に対して光を反射するミラーで構成されている。従って、使用者の前景を伝える光の光路LP1は右目R-Eyeには直接入らない。使用者の前景は、視界カメラ11で撮影されてほぼリアルタイムに表示部16に表示される。使用者はこの表示部16を通じて自らの前景を視認することができる。表示部16から発せられた光の光路LP2は、表示部カバー16Aの内壁と、ミラー16Bと、視認用プリズム16Dとによって、右目R-Eyeに導かれる。また、視認用プリズム16Dの面のうち、撮影用プリズム16Cに面している面は全ての入射角に対して光を反射するミラーで構成されている。このようにして、使用者の頭部に装着された視界カメラ11の取得画像が、同頭部に装着された表示部16を介して、同使用者に視認される。
[Shooting system and display system]
The imaging system and the display system of the camera-equipped information terminal 1 will be described with reference to FIG. The optical path LP1 is guided to the field-of-view camera 11 by the imaging prism 16C, and moving images are captured. The photographing prism 16C has a substantially triangular prism shape, and is shown as a triangle in FIG. The second of the three sides is made up of mirrors that reflect light for all angles of incidence. Therefore, the light path LP1 carrying the user's foreground does not enter the right eye R-Eye directly. The user's foreground is photographed by the field-of-view camera 11 and displayed on the display unit 16 almost in real time. The user can visually recognize his or her foreground through the display unit 16 . An optical path LP2 of light emitted from the display section 16 is guided to the right eye R-Eye by the inner wall of the display section cover 16A, the mirror 16B, and the viewing prism 16D. Among the surfaces of the viewing prism 16D, the surface facing the photographing prism 16C is composed of a mirror that reflects light with respect to all incident angles. In this way, an image acquired by the field-of-view camera 11 mounted on the user's head is visually recognized by the user via the display unit 16 mounted on the user's head.

〔等価視界カメラと等価表示部〕
図1と図2とで説明した第1実施形態のカメラ付き情報端末1では、視界カメラ11と表示部16とは表示部カバー16A内に組み込まれていて外観に表れていない。一方、図3(A)と(B)とに示すカメラ付き情報端末1は、視界カメラ11と表示部16とが外部に表れている。しかし、図1と図2とで説明したものと、図3に示すものとは、次の点で等価であることを説明する。
[Equivalent view camera and equivalent display part]
In the camera-equipped information terminal 1 of the first embodiment described with reference to FIGS. 1 and 2, the field-of-view camera 11 and the display section 16 are incorporated in the display section cover 16A and are not visible from the outside. On the other hand, in the camera-equipped information terminal 1 shown in FIGS. 3A and 3B, the field-of-view camera 11 and the display unit 16 are exposed to the outside. 1 and 2 and that shown in FIG. 3 are equivalent in the following respects.

まず、図1と図2によるカメラ付き情報端末1の視界カメラ11は、使用者頭部の前景を取得することができる。そして、使用者の頭部の姿勢の変化に伴って視界カメラ11の姿勢も変化する。この観点で、図3(A)と(B)とに示されている視界カメラ11と図1及び2の視界カメラ11とは等価である。また、図1及び2によるカメラ付き情報端末1の表示部16は視界カメラ11の取得画像を表示する。そして、使用者の頭部の姿勢が変化しても、表示部16と使用者の右目R-Eyeとの相対的な位置関係は不変である。この観点で、図3(A)と(B)とに示されている表示部16は図1及び2による表示部16と等価である。そこで、以後、図3に示される視界カメラ11と表示部16とに基づいて、説明をする。 First, the field-of-view camera 11 of the camera-equipped information terminal 1 according to FIGS. 1 and 2 can acquire the foreground of the user's head. The orientation of the field-of-view camera 11 also changes as the orientation of the user's head changes. From this point of view, the field-of-view camera 11 shown in FIGS. 3A and 3B and the field-of-view camera 11 of FIGS. 1 and 2 are equivalent. Also, the display unit 16 of the camera-equipped information terminal 1 shown in FIGS. Even if the posture of the user's head changes, the relative positional relationship between the display unit 16 and the user's right eye R-Eye remains unchanged. In this respect the display 16 shown in FIGS. 3A and 3B is equivalent to the display 16 according to FIGS. Therefore, hereinafter, description will be made based on the field-of-view camera 11 and the display section 16 shown in FIG.

ところで、図3では表示部16が視界カメラ11の前方を遮っているように見える。しかし、以後、視界カメラ11にとっては、表示部16は視野に入らないものとして説明をする。それは、図1と図2によるカメラ付き情報端末1では、プリズムとミラーとによってお互いに他方を遮蔽する等の干渉は回避しているからである。すなわち、図1~図3において、視界カメラ11は、使用者の鼻先の向く向きに向けて該使用者の顔側に装着されて使用者の前景を撮影できるようになっている。また、表示部16は、使用者が視認し得るように頭部に装着されて視界カメラ16の取得画像を表示するようになっている。また、前提として、視界カメラ11の取得する画像の中心は表示部16の中心に表示されるように調整されているものとする。そして、視界カメラ11がズーム動作したときは、取得画像の中心を基点として拡大あるいは縮小されるものとする。 By the way, in FIG. 3, the display unit 16 seems to block the front of the field-of-view camera 11 . However, the following description will be made on the assumption that the display unit 16 is out of the field of view of the field-of-view camera 11 . This is because the camera-equipped information terminal 1 shown in FIGS. 1 and 2 avoids interference such as mutual shielding of the other by the prism and the mirror. That is, in FIGS. 1 to 3, the field-of-view camera 11 is mounted on the face side of the user in the direction in which the tip of the user's nose is directed, so that the foreground of the user can be photographed. Also, the display unit 16 is mounted on the head so that the user can visually recognize the image acquired by the visual field camera 16 . Further, as a premise, it is assumed that the center of the image acquired by the field-of-view camera 11 is adjusted so as to be displayed at the center of the display unit 16 . Then, when the field-of-view camera 11 performs a zoom operation, the acquired image is enlarged or reduced with the center as the base point.

〔使用者の動作〕
次に図4を参照して、同実施形態で重要な使用者の動作を説明する。図4は、使用者の動作に伴う、視界カメラ11が取得する画像の変化及び、表示部16に表示される画像の変化を説明する図である。図4(A1)、(B1)及び(C1)は使用者の動作を表す図である。一方、図4(A2)、(B2)及び(C2)はそれぞれ、表示部16に表示されている画像であって、視界カメラ11で撮影されている画像でもある。
[User Action]
Next, with reference to FIG. 4, important user actions in the embodiment will be described. FIG. 4 is a diagram for explaining changes in the image acquired by the field-of-view camera 11 and changes in the image displayed on the display unit 16 in accordance with the user's actions. 4(A1), (B1) and (C1) are diagrams showing the actions of the user. On the other hand, FIGS. 4A 2 , 4 B 2 and 4 C 2 are images displayed on the display unit 16 and also images captured by the field-of-view camera 11 .

図4(A1)は、使用者が表示部16の中心に表示されている、小さな白い正方形に視線を向けて注視している状態である。つまり使用者の視線VDは表示部16の中心へ向かっている。また、上記したように、視界カメラ11で取得した画像の中心が表示部16の中心に表示されるように調整済みなので、視界カメラ11の向う向きCDは使用者の視線VDの方向と一致している。ここで、説明の都合上、使用者の視線VDが表示部16の表面と交差する点を視点VPと呼ぶこととする。 FIG. 4A1 shows a state in which the user gazes at a small white square displayed in the center of the display unit 16 and gazes at it. That is, the user's line of sight VD is directed toward the center of the display unit 16 . Further, as described above, since the center of the image acquired by the visual field camera 11 has been adjusted so that it is displayed at the center of the display unit 16, the facing direction CD of the visual field camera 11 matches the direction of the user's line of sight VD. ing. Here, for convenience of explanation, the point at which the line of sight VD of the user intersects with the surface of the display unit 16 is called a viewpoint VP.

図4(A2)はこのとき、表示部16に表示されている画像である。使用者は表示部16の中心にある小さな白い正方形を注視している。表示部16の画面に対して水平で、その中心を通る線分をカメララインCLとして表示している。また、視点VPを通り表示部16の画面に対して水平な線分を視点ラインVLとして表示している。この場合は、カメララインCLと視点ラインVLとは一致している。 FIG. 4A2 shows an image displayed on the display unit 16 at this time. The user is gazing at the small white square in the center of display 16 . A line segment that is horizontal to the screen of the display unit 16 and passes through the center is displayed as a camera line CL. A line segment passing through the viewpoint VP and horizontal to the screen of the display unit 16 is displayed as a viewpoint line VL. In this case, the camera line CL and the viewpoint line VL match.

〔相殺動作〕
図4(B1)は、使用者が先の注視点である小さな正方形に視点を残しつつ、頭部の姿勢をやや下向きした状態を表している。これは、使用者が顎を少し引いた状態でもある。使用者の頭部に装着されている視界カメラ11と表示部16とは頭部と同じ角度だけ傾く。その結果、図4(B2)に示すように、表示部16に表示されている画像は、画面上やや上方へ移動する。このとき、視界カメラ11の向う向きCDと、使用者の視線VDの方向との間には差異が生じる。カメララインCLと視点ラインVLとの間にも差異が生じて、分離した2つの線分として表されている。ここで示した例のように、前景の特定の部分に視点VPを残しつつ頭部の姿勢を変化させると、視線は頭部の姿勢変化を相殺する向きに変化する。ここでは、このように頭部の姿勢変化と逆向きの視線変化を生じさせる動作を相殺動作ともいうこととする。
[Offset action]
FIG. 4(B1) shows a state in which the user's head is turned slightly downward while keeping the viewpoint at the small square which is the previous gaze point. This is also the state in which the user has slightly pulled the chin. The view camera 11 and the display unit 16 mounted on the user's head are tilted at the same angle as the head. As a result, as shown in FIG. 4B2, the image displayed on the display unit 16 moves slightly upward on the screen. At this time, there is a difference between the facing direction CD of the field-of-view camera 11 and the direction of the user's line of sight VD. A difference also occurs between the camera line CL and the viewpoint line VL, which is represented as two separate line segments. As in the example shown here, when the orientation of the head is changed while the viewpoint VP remains in a specific portion of the foreground, the line of sight changes in a direction that cancels out the orientation change of the head. Here, such an action that causes a change in the line of sight in the direction opposite to the change in the posture of the head is also referred to as a counteracting action.

〔注視アイコン〕
図4(C1)と図4(B1)とは全く同じ姿勢である。使用者の動作に何ら変化はない。したがって、図4(C2)に表示されている画像と図4(B2)に表示されている画像とは一致する。しかし、図4(C2)においては、表示部16の中心に注視アイコンICが表示されている。
[Gaze icon]
FIG. 4(C1) and FIG. 4(B1) are exactly the same posture. There is no change in user behavior. Therefore, the image displayed in FIG. 4(C2) matches the image displayed in FIG. 4(B2). However, in FIG. 4C2, the gaze icon IC is displayed in the center of the display section 16. FIG.

図5は表示部16に表示される注視アイコンICを説明する図である。図5(A1)は図4(C1)と頭部姿勢は同一の使用者である。ただし、視点VPは注視アイコンICに滞留している。その結果、視界カメラ11の向きCDと、使用者の視線VDの向きとは一致している。図5(A2)に示す表示部16の画面において、カメララインCLと視点ラインVLとは一致している。しかし、視点ラインVLは、最初に視点VPを滞留させていた場所である小さな白い正方形〔図4(A2)参照〕よりも下へずれている。 FIG. 5 is a diagram for explaining the gaze icon IC displayed on the display unit 16. As shown in FIG. FIG. 5(A1) shows a user with the same head posture as FIG. 4(C1). However, the viewpoint VP remains at the gaze icon IC. As a result, the direction CD of the field-of-view camera 11 and the direction of the user's line of sight VD match. On the screen of the display unit 16 shown in FIG. 5A2, the camera line CL and the viewpoint line VL are aligned. However, the viewpoint line VL is shifted below the small white square [see FIG. 4(A2)] where the viewpoint VP was originally staying.

ここで、注視アイコンICに視点VPを滞留させつつも、同視点VPを最初に滞留していた小さな白い正方形に合わせることは簡単である。注視アイコンICへの視点滞留を維持しながら顎をやや突き出せばよい。この動作を実施した直後の様子が図5(B1)に示されている。この動作により、図5(B2)に示すように、表示部16の画像はやや下へ移動し、カメララインCLと視点ラインVL及び注視アイコンICとが、上記小さな白い正方形に重なるようになる。この時の使用者の姿勢は、図4(A1)と一致している。図4(A1)から、(B1)、(C1)、更に図5(A1)を経て、(B1)までの一連の動作は、通常、使用者が無意識にやる動作ではない。意識的でなければ行わない動作である。これは不自然な動作ではあるが、図4(C2)から図5(A2)及び(B2)までに注視アイコンICが表示部16に表示されることにより、簡単に行える動作となっている。そして、図5(C)と(D)とは、表示部16の中心、すなわち、注視アイコンICを中心として徐々にズーム率が大きくなって表示されていることを示している。 Here, it is easy to align the point of view VP with the small white square where the point of view VP stays at the first, while keeping the point of view VP at the fixation icon IC. What is necessary is to stick out the chin slightly while maintaining the fixation of the viewpoint on the gaze icon IC. FIG. 5B1 shows the state immediately after this operation is performed. By this operation, as shown in FIG. 5B2, the image on the display unit 16 moves slightly downward, and the camera line CL, viewpoint line VL, and gaze icon IC overlap the small white square. The posture of the user at this time matches FIG. 4 (A1). A series of actions from FIG. 4 (A1) to (B1), (C1), and further through FIG. 5 (A1) to (B1) are usually not actions performed unconsciously by the user. It is an action that you do not do unless you are conscious of it. Although this is an unnatural operation, it can be easily performed by displaying the gaze icon IC on the display unit 16 from FIG. 4(C2) to FIG. 5(A2) and (B2). 5C and 5D show that the center of the display unit 16, that is, the focus icon IC is displayed with the zoom ratio gradually increased.

注視アイコンICは表示部16の中心に表示されることを原則とする。しかし、これに限るものではなく、表示部16の中心から広がりを持っていてもよい。例えば、図6(A)に示すように、表示部16の中心からある程度の広がりのある領域である。これを中心部領域161と称し、この領域内に注視アイコンICが表示される。分かりやすくするために中心部領域161は大きめに示している。図6(B)に示すように、使用者が表示部16の中心であるDS0を注視している状態から上方へ視線を2度隔てた視線をVDPとし、下方へ視線を2度隔てた視線をVDMとする。このときに、視線VDPと表示部16との交点と、視線VDMと表示部16との交点で規定する範囲内が中心部領域161である。表示部16の水平方向の範囲は、表示部16の中心DS0から左方へ視線を2度傾けた範囲と、右方へ視線を2度傾けた範囲とで定められる。この範囲を単に、表示部16の中心から視野角プラスマイナス2度の範囲内と表現することとする。視野角プラスマイナス2度の範囲内である中心部領域161に注視アイコンICが、視界カメラ11の取得画像に重ねて表示されるのでもよい。 In principle, the gaze icon IC is displayed in the center of the display unit 16 . However, it is not limited to this, and may have a spread from the center of the display section 16 . For example, as shown in FIG. 6A, it is an area that spreads to some extent from the center of the display section 16 . This is called a center area 161, and the gaze icon IC is displayed in this area. The central region 161 is shown enlarged for clarity. As shown in FIG. 6B, the line of sight that is separated by two degrees upward from the state in which the user is gazing at DS0, which is the center of the display unit 16, is defined as VDP, and the line of sight is separated by two degrees downward. be VDM. At this time, the center region 161 is defined by the intersection of the line of sight VDP and the display unit 16 and the intersection of the line of sight VDM and the display unit 16 . The horizontal range of the display unit 16 is defined by a range in which the line of sight is tilted 2 degrees to the left from the center DS0 of the display unit 16 and a range in which the line of sight is tilted 2 degrees to the right. This range is simply expressed as within a viewing angle of plus or minus 2 degrees from the center of the display section 16 . The gaze icon IC may be superimposed on the captured image of the view camera 11 and displayed in the central region 161 within the viewing angle range of plus or minus 2 degrees.

〔構成ブロック図〕
次に図7を参照して、第1実施形態の構成をブロック図で説明する。第1実施形態に係るカメラ付き情報端末1は、視界カメラ11と、眼球カメラ14と、表示部16と、演算器21と、メモリ23と、通信部22とを有している。演算器21は、姿勢変化検出部13と、ズーム制御部12と視線検出部15と、表示制御部17とを電子回路として有していてもよい。若しくは、同等の処理を実行するプログラムに基づく処理により実現されていてもよい。同プログラムは演算器21内に組み込まれていてもよいし、メモリ23内に展開されていてもよい。演算器21は視界カメラ11と、眼球カメラ14と、表示部16とメモリ23と、通信部22とを制御し、これらの機器を含めて第1実施形態に係るカメラ付き情報端末1を構成している。
[Configuration block diagram]
Next, referring to FIG. 7, the configuration of the first embodiment will be described with a block diagram. The camera-equipped information terminal 1 according to the first embodiment has a field-of-view camera 11 , an eyeball camera 14 , a display section 16 , a calculator 21 , a memory 23 and a communication section 22 . The arithmetic unit 21 may have the posture change detection unit 13, the zoom control unit 12, the line-of-sight detection unit 15, and the display control unit 17 as electronic circuits. Alternatively, it may be implemented by processing based on a program that executes equivalent processing. The program may be incorporated in the computing unit 21 or expanded in the memory 23 . The computing unit 21 controls the field-of-view camera 11, the eye camera 14, the display unit 16, the memory 23, and the communication unit 22, and these devices constitute the camera-equipped information terminal 1 according to the first embodiment. ing.

たとえば、演算器21は、ズーム制御部12又はこれに該当するプログラムにより、視界カメラ11のズーム機能を制御し、視界カメラ11で取得する画像を拡大したり縮小したりする。この画像は、表示制御部17の制御により表示部16に表示される。また、この画像をメモリ23に保存したり、通信部22を介して他の機器に送信したりできるようにしてもよい。また、姿勢変化検出部13は、視界カメラ11の画像の変化から視界カメラ11の姿勢変化を検出することができる。検出方法は後記する。視界カメラ11の姿勢変化とは、同カメラ付き情報端末1の使用者の頭部の姿勢が変化することでもある。 For example, the arithmetic unit 21 controls the zoom function of the field-of-view camera 11 by using the zoom control unit 12 or a program corresponding thereto to enlarge or reduce the image acquired by the field-of-view camera 11 . This image is displayed on the display section 16 under the control of the display control section 17 . Also, this image may be stored in the memory 23 or transmitted to another device via the communication section 22 . In addition, posture change detection unit 13 can detect a posture change of view camera 11 from a change in the image of view camera 11 . The detection method will be described later. The change in the orientation of the field-of-view camera 11 also means that the orientation of the head of the user of the camera-equipped information terminal 1 changes.

また、表示制御部17は上記機能のほかに、所定の条件を満たした場合に、表示部16の中心若しくは、中心部領域161に注視アイコンICを表示し、あるいは消去する制御を行う。視線検出部15は眼球カメラ14が取得する使用者の眼球画像を処理して使用者の視線を検出する。視線検出とは、視線の方向若しくは、視線が表示部16の画面である表面と交差する点を視点VPとしてその座標を検出することである。 In addition to the above functions, the display control unit 17 performs control to display or erase the gaze icon IC in the center of the display unit 16 or the center area 161 when a predetermined condition is satisfied. The line-of-sight detection unit 15 processes the eyeball image of the user acquired by the eyeball camera 14 to detect the line of sight of the user. Detecting the line of sight means detecting the direction of the line of sight or the coordinates of the point where the line of sight intersects the surface of the screen of the display unit 16 as the viewpoint VP.

〔処理フロー〕
次に、図8を参照して、第1実施形態のカメラ付き情報端末1の処理フローを説明する。図8(A)は、図4と図5とを参照しながら説明した、使用者の動作を検出するための処理フローである。演算器21で実行することができる。使用者が同カメラ付き情報端末1を使用中、この処理は繰り返し実行されている。この処理は使用者の視線変化と、視界カメラ11の姿勢変化とを検出し、両変化の向きが相反する向きであること、すなわち相殺する変化である場合は、注視アイコンICを、表示部16の中心又は中心付近に表示する。そして、使用者がその注視アイコンICに視点VPを滞留すればその表示を維持し、視点VPの滞留が無ければ注視アイコンICの表示を消去するものである。
[Processing flow]
Next, with reference to FIG. 8, the processing flow of the camera-equipped information terminal 1 of the first embodiment will be described. FIG. 8A is the processing flow for detecting the user's motion described with reference to FIGS. 4 and 5. FIG. It can be executed by the calculator 21 . While the user is using the camera-equipped information terminal 1, this process is repeatedly executed. This process detects a change in the user's line of sight and a change in the posture of the field-of-view camera 11. If the directions of the two changes are in opposite directions, that is, if the changes cancel each other out, the gaze icon IC is displayed on the display unit 16. Display at or near the center of Then, if the user stays the viewpoint VP on the attention icon IC, the display is maintained, and if the user does not stay the viewpoint VP, the display of the attention icon IC is deleted.

まず、演算器21は視界カメラ11の姿勢変化を検出し(ステップSTP1)、眼球カメラ14が取得する画像から使用者の視線を検出する(ステップSTP2)。ステップSTP1とステップSTP2とは何れを先に実行してもよい。次に条件1に基づいて分岐する。条件1は使用者の視点VPが中心部領域161外にあれば‘真’である。この中心付近からの視線変位の条件は、より大きく変位することを条件1としてもよい。しかし、ここでは以後、視点VPが中心部領域161外にあることを「視線変化」とも表現する。通常、使用者の視点VPは、中心部領域161内にあり、使用者の何らかの動作に伴って、視点VPが同中心部領域161から外れるからである。‘真’でない場合、すなわち‘偽’の場合は処理を終了し、‘真’の場合は続く処理に分岐する(ステップSTP3)。 First, the computing unit 21 detects a change in posture of the view camera 11 (step STP1), and detects the line of sight of the user from the image acquired by the eyeball camera 14 (step STP2). Either step STP1 or step STP2 may be executed first. Next, branch based on condition 1. Condition 1 is 'true' if the user's viewpoint VP is outside the central area 161 . As for the condition of the line-of-sight displacement from the vicinity of the center, the condition 1 may be a larger displacement. However, hereinafter, the fact that the viewpoint VP is outside the center region 161 is also expressed as "change in line of sight". This is because the user's viewpoint VP is normally within the center region 161 and the viewpoint VP deviates from the center region 161 in accordance with some action of the user. If it is not 'true', that is, if it is 'false', the process ends, and if it is 'true', it branches to the subsequent process (step STP3).

続いて、条件2の判断をする。条件2は視線の変化、すなわち、視点VPが中心部領域161から外れている向きと、視界カメラ11の姿勢変化すなわち使用者頭部の姿勢変化の向きとの比較に基づく判断である。先の図4(B1)と(C1)では、視点VPは中心部領域161から上向きに外れている。一方使用者が頭部を前に倒すことにより、頭部装着の視界カメラ11は下向きに姿勢変化している。このような場合は、視線変化はカメラの姿勢変化を相殺する向きなので、条件2の判断は‘真’である。カメラ姿勢変化が検出されなかったり、カメラ姿勢変化の向きと視線変化の向きが反対向きでなかったりする場合は相殺ではなく、‘偽’と判断される。条件2の判断に基づいて、‘偽’であれば処理を終了し、‘真’であれば続く処理へ分岐する(ステップSTP4)。 Then, condition 2 is judged. Condition 2 is a determination based on a comparison between a change in line of sight, that is, the direction in which the viewpoint VP deviates from the center region 161, and a change in the posture of the view camera 11, that is, the direction in which the user's head posture changes. In FIGS. 4B1 and 4C1, the viewpoint VP deviates upward from the central region 161. In FIG. On the other hand, when the user tilts the head forward, the posture of the head-mounted field-of-view camera 11 changes downward. In such a case, the line-of-sight change is in a direction that cancels out the camera posture change, so the judgment of condition 2 is 'true'. If the change in camera posture is not detected, or if the direction of camera posture change is not opposite to the direction of line-of-sight change, it is determined as 'false' rather than cancellation. Based on the determination of condition 2, if 'false', the process is terminated, and if 'true', the process branches to the subsequent process (step STP4).

続いて、注視アイコンICを中心部領域161に表示する。これは、視界カメラ11による取得画像に重ねて表示するものである。更に、後で説明を加える、注視フラグFGをセットする。そして、注視アイコンICの表示後は次の処理に進む前に所定時間だけ間を置く(ステップSTP5)。これは注視アイコンICが中心部領域161に表示され、使用者がそこに視点VPを滞留させる時間を確保するためである。この所定時間は1秒以内であることが望ましいが1秒を超える設定を除外するものではない。 Subsequently, the gaze icon IC is displayed in the center area 161 . This is displayed superimposed on the image acquired by the field-of-view camera 11 . In addition, it sets a gaze flag FG, which will be explained later. After the gaze icon IC is displayed, there is a predetermined time interval before proceeding to the next process (step STP5). This is to ensure that the gaze icon IC is displayed in the center area 161 and that the user maintains the viewpoint VP there. Although it is desirable that this predetermined time is within 1 second, setting exceeding 1 second is not excluded.

次いで、再び視線検出をし(ステップSTP6)、条件3の判断をする。条件3の判断において、使用者の視点VPが注視アイコンICから外れていれば‘偽’、滞留していれば‘真’である。条件3の判断に基づいて分岐する(ステップSTP7)。‘偽’の場合は注視フラグFGをリセットし、注視アイコンICを消去して処理を終了する(ステップSTP9)。一方、‘真’の場合はステップSTP6の視線検出に戻る(ステップSTP7)。ここで、注視フラグFGとは、他の処理ルーチンでも参照可能な、オンとオフといった二値の参照用フラグである。 Next, the line of sight is detected again (step STP6), and condition 3 is determined. In the judgment of condition 3, if the user's viewpoint VP is out of the gaze icon IC, it is 'false', and if it stays, it is 'true'. It branches based on the determination of condition 3 (step STP7). If 'false', reset the gaze flag FG, erase the gaze icon IC, and terminate the process (step STP9). On the other hand, in the case of 'true', the process returns to the line-of-sight detection of step STP6 (step STP7). Here, the gaze flag FG is a binary reference flag such as ON and OFF that can be referred to in other processing routines.

以上の処理を簡単に表すと、視線変化と、使用者の頭部に装着の視界カメラ11の動きが相殺する向きであるときは、中心部領域161に注視アイコンICが表示される。そして、使用者が視点VPをここに滞留させると、注視アイコンICの表示は維持されるが、視点VPをこれに滞留させないと注視アイコンICは消去される。また、注視アイコンICの表示が維持されている間は、注視フラグFGはセット状態を維持している。 To simply express the above processing, when the change in the line of sight and the movement of the field-of-view camera 11 mounted on the user's head are offset, the gaze icon IC is displayed in the center area 161 . When the user stops the viewpoint VP here, the display of the gaze icon IC is maintained, but when the user does not stop the viewpoint VP, the gaze icon IC is erased. Further, while the display of the gaze icon IC is maintained, the gaze flag FG remains set.

ここで、演算器21はマルチスレッドで動作する演算器である。すなわち、複数の処理ルーチンが並行して実行される。演算器21の構成はシングルプロセッサかマルチプロセッサのいずれでもよい。シングルプロセッサの場合は、時分割で複数の処理ルーチンを実施し、見かけ上並行して実施しているように見える。マルチプロセッサの場合は、複数のプロセッサが共通のメモリをアクセスし、メモリアクセスの競合は適切の調整されているものとする。 Here, the computing unit 21 is a computing unit that operates in multithread. That is, multiple processing routines are executed in parallel. The configuration of the calculator 21 may be either a single processor or a multiprocessor. In the case of a single processor, multiple processing routines are executed in a time-sharing manner, apparently in parallel. In the case of multiprocessors, it is assumed that multiple processors access common memory and memory access contention is appropriately regulated.

図8(B)に示す処理は、(A)を参照して説明した処理と並行して行われる。さらに、先に説明した処理で出力される注視フラグFGを参照することができる。ここではまず条件4の判断をする。条件4において、注視フラグFGがセットされていれば‘真’、リセットされていれば‘偽’である。‘偽’であれば処理を終了し、‘真’であれば続く処理へ分岐する(ステップSTP10)。次いで、視界カメラ11のズーム動作を、ズーム制御部12を介して行う(ステップSTP11)。そして、再度、条件4の判断をする(ステップSTP10)。この処理を実行することにより、注視フラグFGがセットされている間、すなわち、中心部領域161に注視アイコンICが表示されている間は、視界カメラ11のズーム動作が継続される。 The processing shown in FIG. 8(B) is performed in parallel with the processing described with reference to (A). Furthermore, it is possible to refer to the gaze flag FG that is output in the process described above. Here, condition 4 is first determined. In condition 4, if the gaze flag FG is set, it is 'true', and if it is reset, it is 'false'. If it is 'false', the process ends, and if it is 'true', it branches to the subsequent process (step STP10). Next, the zoom operation of the field-of-view camera 11 is performed via the zoom control section 12 (step STP11). Then, condition 4 is determined again (step STP10). By executing this process, while the gaze flag FG is set, that is, while the gaze icon IC is displayed in the center area 161, the zoom operation of the view camera 11 is continued.

以上、説明した処理フローにより、第1実施形態に係るカメラ付き情報端末の使用者は、頭部と眼球の動作のみで視界カメラ11のズーム操作を行うことができる。表示部16の中心付近である中心部領域161に表示されている注視アイコンICに視点VPを滞留させ続ければ、注視フラグFGのセット状態が続き視界カメラ11のズーム動作を継続させることができる。また、中心部領域161に注視アイコンICが表示されている場合において、視VP点が注視アイコンICから外れていることが、視線検出部15によって検出されると、ステップSTP9にて注視アイコンICは消去され、同時に注視フラグFGもリセットされる。その結果、図8(B)に示されるカメラズーム動作も終了する。 According to the processing flow described above, the user of the camera-equipped information terminal according to the first embodiment can perform the zoom operation of the field-of-view camera 11 only by moving the head and the eyeballs. If the viewpoint VP continues to stay at the gaze icon IC displayed in the center region 161 near the center of the display unit 16, the gaze flag FG continues to be set and the zooming operation of the view camera 11 can be continued. Further, when the gaze icon IC is displayed in the center region 161, if the line-of-sight detection unit 15 detects that the gaze VP point is out of the gaze icon IC, the gaze icon IC is displayed at step STP9. It is erased, and at the same time, the gaze flag FG is also reset. As a result, the camera zoom operation shown in FIG. 8B also ends.

使用者の顎引き動作については既に図4と図5とを参照して説明した。顎引き動作に伴って、頭部前面の顔面は下向きに傾く一方で、視線は上方へ変化し、両者は相殺するように相反する向きに変化していた。これと対照的な動作は、使用者による顎突出し動作である。図9を参照してこれを説明する。図9(A1)は通常の自然な状態であって、顔向きと視線方向は一致している。頭部前面に装着されている視界カメラ11の方向CDと、表示部16の中心付近に視点VPを定めている使用者の視線方向CDとは一致している。図9(A2)は視界カメラ11が取得している画像であり、表示部16に表示されている画像でもある。この画像において、カメララインCLと、視点ラインVLとは、表示部16の中心付近で一致している。使用者は表示部16の中心付近に表されている小さな白い正方形を注視している。 The chin pulling action of the user has already been described with reference to FIGS. Along with the chin-pulling motion, the face on the front of the head tilted downward, while the line of sight changed upward, and the two directions changed in opposite directions to offset each other. A contrasting action is the chin thrusting action by the user. This is explained with reference to FIG. FIG. 9 (A1) shows a normal, natural state, in which the face direction and the line-of-sight direction match. The direction CD of the field-of-view camera 11 mounted on the front of the head coincides with the line-of-sight direction CD of the user whose viewpoint VP is set near the center of the display section 16 . FIG. 9A 2 is an image acquired by the field-of-view camera 11 and is also an image displayed on the display unit 16 . In this image, the camera line CL and the viewpoint line VL match near the center of the display section 16 . The user is gazing at a small white square appearing near the center of display 16 .

図9(B1)は、使用者が、表示部16の中心付近に表されている小さな白い正方形への注視を維持しながら顎を突き出し、その結果、顔面がやや上を向いた状態を表している。この時視界カメラ11の姿勢は上方へ姿勢変化し、視点VPは下方へ変化する。このときに視界カメラ11が取得して表示部16に表示している画像は(B2)に示されている。(A2)の画像と比較すると、やや下方へ移動している。勿論、カメララインCLは表示部16の中心に位置し続ける。一方で視点ラインVLは小さな白い正方形と共に下方へ移動している。この時は、視界カメラ11の姿勢変化の向きと使用者の視線変化の向きとが相反し、相殺する向きなので、表示部16の中心部領域161に注視アイコンICが表示される〔図9(C2)〕。 FIG. 9B1 shows a state in which the user sticks out his chin while maintaining his gaze on the small white square displayed near the center of the display unit 16, and as a result, his face is turned slightly upward. there is At this time, the orientation of the field-of-view camera 11 changes upward, and the viewpoint VP changes downward. The image acquired by the field-of-view camera 11 at this time and displayed on the display unit 16 is shown in (B2). Compared with the image of (A2), it has moved slightly downward. Of course, the camera line CL remains positioned at the center of the display section 16 . On the other hand, the line of sight VL is moving downwards along with the small white squares. At this time, since the direction of change in posture of the view camera 11 and the direction of change in the user's line of sight are opposite to each other and offset each other, the gaze icon IC is displayed in the central region 161 of the display unit 16 [FIG. 9 ( C2)].

図10(A1)は、使用者が、視点VPの注視アイコンICヘの滞留を維持して、最初に注視していた小さな白い正方形を注視アイコンICへ重ねた様子を表している。(A2)はこの時の表示部16の表示画面である。図10(B)と(C)とは、表示部16の中心、すなわち注視アイコンICを中心にズーム率が小さくなるズーム動作がなされて、対象物が徐々に小さくなり、視野は徐々に拡大されていく様子を示している。 FIG. 10(A1) shows a state in which the user keeps the viewpoint VP staying on the gaze icon IC and superimposes the small white square that was initially gazed on the gaze icon IC. (A2) is the display screen of the display unit 16 at this time. In FIGS. 10B and 10C, a zoom operation is performed to reduce the zoom rate around the center of the display unit 16, that is, the gaze icon IC, so that the object gradually becomes smaller and the field of view is gradually expanded. It shows how it is going.

図4と図5で説明したのは、視線変化の向きが上方向で注視アイコンICが表示された例であり、図9と図10で説明したのは、視線変化の向きが下向で注視アイコンICが表示された例である。そのほか、視線変化が左右いずれかの向きに変化して、視界カメラ11がそれぞれこれを相殺する向きに姿勢変化する場合を作ることができる。次に説明する第2実施形態は、注視アイコンICが表示される動作において、視線変化が上方向であったときに視界カメラ11に拡大ズーム動作を起こさせ、視線変化が下方向であったときに視界カメラ11に縮小ズーム動作を起こさせるものである。ここで、拡大ズームとは対象物が大きくなる一方で視野範囲が狭くなるズーム動作とする。そして、縮小ズームとは対象物が小さくなる一方で視野範囲が広くなるズーム動作とする。 4 and 5 are examples in which the gaze icon IC is displayed when the direction of change in the line of sight is upward, and in FIGS. This is an example in which an icon IC is displayed. In addition, it is possible to create a case where the change in line of sight changes to either the left or right direction, and the sight camera 11 changes its posture in a direction that offsets this change. In the second embodiment described below, in the operation of displaying the gaze icon IC, when the change in line of sight is upward, the view camera 11 is caused to perform an enlargement zoom operation, and when the change in line of sight is downward, This causes the visual field camera 11 to perform a reduction zoom operation. Here, the expansion zoom is a zoom operation in which an object becomes larger and the field of view becomes narrower. The reduction zoom is a zoom operation in which the object becomes smaller and the field of view becomes wider.

〔第2実施形態 カメラ付き情報端末〕
図11を参照して、本発明に基づく第2実施形態のカメラ付き情報端末2の処理フローを説明する。同カメラ付き情報端末2のブロック図で表される構成は第1実施形態のカメラ付き情報端末1と同様である。まず、図11(A)を参照する。ステップSTP1からステップSTP4までの処理は、第1実施形態のカメラ付き情報端末1と同様である。すなわち、視線変化の向きとカメラ姿勢変化の向きが相殺する関係になければ処理を終了する。相殺する関係にあれば、ステップSTP12に分岐する。
[Second embodiment information terminal with camera]
A processing flow of the camera-equipped information terminal 2 according to the second embodiment of the present invention will be described with reference to FIG. The configuration represented by the block diagram of the camera-equipped information terminal 2 is the same as that of the camera-equipped information terminal 1 of the first embodiment. First, FIG. 11A is referred to. The processing from step STP1 to step STP4 is the same as that of the camera-equipped information terminal 1 of the first embodiment. In other words, if the direction of line-of-sight change and the direction of camera attitude change do not cancel each other out, the process ends. If there is a canceling relationship, the process branches to step STP12.

条件5は、先のステップで検出した視線変化が上方への変化であったことである。上方へ視線変化するのは、使用者が顎を引き、頭部をやや下向きに向けたときに生じる変化である。条件5の判断をし、視線変化が上方ではなかった場合は、‘偽’としてステップSTP14へ分岐する。視線変化が上方であった場合は、‘真’としてステップSTP13へ分岐する(ステップSTP12)。ステップSTP13では、後で説明を加える、注視Uフラグをセットする。これは視線変化が上方であった時、すなわち、使用者が顎を引いたときにセットされる1ビットフラグである。後記する図11(B)で説明する処理ルーチンではこのフラグを参照する。ステップSTP14では、注視Dフラグをセットする。これは視線変化が下方であった時、すなわち、使用者が顎を突き出したときにセットされる1ビットフラグである。後記する図11(B)で説明する処理ルーチンではこのフラグを参照する。ただし、ここに示した処理フローでは視線変化が下方であったことを含めて、上方以外の視線変化では全て注視Dフラグがセットされる。厳格に、視線変化が下方の時のみ注視Dフラグをセットするのであれば、ステップSTP12の分岐を3通りとする必要がある。そして、視線変化が上下方向のいずれにも該当しない場合は、処理を終了するようにすればよい。 Condition 5 is that the line-of-sight change detected in the previous step is an upward change. The change in line of sight upward is a change that occurs when the user pulls the chin and turns the head slightly downward. If condition 5 is judged and the change in line of sight is not upward, it is determined as 'false' and the process branches to step STP14. If the line-of-sight change is upward, it is determined as 'true' and the process branches to step STP13 (step STP12). At step STP13, a gaze U flag, which will be explained later, is set. This is a 1-bit flag that is set when the line-of-sight change was upward, i.e. when the user pulled his chin. This flag is referred to in the processing routine described later with reference to FIG. 11(B). At step STP14, a gaze D flag is set. This is a 1-bit flag that is set when the line-of-sight change was downward, i.e., when the user stuck out his chin. This flag is referred to in the processing routine described later with reference to FIG. 11(B). However, in the processing flow shown here, the fixation D flag is set for all line-of-sight changes other than upward, including the fact that the line-of-sight change was downward. Strictly speaking, if the gaze D flag is to be set only when the line-of-sight change is downward, it is necessary to branch step STP12 in three ways. Then, if the line-of-sight change does not correspond to any of the vertical directions, the processing may be terminated.

続く処理で、中心部領域161に注視アイコンICを表示し、所定時間維持する(ステップSTP5)。これは、使用者が視点VPを注視アイコンICに滞留させるまでの時間を確保するためである。次いで、再び視線検出をし(ステップSTP6)、条件3の判断をする。条件3の判断において、使用者の視点VPが注視アイコンICに滞留していなければ‘偽’、滞留していれば‘真’である。条件3の判断に基づいて分岐する(ステップSTP7)。‘偽’の場合は注視Uフラグまたは注視Dフラグをリセットし、注視アイコンICを消去して処理を終了する(ステップSTP15)。一方、‘真’の場合はステップSTP6の視線検出に戻る(ステップSTP7)。ここで、注視Uフラグと注視Dフラグとは、他の処理ルーチンでも参照可能な、オンとオフといった二値の参照用フラグである。 In the subsequent processing, the gaze icon IC is displayed in the center region 161 and maintained for a predetermined time (step STP5). This is to secure time until the user stays the viewpoint VP on the gaze icon IC. Next, the line of sight is detected again (step STP6), and condition 3 is determined. In the determination of condition 3, if the user's viewpoint VP does not stay at the gaze icon IC, it is 'false', and if it stays, it is 'true'. It branches based on the determination of condition 3 (step STP7). If 'false', reset the gaze U flag or gaze D flag, erase the gaze icon IC, and terminate the process (step STP15). On the other hand, in the case of 'true', the process returns to the line-of-sight detection of step STP6 (step STP7). Here, the attention U flag and the attention D flag are binary reference flags such as ON and OFF that can be referred to in other processing routines.

以上の処理を簡単に表すと、視線変化と、使用者の頭部に装着の視界カメラ11の動きが相殺する向きであるときは、中心部領域161に注視アイコンICが表示される。使用者が視点VPをここに滞留させると、注視アイコンICの表示は維持されるが、視点VPをこれに滞留させないと注視アイコンICは消去される。また、注視アイコンICの表示が維持されている間は、注視Uフラグ又は注視Dフラグはセット状態を維持している。使用者の動作が顎を引く動作であった場合は注視Uフラグがセット状態となっており、使用者の動作が顎を突き出す動作であった場合は注視Dフラグがセット状態となっている。 To simply express the above processing, when the change in the line of sight and the movement of the field-of-view camera 11 mounted on the user's head are offset, the gaze icon IC is displayed in the center area 161 . When the user stops the viewpoint VP here, the display of the gaze icon IC is maintained, but when the user does not stop the viewpoint VP, the gaze icon IC is erased. Further, while the display of the gaze icon IC is maintained, the gaze U flag or the gaze D flag remains set. When the user's motion is pulling the chin, the gaze U flag is set, and when the user's motion is the chin thrusting motion, the gaze D flag is set.

図11(B)に示す処理は、(A)を参照して説明した処理と並行して行われる。さらに、先に説明した処理で出力される注視Uフラグと注視Dフラグとを参照することができる。ここではまず条件6の判断をする。条件6において、注視Uフラグがセットされていれば‘真’、リセットされていれば‘偽’である。‘偽’であればステップSTP18へ分岐し、‘真’であればステップSTP17に分岐する(ステップSTP16)。ステップSTP17では、視界カメラ11の拡大ズーム動作を行い、再びステップ16に戻る(ステップSTP17)。ステップSTP18では、条件7の判断をする。条件7において、注視Dフラグがセットされていれば‘真’、リセットされていれば‘偽’である。‘偽’の場合は処理を終了する。一方、‘真’の場合は視界カメラ11の縮小ズーム動作を行う。あるいは、視野範囲最大の状態に戻す動作でもよい。その後、再びステップ16に戻る(ステップSTP19)。 The processing shown in FIG. 11(B) is performed in parallel with the processing described with reference to (A). Further, it is possible to refer to the attention U flag and the attention D flag output in the processing described above. Here, condition 6 is first determined. In condition 6, it is 'true' if the gaze U flag is set, and 'false' if it is reset. If 'false', the process branches to step STP18, and if 'true', the process branches to step STP17 (step STP16). At step STP17, the field-of-view camera 11 is zoomed in and the process returns to step S16 (step STP17). At step STP18, condition 7 is judged. Condition 7 is 'true' if the gaze D flag is set, and 'false' if it is reset. If 'false', terminate the process. On the other hand, in the case of 'true', the reduction zoom operation of the view camera 11 is performed. Alternatively, it may be an operation to return to the maximum viewing range. After that, the process returns to step 16 (step STP19).

以上、説明した処理フローにより、使用者にとって下を向く向きに視界カメラ11の姿勢変化が検出され。かつ、視点VPは中心部領域161から上へ変化したことが検出されると中心部領域161内に注視アイコンICが表示される。そして、使用者が視点VPを注視アイコンICに滞留している間は視界カメラ11のズーム率を増加する制御が行われるようにすることができる。 According to the processing flow described above, a change in posture of the field-of-view camera 11 is detected so that the user faces downward. Further, when it is detected that the viewpoint VP has changed upward from the center area 161 , the gaze icon IC is displayed within the center area 161 . Then, while the user stays at the gaze icon IC with the viewpoint VP, control can be performed to increase the zoom ratio of the field-of-view camera 11 .

また、使用者にとって上を向く向きに視界カメラ11の姿勢変化が検出され、かつ、視点VPは中心部領域161から下へ変化したことが検出されると中心部領域161内に注視アイコンICが表示される。そして、使用者が視点VPを注視アイコンICに滞留している間は視界カメラ11のズーム率を減少させる制御が行われるようにすることができる。 Further, when a change in posture of the view camera 11 is detected so that the user faces upward and a change in the viewpoint VP from the central region 161 downward is detected, the gaze icon IC is displayed in the central region 161. Is displayed. Then, while the user stays at the gaze icon IC with the viewpoint VP, control can be performed to decrease the zoom ratio of the view camera 11 .

また、視点VPが注視アイコンICから外れていることが検出されると、表示部16から注視アイコンICは消去される。同時に注視Uフラグ若しくは注視Dフラグもリセットされるので、視界カメラ11のズーム率を変化させる動作は終了する。 Further, when it is detected that the viewpoint VP is out of the gaze icon IC, the gaze icon IC is erased from the display section 16 . At the same time, the gaze U flag or the gaze D flag is also reset, so the operation of changing the zoom ratio of the field-of-view camera 11 ends.

次に、図12を参照して、視線検出部15の説明をする。視線検出部15は眼球カメラ14が取得する眼球画像から使用者の視線を検出するものである。より具体的には、使用者の視線と表示部16の表面とが交差する場所である視点VPの同表示部16の表面における座標を検出するものである。第1実施形態及び第2実施形態においては、眼球画像から使用者の右目の瞳の位置を検出する。瞳の検出を安定化するために、右目に近赤外照明を当てることもできる。この場合、眼球カメラ14は近赤外線領域に感度の高いカメラを用いる。 Next, the line-of-sight detection unit 15 will be described with reference to FIG. The line-of-sight detection unit 15 detects the user's line of sight from the eyeball image acquired by the eyeball camera 14 . More specifically, the coordinates on the surface of the display unit 16 of the viewpoint VP, which is the place where the user's line of sight and the surface of the display unit 16 intersect, are detected. In the first and second embodiments, the position of the pupil of the user's right eye is detected from the eyeball image. Near-infrared illumination can also be applied to the right eye to stabilize pupil detection. In this case, the eyeball camera 14 uses a camera with high sensitivity in the near-infrared region.

そして、視線検出に先立ち、図12(A1)と(A2)とに示されるキャリブレーション動作が必要である。第1実施形態及び第2実施形態のカメラ付き情報端末1及び2の表示部16の所定の位置には、キャリブレーション点P1と、P2、P3、P4が表示されている〔図12(A2)〕。同情報端末を装着した使用者はこれらの指定されたキャリブレーション点を目で追い、この時の眼球画像における瞳の位置が記録される。これは、使用者の視点VPの位置と瞳の位置との対応付けを行うことが目的である。この対応付けができたなら、例えば、図12(B2)ア)に示す右目眼球画像から、同じ行の(B3)のように瞳E1が検出されると、視点VPはキャリブレーション点P1上にあると判断される。ここで、使用者の視認する表示部16の表面(B1)と、眼球カメラからの画像による瞳(B3)とは、互いにほぼ逆向きゆえに左右逆転していることに注意する。(B3)アイウエのいずれにも一致しない位置に瞳を検出した場合には、(B1)のキャリブレーション点アイウエの位置から内そう又は外そうして視点VPの座標を検出する。以上が、視線検出部15の処理である。 Then, prior to line-of-sight detection, a calibration operation shown in FIGS. 12(A1) and (A2) is required. Calibration points P1, P2, P3, and P4 are displayed at predetermined positions of the display units 16 of the camera-equipped information terminals 1 and 2 of the first and second embodiments [FIG. 12 (A2) ]. A user wearing the information terminal follows these designated calibration points with his/her eyes, and the position of the pupil in the eyeball image at this time is recorded. The purpose of this is to associate the position of the user's viewpoint VP with the position of the pupil. If this correspondence is established, for example, when the pupil E1 is detected from the right-eye eyeball image shown in FIG. It is judged that there is Here, it should be noted that the surface (B1) of the display unit 16 visually recognized by the user and the pupil (B3) of the image from the eyeball camera are substantially opposite to each other, and thus the left and right are reversed. (B3) When the pupil is detected at a position that does not match any of the eyeways, the coordinates of the viewpoint VP are detected by moving in or out of the position of the calibration point eyeway in (B1). The above is the processing of the line-of-sight detection unit 15 .

次に、図13を参照して、姿勢変化検出部13の説明をする。使用者の頭部に装着された視界カメラ11が方向CD1に向かっているとき〔図13(A1)〕の、同カメラによる取得画像を図13(A2)に表す。ここで、使用者が顎を引いて頭部をやや下向きに傾けると、視界カメラ11の向きはCD2に向かう向きになる。このときに同カメラが取得する画像は図13(B2)に表されている。ここで、(A2)と(B2)との画像の差異からオプティカルフローを求めれば、視界カメラ11の姿勢変化を検出することができる。オプティカルフロー検出の方法を限定するものではないが、例えば、(A2)画像から局所的なテンプレートパタンを作成して〔図13(C1)のT1,T2,T3〕、(B2)画像についてパタンマッチングをすると、(C2)に示すようにマッチング領域を求めることができ〔(C2)のM1,M2,M3〕、T2の位置からM2の位置へのベクトルV2としてオプティカルフローが検出される。このベクトルの大きさ、方向が視界カメラ11の姿勢変化の大きさと方向である。そして、このベクトルの向きと反対の向きが視界カメラ11の姿勢変化の向きである。このように、カメラの姿勢変化前後の画像を処理して、カメラ姿勢変化と向きとを検出することができる。すなわち、オプティカルフロー検出部で姿勢変化検出部13を実現することができる。以上が姿勢変化検出部13の処理である。カメラ姿勢変化を検出するために、取得画像からオプティカルフローを検出する他に、使用者の頭部に加速度センサやジャイロセンサを装着してもよい。 Next, the posture change detection unit 13 will be described with reference to FIG. 13 . FIG. 13(A2) shows an image acquired by the field-of-view camera 11 mounted on the user's head when the camera is facing the direction CD1 [FIG. 13(A1)]. Here, when the user pulls the chin and tilts the head slightly downward, the view camera 11 is oriented toward CD2. An image acquired by the camera at this time is shown in FIG. 13 (B2). Here, if the optical flow is obtained from the difference between the images of (A2) and (B2), the posture change of the field-of-view camera 11 can be detected. Although the optical flow detection method is not limited, for example, (A2) creating a local template pattern from the image [T1, T2, T3 in FIG. 13 (C1)], (B2) pattern matching for the image Then, a matching area can be obtained as shown in (C2) [M1, M2, M3 in (C2)], and an optical flow is detected as a vector V2 from the position of T2 to the position of M2. The magnitude and direction of this vector are the magnitude and direction of the attitude change of the field-of-view camera 11 . Then, the direction opposite to the direction of this vector is the direction of change in posture of the field-of-view camera 11 . In this way, by processing the images before and after the change in camera posture, the change in camera posture and orientation can be detected. That is, the posture change detection unit 13 can be realized by the optical flow detection unit. The above is the processing of the posture change detection unit 13 . In order to detect changes in camera posture, an acceleration sensor or a gyro sensor may be attached to the user's head in addition to detecting optical flow from an acquired image.

以上が、第1実施形態及び第2実施形態に係るカメラ付き情報端末1及び2である。このような構成にすると、誤操作を抑えつつも、撮影対象を注視しながらカメラのズーム操作をすることができる。 The camera-equipped information terminals 1 and 2 according to the first and second embodiments are described above. With such a configuration, it is possible to perform a zoom operation of the camera while gazing at the object to be photographed while suppressing erroneous operations.

〔第3実施形態 情報システム〕
次に、図14を参照して、本発明に基づく第3実施形態に係る情報システム3を説明する。第3実施形態の情報システム3は、頭部装着型端末3Aとサーバ3Bとからなる。サーバ3Bとしてパーソナルコンピュータを使用することができる。頭部装着型端末3Aに備えられた視界カメラ11と、眼球カメラ14が取得した画像はサーバ3Bへ送信される。サーバ3Bでは、視界カメラ11の画像を処理して視界カメラ11の姿勢変化を検出する。また、眼球カメラ14の画像を処理して視線変化が検出される。
[Third Embodiment Information System]
Next, referring to FIG. 14, an information system 3 according to a third embodiment of the present invention will be described. The information system 3 of the third embodiment is composed of a head-mounted terminal 3A and a server 3B. A personal computer can be used as the server 3B. The images acquired by the field-of-view camera 11 provided in the head-mounted terminal 3A and the eyeball camera 14 are transmitted to the server 3B. The server 3B processes the image of the field-of-view camera 11 and detects the posture change of the field-of-view camera 11 . Further, the image of the eyeball camera 14 is processed to detect a line-of-sight change.

そして、サーバ3Bにて、視界カメラ11の姿勢変化と眼球カメラ14の画像から得られた視線変化とが相殺する向きであることを検出したときは、頭部装着型端末3Aに対して、注視アイコンICを表示する指令を送る。指令を受けた頭部装着型端末3Aは、これに備えられている表示部16の中心部領域161に注視アイコンICを表示する。その後、サーバ3Bは眼球カメラ14の画像から視線を求め、この視線の表示部16の表面との交点である視点VPが注視アイコンICから外れていると判断したときは、頭部装着型端末3Aに対して、注視アイコンICを消去するように指令を送る。一方、視点VPが注視アイコンICに滞留している場合にサーバ3Bは、頭部装着型端末3Aに対して、視界カメラ11のズーム動作をしてズーム率を大きく又は小さく制御するように指令を送る。指令を受けた頭部装着型端末3Aは視界カメラ11のズーム率を大きく又は小さく制御する。 Then, when the server 3B detects that the change in the posture of the view camera 11 and the change in the line of sight obtained from the image of the eye camera 14 are in a direction that cancels each other, the server 3B instructs the head-mounted terminal 3A to gaze at the head-mounted terminal 3A. Send a command to display the icon IC. The head-mounted terminal 3A that has received the command displays the gaze icon IC in the center area 161 of the display unit 16 provided therein. After that, the server 3B obtains the line of sight from the image of the eyeball camera 14, and when it determines that the viewpoint VP, which is the intersection of the line of sight with the surface of the display unit 16, is outside the gaze icon IC, the head-mounted terminal 3A to delete the gaze icon IC. On the other hand, when the viewpoint VP stays at the gaze icon IC, the server 3B instructs the head-mounted terminal 3A to zoom the view camera 11 and increase or decrease the zoom rate. send. The head-mounted terminal 3A that has received the command controls the zoom ratio of the field-of-view camera 11 to be larger or smaller.

以上の動作を踏まえて、図14(A)を参照する。頭部装着型端末3Aの構成は、図7に示した第1実施形態の構成から、姿勢変化検出部と、視線検出部の機能を除いたものである。より詳しくは、演算器31Aは演算器21から、姿勢変化検出部と、視線検出部の機能を除いたものになっている。これらの処理はサーバ3Bで行う。このような構成にすることで、演算器31Aの負荷を演算器21よりも軽減している。 Based on the above operation, FIG. 14A is referred to. The configuration of the head-mounted terminal 3A is the same as the configuration of the first embodiment shown in FIG. 7 except that the functions of the posture change detection section and the line-of-sight detection section are removed. More specifically, the arithmetic unit 31A is the same as the arithmetic unit 21 except for the functions of the posture change detection section and the line-of-sight detection section. These processes are performed by the server 3B. With such a configuration, the load on the computing unit 31A is reduced more than that on the computing unit 21. FIG.

図14(B)には、サーバ3Bの構成が示されている。サーバ演算器31Bには視線検出部35と、姿勢変化検出部33と、ズーム動作指令部32と、表示制御指令部34とが含まれている。これらは専用の電子回路で構成されていてもよいし、同等の機能をソフトウェア処理するための処理ルーチンとして実現されていてもよい。姿勢変化検出部33は、視界カメラ11の画像からオプティカルフローを検出して、視界カメラ11の姿勢変化を検出する。頭部装着型端末3Aに加速度センサやジャイロセンサが備えられているときはこれらの機器の出力を受け取って、このオプティカルフローを検出する処理に変えてもよい。視線検出部35は眼球カメラ14の画像から視線及び視線変化を検出する。表示制御指令部34は表示部16に注視アイコンICを表示したり消去したりする指令を頭部装着型端末3A対してする。ズーム動作指令部32は頭部装着型端末3Aのズーム制御部12に対して視界カメラにズーム動作をさせるように指令を送る。尚、頭部装着型端末3Aとサーバ3Bとの通信は通信部22とサーバ通信部32とを介して行われる。以上が、第3実施形態に係る情報システム3の構成である。このような構成にすると、頭部装着型端末3Aの演算器31Aの負荷が軽くなり、その結果、頭部装着型端末3Aの発熱を抑えたり、消費電力を減らしたり、軽量化を達成しやすくなったりする効果がある。 FIG. 14B shows the configuration of the server 3B. The server calculator 31B includes a line-of-sight detector 35, a posture change detector 33, a zoom operation commander 32, and a display control commander . These may be composed of dedicated electronic circuits, or may be realized as processing routines for processing equivalent functions by software. Posture change detection unit 33 detects an optical flow from the image of view camera 11 to detect a posture change of view camera 11 . If the head-mounted terminal 3A is equipped with an acceleration sensor or a gyro sensor, the processing may be changed to receive the output of these devices and detect this optical flow. The line-of-sight detection unit 35 detects line-of-sight and line-of-sight changes from the image of the eye camera 14 . The display control command unit 34 commands the head-mounted terminal 3A to display or erase the gaze icon IC on the display unit 16. FIG. The zoom operation command unit 32 sends a command to the zoom control unit 12 of the head-mounted terminal 3A to cause the field-of-view camera to perform a zoom operation. Communication between the head-mounted terminal 3A and the server 3B is performed via the communication section 22 and the server communication section 32. FIG. The above is the configuration of the information system 3 according to the third embodiment. With such a configuration, the load on the computing unit 31A of the head-mounted terminal 3A is lightened, and as a result, heat generation of the head-mounted terminal 3A can be suppressed, power consumption can be reduced, and weight reduction can be easily achieved. It has the effect of becoming

〔第4実施形態〕
次に図15を参照して、本発明に基づく第4実施形態を説明する。この実施形態は視界カメラ11による取得画像の中心と表示部16の中心との関係に関するものであり、上記第1実施形態から第3実施形態までのすべての実施形態に付加できる実施形態である。図15(A)は、視界カメラ11が取得する画像の中心IM0と、表示部16の中心DS0との位置関係を表す。視界カメラ11のレンズ系111が結像した画像113はイメージセンサ112で電気信号に変換されて表示部16に伝送される。そして、この画像が表示部16に画像16Sとして表示される。このとき、画像113の中心IM0は、表示部16の中心DS0に表示される。これは、使用者が、通常は、表示部16の中心DS0に視点を置いていることを前提としている。表示部16の中心DS0に画像113の中心IM0が一致しているので、視界カメラ11のズーム動作を行うと、表示部16の中心DS0に写る部分を中心に表示画像16Sは拡大若しくは縮小する。それ故に、第1~3実施形態は、表示部16の中心に注視マーカICを表示させたのである。
[Fourth embodiment]
A fourth embodiment according to the present invention will now be described with reference to FIG. This embodiment relates to the relationship between the center of the image acquired by the field-of-view camera 11 and the center of the display unit 16, and is an embodiment that can be added to all the above-described first to third embodiments. 15A shows the positional relationship between the center IM0 of the image acquired by the field-of-view camera 11 and the center DS0 of the display unit 16. FIG. An image 113 formed by the lens system 111 of the field-of-view camera 11 is converted into an electric signal by the image sensor 112 and transmitted to the display unit 16 . Then, this image is displayed on the display unit 16 as an image 16S. At this time, the center IM0 of the image 113 is displayed at the center DS0 of the display unit 16. FIG. This is based on the premise that the user usually puts the viewpoint at the center DS0 of the display unit 16. FIG. Since the center IM0 of the image 113 coincides with the center DS0 of the display section 16, when the field-of-view camera 11 performs a zoom operation, the display image 16S is enlarged or reduced centering on the portion shown in the center DS0 of the display section 16. FIG. Therefore, in the first to third embodiments, the gaze marker IC is displayed at the center of the display section 16. FIG.

しかし、人間には個人差があり、通常状態で、必ずしも視線が表示部16の中心DS0に向かっているとは限らない。また、カメラ付き情報端末は、個人の眼鏡のように各人向けに調整して製造されているとは限らない。そうすると、なおさら、通常状態で表示部16の中心DS0に視点を置いている場合は少なくなると想定される。そこで、各使用者が通常視点を置く位置に応じて、画像を表示しようとする構成が第4実施形態である。 However, there are individual differences between people, and the line of sight is not necessarily directed toward the center DS0 of the display unit 16 in a normal state. In addition, camera-equipped information terminals are not necessarily manufactured after being adjusted for each person, unlike individual eyeglasses. If so, it is assumed that the number of cases in which the viewpoint is placed at the center DS0 of the display unit 16 in the normal state is even less. Accordingly, the fourth embodiment is configured to display an image according to the position where each user usually places the viewpoint.

第4実施形態のカメラ付き情報端末では、常に、若しくは一定期間ごとに使用者の視点VPの位置である座標値をサンプルとして取得してメモリ23若しくはサーバメモリ33に保持する。これを統計処理して、使用者の視点VPが最も多く集まる位置の座標、若しくは平均的に集まる位置の座標を求める。統計処理としては平均値や最頻値をとることができる。サンプル取得するのは、使用者がズーム操作のために注視アイコンICを表示させている期間を除くのが好ましい。注視アイコンICに視点誘導されている期間は、使用者の通常の視点位置とは言えないからである。上記サンプルから古い物を捨てて、新しいものに入れ替えることで、使用者の通常の視点VPの位置が次第に変化していくことに追従する。 In the camera-equipped information terminal of the fourth embodiment, the coordinate values representing the position of the viewpoint VP of the user are acquired as samples at all times or at regular intervals, and stored in the memory 23 or the server memory 33 . By statistically processing this, the coordinates of the position where the user's viewpoints VP gather most or the coordinates of the position where the viewpoints VP gather on average are obtained. For statistical processing, an average value or a mode value can be taken. It is preferable to acquire samples except for the period during which the user displays the attention icon IC for zooming. This is because the period during which the user's viewpoint is guided to the gaze icon IC cannot be said to be the user's normal viewpoint position. By discarding the old sample and replacing it with the new sample, it follows the gradual change of the position of the user's normal viewpoint VP.

図15(B)の例では、統計処理で、視点VPが置かれる最頻値の座標を求めている。ここで、視点VPが置かれる最頻値の座標をニュートラル視点位置DS1と称することとする。このニュートラル視点位置DS1に画像113の中心IM0が一致するように移動させた画像16Qが表示部16に表示されるようにしている。(C)は、説明上の要部を拡大して表したものである。図では、ニュートラル視点位置DS1は表示部16の中心位置DS0に対して紙面上の上下方向のいずれかの移動に見えるが、実際には、紙面に直交する方向にも移動し得るものである。そして、中心部領域161も、ニュートラル視点位置DS1を中心に設定する。 In the example of FIG. 15B, the coordinates of the most frequent value at which the viewpoint VP is placed are obtained by statistical processing. Here, the coordinate of the most frequent value at which the viewpoint VP is placed is called a neutral viewpoint position DS1. An image 16Q moved so that the center IM0 of the image 113 coincides with the neutral viewpoint position DS1 is displayed on the display unit 16. FIG. (C) is an enlarged representation of the main part for explanation. In the drawing, the neutral viewpoint position DS1 appears to move vertically on the paper with respect to the center position DS0 of the display unit 16, but in reality it can also move in a direction orthogonal to the paper. A center region 161 is also set around the neutral viewpoint position DS1.

以上説明した第4実施形態は、視点VPの位置を表す座標値の平均値若しくは最頻値に当たる位置を検出してニュートラル視点位置DS1とし、このニュートラル視点位置DS1に視界カメラ11で取得した画像113の中心IM0を一致させて表示部16に表示する。更に、ニュートラル視点位置DS1を中心として中心部領域161を設ける。 In the fourth embodiment described above, the position corresponding to the average value or the mode value of the coordinate values representing the position of the viewpoint VP is detected and set as the neutral viewpoint position DS1, and the image 113 acquired by the field camera 11 at this neutral viewpoint position DS1. are displayed on the display unit 16 by matching the center IM0 of . Furthermore, a central region 161 is provided around the neutral viewpoint position DS1.

また、これらの処理を、プログラムを使って実現するには、視点VPの位置を表す座標値の平均値若しくは最頻値に当たる位置を検出して前記ニュートラル視点位置DS1とするステップを有し、表示部16に視界カメラ11の取得画像と、注視アイコンICとを表示するステップでは、視界カメラ11で取得した画像の中心をニュートラル視点位置DS1に一致させる。そして、ニュートラル視点位置DS1を中心として中心部領域161を定め、この中心部領域161内に注視アイコンICを表示する処理する。以上の一連の処理を演算器21又は演算器31Bに実行させればよい。このようにすることで、使用者ごとの視点の置き方の差異を吸収し、誰にとっても自然な操作ができる。以上、視点VPの位置を表す座標値の平均値若しくは最頻値に当たる位置を検出し、この位置に視界カメラ11で取得した画像113の中心IM0を一致させた画像16Qを表示部16に表示するカメラ付き情報端末を説明した。 In addition, in order to implement these processes using a program, there is a step of detecting the position corresponding to the average value or the mode value of the coordinate values representing the position of the viewpoint VP and setting it as the neutral viewpoint position DS1. In the step of displaying the image captured by the field-of-view camera 11 and the gaze icon IC on the unit 16, the center of the image captured by the field-of-view camera 11 is aligned with the neutral viewpoint position DS1. Then, a center region 161 is defined with the neutral viewpoint position DS1 as the center, and processing is performed to display the gaze icon IC in this center region 161 . The series of processes described above may be executed by the arithmetic unit 21 or the arithmetic unit 31B. By doing so, it is possible to absorb the difference in the way of placing the viewpoint for each user and to perform natural operation for everyone. As described above, the position corresponding to the average value or the mode value of the coordinate values representing the position of the viewpoint VP is detected, and the image 16Q obtained by matching the center IM0 of the image 113 acquired by the field-of-view camera 11 to this position is displayed on the display unit 16. An information terminal with a camera was explained.

尚、図15では、視界カメラ11が取得した画像113と、表示部への表示画像16Sと、補正後の表示画像16Qとを、厚みのある物体のように表している。しかしこれは、説明の便宜上このように表現しているのであって、これら画像は電荷のチャージ等の電気信号であるから、現実には図のように厚みのあるものではない。 Note that in FIG. 15, the image 113 acquired by the field-of-view camera 11, the display image 16S on the display unit, and the corrected display image 16Q are represented like thick objects. However, this is used for convenience of explanation, and since these images are electric signals such as electric charges, they are not actually thick as shown in the figure.

1・・・第1実施形態のカメラ付き情報端末、11・・・視界カメラ、
111・・・視界カメラのレンズ系、112・・・視界カメラのイメージセンサ、
113・・視界カメラが取得した画像、12・・・ズーム制御部、
13・・・姿勢変化検出部、14・・・眼球カメラ、15・・・視線検出部、
16・・・表示部、17・・・表示制御部、1F・・・フレーム、
16A・・・表示部カバー、16B・・・ミラー、16C・・・撮像用プリズム、
16D・・・視認用プリズム、16S・・・表示部への表示画像、
16Q・・・表示部への補正後の表示画像、161・・・中心部領域、
2A・・・コントロールボックス、21・・・演算器、22・・・通信部、
23・・・メモリ、2・・・第2実施形態のカメラ付き情報端末、
3・・・第3実施形態の情報システム、3A・・・頭部装着型端末、
3B・・・サーバ、31A・・・演算器、31B・・・サーバ演算器、
32・・・ズーム動作指令部、33・・・姿勢変化検出部、
34・・・表示制御指令部、35・・・視線検出部、CL・・・カメラライン、
VL・・・視点ライン、E1,E2,E3,E4・・・検出された瞳、
T1,T2,T3・・・テンプレート、M1,M2,M3・・・マッチング領域、
IC・・・注視アイコン、FG・・・注視フラグ、
IM0・・・視界カメラが取得した画像の中心、DS0・・・表示部の中心、
DS1・・・ニュートラル視点位置、LP1,LP2・・・光路、
P1,P2,P3,P4・・・キャリブレーション点、
R-Eye・・・第1実施形態のカメラ付き情報端末の使用者の右目、
VD・・・使用者の視線の向きと方向、
CD,CD1,CD2・・・視界カメラの向きと方向、
VP・・・視点、V1,V2,V3・・・オプティカルフローベクトル
1... information terminal with camera according to first embodiment, 11... field-of-view camera,
111... Lens system of field camera, 112... Image sensor of field camera,
113... Image acquired by view camera, 12... Zoom control unit,
13 Posture change detection unit 14 eyeball camera 15 line of sight detection unit
16... display section, 17... display control section, 1F... frame,
16A... display unit cover, 16B... mirror, 16C... imaging prism,
16D: Prism for visual recognition, 16S: Display image on the display unit,
16Q: display image after correction on the display unit, 161: central region,
2A... Control box, 21... Computing unit, 22... Communication unit,
23... memory, 2... information terminal with camera according to the second embodiment,
3... Information system of the third embodiment, 3A... Head-mounted terminal,
3B... server, 31A... calculator, 31B... server calculator,
32... Zoom operation command unit, 33... Posture change detection unit,
34... Display control command unit, 35... Line of sight detection unit, CL... Camera line,
VL... viewpoint line, E1, E2, E3, E4... detected pupils,
T1, T2, T3... templates, M1, M2, M3... matching regions,
IC: gaze icon, FG: gaze flag,
IM0: the center of the image acquired by the field-of-view camera, DS0: the center of the display unit,
DS1: Neutral viewpoint position, LP1, LP2: Optical path,
P1, P2, P3, P4... calibration points,
R-Eye ... the right eye of the user of the camera-equipped information terminal of the first embodiment,
VD: Direction and direction of the user's line of sight,
CD, CD1, CD2 -- direction and direction of the view camera,
VP: viewpoint, V1, V2, V3: optical flow vector

Claims (8)

使用者の鼻先の向く向きに向けて該使用者頭部の顔側に装着されていて、該使用者の頭部顔面の姿勢変化に伴って同じ角度だけ傾く視界カメラと、
前記使用者の目を撮影するために該使用者の顔側に装着されている眼球カメラと、
前記使用者が視認し得るように該使用者の頭部に装着されて、前記視界カメラが取得した画像を表示する表示部と、
前記使用者の頭部に装着されている機器から送られた情報を処理して前記視界カメラの姿勢変化の有無と向きとを検出する姿勢変化検出部と、を有し、
前記姿勢変化検出部が、前記使用者が顎を引くことで生じる前記顔面の下方への傾きに伴う前記視界カメラの姿勢変化を検出したときに、前記眼球カメラが取得する画像から算出される前記使用者の視線の変化の向きが前記視界カメラの姿勢変化相殺する向きである場合に、
前記表示部の中心から視野角プラスマイナス2度の範囲内である中心部領域内に、注視アイコンが所定時間だけ表示されるように構成されており、
前記表示部の表面と前記使用者の視線とが交差する点である視点が前記注視アイコンに滞留すると該注視アイコンの表示は維持され、更に前記視界カメラのズーム率が増加する拡大制御が行われるカメラ付き情報端末。
a vision camera mounted on the face side of the user's head in the direction in which the tip of the user's nose points, and tilted by the same angle as the posture of the user's head and face changes ;
an eyeball camera mounted on the user's face side for photographing the user's eyes;
a display unit mounted on the head of the user so that the user can visually recognize the image, and displaying an image acquired by the field-of-view camera;
a posture change detection unit that processes information sent from a device worn on the head of the user and detects whether or not there is a posture change and the orientation of the field-of-view camera ;
The above calculated from the image acquired by the eyeball camera when the posture change detection unit detects a posture change of the field-of-view camera that accompanies the downward inclination of the face caused by pulling the chin of the user. When the direction of the change in the user's line of sight is the direction that offsets the change in the posture of the sight camera,
The gaze icon is configured to be displayed for a predetermined time in a central region within a viewing angle range of plus or minus 2 degrees from the center of the display unit,
When the viewpoint, which is the point where the surface of the display unit and the line of sight of the user intersect, stays on the gaze icon, the display of the gaze icon is maintained, and enlargement control is performed to increase the zoom rate of the view camera. An information terminal with a camera.
前記姿勢変化検出部が、前記使用者が顎を突き出すことで生じる前記顔面の上方への傾きに伴う前記視界カメラの姿勢変化を検出したときに、前記眼球カメラが取得する画像から算出される前記使用者の視線の変化の向きが前記視界カメラの姿勢変化を相殺する向きである場合に、前記中心部領域内に、前記注視アイコンが所定時間だけ表示されるように構成されており、The above calculated from the image acquired by the eyeball camera when the posture change detection unit detects a posture change of the field-of-view camera that accompanies an upward tilt of the face caused by the user sticking out the chin. The gaze icon is configured to be displayed for a predetermined period of time in the center region when the direction of change in the line of sight of the user is the direction that offsets the change in the posture of the field-of-view camera,
前記視点が前記注視アイコンに滞留すると該注視アイコンの表示は維持され、更に前記視界カメラのズーム率が減少する縮小制御が行われる、請求項1に記載のカメラ付き情報端末。 2. A camera-equipped information terminal according to claim 1, wherein when said viewpoint stays on said gaze icon, the display of said gaze icon is maintained, and reduction control is performed to reduce the zoom ratio of said view camera.
前記表示部の表面における前記視点の位置を表す座標値の平均値若しくは最頻値に当たる位置を検出してこれをニュートラル視点位置と称することとし、
該ニュートラル視点位置に前記視界カメラが取得した画像の中心を一致させて該画像を前記表示部に表示し、
前記ニュートラル視点位置を中心として前記中心部領域を設ける、請求項1又は請求項2に記載のカメラ付き情報端末。
Detecting a position corresponding to an average value or a mode value of coordinate values representing the position of the viewpoint on the surface of the display unit and calling it a neutral viewpoint position,
aligning the center of the image acquired by the field-of-view camera with the neutral viewpoint position and displaying the image on the display unit;
3. The camera-equipped information terminal according to claim 1, wherein said central region is provided around said neutral viewpoint position.
前記使用者の頭部に装着されて前記頭部顔面の姿勢変化を検出するジャイロセンサ又は加速度センサを有し
前記姿勢変化検出部は、前記ジャイロセンサ又は前記加速度センサから送られた情報に基づいて、前記頭部顔面の姿勢変化の向き及び、該頭部と同じ角度だけ傾く前記視界カメラの姿勢変化の向きを検出する、請求項1、請求項2又は請求項3のいずれか1項に記載のカメラ付き情報端末。
Having a gyro sensor or an acceleration sensor mounted on the user's head and detecting a change in posture of the head and face ,
Based on the information sent from the gyro sensor or the acceleration sensor, the posture change detection unit detects the direction of the posture change of the head and face and the direction of the posture change of the viewing camera tilted by the same angle as the head. 4. The camera-equipped information terminal according to any one of claims 1, 2, or 3, which detects .
前記姿勢変化検出部は、前記視界カメラが取得する画像の変化からオプティカルフローを検出し、該オプティカルフローとして検出されたベクトルの向きから、前記視界カメラの姿勢変化の向きを検出する、請求項1、請求項2又は請求項3のいずれか1項に記載のカメラ付き情報端末。 2. The orientation change detection unit detects an optical flow from a change in an image acquired by the sight camera , and detects the orientation of the orientation change of the sight camera from the direction of a vector detected as the optical flow. 4. The information terminal with a camera according to claim 2 or 3. 使用者の鼻先の向く向きに向けて該使用者の顔側に装着されていて該使用者の頭部顔面の姿勢変化に伴って同じ角度だけ傾く視界カメラであって、該視界カメラの画像の変化で生じたオプティカルフローとして検出されたベクトルの向きから該視界カメラの姿勢変化の向きを検出する、若しくは、該視界カメラと同じ角度だけ傾く前記使用者の頭部に装着されたジャイロセンサまたは加速度センサから送られた情報に基づいて該視界カメラの姿勢変化の向きを検出する姿勢変化検出部と、
前記使用者の目を撮影するために該使用者の顔側に装着されている眼球カメラが取得する画像を受信して、該画像から前記使用者の視線を検出する視線検出部と、
前記視界カメラのズーム制御部に対して指令を送るズーム動作指令部と、
前記使用者が視認し得るように該使用者の頭部に装着されて、前記視界カメラが取得した画像を表示する表示部の表示制御部に対して指令を送る表示制御指令部と、を有し、
前記姿勢変化検出部が、前記使用者が顎を引くことで生じる前記顔面の下方への傾きに伴う前記視界カメラの姿勢変化を検出したときに、前記視線検出部が検出した視線が前記視界カメラの姿勢変化を相殺する向きに変化していると判定される場合には、
前記表示制御指令部は前記表示制御部に対して指令を出して、前記表示部の中心から視野角プラスマイナス2度の範囲内である中心部領域に注視アイコンを所定時間だけ表示させ、
前記視線検出部が検出する視線が前記表示部表面と交差する点である視点が、前記注視アイコンに滞留していれば、前記表示制御指令部を介して前記表示制御部に前記注視アイコンの表示を維持させ、
更に前記ズーム動作指令部を介して前記ズーム制御部に前記視界カメラのズーム率が増加する拡大制御をさせるカメラ付き情報端末用サーバ。
A vision camera mounted on the user's face toward the direction of the user's nose tip and tilted by the same angle as the user's head and face posture changes, wherein the image of the vision camera is A gyro sensor or an acceleration mounted on the user's head that is tilted by the same angle as the field camera to detect the direction of the change in the posture of the field camera from the direction of the vector detected as the optical flow generated by the change an attitude change detection unit that detects the direction of attitude change of the viewing camera based on information sent from the sensor ;
a line-of-sight detection unit that receives an image acquired by an eyeball camera attached to the face of the user to photograph the eyes of the user and detects the line of sight of the user from the image;
a zoom operation command unit that sends a command to a zoom control unit of the field-of-view camera;
a display control command unit that is mounted on the user's head so that the user can visually recognize the image, and that sends a command to a display control unit of a display unit that displays an image acquired by the visual field camera. death,
When the posture change detection unit detects a change in posture of the field-of-view camera that accompanies a downward tilt of the face caused by pulling the chin of the user, the line of sight detected by the line-of-sight detection unit is detected by the field-of-view camera. If it is determined that it is changing in a direction that offsets the attitude change of
The display control command unit issues a command to the display control unit to display the gaze icon for a predetermined time in a central region within a viewing angle range of plus or minus 2 degrees from the center of the display unit,
If the viewpoint, which is the point where the line of sight detected by the line-of-sight detection unit intersects the surface of the display unit, stays on the gaze icon, the display control unit displays the gaze icon via the display control command unit. to maintain
Further, the camera-equipped information terminal server causes the zoom control section to perform enlargement control to increase the zoom ratio of the view camera through the zoom operation command section.
使用者の鼻先の向く向きに向けて該使用者の顔側に装着されている視界カメラの姿勢変化を検出するステップと、
前記使用者の眼球に向けて該使用者の顔前に備えられた眼球カメラが取得する画像から前記使用者の視線を検出するステップと、
前記視界カメラの姿勢変化を検出するステップと前記視線を検出するステップとでそれぞれ検出された前記視界カメラの姿勢変化の向きと前記視線変化の向きとが相殺する向きであるときに、
前記使用者が視認し得るように該使用者の頭部に装着されて、前記視界カメラが取得した画像を表示する表示部の中心若しくは、前記表示部の中心から視野角プラスマイナス2度の範囲内である中心部領域に、注視アイコンを前記視界カメラが取得した画像に重ねて前記表示部に表示させるステップと、
前記使用者の視線が前記表示部の表面と交差する点である視点が前記注視アイコンに滞留している間は前記視界カメラのズーム率を制御させるステップとを有する処理を演算器に実行させるプログラムにして、
前記使用者が顎を引くことで生じる前記顔面の下方への傾きに伴う前記視界カメラの姿勢変化が検出されたときに、前記視線の変化の向きが該視界カメラの姿勢変化を相殺する向きである場合には、
前記視界カメラのズーム率を制御させるステップにて、前記視界カメラのズーム率が増加する拡大制御する処理を、前記演算器に実行させるプログラム。
a step of detecting a change in posture of a field-of-view camera mounted on the face side of the user in the direction in which the tip of the user's nose points;
a step of detecting the line of sight of the user from an image acquired by an eyeball camera provided in front of the user's face toward the user's eyeballs;
when the orientation of the orientation change of the visual field camera and the orientation of the visual line change detected in the step of detecting the orientation change of the visual field camera and the step of detecting the line of sight are mutually offset,
The center of a display unit that is worn on the user's head so that the user can visually recognize it and displays the image acquired by the visual field camera, or a viewing angle range of plus or minus 2 degrees from the center of the display unit causing the display unit to display a gaze icon superimposed on the image acquired by the field-of-view camera in a center area within the
a step of controlling the zoom ratio of the view camera while the viewpoint, which is the point where the line of sight of the user intersects the surface of the display unit, stays on the gaze icon. to
When a change in posture of the field-of-view camera caused by a downward tilt of the face caused by the user pulling the chin is detected, the direction of the change in the line of sight is a direction that offsets the change in the posture of the field-of-view camera. In some cases,
A program for causing, in the step of controlling the zoom factor of the field-of-view camera, to perform enlargement control processing in which the zoom factor of the field-of-view camera is increased.
前記使用者の視線を検出するステップを通じて得られる前記視点の、前記表示部表面における位置を表す座標値の平均値若しくは最頻値に当たる位置をニュートラル視点位置と称することとし、
該ニュートラル視点位置を算出するステップを有し、
前記表示部に前記視界カメラが取得した画像を表示するに際して、前記ニュートラル視点位置に前記視界カメラが取得した画像の中心を一致させて該画像を表示し、
前記注視アイコンを前記視界カメラが取得した画像に重ねて前記表示部に表示させるステップにおいては、前記ニュートラル視点位置を中心として前記中心部領域を設けたうえで前記注視アイコンを表示する処理を前記演算器に実行させる請求項7に記載のプログラム。
A position corresponding to an average value or a mode value of coordinate values representing positions of the viewpoint on the surface of the display unit obtained through the step of detecting the line of sight of the user is referred to as a neutral viewpoint position,
calculating the neutral viewpoint position;
When displaying the image acquired by the field-of-view camera on the display unit, displaying the image by aligning the center of the image acquired by the field-of-view camera with the neutral viewpoint position;
In the step of displaying the gaze icon superimposed on the image acquired by the field-of-view camera on the display unit, the process of displaying the gaze icon after providing the center area around the neutral viewpoint position is performed by the calculation. 8. The program according to claim 7, which is executed by a device.
JP2018214220A 2018-11-14 2018-11-14 Information terminal with camera and program Active JP7157444B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018214220A JP7157444B2 (en) 2018-11-14 2018-11-14 Information terminal with camera and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018214220A JP7157444B2 (en) 2018-11-14 2018-11-14 Information terminal with camera and program

Publications (3)

Publication Number Publication Date
JP2020085914A JP2020085914A (en) 2020-06-04
JP2020085914A5 JP2020085914A5 (en) 2021-09-09
JP7157444B2 true JP7157444B2 (en) 2022-10-20

Family

ID=70907705

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018214220A Active JP7157444B2 (en) 2018-11-14 2018-11-14 Information terminal with camera and program

Country Status (1)

Country Link
JP (1) JP7157444B2 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150103003A1 (en) 2013-10-11 2015-04-16 Bernard James Kerr User interface programmatic scaling
JP2015149552A (en) 2014-02-05 2015-08-20 株式会社ニコン Wearable electronic apparatus
JP2016024751A (en) 2014-07-24 2016-02-08 シャープ株式会社 Image display device

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150103003A1 (en) 2013-10-11 2015-04-16 Bernard James Kerr User interface programmatic scaling
JP2015149552A (en) 2014-02-05 2015-08-20 株式会社ニコン Wearable electronic apparatus
JP2016024751A (en) 2014-07-24 2016-02-08 シャープ株式会社 Image display device

Also Published As

Publication number Publication date
JP2020085914A (en) 2020-06-04

Similar Documents

Publication Publication Date Title
US11235871B2 (en) Control method, control system, and smart glasses for first person view unmanned aerial vehicle flight
KR20230074780A (en) Touchless photo capture in response to detected hand gestures
JP6095763B2 (en) Gesture registration device, gesture registration program, and gesture registration method
JP5295714B2 (en) Display device, image processing method, and computer program
JP2013258614A (en) Image generation device and image generation method
US11107436B2 (en) Image processing device and image processing method
JP2015192436A (en) Transmission terminal, reception terminal, transmission/reception system and program therefor
KR20220120649A (en) Artificial Reality System with Varifocal Display of Artificial Reality Content
CN113709410A (en) Method, system and equipment for enhancing human eye visual ability based on MR glasses
KR102159767B1 (en) Visibility improvement method based on eye tracking, machine-readable storage medium and electronic device
JP7459798B2 (en) Information processing device, information processing method, and program
US20190019308A1 (en) Image display device
JP6711885B2 (en) Transmission terminal, reception terminal, transmission/reception system, and its program
US11443719B2 (en) Information processing apparatus and information processing method
CN110895433A (en) Method and apparatus for user interaction in augmented reality
KR20230119003A (en) Eyewear with push-pull lens set
KR20230072757A (en) Wearable electronic device and operating method of wearable electronic device
JP7157444B2 (en) Information terminal with camera and program
JP2021056371A (en) Display system, display method, and display program
JP7024010B2 (en) Sending terminal, receiving terminal, sending / receiving system, and its program
CN114201028B (en) Augmented reality system and method for anchoring display virtual object thereof
KR102312601B1 (en) Visibility improvement method based on eye tracking, machine-readable storage medium and electronic device
JP6817350B2 (en) Wearable devices, control methods and control programs
JP2017126009A (en) Display control device, display control method, and program
US20240103684A1 (en) Methods for displaying objects relative to virtual surfaces

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210729

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210729

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220527

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220617

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220721

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220916

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220930

R150 Certificate of patent or registration of utility model

Ref document number: 7157444

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150