JP2019161391A - Display device and head-mounted display - Google Patents

Display device and head-mounted display Download PDF

Info

Publication number
JP2019161391A
JP2019161391A JP2018044182A JP2018044182A JP2019161391A JP 2019161391 A JP2019161391 A JP 2019161391A JP 2018044182 A JP2018044182 A JP 2018044182A JP 2018044182 A JP2018044182 A JP 2018044182A JP 2019161391 A JP2019161391 A JP 2019161391A
Authority
JP
Japan
Prior art keywords
image
display
user
unit
range
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018044182A
Other languages
Japanese (ja)
Other versions
JP6665878B2 (en
Inventor
宏征 高橋
Hiromasa Takahashi
宏征 高橋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Brother Industries Ltd
Original Assignee
Brother Industries Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Brother Industries Ltd filed Critical Brother Industries Ltd
Priority to JP2018044182A priority Critical patent/JP6665878B2/en
Priority to PCT/JP2019/002436 priority patent/WO2019176321A1/en
Publication of JP2019161391A publication Critical patent/JP2019161391A/en
Application granted granted Critical
Publication of JP6665878B2 publication Critical patent/JP6665878B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/64Constructional details of receivers, e.g. cabinets or dust covers

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Studio Devices (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

To provide a display device and a head-mounted display capable of easily grasping the position of an object to be photographed, and easily securing the safety of a user even when the user photographs the object to be photographed while moving.SOLUTION: A CPU acquires a first image (S11), and acquires a second image (S12), and acquires a first direction (S13), and acquires a second direction (S15), and calculates a first relative angle made by the first direction and the second direction (S16), and determines a range of a display image to be displayed at an HD in the second image on the basis of the relative angle (S18, S23 or S26), and segments an image equivalent to the determined display range from the second image to generate the display image (S31), and causes the HD to display the display image (S35).SELECTED DRAWING: Figure 7

Description

本発明は、表示装置及びヘッドマウントディスプレイに関する。   The present invention relates to a display device and a head mounted display.

複数の撮像光学系によって撮像された画像のそれぞれを表示する表示装置が知られている。特許文献1は、狭画角の撮像光学系である第一撮像光学系によって撮像された第一画像と、第一撮像光学系よりも広画角の撮像光学系である第二撮像光学系によって撮像された第二画像とを処理して、第一画像及び第二画像を示す画像を表示する表示装置を開示する。カメラのユーザである撮影者は、カメラの傾き、被写体の動き等によって第一撮像系の画角から被写体を逃した場合であっても、第二撮像系の画角に被写体が捉えられていれば、第二画像における被写体の位置を確認することで、第一撮像系の画角に被写体を再び捉えることができる。   A display device that displays each of images captured by a plurality of imaging optical systems is known. Patent Document 1 discloses a first image captured by a first imaging optical system that is an imaging optical system having a narrow angle of view, and a second imaging optical system that is an imaging optical system having a wider angle of view than the first imaging optical system. Disclosed is a display device that processes a captured second image and displays an image indicating the first image and the second image. Even if the photographer who is a camera user misses the subject from the angle of view of the first imaging system due to camera tilt, subject movement, etc., the subject is captured at the angle of view of the second imaging system. For example, by confirming the position of the subject in the second image, the subject can be captured again at the angle of view of the first imaging system.

特開2012−147082号公報JP 2012-147082 A

特許文献1のカメラは、固定された位置から被写体を撮像することを想定している。例えば、ジンバル機構に対して回動可能に設置されたカメラ等を用いて、ユーザ自身が移動しながら被写体を撮影することがある。カメラの撮像光学系と被写体とを結ぶ方向と、ユーザが移動する方向とが異なる場合等には、表示装置に表示される画像ではユーザが移動する方向にあるものを確認できず、移動するユーザが危険な目にあう可能性がある。ユーザが装着するヘッドマウントディスプレイ(HMD)等の表示装置に第一画像と第二画像とが表示されれば、ユーザは、カメラによる撮影イメージと、自身が移動する方向の視界との双方を確保できる。しかしながら、ユーザ及び被写体の位置が移動しうるので、ユーザが第一撮像系及び第二撮像系の双方の画角から被写体を逃すことがある。この場合、第一撮像系の画角に被写体を再び捉えることに困難が伴うといった問題点がある。   The camera of Patent Document 1 assumes that a subject is imaged from a fixed position. For example, a user may take a picture of a subject while moving by using a camera or the like installed so as to be rotatable with respect to the gimbal mechanism. When the direction connecting the imaging optical system of the camera and the subject is different from the direction in which the user moves, the image displayed on the display device cannot confirm what the user is in the moving direction, and the moving user May have dangerous eyes. If the first image and the second image are displayed on a display device such as a head mounted display (HMD) worn by the user, the user secures both a captured image by the camera and a field of view in the direction in which the user moves. it can. However, since the positions of the user and the subject can move, the user may miss the subject from the angle of view of both the first imaging system and the second imaging system. In this case, there is a problem that it is difficult to capture the subject again at the angle of view of the first imaging system.

本発明は、ユーザが移動しながら撮影対象を撮影する場合であっても、撮影対象の位置の把握を容易にでき、ユーザの安全も確保しやすい表示装置及びヘッドマウントディスプレイを提供することを目的とする。   An object of the present invention is to provide a display device and a head-mounted display that can easily grasp the position of a shooting target and easily secure the safety of the user even when the user is shooting a shooting target while moving. And

本発明の第一態様に係る表示装置は、画像を表示する表示部と、第一カメラによって撮像された第一画像を取得する第一画像取得手段と、前記第一カメラの画角よりも広角の画像を撮像する第二カメラによって撮影された第二画像を取得する第二画像取得手段と、前記第一カメラが前記第一画像を撮像する方向を示す第一方向を取得する第一取得手段と、ユーザの視野が向く方向を示す第二方向を取得する第二取得手段と、前記第一方向と、前記第二方向とがなす角度である相対角度を算出する相対角度算出手段と、前記相対角度算出手段によって算出された前記相対角度に基づいて、前記第二画像のうち前記表示部に表示する範囲である表示範囲を、前記第一画像が含まれる範囲に決定する決定手段と、前記決定手段によって決定された前記表示範囲に対応する画像である表示画像を生成する生成手段と、前記生成手段によって生成された前記表示画像を前記表示部に表示させる表示制御手段とを備える。   The display device according to the first aspect of the present invention includes a display unit that displays an image, a first image acquisition unit that acquires a first image captured by the first camera, and a wider angle than the angle of view of the first camera. Second image acquisition means for acquiring a second image captured by a second camera that captures the first image, and first acquisition means for acquiring a first direction indicating a direction in which the first camera captures the first image A second acquisition unit that acquires a second direction indicating a direction in which the user's visual field is directed; a relative angle calculation unit that calculates a relative angle that is an angle formed by the first direction and the second direction; A determining unit that determines a display range that is a range to be displayed on the display unit in the second image based on the relative angle calculated by the relative angle calculating unit as a range including the first image; Before decided by decision means Comprising generation means for generating a display image is an image corresponding to the display range, and display control means for displaying the display image generated by the generating unit on the display unit.

本発明の第一態様に係る表示装置は、第一方向と第二方向とがなす相対角度に基づいて、第二画像のうち表示部に表示する表示範囲を、第一画像が含まれる範囲に決定する。このため、第一方向及び第二方向が変化しても、表示装置は、変化に応じた表示範囲を決定し、表示範囲に対応する表示画像を表示できる。よって、ユーザは、表示画像を確認することで、第一方向及び第二方向が変化しても、第一画像に撮影対象を容易に捉えやすい。したがって、本発明に係る表示装置は、ユーザが移動しながら撮影対象を撮影する場合であっても、撮影対象の位置の把握を容易にでき、ユーザの安全も確保しやすい。   In the display device according to the first aspect of the present invention, the display range to be displayed on the display unit in the second image based on the relative angle formed by the first direction and the second direction is a range including the first image. decide. For this reason, even if the first direction and the second direction change, the display device can determine a display range corresponding to the change and display a display image corresponding to the display range. Therefore, by checking the display image, the user can easily capture the shooting target in the first image even if the first direction and the second direction change. Therefore, the display device according to the present invention can easily grasp the position of the shooting target even when the user is shooting the shooting target while moving, and can easily ensure the safety of the user.

本発明の第二態様に係るヘッドマウントディスプレイは、前記表示装置と、前記ユーザの頭部に前記表示装置を装着するための部材である装着部と、前記装着部に設けられ、前記第二方向を検出する検出部とを備え、前記第二取得手段は、前記検出部によって検出された前記第二方向を取得し、前記生成手段は、前記第二方向に基づく前記ユーザの視野を含めた前記表示画像を生成することを特徴とする。   A head mounted display according to a second aspect of the present invention is provided with the display device, a mounting portion that is a member for mounting the display device on the head of the user, and the second direction. The second acquisition unit acquires the second direction detected by the detection unit, and the generation unit includes the field of view of the user based on the second direction. A display image is generated.

本発明の第二態様に係るヘッドマウントディスプレイは、装着部によって、第一態様に係る表示装置をユーザの頭部に装着する。第二方向を検出する検出部が装着部に設けられるので、検出部は、第二方向を、ユーザの頭部が向く方向等に応じて正確に検出できる。生成手段は、第二方向に基づくユーザの視野を含めた表示画像を生成する。よって、ヘッドマウントディスプレイは、表示装置において、撮影対象の位置を、ユーザの視野に応じてユーザに容易に認識させやすい。   The head mounted display which concerns on the 2nd aspect of this invention mounts | wears with the display apparatus which concerns on a 1st aspect to a user's head by a mounting part. Since the detection unit for detecting the second direction is provided in the mounting unit, the detection unit can accurately detect the second direction according to the direction in which the user's head is facing, or the like. The generation unit generates a display image including the user's visual field based on the second direction. Therefore, the head-mounted display can easily allow the user to recognize the position of the imaging target in the display device according to the user's visual field.

HMD1の斜視図である。It is a perspective view of HMD1. 第一ボールジョイント6及び第二ボールジョイント7の拡大図である。3 is an enlarged view of a first ball joint 6 and a second ball joint 7. FIG. HD2が第一位置又は第二位置に配置された状態のHMD1を示す図である。It is a figure which shows HMD1 of the state by which HD2 is arrange | positioned in the 1st position or the 2nd position. HD2が第三位置に配置された状態のHMD1を示す図である。It is a figure which shows HMD1 of the state by which HD2 is arrange | positioned in the 3rd position. 第二方向が下方である状態のHMD1を示す図である。It is a figure which shows HMD1 of the state which a 2nd direction is a downward direction. HMD1の電気的構成を示すブロック図である。It is a block diagram which shows the electric constitution of HMD1. メイン処理のフローチャートである。It is a flowchart of a main process. メイン処理のフローチャートである。It is a flowchart of a main process. HMD1を左眼装着で着用したユーザUを、上側から見た状態を示す図である。It is a figure showing the state where user U who wore HMD1 with left eye wearing was seen from the upper part. HMD1を左眼装着で着用したユーザUを、上側から見た状態を示す図である。It is a figure showing the state where user U who wore HMD1 with left eye wearing was seen from the upper part. 抜粋風景521における第一画像に相当する部分V1及び表示範囲に相当する部分V2を示す図である。It is a figure which shows the part V1 equivalent to the 1st image in the excerpt scenery 521, and the part V2 equivalent to a display range. HD2に表示される表示画像の例を示す図である。It is a figure which shows the example of the display image displayed on HD2. HMD1を左眼装着又は右眼装着で着用したユーザUを、上側から見た状態を示す図である。It is a figure which shows the state which looked at the user U who wears HMD1 by left eye wearing or right eye wearing from the upper side. 抜粋風景521における第一画像に相当する部分V1及び表示範囲に相当する部分V2を示す図である。It is a figure which shows the part V1 equivalent to the 1st image in the excerpt scenery 521, and the part V2 equivalent to a display range. HD2に表示される表示画像の例を示す図である。It is a figure which shows the example of the display image displayed on HD2.

本発明の実施形態について説明する。図1に示すように、ヘッドマウントディスプレイ(Head Mounted Display、以下、「HMD」という。)1は、ビデオ透過型のHMDである。HMD1は、着用具10、装着部11、及び、表示装置(以下、「HD」という。)2を備える。以下、図の説明の理解を助けるため、HMD1の上側、下側、左側、右側、前側、及び、後側を定義する。HMD1の上側、下側、左側、右側、前側、及び、後側は、例えば、図1の上側、下側、左斜め上側、右斜め下側、左側、及び、右側にそれぞれ対応する。HMD1の上側、下側、左側、右側、前側、及び、後側は、それぞれ、着用具10が着用されたユーザU(図9参照)にとって、上側、下側、右側、左側、前側、及び、後側に対応する。   An embodiment of the present invention will be described. As shown in FIG. 1, a head mounted display (hereinafter referred to as “HMD”) 1 is a video transmission type HMD. The HMD 1 includes a wearing tool 10, a mounting part 11, and a display device (hereinafter referred to as “HD”) 2. Hereinafter, in order to help understand the description of the figure, the upper side, lower side, left side, right side, front side, and rear side of the HMD 1 are defined. The upper side, the lower side, the left side, the right side, the front side, and the rear side of the HMD 1 correspond to, for example, the upper side, the lower side, the upper left side, the lower right side, the left side, and the right side in FIG. The upper side, the lower side, the left side, the right side, the front side, and the rear side of the HMD 1 are respectively the upper side, the lower side, the right side, the left side, the front side, and the user U wearing the wearing tool 10 (see FIG. 9). Corresponds to the rear side.

図1に示すように、着用具10は、樹脂や金属(例えば、ステンレス)などの、可撓性を有する材質で構成される。着用具10は、第一部分10A及び第二部分10B,10Cを有する。なお、以下では、理解を容易とするために、着用具10を第一部分10A及び第二部分10B,10Cに区分して説明するが、着用具10は、第一部分10A及び第二部分10B,10Cのそれぞれの部材に分かれておらず、全体として一体の部材である。   As shown in FIG. 1, the wearing tool 10 is made of a flexible material such as resin or metal (for example, stainless steel). The wearing tool 10 includes a first portion 10A and second portions 10B and 10C. In addition, below, in order to make an understanding easy, although the wearing tool 10 is divided into 1st part 10A and 2nd part 10B, 10C and is demonstrated, the wearing tool 10 is 1st part 10A and 2nd part 10B, 10C. It is not divided into each member of these, but is an integral member as a whole.

第一部分10A及び第二部分10B,10Cは、それぞれ、湾曲した細長い板状部材である。第一部分10Aは、着用具10のうち、位置102と位置103との間で左右方向に延びる。第一部分10Aは、前側に凸状に湾曲する。位置102は、着用具10の左右方向中心101よりも左側に位置する。位置103は、着用具10の左右方向中心101よりも右側に位置する。第二部分10Bは、着用具10のうち、位置102から後側に延びる。第二部分10Cは、着用具10のうち、位置103から後側に延びる。第二部分10B,10Cは、それぞれ、後端部が互いに近づく方向に延びる。着用具10は、ユーザUの前頭部、左側頭部、及び、右側頭部のそれぞれに、第一部分10A、第二部分10B,10Cを接触させた状態で、ユーザUの頭部に着用される。着用具10の位置103に、装着部11が固定される。以下、着用具10のうち第一部分10A及び第二部分10B,10Cで囲まれた側を「内側」といい、内側と反対側を「外側」という。   Each of the first portion 10A and the second portions 10B and 10C is a curved and elongated plate-like member. The first portion 10 </ b> A extends in the left-right direction between the position 102 and the position 103 in the wearing tool 10. The first portion 10A is curved in a convex shape on the front side. The position 102 is located on the left side of the center 101 in the left-right direction of the wearing tool 10. The position 103 is located on the right side of the center 101 in the left-right direction of the wearing tool 10. The second portion 10 </ b> B extends rearward from the position 102 in the wearing tool 10. The second portion 10 </ b> C extends rearward from the position 103 in the wearing tool 10. The second portions 10B and 10C each extend in a direction in which the rear ends approach each other. The wearing tool 10 is worn on the head of the user U with the first part 10A and the second parts 10B and 10C in contact with the frontal, left and right heads of the user U, respectively. The The mounting portion 11 is fixed at the position 103 of the wearing tool 10. Hereinafter, the side surrounded by the first portion 10A and the second portions 10B and 10C in the wearing tool 10 is referred to as “inner side”, and the side opposite to the inner side is referred to as “outer side”.

装着部11は、アーム部12、固定部14、第一ボールジョイント6、及び、第二ボールジョイント7を備える。固定部14は、着用具10の位置103に螺子14A(図2(A)参照)で固定される。アーム部12は略棒状である。アーム部12は、樹脂や金属などで構成される。アーム部12は、正面から見た状態で上下方向に延びる。アーム部12の上端部は、第一ボールジョイント6を介して固定部14に接続される。アーム部12の下端部は、第二ボールジョイント7を介してHD2に接続される。アーム部12は、固定部14とHD2とを連結する。アーム部12及び固定部14は、着用具10がユーザUの頭部に着用された状態で、ユーザUの左眼8の前側にHD2を保持できる。第一ボールジョイント6及び第二ボールジョイント7は、ユーザUの左眼8(図2、図3参照)に対するHD2の位置を調整できる。   The mounting portion 11 includes an arm portion 12, a fixing portion 14, a first ball joint 6, and a second ball joint 7. The fixing | fixed part 14 is fixed to the position 103 of the wearing tool 10 with the screw | thread 14A (refer FIG. 2 (A)). The arm part 12 is substantially rod-shaped. The arm portion 12 is made of resin, metal, or the like. The arm part 12 extends in the vertical direction as viewed from the front. The upper end portion of the arm portion 12 is connected to the fixed portion 14 via the first ball joint 6. The lower end portion of the arm portion 12 is connected to the HD 2 via the second ball joint 7. The arm part 12 connects the fixing part 14 and the HD 2. The arm part 12 and the fixing part 14 can hold the HD 2 on the front side of the left eye 8 of the user U in a state where the wearing tool 10 is worn on the head of the user U. The first ball joint 6 and the second ball joint 7 can adjust the position of HD2 with respect to the left eye 8 of the user U (see FIGS. 2 and 3).

図2(A)に示すように、第一ボールジョイント6は、ボールスタッド61及びソケット62を備える。ボールスタッド61は、棒部61A及び球体部61Bを有する。球体部61Bは、棒部61Aの一端部に設けられた球状の部位である。ソケット62は、球体部61Bを摺動可能に支持する。以下の説明において、着用具10のうち固定部14及びソケット62が配置される位置における、着用具10の外周面100に直交する方向を「直交方向」という。ソケット62は、蓋部621及び受け部622を有する。受け部622は筒状であり、固定部14から直交方向に沿って外側に延びる。受け部622の内部に球体部61Bが収容される。受け部622は、外側の面にねじ山を有する。蓋部621は、内側の面にねじ山を有する。蓋部621は受け部622に螺合する。蓋部621は、円形の孔部621Aを有する。ボールスタッド61の棒部61Aは、受け部622の内部から孔部621Aに向けて延び、孔部621Aを通過する。棒部61Aは、球体部61Bから直交方向に沿って外側に延び、右方向に屈曲し、左右方向に沿って更に延び、アーム部12に支持される。棒部61Aの屈曲角度θ1は約30度である。   As shown in FIG. 2A, the first ball joint 6 includes a ball stud 61 and a socket 62. The ball stud 61 has a rod portion 61A and a sphere portion 61B. The spherical body portion 61B is a spherical portion provided at one end of the rod portion 61A. The socket 62 supports the sphere 61B so as to be slidable. In the following description, the direction orthogonal to the outer peripheral surface 100 of the wearing tool 10 in the position where the fixing | fixed part 14 and the socket 62 are arrange | positioned among the wearing tools 10 is called "orthogonal direction." The socket 62 has a lid portion 621 and a receiving portion 622. The receiving part 622 has a cylindrical shape and extends outward from the fixed part 14 along the orthogonal direction. The spherical portion 61B is accommodated inside the receiving portion 622. The receiving portion 622 has a thread on the outer surface. The lid 621 has a thread on the inner surface. The lid portion 621 is screwed into the receiving portion 622. The lid 621 has a circular hole 621A. The rod portion 61A of the ball stud 61 extends from the inside of the receiving portion 622 toward the hole portion 621A and passes through the hole portion 621A. The rod portion 61A extends outward along the orthogonal direction from the sphere portion 61B, bends rightward, further extends along the left-right direction, and is supported by the arm portion 12. The bending angle θ1 of the rod 61A is about 30 degrees.

球体部61Bがソケット62に対して摺動することによって、第一ボールジョイント6は、固定部14とアーム部12とを回動可能に連結する。固定部14に対するアーム部12の可動範囲は、孔部621Aに棒部61Aが当接することよって制限される。   As the spherical body portion 61B slides with respect to the socket 62, the first ball joint 6 connects the fixed portion 14 and the arm portion 12 in a rotatable manner. The movable range of the arm portion 12 with respect to the fixed portion 14 is limited by the contact of the rod portion 61A with the hole portion 621A.

図2(B)に示すように、第二ボールジョイント7は、ボールスタッド71及びソケット72を備える。ボールスタッド71は、棒部71A及び球体部71Bを有する。球体部71Bは、棒部71Aの一端部に設けられた球状の部位である。ソケット72は、HD2に設けられる。ソケット72は、球体部71Bを摺動可能に支持する。ソケット72は、蓋部721及び受け部722を有する。受け部722は筒状であり、HD2から延びる。受け部722の内部に球体部71Bが収容される。受け部722は、外側の面にねじ山を有する。蓋部721は、内側の面にねじ山を有する。蓋部721は受け部722に螺合する。蓋部721は、円形の孔部721Aを有する。ボールスタッド71の棒部71Aは、受け部722の内部から孔部721Aに向けて延び、孔部721Aを通過する。棒部71Aの他端部は、アーム部12に支持される。棒部71Aは、アーム部12から左側に向けて延び、着用具10から離れる方向に屈曲して更に延び、球体部71B及びソケット62を介してHD2に支持される。棒部71Aの屈曲角度θ2は約30度である。   As shown in FIG. 2B, the second ball joint 7 includes a ball stud 71 and a socket 72. The ball stud 71 has a rod portion 71A and a sphere portion 71B. The spherical portion 71B is a spherical portion provided at one end of the rod portion 71A. The socket 72 is provided in the HD2. The socket 72 supports the sphere 71B so as to be slidable. The socket 72 has a lid portion 721 and a receiving portion 722. The receiving part 722 is cylindrical and extends from the HD2. The spherical portion 71B is accommodated in the receiving portion 722. The receiving portion 722 has a thread on the outer surface. The lid 721 has a thread on the inner surface. The lid part 721 is screwed into the receiving part 722. The lid 721 has a circular hole 721A. The rod portion 71A of the ball stud 71 extends from the inside of the receiving portion 722 toward the hole portion 721A and passes through the hole portion 721A. The other end portion of the rod portion 71A is supported by the arm portion 12. The rod portion 71A extends from the arm portion 12 toward the left side, bends in a direction away from the wearing tool 10, and further extends, and is supported by the HD 2 via the sphere portion 71B and the socket 62. The bending angle θ2 of the rod portion 71A is about 30 degrees.

球体部71Bがソケット72に対して摺動することによって、第二ボールジョイント7は、HD2とアーム部12とを回動可能に連結する。アーム部12に対するHD2の可動範囲は、孔部721Aに棒部71Aが当接することよって制限される。   As the spherical portion 71B slides with respect to the socket 72, the second ball joint 7 rotatably connects the HD 2 and the arm portion 12. The movable range of HD2 with respect to the arm portion 12 is limited by the rod portion 71A coming into contact with the hole portion 721A.

図1に示すように、HD2は筐体21を備える。筐体21は中空箱状である。筐体21の後端部に、矩形状の開口が設けられる。開口は、透明の板状部材で覆われる。筐体21の内部に、液晶パネル2Aが収容される。液晶パネル2Aは、赤(R)、緑(G)、及び、青(B)のそれぞれの光の出力タイミングを制御することによってカラー画像を表示する。液晶パネル2Aは、ケーブル2B(図1参照)を介して接続した第一カメラ51及び第二カメラ52(図6参照)から受信した画像信号に基づく画像を、表示領域に表示させる。液晶パネル2Aの表示領域に表示された画像の光は、筐体21の開口に向けて出射される。画像の光は、筐体21の開口を通過し、更に、透明の板状部材を後側に透過する。画像の光は、筐体21から外部に出射される。以下、図2(B)に示すように、液晶パネル2Aの表示領域、言い換えれば、液晶パネル2Aのうち画像の光が出射される部分を、「出射部22」という。   As shown in FIG. 1, the HD 2 includes a housing 21. The casing 21 has a hollow box shape. A rectangular opening is provided at the rear end of the housing 21. The opening is covered with a transparent plate member. The liquid crystal panel 2 </ b> A is accommodated in the housing 21. The liquid crystal panel 2A displays a color image by controlling the output timing of each of red (R), green (G), and blue (B) light. The liquid crystal panel 2A displays an image based on the image signal received from the first camera 51 and the second camera 52 (see FIG. 6) connected via the cable 2B (see FIG. 1) in the display area. The light of the image displayed on the display area of the liquid crystal panel 2 </ b> A is emitted toward the opening of the housing 21. The light of the image passes through the opening of the housing 21 and further passes through the transparent plate member to the rear side. The image light is emitted from the housing 21 to the outside. Hereinafter, as shown in FIG. 2B, the display area of the liquid crystal panel 2 </ b> A, in other words, the portion of the liquid crystal panel 2 </ b> A from which image light is emitted is referred to as an “emission part 22”.

本実施形態において、第一カメラ51(図6参照)は、ユーザUが撮影対象を静止画又は動画にて撮像するためのカメラである。以下、第一カメラ51が撮像する画像を「第一画像」という。第一カメラ51は、HMD1に電気的に接続する。HMD1は、第一カメラ51に有線又は無線により電気的に接続され、第一カメラ51を操作するユーザUに着用された状態でユーザUに使用される。   In this embodiment, the 1st camera 51 (refer FIG. 6) is a camera for the user U to image a imaging | photography object with a still image or a moving image. Hereinafter, an image captured by the first camera 51 is referred to as a “first image”. The first camera 51 is electrically connected to the HMD 1. The HMD 1 is electrically connected to the first camera 51 by wire or wirelessly, and is used by the user U while being worn by the user U who operates the first camera 51.

第一カメラ51は、第一方向信号を、接続されたHMD1に出力する。第一方向信号は、第一カメラ51が第一画像を撮像する方向である第一方向を示す信号である。第一カメラ51は、一般的な撮影画角である第一画角(θc1、図9、図10及び図13参照)で第一画像を撮像する。本実施形態において、第一画角は50°である。第一方向信号は、第一カメラ51が有する第一方向検出部(図示略)によって取得された第一方向に基づいて生成される。第一方向検出部は、例えば、第一カメラ51に作用する三軸方向(X軸方向、Y軸方向、Z軸方向)のそれぞれの加速度を検出可能な加速度センサである。   The first camera 51 outputs a first direction signal to the connected HMD 1. The first direction signal is a signal indicating the first direction, which is the direction in which the first camera 51 captures the first image. The first camera 51 captures a first image at a first field angle (θc1, see FIGS. 9, 10, and 13) that is a general shooting field angle. In the present embodiment, the first angle of view is 50 °. The first direction signal is generated based on the first direction acquired by a first direction detection unit (not shown) of the first camera 51. The first direction detection unit is, for example, an acceleration sensor that can detect respective accelerations in the three axial directions (X-axis direction, Y-axis direction, and Z-axis direction) that act on the first camera 51.

第二カメラ52(図6参照)は、例えば、魚眼レンズ等の超広角のレンズを有し、第一画角よりも広角の画像を撮像可能なカメラである。本実施形態において、第二カメラ52は、自身の360°方位の画像を撮像可能な、いわゆる360°カメラである。なお、第二カメラ52は、第一画角よりも広角の画像を撮像可能であればよく、360°カメラである必要はない。以下、第二カメラ52が撮像する画像を「第二画像」という。第二カメラ52は、HMD1に電気的に接続する。第二カメラ52は、ユーザUが撮影対象を第一画角に捉えて撮影することを容易にするために設けられる。本実施形態では、第二カメラ52は、着用具10の第一部分10Aの位置に設置される(図1参照)。第二カメラ52は、この他、第一カメラ51、第一カメラ51を設置するジンバル機構、ユーザUによって着用される帽子、ヘルメット、着衣等、任意の位置に設置されてもよい。第二カメラ52として、複数の方向(例えば、着用具10の第一部分10A、第二部分10B,10Cのそれぞれの位置から外側に向かう方向)を撮像し、撮像された複数枚の画像により、上記の360°カメラと同様の機能を有するようにしてもよい。   The second camera 52 (see FIG. 6) is a camera that has an ultra-wide-angle lens such as a fisheye lens and can capture an image having a wider angle than the first angle of view. In the present embodiment, the second camera 52 is a so-called 360 ° camera that can capture an image of its own 360 ° orientation. The second camera 52 only needs to be able to capture an image having a wider angle than the first field angle, and does not have to be a 360 ° camera. Hereinafter, an image captured by the second camera 52 is referred to as a “second image”. The second camera 52 is electrically connected to the HMD 1. The second camera 52 is provided in order to make it easy for the user U to capture an image of the imaging target at the first angle of view. In this embodiment, the 2nd camera 52 is installed in the position of 10 A of 1st parts of the wearing tool 10 (refer FIG. 1). In addition to this, the second camera 52 may be installed at an arbitrary position such as the first camera 51, a gimbal mechanism in which the first camera 51 is installed, a hat worn by the user U, a helmet, and clothes. As the second camera 52, a plurality of directions (for example, directions from the respective positions of the first portion 10 </ b> A, the second portions 10 </ b> B and 10 </ b> C of the wearing tool 10 to the outside) are imaged. You may make it have the same function as this 360 degree camera.

ユーザUは、着用具10を頭部に固定する。ユーザUはHD2を持ち、図3(A)に示すように、液晶パネル2Aの出射部22のいずれかの位置がユーザUの左眼8の前側に対向して配置されるように、HD2の位置を調節する。このとき、第一ボールジョイント6及び第二ボールジョイント7が自在に回動するため、ユーザUはHD2を容易に移動させることができる。以下、出射部22のいずれかの位置がユーザUの左眼8の前側に対向する場合のHD2を含む領域を、「中央領域」という。   The user U fixes the wearing tool 10 to the head. The user U has the HD 2, and as shown in FIG. 3 (A), the HD 2 is arranged such that any position of the light emitting part 22 of the liquid crystal panel 2 A is arranged to face the front side of the left eye 8 of the user U. Adjust the position. At this time, since the first ball joint 6 and the second ball joint 7 freely rotate, the user U can easily move the HD 2. Hereinafter, a region including HD2 in a case where any position of the emitting unit 22 faces the front side of the left eye 8 of the user U is referred to as a “central region”.

固定部14のうち、第一ボールジョイント6の球体部61B(図2(A)参照)の中心C11を定義する。HD2の出射部22の中心C12を定義する。出射部22の中心C12がユーザUの左眼8の前側に対向する場合のHD2の位置(図3(A)参照)を、「第一位置」という。第一位置は中央領域に含まれる。HD2が第一位置に配置された場合の中心C11、C12との間の距離を、「第一距離L1」という。   The center C11 of the spherical part 61B (refer FIG. 2 (A)) of the 1st ball joint 6 is defined among the fixing | fixed parts 14. FIG. The center C12 of the emission part 22 of HD2 is defined. The position of HD2 when the center C12 of the emitting part 22 faces the front side of the left eye 8 of the user U (see FIG. 3A) is referred to as “first position”. The first position is included in the central region. The distance between the centers C11 and C12 when the HD2 is disposed at the first position is referred to as a “first distance L1”.

液晶パネル2Aは、ケーブル2B(図1参照)を介して受信した画像信号に基づき、出射部22に画像を表示する。画像の光は、筐体21の開口を介して後側に出射される。HD2が中央領域に配置された場合、出射された画像の光はユーザUの左眼8に入射する。これによって、ユーザUは画像を認識する。   The liquid crystal panel 2A displays an image on the emission unit 22 based on the image signal received via the cable 2B (see FIG. 1). The light of the image is emitted to the rear side through the opening of the housing 21. When the HD 2 is arranged in the central region, the emitted image light is incident on the left eye 8 of the user U. Thereby, the user U recognizes the image.

ユーザUは、HD2の液晶パネル2Aに表示される画像と眼前の景色との両方を視認できるようにHD2を配置して、HMD1を使用する場合がある。この場合、ユーザUは、HD2が第一位置に配置された状態(図3(A)参照)から、第一ボールジョイント6及び第二ボールジョイント7を、上側から見た状態で時計回りに第一所定角度以上第二所定角度未満の範囲で回動させる(図3(B)参照)。つまり、ユーザUは、第一ボールジョイント6及び第二ボールジョイント7のそれぞれについて、上下方向を軸とした回動角度が第一所定角度以上第二所定角度未満になるように、第一ボールジョイント6及び第二ボールジョイント7を回転させる。これによってユーザUは、左眼8の前側に出射部22が対向して配置されなくなるまで、HD2を移動させる。図3(B)に示すように、HD2は、着用具10から離れる方向に移動する。中心C11、C12との間の距離は、第一距離L1よりも長い第二距離L2に変化する。   The user U may use the HMD 1 by arranging the HD 2 so that both the image displayed on the liquid crystal panel 2A of the HD 2 and the scenery in front of the user can be visually recognized. In this case, the user U first rotates the first ball joint 6 and the second ball joint 7 clockwise from the state in which the HD 2 is disposed at the first position (see FIG. 3A). It is rotated within the range of one predetermined angle or more and less than the second predetermined angle (see FIG. 3B). That is, for each of the first ball joint 6 and the second ball joint 7, the user U makes the first ball joint so that the rotation angle about the vertical direction is not less than the first predetermined angle and less than the second predetermined angle. 6 and the second ball joint 7 are rotated. As a result, the user U moves the HD 2 until the emission part 22 is not disposed opposite to the front side of the left eye 8. As shown in FIG. 3B, the HD 2 moves in a direction away from the wearing tool 10. The distance between the centers C11 and C12 changes to a second distance L2 that is longer than the first distance L1.

以下、第一位置に配置されたHD2に対し、第一ボールジョイント6及び第二ボールジョイント7の少なくともいずれか一方を第一所定角度以上第二所定角度未満の範囲で回転させて移動させた場合におけるHD2の位置(図3(B)参照)を、「第二位置」という。HD2が第二位置に配置された場合、中心C11、C12の間の距離は第二距離L2となる。中央領域を除く領域のうち、第二位置に配置されたHD2を含む所定の領域を「第一周辺領域」という。HD2が第二位置に配置された場合、ユーザUは、視線を前側に向けることによって、眼前の景色を視認できる。また、ユーザUは、視線の方向を、HMD1の右側(ユーザUから見て左側)にずらすことによって、液晶パネル2Aの出射部22に表示された画像を視認できる。   When at least one of the first ball joint 6 and the second ball joint 7 is rotated and moved in the range from the first predetermined angle to the second predetermined angle with respect to the HD 2 arranged at the first position. The position of HD2 (see FIG. 3B) is referred to as “second position”. When HD2 is arranged at the second position, the distance between the centers C11 and C12 is the second distance L2. Of the areas excluding the central area, a predetermined area including the HD 2 arranged at the second position is referred to as a “first peripheral area”. When HD2 is arrange | positioned in the 2nd position, the user U can visually recognize the scenery in front by directing a eyes | visual_axis to the front side. In addition, the user U can visually recognize the image displayed on the emission unit 22 of the liquid crystal panel 2A by shifting the direction of the line of sight to the right side of the HMD 1 (left side as viewed from the user U).

なお、本実施形態において、図3(A)における第一位置から図3(B)における第二位置までHD2を移動させる場合の回動角度は、一例として、10°〜45°の範囲のいずれかの値としてもよい。この場合、回動角度の閾値である第一所定角度は10°となり、第二所定角度は45°となる。図3に示す例では、第一ボールジョイント6が上下方向を軸としてθ12(=約25°)回転し、且つ、第二ボールジョイント7が上下方向を軸としてθ22(=約25°)回転することによって、HD2は第二位置(図3(A)参照)から第二位置(図3(B)参照)まで移動している。なお、図3(A)(B)の一点鎖線T11は、HD2が第一位置に配置された状態における第一ボールジョイント6の回転角度の基準線を示す。図3(B)の一点鎖線T21は、HD2が第二位置に配置された状態における第一ボールジョイント6の角度の基準線を示す。図3(A)(B)の一点鎖線T12は、HD2が第一位置に配置された状態における第二ボールジョイント7の回転角度の基準線を示す。図3(B)の一点鎖線T22は、HD2が第二位置に配置された状態における第二ボールジョイント7の角度の基準線を示す。なお、第二位置は、例えばHMD1を着用したユーザUが、第一ボールジョイント6及び第二ボールジョイント7を回動させてHD2を配置させたときに、ユーザUの視界の範囲内にHD2が含まれる領域内としてもよい。   In this embodiment, the rotation angle when moving the HD 2 from the first position in FIG. 3A to the second position in FIG. 3B is, for example, any of the range of 10 ° to 45 °. This value may be used. In this case, the first predetermined angle that is the threshold of the rotation angle is 10 °, and the second predetermined angle is 45 °. In the example shown in FIG. 3, the first ball joint 6 rotates θ12 (= about 25 °) about the vertical direction, and the second ball joint 7 rotates θ22 (= about 25 °) about the vertical direction. As a result, the HD 2 has moved from the second position (see FIG. 3A) to the second position (see FIG. 3B). 3A and 3B, the alternate long and short dash line T11 indicates a reference line of the rotation angle of the first ball joint 6 in a state where the HD2 is disposed at the first position. An alternate long and short dash line T21 in FIG. 3B indicates a reference line of the angle of the first ball joint 6 in a state where HD2 is disposed at the second position. A dashed line T12 in FIGS. 3A and 3B indicates a reference line of the rotation angle of the second ball joint 7 in a state where the HD2 is disposed at the first position. An alternate long and short dash line T22 in FIG. 3B indicates a reference line of the angle of the second ball joint 7 in a state where HD2 is disposed at the second position. For example, when the user U wearing the HMD 1 rotates the first ball joint 6 and the second ball joint 7 to place the HD 2, the HD 2 is within the range of the user U's field of view. It may be within the included region.

なお、図2(B)に示すように、第二ボールジョイント7のボールスタッド71の棒部71Aは、アーム部12から延び、着用具10から離れる方向に屈曲し、ソケット72に支持された状態の球体部71Bに接続される。このため、HD2の位置は、棒部71Aが屈曲しない場合に比べて、顔から離れる方向へのHD2の可動範囲が広くなり、顔に近づく方向のHD2の可動範囲が狭くなる。したがって、ユーザUは、HD2を顔から離れる方向に移動させて容易に第二位置に配置させることができる。   2B, the rod portion 71A of the ball stud 71 of the second ball joint 7 extends from the arm portion 12, bends away from the wearing tool 10, and is supported by the socket 72. Connected to the spherical portion 71B. For this reason, as for the position of HD2, the movable range of HD2 in the direction away from the face becomes wider and the movable range of HD2 in the direction closer to the face becomes narrower than in the case where the rod portion 71A is not bent. Therefore, the user U can easily place the HD 2 in the second position by moving it away from the face.

ユーザUは、眼前の景色を良好に視認できるように、HD2を視界から外して配置させて使用する場合がある。この場合、ユーザUは、HD2が第一位置に配置された状態(図3(A)参照)から、第一ボールジョイント6及び第二ボールジョイント7を、右側から見た状態で時計回りに、第一所定角度よりも大きい第二所定角度以上回動させる(図4参照)。つまり、ユーザUは、第一ボールジョイント6の左右方向を軸とした回動角度が第二所定角度以上になるように、第一ボールジョイント6を回転させる。これによってユーザUは、図4に示すように、左眼8の前側に出射部22が対向して配置されなくなるまで、HD2を移動させる。中心C11、C12との間の距離は、第一距離L1と略同一の第三距離L3で維持される。   The user U may use the HD2 by placing it out of the field of view so that the scenery in front of him can be seen well. In this case, the user U rotates the first ball joint 6 and the second ball joint 7 clockwise from the state in which the HD 2 is disposed at the first position (see FIG. 3A). The second predetermined angle larger than the first predetermined angle is rotated (see FIG. 4). That is, the user U rotates the first ball joint 6 so that the rotation angle about the left and right direction of the first ball joint 6 is equal to or greater than the second predetermined angle. As a result, as shown in FIG. 4, the user U moves the HD 2 until the emission unit 22 is not disposed to face the front side of the left eye 8. The distance between the centers C11 and C12 is maintained at a third distance L3 that is substantially the same as the first distance L1.

以下、第一位置に配置されたHD2に対し、第一ボールジョイント6及び第二ボールジョイント7の少なくともいずれか一方を、第一所定角度よりも大きい第二所定角度以上回動させて移動させた場合におけるHD2の位置(図4参照)を「第三位置」という。HD2が第三位置に配置された場合、中心C11、C12の間の距離は、第三距離L3となる。中央領域、及び、第一周辺領域を除く領域のうち、第三位置に配置されたHD2を含む所定の領域を、「第二周辺領域」という。HD2が第三位置に配置された場合、ユーザUは、HD2が視界に入ることを抑制しつつ眼前の景色を視認可能となる。   Hereinafter, at least one of the first ball joint 6 and the second ball joint 7 is rotated and moved with respect to the HD 2 arranged at the first position by a second predetermined angle larger than the first predetermined angle. The position of HD2 in this case (see FIG. 4) is referred to as “third position”. When HD2 is arranged at the third position, the distance between the centers C11 and C12 is the third distance L3. Among the areas excluding the central area and the first peripheral area, a predetermined area including the HD 2 arranged at the third position is referred to as a “second peripheral area”. When HD2 is disposed at the third position, the user U can visually recognize the scenery in front of the eyes while suppressing the HD2 from entering the field of view.

本実施形態において、図3(A)における第一位置から図4における第三位置までHD2を移動させる場合の回動角度は、一例として、45°よりも大きい角度としてもよい。この場合、回動角度の閾値である第二所定角度は45°となる。図4に示す例では、第一ボールジョイント6が左右方向を軸としてθ13(=約120°)回転し、且つ、第二ボールジョイント7が左右方向を軸としてθ23(=約90°)回転することによって、HD2は第一位置(図3(A)参照)から第三位置(図4参照)まで移動している。なお、図4の一点鎖線U11は、HD2が第一位置に配置された状態における第一ボールジョイント6の回転角度の基準線を示す。一点鎖線U31は、HD2が第三位置に配置された状態における第一ボールジョイント6の回転角度の基準線を示す。一点鎖線U12は、HD2が第一位置に配置された状態における第二ボールジョイント7の回転角度の基準線を示す。一点鎖線U32は、HD2が第三位置に配置された状態における第二ボールジョイント7の回転角度の基準線を示す。なお、第三位置は、例えばHMD1を着用したユーザUが、第一ボールジョイント6及び第二ボールジョイント7を回動させてHD2を配置させたときに、ユーザUの視界の範囲外にHD2が含まれる領域内としてもよい。   In the present embodiment, the rotation angle when moving the HD 2 from the first position in FIG. 3A to the third position in FIG. 4 may be an angle larger than 45 ° as an example. In this case, the second predetermined angle that is the threshold value of the rotation angle is 45 °. In the example shown in FIG. 4, the first ball joint 6 rotates θ13 (= about 120 °) about the left-right direction, and the second ball joint 7 rotates θ23 (= about 90 °) about the left-right direction. As a result, the HD 2 has moved from the first position (see FIG. 3A) to the third position (see FIG. 4). 4 indicates a reference line of the rotation angle of the first ball joint 6 in a state where the HD 2 is disposed at the first position. An alternate long and short dash line U31 indicates a reference line of the rotation angle of the first ball joint 6 in a state where HD2 is disposed at the third position. An alternate long and short dash line U12 indicates a reference line for the rotation angle of the second ball joint 7 in a state where HD2 is disposed at the first position. An alternate long and short dash line U32 indicates a reference line of the rotation angle of the second ball joint 7 in a state where HD2 is disposed at the third position. The third position is, for example, when the user U wearing the HMD 1 rotates the first ball joint 6 and the second ball joint 7 to place the HD 2 so that the HD 2 is out of the range of the user U's field of view. It may be within the included region.

図2(A)に示すように、第一ボールジョイント6のボールスタッド61の棒部61Aは、球体部61Bから直交方向に沿って延び、右方向に屈曲して左右方向に沿って延び、アーム部12に支持される。つまり、棒部61Aの一部の延びる方向(左右方向)と、第一ボールジョイント6が回動するときの軸の方向(左右方向)とが一致する。このため、第一ボールジョイント6は、棒部61Aが屈曲しない場合に比べて、左右方向を軸として回動し易くなる。したがって、ユーザUは、第一ボールジョイント6を回動させて、HD2を第一位置から第三位置まで容易に移動させることができる。   As shown in FIG. 2A, the rod portion 61A of the ball stud 61 of the first ball joint 6 extends from the spherical portion 61B along the orthogonal direction, bends rightward, and extends along the left-right direction. Supported by part 12. That is, the extending direction (left-right direction) of a part of the rod portion 61A coincides with the axial direction (left-right direction) when the first ball joint 6 rotates. For this reason, the first ball joint 6 is easier to rotate around the left-right direction as compared to the case where the rod portion 61A is not bent. Therefore, the user U can easily move the HD 2 from the first position to the third position by rotating the first ball joint 6.

なお、ユーザUは、HMD1を図3(A)(B)に示す配置に対して上下方向を反対にした状態で着用具10を頭部に固定し、第一ボールジョイント6及び第二ボールジョイント7を適宜回転させることで、HD2を右眼9(図3参照)の前側に対向するように配置することもできる。HMD1は、第一カメラ51を用いた撮影のしやすさ、ユーザUの利き目等に応じて、HD2を左眼8及び右眼9のいずれの前側に配置するかを、ユーザUに選択させることができる。以下、HD2がユーザUの左眼8の前側に配置されることを「左眼装着」、HD2がユーザUの右眼9の前側に配置されることを「右眼装着」という。   In addition, the user U fixes the wearing tool 10 to the head in a state where the vertical direction is opposite to the arrangement shown in FIGS. 3 (A) and 3 (B), and the first ball joint 6 and the second ball joint. By rotating 7 appropriately, the HD 2 can also be arranged to face the front side of the right eye 9 (see FIG. 3). The HMD 1 allows the user U to select which front side of the left eye 8 or the right eye 9 to place the HD 2 according to the ease of shooting using the first camera 51, the dominant eye of the user U, and the like. be able to. Hereinafter, the placement of HD2 on the front side of the left eye 8 of the user U is referred to as “left eye wearing”, and the placement of HD2 on the front side of the right eye 9 of the user U is referred to as “right eye wearing”.

このように、HMD1は、ユーザUの左眼8又は右眼9の前側にHD2を保持できるので、ユーザUは、HD2を左眼8又は右眼9の前側に保持した状態で、様々な方向に顔を向けることができる。例えば、図5に示すように、ユーザUは、HMD1を着用したまま、下方向に顔を向けることができる。   Thus, since the HMD 1 can hold the HD 2 on the front side of the left eye 8 or the right eye 9 of the user U, the user U can perform various directions while holding the HD 2 on the front side of the left eye 8 or the right eye 9. You can face your face. For example, as shown in FIG. 5, the user U can turn his / her face downward while wearing the HMD 1.

図6を参照し、着用具10及びHMD1の電気的構成について説明する。着用具10は、加速度センサ41を備える。本実施形態では、加速度センサ41は、着用具10の内部において、第一部分10Aの位置に設けられる(図1参照)。加速度センサ41は、HD2のFPGA33(後述)と電気的に接続する。加速度センサ41は、着用具10に作用する三軸方向のそれぞれの加速度を検出する。加速度センサ41は、検出した加速度を示す信号を、FPGA33に出力する。   With reference to FIG. 6, the electrical configuration of the wearing tool 10 and the HMD 1 will be described. The wearing tool 10 includes an acceleration sensor 41. In the present embodiment, the acceleration sensor 41 is provided inside the wearing tool 10 at the position of the first portion 10A (see FIG. 1). The acceleration sensor 41 is electrically connected to the HD2 FPGA 33 (described later). The acceleration sensor 41 detects the respective accelerations in the triaxial directions that act on the wearing tool 10. The acceleration sensor 41 outputs a signal indicating the detected acceleration to the FPGA 33.

HD2は、CPU31、記憶部32、液晶パネル2A、FPGA33〜37、加速度センサ38を有する。CPU31は、HMD1全体の制御を司る。記憶部32、液晶パネル2A、スピーカ2C、振動モータ2D、FPGA33〜37は、CPU31と電気的に接続する。加速度センサ38は、FPGA34と電気的に接続する。第一カメラ51から第一画像信号が出力される信号線は、ケーブル2B(図1参照)を介してFPGA35と電気的に接続する。第一画像信号は、第一カメラ51によって撮像された第一画像を示す信号である。第一カメラ51から第一方向信号が出力される信号線は、ケーブル2Bを介してFPGA36と電気的に接続する。第二カメラ52から第二画像信号が出力される信号線は、ケーブル2Bを介してFPGA37と電気的に接続する。第二画像信号は、第二カメラ52によって撮像された第二画像を示す信号である。なお、HMD1は、FPGA33〜37のそれぞれの機能を全て有する1つのFPGAを、FPGA33〜37の代わりに有していてもよい。   The HD 2 includes a CPU 31, a storage unit 32, a liquid crystal panel 2 </ b> A, FPGAs 33 to 37, and an acceleration sensor 38. The CPU 31 controls the entire HMD 1. The storage unit 32, the liquid crystal panel 2A, the speaker 2C, the vibration motor 2D, and the FPGAs 33 to 37 are electrically connected to the CPU 31. The acceleration sensor 38 is electrically connected to the FPGA 34. The signal line from which the first image signal is output from the first camera 51 is electrically connected to the FPGA 35 via the cable 2B (see FIG. 1). The first image signal is a signal indicating the first image captured by the first camera 51. The signal line from which the first direction signal is output from the first camera 51 is electrically connected to the FPGA 36 via the cable 2B. The signal line from which the second image signal is output from the second camera 52 is electrically connected to the FPGA 37 via the cable 2B. The second image signal is a signal indicating a second image captured by the second camera 52. In addition, HMD1 may have one FPGA which has all the functions of FPGA33-37 instead of FPGA33-37.

記憶部32には、CPU31によって実行されるメイン処理(図7及び図8参照)のプログラム、及び、各種パラメータ等が記憶される。液晶パネル2Aは、CPU31から出力される信号に基づいて画像を表示させる。   The storage unit 32 stores a program for main processing (see FIGS. 7 and 8) executed by the CPU 31, various parameters, and the like. The liquid crystal panel 2A displays an image based on a signal output from the CPU 31.

FPGA33は、ユーザUの視野が向く方向である第二方向を検出する機能を備えたプログラマブルロジックデバイス(PLD)である。FPGA33は、加速度センサ41から出力される信号に基づき、着用具10に作用する加速度を特定する。FPGA33は、特定した加速度に基づいて、着用具10の第一部分10Aが向く方向を検出する。着用具10はユーザUの頭部に着用されるので、着用具10の第一部分10Aが向く方向は、第二方向に相当する。FPGA33は、検出した第二方向を示す信号を、CPU31に出力する。   The FPGA 33 is a programmable logic device (PLD) having a function of detecting a second direction that is a direction in which the field of view of the user U is directed. The FPGA 33 specifies the acceleration acting on the wearing tool 10 based on the signal output from the acceleration sensor 41. The FPGA 33 detects the direction in which the first portion 10A of the wearing tool 10 faces based on the specified acceleration. Since the wearing tool 10 is worn on the head of the user U, the direction in which the first portion 10A of the wearing tool 10 faces corresponds to the second direction. The FPGA 33 outputs a signal indicating the detected second direction to the CPU 31.

加速度センサ38は、HD2の筐体21の内部に設けられ、HD2に作用する三軸方向のそれぞれの加速度を検出する。加速度センサ38は、検出した加速度を示す信号を、FPGA34に出力する。FPGA34は、HD2が左眼装着であるか右眼装着であるかを検出する機能を備えたPLDである。以下、HD2が左眼装着であるか右眼装着であるかを、HD装着位置という。FPGA34は、加速度センサ38から出力される信号に基づき、HD2に作用する加速度を特定する。ユーザUが、HD2を左眼装着とする場合と、HD2を右眼装着とする場合とで、HD2に作用する上下方向の加速度が反転する。FPGA34は、特定した加速度に基づいて、HD装着位置を検出する。FPGA33は、検出したHD装着位置を示す信号を、CPU31に出力する。   The acceleration sensor 38 is provided inside the housing 21 of the HD 2 and detects the respective accelerations in the triaxial directions that act on the HD 2. The acceleration sensor 38 outputs a signal indicating the detected acceleration to the FPGA 34. The FPGA 34 is a PLD having a function of detecting whether the HD 2 is attached to the left eye or the right eye. Hereinafter, whether the HD2 is attached to the left eye or the right eye is referred to as an HD attachment position. The FPGA 34 specifies the acceleration acting on the HD 2 based on the signal output from the acceleration sensor 38. The acceleration in the vertical direction acting on HD2 is reversed between the case where user U wears HD2 with left eye and the case where HD2 wears right eye. The FPGA 34 detects the HD mounting position based on the specified acceleration. The FPGA 33 outputs a signal indicating the detected HD mounting position to the CPU 31.

FPGA35,36は、第一カメラ51から出力された信号の形式を、CPU31が検出可能な形式に変換するインタフェース素子である。FPGA35は、第一カメラ51が出力した第一画像信号の形式を変換し、変換後の第一画像を示す情報をCPU31に出力する。FPGA36は、第一カメラ51が出力した第一方向信号の形式を変換し、変換後の第一方向を示す信号をCPU31に出力する。   The FPGAs 35 and 36 are interface elements that convert the format of the signal output from the first camera 51 into a format that can be detected by the CPU 31. The FPGA 35 converts the format of the first image signal output from the first camera 51 and outputs information indicating the converted first image to the CPU 31. The FPGA 36 converts the format of the first direction signal output from the first camera 51, and outputs a signal indicating the converted first direction to the CPU 31.

図7及び図8を参照し、CPU31によって実行されるメイン処理について説明する。メイン処理は、第一カメラ51から第一画像信号の出力が開始され、第二カメラ52から第二画像信号の出力が開始された場合、記憶部32に記憶されたプログラムをCPU31が実行することによって開始される。   The main process executed by the CPU 31 will be described with reference to FIGS. In the main process, when the output of the first image signal is started from the first camera 51 and the output of the second image signal is started from the second camera 52, the CPU 31 executes the program stored in the storage unit 32. Started by.

図7に示すように、CPU31は、第一画像を示す情報を、FPGA35を介して受信することにより、第一画像を取得する(S11)。CPU31は、第二画像を示す情報を、FPGA37を介して受信することにより、第二画像を取得する(S12)。CPU31は、第一方向を示す信号を、FPGA36を介して受信することにより、第一方向を取得する(S13)。CPU31は、着用具10に設けられた加速度センサ41から出力された第二方向を示す信号を、FPGA33を介して受信することにより、第二方向を取得する(S15)。   As illustrated in FIG. 7, the CPU 31 obtains the first image by receiving information indicating the first image via the FPGA 35 (S11). The CPU 31 acquires the second image by receiving information indicating the second image via the FPGA 37 (S12). The CPU 31 acquires a first direction by receiving a signal indicating the first direction via the FPGA 36 (S13). CPU31 acquires a 2nd direction by receiving the signal which shows the 2nd direction output from the acceleration sensor 41 provided in the wearing tool 10 via FPGA33 (S15).

CPU31は、第一方向と第二方向とがなす角度である相対角度を算出する(S16)。以下では、S13の処理で取得した第一方向と、S15の処理で取得した第二方向とに基づいて算出される相対角度を、第一相対角度という。   CPU31 calculates the relative angle which is an angle which a 1st direction and a 2nd direction make (S16). Hereinafter, the relative angle calculated based on the first direction acquired in the process of S13 and the second direction acquired in the process of S15 is referred to as a first relative angle.

図9、図10及び図13は、HMD1を着用し、第一カメラ51を用いて撮影を行うユーザUを示す。ユーザUは、第一カメラ51を公知のジンバル機構(図示略)に回動可能に設置し、ジンバル機構を操作することによって撮影を行っているとする。なお、ユーザUは、第一カメラ51を手で持って撮影してもよい。本実施形態では、図9(C)に示すように、第一方向を示す角度及び第二方向を示す角度の基準となる方角(矢印A1の指す方角、例えば、北の方角)を0°とし、ユーザUを上側から見た状態で反時計回りの方角(矢印A2参照)を0°〜+180°、時計回りの方角(矢印A3参照)を0°〜−180°とする。図10及び図13においても同様である。以下では、第一方向の角度をθc2、第二方向の角度をθhとする。第一方向と第二方向とがなす角度を、以下では、相対角度という。相対角度をθc−hとすると、
(θc−h)=(θc2)−(θh)
の演算により得られる値として算出される。図9(C)の状態において、θc2が+5°であり、θhが0°であるとする。この場合、図9(C)の状態においてS16の処理によって算出される第一相対角度であるθc−hが、+5°となる。
9, 10, and 13 show the user U who wears the HMD 1 and performs shooting using the first camera 51. It is assumed that the user U is taking a picture by installing the first camera 51 on a known gimbal mechanism (not shown) so as to be rotatable and operating the gimbal mechanism. Note that the user U may take a picture while holding the first camera 51 by hand. In the present embodiment, as shown in FIG. 9C, the reference direction of the angle indicating the first direction and the angle indicating the second direction (the direction indicated by the arrow A1, for example, the north direction) is 0 °. With the user U viewed from above, the counterclockwise direction (see arrow A2) is 0 ° to + 180 °, and the clockwise direction (see arrow A3) is 0 ° to −180 °. The same applies to FIGS. 10 and 13. Hereinafter, the angle in the first direction is θc2, and the angle in the second direction is θh. Hereinafter, an angle formed by the first direction and the second direction is referred to as a relative angle. If the relative angle is θc−h,
(Θc−h) = (θc2) − (θh)
It is calculated as a value obtained by the above calculation. In the state of FIG. 9C, it is assumed that θc2 is + 5 ° and θh is 0 °. In this case, θc−h, which is the first relative angle calculated by the process of S16 in the state of FIG. 9C, is + 5 °.

CPU31は、第一相対角度に基づいて、第二画像のうちHD2の液晶パネル2Aに表示させる画像の範囲である表示範囲を決定する(S18)。表示範囲のうち、ユーザUを上側から見た状態で第二カメラ52が着用具10に設けられている位置を原点とした反時計回りの方角(矢印A2方向)の側の端部をθ+、時計回りの方角(矢印A3方向)の側の端部をθ−とする。本実施形態では、第一相対角度に対して、矢印A2方向側の端部及び矢印A3方向側の端部のそれぞれを、第一画角と同じ角度だけ拡張した範囲が、表示範囲として決定される。表示範囲の決定のために行われる演算は、下記のとおりである。
(θ+)=(θc−h)+(θc1)
(θ−)=(θc−h)−(θc1)
図9(C)の状態における上記の演算で導出されるθ+は+55°、θ−は−45°となる。したがって、θ+とθ−とがなす角度であるθkは100°となる。
Based on the first relative angle, the CPU 31 determines a display range which is an image range to be displayed on the liquid crystal panel 2A of the HD2 among the second images (S18). Of the display range, the end on the counterclockwise direction (in the direction of arrow A2) with the position where the second camera 52 is provided on the wearing tool 10 as viewed from the upper side when the user U is viewed from above is defined as θ +, The end on the clockwise direction (arrow A3 direction) side is defined as θ−. In the present embodiment, a range in which each of the end on the arrow A2 direction side and the end on the arrow A3 direction side is expanded by the same angle as the first angle of view with respect to the first relative angle is determined as the display range. The The calculation performed for determining the display range is as follows.
(Θ +) = (θc−h) + (θc1)
(Θ −) = (θc−h) − (θc1)
Θ + derived by the above calculation in the state of FIG. 9C is + 55 °, and θ− is −45 °. Therefore, θk, which is an angle formed between θ + and θ−, is 100 °.

CPU31は、HD装着位置が右眼装着であるかを判断する(S21)。この判断は、CPU31がFPGA34を介して受信するHD装着位置を示す信号に基づいて行われる。HD装着位置が右眼装着である場合(S21:YES)、CPU31はS18の処理で決定された表示範囲が、ユーザUの左眼視野の範囲内にあるかを判断する(S22)。左眼視野とは、ユーザUが左眼8を動かさずに左眼8で視認できる水平視野角である。また、ユーザUが右眼9を動かさずに右眼9で視認できる水平視野角を、右眼視野という。本実施形態では左眼視野及び右眼視野のそれぞれを、左眼及び右眼による周辺視野とする。本実施形態では、左眼視野の左側の端部((矢印A2方向)の側の端部)をθul+、左眼視野の左側の端部((矢印A3方向)の側の端部)をθul−とする。また、右眼視野の左側の端部((矢印A2方向)の側の端部)をθur+、左眼視野の左側の端部((矢印A3方向)の側の端部)をθur−とする(図9、図10及び図13参照)。本実施形態では、ヒトの平均的な水平視野角に基づいて、
(θul+)=(θh)+100°
(θul−)=(θh)−60°
(θur+)=(θh)+60°
(θur−)=(θh)−100°
としている。図9(C)の状態において、θhが0°であるので、θul+が+100°、θul−が−60°、θur+が+60°、θur−が−100°である。図9、図10及び図13に示すように、左眼視野は、θul+とθul−とがなす角度であるθulである。右眼視野は、θur+とθur−とがなす角度であるθurである。
The CPU 31 determines whether the HD attachment position is right eye attachment (S21). This determination is made based on a signal indicating the HD mounting position received by the CPU 31 via the FPGA 34. When the HD attachment position is right eye attachment (S21: YES), the CPU 31 determines whether the display range determined in the process of S18 is within the range of the left eye visual field of the user U (S22). The left eye visual field is a horizontal viewing angle that the user U can visually recognize with the left eye 8 without moving the left eye 8. The horizontal viewing angle that the user U can visually recognize with the right eye 9 without moving the right eye 9 is referred to as a right eye visual field. In the present embodiment, each of the left eye field and the right eye field is a peripheral field by the left eye and the right eye. In the present embodiment, the left end of the left eye visual field (the end on the (arrow A2 direction) side) is θul +, and the left end of the left eye visual field (the end on the (arrow A3 direction) side) is θul +. -. Further, the left end (the end on the (arrow A2 direction) side) of the right eye visual field is θur +, and the left end (the end on the (arrow A3 direction) side) of the left eye visual field is θur−. (See FIGS. 9, 10 and 13). In this embodiment, based on the average horizontal viewing angle of humans,
(Θul +) = (θh) + 100 °
(Θul −) = (θh) −60 °
(Θur +) = (θh) + 60 °
(Θur −) = (θh) −100 °
It is said. In the state of FIG. 9C, since θh is 0 °, θul + is + 100 °, θul− is −60 °, θur + is + 60 °, and θur− is −100 °. As shown in FIGS. 9, 10, and 13, the left eye visual field is θul that is an angle formed by θul + and θul−. The right eye visual field is θur, which is an angle formed by θur + and θur−.

CPU31は、S22において、表示範囲の矢印A2方向の側の端部であるθ+と、左眼視野の矢印A3方向の側の端部であるθul−とが、以下の関係である場合、表示範囲が左眼視野の範囲内にないと判断する。
(θ+)<(θul−)
In S22, the CPU 31 displays the display range when θ +, which is the end of the display range in the direction of the arrow A2, and θul−, which is the end of the left eye visual field, in the direction of the arrow A3 are as follows. Is not within the range of the left eye visual field.
(Θ +) <(θul-)

CPU31は、表示範囲が左眼視野の範囲内にある場合(S22:YES)、処理をS31に移行する。CPU31は、表示範囲が左眼視野の範囲内にない場合(S22:NO)、表示範囲が左眼視野を含むように、表示範囲を修正する(S23)。HD装着位置が右眼装着である場合、ユーザUの右眼視野の一部がHD2によって遮られることで、ユーザUが撮影対象を視認し難くなる可能性がある。CPU31は、このような場合に、表示範囲の矢印A2方向の側の端部であるθ+を、左眼視野を示すθulの範囲に含まれるように補正する。これにより、CPU31は、ユーザUの左眼視野の範囲を、表示範囲に含めることができる。本実施形態では、CPU31は、θ+を下記のθ+'に置換することで、表示範囲が左眼視野を含むように、表示範囲を修正する。
(θ+')=(θul−)+10°
その後、CPU31は、処理をS31に移行する。
CPU31 transfers a process to S31, when a display range exists in the range of the left eye visual field (S22: YES). When the display range is not within the range of the left eye visual field (S22: NO), the CPU 31 corrects the display range so that the display range includes the left eye visual field (S23). When the HD wearing position is the right eye wearing, a part of the right eye visual field of the user U is blocked by the HD 2, which may make it difficult for the user U to visually recognize the shooting target. In such a case, the CPU 31 corrects θ +, which is the end of the display range on the arrow A2 direction side, to be included in the range of θul indicating the left eye visual field. Thus, the CPU 31 can include the range of the left eye visual field of the user U in the display range. In the present embodiment, the CPU 31 corrects the display range so that the display range includes the left eye visual field by replacing θ + with the following θ + ′.
(Θ + ') = (θul-) + 10 °
Thereafter, the CPU 31 proceeds to S31.

一方、HD装着位置が左眼装着である場合(S21:NO)、CPU31はS18の処理で決定された表示範囲が、ユーザUの右眼視野の範囲内にあるかを判断する(S25)。CPU31は、S25において、表示範囲の矢印A3方向の側の端部であるθ−と、右眼視野の矢印A3方向の側の端部であるθur+とが、以下の関係である場合、表示範囲が右眼視野の範囲内にないと判断する。
(θ−)>(θur+)
On the other hand, when the HD wearing position is the left eye wearing (S21: NO), the CPU 31 determines whether the display range determined in the process of S18 is within the range of the right eye visual field of the user U (S25). In S25, the CPU 31 displays the display range when θ−, which is the end portion of the display range on the arrow A3 direction side, and θur +, which is the end portion of the right eye field on the arrow A3 direction side, have the following relationship. Is not within the range of the right eye field of view.
(Θ −)> (θur +)

CPU31は、表示範囲が右眼視野の範囲内にある場合(S25:YES)、処理をS31に移行する。CPU31は、表示範囲が右眼視野の範囲内にない場合(S25:NO)、表示範囲が右眼視野を含むように、表示範囲を修正する(S26)。HD装着位置が左眼装着である場合、ユーザUの左眼視野がHD2によって遮られることで、ユーザUが撮影対象を視認し難くなる可能性がある。CPU31は、このような場合に、表示範囲の矢印A3方向の側の端部であるθ−を、右眼視野を示すθurの範囲に含まれるように補正する。本実施形態では、CPU31は、θ−を下記のθ−'に置換することで、表示範囲が右眼視野を含むように、表示範囲を修正する。
(θ−')=(θur+)−10°
When the display range is within the range of the right eye visual field (S25: YES), the CPU 31 shifts the process to S31. When the display range is not within the range of the right eye visual field (S25: NO), the CPU 31 corrects the display range so that the display range includes the right eye visual field (S26). When the HD wearing position is the left eye wearing, the user U's left eye visual field is blocked by the HD 2, which may make it difficult for the user U to visually recognize the shooting target. In such a case, the CPU 31 corrects θ−, which is the end of the display range on the arrow A3 direction side, to be included in the range of θur indicating the right eye visual field. In the present embodiment, the CPU 31 corrects the display range so that the display range includes the right visual field by replacing θ− with the following θ− ′.
(Θ − ′) = (θur +) − 10 °

その後、CPU31は、処理をS31に移行する。CPU31は、S21からS26の処理を行うことで、表示範囲にユーザUの視野が必ず含まれるようにしている。HD2は、ユーザUの視野が含まれる表示画像を表示するので、例えばユーザUが移動しながらの撮影であっても、ユーザUに表示画像を視認させ、自身の安全確認を促すことができる。   Thereafter, the CPU 31 proceeds to S31. The CPU 31 performs the processing from S21 to S26 so that the visual field of the user U is always included in the display range. Since the HD 2 displays a display image including the field of view of the user U, for example, even when the user U is shooting while moving, the user U can visually recognize the display image and prompt his / her safety confirmation.

CPU31は、第二画像から、S18の処理で決定された表示範囲、或いは、S23又はS26の処理で補正された表示範囲に相当する画像を切り出すことで、表示範囲に対応する画像である表示画像を生成する(S31)。CPU31は、S31の処理で生成された表示画像から、第一画像に相当する部分を検出する(S32)。CPU31は、S31の処理で生成された表示画像に対して、S11の処理で取得した第一画像をテンプレートとして用いた公知のパターンマッチング法による画像処理を実行することで、S32の処理を実行する。   The CPU 31 cuts out an image corresponding to the display range by cutting out the image corresponding to the display range determined in the process of S18 or the display range corrected in the process of S23 or S26 from the second image. Is generated (S31). CPU31 detects the part corresponded to a 1st image from the display image produced | generated by the process of S31 (S32). CPU31 performs the process of S32 by performing the image process by the well-known pattern matching method using the 1st image acquired by the process of S11 as a template with respect to the display image produced | generated by the process of S31. .

CPU31は、表示画像から検出した第一画像に相当する部分に基づいて、表示画像に第一画像に相当する部分の位置を示す情報を付加する(S33)。CPU31は、第一画像に相当する部分の位置を示す情報が付加された表示画像を、液晶パネル2Aの出射部22に表示させる(S35)。CPU31は、処理をS41(図8参照)の判断へ移行する。   Based on the portion corresponding to the first image detected from the display image, the CPU 31 adds information indicating the position of the portion corresponding to the first image to the display image (S33). The CPU 31 displays a display image to which information indicating the position of the portion corresponding to the first image is added on the emission unit 22 of the liquid crystal panel 2A (S35). The CPU 31 proceeds to the determination of S41 (see FIG. 8).

図9、図10及び図11を参照し、これまでの処理によって液晶パネル2Aの出射部22に表示される表示画像の一例を説明する。図9(C)に示すように、ユーザUは、左眼装着でHMD1を装着し、図11(G)に示す風景を撮影対象として第一カメラ51を用いた撮影を行う。図11(G)では、北の方角(0°)を向いたユーザUの周囲の風景のうち、ユーザUの水平視野角に含まれる風景を抜粋した抜粋風景521を示す。抜粋風景521は、360°カメラで撮像される第二画像の一部に相当する。抜粋風景521のうち、第一カメラ51によって撮影されている第一画像に相当する部分を、部分V1とする。CPU31は、第一相対角度であるθc−hと第一画角であるθc−hとに基づいて、θkの角度の範囲で表示範囲を決定する(S18)。抜粋風景521のうち、決定された表示範囲に相当する部分を、部分V2とする。   With reference to FIG. 9, FIG. 10, and FIG. 11, an example of a display image displayed on the emission unit 22 of the liquid crystal panel 2A by the processing so far will be described. As shown in FIG. 9C, the user U wears the HMD 1 with the left eye wearing, and performs shooting using the first camera 51 with the landscape shown in FIG. FIG. 11G shows an excerpt landscape 521 that is an excerpt of a landscape included in the horizontal viewing angle of the user U among the landscapes around the user U facing the north direction (0 °). The excerpt landscape 521 corresponds to a part of the second image captured by the 360 ° camera. A portion corresponding to the first image taken by the first camera 51 in the excerpt landscape 521 is referred to as a portion V1. The CPU 31 determines the display range in the range of the angle θk based on the first relative angle θc−h and the first angle of view θc−h (S18). Of the excerpt landscape 521, a portion corresponding to the determined display range is defined as a portion V2.

図9(C)に示す状態では、θ−が−45°であり、θur+が+60°であるので、(θ−)≦(θur+)の関係が成立する。よって、CPU31は、表示範囲が右眼視野の範囲内であると判断する(S25:YES)。このため、表示範囲の補正は行われず、S18の処理で決定された表示範囲に基づいてS12の処理で取得された第二画像のうち、部分V2の範囲に対応する画像が切り出されて、表示画像が生成される(S31)。生成された表示画像を画像X1(図12(K)参照)とする。   In the state shown in FIG. 9C, θ− is −45 ° and θur + is + 60 °, so the relationship of (θ−) ≦ (θur +) is established. Therefore, the CPU 31 determines that the display range is within the range of the right eye visual field (S25: YES). For this reason, the display range is not corrected, and an image corresponding to the range of the part V2 is cut out from the second image acquired in the process of S12 based on the display range determined in the process of S18. An image is generated (S31). Let the generated display image be an image X1 (see FIG. 12K).

CPU31は、画像X1から、図11(G)における部分V1に相当する部分を検出する(S32)。CPU31は、表示範囲における部分V1に相当する部分を示す情報である枠X2を、画像X1に付加する(S33)。枠X2は、表示画像のうち第一画像に相当する部分の全体を囲むことで、表示画像のうち第一画像に相当する部分を示す。CPU31は、図12(K)に示す、枠X2が付加された画像X1を、液晶パネル2Aの出射部22に表示させる(S35)。   The CPU 31 detects a portion corresponding to the portion V1 in FIG. 11G from the image X1 (S32). The CPU 31 adds a frame X2, which is information indicating a portion corresponding to the portion V1 in the display range, to the image X1 (S33). The frame X2 indicates the portion corresponding to the first image in the display image by surrounding the entire portion corresponding to the first image in the display image. The CPU 31 displays the image X1 added with the frame X2 shown in FIG. 12 (K) on the emission unit 22 of the liquid crystal panel 2A (S35).

図8の説明に戻る。CPU31は、第二方向が、ユーザUの第一方向の視認性に関して設定される特定の範囲内にあるかを判断する(S41)。例えば、第一方向が撮影対象を略水平に指しており、第一カメラ51が図11(G)に示す部分V1に相当する第一画像を撮像している場合に、ユーザUの視野の向く方向である第二方向が下方向を示すことがある(図5参照)。例えば、移動するユーザUが足元の状況を確認しながら、第一カメラ51の第一画角を略水平に保って撮影する場合等が、これに該当する。この場合、ユーザUの周辺視野に、第一方向にある風景が捉えられにくい。このような場合に、ユーザUに撮影対象以外の風景が液晶パネル2Aの出射部22に表示されると、かえってユーザUが撮影対象を視認し難くなることもある。また、このような場合には、ユーザUが第一画像の周囲にある風景を視認する必要がないこともある。本実施形態では、第二方向について、ユーザUの周辺視野において第一方向の視認性が低下して、第一方向にある風景が捉えられにくくなること等が生ずる、ユーザUの第一方向の視認性に関する特定の範囲内の方向を設定する。そして、CPU31は、第二方向が、特定の範囲の方向である場合、表示範囲に基づく表示画像に替えて、ユーザUの撮影対象である第一画像を液晶パネル2Aの出射部22に表示させる。これにより、液晶パネル2Aの出射部22は、ユーザUの撮影対象の視認性を向上し、HMD1の使い勝手を向上している。本実施形態では、CPU31は、第二方向が、ユーザUが下方向を視認していると特定できる場合に、第二方向がユーザUの第一方向の視認性に関して設定される特定の範囲内であると判断する。CPU31は、第二方向が特定の範囲内であると判断した場合(S41:YES)、表示画像に替えて、第一画像を液晶パネル2Aの出射部22に表示させる(S42)。この場合、第一画像がそのまま液晶パネル2Aの出射部22に表示されるので、ユーザUは、足元の状況などを確認して撮影の安全性を保ちつつ、周辺視野では捉え難い第一画像を液晶パネル2Aの出射部22において視認できる。CPU31は、処理をS41の判断に戻す。CPU31は、第二方向が特定の範囲内にない場合(S41:NO)、処理をS43に移行する。   Returning to the description of FIG. CPU31 judges whether a 2nd direction exists in the specific range set regarding the visibility of the user U 1st direction (S41). For example, when the first direction points to the subject to be photographed substantially horizontally and the first camera 51 captures a first image corresponding to the portion V1 shown in FIG. The second direction, which is the direction, may indicate the downward direction (see FIG. 5). For example, this may be the case when the moving user U photographs while keeping the first angle of view of the first camera 51 substantially horizontal while confirming the current situation. In this case, the landscape in the first direction is difficult to be captured in the peripheral visual field of the user U. In such a case, if a landscape other than the shooting target is displayed to the user U on the emission unit 22 of the liquid crystal panel 2A, it may be difficult for the user U to visually recognize the shooting target. In such a case, it may not be necessary for the user U to visually recognize the scenery around the first image. In the present embodiment, with respect to the second direction, the visibility of the first direction is reduced in the peripheral visual field of the user U, and the scenery in the first direction becomes difficult to be captured. Set a direction within a specific range for visibility. Then, when the second direction is the direction of the specific range, the CPU 31 causes the emission unit 22 of the liquid crystal panel 2 </ b> A to display the first image that is the shooting target of the user U instead of the display image based on the display range. . Thereby, the emission part 22 of the liquid crystal panel 2 </ b> A improves the visibility of the shooting target of the user U and improves the usability of the HMD 1. In the present embodiment, the CPU 31 determines that the second direction is within a specific range set for the visibility of the user U in the first direction when the user U can identify that the user U is viewing the downward direction. It is judged that. When the CPU 31 determines that the second direction is within the specific range (S41: YES), the CPU 31 displays the first image on the emission unit 22 of the liquid crystal panel 2A instead of the display image (S42). In this case, since the first image is displayed as it is on the emission unit 22 of the liquid crystal panel 2A, the user U can confirm the situation at the feet and the like to maintain the safety of photographing and capture the first image that is difficult to capture in the peripheral visual field. Visible at the emission part 22 of the liquid crystal panel 2A. The CPU 31 returns the process to the determination in S41. CPU31 transfers a process to S43, when a 2nd direction is not in a specific range (S41: NO).

ユーザUによる撮影対象の撮影において、撮影対象の移動、撮影対象の変更、ユーザUの移動等により、第一方向及び第二方向が経時的に変化しうる。CPU31は、現時点における第一方向を取得する(S43)。CPU31は、S13の処理によって現時点よりも先に取得された第一方向と、現時点における第一方向との変化量が所定量以上であるかを判断する(S44)。本実施形態では、一例として、第一方向の変化量の判断基準を、第一画角であるθc1に等しい50°とする。   In the shooting of the shooting target by the user U, the first direction and the second direction can change with time due to movement of the shooting target, change of the shooting target, movement of the user U, and the like. CPU31 acquires the 1st direction in the present time (S43). The CPU 31 determines whether or not the amount of change between the first direction acquired before the current time by the process of S13 and the first direction at the current time is greater than or equal to a predetermined amount (S44). In the present embodiment, as an example, the criterion for determining the amount of change in the first direction is 50 °, which is equal to the first angle of view θc1.

CPU31は、第一方向の変化量が所定量未満である場合(S44:NO)、現時点における第二方向を取得する(S45)。CPU31は、S43の処理で取得した現時点の第一方向と、S45の処理で取得した現時点の第二方向とがなす第二相対角度を算出する(S46)。CPU31は、S16(図7参照)の処理で算出された第一相対角度の値と、S46の処理で算出された第二相対角度の値との間の変化量である相対角度変化量を算出する(S48)。   When the amount of change in the first direction is less than the predetermined amount (S44: NO), the CPU 31 acquires the second direction at the current time (S45). The CPU 31 calculates a second relative angle formed by the current first direction acquired in S43 and the current second direction acquired in S45 (S46). The CPU 31 calculates a relative angle change amount that is a change amount between the value of the first relative angle calculated in the process of S16 (see FIG. 7) and the value of the second relative angle calculated in the process of S46. (S48).

CPU31は、相対角度変化量が所定量以上であるかを判断する(S51)。本実施形態では、一例として、相対角度変化量の判断基準を、第一画角であるθc1の50%の角度である25°とする。相対角度変化量が所定量未満である場合(S51:NO)、CPU31は、表示画像における枠X2の位置を、S44の処理で算出した第一方向の変化量に応じて移動する(S52)。CPU31は、処理をS41の判断に戻す。   The CPU 31 determines whether the relative angle change amount is a predetermined amount or more (S51). In this embodiment, as an example, the criterion for determining the relative angle change amount is set to 25 °, which is a 50% angle of θc1 that is the first angle of view. When the relative angle change amount is less than the predetermined amount (S51: NO), the CPU 31 moves the position of the frame X2 in the display image according to the change amount in the first direction calculated in the process of S44 (S52). The CPU 31 returns the process to the determination in S41.

一方、CPU31は、第一方向の変化量が所定量以上の場合(S44:YES)、処理をS11(図7参照)に戻す。なお、CPU31は、相対角度変化量が所定量以上の場合にも(S51:YES)、処理をS11に戻す。   On the other hand, when the amount of change in the first direction is greater than or equal to the predetermined amount (S44: YES), the CPU 31 returns the process to S11 (see FIG. 7). Note that the CPU 31 also returns the process to S11 when the relative angle change amount is equal to or greater than the predetermined amount (S51: YES).

図10から図12を参照し、S41以降の処理によって液晶パネル2Aの出射部22に表示される表示画像の一例を説明する。まず、第一方向と第二方向との関係が、図9(C)に示す状態から図10(D)に示す状態に移行した場合を説明する。図10(D)において、θc2が+5°であり、θhが0°であるとする。図9(C)での第一方向(−15°)と図10(D)での第一方向(+5°)との間における変化量は、20°であるので、第一方向の変化量は所定量未満である(S44:NO)。この場合、図10(D)の状態における第一方向及び第二方向に基づいて、第二相対角度であるθc−hが−15°と算出される(S46)。第一相対角度の大きさが5°であり、第二相対角度の大きさが15°であるので、相対角度変化量が10°と算出される(S48)。相対角度変化量の大きさが所定量未満であるので(S51:NO)、表示範囲が変化することなく、表示画像における枠X2の位置のみが、第一方向の変化量に応じて修正される(S52)。   With reference to FIG. 10 to FIG. 12, an example of a display image displayed on the emission unit 22 of the liquid crystal panel 2A by the processing after S41 will be described. First, the case where the relationship between the first direction and the second direction has shifted from the state shown in FIG. 9C to the state shown in FIG. 10D will be described. In FIG. 10D, it is assumed that θc2 is + 5 ° and θh is 0 °. Since the amount of change between the first direction (−15 °) in FIG. 9C and the first direction (+ 5 °) in FIG. 10D is 20 °, the amount of change in the first direction Is less than a predetermined amount (S44: NO). In this case, based on the first direction and the second direction in the state of FIG. 10D, the second relative angle θc−h is calculated to be −15 ° (S46). Since the magnitude of the first relative angle is 5 ° and the magnitude of the second relative angle is 15 °, the relative angle change amount is calculated as 10 ° (S48). Since the relative angle change amount is less than the predetermined amount (S51: NO), only the position of the frame X2 in the display image is corrected according to the change amount in the first direction without changing the display range. (S52).

この場合、図11(H)に示すように、抜粋風景521に対する表示範囲に相当する部分V2の範囲が、図11(G)の状態から変化しない。図9(C)と図10(D)との間の第一方向の変化に応じて、第一画像に相当する部分V1が、図11(G)の部分V1よりも右方向に移動する。したがって、図12(K)に示すように、図12(J)に比べて表示画像に相当する画像X1が変化せず、枠X2の位置のみが画像X1において右方向に移動する。   In this case, as shown in FIG. 11 (H), the range of the portion V2 corresponding to the display range for the excerpt landscape 521 does not change from the state of FIG. 11 (G). In accordance with the change in the first direction between FIG. 9C and FIG. 10D, the portion V1 corresponding to the first image moves to the right from the portion V1 in FIG. Accordingly, as shown in FIG. 12K, the image X1 corresponding to the display image does not change compared to FIG. 12J, and only the position of the frame X2 moves to the right in the image X1.

第一方向と第二方向との関係が、図9(C)に示す状態から図10(D)に示す状態を経て、図10(E)に示す状態に移行した場合を説明する。図10(E)において、θc2が0°であり、θhが+20°であるとする。図9(C)での第一方向(−15°)と図10(D)での第一方向(+0°)との間における変化量は、15°であるので、第一方向の変化量は所定量未満である(S44:NO)。この場合、図10(E)の状態における第一方向及び第二方向に基づいて、第二相対角度であるθc−hが−20°と算出される(S46)。図9(C)に示す状態において算出された第一相対角度の大きさが5°であり、第二相対角度の大きさが20°であるので、相対角度変化量が15°と算出される(S48)。相対角度変化量が所定量未満であるので(S51:NO)、表示範囲が変化することなく、表示画像における枠X2の位置のみが、第一方向の変化量に応じて修正される(S52)。   The case where the relationship between the first direction and the second direction has shifted from the state shown in FIG. 9C to the state shown in FIG. 10E through the state shown in FIG. 10D will be described. In FIG. 10E, it is assumed that θc2 is 0 ° and θh is + 20 °. Since the amount of change between the first direction (−15 °) in FIG. 9C and the first direction (+ 0 °) in FIG. 10D is 15 °, the amount of change in the first direction Is less than a predetermined amount (S44: NO). In this case, based on the first direction and the second direction in the state of FIG. 10E, θc-h, which is the second relative angle, is calculated as −20 ° (S46). Since the magnitude of the first relative angle calculated in the state shown in FIG. 9C is 5 ° and the magnitude of the second relative angle is 20 °, the relative angle change amount is calculated as 15 °. (S48). Since the relative angle change amount is less than the predetermined amount (S51: NO), only the position of the frame X2 in the display image is corrected according to the change amount in the first direction without changing the display range (S52). .

この場合、抜粋風景521に対する表示範囲に相当する部分V2の範囲が図11(G)及び(H)の状態から変化しない。図10(E)と図10(D)との間の第一方向の変化に応じて、第一画像に相当する部分V1が、図11(H)の部分V1よりも左方向に移動して、図11(I)の状態になる。すなわち、図9(C)に示す状態から図10(D)に示す状態を経て、図10(E)に示す状態に移行した場合、抜粋風景521における表示範囲に相当する部分V2及び第一画像に相当する部分V1は、図11(G)から図11(H)を経て、図11(I)の状態になる。したがって、液晶パネル2Aの出射部22には、図12(K)の画像X1から図12(L)の画像X1を経て、図12(M)の画像X1が順に表示される。   In this case, the range of the portion V2 corresponding to the display range for the excerpt landscape 521 does not change from the states of FIGS. 11 (G) and 11 (H). In accordance with the change in the first direction between FIG. 10E and FIG. 10D, the portion V1 corresponding to the first image moves to the left than the portion V1 in FIG. Then, the state shown in FIG. That is, when the state shown in FIG. 9C is changed to the state shown in FIG. 10E through the state shown in FIG. 10D, the portion V2 corresponding to the display range in the excerpt landscape 521 and the first image are displayed. The portion V1 corresponding to is in the state of FIG. 11 (I) through FIG. 11 (G) through FIG. 11 (H). Accordingly, the image X1 of FIG. 12M is displayed in order on the emission unit 22 of the liquid crystal panel 2A through the image X1 of FIG. 12K to the image X1 of FIG.

仮に、相対角度が微小な変化を繰り返す度に表示画像の更新が行われる場合、液晶パネル2Aの出射部22の表示画像が微小な揺れを生じているように見え、ユーザUによる表示画像の視認性がかえって低下する可能性がある。CPU31は、相対角度変化量が所定量未満の場合には、相対角度の変化に応じた表示画像の更新を行わず、表示画像における枠X2の位置のみを修正することで、表示画像の視認性を保ちつつ、ユーザUが撮影対象を第一画角に捉えやすくしている。なお、相対角度変化量が所定量以上(本実施形態では、25°以上)になった場合には(S51:YES)、新たな第一方向及び新たな第二方向に基づいて表示範囲及び表示範囲に含まれる第一画像に相当する部分を更新するため、CPU31は処理をS11に戻す。例えば、第一方向の変化量が微小であるが、第二方向の変化量が比較的大きい場合が、S51の判断の対象となる。これにより、CPU31は、第一方向及び第二方向の変化に応じた表示画像を、第一画像に相当する部分を含んだ状態で、液晶パネル2Aの出射部22に継続的に表示させることができる。   If the display image is updated each time the relative angle repeats a minute change, the display image of the emission unit 22 of the liquid crystal panel 2A appears to be slightly shaken, and the user U visually recognizes the display image. There is a possibility that the sex will decline. When the relative angle change amount is less than the predetermined amount, the CPU 31 does not update the display image in accordance with the change in the relative angle, and corrects only the position of the frame X2 in the display image, thereby improving the visibility of the display image. It is easy for the user U to capture the photographing object at the first angle of view while maintaining the above. When the relative angle change amount is equal to or greater than a predetermined amount (25 ° or more in this embodiment) (S51: YES), the display range and the display are based on the new first direction and the new second direction. In order to update the portion corresponding to the first image included in the range, the CPU 31 returns the process to S11. For example, when the amount of change in the first direction is small but the amount of change in the second direction is relatively large, the determination is made in S51. Accordingly, the CPU 31 can continuously display the display image corresponding to the change in the first direction and the second direction on the emission unit 22 of the liquid crystal panel 2A in a state including a portion corresponding to the first image. it can.

第一方向と第二方向との関係が、図9(C)に示す状態から図10(F)に示す状態に移行した場合を説明する。図9(C)と図10(F)との間で、第一方向の角度であるθc2が0°から+70°に変化したとする。本実施形態において、第一方向の変化量の判断基準は50°であるので、第一方向の変化量が所定量以上であると判断される(S44:YES)。この場合、新たな第一方向に基づいて表示範囲及び表示範囲に含まれる第一画像に相当する部分を更新するため、CPU31は処理をS11に戻す。この場合、抜粋風景521における表示範囲に相当する部分V2及び第一画像に相当する部分V1が、図11(J)に示すようになり、第二画像から部分V2の範囲に対応する画像が切り出される(S31)。したがって、図12(O)に示すように表示範囲における部分V1に相当する部分を示す枠X2が付された画像X1が、液晶パネル2Aの出射部22に表示される(S35)。   A case where the relationship between the first direction and the second direction has shifted from the state shown in FIG. 9C to the state shown in FIG. 10F will be described. It is assumed that θc2, which is the angle in the first direction, changes from 0 ° to + 70 ° between FIG. 9C and FIG. In this embodiment, since the criterion for determining the amount of change in the first direction is 50 °, it is determined that the amount of change in the first direction is greater than or equal to a predetermined amount (S44: YES). In this case, the CPU 31 returns the process to S11 in order to update the display range and the portion corresponding to the first image included in the display range based on the new first direction. In this case, a portion V2 corresponding to the display range in the excerpt landscape 521 and a portion V1 corresponding to the first image are as shown in FIG. 11J, and an image corresponding to the range of the portion V2 is cut out from the second image. (S31). Accordingly, as shown in FIG. 12 (O), an image X1 with a frame X2 indicating a portion corresponding to the portion V1 in the display range is displayed on the emitting portion 22 of the liquid crystal panel 2A (S35).

一方、例えば、撮影対象の位置が大きく変化する等により第一方向が大きく変化するが、相対角度変化量の変化量が微小である場合がある。ユーザUが、自身の視野の向く方向(第二方向)と、手にしている第一カメラ51の向く方向(第一方向)との角度を保ったまま(カメラを構えた姿勢を略一定に保ったまま)、比較的大きな角度で(例えば、第一画角以上の角度で)振り返るような場合が、これに該当する。このような場合には、第一方向の変化に応じて、相対角度変化量に関わらず表示範囲を再決定する必要がある。したがって、CPU31は、第一方向が大きく変化するような場合に(S44:YES)、処理をS11に戻す。   On the other hand, for example, the first direction changes greatly due to a large change in the position of the object to be photographed, but the change amount of the relative angle change amount may be very small. The user U maintains an angle between the direction in which his / her field of view (second direction) and the direction of the first camera 51 in his / her hand (first direction) are maintained (the posture holding the camera is substantially constant). This is the case when the image is looked back at a relatively large angle (for example, at an angle greater than or equal to the first angle of view). In such a case, it is necessary to re-determine the display range according to the change in the first direction regardless of the relative angle change amount. Therefore, CPU31 returns a process to S11, when a 1st direction changes a lot (S44: YES).

図13から図15を参照し、S23又はS26の処理によって表示範囲が補正された場合に液晶パネル2Aの出射部22に表示される表示画像の一例を説明する。図13(P)に示すように、第一方向であるθc2が+120°であり、第二方向であるθhが0°である状態で、ユーザUによる撮影が開始されたとする。この状態において、第一相対角度(θc−h)はθc2からθhを減じて得られる+120°である。したがって、S18の処理によって、θ+が+170°、θ−が+70°と決定される。   With reference to FIGS. 13 to 15, an example of a display image displayed on the emission unit 22 of the liquid crystal panel 2 </ b> A when the display range is corrected by the process of S <b> 23 or S <b> 26 will be described. As shown in FIG. 13 (P), it is assumed that shooting by the user U is started in a state where θc2 which is the first direction is + 120 ° and θh which is the second direction is 0 °. In this state, the first relative angle (θc−h) is + 120 ° obtained by subtracting θh from θc2. Therefore, by the process of S18, θ + is determined to be + 170 ° and θ− is determined to be + 70 °.

図13(P)において、ユーザUは、HMD1を左眼装着しているので(S21:NO)、表示範囲が右眼視野の範囲内であるかを判断するS25の処理が行われる。θhが0°の場合のθur+は、+60°である。θ−が+70°であるので、(θ−)>(θur+)の関係が成立する(S25:NO)。したがって、θ−がθ−'(=(θur+)−10°)に置換される。したがって、表示範囲の矢印A3方向の側の端部は、θ−(=+70°)からθ−'(=+50°)に補正される(S26)。すなわち、表示範囲の矢印A3方向の側の端部が、矢印Y1に示すように矢印A3方向に向けて拡張される。補正後の表示範囲であるθkは、120°となる。   In FIG. 13 (P), since the user U wears the HMD1 (S21: NO), the process of S25 for determining whether the display range is within the range of the right eye visual field is performed. When θh is 0 °, θur + is + 60 °. Since θ− is + 70 °, the relationship (θ −)> (θur +) is established (S25: NO). Therefore, θ− is replaced with θ− ′ (= (θur +) − 10 °). Therefore, the end of the display range on the arrow A3 direction side is corrected from θ − (= + 70 °) to θ− ′ (= + 50 °) (S26). That is, the end of the display range on the arrow A3 direction side is expanded toward the arrow A3 direction as indicated by the arrow Y1. The corrected display range θk is 120 °.

この場合、抜粋風景521に対する表示範囲に相当する部分V2の範囲が、図14(R)に示すようになる。図14(R)における二点鎖線V21は、S26の処理によって表示範囲の補正が行われる前の表示範囲の矢印A3方向の側の端部を示す。S26の処理によって表示範囲のA3方向の側の端部が、矢印Y1に示すように補正される。したがって、図15(T)に示すように、S18の処理で決定された表示範囲に基づいてS12の処理で取得された第二画像のうち、部分V2の範囲に対応する画像が切り出されて、表示画像が生成される(S31)。表示画像に対応する画像X1から図11(R)における部分V1に相当する部分が検出され(S32)、検出された部分に対応する位置に枠X2が付される(S33)。CPU31は、図15(T)に示す、枠X2が付加された画像X1を、液晶パネル2Aの出射部22に表示させる(S35)。   In this case, the range of the portion V2 corresponding to the display range for the excerpt landscape 521 is as shown in FIG. A two-dot chain line V21 in FIG. 14R indicates an end portion on the arrow A3 direction side of the display range before the display range is corrected by the process of S26. The end of the display range on the A3 direction side is corrected as indicated by the arrow Y1 by the process of S26. Therefore, as shown in FIG. 15 (T), an image corresponding to the range of the part V2 is cut out from the second image acquired in the process of S12 based on the display range determined in the process of S18. A display image is generated (S31). A portion corresponding to the portion V1 in FIG. 11R is detected from the image X1 corresponding to the display image (S32), and a frame X2 is added to the position corresponding to the detected portion (S33). The CPU 31 displays the image X1 added with the frame X2 shown in FIG. 15 (T) on the emission unit 22 of the liquid crystal panel 2A (S35).

また、図13(Q)に示すように、第一方向であるθc2が−120°であり、第二方向であるθhが0°である状態で、ユーザUによる撮影が開始されたとする。この状態において、第一相対角度(θc−h)はθc2からθhを減じて得られる−120°である。したがって、S18の処理によって、θ+が−70°、θ−が−170°と決定される。   Further, as shown in FIG. 13Q, it is assumed that shooting by the user U is started in a state where θc2 which is the first direction is −120 ° and θh which is the second direction is 0 °. In this state, the first relative angle (θc−h) is −120 ° obtained by subtracting θh from θc2. Therefore, by the process of S18, θ + is determined to be −70 ° and θ− is determined to be −170 °.

図13(M)において、ユーザUは、HMD1を右眼装着しているので(S21:YES)、表示範囲が左眼視野の範囲内であるかを判断するS22の処理が行われる。θhが0°の場合のθul−は、−60°である。θ+が−70°であるので、(θ+)<(θul−)の関係が成立する(S22:NO)。したがって、θ+がθ−'(=(θul−)+10°)に置換される。したがって、表示範囲の矢印A2方向の側の端部は、θ+(=−70°)からθ+'(=−50°)に補正される(S23)。すなわち、表示範囲の矢印A2方向の側の端部が、矢印Y1に示すように矢印A2方向に向けて拡張される。補正後の表示範囲であるθkは、120°となる。   In FIG. 13M, since the user U wears the right eye of the HMD 1 (S21: YES), the process of S22 is performed to determine whether the display range is within the left eye visual field range. θul− when θh is 0 ° is −60 °. Since θ + is −70 °, the relationship (θ +) <(θul−) is established (S22: NO). Therefore, θ + is replaced with θ− ′ (= (θul −) + 10 °). Accordingly, the end of the display range on the arrow A2 direction side is corrected from θ + (= −70 °) to θ + ′ (= −50 °) (S23). That is, the end of the display range on the arrow A2 direction side is expanded toward the arrow A2 direction as indicated by the arrow Y1. The corrected display range θk is 120 °.

この場合、抜粋風景521に対する表示範囲に相当する部分V2の範囲が、図14(S)に示すようになる。図14(S)における二点鎖線V22は、S23の処理によって表示範囲の補正が行われる前の表示範囲の矢印A2方向の側の端部を示す。S23の処理によって表示範囲のA2方向の側の端部が、矢印Y2に示すように補正される。したがって、図15(W)に示すように、S18の処理で決定された表示範囲に基づいてS12の処理で取得された第二画像のうち、部分V2の範囲に対応する画像が切り出されて、表示画像が生成される(S31)。表示画像に対応する画像X1から図11(S)における部分V1に相当する部分が検出され(S32)、検出された部分に対応する位置に枠X2が付される(S33)。CPU31は、図15(W)に示す、枠X2が付加された画像X1を、液晶パネル2Aの出射部22に表示させる(S35)。   In this case, the range of the portion V2 corresponding to the display range for the excerpt landscape 521 is as shown in FIG. A two-dot chain line V22 in FIG. 14S indicates an end portion on the arrow A2 direction side of the display range before the display range is corrected by the process of S23. The end of the display range on the A2 direction side is corrected as indicated by the arrow Y2 by the process of S23. Therefore, as shown in FIG. 15 (W), an image corresponding to the range of the part V2 is cut out from the second image acquired in the process of S12 based on the display range determined in the process of S18. A display image is generated (S31). A portion corresponding to the portion V1 in FIG. 11S is detected from the image X1 corresponding to the display image (S32), and a frame X2 is added to the position corresponding to the detected portion (S33). The CPU 31 displays the image X1 added with the frame X2 shown in FIG. 15 (W) on the emission unit 22 of the liquid crystal panel 2A (S35).

このように、第一相対角度が比較的大きく、ユーザUがHD2によって左眼視野又は右眼視野が遮られて撮影対象を視認し難い場合、CPU31は、S23又はS26の処理によって表示範囲がユーザUの右眼視野又は左眼視野を含むように補正する。よって、ユーザUは、自身の視界に含まれる風景が含まれる表示画像を視認することで、撮影対象を第一画角に正確に捉えやすくなる。また、ユーザUは、液晶パネル2Aの出射部22において表示画像を確認するとともに、自身の視野が向く第二方向の状況も確認できるので、自身が移動しながらの撮影であっても、安全に撮影を行いやすい。   As described above, when the first relative angle is relatively large and the user U cannot easily view the subject to be photographed because the left eye field or the right eye field is blocked by HD2, the CPU 31 displays the display range by the process of S23 or S26. Corrections are made to include U's right eye field or left eye field. Therefore, the user U can easily capture the photographing object accurately at the first angle of view by visually recognizing the display image including the landscape included in his field of view. In addition, since the user U can check the display image on the emission unit 22 of the liquid crystal panel 2A and can also check the situation in the second direction in which the user's field of view is facing, Easy to shoot.

以上説明したように、ユーザUによる撮影対象の撮影において、撮影対象の移動、撮影対象の変更、ユーザUの移動等により、第一方向及び第二方向が様々な方向を指す。CPU31は、第一方向と第二方向とがなす相対角度に基づいて、第二画像のうち液晶パネル2Aの出射部22に表示する表示範囲を、第一画像が含まれる範囲に決定する(S18、S23及びS26)。このため、第一方向及び第二方向が変化しても、CPU31は、相対角度に応じた表示範囲を決定し(S18)、表示範囲に対応する表示画像を液晶パネル2Aの出射部22に表示させることができる(S35)。よって、ユーザUは、表示画像を視認することで、撮影に応じて第一方向及び第二方向が変化しても、第一画像に撮影対象を容易に捉えやすい。したがって、HD2は、ユーザUが移動しながら撮影対象を撮影するような場合であっても、ユーザUに撮影対象の位置の把握をしやすくし、ユーザUの安全も確保しやすい。   As described above, in the shooting of the shooting target by the user U, the first direction and the second direction indicate various directions due to movement of the shooting target, change of the shooting target, movement of the user U, and the like. Based on the relative angle formed by the first direction and the second direction, the CPU 31 determines a display range to be displayed on the emission unit 22 of the liquid crystal panel 2A in the second image as a range including the first image (S18). , S23 and S26). For this reason, even if the first direction and the second direction change, the CPU 31 determines a display range corresponding to the relative angle (S18), and displays a display image corresponding to the display range on the emission unit 22 of the liquid crystal panel 2A. (S35). Therefore, the user U can easily catch the shooting target in the first image even if the first direction and the second direction change according to shooting by visually recognizing the display image. Therefore, the HD 2 makes it easy for the user U to grasp the position of the shooting target and to ensure the safety of the user U even when the user U is shooting the shooting target while moving.

CPU31は、表示画像に含まれる第一画像に相当する部分を検出する(S32)。CPU31は、検出した第一画像に対応する部分の位置を示す情報として、枠X2を表示画像に付す(S33)。よって、HD2は、ユーザUに表示画像を視認させることで、表示画像のうち第一画像に相当する部分の位置を、ユーザUに容易に認識させることができる。   The CPU 31 detects a portion corresponding to the first image included in the display image (S32). The CPU 31 attaches a frame X2 to the display image as information indicating the position of the portion corresponding to the detected first image (S33). Therefore, the HD 2 allows the user U to easily recognize the position of the portion corresponding to the first image in the display image by causing the user U to visually recognize the display image.

第一カメラ51を用いた撮影の進行に応じて、第一方向及び第二方向が変化しうる。第二方向が変化せず、第一方向が変化する場合、第一方向の変化の度合いによっては、表示画像に第一画像が含まれなくなる。また、第一方向が変化せず、第二方向が変化する場合、ユーザUの視野が第二方向の変化に応じて変化する。CPU31は、第一方向及び第二方向の少なくともいずれかが変化し、相対角度変化量が所定量以上になった場合(SS44:YES)、処理をS11に戻し、最新の第一相対角度に基づいて表示範囲を新たに決定する(S18)。これにより、HD2は、表示画像に第一画像が含まれなくなるような場合に、表示画像を更新できる。したがって、HD2は、撮影の進行に応じて第一方向及び第二方向が変化する場合であっても、第一画像に相当する部分をユーザUに認識させやすい表示画像を表示できる。   The first direction and the second direction can change according to the progress of shooting using the first camera 51. When the second direction does not change and the first direction changes, the first image is not included in the display image depending on the degree of change in the first direction. When the first direction does not change and the second direction changes, the field of view of the user U changes according to the change in the second direction. When at least one of the first direction and the second direction changes and the relative angle change amount is equal to or greater than the predetermined amount (SS44: YES), the CPU 31 returns the process to S11 and based on the latest first relative angle. The display range is newly determined (S18). As a result, the HD 2 can update the display image when the first image is not included in the display image. Accordingly, the HD 2 can display a display image that allows the user U to recognize a portion corresponding to the first image even when the first direction and the second direction change according to the progress of shooting.

例えば、第二方向が、ユーザUの進行方向、又はユーザUから撮影対象に向かう方向の等のいずれでもない、特定の方向である場合には、HD2に表示画像が表示されず、第一画像がそのまま表示された方が、かえってユーザUが撮影対象を認識しやすいことがある。CPU31は、第二方向が、ユーザUの第一方向の視認性に関して設定される特定の範囲内の方向である場合(S41:YES)、表示画像に替えて第一画像を液晶パネル2Aの出射部22に表示させる(S42)。この場合、ユーザUは、第一カメラ51によって撮像される第一画像を視認することで、撮像対象を確認できる。よって、HD2の使い勝手が向上する。   For example, when the second direction is a specific direction that is neither the traveling direction of the user U or the direction from the user U toward the shooting target, the display image is not displayed on the HD 2 and the first image is displayed. If U is displayed as it is, the user U may easily recognize the shooting target. When the second direction is a direction within a specific range set for the visibility of the user U in the first direction (S41: YES), the CPU 31 outputs the first image instead of the display image to the liquid crystal panel 2A. It is displayed on the part 22 (S42). In this case, the user U can confirm the imaging target by visually recognizing the first image captured by the first camera 51. Therefore, the usability of HD2 is improved.

HMD1は、着用具10及びに装着部11によってHD2をユーザUの頭部に装着する。加速度センサ41は、着用具10に設けられる。このため、CPU31は、加速度センサ41から出力された信号に基づいて、第二方向を正確に取得できる(S15)。CPU31は、第二方向に基づくユーザUの視野を含めた表示範囲を決定し(S18、S23及びS26)、決定された表示範囲に基づいて表示画像を生成する(S31)。したがって、HMD1は、HD2において、撮影対象の位置をユーザUの視野に応じてユーザUに容易に認識させやすい。   The HMD 1 wears the HD 2 on the head of the user U by the wearing tool 10 and the wearing part 11. The acceleration sensor 41 is provided on the wearing tool 10. For this reason, CPU31 can acquire a 2nd direction correctly based on the signal output from the acceleration sensor 41 (S15). The CPU 31 determines a display range including the field of view of the user U based on the second direction (S18, S23, and S26), and generates a display image based on the determined display range (S31). Therefore, the HMD 1 can easily make the user U recognize the position of the shooting target in the HD 2 according to the user U's visual field.

HD装着位置が左眼装着及び右眼装着のいずれであるかに応じて、HD2によって左眼視野又は右眼視野が遮られやすくなり、ユーザUが撮影対象を視認し難くなることがある。CPU31は、S18の処理によって決定された表示範囲がユーザUの視野に含まれているか否かを、HD装着位置に応じて判断する(S22又はS25)。表示範囲がHD装着位置に応じたユーザUの視野に含まれていない場合には、HMD1は、表示範囲にユーザUの視野が有効に含まれるように表示範囲を修正する(S23又はS26)。したがって、HMD1は、HD装着位置に応じた適切な表示画像をHD2に表示させることで、ユーザUがHD2によって撮影対象を視認し難くなることを軽減できる。   Depending on whether the HD attachment position is left eye attachment or right eye attachment, the left eye field or right eye field is likely to be blocked by HD 2, and it may be difficult for the user U to visually recognize the photographing target. The CPU 31 determines whether or not the display range determined by the process of S18 is included in the visual field of the user U according to the HD mounting position (S22 or S25). When the display range is not included in the visual field of the user U corresponding to the HD mounting position, the HMD 1 corrects the display range so that the visual field of the user U is effectively included in the display range (S23 or S26). Therefore, the HMD 1 can reduce the difficulty in visually recognizing the shooting target by the HD 2 by causing the HD 2 to display an appropriate display image corresponding to the HD mounting position on the HD 2.

出射部22は、本発明の「表示部」の一例である。S11の処理を行うCPU31は、本発明の「第一画像取得手段」の一例である。S12の処理を行うCPU31は、本発明の「第二画像取得手段」の一例である。S13の処理を行うCPU31は、本発明の「第一取得手段」の一例である。S15の処理を行うCPU31は、本発明の「第二取得手段」の一例である。S16の処理を行うCPU31は、本発明の「相対角度算出手段」の一例である。S18、S23及びS28の処理を行うCPU31は、本発明の「決定手段」の一例である。S31及びS33の処理を行うCPU31は、本発明の「生成手段」の一例である。S35の処理を行うCPU31は、本発明の「表示制御手段」の一例である。S43及びS45の処理を行うCPU31は、本発明の「第三取得手段」の一例である。S48の処理を行うCPU31は、本発明の「変化量算出手段」の一例である。S51の処理を行うCPU31は、本発明の「変化量判断手段」の一例である。着用具10及び装着部11は、本発明の「装着部」の一例である。加速度センサ41は、本発明の「検出部」の一例である。S21の処理を行うCPU31は、本発明の「装着位置判断手段」の一例である。   The emission unit 22 is an example of the “display unit” in the present invention. The CPU 31 that performs the process of S11 is an example of the “first image acquisition unit” in the present invention. The CPU 31 that performs the process of S12 is an example of the “second image acquisition unit” in the present invention. The CPU 31 that performs the process of S13 is an example of the “first acquisition means” in the present invention. The CPU 31 that performs the process of S15 is an example of the “second acquisition unit” in the present invention. The CPU 31 that performs the process of S16 is an example of the “relative angle calculation means” in the present invention. The CPU 31 that performs the processes of S18, S23, and S28 is an example of the “determination unit” in the present invention. The CPU 31 that performs the processes of S31 and S33 is an example of the “generating means” in the present invention. The CPU 31 that performs the process of S35 is an example of the “display control means” in the present invention. The CPU 31 that performs the processes of S43 and S45 is an example of the “third acquisition unit” in the present invention. The CPU 31 that performs the processing of S48 is an example of the “variation amount calculation means” in the present invention. The CPU 31 that performs the process of S51 is an example of the “change amount determination means” in the present invention. The wearing tool 10 and the mounting portion 11 are examples of the “mounting portion” in the present invention. The acceleration sensor 41 is an example of the “detection unit” in the present invention. The CPU 31 that performs the process of S21 is an example of the “mounting position determination unit” in the present invention.

なお、本発明は上記の実施形態に限定されるものではなく、種々の変更が可能である。CPU31は、第二方向が上方向を視認していると特定できる範囲内にある場合、第二方向が特定の範囲内にあると判断して、S41及びS42の処理を行ってもよい。CPU31は、HD2が第三位置に配置されている場合に、第二方向が特定の範囲内にあると判断してもよい。CPU31は、加速度センサ41によって検出される加速度と、加速度センサ38によって検出される加速度との差分を算出することによって、着用具10に対するHD2の位置を検出することで、HD2が第三位置に配置されているか否かを判断してもよい。   In addition, this invention is not limited to said embodiment, A various change is possible. CPU31 may judge that the 2nd direction exists in a specific range, and may perform processing of S41 and S42, when it exists in the range which can specify that the 2nd direction is viewing the up direction. The CPU 31 may determine that the second direction is within a specific range when the HD 2 is disposed at the third position. The CPU 31 calculates the difference between the acceleration detected by the acceleration sensor 41 and the acceleration detected by the acceleration sensor 38, thereby detecting the position of HD2 with respect to the wearing tool 10, thereby arranging HD2 at the third position. It may be determined whether or not.

CPU31は、第二方向が特定の範囲内の場合、第一相対角度の算出(S16)、表示範囲の決定(S18)、HD装着位置に応じた表示範囲の補正(S21からS26)、表示画像の表示(S35)の各処理のうち少なくともいずれかを実行しないこととしてもよい。この場合、CPU31の処理負荷が軽減される。この場合において、CPU31は、液晶パネル2Aの出射部22に第一画像をそのまま表示してもよいし、液晶パネル2Aの出射部22に画像を表示しないこととしてもよい。   When the second direction is within the specific range, the CPU 31 calculates the first relative angle (S16), determines the display range (S18), corrects the display range according to the HD mounting position (S21 to S26), and the display image. It is good also as not performing at least any one of each process of display (S35). In this case, the processing load on the CPU 31 is reduced. In this case, the CPU 31 may display the first image as it is on the emission unit 22 of the liquid crystal panel 2A, or may not display an image on the emission unit 22 of the liquid crystal panel 2A.

S23又はS26において表示範囲の修正が行われることによって表示範囲が広範囲になるほど、第二画像から切り出される表示画像のサイズが大きくなる。第一カメラ51の第一画角が変化しない場合には、表示画像のサイズが大きくなるほど、表示画像に占める第一画像に相当する部分の大きさが相対的に小さくなる。表示画像の全体が出射部22の全体に表示される場合、表示画像のサイズが大きくなるほど、第一画像に相当する部分の画像が出射部22において小さく表示されるようになる。表示画像を見るユーザUは、表示画像に含まれる第一画像が小さくなるほど、第一画像の内容を視認し難くなり、第一画像に撮影対象を捉えにくくなる。このような不都合を回避するため、CPU31は、表示範囲が所定以上の範囲になったときに、S18の処理による表示範囲の決定、及びS21からS26の処理によるHD装着位置に応じた表示範囲の修正を行わないこととしてもよい。CPU31は、S18の処理及びS21からS26の処理を行うか否かを、第一相対角度の大きさに応じて決定してもよい。CPU31は、S18の処理及びS21からS26の処理を行わない場合、第一画像をそのまま液晶パネル2Aの出射部22に表示してもよい。又は、CPU31は、第一方向を基準にして、第一画角よりも広角の画像を第二画像から適宜切り出し、切り出した画像を液晶パネル2Aの出射部22に表示してもよい。   As the display range becomes wider by correcting the display range in S23 or S26, the size of the display image cut out from the second image becomes larger. When the first angle of view of the first camera 51 does not change, the size of the portion corresponding to the first image in the display image becomes relatively smaller as the size of the display image becomes larger. When the entire display image is displayed on the entire emission unit 22, the larger the size of the display image, the smaller the portion of the image corresponding to the first image is displayed on the emission unit 22. As the first image included in the display image becomes smaller, the user U who sees the display image becomes less likely to visually recognize the contents of the first image, and the first image is less likely to capture the shooting target. In order to avoid such inconvenience, the CPU 31 determines the display range according to the process of S18 and the display range corresponding to the HD mounting position by the processes of S21 to S26 when the display range becomes a predetermined range or more. It is good also as not performing correction. The CPU 31 may determine whether to perform the process of S18 and the processes of S21 to S26 according to the magnitude of the first relative angle. CPU31 may display the 1st image on the emission part 22 of liquid crystal panel 2A as it is, when not performing the process of S18 and the process of S21 to S26. Alternatively, the CPU 31 may appropriately cut out an image having a wider angle than the first angle of view from the second image on the basis of the first direction, and display the cut out image on the emission unit 22 of the liquid crystal panel 2A.

枠X2は、表示画像のうち第一画像に相当する部分の少なくとも一部を囲むことで、表示画像のうち第一画像に相当する部分を示してもよい。表示画像において、表示画像のうち第一画像に相当する部分を示す情報は、枠X2を用いる他、様々な態様を有してもよい。枠X2に替えて、表示画像のうち第一画像に相当する部分が鮮明に表示され、表示画像のその他の部分が第一画像に相当する部分よりも非鮮明に表示されることで、表示画像のうち第一画像に相当する部分が示されてもよい。表示画像のうち第一画像に相当する部分がカラー表示され、表示画像のその他の部分が白黒表示されることで、表示画像のうち第一画像に相当する部分が示されてもよい。   The frame X2 may indicate a part corresponding to the first image in the display image by surrounding at least a part of the part corresponding to the first image in the display image. In the display image, information indicating a portion corresponding to the first image in the display image may have various modes in addition to the frame X2. In place of the frame X2, the portion corresponding to the first image in the display image is clearly displayed, and the other portion of the display image is displayed more clearly than the portion corresponding to the first image. Of these, a portion corresponding to the first image may be shown. The portion corresponding to the first image in the display image may be displayed in color, and the other portion of the display image may be displayed in black and white to indicate the portion corresponding to the first image in the display image.

S22からS26の処理は、HD装着位置によらずに行われてもよい。例えば、HD装着位置がいずれであっても、S18の処理によって決定された表示範囲を示すθ+及びθ−が、ユーザUの視野の範囲内であることを示す所定の角度の範囲内にあるか否かに応じて、θ+及びθ−の値の修正が行われてもよい。   The processing from S22 to S26 may be performed regardless of the HD mounting position. For example, regardless of the HD mounting position, is θ + and θ− indicating the display range determined by the processing of S18 within a range of a predetermined angle indicating that it is within the range of the visual field of the user U? Depending on whether or not, the values of θ + and θ− may be corrected.

上記実施形態では、第一画像と第二画像の双方が第一カメラ51及び第二カメラ52によってリアルタイムに撮像されているが、例えば、第二画像として、予め撮像された広角画像が用いられてもよい。   In the above embodiment, both the first image and the second image are captured in real time by the first camera 51 and the second camera 52. For example, a wide-angle image captured in advance is used as the second image. Also good.

HMD1は、非図示のカメラによってユーザUの眼を撮影してもよい。HMD1は、カメラから出力される画像データに基づく画像から、使用者の眼の目頭を基準点として特定し、使用者の眼の虹彩を動点として特定してもよい。FPGA33は、特定された目頭の位置に対する虹彩位置から、第二方向を特定してもよい。   The HMD 1 may photograph the user U's eyes with a camera (not shown). The HMD 1 may specify the eye of the user's eye as a reference point and specify the iris of the user's eye as a moving point from an image based on image data output from the camera. The FPGA 33 may specify the second direction from the iris position with respect to the specified position of the eye.

CPU31は、S52の処理に替えて、この時点における第一画像を取得し、取得した第一画像に相当する部分を、パターンマッチング法等によって表示画像から検出することで、第一画像の位置を示す情報を修正してもよい。   The CPU 31 acquires the first image at this time instead of the processing of S52, and detects the position corresponding to the acquired first image from the display image by the pattern matching method or the like, thereby determining the position of the first image. The information shown may be modified.

液晶パネル2Aの出射部22に替えて、液晶パネル等による汎用の表示装置が設けられてもよい。この表示装置は、第一カメラ51を設置するジンバル機構に設けられてもよいし、第一カメラ51に設けられてもよい。表示装置が、ユーザUによって着用される帽子、ヘルメットのひさしの部分等、ユーザUが視認可能な位置に設けられてもよい。すなわち、本発明の「表示装置」は、HMD1のHD2に限られず、様々な形態を採ってもよい。   Instead of the emission part 22 of the liquid crystal panel 2A, a general-purpose display device such as a liquid crystal panel may be provided. This display device may be provided in the gimbal mechanism in which the first camera 51 is installed, or may be provided in the first camera 51. The display device may be provided at a position where the user U can visually recognize the hat worn by the user U, the eaves portion of the helmet, or the like. In other words, the “display device” of the present invention is not limited to the HD2 of the HMD 1 and may take various forms.

上記実施形態では、ユーザUの左右方向の周囲に水平方向に広がる水平視野について表示範囲を算出する例を示したが、ユーザUの上下方向の周囲に広がる垂直視野についても同様に表示範囲が算出されてもよい。   In the above embodiment, the display range is calculated for the horizontal visual field extending in the horizontal direction around the left and right directions of the user U. However, the display range is similarly calculated for the vertical visual field extending in the vertical direction of the user U. May be.

第二方向は、加速度センサ38によって検出されてもよい。HD装着位置は、加速度センサ41によって検出されてもよい。第一方向、第二方向及びHD装着位置を検出するために、加速度センサ以外に、ジャイロセンサ、光学式のセンサ、各種の回路等、公知の各種のセンサ、回路等が用いられてもよい。   The second direction may be detected by the acceleration sensor 38. The HD mounting position may be detected by the acceleration sensor 41. In order to detect the first direction, the second direction, and the HD mounting position, in addition to the acceleration sensor, various known sensors and circuits such as a gyro sensor, an optical sensor, and various circuits may be used.

着用具10は上記の構成に限定されず、帽子やヘルメットなどに装着するアタッチメントのような構成でもよいし、メガネのフレームのような構成でもよい。また、HMD1は着用具10を有していなくてもよい。固定部14は、着用具10と異なる別の部材に固定されてもよい。例えば固定部14は、ユーザUによって着用される帽子、ヘルメット等に固定されてもよい。第二方向を検出する加速度センサ41は、装着部11のアーム部12、固定部14等に設けられてもよい。加速度センサ41は、ユーザUが装着する帽子、着衣等に設けられてもよい。   The wearing tool 10 is not limited to the above configuration, and may be a configuration such as an attachment attached to a hat, a helmet, or the like, or a configuration such as a frame of glasses. Further, the HMD 1 may not have the wearing tool 10. The fixing portion 14 may be fixed to another member different from the wearing tool 10. For example, the fixing unit 14 may be fixed to a hat, a helmet, or the like worn by the user U. The acceleration sensor 41 that detects the second direction may be provided on the arm portion 12, the fixing portion 14, or the like of the mounting portion 11. The acceleration sensor 41 may be provided on a hat, clothes, or the like worn by the user U.

HD2が第一位置に配置された場合の第一距離L1は、HD2が第二位置に配置された場合の第二距離L2より長くてもよい。HD2を第一位置から第二位置に移動させるときの第一ボールジョイント6及び第二ボールジョイント7うち少なくともいずれか一方の回動角度は、第一所定角度よりも小さくてもよい。HD2を第一位置から第三位置に移動させるときの第一ボールジョイント6及び第二ボールジョイント7のうち少なくともいずれか一方の回動角度は、第二所定角度よりも小さくてもよい。装着部11は、第一ボールジョイント6及び第二ボールジョイント7の代わりに、他の調節機構、例えば、ゴム等の弾性体によって形成されたフレキシブルジョイントを有していてもよい。   The first distance L1 when HD2 is disposed at the first position may be longer than the second distance L2 when HD2 is disposed at the second position. The rotation angle of at least one of the first ball joint 6 and the second ball joint 7 when the HD 2 is moved from the first position to the second position may be smaller than the first predetermined angle. The rotation angle of at least one of the first ball joint 6 and the second ball joint 7 when the HD 2 is moved from the first position to the third position may be smaller than the second predetermined angle. The mounting portion 11 may have another adjustment mechanism, for example, a flexible joint formed of an elastic body such as rubber, instead of the first ball joint 6 and the second ball joint 7.

1 HMD
2 HD
2A 液晶パネル
22 出射部
10 着用具
11 装着部
12 アーム部
14 固定部
22 出射部
31 CPU
38,41 加速度センサ
1 HMD
2 HD
2A Liquid crystal panel 22 Output part 10 Wearing tool 11 Mounting part 12 Arm part 14 Fixing part 22 Output part 31 CPU
38, 41 Acceleration sensor

Claims (6)

画像を表示する表示部と、
第一カメラによって撮像された第一画像を取得する第一画像取得手段と、
前記第一カメラの画角よりも広角の画像を撮像する第二カメラによって撮影された第二画像を取得する第二画像取得手段と、
前記第一カメラが前記第一画像を撮像する方向を示す第一方向を取得する第一取得手段と、
ユーザの視野が向く方向を示す第二方向を取得する第二取得手段と、
前記第一方向と、前記第二方向とがなす角度である相対角度を算出する相対角度算出手段と、
前記相対角度算出手段によって算出された前記相対角度に基づいて、前記第二画像のうち前記表示部に表示する範囲である表示範囲を、前記第一画像が含まれる範囲に決定する決定手段と、
前記決定手段によって決定された前記表示範囲に対応する画像である表示画像を生成する生成手段と、
前記生成手段によって生成された前記表示画像を前記表示部に表示させる表示制御手段と
を備えたことを特徴とする表示装置。
A display for displaying an image;
First image acquisition means for acquiring a first image captured by the first camera;
Second image acquisition means for acquiring a second image captured by a second camera that captures an image having a wider angle than the angle of view of the first camera;
First acquisition means for acquiring a first direction indicating a direction in which the first camera captures the first image;
Second acquisition means for acquiring a second direction indicating a direction in which the user's visual field is directed;
A relative angle calculating means for calculating a relative angle that is an angle formed by the first direction and the second direction;
A determining unit that determines, based on the relative angle calculated by the relative angle calculating unit, a display range that is a range to be displayed on the display unit in the second image as a range including the first image;
Generating means for generating a display image that is an image corresponding to the display range determined by the determining means;
And a display control unit that displays the display image generated by the generation unit on the display unit.
前記生成手段は、前記表示画像のうち前記第一画像に相当する部分を示す情報を前記表示画像に付加して生成することを特徴とする請求項1に記載の表示装置。   The display device according to claim 1, wherein the generation unit generates information by adding information indicating a portion corresponding to the first image in the display image to the display image. 前記表示制御手段によって前記表示画像が前記表示部に表示された後の時点に前記第一方向及び前記第二方向を取得する第三取得手段と、
前記第一取得手段によって取得された前記第一方向と、前記第二取得手段によって取得された前記第二方向とがなす前記相対角度である第一相対角度と、前記第三取得手段によって取得された前記第一方向と前記第二方向とがなす前記相対角度である第二相対角度との間の変化量である相対角度変化量を算出する変化量算出手段と、
前記変化量算出手段によって算出された前記相対角度変化量が所定量以上であるかを判断する変化量判断手段とを備え、
前記生成手段は、前記変化量判断手段によって前記相対角度変化量が所定量以上であると判断された場合、前記表示画像を新たに生成することを特徴とする請求項1又は2に記載の表示装置。
Third acquisition means for acquiring the first direction and the second direction at a time after the display image is displayed on the display unit by the display control means;
The first relative angle, which is the relative angle formed by the first direction acquired by the first acquisition unit and the second direction acquired by the second acquisition unit, is acquired by the third acquisition unit. A change amount calculating means for calculating a relative angle change amount that is a change amount between the second relative angle that is the relative angle formed by the first direction and the second direction;
Change amount determination means for determining whether the relative angle change amount calculated by the change amount calculation means is greater than or equal to a predetermined amount;
The display according to claim 1, wherein the generation unit newly generates the display image when the change amount determination unit determines that the relative angle change amount is equal to or greater than a predetermined amount. apparatus.
前記第二取得手段によって取得された前記第二方向が、ユーザの前記第一方向の視認性に関して設定される特定の範囲内の方向を示すかを判断する第二方向判断手段を備え、
前記表示制御手段は、前記第二方向判断手段によって前記第二方向が前記特定の範囲内の方向であると判断された場合、前記第一画像を前記表示部に表示させることを特徴とする請求項1から3のいずれかに記載の表示装置。
A second direction determination means for determining whether the second direction acquired by the second acquisition means indicates a direction within a specific range set with respect to the visibility of the first direction of the user;
The display control unit causes the display unit to display the first image when the second direction determination unit determines that the second direction is within the specific range. Item 4. The display device according to any one of Items 1 to 3.
請求項1から4のいずれかに記載の前記表示装置と、
前記ユーザの頭部に前記表示装置を装着するための部材である装着部と、
前記装着部に設けられ、前記第二方向を検出する検出部とを備え、
前記第二取得手段は、前記検出部によって検出された前記第二方向を取得し、
前記生成手段は、前記第二方向に基づく前記ユーザの視野を含めた前記表示画像を生成することを特徴とするヘッドマウントディスプレイ。
The display device according to any one of claims 1 to 4,
A mounting portion that is a member for mounting the display device on the user's head;
A detection unit that is provided in the mounting unit and detects the second direction;
The second acquisition means acquires the second direction detected by the detection unit,
The head-mounted display, wherein the generation unit generates the display image including a visual field of the user based on the second direction.
前記装着部は、前記表示装置の前記表示部を、前記ユーザの右眼及び左眼のうちいずれかに対する位置を選択して装着可能であり、
前記表示部が前記ユーザの右眼及び左眼のうちいずれに対応する位置に装着されているかを判断する装着位置判断手段とを備え、
前記決定手段は、前記装着位置判断手段による判断結果に応じて、前記表示範囲を変更することを特徴とする請求項5に記載のヘッドマウントディスプレイ。
The mounting unit can mount the display unit of the display device by selecting a position with respect to either the right eye or the left eye of the user,
A mounting position determination unit that determines whether the display unit is mounted in a position corresponding to either the right eye or the left eye of the user;
6. The head mounted display according to claim 5, wherein the determining unit changes the display range in accordance with a determination result by the mounting position determining unit.
JP2018044182A 2018-03-12 2018-03-12 Display device and head mounted display Expired - Fee Related JP6665878B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2018044182A JP6665878B2 (en) 2018-03-12 2018-03-12 Display device and head mounted display
PCT/JP2019/002436 WO2019176321A1 (en) 2018-03-12 2019-01-25 Display device and head-mounted display

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018044182A JP6665878B2 (en) 2018-03-12 2018-03-12 Display device and head mounted display

Publications (2)

Publication Number Publication Date
JP2019161391A true JP2019161391A (en) 2019-09-19
JP6665878B2 JP6665878B2 (en) 2020-03-13

Family

ID=67907642

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018044182A Expired - Fee Related JP6665878B2 (en) 2018-03-12 2018-03-12 Display device and head mounted display

Country Status (2)

Country Link
JP (1) JP6665878B2 (en)
WO (1) WO2019176321A1 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009244369A (en) * 2008-03-28 2009-10-22 Sony Corp Imaging device and imaging method
JP2017011464A (en) * 2015-06-22 2017-01-12 リコーイメージング株式会社 Imaging system

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009244369A (en) * 2008-03-28 2009-10-22 Sony Corp Imaging device and imaging method
JP2017011464A (en) * 2015-06-22 2017-01-12 リコーイメージング株式会社 Imaging system

Also Published As

Publication number Publication date
WO2019176321A1 (en) 2019-09-19
JP6665878B2 (en) 2020-03-13

Similar Documents

Publication Publication Date Title
WO2018051815A1 (en) Information processing apparatus and method and program
KR20200055010A (en) Head mounted display tracking system
JP6899875B2 (en) Information processing device, video display system, information processing device control method, and program
CN103517060B (en) A kind of display control method of terminal equipment and device
JP6023568B2 (en) Head-mounted device
KR102093953B1 (en) Method for helping determine the vision parameters of a subject
JP2018050179A (en) Information processing apparatus, image generation method and head mount display
WO2014192640A1 (en) Image-capturing device and method for capturing image
JP2018067773A (en) Imaging device, control method thereof, program, and storage medium
JP2021047062A (en) Surveying system and surveying method using eyewear device
JP5895792B2 (en) Work assistance system and program
WO2019176321A1 (en) Display device and head-mounted display
JP2008070551A (en) Head-mounted display
KR20210137831A (en) Electronic apparatus and operaintg method thereof
JP2004304296A (en) Head mount display
JP2015191186A (en) Stereo adapter and stereo image-capturing device
JP5560600B2 (en) Head motion tracker device
JP6540676B2 (en) Head mounted display
JP6777052B2 (en) Head mounted display
JP6379502B2 (en) Spectacle wearing image analysis apparatus, spectacle wearing image analysis method, and spectacle wearing image analysis program
JP7446780B2 (en) display device
CN114556187B (en) Head mounted display device and display content control method
JP2017108302A (en) Display device
JP7423270B2 (en) display device
JP6322241B2 (en) Head-mounted device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190226

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200121

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200203

R150 Certificate of patent or registration of utility model

Ref document number: 6665878

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees