JP2023103050A - Vr head-mounted system - Google Patents

Vr head-mounted system Download PDF

Info

Publication number
JP2023103050A
JP2023103050A JP2022003886A JP2022003886A JP2023103050A JP 2023103050 A JP2023103050 A JP 2023103050A JP 2022003886 A JP2022003886 A JP 2022003886A JP 2022003886 A JP2022003886 A JP 2022003886A JP 2023103050 A JP2023103050 A JP 2023103050A
Authority
JP
Japan
Prior art keywords
image
hand
portable device
gui
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022003886A
Other languages
Japanese (ja)
Inventor
良平 上瀧
Ryohei Kamitaki
泰雅 市川
Yasumasa Ichikawa
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
World Scan Project Corp
Original Assignee
World Scan Project Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by World Scan Project Corp filed Critical World Scan Project Corp
Priority to JP2022003886A priority Critical patent/JP2023103050A/en
Publication of JP2023103050A publication Critical patent/JP2023103050A/en
Pending legal-status Critical Current

Links

Abstract

To provide a 6DOF-enabled head-mounted system which allows a user to view an entire-celestial-sphere image even if a head-mounted body is attached with a portable device.SOLUTION: There is provided a head-mounted system 100 in which a portable device SP including a camera CA on a first surface and a display unit DIS on a second surface is attached to a head-mounted body 10, and which allows a user to view an image projected onto the display unit DIS. The head-mounted body 10 includes a storage pocket 12 which stores the portable device such that the first surface faces forward, and which is notched such that the camera can image the front side. The portable device 10 comprises: a rotation amount sensor JS which senses a rotation amount in the three rotation directions of roll, pitch, and yaw; a translation movement amount calculation unit 32 which detects a feature point from a photographed image of the camera and calculates a translation movement amount in the three orthogonal axial directions; and an in-visual field image generation unit 36 which generates an in-visual field image from an entire-celestial-sphere image on the basis of the rotation amount and the translation movement amount.SELECTED DRAWING: Figure 3

Description

本発明は、スマートフォン等のポータブルデバイスを使って、全天球映像等を6DOF(Degree of Freedom)に応じて視野内映像が変化する映像の表示を行うVRヘッドマウントシステムに関する。 The present invention relates to a VR head-mounted system that uses a portable device such as a smartphone to display an omnidirectional image or the like in which the image within the field of view changes according to 6DOF (Degree of Freedom).

VR(virtual reality)等の分野で、周囲360°の撮影が可能な撮影装置によって撮影された全天球映像の利用が進んでいる。利用者は、ヘッドマウントにスマートフォン等のポータブルデバイスを取り付けて、ポータブルデバイスの表示部に、全天球映像を立体視が可能な視差付きのステレオ映像として表示させて、全天球映像を視聴することができる。特許文献1は、ポータブルデバイスをヘッドマウントに取り付ける発明を開示している。 2. Description of the Related Art In the field of VR (virtual reality) and the like, the use of omnidirectional images captured by a camera capable of capturing 360° surroundings is progressing. A user attaches a portable device such as a smartphone to a head mount, displays an omnidirectional image as a stereo image with parallax that enables stereoscopic viewing on the display unit of the portable device, and can view the omnidirectional image. Patent Literature 1 discloses an invention for attaching a portable device to a head mount.

ポータブルデバイスをヘッドマウントに取り付けると、ポータブルデバイスが有する角速度センサで、X軸・Y軸・Z軸周りの3つの動き(ロール、ピッチ、ヨー)を感知することができる。このため利用者の頭の回転や傾きを感知して、3DOF対応の全天球映像を視聴することができる。 When the portable device is attached to the head mount, the angular velocity sensor of the portable device can detect three movements (roll, pitch, yaw) around the X, Y, and Z axes. As a result, it is possible to sense the rotation and tilt of the user's head and view 3DOF omnidirectional images.

しかし、特許文献1のポータブルデバイスを取り付けたヘッドマウントは、X軸・Y軸・Z軸方向の「併進移動」という3つの動きを検知することができない。このため利用者は、併進移動を含めた6DOF対応の全天球映像を視聴することができない問題があった。さらに、全天球映像を視聴するだけでなく、全天球映像を巻き戻したり進めたりするためには、スマートフォン等のポータブルデバイス以外に手(ハンド)で持つコントローラも用意する必要があった。 However, the head mount to which the portable device of Patent Document 1 is attached cannot detect three movements of "translational movement" in the X-axis, Y-axis, and Z-axis directions. Therefore, there is a problem that the user cannot view omnidirectional video corresponding to 6DOF including translational movement. Furthermore, in order to not only view the omnidirectional video, but also to rewind and advance the omnidirectional video, it was necessary to prepare a hand-held controller in addition to a portable device such as a smartphone.

特表2019-510328号公報Japanese Patent Publication No. 2019-510328

そこで本実施形態は、ポータブルデバイスを取り付けたヘッドマウントであっても、6DOF対応の全天球映像を視聴することできるようにすることを目的とする。またコントローラも用意しなくても、全天球映像に対して処理(停止処理、巻き戻し処理等)できるようにすることを目的とする。 Therefore, an object of the present embodiment is to make it possible to view a 6DOF omnidirectional video even with a head-mounted portable device. Another object of the present invention is to enable processing (stop processing, rewind processing, etc.) for omnidirectional video without preparing a controller.

本実施形態のヘッドマウントシステムは、第1面にカメラと第2面に表示部とを含むポータブルデバイスがヘッドマウント本体に取り付けられて、表示部に投影される映像を視聴するためのヘッドマウントシステムである。そしてヘッドマウント本体は、第1面が前方を向くようにポータブルデバイスを収納しカメラが前方を撮影できるように切り欠かれた収容ポケットを有する。さらにポータブルデバイスは、ロール・ピッチ・ヨーの3回転方向の回転量を感知する回転量センサと、カメラの撮影画像から特徴点を検出して、3つの直交軸方向の並進移動量を計算する並進移動量計算部と、回転量及び並進移動量に基づいて、全天球映像から視野内映像を生成する視野内映像生成部と、を有する。 The head mount system of the present embodiment is a head mount system in which a portable device including a camera on the first surface and a display unit on the second surface is attached to a head mount body and an image projected on the display unit is viewed. The head mount main body has a storage pocket cut out so that the portable device can be stored with the first surface facing forward and the camera can photograph the front. Further, the portable device has a rotation amount sensor that senses the amount of rotation in the three rotation directions of roll, pitch, and yaw, a translation amount calculation unit that detects feature points from an image captured by the camera and calculates the amount of translational movement in three orthogonal axis directions, and an in-field image generation unit that generates an in-field image from an omnidirectional image based on the amount of rotation and the amount of translational movement.

またポータブルデバイスは、カメラの撮影画像から利用者の手を検出してトラッキングするハンドトラッキング部と、手が所定時間より長く撮影画像内にあるとき、ハンド画像を生成するハンド画像生成部と、手が所定時間より長く撮影画像内にあるとき、視野内映像に関連するGUI画像を生成するGUI画像生成部と、視野内映像に、ハンド画像及びGUI画像を合成する映像合成部と、を有することが好ましい。 The portable device preferably has a hand tracking unit that detects and tracks the user's hand from an image captured by the camera, a hand image generation unit that generates a hand image when the hand is in the captured image for longer than a predetermined time, a GUI image generation unit that generates a GUI image related to the video within the field of view when the hand is in the captured image for a longer time than the predetermined time, and a video synthesizing unit that combines the hand image and the GUI image with the video within the field of view.

またポータブルデバイスは、ハンド画像がGUI画像の指示アイコンに所定時間存在していたかを判定するGUI指示判定部を有し、GUI指示判定部は、ハンド画像がGUI画像の指示アイコン上にある場合に、指示アイコンの動作の実行を指示してもよい。
またポータブルデバイスは、視野内映像が商品を購入できるショッピング店舗であるか否かを判定するショッピング店舗判定部と、ショッピング店舗で販売される複数の商品画像を蓄積する商品画像蓄積部と、を有する。GUI指示判定部が、ハンド画像がショッピングのGUI画像上にある場合に、商品画像蓄積部が商品画像を映像合成部に供給することが好ましい。
The portable device may also have a GUI instruction determination unit that determines whether the hand image has been present on the instruction icon of the GUI image for a predetermined time, and the GUI instruction determination unit may instruct execution of the operation of the instruction icon when the hand image is on the instruction icon of the GUI image.
The portable device also has a shopping store determination unit that determines whether or not the image within the field of view is a shopping store where products can be purchased, and a product image storage unit that stores a plurality of product images sold at the shopping store. It is preferable that the product image storage unit supplies the product image to the image synthesizing unit when the GUI instruction determination unit determines that the hand image is on the shopping GUI image.

またポータブルデバイスは、ハンド画像が商品画像に所定時間存在していたかを判定する商品特定判定部を有し、商品特定判定部は、ハンド画像と商品画像とを一体化するとともに、且つカート画像ではハンド画像と商品画像とを切り離すことが好ましい。
商品画像蓄積部が商品画像を映像合成部に供給する際には、映像合成部は視野内映像を合成しないことが好ましい。
Moreover, the portable device has a product identification determination unit for determining whether the hand image exists in the product image for a predetermined time, and the product identification determination unit preferably integrates the hand image and the product image, and separates the hand image and the product image in the cart image.
When the product image storage unit supplies the product image to the image synthesizing unit, it is preferable that the image synthesizing unit does not synthesize the in-field image.

本実施形態の視野内画像を投影する方法は、第1面にカメラと第2面に表示部とを含むポータブルデバイスをヘッドマウント本体の収容ポケットに収納して、表示部に視野内画像を投影する方法である。そして収容ポケットは、カメラが前方を撮影できるように切り欠かれている。そしてポータブルデバイスが、ロール・ピッチ・ヨーの3回転方向の回転量を感知し、カメラの撮影画像から特徴点を検出して、3つの直交軸方向の並進移動量を計算し、回転量及び並進移動量に基づいて、全天球映像から視野内映像を生成する、
視野内画像を投影する。
The method of projecting an in-field image according to this embodiment is a method in which a portable device including a camera on the first surface and a display unit on the second surface is stored in a housing pocket of the head mount body, and the in-field image is projected on the display unit. And the storage pocket is cut out so that the camera can shoot forward. Then, the portable device senses the amount of rotation in the three rotational directions of roll, pitch, and yaw, detects feature points from the image captured by the camera, calculates the amount of translational movement in the three orthogonal axis directions, and generates an in-field image from the omnidirectional image based on the amount of rotation and translational movement.
Project the image within the field of view.

本実施形態のVRヘッドマウントシステムは、6DOF対応の全天球映像を視聴することができる。また、ハンドコントローラを用意することなく、全天球映像に対して処理を指示できる。 The VR head-mounted system of this embodiment can view 6DOF omnidirectional video. In addition, it is possible to instruct processing for the omnidirectional video without preparing a hand controller.

本実施形態のポータブルデバイスを取り付けたヘッドマウントシステムの斜視図である。1 is a perspective view of a head-mounted system to which the portable device of this embodiment is attached; FIG. (A)は、4方向から見たヘッドマウント(ポータブルデバイスを除く)図である。(B)は、瞳孔間の距離を調整する機構の説明図であり、(C)はレンズの焦点距離を調整する機構の説明図である。(A) is a view of the head mount (excluding the portable device) viewed from four directions. (B) is an explanatory diagram of a mechanism for adjusting the distance between the pupils, and (C) is an explanatory diagram of a mechanism for adjusting the focal length of the lens. VRヘッドマウントシステムに使用されるポータブルデバイスのブロック図である。1 is a block diagram of a portable device used in a VR head-mounted system; FIG. ハンドトラッキングに関するフローチャート1である。1 is a flow chart 1 for hand tracking; (A)は、ハンドトラッキングされたハンド画像の例である。(B)は、GUI画像の一例であり5つの指示アイコンが表示された例である。(C)から(F)は、ポータブルデバイスの表示部に表示される視野内映像の例である。なお表示部の画像又は映像は、人間の脳で認識する1つの視野内映像で描かれている。(A) is an example of a hand-tracked hand image. (B) is an example of a GUI image in which five instruction icons are displayed. (C) to (F) are examples of in-field images displayed on the display unit of the portable device. It should be noted that the image or video on the display unit is drawn as one video within the field of view recognized by the human brain. ハンドトラッキングに関するフローチャート2である。Fig. 2 is flow chart 2 for hand tracking; (A)から(F)は、ポータブルデバイスの表示部に表示される画像の例である。なお表示部の画像又は映像は、人間の脳で認識する1つの視野内映像で描かれている。(A) to (F) are examples of images displayed on the display unit of the portable device. It should be noted that the image or video on the display unit is drawn as one video within the field of view recognized by the human brain.

[ヘッドマウントシステムの全体構成]
図1は本実施形態に係るのポータブルデバイスSPをヘッドマウント本体10に取り付けたヘッドマウントシステム100を示す斜視図である。図1に示すように、ヘッドマウントシステム100は、ヘッドマウント本体10、ヘッドマウント本体10を利用者の頭部にしっかりと取り付けるストラップ20及びポータブルデバイスSPを含んでいる。
[Overall configuration of head-mounted system]
FIG. 1 is a perspective view showing a head mount system 100 in which a portable device SP according to this embodiment is attached to a head mount body 10. FIG. As shown in FIG. 1, the head mount system 100 includes a head mount body 10, a strap 20 for securely attaching the head mount body 10 to the user's head, and a portable device SP.

ポータブルデバイスSPは、ヘッドマウント本体10の収納ポケット12に収納される。本実施形態に開示するポータブルデバイスSPは、第1面(-Y軸側)に1以上のカメラCAを設けており、第2面(+Y軸側)に表示部DIS(図2を参照)を設けている。ポータブルデバイスSPは、以下に限定されるものではないが、いわゆるスマートフォン、タブレット端末もしくは手持ち式視覚メディアプレイヤなどが挙げられる。 The portable device SP is stored in the storage pocket 12 of the head mount body 10. - 特許庁The portable device SP disclosed in this embodiment has one or more cameras CA on the first surface (−Y axis side) and a display unit DIS (see FIG. 2) on the second surface (+Y axis side). Portable devices SP include, but are not limited to, so-called smart phones, tablet terminals or handheld visual media players.

例示的なポータブルデバイスSPは、中央処理装置(CPU)(図示せず)、表示部DIS、カメラCA、および通信部を含み、システムと共に使用するためのアプリケーションを動作できるようにすることができる。ポータブルデバイスSP50は、1つまたは複数のジャイロセンサ、加速度センサ、比重計、又は磁気計等の回転角センサを組み込んでいる。本実施形態では、回転角センサで、ヘッドマウントシステム100のロール・ピッチ・ヨーの3回転方向の回転量を感知することができる。 An exemplary portable device SP includes a central processing unit (CPU) (not shown), a display unit DIS, a camera CA, and a communication unit to enable running applications for use with the system. Portable device SP50 incorporates a rotation angle sensor such as one or more gyro sensors, accelerometers, hydrometers, or magnetometers. In this embodiment, the rotation angle sensor can detect the amount of rotation of the head mounted system 100 in the three directions of roll, pitch, and yaw.

ヘッドマウント本体10にはストラップ20が取り付けられており、ストラップ20で利用者の頭部がしっかり固定される。なお。例えば、ヘッドマウント本体10は、ストラップなしで頭頂部に固定されるヘルメット様のデバイスに組み込むこともできる。 A strap 20 is attached to the head mount body 10, and the user's head is firmly fixed with the strap 20.例文帳に追加note that. For example, head mount body 10 can be incorporated into a helmet-like device that is secured to the crown of the head without straps.

ポータブルデバイスSPを収納する収納ポケット12は、板バネのように撓む構造になっており、ポータブルデバイスSPを、周壁11と収納ポケット12との間で挟み込む。収納ポケット12の幅(X軸方向)は、ポータブルデバイスSPの長さより短く切り欠かれた形状に形成されており、ポータブルデバイスSPのカメラCAが前方を撮影できるようになっている。収納ポケット12の幅が長い場合には、ポータブルデバイスSPのカメラCAに相当する周辺が切り欠かれ、カメラCAが前方を撮影できるようになっていてもよい。 A storage pocket 12 for storing the portable device SP has a structure that bends like a leaf spring, and the portable device SP is sandwiched between the peripheral wall 11 and the storage pocket 12.例文帳に追加The width (X-axis direction) of the storage pocket 12 is formed in a notched shape shorter than the length of the portable device SP, so that the camera CA of the portable device SP can photograph the front. If the width of the storage pocket 12 is long, the periphery corresponding to the camera CA of the portable device SP may be cut out so that the camera CA can photograph the front.

周壁11には、レンズの焦点距離を調整する焦点調製レバー14及び瞳孔間の距離に合わせてレンズを移動させる瞳孔間距離調整ダイヤル15が設けられている。 The peripheral wall 11 is provided with a focus adjustment lever 14 for adjusting the focal length of the lens and an interpupillary distance adjustment dial 15 for moving the lens according to the distance between the pupils.

[ヘッドマウント本体の構成]
図2は本実施形態に係るのヘッドマウント本体10を示した図である。図2(A)はヘッドマウント本体10を4方向からの見た図である。図2(B)(C)は、ヘッドマウント本体10の内部に配置されるレンズ周辺を示した図である。
[Composition of the head mount body]
FIG. 2 is a diagram showing the head mount body 10 according to this embodiment. FIG. 2A is a view of the head mount body 10 viewed from four directions. 2B and 2C are diagrams showing the periphery of the lens arranged inside the head mount body 10. FIG.

ヘッドマウント本体10の周壁11及び収納ポケット12は、好ましくは、エチレン酢酸ビニル(EVA)、ポリウレタン(PU)、もしくはABS樹脂等のプラスチック材料で構成されるから。これらはそれぞれ、単独でまたは様々な組み合わせで利用することができる。好ましい実施形態では、周壁11及び収納ポケット12は射出成形などで成形される。周壁11の前方部分は概して矩形または箱形の形状を有している。 This is because the peripheral wall 11 and the storage pocket 12 of the head mount body 10 are preferably made of a plastic material such as ethylene vinyl acetate (EVA), polyurethane (PU), or ABS resin. Each of these can be used alone or in various combinations. In a preferred embodiment, the peripheral wall 11 and storage pocket 12 are molded, such as by injection molding. The forward portion of peripheral wall 11 has a generally rectangular or box-like shape.

周壁11の正面11aと収納ポケット12との距離は、ポータブルデバイスSPの厚みより若干短くなるように形成され、側方向(X軸方向)からみて収納ポケット12はS字形状になっている。プラスチック自体の弾性力と形状により、収納ポケット12は、板バネのような作用で、ポータブルデバイスSP(図示せず)を周壁11の正面11aをしっかりしっかりと装着することができる。周壁11の天面及び側面には、ストラップ20(図1を参照)が取り付けられるストラップピン19が形成されている。 The distance between the front surface 11a of the peripheral wall 11 and the storage pocket 12 is formed to be slightly shorter than the thickness of the portable device SP, and the storage pocket 12 has an S shape when viewed from the side (X-axis direction). Due to the elasticity and shape of the plastic itself, the storage pocket 12 acts like a leaf spring and can firmly attach the portable device SP (not shown) to the front face 11a of the peripheral wall 11 . A strap pin 19 to which a strap 20 (see FIG. 1) is attached is formed on the top and side surfaces of the peripheral wall 11 .

収納ポケット12の幅L1は、ポータブルデバイスSPのタイプおよびサイズに応じて変更できるが、典型的には、ポータブルデバイスSPを把持および保持することが意図される。ポータブルデバイスSPの平均的な表示部のサイズは約5インチ(12.7cm)から6.5インチ(16.5cm)であり、ポータブルデバイスSPの第1面のカメラCAの位置は、Y軸方向からみて左上側に配置されていることが多く、図1のようにポータブルデバイスSPを横置きすると、カメラCAは、右上に位置する。このカメラCAが隠れないように収納ポケット12の幅L1は切り欠かれている。 The width L1 of the storage pocket 12 can vary depending on the type and size of the portable device SP, but is typically intended to grip and hold the portable device SP. The average size of the display unit of the portable device SP is about 5 inches (12.7 cm) to 6.5 inches (16.5 cm), and the position of the camera CA on the first surface of the portable device SP is often arranged on the upper left side when viewed from the Y-axis direction. When the portable device SP is laid horizontally as shown in FIG. The width L1 of the storage pocket 12 is notched so that the camera CA is not hidden.

利用者の額に接触するためのフェイス縁部17は、ゴム、ウレタンフォーム等の柔軟な素材であることが好ましい。周壁11とフェイス縁部17とは接着剤または篏合などで接合される。フェイス縁部17は、利用者の顔に接触した際は、周囲から中空13に光が入ることを防止する。 The face edge portion 17 for contacting the user's forehead is preferably made of a flexible material such as rubber or urethane foam. The peripheral wall 11 and the face edge portion 17 are joined by an adhesive, a fitting, or the like. The face edge 17 prevents light from entering the hollow 13 from the surroundings when it contacts the user's face.

中空13にはポータブルデバイスSPの表示部の映像を視聴するため一対のレンズLZが配置される。その一対のレンズLZをY軸方向及びX軸方向に移動させるため、周壁11は焦点調製レバー14及び瞳孔間距離調整ダイヤル15を有している。瞳孔間距離調整ダイヤル15は利用者によって異なる瞳孔間の距離を利用者に合わせて調整するダイヤルである。図2(B)に示されるように、レンズLZを保持する一対のレンズホルダー18はそれぞれラック18aを有している。調整ダイヤル15にはピニオン15aが形成されており、ラック18aとピニオン15aとが噛み合っている。ピニオン15aが回転されることで、レンズホルダー18に保持されたレンズLZが中央側へ近づいたり外側に離れたりする。なお図2(B)では理解を助けるため、瞳孔間距離調整ダイヤル15のピニオン15aとラック18aとが分離して描かれている。 A pair of lenses LZ are arranged in the hollow 13 for viewing the image on the display of the portable device SP. The peripheral wall 11 has a focus adjustment lever 14 and an interpupillary distance adjustment dial 15 for moving the pair of lenses LZ in the Y-axis direction and the X-axis direction. The interpupillary distance adjustment dial 15 is a dial for adjusting the interpupillary distance, which varies depending on the user, according to the user. As shown in FIG. 2B, each of the pair of lens holders 18 holding the lens LZ has a rack 18a. A pinion 15a is formed on the adjustment dial 15, and the rack 18a and the pinion 15a are engaged with each other. By rotating the pinion 15a, the lens LZ held by the lens holder 18 approaches the center side or moves away from the outside. In FIG. 2(B), the pinion 15a and the rack 18a of the interpupillary distance adjustment dial 15 are drawn separately to facilitate understanding.

図2(C)に示されるように、焦点調製レバー14は、レンズLZの焦点距離を調整するため、利用者が調整レバーを前後(Y軸方向)に移動させる。レンズホルダー18は篏合板18bが形成されており、焦点調製レバー14のクランプ部14aが、篏合板18bを挟み込む。レンズLZは、利用者の眼とポータブルデバイスSPの表示部との間に位置する。理解できるように、利用者の眼がレンズLZと位置合わせされて、利用者はポータブルデバイスSPの表示部を視聴するためにレンズLZを通して見ることができる。レンズLZは、ポータブルデバイスSPの表示部に映し出された視野内映像の左または右の不連続の領域に、利用者の視界の焦点を合わせることができる。レンズを通して利用者の視界を適切に位置合わせすることは、仮想現実アプリケーションでは特に重要である。 As shown in FIG. 2C, the focus adjustment lever 14 is moved back and forth (in the Y-axis direction) by the user to adjust the focal length of the lens LZ. A bridge 18b is formed on the lens holder 18, and the clamp 14a of the focus adjustment lever 14 clamps the bridge 18b. The lens LZ is positioned between the user's eye and the display of the portable device SP. As can be seen, the user's eyes are aligned with the lens LZ so that the user can look through the lens LZ to view the display of the portable device SP. The lens LZ can focus the user's field of vision on a left or right discontinuous area of the in-field image projected on the display of the portable device SP. Proper alignment of the user's view through the lens is especially important in virtual reality applications.

[ポータブルデバイスの構成]
図3はポータブルデバイスSPの機能的構成を示すブロック図である。ポータブルデバイスSPは、スマートフォン、タブレット型コンピュータ又はパーソナルコンピュータ等を含む。表示装置DISは、液晶ディスプレイ又は有機ELディスプレイ等の表示装置である。表示装置DISは、利用者の右眼用と左眼用にそれぞれ別の表示画面を備えるものであってもよく、一つの表示画面のみを備えるものであってもよい。ポータブルデバイスSPには、webサイト等のストアからアプリをダウンロードしてある。そしてアプリを起動することで、ポータブルデバイスSPは、以下に説明する機能を有している。またアプリから複数の全天球映像のデータをダウンロードできる。
[Portable device configuration]
FIG. 3 is a block diagram showing the functional configuration of the portable device SP. Portable devices SP include smartphones, tablet computers, personal computers, and the like. The display device DIS is a display device such as a liquid crystal display or an organic EL display. The display device DIS may have separate display screens for the right and left eyes of the user, or may have only one display screen. An application is downloaded from a store such as a website to the portable device SP. By activating the application, the portable device SP has the functions described below. You can also download multiple spherical image data from the app.

回転量センサJSは、ヘッドマウント本体10の動きを検出する。回転量センサJSは、ヨー、ロール及びピッチの3軸の回転(3DOF;Degrees Of Freedom)を検知することができる。なお、回転量センサJSは、IMU(inertial measurement unit:慣性計測装置)であってもよく、ジャイロセンサといった種々の組み合わせであっても良い。回転量センサJSがIMUの場合、Y軸方向(前後)、X軸方向(左右)及びZ軸方向(上下)の3方向の移動を検出可能である。 The rotation amount sensor JS detects movement of the head mount body 10 . The rotation amount sensor JS is capable of detecting three-axis rotation (3DOF; Degrees Of Freedom) of yaw, roll, and pitch. Note that the rotation amount sensor JS may be an IMU (inertial measurement unit) or various combinations such as a gyro sensor. If the rotation amount sensor JS is an IMU, it can detect movement in three directions: the Y-axis direction (back and forth), the X-axis direction (left and right), and the Z-axis direction (up and down).

ポータブルデバイスSPは、さらに通信部WF、映像データ蓄積部31、並進移動計算部32、ハンドトラッキング部33、ハンド画像生成部34、GUI画像生成部35、視野内映像生成部36、映像合成部37、GUI指示判定部38を有している。またポータブルデバイスSPは、ショッピング店舗判定部41、商品画像蓄積部42及び商品特定判定部43を備える。 The portable device SP further includes a communication unit WF, a video data storage unit 31, a translation calculation unit 32, a hand tracking unit 33, a hand image generation unit 34, a GUI image generation unit 35, an in-field video generation unit 36, a video synthesis unit 37, and a GUI instruction determination unit 38. The portable device SP also includes a shopping store determination unit 41 , a product image storage unit 42 and a product identification determination unit 43 .

通信部WFは、5Gもしくは4Gなどの長距離通信、又はWiFi(商標)やbluetooth(商標)等の短距離通信を行う。映像データ蓄積部31は、全天球映像のデータ(以下、映像データ)を通信部WFを介して取得する。全天球映像は、ある一点を中心とする360°の全方位の映像であり、全天球カメラを利用して撮像された映像や複数のカメラで撮影された映像を合成した映像である。映像データ蓄積部31は、ポータブルデバイスSPに保存されている映像データを読出すことによって映像データを取得してもよい。映像データ蓄積部31は、映像データを取得すると、映像データを復号し、全天球映像を生成する。映像データ蓄積部31は、生成した全天球映像を視野内映像生成部36に供給する。 The communication unit WF performs long-distance communication such as 5G or 4G, or short-distance communication such as WiFi (trademark) or bluetooth (trademark). The video data storage unit 31 acquires omnidirectional video data (hereinafter referred to as video data) via the communication unit WF. The omnidirectional image is a 360° omnidirectional image centered on a certain point, and is an image obtained by synthesizing images captured using an omnidirectional camera or images captured by a plurality of cameras. The video data storage unit 31 may acquire video data by reading video data stored in the portable device SP. When the image data storage unit 31 acquires the image data, the image data storage unit 31 decodes the image data and generates an omnidirectional image. The image data storage unit 31 supplies the generated omnidirectional image to the in-field image generation unit 36 .

並進移動計算部32は、カメラCAで撮影した撮影画像を定期的に取得し、現実空間に存在する特徴的な点を指標として、XYZ軸方向の並進移動量を計算する。具体的には、W. A. Hoff and K. Nguyen, "Computer vision-based registration techniques for augmented reality", Proc. SPIE, vol.2904, pp. 538-548, Nov. 1996に開示されている。
なお、図3では並進移動計算部32はカメラCAの撮影画像のみから並進移動を計算するように描かれているが、回転量センサJSがIMU(慣性計測装置)であれば、6DOFを検出することができるので、カメラCAで撮影した撮影画像とIMUからのXYZ軸方向の並進方向の信号とを組み合わせて、XYZ軸方向の並進移動量を計算しても良い。定期的に撮影された撮影画像とセンサとを使った並進移動量の計算は、具体的には、S. You and U. Neumann, "Fusion of vision and gyro tracking for robust augmented reality registration", Proc. IEEE Virtual Reality 2001, pp.71-78, Mar. 2001.に開示されている。なお、XYZ軸方向の並進移動量の精度が低くて良い場合には、IMU(慣性計測装置)が検出する並進移動量を使い、カメラCAの撮影画像を使う並進移動計算部32が無くても良い。
The translational movement calculation unit 32 periodically acquires images captured by the camera CA, and calculates the amount of translational movement in the XYZ-axis directions using characteristic points existing in the physical space as indices. Specifically, it is disclosed in WA Hoff and K. Nguyen, "Computer vision-based registration techniques for augmented reality", Proc. SPIE, vol.2904, pp. 538-548, Nov. 1996.
In FIG. 3, the translational movement calculation unit 32 is depicted to calculate the translational movement only from the captured image of the camera CA. However, if the rotation amount sensor JS is an IMU (inertial measurement unit), 6DOF can be detected. Calculation of the amount of translational movement using regularly captured images and sensors is specifically disclosed in S. You and U. Neumann, "Fusion of vision and gyro tracking for robust augmented reality registration", Proc. IEEE Virtual Reality 2001, pp.71-78, Mar. 2001. If the accuracy of the translational movement in the XYZ-axis directions can be low, the translational movement detected by an inertial measurement unit (IMU) is used, and the translational movement calculator 32 that uses the image captured by the camera CA may be omitted.

ハンドトラッキング部33は、カメラCAの撮影画像に基づいて、利用者の手(ハンド)及び指を認識し、手の位置及び指の動作をトラッキングする。ハンドトラッキング部33は、ディープラーニングモデルを使用して、カメラCAが撮影した撮影画像の中に、手が存在するか否かを判断することができる。 The hand tracking unit 33 recognizes the hand and fingers of the user based on the image captured by the camera CA, and tracks the position of the hand and the movement of the fingers. The hand tracking unit 33 can use a deep learning model to determine whether or not a hand is present in the captured image captured by the camera CA.

ハンド画像生成部34は、ハンドトラッキング部33が利用者の手を認識したことに基づいて、映像内に映し出すハンド画像51を生成する。ハンド画像生成部34は、利用者の手が所定時間より長く撮影画像内にあるときに、ハンド画像51を生成することが好ましい。利用者が手を振って歩いている際に、一時的に映像視野内に手が入るような事象を排除するためである。図5(A)は、表示部DISに投影されたハンド画像51の一例である。視野内映像にハンド画像51を重ねて表示しても視野内映像の視聴を妨げないように、ハンド画像51は半透明画像であることが好ましい。ハンド画像生成部34は、予め特有なハンド画像51(指差ししているハンド画像、親指と人差し指とで物をつかんでいるハンド画像等)を複数用意しておき、カメラCAの撮影画像中の手の形状に近いハンド画像51を選択してもよい。また画像処理により撮影された手の輪郭を検出してハンド画像51を生成しても良い。生成したハンド画像51は映像合成部37に供給される。カメラCAが撮影した撮影画像から、手が存在しなくなったら、ハンド画像生成部34はハンド画像の生成を止め、ハンド画像が消去される。 The hand image generation unit 34 generates a hand image 51 to be displayed in the video based on the recognition of the user's hand by the hand tracking unit 33 . It is preferable that the hand image generator 34 generates the hand image 51 when the user's hand is in the captured image for longer than a predetermined time. This is to eliminate an event in which the user's hand temporarily enters the visual field while the user is waving and walking. FIG. 5A is an example of a hand image 51 projected on the display unit DIS. The hand image 51 is preferably a translucent image so that viewing of the in-field video is not disturbed even if the hand image 51 is superimposed on the in-field video. The hand image generation unit 34 may prepare a plurality of unique hand images 51 (a hand image pointing, a hand image grasping an object with the thumb and forefinger, etc.) in advance, and select the hand image 51 that is close to the shape of the hand in the image captured by the camera CA. Alternatively, the hand image 51 may be generated by detecting the contour of the photographed hand by image processing. The generated hand image 51 is supplied to the video synthesizing section 37 . When the hand disappears from the captured image captured by the camera CA, the hand image generator 34 stops generating the hand image, and the hand image is erased.

GUI画像生成部35は、手を認識したことに基づいて、映像に関連するGUI画像52を生成する。GUI画像生成部35は、予め複数のGUI画像52を用意しておくことが好ましい。GUI画像52は、例えば、巻き戻し、レビュー、停止、キュー、早送り等の指示アイコンである。図5(B)は、表示部DISに投影されたGUI画像52の一例である。また後述するように商品購入の指示アイコンであってもよい。なお、図3ではハンド画像生成部34がハンド画像を生成した後にGUI画像52を生成するように矢印が描かれている。しかし、ハンドトラッキング部33で手を認識した後、ハンド画像51と同時にGUI画像52が生成されても良い。つまりGUI画像生成部35は、利用者の手が所定時間より長く撮影画像内にあるときに、GUI画像52を生成することが好ましい。GUI画像52は、視野内映像に応じて指示アイコンの数や種類が変化することが好ましい。 The GUI image generator 35 generates a GUI image 52 related to the video based on the recognition of the hand. The GUI image generator 35 preferably prepares a plurality of GUI images 52 in advance. The GUI image 52 is, for example, instruction icons such as rewind, review, stop, cue, and fast forward. FIG. 5B is an example of a GUI image 52 projected onto the display unit DIS. Alternatively, as will be described later, it may be an instruction icon for purchasing a product. In FIG. 3, the arrow is drawn so that the GUI image 52 is generated after the hand image generating unit 34 generates the hand image. However, the GUI image 52 may be generated simultaneously with the hand image 51 after the hand tracking unit 33 recognizes the hand. In other words, it is preferable that the GUI image generator 35 generates the GUI image 52 when the user's hand is in the captured image for longer than the predetermined time. In the GUI image 52, it is preferable that the number and types of instruction icons change according to the in-field video.

GUI画像生成部35は生成したGUI画像52を表示空間に定位させることが好ましい。生成したGUI画像52は映像合成部37に供給される。視野内映像にGUI画像52を重ねて表示しても視野内映像の視聴を妨げないように、GUI画像52は半透明画像であることが好ましい。これにより、ヘッドマウント本体10を装着した利用者が実空間で向きを変えたり並進移動しても、GUI画像52は、表示空間の視点を基準とした所定の位置に実質的に固定され、GUI画像52は移動しない。 The GUI image generator 35 preferably localizes the generated GUI image 52 in the display space. The generated GUI image 52 is supplied to the video synthesizing section 37 . The GUI image 52 is preferably a translucent image so that viewing of the in-field video is not disturbed even when the GUI image 52 is displayed superimposed on the in-field video. Thus, even if the user wearing the head mount body 10 changes direction or translates in the real space, the GUI image 52 is substantially fixed at a predetermined position based on the viewpoint of the display space, and the GUI image 52 does not move.

視野内映像生成部36は、映像データ蓄積部31から供給された全天球映像から、表示部DISに表示される映像である視野内映像を生成する。視野内映像生成部36は、回転量センサJS及び並進移動計算部32から回転量及び並進移動量を取得し、ヘッドマウント本体10の向きや利用者の移動に応じて全天球映像の一部を抽出することによって視野内映像を生成することができる。視野内映像生成部36は、ヨー、ロール及びピッチの3軸の回転及びXYZ軸方向の移動量が検出されると、その回転及び移動量に応じて全天球映像のうち視野内映像となる範囲を移動させる。 The in-field image generation unit 36 generates an in-field image, which is an image to be displayed on the display unit DIS, from the omnidirectional image supplied from the image data storage unit 31 . The in-field image generation unit 36 acquires the amount of rotation and translation from the rotation amount sensor JS and the translation calculation unit 32, and extracts a part of the omnidirectional image according to the orientation of the head mount body 10 and the movement of the user, thereby generating the in-field image. When the in-field image generation unit 36 detects the rotation of the three axes of yaw, roll, and pitch and the amount of movement in the XYZ-axis directions, it moves the range of the in-field image of the omnidirectional image according to the rotation and movement amount.

これにより、利用者が頭部を動かすとともに前後左右上下に移動すると、ヘッドマウント本体10の動きに追随して全天球映像のうち視野内映像となる範囲が移動し、利用者は周囲を見渡すかのように全天球映像を視聴することができる。即ち、視野内映像によって実現される全天球映像により、利用者の頭部の位置の変化に対して実質的に視点の位置が独立して制御される表示空間が形成される。なお、表示部DISには、右目用と左目用にそれぞれ視野内映像が投影されるが、図5及び図7では、人間の脳で認識するに1つの視野内映像として描かれている。 As a result, when the user moves his/her head and moves forward, backward, left, right, up and down, the range of the omnidirectional video image within the visual field moves following the movement of the head mount body 10, and the user can view the omnidirectional video image as if looking around. That is, the omnidirectional image realized by the in-field image forms a display space in which the position of the viewpoint is substantially independently controlled with respect to the change in the position of the user's head. In-field-of-view images are projected on the display unit DIS for the right eye and the left-eye respectively, but in FIGS. 5 and 7, they are depicted as one in-field image for recognition by the human brain.

映像合成部37は、視野内映像生成部36から供給された視野内映像と、ハンド画像生成部34から供給されたハンド画像と、GUI画像生成部35から供給されたGUI画像52とを合成する。合成された映像は表示部DISに投影される。 The image synthesis unit 37 synthesizes the in-field image supplied from the in-field image generation unit 36, the hand image supplied from the hand image generation unit 34, and the GUI image 52 supplied from the GUI image generation unit 35. The synthesized image is projected on the display unit DIS.

GUI指示判定部38は、映像合成部37で表示部DISに投影されたGUI画像52に、利用者のハンド画像が所定時間(1~2秒)存在するかを判定する。GUI画像52に複数の指示アイコンが含まれる場合には、それらの1つの指示アイコンが特定されたかを判定する。例えば、利用者は、自身の手を移動させることで、ハンド画像をGUI画像52の早送りボタンの指示アイコンに移動させ、自身の手を1秒間維持する。GUI指示判定部38は、早送りの指示があったと判断し、視野内映像生成部36に映像を早送りするように指示する。 The GUI instruction determination unit 38 determines whether the user's hand image exists in the GUI image 52 projected on the display unit DIS by the video composition unit 37 for a predetermined time (1 to 2 seconds). If the GUI image 52 contains a plurality of instruction icons, it is determined whether one of them has been identified. For example, the user moves his/her hand to move the hand image to the fast-forward button instruction icon of the GUI image 52 and holds his/her hand for one second. The GUI instruction determination unit 38 determines that a fast-forward instruction has been given, and instructs the in-field image generation unit 36 to fast-forward the image.

ショッピング店舗判定部41は、視野内映像生成部36で生成される映像にショッピング店舗があるか否かを判定する。ショッピング店舗判定部41は、ディープラーニングモデルを使用して視野内映像の中に、ショッピング店舗が存在するか否かを判定する。ディープラーニングを使用せず、予め全天球映像にショッピング店舗の存在を示す特有信号を入れておき、ショッピング店舗判定部41が、その特有信号を検出してショッピング店舗が存在することを判定しても良い。 The shopping store determination unit 41 determines whether or not there is a shopping store in the image generated by the in-field image generation unit 36 . The shopping store determination unit 41 uses a deep learning model to determine whether or not there is a shopping store in the image within the field of view. Without using deep learning, a unique signal indicating the presence of a shopping store may be included in the omnidirectional video in advance, and the shopping store determination unit 41 may detect the unique signal and determine the presence of the shopping store.

商品画像蓄積部42は、ショッピング店舗で販売可能な商品の画像(静止画・動画)を蓄積している。例えば商品がカバンであれば、販売可能なショルダーバッグもしくは手提げバッグ等の写真を予め撮影しておき、商品画像蓄積部42は、それら複数の画像が蓄積している。また商品画像蓄積部42は、商品1つ1つの商品画像を順次映像合成部37に供給したり、サムネイル表示された複数の商品を映像合成部37に供給したりする。 The product image storage unit 42 stores images (still images/moving images) of products that can be sold at shopping stores. For example, if the product is a bag, a photograph of a sellable shoulder bag, handbag, or the like is taken in advance, and the product image storage unit 42 stores a plurality of these images. In addition, the product image storage unit 42 sequentially supplies product images of each product to the image synthesizing unit 37 and supplies a plurality of products displayed as thumbnails to the image synthesizing unit 37 .

商品特定部43は、映像合成部37で表示部DISに投影された商品画像に、利用者のハンド画像が所定時間(1~2秒)存在するかを判定し、商品を特定したかを判定する。またはハンドトラッキング部33が利用者の手が親指と人差し指とで商品画像を摘まむような動作をトラッキングした際に、商品特定部43は、その商品を特定したと判定する。その後、商品が購入される手続に移る。 The product specifying unit 43 determines whether the user's hand image exists for a predetermined time (1 to 2 seconds) in the product image projected on the display unit DIS by the image synthesizing unit 37, and determines whether the product has been specified. Alternatively, when the hand tracking unit 33 tracks the action of the user's hand pinching the product image with the thumb and forefinger, the product identification unit 43 determines that the product has been identified. After that, the process moves to the procedure for purchasing the product.

[ヘッドマウントシステムの動作]
図4は、ヘッドマウントシステム100の動作を示すフローチャートである。
まず利用者はポータブルデバイスSPにダウンロード済のアプリを起動する(S401)。そして利用者はヘッドマウント本体10の収納ポケット12にポータブルデバイスSPをセットする(S402)。利用者は、ヘッドマウントシステム100を装着する。
[Operation of the head-mounted system]
FIG. 4 is a flow chart showing the operation of the head mount system 100. As shown in FIG.
First, the user activates an application that has been downloaded to the portable device SP (S401). Then, the user sets the portable device SP in the storage pocket 12 of the head mount body 10 (S402). A user wears the head mounted system 100 .

視野内映像が表示部DISに投影され(S403)、利用者は例えば図5(C)に示されるような視野内映像を視聴する。必要であれば、利用者は焦点調製レバー14を移動させレンズの焦点距離を調整し、また瞳孔間距離調整ダイヤル15を回して瞳孔間の距離に合わせてレンズを移動させる。回転量センサJSからのヘッドマウント本体10の動き(ヨー、ロール及びピッチ)の信号及びポータブルデバイスSPのカメラCAに基づく並進移動量の信号に基づき、視野内映像が変化する。 The image within the field of view is projected onto the display unit DIS (S403), and the user views the image within the field of view as shown in FIG. 5C, for example. If necessary, the user moves the focus adjustment lever 14 to adjust the focal length of the lens, and turns the interpupillary distance adjustment dial 15 to move the lens according to the distance between the pupils. The image within the field of view changes based on the motion (yaw, roll, and pitch) signals of the head mount body 10 from the rotation amount sensor JS and the translation amount signal based on the camera CA of the portable device SP.

視野内映像が表示部DISに投影されると同時に、カメラCAによるハンドトラッキングが開始される(S404)。利用者が自身の手を前方に突き出すと、ポータブルデバイスSPのカメラCAの撮影視野に利用者の手が入ってくる。そしてハンドトラッキング部33が、利用者の手及び指を認識し、手の位置及び指の動作をトラッキングする。利用者が自身の手を継続して所定時間(例えば1秒)撮影視野内に入っている場合に(S405 YES)、ハンド画像生成部34が生成したハンド画像51が表示部DISに投影される(S406)。図5(D)に示されるように視野内映像に半透明のハンド画像51が重ねて表示される。 At the same time that the in-field image is projected onto the display unit DIS, hand tracking by the camera CA is started (S404). When the user sticks out his/her hand forward, the user's hand enters the field of view of the camera CA of the portable device SP. A hand tracking unit 33 recognizes the user's hand and fingers, and tracks the position of the hand and the movement of the fingers. When the user's hand is continuously within the field of view for a predetermined time (for example, 1 second) (S405 YES), the hand image 51 generated by the hand image generating unit 34 is projected onto the display unit DIS (S406). As shown in FIG. 5D, a translucent hand image 51 is superimposed on the image within the field of view.

ハンド画像51が表示部DISに投影されると同時に又は数秒遅れて、GUI画像生成部35が生成したGUI画像52が表示部DISに投影される(S407)。図5(E)に示されるように視野内映像に半透明のGUI画像52が中央に重ねて表示される。本実施形態の一例では、GUI画像52は、左から、10秒巻き戻し指示アイコン、レビュー指示アイコン、停止指示アイコン、キュー指示アイコン、30秒早送り指示アイコンが表示されている。なお、視野内映像が停止している場合には、GUI画像52は停止指示アイコンが再生指示アイコンに切り替わる。本実施形態では、GUI画像52が表示部DISの中央に投影されているが、表示部DISの上端もしくは下端であってもよい。このGUI画像52は、利用者が頭を左右に動かしたりしてヘッドマウント本体10を動かして視野内映像が変化しても、一定位置に投影されるようになっていることが好ましい。 Simultaneously with the projection of the hand image 51 onto the display unit DIS or several seconds later, the GUI image 52 generated by the GUI image generation unit 35 is projected onto the display unit DIS (S407). As shown in FIG. 5(E), a semi-transparent GUI image 52 is superimposed on the image within the field of view and displayed in the center. In one example of the present embodiment, the GUI image 52 displays, from the left, a 10-second rewind instruction icon, a review instruction icon, a stop instruction icon, a cue instruction icon, and a 30-second fast forward instruction icon. When the in-field video is stopped, the GUI image 52 switches from the stop instruction icon to the reproduction instruction icon. In this embodiment, the GUI image 52 is projected at the center of the display section DIS, but it may be projected at the upper end or the lower end of the display section DIS. It is preferable that the GUI image 52 is projected at a fixed position even if the user moves the head mount body 10 by moving the head left or right and the image within the field of view changes.

GUI画像52は視野内映像が変化しても、一定位置に投影されている。このため図5(E)に示されるように、利用者は自身の手を移動させることで、ハンドトラッキング部33が例えば点線で描かれたハンド画像51から、実線で描かれたハンド画像51に移動し、10秒巻き戻し指示アイコンに所定時間維持される。GUI指示判定部38は、ハンド画像51がGUI画像52の指示アイコンに存在するか否かを判断する(S408)。図5(E)では、GUI指示判定部38は、10秒巻き戻し指示アイコンが指示されたと判定して、視野内映像生成部36に、映像を10秒巻き戻すように指示する(S409)。 The GUI image 52 is projected at a fixed position even if the in-field image changes. Therefore, as shown in FIG. 5(E), by moving the user's own hand, the hand tracking unit 33 moves from, for example, the hand image 51 drawn with a dotted line to the hand image 51 drawn with a solid line, and the 10-second rewind instruction icon is maintained for a predetermined time. The GUI instruction determination unit 38 determines whether or not the hand image 51 exists in the instruction icon of the GUI image 52 (S408). In FIG. 5E, the GUI instruction determination unit 38 determines that the 10-second rewind instruction icon has been instructed, and instructs the in-field image generation unit 36 to rewind the image by 10 seconds (S409).

一方、利用者が自身の手をカメラCAの撮影視野から出した場合に(S405 NO)、図5(E)に示される映像から、図5(F)に示される映像に変わる。つまり、表示部DISからハンド画像51が消去され(S410)、同時もしくは少し遅れてGUI画像52が消去される。 On the other hand, when the user takes his or her hand out of the field of view of the camera CA (S405 NO), the image shown in FIG. 5(E) changes to the image shown in FIG. 5(F). That is, the hand image 51 is erased from the display unit DIS (S410), and the GUI image 52 is erased at the same time or a little later.

次に、利用者が複数の映像データから視聴したい映像データを選択する場合と、映像データがショッピング映像である場合に利用者が商品を購入する場合とを、図6のフローチャート及び図7(A)~図7(F)を使って説明する。 Next, a case where the user selects video data that the user wants to view from a plurality of video data and a case where the user purchases a product when the video data is a shopping video will be described with reference to the flowchart of FIG. 6 and FIGS. 7(A) to 7(F).

ポータブルデバイスSPのアプリを起動した際には、複数の映像データのカテゴリが選択できるようなサムネイル表示が表示部DISに投影される(S601)。図7(A)は、表示部DISにその一例を示したサムネイル表示である。例えば、映像データのカテゴリには、日本旅行の映像、台湾旅行の映像、海中の映像、ショッピング映像等があり、利用者が自身の手を移動させてハンド映像51を横矢印71に所定時間置くことで、表示されていないサムネイル表示に移動させることができる。図7(A)は、ハンド画像51がショッピング映像のカテゴリを選択した状態を示している。すると、図7(B)に示されるように、複数のショッピング映像から1つのショッピング映像を選べるようなサムネイル表示が表示部DISに投影される。ショッピング映像ではなく、海中の映像を視聴したい場合には、利用者は自身の手を移動させ、ハンド映像51を上位カテゴリ矢印73に所定時間置けばよい。本実施形態では、利用者はハンド映像51をショッピング映像B74に所定時間置いて、ショッピング映像Bを選択した例である。 When the application of the portable device SP is started, a thumbnail display is projected on the display unit DIS so that a plurality of video data categories can be selected (S601). FIG. 7A is a thumbnail display showing an example on the display unit DIS. For example, the category of video data includes a video of a trip to Japan, a video of a trip to Taiwan, an underwater video, a shopping video, etc. By moving the user's own hand and placing the hand video 51 on the horizontal arrow 71 for a predetermined time, it can be moved to a thumbnail display that is not displayed. FIG. 7A shows a state in which the hand image 51 has selected the shopping video category. Then, as shown in FIG. 7(B), a thumbnail display is projected on the display section DIS so that one shopping image can be selected from a plurality of shopping images. If the user wishes to view an underwater image instead of the shopping image, the user can move his or her hand and place the hand image 51 on the upper category arrow 73 for a predetermined period of time. In this embodiment, the user selects the shopping image B by placing the hand image 51 on the shopping image B74 for a predetermined period of time.

視野内映像生成部36はショッピング映像Bを投影する(S602)。図7(C)は、ショッピング映像の一例であり仮想上のショッピングモール74を示している。利用者が頭部を動かすとともに前後左右に移動すると、回転量センサJS及び並進移動計算部32から回転量及び並進移動量を取得し、視野内映像生成部36は、ショッピングモールの映像やショッピングモール内の店舗の視野内映像を投影する。利用者が移動してショッピングモールの仮想店舗(例えばカバン店)に入ると、ショッピング店舗判定部41が、商品を購入できるショッピング店舗であるか否かを判定する。ショッピングモールのすべての仮想店舗で商品を購入できるのであればショッピング店舗判定部41は無くてもよいが、例えばショッピングモールの一部の仮想店舗で商品を購入できるのであれば、利用者が入った仮想店舗がショッピング店舗か否かを利用者に示すために、ショッピング店舗判定部41が、全天球映像に含まれる特有信号を検出したり、ディープラーニングで認識したりする(S603)。 The in-field image generator 36 projects the shopping image B (S602). FIG. 7C is an example of a shopping image showing a virtual shopping mall 74 . When the user moves his or her head forward, backward, left, or right, the rotation amount and the translation amount are obtained from the rotation amount sensor JS and the translation calculation unit 32, and the in-field image generation unit 36 projects the image of the shopping mall and the in-field image of the store in the shopping mall. When the user moves and enters a virtual store (for example, a bag store) in the shopping mall, the shopping store determining unit 41 determines whether or not it is a shopping store where products can be purchased. If products can be purchased at all virtual stores in the shopping mall, the shopping store determination unit 41 may be omitted. However, if products can be purchased at some virtual stores in the shopping mall, for example, the shopping store determination unit 41 detects a specific signal included in the omnidirectional image or recognizes it by deep learning in order to indicate to the user whether the virtual store the user entered is a shopping store (S603).

利用者が移動している仮想店舗が商品を購入できるショッピング店舗であれば(S603 YES)、ショッピング店舗判定部41が、ショッピングのGUI画像52aを表示部DISに投影する(S604)。図7(D)は、ショッピング店舗75の視野内映像にショッピングのGUI画像52aが表示部DISの下端に投影された例である。ショッピング店舗75の視野内映像で利用者が頭部を動かすと視野内映像が変化するが、ショッピングのGUI画像52aは一定位置に投影されたままである。利用者が前後左右に移動してショッピング店舗75から出てショッピングモール74の通路等にいると、ショッピングのGUI画像52aは消去される。利用者が移動している仮想店舗が商品を購入できるショッピング店舗でなければ(S604 NO)、引き続きショッピングモールの視野内映像が表示部DISに投影される(S403)。 If the virtual store to which the user is moving is a shopping store where products can be purchased (S603 YES), the shopping store determination unit 41 projects a shopping GUI image 52a onto the display unit DIS (S604). FIG. 7(D) is an example in which a shopping GUI image 52a is projected on the lower end of the display section DIS on the video within the field of view of the shopping store 75. FIG. When the user moves the head in the visual field image of the shopping store 75, the visual field image changes, but the shopping GUI image 52a remains projected at a fixed position. When the user moves forward, backward, leftward, and rightward to leave the shopping store 75 and is in the aisle of the shopping mall 74, the shopping GUI image 52a is erased. If the virtual store to which the user is moving is not a shopping store where products can be purchased (S604 NO), the image within the field of view of the shopping mall is continuously projected on the display unit DIS (S403).

次にGUI指示判定部38は、ハンド画像51がショッピングのGUI画像52aに存在するか否かを判断する(S605)。図7(D)では、ハンド画像51がショッピングのGUI画像52aに存在している状態を示している。ハンド画像51がショッピングのGUI画像52aに存在する場合(S605 YES)、商品画像蓄積部42は、そのショッピング店舗75の複数の商品画像(静止画もしくは動画)を映像合成部37に供給する。ハンド画像51がショッピングのGUI画像52aにない場合には、ハンドトラッキング部33は、引き続きカメラCAの撮影画像に基づいて、手の位置及び指の動作をトラッキングする(S404)。 Next, the GUI instruction determination unit 38 determines whether or not the hand image 51 exists in the shopping GUI image 52a (S605). FIG. 7D shows a state in which the hand image 51 exists in the shopping GUI image 52a. When the hand image 51 exists in the shopping GUI image 52 a ( S<b>605 YES), the product image storage unit 42 supplies a plurality of product images (still images or moving images) of the shopping store 75 to the video synthesizing unit 37 . If the hand image 51 is not in the shopping GUI image 52a, the hand tracking unit 33 continues to track the hand position and finger motion based on the image captured by the camera CA (S404).

商品画像蓄積部42が複数の商品画像を映像合成部37に供給すると、図7(E)に示されるように、商品画像76が投影されており、横矢印71でサムネイル画像(商品画像76)を移動させることによって利用者は別の商品画像76を視聴することができる。なお、図7(E)ではショッピング店舗75の視野内映像が合成されずに、利用者が商品画像76を見やすいように商品画像76のみが投影されている。つまり映像合成部37は、視野内映像生成部36から供給された視野内映像を合成していない。しかしながら、ショッピング店舗75の視野内映像が半透明で投影されても良い。 When the product image storage unit 42 supplies a plurality of product images to the image synthesizing unit 37, the product image 76 is projected as shown in FIG. In FIG. 7E, only the product image 76 is projected so that the user can easily see the product image 76 without synthesizing the in-field video of the shopping store 75 . In other words, the image synthesis unit 37 does not synthesize the in-field image supplied from the in-field image generation unit 36 . However, the image within the field of view of the shopping store 75 may be projected semi-transparently.

利用者は自身の手を動かし、ハンドトラッキング部33が手の位置及び指の動作をトラッキングする。商品特定判定部43は、ハンド画像51がある商品画像76に所定時間維持されると商品画像76を特定したと判定する(S608)。または、ハンドトラッキング部33が利用者の手が親指と人差し指とで商品画像76を摘まむような動作をトラッキングした際に、商品特定部43は、その商品画像76を特定したと判定する(S608)。商品画像76が特定されるとハンド画像51と商品画像76とが一体化され移動可能となる。 The user moves his or her hand, and the hand tracking section 33 tracks the hand position and finger movements. The product identification determination unit 43 determines that the product image 76 has been identified when the hand image 51 is maintained on the product image 76 for a predetermined time (S608). Alternatively, when the hand tracking unit 33 tracks the motion of the user's hand pinching the product image 76 with the thumb and forefinger, the product identification unit 43 determines that the product image 76 has been identified (S608). When the product image 76 is specified, the hand image 51 and the product image 76 are integrated and become movable.

次に、商品特定判定部43は、ハンド画像51が商品画像76と一体化されてカート77に移動したか、つまりハンド画像51がカート画像77に存在するかを判定する(S609)。ハンド画像51がカート画像77に存在すると(S609 YES)、商品画像76がカート77内に入り、ハンド画像51と商品画像77とが切り離される(S610)。そして図7(F)に示されるように、商品購入GUI画像52bが投影される(S611)。商品購入GUI画像52bには、「購入に進む」指示アイコン、「商品を戻す」指示アイコン、「ショッピングを続ける」及び「ショッピングから退出する」指示アイコン等が投影される。利用者は自身の手を動かし、これらのいずれかの指示アイコンにハンド画像51を移動させる。ハンド画像51が「購入に進む」指示アイコンに所定時間存在すると、利用者は商品を購入する画面に進むことができる。 Next, the product identification determination unit 43 determines whether the hand image 51 has been integrated with the product image 76 and moved to the cart 77, that is, whether the hand image 51 exists in the cart image 77 (S609). If the hand image 51 exists in the cart image 77 (S609 YES), the product image 76 enters the cart 77 and the hand image 51 and the product image 77 are separated (S610). Then, as shown in FIG. 7F, a product purchase GUI image 52b is projected (S611). A “proceed to purchase” instruction icon, a “return product” instruction icon, a “continue shopping” and “exit shopping” instruction icon, and the like are projected onto the product purchase GUI image 52b. The user moves his/her hand to move the hand image 51 to one of these instruction icons. When the hand image 51 remains on the "proceed to purchase" instruction icon for a predetermined time, the user can proceed to a screen for purchasing the product.

本実施形態では、ショッピング映像の場合に商品を購入できる例を説明したが、例えば海中の映像の途中に、シュノーケルや足ヒレの映像が出てきた際に、シュノーケルや足ヒレの購入画面が投影されてもよい。 In this embodiment, an example in which a product can be purchased in the case of a shopping image has been described, but for example, when an image of a snorkel or flippers appears in the middle of an underwater image, a screen for purchasing a snorkel or flippers may be projected.

100 … ヘッドマウントシステム
10 … ヘッドマウント本体
11 … 周壁、 12 … 収納ポケット
14 … 焦点調製レバー、15 … 瞳孔間距離調整ダイヤル
17 … フェイス縁部、 20 … ストラップ
31 … 映像データ蓄積部、 32 … 並進移動計算部
33 … ハンドトラッキング部、 34 … ハンド画像生成部
35 … GUI画像生成部、 36 … 視野内映像生成部
37 … 映像合成部、 38 … GUI指示判定部
41 … ショッピング店舗判定部、 42 … 商品画像蓄積部
43 … 商品特定判定部
51 … ハンド画像、 52 … GUI画像
CA … カメラ、 DIS … 表示部、 JS … 回転量センサ
SP … ポータブルデバイス、 WF … 通信部
100... Head mount system 10... Head mount main body 11... Peripheral wall 12... Storage pocket 14... Focus adjustment lever 15... Interpupillary distance adjustment dial 17... Face edge 20... Strap 31... Image data storage unit 32... Translational movement calculation unit 33... Hand tracking unit 34... Hand image generation unit 35... GUI image generating unit 36... Visual field image generating unit 37... Video synthesizing unit 38... GUI instruction determination unit 41... Shopping store determination unit 42... Product image storage unit 43... Product specific determination unit 51... Hand image 52... GUI image CA... Camera DIS... Display unit JS... Rotation amount sensor SP... Portable device WF … communication

Claims (10)

第1面にカメラと第2面に表示部とを含むポータブルデバイスがヘッドマウント本体に取り付けられて、前記表示部に投影される映像を視聴するためのヘッドマウントシステムであって、
前記ヘッドマウント本体は、
前記第1面が前方を向くように前記ポータブルデバイスを収納し、前記カメラが前方を撮影できるように切り欠かれた収容ポケットを有し、
前記ポータブルデバイスは、
ロール・ピッチ・ヨーの3回転方向の回転量を感知する回転量センサと、
前記カメラの撮影画像から特徴点を検出して、3つの直交軸方向の並進移動量を計算する並進移動量計算部と、
前記回転量及び前記並進移動量に基づいて、全天球映像から視野内映像を生成する視野内映像生成部と、
を有する、ヘッドマウントシステム。
A portable device including a camera on a first surface and a display unit on a second surface is attached to a head mount body, and a head mount system for viewing an image projected on the display unit,
The head mount body is
The portable device is stored so that the first surface faces forward, and the camera has a notched storage pocket so that the camera can shoot forward,
The portable device
a rotation amount sensor that senses the amount of rotation in the three directions of roll, pitch, and yaw;
a translational movement amount calculation unit that detects feature points from the image captured by the camera and calculates the amount of translational movement in three orthogonal axis directions;
an in-field image generation unit that generates an in-field image from an omnidirectional image based on the amount of rotation and the amount of translational movement;
a head-mounted system.
前記ポータブルデバイスは、
前記カメラの撮影画像から利用者の手を検出してトラッキングするハンドトラッキング部と、
前記手が所定時間より長く前記撮影画像内にあるとき、ハンド画像を生成するハンド画像生成部と、
前記手が所定時間より長く前記撮影画像内にあるとき、前記視野内映像に関連するGUI画像を生成するGUI画像生成部と、
前記視野内映像に、前記ハンド画像及び前記GUI画像を合成する映像合成部と、
を有し、
前記表示部に、前記視野内映像、前記ハンド画像及び前記GUI画像が投影される請求項1に記載のヘッドマウントシステム。
The portable device
a hand tracking unit that detects and tracks the user's hand from the image captured by the camera;
a hand image generation unit that generates a hand image when the hand is in the captured image for longer than a predetermined time;
a GUI image generation unit that generates a GUI image related to the in-field image when the hand is in the captured image for a period longer than a predetermined time;
a video synthesizing unit that synthesizes the hand image and the GUI image with the in-field video;
has
2. The head mounted system according to claim 1, wherein the in-field image, the hand image and the GUI image are projected on the display unit.
前記ポータブルデバイスは、
前記ハンド画像が前記GUI画像の指示アイコンに所定時間存在していたかを判定するGUI指示判定部を有し、
前記GUI指示判定部は、前記ハンド画像が前記GUI画像の指示アイコン上にある場合に、前記指示アイコンの動作の実行を指示する、請求項2に記載のヘッドマウントシステム。
The portable device
a GUI instruction determination unit that determines whether the hand image has existed in the instruction icon of the GUI image for a predetermined time;
3. The head-mounted system according to claim 2, wherein said GUI instruction determination unit instructs execution of an operation of said instruction icon when said hand image is on said instruction icon of said GUI image.
前記ポータブルデバイスは、
前記視野内映像が商品を購入できるショッピング店舗であるか否かを判定するショッピング店舗判定部と、
前記ショッピング店舗で販売される複数の商品画像を蓄積する商品画像蓄積部と、
を有し、
前記GUI指示判定部が、前記ハンド画像がショッピングのGUI画像上にある場合に、前記商品画像蓄積部が前記商品画像を前記映像合成部に供給する、請求項3に記載のヘッドマウントシステム。
The portable device
a shopping store determination unit that determines whether or not the in-field image is a shopping store where products can be purchased;
a product image accumulating unit for accumulating images of a plurality of products sold at the shopping store;
has
4. The head-mounted system according to claim 3, wherein said product image storage unit supplies said product image to said image synthesizing unit when said hand image is on a shopping GUI image.
前記ポータブルデバイスは、
前記ハンド画像が前記商品画像に所定時間存在していたかを判定する商品特定判定部を有し、
前記商品特定判定部は、前記ハンド画像と前記商品画像とを一体化するとともに、且つカート画像では前記ハンド画像と前記商品画像とを切り離す、請求項4に記載のヘッドマウントシステム。
The portable device
a product identification determination unit that determines whether the hand image has existed in the product image for a predetermined time;
5. The head-mounted system according to claim 4, wherein said product identification determination unit integrates said hand image and said product image, and separates said hand image and said product image in a cart image.
前記商品画像蓄積部が前記商品画像を前記映像合成部に供給する際には、
前記映像合成部は前記視野内映像を合成しない、請求項4に記載のヘッドマウントシステム。
When the product image storage unit supplies the product image to the video synthesis unit,
5. The head-mounted system according to claim 4, wherein said video synthesizing unit does not synthesize said in-field video.
第1面にカメラと第2面に表示部とを含むポータブルデバイスをヘッドマウント本体の収容ポケットに収納して、前記表示部に視野内画像を投影する方法であって、
前記収容ポケットは、前記カメラが前方を撮影できるように切り欠かれており、
前記ポータブルデバイスが、
ロール・ピッチ・ヨーの3回転方向の回転量を感知し、
前記カメラの撮影画像から特徴点を検出して、3つの直交軸方向の並進移動量を計算し、
前記回転量及び前記並進移動量に基づいて、全天球映像から視野内映像を生成する、
視野内画像を投影する方法。
A method of storing a portable device including a camera on a first surface and a display unit on a second surface in a storage pocket of a head mount body and projecting an image within the field of view onto the display unit,
The storage pocket is notched so that the camera can shoot forward,
the portable device
Detects the amount of rotation in three directions: roll, pitch, and yaw.
Detecting feature points from the image captured by the camera and calculating the amount of translational movement in three orthogonal axis directions,
generating an in-field image from an omnidirectional image based on the amount of rotation and the amount of translation;
A method of projecting an in-field image.
前記ポータブルデバイスが、
前記カメラの撮影画像から利用者の手を検出してトラッキングし、
前記手が所定時間より長く前記撮影画像内にあるとき、ハンド画像を生成し、
前記手が所定時間より長く前記撮影画像内にあるとき、前記視野内映像に関連するGUI画像を生成し、
前記視野内映像に、前記ハンド画像及び前記GUI画像を合成し、
前記表示部に、前記視野内映像、前記ハンド画像及び前記GUI画像が投影される請求項7に記載の視野内画像を投影する方法。
the portable device
detecting and tracking a user's hand from the image captured by the camera;
generating a hand image when the hand is in the captured image for longer than a predetermined time;
generating a GUI image related to the in-field image when the hand is in the captured image for longer than a predetermined time;
synthesizing the hand image and the GUI image with the in-field video;
8. The method of projecting an in-field image according to claim 7, wherein the in-field image, the hand image and the GUI image are projected on the display unit.
前記ポータブルデバイスが、
前記ハンド画像が前記GUI画像の指示アイコンに所定時間存在していたかを判定し、
前記ハンド画像が前記GUI画像の指示アイコン上にある場合に、前記指示アイコンの動作の実行を指示する、請求項8に記載の視野内画像を投影する方法。
the portable device
determining whether or not the hand image has existed on the pointing icon of the GUI image for a predetermined time;
9. The method of projecting an in-field image according to claim 8, wherein when the hand image is on the pointing icon of the GUI image, it indicates to perform the action of the pointing icon.
前記ポータブルデバイスが、
前記視野内映像が商品を購入できるショッピング店舗であるか否かを判定し、
前記ショッピング店舗で販売される複数の商品画像を蓄積し、
前記ハンド画像がショッピングのGUI画像上にある場合に、前記商品画像蓄積部が前記商品画像を前記映像合成部に供給する、請求項9に記載の視野内画像を投影する方法。
the portable device
determining whether the in-field image is a shopping store where products can be purchased;
accumulating a plurality of product images to be sold at the shopping store;
10. The method of projecting an in-field image according to claim 9, wherein the product image accumulator supplies the product image to the video synthesizer when the hand image is on a shopping GUI image.
JP2022003886A 2022-01-13 2022-01-13 Vr head-mounted system Pending JP2023103050A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022003886A JP2023103050A (en) 2022-01-13 2022-01-13 Vr head-mounted system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022003886A JP2023103050A (en) 2022-01-13 2022-01-13 Vr head-mounted system

Publications (1)

Publication Number Publication Date
JP2023103050A true JP2023103050A (en) 2023-07-26

Family

ID=87377624

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022003886A Pending JP2023103050A (en) 2022-01-13 2022-01-13 Vr head-mounted system

Country Status (1)

Country Link
JP (1) JP2023103050A (en)

Similar Documents

Publication Publication Date Title
US11513605B2 (en) Object motion tracking with remote device
KR102458665B1 (en) Method and appratus for processing screen using device
CN106716303B (en) Stablize the movement of interaction ray
US11385467B1 (en) Distributed artificial reality system with a removable display
US6862006B2 (en) Image processing apparatus and image processing method, and image processing program and recording medium of the same
US9311883B2 (en) Recalibration of a flexible mixed reality device
CN107667328A (en) System for tracking handheld device in enhancing and/or reality environment
CN103620527B (en) The Wearing-on-head type computer of presentation of information and remote equipment is controlled using action and voice command
US9851803B2 (en) Autonomous computing and telecommunications head-up displays glasses
US9201578B2 (en) Gaze swipe selection
CN103180800B (en) The advanced remote of the host application program of use action and voice command controls
JP2013258614A (en) Image generation device and image generation method
US20060284792A1 (en) Self-referenced tracking
US20160171780A1 (en) Computer device in form of wearable glasses and user interface thereof
CN103180893A (en) Method and system for use in providing three dimensional user interface
CN105393192A (en) Web-like hierarchical menu display configuration for a near-eye display
WO2013185224A1 (en) Heads up display systems for glasses
US20150253873A1 (en) Electronic device, method, and computer readable medium
JP2018036720A (en) Virtual space observation system, method and program
KR20180004112A (en) Eyeglass type terminal and control method thereof
JP2019159501A (en) Program for reflecting movement of user on avatar, information processing device for executing program, and method for distributing video including avatar
CN116097200A (en) Electronic device for controlling the host device using motion signal and mouse signal
JP2018037034A (en) Information processing system
JP2023103050A (en) Vr head-mounted system
CN110809148A (en) Sea area search system and three-dimensional environment immersive experience VR intelligent glasses