WO2019031593A1 - Video and sound reproduction device and method - Google Patents

Video and sound reproduction device and method Download PDF

Info

Publication number
WO2019031593A1
WO2019031593A1 PCT/JP2018/029984 JP2018029984W WO2019031593A1 WO 2019031593 A1 WO2019031593 A1 WO 2019031593A1 JP 2018029984 W JP2018029984 W JP 2018029984W WO 2019031593 A1 WO2019031593 A1 WO 2019031593A1
Authority
WO
WIPO (PCT)
Prior art keywords
unit
video
display
display unit
reality content
Prior art date
Application number
PCT/JP2018/029984
Other languages
French (fr)
Japanese (ja)
Inventor
修一 田坂
Original Assignee
イアフレド株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by イアフレド株式会社 filed Critical イアフレド株式会社
Publication of WO2019031593A1 publication Critical patent/WO2019031593A1/en

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/02Viewing or reading apparatus
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/64Constructional details of receivers, e.g. cabinets or dust covers

Definitions

  • the present invention relates to a video and audio reproduction apparatus, and more particularly to a video and audio reproduction apparatus using a head mounted display.
  • AR Augmented Reality
  • AR is a technology that combines the real world and virtual reality, and since it is a content that can be used outdoors as, for example, portable game software, it is better than VR. It is expected to be a big market.
  • AR is also called Mixed Reality, and it is created by real images taken with a camera and computer graphics by placing an environment recognition camera and a space recognition camera in the head mount display housing.
  • a holographic optical technology is also put to practical use, which combines an image with a video image in real time and displays the image on a microdisplay again.
  • the image display device is a light shield type used for VR and a transmission type used for AR You can understand the outline of HMD.
  • VR is mainly used indoors from the viewpoint of safety.
  • AR uses a transmissive display and is safe, but it is unsuitable for viewing dynamic images of 360 degrees because of limited viewing angle.
  • VR is required to have a high immersive feeling of FOV over 100 degrees
  • AR is used for PC applications such as character recognition even if FOV is about 50 degrees and the field of view is narrow, in order to combine virtual reality in the real world High resolution is required because there are many cases.
  • the video and audio reproduction apparatus of the present invention is A reproduction circuit unit capable of reproducing virtual reality content and augmented reality content; A control circuit unit that selects one of the virtual reality content and the augmented reality content and causes the reproduction circuit unit to reproduce the selected content; A first display unit for displaying an image of virtual reality content; A second display unit for displaying an image of augmented reality content; And a head mount mechanism capable of attaching and detaching the first display unit and the second display unit.
  • an audiovisual reproduction apparatus including: A reproduction circuit unit capable of reproducing virtual reality content and augmented reality content; A control circuit unit that selects one of the virtual reality content and the augmented reality content and causes the reproduction circuit unit to reproduce the selected content; A first display unit for displaying an image of virtual reality content; A second display unit for displaying an image of augmented reality content; And a head mount mechanism capable of attaching and detaching the first display unit and the second display unit.
  • the first display unit displaying the image of the virtual reality content and the second display unit displaying the image of the augmented reality content are exchanged according to the content to be reproduced. It is possible to view and listen to both VR and AR content on one device.
  • the detection means automatically detects which of the first display unit and the second display unit is attached to the head mount mechanism, and according to the attached display unit, A screen for selecting VR content and AR content can be displayed. This saves the user the trouble of selecting which one of the VR content and the AR content to be reproduced.
  • the head mounting mechanism can be reduced in weight by providing the control circuit unit in the sound reproducing apparatus. As a result, it is possible to provide a video and audio reproduction apparatus with less fatigue even in long-term viewing.
  • the video and audio reproduction apparatus further includes, in the third configuration:
  • the sound reproduction apparatus includes an input device for inputting an operation instruction to the control circuit unit.
  • the video and audio reproduction apparatus further includes:
  • the sound reproducing apparatus further includes a position transmitting unit that transmits a position signal indicating the current position of the sound reproducing apparatus.
  • the video and audio reproduction apparatus further includes a position detection unit that detects a position signal transmitted from the position transmission unit.
  • the control circuit unit causes the first display unit or the second display unit to display the position of the sound reproduction device based on the position signal detected by the position detection unit.
  • a video and audio reproduction apparatus is the same as the fifth configuration.
  • the position transmitting unit is configured to transmit a beacon signal as the position signal.
  • the video and audio reproduction device further includes: The distance to the sound reproduction device detected by the position detection unit provided on the left side of the video and audio reproduction device, and the sound reproduction device detected by the position detection unit provided on the right side of the video and audio reproduction device
  • the control circuit detects the position of the sound reproducing device using the difference between
  • a video and audio reproduction apparatus is any one of the sixth to eighth configurations:
  • the control circuit unit causes the first display unit or the second display unit to display the distance to the position transmitting unit, which is a source of the position signal, as text.
  • An image and sound reproducing apparatus is any one of the first to tenth configurations: It further comprises a first microphone capable of detecting an external noise signal, and a second microphone capable of detecting an external audio signal.
  • FIG. 1 shows the concept of the HMD of this embodiment.
  • the VR unit 11 and the AR unit 12 are replaceable, and are joined by the AR / VR common unit 10 and unit engaging portions 14a and 14b.
  • the VR unit 11 and the AR unit 12 mainly include an optical module, and the AR / VR common unit 10 includes a signal processing circuit, a battery, an attitude detection sensor, and the like.
  • the unit engaging portions 14a and 14b are electrically coupled by a connector.
  • the input device is not limited to the controller touch panel unit 124 of the earphone unit 13.
  • a microphone or an infrared sensor may be used as the input device.

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

Provided is a video and sound reproduction device with which it is possible to view and listen to content in both VR and AR. This video and sound reproduction device comprises a reproduction circuit unit capable of reproducing virtual-reality content and augmented-reality content, a control circuit unit that selects either the virtual-reality content or the augmented-reality content and causes the reproduction circuit unit to reproduce the selected content, a first display unit that displays an image of the virtual-reality content, a second display unit that displays an image of the augmented-reality content, and a head-mounted mechanism in which the first display unit and the second display unit can be attached/removed and replaced.

Description

映像音響再生装置およびその方法Audiovisual reproduction apparatus and method thereof
 本発明は、映像音響再生装置に関し、特に、ヘッドマウントディスプレイを利用した映像音響再生装置に関する。 The present invention relates to a video and audio reproduction apparatus, and more particularly to a video and audio reproduction apparatus using a head mounted display.
 仮想現実(Virtual Reality、以下「VR」と称する。)とは、360度映像を表示するヘッドマウントディスプレイ(HMD)と呼ばれるゴーグルタイプのディスプレイと接眼レンズおよび3D音響技術によって、ゲームや旅行、スポーツや映画などのコンテンツをあたかも現実のように再生させる技術であって、従来の平面的なテレビ映像に比べて飛躍的な没入感を得ることができる。 Virtual Reality (hereinafter referred to as "VR") refers to a goggle type display called a head mounted display (HMD) that displays 360-degree images, a goggle type display, an eyepiece, and 3D sound technology to play games, travel, sports or This is a technology for reproducing contents such as a movie as if it were a reality, and it is possible to obtain a drastic sense of immersion compared to a conventional flat television picture.
 また拡張現実(Augmented Reality、以下「AR」と称する。)は、現実世界と仮想現実を組み合わせた技術であって、例えば携帯ゲームソフト等としてアウトドアでも使用可能なコンテンツであることから、VRよりも大きな市場になると期待されている。ARは複合現実(Mixed Reality)とも呼ばれており、ヘッドマウントディスプレイ筐体部に環境認識用カメラと空間認識用カメラを配置して、カメラで撮影された現実の映像とコンピュータグラフィックによって作り出された映像とをリアルタイムで合成させて、マイクロディスプレイで再度ディスプレイ上に表示させるホログラフィック光学技術も実用化されている。 In addition, Augmented Reality (hereinafter referred to as "AR") is a technology that combines the real world and virtual reality, and since it is a content that can be used outdoors as, for example, portable game software, it is better than VR. It is expected to be a big market. AR is also called Mixed Reality, and it is created by real images taken with a camera and computer graphics by placing an environment recognition camera and a space recognition camera in the head mount display housing. A holographic optical technology is also put to practical use, which combines an image with a video image in real time and displays the image on a microdisplay again.
 2014年7月31日に公開された国際公開第2014/115393号「画像表示装置及び画像表示方法、並びに画像表示システム」では、画像表示装置がVRに用いられる遮光型とARに用いられる透過型のHMDの概要を理解することができる。 In WO 2014/115393 “Image display device and image display method, and image display system” published on July 31, 2014, the image display device is a light shield type used for VR and a transmission type used for AR You can understand the outline of HMD.
 VRの詳細の一例は、2016年12月15日に公開された米国特許出願公開第2016/0361658号「Expanded Field of View re-rendering for VR Spectating」でその全体を参照することができる。この発明では、HMDを装着したユーザがビデオゲームを実行する際に、動作によってビデオと音声の遅延(latency)が発生しないように、ユーザの動作をカメラで検出し、新たにネットワーク上のビデオサーバを用いて、より広視野(FOV)で映像を生成提供している。 An example of the details of a VR can be referred to in its entirety in US Patent Application Publication No. 2016/0361658, "Expanded Field of View re-rendering for VR Spectating," published Dec. 15, 2016. According to the present invention, when a user wearing an HMD executes a video game, the camera's motion is detected by the camera so that the video and audio latency does not occur due to the motion, and a video server on the network is newly added. Is used to generate images with a wider field of view (FOV).
 またARの詳細の一例は、2012年12月13日に出願された米国特許出願公開第2014/0168261号「Direct interaction system mixed reality environments」でその全体を参照することができる。この発明によれば、複合現実環境において仮想オブジェクトと対話するためのシステムの構成は、ユーザの視野をキャプチャするカメラを含むヘッドマウントディスプレイデバイス(HMD)によって生成された3次元シーンマップを追跡し、モバイル処理ユニットによってユーザの視野(FOV)内の現実世界に仮想オブジェクトを表示することができる。HMDに透明度があることで、ユーザの視野内に仮想画像を投影して、仮想画像が現実の物体の横に表示されるようにする機能を提供する。またユーザがどこを探しているかを自動的に追跡し、ユーザのFOVに仮想イメージを挿入する場所をシステムが判断できるようにする。システムが虚像を投影する場所を知ると、表示要素を用いて画像が投影される。 Also, an example of the details of the AR can be referred to in its entirety in US Patent Application Publication No. 2014/0168261 “Direct interaction system mixed reality environments” filed on Dec. 13, 2012. In accordance with the present invention, a configuration of a system for interacting with virtual objects in a mixed reality environment tracks a three dimensional scene map generated by a head mounted display device (HMD) including a camera capturing a user's field of view; The mobile processing unit can display virtual objects in the real world within the user's field of view (FOV). The transparency of the HMD provides the ability to project a virtual image within the user's field of view so that the virtual image is displayed alongside the real object. It also automatically tracks where the user is looking and allows the system to determine where to insert the virtual image into the user's FOV. Once the system knows where to project the virtual image, the display element is used to project the image.
国際公開第2014/115393号International Publication No. 2014/115393 米国特許出願公開第2016/0361658号US Patent Application Publication No. 2016/0361658 米国特許出願公開第2014/0168261号U.S. Patent Application Publication No. 2014/0168261
 しかしながら、VRは360度映像を楽しむために人間の視界がディスプレイで遮断されることから、安全面からも室内での使用が主体となる。一方、ARは透過ディスプレイが採用され、安全ではあるが、視野角が限られるため360度のダイナミックな映像を見ることには不向きである。理由として、VRはFOV100度以上の高い没入感を求められるのに対し、ARは現実世界に仮想現実を組み合わせるために、FOV約50度と視野は狭くても文字の認識等PC用途に使われることが多いために高い解像度が求められる。解像度の評価基準として1度当りのピクセル数が用いられるが、VRの場合は、視野角が約110度なので、水平方向の解像度は2K有機ELを使用する場合、約20ピクセル/度(2160ピクセル/110度=19.6)となり、ARまたはMRの場合は視野角が約50度なので、水平方向の解像度は2Kの場合は約43ピクセル/度(2160ピクセル/50度=43.2)となり、ARの解像度が高いことが分かる。つまり、用途が異なるために、使用するディスプレイの光学仕様や構成がVRとARで異なることになる。 However, since the view of a human being is blocked by the display in order to enjoy 360-degree video, VR is mainly used indoors from the viewpoint of safety. On the other hand, AR uses a transmissive display and is safe, but it is unsuitable for viewing dynamic images of 360 degrees because of limited viewing angle. The reason is that VR is required to have a high immersive feeling of FOV over 100 degrees, while AR is used for PC applications such as character recognition even if FOV is about 50 degrees and the field of view is narrow, in order to combine virtual reality in the real world High resolution is required because there are many cases. The number of pixels per degree is used as a criterion for resolution, but in the case of VR, the viewing angle is about 110 degrees, so the resolution in the horizontal direction is about 20 pixels / degree (2160 pixels) when using 2K organic EL Since the viewing angle is about 50 degrees in the case of AR or MR, the resolution in the horizontal direction is about 43 pixels / degree (2160 pixels / 50 degrees = 43.2) in the case of 2K. , It can be seen that the resolution of AR is high. That is, due to different applications, the optical specifications and configuration of the display used will differ between VR and AR.
 現段階では、より現実の世界に近づけるためには映像の解像度を向上させることが必要であるが、高解像度有機ELディスプレイ(例えば8K,12Kパネル)は量産性がなく、製造コストも高い。また、ユーザの頭の動きを検出して、高解像度パネルに映像を再生する場合は、映像の時間遅れ(Latency)が発生するとVR酔いと呼ばれる現象を引き起こし、長時間の視聴の妨げとなる。このため、90Hz以上の高フレームレートを実現するためにパフォーマンスの高い信号処理能力が求められるが、信号処理半導体の負担が大きく、消費電力も増加するという、携帯型端末にとって大きな課題が発生する。 At this stage, it is necessary to improve the resolution of the image in order to get closer to the real world, but high-resolution organic EL displays (for example, 8K and 12K panels) have no mass productivity and have a high manufacturing cost. In addition, when the head movement of the user is detected and the video is reproduced on the high resolution panel, when the video time delay (Latency) occurs, a phenomenon called VR sickness occurs, which hinders viewing for a long time. Therefore, high performance signal processing capability is required to realize a high frame rate of 90 Hz or more, but a large problem arises for the portable terminal that the load on the signal processing semiconductor is large and the power consumption is also increased.
 またVRとARは再生するコンテンツも異なることから、視野角優先のVR専用ヘッドマウントディスプレイ機と、解像度優先のAR専用ヘッドマウントディスプレイ機を2台購入するのは、ユーザにとって負担が大きい。またVRとAR技術を兼用した複合型ディスプレイも研究されているが、まだ実用化には至っていない。このような複合型ディスプレイは、仮に実現されたとしても、重量が重くなる可能性が高く、長時間の着用による疲労も考えられる。 In addition, since VR and AR are different in the content to be reproduced, it is burdensome for the user to purchase two VR head mounted display devices with a view angle priority and two AR head mounted display devices with a resolution priority. In addition, composite displays that use both VR and AR technology have been studied, but they have not been put to practical use yet. Such a composite display, even if realized, is likely to be heavy, and fatigue due to prolonged wearing is also conceivable.
 本発明は、上記の問題を鑑み、VRとARの両方のコンテンツを視聴することが可能な映像音響再生装置を提供することを目的とする。 An object of the present invention is to provide a video and audio reproduction apparatus capable of viewing and listening to both VR and AR contents.
 上記の目的を達成するために、本発明の映像音響再生装置は、
 仮想現実コンテンツと拡張現実コンテンツとを再生可能な再生回路部と、
 前記仮想現実コンテンツおよび前記拡張現実コンテンツのいずれかを選択して前記再生回路部に再生させる制御回路部と、
 仮想現実コンテンツの画像を表示する第一のディスプレイ部と、
 拡張現実コンテンツの画像を表示する第二のディスプレイ部と、
 前記第一のディスプレイ部と前記第二のディスプレイ部とを着脱交換することが可能なヘッドマウント機構とを備えている。
In order to achieve the above object, the video and audio reproduction apparatus of the present invention is
A reproduction circuit unit capable of reproducing virtual reality content and augmented reality content;
A control circuit unit that selects one of the virtual reality content and the augmented reality content and causes the reproduction circuit unit to reproduce the selected content;
A first display unit for displaying an image of virtual reality content;
A second display unit for displaying an image of augmented reality content;
And a head mount mechanism capable of attaching and detaching the first display unit and the second display unit.
 本発明の構成によれば、VRとARの両方のコンテンツを視聴することが可能な映像音響再生装置を提供することができる。 According to the configuration of the present invention, it is possible to provide a video and audio reproduction apparatus capable of viewing and listening to both VR and AR contents.
第一の実施形態にかかるヘッドマウントディスプレイ(HMD)の概念図Conceptual diagram of a head mounted display (HMD) according to the first embodiment 第一の実施形態のVRコンテンツを再生する場合のHMDの外観構成の側面図Side view of the appearance configuration of the HMD when playing back VR content according to the first embodiment 一実施形態のARコンテンツを再生する場合のHMDの外観構成の側面図Side view of the appearance configuration of the HMD when playing back AR content according to an embodiment 第一の実施形態のHMDの機能的な構成要素を示すブロック図Block diagram showing functional components of the HMD of the first embodiment HMD装置に対してARユニットを着脱する機構の一例を示す模式図A schematic view showing an example of a mechanism for attaching and detaching an AR unit to and from an HMD device 第二の実施形態のHMD装置の側面図Side view of HMD device of second embodiment 第二の実施形態のブロック図Block diagram of the second embodiment イヤホンユニットの位置を検出する際の概念図Conceptual diagram when detecting the position of the earphone unit イヤホンに内蔵されたビーコン端末と信号検出部との間の距離と、電波強度RSSIとの関係を表すグラフA graph showing the relationship between the distance between the beacon terminal incorporated in the earphone and the signal detection unit and the radio wave strength RSSI ディスプレイにビーコンの信号源との距離をテキストで表示した例を示す模式図A schematic diagram showing an example in which the distance to the beacon signal source is displayed in text on the display ディスプレイにビーコンの信号源の方向をグラフィックで表示した例を示す模式図A schematic diagram showing an example in which the direction of the beacon signal source is graphically displayed on the display 第三の実施形態のHMDの側面図Side view of HMD of third embodiment 第三の実施形態のブロック図Block diagram of the third embodiment
 本発明の第1の構成に係る映像音響再生装置は、
 仮想現実コンテンツと拡張現実コンテンツとを再生可能な再生回路部と、
 前記仮想現実コンテンツおよび前記拡張現実コンテンツのいずれかを選択して前記再生回路部に再生させる制御回路部と、
 仮想現実コンテンツの画像を表示する第一のディスプレイ部と、
 拡張現実コンテンツの画像を表示する第二のディスプレイ部と、
 前記第一のディスプレイ部と前記第二のディスプレイ部とを着脱交換することが可能なヘッドマウント機構とを備えている。
According to a first aspect of the present invention, there is provided an audiovisual reproduction apparatus including:
A reproduction circuit unit capable of reproducing virtual reality content and augmented reality content;
A control circuit unit that selects one of the virtual reality content and the augmented reality content and causes the reproduction circuit unit to reproduce the selected content;
A first display unit for displaying an image of virtual reality content;
A second display unit for displaying an image of augmented reality content;
And a head mount mechanism capable of attaching and detaching the first display unit and the second display unit.
 この構成によれば、仮想現実コンテンツの画像を表示する第一のディスプレイ部と、拡張現実コンテンツの画像を表示する第二のディスプレイ部とを、再生しようとするコンテンツに応じて交換することにより、一つの装置でVRとARの両方のコンテンツを視聴することが可能となる。 According to this configuration, the first display unit displaying the image of the virtual reality content and the second display unit displaying the image of the augmented reality content are exchanged according to the content to be reproduced. It is possible to view and listen to both VR and AR content on one device.
 第2の構成に係る映像音響再生装置は、第1の構成においてさらに、
 前記第一のディスプレイ部と前記第二のディスプレイ部とのどちらが前記ヘッドマウント機構に装着されたかを検出する検出手段をさらに備え、
 前記第一のディスプレイ部が装着されたことを検出した場合は、前記制御回路部が、前記再生回路部で再生可能な仮想現実コンテンツの選択画面を前記第一のディスプレイ部に表示させ、
 前記第二のディスプレイ部が装着されたことを検出した場合は、前記制御回路部が、前記再生回路部で再生可能な拡張現実コンテンツの選択画面を前記第二のディスプレイ部に表示させる。
In the first configuration, the video and audio reproduction apparatus according to the second configuration further includes:
It further comprises detection means for detecting which of the first display unit and the second display unit is attached to the head mount mechanism.
When it is detected that the first display unit is attached, the control circuit unit causes the first display unit to display a selection screen of virtual reality content reproducible by the reproduction circuit unit.
When it is detected that the second display unit is attached, the control circuit unit causes the second display unit to display a selection screen of the augmented reality content reproducible by the reproduction circuit unit.
 この構成によれば、検出手段が、前記第一のディスプレイ部と前記第二のディスプレイ部とのどちらが前記ヘッドマウント機構に装着されたかを自動的に検出し、装着されたディスプレイ部に応じて、VRコンテンツとARコンテンツを選択する画面を表示することができる。これにより、VRコンテンツとARコンテンツとのどちらを再生するかをユーザが選択する手間が省かれる。 According to this configuration, the detection means automatically detects which of the first display unit and the second display unit is attached to the head mount mechanism, and according to the attached display unit, A screen for selecting VR content and AR content can be displayed. This saves the user the trouble of selecting which one of the VR content and the AR content to be reproduced.
 第3の構成に係る映像音響再生装置は、第1または第2の構成においてさらに、
 左右少なくとも一方の耳介近傍または外耳道に配備することが可能な音響再生装置をさらに備え、
 前記制御回路部が、前記音響再生装置に設けられている。
In the first or second configuration, the video and audio reproduction apparatus according to the third configuration further includes:
It further comprises an acoustic reproduction device that can be deployed near at least one of the left and right pinna or in the ear canal,
The control circuit unit is provided in the sound reproduction device.
 この構成によれば、制御回路部が音響再生装置に設けられていることにより、ヘッドマウント機構を軽量化することができる。これにより、長期間の視聴でも疲労感が少ない映像音響再生装置を提供できる。 According to this configuration, the head mounting mechanism can be reduced in weight by providing the control circuit unit in the sound reproducing apparatus. As a result, it is possible to provide a video and audio reproduction apparatus with less fatigue even in long-term viewing.
 第4の構成に係る映像音響再生装置は、第3の構成においてさらに、
 前記音響再生装置が、前記制御回路部に対する操作指示を入力するための入力デバイスを備えている。
The video and audio reproduction apparatus according to the fourth configuration further includes, in the third configuration:
The sound reproduction apparatus includes an input device for inputting an operation instruction to the control circuit unit.
 この構成によれば、左右少なくとも一方の耳介近傍または外耳道に配備することが可能な音響再生装置に入力デバイスが設けられることにより、例えば、別体のリモートコントローラを手に持つ等して操作する場合に比較して、両手の自由度が向上する。 According to this configuration, the input device is provided to the sound reproducing apparatus capable of being disposed in the vicinity of at least one of the left and right auricles or in the external ear canal, for example, to operate by holding a separate remote controller etc. Compared to the case, the freedom of both hands is improved.
 第5の構成に係る映像音響再生装置は、第3または第4の構成においてさらに、
 前記音響再生装置が、当該音響再生装置の現在位置を表す位置信号を発信する位置発信部をさらに備え、
 前記映像音響再生装置が、前記位置発信部から発信された位置信号を検出する位置検出部をさらに備え、
 前記制御回路部が、前記位置検出部で検出された位置信号に基づいて、前記音響再生装置の位置を、前記第一のディスプレイ部または第二のディスプレイ部に表示させる。
In the third or fourth configuration, the video and audio reproduction apparatus according to the fifth configuration further includes:
The sound reproducing apparatus further includes a position transmitting unit that transmits a position signal indicating the current position of the sound reproducing apparatus.
The video and audio reproduction apparatus further includes a position detection unit that detects a position signal transmitted from the position transmission unit.
The control circuit unit causes the first display unit or the second display unit to display the position of the sound reproduction device based on the position signal detected by the position detection unit.
 この構成によれば、音響再生装置を紛失した場合に、音響再生装置から発信される位置信号に基づいて、音響再生装置を検知し、その位置をディスプレイ部に表示させることができる。これにより、音響再生装置を紛失しても、容易に探し出すことができる。 According to this configuration, when the sound reproduction device is lost, the sound reproduction device can be detected based on the position signal transmitted from the sound reproduction device, and the position can be displayed on the display unit. Thereby, even if the sound reproducing device is lost, it can be easily found out.
 第6の構成に係る映像音響再生装置は、第5の構成において、
 前記位置発信部が、前記位置信号としてビーコン信号を発信する構成である。
A video and audio reproduction apparatus according to a sixth configuration is the same as the fifth configuration.
The position transmitting unit is configured to transmit a beacon signal as the position signal.
 第7の構成に係る映像音響再生装置は、第6の構成においてさらに、
 前記位置検出部が、前記映像音響再生装置の左右両側に設けられた構成である。
The video and audio reproduction apparatus according to the seventh configuration is the same as the video and audio playback apparatus according to the sixth configuration.
The position detection unit is provided at both left and right sides of the video and audio reproduction apparatus.
 第8の構成に係る映像音響再生装置は、第7の構成においてさらに、
 前記映像音響再生装置の左側に設けられた位置検出部で検出された前記音響再生装置までの距離と、前記映像音響再生装置の右側に設けられた位置検出部で検出された前記音響再生装置までの距離との差を利用して、前記制御回路部が前記音響再生装置の位置を検出する。
In the seventh configuration, the video and audio reproduction device according to the eighth configuration further includes:
The distance to the sound reproduction device detected by the position detection unit provided on the left side of the video and audio reproduction device, and the sound reproduction device detected by the position detection unit provided on the right side of the video and audio reproduction device The control circuit detects the position of the sound reproducing device using the difference between
 この構成によれば、前記映像音響再生装置の左側で検出された前記音響再生装置までの距離と、前記映像音響再生装置の右側で検出された前記音響再生装置までの距離との差に基づいて、音響再生装置のある方向とそこまでの距離を求めることができる。 According to this configuration, based on the difference between the distance to the sound reproduction device detected on the left side of the video and audio reproduction device and the distance to the sound reproduction device detected on the right side of the video and audio reproduction device The direction of the sound reproduction device and the distance to the direction can be obtained.
 第9の構成に係る映像音響再生装置は、第6~第8のいずれかの構成において、
 前記制御回路部が、前記第一のディスプレイ部または第二のディスプレイ部に、前記位置信号の発信源である前記位置発信部までの距離をテキストで表示させる。
A video and audio reproduction apparatus according to a ninth configuration is any one of the sixth to eighth configurations:
The control circuit unit causes the first display unit or the second display unit to display the distance to the position transmitting unit, which is a source of the position signal, as text.
 このように、音響再生装置の位置をテキストで表示させることにより、音響再生装置を容易に探し出すことができる。 As described above, by displaying the position of the sound reproducing device as text, it is possible to easily find the sound reproducing device.
 第10の構成に係る映像音響再生装置は、第6~第9のいずれかの構成において、
 前記制御回路部が、前記第一のディスプレイ部または第二のディスプレイ部に、前記位置信号の発信源である前記位置発信部の方向をグラフィックで表示させる。
A video and audio reproduction apparatus according to a tenth configuration is any one of the sixth to ninth configurations:
The control circuit unit causes the first display unit or the second display unit to graphically display the direction of the position transmitting unit which is a source of the position signal.
 このように、音響再生装置の位置をテキストで表示させることにより、音響再生装置を容易に探し出すことができる。 As described above, by displaying the position of the sound reproducing device as text, it is possible to easily find the sound reproducing device.
 第11の構成に係る映像音響再生装置は、第1~第10のいずれかの構成において、
 外部ノイズ信号を検出可能な第一のマイクロフォンと、外部音声信号を検出可能な第二のマイクロフォンとをさらに備えている。
An image and sound reproducing apparatus according to an eleventh configuration is any one of the first to tenth configurations:
It further comprises a first microphone capable of detecting an external noise signal, and a second microphone capable of detecting an external audio signal.
 さらに、第12の構成に係る映像音響再生装置は、第11の構成においてさらに、
 前記再生回路部が仮想現実コンテンツを再生しているときは、前記第一のマイクロフォンが優先的に動作し、
 前記再生回路部が拡張現実コンテンツを再生しているときは、前記第二のマイクロフォンが優先的に動作する。
Furthermore, in the eleventh configuration, the video and audio reproduction apparatus according to the twelfth configuration further includes:
When the reproduction circuit unit reproduces virtual reality content, the first microphone operates preferentially.
When the reproduction circuit unit reproduces augmented reality content, the second microphone operates preferentially.
 この構成によれば、VRコンテンツを再生しているときは、第一のマイクロフォンで外部ノイズ信号を検出し、例えばノイズキャンセル処理を行うことにより、VRコンテンツに没頭しやすい状況を作ることができる。また、ARコンテンツを再生しているときは、第二のマイクロフォンで外部音声信号を検出することにより、現実世界の音響を取り込むことができる。 According to this configuration, when the VR content is being reproduced, an external noise signal is detected by the first microphone and, for example, noise cancellation processing can be performed to create a situation in which the VR content is likely to be absorbed. Also, when playing back AR content, it is possible to capture the sound of the real world by detecting the external audio signal with the second microphone.
 本発明の第13の構成に係る音響再生装置は、
 仮想現実コンテンツと拡張現実コンテンツとを再生可能な再生回路部を備えた映像音響再生装置と共に用いられ、左右少なくとも一方の耳介近傍または外耳道に配備することが可能な音響再生装置であって、
 前記仮想現実コンテンツおよび前記拡張現実コンテンツのいずれかを選択して前記再生回路部に再生させる制御回路部を備えている。
The sound reproducing apparatus according to the thirteenth configuration of the present invention is
An audio reproduction apparatus which is used together with an audiovisual reproduction apparatus having reproduction circuitry capable of reproducing virtual reality content and augmented reality content, and which can be deployed in the vicinity of at least one of the left or right pinna or the external ear canal,
The control circuit unit is configured to select one of the virtual reality content and the augmented reality content and cause the reproduction circuit unit to reproduce the selected content.
 この構成では、左右少なくとも一方の耳介近傍または外耳道に配備することが可能な音響再生装置に、再生回路部が設けられている。これにより、音響再生装置で映像音響再生装置を制御することができる。 In this configuration, the reproduction circuit unit is provided in the sound reproduction device which can be disposed in the vicinity of at least one of the left and right auricles or the ear canal. Thus, the audio and video reproduction apparatus can be controlled by the audio reproduction apparatus.
 第14の構成に係る音響再生装置は、第13の構成において、
 前記映像音響再生装置の操作に用いられる制御回路およびセンサを備えている。
The sound reproducing apparatus according to the fourteenth configuration is the thirteenth configuration,
A control circuit and a sensor used to operate the video and audio reproduction apparatus are provided.
 この構成によれば、制御回路部およびセンサが音響再生装置に設けられていることにより、ヘッドマウント機構を軽量化することができる。これにより、長期間の視聴でも疲労感が少ない映像音響再生装置を提供できる。 According to this configuration, by providing the control circuit unit and the sensor in the sound reproduction device, the weight of the head mount mechanism can be reduced. As a result, it is possible to provide a video and audio reproduction apparatus with less fatigue even in long-term viewing.
 以下、本発明のより具体的な実施形態について、図面を参照しながら説明する。 Hereinafter, more specific embodiments of the present invention will be described with reference to the drawings.
 [第一の実施形態]
 図1は、本発明の一実施形態にかかるヘッドマウントディスプレイ(HMD)の概念図であり、ARユニットとVRユニットが交換可能であることを表す。図2は、第一の実施形態のVRユニット装着時のHMD装置の側面図である。図3は、第一の実施形態のARユニット装着時のHMD装置の側面図である。図4は、第一の実施形態のHMDの機能的な構成要素を示すブロック図である。
First Embodiment
FIG. 1 is a conceptual view of a head mounted display (HMD) according to an embodiment of the present invention, which shows that an AR unit and a VR unit are interchangeable. FIG. 2 is a side view of the HMD apparatus when the VR unit of the first embodiment is mounted. FIG. 3 is a side view of the HMD apparatus when the AR unit of the first embodiment is attached. FIG. 4 is a block diagram showing functional components of the HMD of the first embodiment.
 図1は、本実施形態のHMDの概念を示す。VRユニット11とARユニット12は、交換可能であり、AR・VR共通ユニット10とユニット係合部14a,14bによって接合されている。VRユニット11とARユニット12は、主に光学モジュールで構成されており、AR・VR共通ユニット10には、信号処理回路、バッテリ、姿勢検出センサ等が含まれる。ユニット係合部14a,14bは、コネクタによって電気的に結合される。 FIG. 1 shows the concept of the HMD of this embodiment. The VR unit 11 and the AR unit 12 are replaceable, and are joined by the AR / VR common unit 10 and unit engaging portions 14a and 14b. The VR unit 11 and the AR unit 12 mainly include an optical module, and the AR / VR common unit 10 includes a signal processing circuit, a battery, an attitude detection sensor, and the like. The unit engaging portions 14a and 14b are electrically coupled by a connector.
 ユーザは、映画、スポーツ、コンサート、対戦型ゲーム等の没入感のあるコンテンツ(VRコンテンツ)を視聴する際は、VRユニット11を装着する。また、仮想映像を立体表示しての製品開発や社内教育等の複数の人との共同作業を行うためのARコンテンツ、あるいは、ナビゲーションタイプのゲーム等のARコンテンツを視聴する際は、ARユニット12を交換装着する。VRユニット11およびARユニット12は、軽量に構成されているので、外出先でもキットとして持ち運ぶことができる。 The user wears the VR unit 11 when viewing immersive content (VR content) such as movies, sports, concerts, competitive games, and the like. In addition, when viewing AR content for collaborative work with a plurality of people such as product development in which a virtual image is three-dimensionally displayed or in-house education, or AR content such as a navigation type game, AR unit 12 Replace and wear. The VR unit 11 and the AR unit 12 are configured to be lightweight, so they can be carried as a kit on the go.
 図1の構成例では、AR用の画像キャプチャ用カメラ107aはARユニット12に設けられ、VR用の画像キャプチャ用カメラ107bは、VRユニット11に設けられている。これは、映像の認識機能やカメラの数が、ARとVRで異なるためである。しかし、画像キャプチャ用カメラを、VRユニット11およびARユニット12ではなく、AR・VR共通ユニット10に設けるようにしても何ら問題はない。 In the configuration example of FIG. 1, the AR image capture camera 107 a is provided in the AR unit 12, and the VR image capture camera 107 b is provided in the VR unit 11. This is because the image recognition function and the number of cameras differ between AR and VR. However, there is no problem if the image capturing camera is provided not in the VR unit 11 and the AR unit 12 but in the AR / VR common unit 10.
 ARユニット12には、深度カメラ部108が設けられている。深度カメラ部108は、深度情報を取り込むことが可能なCCDセンサまたはCMOSセンサ等によって形成される。深度カメラ部108を備えることにより、現実の環境に虚像を立体的に配置することが可能となるとともに、ユーザの3次元空間上のジェスチャーも認識することができるため、コントローラの機能も持つことができる。 The AR unit 12 is provided with a depth camera unit 108. The depth camera unit 108 is formed by a CCD sensor or a CMOS sensor capable of capturing depth information. The provision of the depth camera unit 108 enables three-dimensional arrangement of virtual images in a real environment, and can also recognize gestures on the three-dimensional space of the user, thus having a controller function as well. it can.
 図2は、VRユニット11およびARユニット12をAR・VR共通ユニット10に対して着脱するための構成例を示す。なお、図2では、ARユニット12を取り付ける様子を例示しているが、VRユニット11も同様に構成することができる。 FIG. 2 shows a configuration example for attaching and detaching the VR unit 11 and the AR unit 12 to and from the AR / VR common unit 10. Although FIG. 2 exemplifies how the AR unit 12 is attached, the VR unit 11 can be configured in the same manner.
 ARユニット12側のユニット係合部14aは、係合ヒンジ部18を有する右側係合部14aRと、コネクタ部16aを有する左側係合部14aLとを備えている。AR・VR共通ユニット10側のユニット係合部14bは、ARユニット12の右側係合部14aRと係合する右側係合部14bRと、ARユニット12の左側係合部14aLと係合する左側係合部14bLとを備えている。右側係合部14bRは、係合ヒンジ部18を受け入れるガイド空間19を有する。左側係合部14bLは、コネクタ部16aと接続するコネクタ部16bと、左側係合部14aLを磁力で吸着するマグネット吸着部15とを備えている。この構成により、ガイド空間19に係合ヒンジ部18を挿入し、左側係合部14aLを左側係合部14bLに係合させると、マグネット吸着部15によって係合状態が固定されるようになっている。なお、この例においては、コネクタ部およびマグネット吸着部を左側係合部のみに設けているが、コネクタ部およびマグネット吸着部を右側係合部にも設けた構成としても良い。また、VRユニット11およびARユニット12とAR・VR共通ユニット10との係合方法は、図2に示した例に限定されない。他にも、プラスチックの弾性力を利用して固定する方法や、ネジ等で両者を締結する方法等も考えられる。 The unit engagement portion 14a on the AR unit 12 side includes a right side engagement portion 14aR having an engagement hinge portion 18 and a left side engagement portion 14aL having a connector portion 16a. The unit engagement portion 14b on the AR / VR common unit 10 side is a right engagement portion 14bR engaged with the right engagement portion 14aR of the AR unit 12, and a left engagement engaged with the left engagement portion 14aL of the AR unit 12. And a joint portion 14bL. The right side engaging portion 14bR has a guide space 19 for receiving the engaging hinge portion 18. The left side engaging portion 14bL includes a connector portion 16b connected to the connector portion 16a, and a magnet adsorbing portion 15 which adsorbs the left side engaging portion 14aL with a magnetic force. With this configuration, when the engagement hinge portion 18 is inserted into the guide space 19 and the left engagement portion 14aL is engaged with the left engagement portion 14bL, the magnet adsorption portion 15 fixes the engaged state. There is. In this example, the connector portion and the magnet adsorbing portion are provided only in the left engaging portion, but the connector portion and the magnet adsorbing portion may be provided in the right engaging portion as well. Further, the method of engaging the VR unit 11 and the AR unit 12 with the AR / VR common unit 10 is not limited to the example shown in FIG. In addition, the method of fixing using elastic force of plastic, the method of fastening both with a screw etc., etc. can be considered.
 図3は、VRコンテンツを再生する場合のヘッドマウントディスプレイの外観構成の側面を示している。なお、図3は左側面のみを表示しているが、右側面も同様の構成を有している。ヘッドマウントディスプレイは、ユーザが頭部に装着して用いられる。VRユニット11は、左右両方の眼にディスプレイ外部からの光が入らないように構成されているため、広い視野角を持ったディスプレイ部によってユーザの没入感を向上させる。ユーザは、現実の風景を直接見ることはできないが、カメラによってキャプチャされた外部の映像を間接的に見ることは可能である。 FIG. 3 shows a side view of the appearance of the head mounted display when playing back VR content. Although FIG. 3 shows only the left side surface, the right side surface also has the same configuration. The head mounted display is used by a user wearing on the head. The VR unit 11 is configured such that light from the outside of the display does not enter the left and right eyes, so the display unit with a wide viewing angle improves the user's sense of immersion. The user can not directly view the real landscape, but can indirectly view the external image captured by the camera.
 AR・VR共通ユニット10には、信号処理等の電子回路が搭載された回路基板5、HMD姿勢検出ユニット102、映像用バッテリ106を備えている。AR・VR共通ユニット10は、ユーザの頭部に固定するために、眼鏡のようなフレーム構造によって両耳近傍で支持されることで安定させることができる。回路基板5には、図5にて後述する映像信号処理部、外部との通信部、AR・VR切替部、メモリ等が含まれる。VR映像コンテンツは、無線LAN(IEEE 802.11a/b/g/n/ac)やBluetooth(登録商標)4.0等によってインターネット等から映像信号や音声信号を受け取り、半導体メモリやmicroSDカード等に保存することも可能である。HMD姿勢検出ユニット102は、例えば、6軸検出センサ(3軸ジャイロ、3軸加速度)、3軸地磁気センサ等により、ユーザの頭部を中心とした位置状態を常にモニタリングする。 The AR / VR common unit 10 includes a circuit board 5 on which electronic circuits such as signal processing are mounted, an HMD posture detection unit 102, and a video battery 106. The AR / VR common unit 10 can be stabilized by being supported near both ears by a frame structure such as glasses in order to be fixed to the head of the user. The circuit board 5 includes a video signal processing unit described later with reference to FIG. 5, a communication unit with the outside, an AR / VR switching unit, a memory, and the like. VR video content receives video and audio signals from the Internet via wireless LAN (IEEE 802.11a / b / g / n / ac), Bluetooth (registered trademark) 4.0, etc., and can be used as semiconductor memory, microSD card, etc. It is also possible to save. The HMD posture detection unit 102 constantly monitors the position state centering on the head of the user by, for example, a six-axis detection sensor (three-axis gyro, three-axis acceleration), a three-axis geomagnetic sensor, or the like.
 VRユニット11は、VRディスプレイ部141、レンズ部142、画像キャプチャ用カメラ部107を備えている。VRディスプレイ部141は、有機ELまたは液晶ディスプレイで構成され、より現実の世界に近づけるためには、映像の解像度を4K以上に向上させることが好ましい。VRディスプレイ部141は、眼鏡のレンズのように、ディスプレイ装置が左右それぞれに分離された構造、例えば3.5インチの有機ELが2面で構成される場合や、スマートフォンのような5.5インチの有機ELを使用した左右一体型の構造も可能である。 The VR unit 11 includes a VR display unit 141, a lens unit 142, and an image capturing camera unit 107. The VR display unit 141 is configured of an organic EL or liquid crystal display, and in order to be closer to the real world, it is preferable to improve the resolution of the image to 4K or more. The VR display unit 141 has a structure in which the display device is separated to the left and right, like a lens of glasses, for example, when a 3.5-inch organic EL is composed of two surfaces, or 5.5-inch like a smartphone The left and right integrated structure using the organic EL is also possible.
 イヤホンユニット13は、スピーカ部120、マイクロフォンA121、マイクロフォンB122、音声用バッテリ123、コントローラ用タッチパネル部124を備えている。図3では片側のイヤホンユニット13のみを図示しているが、左右両方のイヤホンユニット13が同機能を備えるようにしても良い。スピーカ部120は耳介に挿入することが可能であり、ワイヤレスでAR・VR共通ユニット10と接続されている。マイクロフォンA121はノイズキャンセル用であって、外部のノイズを収音して電気的に位相差信号を発生させることによって、外部の音を効果的に遮音することにより没入感を高める効果がある。そのため、ワイヤレス送信機能およびノイズキャンセル機能を具備する回路を動作させる音声用バッテリ123が、イヤホンユニット13に内蔵される。マイクロフォンB122は、音声認識機能用として、ユーザの音声での指示命令、例えば映像の再生開始、中止、早送りを収音する。これにより、リモコンを使用しなくても操作が可能である。VRコンテンツ11を再生する際には、外部ノイズを検出して、ノイズキャンセリング機能を働かせることも可能である。 The earphone unit 13 includes a speaker unit 120, a microphone A 121, a microphone B 122, an audio battery 123, and a controller touch panel unit 124. Although only one earphone unit 13 is illustrated in FIG. 3, both left and right earphone units 13 may have the same function. The speaker unit 120 can be inserted into the pinna and is connected to the AR / VR common unit 10 wirelessly. The microphone A 121 is for noise cancellation, and by picking up external noise to electrically generate a phase difference signal, there is an effect of enhancing the sense of immersion by effectively shielding the external sound. Therefore, an audio battery 123 for operating a circuit having a wireless transmission function and a noise cancellation function is incorporated in the earphone unit 13. The microphone B 122 picks up an instruction command with the user's voice, for example, video playback start, stop, fast-forward, for the voice recognition function. Thereby, the operation is possible without using the remote control. When reproducing the VR content 11, it is also possible to detect external noise and activate a noise canceling function.
 また、コントローラ用タッチパネル部124は、GUI(グラフィックユーザインターフェース)としてVRディスプレイ部141のVR再生画面に浮かび上がるグラフィックレイヤのカーソルやコマンドを実行するために、このタッチパネル上を指でタッチ操作することによって、簡単に操作することができる。VRのゲーム機等に見られるような両手にリモコンを持って動作させる場合、短時間の視聴であれば問題はないが、リモコンが重くて疲れる、落下の恐れがある、家具と衝突する危険がある等、必ずしもユーザが満足するものにはなっていない。イヤホンユニット13は、コントローラ用タッチパネル部124によって耳介近傍でコントロールできることから、ユーザは、最小限の動きで画面をコントロールすることができる。また、イヤホンユニット13は軽量であることから、長時間の視聴にも適している。コントローラ用タッチパネル部124は、タッチ面を平面ではなく例えば半球状の形状とすれば、360度の立体空間の映像に重なって表示されるGUIのカーソルやボタンの実行が視認しやすくなる。また、図3等においては、音響再生装置の具体例としてイヤホンユニット13を例示しているが、耳全体を覆うヘッドホンタイプとして音響再生装置を実施しても良い。ヘッドホンタイプとすれば、コントローラ用タッチパネル部を比較的大きく形成することができるので、上記と同等の機能を持たせることが比較的容易に可能となる。 Also, the controller touch panel unit 124 performs a touch operation on the touch panel with a finger to execute a cursor or command of a graphic layer that appears on the VR reproduction screen of the VR display unit 141 as a GUI (graphic user interface). , Easy to operate. When operating with the remote control in both hands as seen in VR game machines etc., there is no problem if it is watching for a short time, but the remote control is heavy and tired, there is a risk of falling, there is a danger of colliding with furniture For example, the user is not necessarily satisfied. Since the earphone unit 13 can be controlled in the vicinity of the pinna by the controller touch panel unit 124, the user can control the screen with the minimum movement. Further, since the earphone unit 13 is light in weight, it is suitable for viewing for a long time. If the touch panel portion 124 for controller does not have a flat surface but has, for example, a hemispherical shape, execution of a cursor or button of a GUI displayed overlapping an image of a 360-degree three-dimensional space can be easily viewed. Moreover, although FIG. 3 etc. illustrate the earphone unit 13 as a specific example of a sound reproduction apparatus, you may implement a sound reproduction apparatus as a headphone type which covers the whole ear. If the headphone type is used, since the controller touch panel portion can be formed relatively large, it becomes relatively easy to have the same function as described above.
 図4は、ARユニット12が取り付けられた場合のHMDの外観構成の側面を示している。VRユニット11では、左右両方の眼に配置された映像表示部は透過型になっているため、実際の風景に仮想の物体映像を浮かび上がらせる複合体験をユーザに提供することができる。図3と同様、左側面を表示しているが、右側面も同様の構成を有している。 FIG. 4 shows a side view of the appearance of the HMD when the AR unit 12 is attached. In the VR unit 11, since the image display units disposed in both the left and right eyes are of a transmissive type, it is possible to provide the user with a combined experience in which a virtual object image appears on an actual landscape. Similar to FIG. 3, the left side is displayed, but the right side has the same configuration.
 ARユニット12は、ARディスプレイ部132、反射面133、導光板134、不透明フィルタ135、レンズ部136、画像キャプチャ用カメラ部107を備えている。 The AR unit 12 includes an AR display unit 132, a reflective surface 133, a light guide plate 134, an opaque filter 135, a lens unit 136, and an image capturing camera unit 107.
 ARディスプレイ部132は、虚像映像源を出射する。その映像は、反射面133で反射され、導光板134を介してユーザの眼に到達する。ARディスプレイ部132としては、マイクロディスプレイとも呼ばれる高出力型LED、有機EL、DLP(Digital Light Processing)ディスプレイ、または液晶と駆動回路を一体化したLCOS(Liquid Crystal On Silicon)等が用いられる。導光板134はほぼ透明であるが、表面にホログラフィックフィルム等の回折格子が設けられ、ARディスプレイ部132からの光を拡大させることにより、映像プロジェクターのスクリーンの役割を果たす。 The AR display unit 132 emits a virtual image source. The image is reflected by the reflective surface 133 and reaches the user's eye through the light guide plate 134. As the AR display unit 132, a high output type LED also called a micro display, an organic EL, a digital light processing (DLP) display, a liquid crystal on silicon (LCOS) in which liquid crystal and a driving circuit are integrated, or the like is used. Although the light guide plate 134 is substantially transparent, a diffraction grating such as a holographic film is provided on the surface, and the light from the AR display unit 132 is expanded to play a role as a screen of an image projector.
 不透明フィルタ135は、仮想の物体映像の画像のコントラストを向上させるために自然光を除去する。不透明フィルタ135は、導光板134と位置合わせされることによって、画面全体またはピクセル毎に、HMD前方からの自然光を選択的に透過または遮断して眼に導光させる。例えば、虚像をレンダリング処理する際に、虚像と実像との前後の位置関係に応じて不透明フィルタ135の透過度を調整することにより、あたかも虚像が実際に存在するかのように映像を表示することができる。レンズ部136は、一般的に眼鏡に使用されるような、標準的な透明型のレンズである。画像キャプチャ用カメラ部107は、環境認識機能を有する。 The opacity filter 135 removes natural light to improve the contrast of the image of the virtual object image. The opaque filter 135 is aligned with the light guide plate 134 to selectively transmit or block natural light from the front of the HMD and guide it to the eye for the entire screen or for each pixel. For example, when rendering the virtual image, by adjusting the degree of transparency of the opaque filter 135 according to the positional relationship between the virtual image and the real image, the image is displayed as if the virtual image actually exists. Can. The lens unit 136 is a standard transparent lens as commonly used in eyeglasses. The image capturing camera unit 107 has an environment recognition function.
 マイクロフォンB122は、音声入力機能としてユーザが指示する命令をマイクで収音することができる。また、マイクロフォンB122は、イヤホンユニット13が耳介に挿入された状態でも外部の音声を聞き取れるようにするために、外部環境の音を積極的に取り込むことにも使用できる。なお、ARコンテンツの再生を開始する際に、ARコンテンツのメタデータを検出する等により、自動的にマイクロフォンB122を起動させるように構成しても良い。 The microphone B 122 can pick up an instruction instructed by the user as a voice input function with a microphone. The microphone B 122 can also be used to actively capture the sound of the external environment in order to be able to hear external sounds even when the earphone unit 13 is inserted in the pinna. In addition, when the reproduction of the AR content is started, the microphone B 122 may be automatically activated by detecting metadata of the AR content.
 図5は、本実施形態に係る映像音響再生装置の機能的な構成要素を示すブロック図である。AR・VR共通ユニット10は、メモリ部100、再生信号処理部101、HMD姿勢検出用センサ部102、通信部104、AR・VR切替部105、映像用バッテリ106、画像キャプチャ用カメラ部107を備えている。 FIG. 5 is a block diagram showing functional components of the video and audio reproduction apparatus according to the present embodiment. The AR / VR common unit 10 includes a memory unit 100, a reproduction signal processing unit 101, an HMD posture detection sensor unit 102, a communication unit 104, an AR / VR switching unit 105, a video battery 106, and an image capturing camera unit 107. ing.
 VRユニット11は、VR再生I/F(インタフェース)部113、VRディスプレイ駆動部140、VRディスプレイ部141を備えている。VRコンテンツを再生する際は、図1に示したように、VRユニット11をAR・VR共通ユニット10に装着することで、没入感のある映像の世界をユーザが視聴体験することができる。 The VR unit 11 includes a VR reproduction I / F (interface) unit 113, a VR display drive unit 140, and a VR display unit 141. When playing back VR content, as shown in FIG. 1, by mounting the VR unit 11 to the AR / VR common unit 10, the user can view and experience the world of an immersive image.
 AR・VR切替部105は、再生すべきコンテンツがAR・VRのいずれであるかを判断する。ここで、再生すべきコンテンツがAR・VRのいずれであるかの判断手法としては、例えば、(1)AR・VR共通ユニット10にARユニット12またはVRユニット11のいずれが装着されたかを検出する方法、(2)ユーザが、初期画面等において、AR・VRコンテンツのいずれの再生を選択したかを検出する方法、等がある。すなわち、上記(1)の場合は、VRユニット11およびARユニット12に、ユニットを識別可能な信号を発生する機構を設けたり、VRユニット11およびARユニット12においてユニット係合部14の形状を互いに異ならせたりすることにより、AR・VR共通ユニット10側で、VRユニット11およびARユニット12のいずれが装着されたかを検出可能とすることが考えられる。 The AR / VR switching unit 105 determines which of AR and VR the content to be reproduced is. Here, as a method for determining whether the content to be reproduced is AR or VR, for example, (1) detecting which one of the AR unit 12 or the VR unit 11 is attached to the AR / VR common unit 10 is detected (2) There is a method of detecting which reproduction of AR / VR content is selected by the user on the initial screen or the like. That is, in the case of the above (1), the VR unit 11 and the AR unit 12 are provided with a mechanism for generating a signal that can identify the unit, or the shapes of the unit engaging portions 14 in the VR unit 11 and the AR unit 12 are mutually different. It is conceivable to make it possible to detect which one of the VR unit 11 and the AR unit 12 is attached on the AR / VR common unit 10 side by making the difference.
 再生すべきコンテンツがAR・VRのいずれであるかが判断されると、VR再生I/F部113は、再生可能なVRコンテンツのサムネイルをVRディスプレイ部141に表示することによって、VRコンテンツをユーザが選択することができる。そして、VRユニット11使用時は、メモリ部100に格納されたコンテンツのうち、VRコンテンツのみを選択して表示再生させることができる。 When it is determined which of AR and VR the content to be reproduced is, the VR reproduction I / F unit 113 displays the thumbnails of the reproducible VR content on the VR display unit 141 to allow the VR content to be displayed to the user. Can be selected. When the VR unit 11 is used, it is possible to select and display and reproduce only the VR content among the contents stored in the memory unit 100.
 ARユニット12は、AR再生I/F部112、ARディスプレイ駆動部130、不透明フィルタ制御部131、ARディスプレイ部132を備えている。ARコンテンツの再生時は、図4に示したように、ARユニット12をAR・VR共通ユニット10に装着することで、現実世界のユーザの視点に複数の仮想映像をシームレスに融合することによって、ユーザに複合現実体験を提供することができる。 The AR unit 12 includes an AR reproduction I / F unit 112, an AR display drive unit 130, an opacity filter control unit 131, and an AR display unit 132. When playing back AR content, as shown in FIG. 4, by attaching the AR unit 12 to the AR / VR common unit 10, a plurality of virtual images are seamlessly merged with the viewpoint of the user in the real world, It can provide the user with a mixed reality experience.
 メモリ部100に記録された映像や通信部104から得られた虚像に関する指示を受け取り、HMD姿勢検出用センサ部102から得られた3軸ジャイロ、3軸加速度、3軸地磁気センサにより、ユーザの頭部を中心とした位置情報が、信号処理部101に渡される。信号処理部101は、虚像をいつどこに提供するかを決定する。 The user receives an image recorded in the memory unit 100 and an instruction on a virtual image obtained from the communication unit 104, and receives the user's head by the 3-axis gyro, 3-axis acceleration, and 3-axis geomagnetic sensor obtained from the HMD posture detection sensor unit 102. Position information centering on the unit is passed to the signal processing unit 101. The signal processing unit 101 determines when and where to provide a virtual image.
 画像キャプチャ用カメラ107から受信した画像をメモリ部100に格納する。ARディスプレイ駆動部130は、ARディスプレイ部132(マイクロディスプレイ)を駆動する。ARディスプレイ部132に表示されている仮想画像に関する情報を、不透明度フィルタを制御する不透明フィルタ制御部131に提供する。この際、システムのタイミングデータを提供するためにAR再生I/F部112に映像がバッファされ、タイミング回路とバッファメモリ回路が構成される。 An image received from the image capture camera 107 is stored in the memory unit 100. The AR display drive unit 130 drives the AR display unit 132 (micro display). The information on the virtual image displayed on the AR display unit 132 is provided to the opacity filter control unit 131 that controls the opacity filter. At this time, a video is buffered in the AR reproduction I / F unit 112 to provide system timing data, and a timing circuit and a buffer memory circuit are configured.
 AR・VR切替部105によってAR・VR共通ユニット10にARユニット12が装着されたと識別された場合、または、ユーザがARコンテンツの再生を選択した場合は、AR再生I/F部112は、再生可能なARコンテンツのサムネイルをARディスプレイ部132に表示することによって、再生すべきARコンテンツをユーザが選択することができる。つまりARユニット12の使用時は、メモリ部100に格納されたARコンテンツのみを表示再生することができる。 When the AR / VR switching unit 105 identifies that the AR unit 12 is attached to the AR / VR common unit 10, or when the user selects the playback of AR content, the AR playback I / F unit 112 performs playback By displaying thumbnails of possible AR content on the AR display unit 132, the user can select AR content to be reproduced. That is, when the AR unit 12 is used, only the AR content stored in the memory unit 100 can be displayed and reproduced.
 イヤホンユニット13は、オーディオアンプ・DAC部110、音声処理部111、イヤホンスピーカ部120、マイクロフォンA121、マイクロフォンB122、音声用バッテリ123、コントローラ用タッチパネル部124で構成される。イヤホンユニット13は、通信部104と無線通信が可能であるが、ワイヤーケーブルを介して接続することも可能である。 The earphone unit 13 includes an audio amplifier / DAC unit 110, an audio processing unit 111, an earphone speaker unit 120, a microphone A 121, a microphone B 122, an audio battery 123, and a controller touch panel unit 124. The earphone unit 13 can wirelessly communicate with the communication unit 104, but can also be connected via a wire cable.
 通信部104より伝送されたAACやaptX等のBluetoothコーデックが、オーディオアンプ・DAC部110にてデコード処理され、イヤホンスピーカ部120で音声が出力される。音声処理部111は、ノイズキャンセル機能を働かせる場合は、マイクロフォンA121から外部のノイズを収音して電気的に位相差信号を発生させる。また、マイクロフォンB122は、音声認識機能としてユーザの指示する音声での指示命令を収音する。 A Bluetooth codec such as AAC or aptX transmitted from the communication unit 104 is decoded by the audio amplifier / DAC unit 110, and audio is output from the earphone speaker unit 120. When the voice processing unit 111 operates the noise cancellation function, the voice processing unit 111 picks up external noise from the microphone A 121 and generates a phase difference signal electrically. Further, the microphone B 122 picks up an instruction command with voice instructed by the user as a voice recognition function.
 AR・VR切替部105によってAR・VR共通ユニット10にVRユニット11が装着されたことが検出された場合、または、ユーザがVRコンテンツの再生を選択した場合は、マイクロフォンA121が自動的に外部ノイズを検出してノイズキャンセリング機能を働かせることが可能である。ARユニット12を検出した場合は自動的にマイクロフォンB122を起動させることが可能である。 When the AR / VR switching unit 105 detects that the VR unit 11 is attached to the AR / VR common unit 10, or when the user selects playback of VR content, the microphone A121 automatically generates an external noise. It is possible to detect the noise and activate the noise canceling function. When the AR unit 12 is detected, it is possible to automatically activate the microphone B122.
 また、コントロールパネルは、GUI(グラフィックユーザインターフェース)としてVR再生画面に浮かび上がるグラフィックレイヤのカーソルやコマンドを実行するために、タッチパネル上を指でタッチ操作を行うことによって簡単に操作することができる。 Further, the control panel can be easily operated by performing a touch operation on the touch panel with a finger in order to execute a cursor or a command of a graphic layer floating on the VR reproduction screen as a GUI (graphic user interface).
 [第二の実施形態]
 図6は、第二の実施形態のARユニット装着時のHMD装置の側面図である。図7は、第二の実施形態のHMDの構成要素を示すブロック図である。
Second Embodiment
FIG. 6 is a side view of the HMD apparatus when the AR unit of the second embodiment is mounted. FIG. 7 is a block diagram showing components of the HMD of the second embodiment.
 AR・VR共通ユニット10には、HMD姿勢検出用センサ102、画像キャプチャ用カメラ部107、映像用バッテリ106、AR・VR切替部105、メモリ部100aが設けられている。イヤホンユニット13は、図6に示すように、回路基板5を備えている。回路基板5には、図7に示すように、通信部104、メモリ部100b、および再生信号処理部101が搭載されている。通信部104、メモリ部100、および再生信号処理部101は、図5に示されているように、第一の実施形態においては、AR・VR共通ユニット10に搭載されていた回路である。 The AR / VR common unit 10 is provided with an HMD posture detection sensor 102, an image capturing camera unit 107, a video battery 106, an AR / VR switching unit 105, and a memory unit 100a. The earphone unit 13 includes a circuit board 5 as shown in FIG. As shown in FIG. 7, the communication unit 104, the memory unit 100 b, and the reproduction signal processing unit 101 are mounted on the circuit board 5. The communication unit 104, the memory unit 100, and the reproduction signal processing unit 101 are circuits mounted in the AR / VR common unit 10 in the first embodiment, as shown in FIG.
 AR・VRユニット10とイヤホンユニット13とは無線で連結されるので、AR・VR共通ユニット10のメモリ部100aは、通信用の映像データのバッファメモリ用として用いられる。イヤホンユニット13のメモリ部100bは、映像コンテンツを蓄積したmicroSDカード等の外部メモリである。 Since the AR / VR unit 10 and the earphone unit 13 are connected wirelessly, the memory unit 100 a of the AR / VR common unit 10 is used as a buffer memory for video data for communication. The memory unit 100b of the earphone unit 13 is an external memory such as a microSD card storing video content.
 ARコンテンツの再生時には、イヤホンユニット13の通信部104が、インターネット経由等で受信したAR映像コンテンツを、メモリ部100bにダウンロードして保存する。ダウンロードしたコンテンツは、再生信号処理部101でデコード処理を行う。デコードされた映像信号は、通信部104を経由してAR・VR共通ユニット10のメモリ部100aに送信され蓄積される。映像を再生するのに余裕のあるデータ量を確保された状態で、ARユニット12のAR再生I/F部112を経由してARディスプレイ部132にオブジェクト映像が表示される。オーディオ信号は、オーディオアンプ、DAC部110を経由し、イヤホンスピーカ部120で映像信号と同期して再生される。 At the time of reproduction of the AR content, the communication unit 104 of the earphone unit 13 downloads the AR video content received via the Internet or the like to the memory unit 100 b and stores the downloaded content. The downloaded content is decoded by the reproduction signal processing unit 101. The decoded video signal is transmitted to and stored in the memory unit 100 a of the AR / VR common unit 10 via the communication unit 104. The object video is displayed on the AR display unit 132 via the AR reproduction I / F unit 112 of the AR unit 12 in a state where a sufficient amount of data for reproducing the video is secured. The audio signal is reproduced by the earphone speaker unit 120 in synchronization with the video signal via the audio amplifier and the DAC unit 110.
 VRコンテンツの再生時も同様に、イヤホンユニット13のAR・VR切替部105で判断された情報が再生信号処理部101から通信部104に送信され、VRユニット11のVRディスプレイ部141に表示される。HMD姿勢検出用センサ部102や画像キャプチャ用カメラ部107の信号は、通信部104を経由してイヤホンユニット13の再生信号処理部101で計算処理される。 Similarly, during reproduction of VR content, the information determined by the AR / VR switching unit 105 of the earphone unit 13 is transmitted from the reproduction signal processing unit 101 to the communication unit 104 and displayed on the VR display unit 141 of the VR unit 11 . Signals of the HMD posture detection sensor unit 102 and the image capture camera unit 107 are calculated by the reproduction signal processing unit 101 of the earphone unit 13 via the communication unit 104.
 つまり、本実施形態では、信号処理回路やメモリ回路等を集積した回路基板5をイヤホンユニット13に内蔵することによって、AR・VR共通ユニット10を軽量化することができる。これにより、長時間の視聴でも疲労することがない。 That is, in the present embodiment, by incorporating the circuit board 5 on which the signal processing circuit, the memory circuit, and the like are integrated into the earphone unit 13, the weight of the AR / VR common unit 10 can be reduced. As a result, there is no fatigue even when watching for a long time.
 また、イヤホンユニット13を紛失した場合は、通信部104が、ペアリングしたイヤホンユニット13の位置情報を入手し、VRユニット11またはARユニット12のディスプレイに、イヤホンユニットの位置を3次元で表示することによって、捜査することが可能である。 If the earphone unit 13 is lost, the communication unit 104 obtains positional information of the paired earphone unit 13 and three-dimensionally displays the position of the earphone unit on the display of the VR unit 11 or the AR unit 12 It is possible to investigate.
 図8は、イヤホンユニット13の位置を検出する際の概念図である。イヤホンユニット13は、図7に示した構成に加えて、ビーコン端末150(図7には図示せず)を備えている。また、AR・VR共通ユニット10には、ユーザの顔の左右に対応する位置に、2個の検出部151,152(図7には図示せず)が備えられている。イヤホンユニット13を紛失した場合は、イヤホンユニット13の電源がONになっている場合は、例えばGPS機能を使用して、通信部104が発信する位置情報をインターネット経由でスマートフォンやPCで位置を特定することもできる。しかし、多くの場合、室内等のGPS機能が働かない場所でイヤホンを紛失したり、イヤホン本体の電源がOFFになっていたりすることも多い。ビーコン端末150はボタン電池でも1年間程度の使用が可能であり、イヤホンユニット13に内蔵することによって近距離での検出が可能となる。本実施形態では、検出部151,152がAR・VR共通ユニット10の左右に2個配置されているので、検出部151,152で検出される信号の差分を算出することによって、ビーコン端末150の位置をより正確に特定することができる。特に、ユーザの頭部の左右に検出部151,152を配置することによって、ユーザの頭部による電波妨害の影響を受けるので、検出部151,152の片方がより強い信号強度を得ることができる。 FIG. 8 is a conceptual diagram when detecting the position of the earphone unit 13. The earphone unit 13 includes a beacon terminal 150 (not shown in FIG. 7) in addition to the configuration shown in FIG. Further, the AR / VR common unit 10 is provided with two detection units 151 and 152 (not shown in FIG. 7) at positions corresponding to the left and right of the user's face. When the earphone unit 13 is lost, when the power of the earphone unit 13 is turned on, for example, using the GPS function, the location information transmitted by the communication unit 104 is identified via a smartphone or PC via the Internet You can also However, in many cases, the earphone may be lost or the power of the earphone may be turned off in places such as a room where the GPS function does not work. The beacon terminal 150 can be used for about one year even with a button battery, and by being incorporated in the earphone unit 13, detection at a short distance becomes possible. In the present embodiment, since two detection units 151 and 152 are arranged on the left and right of the AR / VR common unit 10, the difference between the signals detected by the detection units 151 and 152 is calculated. The position can be identified more accurately. In particular, by arranging the detection units 151 and 152 on the left and right of the user's head, one of the detection units 151 and 152 can obtain stronger signal strength because it is affected by radio interference from the user's head. .
 図9はイヤホンユニット13に内蔵されたビーコン端末150から、検出部151,152までの距離と、電波強度RSSI(Received Signal Strength Indication)との関係を表す。例えば、図9に示すように、右側の検出部152による検出値が、左側の検出部151による検出値よりも大きい場合、イヤホンユニット13がユーザの頭部右側にあることが分かる。また、この状態から、ユーザが右側に頭部を向けることによって、検出部151による検出値と検出部152による検出値とが等しくなった場合は、ビーコン端末150がユーザの前方にあると判断することができる。また、この状態で、ビーコン信号の強度に基づいて、ビーコン端末150までの距離を算出することができる。 FIG. 9 shows the relationship between the distance from the beacon terminal 150 built in the earphone unit 13 to the detection units 151 and 152 and the received signal strength indication (RSSI). For example, as shown in FIG. 9, when the detection value by the detection unit 152 on the right side is larger than the detection value by the detection unit 151 on the left side, it is known that the earphone unit 13 is on the right side of the head of the user. Also, from this state, when the user turns the head to the right and the detection value by the detection unit 151 and the detection value by the detection unit 152 become equal, it is determined that the beacon terminal 150 is in front of the user. be able to. Also, in this state, the distance to the beacon terminal 150 can be calculated based on the strength of the beacon signal.
 図10は、ディスプレイに、ビーコン端末150を内蔵したイヤホンユニット13との距離および方向を、テキストで表示した例を示す。方向と距離が表示されるために、ユーザは短時間でイヤホンユニット13を見つけ出すことができる。 FIG. 10 shows an example in which the distance and the direction to the earphone unit 13 incorporating the beacon terminal 150 are displayed in text on the display. Since the direction and distance are displayed, the user can find out the earphone unit 13 in a short time.
 図11は、ディスプレイに、ビーコン端末150を内蔵したイヤホンユニット13との距離および方向を、グラフィックで表示した例を示す。矢印でイヤホンユニット13の方向を示し、近接するとイヤホンユニット13の位置を波紋のように表示することで、ユーザは感覚的にイヤホンユニット13を見つけ出すことができる。 FIG. 11 shows an example in which the distance and the direction with the earphone unit 13 incorporating the beacon terminal 150 are graphically displayed on the display. The arrow indicates the direction of the earphone unit 13, and when approaching, the user can intuitively find the earphone unit 13 by displaying the position of the earphone unit 13 like a ripple.
 なお、図10および図11に示した表示態様は、あくまでも一例にすぎず、任意の表示態様をとることが可能である。 The display modes shown in FIGS. 10 and 11 are merely examples, and any display mode can be taken.
 ここまでに図示したイヤホンユニット13は、コードレスの完全ワイヤレスの形態であるが、回路基板5と音声用バッテリ123とをイヤホンユニット13と分離して、ケーブルで接続することも考えられる。また更なる集積化によって、HMD姿勢検出用センサ102等をイヤホンユニット13に内蔵させることも考えられる。映像用バッテリ106も、無線給電の技術が可能になれば、イヤホンユニット13の音声用バッテリ123と一体化することが可能となるので、HMD装置の更なる軽量化が進み、快適な視聴環境を実現できる。 Although the earphone unit 13 illustrated so far is a completely cordless wireless form, it is also conceivable to separate the circuit board 5 and the audio battery 123 from the earphone unit 13 and connect them with a cable. It is also conceivable to incorporate the HMD posture detection sensor 102 or the like into the earphone unit 13 by further integration. If the video battery 106 can also be integrated with the audio battery 123 of the earphone unit 13 if wireless power supply technology becomes possible, further weight reduction of the HMD device proceeds, and a comfortable viewing environment can be realized. realizable.
 [第三の実施形態]
 図12は、第三の実施形態に係るHMD装置を示すものであって、ARユニット12が装着された状態を示す側面図である。図13は、第三の実施形態の機能的構成を示すブロック図である。
Third Embodiment
FIG. 12 is a side view showing the HMD device according to the third embodiment, in which the AR unit 12 is mounted. FIG. 13 is a block diagram showing a functional configuration of the third embodiment.
 本実施形態のイヤホンユニット13は、VRユニット12およびARユニット11と、機械的および電気的に結合されている。このため、映像用と音響用のバッテリを一体化して、映像音響バッテリ125としてイヤホンユニット13に格納することができる。つまり、本実施形態では、映像用バッテリ106および音声用バッテリ123を省略し、映像用と音声用のバッテリ125をイヤホンユニット13に搭載したことにより、HMD装置をさらに軽量化することができる。また、第二の実施形態と同様に、信号処理回路やメモリ回路等を集積した回路基板5や、HMD姿勢検出用センサ部102も、イヤホンユニット13に内蔵されている。これにより、HMD装置を軽量化することができるので、長時間の視聴でも疲労することがない。また、ワイヤレスではないので、イヤホンユニット13を紛失する心配が少ない。 The earphone unit 13 of this embodiment is mechanically and electrically coupled to the VR unit 12 and the AR unit 11. Therefore, the video and audio batteries can be integrated and stored in the earphone unit 13 as the video and audio battery 125. That is, in the present embodiment, the video battery 106 and the audio battery 123 are omitted, and the HMD device can be further reduced in weight by mounting the video and audio batteries 125 in the earphone unit 13. Further, as in the second embodiment, a circuit board 5 on which a signal processing circuit, a memory circuit, and the like are integrated, and an HMD posture detection sensor unit 102 are also incorporated in the earphone unit 13. As a result, the weight of the HMD device can be reduced, and therefore fatigue does not occur even for a long time viewing. Also, since it is not wireless, there is little concern that the earphone unit 13 will be lost.
 左右のイヤホンユニット13が、HMD姿勢検出用センサ102、バッテリ125、メイン回路基板5、マイクロフォンA121、マイクロフォンB122、スピーカ部120、コントローラ用タッチパネル部124等を備える。左右のイヤホンユニット13の部品構成が非対称でも、左右の重量配分を考えて構築すれば何ら問題はない。 The left and right earphone units 13 include an HMD posture detection sensor 102, a battery 125, a main circuit board 5, a microphone A121, a microphone B122, a speaker unit 120, a controller touch panel unit 124, and the like. Even if the component configuration of the left and right earphone units 13 is asymmetrical, there is no problem if constructed considering the weight distribution on the left and right.
 また、イヤホンユニット13はワイヤレスイヤホンではないので、Bluetooth等のワイヤレスで音声を受信する前記の実施形態とは異なり、音声信号を通信部104でデコード処理する必要はない。 Further, since the earphone unit 13 is not a wireless earphone, unlike the above embodiment in which audio is received wirelessly such as Bluetooth, it is not necessary for the communication unit 104 to decode the audio signal.
 以上、特定の実施形態を参照しながら、本明細書で開示する技術について詳細に説明した。しかしながら、本明細書で開示する技術の要旨を逸脱しない範囲で当業者が該実施形態の修正や代用を成し得ることは自明である。 The technology disclosed in the specification has been described in detail above with reference to specific embodiments. However, it is obvious that those skilled in the art can make modifications and substitutions of the embodiment without departing from the scope of the technology disclosed herein.
 例えば、入力デバイスは、イヤホンユニット13のコントローラ用タッチパネル部124に限定されない。入力デバイスとして、マイクや赤外線センサを用いても良い。 For example, the input device is not limited to the controller touch panel unit 124 of the earphone unit 13. A microphone or an infrared sensor may be used as the input device.

Claims (14)

  1.  仮想現実コンテンツと拡張現実コンテンツとを再生可能な再生回路部と、
     前記仮想現実コンテンツおよび前記拡張現実コンテンツのいずれかを選択して前記再生回路部に再生させる制御回路部と、
     仮想現実コンテンツの画像を表示する第一のディスプレイ部と、
     拡張現実コンテンツの画像を表示する第二のディスプレイ部と、
     前記第一のディスプレイ部と前記第二のディスプレイ部とを着脱交換することが可能なヘッドマウント機構とを備えた、映像音響再生装置。
    A reproduction circuit unit capable of reproducing virtual reality content and augmented reality content;
    A control circuit unit that selects one of the virtual reality content and the augmented reality content and causes the reproduction circuit unit to reproduce the selected content;
    A first display unit for displaying an image of virtual reality content;
    A second display unit for displaying an image of augmented reality content;
    A video and audio reproduction apparatus comprising: a head mount mechanism capable of attaching and detaching the first display unit and the second display unit.
  2.  前記第一のディスプレイ部と前記第二のディスプレイ部とのどちらが前記ヘッドマウント機構に装着されたかを検出する検出手段をさらに備え、
     前記第一のディスプレイ部が装着されたことを検出した場合は、前記制御回路部が、前記再生回路部で再生可能な仮想現実コンテンツの選択画面を前記第一のディスプレイ部に表示させ、
     前記第二のディスプレイ部が装着されたことを検出した場合は、前記制御回路部が、前記再生回路部で再生可能な拡張現実コンテンツの選択画面を前記第二のディスプレイ部に表示させる、請求項1に記載の映像音響再生装置。
    It further comprises detection means for detecting which of the first display unit and the second display unit is attached to the head mount mechanism.
    When it is detected that the first display unit is attached, the control circuit unit causes the first display unit to display a selection screen of virtual reality content reproducible by the reproduction circuit unit.
    When it is detected that the second display unit is attached, the control circuit unit causes the second display unit to display a selection screen of augmented reality content reproducible by the reproduction circuit unit. The video and audio reproduction apparatus according to 1.
  3.  左右少なくとも一方の耳介近傍または外耳道に配備することが可能な音響再生装置をさらに備え、
     前記制御回路部が、前記音響再生装置に設けられた、請求項1または2に記載の映像音響再生装置。
    It further comprises an acoustic reproduction device that can be deployed near at least one of the left and right pinna or in the ear canal,
    The video and audio reproduction apparatus according to claim 1, wherein the control circuit unit is provided in the audio reproduction apparatus.
  4.  前記音響再生装置が、前記制御回路部に対する操作指示を入力するための入力デバイスを備えた、請求項3に記載の映像音響再生装置。 The video and audio reproduction apparatus according to claim 3, wherein the audio reproduction apparatus comprises an input device for inputting an operation instruction to the control circuit unit.
  5.  前記音響再生装置が、当該音響再生装置の現在位置を表す位置信号を発信する位置発信部をさらに備え、
     前記映像音響再生装置が、前記位置発信部から発信された位置信号を検出する位置検出部をさらに備え、
     前記制御回路部が、前記位置検出部で検出された位置信号に基づいて、前記音響再生装置の位置を、前記第一のディスプレイ部または第二のディスプレイ部に表示させる、請求項3または4に記載の映像音響再生装置。
    The sound reproducing apparatus further includes a position transmitting unit that transmits a position signal indicating the current position of the sound reproducing apparatus.
    The video and audio reproduction apparatus further includes a position detection unit that detects a position signal transmitted from the position transmission unit.
    The control circuit unit causes the first display unit or the second display unit to display the position of the sound reproduction device based on the position signal detected by the position detection unit. A video and audio reproduction apparatus according to any one of the above.
  6.  前記位置発信部が、前記位置信号としてビーコン信号を発信する、請求項5に記載の映像音響再生装置。 The video and audio reproduction device according to claim 5, wherein the position transmitting unit transmits a beacon signal as the position signal.
  7.  前記位置検出部が、前記映像音響再生装置の左右両側に設けられた、請求項6に記載の映像音響再生装置。 The video and audio reproduction apparatus according to claim 6, wherein the position detection unit is provided on both left and right sides of the video and audio reproduction apparatus.
  8.  前記映像音響再生装置の左側に設けられた位置検出部で検出された前記音響再生装置までの距離と、前記映像音響再生装置の右側に設けられた位置検出部で検出された前記音響再生装置までの距離との差を利用して、前記制御回路部が前記音響再生装置の位置を検出する、請求項7に記載の映像音響再生装置。 The distance to the sound reproduction device detected by the position detection unit provided on the left side of the video and audio reproduction device, and the sound reproduction device detected by the position detection unit provided on the right side of the video and audio reproduction device The video and audio reproduction apparatus according to claim 7, wherein the control circuit unit detects the position of the audio reproduction apparatus using a difference between the distance and the distance.
  9.   前記制御回路部が、前記第一のディスプレイ部または第二のディスプレイ部に、前記位置信号の発信源である前記位置発信部までの距離をテキストで表示させる、請求項6~8のいずれか一項に記載の映像音響再生装置。 The control circuit unit causes the first display unit or the second display unit to display the distance to the position transmitting unit, which is a source of the position signal, in the form of text. The audiovisual reproduction apparatus as described in a term.
  10.  前記制御回路部が、前記第一のディスプレイ部または第二のディスプレイ部に、前記位置信号の発信源である前記位置発信部の方向をグラフィックで表示させる、請求項6~9のいずれか一項に記載の映像音響再生装置。 The control circuit unit causes the first display unit or the second display unit to graphically display the direction of the position transmitting unit which is a source of the position signal. The audiovisual reproduction apparatus described in.
  11.  外部ノイズ信号を検出可能な第一のマイクロフォンと、外部音声信号を検出可能な第二のマイクロフォンとをさらに備えた、請求項1~10のいずれか一項に記載の映像音響再生装置。 The video and audio reproduction device according to any one of claims 1 to 10, further comprising: a first microphone capable of detecting an external noise signal; and a second microphone capable of detecting an external audio signal.
  12.  前記再生回路部が仮想現実コンテンツを再生しているときは、前記第一のマイクロフォンが優先的に動作し、
     前記再生回路部が拡張現実コンテンツを再生しているときは、前記第二のマイクロフォンが優先的に動作する、請求項11に記載の映像音響再生装置。
    When the reproduction circuit unit reproduces virtual reality content, the first microphone operates preferentially.
    12. The video and audio reproduction apparatus according to claim 11, wherein the second microphone operates preferentially when the reproduction circuit unit reproduces augmented reality content.
  13.  仮想現実コンテンツと拡張現実コンテンツとを再生可能な再生回路部を備えた映像音響再生装置と共に用いられ、左右少なくとも一方の耳介近傍または外耳道に配備することが可能な音響再生装置であって、
     前記仮想現実コンテンツおよび前記拡張現実コンテンツのいずれかを選択して前記再生回路部に再生させる制御回路部を備えた、音響再生装置。
    An audio reproduction apparatus which is used together with an audiovisual reproduction apparatus having reproduction circuitry capable of reproducing virtual reality content and augmented reality content, and which can be deployed in the vicinity of at least one of the left or right pinna or the external ear canal,
    A sound reproduction apparatus comprising: a control circuit unit which selects one of the virtual reality content and the augmented reality content and causes the reproduction circuit unit to reproduce the selected content.
  14.  前記映像音響再生装置の操作に用いられる制御回路およびセンサを備えた、請求項13に記載の音響再生装置。 The sound reproduction device according to claim 13, comprising a control circuit and a sensor used for operating the video and audio reproduction device.
PCT/JP2018/029984 2017-08-09 2018-08-09 Video and sound reproduction device and method WO2019031593A1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017154257A JP6613429B2 (en) 2017-08-09 2017-08-09 Audiovisual playback device
JP2017-154257 2017-08-09

Publications (1)

Publication Number Publication Date
WO2019031593A1 true WO2019031593A1 (en) 2019-02-14

Family

ID=65272533

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2018/029984 WO2019031593A1 (en) 2017-08-09 2018-08-09 Video and sound reproduction device and method

Country Status (2)

Country Link
JP (1) JP6613429B2 (en)
WO (1) WO2019031593A1 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021526757A (en) * 2018-06-14 2021-10-07 アップル インコーポレイテッドApple Inc. Display system with audio output device
CN113711620A (en) * 2019-04-17 2021-11-26 谷歌有限责任公司 Radio-enhanced augmented reality and virtual reality to truly wireless ear bud headphones
WO2022123388A1 (en) * 2020-12-11 2022-06-16 株式会社半導体エネルギー研究所 Display system

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220141657A (en) * 2021-04-13 2022-10-20 삼성전자주식회사 Wearable electronic device controlling noise canceling of external wearable electronice device and method of operating the same

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011203378A (en) * 2010-03-24 2011-10-13 Olympus Corp Head-mounted type image display device
JP2016048872A (en) * 2014-08-28 2016-04-07 日本電信電話株式会社 Sound collection device
WO2017015968A1 (en) * 2015-07-30 2017-02-02 深圳市柔宇科技有限公司 Head-mounted electronic device
WO2017081733A1 (en) * 2015-11-09 2017-05-18 共栄エンジニアリング株式会社 Sound reproduction device

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011203378A (en) * 2010-03-24 2011-10-13 Olympus Corp Head-mounted type image display device
JP2016048872A (en) * 2014-08-28 2016-04-07 日本電信電話株式会社 Sound collection device
WO2017015968A1 (en) * 2015-07-30 2017-02-02 深圳市柔宇科技有限公司 Head-mounted electronic device
WO2017081733A1 (en) * 2015-11-09 2017-05-18 共栄エンジニアリング株式会社 Sound reproduction device

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021526757A (en) * 2018-06-14 2021-10-07 アップル インコーポレイテッドApple Inc. Display system with audio output device
US11805347B2 (en) 2018-06-14 2023-10-31 Apple Inc. Display system having an audio output device
CN113711620A (en) * 2019-04-17 2021-11-26 谷歌有限责任公司 Radio-enhanced augmented reality and virtual reality to truly wireless ear bud headphones
WO2022123388A1 (en) * 2020-12-11 2022-06-16 株式会社半導体エネルギー研究所 Display system

Also Published As

Publication number Publication date
JP2019033426A (en) 2019-02-28
JP6613429B2 (en) 2019-12-04

Similar Documents

Publication Publication Date Title
US11244512B2 (en) Hybrid rendering for a wearable display attached to a tethered computer
US10816807B2 (en) Interactive augmented or virtual reality devices
US10068553B2 (en) Enhanced rendering by a wearable display attached to a tethered computer
JP6250041B2 (en) Reduction of external vibration in bone conduction speakers
US10371944B2 (en) Virtual reality headset with see-through mode
WO2019031593A1 (en) Video and sound reproduction device and method
JP2022502800A (en) Systems and methods for augmented reality
US10078366B2 (en) Head-mountable apparatus and system
JP2022528082A (en) Image display methods and devices for head-mounted displays
US9597590B2 (en) Methods and apparatus for accessing peripheral content
US20120207308A1 (en) Interactive sound playback device
WO2017131970A1 (en) Methods and systems for navigation within virtual reality space using head mounted display
JP2016005125A (en) Head-mount type device and head-mount type information display system
US20190118386A1 (en) Robot and housing
JP2017201742A (en) Processing device, and image determining method
JP6538003B2 (en) Actuator device
US20190353298A1 (en) Actuator apparatus
JP2021512402A (en) Multi-viewing virtual reality user interface
JP6616023B2 (en) Audio output device, head mounted display, audio output method and program
JP2020025275A (en) Video and audio reproduction device and method
GB2517008A (en) Head-mountable apparatus and systems
GB2515353A (en) Head-mountable apparatus and systems
WO2018042658A1 (en) Portable information terminal, head mounted display system, and sound output control method thereof
JP7365132B2 (en) Information processing device, display method and computer program
JP2012222699A (en) Display control system, posture detection glasses, control program and recording medium

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18845169

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 18845169

Country of ref document: EP

Kind code of ref document: A1