JP2021057747A - Display system, image display device, image display method, and program - Google Patents

Display system, image display device, image display method, and program Download PDF

Info

Publication number
JP2021057747A
JP2021057747A JP2019178896A JP2019178896A JP2021057747A JP 2021057747 A JP2021057747 A JP 2021057747A JP 2019178896 A JP2019178896 A JP 2019178896A JP 2019178896 A JP2019178896 A JP 2019178896A JP 2021057747 A JP2021057747 A JP 2021057747A
Authority
JP
Japan
Prior art keywords
image
unit
audio signal
audio
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019178896A
Other languages
Japanese (ja)
Inventor
雄大 尾野
Takehiro Ono
雄大 尾野
高野 正秀
Masahide Takano
正秀 高野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2019178896A priority Critical patent/JP2021057747A/en
Publication of JP2021057747A publication Critical patent/JP2021057747A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Controls And Circuits For Display Device (AREA)
  • Obtaining Desirable Characteristics In Audible-Bandwidth Transducers (AREA)
  • Circuit For Audible Band Transducer (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

To allow an image highly useful for a user to be displayed at appropriate timing.SOLUTION: A display system 1 comprises: a head mounted display (HMD) 100 including an image display section 20, a first microphone 61 for inputting sound to be emitted by a sound source 400, and a second microphone 63 arranged at a position different from that of the first microphone 61 so as to input sound to be emitted by the sound source 400; and a smart phone 300 for determining an image to be displayed in an image display section 20 and display timing to allow the image display section 20 to display the image based on sound signals to be input from the first microphone 61 and the second microphone 63.SELECTED DRAWING: Figure 5

Description

本発明は、表示システム、画像表示装置、画像表示方法及びプログラムに関する。 The present invention relates to a display system, an image display device, an image display method and a program.

複数の音声入力部により入力される音声に基づいて音源の位置等を検出する方法が知られている。例えば、特許文献1は、複数のマイクロフォンを備える音情報表示装置を開示する。この音情報表示装置は、複数のマイクロフォンの集音情報に基づいて音源の位置や、音源から出力される音の大きさ、周波数を判定し、判定した音源の位置に対応する視覚領域内の位置に、判定した音の大きさに対応した大きさであって、周波数の違いが色の違いとして表示される円の画像を表示する。 A method of detecting the position of a sound source or the like based on the voice input by a plurality of voice input units is known. For example, Patent Document 1 discloses a sound information display device including a plurality of microphones. This sound information display device determines the position of the sound source, the loudness and frequency of the sound output from the sound source based on the sound collection information of a plurality of microphones, and the position in the visual area corresponding to the determined position of the sound source. In addition, an image of a circle whose loudness corresponds to the determined loudness and whose frequency difference is displayed as a color difference is displayed.

特開2012−133250号公報Japanese Unexamined Patent Publication No. 2012-133250

しかしながら特許文献1は、音源が発する音の周波数や大きさに対応した画像を表示させているに過ぎず、ユーザーにとって有用性の高い画像を表示させる技術が求められいた。 However, Patent Document 1 merely displays an image corresponding to the frequency and loudness of the sound emitted by the sound source, and there is a demand for a technique for displaying an image that is highly useful to the user.

上記課題を解決する一態様は、画像表示部と、音源から発せられた音声を入力して第1音声信号を出力する第1音声入力部と、前記第1音声入力部とは異なる位置に配置され、前記音声を入力して第2音声信号を出力する第2音声入力部と、を備える画像表示装置と、前記第1音声信号と、前記第2音声信号とに基づいて、前記画像表示部に表示させる画像を制御する制御装置と、を備える表示システムである。 One aspect of solving the above problems is to arrange the image display unit, the first audio input unit that inputs the audio emitted from the sound source and outputs the first audio signal, and the first audio input unit at different positions. An image display device including a second audio input unit that inputs the audio and outputs a second audio signal, and the image display unit based on the first audio signal and the second audio signal. It is a display system including a control device for controlling an image to be displayed on the screen.

上記表示システムにおいて、前記制御装置は、前記第1音声信号が入力されたタイミングと、前記第2音声信号が入力されたタイミングとの時間差に基づいて、前記画像表示部に表示させる画像と、前記画像の表示タイミングとを制御する構成であってもよい。 In the display system, the control device has the image to be displayed on the image display unit and the image to be displayed on the image display unit based on the time difference between the timing at which the first audio signal is input and the timing at which the second audio signal is input. The configuration may be such that the display timing of the image is controlled.

上記表示システムにおいて、前記制御装置は、前記第1音声信号と、前記第2音声信号との時間差が第1しきい値以下である場合、前記画像表示部に第1画像を表示させ、前記第1音声信号と前記第2音声信号との時間差が前記第1しきい値よりも小さい第2しきい値以下である場合、前記画像表示部に第2画像を表示させる構成であってもよい。 In the display system, when the time difference between the first audio signal and the second audio signal is equal to or less than the first threshold value, the control device causes the image display unit to display the first image, and the first image is displayed. When the time difference between the one audio signal and the second audio signal is equal to or less than the second threshold value smaller than the first threshold value, the image display unit may display the second image.

上記表示システムにおいて、前記制御装置は、前記第1音声信号の入力タイミングと、前記第2音声信号の入力タイミングとの時間差に基づいて、前記画像表示部に表示させる画像の表示位置及び大きさの少なくも一方を制御する構成であってもよい。 In the display system, the control device determines the display position and size of the image to be displayed on the image display unit based on the time difference between the input timing of the first audio signal and the input timing of the second audio signal. It may be configured to control at least one of them.

上記表示システムにおいて、前記制御装置は、画像データと、前記画像データの識別情報とを対応づけて記憶した記憶部を備え、前記制御装置は、前記音源から出力される音声信号に重畳される透かし情報を抽出し、抽出した前記透かし情報から前記識別情報を取得し、取得した前記識別情報に対応づけられた画像データに基づく画像を前記画像表示部に表示させる構成であってもよい。 In the display system, the control device includes a storage unit that stores image data in association with identification information of the image data, and the control device is a watermark superimposed on an audio signal output from the sound source. The information may be extracted, the identification information may be acquired from the extracted watermark information, and an image based on the image data associated with the acquired identification information may be displayed on the image display unit.

上記表示システムにおいて、前記制御装置は、前記第1音声信号と、前記第2音声信号との位相差に基づき、前記画像表示部に画像を表示させるタイミングを決定する構成であってもよい。 In the display system, the control device may be configured to determine the timing of displaying an image on the image display unit based on the phase difference between the first audio signal and the second audio signal.

上記表示システムにおいて、前記制御装置は、部品が正常動作している場合に、前記部品から出力される音声の周波数範囲を示す範囲情報を記憶した記憶部を備え、前記第1音声入力部及び前記第2音声入力部から入力される前記第1音声信号及び前記第2音声信号の周波数が、前記範囲情報が示す周波数範囲内にない場合に、特定した前記音源の方向に配置された部品に故障が生じていることを示す表示を表示させる構成であってもよい。 In the display system, the control device includes a storage unit that stores range information indicating a frequency range of audio output from the component when the component is operating normally, and includes the first audio input unit and the control device. When the frequencies of the first audio signal and the second audio signal input from the second audio input unit are not within the frequency range indicated by the range information, the component arranged in the direction of the specified sound source fails. It may be configured to display a display indicating that is occurring.

上記課題を解決する別の一態様は、画像表示部と、音声を入力して第1音声信号を出力する第1音声入力部と、前記第1音声入力部とは異なる位置に配置され、音声を入力して第2音声信号を出力する第2音声入力部と、を備える画像表示装置と、前記第1音声信号と、前記第2音声信号とに基づいて、前記画像表示部に表示させる画像を制御する制御部と、を備える画像表示装置である。 Another aspect of solving the above-mentioned problems is that the image display unit, the first audio input unit that inputs audio and outputs the first audio signal, and the first audio input unit are arranged at different positions from the audio. An image to be displayed on the image display unit based on an image display device including a second audio input unit that inputs and outputs a second audio signal, the first audio signal, and the second audio signal. It is an image display device including a control unit for controlling the above.

上記課題を解決する別の一態様は、音源の音声を入力した第1音声入力部が出力する第1音声信号を入力するステップと、前記第1音声入力部とは異なる位置に配置された第2音声入力部が、前記音声を入力して出力する第2音声信号を入力するステップと、入力された前記第1音声信号及び前記第2音声信号に基づいて、画像表示部に表示させる画像を制御するステップと、を有する画像表示方法である。 Another aspect of solving the above problems is a step of inputting a first audio signal output by the first audio input unit that has input the sound of the sound source, and a first position arranged at a position different from the first audio input unit. 2 The step of inputting the second audio signal that the audio input unit inputs and outputs the audio, and the image to be displayed on the image display unit based on the input first audio signal and the second audio signal. It is an image display method having a step to control.

上記課題を解決する別の一態様は、コンピューターに、音源の音声を入力した第1音声入力部が出力する第1音声信号を入力する手順と、前記第1音声入力部とは異なる位置に配置された第2音声入力部が、前記音声を入力して出力する第2音声信号を入力する手順と、入力された前記第1音声信号及び前記第2音声信号に基づいて、画像表示部に表示させる画像を制御する手順と、を実行させるプログラムである。 Another aspect of solving the above-mentioned problems is a procedure of inputting a first audio signal output by the first audio input unit that inputs the audio of the sound source to the computer and arranging the computer at a position different from the first audio input unit. The second audio input unit displays the image on the image display unit based on the procedure for inputting the second audio signal for inputting and outputting the audio, and the input first audio signal and the second audio signal. It is a program to execute a procedure for controlling an image to be input.

第1実施形態の表示システムの構成の一例を示す図。The figure which shows an example of the structure of the display system of 1st Embodiment. 画像表示部の光学系の構成の一例を示す図。The figure which shows an example of the structure of the optical system of an image display part. 画像表示部の要部構成の一例を示す斜視図。The perspective view which shows an example of the main part structure of an image display part. HMDを構成する各部の構成の一例を示す図。The figure which shows an example of the structure of each part which constitutes HMD. スマートフォンの構成の一例を示す図。The figure which shows an example of the structure of a smartphone. コンテンツテーブルの構成の一例を示す図。The figure which shows an example of the structure of a content table. 音源と複数のマイクとの距離が異なる場合を示す図。The figure which shows the case where the distance between a sound source and a plurality of microphones is different. 音源と複数のマイクとの距離が同一又は略同一である場合を示す図。The figure which shows the case where the distance between a sound source and a plurality of microphones is the same or substantially the same. 表示領域に表示される表示画像を示す図。The figure which shows the display image displayed in the display area. 展示品の一例として恐竜の骨格標本を示す図。A diagram showing a dinosaur skeleton specimen as an example of an exhibit. 展示品の正面に移動した場合に視認可能なコンテンツ画像を示す図。The figure which shows the content image which can be seen when moving to the front of an exhibit. 第2制御部の動作を示すフローチャート。The flowchart which shows the operation of the 2nd control part. 第2実施形態のHMDの構成の一例を示す図。The figure which shows an example of the structure of the HMD of 2nd Embodiment. 第2実施形態のスマートフォンの構成の一例を示す図。The figure which shows an example of the structure of the smartphone of 2nd Embodiment. 部品情報テーブルの一例を示す図。The figure which shows an example of the part information table. 表示領域に表示される表示画像の一例を示す図。The figure which shows an example of the display image displayed in a display area.

以下、図面を参照して実施形態について説明する。 Hereinafter, embodiments will be described with reference to the drawings.

[表示システムの構成]
図1は、本実施形態に係る表示システム1の概略構成を示す図である。
図1に示すように、表示システム1は、HMD(Head Mounted Display)100を備える。HMD100は、使用者Uの頭部に装着される画像表示部20と、接続装置10とを備え、画像表示部20により、使用者Uの頭部に装着された状態で使用者Uに虚像を視認させる装置である。
HMD100は、「画像表示装置」の一例に対応する。以下の説明において、使用者Uとは、HMD100を装着して使用するユーザーを指す。
[Display system configuration]
FIG. 1 is a diagram showing a schematic configuration of a display system 1 according to the present embodiment.
As shown in FIG. 1, the display system 1 includes an HMD (Head Mounted Display) 100. The HMD 100 includes an image display unit 20 mounted on the head of the user U and a connecting device 10, and the image display unit 20 provides a virtual image to the user U while being mounted on the head of the user U. It is a device for visual recognition.
The HMD 100 corresponds to an example of an "image display device". In the following description, the user U refers to a user who wears and uses the HMD100.

接続装置10は、箱形のケースに、コネクター11A及びコネクター11Dを備える。コネクター11Aには、画像表示部20が接続ケーブル40を介して接続される。以下、コネクター11A、11Dを区別しない場合はコネクター11と表記する場合がある。接続装置10のケースは、筐体、或いは本体ということもできる。 The connecting device 10 includes a connector 11A and a connector 11D in a box-shaped case. The image display unit 20 is connected to the connector 11A via the connection cable 40. Hereinafter, when the connectors 11A and 11D are not distinguished, they may be referred to as the connector 11. The case of the connecting device 10 can also be called a housing or a main body.

表示システム1は、HMD100にスマートフォン300を接続して構成されるシステムである。コネクター11Dは、HMD100においてスマートフォン300が接続されるインターフェイスである。すなわち、本実施形態では、コネクター11Dにスマートフォン300が接続される。スマートフォン300は、「制御装置」の一例に対応する。制御装置は、使用者Uが携帯可能であって、画像を表示する表示部と、コンピューターとを備えればよい。例えば、制御装置として、PDA(Personal Digital Assistant)端末、タブレット型パーソナルコンピューター等を接続装置10に接続可能である。 The display system 1 is a system configured by connecting a smartphone 300 to the HMD 100. The connector 11D is an interface to which the smartphone 300 is connected in the HMD 100. That is, in the present embodiment, the smartphone 300 is connected to the connector 11D. The smartphone 300 corresponds to an example of a "control device". The control device may be portable to the user U and may include a display unit for displaying an image and a computer. For example, as a control device, a PDA (Personal Digital Assistant) terminal, a tablet-type personal computer, or the like can be connected to the connecting device 10.

コネクター11は、通信ケーブルを接続する有線インターフェイスであり、この通信ケーブルにより、接続装置10は外部の装置と接続される。コネクター11Aは、接続ケーブル40を接続する端子、及び、コネクター11Aを介して信号を送受信するインターフェイス回路を備える。 The connector 11 is a wired interface for connecting a communication cable, and the connecting device 10 is connected to an external device by the communication cable. The connector 11A includes a terminal for connecting the connection cable 40 and an interface circuit for transmitting and receiving signals via the connector 11A.

コネクター11Aは、接続装置10に画像表示部20を接続するために設けられる。接続ケーブル40は、接続装置10から画像表示部20に対する電源供給を行うとともに、画像表示部20と接続装置10とが相互にデータを送受信する機能を有する。 The connector 11A is provided to connect the image display unit 20 to the connecting device 10. The connection cable 40 has a function of supplying power to the image display unit 20 from the connection device 10 and a function of transmitting and receiving data to and from the image display unit 20 and the connection device 10.

コネクター11Dは、スマートフォン300から画像データが入力され、スマートフォン300に対してセンサーデータの出力が可能なインターフェイス回路を備える。スマートフォン300は、不揮発性記憶部に記録されたコンテンツデータを再生する。コネクター11Dは、例えば、公知の通信インターフェイス規格に準拠するコネクターである。
本実施形態では、コネクター11Dは、一例として、画像データ及び各種データの入出力に対応するインターフェイス回路を備え、USBケーブル46を介してスマートフォン300が接続される。
The connector 11D includes an interface circuit in which image data is input from the smartphone 300 and sensor data can be output to the smartphone 300. The smartphone 300 reproduces the content data recorded in the non-volatile storage unit. The connector 11D is, for example, a connector conforming to a known communication interface standard.
In the present embodiment, as an example, the connector 11D includes an interface circuit corresponding to input / output of image data and various data, and the smartphone 300 is connected via the USB cable 46.

コネクター11Dとして、例えば、USB(Universal Serial Bus)−TypeC規格のコネクターを採用することができる。USB−TypeCに対応するインターフェイス回路は、USB3.1規格に従ったデータの伝送、及び、20ボルト、5アンペア以内の直流電力の供給が可能である。
また、USB−TypeCの代替モードの機能として、HDMI(登録商標:High Definition Multimedia Interface)規格の画像データ、MHL(Mobile High−definition Link)規格の画像データ等を伝送できる。スマートフォン300は、USBケーブル46を介して、電源供給、データの送受信、及び、画像や音声のストリーミングデータの供給等を行うことができる。USB−TypeCの代替モードは、Alternativeモードとして知られている。
As the connector 11D, for example, a USB (Universal Serial Bus) -Type C standard connector can be adopted. The interface circuit corresponding to USB-TypeC is capable of transmitting data according to the USB3.1 standard and supplying DC power within 20 volts and 5 amperes.
Further, as a function of the alternative mode of USB-TypeC, HDMI (registered trademark: High Definition Multimedia Interface) standard image data, MHL (Mobile High-definition Link) standard image data and the like can be transmitted. The smartphone 300 can supply power, send and receive data, and supply streaming data of images and sounds via the USB cable 46. An alternative mode of USB-Type C is known as Alternative mode.

画像表示部20は、本実施形態では眼鏡形状を有する。画像表示部20は、右保持部21と、左保持部23と、前部フレーム27とを有する本体に、右表示部22、左表示部24、右導光板26、及び左導光板28を備える。 The image display unit 20 has a spectacle shape in the present embodiment. The image display unit 20 includes a right display unit 22, a left display unit 24, a right light guide plate 26, and a left light guide plate 28 in a main body having a right holding unit 21, a left holding unit 23, and a front frame 27. ..

右保持部21及び左保持部23は、前部フレーム27の両端部から後方に延び、使用者Uの頭部に画像表示部20を保持する。前部フレーム27の両端部のうち、画像表示部20の装着時に頭部の右側に位置する端部を端部ERとし、左側に位置する端部を端部ELとする。右保持部21は、前部フレーム27の端部ERから、画像表示部20の装着状態において使用者Uの右側頭部に対応する位置まで延伸して設けられる。左保持部23は、端部ELから、画像表示部20の装着状態において使用者Uの左側頭部に対応する位置まで延伸して設けられる。 The right holding portion 21 and the left holding portion 23 extend rearward from both ends of the front frame 27 and hold the image display portion 20 on the head of the user U. Of both ends of the front frame 27, the end located on the right side of the head when the image display unit 20 is attached is referred to as the end ER, and the end located on the left side is referred to as the end EL. The right holding portion 21 is provided so as to extend from the end ER of the front frame 27 to a position corresponding to the right head of the user U when the image display portion 20 is attached. The left holding portion 23 is provided so as to extend from the end portion EL to a position corresponding to the left head of the user U in the mounted state of the image display portion 20.

右導光板26及び左導光板28は、前部フレーム27に設けられる。右導光板26は、画像表示部20の装着状態において使用者Uの右眼の眼前に位置し、右眼に画像を視認させる。左導光板28は、画像表示部20の装着状態において使用者Uの左眼の眼前に位置し、左眼に画像を視認させる。 The right light guide plate 26 and the left light guide plate 28 are provided on the front frame 27. The right light guide plate 26 is located in front of the right eye of the user U when the image display unit 20 is attached, and allows the right eye to visually recognize the image. The left light guide plate 28 is located in front of the left eye of the user U when the image display unit 20 is attached, and allows the left eye to visually recognize the image.

前部フレーム27は、右導光板26の一端と左導光板28の一端とを互いに連結した形状を有し、この連結位置は、使用者Uが画像表示部20を装着する装着状態で、使用者Uの眉間に対応する。
前部フレーム27は、右導光板26と左導光板28との連結位置において、画像表示部20の装着状態で使用者Uの鼻に当接する鼻当て部を設けてもよい。この場合には、鼻当て部と右保持部21及び左保持部23とにより画像表示部20を使用者Uの頭部に保持できる。また、右保持部21及び左保持部23に、画像表示部20の装着状態において使用者Uの後頭部に接するベルトを連結してもよい。この場合には、ベルトによって画像表示部20を使用者Uの頭部に保持できる。
The front frame 27 has a shape in which one end of the right light guide plate 26 and one end of the left light guide plate 28 are connected to each other, and this connection position is used when the user U attaches the image display unit 20. Corresponds to the eyebrows of person U.
The front frame 27 may be provided with a nose pad portion that comes into contact with the nose of the user U while the image display unit 20 is attached at the connection position between the right light guide plate 26 and the left light guide plate 28. In this case, the image display unit 20 can be held on the head of the user U by the nose pad portion, the right holding portion 21, and the left holding portion 23. Further, a belt that is in contact with the back of the head of the user U when the image display unit 20 is attached may be connected to the right holding unit 21 and the left holding unit 23. In this case, the image display unit 20 can be held on the head of the user U by the belt.

右表示部22及び左表示部24の各々は、光学ユニット及び周辺回路をユニット化したモジュールである。
右表示部22は、右導光板26による画像の表示に係るユニットであり、右保持部21に設けられ、装着状態において使用者Uの右側頭部の近傍に位置する。左表示部24は、左導光板28による画像の表示に係るユニットであり、左保持部23に設けられ、装着状態において使用者Uの左側頭部の近傍に位置する。なお、右表示部22及び左表示部24を総称して単に「表示駆動部」と呼ぶこともできる。
Each of the right display unit 22 and the left display unit 24 is a module in which an optical unit and peripheral circuits are unitized.
The right display unit 22 is a unit for displaying an image by the right light guide plate 26, is provided on the right holding unit 21, and is located near the right head of the user U in the mounted state. The left display unit 24 is a unit for displaying an image by the left light guide plate 28, is provided on the left holding unit 23, and is located in the vicinity of the left head of the user U in the mounted state. The right display unit 22 and the left display unit 24 can also be collectively referred to as a “display drive unit”.

右導光板26及び左導光板28は、光透過性の樹脂等によって形成される光学部であり、右表示部22及び左表示部24が出力する画像光を、使用者Uの眼に導く。右導光板26及び左導光板28は、例えばプリズムである。
左表示部24及び左導光板28は、「第1表示部」の一例に対応する。右表示部22及び右導光板26は、「第2表示部」の一例に対応する。
The right light guide plate 26 and the left light guide plate 28 are optical units formed of a light-transmitting resin or the like, and guide the image light output by the right display unit 22 and the left display unit 24 to the eyes of the user U. The right light guide plate 26 and the left light guide plate 28 are, for example, prisms.
The left display unit 24 and the left light guide plate 28 correspond to an example of the “first display unit”. The right display unit 22 and the right light guide plate 26 correspond to an example of the “second display unit”.

使用者Uの右眼には、右導光板26により導かれた画像光と、右導光板26を透過した外光とが入射する。同様に、左眼には、左導光板28により導かれた画像光と、左導光板28を透過した外光とが入射する。
左導光板28により導かれた画像光は、第1画像P1に対応する。すなわち、左表示部24及び左導光板28は、外景に重ねて第1画像P1を表示する。右導光板26により導かれた画像光は、第2画像P2に対応する。すなわち、右表示部22及び右導光板26は、外景に重ねて第2画像P2を表示する。
第2画像P2は、第1画像P1に対応する画像である。本実施形態では、第2画像P2は、例えば、第1画像P1と同一の画像である。
第1画像P1及び第2画像P2については、後述にて図8〜図10を参照して詳細に説明する。
The image light guided by the right light guide plate 26 and the external light transmitted through the right light guide plate 26 are incident on the right eye of the user U. Similarly, the image light guided by the left light guide plate 28 and the external light transmitted through the left light guide plate 28 are incident on the left eye.
The image light guided by the left light guide plate 28 corresponds to the first image P1. That is, the left display unit 24 and the left light guide plate 28 display the first image P1 on the outside view. The image light guided by the right light guide plate 26 corresponds to the second image P2. That is, the right display unit 22 and the right light guide plate 26 display the second image P2 on the outside view.
The second image P2 is an image corresponding to the first image P1. In the present embodiment, the second image P2 is, for example, the same image as the first image P1.
The first image P1 and the second image P2 will be described in detail later with reference to FIGS. 8 to 10.

画像表示部20の前部フレーム27には、照度センサー65が配置される。照度センサー65は、画像表示部20を装着する使用者Uの前方からの外光を受光する。
第1カメラ50は、画像表示部20の前部フレーム27に配設される。第1カメラ50は、右導光板26及び左導光板28を透過する外光を遮らない位置に設けられる。図1の例では、第1カメラ50が右導光板26と左導光板28との連結部に配置されているが、前部フレーム27の端部ER側に配置されてもよく、端部EL側に配置されてもよい。
An illuminance sensor 65 is arranged on the front frame 27 of the image display unit 20. The illuminance sensor 65 receives external light from the front of the user U who wears the image display unit 20.
The first camera 50 is arranged on the front frame 27 of the image display unit 20. The first camera 50 is provided at a position that does not block the external light transmitted through the right light guide plate 26 and the left light guide plate 28. In the example of FIG. 1, the first camera 50 is arranged at the connecting portion between the right light guide plate 26 and the left light guide plate 28, but may be arranged at the end ER side of the front frame 27, and the end EL It may be placed on the side.

第1カメラ50は、CCD(Charge Coupled Device)やCMOS(Complementary Metal−Oxide−Semiconductor)等の撮像素子及び撮像レンズ等を備えるデジタルカメラである。第1カメラ50は、外景を撮像し、第1撮像画像を生成する。 The first camera 50 is a digital camera including an image sensor such as a CCD (Charge Coupled Device) or a CMOS (Complementary Metal-Oxide-Semiconductor), an image pickup lens, or the like. The first camera 50 captures the outside view and generates the first captured image.

前部フレーム27には、LED(Light Emitting Diode)インジケーター67が配置される。LEDインジケーター67は、端部ERに配置され、第1カメラ50の動作中に点灯して、撮像中であることを報知する。 An LED (Light Emitting Diode) indicator 67 is arranged on the front frame 27. The LED indicator 67 is arranged at the end ER and lights up during the operation of the first camera 50 to notify that imaging is in progress.

前部フレーム27には、距離センサー64及び赤外線センサー66が設けられる。距離センサー64は、予め設定された測定方向に位置する測定対象物までの距離を検出する。距離センサー64は、例えば、LEDやレーザーダイオード等の光源と、光源が発する光が対象物に反射する反射光を受光する受光部とを有する光反射式距離センサーであってもよい。また、距離センサー64は、超音波を発する音源と、測定対象物で反射する超音波を受信する検出部とを備える超音波式の距離センサーであってもよい。また、距離センサー64は、レーザーレンジスキャナーを用いてもよく、この場合には、画像表示部20の前方を含む広範囲の領域に対し測域を行える。 The front frame 27 is provided with a distance sensor 64 and an infrared sensor 66. The distance sensor 64 detects the distance to the measurement object located in the preset measurement direction. The distance sensor 64 may be, for example, a light reflection type distance sensor having a light source such as an LED or a laser diode and a light receiving unit that receives the reflected light that the light emitted by the light source reflects on the object. Further, the distance sensor 64 may be an ultrasonic type distance sensor including a sound source that emits ultrasonic waves and a detection unit that receives ultrasonic waves reflected by the object to be measured. Further, the distance sensor 64 may use a laser range scanner, and in this case, the range can be measured over a wide range including the front of the image display unit 20.

また、距離センサー64に代えて複数台のカメラをHMD100に搭載し、3角測量の原理を利用して距離を測定してもよいし、Wi−Fi、Bluetooth、電波ビーコン等の電波を受信する受信部をHMD100に設けて、受信部が受信する電波の強度に基づいて対象物までの距離を測定してもよい。Wi−Fi及びBluetoothは登録商標である。
また、距離センサー64として、例えば、LiDAR(Light Detection and Ranging、Laser Imaging Detection and Ranging)等のレーザーレーダーを設けてもよい。レーザーレーダーは、パルス状のレーザーを発光し、対象物からの反射光や散乱光によって距離を測定する。
Further, instead of the distance sensor 64, a plurality of cameras may be mounted on the HMD100 to measure the distance using the principle of triangular measurement, or receive radio waves such as Wi-Fi, Bluetooth, and radio beacons. The receiving unit may be provided in the HMD 100, and the distance to the object may be measured based on the intensity of the radio wave received by the receiving unit. Wi-Fi and Bluetooth are registered trademarks.
Further, as the distance sensor 64, for example, a laser radar such as LiDAR (Light Detection and Ranger, Laser Imaging Detection and Ranger) may be provided. The laser radar emits a pulsed laser and measures the distance by the reflected light or scattered light from the object.

赤外線センサー66は、赤外線を検出する。具体的には、赤外線センサー66は、スマートフォン300の赤外線通信部から出射された赤外線を検出する。また、赤外線センサー66が赤外線通信部の一部として構成されてもよい。この場合には、スマートフォン300の赤外線通信部との通信が可能である。赤外線通信部は、例えば、IrDA規格に則って通信を行う。 The infrared sensor 66 detects infrared rays. Specifically, the infrared sensor 66 detects infrared rays emitted from the infrared communication unit of the smartphone 300. Further, the infrared sensor 66 may be configured as a part of the infrared communication unit. In this case, communication with the infrared communication unit of the smartphone 300 is possible. The infrared communication unit communicates according to, for example, the IrDA standard.

画像表示部20の右表示部22及び左表示部24の各々は、接続装置10に接続される。HMD100では、左保持部23に接続ケーブル40が接続され、この接続ケーブル40に繋がる配線が画像表示部20内部に敷設され、右表示部22及び左表示部24の各々が接続装置10に接続される。 Each of the right display unit 22 and the left display unit 24 of the image display unit 20 is connected to the connecting device 10. In the HMD 100, the connection cable 40 is connected to the left holding unit 23, the wiring connected to the connection cable 40 is laid inside the image display unit 20, and each of the right display unit 22 and the left display unit 24 is connected to the connecting device 10. To.

接続ケーブル40は、オーディオコネクター36を備え、ステレオヘッドホンを構成する右イヤホン32及び左イヤホン34と、第1マイク61及び第2マイク63とを有するヘッドセット30が、オーディオコネクター36に接続される。右イヤホン32は、使用者Uの右耳に装着され、左イヤホン34は、使用者Uの左耳に装着される。右イヤホン32及び左イヤホン34は、音声出力部ということもできる。 The connection cable 40 includes an audio connector 36, and a headset 30 having a right earphone 32 and a left earphone 34 constituting stereo headphones and a first microphone 61 and a second microphone 63 is connected to the audio connector 36. The right earphone 32 is attached to the right ear of the user U, and the left earphone 34 is attached to the left ear of the user U. The right earphone 32 and the left earphone 34 can also be said to be audio output units.

右イヤホン32及び左イヤホン34は、接続装置10が出力する音声信号に基づき音声を出力する。
第1マイク61及び第2マイク63は、画像表示部20の異なる位置に配置される。例えば、第1マイク61は、右表示部22に配置され、第2マイク63は、左表示部24に表示される。第1マイク61及び第2マイク63は、音声を集音して、音声信号を接続装置10に出力する。第1マイク61及び第2マイク63は、例えばモノラルマイクであってもステレオマイクであってもよく、指向性を有するマイクであってもよいし、無指向性のマイクであってもよい。第1マイク61は、本発明の「第1音声入力部」の一例に対応し、第2マイク63は、本発明の「第2音声入力部」の一例に対応する。
The right earphone 32 and the left earphone 34 output audio based on the audio signal output by the connecting device 10.
The first microphone 61 and the second microphone 63 are arranged at different positions of the image display unit 20. For example, the first microphone 61 is arranged on the right display unit 22, and the second microphone 63 is displayed on the left display unit 24. The first microphone 61 and the second microphone 63 collect the sound and output the sound signal to the connecting device 10. The first microphone 61 and the second microphone 63 may be, for example, a monaural microphone, a stereo microphone, a directional microphone, or an omnidirectional microphone. The first microphone 61 corresponds to an example of the "first voice input unit" of the present invention, and the second microphone 63 corresponds to an example of the "second voice input unit" of the present invention.

接続装置10は、使用者Uにより操作される被操作部として、輝度調整キー13、輝度調整キー14、音量調整キー15及び音量調整キー16を備える。輝度調整キー13、輝度調整キー14、音量調整キー15及び音量調整キー16の各々は、ハードウェアキーで構成される。これらの被操作部は接続装置10の本体の表面に配置され、例えば、使用者Uの手指により操作される。 The connection device 10 includes a brightness adjustment key 13, a brightness adjustment key 14, a volume adjustment key 15, and a volume adjustment key 16 as operation-operated parts operated by the user U. Each of the brightness adjustment key 13, the brightness adjustment key 14, the volume adjustment key 15, and the volume adjustment key 16 is composed of a hardware key. These operated portions are arranged on the surface of the main body of the connecting device 10, and are operated by, for example, the fingers of the user U.

輝度調整キー13、14は画像表示部20により表示する画像の表示輝度を調整するためのハードウェアキーである。輝度調整キー13は輝度の増大を指示し、輝度調整キー14は輝度の低減を指示する。音量調整キー15、16は、右イヤホン32及び左イヤホン34から出力される音声の音量を調整するためのハードウェアキーである。音量調整キー15は音量の増大を指示し、音量調整キー16は音量の低減を指示する。 The brightness adjustment keys 13 and 14 are hardware keys for adjusting the display brightness of the image displayed by the image display unit 20. The brightness adjustment key 13 instructs to increase the brightness, and the brightness adjustment key 14 instructs to decrease the brightness. The volume adjustment keys 15 and 16 are hardware keys for adjusting the volume of the sound output from the right earphone 32 and the left earphone 34. The volume adjustment key 15 instructs to increase the volume, and the volume adjustment key 16 instructs to decrease the volume.

[HMDの画像表示部の光学系の構成]
図2は、画像表示部20が備える光学系の構成を示す要部平面図である。図2には説明のために、使用者Uの左眼LE及び右眼REを図示する。
図2に示すように、右表示部22と左表示部24とは、左右対称に構成される。使用者Uの右眼REに画像を視認させる構成として、右表示部22は、画像光を発するOLED(Organic Light Emitting Diode)ユニット221を備える。また、OLEDユニット221が発する画像光Lを導くレンズ群等を備えた右光学系251を備える。画像光Lは、右光学系251により右導光板26に導かれる。
[Structure of optical system of HMD image display unit]
FIG. 2 is a plan view of a main part showing the configuration of the optical system included in the image display unit 20. FIG. 2 illustrates the left eye LE and the right eye RE of the user U for the sake of explanation.
As shown in FIG. 2, the right display unit 22 and the left display unit 24 are symmetrically configured. The right display unit 22 includes an OLED (Organic Light Emitting Diode) unit 221 that emits image light so that the right eye RE of the user U can visually recognize the image. Further, the right optical system 251 including a lens group for guiding the image light L emitted by the OLED unit 221 is provided. The image light L is guided to the right light guide plate 26 by the right optical system 251.

OLEDユニット221は、OLEDパネル223と、OLEDパネル223を駆動するOLED駆動回路225とを有する。OLEDパネル223は、有機エレクトロルミネッセンスにより発光してR(赤)、G(緑)、B(青)の色光をそれぞれ発する発光素子を、マトリクス状に配置して構成される、自発光型の表示パネルである。OLEDパネル223は、R、G、Bの素子を1個ずつ含む単位を1画素として、複数の画素を備え、マトリクス状に配置される画素により画像を形成する。OLED駆動回路225は、第1制御部120の制御に従って、OLEDパネル223が備える発光素子の選択及び発光素子への通電を実行して、OLEDパネル223の発光素子を発光させる。第1制御部120については、後述にて図4を参照して説明する。
OLED駆動回路225は、OLEDパネル223の裏面すなわち発光面の裏側に、ボンディング等により固定される。OLED駆動回路225は、例えばOLEDパネル223を駆動する半導体デバイスで構成され、OLEDパネル223の裏面に固定される基板(図示略)に実装されてもよい。この基板には図4に示す温度センサー217が実装される。
なお、OLEDパネル223は、白色に発光する発光素子をマトリクス状に配置し、R、G、Bの各色に対応するカラーフィルターを重ねて配置する構成であってもよい。また、R、G、Bの色光をそれぞれ放射する発光素子に加え、W(白)の光を発する発光素子を備えるWRGB構成のOLEDパネル223を用いてもよい。
The OLED unit 221 has an OLED panel 223 and an OLED drive circuit 225 for driving the OLED panel 223. The OLED panel 223 is a self-luminous display composed of light emitting elements that emit light by organic electroluminescence and emit R (red), G (green), and B (blue) colored lights in a matrix. It is a panel. The OLED panel 223 includes a plurality of pixels, with one pixel as a unit including one R, G, and B element, and forms an image with pixels arranged in a matrix. The OLED drive circuit 225 selects the light emitting element included in the OLED panel 223 and energizes the light emitting element according to the control of the first control unit 120, so that the light emitting element of the OLED panel 223 emits light. The first control unit 120 will be described later with reference to FIG.
The OLED drive circuit 225 is fixed to the back surface of the OLED panel 223, that is, the back side of the light emitting surface by bonding or the like. The OLED drive circuit 225 may be composed of, for example, a semiconductor device for driving the OLED panel 223, and may be mounted on a substrate (not shown) fixed to the back surface of the OLED panel 223. The temperature sensor 217 shown in FIG. 4 is mounted on this substrate.
The OLED panel 223 may have a configuration in which light emitting elements that emit white light are arranged in a matrix, and color filters corresponding to each of the R, G, and B colors are arranged in an overlapping manner. Further, in addition to the light emitting elements that emit R, G, and B colored lights, an OLED panel 223 having a WRGB configuration including a light emitting element that emits W (white) light may be used.

右光学系251は、OLEDパネル223から射出された画像光Lを並行状態の光束にするコリメートレンズを有する。コリメートレンズにより並行状態の光束にされた画像光Lは、右導光板26に入射する。右導光板26の内部において光を導く光路には、画像光Lを反射する複数の反射面が形成される。画像光Lは、右導光板26の内部で複数回の反射を経て右眼RE側に導かれる。右導光板26には、右眼REの眼前に位置するハーフミラー261(反射面)が形成される。画像光Lは、ハーフミラー261で反射して右眼REに向けて右導光板26から射出され、この画像光Lが右眼REの網膜に像を結び、使用者Uに第2画像P2を視認させる。 The right optical system 251 has a collimating lens that converts the image light L emitted from the OLED panel 223 into a light flux in a parallel state. The image light L converted into a luminous flux in a parallel state by the collimating lens is incident on the right light guide plate 26. A plurality of reflecting surfaces that reflect the image light L are formed in the optical path that guides the light inside the right light guide plate 26. The image light L is guided to the right eye RE side through a plurality of reflections inside the right light guide plate 26. A half mirror 261 (reflection surface) located in front of the right eye RE is formed on the right light guide plate 26. The image light L is reflected by the half mirror 261 and emitted from the right light guide plate 26 toward the right eye RE, and the image light L forms an image on the retina of the right eye RE, and the second image P2 is displayed to the user U. Make it visible.

また、使用者Uの左眼LEに画像を視認させる構成として、左表示部24は、画像光を発するOLEDユニット241と、OLEDユニット241が発する画像光Lを導くレンズ群等を備えた左光学系252とを備える。画像光Lは、左光学系252により左導光板28に導かれる。 Further, as a configuration for allowing the left eye LE of the user U to visually recognize the image, the left display unit 24 includes an OLED unit 241 that emits image light, a lens group that guides the image light L emitted by the OLED unit 241, and the like. It includes a system 252. The image light L is guided to the left light guide plate 28 by the left optical system 252.

OLEDユニット241は、OLEDパネル243と、OLEDパネル243を駆動するOLED駆動回路245とを有する。OLEDパネル243は、OLEDパネル223と同様に構成される自発光型の表示パネルである。OLED駆動回路245は、第1制御部120の指示に従って、OLEDパネル243が備える発光素子の選択及び発光素子への通電を実行して、OLEDパネル243の発光素子を発光させる。
OLED駆動回路245は、OLEDパネル243の裏面すなわち発光面の裏側に、ボンディング等により固定される。OLED駆動回路245は、例えばOLEDパネル243を駆動する半導体デバイスで構成され、OLEDパネル243の裏面に固定される基板(図示略)に実装されてもよい。この基板には、図4に示す温度センサー239が実装される。
The OLED unit 241 includes an OLED panel 243 and an OLED drive circuit 245 that drives the OLED panel 243. The OLED panel 243 is a self-luminous display panel configured in the same manner as the OLED panel 223. The OLED drive circuit 245 selects the light emitting element included in the OLED panel 243 and energizes the light emitting element according to the instruction of the first control unit 120, so that the light emitting element of the OLED panel 243 emits light.
The OLED drive circuit 245 is fixed to the back surface of the OLED panel 243, that is, the back side of the light emitting surface by bonding or the like. The OLED drive circuit 245 may be composed of, for example, a semiconductor device for driving the OLED panel 243, and may be mounted on a substrate (not shown) fixed to the back surface of the OLED panel 243. The temperature sensor 239 shown in FIG. 4 is mounted on this substrate.

左光学系252は、OLEDパネル243から射出された画像光Lを並行状態の光束にするコリメートレンズを有する。コリメートレンズにより並行状態の光束にされた画像光Lは、左導光板28に入射する。左導光板28は、画像光Lを反射する複数の反射面が形成された光学素子であり、例えばプリズムである。画像光Lは、左導光板28の内部で複数回の反射を経て左眼LE側に導かれる。左導光板28には、左眼LEの眼前に位置するハーフミラー281(反射面)が形成される。画像光Lは、ハーフミラー281で反射して左眼LEに向けて左導光板28から射出され、この画像光Lが左眼LEの網膜に像を結び、使用者Uに第1画像P1を視認させる。 The left optical system 252 has a collimating lens that converts the image light L emitted from the OLED panel 243 into a light flux in a parallel state. The image light L converted into a luminous flux in a parallel state by the collimating lens is incident on the left light guide plate 28. The left light guide plate 28 is an optical element on which a plurality of reflecting surfaces that reflect the image light L are formed, and is, for example, a prism. The image light L is guided to the LE side of the left eye through a plurality of reflections inside the left light guide plate 28. A half mirror 281 (reflection surface) located in front of the left eye LE is formed on the left light guide plate 28. The image light L is reflected by the half mirror 281 and emitted from the left light guide plate 28 toward the left eye LE, and the image light L forms an image on the retina of the left eye LE, and the first image P1 is displayed to the user U. Make it visible.

この構成によれば、HMD100は、透過型の表示装置として機能する。すなわち、使用者Uの右眼REには、ハーフミラー261で反射した画像光Lと、右導光板26を透過した外光OLとが入射する。また、左眼LEには、ハーフミラー281で反射した画像光Lと、ハーフミラー281を透過した外光OLとが入射する。このように、HMD100は、内部で処理した画像の画像光Lと外光OLとを重ねて使用者Uの眼に入射させ、使用者Uにとっては、右導光板26及び左導光板28を透かして外景が見え、この外景に重ねて、画像光Lによる画像が視認される。
ハーフミラー261、281は、右表示部22及び左表示部24がそれぞれ出力する画像光を反射して画像を取り出す画像取り出し部であり、表示部ということができる。
According to this configuration, the HMD 100 functions as a transmissive display device. That is, the image light L reflected by the half mirror 261 and the external light OL transmitted through the right light guide plate 26 are incident on the right eye RE of the user U. Further, the image light L reflected by the half mirror 281 and the external light OL transmitted through the half mirror 281 are incident on the left eye LE. In this way, the HMD 100 superimposes the image light L of the internally processed image and the external light OL and causes them to enter the eyes of the user U, and for the user U, the right light guide plate 26 and the left light guide plate 28 are watermarked. The outside view can be seen, and the image by the image light L is visually recognized by superimposing the outside view.
The half mirrors 261 and 281 are image extraction units that reflect the image light output by the right display unit 22 and the left display unit 24, respectively, and take out an image, and can be called a display unit.

なお、左光学系252と左導光板28とを総称して「左導光部」とも呼び、右光学系251と右導光板26とを総称して「右導光部」と呼ぶ。右導光部及び左導光部の構成は上記の例に限定されず、画像光を用いて使用者Uの眼前に虚像を形成する限りにおいて任意の方式を用いることができ、例えば、回折格子を用いても良いし、半透過反射膜を用いても良い。 The left optical system 252 and the left light guide plate 28 are collectively referred to as a "left light guide unit", and the right optical system 251 and the right light guide plate 26 are collectively referred to as a "right light guide unit". The configuration of the right light guide unit and the left light guide unit is not limited to the above example, and any method can be used as long as an image light is used to form a virtual image in front of the user U. For example, a diffraction grating can be used. Or a semi-transmissive reflective film may be used.

図3は、画像表示部20の要部の構成を示す図である。図3は、画像表示部20を使用者Uの頭部側から見た要部斜視図である。なお、図3では接続ケーブル40の図示を省略する。 FIG. 3 is a diagram showing a configuration of a main part of the image display unit 20. FIG. 3 is a perspective view of a main part of the image display unit 20 as viewed from the head side of the user U. Note that the connection cable 40 is not shown in FIG.

図3は、画像表示部20の使用者Uの頭部に接する側、言い換えれば使用者Uの右眼RE及び左眼LEに見える側である。別の言い方をすれば、図3では、右導光板26及び左導光板28の裏側が見えている。
図3では、使用者Uの右眼REに画像光を照射するハーフミラー261及び左眼LEに画像光を照射するハーフミラー281が、略四角形の領域として見える。また、ハーフミラー261を含む右導光板26の全体、及びハーフミラー281を含む左導光板28の全体が、上述したように外光を透過する。このため、使用者Uには、右導光板26及び左導光板28の全体を透過して外景が視認され、ハーフミラー261、281の位置に矩形の表示画像が視認される。
また、第1制御部120は、第2制御部350の指示に従って、左表示部24及び左導光板28に画像を表示させ、右表示部22及び右導光板26に画像を表示させる。
FIG. 3 shows the side of the image display unit 20 in contact with the head of the user U, in other words, the side of the user U that can be seen by the right eye RE and the left eye LE. In other words, in FIG. 3, the back sides of the right light guide plate 26 and the left light guide plate 28 are visible.
In FIG. 3, the half mirror 261 that irradiates the image light on the right eye RE of the user U and the half mirror 281 that irradiates the image light on the left eye LE are seen as substantially quadrangular regions. Further, the entire right light guide plate 26 including the half mirror 261 and the entire left light guide plate 28 including the half mirror 281 transmit external light as described above. Therefore, the user U can see the outside view through the entire right light guide plate 26 and the left light guide plate 28, and can see the rectangular display image at the positions of the half mirrors 261 and 281.
Further, the first control unit 120 causes the left display unit 24 and the left light guide plate 28 to display an image, and causes the right display unit 22 and the right light guide plate 26 to display the image according to the instruction of the second control unit 350.

[HMDの各部の構成]
図4は、HMD100を構成する各部の構成の一例を示す図である。
画像表示部20の右表示部22は、右表示部基板210を有する。右表示部基板210には、接続ケーブル40に接続される右I/F部211、右I/F部211を介して接続装置10から入力されるデータを受信する受信部213及びEEPROM(Electrically Erasable Programmable Read Only Memory)215が実装される。右I/F部211は、受信部213、EEPROM215、温度センサー217、第1カメラ50、距離センサー64、照度センサー65、赤外線センサー66、LEDインジケーター67を接続装置10に接続する。受信部213は、OLEDユニット221を接続装置10に接続する。
[Structure of each part of HMD]
FIG. 4 is a diagram showing an example of the configuration of each part constituting the HMD 100.
The right display unit 22 of the image display unit 20 has a right display unit substrate 210. The right display unit board 210 has a right I / F unit 211 connected to the connection cable 40, a receiving unit 213 that receives data input from the connecting device 10 via the right I / F unit 211, and an EEPROM (Electrically Erasable). Programmable Read Only Memory) 215 is implemented. The right I / F unit 211 connects the receiving unit 213, EEPROM 215, the temperature sensor 217, the first camera 50, the distance sensor 64, the illuminance sensor 65, the infrared sensor 66, and the LED indicator 67 to the connecting device 10. The receiving unit 213 connects the OLED unit 221 to the connecting device 10.

左表示部24は、左表示部基板230を有する。左表示部基板230には、接続ケーブル40に接続される左I/F部231及び左I/F部231を介して接続装置10から入力されるデータを受信する受信部233が実装される。また、左表示部基板230には、6軸センサー235及び地磁気センサー237が実装される。
左I/F部231は、受信部233、6軸センサー235、地磁気センサー237及び温度センサー239を、接続装置10に接続する。受信部233は、OLEDユニット241を接続装置10に接続する。
The left display unit 24 has a left display unit substrate 230. On the left display unit board 230, a receiving unit 233 that receives data input from the connecting device 10 via the left I / F unit 231 and the left I / F unit 231 connected to the connection cable 40 is mounted. Further, a 6-axis sensor 235 and a geomagnetic sensor 237 are mounted on the left display unit substrate 230.
The left I / F unit 231 connects the receiving unit 233, the 6-axis sensor 235, the geomagnetic sensor 237, and the temperature sensor 239 to the connecting device 10. The receiving unit 233 connects the OLED unit 241 to the connecting device 10.

I/Fは、インターフェイスの略記である。なお、本実施形態においては、受信部213及び受信部233の各々を、Rx213、Rx233と記載する場合がある。 I / F is an abbreviation for interface. In the present embodiment, each of the receiving unit 213 and the receiving unit 233 may be described as Rx213 and Rx233.

EEPROM215は、各種のデータを不揮発的に記憶する。EEPROM215は、例えば、画像表示部20が備えるOLEDユニット221、241の発光特性や表示特性に関するデータ、右表示部22又は左表示部24が備えるセンサーの特性に関するデータ等を記憶する。
具体的には、OLEDユニット221、241のガンマ補正に係るパラメーター、温度センサー217、239の検出値を補償するデータ等を記憶する。これらのデータは、HMD100の工場出荷時の検査によって生成され、EEPROM215に書き込まれる。EEPROM215が記憶するデータは、第1制御部120により読取り可能である。
The EEPROM 215 non-volatilely stores various types of data. The EEPROM 215 stores, for example, data on the light emitting characteristics and display characteristics of the OLED units 221 and 241 included in the image display unit 20, data on the characteristics of the sensor included in the right display unit 22 or the left display unit 24, and the like.
Specifically, it stores parameters related to gamma correction of the OLED units 221 and 241 and data for compensating for the detected values of the temperature sensors 217 and 239. These data are generated by factory inspection of HMD100 and written to EEPROM 215. The data stored in the EEPROM 215 can be read by the first control unit 120.

第1カメラ50は、右I/F部211を介して入力される信号に従って撮像を実行し、撮像画像データを、右I/F部211に出力する。
照度センサー65は、外光を受光し、受光量又は受光強度に対応する検出値を出力する。LEDインジケーター67は、右I/F部211を介して入力される制御信号又は駆動電流に従って点灯する。
温度センサー217は、OLEDユニット221の温度を検出し、検出温度に対応する電圧値又は抵抗値を、検出値として出力する。
The first camera 50 executes imaging according to a signal input via the right I / F unit 211, and outputs the captured image data to the right I / F unit 211.
The illuminance sensor 65 receives external light and outputs a detected value corresponding to the amount of received light or the intensity of received light. The LED indicator 67 lights up according to the control signal or drive current input via the right I / F unit 211.
The temperature sensor 217 detects the temperature of the OLED unit 221 and outputs a voltage value or a resistance value corresponding to the detected temperature as a detected value.

距離センサー64は、距離検出を実行し、検出結果を示す信号を、右I/F部211を介して接続装置10に出力する。距離センサー64は、例えば、赤外線式深度センサー、超音波式距離センサー、Time Of Flight式距離センサー、画像検出と音声検出とを組み合わせた距離検出ユニット等を用いることができる。また、距離センサー64が、ステレオカメラや単眼カメラによるステレオ撮影で得られる画像を処理して距離を検出する構成であってもよい。 The distance sensor 64 executes the distance detection and outputs a signal indicating the detection result to the connecting device 10 via the right I / F unit 211. As the distance sensor 64, for example, an infrared depth sensor, an ultrasonic distance sensor, a Time Of Flight distance sensor, a distance detection unit that combines image detection and voice detection, and the like can be used. Further, the distance sensor 64 may be configured to detect the distance by processing an image obtained by stereo shooting with a stereo camera or a monocular camera.

また、距離センサー64に代えて複数台のカメラをHMD100に搭載し、3角測量の原理を利用して距離を測定してもよいし、Wi−Fi、Bluetooth、電波ビーコン等の電波を受信する受信部をHMD100に設けて、受信部が受信する電波の強度に基づいて対象物までの距離を測定してもよい。
また、距離センサー64として、例えば、LiDAR等のレーザーレーダーを設けてもよい。レーザーレーダーは、パルス状のレーザーを発光し、対象物からの反射光や散乱光によって距離を測定する。
Further, instead of the distance sensor 64, a plurality of cameras may be mounted on the HMD100 to measure the distance using the principle of triangular measurement, or receive radio waves such as Wi-Fi, Bluetooth, and radio beacons. The receiving unit may be provided in the HMD 100, and the distance to the object may be measured based on the intensity of the radio wave received by the receiving unit.
Further, as the distance sensor 64, for example, a laser radar such as LiDAR may be provided. The laser radar emits a pulsed laser and measures the distance by the reflected light or scattered light from the object.

赤外線センサー66は、赤外線検出を実行し、検出結果を示す信号を右I/F部211を介して接続装置10に出力する。 The infrared sensor 66 executes infrared detection and outputs a signal indicating the detection result to the connecting device 10 via the right I / F unit 211.

受信部213は、右I/F部211を介して接続装置10から伝送される表示用の画像データを受信し、OLEDユニット221に出力する。OLEDユニット221は、接続装置10が伝送する画像データに基づく画像を表示する。
また、受信部233は、左I/F部231を介して接続装置10から伝送される表示用の画像データを受信し、OLEDユニット241に出力する。OLEDユニット221、241は、接続装置10が伝送する画像データに基づく画像を表示する。
The receiving unit 213 receives the image data for display transmitted from the connecting device 10 via the right I / F unit 211 and outputs the image data to the OLED unit 221. The OLED unit 221 displays an image based on the image data transmitted by the connecting device 10.
Further, the receiving unit 233 receives the image data for display transmitted from the connecting device 10 via the left I / F unit 231 and outputs the image data to the OLED unit 241. The OLED units 221 and 241 display an image based on the image data transmitted by the connecting device 10.

6軸センサー235は、3軸加速度センサー、及び、3軸ジャイロセンサーを備えるモーションセンサーである。6軸センサー235は、上記のセンサーがモジュール化されたIMU(Inertial Measurement Unit)を採用してもよい。地磁気センサー237は、例えば、3軸の地磁気センサーである。ジャイロセンサーは、角速度センサーとも呼ばれる。 The 6-axis sensor 235 is a motion sensor including a 3-axis acceleration sensor and a 3-axis gyro sensor. As the 6-axis sensor 235, an IMU (Inertial Measurement Unit) in which the above sensor is modularized may be adopted. The geomagnetic sensor 237 is, for example, a three-axis geomagnetic sensor. The gyro sensor is also called an angular velocity sensor.

温度センサー239は、OLEDユニット241の温度を検出し、検出温度に対応する電圧値あるいは抵抗値を、検出値として出力する。 The temperature sensor 239 detects the temperature of the OLED unit 241 and outputs a voltage value or a resistance value corresponding to the detected temperature as a detected value.

画像表示部20の各部は、接続ケーブル40により接続装置10から供給される電力により動作する。 Each part of the image display unit 20 operates by the electric power supplied from the connection device 10 by the connection cable 40.

画像表示部20は、右表示部22に電源部229を備え、左表示部24に電源部249を備える。電源部229は、接続装置10が接続ケーブル40を介して供給する電力を、右表示部基板210を含む右表示部22の各部に分配し、供給する。同様に、電源部249は、接続装置10が接続ケーブル40を介して供給する電力を、左表示部基板230を含む左表示部24の各部に分配し、供給する。右表示部22及び左表示部24は、電圧を変換する変換回路等を備えてもよい。 The image display unit 20 includes a power supply unit 229 on the right display unit 22 and a power supply unit 249 on the left display unit 24. The power supply unit 229 distributes and supplies the electric power supplied by the connection device 10 via the connection cable 40 to each unit of the right display unit 22 including the right display unit board 210. Similarly, the power supply unit 249 distributes and supplies the electric power supplied by the connection device 10 via the connection cable 40 to each unit of the left display unit 24 including the left display unit board 230. The right display unit 22 and the left display unit 24 may include a conversion circuit or the like that converts voltage.

接続装置10は、I/F部110、第1制御部120、センサー制御部122、第1表示制御部124、電源制御部126、不揮発性記憶部130、操作部140、接続部145及び音声処理部147を備える。 The connection device 10 includes an I / F unit 110, a first control unit 120, a sensor control unit 122, a first display control unit 124, a power supply control unit 126, a non-volatile storage unit 130, an operation unit 140, a connection unit 145, and voice processing. A unit 147 is provided.

I/F部110は、コネクター11Dを備える。また、I/F部110は、コネクター11Dに接続されて、各種通信規格に準拠した通信プロトコルを実行するインターフェイス回路を備える。 The I / F unit 110 includes a connector 11D. Further, the I / F unit 110 includes an interface circuit that is connected to the connector 11D and executes a communication protocol conforming to various communication standards.

I/F部110は、例えば、コネクター11D及びインターフェイス回路を実装したインターフェイス基板であってもよい。また、接続装置10の第1制御部120やセンサー制御部122、第1表示制御部124、電源制御部126が、図示しない接続装置メイン基板に実装される構成としてもよい。この場合には、接続装置メイン基板にI/F部110のコネクター11D及びインターフェイス回路を実装してもよい。
また、I/F部110は、例えば、外部の記憶装置や記憶媒体を接続可能なメモリーカード用インターフェイス回路等を備えてもよいし、I/F部110を無線通信インターフェイス回路で構成してもよい。
The I / F unit 110 may be, for example, an interface board on which the connector 11D and the interface circuit are mounted. Further, the first control unit 120, the sensor control unit 122, the first display control unit 124, and the power supply control unit 126 of the connection device 10 may be mounted on the connection device main board (not shown). In this case, the connector 11D of the I / F unit 110 and the interface circuit may be mounted on the main board of the connecting device.
Further, the I / F unit 110 may be provided with, for example, an interface circuit for a memory card to which an external storage device or a storage medium can be connected, or the I / F unit 110 may be configured by a wireless communication interface circuit. Good.

第1制御部120は、接続装置10の各部を制御する。第1制御部120は、CPU(Central Processing Unit)のような第1プロセッサーを有する。第1制御部120において、第1プロセッサーが第1制御プログラムを実行することによって、ソフトウェアとハードウェアとの協働によりHMD100の各部を制御する。第1制御部120には、不揮発性記憶部130、操作部140、接続部145及び音声処理部147が接続される。 The first control unit 120 controls each unit of the connecting device 10. The first control unit 120 has a first processor such as a CPU (Central Processing Unit). In the first control unit 120, the first processor executes the first control program to control each unit of the HMD 100 in cooperation with software and hardware. The non-volatile storage unit 130, the operation unit 140, the connection unit 145, and the voice processing unit 147 are connected to the first control unit 120.

センサー制御部122は、第1カメラ50、距離センサー64、照度センサー65、赤外線センサー66、温度センサー217、6軸センサー235、地磁気センサー237及び温度センサー239を制御する。具体的には、センサー制御部122は、第1制御部120の制御に従って各センサーのサンプリング周期の設定及び初期化を行い、各センサーのサンプリング周期に合わせて、各センサーへの通電、制御データの送信、検出値の取得等を実行する。 The sensor control unit 122 controls the first camera 50, the distance sensor 64, the illuminance sensor 65, the infrared sensor 66, the temperature sensor 217, the 6-axis sensor 235, the geomagnetic sensor 237, and the temperature sensor 239. Specifically, the sensor control unit 122 sets and initializes the sampling cycle of each sensor according to the control of the first control unit 120, and energizes each sensor and controls data according to the sampling cycle of each sensor. Send, get the detected value, etc.

センサー制御部122は、I/F部110のコネクター11Dに接続され、予め設定されたタイミングで、各センサーから取得した検出値に関するデータをコネクター11Dに出力する。コネクター11Dに接続されたスマートフォン300は、HMD100の各センサーの検出値、第1カメラ50の撮像画像データを取得できる。 The sensor control unit 122 is connected to the connector 11D of the I / F unit 110, and outputs data related to the detection value acquired from each sensor to the connector 11D at a preset timing. The smartphone 300 connected to the connector 11D can acquire the detection value of each sensor of the HMD 100 and the captured image data of the first camera 50.

第1表示制御部124は、I/F部110に入力される画像データに基づく画像を画像表示部20により表示するための各種処理を実行する。本実施形態では、コネクター11Dに、スマートフォン300が出力する画像信号が入力される。画像信号は、デジタル画像データであるが、アナログ画像信号であってもよい。
第1表示制御部124は、例えば、フレームの切り出し、解像度変換、中間フレーム生成、フレームレート変換等の各種処理を実行する。解像度変換は、いわゆるスケーリングを含む。第1表示制御部124は、OLEDユニット221及びOLEDユニット241の各々に対応する画像データを接続部145に出力する。接続部145に入力された画像データは、コネクター11Aから、画像信号201として右I/F部211及び左I/F部231に伝送される。画像信号201は、OLEDユニット221及びOLEDユニット241の各々に対応して処理されたデジタル画像データである。
The first display control unit 124 executes various processes for displaying an image based on the image data input to the I / F unit 110 by the image display unit 20. In the present embodiment, the image signal output by the smartphone 300 is input to the connector 11D. The image signal is digital image data, but may be an analog image signal.
The first display control unit 124 executes various processes such as frame cutting, resolution conversion, intermediate frame generation, and frame rate conversion. Resolution conversion involves so-called scaling. The first display control unit 124 outputs image data corresponding to each of the OLED unit 221 and the OLED unit 241 to the connection unit 145. The image data input to the connection unit 145 is transmitted from the connector 11A to the right I / F unit 211 and the left I / F unit 231 as an image signal 201. The image signal 201 is digital image data processed corresponding to each of the OLED unit 221 and the OLED unit 241.

本実施形態では、コネクター11DがUSB−TypeCコネクターで構成される。第1表示制御部124は、コネクター11Dを介して、USB−TypeCの代替モードで伝送される画像データを受信する。 In this embodiment, the connector 11D is composed of a USB-TypeC connector. The first display control unit 124 receives the image data transmitted in the alternative mode of USB-TypeC via the connector 11D.

センサー制御部122及び/又は第1表示制御部124は、第1プロセッサーがプログラムを実行することにより、ソフトウェアとハードウェアとの協働により実現されてもよい。すなわち、センサー制御部122及び第1表示制御部124は、第1プロセッサーにより構成され、プログラムを実行することで上記の動作を実行する。この例で、センサー制御部122及び第1表示制御部124は、第1制御部120を構成する第1プロセッサーがプログラムを実行することで実現されてもよい。言い換えれば、第1プロセッサーがプログラムを実行することで、第1制御部120、第1表示制御部124及びセンサー制御部122として機能してもよい。 The sensor control unit 122 and / or the first display control unit 124 may be realized by the cooperation of software and hardware by executing a program by the first processor. That is, the sensor control unit 122 and the first display control unit 124 are configured by the first processor, and execute the above operation by executing the program. In this example, the sensor control unit 122 and the first display control unit 124 may be realized by executing a program by the first processor constituting the first control unit 120. In other words, the first processor may execute the program to function as the first control unit 120, the first display control unit 124, and the sensor control unit 122.

また、第1表示制御部124及びセンサー制御部122は、DSP(Digital Signal Processor)やFPGA(Field Programmable Gate Array)等、プログラムされたハードウェアにより構成してもよい。また、センサー制御部122及び第1表示制御部124を統合して、SoC(System−on−a−Chip)−FPGAとして構成してもよい。 Further, the first display control unit 124 and the sensor control unit 122 may be configured by programmed hardware such as a DSP (Digital Signal Processor) or an FPGA (Field Programmable Gate Array). Further, the sensor control unit 122 and the first display control unit 124 may be integrated to form a SoC (System-on-a-Chip) -FPGA.

電源制御部126は、コネクター11Dに接続される。電源制御部126は、コネクター11Dから供給される電力に基づき、接続装置10の各部および画像表示部20に対する電源供給を行う。また、電源制御部126は、図示しない電圧変換回路を備え、電圧を変換して接続装置10及び画像表示部20の各部に供給する構成であってもよい。電源制御部126は、ロジック回路やFPGA等のプログラムされた半導体デバイスで構成されてもよい。また、電源制御部126をセンサー制御部122及び/又は第1表示制御部124と共通のハードウェアで構成してもよい。 The power control unit 126 is connected to the connector 11D. The power control unit 126 supplies power to each unit of the connecting device 10 and the image display unit 20 based on the electric power supplied from the connector 11D. Further, the power supply control unit 126 may include a voltage conversion circuit (not shown), and may be configured to convert the voltage and supply it to each unit of the connection device 10 and the image display unit 20. The power supply control unit 126 may be composed of a logic circuit or a programmed semiconductor device such as an FPGA. Further, the power supply control unit 126 may be configured by the same hardware as the sensor control unit 122 and / or the first display control unit 124.

センサー制御部122、第1表示制御部124及び電源制御部126は、データ処理を行うためのワークメモリーを具備してもよく、第1制御部120のメモリーを利用して処理を行ってもよい。 The sensor control unit 122, the first display control unit 124, and the power supply control unit 126 may include a work memory for performing data processing, or may perform processing using the memory of the first control unit 120. ..

操作部140は、接続装置10が備える被操作部に対する操作を検出し、操作内容を示すデータ、又は、操作された被操作部を示す操作信号を第1制御部120に出力する。 The operation unit 140 detects an operation on the operated unit included in the connecting device 10, and outputs data indicating the operation content or an operation signal indicating the operated operated unit to the first control unit 120.

音声処理部147は、第1制御部120から入力される音声データに従って、音声信号を生成し、接続部145に出力する。この音声信号は接続部145からオーディオコネクター36を介して右イヤホン32及び左イヤホン34に出力される。また、音声処理部147は、第1制御部120の制御に従って、音声信号のボリュームを調整する。また、音声処理部147は、マイク63が集音した音声の音声データを生成し、第1制御部120に出力する。この音声データは、第1制御部120により、画像表示部20が備えるセンサーの検出値と同様に処理されてもよい。 The voice processing unit 147 generates a voice signal according to the voice data input from the first control unit 120 and outputs the voice signal to the connection unit 145. This audio signal is output from the connection unit 145 to the right earphone 32 and the left earphone 34 via the audio connector 36. Further, the voice processing unit 147 adjusts the volume of the voice signal according to the control of the first control unit 120. Further, the voice processing unit 147 generates voice data of the voice collected by the microphone 63 and outputs the voice data to the first control unit 120. This audio data may be processed by the first control unit 120 in the same manner as the detection value of the sensor included in the image display unit 20.

また、接続装置10は図示しないバッテリーを備え、このバッテリーから接続装置10及び画像表示部20の各部に電力を供給する構成であってもよい。接続装置10が備えるバッテリーは、充電可能な二次電池であってもよい。 Further, the connecting device 10 may include a battery (not shown), and the connecting device 10 and the image display unit 20 may be supplied with electric power from the battery. The battery included in the connecting device 10 may be a rechargeable secondary battery.

[スマートフォンの構成]
図5は、スマートフォン300の構成の一例を示す図である。
スマートフォン300は、表示部310、第2カメラ321、6軸センサー331、地磁気センサー333、I/F部340及び第2制御部350を備える。
[Smartphone configuration]
FIG. 5 is a diagram showing an example of the configuration of the smartphone 300.
The smartphone 300 includes a display unit 310, a second camera 321 and a 6-axis sensor 331, a geomagnetic sensor 333, an I / F unit 340, and a second control unit 350.

表示部310は、表示パネル311及びタッチセンサー312を備え、第2制御部350に接続される。
表示パネル311は、第2制御部350の制御に基づき各種画像を表示する。表示パネル311は、例えば、LCD(Liquid Crystal Display)により構成される。
タッチセンサー312は、タッチ操作を検出し、検出した操作を示すデータを第2制御部350に出力する。タッチセンサー312は、表示パネル311と一体に形成される。具体的には、タッチセンサー312は、表示パネル311の画像表示面に形成される。タッチセンサー312が出力するデータは、タッチセンサー312における操作位置を示す座標データ等である。
The display unit 310 includes a display panel 311 and a touch sensor 312, and is connected to the second control unit 350.
The display panel 311 displays various images under the control of the second control unit 350. The display panel 311 is composed of, for example, an LCD (Liquid Crystal Display).
The touch sensor 312 detects the touch operation and outputs data indicating the detected operation to the second control unit 350. The touch sensor 312 is formed integrally with the display panel 311. Specifically, the touch sensor 312 is formed on the image display surface of the display panel 311. The data output by the touch sensor 312 is coordinate data or the like indicating an operation position on the touch sensor 312.

第2カメラ321は、CCDやCMOS等の撮像素子及び撮像レンズ等を備えるデジタルカメラである。第2カメラ321は、第2制御部350の指示に従って外景を撮像し、第2撮像画像を生成する。 The second camera 321 is a digital camera including an image pickup element such as a CCD or CMOS, an image pickup lens, or the like. The second camera 321 captures the outside view according to the instruction of the second control unit 350, and generates the second captured image.

6軸センサー331は、3軸加速度センサー及び3軸ジャイロセンサーを備えるモーションセンサーである。6軸センサー331は、上記のセンサーがモジュール化されたIMUを採用してもよい。地磁気センサー333は、例えば、3軸の地磁気センサーである。ジャイロセンサーは、角速度センサーとも呼ばれる。 The 6-axis sensor 331 is a motion sensor including a 3-axis acceleration sensor and a 3-axis gyro sensor. The 6-axis sensor 331 may employ an IMU in which the above sensor is modularized. The geomagnetic sensor 333 is, for example, a three-axis geomagnetic sensor. The gyro sensor is also called an angular velocity sensor.

I/F部340は、コネクター345を備える。また、I/F部340は、コネクター345に接続され、各種通信規格に準拠した通信プロトコルを実行するインターフェイス回路を備える。インターフェイス回路の図示は省略する。 The I / F section 340 includes a connector 345. Further, the I / F unit 340 includes an interface circuit connected to the connector 345 and executing a communication protocol conforming to various communication standards. The interface circuit is not shown.

I/F部340は、例えば、コネクター345及びインターフェイス回路を実装したインターフェイス基板であってもよい。また、I/F部340は、例えば、外部の記憶装置や記憶媒体を接続可能なメモリーカード用インターフェイス回路等を備えてもよいし、I/F部340を無線通信インターフェイス回路で構成してもよい。 The I / F unit 340 may be, for example, an interface board on which a connector 345 and an interface circuit are mounted. Further, the I / F unit 340 may include, for example, an interface circuit for a memory card to which an external storage device or a storage medium can be connected, or the I / F unit 340 may be configured by a wireless communication interface circuit. Good.

第2制御部350は、第2記憶部360及び第2プロセッサー370を備える。
第2記憶部360は、データを不揮発的に記憶するROM(Read Only Memory)や、第2プロセッサー370のワークエリアを構成するRAM(Random Access Memory)を備える。また、第2記憶部360は、例えば、HDD(Hard Disk Drive)等の磁気的記録装置、又はフラッシュメモリー等の半導体記憶素子を用いた記憶装置により構成してもよい。
The second control unit 350 includes a second storage unit 360 and a second processor 370.
The second storage unit 360 includes a ROM (Read Only Memory) that stores data non-volatilely, and a RAM (Random Access Memory) that constitutes a work area of the second processor 370. Further, the second storage unit 360 may be configured by, for example, a magnetic recording device such as an HDD (Hard Disk Drive) or a storage device using a semiconductor storage element such as a flash memory.

第2記憶部360は、制御プログラム361及びコンテンツテーブル363を記憶する。
制御プログラム361は、第2プロセッサー370に実行させるプログラムである。
The second storage unit 360 stores the control program 361 and the content table 363.
The control program 361 is a program to be executed by the second processor 370.

図6は、コンテンツテーブル363の構成の一例を示す図である。
コンテンツテーブル363には、予め登録されたコンテンツ画像データと、コンテンツ画像データの表示順と、コンテンツ画像データに付与された識別IDとが対応づけて登録される。
コンテンツ画像データは、画像表示部20を装着した使用者Uに視認させる画像データであり、例えば、博物館や美術館においてHMD100を使用する場合、コンテンツ画像データは、使用者Uが展示品とともに視認する表示される画像データである。例えば、展示品が恐竜の骨である場合、コンテンツ画像データ像は、この骨に対応した恐竜の画像データである。また、例えば、展示品が土器の一部分である場合、コンテンツ画像データは、この土器の完成品の画像データである。また、展示品が絵画等である場合、コンテンツ画像データは、この絵画の色を再現した画像データである。また、コンテンツ画像データとして複数の異なる画像データを登録し、これら複数の異なる画像データを段階的に表示させてもよい。例えば、展示品が恐竜の骨である場合、第1段階では、恐竜が生きていた時代の生息環境を表す画像である環境画像データを表示させ、第2段階で実際の恐竜の画像データを表示させてもよい。また、展示品が土器である場合、第1段階では、土器が使用されていた当時の人々の生活様式が表示された画像データを表示させ、第2段階では実物の土器の画像データを表示させてもよい。
FIG. 6 is a diagram showing an example of the configuration of the content table 363.
In the content table 363, the content image data registered in advance, the display order of the content image data, and the identification ID assigned to the content image data are registered in association with each other.
The content image data is image data to be visually recognized by the user U who wears the image display unit 20, and for example, when the HMD100 is used in a museum or an art museum, the content image data is a display visually recognized by the user U together with the exhibit. It is the image data to be performed. For example, when the exhibit is a dinosaur bone, the content image data image is the image data of the dinosaur corresponding to this bone. Further, for example, when the exhibit is a part of the earthenware, the content image data is the image data of the finished product of the earthenware. When the exhibit is a painting or the like, the content image data is image data that reproduces the color of the painting. Further, a plurality of different image data may be registered as the content image data, and the plurality of different image data may be displayed stepwise. For example, if the exhibit is a dinosaur bone, the first stage displays environmental image data, which is an image showing the habitat of the time when the dinosaur lived, and the second stage displays the actual dinosaur image data. You may let me. If the exhibit is earthenware, in the first stage, image data showing the lifestyles of people at the time when the earthenware was used is displayed, and in the second stage, image data of the actual earthenware is displayed. You may.

[スマートフォンの第2制御部の構成]
第2制御部350は、音声処理部371と、表示制御部373とを備える。第2制御部350は、第2制御部350が備える第2プロセッサー370が制御プログラム361を実行することにより、音声処理部371及び表示制御部373として機能する。
[Structure of the second control unit of the smartphone]
The second control unit 350 includes a voice processing unit 371 and a display control unit 373. The second control unit 350 functions as a voice processing unit 371 and a display control unit 373 when the second processor 370 included in the second control unit 350 executes the control program 361.

音声処理部371には、第1マイク61が生成した第1音声信号と、第2マイク63が生成した第2音声信号とが入力される。音声処理部371は、入力された第1音声信号と第2音声信号とに基づいて、画像表示部20に表示させる画像と、画像表示部20に画像を表示させる表示タイミングとを制御する。 The first voice signal generated by the first microphone 61 and the second voice signal generated by the second microphone 63 are input to the voice processing unit 371. The audio processing unit 371 controls an image to be displayed on the image display unit 20 and a display timing for displaying the image on the image display unit 20 based on the input first audio signal and the second audio signal.

音声処理部371は、まず、第1音声信号及び第2音声信号の周波数が予め設定された範囲内の周波数であるか否かを判定する。これは、音源400から出力された音声だけを抽出するための処理である。例えば、博物館において、音源400として恐竜の鳴き声を出力する場合、音声処理部371は、この恐竜の鳴き声に対応した周波数の第1音声信号及び第2音声信号が入力されたか否かを判定する。音声処理部371は、設定された範囲内の周波数の第1音声信号及び第2音声信号が入力された場合、入力された第1音声信号及び第2音声信号に基づいて音源400の方向を特定する。具体的には、音声処理部371は、第1音声信号の入力タイミングと、第2音声信号の入力タイミングの時間差に基づいて音源400の方向を特定する。 The voice processing unit 371 first determines whether or not the frequencies of the first voice signal and the second voice signal are within a preset range. This is a process for extracting only the sound output from the sound source 400. For example, in a museum, when a dinosaur bark is output as a sound source 400, the voice processing unit 371 determines whether or not a first voice signal and a second voice signal having frequencies corresponding to the dinosaur bark have been input. When the first audio signal and the second audio signal having a frequency within the set range are input, the audio processing unit 371 specifies the direction of the sound source 400 based on the input first audio signal and the second audio signal. To do. Specifically, the audio processing unit 371 specifies the direction of the sound source 400 based on the time difference between the input timing of the first audio signal and the input timing of the second audio signal.

また、音声処理部371は、第1音声信号の入力タイミングと、第2音声信号の入力タイミングの時間差に基づいて、画像表示部20に画像を表示させる表示タイミングを決定する。例えば、本実施形態では、第1音声信号及び第2音声信号の入力タイミングが同一又は略同一であるタイミングを、音声処理部371は、画像表示部20に画像を表示させるタイミングと決定する。
また、音声処理部371は、第1音声信号の入力タイミングと、第2音声信号の入力タイミングとの時間差が、予め設定された範囲内である場合に、画像表示部20に画像を表示させるタイミングと決定してもよい。これにより、音源400とは異なる位置に画像を表示させることができる。
Further, the audio processing unit 371 determines the display timing for displaying the image on the image display unit 20 based on the time difference between the input timing of the first audio signal and the input timing of the second audio signal. For example, in the present embodiment, the audio processing unit 371 determines the timing at which the input timings of the first audio signal and the second audio signal are the same or substantially the same as the timing at which the image display unit 20 displays an image.
Further, the audio processing unit 371 causes the image display unit 20 to display an image when the time difference between the input timing of the first audio signal and the input timing of the second audio signal is within a preset range. May be decided. As a result, the image can be displayed at a position different from that of the sound source 400.

また、音声処理部371は、第1音声信号と第2音声信号との位相差に基づいて、画像表示部20に画像を表示させるタイミングを決定してもよい。第1音声信号及び第2音声信号の入力タイミングが異なる場合、入力された第1音声信号及び第2音声信号には位相差が生じる。音声処理部371は、第1音声信号と第2音声信号との位相差がゼロ、又は略ゼロであると判定されるタイミングを、画像表示部20に画像を表示させるタイミングとして決定する。 Further, the audio processing unit 371 may determine the timing for displaying the image on the image display unit 20 based on the phase difference between the first audio signal and the second audio signal. When the input timings of the first voice signal and the second voice signal are different, a phase difference occurs between the input first voice signal and the second voice signal. The audio processing unit 371 determines the timing at which the phase difference between the first audio signal and the second audio signal is determined to be zero or substantially zero as the timing for displaying the image on the image display unit 20.

第2表示制御部373は、音声処理部371の処理結果に基づいて画像表示部20に表示させる画像データを選択し、選択した画像データをI/F部340を介して接続装置10に出力する。 The second display control unit 373 selects the image data to be displayed on the image display unit 20 based on the processing result of the voice processing unit 371, and outputs the selected image data to the connecting device 10 via the I / F unit 340. ..

図7は、音源400と第1マイク61との距離a1と、音源400と第2マイク63との距離a2とが異なる場合を示す。また、図8は、音源400と第1マイク61との距離a1と、音源400と第2マイク63との距離a2とが同一又は略同一である場合を示す。 FIG. 7 shows a case where the distance a1 between the sound source 400 and the first microphone 61 and the distance a2 between the sound source 400 and the second microphone 63 are different. Further, FIG. 8 shows a case where the distance a1 between the sound source 400 and the first microphone 61 and the distance a2 between the sound source 400 and the second microphone 63 are the same or substantially the same.

図7に示すように、距離a1と距離a2とが異なる場合、音声処理部371に、第1マイク61が生成した第1音声信号が入力されるタイミングと、第2マイク63が生成した第2音声信号が入力されるタイミングとが異なる。音声処理部371は、第1音声信号の入力タイミングと、第2音声信号の入力タイミングとの時間差を求める。音声処理部371は、求めた時間差や、第1音声信号及び第2音声信号のうちどちらの音声信号が先に音声処理部371に入力されたか等の情報に基づき、音源400の方向を特定する。 As shown in FIG. 7, when the distance a1 and the distance a2 are different, the timing at which the first voice signal generated by the first microphone 61 is input to the voice processing unit 371 and the second time generated by the second microphone 63. The timing at which the audio signal is input is different. The voice processing unit 371 obtains a time difference between the input timing of the first voice signal and the input timing of the second voice signal. The audio processing unit 371 specifies the direction of the sound source 400 based on the obtained time difference and information such as which of the first audio signal and the second audio signal is input to the audio processing unit 371 first. ..

図9は、表示領域VRに表示される表示画像を示す図である。表示領域VRとは、画像表示部20が表示画像を表示する領域である。
音声処理部371は、音源400の方向を特定すると、特定した音源400の方向を示す矢印画像450と、推定した音源400の方向への移動を使用者Uに促す案内表示455との画像データを接続装置10に出力する。画像表示部20は、接続装置10の制御に従って、表示領域VRに、矢印画像450と、案内表示455とを表示させる。
FIG. 9 is a diagram showing a display image displayed in the display area VR. The display area VR is an area in which the image display unit 20 displays a display image.
When the direction of the sound source 400 is specified, the sound processing unit 371 outputs image data of an arrow image 450 indicating the direction of the specified sound source 400 and a guidance display 455 prompting the user U to move in the estimated direction of the sound source 400. Output to the connecting device 10. The image display unit 20 causes the display area VR to display the arrow image 450 and the guidance display 455 according to the control of the connecting device 10.

また、図8に示すように、距離a1と距離a2とが同一又は略同一である場合、音声処理部371に、第1マイク61から第1音声信号が入力されるタイミングと、第2マイク63から第2音声信号が入力されるタイミングとが同一又は略同一となる。
音声処理部371は、第1音声信号が入力されるタイミングと、第2音声信号が入力されるタイミングとが同一又は略同一である場合、HMD100が、音源400の正面に位置していると判定する。音声処理部371は、HMD100が音源400の正面に位置していることを表示制御部373に通知する。
Further, as shown in FIG. 8, when the distance a1 and the distance a2 are the same or substantially the same, the timing at which the first audio signal is input from the first microphone 61 to the audio processing unit 371 and the second microphone 63 The timing at which the second audio signal is input is the same or substantially the same.
The voice processing unit 371 determines that the HMD 100 is located in front of the sound source 400 when the timing at which the first voice signal is input and the timing at which the second voice signal is input are the same or substantially the same. To do. The voice processing unit 371 notifies the display control unit 373 that the HMD 100 is located in front of the sound source 400.

図10は、博物館に展示された展示品500の一例として恐竜の骨格標本を示す。また、図11は、展示品500の正面に使用者Uが移動した場合に、使用者Uが視認するコンテンツ画像を示す。
例えば、美術館や博物館のように予め決められた順路に沿って展示品を鑑賞する場合、表示制御部373は、予め設定された表示順に従ってコンテンツ画像データを選択し、選択したコンテンツ画像データを接続装置10に出力する。コンテンツテーブル363には、コンテンツ画像データの表示順が設定されている。表示制御部373は、HMD100が音源400の正面に位置しているとの通知を音声処理部371から受けるごとに、設定された表示順でコンテンツ画像データを選択し、選択したコンテンツ画像データを接続装置10に出力する。これにより、図11に示すように、表示領域VRには、展示品に対応したコンテンツ画像が表示される。
FIG. 10 shows a dinosaur skeleton specimen as an example of the exhibit 500 exhibited in the museum. Further, FIG. 11 shows a content image visually recognized by the user U when the user U moves to the front of the exhibit 500.
For example, when viewing an exhibit along a predetermined route such as an art museum or a museum, the display control unit 373 selects content image data according to a preset display order and connects the selected content image data. Output to device 10. The display order of the content image data is set in the content table 363. Each time the display control unit 373 receives a notification from the audio processing unit 371 that the HMD 100 is located in front of the sound source 400, the display control unit 373 selects the content image data in the set display order and connects the selected content image data. Output to device 10. As a result, as shown in FIG. 11, the content image corresponding to the exhibit is displayed in the display area VR.

また、音声処理部371は、第1音声信号と第2音声信号とが入力される時間差を、第1マイク61及び第2マイク63を搭載した画像表示部20と、音源400との角度の差θに変換してもよい。音声処理部371は、変換した角度の差θに基づいて画像表示部20に表示させるコンテンツ画像データを変更する。 Further, the audio processing unit 371 determines the time difference between the input of the first audio signal and the second audio signal by the difference in angle between the image display unit 20 equipped with the first microphone 61 and the second microphone 63 and the sound source 400. It may be converted to θ. The audio processing unit 371 changes the content image data to be displayed on the image display unit 20 based on the converted angle difference θ.

音声処理部371は、変換した角度の差θを予め設定されたしきい値と比較する。音声処理部371は、角度の差θがθ1以下であって、θ2よりも大きい場合、すなわち、θ2<θ≦θ1である第1範囲内である場合、角度の差θが含まれる範囲が第1範囲であることを表示制御部373に通知する。表示制御部373は、音声処理部371から差分θの含まれる範囲が第1範囲であるとの通知が入力されると、矢印画像450や、案内表示455の画像データを接続装置10に出力する。これにより、画像表示部20には、図9に示す矢印画像450や、案内表示455の画像が表示される。 The voice processing unit 371 compares the difference θ of the converted angles with a preset threshold value. In the voice processing unit 371, when the angle difference θ is θ1 or less and larger than θ2, that is, within the first range where θ2 <θ≤θ1, the range including the angle difference θ is the first. Notify the display control unit 373 that the range is one. When the voice processing unit 371 receives a notification that the range including the difference θ is the first range, the display control unit 373 outputs the arrow image 450 and the image data of the guidance display 455 to the connecting device 10. .. As a result, the arrow image 450 shown in FIG. 9 and the image of the guidance display 455 are displayed on the image display unit 20.

また、音声処理部371は、変換した角度の差θがθ2以下であって、θ3よりも大きい場合、すなわち、θ3<θ≦θ2である第2範囲内である場合、角度の差θが含まれる範囲が第2範囲であることを表示制御部373に通知する。表示制御部373は、音声処理部371から角度の差θの含まれる範囲が第2範囲であるとの通知が入力されると、環境画像データを接続装置10に出力する。角度の差θ2は、本発明の「第1しきい値」に対応する。また、環境画像データは、本発明の第1画像に対応する。 Further, the voice processing unit 371 includes an angle difference θ when the converted angle difference θ is θ2 or less and larger than θ3, that is, within the second range where θ3 <θ≤θ2. Notify the display control unit 373 that the range to be displayed is the second range. When the voice processing unit 371 receives a notification from the voice processing unit 371 that the range including the angle difference θ is the second range, the display control unit 373 outputs the environmental image data to the connecting device 10. The angle difference θ2 corresponds to the “first threshold” of the present invention. Further, the environmental image data corresponds to the first image of the present invention.

また、音声処理部371は、変換した角度の差θがθ3以下である場合、すなわち、θ≦θ3である第3範囲内である場合、角度の差θが含まれる範囲が第3範囲であることを表示制御部373に通知する。表示制御部373は、音声処理部371から差分θの含まれる範囲が第3範囲であるとの通知が入力されると、コンテンツ画像データを接続装置10に出力する。なお、角度の差θがθ3以下である場合、HMD100が、音源400の正面に位置していると判定できる。角度の差θ3は、本発明の「第2しきい値」に対応する。また、コンテンツ画像データは、本発明の第2画像に対応する。 Further, in the voice processing unit 371, when the converted angle difference θ is θ3 or less, that is, within the third range where θ ≦ θ3, the range including the angle difference θ is the third range. This is notified to the display control unit 373. When the audio processing unit 371 receives a notification that the range including the difference θ is the third range, the display control unit 373 outputs the content image data to the connecting device 10. When the angle difference θ is θ3 or less, it can be determined that the HMD 100 is located in front of the sound source 400. The angle difference θ3 corresponds to the “second threshold” of the present invention. Further, the content image data corresponds to the second image of the present invention.

上述した説明では、表示領域VRにコンテンツ画像データを表示させる前に、環境画像データを表示させる場合について説明したが、使用者Uが展示品の正面に移動するに従って、表示領域VRに表示されるコンテンツ画像の割合を変更してもよい。
例えば、上述した第1範囲では、表示領域VRにコンテンツ画像を30%で表示させ、第2範囲では、表示領域VRにコンテンツ画像を50%で表示させ、第3範囲では、表示領域VRにコンテンツ画像を100%で表示させてもよい。
In the above description, the case where the environmental image data is displayed before displaying the content image data in the display area VR has been described, but as the user U moves to the front of the exhibit, the content image data is displayed in the display area VR. The proportion of content images may be changed.
For example, in the first range described above, the content image is displayed in the display area VR at 30%, in the second range, the content image is displayed in the display area VR at 50%, and in the third range, the content is displayed in the display area VR. The image may be displayed at 100%.

また、第2制御部350は、入力された第1音声信号と第2音声信号とに基づいて、画像表示部20に表示させる画像を決定してもよい。第2制御部350は、音声処理部371により第1音声信号と第2音声信号との入力時間差を、画像表示部20と音源400との角度の差θに変換する。第2制御部350は、音声処理部371により変換した角度の差θに基づいて画像表示部20に表示させる画像を決定する。角度の差θが第1範囲の場合、画像表示部20に表示させる画像として矢印画像450を決定し、角度の差θが第2範囲の場合、画像表示部20に表示させる画像として環境画像データに基づく画像を決定し、角度の差θが第3範囲の場合、画像表示部20に表示させる画像としてコンテンツ画像データに基づく画像を決定する。 Further, the second control unit 350 may determine an image to be displayed on the image display unit 20 based on the input first audio signal and the second audio signal. The second control unit 350 converts the input time difference between the first voice signal and the second voice signal into the angle difference θ between the image display unit 20 and the sound source 400 by the voice processing unit 371. The second control unit 350 determines an image to be displayed on the image display unit 20 based on the angle difference θ converted by the voice processing unit 371. When the angle difference θ is in the first range, the arrow image 450 is determined as an image to be displayed on the image display unit 20, and when the angle difference θ is in the second range, the environment image data is displayed as an image to be displayed on the image display unit 20. When the angle difference θ is in the third range, the image based on the content image data is determined as the image to be displayed on the image display unit 20.

また、第2制御部350は、第1音声信号と第2音声信号との入力時間差に基づいて、画像表示部20に表示させる画像の表示位置と、画像の大きさとの少なくとも一方を制御してもよい。第2制御部350は、音声処理部371により第1音声信号と第2音声信号との入力時間差を、画像表示部20と音源400との角度の差θに変換する。第2制御部350は、音声処理部371により変換した角度の差θに基づいて画像表示部20に表示させる画像の表示位置と、画像の大きさとを変更する。
例えば、第2制御部350は、角度の差θが第1範囲の場合、表示領域VRの端部である第1位置に、矢印画像450を第1サイズで表示させる。また、第2制御部350は、角度の差θが第2範囲の場合、表示領域VRの第2位置に、環境画像データに基づく画像を第2サイズで表示させる。第2位置は、第1位置よりも表示領域VRの中心に位置する。また、第1サイズで表示される矢印画像450のサイズは、第2サイズで表示される環境画像データに基づく画像のサイズよりも大きい。また、第2制御部350は、角度の差θが第3範囲の場合、表示領域VRの第3位置に、環境画像データに基づく画像を第3サイズで表示させる。第3位置は、第2位置よりも表示領域VRの中心に位置する。また、第2サイズで表示される環境画像データに基づく画像のサイズは、第3サイズで表示されるコンテンツ画像データに基づく画像のサイズよりも大きい。また、これとは逆に、第1位置、第2位置、第3位置の順に表示領域VRに表示させる画像のサイズを大きくしてもよい。
Further, the second control unit 350 controls at least one of the display position of the image to be displayed on the image display unit 20 and the size of the image based on the input time difference between the first audio signal and the second audio signal. May be good. The second control unit 350 converts the input time difference between the first voice signal and the second voice signal into the angle difference θ between the image display unit 20 and the sound source 400 by the voice processing unit 371. The second control unit 350 changes the display position of the image to be displayed on the image display unit 20 and the size of the image based on the difference θ of the angles converted by the voice processing unit 371.
For example, when the angle difference θ is in the first range, the second control unit 350 displays the arrow image 450 in the first size at the first position which is the end of the display area VR. Further, when the angle difference θ is in the second range, the second control unit 350 causes the image based on the environmental image data to be displayed in the second size at the second position of the display area VR. The second position is located at the center of the display area VR rather than the first position. Further, the size of the arrow image 450 displayed in the first size is larger than the size of the image based on the environmental image data displayed in the second size. Further, when the angle difference θ is in the third range, the second control unit 350 causes the image based on the environmental image data to be displayed in the third size at the third position of the display area VR. The third position is located at the center of the display area VR rather than the second position. Further, the size of the image based on the environmental image data displayed in the second size is larger than the size of the image based on the content image data displayed in the third size. On the contrary, the size of the image to be displayed in the display area VR may be increased in the order of the first position, the second position, and the third position.

[第2制御部の動作説明]
図12は、第2制御部350の動作を示すフローチャートである。
図12に示すフローチャートを参照しながら本実施形態の動作を説明する。
まず、第2制御部350は、予め設定された設定範囲内の周波数の音声信号が第1マイク61及び第2マイク63から入力されたか否かを判定する(ステップS1)。第2制御部350は、設定範囲内の周波数の音声信号の入力がない場合(ステップS1/NO)、音声信号が入力されるまで処理の開始を待機する。
[Explanation of operation of the second control unit]
FIG. 12 is a flowchart showing the operation of the second control unit 350.
The operation of this embodiment will be described with reference to the flowchart shown in FIG.
First, the second control unit 350 determines whether or not an audio signal having a frequency within a preset setting range has been input from the first microphone 61 and the second microphone 63 (step S1). When there is no input of an audio signal having a frequency within the set range (step S1 / NO), the second control unit 350 waits for the start of processing until the audio signal is input.

第2制御部350は、設定範囲内の周波数の音声信号が入力された場合(ステップS1/YES)、第1マイク61から入力された第1音声信号と、第2マイク63から入力された第2音声信号との入力時間差を求める。第2制御部350は、第1音声信号と第2音声信号との入力時間を、画像表示部20と音源400との角度の差θに変換する(ステップS2)。 When an audio signal having a frequency within the set range is input (step S1 / YES), the second control unit 350 has the first audio signal input from the first microphone 61 and the second input from the second microphone 63. 2 Obtain the input time difference from the audio signal. The second control unit 350 converts the input time between the first audio signal and the second audio signal into the angle difference θ between the image display unit 20 and the sound source 400 (step S2).

次に、第2制御部350は、変換した角度の差θが第1範囲内であるか否かを判定する(ステップS3)。第2制御部350は、角度の差θが第1範囲内である場合(ステップS3/YES)、音源400の方向を示す矢印画像450や、音源400の方向への移動を促す案内表示455の画像データを接続装置10に出力する。画像表示部20は、接続装置10の制御に従って、表示領域VRに、矢印画像450と、案内表示455とを表示させる(ステップS4)。 Next, the second control unit 350 determines whether or not the difference θ of the converted angles is within the first range (step S3). When the angle difference θ is within the first range (step S3 / YES), the second control unit 350 includes an arrow image 450 indicating the direction of the sound source 400 and a guidance display 455 prompting the movement in the direction of the sound source 400. The image data is output to the connecting device 10. The image display unit 20 causes the display area VR to display the arrow image 450 and the guidance display 455 according to the control of the connecting device 10 (step S4).

また、第2制御部350は、角度の差θが第1範囲内ではない場合(ステップS3/NO)、角度の差θが第2範囲内であるか否かを判定する(ステップS5)。第2制御部350は、角度の差θが第2範囲内である場合(ステップS5/YES)、恐竜の生息環境が表示される環境画像データを接続装置10に出力する。画像表示部20は、接続装置10の制御に従って、表示領域VRに、恐竜の生息環境が表示された画像を表示させる(ステップS6)。 Further, when the angle difference θ is not within the first range (step S3 / NO), the second control unit 350 determines whether or not the angle difference θ is within the second range (step S5). When the angle difference θ is within the second range (step S5 / YES), the second control unit 350 outputs the environment image data in which the dinosaur habitat is displayed to the connecting device 10. The image display unit 20 causes the display area VR to display an image in which the dinosaur habitat is displayed according to the control of the connection device 10 (step S6).

また、第2制御部350は、角度の差θが第2範囲内ではない場合(ステップS5/NO)、角度の差θが第3範囲内であるか否かを判定する(ステップS7)。第2制御部350は、角度の差θが第3範囲内である場合(ステップS7/YES)、恐竜の画像であるコンテンツ画像データを接続装置10に出力する。画像表示部20は、接続装置10の制御に従って、表示領域VRに、コンテンツ画像である恐竜の画像を表示させる(ステップS8)。また、第2制御部350は、角度の差θが第3範囲内ではない場合(ステップS7/NO)、ステップS1に戻り、第1音声信号及び第2音声信号が入力されたか否かを判定する。 Further, when the angle difference θ is not within the second range (step S5 / NO), the second control unit 350 determines whether or not the angle difference θ is within the third range (step S7). When the angle difference θ is within the third range (step S7 / YES), the second control unit 350 outputs the content image data, which is an image of the dinosaur, to the connecting device 10. The image display unit 20 causes the display area VR to display an image of a dinosaur, which is a content image, according to the control of the connection device 10 (step S8). Further, when the angle difference θ is not within the third range (step S7 / NO), the second control unit 350 returns to step S1 and determines whether or not the first voice signal and the second voice signal have been input. To do.

以上説明したように本実施形態の表示システム1は、HMD100と、スマートフォン300とを備える。HMD100は、画像表示部20と、音源が発する音声が入力される第1マイク61と、第1マイク61とは異なる位置に配置され、音源400が発する音声が入力される第2マイク63と、を備える。
スマートフォン300は、第1マイク61及び第2マイク63から入力される第1音声信号及び第2音声信号に基づき、画像表示部20に表示させる画像を制御する第2制御部350を備える。
従って、音源が発する音声に基づいて画像表示部20に表示させる画像を変更することができる。
As described above, the display system 1 of the present embodiment includes an HMD 100 and a smartphone 300. The HMD 100 includes an image display unit 20, a first microphone 61 into which the sound emitted by the sound source is input, a second microphone 63 in which the sound emitted by the sound source 400 is input, and a second microphone 63 arranged at a position different from the first microphone 61. To be equipped.
The smartphone 300 includes a second control unit 350 that controls an image to be displayed on the image display unit 20 based on the first audio signal and the second audio signal input from the first microphone 61 and the second microphone 63.
Therefore, the image to be displayed on the image display unit 20 can be changed based on the sound emitted by the sound source.

また、第2制御部350は、第1音声信号が入力されたタイミングと、第2音声信号が入力されたタイミングとの時間差に基づいて、画像表示部20に表示させる画像と、画像の表示タイミングとを制御する。
例えば、第1音声信号及び第2音声信号の入力タイミングが同一の場合に、画像表示部20に画像を表示させる。これにより、音源が、第1マイク61及び第2マイク63から等距離の位置にある場合に、画像表示部20に画像を表示させることできる。従って、好適なタイミングで画像を表示させることができる。また、第1音声信号及び第2音声信号の入力タイミングが異なる場合に、画像表示部20に画像を表示させる。これにより、音源が、第1マイク61及び第2マイク63から異なる位置にある場合に、画像表示部20に画像を表示させることできる。例えば、音源の方向を示す矢印画像450を表示させることで、音源の方向を使用者Uに通知することができる。
Further, the second control unit 350 has an image to be displayed on the image display unit 20 and an image display timing based on the time difference between the timing at which the first audio signal is input and the timing at which the second audio signal is input. And control.
For example, when the input timings of the first audio signal and the second audio signal are the same, the image display unit 20 displays an image. As a result, when the sound source is equidistant from the first microphone 61 and the second microphone 63, the image display unit 20 can display an image. Therefore, the image can be displayed at an appropriate timing. Further, when the input timings of the first audio signal and the second audio signal are different, the image display unit 20 displays an image. As a result, when the sound source is located at a different position from the first microphone 61 and the second microphone 63, the image display unit 20 can display the image. For example, by displaying the arrow image 450 indicating the direction of the sound source, the direction of the sound source can be notified to the user U.

また、第2制御部350は、第1マイク61が出力する第1音声信号と、第2マイク63が出力する第2音声信号との時間差が第1しきい値以下である場合、画像表示部20に第1画像を表示させる。また。第2制御部350は、第1音声信と第2音声信号との時間差が第1しきい値よりも小さい第2しきい値以下である場合、画像表示部20に第2画像を表示させる。従って、音源と、第1マイク61及び第2マイク63との距離の差に基づいて、画像表示部20に表示させる画像を変更することができる。 Further, the second control unit 350 is an image display unit when the time difference between the first audio signal output by the first microphone 61 and the second audio signal output by the second microphone 63 is equal to or less than the first threshold value. 20 is made to display the first image. Also. The second control unit 350 causes the image display unit 20 to display the second image when the time difference between the first voice communication and the second voice signal is equal to or less than the second threshold value smaller than the first threshold value. Therefore, the image to be displayed on the image display unit 20 can be changed based on the difference in the distance between the sound source and the first microphone 61 and the second microphone 63.

また、第2制御部350は、第1音声信号の入力タイミングと、第2音声信号の入力タイミングとの時間差に基づいて、画像表示部20に表示させる画像の表示位置及び大きさの少なくも一方を制御する。
従って、音源と、第1マイク61及び第2マイク63との距離の差に基づいて、画像表示部20に表示させる画像の表示位置や大きさを変更することができる。
Further, the second control unit 350 has at least one of the display positions and sizes of the images to be displayed on the image display unit 20 based on the time difference between the input timing of the first audio signal and the input timing of the second audio signal. To control.
Therefore, the display position and size of the image to be displayed on the image display unit 20 can be changed based on the difference in the distance between the sound source and the first microphone 61 and the second microphone 63.

第2制御部350は、第1マイク61及び第2マイク63から出力される音声信号の位相差に基づき、画像表示部20に画像を表示させるタイミングを決定する。
従って、音源と第1マイク61、及び音源と第2マイク63の距離の差に基づいて画像表示部20に画像を表示させるタイミングを決定することができる。すなわち、音源と、画像表示部20との位置関係に基づいて画像表示部20に画像を表示させるタイミングを決定することができる。
The second control unit 350 determines the timing for displaying an image on the image display unit 20 based on the phase difference of the audio signals output from the first microphone 61 and the second microphone 63.
Therefore, the timing for displaying the image on the image display unit 20 can be determined based on the difference in the distance between the sound source and the first microphone 61 and between the sound source and the second microphone 63. That is, the timing for displaying the image on the image display unit 20 can be determined based on the positional relationship between the sound source and the image display unit 20.

本実施形態では、スマートフォン300の第2制御部350が、音声処理部371と、第2表示部373とを備えるが、本発明の実施形態はこれに限定されない。例えば、HMD100の接続装置10の第1制御部120が音声処理部371と、第2表示部373とを備えてもよい。また、スマートフォン300の第2制御部350が、音声処理部371と、第2表示部373との一部を備え、HMD100の接続装置10の第1制御部120が、音声処理部371と、第2表示部373との残部を備えてもよい。 In the present embodiment, the second control unit 350 of the smartphone 300 includes a voice processing unit 371 and a second display unit 373, but the embodiment of the present invention is not limited thereto. For example, the first control unit 120 of the connection device 10 of the HMD 100 may include a voice processing unit 371 and a second display unit 373. Further, the second control unit 350 of the smartphone 300 includes a part of the voice processing unit 371 and the second display unit 373, and the first control unit 120 of the connection device 10 of the HMD 100 includes the voice processing unit 371 and the second display unit 373. 2 The remaining portion with the display unit 373 may be provided.

[変形例]
上述した実施形態の変形例として、音源400が出力する音声に、コンテンツ画像を特定する識別IDを含ませてもよい。博物館や美術館には、複数の展示品が展示される。このため、音源400が出力する音声に、コンテンツ画像の識別IDの情報を含ませることで、使用者が実際に見ている展示品とは関係のないコンテンツ画像が、画像表示部20により表示される確率を低減することができる。
[Modification example]
As a modification of the above-described embodiment, the sound output by the sound source 400 may include an identification ID that identifies the content image. Multiple exhibits are exhibited in museums and galleries. Therefore, by including the information of the identification ID of the content image in the sound output by the sound source 400, the content image unrelated to the exhibit actually viewed by the user is displayed by the image display unit 20. It is possible to reduce the probability of

音源400が出力する音声に、識別IDの情報を重畳する方法として音声透かしを用いることができる。
音声処理部371は、入力された音声信号を解析して透かし情報が重畳されているか否かを判定する。音声処理部371は、音声信号に透かし情報が重畳されている場合、この透かし情報を抽出する。音声処理部371は、抽出した透かし情報が、表示させるコンテンツ画像の識別IDである場合、抽出した識別IDを表示制御部373に出力する。
A voice watermark can be used as a method of superimposing the identification ID information on the voice output by the sound source 400.
The voice processing unit 371 analyzes the input voice signal and determines whether or not the watermark information is superimposed. When the watermark information is superimposed on the voice signal, the voice processing unit 371 extracts the watermark information. When the extracted watermark information is the identification ID of the content image to be displayed, the voice processing unit 371 outputs the extracted identification ID to the display control unit 373.

表示制御部373は、HMD100が音源400の正面に位置しているとの通知が音声処理部371から入力されると、音声処理部371から通知された識別IDに対応したコンテンツ画像データを接続装置10に出力する。画像表示部20は、接続装置10の制御に従って、表示領域VRに、コンテンツ画像データに基づくコンテンツ画像を表示させる。 When a notification that the HMD 100 is located in front of the sound source 400 is input from the audio processing unit 371, the display control unit 373 connects the content image data corresponding to the identification ID notified from the audio processing unit 371. Output to 10. The image display unit 20 causes the display area VR to display the content image based on the content image data according to the control of the connecting device 10.

この変形例では、スマートフォン300は、画像データと、画像データの識別情報とを対応づけて記憶した第2記憶部360を備える。
スマートフォン300は、音源から出力される音声信号に重畳される透かし情報を抽出し、抽出した透かし情報から識別情報を取得し、取得した識別情報に対応づけられた画像データを、決定した画像として画像表示部20に表示させる。
従って、画像表示部20に表示させる画像を透かし情報により指定することができる。
In this modification, the smartphone 300 includes a second storage unit 360 that stores the image data and the identification information of the image data in association with each other.
The smartphone 300 extracts watermark information superimposed on an audio signal output from a sound source, acquires identification information from the extracted watermark information, and uses image data associated with the acquired identification information as a determined image. Display on the display unit 20.
Therefore, the image to be displayed on the image display unit 20 can be specified by the watermark information.

[第2実施形態]
添付図面を参照しながら本発明の第2実施形態について説明する。
図13は、HMD100の第2実施形態の構成例を示す図である。
第2実施形態では、HMD100は、画像表示部20の右表示部22に、ビーコン信号を受信するビーコン受信部226を備える。
また、工場等の施設内には、ビーコン信号を周期的に出力する送信機が複数設けられている。送信機が出力するビーコン信号は、例えば、BLE(Bluetooth Low Energy)、ZigBee等の無線PAN(Personal Area Network)の通信規格に対応した信号が用いられる。ZigBeeは、登録商標である。
[Second Embodiment]
A second embodiment of the present invention will be described with reference to the accompanying drawings.
FIG. 13 is a diagram showing a configuration example of the second embodiment of the HMD 100.
In the second embodiment, the HMD 100 includes a beacon receiving unit 226 for receiving a beacon signal on the right display unit 22 of the image display unit 20.
Further, in a facility such as a factory, a plurality of transmitters that periodically output a beacon signal are provided. As the beacon signal output by the transmitter, for example, a signal corresponding to a communication standard of a wireless PAN (Personal Area Network) such as BLE (Bluetooth Low Energy) or ZigBee is used. ZigBee is a registered trademark.

送信機が送信するビーコン信号に含まれる情報は任意であるが、送信機を識別し、あるいは特定可能な情報を含むことが好ましい。ビーコン信号に含まれる情報には、複数設置された送信機の各々を識別するビーコンID(IDentification)が挙げられる。 The information contained in the beacon signal transmitted by the transmitter is arbitrary, but preferably includes information that can identify or identify the transmitter. The information included in the beacon signal includes a beacon ID (IDentification) that identifies each of a plurality of installed transmitters.

図14は、スマートフォン300の構成例を示す図である。また、図15は、部品情報テーブル365の一例を示す図である。
スマートフォン300の第2記憶部360は、制御プログラム361に加えて、部品情報テーブル365を記憶する。部品情報テーブル365には、動作時に駆動音が発生する部品に関する情報が登録されている。具体的には、部品情報テーブル365には、部品が正常に動作している場合に発生する音の周波数範囲と、部品の設置場所を特定するビーコンIDとが、部品を識別する識別IDに対応づけて登録されている。周波数範囲は、本発明の「範囲情報」に対応する。
FIG. 14 is a diagram showing a configuration example of the smartphone 300. Further, FIG. 15 is a diagram showing an example of the parts information table 365.
The second storage unit 360 of the smartphone 300 stores the part information table 365 in addition to the control program 361. In the component information table 365, information regarding components that generate a driving sound during operation is registered. Specifically, in the component information table 365, the frequency range of the sound generated when the component is operating normally and the beacon ID that identifies the installation location of the component correspond to the identification ID that identifies the component. It is registered with. The frequency range corresponds to the "range information" of the present invention.

第2制御部350は、音声処理部371、第2表示制御部373に加え、位置特定部375を備える。
位置特定部375は、画像表示部20のビーコン受信部226が受信したビーコン信号に基づいて測位処理を行い、HMD100の館内での位置を特定する。位置特定部375が行う測位処理には、最も近い送信機のビーコンIDに紐づけられた位置を現在位置とする方法や、位置が自明な送信機からの距離を電波強度から推定し、三点測量の原理に基づいてHMD100の位置を推定する方法が挙げられる。
The second control unit 350 includes a position specifying unit 375 in addition to the voice processing unit 371 and the second display control unit 373.
The position specifying unit 375 performs positioning processing based on the beacon signal received by the beacon receiving unit 226 of the image display unit 20, and identifies the position of the HMD 100 in the hall. For the positioning process performed by the position identification unit 375, the current position is set to the position associated with the beacon ID of the nearest transmitter, and the distance from the transmitter whose position is obvious is estimated from the radio field strength, and three points are used. A method of estimating the position of the HMD 100 based on the principle of surveying can be mentioned.

音声処理部371は、画像表示部20のビーコン受信部226が受信したビーコン信号に対応づけられた音の周波数範囲の情報を取得する。音声処理部371は、第1マイク61及び第2マイク63により入力された第1及び第2音声信号の周波数が、取得した周波数範囲の情報が示す範囲から外れているか否かを判定する。音声処理部371は、第1及び第2音声信号の周波数が、周波数範囲の情報が示す範囲から外れている場合、該当する識別IDを表示制御部373に出力する。 The voice processing unit 371 acquires information on the frequency range of the sound associated with the beacon signal received by the beacon receiving unit 226 of the image display unit 20. The voice processing unit 371 determines whether or not the frequencies of the first and second voice signals input by the first microphone 61 and the second microphone 63 deviate from the range indicated by the acquired frequency range information. When the frequencies of the first and second voice signals are out of the range indicated by the frequency range information, the voice processing unit 371 outputs the corresponding identification ID to the display control unit 373.

図16は、表示領域VRに表示される表示画像の一例を示す図である。
表示制御部373は、音声処理部371から入力された識別IDに対応した部品名称と、この部品名称に対応した部品に故障が生じていることを示す情報を接続装置10に出力する。接続装置10は、画像表示部20は、接続装置10の制御に従って、表示領域VRに、部品名称と、この部品に故障が発生している可能性があることを案内する表示とを表示させる。
FIG. 16 is a diagram showing an example of a display image displayed in the display area VR.
The display control unit 373 outputs the component name corresponding to the identification ID input from the voice processing unit 371 and the information indicating that the component corresponding to the component name has a failure to the connecting device 10. In the connection device 10, the image display unit 20 causes the display area VR to display a component name and a display indicating that a failure may have occurred in this component under the control of the connection device 10.

以上説明したように第2実施形態では、スマートフォン300は、部品が正常動作している場合に、部品から出力される音声の周波数範囲を示す範囲情報を記憶した第2記憶部360を備える。スマートフォン300は、第1マイク61及び第2マイク63から入力される音声信号の周波数が、範囲情報が示す周波数範囲内にない場合に、特定した音源の方向に配置された部品に故障が生じていることを示す表示を表示させる。
従って、部品の故障診断を行うことができる。
As described above, in the second embodiment, the smartphone 300 includes a second storage unit 360 that stores range information indicating the frequency range of the sound output from the component when the component is operating normally. In the smartphone 300, when the frequencies of the audio signals input from the first microphone 61 and the second microphone 63 are not within the frequency range indicated by the range information, a failure occurs in a component arranged in the direction of the specified sound source. Display a display indicating that the user is present.
Therefore, it is possible to perform a failure diagnosis of parts.

本発明は上記実施形態の構成に限られるものではなく、その要旨を逸脱しない範囲において種々の態様において実施することが可能である。
例えば、上述した実施形態は、HDM100と、スマートフォン300とを備える表示システム1を例にして説明したが、接続装置10が備える第1制御部120が、スマートフォン300の第2制御部350の機能の一部又は全部を実行してもよい。すなわち、スマートフォン300ではなく、接続装置10が画像表示部20の表示を制御してよい。
The present invention is not limited to the configuration of the above embodiment, and can be implemented in various embodiments without departing from the gist thereof.
For example, the above-described embodiment has been described by taking the display system 1 including the HDM 100 and the smartphone 300 as an example, but the first control unit 120 included in the connection device 10 functions as the second control unit 350 of the smartphone 300. Part or all may be performed. That is, the connection device 10 may control the display of the image display unit 20 instead of the smartphone 300.

また、上記実施形態では、「制御装置」がスマートフォン300であるが、これに限定されない。「制御装置」は、使用者Uが携帯可能に構成され、表示部と、操作部と、制御部とを備えればよい。例えば、「制御装置」がPDA端末でもよいし、タブレット型パーソナルコンピューターでもよい。 Further, in the above embodiment, the "control device" is the smartphone 300, but the present invention is not limited to this. The "control device" may be configured to be portable to the user U and may include a display unit, an operation unit, and a control unit. For example, the "control device" may be a PDA terminal or a tablet-type personal computer.

また、上記実施形態では、接続装置10が画像表示部20と有線接続される構成を例示したが、これに限定されず、接続装置10に対して画像表示部20が無線接続される構成であってもよい。
また、上記実施形態では、接続装置10がスマートフォン300と有線接続される構成を例示したが、これに限定されず、接続装置10に対してスマートフォン300が無線接続される構成であってもよい。
Further, in the above embodiment, the configuration in which the connecting device 10 is connected to the image display unit 20 by wire is illustrated, but the present invention is not limited to this, and the image display unit 20 is wirelessly connected to the connecting device 10. You may.
Further, in the above embodiment, the configuration in which the connecting device 10 is connected to the smartphone 300 by wire is illustrated, but the present invention is not limited to this, and the smartphone 300 may be wirelessly connected to the connecting device 10.

また、接続装置10が備える一部の機能を画像表示部20に設けてもよく、接続装置10を複数の装置により実現してもよい。例えば、接続装置10に代えて、使用者Uの身体、着衣、或いは、使用者Uが身につける装身具に取り付け可能なウェアラブルデバイスを用いてもよい。この場合のウェアラブルデバイスは、例えば、時計型の装置、指輪型の装置、レーザーポインター、マウス、エアーマウス、ゲームコントローラー、ペン型のデバイス等であってもよい。 Further, some functions included in the connecting device 10 may be provided in the image display unit 20, and the connecting device 10 may be realized by a plurality of devices. For example, instead of the connecting device 10, a wearable device that can be attached to the body, clothes, or accessories worn by the user U may be used. The wearable device in this case may be, for example, a watch-type device, a ring-type device, a laser pointer, a mouse, an air mouse, a game controller, a pen-type device, or the like.

また、上記実施形態では、画像表示部20と接続装置10とが分離され、接続ケーブル40を介して接続された構成を例に挙げて説明した。これに限定されず、接続装置10と画像表示部20とが一体に構成され、使用者Uの頭部に装着される構成とすることも可能である。 Further, in the above embodiment, the configuration in which the image display unit 20 and the connecting device 10 are separated and connected via the connecting cable 40 will be described as an example. Not limited to this, the connecting device 10 and the image display unit 20 may be integrally configured and mounted on the head of the user U.

また、上記実施形態において、使用者Uが表示部を透過して外景を視認する構成は、右導光板26及び左導光板28が外光を透過する構成に限定されない。例えば外景を視認できない状態で画像を表示する画像表示装置にも適用可能である。具体的には、第1カメラ50の撮像画像、この撮像画像に基づき生成される画像やCG、予め記憶された画像データや外部から入力される画像データに基づく画像等を表示する画像表示装置に、適用できる。例えば、第1カメラ50により撮像する外景の画像と、表示画像とを合成した合成画像を画像表示部20により表示する構成とすれば、画像表示部20が外光を透過しなくても、使用者Uに外景と画像とを視認可能に表示できる。このような、いわゆるビデオシースルー型の画像表示装置に適用することも勿論可能である。 Further, in the above embodiment, the configuration in which the user U transmits the display unit to visually recognize the outside view is not limited to the configuration in which the right light guide plate 26 and the left light guide plate 28 transmit external light. For example, it can be applied to an image display device that displays an image in a state where the outside view cannot be visually recognized. Specifically, it is used as an image display device that displays an image captured by the first camera 50, an image or CG generated based on the captured image, an image data stored in advance, an image based on image data input from the outside, or the like. , Applicable. For example, if the image display unit 20 displays a composite image obtained by combining the external view image captured by the first camera 50 and the display image, the image display unit 20 can be used even if it does not transmit external light. The outside view and the image can be visually displayed on the person U. Of course, it can also be applied to such a so-called video see-through type image display device.

また、例えば、画像表示部20に代えて、例えば帽子のように装着する画像表示部等の他の方式の画像表示部を採用してもよく、使用者Uの左眼LEに対応して画像を表示する表示部と、使用者Uの右眼REに対応して画像を表示する表示部とを備えていればよい。また、画像表示装置は、例えば、自動車や飛行機等の車両に搭載されるHMDとして構成されてもよい。また、例えば、ヘルメット等の身体防護具に内蔵されたHMDとして構成されてもよい。この場合には、使用者Uの身体に対する位置を位置決めする部分、及び、当該部分に対し位置決めされる部分を装着部とすることができる。 Further, for example, instead of the image display unit 20, an image display unit of another type such as an image display unit worn like a hat may be adopted, and an image corresponding to the left eye LE of the user U may be adopted. It suffices to have a display unit for displaying the image and a display unit for displaying an image corresponding to the right eye RE of the user U. Further, the image display device may be configured as an HMD mounted on a vehicle such as an automobile or an airplane, for example. Further, for example, it may be configured as an HMD built in a body protective device such as a helmet. In this case, a portion that positions the position of the user U with respect to the body and a portion that is positioned with respect to the portion can be used as the mounting portion.

また、画像光を使用者Uの眼に導く光学系として、右導光板26及び左導光板28の一部に、ハーフミラー261、281により虚像が形成される構成を例示した。これに限定されず、右導光板26及び左導光板28の全面又は大部分を占める面積を有する表示領域に、画像を表示する構成としてもよい。この場合には、画像の表示位置を変化させる動作において、画像を縮小する処理を含めてもよい。
更に、光学素子は、ハーフミラー261、281を有する右導光板26、左導光板28に限定されず、画像光を使用者Uの眼に入射させる光学部品であればよく、具体的には、回折格子、プリズム、ホログラフィー表示部を用いてもよい。
Further, as an optical system for guiding the image light to the eyes of the user U, a configuration in which a virtual image is formed by the half mirrors 261 and 281 on a part of the right light guide plate 26 and the left light guide plate 28 is illustrated. The present invention is not limited to this, and the image may be displayed in a display area having an area that occupies the entire surface or most of the right light guide plate 26 and the left light guide plate 28. In this case, the operation of changing the display position of the image may include a process of reducing the image.
Further, the optical element is not limited to the right light guide plate 26 and the left light guide plate 28 having the half mirrors 261 and 281, and may be any optical component that allows the image light to enter the eye of the user U. A diffraction grating, a prism, or a holographic display unit may be used.

また、図4、図5等に示した各機能ブロックのうち少なくとも一部は、ハードウェアで実現してもよいし、ハードウェアとソフトウェアの協働により実現される構成としてもよく、図に示した通りに独立したハードウェア資源を配置する構成に限定されない。
また、第2制御部350が実行する第2制御プログラムは、不揮発性記憶部又は第2制御部350内の他の記憶部に記憶されてもよい。また、外部の装置に記憶された第2制御プログラムを、通信部等を介して取得して実行する構成としてもよい。
また、接続装置10に形成された構成が重複して画像表示部20に形成されていてもよい。例えば、接続装置10の第1プロセッサーと同様のプロセッサーが画像表示部20に配置されてもよいし、接続装置10が備える第1プロセッサーと画像表示部20のプロセッサーとが別々に分けられた機能を実行する構成としてもよい。
Further, at least a part of each functional block shown in FIGS. 4 and 5 may be realized by hardware, or may be a configuration realized by cooperation between hardware and software, as shown in the figure. It is not limited to the configuration in which independent hardware resources are arranged as described above.
Further, the second control program executed by the second control unit 350 may be stored in the non-volatile storage unit or another storage unit in the second control unit 350. Further, the second control program stored in the external device may be acquired and executed via the communication unit or the like.
Further, the configurations formed in the connecting device 10 may be duplicated and formed in the image display unit 20. For example, a processor similar to the first processor of the connecting device 10 may be arranged in the image display unit 20, or a function in which the first processor included in the connecting device 10 and the processor of the image display unit 20 are separately separated may be provided. It may be a configuration to be executed.

また、図12に示すフローチャートの処理単位は、スマートフォン300の第2制御部350の処理を理解容易にするために、主な処理内容に応じて分割したものである。図12に示すフローチャートに示す処理単位の分割の仕方や名称によって実施形態が制限されることはない。また、第2制御部350の処理は、処理内容に応じて、さらに多くの処理単位に分割することもできるし、1つの処理単位がさらに多くの処理を含むように分割することもできる。また、上記のフローチャートの処理順序も、図示した例に限られるものではない。 Further, the processing unit of the flowchart shown in FIG. 12 is divided according to the main processing contents in order to make the processing of the second control unit 350 of the smartphone 300 easy to understand. The embodiment is not limited by the method of dividing the processing unit and the name shown in the flowchart shown in FIG. Further, the processing of the second control unit 350 can be divided into more processing units according to the processing content, or can be divided so that one processing unit includes more processing. Further, the processing order of the above flowchart is not limited to the illustrated example.

また、本発明の画像表示方法は、スマートフォン300が備える第2プロセッサー370に、スマートフォン300の制御方法に対応した制御プログラム361を実行させることで実現できる。また、この制御プログラム361は、コンピューターで読み取り可能に記録した記録媒体に記録しておくことも可能である。記録媒体としては、磁気的、光学的記録媒体又は半導体メモリーデバイスを用いることができる。具体的には、フレキシブルディスク、CD−ROM(Compact Disk Read Only Memory)、DVD(Digital Versatile Disc)、Blu−ray(登録商標)Disc、光磁気ディスク、フラッシュメモリー、カード型記録媒体等の可搬型、或いは固定式の記録媒体が挙げられる。また、スマートフォン300の制御方法に対応した制御プログラム361をサーバー装置等に記憶させておき、サーバー装置からスマートフォン300に、制御プログラム361をダウンロードすることでスマートフォン300の制御方法を実現することもできる。 Further, the image display method of the present invention can be realized by causing the second processor 370 included in the smartphone 300 to execute the control program 361 corresponding to the control method of the smartphone 300. Further, the control program 361 can also be recorded on a recording medium readable by a computer. As the recording medium, a magnetic or optical recording medium or a semiconductor memory device can be used. Specifically, it is a portable type such as a flexible disc, a CD-ROM (Compact Disk Read Only Memory), a DVD (Digital Versailles Disc), a Blu-ray (registered trademark) Disc, a magneto-optical disc, a flash memory, and a card-type recording medium. Alternatively, a fixed recording medium can be mentioned. Further, the control method of the smartphone 300 can be realized by storing the control program 361 corresponding to the control method of the smartphone 300 in the server device or the like and downloading the control program 361 from the server device to the smartphone 300.

1…表示システム、10…接続装置、11…コネクター、11A…コネクター、11D…コネクター、13…輝度調整キー、14…輝度調整キー、15…音量調整キー、16…音量調整キー、20…画像表示部、21…右保持部、22…右表示部、23…左保持部、24…左表示部、26…右導光板、27…前部フレーム、28…左導光板、30…ヘッドセット、32…右イヤホン、34…左イヤホン、36…オーディオコネクター、40…接続ケーブル、46…USBケーブル、50…第1カメラ、61…第1マイク、63…第2マイク、64…距離センサー、65…照度センサー、66…赤外線センサー、67…LEDインジケーター、100…HMD、110…I/F部、120…第1制御部、122…センサー制御部、124…第1表示制御部、126…電源制御部、130…不揮発性記憶部、140…操作部、145…接続部、147…音声処理部、201…画像信号、210…右表示部基板、211…右I/F部、213…受信部、215…EEPROM、217…温度センサー、221…OLEDユニット、223…OLEDパネル、225…OLED駆動回路、226…ビーコン受信部、229…電源部、230…左表示部基板、231…左I/F部、233…受信部、235…6軸センサー、237…地磁気センサー、239…温度センサー、241…OLEDユニット、243…OLEDパネル、245…OLED駆動回路、249…電源部、251…右光学系、252…左光学系、261…ハーフミラー、281…ハーフミラー、300…スマートフォン、311…表示パネル、312…タッチセンサー、321…第2カメラ、331…6軸センサー、332…地磁気センサー、332…タッチセンサー、333…地磁気センサー、340…I/F部、345…コネクター、350…第2制御部、360…第2記憶部、361…御プログラム、363…コンテンツテーブル、365…部品情報テーブル、370…第2プロセッサー、371…音声処理部、373…第2表示制御部、375…位置特定部、400…音源、450…矢印画像、455…案内表示、500…展示品。 1 ... Display system, 10 ... Connection device, 11 ... Connector, 11A ... Connector, 11D ... Connector, 13 ... Brightness adjustment key, 14 ... Brightness adjustment key, 15 ... Volume adjustment key, 16 ... Volume adjustment key, 20 ... Image display Unit, 21 ... right holding part, 22 ... right display part, 23 ... left holding part, 24 ... left display part, 26 ... right light guide plate, 27 ... front frame, 28 ... left light guide plate, 30 ... headset, 32 ... right earphone, 34 ... left earphone, 36 ... audio connector, 40 ... connection cable, 46 ... USB cable, 50 ... first camera, 61 ... first microphone, 63 ... second microphone, 64 ... distance sensor, 65 ... illuminance Sensor, 66 ... Infrared sensor, 67 ... LED indicator, 100 ... HMD, 110 ... I / F unit, 120 ... 1st control unit, 122 ... Sensor control unit, 124 ... 1st display control unit, 126 ... Power supply control unit, 130 ... Non-volatile storage unit, 140 ... Operation unit, 145 ... Connection unit, 147 ... Audio processing unit, 201 ... Image signal, 210 ... Right display unit board, 211 ... Right I / F unit, 213 ... Receiver unit, 215 ... EEPROM, 217 ... Temperature sensor, 221 ... OLED unit, 223 ... OLED panel, 225 ... OLED drive circuit, 226 ... Beacon receiver, 229 ... Power supply, 230 ... Left display board, 231 ... Left I / F, 233 ... Receiver, 235 ... 6-axis sensor, 237 ... Geomagnetic sensor, 239 ... Temperature sensor, 241 ... OLED unit, 243 ... OLED panel, 245 ... OLED drive circuit, 249 ... Power supply unit, 251 ... Right optical system, 252 ... Left Optical system, 261 ... half mirror, 281 ... half mirror, 300 ... smartphone, 311 ... display panel, 312 ... touch sensor, 321 ... second camera, 331 ... 6-axis sensor, 332 ... geomagnetic sensor, 332 ... touch sensor, 333 ... Geomagnetic sensor, 340 ... I / F unit, 345 ... Connector, 350 ... Second control unit, 360 ... Second storage unit, 361 ... Program, 363 ... Content table, 365 ... Parts information table, 370 ... Second processor , 371 ... Voice processing unit, 373 ... Second display control unit, 375 ... Position identification unit, 400 ... Sound source, 450 ... Arrow image, 455 ... Guidance display, 500 ... Exhibit.

Claims (10)

画像表示部と、
音源から発せられた音声を入力して第1音声信号を出力する第1音声入力部と、
前記第1音声入力部とは異なる位置に配置され、前記音声を入力して第2音声信号を出力する第2音声入力部と、を備える画像表示装置と、
前記第1音声信号と、前記第2音声信号とに基づいて、前記画像表示部に表示させる画像を制御する制御装置と、
を備える表示システム。
Image display and
The first audio input unit that inputs the audio emitted from the sound source and outputs the first audio signal,
An image display device including a second audio input unit that is arranged at a position different from the first audio input unit and that inputs the audio and outputs a second audio signal.
A control device that controls an image to be displayed on the image display unit based on the first audio signal and the second audio signal.
Display system with.
前記制御装置は、前記第1音声信号が入力されたタイミングと、前記第2音声信号が入力されたタイミングとの時間差に基づいて、前記画像表示部に表示させる画像と、前記画像の表示タイミングとを制御する、請求項1記載の表示システム。 The control device has an image to be displayed on the image display unit and a display timing of the image based on a time difference between the timing at which the first audio signal is input and the timing at which the second audio signal is input. The display system according to claim 1. 前記制御装置は、前記第1音声信号と、前記第2音声信号との時間差が第1しきい値以下である場合、前記画像表示部に第1画像を表示させ、前記第1音声信号と前記第2音声信号との時間差が前記第1しきい値よりも小さい第2しきい値以下である場合、前記画像表示部に第2画像を表示させる、請求項2記載の表示システム。 When the time difference between the first audio signal and the second audio signal is equal to or less than the first threshold value, the control device causes the image display unit to display the first image, and the first audio signal and the second audio signal. The display system according to claim 2, wherein when the time difference from the second audio signal is equal to or less than the second threshold value smaller than the first threshold value, the second image is displayed on the image display unit. 前記制御装置は、前記第1音声信号の入力タイミングと、前記第2音声信号の入力タイミングとの時間差に基づいて、前記画像表示部に表示させる画像の表示位置及び大きさの少なくも一方を制御する、請求項1から3のいずれか1項に記載の表示システム。 The control device controls at least one of the display position and the size of the image to be displayed on the image display unit based on the time difference between the input timing of the first audio signal and the input timing of the second audio signal. The display system according to any one of claims 1 to 3. 前記制御装置は、画像データと、前記画像データの識別情報とを対応づけて記憶した記憶部を備え、
前記制御装置は、前記音源から出力される音声信号に重畳される透かし情報を抽出し、抽出した前記透かし情報から前記識別情報を取得し、取得した前記識別情報に対応づけられた画像データに基づく画像を前記画像表示部に表示させる、請求項1記載の表示システム。
The control device includes a storage unit that stores image data in association with identification information of the image data.
The control device extracts watermark information superimposed on an audio signal output from the sound source, acquires the identification information from the extracted watermark information, and is based on image data associated with the acquired identification information. The display system according to claim 1, wherein an image is displayed on the image display unit.
前記制御装置は、前記第1音声信号と、前記第2音声信号との位相差に基づき、前記画像表示部に画像を表示させるタイミングを決定する、請求項1記載の表示システム。 The display system according to claim 1, wherein the control device determines a timing for displaying an image on the image display unit based on a phase difference between the first audio signal and the second audio signal. 前記制御装置は、部品が正常動作している場合に、前記部品から出力される音声の周波数範囲を示す範囲情報を記憶した記憶部を備え、
前記第1音声入力部及び前記第2音声入力部から入力される前記第1音声信号及び前記第2音声信号の周波数が、前記範囲情報が示す周波数範囲内にない場合に、特定した前記音源の方向に配置された部品に故障が生じていることを示す表示を表示させる、請求項1記載の表示システム。
The control device includes a storage unit that stores range information indicating a frequency range of audio output from the component when the component is operating normally.
When the frequencies of the first audio signal and the second audio signal input from the first audio input unit and the second audio input unit are not within the frequency range indicated by the range information, the specified sound source The display system according to claim 1, wherein a display indicating that a failure has occurred in a component arranged in a direction is displayed.
画像表示部と、
音声を入力して第1音声信号を出力する第1音声入力部と、
前記第1音声入力部とは異なる位置に配置され、音声を入力して第2音声信号を出力する第2音声入力部と、を備える画像表示装置と、
前記第1音声信号と、前記第2音声信号とに基づいて、前記画像表示部に表示させる画像を制御する制御部と、
を備える画像表示装置。
Image display and
The first audio input unit that inputs audio and outputs the first audio signal,
An image display device including a second audio input unit that is arranged at a position different from the first audio input unit and that inputs audio and outputs a second audio signal.
A control unit that controls an image to be displayed on the image display unit based on the first audio signal and the second audio signal.
An image display device comprising.
音源の音声を入力した第1音声入力部が出力する第1音声信号を入力するステップと、
前記第1音声入力部とは異なる位置に配置された第2音声入力部が、前記音声を入力して出力する第2音声信号を入力するステップと、
入力された前記第1音声信号及び前記第2音声信号に基づいて、画像表示部に表示させる画像を制御するステップと、
を有する画像表示方法。
The step of inputting the first audio signal output by the first audio input unit that input the audio of the sound source, and
A step in which a second voice input unit arranged at a position different from the first voice input unit inputs a second voice signal for inputting and outputting the voice,
A step of controlling an image to be displayed on the image display unit based on the input first voice signal and the second voice signal, and
Image display method having.
コンピューターに、
音源の音声を入力した第1音声入力部が出力する第1音声信号を入力する手順と、
前記第1音声入力部とは異なる位置に配置された第2音声入力部が、前記音声を入力して出力する第2音声信号を入力する手順と、
入力された前記第1音声信号及び前記第2音声信号に基づいて、画像表示部に表示させる画像を制御する手順と、
を実行させるプログラム。
On the computer
The procedure for inputting the first audio signal output by the first audio input unit that input the audio of the sound source, and
A procedure in which a second voice input unit arranged at a position different from the first voice input unit inputs a second voice signal for inputting and outputting the voice, and
A procedure for controlling an image to be displayed on the image display unit based on the input first voice signal and the second voice signal, and
A program that executes.
JP2019178896A 2019-09-30 2019-09-30 Display system, image display device, image display method, and program Pending JP2021057747A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019178896A JP2021057747A (en) 2019-09-30 2019-09-30 Display system, image display device, image display method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019178896A JP2021057747A (en) 2019-09-30 2019-09-30 Display system, image display device, image display method, and program

Publications (1)

Publication Number Publication Date
JP2021057747A true JP2021057747A (en) 2021-04-08

Family

ID=75272857

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019178896A Pending JP2021057747A (en) 2019-09-30 2019-09-30 Display system, image display device, image display method, and program

Country Status (1)

Country Link
JP (1) JP2021057747A (en)

Similar Documents

Publication Publication Date Title
CN110275297B (en) Head-mounted display device, display control method, and recording medium
US20190285896A1 (en) Transmission-type head mounted display apparatus, method of controlling transmission-type head mounted display apparatus, and computer program for controlling transmission-type head mounted display apparatus
JP7238456B2 (en) Display system, control program for information processing device, and control method for information processing device
US20200227007A1 (en) Display system, control method of display system, information processing device, and control program of information processing device
US20210200284A1 (en) Image display device, power supply system, and power supply method for image display device
US10930200B2 (en) Connection device, display device, and control method for the display device
US11353704B2 (en) Head mounted device (HMD) coupled to smartphone executing personal authentication of a user
US20220299763A1 (en) Display system and display device
JP2017146726A (en) Movement support device and movement support method
US11322115B2 (en) Display system, display control method, and program
US11269188B2 (en) Display system, control program for information processing device, method for controlling information processing device, and display device
US11156841B2 (en) Display device, control program for display device, control method for display device, and display system
JP2017142294A (en) Display device and method for controlling display device
JP2021057747A (en) Display system, image display device, image display method, and program
JP2017134630A (en) Display device, control method of display device, and program
JP2017135570A (en) Imaging system and control method therefor
US11579454B2 (en) Image display device and reboot method for image display device
US11630793B2 (en) Image display device and port arrangement
US20240027765A1 (en) Control device, control method for head-mounted display device, and program
JP2018056791A (en) Display device, reception device, program, and control method of reception device
JP2020129263A (en) Display system, program for controlling information processing device, and method of controlling information processing device
JP2017140134A (en) Irregular start detection system, and control method of irregular start detection system