JP6765846B2 - Information processing equipment, information processing methods, and programs - Google Patents
Information processing equipment, information processing methods, and programs Download PDFInfo
- Publication number
- JP6765846B2 JP6765846B2 JP2016087328A JP2016087328A JP6765846B2 JP 6765846 B2 JP6765846 B2 JP 6765846B2 JP 2016087328 A JP2016087328 A JP 2016087328A JP 2016087328 A JP2016087328 A JP 2016087328A JP 6765846 B2 JP6765846 B2 JP 6765846B2
- Authority
- JP
- Japan
- Prior art keywords
- display device
- image
- instruction
- virtual reality
- information processing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Landscapes
- Processing Or Creating Images (AREA)
- User Interface Of Digital Computer (AREA)
Description
本発明は、情報処理装置、情報処理方法、およびプログラムに関し、特に、現実空間に重なるように仮想現実空間の画像を表示するために用いて好適なものである。 The present invention relates to an information processing apparatus, an information processing method, and a program, and is particularly suitable for use in displaying an image in a virtual real space so as to overlap the real space.
現実空間と仮想空間との繋ぎ目のない結合を目的とした、複合現実感(MR:Mixed Reality)に関する研究が近年、盛んに行われている。複合現実感の提示を行う画像表示装置は、例えば次のような構成を有する装置である。即ち、ビデオカメラ等の撮像装置が撮像した現実空間の画像上に、撮像装置の位置および姿勢に応じて生成した仮想現実空間の画像(例えばコンピュータグラフィックスにより描画された仮想物体や文字情報等)を重ねて描画した画像を表示する装置である。このような装置には、例えば、HMD(ヘッドマウントディスプレイ、頭部装着型ディスプレイ)を用いることができる。 In recent years, research on mixed reality (MR) has been actively conducted for the purpose of seamless connection between real space and virtual space. An image display device that presents mixed reality is, for example, a device having the following configuration. That is, an image of the virtual real space generated according to the position and orientation of the image pickup device (for example, a virtual object or character information drawn by computer graphics) on the image of the real space captured by an image pickup device such as a video camera. It is a device that displays an image drawn by superimposing. For such a device, for example, an HMD (head-mounted display, head-mounted display) can be used.
また、係る画像表示装置は、光学シースルー方式によっても実現される。即ち、係る画像表示装置は、観察者の頭部に装着された光学シースルー型ディスプレイに、観察者の視点の位置および姿勢に応じて生成した仮想現実空間の画像を表示することによっても実現される。この場合には、現実空間の画像ではなく、実際の現実空間に重なるように仮想現実空間の画像が表示される。 The image display device is also realized by an optical see-through method. That is, the image display device is also realized by displaying an image of the virtual reality space generated according to the position and orientation of the viewpoint of the observer on the optical see-through type display mounted on the observer's head. .. In this case, the image of the virtual real space is displayed so as to overlap the actual real space, not the image of the real space.
このような画像表示装置の応用として、自動車・航空機などの製造業において開発中の製品をコンピュータグラフィックス(CG)画像として、現実空間に重ねて表示することが考えられる。このようにすれば、自由な視点から製品を確認、検討することで、実寸大の模型を作製せずにデザイン等の検討を行うことができる。このようなCGの位置を指定する技術として特許文献1に記載の技術がある。特許文献1に記載の技術では、CGの一点を指示する主ポインタを表示すると共に、当該主ポインタと間隔を空けて補助ポインタを表示する。主ポインタの位置が移動すると、補助ポインタも主ポインタとの間隔を保ったまま移動する。補助ポインタがCG上の仮想物体と重複すると、当該補助ポインタの仮想物体と重複している部分を非表示にし、主ポインタと仮想物体との距離をユーザに把握させる。 As an application of such an image display device, it is conceivable to superimpose a product under development in a manufacturing industry such as an automobile or an aircraft as a computer graphics (CG) image on a real space. In this way, by confirming and examining the product from a free viewpoint, it is possible to examine the design and the like without producing a full-scale model. As a technique for designating the position of such CG, there is a technique described in Patent Document 1. In the technique described in Patent Document 1, a main pointer indicating one point of CG is displayed, and an auxiliary pointer is displayed at a distance from the main pointer. When the position of the primary pointer moves, the auxiliary pointer also moves while maintaining the distance from the primary pointer. When the auxiliary pointer overlaps with the virtual object on the CG, the part of the auxiliary pointer that overlaps with the virtual object is hidden, and the user is made to grasp the distance between the main pointer and the virtual object.
しかしながら、特許文献1に記載の技術では、一方向(奥行方向)でしか仮想現実空間の画像の部位を指定することができない。従って、当該方向以外の方向においては、体験者が誤った部位を指定する虞がある。特許文献1に記載の技術では、このような場合の補正の手立てがない。
本発明は、このような問題点に鑑みてなされたものであり、現実空間に重ねて表示される仮想現実空間の画像に対して選択された部位の調整を容易に且つ確実に行えるようにすることを目的とする。
However, in the technique described in Patent Document 1, the part of the image in the virtual reality space can be specified only in one direction (depth direction). Therefore, in a direction other than the relevant direction, the experiencer may specify an erroneous part. In the technique described in Patent Document 1, there is no means of correction in such a case.
The present invention has been made in view of such a problem, and makes it possible to easily and surely adjust a selected part with respect to an image of a virtual real space displayed overlaid on a real space. The purpose is.
本発明の情報処理装置は、現実空間に重なるように表示装置により表示された仮想現実空間の画像の部位をユーザによる第1の指示に基づいて指定する指定手段と、前記表示装置の位置および姿勢を特定する特定手段と、前記指定手段により指定された前記仮想現実空間の画像の部位を、前記特定手段により特定された前記表示装置の位置および姿勢と、ユーザによる第2の指示の内容とに基づいて補正する補正手段と、を有し、前記第2の指示は、前記第1の指示のやり直しとは異なる指示であって、前記表示装置を使用するユーザが、前記表示装置により表示された前記仮想現実空間の画像を見ながら行うことが可能な指示であることを特徴とする。 The information processing device of the present invention comprises a designation means for designating a part of an image in a virtual reality space displayed by a display device so as to overlap the real space based on a first instruction by a user, and a position and orientation of the display device. The specific means for specifying the above, the image part of the virtual reality space designated by the designated means , the position and orientation of the display device specified by the specific means, and the content of the second instruction by the user. The second instruction is an instruction different from the redoing of the first instruction, and the user who uses the display device is displayed by the display device. It is characterized in that the instruction can be given while looking at the image of the virtual reality space.
本発明によれば、現実空間に重ねて表示される仮想現実空間の画像に対して選択された部位の調整を容易に且つ確実に行うことができる。 According to the present invention, it is possible to easily and surely adjust the selected portion with respect to the image of the virtual real space displayed overlaid on the real space.
以下に、図面を参照しながら、実施形態を説明する。
(第1の実施形態)
まず、第1の実施形態を説明する。
図1は、画像表示システムの構成の一例を示す図である。画像表示システムは、仮想現実表示デバイス101と、HMD(Head Mounted Display)102と、仮想レーザーデバイス103とを有する。
Hereinafter, embodiments will be described with reference to the drawings.
(First Embodiment)
First, the first embodiment will be described.
FIG. 1 is a diagram showing an example of the configuration of an image display system. The image display system includes a virtual reality display device 101, an HMD (Head Mounted Display) 102, and a virtual laser device 103.
仮想現実表示デバイス101とHMD102は通信路104で相互に接続されている。通信路104は、仮想現実表示デバイス101とHMD102とが通信を行うために使われる通信路である。当該通信には、例えば、仮想現実表示デバイス101で生成された画像をHMD102に送信することと、HMD102で取得された現実空間の画像を仮想現実表示デバイス101に送信することとが含まれる。通信路104では、例えば、HDMI(登録商標)やIEEE1394などの画像送受信プロトコルが使用される。この他、通信路104に、USB(Universal Serial Bus)やEthernet(登録商標)などを使用してもよい。仮想現実表示デバイス101とHMD102とを同一のコンピュータに組み込み、通信路104を、ソフトウェアプロセス間の通信路としてもよい。 The virtual reality display device 101 and the HMD 102 are connected to each other by a communication path 104. The communication path 104 is a communication path used for communication between the virtual reality display device 101 and the HMD 102. The communication includes, for example, transmitting an image generated by the virtual reality display device 101 to the HMD 102, and transmitting an image of the real space acquired by the HMD 102 to the virtual reality display device 101. In the communication path 104, for example, an image transmission / reception protocol such as HDMI (registered trademark) or IEEE 1394 is used. In addition, USB (Universal Serial Bus), Ethernet (registered trademark), or the like may be used for the communication path 104. The virtual reality display device 101 and the HMD 102 may be incorporated into the same computer, and the communication path 104 may be used as a communication path between software processes.
同様に、仮想現実表示デバイス101と仮想レーザーデバイス103は通信路105で相互に接続されている。通信路105は、仮想レーザーデバイス103と仮想現実表示デバイス101とが通信を行うために使われる通信路である。例えば、仮想レーザーデバイス103から仮想現実表示デバイス101へ、通信路105を介して、仮想レーザーデバイス103の位置姿勢情報などが送信される。通信路105では、例えば、Bluetooth(登録商標)などの無線通信プロトコルが使用される。この他、通信路105に、USBなどの有線接続を使用してもよい。仮想レーザーデバイス103を仮想現実表示デバイス101と同一のコンピュータに組み込み、通信路105をソフトウェアプロセス間の通信路としてもよい。 Similarly, the virtual reality display device 101 and the virtual laser device 103 are connected to each other by a communication path 105. The communication path 105 is a communication path used for communication between the virtual laser device 103 and the virtual reality display device 101. For example, the position / orientation information of the virtual laser device 103 is transmitted from the virtual laser device 103 to the virtual reality display device 101 via the communication path 105. In the communication path 105, for example, a wireless communication protocol such as Bluetooth (registered trademark) is used. In addition, a wired connection such as USB may be used for the communication path 105. The virtual laser device 103 may be incorporated in the same computer as the virtual reality display device 101, and the communication path 105 may be used as a communication path between software processes.
図2は、仮想現実表示デバイス101の機能的な構成の一例を示すブロック図である。前述したように本実施形態の画像表示システムは、仮想現実表示デバイス101と、HMD102と、仮想レーザーデバイス103とを有する。HMD102は、表示装置の一例であり、頭部装着型の撮影・表示デバイスである。本実施形態では、頭部装着型のカメラ内蔵型ディスプレイを用いるが、手持ち型のハンドヘルドディスプレイを用いてもよい。頭部装着型のカメラ内蔵型ディスプレイでは、体験者は、当該カメラ内蔵型ディスプレイを頭部に装着すると、カメラで撮像された現実空間の画像に仮想現実空間のCGが重ねられた画像を見ることができる。頭部装着型のカメラ内蔵型ディスプレイを装着することにより、体験者の視界は制限される。一方、手持ち型のハンドヘルドディスプレイでは、体験者は、当該ハンドヘルドディスプレイを覗き込むと、カメラで撮像された現実空間の画像に仮想現実空間のCGが重ねられた画像を見ることができる。この場合も、体験者の視界は制限される。また、光学シースルー型(光学透過型)のHMDを用いてもよい。即ち、カメラで撮像された現実空間の画像ではなく、実際の現実空間に重なるように仮想現実空間のCGを表示してもよい。前述した何れの表示装置を用いる場合でも、体験者(表示装置を使用するユーザ)のみが、当該表示装置により表示される画像を見ることができる。 FIG. 2 is a block diagram showing an example of a functional configuration of the virtual reality display device 101. As described above, the image display system of the present embodiment includes a virtual reality display device 101, an HMD 102, and a virtual laser device 103. The HMD 102 is an example of a display device, and is a head-mounted imaging / display device. In the present embodiment, a head-mounted display with a built-in camera is used, but a hand-held handheld display may be used. In the head-mounted display with a built-in camera, when the experiencer wears the display with a built-in camera on the head, he / she sees an image in which the CG of the virtual real space is superimposed on the image of the real space captured by the camera. Can be done. By wearing a head-mounted display with a built-in camera, the field of vision of the experiencer is limited. On the other hand, in the handheld handheld display, the experiencer can look into the handheld display and see an image in which the CG of the virtual real space is superimposed on the image of the real space captured by the camera. In this case as well, the field of view of the experiencer is limited. Further, an optical see-through type (optical transmission type) HMD may be used. That is, the CG of the virtual real space may be displayed so as to overlap the actual real space instead of the image of the real space captured by the camera. Regardless of which of the above-mentioned display devices is used, only the experienced person (user who uses the display device) can see the image displayed by the display device.
仮想レーザーデバイス103は、HMD102を装着している体験者が、仮想現実空間のCG上の位置を選択するために用いられる。尚、本実施形態では、(1つの)HMD102を装着することができる体験者が1人である場合を例に挙げて示す。HMD102を装着している体験者は、仮想レーザーデバイス103を手に持って、HMD102により表示されている、現実空間の画像に仮想現実空間のCGが重ねられた画像を見ながら、当該CG上の位置を選択する。ここで、仮想現実表示デバイス101とHMD102は独立したコンピュータデバイスであってもいいし、HMD102に付属した筐体内に仮想現実表示デバイス101を内蔵する構成であってもよい。仮想現実表示デバイス101はHMD102が内蔵するコンピュータデバイス上で動作するソフトウェアとして構成されていてもよい。 The virtual laser device 103 is used by the experiencer wearing the HMD 102 to select a position on the CG in the virtual reality space. In this embodiment, the case where one person can wear the (one) HMD 102 is shown as an example. The experiencer wearing the HMD 102 holds the virtual laser device 103 in his hand, and while looking at the image displayed by the HMD 102 in which the CG of the virtual real space is superimposed on the image of the real space, the CG is displayed on the CG. Select a position. Here, the virtual reality display device 101 and the HMD 102 may be independent computer devices, or the virtual reality display device 101 may be built in the housing attached to the HMD 102. The virtual reality display device 101 may be configured as software that operates on a computer device built in the HMD 102.
仮想現実表示デバイス101は、撮像部201、頭部位置姿勢特定部202、MR画像表示部203、複合部位指定部204、CG部位指定部205、音声コマンド解析部206、および指定部位補正部207を含み、各種の情報処理を行う。仮想現実表示デバイス101のハードウェアは、例えば、CPU、ROM、RAM、HDD、および各種のインターフェースを備える装置を用いることにより実現される。
撮像部201は、HMD102に内蔵されたカメラなどを通じて、HMD102(カメラ)から見ることができる視界の画像を現実空間の画像としてシステムに入力する。
The virtual reality display device 101 includes an imaging unit 201, a head position / orientation specifying unit 202, an MR image display unit 203, a composite part designation unit 204, a CG part designation unit 205, a voice command analysis unit 206, and a designated part correction unit 207. Including, various information processing is performed. The hardware of the virtual reality display device 101 is realized, for example, by using a device including a CPU, ROM, RAM, HDD, and various interfaces.
The imaging unit 201 inputs an image of the field of view that can be seen from the HMD 102 (camera) to the system as an image of the real space through a camera or the like built in the HMD 102.
頭部位置姿勢特定部202は、HMD102の現実空間内の3次元座標と姿勢を特定する。頭部位置姿勢特定部202は、撮像部201が取得した3次元現実空間の画像に存在するマーカーや特徴点の情報を用いることにより、HMD102の現実空間内の3次元座標と姿勢を特定することができる。また、頭部位置姿勢特定部202は、仮想現実表示デバイス101に接続された赤外線マーカー、磁気センサー、ジャイロセンサーなどの情報を用いて、HMD102の現実空間内の3次元座標と姿勢を特定してもよい。その他、頭部位置姿勢特定部202は、HMD102を検出する複数のセンサーからの情報を用いて、HMD102の現実空間内の3次元座標と姿勢を特定してもよい。 The head position / posture specifying unit 202 specifies the three-dimensional coordinates and the posture of the HMD 102 in the real space. The head position / orientation specifying unit 202 specifies the three-dimensional coordinates and the posture of the HMD 102 in the real space by using the information of the markers and feature points existing in the image of the three-dimensional real space acquired by the imaging unit 201. Can be done. In addition, the head position / orientation specifying unit 202 identifies the three-dimensional coordinates and posture of the HMD 102 in the real space by using information such as an infrared marker, a magnetic sensor, and a gyro sensor connected to the virtual reality display device 101. May be good. In addition, the head position / posture specifying unit 202 may specify the three-dimensional coordinates and the posture of the HMD 102 in the real space by using the information from a plurality of sensors that detect the HMD 102.
MR画像表示部203は、撮像部201が取得した現実空間の画像に、仮想現実空間のCGとして仮想物体の形状などが重畳された画像を生成する。以下の説明では、現実空間の画像に、仮想現実空間のCGが重畳された画像を必要に応じてMR画像と称する。体験者は、このMR画像を、HMD102を通して見ることによって、あたかも現実空間に仮想物体が存在するかのような体験をすることができる。ここで、MR画像表示部203が生成した画像は、HMD102に対して出力されてもよいし、HMD102以外の表示装置に表示しても構わない。即ち、MR画像表示部203が生成した画像は、HMD102だけに出力しても、HMD102とHMD102以外の表示装置との双方に出力してもよい。HMD102以外の表示装置は、第2の表示装置の一例であり、例えば、外部モニタ、プロジェクタ、テレビ、またはコンピュータディスプレイにより実現される。HMD以外の表示装置としてこれら何れの表示装置を用いる場合でも、複数人(誰も)が当該表示装置により表示される画像を同時に見ることができる。 The MR image display unit 203 generates an image in which the shape of a virtual object or the like is superimposed as a CG in the virtual real space on the image in the real space acquired by the imaging unit 201. In the following description, an image in which CG in the virtual real space is superimposed on the image in the real space is referred to as an MR image, if necessary. By viewing this MR image through the HMD 102, the experiencer can experience as if a virtual object exists in the real space. Here, the image generated by the MR image display unit 203 may be output to the HMD 102, or may be displayed on a display device other than the HMD 102. That is, the image generated by the MR image display unit 203 may be output only to the HMD 102 or may be output to both the HMD 102 and a display device other than the HMD 102. A display device other than the HMD 102 is an example of a second display device, which is realized by, for example, an external monitor, a projector, a television, or a computer display. When any of these display devices is used as a display device other than the HMD, a plurality of people (anyone) can simultaneously view the images displayed by the display device.
このようにMR画像表示部203が生成した画像を、HMD102以外の表示装置に表示させることにより、体験者以外の人物も、体験者と同じ画像を同じタイミングで見ることができる。尚、このようにする場合、仮想現実表示デバイス101は、HMD102だけでなく、HMD102以外の表示装置とも通信可能に相互に接続される。 By displaying the image generated by the MR image display unit 203 on a display device other than the HMD 102 in this way, a person other than the experiencer can see the same image as the experiencer at the same timing. In this case, the virtual reality display device 101 is communicably connected to not only the HMD 102 but also a display device other than the HMD 102.
CG部位指定部205は、仮想レーザーデバイス103の現実空間上の位置および姿勢をもとに、MR画像表示部203によって表示された仮想物体上の特定の部位を指定する。CG部位指定部205は、例えば、仮想レーザーデバイス103の現実空間上の位置から、予め指定された特定方向に直進する仮想のレーザー光を仮定し、当該仮想のレーザー光が仮想物体と接触した位置を、仮想物体上の特定の部位として指定する。このように本実施形態では、例えば、体験者による仮想レーザーデバイス103の操作により第1の指示が行われる。しかしながら、仮想物体上の特定の部位を指定するための指示(第1の指示)は、このようなものに限定されない。例えば、仮想のレーザー光の代わりに、仮想の工具を想定し、当該仮想の工具の現実空間上の位置から特定方向に一定距離進んだ位置を、当該仮想の工具と仮想物体とが接触する位置(当該仮想物体の特定の部位)として指定してもよい。また、仮想物体上の特定の部位は、仮想レーザーデバイス103の動きに連動して連続的に指定されるとしてもよいし、仮想レーザーデバイス103が備えるスイッチが押される度に断続的に指定されるとしてもよい。 The CG part designation unit 205 designates a specific part on the virtual object displayed by the MR image display unit 203 based on the position and orientation of the virtual laser device 103 in the real space. The CG site designation unit 205 assumes, for example, a virtual laser beam that travels straight in a specific direction specified in advance from a position in the real space of the virtual laser device 103, and a position where the virtual laser beam comes into contact with a virtual object. Is specified as a specific part on the virtual object. As described above, in the present embodiment, for example, the first instruction is given by the operation of the virtual laser device 103 by the experiencer. However, the instruction (first instruction) for designating a specific part on the virtual object is not limited to such an instruction. For example, instead of a virtual laser beam, a virtual tool is assumed, and a position where the virtual tool and a virtual object come into contact with each other at a position advanced by a certain distance in a specific direction from the position in the real space of the virtual tool. It may be specified as (a specific part of the virtual object). Further, the specific portion on the virtual object may be continuously designated in conjunction with the movement of the virtual laser device 103, or may be designated intermittently each time the switch included in the virtual laser device 103 is pressed. May be.
音声コマンド解析部206は、体験者の発生した音声を取得して解析し、音声コマンドとして認識する。ここで音声コマンド解析部206は、HMD102内に内蔵されたマイクを用いて体験者の発した音声を取得するとしてもよいし、HMD102の外に配置される独立したマイクを用いて体験者の発した音声を取得するとしてもよい。ここで、本実施形態における音声コマンドは、「左へ」、「右の部品」などの、体験者の視点から見た相対的な位置を含み、CG部位指定部205で指定した部位を補正するための指示である。 The voice command analysis unit 206 acquires and analyzes the voice generated by the experiencer, and recognizes it as a voice command. Here, the voice command analysis unit 206 may acquire the voice emitted by the experiencer using the microphone built in the HMD 102, or may use an independent microphone arranged outside the HMD 102 to emit the experiencer. The voice may be acquired. Here, the voice command in the present embodiment includes a relative position as seen from the viewpoint of the experiencer, such as "left" and "right part", and corrects a part designated by the CG part designation unit 205. Instructions for.
このように本実施形態では、例えば、体験者の音声により第2の指示が行われ、当該体験者の音声から音声コマンドを認識する場合を例に挙げて説明する。しかしながら、体験者がMR画像を見ながら、CG部位指定部205で指定した部位をどのように補正するのかを指示することができれば、CG部位指定部205で指定した部位の補正の指示(第2の指示)に、必ずしも、音声を用いる必要はない。例えば、音声によらず体験者の手によるジェスチャによる指示や、MR画像中の仮想のボタンを操作することによる指示によって、コマンドを認識してもよい。また、体験者の視点を基準とせずに、CG部位指定部205で指定した部品をどのように補正するのかを指示してもよい。 As described above, in the present embodiment, for example, a case where the second instruction is given by the voice of the experiencer and the voice command is recognized from the voice of the experiencer will be described as an example. However, if the experiencer can instruct how to correct the part specified by the CG part designation unit 205 while looking at the MR image, the instruction to correct the part specified by the CG part designation unit 205 (second). It is not always necessary to use voice for the instruction). For example, the command may be recognized not by voice but by a gesture instruction by the experiencer's hand or an instruction by operating a virtual button in the MR image. Further, it may be instructed how to correct the part specified by the CG part designation unit 205 without using the viewpoint of the experiencer as a reference.
指定部位補正部207は、音声コマンド解析部206で認識された音声コマンドの内容と、頭部位置姿勢特定部202で特定されたHMD102の現実空間上の位置および姿勢の情報とに基づき、CG部位指定部205で指定された部位への補正指示を特定する。ここでは、音声コマンド解析部206で認識された音声コマンドは、HMD102を装着した体験者の視点から見た相対的な方向の指示を含んでいるものとする。従って、音声コマンドと、頭部位置姿勢特定部202によって特定されたHMD102の現実空間上の位置および姿勢の情報とを併せることによって、CG部位指定部205で指定された部位の補正が可能になる。 The designated part correction unit 207 is a CG part based on the content of the voice command recognized by the voice command analysis unit 206 and the information on the position and posture of the HMD 102 in the real space specified by the head position / posture specifying unit 202. The correction instruction to the part designated by the designation unit 205 is specified. Here, it is assumed that the voice command recognized by the voice command analysis unit 206 includes a relative direction instruction from the viewpoint of the experiencer wearing the HMD 102. Therefore, by combining the voice command with the information on the position and posture of the HMD 102 in the real space specified by the head position / orientation specifying unit 202, it is possible to correct the part specified by the CG part specifying unit 205. ..
複合部位指定部204は、CG部位指定部205で指定された部位に、指定部位補正部207で特定された補正指示を反映させ、最終的に指定された部位を決定する。最終的に指定された部位の情報は、MR画像表示部203によって、HMD102で表示される(MR画像に重畳される)。これにより、体験者は、自らが発した音声コマンドによる補正が適用された位置を選択して見ることが可能となる。 The composite site designation unit 204 reflects the correction instruction specified by the designated site correction section 207 on the site designated by the CG site designation section 205, and finally determines the designated site. The information of the finally designated portion is displayed on the HMD 102 by the MR image display unit 203 (superimposed on the MR image). As a result, the experiencer can select and view the position to which the correction by the voice command issued by himself / herself is applied.
図3は、体験者が仮想レーザーデバイス103によって仮想物体中の特定の部位を指定し、その後、音声コマンドを発声して当該位置の補正を行う際の画像表示システムの処理の一例を説明するフローチャートである。
まず、システムの動作が開始されると、CG部位指定部205は、仮想レーザーデバイス103による部品(位置)の選択を受け付ける(ステップS301)。ここで部品とは、MR画像中に表示される仮想物体を構成する一部品である。
FIG. 3 is a flowchart illustrating an example of processing of the image display system when the experiencer specifies a specific part in the virtual object by the virtual laser device 103 and then issues a voice command to correct the position. Is.
First, when the operation of the system is started, the CG site designation unit 205 accepts the selection of the component (position) by the virtual laser device 103 (step S301). Here, the component is a component that constitutes a virtual object displayed in the MR image.
体験者の持つ仮想レーザーデバイス103によって部品が選択されると、MR画像表示部203は、MR画像中の、ステップS301で選択された部品を強調表示する(ステップS302)。強調表示は、選択された部品の色や輝度を変更することによって行ってもよいし、部品の周りに仮想の枠を表示したり、付箋のようなアノテーションを表示したりすることによって行ってもよい。尚、選択された部品の表示の内容を変更していれば、必ずしも強調表示を行う必要はない。例えば、選択された部品を非表示にしたり、選択された部品の位置を移動したりしてもよい。 When a component is selected by the virtual laser device 103 possessed by the experiencer, the MR image display unit 203 highlights the component selected in step S301 in the MR image (step S302). Highlighting may be done by changing the color or brightness of the selected part, by displaying a virtual frame around the part, or by displaying annotations such as sticky notes. Good. If the display content of the selected part is changed, it is not always necessary to highlight it. For example, the selected part may be hidden or the position of the selected part may be moved.
部品の強調表示を行った後、音声コマンド解析部206は、体験者の発声による補正指示を受け付ける(ステップS303)。この補正指示は、ステップS301で選択された部品をどの部品に変更するのかを示す指示である。その後、音声コマンド解析部206は、体験者の発声を一定時間待ち受ける(ステップS304)。一定時間内に発声がなければ、ステップS302において選択された部品は、体験者の意図通りであったと判断でき、システムの動作を終了する。ここで、待ち受けを行う時間については、システムの起動前に予め設定しておく。ただし、待ち受けを行う時間をシステムの起動中に任意に変更可能であるとしてもよい。また、専用の音声コマンドの認識またはその他の方法によって、設定した一定時間が経過する前に部品の選択が適正だったとしてシステムの動作を終了させる機能を設けてもよい。同様に、専用の音声コマンドの認識またはその他の方法によって、ステップS301における部品の選択の結果が誤りであり、且つ、その誤りが、音声コマンドによる部品の補正が可能な範囲を超えているとして、部品の選択を取り消す機能を設けてもよい。 After highlighting the parts, the voice command analysis unit 206 receives the correction instruction uttered by the experiencer (step S303). This correction instruction is an instruction indicating to which component the component selected in step S301 is to be changed. After that, the voice command analysis unit 206 waits for the utterance of the experiencer for a certain period of time (step S304). If there is no utterance within a certain period of time, it can be determined that the parts selected in step S302 were as intended by the experiencer, and the operation of the system is terminated. Here, the standby time is set in advance before the system is started. However, the standby time may be arbitrarily changed during system startup. In addition, a function may be provided to terminate the operation of the system by recognizing a dedicated voice command or other method, assuming that the selection of parts is appropriate before the set fixed time elapses. Similarly, assuming that the result of selecting the component in step S301 is incorrect by recognition of a dedicated voice command or other method, and that the error exceeds the range in which the component can be corrected by the voice command. A function for canceling the selection of parts may be provided.
ステップS304において、一定時間内に体験者から発声があった場合、音声コマンド解析部206は、当該音声を解析してコマンド化する(ステップS305)。
続いて、頭部位置姿勢特定部202は、HMD102の現実空間内の位置および姿勢を取得する(ステップS306)。HMD102の現実空間内の位置および姿勢は、体験者の頭部の現実空間内の位置および姿勢に対応する。ここで、HMD102の現実空間内の位置および姿勢として、ステップS306を実行中のタイミングにおける位置および姿勢を取得することができる。また、ステップS303〜S304において体験者が発声しているタイミングに遡って、HMD102の現実空間内の位置および姿勢を取得してもよい。また、専用の音声コマンドあるいはその他の入力方法によって、HMD102に表示されるMR画像を或る時刻の状態で停止させ、その時刻におけるHMD102の現実空間内の位置および姿勢を取得してもよい。
In step S304, when the experiencer utters a voice within a certain period of time, the voice command analysis unit 206 analyzes the voice and converts it into a command (step S305).
Subsequently, the head position / posture specifying unit 202 acquires the position and posture of the HMD 102 in the real space (step S306). The position and posture of the HMD 102 in the real space correspond to the position and posture of the experiencer's head in the real space. Here, as the position and posture of the HMD 102 in the real space, the position and posture at the timing during the execution of step S306 can be acquired. Further, the position and posture of the HMD 102 in the real space may be acquired by going back to the timing when the experiencer is uttering in steps S303 to S304. Further, the MR image displayed on the HMD 102 may be stopped at a certain time by a dedicated voice command or other input method, and the position and orientation of the HMD 102 in the real space at that time may be acquired.
次に、指定部位補正部207は、ステップS301で選択された部品の補正の方向を算出する(ステップS307)。この算出は、ステップS305において認識された音声コマンドと、ステップS306において取得されたHMD102の現実空間内の位置および姿勢(頭部の位置および姿勢)を用いて行われる。補正の方向の算出方法については図4を用いて後述する。 Next, the designated portion correction unit 207 calculates the correction direction of the component selected in step S301 (step S307). This calculation is performed using the voice command recognized in step S305 and the position and posture (head position and posture) of the HMD 102 acquired in step S306 in the real space. The method of calculating the correction direction will be described later with reference to FIG.
補正の方向が算出されたら、複合部位指定部204は、ステップS307で算出された補正の方向に基づいて、部品の選択範囲を変更する(ステップS308)。例えば、複合部位指定部204は、ステップS307において算出された補正の方向に、現在選択している部品の隣の部品に選択範囲を移動させ、ステップS302における強調表示の対象を更新する。そして、MR画像表示部203は、MR画像において強調表示する部品を更新後の部品に変更する。 After the correction direction is calculated, the composite part designation unit 204 changes the selection range of the parts based on the correction direction calculated in step S307 (step S308). For example, the composite site designation unit 204 moves the selection range to the component next to the currently selected component in the direction of the correction calculated in step S307, and updates the highlighting target in step S302. Then, the MR image display unit 203 changes the parts to be highlighted in the MR image to the updated parts.
ここで、指定部位補正部207は、「少し右」、「まだ右」などの音声コマンドの種類に応じて、現在選択している部品を移動させる距離を調整してもよい。例えば、音声コマンドの内容と移動させる距離との関係を予め登録しておくことにより、音声コマンドの種類に応じて、現在選択している部品を移動させる距離を調整することができる。例えば、音声コマンドに「少し」が含まれている場合には、現在選択している部品の1つ隣の部品に移動し、「まだ」が含まれている場合には、現在選択している部品の2つ隣の部品に移動するように当該関係を登録することができる。また、指定部位補正部207は、音声コマンドの種類に応じて、現在選択している部品の選択を解除せずに、現在の選択範囲を広げたり、狭めたりするようにしてもよい。例えば、音声コマンドの内容と、部品の選択範囲との関係を予め登録しておくことにより、音声コマンドの種類に応じて、現在選択している部品の選択を解除せずに、現在の選択範囲を広げたり、狭めたりすることができる。例えば、音声コマンドに「周りの部品も一緒」が含まれている場合には、現在選択している部品と、当該部品に隣り合う全ての部品を選択するように、当該関係を登録することができる。 Here, the designated portion correction unit 207 may adjust the distance for moving the currently selected component according to the type of voice command such as "slightly right" or "still right". For example, by registering the relationship between the content of the voice command and the moving distance in advance, it is possible to adjust the moving distance of the currently selected part according to the type of the voice command. For example, if the voice command contains "a little", it moves to the part next to the currently selected part, and if it contains "yet", it is currently selected. The relationship can be registered to move to the part two next to the part. Further, the designated portion correction unit 207 may widen or narrow the currently selected range without deselecting the currently selected component, depending on the type of voice command. For example, by registering the relationship between the content of the voice command and the selection range of the part in advance, the current selection range can be selected according to the type of voice command without deselecting the currently selected part. Can be widened or narrowed. For example, if the voice command includes "with surrounding parts", you can register the relationship so that the currently selected part and all the parts adjacent to the part are selected. it can.
音声コマンドと、HMD102の現実空間内の位置および姿勢(頭部の位置および姿勢)とに応じて、選択している部品の補正が終了したら、音声コマンド解析部206は、再び体験者の発声による補正指示を受け付ける(ステップS303)。
以上のステップS303〜S308の処理を、選択範囲が体験者の意図通りになるまで繰り返す。そして、一定時間内に発声がなければ、システムの動作を終了する。
When the correction of the selected part is completed according to the voice command and the position and posture (head position and posture) of the HMD 102 in the real space, the voice command analysis unit 206 again makes a voice of the experiencer. Accept the correction instruction (step S303).
The above steps S303 to S308 are repeated until the selection range is as intended by the experiencer. Then, if there is no utterance within a certain period of time, the operation of the system is terminated.
前述したように、音声によらずに、体験者の手によるジェスチャや、MR画像中の仮想のボタンの操作によって、CG部位指定部205で指定した部品をどのように補正するのかを指示してもよい。体験者の手によるジェスチャにより指示を行う場合には、例えば、手の動きと部品の選択範囲の変更の内容との関係を仮想現実表示デバイス101等に予め登録する。そして、指定部位補正部207は、HMD102に搭載されたカメラにより撮像された画像から、体験者の手の動きを特定し、特定した動きに関連付けられている部品の選択範囲の変更の内容を読み出し、読み出した内容に従って、部品の選択範囲を変更する。 As described above, instruct how to correct the part specified by the CG part designation unit 205 by the gesture by the experiencer's hand or the operation of the virtual button in the MR image without using the voice. May be good. When giving an instruction by a gesture by the experiencer's hand, for example, the relationship between the movement of the hand and the content of the change in the selection range of the parts is registered in advance in the virtual reality display device 101 or the like. Then, the designated portion correction unit 207 identifies the movement of the experiencer's hand from the image captured by the camera mounted on the HMD 102, and reads out the content of the change in the selection range of the component associated with the specified movement. , Change the selection range of parts according to the read contents.
また、MR画像中の仮想のボタンの操作により指示を行う場合には、MR画像中の仮想のボタンの操作の内容と、部品の選択範囲の変更の内容との関係を仮想現実表示デバイス101等に予め登録しておく。指定部位補正部207は、MR画像中の仮想のボタンに対して行われた操作の内容に関連付けられている部品の選択範囲の変更の内容を読み出し、読み出した内容に従って、部品の選択範囲を変更する。MR画像中の仮想のボタンの操作による指示は、仮想レーザーデバイス103を用いて行っても、仮想レーザーデバイス103以外のデバイスを用いて行ってもよい。 Further, when giving an instruction by operating a virtual button in the MR image, the relationship between the content of the operation of the virtual button in the MR image and the content of changing the selection range of the component is described in the virtual reality display device 101 or the like. Register in advance in. The designated part correction unit 207 reads out the content of the change in the selection range of the component associated with the content of the operation performed on the virtual button in the MR image, and changes the selection range of the component according to the read content. To do. The instruction by operating the virtual button in the MR image may be given by using the virtual laser device 103 or by using a device other than the virtual laser device 103.
図4は、仮想物体の配置の一例を示す図である。ここでは、立方体状の部品401〜409が図4のように配置されているような仮想物体を例に挙げて説明する。図4を参照しながら、ステップS307における処理(現在選択している部品の補正の方向の算出方法)の一例を説明する。 FIG. 4 is a diagram showing an example of arrangement of virtual objects. Here, a virtual object in which cubic parts 401 to 409 are arranged as shown in FIG. 4 will be described as an example. An example of the process in step S307 (method of calculating the correction direction of the currently selected component) will be described with reference to FIG.
ステップS301において、体験者が仮想レーザーデバイス103を用いて、部品405を選択したとする。そうすると、ステップS302において部品405が強調表示される。ここで、ステップS305において、音声コマンドとして「右の部品」というコマンドが認識されたとする。そうすると、頭部位置姿勢特定部202は、ステップS306において、HMD102の現実空間内の位置および姿勢を取得する。図4において、HMD102が、紙面の手前の方向から部品401、402、403を鉛直上方とする姿勢で仮想物体(部品401〜409)を見ているとすると、体験者から見て部品405の右の方向の部品は部品406となる。指定部位補正部207は、HMD102の現実空間内の位置および姿勢から、HMD102から見た場合の各仮想物体の方向を特定し、現在選択している部品に対し、音声コマンドにより指定された方向において隣接する部品に、強調表示する部品を変更する。即ち、ステップS307、S308の処理により、新たに選択されて強調表示される部品は部品406となる。 In step S301, it is assumed that the experiencer selects the component 405 by using the virtual laser device 103. Then, in step S302, the component 405 is highlighted. Here, it is assumed that the command "right part" is recognized as a voice command in step S305. Then, the head position / posture specifying unit 202 acquires the position and posture of the HMD 102 in the real space in step S306. In FIG. 4, assuming that the HMD 102 is looking at the virtual object (parts 401 to 409) with the parts 401, 402, and 403 vertically upward from the front direction of the paper surface, the right side of the part 405 as seen from the experiencer. The part in the direction of is part 406. The designated part correction unit 207 specifies the direction of each virtual object when viewed from the HMD 102 from the position and orientation of the HMD 102 in the real space, and in the direction designated by the voice command for the currently selected part. Change the highlighted part to an adjacent part. That is, the part newly selected and highlighted by the processing of steps S307 and S308 becomes the part 406.
同様にして、図4において、HMD102が、紙面の奥の方向から手前の方向に部品401、402、403を鉛直上方とする姿勢で仮想物体(部品401〜409)を見ているとする。この場合、音声コマンドとして「右の部品」というコマンドが認識されると、部品404が新たに選択され、強調表示される部品は部品405から部品404に変更される。さらに、HMD102が、紙面の手前の方向から奥の方向に向かって、部品407、404、401を鉛直方向とする姿勢で仮想物体(部品401〜409)を見ているとする。即ち、部品407、404、401を鉛直方向として紙面の手前の方向から奥の方向に向かって仮想物体(部品401〜409)を見ている体験者が、頭を90度左に傾けていたとする。この場合、体験者から場合の部品405の見た右の方向は部品402となり、「右の部品」というコマンドによる補正は部品402となる。 Similarly, in FIG. 4, it is assumed that the HMD 102 is looking at the virtual object (parts 401 to 409) in a posture in which the parts 401, 402, and 403 are vertically upward from the direction from the back of the paper to the front. In this case, when the command "right part" is recognized as a voice command, the part 404 is newly selected and the highlighted part is changed from the part 405 to the part 404. Further, it is assumed that the HMD 102 is looking at the virtual object (parts 401 to 409) in a posture in which the parts 407, 404, and 401 are in the vertical direction from the front direction to the back direction of the paper surface. That is, it is assumed that the experiencer who is looking at the virtual object (parts 401 to 409) from the front side to the back side of the paper surface with the parts 407, 404, and 401 in the vertical direction tilts his head 90 degrees to the left. .. In this case, the right direction of the part 405 as seen by the experiencer is the part 402, and the correction by the command "right part" is the part 402.
仮想レーザーデバイス103から照射される仮想レーザーを用いた部品の選択(ピッキング)は、例えば、MR技術を用いて、3DCG(3次元コンピュータグラフィックス)を表示させ、CGにより表示される部品を複数人でレビューを行う際に行われる。このとき、レビューを行いやすくするために、選択した部品を強調表示させたり、非表示にしたり、移動させたりする。 For the selection (picking) of parts using the virtual laser emitted from the virtual laser device 103, for example, 3DCG (3D computer graphics) is displayed using MR technology, and a plurality of parts displayed by CG are displayed. It is done when reviewing at. At this time, the selected part is highlighted, hidden, or moved to facilitate the review.
ピッキングの際に、体験者が誤って隣の部品を選択した場合には、正しい部品が選択されるようにする必要がある。そのために、部品のピッキングをやり直して、部品の再選択を行うことが考えられる。しかしながら、部品の配置等によりピッキングによる部品の選択が難しい場合、繰り返しピッキングを行っても正しい部品が選択されない虞がある。また、部品のピッキングをやり直す代わりに、3DCGを表示する画像表示装置とは別のPCの操作により部品を選択し直すことが考えられる。例えば、3DCGを構成する部品の一覧表をPCの画面に表示し、PCから画像表示装置に、選択した部品の変更を指示することが考えられる。この場合、体験者は、HMDを外さないとPCの画面を見ることができないため、所望の部品を選択することができない。以上のことから、部品の円滑なレビューが妨げられる虞がある。 When picking, if the experiencer mistakenly selects the next part, it is necessary to ensure that the correct part is selected. Therefore, it is conceivable to re-pick the parts and reselect the parts. However, if it is difficult to select parts by picking due to the arrangement of parts or the like, there is a risk that the correct parts will not be selected even if picking is repeated. Further, instead of re-picking the parts, it is conceivable to reselect the parts by operating a PC different from the image display device that displays the 3DCG. For example, it is conceivable to display a list of parts constituting the 3DCG on the screen of the PC and instruct the image display device to change the selected parts from the PC. In this case, the experiencer cannot see the screen of the PC unless the HMD is removed, so that the desired component cannot be selected. From the above, there is a risk that smooth review of parts will be hindered.
これに対し本実施形態では、HMD102の位置および姿勢と音声コマンドとに基づいて、MR画像に対して体験者により選択された部品(仮想物体の部位)を自動的に選択し直し、MR画像において強調表示する部品を、選択し直した部品に変更する。従って、仮想現実空間の画像に対して選択された部位を調整するために体験者が意識的に行う操作は、音声コマンドの発声だけになる。よって、仮想現実空間の画像に対して選択された部位を容易に且つ確実に調整することができる。例えば、体験者が「もう少し左」等のコマンドを発声することにより、PCなどの操作を介さずに所望の部品を選択することができる。その結果、ピッキングの選択範囲を補正するための操作によって、MR画像(例えば部品)のレビューが妨げられることが抑止することができ、レビューに集中することが可能になる。 On the other hand, in the present embodiment, the parts (parts of the virtual object) selected by the experiencer are automatically reselected for the MR image based on the position and posture of the HMD 102 and the voice command, and the MR image is displayed. Change the highlighted part to the reselected part. Therefore, the only operation that the experiencer consciously performs to adjust the selected part with respect to the image in the virtual reality space is the utterance of a voice command. Therefore, it is possible to easily and surely adjust the selected portion with respect to the image in the virtual reality space. For example, when the experiencer utters a command such as "a little more left", a desired component can be selected without operating a PC or the like. As a result, it is possible to prevent the review of the MR image (for example, a part) from being hindered by the operation for correcting the picking selection range, and it becomes possible to concentrate on the review.
(第2の実施形態)
次に、第2の実施形態を説明する。第1の実施形態では、選択された部品を補正する方向を音声で指示する場合を例に挙げて説明した。これに対し、本実施形態では、部品の上位・下位の関係を音声で指示する場合について説明する。このように本実施形態と第1の実施形態は、音声コマンドの内容が異なることによる構成および処理が主として異なる。従って、本実施形態の説明において、第1の実施形態と同一の部分については、図1〜図4に付した符号と同一の符号を付す等して詳細な説明を省略する。
(Second Embodiment)
Next, the second embodiment will be described. In the first embodiment, a case where the direction of correcting the selected component is instructed by voice has been described as an example. On the other hand, in the present embodiment, a case where the upper / lower relationship of the parts is instructed by voice will be described. As described above, the present embodiment and the first embodiment are mainly different in configuration and processing due to the difference in the content of the voice command. Therefore, in the description of the present embodiment, detailed description of the same parts as those of the first embodiment will be omitted by adding the same reference numerals as those given in FIGS. 1 to 4.
図5は、仮想現実表示デバイス500の機能的な構成の一例を示すブロック図である。尚、本実施形態の画像表示システムは、仮想現実表示デバイス500と、HMD102と、仮想レーザーデバイス103とを有する。本発明の第2の実施例を示す機能ブロック図である。 FIG. 5 is a block diagram showing an example of a functional configuration of the virtual reality display device 500. The image display system of the present embodiment includes a virtual reality display device 500, an HMD 102, and a virtual laser device 103. It is a functional block diagram which shows the 2nd Example of this invention.
仮想現実表示デバイス500は、撮像部201、頭部位置姿勢特定部202、MR画像表示部203、複合部位指定部501、CG部位指定部205、音声コマンド解析部502、CGモデル記憶部503、および指定部位補正部504を含む。このように、HMD102、仮想レーザーデバイス103、撮像部201、頭部位置姿勢特定部202、MR画像表示部203、CG部位指定部205はそれぞれ、第1の実施形態で説明したものと同じである。 The virtual reality display device 500 includes an image pickup unit 201, a head position / orientation identification unit 202, an MR image display unit 203, a composite part designation unit 501, a CG part designation unit 205, a voice command analysis unit 502, a CG model storage unit 503, and The designated part correction unit 504 is included. As described above, the HMD 102, the virtual laser device 103, the imaging unit 201, the head position / orientation specifying unit 202, the MR image display unit 203, and the CG site specifying unit 205 are the same as those described in the first embodiment, respectively. ..
音声コマンド解析部502は、体験者の発生した音声を取得して解析し、音声コマンドとして認識する。本実施形態における音声コマンドは、「ひとつ上位の部品」などの、仮想物体を構成するCGモデルの構成情報に関する指示であり、CG部位指定部205で指定した仮想物体上の特定の部位(例えば、部品)の位置を補正するための指示である。本実施形態では、体験者の音声から音声コマンドを認識する場合を例に挙げて説明する。しかしながら、第1の実施形態と同様に、音声によらず体験者の手によるジェスチャや、MR画像中の仮想のボタンを操作することによる指示によって、コマンドを認識してもよい。 The voice command analysis unit 502 acquires and analyzes the voice generated by the experiencer, and recognizes it as a voice command. The voice command in the present embodiment is an instruction regarding the configuration information of the CG model that constitutes the virtual object, such as "one higher component", and is a specific part (for example, for example) on the virtual object designated by the CG part designation unit 205. This is an instruction to correct the position of the part). In the present embodiment, a case where a voice command is recognized from the voice of the experiencer will be described as an example. However, as in the first embodiment, the command may be recognized not by voice but by a gesture by the experiencer's hand or an instruction by operating a virtual button in the MR image.
CGモデル記憶部503は、CGモデルを記憶する。CGモデルは、現実空間の画像に重ねて表示するための仮想物体の形状を表すデータである。このデータは、CADなどのソフトウェアを用いて人為的にデザインされたデータであってもよいし、レーザースキャナや複数台のカメラを用いて現実空間の計測データから再構築されたデータであってもよい。このデータは、仮想物体を構成する複数の部品のデータからなり、それぞれの部品間には、各部品の包含関係(即ち上位・下位の関係)を表すツリー構造が存在する。 The CG model storage unit 503 stores the CG model. The CG model is data representing the shape of a virtual object to be superimposed and displayed on an image in real space. This data may be data artificially designed using software such as CAD, or may be data reconstructed from measurement data in real space using a laser scanner or multiple cameras. Good. This data consists of data of a plurality of parts constituting a virtual object, and between each part, there is a tree structure showing the inclusion relationship (that is, the upper / lower relationship) of each part.
図6は、CGモデルの構造の一例を表す図である。CGモデルは、複数の部品が集まって一つの部品を構成し、その部品がまた集まってさらに上位の部品を構成するような階層構造を成している。
図6に示す例では、複写機モデル601は、本体602とその他の部品で構成されている。図6では、複写機モデル601を構成する本体602以外の部品は省略して記載しているが、実際には複写機モデル601は、本体602以外の部品も有する。ただし、本体602のみで、複写機モデル601を構成してもよい。
FIG. 6 is a diagram showing an example of the structure of the CG model. The CG model has a hierarchical structure in which a plurality of parts are gathered to form one part, and the parts are gathered again to form a higher-level part.
In the example shown in FIG. 6, the copier model 601 is composed of a main body 602 and other parts. In FIG. 6, parts other than the main body 602 constituting the copying machine model 601 are omitted, but in reality, the copying machine model 601 also has parts other than the main body 602. However, the copying machine model 601 may be configured only with the main body 602.
同様に本体602は、上面パネル603とその他のいくつかの部品、上面パネル603は、操作盤604とその他のいくつかの部品、操作盤604は、液晶画面605、スタートボタン606、電源LED607とその他のいくつかの部品で構成される。このようにして、階層構造が定義されている。尚、このように本実施形態では、仮想現実表示デバイス500にCGモデル記憶部503を設け、仮想現実表示デバイス500でCGモデルを管理する場合を例に挙げて示す。しかしながら、必ずしもこのようにする必要はない。例えば、仮想現実表示デバイス500と異なる装置でCGモデルを管理し、仮想現実表示デバイス500が当該CGモデルを参照する形態を採用してもよい。 Similarly, the main body 602 is the top panel 603 and some other parts, the top panel 603 is the operation panel 604 and some other parts, and the operation panel 604 is the liquid crystal screen 605, the start button 606, the power LED 607 and others. It consists of several parts. In this way, the hierarchical structure is defined. As described above, in the present embodiment, a case where the CG model storage unit 503 is provided in the virtual reality display device 500 and the CG model is managed by the virtual reality display device 500 is shown as an example. However, it is not always necessary to do this. For example, a CG model may be managed by a device different from the virtual reality display device 500, and the virtual reality display device 500 may refer to the CG model.
指定部位補正部504は、音声コマンド解析部502で認識された音声コマンドの内容と、CGモデル記憶部503に記憶されているCGモデルとに基づき、CG部位指定部205で指定された部位への補正指示を特定する。ここでは、音声コマンド309で認識された音声コマンドは、CGモデル内の部品の選択範囲を補正する指示を含んでいるものとする。従って、音声コマンドと、CGモデルのデータ構造と併せることによって、CG部位指定部205で指定された部位の選択範囲の補正が可能になる。尚、指定部位補正部504は、MR画像のどの位置にどの部品が表示されているのかを、例えば、CGの内容や予め登録されているMRから特定できる。 The designated part correction unit 504 transmits the content of the voice command recognized by the voice command analysis unit 502 to the part designated by the CG part designation unit 205 based on the CG model stored in the CG model storage unit 503. Identify the correction instruction. Here, it is assumed that the voice command recognized by the voice command 309 includes an instruction for correcting the selection range of the parts in the CG model. Therefore, by combining the voice command with the data structure of the CG model, it is possible to correct the selection range of the part designated by the CG part designation unit 205. The designated portion correction unit 504 can specify which part is displayed at which position in the MR image from, for example, the contents of CG or the MR registered in advance.
例えば図6において、CG部位指定部205によってスタートボタン606が選択された状態で、音声コマンド解析部502によって認識された音声コマンドが「選択範囲をひとつ上位の部品に拡大」というものであるとする。この場合、指定部位補正部504は、部品の選択範囲を操作盤604に補正する。この状態で同様の音声コマンドが更に認識されると、部品の選択範囲は上面パネル603に拡大されることになる。また、CG部位指定部205によって上面パネル603が選択された状態で、音声コマンド解析部502によって認識された音声コマンドが「ひとつ下位の部品に縮小」というものであるとする。この場合、指定部位補正部504は、部品の選択範囲を本体602に補正する。 For example, in FIG. 6, it is assumed that the voice command recognized by the voice command analysis unit 502 is "expand the selection range to the next higher component" in the state where the start button 606 is selected by the CG part designation unit 205. .. In this case, the designated part correction unit 504 corrects the selection range of the parts to the operation panel 604. If a similar voice command is further recognized in this state, the selection range of the component is expanded to the top panel 603. Further, it is assumed that the voice command recognized by the voice command analysis unit 502 is "reduced to the next lower component" in the state where the upper surface panel 603 is selected by the CG part designation unit 205. In this case, the designated part correction unit 504 corrects the selection range of the parts to the main body 602.
CGモデルの構成によっては複数の補正の候補が存在することがある。例えば、CG部位指定部205によって操作盤604が選択された状態で、音声コマンド解析部502によって認識された音声コマンドが「ひとつ下位の部品に縮小」である場合には、3つの補正の候補が存在することになる。この場合、CGモデル内の任意の情報(部品に割り振られたIDなど)を用いて、複数の補正の候補の中から1つの部品を一意に決定してもよいし、専用の音声コマンドを用いて順番に候補を提示し、提示した候補から体験者の操作により部品を選択させてもよい。部品にIDを割り振る場合には、例えば、同一の階層に属する複数の部品に優先順位をつけ、当該複数の部品に対し当該優先順位が高い部品である程小さな値のIDを割り振ることができる。このようにすれば、同一の階層に複数の部品が属しているために複数の補正の候補が存在する場合、IDの値が小さな部品を選択することができる。 There may be a plurality of correction candidates depending on the configuration of the CG model. For example, when the operation panel 604 is selected by the CG part designation unit 205 and the voice command recognized by the voice command analysis unit 502 is "reduced to one lower component", three correction candidates are available. It will exist. In this case, one part may be uniquely determined from a plurality of correction candidates by using arbitrary information (ID assigned to the part, etc.) in the CG model, or a dedicated voice command may be used. Candidates may be presented in order, and parts may be selected from the presented candidates by the operation of the experiencer. When assigning IDs to parts, for example, a plurality of parts belonging to the same hierarchy can be prioritized, and IDs having a smaller value can be assigned to the plurality of parts as the priority is higher. In this way, when a plurality of correction candidates exist because a plurality of parts belong to the same hierarchy, a part having a small ID value can be selected.
複合部位指定部501は、CG部位指定部205で指定された部位に、指定部位補正部504で特定された補正指示を反映させ、最終的に指定された部位を決定する。最終的に指定された部位の情報は、MR画像表示部203によって、HMD102で表示される(MR画像に重畳される)。これにより、体験者は、自らが発した音声コマンドによる補正が適用された位置を選択して見ることが可能となる。
以上のようにすることによって、CGモデルにより定義されている階層の単位で、選択した部品の補正を行うことができ、第1の実施形態で説明したのと同様の効果を得ることができる。尚、本実施形態の構成と第1の実施形態の構成とを組み合わせてもよい。即ち、音声コマンドが補正の方向を示すものである場合には、第1の実施形態を適用し、音声コマンドがCGモデルの構成情報に関するものである場合には、第2の実施形態を適用してもよい。また、本実施形態においても、第1の実施形態で説明した種々の変形例を採用することができる。
The composite site designation unit 501 reflects the correction instruction specified by the designated site correction section 504 on the site designated by the CG site designation section 205, and finally determines the designated site. The information of the finally designated portion is displayed on the HMD 102 by the MR image display unit 203 (superimposed on the MR image). As a result, the experiencer can select and view the position to which the correction by the voice command issued by himself / herself is applied.
By doing so, the selected component can be corrected in the unit of the hierarchy defined by the CG model, and the same effect as described in the first embodiment can be obtained. The configuration of the present embodiment and the configuration of the first embodiment may be combined. That is, when the voice command indicates the direction of correction, the first embodiment is applied, and when the voice command is related to the configuration information of the CG model, the second embodiment is applied. You may. Further, also in this embodiment, various modified examples described in the first embodiment can be adopted.
(第3の実施形態)
次に、第3の実施形態を説明する。第1、第2の実施形態では、MR画像表示部203は、現実空間の画像に仮想物体を重畳したMR画像を、HMD102に表示する場合を例に挙げて説明した。これに対し、本実施形態の画像表示システムは、複数のHMDにそれぞれ表示されているMR画像を、HMD以外の表示装置に切り替え表示する。このように本実施形態と、第1、第2の実施形態とは、MR画像をHMD以外の表示装置させるための構成および処理が主として異なる。従って、本実施形態の説明において、第1、第2の実施形態と同一の部分については、図1〜図6に付した符号と同一の符号を付す等して詳細な説明を省略する。
(Third Embodiment)
Next, a third embodiment will be described. In the first and second embodiments, the MR image display unit 203 has described the case where the MR image in which a virtual object is superimposed on the image in the real space is displayed on the HMD 102 as an example. On the other hand, the image display system of the present embodiment switches and displays the MR image displayed on each of the plurality of HMDs to a display device other than the HMD. As described above, the present embodiment and the first and second embodiments are mainly different in the configuration and processing for displaying the MR image as a display device other than the HMD. Therefore, in the description of the present embodiment, detailed description of the same parts as those of the first and second embodiments will be omitted by adding the same reference numerals as those given in FIGS. 1 to 6.
本実施形態では、画像表示システム内に複数のHMDを接続する。そして、任意のHMDのMR画像を、HMD以外の表示装置に表示することによって、HMDの体験者以外のメンバーがMR画像(例えば部品)のレビューに参加できるようにする。本実施形態では、複数のHMDと、HMD以外の表示装置とが、仮想現実表示デバイスに通信可能に接続される。HMD以外の表示装置は、第2の表示装置の一例であり、例えば、外部モニタ、プロジェクタ、テレビ、またはコンピュータディスプレイにより実現される。HMD以外の表示装置としてこれら何れの表示装置を用いる場合でも、複数人(誰も)が当該表示装置により表示される画像を同時に見ることができる。 In this embodiment, a plurality of HMDs are connected in the image display system. Then, by displaying the MR image of an arbitrary HMD on a display device other than the HMD, members other than those who have experienced the HMD can participate in the review of the MR image (for example, parts). In the present embodiment, a plurality of HMDs and a display device other than the HMDs are communicably connected to the virtual reality display device. A display device other than the HMD is an example of a second display device, which is realized by, for example, an external monitor, a projector, a television, or a computer display. When any of these display devices is used as a display device other than the HMD, a plurality of people (anyone) can simultaneously view the images displayed by the display device.
例えば、レビューの参加者は、PCやタブレット等の端末装置を操作して、複数のHMDに表示されているMR画像の中から、HMD以外の表示装置に表示するMR画像を選択する。端末装置は、選択されたMR画像を出力しているHMDの情報を、仮想現実表示デバイスに出力する。そして、仮想現実表示デバイスは、HMD以外の表示装置に表示されているMR画像を、当該情報により特定されるHMDから出力されているMR画像に切り替えて表示する。この場合、ステップS306において取得される、HMDの現実空間内の位置および姿勢は、その時点でHMD以外の表示装置に表示されているMR画像を出力しているHMDの現実空間内の位置および姿勢である。従って、ステップS307において算出される補正の方向は、その時点でHMD以外の表示装置に表示されているMR画像内の部品の補正の方向である。また、ステップS308において強調表示される部品は、その時点でHMD以外の表示装置に表示されているMR画像内の部品のうち、ステップS307で算出された補正の方向に基づいて変更された部品である。尚、部品の強調表示は、HMDに表示されるMR画像だけでなく、HMD以外の表示装置に表示されるMR画像に対しても行われる。強調表示される部品の補正の方法は、第1の実施形態または第2の実施形態と同じ方法を採用することができる。 For example, a review participant operates a terminal device such as a PC or a tablet to select an MR image to be displayed on a display device other than the HMD from among MR images displayed on a plurality of HMDs. The terminal device outputs the information of the HMD that outputs the selected MR image to the virtual reality display device. Then, the virtual reality display device switches and displays the MR image displayed on the display device other than the HMD with the MR image output from the HMD specified by the information. In this case, the position and orientation of the HMD in the real space acquired in step S306 is the position and orientation of the HMD in the real space that is outputting the MR image displayed on the display device other than the HMD at that time. Is. Therefore, the correction direction calculated in step S307 is the correction direction of the parts in the MR image displayed on the display device other than the HMD at that time. Further, the parts highlighted in step S308 are the parts in the MR image displayed on the display device other than the HMD at that time, which are changed based on the correction direction calculated in step S307. is there. The highlighting of the parts is performed not only on the MR image displayed on the HMD but also on the MR image displayed on a display device other than the HMD. As the method of correcting the highlighted parts, the same method as in the first embodiment or the second embodiment can be adopted.
以上のようにして画像表示システムを構成することによって、第1、第2の実施形態で説明した効果に加え、HMDの体験者以外のメンバーが、複数のHMDに表示されるMR画像(例えば部品)のレビューに参加することができるという効果が得られる。尚、本実施形態においても、第1、第2の実施形態で説明した種々の変形例を採用することができる。 By configuring the image display system as described above, in addition to the effects described in the first and second embodiments, MR images (for example, parts) displayed on a plurality of HMDs by members other than those who have experienced the HMD. ) Has the effect of being able to participate in the review. Also in this embodiment, various modified examples described in the first and second embodiments can be adopted.
前述した各実施形態は、何れも本発明を実施するにあたっての具体化の例を示したものに過ぎず、これらによって本発明の技術的範囲が限定的に解釈されてはならないものである。すなわち、本発明はその技術思想、又はその主要な特徴から逸脱することなく、様々な形で実施することができる。 Each of the above-described embodiments merely shows an example of embodiment in carrying out the present invention, and the technical scope of the present invention should not be construed in a limited manner by these. That is, the present invention can be implemented in various forms without departing from the technical idea or its main features.
(その他の実施例)
本発明は、前述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
(Other Examples)
The present invention supplies a program that realizes one or more functions of the above-described embodiment to a system or device via a network or storage medium, and one or more processors in the computer of the system or device reads and executes the program. It can also be realized by the processing to be performed. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.
101:仮想現実表示デバイス、102:HMD、103:仮想レーザーデバイス 101: Virtual reality display device, 102: HMD, 103: Virtual laser device
Claims (14)
前記表示装置の位置および姿勢を特定する特定手段と、
前記指定手段により指定された前記仮想現実空間の画像の部位を、前記特定手段により特定された前記表示装置の位置および姿勢と、ユーザによる第2の指示の内容とに基づいて補正する補正手段と、を有し、
前記第2の指示は、前記第1の指示のやり直しとは異なる指示であって、前記表示装置を使用するユーザが、前記表示装置により表示された前記仮想現実空間の画像を見ながら行うことが可能な指示であることを特徴とする情報処理装置。 A designation means for designating a part of an image in the virtual reality space displayed by the display device so as to overlap the real space based on the first instruction by the user.
Specific means for specifying the position and orientation of the display device, and
A correction means for correcting a portion of an image in the virtual reality space designated by the designated means based on the position and orientation of the display device specified by the specific means and the content of a second instruction by the user. Have,
The second instruction is an instruction different from the redoing of the first instruction, and the user using the display device may give the instruction while looking at the image of the virtual reality space displayed by the display device. An information processing device characterized by being a possible instruction.
前記補正手段は、前記表示装置の位置および姿勢と、前記第2の指示の内容と、前記階層構造とに基づいて、前記仮想現実空間の画像を構成する部分の選択範囲を補正することを特徴とする請求項1〜3のいずれか1項に記載の情報処理装置。 Each part that constitutes the image of the virtual reality space is managed in a hierarchical structure.
The correction means is characterized in that it corrects a selection range of a portion constituting an image in the virtual reality space based on the position and orientation of the display device, the content of the second instruction, and the hierarchical structure. The information processing apparatus according to any one of claims 1 to 3 .
前記変更手段は、前記補正手段により前記仮想現実空間の画像の部位が補正されると、表示の変更の対象となる部位を、当該補正された部位に更新することを特徴とする請求項1〜5のいずれか1項に記載の情報処理装置。 Further, it has a changing means for changing the display of the designated part with respect to the image in the virtual reality space by the designated means.
The changing means is characterized in that, when a part of an image in the virtual reality space is corrected by the correction means, the part to be changed in the display is updated to the corrected part. The information processing apparatus according to any one of 5 .
前記第2の表示装置は、複数人が同時に見ることができる状態で、前記仮想現実空間の画像を表示することを特徴とする請求項1〜8のいずれか1項に記載の情報処理装置。 Further, it has an output means for outputting an image of the virtual reality space to the display device and a second display device different from the display device.
The information processing device according to any one of claims 1 to 8 , wherein the second display device displays an image of the virtual reality space in a state where a plurality of people can view it at the same time.
前記第2の表示装置は、前記複数の表示装置から選択された表示装置に表示される画像を表示し、
前記補正手段は、前記選択された表示装置により表示された前記仮想現実空間の画像の部位を補正することを特徴とする請求項11に記載の画像表示システム。 It has a plurality of the display devices and
The second display device displays an image displayed on a display device selected from the plurality of display devices.
The image display system according to claim 11 , wherein the correction means corrects a portion of an image in the virtual reality space displayed by the selected display device.
前記表示装置の位置および姿勢を特定する特定工程と、
前記指定工程により指定された前記仮想現実空間の画像の部位を、前記特定工程により特定された前記表示装置の位置および姿勢と、ユーザによる第2の指示の内容とに基づいて補正する補正工程と、を有し、
前記第2の指示は、前記第1の指示のやり直しとは異なる指示であって、前記表示装置を使用するユーザが、前記表示装置により表示された前記仮想現実空間の画像を見ながら行うことが可能な指示であることを特徴とする情報処理方法。 A designation process of designating a part of an image in the virtual reality space displayed by the display device so as to overlap the real space based on the first instruction by the user.
A specific process for specifying the position and orientation of the display device, and
A correction step of correcting a portion of an image in the virtual reality space designated by the designated step based on the position and orientation of the display device specified by the specific step and the content of a second instruction by the user. Have,
The second instruction is an instruction different from the redoing of the first instruction, and the user using the display device may give the instruction while looking at the image of the virtual reality space displayed by the display device. An information processing method characterized by being a possible instruction.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016087328A JP6765846B2 (en) | 2016-04-25 | 2016-04-25 | Information processing equipment, information processing methods, and programs |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016087328A JP6765846B2 (en) | 2016-04-25 | 2016-04-25 | Information processing equipment, information processing methods, and programs |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2017199085A JP2017199085A (en) | 2017-11-02 |
JP2017199085A5 JP2017199085A5 (en) | 2019-05-23 |
JP6765846B2 true JP6765846B2 (en) | 2020-10-07 |
Family
ID=60237999
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016087328A Active JP6765846B2 (en) | 2016-04-25 | 2016-04-25 | Information processing equipment, information processing methods, and programs |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6765846B2 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2022131549A1 (en) * | 2020-12-17 | 2022-06-23 | 삼성전자 주식회사 | Electronic device and operation method of electronic device |
US11822728B2 (en) | 2020-12-17 | 2023-11-21 | Samsung Electronics Co., Ltd. | Electronic device and operation method thereof |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0863319A (en) * | 1994-08-24 | 1996-03-08 | Hitachi Ltd | Information processor |
US6408257B1 (en) * | 1999-08-31 | 2002-06-18 | Xerox Corporation | Augmented-reality display method and system |
JP2015149634A (en) * | 2014-02-07 | 2015-08-20 | ソニー株式会社 | Image display device and method |
-
2016
- 2016-04-25 JP JP2016087328A patent/JP6765846B2/en active Active
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2022131549A1 (en) * | 2020-12-17 | 2022-06-23 | 삼성전자 주식회사 | Electronic device and operation method of electronic device |
US11822728B2 (en) | 2020-12-17 | 2023-11-21 | Samsung Electronics Co., Ltd. | Electronic device and operation method thereof |
Also Published As
Publication number | Publication date |
---|---|
JP2017199085A (en) | 2017-11-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10198870B2 (en) | Information processing apparatus, information processing system, and information processing method | |
US10095458B2 (en) | Information processing apparatus, information processing method, non-transitory computer-readable storage medium, and system | |
US10095030B2 (en) | Shape recognition device, shape recognition program, and shape recognition method | |
JP5936155B2 (en) | 3D user interface device and 3D operation method | |
JP5845211B2 (en) | Image processing apparatus and image processing method | |
JP6465672B2 (en) | Information processing apparatus and information processing method | |
US10438411B2 (en) | Display control method for displaying a virtual reality menu and system for executing the display control method | |
KR20130108643A (en) | Systems and methods for a gaze and gesture interface | |
JP2009267729A (en) | Image processing apparatus, image processing method, program, and recording medium | |
JP2018078448A (en) | Program and head-mounted type display device | |
JP6399692B2 (en) | Head mounted display, image display method and program | |
JP2017187667A (en) | Head-mounted display device and computer program | |
JP2019008623A (en) | Information processing apparatus, information processing apparatus control method, computer program, and storage medium | |
US20150339859A1 (en) | Apparatus and method for navigating through volume image | |
KR101256046B1 (en) | Method and system for body tracking for spatial gesture recognition | |
JP2017102696A (en) | Head mounted display device and computer program | |
JP6765846B2 (en) | Information processing equipment, information processing methods, and programs | |
JP2005339266A (en) | Information processing method, information processor and imaging device | |
US10296098B2 (en) | Input/output device, input/output program, and input/output method | |
US11589001B2 (en) | Information processing apparatus, information processing method, and program | |
JP2010205031A (en) | Method, system and program for specifying input position | |
JP6535699B2 (en) | INFORMATION PROCESSING METHOD, INFORMATION PROCESSING PROGRAM, AND INFORMATION PROCESSING APPARATUS | |
WO2022176450A1 (en) | Information processing device, information processing method, and program | |
JP2005339267A (en) | Information processing method, information processor and imaging device | |
WO2016185634A1 (en) | Information processing device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190412 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190412 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20200528 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200616 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200730 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200818 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20200916 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6765846 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |