JP6929674B2 - Environmental image display system and environmental image display method - Google Patents

Environmental image display system and environmental image display method Download PDF

Info

Publication number
JP6929674B2
JP6929674B2 JP2017056299A JP2017056299A JP6929674B2 JP 6929674 B2 JP6929674 B2 JP 6929674B2 JP 2017056299 A JP2017056299 A JP 2017056299A JP 2017056299 A JP2017056299 A JP 2017056299A JP 6929674 B2 JP6929674 B2 JP 6929674B2
Authority
JP
Japan
Prior art keywords
image
display
image data
head mount
display device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017056299A
Other languages
Japanese (ja)
Other versions
JP2018160761A (en
Inventor
英明 藤原
英明 藤原
一彦 次岡
一彦 次岡
信幸 渡邉
信幸 渡邉
茂木 健一
健一 茂木
克也 野口
克也 野口
賢次 小関
賢次 小関
嘉康 安藤
嘉康 安藤
Original Assignee
株式会社東京エネシス
株式会社ヘキサメディア
株式会社アイ・ロボティクス
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社東京エネシス, 株式会社ヘキサメディア, 株式会社アイ・ロボティクス filed Critical 株式会社東京エネシス
Priority to JP2017056299A priority Critical patent/JP6929674B2/en
Publication of JP2018160761A publication Critical patent/JP2018160761A/en
Application granted granted Critical
Publication of JP6929674B2 publication Critical patent/JP6929674B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Studio Devices (AREA)
  • Controls And Circuits For Display Device (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本発明は、環境画像表示システム及び環境画像表示方法に係り、特に、人間の立ち入りが困難な領域の環境画像を表示する環境画像表示システム及び環境画像表示方法に関する。 The present invention relates to an environmental image display system and an environmental image display method, and more particularly to an environmental image display system and an environmental image display method for displaying an environmental image in an area where it is difficult for humans to enter.

近年、人体に危険があり、人の立ち入りができない領域の状況を把握するために、無線操縦可能な無人移動体に搭載されたカメラを利用して、当該領域の環境画像を撮影する技術が提案されている(特許文献1参照:以下、「従来例」という)。この従来例の技術では、無人移動体に搭載されたカメラにより環境画像を撮影し、撮影結果を無線通信により、利用者が利用する表示装置へ送信する。そして、表示装置において、受信した撮影結果に対応する環境画像が表示されるようになっている。 In recent years, in order to grasp the situation of an area where people are in danger and cannot enter, a technology has been proposed to take an environmental image of the area using a camera mounted on a radio-controlled unmanned moving body. (Refer to Patent Document 1: Hereinafter referred to as "conventional example"). In this conventional technique, an environmental image is taken by a camera mounted on an unmanned moving body, and the shooting result is transmitted to a display device used by the user by wireless communication. Then, the display device displays the environment image corresponding to the received shooting result.

なお、従来例の技術では、無人移動体の周囲を撮影するために下方に向けられた俯瞰カメラ、前方向側を撮影する前方カメラ、及び、後方向側を撮影する後方カメラの3台のカメラを、無人移動体に搭載するようになっている。 In the conventional technology, there are three cameras: a bird's-eye view camera that is directed downward to photograph the surroundings of an unmanned moving object, a front camera that photographs the front side, and a rear camera that photographs the rear side. Is to be mounted on an unmanned moving body.

特開2013−112028号公報Japanese Unexamined Patent Publication No. 2013-11028

従来例では、上述したように、俯瞰カメラ、前方カメラ及び後方カメラの3台のカメラの撮影結果を表示する。しかしながら、従来例には、3台のカメラによる撮影結果を、どのように表示するかについては、何等の開示も行われていない。 In the conventional example, as described above, the shooting results of the three cameras of the bird's-eye view camera, the front camera, and the rear camera are displayed. However, in the conventional example, no disclosure is made as to how to display the shooting results by the three cameras.

例えば、3台のカメラの撮影結果のそれぞれを、そのまま、3台のカメラのそれぞれに対応して用意された3台の表示デバイスに表示させることが考えられる。こうした場合には、着目したい地点の周辺の画像が、2以上の表示デバイスにおける表示画像に跨るなどの事態が発生したとき、観察の便宜のために当該地点の周辺の画像を同一の表示デバイスに表示するためには、無線操縦により、無人移動体の姿勢を変更することが必要となる。こうした操作は利用者にとって煩雑さを感じさせることになる。 For example, it is conceivable to display the shooting results of the three cameras as they are on the three display devices prepared for each of the three cameras. In such a case, when a situation occurs in which the image around the point of interest straddles the display images on two or more display devices, the image around the point is displayed on the same display device for convenience of observation. In order to display it, it is necessary to change the posture of the unmanned moving body by radio control. Such an operation makes the user feel complicated.

このため、利用者にとっての煩雑さの発生を抑制しつつ、無人移動体の周囲の環境画像の表示を行うことができる新たな技術が待望されている。かかる要請に応えることが、本発明が解決すべき課題の一つである。 Therefore, there is a long-awaited new technology capable of displaying an environmental image around an unmanned moving object while suppressing the occurrence of complexity for the user. Responding to such a request is one of the problems to be solved by the present invention.

本発明の環境画像表示システムは、無線操縦可能な無人移動体に配置され、前記無人移動体の周辺画像を撮影し、撮影結果データを無線通信により送信する撮影装置と;前記撮影結果データを処理して、表示画像データを生成する画像処理装置と;前記画像処理装置に接続され、前記表示画像データに従って画像表示を行うヘッドマウント表示装置と;を備え、前記撮影装置は、撮影視野の広さが互いに同一であり、撮影方向が互いに異なる複数の撮影光学系を利用し、重複領域を有しつつ、全体として全天球にわたる画像を撮影する全天球カメラと;前記複数の撮影光学系のそれぞれに対応する撮影結果データを前記画像処理装置へ送信する無線送信部と;を備え、前記画像処理装置は、前記撮影装置から送信された複数の撮影結果データを受信する無線受信部と;前記受信した複数の撮影結果データに対してスティッチング処理を施して全天球画像データを生成する全天球画像データ生成部と;前記ヘッドマウント表示装置の姿勢に対応して定まる表示領域の画像を全天球画像から抽出して、前記表示画像データを生成する表示画像データ生成部と;を備え、前記ヘッドマウント表示装置は、前記表示画像データに対応する画像を表示する表示部と;前回検出時点からの前記ヘッドマウント表示装置の姿勢変化量を検出し、検出結果を前記画像処理装置へ送る姿勢変化量検出部と;を備え、前記表示画像データ生成部は、前記複数の撮影光学系のうちから選択された特定撮影光学系の光軸方向を、前記ヘッドマウント表示装置の利用者の初期視線方向とする初期表示画像データを生成する、ことを特徴とする環境画像表示システムである。 The environmental image display system of the present invention is arranged on an unmanned moving body that can be operated wirelessly, takes a peripheral image of the unmanned moving body, and transmits the shooting result data by wireless communication; and processes the shooting result data. An image processing device that generates display image data; and a head mount display device that is connected to the image processing device and displays an image according to the displayed image data; A spherical camera that captures images over the entire celestial sphere while using a plurality of photographing optical systems that are the same as each other and have different shooting directions; A wireless transmission unit that transmits shooting result data corresponding to each to the image processing device; the image processing device includes a wireless receiving unit that receives a plurality of shooting result data transmitted from the shooting device; An omnidirectional image data generator that generates omnidirectional image data by performing stitching processing on a plurality of received shooting result data; and an image of a display area determined according to the posture of the head mount display device. The head mount display device includes a display image data generation unit that extracts from the spherical image and generates the display image data; and the head mount display device has a display unit that displays an image corresponding to the display image data; The display image data generation unit includes a posture change amount detection unit that detects the attitude change amount of the head mount display device from a time point and sends the detection result to the image processing device; The environmental image display system is characterized in that it generates initial display image data in which the optical axis direction of the specific photographing optical system selected from the above is the initial line-of-sight direction of the user of the head mount display device.

この環境画像表示システムでは、無線操縦可能な無人移動体に配置された撮影装置の全天球カメラにより、無人移動体の周辺画像を撮影する。この全天球カメラは、撮影視野の広さが互いに同一であり、撮影方向が互いに異なる複数の撮影光学系を利用し、重複領域を有しつつ、全体として全天球にわたる画像を撮影する。そして、撮影装置の全天球カメラによる撮像結果である複数の撮影光学系のそれぞれに対応する撮影結果データを、撮影装置の無線送信部が、画像処理装置へ送信する。 In this environment image display system, a peripheral image of an unmanned moving body is taken by an omnidirectional camera of a photographing device arranged on a radio-controlled unmanned moving body. This spherical camera uses a plurality of photographing optical systems having the same wide field of view and different shooting directions, and captures an image over the entire celestial sphere while having an overlapping region. Then, the wireless transmission unit of the photographing device transmits the photographing result data corresponding to each of the plurality of photographing optical systems, which is the imaging result by the spherical camera of the photographing device, to the image processing device.

画像処理装置では、全天球画像データ生成部が、撮影装置から送信された複数の撮影結果データを、無線受信部を介して受信する。引き続き、全天球画像データ生成部は、受信した複数の撮影結果データに対してスティッチング処理を施して全天球画像データを生成する。 In the image processing device, the spherical image data generation unit receives a plurality of shooting result data transmitted from the shooting device via the wireless receiving unit. Subsequently, the spherical image data generation unit performs stitching processing on the received plurality of shooting result data to generate spherical image data.

こうして生成された全天球画像データに対応する全天球画像には、スティッチング処理による繋ぎ目部分を含んでいる。こうした繋ぎ目部分では画像の不連続性が多少なりとも発生することになる。 The spherical image corresponding to the spherical image data generated in this way includes a joint portion by the stitching process. At such a joint portion, some discontinuity of the image will occur.

また、ヘッドマウント表示装置の姿勢変化量検出部が、前回検出時点からのヘッドマウント表示装置の姿勢変化量を検出し、検出結果を画像処理装置へ送る。引き続き、画像処理装置の表示画像データ生成部が、ヘッドマウント表示装置から送られたヘッドマウント表示装置の姿勢に対応して定まる表示領域の画像を全天球画像から抽出して、表示画像データを生成する。ここで、複数の撮影光学系のうちから選択された特定撮影光学系の光軸方向をヘッドマウント表示装置の利用者の初期視線方向として、表示画像データ生成部は、ヘッドマウント表示装置の姿勢変化量の受信結果に基づき、全天球画像における表示画像の位置を特定し、表示画像データを生成する。そして、表示画像データ生成部は、生成された表示画像データをヘッドマウント表示装置へ送る。 Further, the posture change amount detection unit of the head mount display device detects the posture change amount of the head mount display device from the previous detection time, and sends the detection result to the image processing device. Subsequently, the display image data generation unit of the image processing device extracts the image of the display area determined according to the posture of the head mount display device sent from the head mount display device from the spherical image, and outputs the display image data. Generate. Here, the display image data generation unit changes the posture of the head mount display device, with the optical axis direction of the specific photographing optical system selected from the plurality of photographing optical systems as the initial line-of-sight direction of the user of the head mount display device. Based on the received result of the quantity, the position of the display image in the spherical image is specified, and the display image data is generated. Then, the display image data generation unit sends the generated display image data to the head mount display device.

なお、抽出された表示画像データに対応する表示画像がスティッチング処理による繋ぎ目を含む場合には、表示画像は不連続性を含むことになる。かかる不連続性が表示画像の中央部分に発生する場合に、利用者にとっての違和感が最も大きくなる。そして、不連続性の発生部分が表示画像の中央部分から離れるほど、利用者にとっての違和感が小さくなっていく。なお、スティッチング処理による繋ぎ目が表示画像に含まれていない場合には、表示画像中における不連続性の発生による利用者にとっての違和感は発生しない。 When the display image corresponding to the extracted display image data includes a joint by the stitching process, the display image includes discontinuity. When such a discontinuity occurs in the central portion of the displayed image, the user feels the greatest discomfort. Then, the farther the discontinuity generation portion is from the central portion of the displayed image, the less discomfort the user feels. When the seams formed by the stitching process are not included in the display image, the user does not feel uncomfortable due to the occurrence of discontinuity in the display image.

ヘッドマウント表示装置では、表示部が、画像処理装置から送られた表示画像データを受ける。そして、表示部は、当該表示画像データに従った画像を表示する。 In the head mount display device, the display unit receives the display image data sent from the image processing device. Then, the display unit displays an image according to the display image data.

こうして表示される画像のうち、初期視線方向に対応する画像(以下、「初期表示画像」という)の中央部分には画像の不連続性が発生していないので、少なくとも初期表示画像については、表示画像中における不連続性の発生による利用者にとっての違和感の発生が抑制された画像となる。そして、利用者が頭部の姿勢を変化させ、ヘッドマウント表示装置の姿勢を変化させることにより、無人移動体の周辺の任意の方向における画像を表示させ、移動体周辺を観察することができる。 Of the images displayed in this way, since there is no image discontinuity in the central portion of the image corresponding to the initial line-of-sight direction (hereinafter referred to as "initial display image"), at least the initial display image is displayed. It is an image in which the occurrence of discomfort for the user due to the occurrence of discontinuity in the image is suppressed. Then, by changing the posture of the head and changing the posture of the head mount display device, the user can display an image in an arbitrary direction around the unmanned moving body and observe the surroundings of the moving body.

したがって、本発明の環境画像表示システムによれば、利用者にとっての煩雑さ、及び、画像の不連続性による利用者にとっての違和感の発生を抑制しつつ、無人移動体の周辺の環境画像を表示することができる。 Therefore, according to the environmental image display system of the present invention, the environment image around the unmanned moving body is displayed while suppressing the complexity for the user and the occurrence of discomfort for the user due to the discontinuity of the image. can do.

本発明の環境画像表示システムでは、前記画像処理装置及び前記ヘッドマウント表示装置のいずれかが、前記初期視線方向を、現時点の前記ヘッドマウント表示装置姿勢に応じた方向に設定する初期視線方向入力が行われる入力部;を更に備える構成とすることができる。この場合には、入力部を利用して、ヘッドマウント表示装置を装着した利用者が、例えば正面を向く方向等の所望の姿勢変化をしやすい方向を初期視線方向に設定することができる。このため、利用者の利便性を向上させることができる。 In the environmental image display system of the present invention, either the image processing device or the head mount display device receives an initial line-of-sight direction input that sets the initial line-of-sight direction to a direction corresponding to the current attitude of the head mount display device. The input unit to be performed; may be further provided. In this case, the input unit can be used to set the direction in which the user wearing the head mount display device is likely to change the desired posture, such as the direction toward the front, as the initial line-of-sight direction. Therefore, the convenience of the user can be improved.

また、本発明の環境画像表示システムでは、前記全天球画像データ生成部が、前記スティッチング処理に際して、前記重複領域についてブレンド処理を施す構成とすることができる。この場合には、表示画像にスティッチング処理部分が含まれるようになっても、表示画像を視た利用者の違和感を低減することができる。 Further, in the environmental image display system of the present invention, the spherical image data generation unit may be configured to perform a blending process on the overlapping region at the time of the stitching process. In this case, even if the display image includes the stitching processing portion, it is possible to reduce the discomfort of the user who sees the display image.

また、本発明の環境画像表示システムでは、全天球画像における前記撮影光学系のそれぞれに対応する領域が、前記初期表示画像データに対応する画像の表示領域を含むことができる広さを有する構成とすることができる。この場合には、初期表示画像には、画像の不連続性が発生し得るスティッチング処理部分が含まれることがない。このため、画像の不連続性の発生による利用者にとっての違和感の発生を効果的に抑制することができる。 Further, in the environmental image display system of the present invention, the region corresponding to each of the photographing optical systems in the spherical image has a width capable of including the display region of the image corresponding to the initial display image data. Can be. In this case, the initial display image does not include a stitching processed portion where image discontinuity may occur. Therefore, it is possible to effectively suppress the occurrence of discomfort for the user due to the occurrence of image discontinuity.

また、本発明の環境画像表示システムでは、前記複数の撮影光学系の数が「2」である構成とすることができる。この場合には、スティッチング処理部分を最小化できるので、画像の不連続性の発生による利用者にとっての違和感の発生を最小化することができる。 Further, in the environmental image display system of the present invention, the number of the plurality of photographing optical systems may be "2". In this case, since the stitching processing portion can be minimized, it is possible to minimize the occurrence of discomfort for the user due to the occurrence of image discontinuity.

本発明の環境画像表示方法は、無線操縦可能な無人移動体に配置され、前記無人移動体の周辺画像を撮影し、撮影結果データを無線通信により送信する撮影装置と;前記撮影結果データを処理して、表示画像データを生成する画像処理装置と;前記画像処理装置に接続され、前記表示画像データに従って画像表示を行うヘッドマウント表示装置と;を備える環境画像表示システムにおいて使用される環境画像表示方法であって、前記撮影装置が、撮影視野の広さが互いに同一であり、撮影方向が互いに異なる複数の撮影光学系を利用し、重複領域を有しつつ、全体として全天球にわたる画像を撮影し、前記複数の撮影光学系のそれぞれに対応する撮影結果データを前記画像処理装置へ送信する撮影工程と;前記画像処理装置が、前記撮影工程において送信された複数の撮影結果データに対してスティッチング処理を施して全天球画像データを生成する全天球画像データ生成工程と;前記画像処理装置が、前記ヘッドマウント表示装置の姿勢に対応して定まる表示領域の画像を全天球画像から抽出して、前記表示画像データを生成する表示画像データ生成工程と;前記ヘッドマウント表示装置が、前記表示画像データに対応する画像を表示する表示工程と;前記ヘッドマウント表示装置が、前回検出時点からの前記ヘッドマウント表示装置の姿勢変化量を検出し、検出結果を前記画像処理装置へ送る姿勢変化量検出工程と;を備え、前記表示画像データ生成工程では、前記複数の撮影光学系のうちから選択された特定撮影光学系の光軸方向を、前記ヘッドマウント表示装置の利用者の初期視線方向とする初期表示画像データを生成する、ことを特徴とする環境画像表示方法である。 The environmental image display method of the present invention is a photographing device which is arranged on an unmanned moving body capable of wireless control, captures a peripheral image of the unmanned moving body, and transmits the imaging result data by wireless communication; and processes the imaging result data. An environmental image display used in an environmental image display system including an image processing device that generates display image data; and a head mount display device that is connected to the image processing device and displays an image according to the displayed image data. In this method, the imaging device uses a plurality of imaging optical systems having the same imaging field width and different imaging directions to obtain an image over the entire celestial sphere while having overlapping regions. A shooting step of taking a picture and transmitting the shooting result data corresponding to each of the plurality of shooting optical systems to the image processing device; the image processing device with respect to the plurality of shooting result data transmitted in the shooting step. An all-sky image data generation step of performing stitching processing to generate all-sky image data; an image of a display area determined by the image processing device according to the posture of the head-mounted display device is an all-sky image. A display image data generation step of extracting from the display image data to generate the display image data; a display step in which the head mount display device displays an image corresponding to the display image data; A posture change amount detection step of detecting the posture change amount of the head mount display device from a time point and sending the detection result to the image processing device; It is an environment image display method characterized by generating initial display image data in which the optical axis direction of the specific photographing optical system selected from the above is the initial line-of-sight direction of the user of the head mount display device.

この環境画像表示方法では、撮影工程において、撮影装置が、撮影視野の広さが互いに同一であり、撮影方向が互いに異なる複数の撮影光学系を利用し、重複領域を有しつつ、全体として全天球にわたる画像を撮影し、複数の撮影光学系のそれぞれに対応する撮影結果データを前記画像処理装置へ送信する。また、撮影工程と並行して、姿勢変化量検出工程において、ヘッドマウント表示装置が、前回検出時点からのヘッドマウント表示装置の姿勢変化量を検出し、検出結果を画像処理装置へ送る。 In this environmental image display method, in the shooting process, the shooting devices use a plurality of shooting optical systems having the same wide field of view and different shooting directions, and have overlapping areas as a whole. An image over the celestial sphere is captured, and imaging result data corresponding to each of the plurality of imaging optical systems is transmitted to the image processing device. Further, in parallel with the photographing step, in the posture change amount detection step, the head mount display device detects the posture change amount of the head mount display device from the previous detection time, and sends the detection result to the image processing device.

撮影装置から送信された複数の撮影結果データを受けると、全天球画像データ生成工程において、画像処理装置が、当該複数の撮影結果データに対してスティッチング処理を施して全天球画像データを生成する。引き続き、表示画像データ生成工程において、画像処理装置が、ヘッドマウント表示装置の姿勢に対応して定まる表示領域の画像を全天球画像から抽出して表示画像データを生成する。そして、表示工程において、ヘッドマウント表示装置が、表示画像データに対応する画像を表示する。 Upon receiving a plurality of shooting result data transmitted from the shooting device, the image processing device performs stitching processing on the plurality of shooting result data in the spherical image data generation step to obtain the spherical image data. Generate. Subsequently, in the display image data generation step, the image processing device extracts the image of the display area determined according to the posture of the head mount display device from the spherical image to generate the display image data. Then, in the display process, the head mount display device displays an image corresponding to the display image data.

したがって、本発明の環境画像表示方法によれば、利用者にとっての煩雑さ、及び、画像の不連続性による利用者にとっての違和感の発生を抑制しつつ、無人移動体の周辺の環境画像を表示することができる。 Therefore, according to the environment image display method of the present invention, the environment image around the unmanned moving body is displayed while suppressing the complexity for the user and the occurrence of discomfort for the user due to the discontinuity of the image. can do.

以上説明したように、本発明の環境画像表示システム及び環境画像表示方法によれば、利用者にとっての煩雑さ、及び、画像の不連続性による利用者にとっての違和感の発生を抑制しつつ、無人移動体の周辺の環境画像を表示することができる、という効果を奏する。 As described above, according to the environmental image display system and the environmental image display method of the present invention, it is unmanned while suppressing the complexity for the user and the occurrence of discomfort for the user due to the discontinuity of the image. It has the effect of being able to display an environmental image around the moving object.

本発明の一実施形態に係る環境画像表示システムの構成を示す図である。It is a figure which shows the structure of the environmental image display system which concerns on one Embodiment of this invention. 図1の撮影装置の構成を説明するためのブロック図である。It is a block diagram for demonstrating the structure of the photographing apparatus of FIG. 図2の撮影装置による撮影画像を説明するための図である。It is a figure for demonstrating the image taken by the photographing apparatus of FIG. 図1の画像処理装置の構成を説明するためのブロック図である。It is a block diagram for demonstrating the structure of the image processing apparatus of FIG. 図4の全天球画像データ生成部により生成される全天球画像データに対応する全天球画像と、図2の撮影装置による撮影画像との関係を説明するための図である。It is a figure for demonstrating the relationship between the spherical image corresponding to the spherical image data generated by the spherical image data generation part of FIG. 4 and the image captured by the photographing apparatus of FIG. 図1のヘッドマウント表示装置の構成を説明するためのブロック図である。It is a block diagram for demonstrating the structure of the head mount display device of FIG. 図1の画像処理装置が実行する処理を説明するためのフローチャートである。It is a flowchart for demonstrating the process executed by the image processing apparatus of FIG. 全天球画像と表示画像との関係例を説明するための図である。It is a figure for demonstrating an example of the relationship between a spherical image and a display image.

以下、本発明の一実施形態を、図1〜図8を参照して説明する。なお、以下の説明及び図面においては、同一又は同等な要素には同一の符号を付し、重複する説明を省略する。 Hereinafter, an embodiment of the present invention will be described with reference to FIGS. 1 to 8. In the following description and drawings, the same or equivalent elements are designated by the same reference numerals, and duplicate description will be omitted.

[構成]
図1に示されるように、一実施形態に係る環境画像表示システム100は、撮影装置200と、画像処理装置300と、ヘッドマウント表示装置400とを備えている。
[composition]
As shown in FIG. 1, the environment image display system 100 according to the embodiment includes a photographing device 200, an image processing device 300, and a head mount display device 400.

ここで、撮影装置200は、無人移動体MVに配置されている。この無人移動体MVは、遠隔操縦装置RMにより、移動の遠隔操作が行われるようになっている。なお、本実施形態では、無人移動体MVは、地上を走行する車両となっている。 Here, the photographing device 200 is arranged in the unmanned moving body MV. The unmanned moving body MV is remotely controlled by the remote control device RM. In the present embodiment, the unmanned moving body MV is a vehicle traveling on the ground.

<撮影装置200の構成>
上記の撮影装置200は、図2に示されるように、全天球カメラ210と、無線通信部220とを備えている。
<Configuration of imaging device 200>
As shown in FIG. 2, the photographing device 200 includes an omnidirectional camera 210 and a wireless communication unit 220.

上記の全天球カメラ210は、2つの撮影光学系OP1,OP2を有している。撮影光学系OP1,OP2のそれぞれに対応する撮影視野の広さは互いに同一となっている。ここで、撮影光学系OP1の光軸方向は、無人移動体MVの前方向である第1方向となっている。また、撮影光学系OP2の光軸方向は、第1方向の逆方向、すなわち、無人移動体MVの後方向である第2方向となっている。 The omnidirectional camera 210 has two photographing optical systems OP1 and OP2. The wide field of view corresponding to each of the shooting optical systems OP1 and OP2 is the same as each other. Here, the optical axis direction of the photographing optical system OP1 is the first direction which is the front direction of the unmanned moving body MV. Further, the optical axis direction of the photographing optical system OP2 is the opposite direction of the first direction, that is, the second direction which is the rear direction of the unmanned moving body MV.

そして、全天球カメラ210は、撮影光学系OP1,OP2を利用し、重複領域を有しつつ、全体として全天球にわたる画像を撮影する。そして、全天球カメラ210は、撮影光学系OP1,OP2のそれぞれに対応する撮影結果データを無線通信部220へ送る。 Then, the spherical camera 210 uses the photographing optical systems OP1 and OP2 to capture an image over the entire celestial sphere while having an overlapping region. Then, the spherical camera 210 sends the shooting result data corresponding to each of the shooting optical systems OP1 and OP2 to the wireless communication unit 220.

なお、図3(A)には、撮影光学系OP1に対応する画像の撮影範囲が示されている。また、図3(B)には、撮影光学系OP2に対応する画像の撮影範囲が示されている。 Note that FIG. 3A shows a shooting range of an image corresponding to the shooting optical system OP1. Further, FIG. 3B shows a shooting range of an image corresponding to the shooting optical system OP2.

図3(A)においては、横方向が無人移動体MVの幅方向であり、縦方向が無人移動体MVの高さ方向となっている。そして、第1方向が、(0°,0°)方向となっている。 In FIG. 3A, the horizontal direction is the width direction of the unmanned moving body MV, and the vertical direction is the height direction of the unmanned moving body MV. The first direction is the (0 °, 0 °) direction.

また、図3(B)においては、横方向が無人移動体MVの幅方向であり、縦方向が無人移動体MVの高さ方向となっている。そして、第2方向が、(0°,0°)方向となっている。 Further, in FIG. 3B, the horizontal direction is the width direction of the unmanned moving body MV, and the vertical direction is the height direction of the unmanned moving body MV. The second direction is the (0 °, 0 °) direction.

上記の無線通信部220は、全天球カメラ210から送られた2つの撮影結果データを受ける。そして、無線通信部220は、当該2つの撮影結果データを、無線通信により画像処理装置300へ送信する。 The wireless communication unit 220 receives two shooting result data sent from the spherical camera 210. Then, the wireless communication unit 220 transmits the two shooting result data to the image processing device 300 by wireless communication.

<画像処理装置300の構成>
上記の画像処理装置300は、図4に示されるように、第1無線通信部310と、全天球画像データ生成部320とを備えている。また、画像処理装置300は、表示画像データ生成部330と、第2無線通信部340とを備えている。
<Configuration of image processing device 300>
As shown in FIG. 4, the image processing device 300 includes a first wireless communication unit 310 and a spherical image data generation unit 320. Further, the image processing device 300 includes a display image data generation unit 330 and a second wireless communication unit 340.

上記の第1無線通信部310は、撮影装置200との間で無線通信を行う。この第1無線通信部310は、撮影装置200から送信された2つの撮影結果データを受信する。そして、第1無線通信部310は、当該2つの撮影結果データを全天球画像データ生成部320へ送る。 The first wireless communication unit 310 performs wireless communication with the photographing device 200. The first wireless communication unit 310 receives two shooting result data transmitted from the shooting device 200. Then, the first wireless communication unit 310 sends the two shooting result data to the spherical image data generation unit 320.

上記の全天球画像データ生成部320は、第1無線通信部310から送られた2つの撮影結果データを受ける。引き続き、全天球画像データ生成部320は、2つの撮影結果データに対してスティッチング処理を施して全天球画像データを生成する。 The spherical image data generation unit 320 receives two imaging result data sent from the first wireless communication unit 310. Subsequently, the spherical image data generation unit 320 performs stitching processing on the two shooting result data to generate spherical image data.

図5には、全天球画像データに対応する全天球画像FSIと、撮影光学系OP1に対応する画像(1)と、撮影光学系OP2に対応する画像(2−1)〜(2−8)との関係が示されている。なお、図5においては、スティッチング処理領域が、小さな黒丸が散布されて示されている。 In FIG. 5, the spherical image FSI corresponding to the spherical image data, the image (1) corresponding to the photographing optical system OP1, and the images (2-1) to (2-) corresponding to the photographing optical system OP2 are shown. The relationship with 8) is shown. In FIG. 5, the stitching processing area is shown by sprinkling small black circles.

本実施形態では、全天球画像データ生成部320は、スティッチング処理に際して、撮影光学系OP1に対応する画像と、撮影光学系OP2に対応する画像との重複領域についてブレンド処理を施すようになっている。このため、ブレンド処理を施さない場合と比べて、全天球画像における繋ぎ目近傍における画像の不連続性が低減される。 In the present embodiment, the spherical image data generation unit 320 performs a blending process on the overlapping region of the image corresponding to the photographing optical system OP1 and the image corresponding to the photographing optical system OP2 during the stitching process. ing. Therefore, the discontinuity of the image in the vicinity of the joint in the spherical image is reduced as compared with the case where the blending process is not performed.

なお、本実施形態では、ブレンド処理に際して、全天球画像データ生成部320は、繋ぎ目からの距離が大きくなるほど、各画素が属する撮影光学系に対応する画像領域のブレンド比を高くするようになっている。 In the present embodiment, during the blending process, the spherical image data generation unit 320 increases the blend ratio of the image region corresponding to the photographing optical system to which each pixel belongs as the distance from the joint increases. It has become.

上記の表示画像データ生成部330は、全天球画像データ生成部320から送られた全天球画像データを受ける。また、表示画像データ生成部330は、第2無線通信部340を利用してヘッドマウント表示装置400から受信した、前回検出時点からのヘッドマウント表示装置400の姿勢変化量(以下、単に「姿勢変化量」ともいう)、及び、初期視線方向設定指令を受ける。引き続き、表示画像データ生成部330は、最新の初期視線方向設定指令に応じて設定された初期視線方向と、ヘッドマウント表示装置400の姿勢変化量とに基づいて、全天球画像における表示領域を決定する。 The display image data generation unit 330 receives the spherical image data sent from the spherical image data generation unit 320. Further, the display image data generation unit 330 receives a posture change amount of the head mount display device 400 from the previous detection time received from the head mount display device 400 by using the second wireless communication unit 340 (hereinafter, simply "posture change". (Also called "quantity") and receive the initial line-of-sight direction setting command. Subsequently, the display image data generation unit 330 displays the display area in the spherical image based on the initial line-of-sight direction set in response to the latest initial line-of-sight direction setting command and the amount of change in the posture of the head mount display device 400. decide.

次に、表示画像データ生成部330は、最新の全天球画像データに対応する全天球画像から、決定された表示領域の画像を抽出して、表示画像データを生成する。そして、表示画像データ生成部330は、生成された表示画像データを、第2無線通信部340へ送る。 Next, the display image data generation unit 330 extracts the image of the determined display area from the spherical image corresponding to the latest spherical image data, and generates the display image data. Then, the display image data generation unit 330 sends the generated display image data to the second wireless communication unit 340.

上記の第2無線通信部340は、ヘッドマウント表示装置400との間で無線通信を行う。この第2無線通信部340は、表示画像データ生成部330から送られた表示画像データを受ける。そして、第2無線通信部340は、当該表示画像データをヘッドマウント表示装置400へ送信する。 The second wireless communication unit 340 performs wireless communication with the head mount display device 400. The second wireless communication unit 340 receives the display image data sent from the display image data generation unit 330. Then, the second wireless communication unit 340 transmits the display image data to the head mount display device 400.

また、第2無線通信部340は、ヘッドマウント表示装置400から送信されたヘッドマウント表示装置400の姿勢変化量を受信する。そして、第2無線通信部340は、当該姿勢変化量を表示画像データ生成部330へ送る。 Further, the second wireless communication unit 340 receives the posture change amount of the head mount display device 400 transmitted from the head mount display device 400. Then, the second wireless communication unit 340 sends the posture change amount to the display image data generation unit 330.

また、第2無線通信部340は、ヘッドマウント表示装置400から送信された初期視線方向設定指令を受信する。そして、第2無線通信部340は、当該初期視線方向設定指令を表示画像データ生成部330へ送る。 Further, the second wireless communication unit 340 receives the initial line-of-sight direction setting command transmitted from the head mount display device 400. Then, the second wireless communication unit 340 sends the initial line-of-sight direction setting command to the display image data generation unit 330.

<ヘッドマウント表示装置400の構成>
上記のヘッドマウント表示装置400は、図6に示されるように、無線通信部410と、表示部420とを備えている。また、ヘッドマウント表示装置400は、姿勢変化量検出部430と、入力部440とを備えている。
<Configuration of head mount display device 400>
As shown in FIG. 6, the head mount display device 400 includes a wireless communication unit 410 and a display unit 420. Further, the head mount display device 400 includes a posture change amount detecting unit 430 and an input unit 440.

上記の無線通信部410は、画像処理装置300との間で無線通信を行う。この無線通信部410は、画像処理装置300から送信された表示画像データを受ける。そして、無線通信部410は、当該表示画像データを表示部420へ送る。 The wireless communication unit 410 performs wireless communication with the image processing device 300. The wireless communication unit 410 receives the display image data transmitted from the image processing device 300. Then, the wireless communication unit 410 sends the display image data to the display unit 420.

また、無線通信部410は、姿勢変化量検出部430から送られたヘッドマウント表示装置400の姿勢変化量を受ける。そして、無線通信部410は、当該姿勢変化量を画像処理装置300へ送る。 Further, the wireless communication unit 410 receives the posture change amount of the head mount display device 400 sent from the posture change amount detection unit 430. Then, the wireless communication unit 410 sends the posture change amount to the image processing device 300.

また、無線通信部410は、入力部440から送られた初期視線方向設定指令を受ける。そして、無線通信部410は、当該初期視線方向設定指令を画像処理装置300へ送る。 Further, the wireless communication unit 410 receives the initial line-of-sight direction setting command sent from the input unit 440. Then, the wireless communication unit 410 sends the initial line-of-sight direction setting command to the image processing device 300.

上記の表示部420は、液晶パネル等の表示デバイスを備えて構成される。この表示部420は、無線通信部410から送られた表示画像データを受ける。そして、表示部420は、当該表示画像データに対応する画像を表示する。 The display unit 420 includes a display device such as a liquid crystal panel. The display unit 420 receives the display image data sent from the wireless communication unit 410. Then, the display unit 420 displays an image corresponding to the display image data.

上記の姿勢変化量検出部430は、例えば、3次元ジャイロセンサ等を備えて構成されている。この姿勢変化量検出部430は、各時点の3次元角速度を検出することにより、前回の検出時点からの姿勢変化量を算出する。そして、姿勢変化量検出部430は、検出結果である姿勢変化量を無線通信部410へ送る。 The posture change amount detection unit 430 is configured to include, for example, a three-dimensional gyro sensor or the like. The attitude change amount detection unit 430 calculates the attitude change amount from the previous detection time by detecting the three-dimensional angular velocity at each time point. Then, the attitude change amount detection unit 430 sends the attitude change amount, which is the detection result, to the wireless communication unit 410.

上記の入力部440は、押下ボタンを備えて構成されている。かかる押下ボタンは、押下操作により「ON」状態となり、押下操作が終了すると「OFF」となるモーメンタリ動作のボタンとなっている。入力部440は、押下ボタンに対して押下操作が行われるたびに、初期視線方向設定指令を無線通信部410へ送る。 The input unit 440 is configured to include a press button. Such a pressing button is a momentary operation button that is turned "ON" by the pressing operation and turned "OFF" when the pressing operation is completed. The input unit 440 sends an initial line-of-sight direction setting command to the wireless communication unit 410 each time a pressing operation is performed on the pressing button.

[動作]
次に、上記のように構成された環境画像表示システム100の動作について、画像処理装置300が実行する処理に主に着目して説明する。
[motion]
Next, the operation of the environment image display system 100 configured as described above will be described mainly focusing on the processing executed by the image processing apparatus 300.

なお、撮影装置200は動作を開始しており、撮影装置200は、撮影結果データを画像処理装置300へ逐次送信しているものとする。また、ヘッドマウント表示装置400も動作を開始しており、ヘッドマウント表示装置400は、検出された姿勢変化量を画像処理装置300へ逐次送信しているものとする。さらに、ヘッドマウント表示装置400における入力部440の押下ボタンの押下操作が過去に一度は押下され、初期視線方向設定指令が、ヘッドマウント表示装置400から画像処理装置300へ送信されたことがあるものとする。 It is assumed that the photographing device 200 has started operation, and the photographing device 200 sequentially transmits the photographing result data to the image processing device 300. Further, it is assumed that the head mount display device 400 has also started operation, and the head mount display device 400 sequentially transmits the detected posture change amount to the image processing device 300. Further, the pressing operation of the pressing button of the input unit 440 in the head mount display device 400 has been pressed once in the past, and the initial line-of-sight direction setting command has been transmitted from the head mount display device 400 to the image processing device 300. And.

上述した動作環境のもとで実行される画像処理装置300の処理では、図7に示されるように、まず、ステップS11において、全天球画像データ生成部320が、第1無線通信部310を介して、撮影装置200から送られた新たな撮影結果データを受信したか否かを判定する。ステップS11における判定の結果が否定的であった場合(ステップS11:N)には、処理は、後述するステップS14へ進む。 In the processing of the image processing device 300 executed under the above-mentioned operating environment, as shown in FIG. 7, first, in step S11, the spherical image data generation unit 320 sets the first wireless communication unit 310. It is determined whether or not new shooting result data sent from the shooting device 200 is received via the camera. If the result of the determination in step S11 is negative (step S11: N), the process proceeds to step S14, which will be described later.

ステップS11における判定の結果が肯定的な場合(ステップS11:Y)には、処理はステップS12へ進む。このステップS12では、全天球画像データ生成部320が、当該新たな撮影結果データ(撮影光学系OP1に対応する撮影結果データ及び撮影光学系OP2に対応する撮影結果データの2つの新たな撮影結果データ)に基づいて、全天球画像データを生成する。かかる全天球画像データの生成に際して、全天球画像データ生成部320は、上述したスティッチング処理を行って全天球画像データを生成する。そして、全天球画像データ生成部320は、生成された全天球画像データを表示画像データ生成部330へ送る。 If the result of the determination in step S11 is affirmative (step S11: Y), the process proceeds to step S12. In this step S12, the all-sky image data generation unit 320 receives the new shooting result data (two new shooting results of the shooting result data corresponding to the shooting optical system OP1 and the shooting result data corresponding to the shooting optical system OP2). Data) is used to generate all-sky image data. When generating the spherical image data, the spherical image data generation unit 320 performs the stitching process described above to generate the spherical image data. Then, the spherical image data generation unit 320 sends the generated spherical image data to the display image data generation unit 330.

次に、ステップS13において、表示画像データ生成部330が、第2無線通信部340を介した、その時点で最新の初期視線方向設定指令の受信時点からの姿勢変化量の受信結果の累積に基づいて、最新の全天球画像データに対応する全天球画像から、表示領域の画像を抽出して、表示画像データを生成する。そして、表示画像データ生成部330は、生成された表示画像データを、第2無線通信部340を介して、ヘッドマウント表示装置400へ送る。この結果、ヘッドマウント表示装置400の表示部420に、当該表示画像データに対応する画像が表示される。 Next, in step S13, the display image data generation unit 330 is based on the accumulation of the reception result of the posture change amount from the reception time of the latest initial line-of-sight direction setting command at that time via the second wireless communication unit 340. Then, the image in the display area is extracted from the spherical image corresponding to the latest spherical image data, and the display image data is generated. Then, the display image data generation unit 330 sends the generated display image data to the head mount display device 400 via the second wireless communication unit 340. As a result, the image corresponding to the displayed image data is displayed on the display unit 420 of the head mount display device 400.

次いで、ステップS14において、表示画像データ生成部330が、第2無線通信部340を介して、撮影装置200から送られた新たな初期視線方向設定指令を受信したか否かを判定する。ステップS14における判定の結果が否定的であった場合(ステップS14:N)には、処理はステップS11へ戻る。 Next, in step S14, it is determined whether or not the display image data generation unit 330 has received the new initial line-of-sight direction setting command sent from the photographing device 200 via the second wireless communication unit 340. If the result of the determination in step S14 is negative (step S14: N), the process returns to step S11.

ステップS14における判定の結果が肯定的であった場合(ステップS14:Y)には、処理はステップS15へ進む。このステップS15では、表示画像データ生成部330が、新たな初期表示画像データの生成を行う。かかる新たな初期表示画像データの生成に際して、表示画像データ生成部330は、最新の全天球画像における(0°,0°)位置を新たな初期表示画像の中心位置として、表示領域の画像を抽出して、新たな初期表示画像データを生成する。そして、表示画像データ生成部330は、生成された初期表示画像データを、第2無線通信部340を介して、ヘッドマウント表示装置400へ送る。この結果、ヘッドマウント表示装置400の表示部420に、新たな初期表示画像データに対応する画像が表示される。 If the result of the determination in step S14 is positive (step S14: Y), the process proceeds to step S15. In this step S15, the display image data generation unit 330 generates new initial display image data. When generating the new initial display image data, the display image data generation unit 330 sets the (0 °, 0 °) position in the latest spherical image as the center position of the new initial display image, and sets the image in the display area. Extract and generate new initial display image data. Then, the display image data generation unit 330 sends the generated initial display image data to the head mount display device 400 via the second wireless communication unit 340. As a result, the image corresponding to the new initial display image data is displayed on the display unit 420 of the head mount display device 400.

ステップS15の処理が終了すると、処理はステップS11へ戻る。以後、ステップS11〜S15の処理が繰り返される。 When the process of step S15 is completed, the process returns to step S11. After that, the processes of steps S11 to S15 are repeated.

なお、図8(A)には、初期視線方向設定が行われた直後の全天球画像FSIにおける表示画像領域DSRの位置が示されている。また、図8(B)には、初期視線方向設定後のヘッドマウント表示装置400の姿勢変化に応じた表示画像領域DSRの位置の一例が示されている。 Note that FIG. 8A shows the position of the display image area DSR in the spherical image FSI immediately after the initial line-of-sight direction setting is performed. Further, FIG. 8B shows an example of the position of the display image area DSR according to the posture change of the head mount display device 400 after the initial line-of-sight direction is set.

以上説明したように、本実施形態の環境画像表示システム100では、無線操縦可能な無人移動体MVに配置された撮影装置200の全天球カメラ210により、無人移動体MVの周辺画像を撮影する。この全天球カメラ210は、撮影視野の広さが互いに同一であり、撮影方向が互いに2つの撮影光学系OP1,OP2を利用し、重複領域を有しつつ、全体として全天球にわたる画像を撮影する。そして、全天球カメラ210による撮像結果である2つの撮影光学系OP1,OP2のそれぞれに対応する撮影結果データを、撮影装置200の無線送信部220が、画像処理装置300へ送信する。 As described above, in the environment image display system 100 of the present embodiment, the peripheral image of the unmanned moving body MV is captured by the spherical camera 210 of the photographing device 200 arranged in the unmanned moving body MV that can be radio-controlled. .. This omnidirectional camera 210 uses the two imaging optical systems OP1 and OP2, which have the same imaging field of view and two imaging directions, and can capture an image over the entire celestial sphere while having an overlapping region. Take a picture. Then, the wireless transmission unit 220 of the imaging device 200 transmits the imaging result data corresponding to each of the two imaging optical systems OP1 and OP2, which are the imaging results of the spherical camera 210, to the image processing device 300.

画像処理装置300では、全天球画像データ生成部320が、撮影装置200から送信された2つの撮影結果データを、第1無線受信部310を介して受信する。引き続き、全天球画像データ生成部320は、受信した2つの撮影結果データに対してスティッチング処理を施して全天球画像データを生成する。 In the image processing device 300, the spherical image data generation unit 320 receives the two imaging result data transmitted from the imaging device 200 via the first wireless receiving unit 310. Subsequently, the spherical image data generation unit 320 generates the spherical image data by performing stitching processing on the two received shooting result data.

また、ヘッドマウント表示装置400の姿勢変化量検出部430が、前回の検出時からのヘッドマウント表示装置400の姿勢変化量を検出し、検出結果を画像処理装置300へ送る。引き続き、画像処理装置300の表示画像データ生成部330が、ヘッドマウント表示装置400から送られたヘッドマウント表示装置400の姿勢に対応して定まる表示領域の画像を全天球画像から抽出して、表示画像データを生成する。ここで、2つの撮影光学系OP1,OP2のうちから選択された特定撮影光学系OP1の光軸方向をヘッドマウント表示装置400の利用者の初期視線方向として、表示画像データ生成部330は、ヘッドマウント表示装置400の姿勢に基づき、全天球画像における表示画像の位置を特定し、表示画像データを生成する。そして、表示画像データ生成部330は、生成された表示画像データをヘッドマウント表示装置400へ送る。 Further, the posture change amount detection unit 430 of the head mount display device 400 detects the posture change amount of the head mount display device 400 from the previous detection, and sends the detection result to the image processing device 300. Subsequently, the display image data generation unit 330 of the image processing device 300 extracts an image of the display area determined according to the posture of the head mount display device 400 sent from the head mount display device 400 from the spherical image. Generate display image data. Here, the display image data generation unit 330 sets the optical axis direction of the specific photographing optical system OP1 selected from the two photographing optical systems OP1 and OP2 as the initial line-of-sight direction of the user of the head mount display device 400, and the display image data generation unit 330 heads. Based on the posture of the mount display device 400, the position of the display image in the spherical image is specified, and the display image data is generated. Then, the display image data generation unit 330 sends the generated display image data to the head mount display device 400.

ヘッドマウント表示装置400では、表示部420が、無線通信部410を介して、画像処理装置300から送られた表示画像データを受ける。そして、表示部420は、当該表示画像データに従った画像を表示する。 In the head mount display device 400, the display unit 420 receives the display image data sent from the image processing device 300 via the wireless communication unit 410. Then, the display unit 420 displays an image according to the display image data.

したがって、本実施形態の環境画像表示システム100によれば、利用者にとっての煩雑さ、及び、画像の不連続性による利用者にとっての違和感の発生を抑制しつつ、無人移動体MVの周辺の環境画像を表示することができる。 Therefore, according to the environment image display system 100 of the present embodiment, the environment around the unmanned moving body MV is suppressed while suppressing the complexity for the user and the occurrence of discomfort for the user due to the discontinuity of the image. Images can be displayed.

また、本実施形態の環境画像表示システム100では、ヘッドマウント表示装置400が、初期視線方向を、現時点のヘッドマウント表示装置400の姿勢に応じた方向に設定する初期視線方向入力が行われる入力部440を備える。このため、入力部440を利用して、ヘッドマウント表示装置400を装着した利用者が、例えば正面を向く方向等の所望の姿勢変化をしやすい方向を初期視線方向に設定することができる。このため、利用者の利便性を向上させることができる。 Further, in the environment image display system 100 of the present embodiment, the head mount display device 400 is an input unit in which the initial line-of-sight direction input is performed to set the initial line-of-sight direction to a direction according to the current posture of the head mount display device 400. 440 is provided. Therefore, the input unit 440 can be used to set a direction in which a user wearing the head mount display device 400 is likely to change a desired posture, such as a direction facing the front, as the initial line-of-sight direction. Therefore, the convenience of the user can be improved.

また、本実施形態の環境画像表示システム100では、全天球画像データ生成部320が、スティッチング処理に際して、重複領域についてブレンド処理を施す。このため、画像の繋ぎ目部分にはブレンド処理が施されているので、表示画像に当該繋ぎ目部分が含まれるようになっても、表示画像を視た利用者の違和感を低減することができる。 Further, in the environment image display system 100 of the present embodiment, the spherical image data generation unit 320 performs a blending process on the overlapping region during the stitching process. For this reason, since the joint portion of the image is blended, even if the joint portion is included in the display image, it is possible to reduce the discomfort of the user who sees the display image. ..

また、本実施形態の環境画像表示システム100では、全天球画像における撮影光学系OP1,OP2のそれぞれに対応する領域が、初期表示画像データに対応する画像の表示領域を含むことができる広さを有するようになっている。このため、初期表示画像には、画像の不連続性が発生し得るスティッチング処理部分が含まれることがない。この結果、画像の不連続性の発生による利用者にとっての違和感の発生を効果的に抑制することができる。 Further, in the environment image display system 100 of the present embodiment, the area corresponding to each of the photographing optical systems OP1 and OP2 in the spherical image can include the image display area corresponding to the initial display image data. Is designed to have. Therefore, the initial display image does not include a stitching processing portion where discontinuity of the image may occur. As a result, it is possible to effectively suppress the occurrence of discomfort for the user due to the occurrence of image discontinuity.

また、本発明の環境画像表示システムでは、全天球カメラ210における撮影光学系の数を「2」としている。このため、スティッチング処理部分を最小化できるので、画像の不連続性の発生による利用者にとっての違和感の発生を最小化することができる。 Further, in the environmental image display system of the present invention, the number of photographing optical systems in the spherical camera 210 is set to "2". Therefore, since the stitching processing portion can be minimized, it is possible to minimize the occurrence of discomfort for the user due to the occurrence of image discontinuity.

[実施形態の変形]
本発明は、上記の実施形態に限定されるものではなく、様々な変形を行うことができる。
[Modification of Embodiment]
The present invention is not limited to the above embodiment, and various modifications can be made.

例えば、上記の実施形態では、無人移動体を、地上を走行する無人車両としたが、無人移動体を、いわゆるドローン等の無人飛行機としてもよい。 For example, in the above embodiment, the unmanned moving vehicle is an unmanned vehicle traveling on the ground, but the unmanned moving vehicle may be an unmanned aerial vehicle such as a so-called drone.

また、上記の実施形態では、撮影装置において利用される撮影光学系の数を「2」としたが、「3」以上としてもよい。 Further, in the above embodiment, the number of photographing optical systems used in the photographing apparatus is set to "2", but it may be set to "3" or more.

また、上記の実施形態におけるスティッチング処理で採用したブレンド方式は例示であり、他のブレンド方式を採用するようにしてもよい。 Further, the blending method adopted in the stitching process in the above embodiment is an example, and another blending method may be adopted.

また、上記の実施形態では、画像処理装置とヘッドマウント表示装置とを無線接続するようにしたが、有線接続により、画像処理装置とヘッドマウント表示装置とを接続するようにしてもよい。 Further, in the above embodiment, the image processing device and the head mount display device are wirelessly connected, but the image processing device and the head mount display device may be connected by a wired connection.

また、上記の実施形態では、ヘッドマウント表示装置が、初期視線方向を現時点のヘッドマウント表示装置姿勢に応じた方向に設定する初期視線方向入力が行われる入力部を備えるようにしたが、当該入力部を画像処理装置が備えるようにしてもよい。 Further, in the above embodiment, the head mount display device is provided with an input unit for performing initial line-of-sight direction input for setting the initial line-of-sight direction in a direction corresponding to the current head mount display device posture. The image processing apparatus may include the unit.

以上説明したように、本発明は、無人移動体の周辺の環境画像を表示する環境画像表示システム及び環境画像表示方法に適用することができる。 As described above, the present invention can be applied to an environmental image display system and an environmental image display method for displaying an environmental image around an unmanned moving body.

100…環境画像表示システム、200…撮影装置、210…全天球カメラ、220…無線通信部(無線送信部)、300…画像処理装置、310…第1無線通信部(無線受信部)、320…全天球画像データ生成部、330…表示画像データ生成部、340…第2無線通信部、400…ヘッドマウント表示装置、410…無線通信部、420…表示部、430…姿勢変化量検出部、440…入力部、MV…移動体、RM…遠隔操縦装置、OP1,OP2…撮影光学系、FSI…全天球画像、DSR…表示画像領域。 100 ... Environmental image display system, 200 ... Imaging device, 210 ... Spherical camera, 220 ... Wireless communication unit (wireless transmission unit), 300 ... Image processing device, 310 ... First wireless communication unit (wireless reception unit), 320 ... Spherical image data generation unit, 330 ... Display image data generation unit, 340 ... Second wireless communication unit, 400 ... Head mount display device, 410 ... Wireless communication unit, 420 ... Display unit, 430 ... Posture change amount detection unit 440 ... Input unit, MV ... Moving object, RM ... Remote control device, OP1, OP2 ... Shooting optical system, FSI ... Spherical image, DSR ... Display image area.

Claims (4)

無線操縦可能な無人移動体に配置され、前記無人移動体の周辺画像を撮影し、撮影結果データを無線通信により送信する撮影装置と;
前記撮影結果データを処理して、表示画像データを生成する画像処理装置と;
前記画像処理装置に接続され、前記表示画像データに従って画像表示を行うヘッドマウント表示装置と;を備え、
前記撮影装置は、
撮影視野の広さが互いに同一であり、撮影方向が互いに逆方向の2つの撮影光学系を利用し、重複領域を有しつつ、全体として全天球にわたる画像を撮影する全天球カメラと;
前記2つの撮影光学系のそれぞれに対応する撮影結果データを前記画像処理装置へ送信する無線送信部と;を備え、
前記画像処理装置は、
前記撮影装置から送信された2種類の撮影結果データを受信する無線受信部と;
前記受信した2種類の撮影結果データに対してスティッチング処理を施して全天球画像データを生成する全天球画像データ生成部と;
前記ヘッドマウント表示装置の姿勢に対応して定まる表示領域の画像を全天球画像から抽出して、前記表示画像データを生成する表示画像データ生成部と;を備え、
前記ヘッドマウント表示装置は、
前記表示画像データに対応する画像を表示する表示部と;
前回検出時点からの前記ヘッドマウント表示装置の姿勢変化量を検出し、検出結果を前記画像処理装置へ送る姿勢変化量検出部と;を備え、
前記画像処理装置及び前記ヘッドマウント表示装置のいずれかは、
前記ヘッドマウント表示装置の現時点の姿勢に応じた方向を、前記ヘッドマウント表示装置の利用者の初期視線方向に設定する初期視線方向入力が行われる入力部を更に備え、
前記表示画像データ生成部は、前記2つの撮影光学系のうちから選択された特定撮影光学系の光軸方向を、前記初期視線方向に対応する方向とする初期表示画像データを生成する、
ことを特徴とする環境画像表示システム。
An imaging device that is placed on a radio-controlled unmanned moving object, captures a peripheral image of the unmanned moving object, and transmits the imaging result data by wireless communication;
With an image processing device that processes the shooting result data and generates display image data;
A head mount display device connected to the image processing device and displaying an image according to the display image data;
The photographing device is
A spherical camera that captures images over the entire celestial sphere while using two imaging optical systems that have the same field of view and opposite shooting directions and have overlapping areas;
A wireless transmission unit that transmits shooting result data corresponding to each of the two shooting optical systems to the image processing device;
The image processing device is
A wireless receiver that receives two types of shooting result data transmitted from the shooting device;
An omnidirectional image data generation unit that generates omnidirectional image data by performing stitching processing on the two types of received shooting result data;
A display image data generation unit that extracts an image of a display area determined according to the posture of the head mount display device from the spherical image and generates the display image data;
The head mount display device is
With a display unit that displays an image corresponding to the display image data;
A posture change amount detection unit that detects the posture change amount of the head mount display device from the previous detection time and sends the detection result to the image processing device;
Either the image processing device or the head mount display device
An input unit for performing initial line-of-sight direction input for setting the direction according to the current posture of the head-mounted display device to the initial line-of-sight direction of the user of the head-mounted display device is further provided.
The display image data generation unit generates initial display image data in which the optical axis direction of the specific photographing optical system selected from the two photographing optical systems is the direction corresponding to the initial line-of-sight direction.
An environmental image display system characterized by this.
前記全天球画像データ生成部は、前記スティッチング処理に際して、前記重複領域についてブレンド処理を施す、ことを特徴とする請求項1に記載の環境画像表示システム。 The environmental image display system according to claim 1 , wherein the spherical image data generation unit performs a blending process on the overlapping region at the time of the stitching process. 全天球画像における前記撮影光学系のそれぞれに対応する領域は、前記初期表示画像データに対応する画像の表示領域を含むことができる広さを有する、ことを特徴とする請求項1又は2に記載の環境画像表示システム。 The region corresponding to each of the photographing optical systems in the spherical image has a size capable of including the display area of the image corresponding to the initial display image data, according to claim 1 or 2 . Described environmental image display system. 無線操縦可能な無人移動体に配置され、前記無人移動体の周辺画像を撮影し、撮影結果データを無線通信により送信する撮影装置と;前記撮影結果データを処理して、表示画像データを生成する画像処理装置と;前記画像処理装置に接続され、前記表示画像データに従って画像表示を行うヘッドマウント表示装置と;を備え、前記画像処理装置及び前記ヘッドマウント表示装置のいずれかは、前記ヘッドマウント表示装置の現時点の姿勢に応じた方向を、前記ヘッドマウント表示装置の利用者の初期視線方向に設定する初期視線方向入力が行われる入力部を更に備える環境画像表示システムにおいて使用される環境画像表示方法であって、
前記撮影装置が、撮影視野の広さが互いに同一であり、撮影方向が互いに逆方向の2つの撮影光学系を利用し、重複領域を有しつつ、全体として全天球にわたる画像を撮影し、前記2つの撮影光学系のそれぞれに対応する撮影結果データを前記画像処理装置へ送信する撮影工程と;
前記画像処理装置が、前記撮影工程において送信された2種類の撮影結果データに対してスティッチング処理を施して全天球画像データを生成する全天球画像データ生成工程と;
前記画像処理装置が、前記ヘッドマウント表示装置の姿勢に対応して定まる表示領域の画像を全天球画像から抽出して、前記表示画像データを生成する表示画像データ生成工程と;
前記ヘッドマウント表示装置が、前記表示画像データに対応する画像を表示する表示工程と;
前記ヘッドマウント表示装置が、前回検出時点からの前記ヘッドマウント表示装置の姿勢変化量を検出し、検出結果を前記画像処理装置へ送る姿勢変化量検出工程と;を備え、
前記表示画像データ生成工程では、前記2つの撮影光学系のうちから選択された特定撮影光学系の光軸方向を、前記初期視線方向に対応する方向とする初期表示画像データを生成する、
ことを特徴とする環境画像表示方法。
An imaging device that is placed on a wirelessly maneuverable unmanned moving object, captures a peripheral image of the unmanned moving object, and transmits the imaging result data by wireless communication; the imaging result data is processed to generate display image data. An image processing device; a head mount display device connected to the image processing device and displaying an image according to the displayed image data; the image processing device and the head mount display device are provided with the head mount display. the direction corresponding to the current posture of the apparatus, the head-mounted display device of the environmental image display to be used in the user initial viewing direction input further environmental image display system Ru an input unit performed to set the initial viewing direction of It ’s a method,
The photographing apparatus uses two photographing optical systems in which the width of the photographing field of view is the same and the photographing directions are opposite to each other, and captures an image over the entire celestial sphere while having an overlapping region. A shooting step of transmitting shooting result data corresponding to each of the two shooting optical systems to the image processing apparatus;
A spherical image data generation step in which the image processing apparatus performs a stitching process on two types of shooting result data transmitted in the shooting step to generate spherical image data;
A display image data generation step in which the image processing device extracts an image of a display area determined according to the posture of the head mount display device from the spherical image to generate the display image data;
A display process in which the head mount display device displays an image corresponding to the display image data;
The head mount display device includes a posture change amount detection step of detecting the posture change amount of the head mount display device from the previous detection time and sending the detection result to the image processing device.
In the display image data generation step, initial display image data is generated in which the optical axis direction of the specific photographing optical system selected from the two photographing optical systems is the direction corresponding to the initial line-of-sight direction.
An environmental image display method characterized by this.
JP2017056299A 2017-03-22 2017-03-22 Environmental image display system and environmental image display method Active JP6929674B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017056299A JP6929674B2 (en) 2017-03-22 2017-03-22 Environmental image display system and environmental image display method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017056299A JP6929674B2 (en) 2017-03-22 2017-03-22 Environmental image display system and environmental image display method

Publications (2)

Publication Number Publication Date
JP2018160761A JP2018160761A (en) 2018-10-11
JP6929674B2 true JP6929674B2 (en) 2021-09-01

Family

ID=63795822

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017056299A Active JP6929674B2 (en) 2017-03-22 2017-03-22 Environmental image display system and environmental image display method

Country Status (1)

Country Link
JP (1) JP6929674B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7486110B2 (en) * 2021-04-16 2024-05-17 パナソニックIpマネジメント株式会社 Image display system and image display method

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111754750B (en) * 2014-11-17 2022-03-01 洋马动力科技有限公司 Display device for remote control working machine, display system, and working machine
JP2017040893A (en) * 2015-08-22 2017-02-23 株式会社ローレル・コード Program about head-mounted type display device
JP6346131B2 (en) * 2015-09-07 2018-06-20 株式会社ソニー・インタラクティブエンタテインメント Information processing apparatus and image generation method
JP6037072B2 (en) * 2016-03-22 2016-11-30 株式会社リコー Video display system, information processing apparatus, video display method, and video display program

Also Published As

Publication number Publication date
JP2018160761A (en) 2018-10-11

Similar Documents

Publication Publication Date Title
US10574889B2 (en) Information processing device, information processing method, and program
US11189055B2 (en) Information processing apparatus and method and program
US9747725B2 (en) Video system for piloting a drone in immersive mode
US9729788B2 (en) Image generation apparatus and image generation method
US10284776B2 (en) Image generation apparatus and image generation method
US9894272B2 (en) Image generation apparatus and image generation method
WO2014077046A1 (en) Image display device and image display method, mobile body device, image display system, and computer program
JP6398472B2 (en) Image display system, image display apparatus, image display method, and program
JP2007043225A (en) Picked-up processing apparatus and picked-up processing method
CN106664393A (en) Information processing device, information processing method, and image display system
JP6576536B2 (en) Information processing device
JP2017163265A (en) Controlling support system, information processing device, and program
CN108646776B (en) Imaging system and method based on unmanned aerial vehicle
KR101600699B1 (en) Flight recording system and operating method thereof
JP6929674B2 (en) Environmental image display system and environmental image display method
WO2018225804A1 (en) Image display device, image display method, and image display program
JP2017046233A (en) Display device, information processor, and control method of the same
CN107454326B (en) Method for panoramic shooting by using fisheye lens, camera and panoramic shooting system
WO2021237625A1 (en) Image processing method, head-mounted display device, and storage medium
WO2017092369A1 (en) Head-mounted device, three-dimensional video call system and three-dimensional video call implementation method
JP2018056845A (en) Work support apparatus, system, method and program
JP6826215B2 (en) Mobile device
KR101896239B1 (en) System for controlling drone using motion capture
JP6885133B2 (en) Image processing equipment, imaging system, image processing method and program
CN114051099B (en) Unmanned aerial vehicle module VR system and method for realizing VR through unmanned aerial vehicle module

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170719

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20170719

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200313

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20201225

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210120

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210319

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210721

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210811

R150 Certificate of patent or registration of utility model

Ref document number: 6929674

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313115

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350