JP2015182712A - Image processing device, method and program - Google Patents

Image processing device, method and program Download PDF

Info

Publication number
JP2015182712A
JP2015182712A JP2014063178A JP2014063178A JP2015182712A JP 2015182712 A JP2015182712 A JP 2015182712A JP 2014063178 A JP2014063178 A JP 2014063178A JP 2014063178 A JP2014063178 A JP 2014063178A JP 2015182712 A JP2015182712 A JP 2015182712A
Authority
JP
Japan
Prior art keywords
image
related information
underwater vehicle
input image
input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2014063178A
Other languages
Japanese (ja)
Inventor
伊織 佐藤
Iori Sato
伊織 佐藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP2014063178A priority Critical patent/JP2015182712A/en
Publication of JP2015182712A publication Critical patent/JP2015182712A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Studio Devices (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a user with a real thing imaged in an input image in which the surrounding of an underwater sailing body is imaged, and association information related to the real thing, efficiently.SOLUTION: An image acquisition part 111 acquires an input image which is generated by imaging the surrounding of an underwater sailing body 2000. A positional information acquisition part 112 acquires sailing body positional information which indicates a current position of the underwater sailing body 2000. An association information image generation part 113 generates an association information image which is an image indicating the association information related to the real thing imaged in the input image, based on the input image acquired by the image acquisition part 111, and the sailing body positional information acquired by the positional information acquisition part 112. An output image generation part 114 generates an output image by superimposing the association information image which is generated by the association information image generation part 113, to the input image acquired by the image acquisition part 111.

Description

本発明は、画像処理装置等に関し、例えば、水中航走体(水中ロボット等)の周辺を撮像することにより生成される入力画像を画像処理するものに関する。   The present invention relates to an image processing apparatus and the like, and for example, relates to an apparatus that performs image processing on an input image generated by imaging the periphery of an underwater vehicle (such as an underwater robot).

近年、車等を目標または目標地まで誘導するために、移動体周辺をカメラにより撮像した撮像画像に、複数の情報をオペレータによって併合(merge:マージ)する技術が、広く知られている。   2. Description of the Related Art In recent years, in order to guide a car or the like to a target or a target location, a technique in which a plurality of information is merged by an operator with a captured image obtained by capturing the periphery of a moving body with a camera is widely known.

この技術に関連して、拡張現実技術を利用して、カメラにより撮像された撮像画像に複数の情報を重畳させた画像を提供する技術が、例えば、特許文献1、2に開示されている。   In relation to this technology, technologies that provide an image obtained by superimposing a plurality of information on a captured image captured by a camera using augmented reality technology are disclosed in, for example, Patent Documents 1 and 2.

特開2013−228311号公報JP2013-228511A 特開2012−244509号公報JP2012-244509A

しかしながら、特許文献1および特許文献2は、陸上での使用を想定した技術内容となっており、水中を航走する水中航走体(例えば、水中ロボット)に単純に適用することができないという問題があった。   However, Patent Document 1 and Patent Document 2 are technical contents that are assumed to be used on land, and cannot be simply applied to an underwater vehicle that travels underwater (for example, an underwater robot). was there.

本発明は、このような事情を鑑みてなされたものであり、本発明の目的は、水中航走体周辺を撮像した入力画像中に映された実物体とともに、実物体に関連付けられる関連情報を併せて、利用者に効率よく提供することができる画像処理装置等を提供することにある。   The present invention has been made in view of such circumstances, and an object of the present invention is to provide related information associated with an actual object together with the actual object displayed in the input image obtained by imaging the periphery of the underwater vehicle. In addition, an object is to provide an image processing apparatus or the like that can be efficiently provided to a user.

本発明の画像処理装置は、水中航走体の周辺を撮像することにより生成される入力画像を取得する画像取得部と、前記水中航走体の現在位置を示す航走体位置情報を取得する位置情報取得部と、前記画像取得部により取得される前記入力画像と、前記位置取得部により取得される前記航走体位置情報とに基づいて、前記入力画像に映る実物体と関連付けられる関連情報を示す画像である関連情報画像を生成する関連情報画像生成部と、前記画像取得部により取得される前記入力画像に、前記関連情報画像生成部により生成される前記関連情報画像を重畳させて出力画像を生成する出力画像生成部とを備えている。   An image processing apparatus according to the present invention acquires an image acquisition unit that acquires an input image generated by imaging the periphery of an underwater vehicle, and navigation body position information that indicates a current position of the underwater vehicle. Based on the position information acquisition unit, the input image acquired by the image acquisition unit, and the navigation vehicle position information acquired by the position acquisition unit, related information associated with the real object shown in the input image A related information image generating unit that generates a related information image that is an image indicating the image, and an output obtained by superimposing the related information image generated by the related information image generating unit on the input image acquired by the image acquiring unit And an output image generation unit that generates an image.

本発明の画像処理方法は、水中航走体の周辺を撮像することにより生成される入力画像を取得する画像取得ステップと、前記水中航走体の現在位置を示す航走体位置情報を取得する位置取得ステップと、前記画像取得ステップにより取得される前記入力画像と、前記位置取得ステップにより取得される前記航走体位置情報とに基づいて、前記入力画像に映る実物体と関連付けられる関連情報を示す画像である関連情報画像を生成する関連情報画像生成ステップと、前記画像取得ステップにより取得される前記入力画像に、前記関連情報画像生成ステップにより生成される前記関連情報画像を重畳させて出力画像を生成する出力画像生成ステップとを含んでいる。   The image processing method of the present invention acquires an image acquisition step of acquiring an input image generated by imaging the periphery of an underwater vehicle and navigation vehicle position information indicating a current position of the underwater vehicle. Based on the position acquisition step, the input image acquired by the image acquisition step, and the navigation body position information acquired by the position acquisition step, related information associated with the real object shown in the input image is obtained. A related information image generating step for generating a related information image, which is an image to be displayed, and an output image by superimposing the related information image generated by the related information image generating step on the input image acquired by the image acquiring step Generating an output image.

本発明の画像処理プログラムは、水中航走体の周辺を撮像することにより生成される入力画像を取得する画像取得ステップと、前記水中航走体の現在位置を示す航走体位置情報を取得する位置取得ステップと、前記画像取得ステップにより取得される前記入力画像と、前記位置取得ステップにより取得される前記航走体位置情報とに基づいて、前記入力画像に映る実物体と関連付けられる関連情報を示す画像である関連情報画像を生成する関連情報画像生成ステップと、前記画像取得ステップにより取得される前記入力画像に、前記関連情報画像生成ステップにより生成される前記関連情報画像を重畳させて出力画像を生成する出力画像生成ステップとを含む処理をコンピュータに行わさせる。   The image processing program of the present invention acquires an image acquisition step of acquiring an input image generated by imaging the periphery of an underwater vehicle and navigation vehicle position information indicating a current position of the underwater vehicle. Based on the position acquisition step, the input image acquired by the image acquisition step, and the navigation body position information acquired by the position acquisition step, related information associated with the real object shown in the input image is obtained. A related information image generating step for generating a related information image, which is an image to be displayed, and an output image by superimposing the related information image generated by the related information image generating step on the input image acquired by the image acquiring step The computer is caused to perform a process including an output image generation step for generating.

本発明にかかる画像処理装置等によれば、水中航走体周辺を撮像した入力画像中に映された実物体とともに、実物体に関連付けられる関連情報を併せて、利用者に効率よく提供することができる。   According to the image processing apparatus and the like according to the present invention, it is possible to efficiently provide a user with related information associated with a real object together with the real object reflected in the input image obtained by imaging the periphery of the underwater vehicle. Can do.

本発明の実施の形態における画像処理装置を含む構成を示すブロック図である。It is a block diagram which shows the structure containing the image processing apparatus in embodiment of this invention. 本発明の実施の形態における画像処理装置の動作の流れを示すフロー図である。It is a flowchart which shows the flow of operation | movement of the image processing apparatus in embodiment of this invention. 表示部の表示内容の一例を示す図である。It is a figure which shows an example of the display content of a display part.

<実施の形態>
本発明の実施の形態における画像処理装置100を含む構成について説明する。
<Embodiment>
A configuration including the image processing apparatus 100 according to the embodiment of the present invention will be described.

図1は、画像処理装置100を含む構成を示すブロック図である。図1に示されるように、船舶1000は、水上900に浮いている。船舶1000上には、画像処理装置100が搭載されている。また、水中航走体2000は、水中を航走する。水中航走体2000は、水中を航走する一般的な器械等であり、例えば水中ロボットである。船舶1000は、水中航走体2000を曳航する。船舶1000および水中航走体2000は、通信線300により接続されている。すなわち、船舶1000および水中航走体2000は、通信線300を介して、相互に様々な情報を通信し合う。通信線300は、例えば光ケーブルである。なお、ここでは、船舶1000および水中航走体2000は、有線である通信線300を用いて、互いに情報を通信し合うと説明した。一方、船舶1000および水中航走体2000は、無線通信により、互いに情報を通信し合ってもよい。   FIG. 1 is a block diagram showing a configuration including the image processing apparatus 100. As shown in FIG. 1, the ship 1000 floats on the water 900. An image processing apparatus 100 is mounted on the ship 1000. The underwater vehicle 2000 travels underwater. The underwater vehicle 2000 is a general instrument that travels underwater, such as an underwater robot. The ship 1000 tows the underwater vehicle 2000. The ship 1000 and the underwater vehicle 2000 are connected by a communication line 300. That is, the ship 1000 and the underwater vehicle 2000 communicate various information with each other via the communication line 300. The communication line 300 is an optical cable, for example. Here, it has been described that the ship 1000 and the underwater vehicle 2000 communicate with each other using the wired communication line 300. On the other hand, the ship 1000 and the underwater vehicle 2000 may communicate information with each other by wireless communication.

説明の便宜上、まず、水中航走体2000の構成を説明し、次に画像処理装置100の構成を説明する。   For convenience of explanation, first, the configuration of the underwater vehicle 2000 will be described, and then the configuration of the image processing apparatus 100 will be described.

図1に示されるように、水中航走体2000は、位置検出センサ210と、撮像カメラ220を備えている。   As shown in FIG. 1, the underwater vehicle 2000 includes a position detection sensor 210 and an imaging camera 220.

位置検出センサ210は、水中航走体2000の現在位置を検出し、これを航走体位置情報として取得する。位置検出センサ210には、例えば、ソーナーや、慣性航法装置や、ドッピュラーログや、音響測位装置等のうちでいずれか1つか複数が用いられる。水中航走体2000は、航走体位置情報を、通信線300を介して、船舶1000上の画像処理装置100の処理部110へ送信する。   The position detection sensor 210 detects the current position of the underwater vehicle 2000 and acquires this as navigation vehicle position information. For the position detection sensor 210, for example, one or more of a sonar, an inertial navigation device, a Doppler log, an acoustic positioning device, and the like are used. The underwater vehicle 2000 transmits the vehicle position information to the processing unit 110 of the image processing apparatus 100 on the ship 1000 via the communication line 300.

撮像カメラ220は、水中航走体2000の周辺を撮像することにより入力画像を生成する。水中航走体2000は、入力画像を、通信線300を介して、船舶1000上の画像処理装置100の処理部110へ送信する。   The imaging camera 220 generates an input image by imaging the periphery of the underwater vehicle 2000. The underwater vehicle 2000 transmits the input image to the processing unit 110 of the image processing apparatus 100 on the ship 1000 via the communication line 300.

以上、水中航走体2000の構成を説明した。   The configuration of the underwater vehicle 2000 has been described above.

次に、画像処理装置100の構成を説明する。図1に示されるように、画像処理装置100は、処理部110と、表示部120と、入力部120と、操舵部140とを備えている。なお、表示部120と、入力部120と、操舵部140は、本発明の必須構成ではない。   Next, the configuration of the image processing apparatus 100 will be described. As illustrated in FIG. 1, the image processing apparatus 100 includes a processing unit 110, a display unit 120, an input unit 120, and a steering unit 140. The display unit 120, the input unit 120, and the steering unit 140 are not essential components of the present invention.

図1に示されるように、処理部110は、画像取得部111と、位置情報取得部112と、関連情報生成部113と、出力画像生成部114とを備えている。処理部110は、表示部120、入力部120および操舵部140に、例えばLAN(Local Area Network)のようなイーサネット(Ethernet)(登録商標)により、接続されている。   As illustrated in FIG. 1, the processing unit 110 includes an image acquisition unit 111, a position information acquisition unit 112, a related information generation unit 113, and an output image generation unit 114. The processing unit 110 is connected to the display unit 120, the input unit 120, and the steering unit 140 by, for example, Ethernet (registered trademark) such as a LAN (Local Area Network).

画像取得部111は、水中航走体2000の周辺を撮像することにより生成される入力画像(水中ビデオ映像、水中静止画像等)を取得する。すなわち、画像取得部111は、水中航走体2000により送信された入力画像を、処理部110から受け取る。   The image acquisition unit 111 acquires an input image (an underwater video image, an underwater still image, etc.) generated by imaging the periphery of the underwater vehicle 2000. That is, the image acquisition unit 111 receives an input image transmitted from the underwater vehicle 2000 from the processing unit 110.

位置情報取得部112は、水中航走体2000の現在位置を示す航走体位置情報を取得する。すなわち、位置情報取得部112は、水中航走体2000により送信された入力画像を、処理部110から受け取る。   The position information acquisition unit 112 acquires traveling body position information indicating the current position of the underwater traveling body 2000. That is, the position information acquisition unit 112 receives the input image transmitted from the underwater vehicle 2000 from the processing unit 110.

関連情報生成部113は、画像取得部111により取得される入力画像と、位置取得部112により取得される航走体位置情報とに基づいて、入力画像に映る実物体と関連付けられる関連情報を表す関連情報画像を生成する。   The related information generation unit 113 represents related information associated with the actual object shown in the input image based on the input image acquired by the image acquisition unit 111 and the navigation vehicle position information acquired by the position acquisition unit 112. A related information image is generated.

ここで、関連情報画像は、例えば、入力画像に映る実物体を、水中航走体2000が向かう目標地として表す画像である。より具体的には、関連情報生成部113は、関連情報提示画像として、目的地タグや目的タグ等の目的表示画像を生成する。   Here, the related information image is, for example, an image representing a real object shown in the input image as a target location to which the underwater vehicle 2000 is headed. More specifically, the related information generation unit 113 generates a destination display image such as a destination tag and a destination tag as the related information presentation image.

また、関連情報画像は、例えば、水中航走体2000を入力画像に映る実物体に向けて移動させるための案内を表す画像である。より具体的には、関連情報生成部113は、関連情報提示画像として、ナビゲーションタグ等の方向指示画像を生成する。   The related information image is, for example, an image representing guidance for moving the underwater vehicle 2000 toward a real object shown in the input image. More specifically, the related information generation unit 113 generates a direction instruction image such as a navigation tag as the related information presentation image.

出力画像生成部114は、画像取得部111により取得される入力画像に、関連情報生成部113により生成される関連情報画像を重畳させて、出力画像を生成する。   The output image generation unit 114 generates an output image by superimposing the related information image generated by the related information generation unit 113 on the input image acquired by the image acquisition unit 111.

表示部120は、処理部110にインサーネット等により接続されている。表示部120は、出力画像生成部114により生成される出力画像を表示提供する。表示部120には、例えば、液晶ディスプレイや、有機EL(Electro-Luminescence)表示装置や、ヘッドマウントディスプレイなどが用いられる。   The display unit 120 is connected to the processing unit 110 via the Internet or the like. The display unit 120 displays and provides the output image generated by the output image generation unit 114. As the display unit 120, for example, a liquid crystal display, an organic EL (Electro-Luminescence) display device, a head mounted display, or the like is used.

入力部130は、処理部110にインサーネット等により接続されている。入力部130は、操作者の各種操作を受け付ける。操作者は、例えば、水中航走体2000の目的地を、入力部130を用いて設定する。   The input unit 130 is connected to the processing unit 110 via the Internet or the like. The input unit 130 receives various operations of the operator. For example, the operator sets the destination of the underwater vehicle 2000 using the input unit 130.

操舵部140は、処理部110にインサーネット等により接続されている。操舵部140は、水中航走体2000の舵を操作して、水中航走体2000を所望の方向へ進ませる。   The steering unit 140 is connected to the processing unit 110 via the internet or the like. The steering unit 140 operates the rudder of the underwater vehicle 2000 to advance the underwater vehicle 2000 in a desired direction.

以上、画像処理装置100の構成を説明した。   The configuration of the image processing apparatus 100 has been described above.

次に、画像処理装置100の動作を説明する。   Next, the operation of the image processing apparatus 100 will be described.

図2は、画像処理装置100の動作の流れを示すフロー図である。図2に示されるように、まず、入力部130により、目標または目標地が設定される(S1)。すなわち、水通航走体2000の操作者は、入力部130を用いて、水中航走体2000の行き先である目標または目標地を入力する。   FIG. 2 is a flowchart showing an operation flow of the image processing apparatus 100. As shown in FIG. 2, first, a target or a target location is set by the input unit 130 (S1). That is, the operator of the water navigation vehicle 2000 uses the input unit 130 to input a target or a target location that is the destination of the underwater vehicle 2000.

次に、画像取得部111が入力画像を取得する(S2)。すなわち、まず、撮像カメラ220が水中航走体2000の周辺を撮像することにより入力画像を生成する。この入力画像は、水中航走体2000によって、通信線300を介して、画像処理装置100の処理部110に入力される。そして、画像取得部111は、入力画像を処理部110から取得する。   Next, the image acquisition unit 111 acquires an input image (S2). That is, first, the imaging camera 220 generates an input image by imaging the vicinity of the underwater vehicle 2000. This input image is input by the underwater vehicle 2000 to the processing unit 110 of the image processing apparatus 100 via the communication line 300. Then, the image acquisition unit 111 acquires an input image from the processing unit 110.

また、位置情報取得部112が、水中航走体2000の現在位置を示す航走体位置情報を取得する(S3)。すなわち、まず、位置検出センサ210が、水中航走体2000の現在位置を検出し、これを航走体位置情報として取得する。この航走体位置情報は、水中航走体2000によって、通信線300を介して、画像処理装置100の処理部110に入力される。そして、位置情報取得部112は、航走体位置情報を処理部110から取得する。   Further, the position information acquisition unit 112 acquires navigation body position information indicating the current position of the underwater vehicle 2000 (S3). That is, first, the position detection sensor 210 detects the current position of the underwater vehicle 2000 and acquires this as navigation vehicle position information. The navigation body position information is input by the underwater navigation body 2000 to the processing unit 110 of the image processing apparatus 100 via the communication line 300. The position information acquisition unit 112 acquires navigation body position information from the processing unit 110.

なお、S2およびS3の処理は、同時に行われてもよいし、どちらが先に行われてもよい。   Note that the processing of S2 and S3 may be performed simultaneously, or either one may be performed first.

次に、関連情報生成部113が、S2の処理で取得される入力画像と、S3の処理で取得される航走体位置情報とに基づいて、入力画像に映る実物体と関連付けられる関連情報を表す関連情報画像を生成する(S4)。   Next, based on the input image acquired in the process of S2 and the navigation vehicle position information acquired in the process of S3, the related information generation unit 113 displays related information associated with the actual object shown in the input image. A related information image to be represented is generated (S4).

なお、関連情報画像は、前述の通り、例えば、入力画像に映る実物体を、水中航走体2000が向かう目標地として表す画像であって、より具体的には、目的地タグや目的タグ等の目的表示画像である。また、関連情報画像は、例えば、水中航走体2000を入力画像に映る実物体に向けて移動させるための案内を表す画像であって、より具体的には、ナビゲーションタグ等の方向指示画像である。   As described above, the related information image is, for example, an image that represents a real object shown in the input image as a destination to which the underwater vehicle 2000 is headed, and more specifically, a destination tag, a destination tag, etc. It is a purpose display image. The related information image is, for example, an image representing guidance for moving the underwater vehicle 2000 toward a real object shown in the input image, and more specifically, a direction indication image such as a navigation tag. is there.

次に、出力画像生成部114は、S2の処理で取得される入力画像に、S4の処理で生成される関連情報画像を重畳させて、出力画像を生成する(S5)。   Next, the output image generation unit 114 generates an output image by superimposing the related information image generated in S4 on the input image acquired in S2 (S5).

図2に戻って、表示部120は、S5の処理で生成された出力画像を表示する(S6)。すなわち、処理部110は、出力画像生成部114により生成された出力画像を表示部120へ出力する。表示部120は、処理部120により出力された出力画像を表示提供する。   Returning to FIG. 2, the display unit 120 displays the output image generated by the process of S5 (S6). That is, the processing unit 110 outputs the output image generated by the output image generation unit 114 to the display unit 120. The display unit 120 provides display of the output image output by the processing unit 120.

図3は、表示部120の表示内容の一例を示す図である。図3に示されるように、関連情報として、「目標、目標値タグ」と、「ナビゲーションタグ」が、入力画像の上に重畳されている。このように、水中航走体2000の周辺を撮像した入力画像中に映された実物体とともに、実物体に関連付けられる関連情報を併せて、利用者に効率よく提供することができる。この結果、水中航走体2000の操作者は、目標または目標地である実物体に到達するための案内を、分かり易い形で受けることができる。このため、水中航走体2000の操作者は、出力画像を視ることにより、水中航走体2000を、目標または目標地である実物体に向けて、簡単に操舵することができる。   FIG. 3 is a diagram illustrating an example of display contents of the display unit 120. As shown in FIG. 3, “target, target value tag” and “navigation tag” are superimposed on the input image as related information. As described above, it is possible to efficiently provide the user with the related information associated with the real object together with the real object shown in the input image obtained by imaging the periphery of the underwater vehicle 2000. As a result, the operator of the underwater vehicle 2000 can receive the guidance for reaching the target or the real object that is the target place in an easily understandable form. For this reason, the operator of the underwater vehicle 2000 can easily steer the underwater vehicle 2000 toward the target or a real object that is the target location by viewing the output image.

最後に、目標または目標地である実物体に向けて、水中航走体2000が操舵部140により操舵される(S7)。すなわち、水中航走体2000の操作者は、S6の処理で表示部120に表示された出力画像を視ながら、水中航走体2000を、目標または目標地である実物体に向けて、操舵することができる。   Finally, the underwater vehicle 2000 is steered by the steering unit 140 toward the target or the real object that is the target location (S7). That is, the operator of the underwater vehicle 2000 steers the underwater vehicle 2000 toward the target or a real object that is the target location while viewing the output image displayed on the display unit 120 in the process of S6. be able to.

以上の通り、本発明の実施の形態における画像処理装置100は、画像取得部111と、位置情報取得部112と、関連情報画像生成部113と、出力画像生成部114とを備えている。画像取得部111は、水中航走体2000の周辺を撮像することにより生成される入力画像を取得する。位置情報取得部112は、水中航走体2000の現在位置を示す航走体位置情報を取得する。関連情報画像生成部113は、画像取得部111により取得される入力画像と、位置取得部112により取得される航走体位置情報とに基づいて、入力画像に映る実物体と関連付けられる関連情報を示す画像である関連情報画像を生成する。出力画像生成部114は、画像取得部111により取得される入力画像に、関連情報画像生成部113により生成される関連情報画像を重畳させて出力画像を生成する。   As described above, the image processing apparatus 100 according to the embodiment of the present invention includes the image acquisition unit 111, the position information acquisition unit 112, the related information image generation unit 113, and the output image generation unit 114. The image acquisition unit 111 acquires an input image generated by imaging the periphery of the underwater vehicle 2000. The position information acquisition unit 112 acquires traveling body position information indicating the current position of the underwater traveling body 2000. Based on the input image acquired by the image acquisition unit 111 and the navigation vehicle position information acquired by the position acquisition unit 112, the related information image generation unit 113 displays related information associated with the actual object shown in the input image. A related information image that is an image to be shown is generated. The output image generation unit 114 generates an output image by superimposing the related information image generated by the related information image generation unit 113 on the input image acquired by the image acquisition unit 111.

このように、関連情報画像生成部113は、入力画像と航走体位置情報とに基づいて、入力画像に映る実物体と関連付けられる関連情報を示す画像である関連情報画像を生成する。出力画像生成部114は、入力画像に、関連情報画像を重畳させて出力画像を生成する。このため、実物体が映る入力画像と、実物体に関連付けられた関連情報画像との双方を、1つの出力画像の中に、含ませることができる。したがって、水中航走体2000の周辺を撮像した入力画像中に映された実物体とともに、実物体に関連付けられる関連情報を併せて、利用者に効率よく提供することができる。この結果、水中航走体2000の操作者は、出力画像に含まれる実物体の画像とともに、実物体に関連付けられた関連情報画像を分かり易い形で受けることができる。このため、水中航走体2000の操作者は、出力画像を視ることにより、水中航走体2000を、目標または目標地である実物体に向けて、簡単に操舵することができる。   In this manner, the related information image generation unit 113 generates a related information image that is an image indicating related information associated with the real object shown in the input image, based on the input image and the traveling body position information. The output image generation unit 114 generates an output image by superimposing the related information image on the input image. For this reason, both the input image in which the real object is reflected and the related information image associated with the real object can be included in one output image. Therefore, it is possible to efficiently provide the user with the related information associated with the real object together with the real object shown in the input image obtained by imaging the periphery of the underwater vehicle 2000. As a result, the operator of the underwater vehicle 2000 can receive the related information image associated with the real object together with the image of the real object included in the output image in an easily understandable form. For this reason, the operator of the underwater vehicle 2000 can easily steer the underwater vehicle 2000 toward the target or a real object that is the target location by viewing the output image.

また、本発明の実施の形態における画像処理装置100において、関連情報画像は、入力画像に映る実物体を、水中航走体2000が向かう目標地として表す画像である。これにより、水中航走体2000が向かう目的地を、入力画像に重畳させて、出力画像の中に含ませることができる。この結果、水中航走体2000の操作者は、出力画像に含まれる実物体の画像とともに、実物体に関連付けられた関連情報画像として、水中航走体2000が向かう目的地を、分かり易い形で確認することができる。   In the image processing apparatus 100 according to the embodiment of the present invention, the related information image is an image representing a real object shown in the input image as a target location to which the underwater vehicle 2000 heads. Thereby, the destination to which the underwater vehicle 2000 is directed can be superimposed on the input image and included in the output image. As a result, the operator of the underwater vehicle 2000 can easily understand the destination to which the underwater vehicle 2000 is directed as the related information image associated with the real object together with the image of the actual object included in the output image. Can be confirmed.

本発明の実施の形態における画像処理装置100において、関連情報画像は、水中航走体2000を入力画像に映る実物体に向けて移動させるための案内を表す画像である。これにより、水中航走体2000を入力画像に映る実物体に向けて移動させるための案内を、入力画像に重畳させて、出力画像の中に含ませることができる。この結果、水中航走体2000の操作者は、出力画像に含まれる実物体の画像とともに、実物体に関連付けられた関連情報画像として、実物体に向けて移動させるための案内を、分かり易い形で確認することができる。   In the image processing apparatus 100 according to the embodiment of the present invention, the related information image is an image representing guidance for moving the underwater vehicle 2000 toward the real object shown in the input image. Thereby, the guidance for moving the underwater vehicle 2000 toward the real object shown in the input image can be superimposed on the input image and included in the output image. As a result, the operator of the underwater vehicle 2000 can easily guide the guide for moving toward the real object as a related information image associated with the real object together with the image of the real object included in the output image. Can be confirmed.

本発明の実施の形態における画像処理装置100は、表示部120を備えている。表示部120は、出力画像生成部114により生成される出力画像を表示提供する。これにより、水中航走体2000の操作者は、表示部120の表示内容を目視することによって、出力画像の内容を知ることができる。   The image processing apparatus 100 according to the embodiment of the present invention includes a display unit 120. The display unit 120 displays and provides the output image generated by the output image generation unit 114. Thereby, the operator of the underwater vehicle 2000 can know the contents of the output image by viewing the contents displayed on the display unit 120.

本発明の実施の形態における画像処理方法は、画像取得ステップと、位置取得ステップと、関連情報画像生成ステップと、出力画像生成ステップとを含んでいる。画像取得ステップでは、水中航走体2000の周辺を撮像することにより生成される入力画像を取得する。位置取得ステップでは、水中航走体2000の現在位置を示す航走体位置情報を取得する。関連情報画像生成ステップでは、画像取得ステップにより取得される入力画像と、位置取得ステップにより取得される航走体位置情報とに基づいて、入力画像に映る実物体と関連付けられる関連情報を示す画像である関連情報画像を生成する。出力画像生成ステップでは、画像取得ステップにより取得される入力画像に、関連情報画像生成ステップにより生成される関連情報画像を重畳させて出力画像を生成する。この画像処理方法によっても、前述した画像処理装置100と同様の効果を奏する。   The image processing method according to the embodiment of the present invention includes an image acquisition step, a position acquisition step, a related information image generation step, and an output image generation step. In the image acquisition step, an input image generated by imaging the periphery of the underwater vehicle 2000 is acquired. In the position acquisition step, navigation body position information indicating the current position of the underwater vehicle 2000 is acquired. In the related information image generation step, an image showing related information associated with an actual object shown in the input image based on the input image acquired in the image acquisition step and the navigation vehicle position information acquired in the position acquisition step. A related information image is generated. In the output image generation step, an output image is generated by superimposing the related information image generated in the related information image generation step on the input image acquired in the image acquisition step. This image processing method also has the same effect as the image processing apparatus 100 described above.

本発明の実施の形態における画像処理プログラムは、画像取得ステップと、位置取得ステップと、関連情報画像生成ステップと、出力画像生成ステップとを含む処理を、コンピュータに行わせる。画像取得ステップでは、水中航走体2000の周辺を撮像することにより生成される入力画像を取得する。位置取得ステップでは、水中航走体2000の現在位置を示す航走体位置情報を取得する。関連情報画像生成ステップでは、画像取得ステップにより取得される入力画像と、位置取得ステップにより取得される航走体位置情報とに基づいて、入力画像に映る実物体と関連付けられる関連情報を示す画像である関連情報画像を生成する。出力画像生成ステップでは、画像取得ステップにより取得される入力画像に、関連情報画像生成ステップにより生成される関連情報画像を重畳させて出力画像を生成する。この画像処理プログラムによっても、前述した画像処理装置100と同様の効果を奏する。   An image processing program according to an embodiment of the present invention causes a computer to perform processing including an image acquisition step, a position acquisition step, a related information image generation step, and an output image generation step. In the image acquisition step, an input image generated by imaging the periphery of the underwater vehicle 2000 is acquired. In the position acquisition step, navigation body position information indicating the current position of the underwater vehicle 2000 is acquired. In the related information image generation step, an image showing related information associated with an actual object shown in the input image based on the input image acquired in the image acquisition step and the navigation vehicle position information acquired in the position acquisition step. A related information image is generated. In the output image generation step, an output image is generated by superimposing the related information image generated in the related information image generation step on the input image acquired in the image acquisition step. This image processing program also has the same effect as the image processing apparatus 100 described above.

以上、実施の形態をもとに本発明を説明した。実施の形態は例示であり、本発明の主旨から逸脱しない限り、上述各実施の形態に対して、さまざまな変更、増減、組合せを加えてもよい。これらの変更、増減、組合せが加えられた変形例も本発明の範囲にあることは当業者に理解されるところである。   The present invention has been described above based on the embodiment. The embodiment is an exemplification, and various modifications, increases / decreases, and combinations may be added to the above-described embodiments without departing from the gist of the present invention. It will be understood by those skilled in the art that modifications to which these changes, increases / decreases, and combinations are also within the scope of the present invention.

100 画像処理装置
110 処理部
111 画像取得部
112 位置情報取得部
113 関連情報生成部
114 出力画像生成部
120 表示部
130 入力部
140 操舵部
210 位置検出センサ
220 撮像カメラ
1000 船舶
2000 水中航走体
DESCRIPTION OF SYMBOLS 100 Image processing apparatus 110 Processing part 111 Image acquisition part 112 Position information acquisition part 113 Related information generation part 114 Output image generation part 120 Display part 130 Input part 140 Steering part 210 Position detection sensor 220 Imaging camera 1000 Ship 2000 Underwater vehicle

Claims (6)

水中航走体の周辺を撮像することにより生成される入力画像を取得する画像取得部と、
前記水中航走体の現在位置を示す航走体位置情報を取得する位置情報取得部と、
前記画像取得部により取得される前記入力画像と、前記位置取得部により取得される前記航走体位置情報とに基づいて、前記入力画像に映る実物体と関連付けられる関連情報を示す画像である関連情報画像を生成する関連情報画像生成部と、
前記画像取得部により取得される前記入力画像に、前記関連情報画像生成部により生成される前記関連情報画像を重畳させて出力画像を生成する出力画像生成部とを備えた画像処理装置。
An image acquisition unit for acquiring an input image generated by imaging the periphery of the underwater vehicle,
A position information acquisition unit for acquiring navigation body position information indicating a current position of the underwater vehicle;
A relationship indicating related information associated with a real object shown in the input image based on the input image acquired by the image acquisition unit and the navigation vehicle position information acquired by the position acquisition unit A related information image generation unit for generating an information image;
An image processing apparatus comprising: an output image generation unit configured to generate an output image by superimposing the related information image generated by the related information image generation unit on the input image acquired by the image acquisition unit.
前記関連情報画像は、前記入力画像に映る実物体を、前記水中航走体が向かう目標地として表す画像である請求項1に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the related information image is an image that represents a real object reflected in the input image as a target location toward which the underwater vehicle is headed. 前記関連情報画像は、前記水中航走体を前記入力画像に映る実物体に向けて移動させるための案内を表す画像である請求項1に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the related information image is an image representing guidance for moving the underwater vehicle toward a real object shown in the input image. 前記出力画像生成部により生成される前記出力画像を表示提供する表示部を備えた請求項1〜3のいずれか1項に記載の画像処理装置。   The image processing apparatus according to claim 1, further comprising a display unit that displays and provides the output image generated by the output image generation unit. 水中航走体の周辺を撮像することにより生成される入力画像を取得する画像取得ステップと、
前記水中航走体の現在位置を示す航走体位置情報を取得する位置取得ステップと、
前記画像取得ステップにより取得される前記入力画像と、前記位置取得ステップにより取得される前記航走体位置情報とに基づいて、前記入力画像に映る実物体と関連付けられる関連情報を示す画像である関連情報画像を生成する関連情報画像生成ステップと、
前記画像取得ステップにより取得される前記入力画像に、前記関連情報画像生成ステップにより生成される前記関連情報画像を重畳させて出力画像を生成する出力画像生成ステップとを含む画像処理方法。
An image acquisition step of acquiring an input image generated by imaging the periphery of the underwater vehicle,
A position acquisition step of acquiring navigation body position information indicating a current position of the underwater vehicle;
A relationship indicating related information associated with an actual object shown in the input image based on the input image acquired in the image acquisition step and the navigation vehicle position information acquired in the position acquisition step A related information image generation step for generating an information image;
An image processing method comprising: an output image generation step of generating an output image by superimposing the related information image generated in the related information image generation step on the input image acquired in the image acquisition step.
水中航走体の周辺を撮像することにより生成される入力画像を取得する画像取得ステップと、
前記水中航走体の現在位置を示す航走体位置情報を取得する位置取得ステップと、
前記画像取得ステップにより取得される前記入力画像と、前記位置取得ステップにより取得される前記航走体位置情報とに基づいて、前記入力画像に映る実物体と関連付けられる関連情報を示す画像である関連情報画像を生成する関連情報画像生成ステップと、
前記画像取得ステップにより取得される前記入力画像に、前記関連情報画像生成ステップにより生成される前記関連情報画像を重畳させて出力画像を生成する出力画像生成ステップとを含む処理をコンピュータに行わさせる画像処理プログラム。
An image acquisition step of acquiring an input image generated by imaging the periphery of the underwater vehicle,
A position acquisition step of acquiring navigation body position information indicating a current position of the underwater vehicle;
A relationship indicating related information associated with an actual object shown in the input image based on the input image acquired in the image acquisition step and the navigation vehicle position information acquired in the position acquisition step A related information image generation step for generating an information image;
An image that causes a computer to perform processing including an output image generation step of generating an output image by superimposing the related information image generated in the related information image generation step on the input image acquired in the image acquisition step Processing program.
JP2014063178A 2014-03-26 2014-03-26 Image processing device, method and program Pending JP2015182712A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014063178A JP2015182712A (en) 2014-03-26 2014-03-26 Image processing device, method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014063178A JP2015182712A (en) 2014-03-26 2014-03-26 Image processing device, method and program

Publications (1)

Publication Number Publication Date
JP2015182712A true JP2015182712A (en) 2015-10-22

Family

ID=54349718

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014063178A Pending JP2015182712A (en) 2014-03-26 2014-03-26 Image processing device, method and program

Country Status (1)

Country Link
JP (1) JP2015182712A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108292490A (en) * 2015-12-02 2018-07-17 索尼互动娱乐股份有限公司 Display control unit and display control method

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001308766A (en) * 2000-04-18 2001-11-02 Mitsubishi Heavy Ind Ltd Communication system for underwater navigating object and self-propelled repeater for the same
JP2009236843A (en) * 2008-03-28 2009-10-15 Panasonic Corp Navigation device, navigation method, and navigation program
JP2010139270A (en) * 2008-12-09 2010-06-24 Mitsubishi Heavy Ind Ltd System for collecting under-water information

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001308766A (en) * 2000-04-18 2001-11-02 Mitsubishi Heavy Ind Ltd Communication system for underwater navigating object and self-propelled repeater for the same
JP2009236843A (en) * 2008-03-28 2009-10-15 Panasonic Corp Navigation device, navigation method, and navigation program
JP2010139270A (en) * 2008-12-09 2010-06-24 Mitsubishi Heavy Ind Ltd System for collecting under-water information

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108292490A (en) * 2015-12-02 2018-07-17 索尼互动娱乐股份有限公司 Display control unit and display control method
US11042038B2 (en) 2015-12-02 2021-06-22 Sony Interactive Entertainment Inc. Display control apparatus and display control method
US11768383B2 (en) 2015-12-02 2023-09-26 Sony Interactive Entertainment Inc. Display control apparatus and display control method

Similar Documents

Publication Publication Date Title
US10885791B2 (en) Vehicle dispatch system, autonomous driving vehicle, and vehicle dispatch method
US10414472B2 (en) Integrated display for a trolling motor
GB2575561A (en) Visually correlated radar systems and methods
WO2014188836A1 (en) Component assembly operation assist system, and component assembly method
EP3553751A3 (en) System for providing visual guidance for steering a tip of an endoscopic device towards one or more landmarks and assisting an operator in endoscopic navigation
JP2013068620A (en) Vehicle system and method for providing information concerned with external object noticed by driver
JP2005290813A (en) Parking guidance robot
JP5102886B2 (en) Image display system, image display method, and program
JP2010061346A (en) Remote control system
WO2019119222A1 (en) Obstacle information prompting method, system, equipment, device, and recording medium
JP2013127694A (en) Control apparatus and method therefor, and program
KR20140108428A (en) Apparatus and method for remote collaboration based on wearable display
JP2019537140A5 (en)
US11852476B2 (en) Tidal current information display apparatus and method
WO2018119676A1 (en) Display data processing method and apparatus
US9836129B2 (en) Using motion sensing for controlling a display
JP2015207243A5 (en)
JP2015182712A (en) Image processing device, method and program
JP2005326168A (en) Driving support system, vehicle, and driving support method
JP2018188043A (en) Maneuvering support device
JP5161544B2 (en) Image display system
JP2015094683A (en) Travel guide device for vehicle, and travel guide method for vehicle
FR2985350B1 (en) METHOD FOR PROCESSING IMAGE OF A CAMERA ONBOARD ON A VEHICLE AND CORRESPONDING PROCESSING DEVICE
Allotta et al. Development of Nemo remotely operated underwater vehicle for the inspection of the Costa Concordia wreck
KR20140080874A (en) Apparatus and method for guiding parking with steering assist

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170215

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170905

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20180306