JP2023037415A - Information processing device and method, and computer program - Google Patents

Information processing device and method, and computer program Download PDF

Info

Publication number
JP2023037415A
JP2023037415A JP2021144164A JP2021144164A JP2023037415A JP 2023037415 A JP2023037415 A JP 2023037415A JP 2021144164 A JP2021144164 A JP 2021144164A JP 2021144164 A JP2021144164 A JP 2021144164A JP 2023037415 A JP2023037415 A JP 2023037415A
Authority
JP
Japan
Prior art keywords
character
information
information processing
imaged
processed image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021144164A
Other languages
Japanese (ja)
Inventor
翔治郎 奥
Shojiro Oku
貴弘 大畑
Takahiro Ohata
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Realglobe Inc
Original Assignee
Realglobe Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Realglobe Inc filed Critical Realglobe Inc
Priority to JP2021144164A priority Critical patent/JP2023037415A/en
Publication of JP2023037415A publication Critical patent/JP2023037415A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Instructional Devices (AREA)
  • Navigation (AREA)
  • Traffic Control Systems (AREA)

Abstract

To make it possible to exchange position information regardless of a method related to the position information.SOLUTION: An information processing device (100) comprises: acquisition means (120) for acquiring a processed image in which a first character indicated by position information relating to a position of a moving body is imaged and superimposed on an image captured by the moving body (11); extracting means (130) for performing a character recognition process with respect to the processed image and for extracting the imaged first character as character information; and specifying means (140) for specifying a position of the moving body based on the character information.SELECTED DRAWING: Figure 2

Description

本発明は、情報処理装置及び方法並びにコンピュータプログラムの技術分野に関する。 The present invention relates to the technical field of information processing apparatuses and methods, and computer programs.

この種の装置として、例えば、監視対象者に携帯された情報端末装置の位置情報である監視位置情報と、該監視対象者を追跡するドローン装置の位置情報であるドローン位置情報とに基づいて、自機の移動制御を行うドローン装置が提案されている(特許文献1参照)。 As this type of device, for example, based on the monitoring position information, which is the position information of the information terminal device carried by the monitored person, and the drone position information, which is the position information of the drone device that tracks the monitored person, A drone device that controls the movement of its own drone has been proposed (see Patent Document 1).

特開2015-207149号公報JP 2015-207149 A

例えばAPIやSDK等、装置間で位置情報をやり取りするための方式が存在する。この方式が同じ装置同士では位置情報のやり取りが可能である一方で、この方式が異なる装置同士では位置情報のやり取りができない。例えば、上記方式が異なるシステム同士で位置情報をやり取りしようとすると、一方のシステムの方式を他方のシステムの方式に合わせなければならず、システム同士の連携が進みにくいという技術的問題点がある。 For example, there are methods such as APIs and SDKs for exchanging location information between devices. Devices using the same method can exchange position information, but devices using different methods cannot exchange position information. For example, when it is attempted to exchange position information between systems that use different methods, the method of one system must be adapted to the method of the other system, which poses a technical problem that cooperation between the systems is difficult.

本発明は、例えば上記問題点に鑑みてなされたものであり、位置情報に係る方式にかかわらず位置情報をやり取りすることができる情報処理装置及び方法並びにコンピュータプログラムを提供することを課題とする。 SUMMARY OF THE INVENTION It is an object of the present invention to provide an information processing apparatus, method, and computer program capable of exchanging location information regardless of the method of location information.

本発明の一態様に係る情報処理装置は、移動体により撮像された画像に、前記移動体の位置に係る位置情報により示される第1文字が画像化された上で重畳された加工画像を取得する取得手段と、前記加工画像に対して文字認識処理を施して、前記画像化された第1文字を文字情報として抽出する抽出手段と、前記文字情報に基づいて、前記移動体の位置を特定する特定手段と、を備えるというものである。 An information processing apparatus according to an aspect of the present invention acquires a processed image in which a first character indicated by position information relating to the position of a moving object is imaged and superimposed on an image captured by the moving object. an extracting means for performing character recognition processing on the processed image and extracting the imaged first character as character information; and specifying the position of the moving object based on the character information. and a specifying means to be provided.

本発明の一態様に係る情報処理方法は、情報処理装置における情報処理方法であって、前記情報処理装置が、移動体により撮像された画像に、前記移動体の位置に係る位置情報により示される第1文字が画像化された上で重畳された加工画像を取得する取得工程と、前記情報処理装置が、前記加工画像に対して文字認識処理を施して、前記画像化された第1文字を文字情報として抽出する抽出工程と、前記情報処理装置が、前記文字情報に基づいて、前記移動体の位置を特定する特定工程と、を含むというものである。 An information processing method according to an aspect of the present invention is an information processing method in an information processing device, wherein the information processing device is indicated by position information relating to the position of the mobile body in an image captured by the mobile body. an acquisition step of acquiring a processed image in which a first character is imaged and then superimposed; and the information processing device performs character recognition processing on the processed image to obtain the imaged first character. The method includes an extracting step of extracting character information, and a specifying step of specifying the position of the moving object by the information processing device based on the character information.

本発明の一態様に係るコンピュータプログラムは、情報処理装置のコンピュータを、移動体により撮像された画像に、前記移動体の位置に係る位置情報により示される第1文字が画像化された上で重畳された加工画像を取得する取得手段と、前記加工画像に対して文字認識処理を施して、前記画像化された第1文字を文字情報として抽出する抽出手段と、前記文字情報に基づいて、前記移動体の位置を特定する特定手段と、として機能させるというものである。 A computer program according to an aspect of the present invention causes a computer of an information processing apparatus to superimpose a first character indicated by position information related to the position of the moving object on an image captured by the moving object. obtaining means for obtaining the processed image, extracting means for performing character recognition processing on the processed image and extracting the imaged first character as character information, and based on the character information, the It functions as specifying means for specifying the position of the moving body.

本発明の作用及び利得は次に説明する実施するための形態から明らかにされる。 The operation and benefits of the present invention will become apparent from the following detailed description.

第1実施例に係る映像共有システムの構成を示す図である。1 is a diagram showing the configuration of a video sharing system according to a first embodiment; FIG. 第1実施例に係る情報処理装置の構成を示すブロック図である。1 is a block diagram showing the configuration of an information processing apparatus according to a first embodiment; FIG. 第1実施例に係る情報処理装置の動作を示すフローチャートである。4 is a flow chart showing the operation of the information processing apparatus according to the first embodiment; ドローン装置から取得される画像の一例を示す図である。FIG. 2 is a diagram showing an example of an image acquired from a drone device; FIG. 表示画像の一例を示す図である。It is a figure which shows an example of a display image. 第2実施例に係る映像共有システムの構成を示す図である。FIG. 10 is a diagram showing the configuration of a video sharing system according to a second embodiment; FIG. 実施例に係るコンピュータの構成を示すブロック図である。1 is a block diagram showing the configuration of a computer according to an embodiment; FIG.

情報処理装置に係る実施形態を説明する。実施形態に係る情報処理装置は、取得手段、抽出手段及び特定手段を備える。取得手段は加工画像を取得する。ここで加工画像は、移動体により撮像された画像に、該移動体の位置に係る位置情報により示される第1文字が画像化された上で重畳された画像である。移動体により撮像された画像と、画像化された第1文字との重畳(即ち、加工画像の生成)は、移動体において行われてよい。 An embodiment related to an information processing apparatus will be described. An information processing apparatus according to an embodiment includes acquisition means, extraction means, and identification means. The acquisition means acquires the processed image. Here, the processed image is an image obtained by superimposing the image of the first character indicated by the position information related to the position of the moving object on the image captured by the moving object. The superimposition of the image captured by the moving body and the imaged first character (that is, the generation of the processed image) may be performed on the moving body.

移動体により撮像された画像は、移動体の周囲を撮像した画像に限らず、例えば移動体が車両である場合には、その車内を撮像した画像等であってよい。移動体としては、例えば飛行体、車両、自走式ロボット等が挙げられる。飛行体には、ドローン装置、ヘリコプタ、飛行機等が含まれていてよい。 The image captured by the moving object is not limited to the image capturing the surroundings of the moving object. For example, when the moving object is a vehicle, the image captured by the moving object may be an image of the inside of the vehicle. Examples of mobile objects include flying objects, vehicles, self-propelled robots, and the like. Air vehicles may include drone devices, helicopters, airplanes, and the like.

移動体の位置は、例えばGNSS(Global Navigation Satellite System)、Dead Reckoning等、既存の技術により特定されてよい。移動体の位置に係る位置情報は、例えば、緯度・経度で移動体の位置を表した情報であってもよいし、基点からの方位及び距離で移動体の位置を表した情報であってもよい。第1文字は、位置情報により示される文字である。移動体の位置が緯度・経度で表されている場合、第1文字は、例えば「E: 139 74’56’’, N: 35 67’08’’」等であってよい。尚、位置情報には、移動体の位置を示す情報に加えて、例えば、移動体の姿勢(又は向き)を示す情報や、移動体の高度を示す情報等が含まれていてよい。 The position of the mobile object may be identified by existing technologies such as GNSS (Global Navigation Satellite System), Dead Reckoning, and the like. The position information related to the position of the mobile object may be, for example, information representing the position of the mobile object by latitude and longitude, or information representing the position of the mobile object by the azimuth and distance from the base point. good. The first character is the character indicated by the positional information. If the position of the moving object is represented by latitude and longitude, the first character may be, for example, "E: 139 74'56'', N: 35 67'08''". In addition to the information indicating the position of the mobile object, the position information may include, for example, information indicating the posture (or orientation) of the mobile object, information indicating the altitude of the mobile object, and the like.

抽出手段は、加工画像に対して文字認識処理を施して、画像化された第1文字を文字情報として抽出する。画像化された第1文字は加工画像の一部を構成しており、文字としての属性を失っている。抽出手段は、文字としての属性が失われた第1文字を文字情報として抽出することにより、例えば当該情報処理装置が第1文字を文字として扱うことを可能にする。尚、文字認識処理には、例えばOCR(Optical Character Recognition)等の既存の技術を適用可能である。 The extraction means applies character recognition processing to the processed image and extracts the imaged first character as character information. The imaged first character constitutes a part of the processed image and has lost its attribute as a character. The extracting means extracts, as character information, the first character whose attribute as a character has been lost, so that the information processing apparatus can treat the first character as a character, for example. For character recognition processing, existing techniques such as OCR (Optical Character Recognition) can be applied.

特定手段は、抽出手段により抽出された文字情報に基づいて、移動体の位置を特定する。このように、当該情報処理装置では、移動体から位置情報を取得することなく、該移動体の位置を特定することができる。 The identifying means identifies the position of the moving object based on the character information extracted by the extracting means. In this way, the information processing apparatus can identify the position of the mobile object without acquiring position information from the mobile object.

移動体と当該情報処理装置とは異なる装置である。仮に、移動体と当該情報処理装置との間で位置情報をやり取りしようとすると、位置情報に係る方式(例えばAPI、SDK等)を両者で合わせる必要がある。しかしながら、当該情報処理装置は、移動体から出力される位置情報そのものを取得する必要がない。 The moving object and the information processing device are different devices. If position information is to be exchanged between a mobile object and the information processing device, it is necessary to match the method (for example, API, SDK, etc.) relating to position information between the two. However, the information processing device does not need to acquire the position information itself output from the mobile object.

このため、当該情報処理装置は、自身の位置情報に係る方式を、移動体の位置情報に係る方式と合わせる必要がない。或いは、当該情報処理装置は、移動体から出力される位置情報そのものを扱う機能を必要としない。従って、当該情報処理装置によれば、位置情報に係る方式にかかわらず位置情報をやり取りすることができる。この結果、当該情報処理装置によれば、位置情報に係る方式が互いに異なるシステム同士を比較的容易に連携することができる。 Therefore, the information processing apparatus does not need to match the method relating to its own position information with the method relating to the position information of the moving object. Alternatively, the information processing device does not require the function of handling the position information itself output from the mobile object. Therefore, according to the information processing device, the position information can be exchanged regardless of the method related to the position information. As a result, according to the information processing apparatus, it is possible to relatively easily link systems that use different methods for position information.

当該情報処理装置において、抽出手段は、文字情報により示される第2文字を画像化して、画像化された第1文字と比較してよい。この態様では、抽出手段は、画像化された第2文字と画像化された第1文字との比較結果に基づいて、文字情報の誤りを検出してよい。このように構成すれば、文字認識処理に起因する誤認識の発生を抑制することができる。 In the information processing apparatus, the extraction means may image the second character indicated by the character information and compare the image with the imaged first character. In this aspect, the extraction means may detect an error in the character information based on the result of comparison between the imaged second character and the imaged first character. With this configuration, it is possible to suppress the occurrence of erroneous recognition due to character recognition processing.

当該情報処理装置は、特定手段により特定された位置に基づいて、移動体の位置及び軌跡の少なくとも一方を表示する表示手段を備えてよい。また、当該情報処理装置は、特定手段により特定された位置に基づいて、移動体の位置を示す移動体情報を他の装置に送信する送信手段を備えてよい。このように構成すれば、当該情報処理装置のユーザに移動体の位置及び軌跡の少なくとも一方を提示することができたり、他の装置に対して、移動体の位置を示す移動体情報を配信したりすることができる。尚、移動体情報には、移動体の位置を示す情報に加えて、例えば、移動体を識別するための情報、移動体の姿勢(又は向き)を示す情報、移動体の高度を示す情報等が含まれていてよい。 The information processing apparatus may include display means for displaying at least one of the position and trajectory of the moving object based on the position specified by the specifying means. Further, the information processing apparatus may include transmitting means for transmitting mobile body information indicating the position of the mobile body to another device based on the position specified by the specifying means. With this configuration, it is possible to present at least one of the position and trajectory of the moving body to the user of the information processing device, and to distribute the moving body information indicating the position of the moving body to other devices. can be In addition to the information indicating the position of the moving object, the moving object information includes, for example, information for identifying the moving object, information indicating the posture (or orientation) of the moving object, information indicating the altitude of the moving object, and the like. may be included.

情報処理方法に係る実施形態を説明する。実施形態に係る情報処理方法は、情報処理装置における情報処理方法である。当該情報処理方法は、取得工程、抽出工程及び特定工程を含む。取得工程では、情報処理装置が、移動体により撮像された画像に、移動体の位置に係る位置情報により示される第1文字が画像化された上で重畳された加工画像を取得する。 An embodiment relating to an information processing method will be described. An information processing method according to an embodiment is an information processing method in an information processing apparatus. The information processing method includes an acquisition process, an extraction process, and an identification process. In the acquisition step, the information processing device acquires a processed image in which a first character indicated by position information relating to the position of the mobile object is imaged and superimposed on the image captured by the mobile object.

抽出工程では、情報処理装置が、加工画像に対して文字認識処理を施して、画像化された第1文字を文字情報として抽出する。特定工程では、情報処理装置が、文字情報に基づいて、移動体の位置を特定する。当該情報処理方法によれば、上述した情報処理装置と同様に、位置情報に係る方式にかかわらず位置情報をやり取りすることができる。 In the extracting step, the information processing device performs character recognition processing on the processed image and extracts the imaged first character as character information. In the identifying step, the information processing device identifies the position of the moving object based on the character information. According to the information processing method, position information can be exchanged regardless of the method related to position information, as in the information processing apparatus described above.

<第1実施例>
情報処理装置に係る第1実施例について図1乃至図5を参照して説明する。図1において、映像共有システム1は、ドローン装置11、操作装置12、通信装置13、及び、端末装置41乃至43を備えて構成されている。尚、「ドローン装置11」が、上述した「移動体」の一例に相当する。映像共有システム1は、ドローン装置11に加えて、一又は複数の移動体を備えていてよい。
<First embodiment>
A first embodiment of an information processing apparatus will be described with reference to FIGS. 1 to 5. FIG. In FIG. 1, the video sharing system 1 includes a drone device 11, an operation device 12, a communication device 13, and terminal devices 41 to 43. Note that the "drone device 11" corresponds to an example of the "moving object" described above. The video sharing system 1 may include one or more moving bodies in addition to the drone device 11 .

ドローン装置11は、操作装置12から発信される信号に従った挙動をするように構成されている。ドローン装置11は、その周囲を撮像するカメラ(図示せず)を有する。ドローン装置11は、例えば衛星測位システムを利用した測位結果と、高度センサ、ジャイロセンサ及び磁気方位センサ各々の出力とに基づいて、例えば自身の位置、高度及び姿勢を検出する。ドローン装置11は、カメラにより撮像された画像に、例えば自身の位置、高度及び姿勢を示す文字を画像化して重畳することにより加工画像を生成する。尚、「位置、高度及び姿勢を示す文字」が、上述した「位置情報により示される第1文字」の一例に相当する。 The drone device 11 is configured to behave according to the signal transmitted from the operation device 12 . The drone device 11 has a camera (not shown) that captures images of its surroundings. The drone device 11 detects, for example, its own position, altitude, and attitude, based on the results of positioning using, for example, a satellite positioning system, and the outputs of each of the altitude sensor, gyro sensor, and magnetic direction sensor. The drone device 11 generates a processed image by imaging and superimposing, for example, characters indicating its own position, altitude and attitude on the image captured by the camera. The "characters indicating position, altitude and orientation" correspond to an example of the above-described "first character indicated by the position information".

例えばスマートフォン等である通信装置13は、ドローン装置11により生成された加工画像を取得する。通信装置13は、無線基地局20と通信可能に構成されている。通信装置13は、無線基地局20と、例えばインターネット等のネットワーク30を介して、加工画像を端末装置41乃至43の少なくとも一つに送信可能に構成されている。 For example, the communication device 13 such as a smartphone acquires the processed image generated by the drone device 11 . The communication device 13 is configured to communicate with the radio base station 20 . The communication device 13 is configured to be able to transmit the processed image to at least one of the terminal devices 41 to 43 via the wireless base station 20 and a network 30 such as the Internet.

本実施例では特に、通信装置13は、情報処理装置100及びディスプレイ200を有する。情報処理装置100について図2を参照して説明を加える。情報処理装置100は、通信部110、取得部120、処理部130、特定部140及び表示制御部150を有する。 Especially in this embodiment, the communication device 13 has an information processing device 100 and a display 200 . The information processing apparatus 100 will be described with reference to FIG. The information processing apparatus 100 has a communication unit 110 , an acquisition unit 120 , a processing unit 130 , an identification unit 140 and a display control unit 150 .

情報処理装置100の動作について図2に加えて図3のフローチャートを参照して説明する。図3において、情報処理装置100の取得部120は、ドローン装置11から加工画像(即ち、映像情報)を取得する(ステップS101)。ここで、加工画像の一例を図4に示す。図4に示す加工画像には、画像の左下部分にドローン装置11の位置等を示す文字が含まれている。 The operation of the information processing apparatus 100 will be described with reference to the flowchart of FIG. 3 in addition to FIG. In FIG. 3, the acquisition unit 120 of the information processing device 100 acquires a processed image (that is, video information) from the drone device 11 (step S101). Here, FIG. 4 shows an example of the processed image. The processed image shown in FIG. 4 includes characters indicating the position of the drone device 11 and the like in the lower left portion of the image.

次に、情報処理装置100の処理部130は、加工画像に対して文字認識処理を施して、画像化された位置等を示す文字を文字情報として抽出する。情報処理装置100の特定部140は、抽出された文字情報に基づいて、ドローン装置11の位置等(例えば位置、高度、姿勢)を特定(取得)する(ステップS102)。 Next, the processing unit 130 of the information processing apparatus 100 performs character recognition processing on the processed image, and extracts characters indicating the imaged position and the like as character information. The identifying unit 140 of the information processing device 100 identifies (acquires) the position and the like (eg, position, altitude, attitude) of the drone device 11 based on the extracted character information (step S102).

処理部130は、ステップS102の処理において特定された位置等により示される文字を画像化して、加工画像の、位置等を示す文字に相当する部分(図4参照)に重ね合わせる。そして処理部130は、重ね合わされた両者を比較し、その比較結果に基づいて、ステップS102の処理において特定された位置等に誤りがあるか否かを判定する(ステップS103)。尚、「ステップS102の処理において特定された位置等により示される文字」が、上述した「文字情報により示される第2文字」の一例に相当する。 The processing unit 130 converts the character indicated by the position or the like specified in the process of step S102 into an image, and superimposes it on the portion corresponding to the character indicating the position or the like of the processed image (see FIG. 4). Then, the processing unit 130 compares the two superimposed images, and based on the comparison result, determines whether or not there is an error in the position or the like specified in the process of step S102 (step S103). The "character indicated by the position or the like specified in the process of step S102" corresponds to an example of the above-described "second character indicated by the character information".

処理部130は、重ね合わされた両者の差分が所定量より大きい場合に、ステップS102の処理において特定された位置等に誤りがあると判定してよい。処理部130は、重ね合わされた両者の差分が所定量より小さい場合に、ステップS102の処理において特定された位置等に誤りがないと判定してよい。尚、重ね合わされた両者の差分が所定量と「等しい」場合には、どちらかに含めて扱えばよい。 The processing unit 130 may determine that there is an error in the position or the like specified in the process of step S102 when the difference between the two superimposed is larger than a predetermined amount. The processing unit 130 may determine that there is no error in the position or the like specified in the process of step S102 when the difference between the two superimposed is smaller than a predetermined amount. If the difference between the two overlapped is "equal" to a predetermined amount, it may be handled as being included in either one.

ステップS103の処理において位置等に誤りがあると判定された場合、処理部130は、その位置等を除外してもよいし、例えば文字認識処理を再度実施して正しい値に補正してもよい(ステップS104)。ステップS103の処理において位置等に誤りがないと判定された場合、又は、ステップS104の処理において位置等が補正された場合、情報処理装置100の表示制御部150は、位置等に基づいて、ドローン装置11の位置や軌跡が示された地図画像をディスプレイ200上に表示する(ステップS105)。 If it is determined that there is an error in the position or the like in the process of step S103, the processing unit 130 may exclude the position or the like, or may perform the character recognition process again to correct the values. (Step S104). If it is determined that there is no error in the position or the like in the processing of step S103, or if the position or the like is corrected in the processing of step S104, the display control unit 150 of the information processing apparatus 100 controls the drone based on the position or the like. A map image showing the position and locus of the device 11 is displayed on the display 200 (step S105).

ここで、ディスプレイ200に表示される画像の一例について図5を参照して説明を加える。表示制御装置150は、ステップS102の処理において特定された位置等に基づいてドローン装置11の現在位置を示すマーク301を地図上に表示してよい。表示制御部150は、時間的に連続する複数の位置に基づいて(言い換えれば、ドローン装置11の位置の時間変化に基づいて)ドローン装置11の軌跡を示すマーク302を地図上に表示してよい。表示制御部150は、ステップS102の処理において特定された位置等に基づいてドローン装置11の位置等を示す文字を位置情報303として地図上に表示してよい。尚、ステップS102の処理において特定された位置の時刻は、例えば加工画像に付与されたタイムスタンプ等から特定されてよい。 An example of an image displayed on the display 200 will now be described with reference to FIG. The display control device 150 may display the mark 301 indicating the current position of the drone device 11 on the map based on the position or the like specified in the process of step S102. The display control unit 150 may display the mark 302 indicating the trajectory of the drone device 11 on the map based on a plurality of temporally consecutive positions (in other words, based on the time change of the position of the drone device 11). . The display control unit 150 may display characters indicating the position etc. of the drone device 11 on the map as the position information 303 based on the position etc. specified in the process of step S102. Note that the time of the position specified in the process of step S102 may be specified from, for example, a time stamp or the like given to the processed image.

軌跡を示すマーク302を構成する複数のドットの少なくとも一部は、地図上に表示された後、所定期間が経過したときに表示されなくなってよい。また、上記複数のドットの少なくとも一部は、例えば、地図上にされてからの時間経過にとともに、その濃度値が小さくされてよい。軌跡を示すマーク302は、ドットに限らず、例えば実線、点線、破線等であってよい。 At least part of the plurality of dots forming the mark 302 indicating the trajectory may disappear after a predetermined period of time has elapsed after being displayed on the map. Further, at least some of the plurality of dots may have their density values reduced with the lapse of time after being placed on the map, for example. The mark 302 indicating the trajectory is not limited to dots, and may be, for example, a solid line, a dotted line, a dashed line, or the like.

情報処理装置100は、図3のフローチャートに示す処理により特定された位置等を示す移動体情報を、通信部110を介して、端末装置41乃至43の少なくとも一つに送信してよい。移動体情報には、ドローン装置11を識別するための情報が含まれていてよい。このとき、情報処理装置100は、移動体情報を、ドローン装置11から取得された加工画像(即ち、移動体情報により示される位置等の特定に用いられた加工画像)と紐づけてよい。 The information processing device 100 may transmit mobile body information indicating the position and the like specified by the processing shown in the flowchart of FIG. The mobile information may include information for identifying the drone device 11 . At this time, the information processing apparatus 100 may associate the moving object information with the processed image acquired from the drone device 11 (that is, the processed image used for specifying the position indicated by the moving object information).

本実施形態に係る「通信部110」、「取得部120」、「処理部130」、「特定部140」及び「表示制御部150」は、夫々、上述した「送信手段」、「取得手段」、「抽出手段」、「特定手段」及び「表示手段」の一例に相当する。 The "communication unit 110", the "acquisition unit 120", the "processing unit 130", the "identification unit 140", and the "display control unit 150" according to the present embodiment are the above-described "transmission means" and "acquisition means", respectively. , “extracting means”, “identifying means” and “display means”.

<第2実施例>
情報処理装置に係る第2実施例について、図2乃至図5に加えて、図6を参照して説明する。図6において、映像共有システム2は、ドローン装置11、操作装置12、端末装置41乃至43、及び、情報処理装置100を備えて構成されている。映像共有システム2は、ドローン装置11に加えて、一又は複数の移動体を備えていてよい。第2実施例では、ドローン装置11が無線基地局20と通信可能に構成されている点で、上述した第1実施例と異なっている。
<Second embodiment>
A second embodiment of the information processing apparatus will be described with reference to FIG. 6 in addition to FIGS. 6, the video sharing system 2 includes a drone device 11, an operation device 12, terminal devices 41 to 43, and an information processing device 100. As shown in FIG. The video sharing system 2 may include one or more moving bodies in addition to the drone device 11 . The second embodiment differs from the above-described first embodiment in that the drone device 11 is configured to be able to communicate with the radio base station 20 .

ドローン装置11は、カメラにより撮像された画像に、例えば自身の位置、高度及び姿勢を示す文字を画像化して重畳することにより加工画像(図4参照)を生成する。ドローン装置11は、無線基地局20及びネットワーク30を介して、加工画像を情報処理装置100に送信する。第2実施例では、情報処理装置100は、例えばクラウドサーバ等のネットワーク30上の装置として構成されている。 The drone device 11 generates a processed image (see FIG. 4) by imaging and superimposing, for example, characters indicating its own position, altitude and attitude on the image captured by the camera. The drone device 11 transmits the processed image to the information processing device 100 via the wireless base station 20 and network 30 . In the second embodiment, the information processing device 100 is configured as a device on the network 30 such as a cloud server.

情報処理装置100は、通信部110、取得部120、処理部130及び特定部140を有する(図2参照)。尚、第2実施例に係る情報処理装置100は、表示制御部150を有してなくてよい。 The information processing apparatus 100 has a communication unit 110, an acquisition unit 120, a processing unit 130, and an identification unit 140 (see FIG. 2). Note that the information processing apparatus 100 according to the second embodiment does not have to have the display control unit 150 .

情報処理装置100は、図3のフローチャートのステップS101乃至S104の処理を行う。即ち、情報処理装置100の取得部120は、ドローン装置11から加工画像を取得する(ステップS101)。情報処理装置100の処理部130は、加工画像に対して文字認識処理を施して、画像化された位置等を示す文字を文字情報として抽出する。情報処理装置100の特定部140は、抽出された文字情報に基づいて、ドローン装置11の位置等を特定する(ステップS102)。 The information processing apparatus 100 performs the processes of steps S101 to S104 in the flowchart of FIG. That is, the acquisition unit 120 of the information processing device 100 acquires the processed image from the drone device 11 (step S101). The processing unit 130 of the information processing apparatus 100 performs character recognition processing on the processed image, and extracts characters indicating the imaged position and the like as character information. The identifying unit 140 of the information processing device 100 identifies the position and the like of the drone device 11 based on the extracted character information (step S102).

処理部130は、ステップS102の処理において特定された位置等により示される文字を画像化して、加工画像の、位置等を示す文字に相当する部分(図4参照)に重ね合わせる。そして処理部130は、重ね合わされた両者を比較し、その比較結果に基づいて、ステップS102の処理において特定された位置等に誤りがあるか否かを判定する(ステップS103)。 The processing unit 130 converts the character indicated by the position or the like specified in the process of step S102 into an image, and superimposes it on the portion corresponding to the character indicating the position or the like of the processed image (see FIG. 4). Then, the processing unit 130 compares the two superimposed images, and based on the comparison result, determines whether or not there is an error in the position or the like specified in the process of step S102 (step S103).

ステップS103の処理において位置等に誤りがあると判定された場合、処理部130は、その位置等を除外してもよいし、例えば文字認識処理を再度実施して正しい値に補正してもよい(ステップS104)。ステップS103の処理において位置等に誤りがないと判定された場合、又は、ステップS104の処理において位置等が補正された場合、情報処理装置100は、ドローン装置11の位置等を示す移動体情報を、通信部110を介して、端末装置41乃至43の少なくとも一つに送信する。 If it is determined that there is an error in the position or the like in the process of step S103, the processing unit 130 may exclude the position or the like, or may perform the character recognition process again to correct the values. (Step S104). If it is determined that there is no error in the position or the like in the processing of step S103, or if the position or the like is corrected in the processing of step S104, the information processing device 100 outputs the moving body information indicating the position or the like of the drone device 11. , to at least one of the terminal devices 41 to 43 via the communication unit 110 .

情報処理装置100は、ステップS102乃至S104の処理と並行して又は相前後して、ステップS101の処理において取得された加工画像を、通信部110を介して、端末装置41乃至43の少なくとも一つに送信する。 In parallel with or before or after the processing of steps S102 to S104, the information processing apparatus 100 transmits the processed image acquired in the processing of step S101 to at least one of the terminal devices 41 to 43 via the communication unit 110. Send to

端末装置41乃至43のうち、移動体情報を受信した端末装置は、該移動体情報により示されるドローン装置11の位置等に基づいて、ドローン装置11の位置や軌跡が示された地図画像(図5参照)をディスプレイ上に表示してよい。 Of the terminal devices 41 to 43, the terminal device that receives the mobile object information displays a map image (Fig. 5) may be displayed on the display.

情報処理装置100が表示制御部150を有する場合、表示制御部150は、移動体情報により示されるドローン装置11の位置等に基づいて、ドローン装置11の位置や軌跡が示された地図画像(図5参照)を生成してよい。そして、情報処理装置100は、該生成された地図画像を、通信部110を介して、端末装置41乃至43の少なくとも一つに送信してよい。 When the information processing apparatus 100 has the display control unit 150, the display control unit 150 displays a map image (Fig. 5) may be generated. The information processing device 100 may then transmit the generated map image to at least one of the terminal devices 41 to 43 via the communication section 110 .

<コンピュータプログラム>
コンピュータプログラムに係る実施形態について図7を参照して説明する。図7は、実施形態に係るコンピュータの構成を示すブロック図である。
<Computer program>
An embodiment relating to a computer program will be described with reference to FIG. FIG. 7 is a block diagram illustrating the configuration of a computer according to the embodiment;

図7において、コンピュータ50は、CPU(Central Processing Unit)51、RAM(Random Access Memory)52、HDD(Hard Disk Drive)53及びI/O(Input/Output)54を備えて構成されている。CPU51、RAM52、HDD53及びI/O54は、バス55により相互に接続されている。HDD53には、本実施形態に係るコンピュータプログラム531が予め格納されている。 In FIG. 7, a computer 50 comprises a CPU (Central Processing Unit) 51 , a RAM (Random Access Memory) 52 , a HDD (Hard Disk Drive) 53 and an I/O (Input/Output) 54 . The CPU 51 , RAM 52 , HDD 53 and I/O 54 are interconnected by a bus 55 . A computer program 531 according to this embodiment is stored in advance in the HDD 53 .

コンピュータプログラム531によるCPU51の処理について説明する。CPU51は、I/O54を介して、ドローン装置11から加工画像を取得する。CPU51は、加工画像に対して文字認識処理を施して、画像化された位置等を示す文字を文字情報として抽出する。CPU51は、抽出された文字情報に基づいて、ドローン装置11の位置等を特定する。 Processing of the CPU 51 by the computer program 531 will be described. The CPU 51 acquires the processed image from the drone device 11 via the I/O 54 . The CPU 51 performs character recognition processing on the processed image, and extracts characters indicating the imaged position and the like as character information. The CPU 51 identifies the position and the like of the drone device 11 based on the extracted character information.

CPU51は、上記特定された位置等により示される文字を画像化して、加工画像の、位置等を示す文字に相当する部分(図4参照)に重ね合わせてよい。そしてCPU51は、重ね合わされた両者を比較し、その比較結果に基づいて、上記特定された位置等に誤りがあるか否かを判定してよい。CPU51は、上記特定された位置等に誤りがあると判定した場合、その位置等を除外してもよいし、例えば文字認識処理を再度実施して正しい値に補正してもよい。 The CPU 51 may image the character indicated by the specified position or the like and superimpose it on the part corresponding to the character indicating the position or the like of the processed image (see FIG. 4). Then, the CPU 51 may compare the two superimposed images and determine whether or not there is an error in the specified position or the like based on the comparison result. When the CPU 51 determines that there is an error in the specified position or the like, the CPU 51 may exclude the position or the like, or, for example, perform the character recognition process again to correct the value.

CPU51は、上記特定された位置等を示す移動体情報を、I/O54を介して、他の装置(例えば端末装置41乃至43の少なくとも一つ)に送信してよい。CPU51は、上記特定された位置等に基づいて、ドローン装置11の位置や軌跡が示された地図画像(図5参照)を生成してよい。CPU51は、該生成された地図画像を、I/O54を介して、当該コンピュータ50に接続されたディスプレイ(図示せず)に表示してよい。CPU51は、上記生成された地図画像を、I/O54を介して、他の装置(例えば端末装置41乃至43の少なくとも一つ)に送信してよい。 The CPU 51 may transmit the mobile body information indicating the specified position or the like to another device (for example, at least one of the terminal devices 41 to 43) via the I/O 54. FIG. The CPU 51 may generate a map image (see FIG. 5) showing the position and trajectory of the drone device 11 based on the specified position and the like. The CPU 51 may display the generated map image on a display (not shown) connected to the computer 50 via the I/O 54 . The CPU 51 may transmit the generated map image to another device (for example, at least one of the terminal devices 41 to 43) via the I/O 54.

尚、コンピュータ50が、例えば、コンピュータプログラム531を格納するCD-ROM(Compact Disc Read Only Memory)等の光ディスク、USB(Universal Serial Bus)メモリ、等の記録媒体から、コンピュータプログラム531を読み込むことにより、HDD53にコンピュータプログラム531が格納されてよい。或いは、コンピュータ50が、例えばインターネット等のネットワークを介して、コンピュータプログラム531をダウンロードすることにより、HDD53にコンピュータプログラム531が格納されてよい。 The computer 50 reads the computer program 531 from a recording medium such as an optical disc such as a CD-ROM (Compact Disc Read Only Memory) or a USB (Universal Serial Bus) memory storing the computer program 531. A computer program 531 may be stored in the HDD 53 . Alternatively, the computer program 531 may be stored in the HDD 53 by the computer 50 downloading the computer program 531 via a network such as the Internet.

コンピュータプログラム531によれば、上述した実施形態に係る情報処理装置と同様に、位置情報に係る方式にかかわらず位置情報をやり取りすることができる。コンピュータプログラム531によれば、上述した実施形態に係る情報処理装置を比較的容易に実現することができる。 According to the computer program 531, position information can be exchanged regardless of the method relating to position information, as in the information processing apparatus according to the above-described embodiments. According to the computer program 531, the information processing apparatus according to the above embodiments can be implemented relatively easily.

本発明は、上述した実施形態に限られるものではなく、特許請求の範囲及び明細書全体から読み取れる発明の要旨或いは思想に反しない範囲で適宜変更可能であり、そのような変更を伴う情報処理装置及び方法並びにコンピュータプログラムもまた本発明の技術的範囲に含まれるものである。 The present invention is not limited to the above-described embodiments, and can be modified as appropriate within a range that does not contradict the gist or idea of the invention that can be read from the scope of claims and the entire specification. And methods and computer programs are also included in the technical scope of the present invention.

1、2…映像共有システム、11…ドローン装置、12…操作装置、13…通信装置、20…無線基地局、30…ネットワーク、41、42、43…端末装置、100…情報処理装置、110…通信部、120…取得部、130…処理部、140…特定部、150…表示制御部 Reference Signs List 1, 2 Video sharing system 11 Drone device 12 Operation device 13 Communication device 20 Radio base station 30 Network 41, 42, 43 Terminal device 100 Information processing device 110 Communication unit 120 Acquisition unit 130 Processing unit 140 Identification unit 150 Display control unit

Claims (8)

移動体により撮像された画像に、前記移動体の位置に係る位置情報により示される第1文字が画像化された上で重畳された加工画像を取得する取得手段と、
前記加工画像に対して文字認識処理を施して、前記画像化された第1文字を文字情報として抽出する抽出手段と、
前記文字情報に基づいて、前記移動体の位置を特定する特定手段と、
を備えることを特徴とする情報処理装置。
Acquisition means for acquiring a processed image in which a first character indicated by position information relating to the position of the moving body is imaged and superimposed on an image captured by the moving body;
extracting means for performing character recognition processing on the processed image and extracting the imaged first character as character information;
identifying means for identifying the position of the moving object based on the character information;
An information processing device comprising:
前記抽出手段は、前記文字情報により示される第2文字を画像化して、前記画像化された第1文字と比較することを特徴とする請求項1に記載の情報処理装置。 2. An information processing apparatus according to claim 1, wherein said extracting means images the second character indicated by said character information and compares it with said imaged first character. 前記抽出手段は、前記画像化された第2文字と前記画像化された第1文字との比較結果に基づいて、前記文字情報の誤りを検出することを特徴とする請求項2に記載の情報処理装置。 3. The information according to claim 2, wherein said extracting means detects an error in said character information based on a comparison result between said imaged second character and said imaged first character. processing equipment. 前記特定された位置に基づいて、前記移動体の位置及び軌跡の少なくとも一方を表示する表示手段を備えることを特徴とする請求項1乃至3のいずれか一項に記載の情報処理装置。 4. The information processing apparatus according to any one of claims 1 to 3, further comprising display means for displaying at least one of the position and trajectory of said moving object based on said identified position. 前記特定された位置に基づいて、前記移動体の位置を示す移動体情報を他の装置に送信する送信手段を備えることを特徴とする請求項1乃至4のいずれか一項に記載の情報処理装置。 5. The information processing according to any one of claims 1 to 4, further comprising transmitting means for transmitting mobile body information indicating the position of said mobile body to another device based on said specified position. Device. 前記移動体は、無人飛行体であることを特徴とする請求項1乃至5のいずれか一項に記載の情報処理装置。 6. The information processing apparatus according to any one of claims 1 to 5, wherein the moving object is an unmanned flying object. 情報処理装置における情報処理方法であって、
前記情報処理装置が、移動体により撮像された画像に、前記移動体の位置に係る位置情報により示される第1文字が画像化された上で重畳された加工画像を取得する取得工程と、
前記情報処理装置が、前記加工画像に対して文字認識処理を施して、前記画像化された第1文字を文字情報として抽出する抽出工程と、
前記情報処理装置が、前記文字情報に基づいて、前記移動体の位置を特定する特定工程と、
を含むことを特徴とする情報処理方法。
An information processing method in an information processing device,
an obtaining step in which the information processing device obtains a processed image in which a first character indicated by position information relating to the position of the moving body is imaged and superimposed on an image captured by the moving body;
an extracting step in which the information processing device performs character recognition processing on the processed image and extracts the imaged first character as character information;
an identifying step in which the information processing device identifies the position of the moving object based on the character information;
An information processing method comprising:
情報処理装置のコンピュータを、
移動体により撮像された画像に、前記移動体の位置に係る位置情報により示される第1文字が画像化された上で重畳された加工画像を取得する取得手段と、
前記加工画像に対して文字認識処理を施して、前記画像化された第1文字を文字情報として抽出する抽出手段と、
前記文字情報に基づいて、前記移動体の位置を特定する特定手段と、
として機能させることを特徴とするコンピュータプログラム。
The computer of the information processing device,
Acquisition means for acquiring a processed image in which a first character indicated by position information relating to the position of the moving body is imaged and superimposed on an image captured by the moving body;
extracting means for performing character recognition processing on the processed image and extracting the imaged first character as character information;
identifying means for identifying the position of the moving object based on the character information;
A computer program characterized by functioning as
JP2021144164A 2021-09-03 2021-09-03 Information processing device and method, and computer program Pending JP2023037415A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021144164A JP2023037415A (en) 2021-09-03 2021-09-03 Information processing device and method, and computer program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021144164A JP2023037415A (en) 2021-09-03 2021-09-03 Information processing device and method, and computer program

Publications (1)

Publication Number Publication Date
JP2023037415A true JP2023037415A (en) 2023-03-15

Family

ID=85509187

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021144164A Pending JP2023037415A (en) 2021-09-03 2021-09-03 Information processing device and method, and computer program

Country Status (1)

Country Link
JP (1) JP2023037415A (en)

Similar Documents

Publication Publication Date Title
US9508199B2 (en) Mobile device communicating with motor vehicle system
US10762128B2 (en) Information collection system and information center
US10282860B2 (en) Monocular localization in urban environments using road markings
CN111982291B (en) Fire point positioning method, device and system based on unmanned aerial vehicle
US9922049B2 (en) Information processing device, method of processing information, and program for processing information
JP2009020098A (en) Remote entry navigation system
JPWO2020039937A1 (en) Position coordinate estimation device, position coordinate estimation method and program
CN111199180A (en) Information processing system, program, and information processing method
US11143507B2 (en) Information processing apparatus and information processing method
WO2014020949A1 (en) Communication apparatus, communication device, communication system, communication method, position determining method and recording medium
US20180165285A1 (en) Comparative Geolocation System
JP2020030532A (en) Control device and program
JP2023037415A (en) Information processing device and method, and computer program
JP5405412B2 (en) Object display device and object display method
US20190286876A1 (en) On-Demand Outdoor Image Based Location Tracking Platform
US20190143926A1 (en) Vehicle management system, inspection information transmission system, information management system, vehicle management program, inspection information transmission program, and information management program
JP2016173764A (en) Photographing device, photographing system, photographing method, and photographing program
KR20130053333A (en) Adventure edu-game apparatus and method of smartphone using location based service
JP2016178390A (en) Facility name superposing device
KR20200077004A (en) Road Object Map Generation Method using Road Radar Information Generated by V2X Base Station
JP2021047737A (en) Information processor, information processing method, and information processing program
CN111367310A (en) Course deviation early warning method, device, equipment and storage medium
JP2021057957A (en) Patrol inspection system and patrol inspection method
JP6959305B2 (en) Generation device, generation method, and generation program
JP7039535B2 (en) Generator, generation method, and generation program