JP7441579B1 - Information processing system and information processing method - Google Patents

Information processing system and information processing method Download PDF

Info

Publication number
JP7441579B1
JP7441579B1 JP2023571627A JP2023571627A JP7441579B1 JP 7441579 B1 JP7441579 B1 JP 7441579B1 JP 2023571627 A JP2023571627 A JP 2023571627A JP 2023571627 A JP2023571627 A JP 2023571627A JP 7441579 B1 JP7441579 B1 JP 7441579B1
Authority
JP
Japan
Prior art keywords
image data
virtual
information
photographed
size
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2023571627A
Other languages
Japanese (ja)
Inventor
拓也 浅原
和敬 姉崎
孝太郎 齋藤
真一 福田
アンディ・ウィリアム
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sensyn Robotics Inc
Original Assignee
Sensyn Robotics Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sensyn Robotics Inc filed Critical Sensyn Robotics Inc
Application granted granted Critical
Publication of JP7441579B1 publication Critical patent/JP7441579B1/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)

Abstract

【課題】移動体により撮影された画像を撮影対象位置と関連付けて容易に管理することが可能な情報処理システム等を提供する。【解決手段】本発明の一実施形態によれば、取得した撮影画像データに紐づく実空間内の実撮影位置を示す実撮影位置情報を取得する実撮影位置情報取得部110と、仮想空間内において、実撮影位置に対応する仮想撮影位置から撮影対象位置までの仮想距離を示す仮想距離情報を生成する仮想距離生成部120と、撮影画像データを撮影した際の画角情報及び焦点距離情報と仮想距離情報に基づき、撮影対象位置における画像データのサイズを特定するサイズ特定部130と、を備える情報処理システムが提供される。【選択図】図5The present invention provides an information processing system and the like that can easily manage images photographed by a moving object by associating them with photographing target positions. According to an embodiment of the present invention, an actual imaging position information acquisition unit 110 that acquires actual imaging position information indicating an actual imaging position in real space associated with acquired imaging image data; , a virtual distance generation unit 120 that generates virtual distance information indicating a virtual distance from a virtual shooting position corresponding to an actual shooting position to a shooting target position, and angle of view information and focal length information when shooting image data. An information processing system is provided that includes a size identifying unit 130 that identifies the size of image data at a shooting target position based on virtual distance information. [Selection diagram] Figure 5

Description

本発明は、情報処理システム及び情報処理方法に関する。 The present invention relates to an information processing system and an information processing method.

従来、(Drone)や無人航空機(UAV:Unmanned Aerial Vehicle)などの飛行体(以下、「飛行体」と総称する)や無人地上車両(UGV:Unmanned Ground Vehicle)などの走行体などの自律制御可能な移動体が産業に利用され始めており、とりわけ、そのような移動体により建物の屋内外を点検することが行われている。特許文献1には、移動体により屋内を点検してその画像を管理するシステムが開示されている。 Conventionally, it has been possible to autonomously control flying objects such as (Drones) and unmanned aerial vehicles (UAVs) (hereinafter collectively referred to as "flying objects"), and running objects such as unmanned ground vehicles (UGVs). BACKGROUND ART Mobile bodies have begun to be used in industry, and in particular, such mobile bodies are used to inspect the interior and exterior of buildings. Patent Document 1 discloses a system for inspecting indoors using a mobile object and managing images thereof.

特開2019-179422号公報JP2019-179422A

しかしながら、特許文献1の開示技術においては、移動体により撮影された画像が、建物のどの位置をどの方向から撮影した画像であるか不明であり、さらには、撮影対象の物体の実際の現場におけるサイズを画像から知ることも難しい。そのため、移動体により撮影された画像を撮影対象位置と関連付けて管理することが困難である。 However, in the technique disclosed in Patent Document 1, it is unclear which position of the building and from which direction the image taken by the moving object is taken, and furthermore, it is unclear which position and direction of the building the image taken by the moving object is taken from, and furthermore, it is unclear whether the image taken by the moving object is the image taken at the actual site of the object to be photographed. It is also difficult to tell the size from the image. Therefore, it is difficult to manage images taken by a moving object in association with the position of the object to be photographed.

また、撮影された画像を3次元モデルに貼り付けることで実際の現場を模した仮想空間を生成することが可能であるが、上記のように撮影対象の物体の実際の現場におけるサイズが不明であると、撮影された画像を3次元モデル上にどの程度のサイズで貼り付けるかが不明である。そのため、作業者が画像編集システム等を用いて撮影された画像のサイズや3次元モデル上の貼り付け位置を手作業で調節して貼り付け作業を行う必要があり、特に多数の画像を3次元モデルに貼り付ける場合に作業者の負担が大きくなる。 Furthermore, it is possible to create a virtual space that imitates the actual site by pasting the photographed images onto a 3D model, but as mentioned above, the size of the object being photographed at the actual site is unknown. If so, it is unclear at what size the photographed image should be pasted onto the three-dimensional model. Therefore, it is necessary for the worker to manually adjust the size of the photographed image and the pasting position on the 3D model using an image editing system etc. to perform the pasting work. The burden on the worker increases when pasting it on the model.

本発明はこのような背景を鑑みてなされたものであり、移動体により撮影された画像を撮影対象位置及びそのサイズと関連付けて容易に管理することが可能な情報処理システム等を提供することを目的とする。 The present invention has been made in view of this background, and it is an object of the present invention to provide an information processing system etc. that can easily manage images taken by a moving object by associating them with the position and size of the object to be photographed. purpose.

上記課題を解決するための本発明の主たる発明は、取得した撮影画像データに紐づく実空間内の実撮影位置を示す実撮影位置情報を取得する実撮影位置情報取得部と、仮想空間内において、実撮影位置に対応する仮想撮影位置から撮影対象位置までの仮想距離を示す仮想距離情報を生成する仮想距離生成部と、撮影画像データを撮影した際の画角情報及び焦点距離情報と仮想距離情報に基づき、撮影対象位置における画像データのサイズを特定するサイズ特定部と、を備える情報処理システムである。 The main invention of the present invention for solving the above-mentioned problems is to provide an actual photographing position information acquisition unit that acquires actual photographing position information indicating an actual photographing position in real space that is linked to acquired photographic image data; , a virtual distance generation unit that generates virtual distance information indicating the virtual distance from the virtual shooting position corresponding to the actual shooting position to the shooting target position, and the angle of view information and focal length information when shooting image data, and the virtual distance. The information processing system includes a size specifying unit that specifies the size of image data at a shooting target position based on information.

本発明によれば、特に、移動体により撮影された画像を撮影対象位置及びそのサイズと関連付けて容易に管理することが可能な情報処理システム等を提供することができる。 According to the present invention, in particular, it is possible to provide an information processing system and the like that can easily manage images photographed by a moving body in association with the photographing target position and its size.

本発明の実施の形態にかかる情報処理システムの構成を示す図である。1 is a diagram showing the configuration of an information processing system according to an embodiment of the present invention. 図1の管理サーバのハードウェア構成を示すブロック図である。FIG. 2 is a block diagram showing the hardware configuration of the management server in FIG. 1. FIG. 図1のユーザ端末のハードウェア構成を示すブロック図である。FIG. 2 is a block diagram showing the hardware configuration of the user terminal in FIG. 1. FIG. 図1の移動体のハードウェア構成を示すブロック図である。FIG. 2 is a block diagram showing the hardware configuration of the mobile body in FIG. 1. FIG. 図1の管理サーバの機能を示すブロック図である。FIG. 2 is a block diagram showing the functions of the management server in FIG. 1. FIG. サイズ特定部が撮影対象位置における画像データのサイズを特定する処理の一例を説明するための図である。FIG. 7 is a diagram for explaining an example of a process in which a size specifying unit specifies the size of image data at a shooting target position. 本実施形態にかかる情報処理方法を例示するフローチャートである。3 is a flowchart illustrating an information processing method according to the present embodiment.

本発明の実施形態の内容を列記して説明する。本発明の実施の形態による情報処理システム等は、以下のような構成を備える。
[項目1]
取得した撮影画像データに紐づく実空間内の実撮影位置を示す実撮影位置情報を取得する実撮影位置情報取得部と、
仮想空間内において、前記実撮影位置に対応する仮想撮影位置から撮影対象位置までの仮想距離を示す仮想距離情報を生成する仮想距離生成部と、
前記撮影画像データを撮影した際の画角情報及び焦点距離情報と前記仮想距離情報に基づき、前記撮影対象位置における前記画像データのサイズを特定するサイズ特定部と、
を備える情報処理システム。
[項目2]
前記仮想空間内の前記撮影対象位置に存在する撮影対象モデル上に、特定した前記サイズの前記画像データを投影する画像投影部をさらに備える、
項目1に記載の情報処理システム。
[項目3]
投影した前記画像データに映る撮影対象物と、前記撮影対象モデルとの形状の差分を検出する差分検出部をさらに備える、
項目2に記載の情報処理システム。
[項目4]
前記撮影画像データを撮影した際の前記画角の中心位置に基づき、前記仮想空間内の前記撮影対象位置に存在する撮影対象モデル、または、撮影対象空間の少なくともいずれかを特定する撮影対象特定部をさらに備える、
項目1に記載の情報処理システム。
[項目5]
前記撮影対象特定部により特定された前記撮影対象モデルまたは撮影対象空間の少なくともいずれかに紐付けて、前記画像データを記憶させる画像紐付部をさらに備える、
項目4に記載の情報処理システム。
[項目6]
取得した撮影画像データに紐づく実空間内の実撮影位置を示す実撮影位置情報を取得するステップと、
仮想空間内において、前記実撮影位置に対応する仮想撮影位置から撮影対象位置までの仮想距離を示す仮想距離情報を生成するステップと、
前記撮影画像データを撮影した際の画角情報及び焦点距離情報と前記仮想距離情報に基づき、前記撮影対象位置における前記画像データのサイズを特定するステップと、
を含む、コンピュータにより実行される情報処理方法。
[項目7]
取得した撮影画像データに紐づく実空間内の実撮影位置を示す実撮影位置情報を取得するステップと、
仮想空間内において、前記実撮影位置に対応する仮想撮影位置から撮影対象位置までの仮想距離を示す仮想距離情報を生成するステップと、
前記撮影画像データを撮影した際の画角情報及び焦点距離情報と前記仮想距離情報に基づき、前記撮影対象位置における前記画像データのサイズを特定するステップと、
をコンピュータにより実行させるプログラム。
The contents of the embodiments of the present invention will be listed and explained. An information processing system etc. according to an embodiment of the present invention has the following configuration.
[Item 1]
an actual photographing position information acquisition unit that acquires actual photographing position information indicating an actual photographing position in real space that is linked to the acquired photographic image data;
a virtual distance generation unit that generates virtual distance information indicating a virtual distance from a virtual shooting position corresponding to the actual shooting position to a shooting target position in a virtual space;
a size identifying unit that identifies the size of the image data at the photographing target position based on the angle of view information and focal length information when the photographed image data was photographed, and the virtual distance information;
An information processing system equipped with.
[Item 2]
further comprising an image projection unit that projects the image data of the specified size onto a model to be photographed existing at the position to be photographed in the virtual space;
The information processing system described in item 1.
[Item 3]
further comprising a difference detection unit that detects a difference in shape between the object to be photographed reflected in the projected image data and the model to be photographed;
The information processing system described in item 2.
[Item 4]
a photographing target specifying unit that identifies at least one of a photographing target model existing at the photographing target position in the virtual space or a photographing target space based on a center position of the angle of view when photographing the photographed image data; further comprising;
The information processing system described in item 1.
[Item 5]
further comprising an image linking unit that stores the image data in association with at least one of the model to be photographed or the space to be photographed specified by the photographing target specifying unit;
The information processing system described in item 4.
[Item 6]
acquiring actual photographing position information indicating an actual photographing position in real space that is linked to the acquired photographic image data;
generating virtual distance information indicating a virtual distance from a virtual photographing position corresponding to the actual photographing position to a photographing target position in a virtual space;
specifying the size of the image data at the photographing target position based on the angle of view information and focal length information when the photographed image data was photographed, and the virtual distance information;
An information processing method performed by a computer, including:
[Item 7]
acquiring actual photographing position information indicating an actual photographing position in real space that is linked to the acquired photographic image data;
generating virtual distance information indicating a virtual distance from a virtual photographing position corresponding to the actual photographing position to a photographing target position in a virtual space;
specifying the size of the image data at the photographing target position based on the angle of view information and focal length information when the photographed image data was photographed, and the virtual distance information;
A program that causes a computer to execute.

<実施の形態の詳細>
以下、本発明の実施の形態による情報処理システム等について説明する。添付図面において、同一または類似の要素には同一または類似の参照符号及び名称が付され、各実施形態の説明において同一または類似の要素に関する重複する説明は省略することがある。また、各実施形態で示される特徴は、互いに矛盾しない限り他の実施形態にも適用可能である。
<Details of embodiment>
An information processing system and the like according to an embodiment of the present invention will be described below. In the accompanying drawings, the same or similar elements are given the same or similar reference numerals and names, and redundant description of the same or similar elements may be omitted in the description of each embodiment. Furthermore, features shown in each embodiment can be applied to other embodiments as long as they do not contradict each other.

<構成>
図1に示されるように、本実施の形態における情報処理システムは、管理サーバ1と、一以上のユーザ端末2と、一以上の移動体4(例えば、飛行体や走行体など)と、一以上の移動体格納装置5とを有している。管理サーバ1と、ユーザ端末2と、移動体4と、移動体格納装置5は、ネットワークを介して互いに通信可能に接続されている。なお、図示された構成は一例であり、これに限らず、例えば、移動体格納装置5を有さずに、ユーザにより持ち運びされる構成などでもよい。
<Configuration>
As shown in FIG. 1, the information processing system according to the present embodiment includes a management server 1, one or more user terminals 2, and one or more mobile objects 4 (for example, a flying object, a traveling object, etc.). It has the above mobile object storage device 5. The management server 1, the user terminal 2, the mobile object 4, and the mobile object storage device 5 are connected to each other via a network so that they can communicate with each other. Note that the illustrated configuration is an example, and is not limited to this. For example, a configuration that does not include the movable body storage device 5 and is carried by the user may be used.

<管理サーバ1>
図2は、管理サーバ1のハードウェア構成を示す図である。なお、図示された構成は一例であり、これ以外の構成を有していてもよい。
<Management server 1>
FIG. 2 is a diagram showing the hardware configuration of the management server 1. Note that the illustrated configuration is an example, and other configurations may be used.

図示されるように、管理サーバ1は、ユーザ端末2と、移動体4、移動体格納装置5と接続され本システムの一部を構成する。管理サーバ1は、例えばワークステーションやパーソナルコンピュータのような汎用コンピュータとしてもよいし、或いはクラウド・コンピューティングによって論理的に実現されてもよい。 As illustrated, a management server 1 is connected to a user terminal 2, a mobile object 4, and a mobile object storage device 5, and constitutes a part of this system. The management server 1 may be a general-purpose computer such as a workstation or a personal computer, or may be logically realized by cloud computing.

管理サーバ1は、少なくとも、プロセッサ10、メモリ11、ストレージ12、送受信部13、入出力部14等を備え、これらはバス15を通じて相互に電気的に接続される。 The management server 1 includes at least a processor 10, a memory 11, a storage 12, a transmitting/receiving section 13, an input/output section 14, etc., which are electrically connected to each other via a bus 15.

プロセッサ10は、管理サーバ1全体の動作を制御し、各要素間におけるデータの送受信の制御、及びアプリケーションの実行及び認証処理に必要な情報処理等を行う演算装置である。例えばプロセッサ10はCPU(Central Processing Unit)および/またはGPU(Graphics Processing Unit)であり、ストレージ12に格納されメモリ11に展開された本システムのためのプログラム等を実行して各情報処理を実施する。 The processor 10 is an arithmetic device that controls the overall operation of the management server 1, controls the transmission and reception of data between each element, and performs information processing necessary for application execution and authentication processing. For example, the processor 10 is a CPU (Central Processing Unit) and/or a GPU (Graphics Processing Unit), and executes programs for this system stored in the storage 12 and developed in the memory 11 to perform various information processing. .

メモリ11は、DRAM(Dynamic Random Access Memory)等の揮発性記憶装置で構成される主記憶と、フラッシュメモリやHDD(Hard Disc Drive)等の不揮発性記憶装置で構成される補助記憶と、を含む。メモリ11は、プロセッサ10のワークエリア等として使用され、また、管理サーバ1の起動時に実行されるBIOS(Basic Input / Output System)、及び各種設定情報等を格納する。 The memory 11 includes a main memory made up of a volatile storage device such as a DRAM (Dynamic Random Access Memory), and an auxiliary memory made up of a non-volatile storage device such as a flash memory or an HDD (Hard Disc Drive). . The memory 11 is used as a work area for the processor 10, and also stores a BIOS (Basic Input/Output System) executed when the management server 1 is started, various setting information, and the like.

ストレージ12は、アプリケーション・プログラム等の各種プログラムを格納する。各処理に用いられるデータを格納したデータベースがストレージ12に構築されていてもよい。 The storage 12 stores various programs such as application programs. A database storing data used for each process may be constructed in the storage 12.

送受信部13は、管理サーバ1をネットワークに接続する。なお、送受信部13は、Bluetooth(登録商標)及びBLE(Bluetooth Low Energy)の近距離通信インターフェースを備えていてもよい。 The transmitter/receiver 13 connects the management server 1 to the network. Note that the transmitting/receiving unit 13 may include a short-range communication interface of Bluetooth (registered trademark) and BLE (Bluetooth Low Energy).

入出力部14は、キーボード・マウス類等の情報入力機器、及びディスプレイ等の出力機器である。 The input/output unit 14 includes information input devices such as a keyboard and mouse, and output devices such as a display.

バス15は、上記各要素に共通に接続され、例えば、アドレス信号、データ信号及び各種制御信号を伝達する。 The bus 15 is commonly connected to each of the above elements and transmits, for example, address signals, data signals, and various control signals.

<ユーザ端末2>
図3に示されるユーザ端末2もまた、プロセッサ20、メモリ21、ストレージ22、送受信部23、入出力部24等を備え、これらはバス25を通じて相互に電気的に接続される。各要素の機能は、上述した管理サーバ1と同様に構成することが可能であることから、各要素の詳細な説明は省略する。
<User terminal 2>
The user terminal 2 shown in FIG. 3 also includes a processor 20, a memory 21, a storage 22, a transmitting/receiving section 23, an input/output section 24, etc., which are electrically connected to each other through a bus 25. Since the functions of each element can be configured in the same manner as the management server 1 described above, a detailed explanation of each element will be omitted.

<移動体4>
移動体4は、ドローンや無人航空機などの飛行体や無人地上車両などの走行体などを含む既知の移動体であって、特に自律制御可能な移動体である。このような移動体の具体的な例として、移動体4を例示して以下で説明する。図4は、移動体4のハードウェア構成を示すブロック図である。フライトコントローラ41は、プログラマブルプロセッサ(例えば、中央演算処理装置(CPU))などの1つ以上のプロセッサを有することができる。
<Mobile object 4>
The moving object 4 is a known moving object including a flying object such as a drone or an unmanned aerial vehicle, a running object such as an unmanned ground vehicle, and is particularly a moving object that can be autonomously controlled. As a specific example of such a moving body, the moving body 4 will be explained below. FIG. 4 is a block diagram showing the hardware configuration of the mobile object 4. As shown in FIG. Flight controller 41 may include one or more processors, such as a programmable processor (eg, a central processing unit (CPU)).

また、フライトコントローラ41は、メモリ411を有しており、当該メモリにアクセス可能である。メモリ411は、1つ以上のステップを行うためにフライトコントローラが実行可能であるロジック、コード、および/またはプログラム命令を記憶している。また、フライトコントローラ41は、慣性センサ(加速度センサ、ジャイロセンサ)、GPSセンサ、近接センサ(例えば、ライダー)等のセンサ412を含みうる。 Further, the flight controller 41 has a memory 411 and can access the memory. Memory 411 stores logic, code, and/or program instructions executable by the flight controller to perform one or more steps. Further, the flight controller 41 may include a sensor 412 such as an inertial sensor (acceleration sensor, gyro sensor), a GPS sensor, a proximity sensor (eg, lidar), or the like.

メモリ411は、例えば、SDカードやランダムアクセスメモリ(RAM)などの分離可能な媒体または外部の記憶装置を含んでいてもよい。カメラ/センサ類42から取得したデータは、メモリ411に直接に伝達されかつ記憶されてもよい。例えば、カメラ等で撮影した静止画・動画データが内蔵メモリ又は外部メモリに記録されてもよいが、これに限らず、カメラ/センサ類42または内蔵メモリからネットワークNWを介して、少なくとも管理サーバ1やユーザ端末2、移動体格納装置5のいずれかに1つに記録されてもよい。カメラ42は移動体4にジンバル43を介して設置される。 Memory 411 may include, for example, a separable medium or external storage such as an SD card or random access memory (RAM). Data acquired from cameras/sensors 42 may be communicated directly to and stored in memory 411. For example, still image/video data taken with a camera or the like may be recorded in the built-in memory or external memory, but the data is not limited to this. It may be recorded in one of the user terminal 2, the mobile storage device 5, and the user terminal 2. A camera 42 is installed on the moving body 4 via a gimbal 43.

フライトコントローラ41は、移動体の状態を制御するように構成された図示しない制御モジュールを含んでいる。例えば、制御モジュールは、6自由度(並進運動x、y及びz、並びに回転運動θ、θ及びθ)を有する移動体の空間的配置、速度、および/または加速度を調整するために、ESC44(Electric Speed Controller)を経由して移動体の推進機構(モータ45等)を制御する。バッテリー48から給電されるモータ45によりプロペラ46が回転することで移動体の揚力を生じさせる。制御モジュールは、搭載部、センサ類の状態のうちの1つ以上を制御することができる。 Flight controller 41 includes a control module (not shown) configured to control the state of the mobile object. For example, the control module may be configured to adjust the spatial position, velocity, and/or acceleration of a moving body having six degrees of freedom (translational motion x, y, and z, and rotational motion θ x , θ y , and θ z ). , and controls the propulsion mechanism (motor 45, etc.) of the moving body via an ESC 44 (Electric Speed Controller). A propeller 46 is rotated by a motor 45 supplied with power from a battery 48, thereby generating lift of the moving body. The control module can control one or more of the states of the mounting section and sensors.

フライトコントローラ41は、1つ以上の外部のデバイス(例えば、送受信機(プロポ)49、端末、表示装置、または他の遠隔の制御器)からのデータを送信および/または受け取るように構成された送受信部47と通信可能である。送受信機49は、有線通信または無線通信などの任意の適当な通信手段を使用することができる。 Flight controller 41 is a transceiver configured to transmit and/or receive data from one or more external devices (e.g., a transceiver 49, terminal, display, or other remote controller). It is possible to communicate with the unit 47. Transceiver 49 may use any suitable communication means, such as wired or wireless communication.

例えば、送受信部47は、ローカルエリアネットワーク(LAN)、ワイドエリアネットワーク(WAN)、赤外線、無線、WiFi、ポイントツーポイント(P2P)ネットワーク、電気通信ネットワーク、クラウド通信などのうちの1つ以上を利用することができる。 For example, the transmitter/receiver 47 uses one or more of a local area network (LAN), wide area network (WAN), infrared rays, wireless, WiFi, point-to-point (P2P) network, telecommunications network, cloud communication, etc. can do.

送受信部47は、センサ類42で取得したデータ、フライトコントローラ41が生成した処理結果、所定の制御データ、端末または遠隔の制御器からのユーザコマンドなどのうちの1つ以上を送信および/または受け取ることができる。 The transmitting/receiving unit 47 transmits and/or receives one or more of data acquired by the sensors 42, processing results generated by the flight controller 41, predetermined control data, user commands from a terminal or a remote controller, etc. be able to.

本実施の形態によるセンサ類42は、慣性センサ(加速度センサ、ジャイロセンサ)、GPSセンサ、近接センサ(例えば、LiDAR(Light Detection And Ranging)等)、またはビジョン/イメージセンサ(例えば、カメラ)を含み得る。以下、センサ類42を「カメラ42」と称することもある。本実施の形態によるセンサ類42は、ビジョン/イメージセンサしてのカメラ42で画像を撮影する際に、その画像を撮影した時点におけるカメラ42の実空間における実撮影位置、カメラ42の光学中心軸が向く実空間における方向である実撮影方向、カメラ42の焦点距離及び画角等に関する撮影条件情報を当該画像に関連付けて取得するように構成されている。したがって、本実施の形態によるカメラ42によって撮影された画像の画像データには、当該画像のデータのみならず、上記のような撮影条件情報が紐づけられて含まれる。 The sensors 42 according to the present embodiment include an inertial sensor (acceleration sensor, gyro sensor), a GPS sensor, a proximity sensor (for example, LiDAR (Light Detection and Ranging), etc.), or a vision/image sensor (for example, a camera). obtain. Hereinafter, the sensors 42 may be referred to as "camera 42". When the sensors 42 according to the present embodiment take an image with the camera 42 as a vision/image sensor, the actual shooting position of the camera 42 in real space at the time the image is taken, the optical center axis of the camera 42, etc. It is configured to acquire photographing condition information regarding the actual photographing direction, which is the direction in real space that the camera 42 faces, the focal length and angle of view of the camera 42, etc., in association with the image. Therefore, the image data of the image photographed by the camera 42 according to the present embodiment includes not only the data of the image but also the photographing condition information as described above.

<管理サーバの機能>
図5は、管理サーバ1に実装される機能を例示したブロック図である。本発明の実施の形態においては、管理サーバ1は、移動体4のセンサ類42に含まれるカメラで撮影された画像及びこれに関連付けられた撮影条件情報と、構造物(例えばビルなどの建物)内の構成物(例えば、壁、柱、階段、設備など)の配置を示す三次元モデルデータとに基づき、撮影された画像を対応する三次元モデルに配置する処理を実行するための各種機能部を有している。
<Management server functions>
FIG. 5 is a block diagram illustrating functions implemented in the management server 1. In the embodiment of the present invention, the management server 1 stores images taken by a camera included in the sensors 42 of the moving body 4 and photographing condition information associated therewith, and structures (for example, buildings such as buildings). various functional units that execute processing to place photographed images in a corresponding three-dimensional model based on three-dimensional model data indicating the arrangement of internal components (e.g., walls, columns, stairs, equipment, etc.) have.

本実施の形態においては、管理サーバ1は、プロセッサ10、送受信部13、記憶部200を備えている。プロセッサ10は、実撮影位置情報取得部110、仮想距離生成部120、サイズ特定部130、画像投影部140、差分検出部150、撮影対象特定部160、画像紐付部170及び移動実行部180を備えている。また、記憶部200は、三次元データ記憶部210、撮影画像データ記憶部220、移動情報記憶部230の各種データベースを含む。 In this embodiment, the management server 1 includes a processor 10, a transmitting/receiving section 13, and a storage section 200. The processor 10 includes an actual shooting position information acquisition section 110, a virtual distance generation section 120, a size specification section 130, an image projection section 140, a difference detection section 150, a shooting target specification section 160, an image linking section 170, and a movement execution section 180. ing. Furthermore, the storage unit 200 includes various databases such as a three-dimensional data storage unit 210, a photographed image data storage unit 220, and a movement information storage unit 230.

最初に記憶部200の各種データベースについて説明すると、三次元データ記憶部210には、構造物内外の構成物及びその配置位置を示す三次元モデルデータが記憶されている。三次元モデルデータは、CAD(Computer―Aided Design)設計ソフトウェアで作成されたデータを基にして作成された、構造物内の構成物の配置を示す三次元モデルデータ(より好ましくは寸法情報を有する三次元モデルデータ)であればどのようなデータであってもよく、例えば、BIM(Building Information Modeling)データ、CIM(Construction Information Modeling)データ、CADデータ、BIMデータ等から再構築された三次元モデルデータなどであってもよいし、二次元の設計図データに基づき所定の高さを有する構成物を生成することで得られた三次元モデルデータであってもよい。再構築等の三次元モデルデータの生成は管理サーバ1のプロセッサ10により実行されてもよいし、あるいは、管理サーバ1とは異なる外部装置で実行されて生成された三次元モデルデータを管理サーバ1が取得してもよい。また、構成物を示す三次元モデルデータについては、構成物の種別やサイズ、縮尺などを示す情報を紐づけられていてもよい。その他、三次元モデルデータに関する情報として、例えば三次元モデルデータを基準とした所定の空間領域(例えば、柱Aと柱Bの間の空間領域というような構成物を基準とした空間領域や、三次元モデルデータが配置される三次元座標系で規定される空間領域(特に、ユーザ操作により指定された座標を基準とした空間領域))を示す情報を三次元データ記憶部210に記憶してもよい。 First, various databases in the storage unit 200 will be described. The three-dimensional data storage unit 210 stores three-dimensional model data indicating internal and external components of a structure and their arrangement positions. The three-dimensional model data is three-dimensional model data (more preferably having dimensional information) that indicates the arrangement of components within a structure and is created based on data created with CAD (Computer-Aided Design) design software. For example, a three-dimensional model reconstructed from BIM (Building Information Modeling) data, CIM (Construction Information Modeling) data, CAD data, BIM data, etc. It may be data or the like, or it may be three-dimensional model data obtained by generating a structure having a predetermined height based on two-dimensional blueprint data. Generation of three-dimensional model data such as reconstruction may be executed by the processor 10 of the management server 1, or the generated three-dimensional model data may be executed by an external device different from the management server 1. may be obtained. Further, the three-dimensional model data indicating the composition may be associated with information indicating the type, size, scale, etc. of the composition. In addition, as information regarding the three-dimensional model data, for example, a predetermined spatial region based on the three-dimensional model data (for example, a spatial region based on a component such as the spatial region between pillars A and B, or a three-dimensional Even if information indicating a spatial region defined by a three-dimensional coordinate system in which original model data is arranged (particularly a spatial region based on coordinates specified by user operation) is stored in the three-dimensional data storage unit 210. good.

管理サーバ1のプロセッサ10は、三次元データ記憶部210に記憶された三次元モデルデータに基づいて、三次元モデルデータが三次元座標系で表現する仮想空間を生成する。このように生成された仮想空間内における各々の三次元モデルの配置位置及び配置向き等の配置情報は既知である。 Based on the three-dimensional model data stored in the three-dimensional data storage unit 210, the processor 10 of the management server 1 generates a virtual space expressed by the three-dimensional model data in a three-dimensional coordinate system. The arrangement information such as the arrangement position and arrangement direction of each three-dimensional model in the virtual space generated in this way is known.

撮影画像データ記憶部220は、移動体4のセンサ類42によって撮影され、移動体4から管理サーバ1に送信された撮影画像データを記憶する。上述したように、移動体4のセンサ類42によって撮影されて取得された画像データには、当該画像のデータだけでなく、画像を撮影した時点におけるカメラ42の実空間における実撮影位置、カメラ42の光学中心軸が向く実空間における方向である実撮影方向及びカメラ42の焦点距離等に関する撮影条件情報が当該画像に関連付けて(紐づけられて)含まれている。したがって、撮影画像データ記憶部220に記憶される撮影画像データは、画像データとそれに紐づけられた撮影条件情報とを含む。撮影画像データにおいて、撮影条件情報は画像データに関連付けられたメタデータであってもよい。 The photographed image data storage unit 220 stores photographed image data photographed by the sensors 42 of the mobile body 4 and transmitted from the mobile body 4 to the management server 1 . As described above, the image data photographed and acquired by the sensors 42 of the moving body 4 includes not only the data of the image but also the actual photographing position of the camera 42 in real space at the time the image was photographed, and the image data of the camera 42 . Photographing condition information regarding the actual photographing direction, which is the direction in real space in which the optical center axis of the image is directed, the focal length of the camera 42, etc., is included in association with (linked to) the image. Therefore, the photographed image data stored in the photographed image data storage section 220 includes image data and photographing condition information linked thereto. In the photographed image data, the photographing condition information may be metadata associated with the image data.

撮影画像データ記憶部220に記憶される撮影画像データはさらに、後述するプロセッサ10の撮影対象特定部160によって特定されて画像紐付部170に紐付けられた、仮想空間内の撮影対象位置に存在する撮影対象モデル、または、撮影対象空間の少なくともいずれかに関する情報を含んでいてもよい。撮影対象特定部160及び画像紐付部170による上記の特定処理及び紐付け処理の詳細については後述する。さらには、撮影画像データ記憶部220に記憶される撮影画像データは、後述するようにサイズ特定部130によって特定された、仮想空間内における撮影対象の位置である撮影対象位置における画像データのサイズに関する情報が関連付けられてもよい。 The captured image data stored in the captured image data storage unit 220 further exists at a captured target position in the virtual space that is specified by a captured target specifying unit 160 of the processor 10 described later and linked to an image linking unit 170. The information may include information regarding at least one of the model to be photographed and the space to be photographed. Details of the above-mentioned identification processing and linking processing by the photographic target identification unit 160 and the image linking unit 170 will be described later. Furthermore, the photographed image data stored in the photographed image data storage unit 220 is related to the size of the image data at the position of the photographic subject, which is the position of the photographic subject in the virtual space, specified by the size specifying unit 130 as described later. Information may also be associated.

移動情報記憶部230は、例えば建造物の内外の各種撮影対象物の実画像の撮影等を目的とする移動において用いられる移動情報を記憶している。移動情報は、例えば、移動経路情報(ウェイポイント情報を含む)、移動速度、飛行高度、撮像条件(撮影方向、撮像画角、撮像焦点距離、撮像画像のオーバーラップ率など)、移動時取得情報(例えば、画像データ及びこれに関連付けられた撮影条件情報等)などを含む。 The movement information storage unit 230 stores movement information used in movement for the purpose of photographing actual images of various objects to be photographed inside and outside a building, for example. Movement information includes, for example, movement route information (including waypoint information), movement speed, flight altitude, imaging conditions (shooting direction, imaging angle of view, imaging focal length, overlap rate of captured images, etc.), and information acquired during movement. (For example, image data and photographing condition information associated with the image data, etc.).

移動情報は、例えば、移動情報に含まれる各種情報のパラメータを管理サーバ1又はユーザ端末2上で設定することにより生成することができる。なお、移動経路としては、例えば、移動体格納装置5の位置を移動開始位置及び移動終了位置として、各ウェイポイントを通過する移動経路を生成するようにしてもよいし、逆に移動体格納装置5を有さずに、ユーザにより移動体4を持ち運びされた位置を移動開始位置(いわゆるホームポイント)としたり、移動終了位置(ホームポイントに戻ってもよい)においてユーザが移動体4を回収したりする構成などでもよいし、管理サーバ1により管理された移動体格納装置5の情報(例えば、位置情報や格納状態情報、格納機情報など)を基に、移動開始位置または移動終了位置として選択された移動体格納装置5の位置も含めた移動経路として生成される構成でもよい。 The movement information can be generated, for example, by setting parameters of various information included in the movement information on the management server 1 or the user terminal 2. In addition, as a movement route, for example, a movement route passing through each waypoint may be generated with the position of the moving body storage device 5 as the movement start position and the movement end position, or conversely, a movement route may be generated that passes through each waypoint. 5, the position where the mobile body 4 is carried by the user is set as the movement start position (so-called home point), or the user collects the mobile body 4 at the movement end position (which may be returned to the home point). Alternatively, the location may be selected as the movement start position or movement end position based on the information of the mobile object storage device 5 managed by the management server 1 (for example, position information, storage status information, storage device information, etc.). The configuration may be such that the moving route is generated as a moving route including the location of the moving object storage device 5 that has been moved.

次にプロセッサ10の各機能部について説明すると、実撮影位置情報取得部110は、移動体4のカメラ42によって撮影され移動体4から管理サーバ1に送信された撮影画像データに紐づけられている撮影条件情報として、特に、画像を撮影した時点におけるカメラ42の実空間における実撮影位置を示す実撮影位置情報を取得する。実撮影位置情報取得部110はさらに、取得した画像データに紐づけられている上記の撮影条件情報から、カメラ42の光学中心軸が向く実空間における方向である実撮影方向とカメラ42の焦点距離及び画角とに関する情報を取得してもよい。 Next, each functional unit of the processor 10 will be explained. The actual photographing position information acquisition unit 110 is linked to photographed image data photographed by the camera 42 of the mobile body 4 and transmitted from the mobile body 4 to the management server 1. As the photographing condition information, in particular, actual photographing position information indicating the actual photographing position of the camera 42 in real space at the time when the image was photographed is acquired. The actual shooting position information acquisition unit 110 further determines the actual shooting direction, which is the direction in real space in which the optical center axis of the camera 42 faces, and the focal length of the camera 42, from the above shooting condition information linked to the acquired image data. and the angle of view.

カメラ(センサ類)42の実空間における実撮影位置は、実空間の三次元座標系で表現される位置である。移動体4のカメラ42がGNSSセンサ(GPSセンサ等)を含み、センサ類42の位置情報としてGNSSセンサで緯度・経度情報を取得可能な場合は、カメラ(センサ類)42の実空間における実撮影位置は緯度・経度で表現されてもよい。あるいは、センサ類42の位置情報を慣性センサ(加速度センサ、ジャイロセンサ)等の非GNSSセンサで取得する場合は、カメラ(センサ類)42の実空間における実撮影位置は、実空間における基準位置(例えば、移動体4の飛行開始位置(ホームポイント))を原点とする三次元座標系における位置で表現されてもよい。 The actual shooting position of the camera (sensors) 42 in real space is a position expressed in a three-dimensional coordinate system in real space. If the camera 42 of the mobile object 4 includes a GNSS sensor (such as a GPS sensor) and the GNSS sensor can obtain latitude and longitude information as the position information of the sensors 42, the camera (sensors) 42 can actually capture images in real space. The position may be expressed in latitude and longitude. Alternatively, when acquiring the position information of the sensors 42 with a non-GNSS sensor such as an inertial sensor (acceleration sensor, gyro sensor), the actual shooting position of the camera (sensors) 42 in real space is the reference position in real space ( For example, it may be expressed as a position in a three-dimensional coordinate system with the origin at the flight start position (home point) of the moving object 4.

管理サーバ1のプロセッサ10は、三次元データ記憶部210に記憶された三次元モデルデータに基づいて、三次元モデルデータが三次元座標系で表現する仮想空間を生成する際に、例えば実空間の三次元座標系と仮想空間の三次元座標系とを対応付けることにより、実空間の三次元座標系と仮想空間の三次元座標系との相関関係を構築する処理を行う。一例として、プロセッサ10は、実空間の三次元座標系における基準位置(例えば、移動体4の飛行開始位置)と、その位置に対応する仮想空間の三次元座標系における基準位置とを位置合わせして対応付けることにより、実空間の三次元座標系と仮想空間の三次元座標系との相関関係を構築する。これにより、プロセッサ10は、実空間内で飛行する移動体4の実空間の三次元座標系における位置を、仮想空間内の仮想移動体(実空間の移動体4に対応する仮想物体)の三次元座標系における位置に変換して表現することが可能である。なお、仮想空間における三次元モデルデータの縮尺が実空間における対応する構造物(構成物)の縮尺と異なる場合は、位置合わせに伴って三次元モデルデータの縮尺を調整してもよい。 The processor 10 of the management server 1 generates a virtual space expressed by the three-dimensional coordinate system based on the three-dimensional model data stored in the three-dimensional data storage unit 210, for example, based on the real space. By associating the three-dimensional coordinate system with the three-dimensional coordinate system of the virtual space, a process is performed to establish a correlation between the three-dimensional coordinate system of the real space and the three-dimensional coordinate system of the virtual space. As an example, the processor 10 aligns a reference position in the three-dimensional coordinate system of the real space (for example, the flight start position of the moving object 4) with a reference position in the three-dimensional coordinate system of the virtual space that corresponds to that position. By associating them with each other, a correlation between the three-dimensional coordinate system of the real space and the three-dimensional coordinate system of the virtual space is constructed. Thereby, the processor 10 determines the position of the moving object 4 flying in the real space in the three-dimensional coordinate system of the real space using the three-dimensional coordinate system of the virtual moving object (virtual object corresponding to the moving object 4 in the real space) in the virtual space. It is possible to convert and express the position in the original coordinate system. Note that if the scale of the three-dimensional model data in the virtual space is different from the scale of the corresponding structure (component) in the real space, the scale of the three-dimensional model data may be adjusted in conjunction with alignment.

このように、実空間の三次元座標系と仮想空間の三次元座標系との相関関係を構築することにより、例えばユーザ端末2上に表示される仮想空間の三次元座標系をベースにウェイポイントを設定した場合においても、実空間の移動体4の三次元座標系に基づく移動経路生成などの位置指定が可能となる。三次元モデルデータが寸法情報を備える場合には、仮想空間の三次元座標系を基準として、例えば10m真っすぐ飛んで右に曲がる、といったような現実の縮尺を用いた移動経路生成が可能となる。 In this way, by building a correlation between the three-dimensional coordinate system of the real space and the three-dimensional coordinate system of the virtual space, for example, waypoints can be created based on the three-dimensional coordinate system of the virtual space displayed on the user terminal 2. Even when , it is possible to designate a position such as generating a movement route based on the three-dimensional coordinate system of the moving body 4 in real space. When the three-dimensional model data includes dimensional information, it becomes possible to generate a travel route using the actual scale, such as flying straight for 10 meters and turning to the right, based on the three-dimensional coordinate system of the virtual space.

仮想距離生成部120は、プロセッサ10が生成した仮想空間内において、カメラ42の実空間における実撮影位置に対応する仮想撮影位置から、仮想空間内における撮影対象の位置である撮影対象位置までの仮想距離を示す仮想距離情報を生成する処理を行う。仮想空間内における撮影対象位置は、例えば、仮想空間内の座標情報、仮想空間内の撮影対象の三次元モデル(仮想空間内の建物内の壁、柱、階段、設備などの仮想構成物)の位置や、仮想空間内の任意の空間領域位置であってもよい。 The virtual distance generation unit 120 generates a virtual distance in the virtual space generated by the processor 10 from a virtual shooting position corresponding to the actual shooting position of the camera 42 in the real space to a shooting target position that is the position of the shooting target in the virtual space. Performs processing to generate virtual distance information indicating distance. The position of the object to be photographed in the virtual space can be determined using, for example, coordinate information in the virtual space, a three-dimensional model of the object to be photographed in the virtual space (virtual constructs such as walls, columns, stairs, equipment, etc. in a building in the virtual space). It may be a position or an arbitrary spatial region position within the virtual space.

仮想距離生成部120は、仮想空間の三次元座標系における仮想空間内の仮想撮影位置と、撮影対象位置(撮影対象の構成物に対応する三次元モデルの位置)とに基づいて、仮想撮影位置から撮影対象位置までの距離である仮想距離を算出して、仮想距離情報を生成する処理を行う。仮想撮影位置から撮影対象位置までの距離である仮想距離は、一例として、仮想空間の三次元座標系における仮想撮影位置と撮影対象位置とを撮影方向(特に光軸方向)に沿って結ぶ線分の長さを求めることで取得することが可能である。 The virtual distance generation unit 120 generates a virtual photographing position based on a virtual photographing position in the virtual space in the three-dimensional coordinate system of the virtual space and the photographing target position (the position of the three-dimensional model corresponding to the composition of the photographing target). A process is performed to calculate a virtual distance, which is the distance from to the shooting target position, and generate virtual distance information. The virtual distance, which is the distance from the virtual shooting position to the shooting target position, is, for example, a line segment that connects the virtual shooting position and the shooting target position in the three-dimensional coordinate system of the virtual space along the shooting direction (particularly the optical axis direction). It can be obtained by finding the length of .

サイズ特定部130は、カメラ42が画像を撮影したときに取得した撮影画像データに含まれる撮影条件情報であるカメラ42の画角情報及び焦点距離情報と、仮想距離生成部120が生成した仮想距離情報とに基づき、仮想空間内における撮影対象の位置である撮影対象位置における画像データのサイズを特定する処理を行う。 The size specifying unit 130 uses the angle of view information and focal length information of the camera 42, which is shooting condition information included in the captured image data acquired when the camera 42 captures an image, and the virtual distance generated by the virtual distance generating unit 120. Based on the information, a process is performed to specify the size of image data at the position of the photographing target, which is the position of the photographing target in the virtual space.

ここで、図6を参照して、サイズ特定部130が撮影対象位置における画像データのサイズを特定する処理の一例について説明する。 Here, with reference to FIG. 6, an example of a process in which the size specifying unit 130 specifies the size of image data at a shooting target position will be described.

サイズ特定部130はまず、撮影画像データに紐づけられたカメラ42の画角情報及び焦点距離情報を用いて、カメラ42の実撮影位置に対応する仮想空間における仮想撮影位置Cから焦点距離nだけ離れた第1の平面(図6に示す視錐台の「near plane」)のサイズを算出する。第1の平面のサイズは、カメラ42が取得した撮影対象の撮影画像データのサイズに対応する。 First, the size specifying unit 130 uses the angle of view information and focal length information of the camera 42 linked to the photographed image data to determine the focal length n from the virtual photographing position C in the virtual space corresponding to the actual photographing position of the camera 42. Calculate the size of a distant first plane (the "near plane" of the view frustum shown in FIG. 6). The size of the first plane corresponds to the size of the photographed image data of the photographed object acquired by the camera 42.

サイズ特定部130は次に、上記のように算出した第1の平面のサイズと、焦点距離情報及び仮想距離生成部120が生成した仮想距離情報とを用いて、仮想撮影位置Cから仮想距離fだけ離れた第2の平面(図6に示す視錐台の「far plane」)における画像データのサイズを算出する。第2の平面のサイズは、第1の平面のサイズを焦点距離nと仮想距離fとの比に応じて拡大した大きさであり、撮影対象位置における画像データのサイズである。三次元モデルデータが寸法情報及び縮尺情報を備える場合には、サイズ特定部130によって上記のように撮影対象位置における画像データのサイズを算出することで、撮影対象位置における三次元モデルに対応する実空間の構成物の実寸サイズをその画像データのサイズから取得することが可能となる。 Next, the size specifying unit 130 uses the size of the first plane calculated as described above, the focal length information, and the virtual distance information generated by the virtual distance generating unit 120 to determine the virtual distance f from the virtual shooting position C. The size of the image data in a second plane (the "far plane" of the view frustum shown in FIG. 6) that is separated by the amount of time is calculated. The size of the second plane is the size obtained by enlarging the size of the first plane according to the ratio of the focal length n to the virtual distance f, and is the size of the image data at the shooting target position. When the three-dimensional model data includes dimension information and scale information, the size specifying unit 130 calculates the size of the image data at the photographing target position as described above to determine the actual size corresponding to the three-dimensional model at the photographing target position. It becomes possible to obtain the actual size of a spatial component from the size of its image data.

画像投影部140は、仮想空間内の撮影対象位置に存在する撮影対象の三次元モデルである撮影対象モデル上に、サイズ特定部130が特定したサイズの画像データを投影する処理を行う。この処理により、撮影対象位置に存在する撮影対象の三次元モデルである撮影対象モデル上の対応する位置に、その撮影対象モデルに対応する実空間の構成物の画像が撮影対象モデルの大きさに合致するサイズで貼り付けられ、撮影対象モデルの表面に実空間の構成物(撮影対象物)のテクスチャが付与される。 The image projection unit 140 performs a process of projecting image data of the size specified by the size specifying unit 130 onto a photographing target model that is a three-dimensional model of the photographing target existing at the photographing target position in the virtual space. Through this process, an image of a component in the real space corresponding to the model to be photographed is displayed at the corresponding position on the model to be photographed, which is a three-dimensional model of the target to be photographed, existing at the position of the target to be photographed, to the size of the model to be photographed. They are pasted in a matching size, and the texture of the real space composition (the object to be photographed) is given to the surface of the model to be photographed.

差分検出部150は、画像投影部140が仮想空間内において投影した画像データに映る撮影対象物と、その撮影対象物に対応する撮影対象モデルとの形状の差分を検出する処理を行う。 The difference detection unit 150 performs a process of detecting a difference in shape between an object to be photographed that appears in the image data projected in the virtual space by the image projection unit 140 and a model to be photographed that corresponds to the object to be photographed.

差分検出処理の一例として撮影対象物が略直方体形状の戸棚である例を挙げて説明すると、差分検出部150は、投影した画像データに映る撮影対象物における特徴部位(例えば、撮影対象物である戸棚の外形線や外形線同士が交差する隅の部分など)と、画像データが投影された撮影対象モデルにおける、撮影対象物の特徴部位に対応する特徴部位(例えば、戸棚の三次元モデルである撮影対象モデルの稜線や稜線同士が交差する隅の部分など)とを抽出し、それらの特徴部位同士の位置関係に基づいて、投影した画像データに映る撮影対象物と撮影対象モデルとの形状あるいは配置位置の差分を検出する。差分検出部150による検出処理の結果取得された差分情報は、例えば、画像投影部140が仮想空間内で投影する画像データの位置、形状、大きさ等を補正して、画像データを撮影対象モデル上に適切に重なるように配置することに用いることができる。 An example of the difference detection process will be described using an example in which the object to be photographed is a cupboard having a substantially rectangular parallelepiped shape. The outline of the cupboard or the corner where the outlines intersect with each other), and the characteristic parts corresponding to the characteristic parts of the photographed object in the photographed target model onto which the image data is projected (for example, the three-dimensional model of the cupboard) The shape of the object and the model reflected in the projected image data is extracted based on the positional relationship between these characteristic parts. Detect the difference in placement position. The difference information acquired as a result of the detection process by the difference detection unit 150 is used, for example, by correcting the position, shape, size, etc. of the image data projected in the virtual space by the image projection unit 140, and converting the image data into a model to be photographed. It can be used to properly overlap the top.

撮影対象特定部160は、カメラ42が撮影画像データを撮影した際のカメラ42の画角の中心位置に基づき、仮想空間内の撮影対象位置に存在する撮影対象モデル、または、撮影対象空間の少なくともいずれかを特定する処理を行う。 The photographing target specifying unit 160 identifies the photographing target model existing at the photographing target position in the virtual space or at least the photographing target space based on the center position of the angle of view of the camera 42 when the camera 42 photographs the photographed image data. Perform processing to identify either one.

より具体的には、撮影対象特定部160はまず、カメラ42が撮影画像データを撮影した際に取得され、その撮影画像データに紐づけられた撮影条件情報のうち、その撮影画像データを撮影した時点におけるカメラ42の光学中心軸が向く実空間における方向である実撮影方向に関する情報に基づき、カメラ42の実撮影方向に対応する仮想空間における仮想撮影方向を求める。仮想空間における仮想撮影方向は、カメラ42の実撮影位置に対応する仮想空間における仮想撮影位置から、カメラ42の実撮影方向に対応する仮想撮影方向に延びる仮想的な直線で表現され得る。カメラ42の画角の中心位置は、仮想空間における仮想撮影位置に対応しうる。撮影対象特定部160は次に、カメラ42の実撮影位置に対応する仮想空間における仮想撮影位置から仮想撮影方向に延びる仮想的な直線が交差する、仮想空間内の撮影対象位置に存在する撮影対象モデルまたは撮影対象空間を特定する。 More specifically, the photographing target specifying unit 160 first selects the photographed image data from among the photographing condition information that is acquired when the camera 42 photographs the photographed image data and is associated with the photographed image data. A virtual photographing direction in the virtual space corresponding to the actual photographing direction of the camera 42 is determined based on information regarding the actual photographing direction, which is the direction in the real space in which the optical center axis of the camera 42 faces at the time. The virtual photographing direction in the virtual space can be expressed by a virtual straight line extending from the virtual photographing position in the virtual space corresponding to the actual photographing position of the camera 42 to the virtual photographing direction corresponding to the actual photographing direction of the camera 42. The center position of the angle of view of the camera 42 may correspond to a virtual photographing position in the virtual space. Next, the photographing target specifying unit 160 identifies a photographing target existing at a photographing target position in the virtual space that is intersected by a virtual straight line extending from the virtual photographing position in the virtual space corresponding to the actual photographing position of the camera 42 in the virtual photographing direction. Identify the model or space to be photographed.

撮影対象特定部160はこのような処理により、カメラ42が撮影画像データを撮影した際のカメラ42の画角の中心位置に基づき、仮想空間内の撮影対象位置に存在する撮影対象モデルまたは撮影対象空間の少なくともいずれかを特定する。 Through such processing, the photographing target specifying unit 160 identifies the photographing target model or photographing target existing at the photographing target position in the virtual space based on the center position of the angle of view of the camera 42 when the camera 42 photographs the photographed image data. Identify at least one of the spaces.

画像紐付部170は、撮影対象特定部160により特定された撮影対象モデルまたは撮影対象空間の少なくともいずれかに紐付けて、画像データを記憶部200に記憶させる処理を行う。より具体的には、画像紐付部170は、撮影対象特定部160による特定処理の結果取得された特定情報に基づき、カメラ42が撮影した撮影画像データに、その撮影画像データに映る実空間の撮影対象物に対応する仮想空間内の撮影対象モデルまたは撮影対象空間を関連付けて、対応する仮想空間内の撮影対象モデルまたは撮影対象空間が紐づけられた撮影画像データを記憶部200の撮影画像データ記憶部220に記憶させる。 The image linking unit 170 performs a process of storing image data in the storage unit 200 by linking the image data to at least one of the model to be photographed and the space to be photographed identified by the photographic target specifying unit 160. More specifically, the image linking unit 170 attaches to the captured image data captured by the camera 42, based on the specific information acquired as a result of the specific processing by the captured target specific unit 160, The photographed image data in which the model to be photographed in the virtual space or the space to be photographed in the corresponding virtual space is associated with the object is stored in the storage unit 200. 220.

移動実行部180は、移動情報記憶部230に記憶された各種移動情報に基づき、建造物の内外の各種撮影対象物の実画像の撮影等を目的とする移動体4の移動を実行する。 The movement execution unit 180 executes movement of the moving body 4 for the purpose of photographing actual images of various objects to be photographed inside and outside the building, based on various types of movement information stored in the movement information storage unit 230.

<本実施形態にかかる情報処理方法の一例>
次に、図7を参照して、本実施形態にかかる情報処理方法(特に、三次元モデル上における画像データサイズの特定方法)について説明する。図7は、本実施形態にかかる情報処理方法を例示するフローチャートである。
<An example of the information processing method according to this embodiment>
Next, with reference to FIG. 7, an information processing method (particularly a method for specifying image data size on a three-dimensional model) according to this embodiment will be described. FIG. 7 is a flowchart illustrating the information processing method according to this embodiment.

最初に、本実施形態の情報処理システムにおける実撮影位置情報取得部110は、移動体4のカメラ42によって撮影され移動体4から管理サーバ1に送信された撮影画像データから、その撮影画像データに紐づけられている撮影条件情報を取得する(ステップS101)。 First, the actual photographing position information acquisition unit 110 in the information processing system of this embodiment acquires the photographed image data from the photographed image data photographed by the camera 42 of the mobile body 4 and transmitted from the mobile body 4 to the management server 1. The associated shooting condition information is acquired (step S101).

撮影条件情報は、ビジョン/イメージセンサしてのカメラ(センサ類)42が画像を撮影する際に併せて取得される、その画像を撮影した時点におけるカメラ42の実空間における実撮影位置、カメラ42の光学中心軸が向く実空間における方向である実撮影方向、カメラ42の焦点距離及び画角等に関する情報を含み、撮影した画像のデータである撮影画像データに関連付けられている。ステップS101の処理において、実撮影位置情報取得部110は特に、画像を撮影した時点におけるカメラ42の実空間における実撮影位置に関する情報をその撮影画像データから取得する。 The photographing condition information is acquired when the camera (sensors) 42 as a vision/image sensor photographs an image, and includes the actual photographing position of the camera 42 in real space at the time the image is photographed, and the camera 42 It includes information regarding the actual photographing direction, which is the direction in real space in which the optical center axis of the camera 42 faces, the focal length and angle of view of the camera 42, and is associated with the photographed image data, which is the data of the photographed image. In the process of step S101, the actual photographing position information acquisition unit 110 particularly acquires information regarding the actual photographing position of the camera 42 in real space at the time when the image was photographed from the photographed image data.

次に、情報処理システムにおける仮想距離生成部120は、プロセッサ10が生成した仮想空間内において、カメラ42の実空間における実撮影位置に対応する仮想撮影位置から、仮想空間内における撮影対象の位置である撮影対象位置までの仮想距離を示す仮想距離情報を生成する(ステップS102)。一例として、仮想距離生成部120は、仮想空間の三次元座標系における仮想空間内の仮想撮影位置と撮影対象位置(撮影対象の構成物に対応する三次元モデルの位置)とを結ぶ線分の長さを求めることで、仮想空間内における撮影対象の位置である撮影対象位置までの仮想距離を取得することが可能である。 Next, in the virtual space generated by the processor 10, the virtual distance generation unit 120 in the information processing system calculates the position of the object to be photographed in the virtual space from the virtual photographing position corresponding to the actual photographing position of the camera 42 in the real space. Virtual distance information indicating a virtual distance to a certain photographic target position is generated (step S102). As an example, the virtual distance generation unit 120 generates a line segment that connects the virtual imaging position in the virtual space and the imaging target position (the position of the three-dimensional model corresponding to the composition of the imaging target) in the three-dimensional coordinate system of the virtual space. By determining the length, it is possible to obtain the virtual distance to the photographing target position, which is the position of the photographing target in the virtual space.

次に、情報処理システムにおけるサイズ特定部130は、カメラ42が画像を撮影したときに取得した撮影画像データに含まれる撮影条件情報のうちのカメラ42の画角情報及び焦点距離情報と、仮想距離生成部120が生成した仮想距離情報とに基づき、仮想空間内の撮影対象位置における画像データのサイズを特定する(ステップS103)。 Next, the size specifying unit 130 in the information processing system selects the angle of view information and focal length information of the camera 42 from among the photographing condition information included in the photographed image data acquired when the camera 42 photographs an image, and the virtual distance Based on the virtual distance information generated by the generation unit 120, the size of the image data at the shooting target position in the virtual space is specified (step S103).

サイズ特定部130は、一例として図6を参照して説明したように、カメラ42の実撮影位置に対応する仮想空間における仮想撮影位置から焦点距離だけ離れた第1の平面(図6に示す視錐台の「near plane」)のサイズを算出し、次に第1の平面のサイズと焦点距離及び仮想距離とを用いて仮想撮影位置から仮想距離だけ離れた第2の平面のサイズを算出することによって、仮想空間内における撮影対象位置における画像データのサイズを特定する。 As described with reference to FIG. 6 as an example, the size specifying unit 130 is configured to locate a first plane (viewed in FIG. Calculate the size of the "near plane" of the frustum, and then use the size of the first plane, focal length, and virtual distance to calculate the size of a second plane located a virtual distance away from the virtual shooting position. By this, the size of the image data at the position of the object to be photographed in the virtual space is specified.

このように、仮想空間の撮影対象位置における画像データのサイズを特定することにより、後の処理において撮影画像データを撮影対象位置(撮影対象の構成物に対応する三次元モデルの位置)に投影するときに、画像データを撮影対象位置に適応したサイズとすることが可能となる。さらには、三次元モデルデータが寸法情報及び縮尺情報を備える場合には、撮影対象位置における三次元モデルに対応する実空間の構成物の実寸サイズをその画像データのサイズから取得することが可能となる。 In this way, by specifying the size of the image data at the shooting target position in the virtual space, the captured image data is projected to the shooting target position (the position of the three-dimensional model corresponding to the composition to be shot) in later processing. In some cases, it is possible to set the image data to a size appropriate to the position of the object to be photographed. Furthermore, if the 3D model data includes dimension information and scale information, it is possible to obtain the actual size of the structure in the real space corresponding to the 3D model at the shooting target position from the size of the image data. Become.

次に、情報処理システムにおける画像投影部140は、仮想空間内の撮影対象位置に存在する撮影対象の三次元モデルである撮影対象モデル上に、サイズ特定部130が特定したサイズの画像データを投影する(ステップS104)。これにより、撮影対象位置に存在する撮影対象の撮影対象モデル上に、その撮影対象モデルに対応する実空間の構成物の画像が撮影対象モデルの大きさに合致するサイズで貼り付けられ、撮影対象モデルの表面に実空間の構成物(撮影対象物)のテクスチャが付与される。 Next, the image projection unit 140 in the information processing system projects image data of the size specified by the size specifying unit 130 onto a photographing target model that is a three-dimensional model of the photographing target existing at the photographing target position in the virtual space. (Step S104). As a result, an image of a component in the real space corresponding to the model to be photographed is pasted onto the model to be photographed at the target position, with a size that matches the size of the model to be photographed. The texture of a real space component (object to be photographed) is added to the surface of the model.

次に、情報処理システムにおける差分検出部150は、画像投影部140が仮想空間内において投影した画像データに映る撮影対象物と、その撮影対象物に対応する撮影対象モデルとの形状の差分を検出する(ステップS105)。
差分検出部150は、一例として、投影した画像データに映る撮影対象物における特徴部位と、画像データが投影された撮影対象モデルにおける対応する特徴部位とを抽出し、それらの特徴部位同士の位置関係に基づいて、投影した画像データに映る撮影対象物と撮影対象モデルとの形状あるいは配置位置の差分を検出する。このように取得された差分情報を用いることにより、例えば、画像投影部140が仮想空間内で投影する画像データの位置、形状、大きさ等を補正して、画像データを撮影対象モデル上に適切に重なるように配置することが可能となる。
Next, the difference detection unit 150 in the information processing system detects a difference in shape between the object to be photographed that appears in the image data projected in the virtual space by the image projection unit 140 and the model to be photographed corresponding to the object to be photographed. (Step S105).
For example, the difference detection unit 150 extracts a characteristic part of the object to be photographed that is reflected in the projected image data and a corresponding characteristic part in the model of the object to be photographed on which the image data is projected, and determines the positional relationship between these characteristic parts. Based on this, a difference in shape or placement position between the object to be photographed and the model to be photographed that appear in the projected image data is detected. By using the difference information acquired in this way, for example, the image projection unit 140 can correct the position, shape, size, etc. of the image data projected in the virtual space, and properly display the image data on the model to be photographed. It is possible to arrange them so that they overlap.

次に、情報処理システムにおける撮影対象特定部160は、カメラ42が撮影画像データを撮影した際のカメラ42の画角の中心位置に基づき、仮想空間内の撮影対象位置に存在する撮影対象モデル、または、撮影対象空間の少なくともいずれかを特定する(ステップS106)。 Next, the photographing target specifying unit 160 in the information processing system determines, based on the center position of the angle of view of the camera 42 when the camera 42 photographs the photographed image data, the photographing target model existing at the photographing target position in the virtual space, Alternatively, at least one of the spaces to be photographed is specified (step S106).

ステップS106の処理において、撮影対象特定部160はまず、撮影画像データを撮影した時点におけるカメラ42の光学中心軸が向く実空間における方向である実撮影方向に関する情報に基づき、カメラ42の実撮影方向に対応する仮想空間における仮想撮影方向を求め、次に、カメラ42の実撮影位置に対応する仮想空間における仮想撮影位置から仮想撮影方向に延びる仮想的な直線が交差する、仮想空間内の撮影対象位置に存在する撮影対象モデルまたは撮影対象空間を特定する。 In the process of step S106, the photographing target specifying unit 160 first determines the actual photographing direction of the camera 42 based on information regarding the actual photographing direction, which is the direction in real space that the optical center axis of the camera 42 faces at the time when the photographed image data is photographed. Find the virtual shooting direction in the virtual space corresponding to the actual shooting position of the camera 42, and then find the shooting target in the virtual space that is intersected by a virtual straight line extending from the virtual shooting position in the virtual space corresponding to the actual shooting position of the camera 42 in the virtual shooting direction. A model to be photographed or a space to be photographed existing at a position is identified.

最後に、情報処理システムにおける画像紐付部170は、撮影対象特定部160により特定された撮影対象モデルまたは撮影対象空間の少なくともいずれかに紐付けて、画像データを記憶部200に記憶させる(ステップS107)。これにより、例えば、撮影画像データ記憶部220に記憶されている画像データに対応する撮影対象モデルまたは撮影対象空間を検索したり、あるいは、三次元データ記憶部210に記憶されている撮影対象モデルまたは撮影対象空間に対応する画像データを検索することが可能となり、ステップS104において画像投影部140が撮影対象位置に投影すべき画像データを自動的に特定することが可能となる。 Finally, the image linking unit 170 in the information processing system stores the image data in the storage unit 200 by linking it to at least one of the shooting target model or the shooting target space specified by the shooting target specifying unit 160 (step S107 ). As a result, for example, a model to be photographed or a space to be photographed corresponding to the image data stored in the photographed image data storage section 220 can be searched, or a model or object to be photographed stored in the three-dimensional data storage section 210 or It becomes possible to search for image data corresponding to the imaging target space, and it becomes possible to automatically specify image data to be projected onto the imaging target position by the image projection unit 140 in step S104.

このように、本実施形態によれば、移動体4により撮影された画像を撮影対象位置及びそのサイズと関連付けて容易に管理することが可能な情報処理システム等が提供される。特に、本実施形態にかかる情報処理方法は、仮想空間の撮影対象位置における画像データのサイズを特定することを含むことにより、撮影画像データを撮影対象位置(撮影対象の構成物に対応する三次元モデルの位置)に投影するときに、画像データを撮影対象位置に適応したサイズとすることが可能となり、さらには、三次元モデルデータが寸法情報及び縮尺情報を備える場合には、撮影対象位置における三次元モデルに対応する実空間の構成物の実寸サイズをその画像データのサイズから取得することが可能となる。 As described above, the present embodiment provides an information processing system and the like that can easily manage images photographed by the moving body 4 in association with the photographing target position and its size. In particular, the information processing method according to the present embodiment includes specifying the size of the image data at the imaging target position in the virtual space, thereby converting the captured image data into the imaging target position (three-dimensional When projecting the image data to the position of the model, it is possible to make the image data a size appropriate for the position of the object to be photographed.Furthermore, if the 3D model data includes dimension information and scale information, it is possible to It becomes possible to obtain the actual size of a component in real space corresponding to a three-dimensional model from the size of its image data.

移動体4は、構造物の内壁および/または外壁の所定の事象の有無を点検するために利用される装置、機器等をさらに備えていてもよい。より具体的には、撮像装置(可視光カメラ、赤外線カメラ、金属探知機、超音波測定器等)や、打鍵装置等、探知装置(金属探知機)、集音装置、臭気測定器、ガス検知器、空気汚染測定器、検出装置(宇宙線、放射線、電磁波等を検出するための装置)等の点検対象構造物の状態を知るために必要な装置は全て採用され得る。 The moving body 4 may further include a device, equipment, etc. used to inspect the inner wall and/or outer wall of the structure for the presence or absence of a predetermined event. More specifically, imaging devices (visible light cameras, infrared cameras, metal detectors, ultrasonic measuring devices, etc.), keying devices, detection devices (metal detectors), sound collection devices, odor measuring devices, gas detection devices, etc. All the devices necessary to know the condition of the structure to be inspected, such as air pollution measuring instruments, detection devices (devices for detecting cosmic rays, radiation, electromagnetic waves, etc.), can be employed.

また、本実施形態にかかる情報処理方法は例えば構造物内の警備や監視の際に実行されてもよく、警備や監視のために利用される装置、機器等をさらに備えていてもよい。より具体的には、撮像装置(可視光カメラ、赤外線カメラ、暗視カメラ、金属探知機、超音波測定器等)や、センサ装置(モーションセンサ、赤外線センサ等)等、警備・監視対象構造物の異常や侵入者等を撮像・検知するために必要な装置は全て採用され得る。 Further, the information processing method according to the present embodiment may be executed, for example, during security or monitoring inside a structure, and may further include devices, equipment, etc. used for security or monitoring. More specifically, structures to be guarded and monitored, such as imaging devices (visible light cameras, infrared cameras, night vision cameras, metal detectors, ultrasonic measuring instruments, etc.) and sensor devices (motion sensors, infrared sensors, etc.) All devices necessary to image and detect abnormalities, intruders, etc. can be employed.

さらに、移動体4は、カメラ等を搭載した撮影用の移動体としても好適に使用することができる他、セキュリティ分野、インフラ監視、測量、スポーツ会場・工場・倉庫等の建物や構造物内の点検、災害対応等の様々な産業にも利用することができる。 Furthermore, the mobile body 4 can be suitably used as a mobile body for photographing equipped with a camera, etc., and can also be used in the security field, infrastructure monitoring, surveying, and in buildings and structures such as sports venues, factories, and warehouses. It can also be used in various industries such as inspection and disaster response.

上述した実施の形態は、本発明の理解を容易にするための例示に過ぎず、本発明を限定して解釈するためのものではない。本発明は、その趣旨を逸脱することなく、変更、改良することができると共に、本発明にはその均等物が含まれることは言うまでもない。 The embodiments described above are merely illustrative to facilitate understanding of the present invention, and are not intended to be interpreted as limiting the present invention. It goes without saying that the present invention can be modified and improved without departing from its spirit, and that the present invention includes equivalents thereof.

1 管理サーバ
2 ユーザ端末
4 移動体
5 移動体格納装置

1 Management server 2 User terminal 4 Mobile object 5 Mobile object storage device

Claims (7)

カメラで実空間内を撮影することで取得された画像データを含む撮影画像データから、前記画像データに紐づく前記実空間内の実撮影位置を示す実撮影位置情報を取得する実撮影位置情報取得部と、
前記実撮影位置に対応する仮想空間内の仮想撮影位置から、前記仮想空間内の撮影対象位置までの仮想距離を算出し、仮想距離情報を生成する仮想距離生成部と、
前記撮影画像データを撮影した際の画角情報及び焦点距離情報を用いて、前記仮想撮影位置から焦点距離だけ離れた第1の平面における前記画像データのサイズを算出し、前記仮想距離情報を用いて前記第1の平面における前記画像データのサイズを前記焦点距離と前記仮想距離との比に応じて拡大し、前記仮想撮影位置から前記仮想距離だけ離れた前記仮想空間内の第2の平面における前記画像データの平面サイズを特定するサイズ特定部と、
を備える情報処理システム。
Actual shooting position information acquisition that acquires actual shooting position information indicating an actual shooting position in the real space that is linked to the image data from shot image data including image data obtained by shooting in real space with a camera . Department and
a virtual distance generation unit that calculates a virtual distance from a virtual shooting position in a virtual space corresponding to the actual shooting position to a shooting target position in the virtual space and generates virtual distance information;
Using the angle of view information and focal length information when the photographed image data was photographed, calculate the size of the image data in a first plane separated by the focal length from the virtual photographing position, and using the virtual distance information. expand the size of the image data in the first plane according to the ratio of the focal length and the virtual distance, and expand the size of the image data in the first plane in accordance with the ratio of the focal length to the virtual distance, and expand the size of the image data in the second plane in the virtual space that is separated by the virtual distance from the virtual shooting position. a size identifying unit that identifies a plane size of the image data ;
An information processing system equipped with.
前記仮想空間内の前記撮影対象位置に存在する撮影対象モデル上に、特定した前記平面サイズの前記画像データを投影する画像投影部をさらに備える、
請求項1に記載の情報処理システム。
further comprising an image projection unit that projects the image data of the specified plane size onto a model to be photographed existing at the photographing target position in the virtual space;
The information processing system according to claim 1.
投影した前記画像データに映る撮影対象物と、前記撮影対象モデルとの形状の差分を検出する差分検出部をさらに備える、
請求項2に記載の情報処理システム。
further comprising a difference detection unit that detects a difference in shape between the object to be photographed reflected in the projected image data and the model to be photographed;
The information processing system according to claim 2.
前記撮影画像データを撮影した際の前記画角情報に含まれる画角の中心位置に基づき、前記仮想空間内の前記撮影対象位置に存在する撮影対象モデル、または、撮影対象空間の少なくともいずれかを特定する撮影対象特定部をさらに備える、
請求項1に記載の情報処理システム。
Based on the center position of the angle of view included in the angle of view information when the photographed image data is photographed, at least one of the photographing target model existing at the photographing target position in the virtual space or the photographing target space is determined. further comprising a photographing target specifying unit for specifying;
The information processing system according to claim 1.
前記撮影対象特定部により特定された前記撮影対象モデルまたは撮影対象空間の少なくともいずれかに紐付けて、前記画像データを記憶させる画像紐付部をさらに備える、
請求項4に記載の情報処理システム。
further comprising an image linking unit that stores the image data in association with at least one of the model to be photographed or the space to be photographed specified by the photographing target specifying unit;
The information processing system according to claim 4.
カメラで実空間内を撮影することで取得された画像データを含む撮影画像データから、前記画像データに紐づく前記実空間内の実撮影位置を示す実撮影位置情報を取得するステップと、
前記実撮影位置に対応する仮想空間内の仮想撮影位置から、前記仮想空間内の撮影対象位置までの仮想距離を算出し、仮想距離情報を生成するステップと、
前記撮影画像データを撮影した際の画角情報及び焦点距離情報を用いて、前記仮想撮影位置から焦点距離だけ離れた第1の平面における前記画像データのサイズを算出し、前記仮想距離情報を用いて前記第1の平面における前記画像データのサイズを前記焦点距離と前記仮想距離との比に応じて拡大し、前記仮想撮影位置から前記仮想距離だけ離れた前記仮想空間内の第2の平面における前記画像データの平面サイズを特定するステップと、
を含む、コンピュータにより実行される情報処理方法。
acquiring actual photographing position information indicating an actual photographing position in the real space that is linked to the image data from photographed image data including image data obtained by photographing the real space with a camera ;
calculating a virtual distance from a virtual shooting position in a virtual space corresponding to the actual shooting position to a shooting target position in the virtual space, and generating virtual distance information;
Using the angle of view information and focal length information when the photographed image data was photographed, calculate the size of the image data in a first plane separated by the focal length from the virtual photographing position, and using the virtual distance information. expand the size of the image data in the first plane according to the ratio of the focal length and the virtual distance, and expand the size of the image data in the first plane in accordance with the ratio of the focal length to the virtual distance, and expand the size of the image data in the second plane in the virtual space that is separated by the virtual distance from the virtual shooting position. identifying a plane size of the image data ;
An information processing method performed by a computer, including:
カメラで実空間内を撮影することで取得された画像データを含む撮影画像データから、前記画像データに紐づく前記実空間内の実撮影位置を示す実撮影位置情報を取得するステップと、
前記実撮影位置に対応する仮想空間内の仮想撮影位置から、前記仮想空間内の撮影対象位置までの仮想距離を算出し、仮想距離情報を生成するステップと、
前記撮影画像データを撮影した際の画角情報及び焦点距離情報を用いて、前記仮想撮影位置から焦点距離だけ離れた第1の平面における前記画像データのサイズを算出し、前記仮想距離情報を用いて前記第1の平面における前記画像データのサイズを前記焦点距離と前記仮想距離との比に応じて拡大し、前記仮想撮影位置から前記仮想距離だけ離れた前記仮想空間内の第2の平面における前記画像データの平面サイズを特定するステップと、
をコンピュータにより実行させるプログラム。
acquiring actual photographing position information indicating an actual photographing position in the real space that is linked to the image data from photographed image data including image data obtained by photographing the real space with a camera ;
calculating a virtual distance from a virtual shooting position in a virtual space corresponding to the actual shooting position to a shooting target position in the virtual space, and generating virtual distance information;
Using the angle of view information and focal length information when the photographed image data was photographed, calculate the size of the image data in a first plane separated by the focal length from the virtual photographing position, and using the virtual distance information. expand the size of the image data in the first plane according to the ratio of the focal length and the virtual distance, and expand the size of the image data in the first plane in accordance with the ratio of the focal length to the virtual distance, and expand the size of the image data in the second plane in the virtual space that is separated by the virtual distance from the virtual shooting position. identifying a plane size of the image data ;
A program that causes a computer to execute.
JP2023571627A 2023-06-07 2023-06-07 Information processing system and information processing method Active JP7441579B1 (en)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2023021232 2023-06-07

Publications (1)

Publication Number Publication Date
JP7441579B1 true JP7441579B1 (en) 2024-03-01

Family

ID=90038501

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2023571627A Active JP7441579B1 (en) 2023-06-07 2023-06-07 Information processing system and information processing method

Country Status (1)

Country Link
JP (1) JP7441579B1 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003006680A (en) 2001-06-20 2003-01-10 Zenrin Co Ltd Method for generating three-dimensional electronic map data
JP2005339127A (en) 2004-05-26 2005-12-08 Olympus Corp Apparatus and method for displaying image information
JP2021103410A (en) 2019-12-25 2021-07-15 セコム株式会社 Mobile body and imaging system
JP2022507502A (en) 2018-11-15 2022-01-18 イーディーエックス テクノロジーズ インコーポレイテッド Augmented Reality (AR) Imprint Method and System

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003006680A (en) 2001-06-20 2003-01-10 Zenrin Co Ltd Method for generating three-dimensional electronic map data
JP2005339127A (en) 2004-05-26 2005-12-08 Olympus Corp Apparatus and method for displaying image information
JP2022507502A (en) 2018-11-15 2022-01-18 イーディーエックス テクノロジーズ インコーポレイテッド Augmented Reality (AR) Imprint Method and System
JP2021103410A (en) 2019-12-25 2021-07-15 セコム株式会社 Mobile body and imaging system

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
Gerd Bruder ほか2名,Analyzing effects of geometric rendering parameters on size and distance estimation in on-axis stereographics,SAP '12: Proceedings of the ACM Symposium on Applied Perception,2012年08月03日,p.111-118

Similar Documents

Publication Publication Date Title
CN110959143B (en) Information processing device, information processing method, program, and mobile body
JP6138326B1 (en) MOBILE BODY, MOBILE BODY CONTROL METHOD, PROGRAM FOR CONTROLLING MOBILE BODY, CONTROL SYSTEM, AND INFORMATION PROCESSING DEVICE
US20220101601A1 (en) System and method of scanning an environment and generating two dimensional images of the environment
JPWO2018193574A1 (en) Flight path generation method, information processing apparatus, flight path generation system, program, and recording medium
JP2019101694A (en) Apparatus, program and method for specifying location, and apparatus, program and method for registering photographic image
JP7118490B1 (en) Information processing system, information processing method, program, mobile object, management server
JP2021162572A (en) Position calculation method and information processing system
JP2023100642A (en) inspection system
CN115825067A (en) Geological information acquisition method and system based on unmanned aerial vehicle and electronic equipment
KR20200035930A (en) Robot for generating 3d indoor map using autonomous driving and method for controlling the robot
EP4332631A1 (en) Global optimization methods for mobile coordinate scanners
KR20200109116A (en) Method and system for position estimation of unmanned aerial vehicle using graph structure based on multi module
Muller et al. A probabilistic sonar sensor model for robust localization of a small-size blimp in indoor environments using a particle filter
JP7004374B1 (en) Movement route generation method and program of moving object, management server, management system
JP6730763B1 (en) Flight body flight path creation method and management server
JP7441579B1 (en) Information processing system and information processing method
Nocerino et al. Introduction to mobile mapping with portable systems
US20220018950A1 (en) Indoor device localization
KR102520189B1 (en) Method and system for generating high-definition map based on aerial images captured from unmanned air vehicle or aircraft
JP7072311B1 (en) Movement route generation method and program of moving object, management server, management system
Bai et al. Research on key technologies of meal delivery robot based on the fusion of lidar and machine vision
WO2023228283A1 (en) Information processing system, movable body, information processing method, and program
Pogorzelski et al. Vision Based Navigation Securing the UAV Mission Reliability
WO2023199477A1 (en) Information processing system, mobile body, information processing method, and program
JP7228298B1 (en) Information processing system, information processing method, program, mobile object, management server

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231117

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20231117

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20231117

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231214

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240112

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240118

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240209

R150 Certificate of patent or registration of utility model

Ref document number: 7441579

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150