JP2020194519A - Video processing system, video processing method, and video processor using unmanned mobile body - Google Patents

Video processing system, video processing method, and video processor using unmanned mobile body Download PDF

Info

Publication number
JP2020194519A
JP2020194519A JP2019197746A JP2019197746A JP2020194519A JP 2020194519 A JP2020194519 A JP 2020194519A JP 2019197746 A JP2019197746 A JP 2019197746A JP 2019197746 A JP2019197746 A JP 2019197746A JP 2020194519 A JP2020194519 A JP 2020194519A
Authority
JP
Japan
Prior art keywords
video
moving body
detection
unmanned moving
unmanned
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019197746A
Other languages
Japanese (ja)
Other versions
JP6810486B2 (en
Inventor
貴文 松留
Takafumi Matsutome
貴文 松留
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Spicy Drone Kitchen Co Ltd
Original Assignee
Spicy Drone Kitchen Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Spicy Drone Kitchen Co Ltd filed Critical Spicy Drone Kitchen Co Ltd
Priority to US17/612,249 priority Critical patent/US20220197279A1/en
Priority to PCT/JP2020/007260 priority patent/WO2020235161A1/en
Publication of JP2020194519A publication Critical patent/JP2020194519A/en
Priority to JP2020201524A priority patent/JP7355390B2/en
Application granted granted Critical
Publication of JP6810486B2 publication Critical patent/JP6810486B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

To provide a video processing system capable of detecting a position of an unmanned mobile body and measuring a timing at which a predetermined position has been passed through.SOLUTION: A video processing system S includes: an unmanned mobile body 1 on which a photographing device is loaded; and a video processor 30 which is connected to the unmanned mobile body 1 through wireless communication and displays a video photographed by the photographing device. The video processor 30 has: a video data acquisition part which acquires video data indicating the video; a screen display part which displays, on a display 40, the video indicated by the video data; a mark detection part which detects that a detection mark 60 is present in the video; and a gate passage determination part which, upon detection of the detection mark 60 in the video under a predetermined condition, determines that the unmanned mobile body 1 has passed through an inside of a passage gate 50 where the detected detection mark 60 is provided. The screen display part displays, on the display 40, contents based on a result of the determination together with the video.SELECTED DRAWING: Figure 1

Description

本発明は、無人移動体を用いた映像処理システム、映像処理方法及び映像処理装置に係り、特に、撮影装置を搭載し、外部の映像を撮影しながら移動する無人移動体を用いた映像処理システム、映像処理方法及び映像処理装置に関する。 The present invention relates to a video processing system using an unmanned moving body, a video processing method, and a video processing device, and in particular, a video processing system using an unmanned moving body equipped with a photographing device and moving while shooting an external image. , Video processing method and video processing device.

近年、リチウムイオン電池の普及や、微小電気機械システム(MEMS:Micrо Electrо Mechanical Systems)、ジャイロスコープ及び加速度センサ等の電子機器の小型化、低価格化に伴って、低騒音で安定性が高く、遠隔操作が容易な無人航空機(ドローン)が低価格で市販されるようになっており、ドローンビジネスへの参入が相次いでいるところである。
ドローンを活用したビジネスとしては、映像コンテンツのための空撮、空中写真測量、被災状況の調査行方不明者の捜索、都市部のインフラ点検等、種々の用途が挙げられる。
In recent years, with the spread of lithium-ion batteries and the miniaturization and price reduction of electronic devices such as microelectromechanical systems (MEMS: Microelectromechanical systems), gyroscopes and acceleration sensors, low noise and high stability have been achieved. Unmanned aerial vehicles (drones) that can be easily operated remotely are now on the market at low prices, and the drone business is entering the market one after another.
Businesses that utilize drones include various uses such as aerial photography for video content, aerial photogrammetry, investigation of disaster conditions, search for missing persons, and infrastructure inspection in urban areas.

例えば、特許文献1に記載のドローンを用いた情報配信システムでは、撮影装置を搭載したドローンを稼働し、競技者を撮影可能な位置に移動させながら撮影することで、競技者の映像の要求があった際に当該競技者の映像をリアルタイムで配信することが開示されている。また、注目する選手として選択された競技者の情報(例えば、心拍、血圧、緊張度等)を収集し、当該競技者の情報が所定の状態になったときに当該競技者の映像をリアルタイムで配信することが開示されている。 For example, in the information distribution system using the drone described in Patent Document 1, the drone equipped with the photographing device is operated, and the athlete is moved to a position where the image can be photographed to take a picture. It is disclosed that the video of the athlete concerned will be delivered in real time when there is a problem. In addition, information on the athlete selected as the athlete to be noted (for example, heart rate, blood pressure, tension, etc.) is collected, and when the information on the athlete is in a predetermined state, the image of the athlete is displayed in real time. It is disclosed to be delivered.

また最近では、ドローンの操作技量を競うためのレースが国内外の各地で開催されており、新モータースポーツとして注目されている。
ドローンレースでは、操縦者がヘッドマウントディスプレイを着用し、ドローンの前方に搭載された撮影装置から送信されるリアルタイム映像を見ながら遠隔操作することができ、また観戦者は大型ディスプレイ上で当該リアルタイム映像を観戦することができる。
ドローンレースの開催にあたって、ドローンの総重量が200g未満であって当該ドローンを屋内で飛行させる場合には航空法に基づく規制の対象外となることから、比較的小規模のドローンレースの開催であれば法規制のハードルが低くなっており、身近なエンターテイメントとしても注目されている。
Recently, races to compete for drone operation skills have been held in various parts of Japan and overseas, and it is attracting attention as a new motor sport.
In drone racing, the pilot can wear a head-mounted display and remotely control while watching the real-time image transmitted from the shooting device mounted in front of the drone, and the spectator can operate the real-time image on the large display. You can watch the game.
When holding a drone race, if the total weight of the drone is less than 200 g and the drone is flown indoors, it will not be subject to regulations based on the Aviation Law, so even if it is a relatively small drone race For example, the hurdles for legal regulations are low, and it is attracting attention as a familiar entertainment.

特開2018−61106号公報JP-A-2018-61106 特開2002−369976号公報Japanese Unexamined Patent Publication No. 2002-36997

ところで、ドローンレースの運営にあたっては、操縦者及び閲覧者が、ドローンに搭載された撮影装置から送信されるリアルタイム映像を観賞できるところ、エンターテイメント性を高めるべく、臨場感あふれる演出態様が求められている。
詳しく述べると、従来のドローンレースでは、複数のドローンのラップタイムをそれぞれ計測するにあたって、通常、電波強度を計測する計測機器が利用されている。具体的には、各ドローンにはアンテナが搭載されており、予め割り当てられた固有の電波を発信するように設定されている。そして、ゴール地点に設置したループアンテナによって受信した電波の電波強度を当該計測機器が計測することで、いずれのドローンが周回したのかを判別し、また各ドローンのラップタイムを計測している(例えば、特許文献2に記載のラジコン移動体のラップタイム計測システム等がある)。
しかしながら、当該レースの運営にあたって、当該計測機器を設置することや当該計測機器のキャリブレーションを行うことには比較的時間を要し、またレース会場が比較的狭い室内であった場合には電波干渉が発生してしまい、ラップタイムを正確に計測できないという事情があった。しかも、当該計測機器を利用しても、計測点はせいぜいゴール時のタイム計測用1点であることが多かった。
また、ドローンが飛行しながら複数の通過ゲートを通過していくところ、ドローンが通過ゲート内を通過したか否かを判定することも困難であった。
そのため、ドローンレースの運営にあたって、電波干渉による影響がなくラップタイムを計測し、ドローンが通過ゲート内を通過したか否かを判定することで、ドローンのラップタイムや現在位置等をリアルタイム表示することが可能な技術が求められていた。
By the way, in the operation of a drone race, a pilot and a viewer can watch a real-time image transmitted from a shooting device mounted on the drone, and in order to enhance entertainment, a production mode with a sense of reality is required. ..
More specifically, in conventional drone racing, a measuring device that measures radio field strength is usually used to measure the lap times of a plurality of drones. Specifically, each drone is equipped with an antenna and is set to emit a unique radio wave assigned in advance. Then, the measuring device measures the radio wave intensity of the radio wave received by the loop antenna installed at the goal point to determine which drone has lapped, and also measures the lap time of each drone (for example). There is a lap time measuring system for a radio-controlled moving body described in Patent Document 2).
However, in the operation of the race, it takes a relatively long time to install the measuring device and calibrate the measuring device, and if the race venue is in a relatively small room, radio wave interference There was a situation that the lap time could not be measured accurately. Moreover, even if the measuring device is used, the measuring point is often one point for measuring the time at the goal at most.
In addition, when the drone passes through a plurality of passing gates while flying, it is difficult to determine whether or not the drone has passed through the passing gates.
Therefore, when operating a drone race, it is possible to display the lap time and current position of the drone in real time by measuring the lap time without being affected by radio wave interference and determining whether or not the drone has passed through the passing gate. Technology was required.

また、ドローンレースの運営にあたっては、閲覧者が大型の表示ディスプレイ上で、ドローンに搭載された撮影装置から送信されるリアルタイム映像を観賞できるところ、エンターテイメント性を高めるべく、表示ディスプレイ上において臨場感あふれる演出態様が求められていた。 In addition, when operating a drone race, viewers can watch real-time images transmitted from the shooting device mounted on the drone on a large display, and the display is full of presence in order to enhance entertainment. There was a demand for a production mode.

そのほか、ドローンレースにおける演出態様に特に限定されることなく、所定位置に設置された通過ゲートを利用して、飛行するドローンの位置を精度良く検出することや、所定位置を通過したタイミングを精度良く計測することが可能な解析技術を、ドローンを活用したビジネスに応用させることも求められていた。 In addition, the position of the flying drone can be accurately detected by using the passing gate installed at the predetermined position, and the timing of passing the predetermined position can be accurately detected without being particularly limited to the production mode in the drone race. It was also required to apply measurement-capable analysis technology to businesses that utilize drones.

本発明は、上記の課題に鑑みてなされたものであり、本発明の目的は、無人移動体(ドローン)の位置を精度良く検出し、所定位置を通過したタイミングを精度良く計測することが可能な無人移動体を用いた映像処理システム、映像処理方法及び映像処理装置を提供することにある。
また、本発明の他の目的は、無人移動体レース(ドローンレース)の運営にあたって、エンターテイメント性を高めるべく、臨場感あふれる演出態様が可能な無人移動体を用いた映像処理システム、映像処理方法及び映像処理装置を提供することにある。
The present invention has been made in view of the above problems, and an object of the present invention is to be able to accurately detect the position of an unmanned moving object (drone) and accurately measure the timing of passing through a predetermined position. An object of the present invention is to provide a video processing system, a video processing method, and a video processing apparatus using an unmanned moving body.
Another object of the present invention is an image processing system, an image processing method, and an image processing method using an unmanned aerial vehicle capable of producing a realistic effect in order to enhance entertainment in the operation of an unmanned aerial vehicle race (drone race). The purpose is to provide a video processing device.

前記課題は、本発明の無人移動体を用いた映像処理システムによれば、撮影装置を搭載し、外部の映像を撮影しながら移動する無人移動体と、該無人移動体と無線通信によって接続され、前記撮影装置が撮影した映像を処理する映像処理装置と、を備えた映像処理システムであって、前記映像処理装置は、前記撮影装置が撮影した外部の映像を示す映像データを取得する映像データ取得部と、取得した前記映像データが示す映像を表示画面上に表示する画面表示部と、取得した前記映像データが示す映像内において検出対象となる検出マークが存在することを検出するマーク検出部と、前記映像内において前記検出マークが所定の条件で検出されたときに、検出された前記検出マークが設けられた通過ゲートを前記無人移動体が通過したものと判定するゲート通過判定部と、を有し、前記画面表示部は、前記映像とともに、前記無人移動体が前記通過ゲートを通過したものと判定した判定結果に基づく内容を前記表示画面上に表示すること、により解決される。
上記構成により、検出マークを利用して無人移動体が通過ゲートを通過したか否かを判定することで、無人移動体の位置を精度良く検出し、所定位置を通過したタイミングを精度良く計測することが可能な、無人移動体を用いた映像処理システムを実現することができる。
また例えば、無人移動体レースの運営にあたって、よりエンターテイメント性を高めるべく、無人移動体が通過ゲートを通過したものと判定した判定結果に基づく内容を表示画面上に表示することで、臨場感あふれる演出態様が可能な無人移動体を用いた映像処理システムを実現できる。
According to the image processing system using the unmanned moving body of the present invention, the problem is that an unmanned moving body that is equipped with a photographing device and moves while shooting an external image is connected to the unmanned moving body by wireless communication. A video processing system including a video processing device that processes a video shot by the shooting device, wherein the video processing device acquires video data indicating an external video shot by the shooting device. An acquisition unit, a screen display unit that displays the image indicated by the acquired video data on the display screen, and a mark detection unit that detects the existence of a detection mark to be detected in the image indicated by the acquired video data. When the detection mark is detected in the video under predetermined conditions, the gate passage determination unit that determines that the unmanned moving body has passed through the passage gate provided with the detected detection mark. The screen display unit is solved by displaying on the display screen the contents based on the determination result that it is determined that the unmanned moving body has passed through the passing gate together with the video.
With the above configuration, the position of the unmanned moving body is accurately detected and the timing of passing the predetermined position is accurately measured by determining whether or not the unmanned moving body has passed through the passing gate using the detection mark. It is possible to realize a video processing system using an unmanned moving body, which is possible.
In addition, for example, in the operation of an unmanned moving body race, in order to further enhance entertainment, the content based on the judgment result that the unmanned moving body has passed through the passing gate is displayed on the display screen to produce a realistic effect. It is possible to realize a video processing system using an unmanned moving body capable of a mode.

このとき、前記無人移動体は、小型の無人航空機であって、所定の空間内において予め定められたコースを移動し、前記映像処理装置は、複数の前記無人移動体毎に搭載された前記撮影装置によって撮影された映像を前記表示画面上に同時表示すると良い。
上記構成により、例えば、小型無人航空機(ドローン)のレースの運営にあたって、よりエンターテイメント性を高めるべく、臨場感あふれる演出態様が可能な映像処理システムを実現することができる。
At this time, the unmanned aerial vehicle is a small unmanned aerial vehicle that moves on a predetermined course in a predetermined space, and the video processing device is mounted on each of the plurality of the unmanned aerial vehicles. It is preferable that the images captured by the device are simultaneously displayed on the display screen.
With the above configuration, for example, in the operation of a race of a small unmanned aerial vehicle (drone), it is possible to realize a video processing system capable of producing a realistic effect in order to further enhance entertainment.

このとき、所定の空間内に設置された前記通過ゲートに設けられる前記検出マークをさらに備え、該検出マークは、前記通過ゲートにおいて該通過ゲート内の通過領域を囲むようにして複数取り付けられていると良い。
上記のように、複数の検出マークの配置を工夫することで、当該検出マークを利用した無人移動体による通過ゲートの通過判定の精度をより高めることができる。
特に、通過ゲートがループ形状(トーラス形状)である場合には、無人移動体が当該通過ゲートの枠内を通過したか否かを判定するにあたって、好適な検出マークの配置パターンとなる。
At this time, it is preferable that the detection mark provided on the passing gate installed in the predetermined space is further provided, and a plurality of the detection marks are attached at the passing gate so as to surround the passing area in the passing gate. ..
As described above, by devising the arrangement of the plurality of detection marks, the accuracy of the passage determination of the passing gate by the unmanned moving body using the detection marks can be further improved.
In particular, when the passing gate has a loop shape (torus shape), it becomes a suitable detection mark arrangement pattern in determining whether or not the unmanned moving body has passed through the frame of the passing gate.

このとき、所定の空間内に設置された前記通過ゲートに設けられる前記検出マークをさらに備え、該検出マークは、2次元バーコードであって、前記所定の空間内に複数設置された前記通過ゲートのうち、いずれの通過ゲートであるかを特定するための識別データを格納していると良い。
上記のように、検出マークとして2次元バーコードを採用することで、製造コストを抑えながらも、比較的容易に検出することが可能となる。
また、検出マークには識別データが格納されているため、無人移動体の現在位置をより精度良く検出することが可能となる。
At this time, the detection mark provided on the passage gate installed in the predetermined space is further provided, and the detection mark is a two-dimensional bar code, and the passage gates are installed in a plurality in the predetermined space. Of these, it is preferable to store identification data for identifying which passage gate is used.
As described above, by adopting the two-dimensional barcode as the detection mark, it is possible to detect it relatively easily while suppressing the manufacturing cost.
Further, since the identification data is stored in the detection mark, the current position of the unmanned moving body can be detected more accurately.

このとき、前記ゲート通過判定部は、前記映像の中心部分において前記通過ゲート内の通過領域よりも小さい領域を検出対象外領域として設定した上で、所定の映像内において前記検出対象外領域とは異なる領域において前記検出マークが検出され、かつ、所定の映像よりも後の映像内において前記検出マークが検出されなくなったときに、前記無人移動体が通過したものと判定すると良い。
また、前記ゲート通過判定部は、前記映像に対して4象限に区画された4つの検出対象領域を設定した上で、所定の映像内において第1象限となる第1検出対象領域、第2象限となる第2検出対象領域、第3象限となる第3検出対象領域、及び第4象限となる第4検出対象領域の全ての検出対象領域において前記検出マークが検出され、かつ、所定の映像よりも後の映像内において前記検出マークが検出されなくなったときに、前記無人移動体が通過したものと判定すると良い。
上記構成により、検出マークを利用した無人移動体による通過ゲートの通過判定の精度をより一層高めることができる。
At this time, the gate passage determination unit sets a region smaller than the passage region in the passage gate in the central portion of the video as a non-detection target region, and then refers to the non-detection target region in the predetermined video. When the detection mark is detected in a different region and the detection mark is no longer detected in the image after the predetermined image, it is preferable to determine that the unmanned moving body has passed.
Further, the gate passage determination unit sets four detection target areas divided into four quadrants with respect to the image, and then sets the first detection target area and the second quadrant which are the first quadrants in the predetermined image. The detection mark is detected in all the detection target areas of the second detection target area, the third detection target area in the third quadrant, and the fourth detection target area in the fourth quadrant, and from a predetermined image. When the detection mark is no longer detected in the later video, it is preferable to determine that the unmanned moving body has passed.
With the above configuration, it is possible to further improve the accuracy of the passage determination of the passage gate by the unmanned moving body using the detection mark.

このとき、前記映像処理装置は、前記ゲート通過判定部による前記判定結果から、前記無人移動体が所定のスタート位置から所定の通過ゲートを通過するまでに要した経過時間を算出する経過時間算出部を有し、前記画面表示部は、前記映像とともに、前記経過時間算出部によって算出された経過時間に関する内容を前記表示画面上に表示すると良い。
また、前記映像処理装置は、前記ゲート通過判定部による前記判定結果から、前記所定の空間内において前記無人移動体の現在位置を算出する現在位置算出部を有し、前記画面表示部は、前記映像とともに、前記現在位置算出部によって算出された現在位置に関する内容を前記表示画面上に表示すると良い。
上記構成により、例えば、無人移動体レースの運営にあたって、電波干渉による影響なくラップタイムを計測し、無人移動体が通過ゲートを通過したか否かを判定した上で、無人移動体のラップタイムや、現在位置、そして通過ゲートの判定可否に基づく内容を表示ディスプレイ上においてリアルタイムで表示することが可能となる。その結果、表示ディスプレイ上において一層臨場感あふれる演出画面を提供することができる。
At this time, the video processing device calculates the elapsed time required for the unmanned moving object to pass through the predetermined passing gate from the predetermined start position from the determination result by the gate passing determination unit. The screen display unit may display the contents related to the elapsed time calculated by the elapsed time calculation unit on the display screen together with the video.
Further, the video processing device has a current position calculation unit that calculates the current position of the unmanned moving body in the predetermined space from the determination result by the gate passage determination unit, and the screen display unit is the screen display unit. Along with the video, the content related to the current position calculated by the current position calculation unit may be displayed on the display screen.
With the above configuration, for example, in the operation of an unmanned moving body race, the lap time is measured without being affected by radio wave interference, and after determining whether or not the unmanned moving body has passed through the passing gate, the lap time of the unmanned moving body and the present It is possible to display the contents based on the position and whether or not the passing gate can be determined in real time on the display. As a result, it is possible to provide an effect screen with a more realistic feeling on the display display.

また、撮影装置を搭載し、外部の映像を撮影しながら移動する無人移動体と無線通信によって接続されたコンピュータが、前記撮影装置が撮影した映像を処理する映像処理方法であって、前記コンピュータが、前記撮影装置が撮影した外部の映像を示す映像データを取得する映像データ取得工程と、取得した前記映像データが示す映像を表示画面上に表示する第1画面表示工程と、取得した前記映像データが示す映像内において検出対象となる検出マークが存在することを検出するマーク検出工程と、前記映像内において前記検出マークが所定の条件で検出されたときに、検出された前記検出マークが設けられた通過ゲートを前記無人移動体が通過したものと判定するゲート通過判定工程と、前記映像とともに、前記無人移動体が前記通過ゲートを通過したものと判定した判定結果に基づく内容を前記表示画面上に表示する第2画面表示工程と、を実行する、無人移動体を用いた映像処理方法も実現することができる。 Further, a computer equipped with a photographing device and connected to an unmanned moving body that moves while photographing an external image by wireless communication is an image processing method for processing the image captured by the photographing device, and the computer is , A video data acquisition step of acquiring video data indicating an external image shot by the photographing device, a first screen display step of displaying the image indicated by the acquired video data on a display screen, and the acquired video data. A mark detection step for detecting the presence of a detection mark to be detected in the image indicated by the above, and the detection mark detected when the detection mark is detected in the image under predetermined conditions are provided. On the display screen, the content based on the gate passage determination step of determining that the unmanned moving body has passed through the passing gate and the determination result of determining that the unmanned moving body has passed through the passing gate together with the video. It is also possible to realize a video processing method using an unmanned moving object, which executes the second screen display step of displaying in.

また、撮影装置を搭載し、外部の映像を撮影しながら移動する前記無人移動体と無線通信によって接続され、前記撮影装置が撮影した映像を処理する映像処理装置であって、前記撮影装置が撮影した外部の映像を示す映像データを取得する映像データ取得部と、取得した前記映像データが示す映像内において検出対象となる検出マークが存在することを検出するマーク検出部と、前記映像内において前記検出マークが所定の条件で検出されたときに、検出された前記検出マークが設けられた通過ゲートを前記無人移動体が通過したものと判定するゲート通過判定部と、を有する、無人移動体を用いた映像処理装置も実現することができる。 In addition, it is a video processing device that is equipped with a shooting device and is connected to the unmanned moving body that moves while shooting an external image by wireless communication to process the image shot by the shooting device, and the shooting device shoots the image. A video data acquisition unit that acquires video data indicating the external video, a mark detection unit that detects the presence of a detection mark to be detected in the video indicated by the acquired video data, and the above-mentioned in the video. An unmanned moving body having a gate passing determination unit for determining that the unmanned moving body has passed through the passing gate provided with the detected detection mark when the detection mark is detected under a predetermined condition. The video processing device used can also be realized.

本発明の無人移動体を用いた映像処理システム、映像処理方法及び映像処理装置によれば、無人移動体の位置を精度良く検出し、所定位置を通過したタイミングを精度良く計測することが可能となる。
また、無人移動体レースの運営にあたって、エンターテイメント性を高めるべく、臨場感あふれる演出態様が可能となる。
According to the video processing system, the video processing method, and the video processing apparatus using the unmanned moving body of the present invention, it is possible to accurately detect the position of the unmanned moving body and accurately measure the timing of passing through the predetermined position. Become.
In addition, when operating an unmanned mobile race, it is possible to create a realistic production mode in order to enhance entertainment.

本実施形態の映像処理システム全体の構成図である。It is a block diagram of the whole image processing system of this embodiment. 無人移動体、操作端末、ヘッドマウントディスプレイの構成図である。It is a block diagram of an unmanned moving body, an operation terminal, and a head-mounted display. 無人移動体、映像処理装置、ディスプレイの構成図である。It is a block diagram of an unmanned moving body, a video processing device, and a display. 検出マーク付きの通過ゲートを示す図である。It is a figure which shows the passing gate with a detection mark. 検出マーク付きの通過ゲートの変形例を示す図である。It is a figure which shows the modification of the passing gate with a detection mark. 映像処理装置のハード構成図である。It is a hardware block diagram of a video processing apparatus. 映像処理装置のソフト構成図である。It is a software block diagram of a video processing apparatus. 画面表示部によって表示される表示画面の一例を示す図である。It is a figure which shows an example of the display screen displayed by the screen display part. ゲート通過判定部による処理の一例を説明する図である。It is a figure explaining an example of processing by a gate passage determination part. 本実施形態の映像処理方法の一例を示す処理フロー図である。It is a processing flow diagram which shows an example of the image processing method of this embodiment. 画面表示部によって表示される表示画面の一例を示す図である。It is a figure which shows an example of the display screen displayed by the screen display part. 移動開始判定方法の一例を示す処理フロー図である。It is a processing flow diagram which shows an example of the movement start determination method.

以下、本発明に係る実施形態について図1−図11を参照して説明する。
本実施形態は、撮影装置を搭載し、外部の映像を撮影しながら飛行する小型の無人移動体と、無人移動体と無線通信によって接続され、撮影装置が撮影した映像を表示する映像処理装置と、を備えた映像処理システムであって、映像処理装置は、撮影装置が撮影した外部の映像を示す映像データを取得する映像データ取得部と、取得した映像データが示す映像を表示ディスプレイ上に表示する画面表示部と、取得した映像データが示す映像内において検出マークが存在することを検出するマーク検出部と、映像内において検出マークが所定の条件で検出されたときに、検出された検出マークが設けられた通過ゲート内を無人移動体が通過したものと判定するゲート通過判定部と、を有しており、画面表示部は、映像とともに、無人移動体が通過ゲートを通過したものと判定した判定結果に基づく内容を表示ディスプレイ上に表示することを特徴とする発明に関するものである。
Hereinafter, embodiments according to the present invention will be described with reference to FIGS. 1 to 11.
The present embodiment includes a small unmanned moving body that is equipped with a photographing device and flies while shooting an external image, and a video processing device that is connected to the unmanned moving body by wireless communication and displays an image captured by the photographing device. The video processing device is a video processing system including, and the video processing device displays a video data acquisition unit that acquires video data indicating an external image captured by the photographing device and an image indicated by the acquired video data on a display display. The screen display unit, the mark detection unit that detects the presence of the detection mark in the video indicated by the acquired video data, and the detection mark that is detected when the detection mark is detected in the video under predetermined conditions. It has a gate passage determination unit that determines that an unmanned moving object has passed through the passage gate provided with, and the screen display unit determines that the unmanned moving object has passed through the passage gate together with the image. The present invention relates to an invention characterized in that the content based on the determined determination result is displayed on a display.

本実施形態の映像処理システムS全体の構成を図1に示す。
映像処理システムSは、無人移動体レースを運営するためのシステムであって、撮影装置1aを搭載し、外部の映像を撮影しながら飛行する無人移動体1と、無人移動体1と無線通信によってそれぞれ接続され、無人移動体1を遠隔操作するための操作端末10と、撮影装置1aが撮影した外部映像を表示するヘッドマウントディスプレイ20と、撮影装置1aが撮影した外部映像を処理して表示画面上に表示する映像処理装置30と、映像処理装置30に接続された表示画面用のディスプレイ40と、所定の空間内において間隔を空けながら複数設置される通過ゲート50と、各通過ゲート50に取り付けられる検出マーク60と、から主に構成されている。
FIG. 1 shows the overall configuration of the video processing system S of the present embodiment.
The image processing system S is a system for operating an unmanned moving body race, and is equipped with a photographing device 1a and flies while shooting an external image, and by wireless communication with the unmanned moving body 1. An operation terminal 10 for remotely operating the unmanned moving body 1 connected to each other, a head mount display 20 for displaying an external image captured by the photographing device 1a, and a display screen for processing the external image captured by the photographing device 1a. The video processing device 30 to be displayed above, the display 40 for the display screen connected to the video processing device 30, a plurality of passing gates 50 installed at intervals in a predetermined space, and attached to each passing gate 50. It is mainly composed of a detection mark 60 to be formed.

無人移動体1は、図1、図2に示すように、その正面側の外部映像を撮影しながら、所定の空間内を飛行する小型の無人航空機(ドローン)であって、操作端末10、ヘッドマウントディスプレイ20及び映像処理装置30とデータ通信を行うものである。
無人移動体1は、複数用意されており、本実施形態のシステムにおいては、3機の無人移動体1が無人移動体レースに参戦し、所定の空間内において予め定められたコースを飛行する構成となっている(利用電波帯5.8GHzの関係により、同時に3機が飛行することが通常である)。
具体的には、無人移動体1は、撮影装置1aと、送受信アンテナ1bと、移動ユニット1cと、駆動ユニット1dと、プロセッサー1eと、バッテリー1fと、から主に構成されており、それぞれ無人移動体1の本体に取り付けられている。
As shown in FIGS. 1 and 2, the unmanned aerial vehicle 1 is a small unmanned aerial vehicle (drone) that flies in a predetermined space while capturing an external image on the front side thereof, and is an operation terminal 10 and a head. Data communication is performed with the mounted display 20 and the video processing device 30.
A plurality of unmanned moving bodies 1 are prepared, and in the system of the present embodiment, three unmanned moving bodies 1 participate in an unmanned moving body race and fly a predetermined course in a predetermined space. (Due to the radio wave band used of 5.8 GHz, it is normal for three aircraft to fly at the same time).
Specifically, the unmanned moving body 1 is mainly composed of a photographing device 1a, a transmitting / receiving antenna 1b, a moving unit 1c, a driving unit 1d, a processor 1e, and a battery 1f, and each of them moves unmanned. It is attached to the main body of body 1.

撮影装置1aは、小型の撮影カメラであって、移動体本体の正面に取り付けられており、その正面側の外部映像を撮影して当該映像を記録する。そして、当該映像を示す映像データを作成するものである。
送受信アンテナ1bは、移動体本体の内部に取り付けられており、操作端末10から操作データを受信することや、ヘッドマウントディスプレイ20及び映像処理装置30に向けて撮影した映像データを送信するものである。
移動ユニット1cは、移動体本体を囲むように取り付けられた4本の回転翼であって、垂直に延びる回転軸にプロペラ状の翼が取り付けられて構成されており、駆動ユニット1dから駆動動力を受けて回転することで揚力と推力を作り出すものである。
駆動ユニット1dは、移動ユニット1cを駆動させるためのモーターであって、移動ユニット1cと接続されて取り付けられており、プロセッサー1eから受信した駆動命令に基づいて動作するものである。
The photographing device 1a is a small photographing camera, which is attached to the front surface of the main body of the moving body, and photographs an external image on the front side thereof to record the image. Then, the video data showing the video is created.
The transmission / reception antenna 1b is mounted inside the main body of the mobile body, and receives operation data from the operation terminal 10 and transmits video data taken toward the head-mounted display 20 and the video processing device 30. ..
The moving unit 1c is four rotary blades attached so as to surround the main body of the moving body, and is configured by attaching propeller-shaped blades to a rotating shaft extending vertically, and receives drive power from the drive unit 1d. It creates lift and thrust by receiving and rotating.
The drive unit 1d is a motor for driving the mobile unit 1c, which is connected to and attached to the mobile unit 1c and operates based on a drive command received from the processor 1e.

プロセッサー1eは、データの演算・制御処理装置としてのCPUと、記憶装置としてのROM、RAM、及びHDDと、送受信アンテナ1bを通じて情報データの送受信を行う通信用インタフェースと、から主に構成されるマイクロプロセッサーであって、移動体本体の内部に取り付けられている。
バッテリー1fは、送受信アンテナ1b、駆動ユニット1d及びプロセッサー1eに電力を供給するためのリチウムイオン電池であって、移動体本体の下部に取り付けられている。
The microprocessor 1e is mainly composed of a CPU as a data calculation / control processing device, a ROM, a RAM, and an HDD as a storage device, and a communication interface for transmitting and receiving information data through a transmission / reception antenna 1b. It is a processor and is mounted inside the main body of the moving body.
The battery 1f is a lithium-ion battery for supplying electric power to the transmission / reception antenna 1b, the drive unit 1d, and the processor 1e, and is attached to the lower part of the mobile body.

操作端末10は、図1、図2に示すように、操縦者によって操作されるコントローラであって、無人移動体1毎に設けられ、予め定められたコースを飛行するように無人移動体1を無線通信によって遠隔操作するためのものである。
詳しく述べると、操作端末10は、操縦者によるユーザー操作の入力を受け付けて、無人移動体1を操作するための操作データを作成し、当該操作データを無人移動体1に向けてデータ送信することができる。
ヘッドマウントディスプレイ20は、操縦者の頭部に装着されるディスプレイ装置であって、無人移動体1毎に設けられ、撮影装置1aが撮影した映像を専用の表示画面上に表示するものである。
詳しく述べると、ヘッドマウントディスプレイ20は、無人移動体1からリアルタイムで映像データを受信し、専用の表示画面上にリアルタイムの映像を表示することができる。
As shown in FIGS. 1 and 2, the operation terminal 10 is a controller operated by the operator, and the unmanned moving body 1 is provided for each unmanned moving body 1 so as to fly on a predetermined course. It is for remote control by wireless communication.
More specifically, the operation terminal 10 receives the input of the user operation by the operator, creates the operation data for operating the unmanned moving body 1, and transmits the operation data to the unmanned moving body 1. Can be done.
The head-mounted display 20 is a display device mounted on the operator's head, and is provided for each unmanned moving body 1 to display an image captured by the photographing device 1a on a dedicated display screen.
More specifically, the head-mounted display 20 can receive video data in real time from the unmanned moving body 1 and display the real-time video on a dedicated display screen.

映像処理装置30は、図1、図3に示すように、無人移動体1及びディスプレイ40とデータ通信を行うコンピュータであって、撮影装置1aが撮影した映像を表示画面としてのディスプレイ40上に表示するものである。
詳しく述べると、映像処理装置30は、映像内において検出マーク60が所定の条件で検出されたときに、当該検出マーク60が取り付けられた通過ゲート50を通過したものと判定し、上記映像とともに、無人移動体1が当該通過ゲート50を通過したものと判定した判定結果に基づく内容をディスプレイ40上に同時表示することができる。
ディスプレイ40は、映像処理装置30と接続された大型ディスプレイであって、無人移動体レースを観戦している観戦者向けの表示画面として用いられる。
具体的には、ディスプレイ40上には、図7に示すような表示画面がリアルタイムで表示されることになり、無人移動体レースの臨場感あふれる内容を演出することができる。
As shown in FIGS. 1 and 3, the image processing device 30 is a computer that performs data communication with the unmanned moving object 1 and the display 40, and displays the image captured by the photographing device 1a on the display 40 as a display screen. Is what you do.
More specifically, when the detection mark 60 is detected in the video under predetermined conditions, the video processing device 30 determines that the detection mark 60 has passed through the passage gate 50 to which the detection mark 60 is attached, and together with the above video, The contents based on the determination result of determining that the unmanned moving body 1 has passed through the passing gate 50 can be simultaneously displayed on the display 40.
The display 40 is a large display connected to the video processing device 30, and is used as a display screen for spectators who are watching an unmanned mobile race.
Specifically, the display screen as shown in FIG. 7 is displayed in real time on the display 40, and it is possible to produce a realistic content of the unmanned moving body race.

通過ゲート50は、図1、図4Aに示すように、無人移動体1が通過するためのゲートであって、所定の空間内に設置された無人移動体レースのコース上において所定の間隔を空けて複数設置されている。
通過ゲート50は、フロア上から立ち上がるように設けられる一対のゲート脚部51と、一対のゲート脚部51の上方部分を連結するように取り付けられるループ形状のゲート枠体部52と、から構成されている。
無人移動体レースにおいては、操縦者によって操作される無人移動体1が、ゲート枠体部52の枠内に設けられた通過領域53を通過するように飛行する。
ゲート枠体部52のうち、コースの進行方向においてスタート側に位置する前面には、通過領域53を囲むようにして検出マーク60が複数取り付けられている。
As shown in FIGS. 1 and 4A, the passing gate 50 is a gate for the unmanned moving body 1 to pass through, and has a predetermined interval on the course of the unmanned moving body race installed in a predetermined space. There are multiple installations.
The passage gate 50 is composed of a pair of gate legs 51 provided so as to stand up from the floor, and a loop-shaped gate frame 52 attached so as to connect the upper portions of the pair of gate legs 51. ing.
In the unmanned moving body race, the unmanned moving body 1 operated by the operator flies so as to pass through the passing area 53 provided in the frame of the gate frame body portion 52.
A plurality of detection marks 60 are attached to the front surface of the gate frame body portion 52 located on the start side in the traveling direction of the course so as to surround the passing region 53.

検出マーク60は、2次元バーコードであって、通過ゲート50の通過領域53を囲むように略円形状に並べられて配置されており、また大小異なる検出マーク60が交互に並ぶように配置されている。
また、検出マーク60は、背景色となる白色と、バーコード色となる黒色とから形成されており、バーコードの形状が略C字状となるように構成されている。そして、各検出マーク60は、そのバーコードの開口部(略C字状の開口部)が通過領域53の中心に向くようにして配置されている。
The detection marks 60 are two-dimensional barcodes and are arranged so as to surround the passage area 53 of the passage gate 50 so as to be arranged in a substantially circular shape, and the detection marks 60 of different sizes are arranged so as to be arranged alternately. ing.
Further, the detection mark 60 is formed of white as a background color and black as a barcode color, and is configured so that the shape of the barcode is substantially C-shaped. Each detection mark 60 is arranged so that the opening (substantially C-shaped opening) of the barcode faces the center of the passing region 53.

検出マーク60は、コース上に複数設置された通過ゲート50のうち、いずれの通過ゲート50であるかを特定するための識別データを格納している。
そのため、映像処理装置30は、無人移動体1(撮影装置1a)が撮影した映像内において検出マーク60を検出したときに、当該無人移動体1がいずれの通過ゲート50を通過したのかを特定することができる。
The detection mark 60 stores identification data for identifying which of the passage gates 50 installed on the course is.
Therefore, when the image processing device 30 detects the detection mark 60 in the image captured by the unmanned moving body 1 (shooting device 1a), the image processing device 30 identifies which passage gate 50 the unmanned moving body 1 has passed through. be able to.

なお、通過ゲート50は、ループ形状(トーラス形状)の通過ゲートに特に限定されることなく変更可能であって、例えば図4Bに示すような橋形形状の通過ゲート150であっても良い。
通過ゲート150は、一対のゲート脚部151と、一対のゲート脚部151の上方部分を連結するゲート枠体部152と、から構成されており、一対のゲート脚部151とゲート枠体部152とで囲まれた領域が通過領域153となっている。
また、検出マーク60が、通過ゲート150の通過領域153を囲むように略C字形状に並べられて配置されている。
The passing gate 50 can be changed without being particularly limited to a loop-shaped (torus-shaped) passing gate, and may be, for example, a bridge-shaped passing gate 150 as shown in FIG. 4B.
The passage gate 150 is composed of a pair of gate legs 151 and a gate frame body 152 connecting the upper portions of the pair of gate legs 151, and the pair of gate legs 151 and the gate frame 152 The area surrounded by and is the passing area 153.
Further, the detection marks 60 are arranged in a substantially C shape so as to surround the passing region 153 of the passing gate 150.

<映像処理装置30のハード構成>
映像処理装置30は、データの演算・制御処理装置としてのCPUと、記憶装置としてのROM、RAM、及びHDD(SSD)と、ホームネットワーク又はインターネットを通じて情報データの送受信を行う通信用インタフェースと、を有するコンピュータである。
また、映像処理装置30は、所定の書式で表示される文字又は画像の情報を表示する表示装置と、CPUに所定の指令を入力するときユーザー入力操作される入力装置と、外付けハードディスク等の記憶媒体装置と、文字又は画像の情報を出力する印刷装置と、をさらに有しているほか、ディスプレイ40と接続されている。
<Hardware configuration of video processing device 30>
The video processing device 30 includes a CPU as a data calculation / control processing device, a ROM, RAM, and HDD (SSD) as storage devices, and a communication interface for transmitting and receiving information data via a home network or the Internet. It is a computer to have.
Further, the video processing device 30 includes a display device that displays information on characters or images displayed in a predetermined format, an input device that is operated by a user when inputting a predetermined command to the CPU, an external hard disk, or the like. It further has a storage medium device, a printing device for outputting character or image information, and is connected to a display 40.

映像処理装置30のROM、HDD、及び外部記憶装置には、図6に示すように、コンピュータとして必要な機能を果たすメインプログラムに加えて、映像処理プログラムが記憶されており、これらプログラムがCPUによって実行されることにより、映像処理装置30の機能が発揮されることになる。 As shown in FIG. 6, a video processing program is stored in the ROM, HDD, and external storage device of the video processing device 30 in addition to the main program that functions as a computer, and these programs are stored by the CPU. When executed, the function of the image processing device 30 will be exhibited.

<映像処理装置30のソフト構成>
映像処理装置30は、図6に示すように、機能面から説明すると、「映像データ」、「ラップタイムデータ」、「現在位置データ」のほか、各種プログラム及び各種データを記憶しておく記憶部31と、無人移動体1から「映像データ」を取得する映像データ取得部32と、取得した「映像データ」が示す映像を表示画面上に表示する画面表示部33と、取得した「映像データ」が示す映像内において検出マーク60が存在することを検出するマーク検出部34と、所定の映像内において検出マーク60が所定の条件で検出されたときに、検出された検出マーク60が設けられた通過ゲート50を通過したものと判定するゲート通過判定部35と、を主な構成要素として備えている。
また、映像処理装置30は、ゲート通過判定部35による判定結果から、無人移動体1が所定位置から所定の通過ゲート50を通過するまでに要した経過時間を算出する経過時間算出部36と、ゲート通過判定部35による判定結果から、所定の空間内において無人移動体1の現在位置を算出する現在位置算出部37と、をさらに備えている。
また、映像処理装置30は、無人移動体1が移動開始する直前のタイミングにおいて、無人移動体1から取得した「映像データ」に基づいて所定の条件を満たした場合に、無人移動体1が移動開始したものと判定する移動開始判定部38をさらに備えている。
これらは、CPU、ROM、RAM、HDD、通信用インタフェース、及び各種プログラム等によって構成されている。
<Software configuration of video processing device 30>
As shown in FIG. 6, the video processing device 30 is a storage unit 31 that stores various programs and various data in addition to "video data", "lap time data", and "current position data". The video data acquisition unit 32 that acquires "video data" from the unmanned moving body 1, the screen display unit 33 that displays the image indicated by the acquired "video data" on the display screen, and the acquired "video data" A mark detection unit 34 that detects the presence of the detection mark 60 in the indicated image, and a passage provided with the detected detection mark 60 when the detection mark 60 is detected in a predetermined image under a predetermined condition. A gate passage determination unit 35 that determines that the data has passed through the gate 50 is provided as a main component.
Further, the video processing device 30 includes an elapsed time calculation unit 36 that calculates the elapsed time required for the unmanned moving body 1 to pass through the predetermined passing gate 50 from the predetermined position based on the determination result by the gate passage determining unit 35. It further includes a current position calculation unit 37 that calculates the current position of the unmanned moving body 1 in a predetermined space from the determination result by the gate passage determination unit 35.
Further, the image processing device 30 moves the unmanned moving body 1 when a predetermined condition is satisfied based on the "video data" acquired from the unmanned moving body 1 at the timing immediately before the unmanned moving body 1 starts moving. Further, a movement start determination unit 38 for determining that the operation has started is provided.
These are composed of a CPU, ROM, RAM, HDD, communication interface, various programs, and the like.

なお、無人移動体1についても機能面から説明すると、各種プログラム及び各種データを格納しておく記憶部2と、操作端末10から「操作データ」を取得する操作データ受信部3と、「映像データ」をヘッドマウントディスプレイ20及び映像処理装置30に向けて送信する映像データ送信部4と、を主な構成要素として備えている。 Explaining the unmanned moving body 1 from the functional aspect, a storage unit 2 for storing various programs and various data, an operation data receiving unit 3 for acquiring "operation data" from the operation terminal 10, and "video data". Is provided as a main component of a video data transmission unit 4 that transmits the above to the head mount display 20 and the video processing device 30.

記憶部31に記憶される「映像データ」は、各無人移動体1が撮影したその正面側の外部の映像を示す動画データであって、無人移動体レース中の間に各無人移動体1からリアルタイムで送信されるものであって、記憶部31に一元管理されて記憶されている。
なお、映像データ(動画データ)は、例えば1秒当たりのフレーム画像数が30枚(30FPS(Frame Per Second))で設定されている。
当該映像データを参照することで、図7に示すように、ディスプレイ40上に各無人移動体1が撮影した映像を同時表示させる機能や、各無人移動体1のゲート通過判定機能、ラップタイム算出機能、現在位置算出機能を利用することができる。
The "video data" stored in the storage unit 31 is moving image data showing an external image on the front side of each unmanned moving body 1 taken by each unmanned moving body 1 in real time from each unmanned moving body 1 during the unmanned moving body race. It is transmitted and is centrally managed and stored in the storage unit 31.
The video data (moving image data) is set, for example, with 30 frame images per second (30 FPS (Frame Per Second)).
By referring to the video data, as shown in FIG. 7, a function of simultaneously displaying the video captured by each unmanned moving body 1 on the display 40, a gate passage determination function of each unmanned moving body 1, and a lap time calculation function. , The current position calculation function can be used.

「ラップタイムデータ」は、無人移動体レース中における各無人移動体1のラップタイムを示すデータであって、経過時間算出部36によって無人移動体1毎に作成されるものであって、記憶部31に一元管理されて記憶されている。
詳しく述べると、ラップタイムデータには、各無人移動体1が所定のスタート位置から所定の通過ゲート50を通過するまでに要した経過時間(区間ラップタイム)や、スタート位置からコースを1周するまでに要した経過時間(1周目、2周目、3周目のラップタイム)、スタート位置からゴール位置までに要した経過時間(コースを3周するまでに要した総ラップタイム)の情報が含まれているほか、隣り合う通過ゲート50においてスタート位置側にある通過ゲート50を通過してから次の通過ゲート50を通過するまでに要した経過時間(区間ラップタイム)等の情報も含まれている。
また、最速のラップタイムのほか、無人移動体レース中における現在のラップ数、現在の順位に関する情報も含まれている。
当該ラップタイムデータを参照することで、図7に示すように、ディスプレイ40上に各無人移動体1の種々のラップタイム、最速のラップタイム、各無人移動体1の順位等を表示させる機能を利用することができる。
The "lap time data" is data indicating the lap time of each unmanned moving body 1 during the unmanned moving body race, and is created by the elapsed time calculation unit 36 for each unmanned moving body 1 and stored in the storage unit 31. It is centrally managed and stored.
More specifically, the lap time data includes the elapsed time (section lap time) required for each unmanned moving body 1 to pass through the predetermined passing gate 50 from the predetermined start position, and the time from the start position to one lap of the course. Includes information on the elapsed time required (lap times on the first, second, and third laps) and the elapsed time from the start position to the goal position (total lap time required to complete three laps of the course). In addition, information such as the elapsed time (section lap time) required from passing through the passing gate 50 on the start position side to passing through the next passing gate 50 in the adjacent passing gates 50 is also included.
It also includes information on the fastest lap times, the current number of laps during an unmanned mobile race, and the current ranking.
By referring to the lap time data, as shown in FIG. 7, the function of displaying various lap times of each unmanned moving object 1, the fastest lap time, the order of each unmanned moving object 1 and the like on the display 40 is used. Can be done.

「現在位置データ」は、無人移動体レースのコース上における各無人移動体1の現在位置を示すデータであって、現在位置算出部37によって無人移動体1毎に作成されるものであって、記憶部31に一元管理されて記憶されている。
詳しく述べると、現在位置データには、コース上において各無人移動体1がいずれの通過ゲート50の位置にいるか(いずれの通過ゲート50の周辺位置にいるか)を示す位置情報が含まれている。
当該現在位置データを参照することで、図7に示すように、ディスプレイ40上に各無人移動体1の現在位置(コースマップ上の現在位置)を表示させる機能を利用することができる。
The "current position data" is data indicating the current position of each unmanned moving body 1 on the course of the unmanned moving body race, and is created for each unmanned moving body 1 by the current position calculation unit 37. It is centrally managed and stored in the storage unit 31.
More specifically, the current position data includes position information indicating which passage gate 50 the unmanned moving body 1 is located on the course (the position around which passage gate 50).
By referring to the current position data, as shown in FIG. 7, it is possible to use a function of displaying the current position (current position on the course map) of each unmanned moving body 1 on the display 40.

映像データ取得部32は、各無人移動体1から「映像データ」を取得するものであって、取得された映像データは、無人移動体1毎に分類されて記憶部31に記憶される。 The video data acquisition unit 32 acquires "video data" from each unmanned moving body 1, and the acquired video data is classified for each unmanned moving body 1 and stored in the storage unit 31.

画面表示部33は、具体的な機能部として、映像表示部33aと、経過時間表示部33bと、現在位置表示部33cと、を有している。
画面表示部33(映像表示部33a)は、各無人移動体1からそれぞれ取得した「映像データ」が示す映像をディスプレイ40上に同時表示する。
また、画面表示部33は、ゲート通過判定部35によって各無人移動体1が所定の通過ゲート50を通過したものと判定された「判定結果に基づく内容」をディスプレイ40上に表示する。
詳しく述べると、経過時間表示部33bが、上記判定結果に基づく内容として、経過時間算出部36によって算出された「各無人移動体1の経過時間に関する内容」をディスプレイ40上にリアルタイムで表示する。
また、現在位置表示部33cが、上記判定結果に基づく内容として、現在位置算出部37によって算出された「各無人移動体1の現在位置に関する内容」をディスプレイ40上にリアルタイムで表示することができる。
The screen display unit 33 has a video display unit 33a, an elapsed time display unit 33b, and a current position display unit 33c as specific functional units.
The screen display unit 33 (video display unit 33a) simultaneously displays on the display 40 the video indicated by the “video data” acquired from each unmanned moving object 1.
Further, the screen display unit 33 displays on the display 40 the "contents based on the determination result" determined by the gate passage determination unit 35 that each unmanned moving body 1 has passed the predetermined passage gate 50.
More specifically, the elapsed time display unit 33b displays "contents related to the elapsed time of each unmanned moving object 1" calculated by the elapsed time calculation unit 36 on the display 40 in real time as the contents based on the above determination result.
Further, the current position display unit 33c can display "contents related to the current position of each unmanned moving body 1" calculated by the current position calculation unit 37 on the display 40 in real time as the content based on the above determination result. ..

ディスプレイ40上の表示画面として図7の本実施例を見ると、当該表示画面の上方部分には、「各移動体1の操縦者の情報」として操縦者の画像41、操縦者の名称42(Player1−Player3)が表示されている。また、各移動体1がリアルタイムで撮影しているリアルタイム映像43が操縦者の情報と対応して表示されており、無人移動体レースの総レース時間44「0:10:123」も表示されている。
また、当該表示画面の右下部分には、「各無人移動体1の経過時間に関する内容」として、コース1周目、コース2周目、コース3周目のラップタイム45、最速ラップタイム46が表示されているほか、表示画面の中央部分において現在のラップ数47、現在の順位48も表示されている。
また、当該表示画面の左下部分には、「各無人移動体1の現在位置に関する内容」として、無人移動体レースのコースマップ49と、コースマップ49上をリアルタイムで移動する各無人移動体1の現在位置表示アイコン49aとが表示されている。
そのほか、当該表示画面の中央下部分には、映像処理装置30によって実行される映像処理プログラムを開始するための開始ボタン(Start)、停止ボタン(Stоp)、設定ボタン(Setting)等が表示されている。
Looking at the present embodiment of FIG. 7 as a display screen on the display 40, an image 41 of the operator and a name 42 of the operator are displayed in the upper part of the display screen as "information on the operator of each moving body 1". Player1-Player3) is displayed. In addition, the real-time image 43 taken by each moving body 1 in real time is displayed corresponding to the operator's information, and the total race time 44 "0:10:123" of the unmanned moving body race is also displayed. There is.
Further, in the lower right part of the display screen, the lap time 45 and the fastest lap time 46 of the first lap of the course, the second lap of the course, and the third lap of the course are displayed as "contents related to the elapsed time of each unmanned moving body 1". In addition, the current number of laps 47 and the current ranking 48 are also displayed in the central part of the display screen.
Further, in the lower left part of the display screen, as "contents related to the current position of each unmanned moving body 1", a course map 49 of the unmanned moving body race and each unmanned moving body 1 moving on the course map 49 in real time The current position display icon 49a is displayed.
In addition, a start button (Start), a stop button (Stоp), a setting button (Setting), and the like for starting a video processing program executed by the video processing device 30 are displayed in the lower center portion of the display screen. There is.

マーク検出部34は、取得した「映像データ」が示す映像内において検出対象となる検出マーク60が存在することを検出する。
詳しく述べると、マーク検出部34は、映像データ(動画データ)が1秒当たりのフレーム画像数が30枚(30FPS)で設定されているところ、当該フレーム画像毎に、フレーム画像内において検出マーク60が存在していることを検出する。
なお、検出マーク60には、複数の通過ゲート50のうち、いずれの通過ゲート50であるかを特定するための識別データが格納されている。そのため、マーク検出部34が、所定の無人移動体1によって撮影されたフレーム画像内において所定の検出マーク60を検出したときに、当該無人移動体1がいずれの通過ゲート50の位置又は周辺位置にいるかを特定することもできる。
The mark detection unit 34 detects that the detection mark 60 to be detected exists in the video indicated by the acquired "video data".
More specifically, in the mark detection unit 34, when the number of frame images per second is set to 30 (30 FPS) in the video data (moving image data), the detection mark 60 is set in the frame image for each frame image. Detects the existence of.
The detection mark 60 stores identification data for identifying which of the plurality of passing gates 50 is the passing gate 50. Therefore, when the mark detection unit 34 detects the predetermined detection mark 60 in the frame image captured by the predetermined unmanned moving body 1, the unmanned moving body 1 is placed at the position or the peripheral position of any of the passing gates 50. It is also possible to specify whether or not.

ゲート通過判定部35は、取得した「映像データ」が示す映像内において検出マーク60が所定の条件で検出され、かつ、当該映像よりも後の映像内において検出マーク60が検出されなくなったときに、検出された検出マーク60が設けられた通過ゲート50を所定の無人移動体1が通過したものと判定する。
具体的には、ゲート通過判定部35は、最初の映像内において検出マーク60が以下の条件で検出され、後の映像内において全ての検出マークが検出されなくなったときに、無人移動体1が通過したものと判定する。
なお、以下の全ての条件のうち、いずれか1つの条件を満たした場合に通過判定しても良いし、その他の条件を設定し、当該その他の条件も満たしたときに通関判定しても良い。
When the detection mark 60 is detected under predetermined conditions in the video indicated by the acquired "video data" and the detection mark 60 is no longer detected in the video after the video, the gate passage determination unit 35 , It is determined that the predetermined unmanned moving body 1 has passed through the passing gate 50 provided with the detected detection mark 60.
Specifically, when the detection mark 60 is detected in the first image under the following conditions and all the detection marks are not detected in the subsequent image, the gate passage determination unit 35 causes the unmanned moving body 1 to move. Judge that it has passed.
In addition, the passage may be determined when any one of the following conditions is satisfied, or the customs clearance may be determined when other conditions are set and the other conditions are also satisfied. ..

第1条件として、ゲート通過判定部35は、図8に示すように、映像(フレーム画像)の中心部分において所定の大きさからなる矩形状の領域を「検出対象外領域35a」として予め設定する。そして、所定の映像(所定のフレーム画像)内において「検出対象外領域35a」とは異なる領域において検出マーク60が検出されたときに、第1条件を満たしたものと判断する。
このとき、検出対象外領域35aは、所定の通過ゲート50内の通過領域よりも小さい領域であると好ましい。より具体的には、全ての通過ゲート50の通過領域の中で、最も小さい通過領域よりも小さい領域であると好ましい。なお、検出対象外領域35аの形状は矩形状に限定されることなく、例えば円形状等であっても良く、適宜変更可能である。
As the first condition, as shown in FIG. 8, the gate passage determination unit 35 presets a rectangular region having a predetermined size in the central portion of the image (frame image) as the “non-detection target region 35a”. .. Then, when the detection mark 60 is detected in a region different from the “non-detection target region 35a” in the predetermined video (predetermined frame image), it is determined that the first condition is satisfied.
At this time, the non-detection target region 35a is preferably a region smaller than the passage region in the predetermined passage gate 50. More specifically, among all the passing regions of the passing gates 50, it is preferable that the region is smaller than the smallest passing region. The shape of the non-detection target region 35а is not limited to a rectangular shape, but may be a circular shape or the like, and can be changed as appropriate.

第2条件として、ゲート通過判定部35は、図8に示すように、映像に対して4象限に区画された4つの検出対象領域を予め設定する。そして、所定の映像内において第1象限となる「第1検出対象領域35b」、第2象限となる「第2検出対象領域35c」、第3象限となる「第3検出対象領域35d」、及び第4象限となる「第4検出対象領域35e」の全ての検出対象領域において検出マーク60が検出されたときに、第2条件を満たしたものと判断する。 As the second condition, as shown in FIG. 8, the gate passage determination unit 35 presets four detection target areas divided into four quadrants with respect to the image. Then, in the predetermined video, the first quadrant "first detection target area 35b", the second quadrant "second detection target area 35c", the third quadrant "third detection target area 35d", and the like. When the detection mark 60 is detected in all the detection target areas of the "fourth detection target area 35e" which is the fourth quadrant, it is determined that the second condition is satisfied.

図8の本実施例1を見ると、所定の映像(フレーム画像)内において、検出対象外領域35aとは異なる領域において検出マーク60が検出されていること、かつ、第1検出対象領域35b、第2検出対象領域35c、第3検出対象領域35d、及び第4検出対象領域35eの全ての検出対象領域において検出マーク60が検出されていることが分かる。
その後、所定の映像よりも後の映像(後のフレーム画像)内において全ての検出マーク60が検出されなくなったときには、ゲート通過判定部35は、当該検出マーク60が設けられた通過ゲート50を無人移動体1が通過したものと判定する。
Looking at the first embodiment of FIG. 8, the detection mark 60 is detected in a region different from the non-detection target region 35a in the predetermined video (frame image), and the first detection target region 35b, It can be seen that the detection mark 60 is detected in all the detection target areas of the second detection target area 35c, the third detection target area 35d, and the fourth detection target area 35e.
After that, when all the detection marks 60 are no longer detected in the video after the predetermined video (frame image after), the gate passage determination unit 35 unmanned the passage gate 50 provided with the detection mark 60. It is determined that the moving body 1 has passed.

また、図8の本実施例2を見ると、所定の映像(フレーム画像)内において、検出対象外領域35aとは異なる領域において検出マーク60が検出されているものの、第1検出対象領域35b及び第2検出対象領域35cの検出対象領域にしか検出マーク60が検出されていないことが分かる。
その場合には、ゲート通過判定部35は、当該検出マーク60が設けられた通過ゲート50を無人移動体1が通過したものとは判定しないことになる。
Further, looking at the second embodiment of FIG. 8, although the detection mark 60 is detected in a region different from the non-detection target region 35a in the predetermined video (frame image), the first detection target region 35b and It can be seen that the detection mark 60 is detected only in the detection target area of the second detection target area 35c.
In that case, the gate passage determination unit 35 does not determine that the unmanned moving body 1 has passed through the passage gate 50 provided with the detection mark 60.

経過時間算出部36は、ゲート通過判定部35による上記判定結果から、所定の無人移動体1が所定のスタート位置から所定の通過ゲート50を通過するまでに要した経過時間(ラップタイム)を算出する。
詳しく述べると、経過時間算出部36は、当該経過時間(ラップタイム)を算出し、当該経過時間を示す「ラップタイムデータ」を作成する。
「ラップタイムデータ」には、上述した通り、各無人移動体1が所定のスタート位置から所定の通過ゲート50を通過するまでに要した経過時間(区間ラップタイム)や、スタート位置からコースを1周するまでに要した経過時間(1周目、2周目、3周目のラップタイム)、スタート位置からゴール位置までに要した経過時間(コースを3周するまでに要した総ラップタイム)等の情報が含まれている。
The elapsed time calculation unit 36 calculates the elapsed time (lap time) required for the predetermined unmanned moving body 1 to pass through the predetermined passage gate 50 from the predetermined start position from the determination result by the gate passage determination unit 35. ..
More specifically, the elapsed time calculation unit 36 calculates the elapsed time (lap time) and creates "lap time data" indicating the elapsed time.
As described above, the "lap time data" includes the elapsed time (section lap time) required for each unmanned moving body 1 to pass through the predetermined passage gate 50 from the predetermined start position, and one lap of the course from the start position. Information such as the elapsed time required (lap time on the 1st, 2nd, and 3rd laps) and the elapsed time from the start position to the goal position (total lap time required to complete 3 laps of the course) is available. include.

現在位置算出部37は、ゲート通過判定部35による上記判定結果から、所定の空間内において無人移動体1の現在位置を算出する。
詳しく述べると、現在位置算出部37は、当該現在位置を算出し、当該現在位置を示す「現在位置データ」を作成する。
「現在位置データ」には、上述した通り、無人移動体レースのコース上において各無人移動体1がいずれの通過ゲート50の位置にいるか(いずれの通過ゲート50の周辺位置にいるか)を示す位置情報が含まれている。
なお、現在位置算出部37が所定の無人移動体1の現在位置を算出するにあたっては、当該レース中における無人移動体1のラップタイム、無人移動体1を操作する操縦者の過去のレースのラップタイム等の情報も参照することで、無人移動体1の現在位置をより精度良く算出することができる。
そのようにして無人移動体1の現在位置を算出することで、図7に示す表示画面において、コースマップ49上の現在位置表示アイコン49aを精度良く移動させながら表示することができる。
The current position calculation unit 37 calculates the current position of the unmanned moving body 1 in a predetermined space from the above determination result by the gate passage determination unit 35.
More specifically, the current position calculation unit 37 calculates the current position and creates "current position data" indicating the current position.
As described above, the "current position data" is a position indicating which passage gate 50 the unmanned moving body 1 is in (the position around which passing gate 50) on the course of the unmanned moving body race. Contains information.
When the current position calculation unit 37 calculates the current position of the predetermined unmanned moving body 1, the lap time of the unmanned moving body 1 during the race, the lap time of the operator operating the unmanned moving body 1 in the past race, etc. The current position of the unmanned moving body 1 can be calculated more accurately by referring to the information of.
By calculating the current position of the unmanned moving body 1 in this way, the current position display icon 49a on the course map 49 can be displayed while being accurately moved on the display screen shown in FIG. 7.

<映像処理方法>
次に、映像処理装置30で実行される映像処理プログラム(映像処理方法)の処理について、図9に基づいて説明する。
本実施形態に係る上記プログラムは、記憶部31を備えた映像処理装置30の機能的な構成要素として、上述した映像データ取得部32と、画面表示部33と、マーク検出部34と、ゲート通過判定部35と、経過時間算出部36と、現在位置算出部37と、を実現させるために各種プログラムを集約させたユーティリティプログラムであって、映像処理装置30のCPUがこの映像処理プログラムを実行する。
なお、上記プログラムは、ユーザーから映像処理開始の操作を受け付けて実行されるものである。
<Video processing method>
Next, the processing of the video processing program (video processing method) executed by the video processing device 30 will be described with reference to FIG.
The program according to the present embodiment has the above-mentioned video data acquisition unit 32, screen display unit 33, mark detection unit 34, and gate passage as functional components of the video processing device 30 including the storage unit 31. It is a utility program in which various programs are integrated in order to realize the determination unit 35, the elapsed time calculation unit 36, and the current position calculation unit 37, and the CPU of the video processing device 30 executes this video processing program. ..
The above program is executed by receiving an operation of starting video processing from a user.

図9に示す「映像処理フロー」では、まず、映像データ取得部32が、各無人移動体1から「映像データ」を取得するステップS1から始まる。
なお、取得された映像データは、無人移動体1毎に分類されて記憶部31に記憶される。
In the "video processing flow" shown in FIG. 9, first, the video data acquisition unit 32 starts from step S1 of acquiring "video data" from each unmanned moving body 1.
The acquired video data is classified for each unmanned moving body 1 and stored in the storage unit 31.

次に、ステップS2で、画面表示部33(映像表示部33a)が、図7に示すように、各無人移動体1から取得した「映像データ」が示す映像(リアルタイム映像)をディスプレイ40上に同時表示する。 Next, in step S2, the screen display unit 33 (video display unit 33a) displays the video (real-time video) indicated by the “video data” acquired from each unmanned moving object 1 on the display 40, as shown in FIG. Display at the same time.

次に、ステップS3で、マーク検出部34が、取得した「映像データ」が示す映像内において検出対象となる検出マーク60が存在することを検出する。
マーク検出部34が、当該映像内において検出マーク60が存在することを検出した場合には(ステップS3:Yes)、ステップS4に進む。一方で、当該映像内において検出マーク60が存在しなかった場合には(ステップS3:Nо)、ステップS7に進む。
Next, in step S3, the mark detection unit 34 detects that the detection mark 60 to be detected exists in the video indicated by the acquired “video data”.
When the mark detection unit 34 detects the presence of the detection mark 60 in the video (step S3: Yes), the process proceeds to step S4. On the other hand, if the detection mark 60 does not exist in the video (step S3: Nо), the process proceeds to step S7.

次に、ステップS4で、ゲート通過判定部35が、図8に示すように、取得した「映像データ」が示す映像内において検出マーク60が所定の条件で検出されているか否かを判断する。
詳しく述べると、第1条件として、ゲート通過判定部35は、映像の中心部分において検出対象外領域35aを予め設定し、所定の映像内において検出対象外領域35aとは異なる領域において検出マーク60が検出されているか否かを判断する。
また、第2条件として、ゲート通過判定部35は、映像に対して4象限に区画された4つの検出対象領域35b‐35eを予め設定する。そして、所定の映像内において全ての検出対象領域35b‐35eにおいて検出マーク60が検出されているか否かを判断する。
Next, in step S4, as shown in FIG. 8, the gate passage determination unit 35 determines whether or not the detection mark 60 is detected under a predetermined condition in the video indicated by the acquired “video data”.
More specifically, as the first condition, the gate passage determination unit 35 presets the non-detection target region 35a in the central portion of the image, and the detection mark 60 is set in a region different from the non-detection target region 35a in the predetermined image. Determine if it has been detected.
Further, as a second condition, the gate passage determination unit 35 presets four detection target areas 35b-35e divided into four quadrants with respect to the image. Then, it is determined whether or not the detection mark 60 is detected in all the detection target areas 35b-35e in the predetermined video.

ゲート通過判定部35が、当該映像内において検出マーク60が所定の条件で検出されていると判断した場合には(ステップS4:Yes)、ステップS5に進み、マーク検出フラグをONに設定した上でステップS6に進む。
一方で、当該映像内において検出マーク60が所定の条件で検出されていないと判断した場合には(ステップS4:Nо)、ステップS6にそのまま進む。
If the gate passage determination unit 35 determines that the detection mark 60 has been detected in the video under predetermined conditions (step S4: Yes), the process proceeds to step S5, and the mark detection flag is set to ON. Proceed to step S6.
On the other hand, if it is determined that the detection mark 60 is not detected under a predetermined condition in the video (step S4: Nо), the process proceeds to step S6 as it is.

次に、ステップS6で、映像処理装置30が、ユーザーから映像処理停止の操作を受け付けているか否かを判断する。
映像処理装置30が、ユーザーから映像処理停止の操作を受け付けていない場合には(ステップS6:Nо)、ステップS1に戻る。なお、ユーザーから映像処理停止の操作を受け付けている場合には(ステップS6:Yes)、図9のプロセスを終了する。
Next, in step S6, it is determined whether or not the video processing device 30 is accepting the operation of stopping the video processing from the user.
If the video processing device 30 has not received the operation of stopping the video processing from the user (step S6: Nо), the process returns to step S1. If the user accepts the operation to stop the video processing (step S6: Yes), the process of FIG. 9 is terminated.

次に、ステップS6からステップS1に戻った後、次に取得した「映像データ」が示す映像内において検出マーク60が存在しない場合には(全ての検出マーク60が存在しなくなった場合には)(ステップS3:Nо)、ステップS7に進み、映像処理装置30が、マーク検出フラグがONに設定されているか否かを判断する。
マーク検出フラグがONに設定されている場合には(ステップS7:Yes)、ステップS8に進み、マーク検出フラグがONに設定されていない場合には(ステップS7:Nо)、ステップS6に進む。
Next, after returning to step S1 from step S6, if the detection mark 60 does not exist in the image indicated by the "video data" acquired next (when all the detection marks 60 do not exist). (Step S3: Nо), the process proceeds to step S7, and the video processing device 30 determines whether or not the mark detection flag is set to ON.
If the mark detection flag is set to ON (step S7: Yes), the process proceeds to step S8, and if the mark detection flag is not set to ON (step S7: Nо), the process proceeds to step S6.

次に、ステップS8で、ゲート通過判定部35が、取得した「映像データ」が示す映像内において検出マーク60が所定の条件で検出され、かつ、当該映像よりも後の映像内において検出マークが検出されなくなったと判断し、検出された検出マーク60が設けられた通過ゲート50を所定の無人移動体1が通過したものと判定する。 Next, in step S8, the gate passage determination unit 35 detects the detection mark 60 in the video indicated by the acquired "video data" under predetermined conditions, and the detection mark appears in the video after the video. It is determined that the detection is no longer detected, and it is determined that the predetermined unmanned moving body 1 has passed through the passage gate 50 provided with the detected detection mark 60.

次に、ステップS9で、経過時間算出部36が、ゲート通過判定部35による上記判定結果から、所定の無人移動体1が所定のスタート位置から所定の通過ゲート50を通過するまでに要した経過時間(ラップタイム)を算出する。すなわち、「ラップタイムデータ」を作成する。
また、現在位置算出部37が、ゲート通過判定部35による上記判定結果から、所定の空間内において無人移動体1の現在位置を算出する。すなわち、「現在位置データ」を作成する。
Next, in step S9, the elapsed time required for the elapsed time calculation unit 36 from the determination result by the gate passage determination unit 35 until the predetermined unmanned moving body 1 passes through the predetermined passage gate 50 from the predetermined start position. Calculate the time (lap time). That is, "lap time data" is created.
Further, the current position calculation unit 37 calculates the current position of the unmanned moving body 1 in a predetermined space from the above determination result by the gate passage determination unit 35. That is, "current position data" is created.

次に、ステップS10で、経過時間表示部33bが、上記判定結果に基づく内容として、経過時間算出部36によって算出された「各無人移動体1の経過時間(ラップタイム)に関する内容」をディスプレイ40上に表示する。
また、現在位置表示部33cが、上記判定結果に基づく内容として、現在位置算出部37によって算出された「各無人移動体1の現在位置に関する内容」をディスプレイ40上に表示することができる。
具体的には、図7の表示画面に示す通りである。
Next, in step S10, the elapsed time display unit 33b displays “contents related to the elapsed time (lap time) of each unmanned moving body 1” calculated by the elapsed time calculation unit 36 as the content based on the above determination result on the display 40. Display on.
Further, the current position display unit 33c can display "contents related to the current position of each unmanned moving body 1" calculated by the current position calculation unit 37 on the display 40 as the content based on the above determination result.
Specifically, it is as shown in the display screen of FIG.

次に、ステップS11で、映像処理装置30が、マーク検出フラグをOFFに設定した上でステップS6に進む。 Next, in step S11, the video processing device 30 sets the mark detection flag to OFF, and then proceeds to step S6.

上記ステップS1からステップS11を経ながら、最終的にユーザーから映像処理停止の操作を受け付けた場合には(ステップS6:Yes)、図9のプロセスを終了する。
上記の映像処理プログラムの処理フローにより、無人移動体1の位置を精度良く検出し、所定位置を通過したタイミングを精度良く計測することが可能となる。
また、無人移動体レースの運営にあたって、エンターテイメント性を高めるべく、臨場感あふれる演出態様が可能となる。
When the operation of stopping the video processing is finally received from the user while going through the steps S1 to S11 (step S6: Yes), the process of FIG. 9 is terminated.
According to the processing flow of the above-mentioned video processing program, it is possible to accurately detect the position of the unmanned moving body 1 and accurately measure the timing of passing through the predetermined position.
In addition, when operating an unmanned mobile race, it is possible to create a realistic production mode in order to enhance entertainment.

<移動開始判定>
次に、映像処理装置30で実行される移動開始判定部38の機能について、図10、図11に基づいて説明する。
移動開始判定部38は、無人移動体1が移動開始する直前のタイミングをトリガ開始条件として無人移動体1の移動開始判定を開始する。
移動開始判定部38は、無人移動体1から取得した「映像データ」が示す第1映像と、第1映像よりも後の第2映像との差分を検出し、当該差分が所定の閾値以上であると判断し(第1条件)、かつ、第2映像と、第2映像よりも後の第3映像との差分を検出し、当該差分が所定の閾値以上であると判断した場合に(第2条件)、無人移動体1が移動開始したものと判定する。
具体的には、移動開始判定部38は、無人移動体レースにおいて各無人移動体1の不正スタート(フライングスタート)を判定するものである。
上記構成により、従来の無人移動体レースでは、例えば目視確認によって不正スタートを判定していたところ、映像処理装置30が当該不正スタートを自動検出することができ、かつ、不正スタートを精度良く検出できるようになる。
<Movement start judgment>
Next, the function of the movement start determination unit 38 executed by the video processing device 30 will be described with reference to FIGS. 10 and 11.
The movement start determination unit 38 starts the movement start determination of the unmanned moving body 1 with the timing immediately before the unmanned moving body 1 starts moving as the trigger start condition.
The movement start determination unit 38 detects the difference between the first video indicated by the "video data" acquired from the unmanned moving body 1 and the second video after the first video, and the difference is equal to or higher than a predetermined threshold value. When it is determined that there is (first condition), and the difference between the second video and the third video after the second video is detected and the difference is determined to be equal to or higher than a predetermined threshold value (first condition). 2 conditions), it is determined that the unmanned moving body 1 has started moving.
Specifically, the movement start determination unit 38 determines an illegal start (flying start) of each unmanned moving body 1 in an unmanned moving body race.
With the above configuration, in the conventional unmanned mobile race, for example, when a false start is determined by visual confirmation, the video processing device 30 can automatically detect the false start and can detect the false start with high accuracy. Will be.

詳しく述べると、移動開始判定部38は、まず、取得した第1映像(第1画像)に対して予め設定された2値化閾値を適用して2値化処理を実行し、第1処理画像を示す「第1処理画像データ」を取得する。次に取得した第2映像(第2画像)に対しても2値化処理を実行し、第2処理画像を示す「第2処理画像データ」を取得する。
そして、第1処理画像と第2処理画像の差分を検出し、当該差分が画像全体の中で「所定の閾値」以上となった場合に、第1条件を満たしたものと判断する。
なお「所定の閾値」について、例えば、上記差分が画像全体の中で「8割」以上、好ましくは「9割」以上となった場合に、第1条件を満たしたものと判断すると良い。
More specifically, the movement start determination unit 38 first applies a preset binarization threshold value to the acquired first video (first image) to execute the binarization process, and first executes the binarization process. The "first processed image data" indicating the above is acquired. Next, the binarization process is also executed for the acquired second video (second image), and the "second processed image data" indicating the second processed image is acquired.
Then, the difference between the first processed image and the second processed image is detected, and when the difference becomes equal to or more than the "predetermined threshold value" in the entire image, it is determined that the first condition is satisfied.
Regarding the "predetermined threshold value", for example, when the difference is "80%" or more, preferably "90%" or more in the entire image, it may be determined that the first condition is satisfied.

第2条件として、移動開始判定部38は、次に取得した第3映像(第3画像)に対して2値化処理を実行し、第3処理画像を示す「第3処理画像データ」を取得する。
そして、第2処理画像と第3処理画像の差分を検出し、当該差分が画像全体の中で所定の閾値以上となった場合に、第2条件を満たしたものと判断する。
第1条件及び第2条件を満たしたときに、移動開始判定部38は、無人移動体1が移動開始したものと判定する。すなわち、無人移動体1が不正スタートしたものと判定する。
移動開始判定部38は、無人移動体レースがスタートしたタイミングをトリガ終了条件として、無人移動体1の移動開始判定を終了する。
As the second condition, the movement start determination unit 38 executes the binarization process on the third image (third image) acquired next, and acquires the "third processed image data" indicating the third processed image. To do.
Then, the difference between the second processed image and the third processed image is detected, and when the difference becomes equal to or more than a predetermined threshold value in the entire image, it is determined that the second condition is satisfied.
When the first condition and the second condition are satisfied, the movement start determination unit 38 determines that the unmanned moving body 1 has started moving. That is, it is determined that the unmanned moving body 1 has started illegally.
The movement start determination unit 38 ends the movement start determination of the unmanned moving body 1 with the timing at which the unmanned moving body race starts as a trigger end condition.

上記構成において、移動開始判定部38が、所定の無人移動体1が不正スタートしたものと判定したとき、画面表示部33が、当該判定結果に基づく内容をディスプレイ40上に表示する。
ディスプレイ40上の表示画面として図10の本実施例を見ると、操縦者「Player1」のリアルタイム映像43上に、不正スタートを報知する内容「FLYING」がポップアップ表示されている。また、操縦者「Player1」のラップタイム45が非表示となっている。
このようにすれば、無人移動体レース開始直前及び直後のリアルタイム情報を観戦者に知らせることができ、無人移動体レースの臨場感あふれる内容を演出することができる。
In the above configuration, when the movement start determination unit 38 determines that the predetermined unmanned moving body 1 has started illegally, the screen display unit 33 displays the content based on the determination result on the display 40.
Looking at the present embodiment of FIG. 10 as a display screen on the display 40, the content "FLYING" for notifying an illegal start is popped up on the real-time image 43 of the operator "Player1". In addition, the lap time 45 of the pilot "Player1" is hidden.
In this way, real-time information immediately before and after the start of the unmanned mobile race can be notified to the spectators, and the realistic content of the unmanned mobile race can be produced.

また上記構成において、移動開始判定部38は、無人移動体1が移動開始する直前のタイミングを「トリガ開始条件」として処理を開始するところ、当該トリガ開始条件として、例えば、無人移動体レース開始直前のカウントダウンの演出開始を条件にすると良い。
具体的には、ユーザー操作の入力を受け付けて、画面表示部33が当該カウントダウンの演出内容をディスプレイ40上に表示したタイミングをトリガ開始条件にすると良い。
そして、移動開始判定部38の「トリガ終了条件」としては、画面表示部33が上記カウントダウンの演出内容を終了し、無人移動体レースのスタート演出を条件にすると良い。
このようにすれば、映像処理装置30が、不正スタートを精度良く検出できるとともに、レースの準備中やレース開始後に誤って検出してしまうことを防止できる。
Further, in the above configuration, the movement start determination unit 38 starts the process with the timing immediately before the unmanned moving body 1 starts moving as the "trigger start condition", and the trigger start condition is, for example, immediately before the start of the unmanned moving body race. It is good to start the production of the countdown.
Specifically, it is preferable that the trigger start condition is the timing at which the screen display unit 33 displays the countdown effect content on the display 40 in response to the input of the user operation.
Then, as the "trigger end condition" of the movement start determination unit 38, it is preferable that the screen display unit 33 ends the effect content of the countdown and the start effect of the unmanned moving body race is a condition.
In this way, the video processing device 30 can accurately detect the false start and prevent the video processing device 30 from erroneously detecting the false start during the preparation of the race or after the start of the race.

<移動開始判定方法>
次に、映像処理装置30で実行される移動開始判定プログラム(移動開始判定方法)の処理について、図11に基づいて説明する。
<Movement start judgment method>
Next, the processing of the movement start determination program (movement start determination method) executed by the video processing device 30 will be described with reference to FIG.

図11に示す「移動開始判定処理フロー」では、まず、映像表示部33が、ユーザー操作の入力を受け付けて、不図示のカウントダウンの演出内容を表示するステップS101から始まる。
当該カウントダウンの演出開始がトリガ開始条件となって、移動開始判定部38が、各無人移動体1の移動開始判定を開始する。
In the “movement start determination processing flow” shown in FIG. 11, first, the video display unit 33 starts from step S101 which accepts the input of the user operation and displays the effect content of the countdown (not shown).
The start of the countdown effect becomes the trigger start condition, and the movement start determination unit 38 starts the movement start determination of each unmanned moving body 1.

次に、ステップS102で、映像データ取得部32が、各無人移動体1から「映像データ」を取得する。
そして、ステップS103で、移動開始判定部38が、無人移動体1から取得した「映像データ」が示す第N映像と、第N映像よりも後の第N+1映像との差分を検出する。
移動開始判定部38が、当該差分が所定の閾値以上であると判断した場合には(ステップS104:Yes)、ステップS105に進む。一方で、当該差分が所定の閾値未満となっている場合には(ステップS104:Nо)、ステップS110に進む。
Next, in step S102, the video data acquisition unit 32 acquires "video data" from each unmanned moving body 1.
Then, in step S103, the movement start determination unit 38 detects the difference between the Nth video indicated by the "video data" acquired from the unmanned moving body 1 and the N + 1 video after the Nth video.
If the movement start determination unit 38 determines that the difference is equal to or greater than a predetermined threshold value (step S104: Yes), the process proceeds to step S105. On the other hand, if the difference is less than a predetermined threshold value (step S104: Nо), the process proceeds to step S110.

次に、ステップS105で、移動開始判定部38が、フラグがONに設定されているか否かを判断する。
フラグがONに設定されている場合には(ステップS105:Yes)、移動開始判定部38が、所定の無人移動体1が移動開始(不正スタート)したものと判定する(ステップS106)。
そして、画面表示部33が、図10に示すように、当該判定結果に基づく内容をディスプレイ40上に表示し(ステップS107)、図11のプロセスを終了する。
Next, in step S105, the movement start determination unit 38 determines whether or not the flag is set to ON.
When the flag is set to ON (step S105: Yes), the movement start determination unit 38 determines that the predetermined unmanned moving body 1 has started moving (illegal start) (step S106).
Then, as shown in FIG. 10, the screen display unit 33 displays the content based on the determination result on the display 40 (step S107), and ends the process of FIG.

フラグがONに設定されていない場合には(ステップS105:Nо)、ステップS108に進み、フラグをONに設定した上でステップS109に進む。
ステップS109では、カウントダウンの演出内容が終了しているか否かを判断し、当該演出内容が終了し、無人移動体レースがスタートしている場合には(ステップS109:Yes)、図11のプロセスを終了する。
一方で、カウントダウンの演出内容が終了していない場合には(ステップS109:Nо)、ステップS102に戻る。
If the flag is not set to ON (step S105: Nо), the process proceeds to step S108, and after setting the flag to ON, the process proceeds to step S109.
In step S109, it is determined whether or not the countdown effect content has ended, and if the effect content has ended and the unmanned moving body race has started (step S109: Yes), the process of FIG. 11 is performed. finish.
On the other hand, if the countdown effect content is not completed (step S109: Nо), the process returns to step S102.

ステップS104で上記差分が所定の閾値未満となっている場合には、ステップS110に進み、移動開始判定部38が、フラグがONに設定されているか否かを判断する。
フラグがONに設定されている場合には(ステップS110:Yes)、ONに設定されたフラグをOFFに設定した上で(ステップS111)、ステップS109に進む。
フラグがONに設定されていない場合には(ステップS110:Nо)、そのままステップS109に進む。
ステップS109において、カウントダウンの演出内容が終了している場合には(ステップS109:Yes)、図11のプロセスを終了し、当該演出内容が終了していない場合には(ステップS109:Nо)、ステップS102に戻る。
If the difference is less than a predetermined threshold value in step S104, the process proceeds to step S110, and the movement start determination unit 38 determines whether or not the flag is set to ON.
If the flag is set to ON (step S110: Yes), the flag set to ON is set to OFF (step S111), and then the process proceeds to step S109.
If the flag is not set to ON (step S110: Nо), the process proceeds to step S109 as it is.
In step S109, if the countdown effect content is completed (step S109: Yes), the process of FIG. 11 is terminated, and if the effect content is not completed (step S109: Nо), the step. Return to S102.

上記の移動開始判定プログラムの処理フローにより、無人移動体レースにおいて、映像処理装置30が、所定の無人移動体1の不正スタートを精度良く判定することができる。 According to the processing flow of the movement start determination program, the video processing device 30 can accurately determine the false start of the predetermined unmanned moving body 1 in the unmanned moving body race.

<その他の実施形態>
上記実施形態において、図1に示すように、無人移動体1は、小型の無人航空機(ドローン)であるが、ドローンに特に限定されることなく、撮影装置を搭載した無人移動体であれば適宜変更可能である。
例えば、地上を走行するラジコンカー、空中を飛行する無人ヘリコプター、水上を移動する船やヨット等であっても良い。また、玩具に特に限定されることなく、商業用の無人航空機や無人自動車等にも広く適用可能である。
<Other Embodiments>
In the above embodiment, as shown in FIG. 1, the unmanned aerial vehicle 1 is a small unmanned aerial vehicle (drone), but the drone is not particularly limited as long as it is an unmanned aerial vehicle equipped with a photographing device. It can be changed.
For example, it may be a radio-controlled car traveling on the ground, an unmanned helicopter flying in the air, a ship or a yacht moving on the water, or the like. Further, the present invention is not particularly limited to toys, and can be widely applied to commercial unmanned aerial vehicles, unmanned automobiles, and the like.

上記実施形態において、図1に示すように、本映像処理システムSは、無人移動体レースを運営するためのシステムであるが、無人移動体レース用のシステムに特に限定されることなく、無人移動体(ドローン)を用いた映像処理システム、映像処理装置として種々のビジネスに対しても広く適用可能である。 In the above embodiment, as shown in FIG. 1, the video processing system S is a system for operating an unmanned moving body race, but is not particularly limited to a system for unmanned moving body racing, and is unmanned moving. It can be widely applied to various businesses as a video processing system using a body (drone) and a video processing device.

上記実施形態において、図1に示すように、本映像処理システムSでは、無人移動体1が複数用いられているが、特に限定されることなく、例えば、商業用のシステムとして用いられるならば、無人移動体が1基であっても良い。 In the above embodiment, as shown in FIG. 1, a plurality of unmanned moving bodies 1 are used in the video processing system S, but without particular limitation, for example, if it is used as a commercial system, There may be one unmanned moving body.

上記実施形態において、図1、図4に示すように、検出マーク60は、2次元バーコードであるが、特に限定されることなく、映像内において検出可能なマークであれば広く適用可能である。好ましくは、当該検出マークが識別情報を格納可能なマークであると良い。 In the above embodiment, as shown in FIGS. 1 and 4, the detection mark 60 is a two-dimensional barcode, but is not particularly limited and can be widely applied as long as it is a mark that can be detected in an image. .. Preferably, the detection mark is a mark capable of storing identification information.

上記実施形態において、図1、図4に示すように、検出マーク60は、通過ゲート50の通過領域53を囲むように配置されているが、特に限定されることなく、検出マーク60の配置パターンについては適宜変更可能である。
例えば、検出マーク60が、通過ゲート50,150の上方部分に横一列で配置されており、無人移動体1が当該検出マーク60の真下にある通過領域を通過するように構成しても良い。
また、検出マーク60は、通過ゲート50のうち、コースの進行方向においてスタート側に位置する前面側に取り付けられているが、特に限定されることなく、無人移動体レースのコースの取り決めによっては、通過ゲート50の後面側に取り付けられていても良い。
なお、通過ゲート50,150及び通過領域53,153の形状、配置についても適宜変更可能である。
In the above embodiment, as shown in FIGS. 1 and 4, the detection mark 60 is arranged so as to surround the passing area 53 of the passing gate 50, but the arrangement pattern of the detection mark 60 is not particularly limited. Can be changed as appropriate.
For example, the detection marks 60 may be arranged in a horizontal row above the passage gates 50 and 150, and the unmanned moving body 1 may be configured to pass through the passage region directly below the detection marks 60.
Further, the detection mark 60 is attached to the front side of the passing gate 50, which is located on the start side in the traveling direction of the course, but is not particularly limited, and may depend on the course arrangement of the unmanned moving body race. It may be attached to the rear surface side of the passage gate 50.
The shapes and arrangements of the passage gates 50 and 150 and the passage regions 53 and 153 can also be changed as appropriate.

上記実施形態において、図7に示すように、画面表示部33が、ゲート通過判定部35によって各無人移動体1が所定の通過ゲート50を通過したものと判定された「判定結果に基づく内容」をディスプレイ40上に表示している。
このとき、当該「判定結果に基づく内容」は、各無人移動体1の経過時間、現在位置に関する情報に特に限定されることなく、上記判定結果から得られるその他の情報、すなわち無人移動体レース中のその他のリアルタイムな情報も広く含むものであって良い。
例えば、無人移動体1が、所定の通過ゲート50の通過領域53の中心部分を上手く飛行した場合や、コースを外れてしまい本来通過すべき通過ゲート50以外の通過ゲート50を通過してしまった場合等に、ディスプレイ40上で所定の演出内容を表示させることも可能である。
そのほか、無人移動体レースで2基の無人移動体1が近接して飛行している場合には、ディスプレイ40上の表示画面を一部(又は全部)切り替えて、後ろ側の無人移動体1が撮影した映像を表示する等すれば、より臨場感あふれる演出態様が可能となる。
In the above embodiment, as shown in FIG. 7, the screen display unit 33 determines by the gate passage determination unit 35 that each unmanned moving body 1 has passed the predetermined passage gate 50, "contents based on the determination result". Is displayed on the display 40.
At this time, the "contents based on the determination result" is not particularly limited to the information regarding the elapsed time and the current position of each unmanned moving body 1, and other information obtained from the above determination result, that is, during the unmanned moving body race. Other real-time information of the above may also be broadly included.
For example, when the unmanned moving body 1 successfully flies over the central portion of the passing region 53 of the predetermined passing gate 50, or the unmanned moving body 1 goes off the course and passes through a passing gate 50 other than the passing gate 50 that should originally pass. In some cases, it is also possible to display a predetermined effect content on the display 40.
In addition, when two unmanned moving bodies 1 are flying close to each other in an unmanned moving body race, the display screen on the display 40 is partially (or all) switched so that the unmanned moving body 1 on the rear side changes. By displaying the captured image or the like, it is possible to create a more realistic production mode.

上記実施形態において、図8に示すように、ゲート通過判定部35が、取得した「映像データ」が示す映像内において検出マーク60が所定の条件で検出され、かつ、当該映像よりも後の映像内において全ての検出マーク60が検出されなくなったときに通過判定をしているが、特に限定されることなく変更可能である。
例えば、ゲート通過判定部35は、映像内において検出マーク60が単純に検出されたときに通過判定しても良い。または、検出マーク60が単純に検出され、かつ、後の映像内において全ての検出マークが検出されなくなったときに通過判定しても良い。
または、ゲート通過判定部35は、映像内において少なくとも2つ以上(3つ以上)の検出対象領域35b〜35eにおいて検出マーク60が検出され、かつ、後の映像内において少なくとも2つ以上(3つ以上)の検出対象領域35b〜35eにおいて検出マーク60が検出されなくなったときに通過判定する等しても良い。
または、ゲート通過判定部35は、検出対象外領域35aを特に設定することなく、映像内において検出マーク60を検出するようにしても良い。
In the above embodiment, as shown in FIG. 8, the gate passage determination unit 35 detects the detection mark 60 in the video indicated by the acquired “video data” under predetermined conditions, and the video is later than the video. The passage is determined when all the detection marks 60 are no longer detected, but the passage can be changed without particular limitation.
For example, the gate passage determination unit 35 may determine the passage when the detection mark 60 is simply detected in the video. Alternatively, the passage may be determined when the detection mark 60 is simply detected and all the detection marks are no longer detected in the subsequent video.
Alternatively, the gate passage determination unit 35 detects at least two or more (three or more) detection target areas 35b to 35e in the video, and at least two or more (three) detection marks 60 in the later video. When the detection mark 60 is no longer detected in the detection target areas 35b to 35e of the above), the passage may be determined.
Alternatively, the gate passage determination unit 35 may detect the detection mark 60 in the video without particularly setting the non-detection target region 35a.

上記実施形態において、図10に示すように、移動開始判定部38が、所定の無人移動体1が移動開始(不正スタート)したものと判定したとき、画面表示部33が、当該判定結果に基づく内容をディスプレイ40上に表示している。このとき、画面表示部33が、ディスプレイ40だけでなくヘッドマウントディスプレイ20上にも表示すると良い。
そのようにすれば、無人移動体レースを観戦している観戦者だけでなく、実際の操縦者に対しても不正スタートのリアルタイム情報を知らせることができる。
In the above embodiment, as shown in FIG. 10, when the movement start determination unit 38 determines that the predetermined unmanned moving body 1 has started moving (illegal start), the screen display unit 33 is based on the determination result. The contents are displayed on the display 40. At this time, it is preferable that the screen display unit 33 displays not only on the display 40 but also on the head-mounted display 20.
By doing so, it is possible to notify not only the spectators who are watching the unmanned mobile race but also the actual operator of the real-time information of the false start.

上記実施形態において、図11に示すように、移動開始判定部38が、無人移動体1から取得した第1映像と第2映像との差分を検出し、当該差分が所定の閾値以上であると判断し(第1条件)、かつ、第2映像と第3映像との差分を検出し、当該差分が所定の閾値以上であると判断した場合に(第2条件)、無人移動体1が移動開始したものと判定しているが、特に限定されることなく変更可能である。
例えば、移動開始判定部38が、上記第1条件のみを満たした場合に、無人移動体1が移動開始したものと判定しても良い。
なお、移動開始判定部38が、上記第1条件及び第2条件を連続して満たした場合に、無人移動体1が移動開始したものと判定することで、判定精度を高めることができる。例えば、無人移動体1が一時的に移動した後に停止したような状態を例外として処理することができる。
In the above embodiment, as shown in FIG. 11, the movement start determination unit 38 detects the difference between the first image and the second image acquired from the unmanned moving body 1, and determines that the difference is equal to or greater than a predetermined threshold value. When the judgment (first condition) and the difference between the second video and the third video are detected and it is determined that the difference is equal to or more than a predetermined threshold value (second condition), the unmanned moving body 1 moves. It is determined that it has started, but it can be changed without any particular limitation.
For example, when the movement start determination unit 38 satisfies only the first condition, it may be determined that the unmanned moving body 1 has started moving.
When the movement start determination unit 38 continuously satisfies the first condition and the second condition, it is determined that the unmanned moving body 1 has started moving, so that the determination accuracy can be improved. For example, a state in which the unmanned moving body 1 temporarily moves and then stops can be handled as an exception.

上記実施形態では、映像処理装置30が読み取り可能な記録媒体に映像処理プログラムが記憶されており、映像処理装置30が当該プログラムを読み出して実行することによって処理が実行される。ここで映像処理装置30が読み取り可能な記録媒体とは、磁気ディスク、光磁気ディスク、CD−ROM、DVD−ROM、半導体メモリ等をいう。
また、この映像処理プログラムを通信回線によって不図示のユーザー端末に配信し、この配信を受けたユーザー端末自身が、映像処理装置として機能し、当該プログラムを実行するように構成しても良い。
In the above embodiment, the video processing program is stored in a recording medium that can be read by the video processing device 30, and the processing is executed by the video processing device 30 reading and executing the program. Here, the recording medium that can be read by the video processing apparatus 30 refers to a magnetic disk, a magneto-optical disk, a CD-ROM, a DVD-ROM, a semiconductor memory, or the like.
Further, the video processing program may be distributed to a user terminal (not shown) by a communication line, and the user terminal itself receiving the distribution may function as a video processing device and execute the program.

上記実施形態では、主として本発明に係る無人移動体を用いた映像処理システム、映像処理方法及び映像処理装置に関して説明した。
ただし、上記の実施形態は、本発明の理解を容易にするための一例に過ぎず、本発明を限定するものではない。本発明は、その趣旨を逸脱することなく、変更、改良され得ると共に、本発明にはその等価物が含まれることは勿論である。
In the above embodiment, a video processing system, a video processing method, and a video processing apparatus using an unmanned moving body according to the present invention have been mainly described.
However, the above-described embodiment is merely an example for facilitating the understanding of the present invention, and does not limit the present invention. The present invention can be modified and improved without deviating from the gist thereof, and it goes without saying that the present invention includes an equivalent thereof.

S 映像処理システム
1 無人移動体(無人航空機)
1a 撮影装置
1b 送受信アンテナ
1c 移動ユニット
1d 駆動ユニット
1e プロセッサー
1f バッテリー
2 記憶部
3 操作データ受信部
4 映像データ送信部
10 操作端末
20 ヘッドマウントディスプレイ
30 映像処理装置
31 記憶部
32 映像データ取得部
33 画面表示部
33a 映像表示部
33b 経過時間表示部
33c 現在位置表示部
34 マーク検出部
35 ゲート通過判定部
35a 検出対象外領域
35b 第1検出対象領域
35c 第2検出対象領域
35d 第3検出対象領域
35e 第4検出対象領域
36 経過時間算出部
37 現在位置算出部
38 移動開始判定部
40 ディスプレイ
41 操縦者の画像
42 操縦者の名称
43 リアルタイム映像
44 総レース時間
45 ラップタイム
46 最速ラップタイム
47 ラップ数
48 現在の順位
49 コースマップ
49a 現在位置表示アイコン
50,150 通過ゲート
51,151 ゲート脚部
52,152 ゲート枠体部
53,153 通過領域
60 検出マーク
S Video processing system 1 Unmanned aerial vehicle (unmanned aerial vehicle)
1a Imaging device 1b Transmission / reception antenna 1c Mobile unit 1d Drive unit 1e Processor 1f Battery 2 Storage unit 3 Operation data reception unit 4 Video data transmission unit 10 Operation terminal 20 Head mount display 30 Video processing device 31 Storage unit 32 Video data acquisition unit 33 screen Display unit 33a Video display unit 33b Elapsed time display unit 33c Current position display unit 34 Mark detection unit
35 Gate passage determination unit 35a Non-detection target area 35b 1st detection target area 35c 2nd detection target area 35d 3rd detection target area 35e 4th detection target area 36 Elapsed time calculation unit 37 Current position calculation unit 38 Movement start determination unit 40 Display 41 Driver's image 42 Driver's name 43 Real-time video 44 Total race time 45 Lap time 46 Fastest lap time 47 Number of laps 48 Current rank 49 Course map 49a Current position display icon 50,150 Passing gate 51,151 Gate leg 52 , 152 Gate frame body 53, 153 Passing area 60 Detection mark

前記課題は、本発明の無人移動体を用いた映像処理システムによれば、撮影装置を搭載し、外部の映像を撮影しながら移動する無人移動体と、該無人移動体と無線通信によって接続され、前記撮影装置が撮影した映像を処理する映像処理装置と、を備えた映像処理システムであって、前記映像処理装置は、前記撮影装置が撮影した外部の映像を示す映像データを取得する映像データ取得部と、取得した前記映像データが示す映像を表示画面上に表示する画面表示部と、取得した前記映像データが示す映像内において検出対象となる検出マークが存在することを検出するマーク検出部と、前記映像内において前記検出マークが所定の条件で検出されたときに、検出された前記検出マークが設けられた通過ゲートを前記無人移動体が通過したものと判定するゲート通過判定部と、を有し、前記画面表示部は、前記映像とともに、前記無人移動体が前記通過ゲートを通過したものと判定した判定結果に基づく内容を前記表示画面上に表示し、前記映像処理システムは、所定の空間内に設置された前記通過ゲートに設けられる前記検出マークをさらに備え、該検出マークは、前記通過ゲートにおいて該通過ゲート内の通過領域を囲むようにして複数取り付けられていること、により解決される。
上記構成により、検出マークを利用して無人移動体が通過ゲートを通過したか否かを判定することで、無人移動体の位置を精度良く検出し、所定位置を通過したタイミングを精度良く計測することが可能な、無人移動体を用いた映像処理システムを実現することができる。
また例えば、無人移動体レースの運営にあたって、よりエンターテイメント性を高めるべく、無人移動体が通過ゲートを通過したものと判定した判定結果に基づく内容を表示画面上に表示することで、臨場感あふれる演出態様が可能な無人移動体を用いた映像処理システムを実現できる。
また上記のように、複数の検出マークの配置を工夫することで、当該検出マークを利用した無人移動体による通過ゲートの通過判定の精度をより高めることができる。
特に、通過ゲートがループ形状(トーラス形状)である場合には、無人移動体が当該通過ゲートの枠内を通過したか否かを判定するにあたって、好適な検出マークの配置パターンとなる。
According to the image processing system using the unmanned moving body of the present invention, the problem is that an unmanned moving body that is equipped with a photographing device and moves while shooting an external image is connected to the unmanned moving body by wireless communication. A video processing system including a video processing device that processes a video shot by the shooting device, wherein the video processing device acquires video data indicating an external video shot by the shooting device. An acquisition unit, a screen display unit that displays the image indicated by the acquired video data on the display screen, and a mark detection unit that detects the existence of a detection mark to be detected in the image indicated by the acquired video data. When the detection mark is detected in the video under predetermined conditions, the gate passage determination unit that determines that the unmanned moving body has passed through the passage gate provided with the detected detection mark. The screen display unit displays on the display screen the contents based on the determination result that the unmanned moving body has passed through the passing gate together with the video, and the video processing system determines. The detection mark is further provided in the passage gate installed in the space of the above, and the detection mark is solved by being attached in the passage gate so as to surround the passage area in the passage gate. ..
With the above configuration, the position of the unmanned moving body is accurately detected and the timing of passing the predetermined position is accurately measured by determining whether or not the unmanned moving body has passed through the passing gate using the detection mark. It is possible to realize a video processing system using an unmanned moving body, which is possible.
In addition, for example, in the operation of an unmanned moving body race, in order to further enhance entertainment, the content based on the judgment result that the unmanned moving body has passed through the passing gate is displayed on the display screen to produce a realistic effect. It is possible to realize a video processing system using an unmanned moving body capable of a mode.
Further, as described above, by devising the arrangement of the plurality of detection marks, the accuracy of the passage determination of the passing gate by the unmanned moving body using the detection marks can be further improved.
In particular, when the passing gate has a loop shape (torus shape), it becomes a suitable detection mark arrangement pattern in determining whether or not the unmanned moving body has passed through the frame of the passing gate.

また前記課題は、撮影装置を搭載し、外部の映像を撮影しながら移動する無人移動体と、該無人移動体と無線通信によって接続され、前記撮影装置が撮影した映像を処理する映像処理装置と、を備えた映像処理システムであって、前記映像処理装置は、前記撮影装置が撮影した外部の映像を示す映像データを取得する映像データ取得部と、取得した前記映像データが示す映像を表示画面上に表示する画面表示部と、取得した前記映像データが示す映像内において検出対象となる検出マークが存在することを検出するマーク検出部と、前記映像内において前記検出マークが所定の条件で検出されたときに、検出された前記検出マークが設けられた通過ゲートを前記無人移動体が通過したものと判定するゲート通過判定部と、を有し、前記画面表示部は、前記映像とともに、前記無人移動体が前記通過ゲートを通過したものと判定した判定結果に基づく内容を前記表示画面上に表示し、前記ゲート通過判定部は、所定の映像内において前記検出マークが検出され、かつ、所定の映像よりも後の映像内において前記検出マークが検出されなくなったときに、前記無人移動体が通過したものと判定すること、によっても解決される。Further, the subject is an unmanned moving body that is equipped with a photographing device and moves while shooting an external image, and a video processing device that is connected to the unmanned moving body by wireless communication and processes an image captured by the photographing device. A video processing system including, the video processing device includes a video data acquisition unit that acquires video data indicating an external image shot by the shooting device, and a display screen that displays the video indicated by the acquired video data. The screen display unit displayed above, the mark detection unit that detects the presence of a detection mark to be detected in the video indicated by the acquired video data, and the detection mark detected in the video under predetermined conditions. The screen display unit includes the gate passage determination unit for determining that the unmanned moving body has passed through the passage gate provided with the detection mark, and the screen display unit together with the image. The content based on the determination result of determining that the unmanned moving body has passed through the passage gate is displayed on the display screen, and the gate passage determination unit detects the detection mark in a predetermined image and determines. It is also solved by determining that the unmanned moving body has passed when the detection mark is no longer detected in the image after the above image.
上記構成により、検出マークを利用した無人移動体による通過ゲートの通過判定の精度をより一層高めることができる。With the above configuration, it is possible to further improve the accuracy of the passage determination of the passage gate by the unmanned moving body using the detection mark.

また前記課題は、撮影装置を搭載し、外部の映像を撮影しながら移動する無人移動体と、該無人移動体と無線通信によって接続され、前記撮影装置が撮影した映像を処理する映像処理装置と、を備えた映像処理システムであって、前記映像処理装置は、前記撮影装置が撮影した外部の映像を示す映像データを取得する映像データ取得部と、取得した前記映像データが示す映像を表示画面上に表示する画面表示部と、取得した前記映像データが示す映像内において検出対象となる検出マークが存在することを検出するマーク検出部と、前記映像内において前記検出マークが所定の条件で検出されたときに、検出された前記検出マークが設けられた通過ゲートを前記無人移動体が通過したものと判定するゲート通過判定部と、を有し、前記画面表示部は、前記映像とともに、前記無人移動体が前記通過ゲートを通過したものと判定した判定結果に基づく内容を前記表示画面上に表示し、前記ゲート通過判定部は、前記映像に対して4象限に区画された4つの検出対象領域を設定した上で、所定の映像内において第1象限となる第1検出対象領域、第2象限となる第2検出対象領域、第3象限となる第3検出対象領域、及び第4象限となる第4検出対象領域の全ての検出対象領域において前記検出マークが検出され、かつ、所定の映像よりも後の映像内において前記検出マークが検出されなくなったときに、前記無人移動体が通過したものと判定すること、によっても解決される。Further, the subject is an unmanned moving body that is equipped with a photographing device and moves while shooting an external image, and a video processing device that is connected to the unmanned moving body by wireless communication and processes an image captured by the photographing device. A video processing system including, the video processing device includes a video data acquisition unit that acquires video data indicating an external image shot by the shooting device, and a display screen that displays the video indicated by the acquired video data. The screen display unit displayed above, the mark detection unit that detects the presence of a detection mark to be detected in the video indicated by the acquired video data, and the detection mark detected in the video under predetermined conditions. The screen display unit includes the gate passage determination unit for determining that the unmanned moving body has passed through the passage gate provided with the detected detection mark, and the screen display unit together with the image. The content based on the determination result of determining that the unmanned moving object has passed through the passage gate is displayed on the display screen, and the gate passage determination unit has four detection targets divided into four quadrants with respect to the image. After setting the area, the first detection target area which is the first quadrant, the second detection target area which is the second quadrant, the third detection target area which is the third quadrant, and the fourth quadrant are set in the predetermined video. When the detection mark is detected in all the detection target areas of the fourth detection target area and the detection mark is no longer detected in the image after the predetermined image, the unmanned moving body has passed. It can also be solved by determining that it is.
上記構成により、検出マークを利用した無人移動体による通過ゲートの通過判定の精度をより一層高めることができる。With the above configuration, it is possible to further improve the accuracy of the passage determination of the passage gate by the unmanned moving body using the detection mark.

このとき、前記無人移動体は、小型の無人航空機であって、所定の空間内において予め定められたコースを移動し、前記映像処理装置は、複数の前記無人移動体毎に搭載された前記撮影装置によって撮影された映像を前記表示画面上に同時表示すると良い。At this time, the unmanned aerial vehicle is a small unmanned aerial vehicle that moves on a predetermined course in a predetermined space, and the video processing device is mounted on each of the plurality of the unmanned aerial vehicles. It is preferable that the images captured by the device are simultaneously displayed on the display screen.
上記構成により、例えば、小型無人航空機(ドローン)のレースの運営にあたって、よりエンターテイメント性を高めるべく、臨場感あふれる演出態様が可能な映像処理システムを実現することができる。With the above configuration, for example, in the operation of a race of a small unmanned aerial vehicle (drone), it is possible to realize a video processing system capable of producing a realistic effect in order to further enhance entertainment.

このとき、所定の空間内に設置された前記通過ゲートに設けられる前記検出マークをさらに備え、該検出マークは、2次元バーコードであって、前記所定の空間内に複数設置された前記通過ゲートのうち、いずれの通過ゲートであるかを特定するための識別データを格納していると良い。At this time, the detection mark provided on the passage gate installed in the predetermined space is further provided, and the detection mark is a two-dimensional bar code, and the passage gates are installed in a plurality in the predetermined space. Of these, it is preferable to store identification data for identifying which passage gate is used.
上記のように、検出マークとして2次元バーコードを採用することで、製造コストを抑えながらも、比較的容易に検出することが可能となる。As described above, by adopting the two-dimensional barcode as the detection mark, it is possible to detect it relatively easily while suppressing the manufacturing cost.
また、検出マークには識別データが格納されているため、無人移動体の現在位置をより精度良く検出することが可能となる。Further, since the identification data is stored in the detection mark, the current position of the unmanned moving body can be detected more accurately.

また、撮影装置を搭載し、外部の映像を撮影しながら移動する無人移動体と無線通信によって接続されたコンピュータが、前記撮影装置が撮影した映像を処理する映像処理方法であって、前記コンピュータが、前記撮影装置が撮影した外部の映像を示す映像データを取得する映像データ取得工程と、取得した前記映像データが示す映像を表示画面上に表示する第1画面表示工程と、取得した前記映像データが示す映像内において検出対象となる検出マークが存在することを検出するマーク検出工程と、前記映像内において前記検出マークが所定の条件で検出されたときに、検出された前記検出マークが設けられた通過ゲートを前記無人移動体が通過したものと判定するゲート通過判定工程と、前記映像とともに、前記無人移動体が前記通過ゲートを通過したものと判定した判定結果に基づく内容を前記表示画面上に表示する第2画面表示工程と、を実行し、前記ゲート通過判定工程では、所定の空間内に設置された前記通過ゲートにおいて該通過ゲート内の通過領域を囲むようにして複数取り付けられる前記検出マークが前記映像内において所定の条件で検出されたときに、前記無人移動体が通過したものと判定する、無人移動体を用いた映像処理方法も実現することができる。
また、上記ゲート通過判定工程では、所定の映像内において前記検出マークが検出され、かつ、所定の映像よりも後の映像内において前記検出マークが検出されなくなったときに、前記無人移動体が通過したものと判定する、無人移動体を用いた映像処理方法も実現できる。
Further, a computer equipped with a photographing device and connected to an unmanned moving body that moves while photographing an external image by wireless communication is a video processing method for processing the image captured by the photographing device, and the computer is , A video data acquisition step of acquiring video data indicating an external image shot by the photographing device, a first screen display step of displaying the image indicated by the acquired video data on a display screen, and the acquired video data. A mark detection step for detecting the presence of a detection mark to be detected in the image indicated by the above, and the detection mark detected when the detection mark is detected in the image under predetermined conditions are provided. On the display screen, the content based on the gate passage determination step of determining that the unmanned moving body has passed through the passing gate and the determination result of determining that the unmanned moving body has passed through the passing gate together with the video. In the gate passage determination step, a plurality of detection marks are attached so as to surround the passage area in the passage gate at the passage gate installed in a predetermined space. It is also possible to realize a video processing method using an unmanned moving body, which determines that the unmanned moving body has passed when it is detected in the video under predetermined conditions .
Further, in the gate passage determination step, when the detection mark is detected in a predetermined image and the detection mark is no longer detected in the image after the predetermined image, the unmanned moving body passes through. It is also possible to realize a video processing method using an unmanned moving object, which determines that the image has been processed.

また、撮影装置を搭載し、外部の映像を撮影しながら移動する前記無人移動体と無線通信によって接続され、前記撮影装置が撮影した映像を処理する映像処理装置であって、前記撮影装置が撮影した外部の映像を示す映像データを取得する映像データ取得部と、取得した前記映像データが示す映像内において検出対象となる検出マークが存在することを検出するマーク検出部と、前記映像内において前記検出マークが所定の条件で検出されたときに、検出された前記検出マークが設けられた通過ゲートを前記無人移動体が通過したものと判定するゲート通過判定部と、を有し、前記ゲート通過判定部は、所定の映像内において前記検出マークが検出され、かつ、所定の映像よりも後の映像内において前記検出マークが検出されなくなったときに、前記無人移動体が通過したものと判定する、無人移動体を用いた映像処理装置も実現することができる。
Further, it is a video processing device that is equipped with a shooting device and is connected to the unmanned moving body that moves while shooting an external image by wireless communication and processes the video shot by the shooting device, and the shooting device shoots the image. A video data acquisition unit that acquires video data indicating the external video, a mark detection unit that detects the presence of a detection mark to be detected in the video indicated by the acquired video data, and the above-mentioned in the video. when the detection mark is detected at a predetermined condition, the passgate the detected the detected mark is provided to have a, a gate passage judgment section determines that the unmanned movable body has passed, the gate passage The determination unit determines that the unmanned moving body has passed when the detection mark is detected in the predetermined video and the detection mark is no longer detected in the video after the predetermined video. , A video processing device using an unmanned moving body can also be realized.

Claims (10)

撮影装置を搭載し、外部の映像を撮影しながら移動する無人移動体と、
該無人移動体と無線通信によって接続され、前記撮影装置が撮影した映像を処理する映像処理装置と、を備えた映像処理システムであって、
前記映像処理装置は、
前記撮影装置が撮影した外部の映像を示す映像データを取得する映像データ取得部と、
取得した前記映像データが示す映像を表示画面上に表示する画面表示部と、
取得した前記映像データが示す映像内において検出対象となる検出マークが存在することを検出するマーク検出部と、
前記映像内において前記検出マークが所定の条件で検出されたときに、検出された前記検出マークが設けられた通過ゲートを前記無人移動体が通過したものと判定するゲート通過判定部と、を有し、
前記画面表示部は、前記映像とともに、前記無人移動体が前記通過ゲートを通過したものと判定した判定結果に基づく内容を前記表示画面上に表示することを特徴とする無人移動体を用いた映像処理システム。
An unmanned mobile body equipped with a shooting device and moving while shooting external images,
An image processing system including an image processing device that is connected to the unmanned mobile body by wireless communication and processes an image taken by the photographing device.
The video processing device
A video data acquisition unit that acquires video data indicating an external video shot by the shooting device, and
A screen display unit that displays the video indicated by the acquired video data on the display screen, and
A mark detection unit that detects the existence of a detection mark to be detected in the video indicated by the acquired video data, and a mark detection unit.
When the detection mark is detected in the video under predetermined conditions, it has a gate passage determination unit that determines that the unmanned moving body has passed through the passage gate provided with the detected detection mark. And
The screen display unit is an image using the unmanned moving body, which displays on the display screen the contents based on the determination result that the unmanned moving body has passed through the passing gate together with the video. Processing system.
前記無人移動体は、小型の無人航空機であって、所定の空間内において予め定められたコースを移動し、
前記画面表示部は、複数の前記無人移動体毎に搭載された前記撮影装置によって撮影された映像を前記表示画面上に同時表示することを特徴とする請求項1に記載の無人移動体を用いた映像処理システム。
The unmanned aerial vehicle is a small unmanned aerial vehicle that travels on a predetermined course in a predetermined space.
The screen display unit uses the unmanned moving body according to claim 1, wherein the image taken by the photographing device mounted on each of the plurality of unmanned moving bodies is simultaneously displayed on the display screen. The video processing system that was there.
所定の空間内に設置された前記通過ゲートに設けられる前記検出マークをさらに備え、
該検出マークは、前記通過ゲートにおいて該通過ゲート内の通過領域を囲むようにして複数取り付けられていることを特徴とする請求項1又は2に記載の無人移動体を用いた映像処理システム。
Further provided with the detection mark provided on the passage gate installed in a predetermined space,
The image processing system using an unmanned moving body according to claim 1 or 2, wherein a plurality of the detection marks are attached at the passing gate so as to surround the passing area in the passing gate.
所定の空間内に設置された前記通過ゲートに設けられる前記検出マークをさらに備え、
該検出マークは、2次元バーコードであって、前記所定の空間内に複数設置された前記通過ゲートのうち、いずれの通過ゲートであるかを特定するための識別データを格納していることを特徴とする請求項1乃至3のいずれか1項に記載の無人移動体を用いた映像処理システム。
Further provided with the detection mark provided on the passage gate installed in a predetermined space,
The detection mark is a two-dimensional bar code, and stores identification data for identifying which of the passage gates installed in the predetermined space. The video processing system using the unmanned moving object according to any one of claims 1 to 3, which is characterized.
前記ゲート通過判定部は、前記映像の中心部分において前記通過ゲート内の通過領域よりも小さい領域を検出対象外領域として設定した上で、所定の映像内において前記検出対象外領域とは異なる領域において前記検出マークが検出され、かつ、所定の映像よりも後の映像内において前記検出マークが検出されなくなったときに、前記無人移動体が通過したものと判定することを特徴とする請求項1乃至4のいずれか1項に記載の無人移動体を用いた映像処理システム。 The gate passage determination unit sets a region smaller than the passage region in the passage gate in the central portion of the video as a non-detection target region, and then in a region different from the non-detection target region in the predetermined video. Claims 1 to 1, wherein when the detection mark is detected and the detection mark is no longer detected in the image after the predetermined image, it is determined that the unmanned moving body has passed. A video processing system using the unmanned moving object according to any one of 4. 前記ゲート通過判定部は、前記映像に対して4象限に区画された4つの検出対象領域を設定した上で、所定の映像内において第1象限となる第1検出対象領域、第2象限となる第2検出対象領域、第3象限となる第3検出対象領域、及び第4象限となる第4検出対象領域の全ての検出対象領域において前記検出マークが検出され、かつ、所定の映像よりも後の映像内において前記検出マークが検出されなくなったときに、前記無人移動体が通過したものと判定することを特徴とする請求項1乃至5のいずれか1項に記載の無人移動体を用いた映像処理システム。 The gate passage determination unit sets four detection target areas divided into four quadrants with respect to the image, and then becomes the first detection target area and the second quadrant which are the first quadrants in the predetermined image. The detection mark is detected in all the detection target areas of the second detection target area, the third detection target area in the third quadrant, and the fourth detection target area in the fourth quadrant, and after the predetermined image. The unmanned moving body according to any one of claims 1 to 5, wherein it is determined that the unmanned moving body has passed when the detection mark is no longer detected in the video. Video processing system. 前記映像処理装置は、前記ゲート通過判定部による前記判定結果から、前記無人移動体が所定のスタート位置から所定の通過ゲートを通過するまでに要した経過時間を算出する経過時間算出部を有し、
前記画面表示部は、前記映像とともに、前記経過時間算出部によって算出された経過時間に関する内容を前記表示画面上に表示することを特徴とする請求項1乃至6のいずれか1項に記載の無人移動体を用いた映像処理システム。
The video processing device has an elapsed time calculation unit that calculates the elapsed time required for the unmanned moving object to pass through a predetermined passing gate from a predetermined start position from the determination result by the gate passage determining unit. ,
The unmanned person according to any one of claims 1 to 6, wherein the screen display unit displays on the display screen the contents related to the elapsed time calculated by the elapsed time calculation unit together with the video. A video processing system that uses a moving object.
前記映像処理装置は、前記ゲート通過判定部による前記判定結果から、前記所定の空間内において前記無人移動体の現在位置を算出する現在位置算出部を有し、
前記画面表示部は、前記映像とともに、前記現在位置算出部によって算出された現在位置に関する内容を前記表示画面上に表示することを特徴とする請求項1乃至7のいずれか1項に記載の無人移動体を用いた映像処理システム。
The video processing device has a current position calculation unit that calculates the current position of the unmanned moving body in the predetermined space from the determination result by the gate passage determination unit.
The unmanned person according to any one of claims 1 to 7, wherein the screen display unit displays the contents related to the current position calculated by the current position calculation unit together with the video on the display screen. A video processing system that uses a moving object.
撮影装置を搭載し、外部の映像を撮影しながら移動する無人移動体と無線通信によって接続されたコンピュータが、前記撮影装置が撮影した映像を処理する映像処理方法であって、
前記コンピュータが、
前記撮影装置が撮影した外部の映像を示す映像データを取得する映像データ取得工程と、
取得した前記映像データが示す映像を表示画面上に表示する第1画面表示工程と、
取得した前記映像データが示す映像内において検出対象となる検出マークが存在することを検出するマーク検出工程と、
前記映像内において前記検出マークが所定の条件で検出されたときに、検出された前記検出マークが設けられた通過ゲートを前記無人移動体が通過したものと判定するゲート通過判定工程と、
前記映像とともに、前記無人移動体が前記通過ゲートを通過したものと判定した判定結果に基づく内容を前記表示画面上に表示する第2画面表示工程と、を実行することを特徴とする無人移動体を用いた映像処理方法。
A video processing method in which a computer equipped with a shooting device and connected to an unmanned mobile body that moves while shooting an external image by wireless communication processes the video shot by the shooting device.
The computer
A video data acquisition process for acquiring video data indicating an external video shot by the shooting device, and
The first screen display process of displaying the video indicated by the acquired video data on the display screen, and
A mark detection step for detecting the existence of a detection mark to be detected in the video indicated by the acquired video data, and a mark detection step.
When the detection mark is detected in the video under predetermined conditions, a gate passage determination step of determining that the unmanned moving body has passed through the passage gate provided with the detected detection mark.
An unmanned moving body characterized by executing a second screen display step of displaying on the display screen the contents based on the determination result that the unmanned moving body has passed through the passing gate together with the video. Video processing method using.
撮影装置を搭載し、外部の映像を撮影しながら移動する前記無人移動体と無線通信によって接続され、前記撮影装置が撮影した映像を処理する映像処理装置であって、
前記撮影装置が撮影した外部の映像を示す映像データを取得する映像データ取得部と、
取得した前記映像データが示す映像内において検出対象となる検出マークが存在することを検出するマーク検出部と、
前記映像内において前記検出マークが所定の条件で検出されたときに、検出された前記検出マークが設けられた通過ゲートを前記無人移動体が通過したものと判定するゲート通過判定部と、を有することを特徴とする無人移動体を用いた映像処理装置。

An image processing device that is equipped with a photographing device and is connected to the unmanned mobile body that moves while photographing an external image by wireless communication to process the image captured by the photographing device.
A video data acquisition unit that acquires video data indicating an external video shot by the shooting device, and
A mark detection unit that detects the existence of a detection mark to be detected in the video indicated by the acquired video data, and a mark detection unit.
It has a gate passage determination unit that determines that the unmanned moving body has passed through the passage gate provided with the detected detection mark when the detection mark is detected in the video under predetermined conditions. An image processing device using an unmanned moving object.

JP2019197746A 2019-05-21 2019-10-30 Video processing system, video processing method and video processing device using unmanned moving object Active JP6810486B2 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
US17/612,249 US20220197279A1 (en) 2019-05-21 2020-02-21 Image processing system, image processing method, and image processing device using unmanned mobile body
PCT/JP2020/007260 WO2020235161A1 (en) 2019-05-21 2020-02-21 Image processing system using unmanned mobile body, image processing method, and image processing device
JP2020201524A JP7355390B2 (en) 2019-05-21 2020-12-04 Video processing device, video processing method, and video processing program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2019095492 2019-05-21
JP2019095492 2019-05-21

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2020201524A Division JP7355390B2 (en) 2019-05-21 2020-12-04 Video processing device, video processing method, and video processing program

Publications (2)

Publication Number Publication Date
JP2020194519A true JP2020194519A (en) 2020-12-03
JP6810486B2 JP6810486B2 (en) 2021-01-06

Family

ID=73546392

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019197746A Active JP6810486B2 (en) 2019-05-21 2019-10-30 Video processing system, video processing method and video processing device using unmanned moving object

Country Status (1)

Country Link
JP (1) JP6810486B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021112060A1 (en) 2019-12-02 2021-06-10 三菱マテリアル株式会社 Copper/ceramic bonded body, insulating circuit board, method for producing copper/ceramic bonded body, and method for producing insulating circuit board
JP2023004807A (en) * 2021-06-24 2023-01-17 仁宝電脳工業股▲ふん▼有限公司 Rendering method of drone game

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015212621A (en) * 2014-04-17 2015-11-26 善郎 水野 System including marker device, and method utilizing the same
US20180036632A1 (en) * 2016-08-03 2018-02-08 OnPoynt Unmanned Systems L.L.C. d/b/a OnPoynt Aerial Solutions System and method for conducting a drone race or game

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015212621A (en) * 2014-04-17 2015-11-26 善郎 水野 System including marker device, and method utilizing the same
US20180036632A1 (en) * 2016-08-03 2018-02-08 OnPoynt Unmanned Systems L.L.C. d/b/a OnPoynt Aerial Solutions System and method for conducting a drone race or game

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021112060A1 (en) 2019-12-02 2021-06-10 三菱マテリアル株式会社 Copper/ceramic bonded body, insulating circuit board, method for producing copper/ceramic bonded body, and method for producing insulating circuit board
JP2023004807A (en) * 2021-06-24 2023-01-17 仁宝電脳工業股▲ふん▼有限公司 Rendering method of drone game
US11623150B2 (en) 2021-06-24 2023-04-11 Compal Electronics, Inc Rendering method for drone game
JP7269300B2 (en) 2021-06-24 2023-05-08 仁宝電脳工業股▲ふん▼有限公司 How to render a drone game

Also Published As

Publication number Publication date
JP6810486B2 (en) 2021-01-06

Similar Documents

Publication Publication Date Title
CN110114735B (en) Capturing images of a race by an unmanned autonomous vehicle
US9886033B2 (en) System for piloting a drone in immersion
TWI543088B (en) System and method for geographic data acquisition by user motivation
AU2008339124B2 (en) Vehicle competition implementation system
US20040135677A1 (en) Use of the data stored by a racing car positioning system for supporting computer-based simulation games
KR102166179B1 (en) Gate with Multi Sensors for Detecting Drone Passage and Drone Game System using the same
JP6810486B2 (en) Video processing system, video processing method and video processing device using unmanned moving object
CN108473201B (en) Unmanned aerial vehicle retraction system, unmanned aerial vehicle retraction method, and recording medium
US20200097026A1 (en) Method, device, and system for adjusting attitude of a device and computer-readable storage medium
WO2020235161A1 (en) Image processing system using unmanned mobile body, image processing method, and image processing device
JPH10314357A (en) Play display device
CN110248711B (en) Competition system and method for unmanned aerial vehicle
KR102108170B1 (en) Golf Drones
CN110548276A (en) Court auxiliary penalty system
KR101746125B1 (en) Virtual device and method of flying disk game
US20220111284A1 (en) Method and system for golf training
JPWO2018198317A1 (en) Unmanned airborne aerial imaging system, method and program
JP7237504B2 (en) measuring system
JP2018102663A (en) Golf information providing system
WO2021215483A1 (en) Video processing system using unmanned moving body, video processing method, and video processing device
CN110574365B (en) Image generation device and image generation method
JP6363928B2 (en) Play facilities
CN111330248B (en) Golf entertainment system and golf game method
US20220339496A1 (en) Ball position identification system, ball position identification method and information storage medium
JP2022104059A (en) Score acquisition game system, unmanned aircraft, control method, and control program

Legal Events

Date Code Title Description
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7426

Effective date: 20191119

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20200708

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20200709

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201015

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201015

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20201015

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20201020

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201027

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201030

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20201117

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20201204

R150 Certificate of patent or registration of utility model

Ref document number: 6810486

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150