JP7397482B2 - Video processing system, video processing method, and video processing device using unmanned moving objects - Google Patents

Video processing system, video processing method, and video processing device using unmanned moving objects Download PDF

Info

Publication number
JP7397482B2
JP7397482B2 JP2020076210A JP2020076210A JP7397482B2 JP 7397482 B2 JP7397482 B2 JP 7397482B2 JP 2020076210 A JP2020076210 A JP 2020076210A JP 2020076210 A JP2020076210 A JP 2020076210A JP 7397482 B2 JP7397482 B2 JP 7397482B2
Authority
JP
Japan
Prior art keywords
unmanned
unmanned moving
video
moving object
predetermined
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020076210A
Other languages
Japanese (ja)
Other versions
JP2021171232A (en
Inventor
俊久 清宮
貴文 松留
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
SPICY DRONE KITCHEN CORPORATION
Original Assignee
SPICY DRONE KITCHEN CORPORATION
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by SPICY DRONE KITCHEN CORPORATION filed Critical SPICY DRONE KITCHEN CORPORATION
Priority to JP2020076210A priority Critical patent/JP7397482B2/en
Priority to PCT/JP2021/016219 priority patent/WO2021215483A1/en
Publication of JP2021171232A publication Critical patent/JP2021171232A/en
Application granted granted Critical
Publication of JP7397482B2 publication Critical patent/JP7397482B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63BAPPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
    • A63B71/00Games or sports accessories not covered in groups A63B1/00 - A63B69/00
    • A63B71/06Indicating or scoring devices for games or players, or for other sports activities
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F9/00Games not otherwise provided for
    • A63F9/14Racing games, traffic games, or obstacle games characterised by figures moved by action of the players
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63HTOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
    • A63H18/00Highways or trackways for toys; Propulsion by special interaction between vehicle and track
    • A63H18/02Construction or arrangement of the trackway

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Physical Education & Sports Medicine (AREA)
  • Toys (AREA)
  • Closed-Circuit Television Systems (AREA)

Description

本発明は、無人移動体を用いた映像処理システム、映像処理方法及び映像処理装置に係り、特に、撮影装置を搭載し、外部の映像を撮影しながら移動する複数の無人移動体を用いた映像処理システム、映像処理方法及び映像処理装置に関する。 The present invention relates to a video processing system, a video processing method, and a video processing device using unmanned moving bodies, and particularly relates to a video processing system, a video processing method, and a video processing device using unmanned moving bodies, and in particular, the present invention relates to an image processing system, a video processing method, and a video processing device using unmanned moving bodies. The present invention relates to a processing system, a video processing method, and a video processing device.

近年、リチウムイオン電池の普及や、微小電気機械システム(MEMS:Micrо Electrо Mechanical Systems)、ジャイロスコープ及び加速度センサ等の電子機器の小型化、低価格化に伴って、遠隔操作が容易な無人移動体(例えば、ドローン)が市販されるようになっている。そして、無人移動体の操作技量を競うためのレースが国内外の各地で開催されており、新モータースポーツとして、また身近なエンターテイメントとして注目されている。 In recent years, with the spread of lithium-ion batteries and the miniaturization and cost reduction of electronic devices such as microelectromechanical systems (MEMS), gyroscopes, and acceleration sensors, unmanned vehicles that can be easily controlled remotely have become popular. (e.g., drones) are becoming commercially available. Races to compete in the skill of operating unmanned vehicles are held in various parts of Japan and abroad, and are attracting attention as a new motor sport and as a form of familiar entertainment.

無人移動体レース(例えば、ドローンレース)では、操縦者がヘッドマウントディスプレイを着用し、ドローンの前方に搭載された撮影装置から送信されるリアルタイム映像を見ながら遠隔操作することができ、閲覧者は大型ディスプレイ上で当該リアルタイム映像を観戦することができる。
また、無人移動体レースでは、各無人移動体のラップタイムを計測し、計測したラップタイムを大型ディスプレイ上に表示することで競技性を高める演出がなされている(例えば、特許文献1に記載のラジオコントロールカーのラップタイム測定装置や、特許文献2に記載の自転車競技のタイム計測システム等がある)。
In unmanned mobile vehicle races (for example, drone races), the pilot wears a head-mounted display and can remotely control the drone while viewing real-time images transmitted from a camera mounted on the front of the drone. You can watch the real-time video on a large display.
In addition, in unmanned vehicle races, the lap time of each unmanned vehicle is measured and the measured lap time is displayed on a large display to enhance the competitiveness (for example, the radio control described in Patent Document 1 Examples include a car lap time measuring device and a bicycle race time measuring system described in Patent Document 2).

特開2009-118878号公報JP2009-118878A 特開2002-109594号公報Japanese Patent Application Publication No. 2002-109594

ところで、上記のような無人移動体レースの運営にあたっては、操縦者及び閲覧者が、無人移動体に搭載された撮影装置から送信されるリアルタイム映像を観賞できるところ、より高いエンターテイメント性が期待されており、より臨場感あふれる演出態様が期待されていた。
詳しく述べると、拡張現実(AR:Augmented Reality)の技術によって、リアル映像に仮想的な視覚情報を重ねて表示できるところ、当該拡張現実をラジオコントロール(RC:Radio Control)の技術とさらに組み合わせることで、現実世界と仮想世界を融合させた新しい体験を提供する無人移動体レースの演出態様が期待されていた。
こうした演出態様は、試験運用が始まった第5世代移動通信システム(5G)による大容量・低遅延通信技術の登場に伴って、より高精細なレベルで実現されることも期待されていた。
By the way, when operating the above-mentioned unmanned vehicle race, it is expected that the operator and viewers will be able to watch real-time video transmitted from the camera mounted on the unmanned vehicle, which will provide even higher entertainment value. A more immersive production style was expected.
To be more specific, augmented reality (AR) technology allows virtual visual information to be superimposed on real images, and by further combining this augmented reality with radio control (RC) technology. , the presentation of an unmanned mobile vehicle race that provides a new experience that combines the real world and the virtual world has been expected.
It was expected that this type of presentation would be realized at an even higher definition level with the advent of high-capacity, low-latency communication technology through the 5th generation mobile communication system (5G), which has begun trial operation.

そのほか、無人移動体レースにおける演出態様に特に限定されることなく、撮影装置を搭載した無人移動体を複数用いた新規の映像処理システムとしてビジネスに応用させることも求められていた。 In addition, there has also been a demand for application to business as a new video processing system that uses a plurality of unmanned moving bodies equipped with photographing devices, without being particularly limited to the production mode of unmanned moving body races.

本発明は、上記の課題に鑑みてなされたものであり、本発明の目的は、撮影装置を搭載した無人移動体を複数用いた新規の映像処理システム、映像処理方法及び映像処理装置を提供することにある。
また、本発明の他の目的は、無人移動体レースの運営にあたって、より高いエンターテイメント性を提供することが可能な無人移動体を用いた映像処理システム、映像処理方法及び映像処理装置を提供することにある。
また、本発明の他の目的は、現実世界と仮想世界を融合させた新しい体験を提供することが可能な無人移動体を用いた映像処理システム、映像処理方法及び映像処理装置を提供することにある。
The present invention has been made in view of the above-mentioned problems, and an object of the present invention is to provide a novel video processing system, a video processing method, and a video processing device that use a plurality of unmanned moving objects equipped with photographing devices. There is a particular thing.
Another object of the present invention is to provide a video processing system, a video processing method, and a video processing device using unmanned moving objects that can provide higher entertainment in operating an unmanned moving object race. It is in.
Another object of the present invention is to provide a video processing system, a video processing method, and a video processing device using an unmanned moving object that can provide a new experience that combines the real world and the virtual world. be.

前記課題は、本発明の無人移動体を用いた映像処理システムによれば、撮影装置を搭載し、外部の映像を撮影しながら移動する複数の無人移動体と、該無人移動体と無線通信によって接続され、前記無人移動体が撮影した映像を処理する映像処理装置と、を備えた映像処理システムであって、前記映像処理装置は、前記無人移動体が撮影した映像を示す映像データを取得する映像データ取得部と、取得した前記映像データが示す映像を表示画面上に表示する画面表示部と、取得した前記映像データが示す映像内において検出対象となる識別マークが存在することを検出するマーク検出部と、前記識別マークが検出されたときに、検出された前記識別マークが設けられた前記無人移動体が、いずれの無人移動体であるかを識別する移動体識別部と、を有し、第1の無人移動体によって撮影された映像内において所定の識別マークを検出し、該所定の識別マークが設けられた無人移動体が第2の無人移動体であることを識別したときに、前記画面表示部は、前記第1の無人移動体によって撮影された映像を表示するとともに、前記第2の無人移動体に関する情報を前記映像上の対象位置に表示すること、により解決される。
上記構成により、無人移動体レースの運営にあたって、より高いエンターテイメント性を提供することが可能な無人移動体を用いた映像処理システムを実現することができる。
詳しく述べると、各無人移動体に設けられた識別マークを利用することで、映像処理装置が、第1の無人移動体によって撮影された映像を表示するとともに、第2の無人移動体に関する情報を映像上の対象位置に表示(拡張表示)することができる。そのため、無人移動体レースの運営にあたって、操縦者及び閲覧者に現実世界と仮想世界を融合させた新しい体験を提供することができる。
According to the video processing system using unmanned moving bodies of the present invention, the above problem can be solved by a plurality of unmanned moving bodies equipped with photographing devices and moving while photographing external images, and by wireless communication with the unmanned mobile bodies. A video processing system comprising: a video processing device connected to the unmanned mobile object to process the video shot by the unmanned moving object, the video processing device acquiring video data indicating the video shot by the unmanned moving object. a video data acquisition unit; a screen display unit that displays a video indicated by the acquired video data on a display screen; and a mark that detects the presence of an identification mark to be detected in the video indicated by the acquired video data. a detection unit; and a mobile body identification unit that identifies which unmanned mobile body is the unmanned mobile body provided with the detected identification mark when the identification mark is detected. , when detecting a predetermined identification mark in the video shot by the first unmanned moving object and identifying that the unmanned moving object provided with the predetermined identification mark is the second unmanned moving object, The problem is solved by the screen display unit displaying the image taken by the first unmanned moving object and displaying information regarding the second unmanned moving object at a target position on the image.
With the above configuration, it is possible to realize a video processing system using an unmanned moving object that can provide higher entertainment in operating an unmanned moving object race.
Specifically, by using the identification mark provided on each unmanned moving object, the video processing device displays the image taken by the first unmanned moving object, and also displays information regarding the second unmanned moving object. It can be displayed (extended display) at the target position on the video. Therefore, when operating an unmanned mobile vehicle race, it is possible to provide the pilots and viewers with a new experience that combines the real world and the virtual world.

このとき、前記無人移動体は、操作端末によって遠隔操作され、予め定められたコースを移動し、前記マーク検出部は、取得した前記映像データが示す映像内において検出対象となる第2識別マークが存在することを検出し、前記映像処理装置は、前記映像内において前記第2識別マークが検出されたときに、検出された前記第2識別マークが設けられた通過ゲートを前記無人移動体が通過したものと判定するゲート通過判定部をさらに有し、前記マーク検出部が、前記第1の無人移動体によって撮影された映像内において、所定の通過ゲートに設けられた前記第2識別マークが存在することを検出したときに、前記画面表示部は、前記映像を表示するとともに、前記第1の無人移動体が前記所定の通過ゲートを通過したものと判定した判定結果に基づく内容を表示すると良い。
上記構成により、第2識別マークを利用して無人移動体が通過ゲートを通過したか否かを判定することで、無人移動体の位置を精度良く検出し、所定位置を通過したタイミングを精度良く計測することができる。
また、無人移動体レースの運営にあたって、よりエンターテイメント性を高めるべく、無人移動体が通過ゲートを通過したものと判定した判定結果に基づく内容を表示画面上に表示することで、臨場感あふれる演出態様が可能となる。
At this time, the unmanned mobile object is remotely controlled by an operation terminal and moves along a predetermined course, and the mark detection section detects a second identification mark to be detected in the video indicated by the acquired video data. When the second identification mark is detected in the image, the video processing device causes the unmanned mobile object to pass through a passage gate provided with the detected second identification mark. The mark detection unit further includes a gate passage determination unit that determines that the second identification mark provided at the predetermined passage gate exists in the video shot by the first unmanned moving object. When it is detected that the first unmanned moving object has passed through the predetermined passage gate, the screen display unit may display the image and display content based on a determination result that the first unmanned moving object has passed through the predetermined passage gate. .
With the above configuration, by determining whether or not the unmanned moving object has passed through the passage gate using the second identification mark, the position of the unmanned moving object can be detected with high accuracy, and the timing of passing the predetermined position can be accurately determined. It can be measured.
In addition, in order to further enhance the entertainment value when operating an unmanned vehicle race, content based on the determination result that the unmanned vehicle has passed through the passage gate is displayed on the display screen, creating a realistic production mode. becomes possible.

このとき、前記無人移動体は、該無人移動体の前方位置又は中央位置に取り付けられ、前記無人移動体からの一人称視点による一人称映像を撮影する第1撮影装置と、前記無人移動体の後方位置又は前記無人移動体の本体よりも後方位置に取り付けられ、前記無人移動体自身の映像を含む三人称視点による三人称映像を撮影する第2撮影装置と、を搭載しており、前記画面表示部は、ユーザー操作による選択を受け付けて、前記無人移動体によって撮影された前記一人称映像と前記三人称映像とを切り替えて表示すると良い。
上記構成により、無人移動体レース中に操縦者(閲覧者)が一人称映像と三人称映像を切り替えて確認できるため、無人移動体レースの運営にあたって、より高いエンターテイメント性、臨場感あふれる演出態様を提供することができる。
At this time, the unmanned moving body includes a first imaging device that is attached to a front position or a central position of the unmanned moving body, and that shoots a first-person video from a first-person viewpoint from the unmanned moving body; or a second photographing device that is attached to a rear position of the main body of the unmanned moving body and shoots a third-person video from a third-person perspective including an image of the unmanned moving body itself, and the screen display unit is equipped with: It is preferable that the first-person video and the third-person video taken by the unmanned moving object be switched and displayed in response to a selection by a user operation.
With the above configuration, the operator (viewer) can switch between first-person and third-person images during the unmanned mobile vehicle race, thereby providing higher entertainment and a more immersive production mode when operating the unmanned mobile vehicle race. be able to.

このとき、前記無人移動体は、操作端末によって遠隔操作され、予め定められたコースを移動し、前記コース上の所定位置に設置され、前記コースを移動する前記無人移動体を撮影する複数の外部撮影装置をさらに備え、前記映像データ取得部は、前記外部撮影装置が撮影した映像を示す映像データを取得し、前記画面表示部は、ユーザー操作による選択を受け付けて、複数の前記無人移動体、複数の前記外部撮影装置によって撮影されたそれぞれの前記映像を切り替えて表示すると良い。
上記構成により、無人移動体レース中に、操縦者が無人移動体によって撮影された映像を確認するほか、コース上にある所定の外部撮影装置によって撮影された映像を確認することもできる。また、閲覧者は、複数の無人移動体の中から自分が閲覧したい無人移動体を選択し、選択した無人移動体によって撮影された映像を閲覧することができる。
At this time, the unmanned moving object is remotely controlled by an operating terminal, moves on a predetermined course, and is installed at a predetermined position on the course, and a plurality of external devices are installed at a predetermined position on the course and take pictures of the unmanned moving object moving on the course. The image data acquisition unit further includes a photographing device, and the video data acquisition unit acquires video data representing a video photographed by the external photographing device, and the screen display unit receives a selection by a user operation and displays a plurality of the unmanned moving objects, It is preferable that the images taken by the plurality of external photographing devices be switched and displayed.
With the above configuration, during the unmanned mobile vehicle race, the driver can not only check the images taken by the unmanned mobile object, but also check the images taken by a predetermined external photographing device located on the course. Furthermore, the viewer can select the unmanned moving object he/she wishes to view from among the plurality of unmanned moving objects, and view the video shot by the selected unmanned moving object.

このとき、前記無人移動体は、操作端末によって遠隔操作され、予め定められたコースを移動し、前記映像処理装置は、前記映像内において前記識別マークが所定の条件で検出されたときに、検出された前記識別マークが設けられた無人移動体が遠隔操作不能になったものと判定する操作不能判定部と、遠隔操作不能と判定した場合に、前記無人移動体を遠隔操作不能状態から復帰させるために、前記無人移動体に向けた所定の対応を行う操作不能対応部と、をさらに有していると良い。
上記構成により、無人移動体レース中に所定の無人移動体にトラブルが発生し、当該無人移動体が遠隔操作不能となった場合に、当該無人移動体に対してトラブルサポートを提供することができる。具体的なトラブルサポートとしては、無人移動体レースの運営者に向けてトラブルが発生した旨のユーザー報知を行うことや、待機中のドローンをトラブル発生地点まで向かわせて、当該無人移動体を救出、回収させるように制御することが考えられる。
At this time, the unmanned moving object is remotely controlled by an operating terminal and moves along a predetermined course, and the video processing device detects when the identification mark is detected in the video under a predetermined condition. an inoperability determining unit that determines that the unmanned moving object provided with the identification mark is inoperable, and returns the unmanned moving object from the inoperable state when it is determined that the unmanned moving object is inoperable. Therefore, it is preferable to further include an inoperability response unit that takes a predetermined response to the unmanned moving body.
With the above configuration, if a trouble occurs in a predetermined unmanned vehicle during an unmanned vehicle race and the unmanned vehicle becomes unable to be remotely controlled, trouble support can be provided to the unmanned vehicle. . Specific trouble support includes notifying the operator of an unmanned mobile vehicle race that a problem has occurred, and sending a waiting drone to the location where the problem occurred to rescue the unmanned vehicle. , it is conceivable to control it so that it is collected.

このとき、前記無人移動体は、操作端末によって遠隔操作され、予め定められたコースを移動し、前記映像処理装置は、複数の前記無人移動体を所定の条件でコース移動させるために、複数の前記無人移動体に向けた所定の対応制御を行う移動体制御部をさらに有し、該移動体制御部は、複数の前記無人移動体を所定のタイミングで移動開始させるために、複数の前記無人移動体の移動動作を制御すると良い。
上記構成により、無人移動体レースの運営を円滑に行うべく、必要に応じて複数の無人移動体の移動動作を制御することができる。
例えば、無人移動体レースのスタート時には、各無人移動体が所定のスタートポジションに辿り着くまで、各無人移動体の移動動作をサポート制御し、グリーンシグナルが点灯するまで各無人移動体の駆動ユニットを動作させないように制御することができる。
At this time, the unmanned moving objects are remotely controlled by an operating terminal to move along a predetermined course, and the image processing device is configured to move a plurality of unmanned moving objects along a predetermined course under predetermined conditions. The mobile body control unit further includes a mobile body control unit that performs predetermined response control for the unmanned mobile bodies, and the mobile body control unit controls the plurality of unmanned mobile bodies in order to start moving the plurality of unmanned mobile bodies at a predetermined timing. It is preferable to control the movement of the moving body.
With the above configuration, the moving operations of a plurality of unmanned moving bodies can be controlled as necessary in order to smoothly operate the unmanned moving body race.
For example, at the start of an unmanned vehicle race, the movement of each unmanned vehicle is supported and controlled until each unmanned vehicle reaches a predetermined starting position, and the drive unit of each unmanned vehicle is controlled until the green signal lights up. It can be controlled so that it does not operate.

このとき、前記無人移動体は、操作端末によって遠隔操作され、予め定められたコースを移動し、前記無人移動体の前面及び後面にそれぞれ設けられ、前記無人移動体に対して対象物が接触したことを検出する検出センサをさらに有し、前記映像処理装置は、複数の前記無人移動体を所定の条件でコース移動させるために、複数の前記無人移動体に向けた所定の対応制御を行う移動体制御部をさらに有し、該移動体制御部は、所定の無人移動体から前記検出センサの検出信号を受信したときに、前記所定の無人移動体の移動動作を所定時間、制限又は停止する制御を行うと良い。
上記構成により、無人移動体レース中に、所定の無人移動体同士が接触した場合、所定の無人移動体がコースサイドに接触した場合等に、当該無人移動体に対しペナルティを課すことができる。具体的なペナルティとしては、所定の時間が経過するまで無人移動体の移動動作を制限(減速)又は停止させること(ペナルティストップ)、ラップタイムに別途タイム加算すること(タイムペナルティ)等が考えられる。
また、無人移動体が接触したときの衝撃の度合いによって、ペナルティの内容を変更することも考えられる。
そうすることで、無人移動体レースの運営にあたって、より高いエンターテイメント性、臨場感あふれる演出態様を提供することができる。
At this time, the unmanned moving object is remotely controlled by an operating terminal, moves along a predetermined course, and is provided on the front and rear surfaces of the unmanned moving object, respectively, and the object comes into contact with the unmanned moving object. The image processing device further includes a detection sensor for detecting that the plurality of unmanned moving objects is moved in a predetermined manner in order to move the plurality of unmanned moving objects in a course under predetermined conditions. The mobile body control unit further includes a body control unit, and when receiving a detection signal of the detection sensor from a predetermined unmanned mobile body, the mobile body control unit limits or stops the movement operation of the predetermined unmanned mobile body for a predetermined period of time. It's good to have control.
With the above configuration, when predetermined unmanned moving objects come into contact with each other during an unmanned moving object race, when a predetermined unmanned moving object contacts the course side, etc., a penalty can be imposed on the unmanned moving object. Specific penalties include limiting (decelerating) or stopping the movement of the unmanned vehicle until a predetermined time has elapsed (penalty stop), adding additional time to the lap time (time penalty), and the like.
It is also conceivable to change the content of the penalty depending on the degree of impact when the unmanned moving object makes contact.
By doing so, it is possible to provide a higher level of entertainment and a more immersive production mode when operating an unmanned mobile race.

また前記課題は、撮影装置を搭載し、外部の映像を撮影しながら移動する複数の無人移動体と無線通信によって接続されたコンピュータが、前記無人移動体が撮影した映像を処理する映像処理方法であって、前記コンピュータが、前記無人移動体が撮影した映像を示す映像データを取得する映像データ取得工程と、取得した前記映像データが示す映像を表示画面上に表示する第1画面表示工程と、取得した前記映像データが示す映像内において検出対象となる識別マークが存在することを検出するマーク検出工程と、前記識別マークが検出されたときに、検出された前記識別マークが設けられた前記無人移動体が、いずれの無人移動体であるかを識別する移動体識別工程と、を実行し、前記マーク検出工程において、第1の無人移動体によって撮影された映像内において所定の識別マークを検出し、前記移動体識別工程において、前記所定の識別マークが設けられた無人移動体が第2の無人移動体であることを識別したときに、前記第1の無人移動体によって撮影された映像を表示するとともに、前記第2の無人移動体に関する情報を前記映像上の対象位置に表示する第2画面表示工程をさらに実行することを特徴とする無人移動体を用いた映像処理方法によっても解決される。 Further, the above-mentioned problem is directed to a video processing method in which a computer connected by wireless communication to a plurality of unmanned mobile bodies equipped with a photographing device and moving while photographing external images processes the images photographed by the unmanned mobile bodies. a video data acquisition step in which the computer acquires video data showing the video shot by the unmanned mobile object; and a first screen display step in which the computer displays the video shown by the acquired video data on a display screen. a mark detection step of detecting the presence of an identification mark to be detected in a video indicated by the acquired video data; and when the identification mark is detected, the unmanned vehicle on which the detected identification mark is provided. a moving object identification step of identifying which unmanned moving object the moving object is, and in the mark detection step, detecting a predetermined identification mark in the video shot by the first unmanned moving object; In the moving object identification step, when the unmanned moving object provided with the predetermined identification mark is identified as a second unmanned moving object, an image taken by the first unmanned moving object is The problem can also be solved by a video processing method using an unmanned moving object, which further comprises performing a second screen display step of displaying information regarding the second unmanned moving object at a target position on the image. Ru.

また前記課題は、撮影装置を搭載し、外部の映像を撮影しながら移動する複数の無人移動体と無線通信によって接続され、前記無人移動体が撮影した映像を処理する映像処理装置であって、前記無人移動体が撮影した映像を示す映像データを取得する映像データ取得部と、取得した前記映像データが示す映像を表示画面上に表示する画面表示部と、取得した前記映像データが示す映像内において検出対象となる識別マークが存在することを検出するマーク検出部と、前記識別マークが検出されたときに、検出された前記識別マークが設けられた前記無人移動体が、いずれの無人移動体であるかを識別する移動体識別部と、を有し、第1の無人移動体によって撮影された映像内において所定の識別マークを検出し、該所定の識別マークが設けられた無人移動体が第2の無人移動体であることを識別したときに、前記画面表示部は、前記第1の無人移動体によって撮影された映像上の対象位置に、前記第2の無人移動体に関する情報を重ねて表示することを特徴とする無人移動体を用いた映像処理装置によっても解決される。 The above-mentioned problem is also an image processing device that is equipped with a photographing device, is connected by wireless communication to a plurality of unmanned moving bodies that move while photographing external images, and processes the images photographed by the unmanned mobile bodies, a video data acquisition unit that acquires video data representing a video captured by the unmanned mobile object; a screen display unit that displays video represented by the acquired video data on a display screen; a mark detection unit that detects the presence of an identification mark to be detected in the detection unit; and a mark detection unit that detects the presence of an identification mark to be detected; a mobile object identification unit that detects a predetermined identification mark in the video shot by the first unmanned moving object, and identifies the unmanned moving object provided with the predetermined identification mark. When identifying that the object is the second unmanned moving object, the screen display section superimposes information regarding the second unmanned moving object at a target position on the video shot by the first unmanned moving object. The problem can also be solved by an image processing device using an unmanned moving object, which is characterized by displaying images.

本発明によれば、撮影装置を搭載した無人移動体を複数用いた新規の映像処理システム、映像処理方法及び映像処理装置を実現することができる。
また、無人移動体レースの運営にあたって、より高いエンターテイメント性を提供することが可能となる。
また、現実世界と仮想世界を融合させた新しい体験を提供することが可能となる。
According to the present invention, it is possible to realize a new video processing system, a new video processing method, and a new video processing device using a plurality of unmanned moving objects each equipped with a photographing device.
Furthermore, it becomes possible to provide higher entertainment value when operating an unmanned mobile race.
It will also be possible to provide a new experience that combines the real world and virtual world.

本実施形態の映像処理システム全体の構成図である。FIG. 1 is a configuration diagram of the entire video processing system according to the present embodiment. 無人移動体、操作端末、モニターの構成図である。FIG. 2 is a configuration diagram of an unmanned mobile object, an operation terminal, and a monitor. 無人移動体に取り付けられた撮影装置、識別マーク及び検出センサの位置を示す図である。FIG. 2 is a diagram showing the positions of a photographing device, an identification mark, and a detection sensor attached to an unmanned moving body. 識別マーク付きの通過ゲートを示す図である。It is a figure which shows the passage gate with an identification mark. 識別マーク付きの通過ゲートの変形例1を示す図である。It is a figure which shows the modification 1 of the passage gate with an identification mark. 識別マーク付きの通過ゲートの変形例2を示す図である。It is a figure which shows the modification 2 of the passage gate with an identification mark. 映像処理装置のハード構成図である。FIG. 1 is a hardware configuration diagram of a video processing device. 映像処理装置のソフト構成図である。FIG. 3 is a software configuration diagram of the video processing device. 画面表示部によって表示される表示画面を示す図である。FIG. 3 is a diagram showing a display screen displayed by a screen display section. 一人称視点(FPV)による表示画面を示す図である。FIG. 3 is a diagram showing a display screen from a first person perspective (FPV). 三人称視点(TPV)による表示画面を示す図である。FIG. 3 is a diagram showing a display screen from a third-person perspective (TPV). 俯瞰視点(BEV)による表示画面を示す図である。FIG. 3 is a diagram showing a display screen from a bird's-eye view (BEV). コースマップ全体が表示された切り替え表示画面を示す図である。FIG. 3 is a diagram showing a switching display screen on which the entire course map is displayed. 図7の表示画面においてモニター画面が表示された状態を示す図である。8 is a diagram showing a state in which a monitor screen is displayed on the display screen of FIG. 7. FIG. 図9の表示画面において広告が表示された状態を示す図である。10 is a diagram showing a state in which an advertisement is displayed on the display screen of FIG. 9. FIG. 図7の表示画面においてゴースト映像が表示された状態を示す図である。8 is a diagram showing a state in which a ghost image is displayed on the display screen of FIG. 7. FIG. 本実施形態の映像処理方法の一例を示す処理フロー図である。FIG. 2 is a processing flow diagram illustrating an example of the video processing method of the present embodiment.

以下、本発明に係る実施形態について図1-図13を参照して説明する。
本実施形態は、撮影装置を搭載し、外部の映像を撮影しながら移動する複数の無人移動体と、無人移動体と無線通信によって接続され、撮影装置が撮影した映像を処理する映像処理装置と、を備えた映像処理システムであって、映像処理装置は、無人移動体が撮影した映像を示す映像データを取得する映像データ取得部と、取得した映像データが示す映像を表示画面上に表示する画面表示部と、取得した映像データが示す映像内において検出対象となる識別マークが存在することを検出するマーク検出部と、識別マークが検出されたときに、検出された識別マークが設けられた無人移動体が、いずれの無人移動体であるかを識別する移動体識別部と、を有し、第1の無人移動体によって撮影された映像内において所定の識別マークを検出し、当該所定の識別マークが設けられた無人移動体が第2の無人移動体であることを識別したときに、画面表示部は、第1の無人移動体によって撮影された映像を表示するとともに、第2の無人移動体に関する情報を映像上の対象位置に表示することを主な特徴とする発明に関するものである。
Embodiments according to the present invention will be described below with reference to FIGS. 1 to 13.
This embodiment includes a plurality of unmanned moving objects equipped with photographing devices that move while photographing external images, and an image processing device that is connected to the unmanned mobile objects through wireless communication and processes the images shot by the photographing devices. A video processing system comprising: a video data acquisition unit that acquires video data representing video captured by an unmanned moving object; and a video data acquisition unit that displays video represented by the acquired video data on a display screen. a screen display unit; a mark detection unit that detects the presence of an identification mark to be detected in a video indicated by the acquired video data; The unmanned moving object has a moving object identification unit that identifies which unmanned moving object it is, and detects a predetermined identification mark in the video shot by the first unmanned moving object, and When the unmanned moving object provided with the identification mark is identified as the second unmanned moving object, the screen display section displays the image taken by the first unmanned moving object, and also displays the image taken by the second unmanned moving object. This invention relates to an invention whose main feature is to display information regarding a moving object at a target position on a video.

本実施形態の映像処理システムS全体の構成を図1-図4Aに示す。
映像処理システムSは、無人移動体レースを運営するためのシステムであって、撮影装置1aを搭載し、外部の映像を撮影しながら飛行する無人移動体1と、無人移動体1と無線通信によってそれぞれ接続され、無人移動体1を遠隔操作するための操作端末10と、撮影装置1aが撮影した外部映像を処理して表示画面上に表示する映像処理装置20と、映像処理装置20とそれぞれ接続され、操縦者向けの表示画面となるモニター30と、閲覧者向けの表示画面となるディスプレイ40及び携帯端末50と、無人移動体レースのコース上において間隔を空けて設置される外部撮影装置60及び通過ゲート70と、から主に構成されている。
なお、無人移動体レース中に所定の無人移動体1が遠隔操作不能となった場合に、当該無人移動体1を救出(回収)させるように制御すべく、救出ドローン80がコース上の所定位置で待機している。
The overall configuration of the video processing system S of this embodiment is shown in FIGS. 1-4A.
The video processing system S is a system for operating an unmanned mobile body race, and is a system for managing an unmanned mobile body 1 equipped with a photographing device 1a and flying while photographing external images, and an unmanned mobile body 1 through wireless communication with the unmanned mobile body 1. An operation terminal 10 for remotely controlling the unmanned mobile object 1, a video processing device 20 for processing external video captured by the photographing device 1a and displaying it on a display screen, and a video processing device 20 connected to each other. A monitor 30 serving as a display screen for the operator, a display 40 and a mobile terminal 50 serving as a display screen for viewers, and an external photographing device 60 installed at intervals on the course of the unmanned mobile race. It mainly consists of a passage gate 70.
In addition, when a predetermined unmanned moving object 1 becomes unable to be remotely controlled during an unmanned moving object race, the rescue drone 80 is moved to a predetermined position on the course in order to control the unmanned moving object 1 to be rescued (recovered). I'm waiting.

無人移動体1は、図1-図3に示すように、その正面側の外部映像を主に撮影しながら、所定のコース上を走行する小型のラジオコントロールカー(RCカー)であって、操作端末10及び映像処理装置20とデータ通信を行うものである。
無人移動体1は、複数用意されており、本システムにおいては、5機の無人移動体1が無人移動体レースに参戦し、予め定められたコースを走行する構成となっている。
なお、利用電波帯の関係によって同時に走行可能な無人移動体の数は制限されるものの、5Gの実用化に伴って世界中の操縦者(閲覧者)が参戦可能となり、同時に走行可能な無人移動体の数についても特に制限されることがなくなる。
As shown in FIGS. 1 to 3, the unmanned moving object 1 is a small radio-controlled car (RC car) that travels on a predetermined course while mainly taking external images of its front side. It performs data communication with the terminal 10 and the video processing device 20.
A plurality of unmanned moving objects 1 are prepared, and in this system, five unmanned moving objects 1 participate in an unmanned moving object race and travel on a predetermined course.
Although the number of unmanned vehicles that can run at the same time is limited depending on the radio band used, with the practical application of 5G, operators (viewers) from all over the world will be able to participate in the competition, and unmanned vehicles that can run at the same time will be able to operate at the same time. There are no particular restrictions on the number of bodies.

無人移動体1は、撮影装置1aと、送受信アンテナ1bと、移動ユニット1cと、駆動ユニット1dと、プロセッサー1eと、バッテリー1fと、識別マーク1gと、検出センサ1hと、から主に構成されており、それぞれ無人移動体1の本体に取り付けられている。 The unmanned mobile object 1 mainly includes a photographing device 1a, a transmitting/receiving antenna 1b, a moving unit 1c, a driving unit 1d, a processor 1e, a battery 1f, an identification mark 1g, and a detection sensor 1h. and are respectively attached to the main body of the unmanned vehicle 1.

撮影装置1a(第1撮影装置1aa)は、小型の撮影カメラであって、移動体本体の正面に取り付けられており、その正面側の外部映像を撮影して当該映像を記録する。そして、当該映像を示す映像データを作成するものである。
詳しく述べると、撮影装置1aは、小型の広角カメラであって、移動体本体の前後左右の外面にそれぞれ取り付けられた第1撮影装置1aa、第2撮影装置1ab、第3撮影装置1ac及び第4撮影装置1adを有している。
なお、撮影装置1aは、広角カメラに特に限定されることなく、例えば360度カメラであっても良い。360度カメラを採用した場合には、無人移動体1が複数の撮影装置を必ずしも備えていてなくて良い。
The photographing device 1a (first photographing device 1aa) is a small photographic camera, and is attached to the front of the main body of the moving body, and photographs an external image of the front side and records the image. Then, video data representing the video is created.
To be more specific, the photographing device 1a is a small wide-angle camera, and includes a first photographing device 1aa, a second photographing device 1ab, a third photographing device 1ac, and a fourth photographing device attached to the front, rear, left, and right outer surfaces of the main body of the moving body. It has a photographing device 1ad.
Note that the photographing device 1a is not particularly limited to a wide-angle camera, and may be, for example, a 360-degree camera. When a 360-degree camera is employed, the unmanned moving object 1 does not necessarily have to include a plurality of photographing devices.

第1撮影装置1aaは、無人移動体1の前方位置の上面に取り付けられ、無人移動体1からの一人称視点(FPV:First Person View)による「一人称映像」を撮影する(図8A参照)。
第2撮影装置1abは、無人移動体1の後方位置に設けられた羽根状のリアウイングの上面に取り付けられている。すなわち、移動体本体よりも後方位置に取り付けられている。そして、第2撮影装置1abは、無人移動体1自身の映像を含む三人称視点(TPV:Third Person View)による「三人称映像」を撮影する(図8B参照)。
第3撮影装置1ac、第4撮影装置1adは、無人移動体1の左右側方位置の外側面にそれぞれ取り付けられている。
撮影装置1aは、これら撮影装置1aa、1ab、1ac、1adによって撮影された映像を合成することで、俯瞰視点(BEV:Bird Eye View)による「俯瞰映像(俯瞰合成映像)」を生成することができる(図8C参照)。
The first photographing device 1aa is attached to the upper surface of the front position of the unmanned moving body 1, and photographs a “first person video” from a first person view (FPV) from the unmanned moving body 1 (see FIG. 8A).
The second photographing device 1ab is attached to the upper surface of a wing-shaped rear wing provided at a rear position of the unmanned vehicle 1. That is, it is attached at a rear position than the main body of the moving body. Then, the second photographing device 1ab photographs a "third person video" from a third person view (TPV) including a video of the unmanned moving object 1 itself (see FIG. 8B).
The third photographing device 1ac and the fourth photographing device 1ad are attached to the outer surface of the unmanned moving body 1 at the left and right side positions, respectively.
The photographing device 1a can generate a "bird's eye view video (bird's eye view composite video)" from a bird's eye view (BEV) by combining the videos taken by the photographing devices 1aa, 1ab, 1ac, and 1ad. Yes (see Figure 8C).

送受信アンテナ1bは、移動体本体の上端に取り付けられており、操作端末10から操作データを受信することや、映像処理装置20及びモニター30に向けて撮影した映像データを送信するものである。
移動ユニット1cは、移動体本体の四隅の下端に取り付けられた4本の車輪であって、駆動ユニット1dから駆動動力を受けて回転することで、また左右に向きを変えることで、無人移動体1を前後左右に移動させるものである。
駆動ユニット1dは、移動ユニット1cを駆動させるためのモーターであって、移動ユニット1cと接続されて取り付けられており、プロセッサー1eから受信した駆動命令に基づいて動作するものである。
The transmitting/receiving antenna 1b is attached to the upper end of the mobile body, and is used to receive operation data from the operation terminal 10 and to transmit captured video data to the video processing device 20 and monitor 30.
The moving unit 1c has four wheels attached to the lower ends of the four corners of the main body of the moving body, and receives driving power from the drive unit 1d to rotate and change direction left and right, thereby moving the unmanned moving body. 1 in the front, rear, left and right directions.
The drive unit 1d is a motor for driving the mobile unit 1c, is connected and attached to the mobile unit 1c, and operates based on a drive command received from the processor 1e.

プロセッサー1eは、データの演算・制御処理装置としてのCPUと、記憶装置としてのROM、RAM、及びHDDと、送受信アンテナ1bを通じて情報データの送受信を行う通信用インタフェースと、から主に構成されるマイクロプロセッサーであって、移動体本体の内部に取り付けられている。
バッテリー1fは、送受信アンテナ1b、駆動ユニット1d及びプロセッサー1eに電力を供給するためのリチウムイオン電池であって、移動体本体の下部に取り付けられている。
The processor 1e is a microprocessor mainly composed of a CPU as a data arithmetic/control processing device, ROM, RAM, and HDD as storage devices, and a communication interface for transmitting and receiving information data through a transmitting/receiving antenna 1b. A processor installed inside the mobile body.
The battery 1f is a lithium ion battery for supplying power to the transmitting/receiving antenna 1b, the drive unit 1d, and the processor 1e, and is attached to the lower part of the mobile body.

識別マーク1gは、2次元バーコードであって、移動体本体の上下前後左右の外面にそれぞれ取り付けられており、複数の無人移動体1のうち、いずれの無人移動体1であるか、また無人移動体1のいずれの位置であるかを識別するための識別データを格納している。
検出センサ1hは、無人移動体1に対して対象物が接触したことを検出する接触センサ(圧力センサ)であって、移動体本体の前後左右の外面にそれぞれ取り付けられている。
詳しく述べると、検出センサ1hは、無人移動体1のフロントバンパーの前面、リアバンパーの後面、左右のサイドバンパーの外側面にそれぞれ取り付けられている。
検出センサ1hによって検出された検出信号は、無人移動体1から映像処理装置20に向けて発信される。
The identification mark 1g is a two-dimensional barcode, which is attached to the top, bottom, front, back, left, and right outer surfaces of the main body of the moving body, and identifies which unmanned moving body 1 it is among the plurality of unmanned moving bodies 1, and also identifies the unmanned moving body 1. Identification data for identifying the position of the moving body 1 is stored.
The detection sensor 1h is a contact sensor (pressure sensor) that detects that an object has come into contact with the unmanned vehicle 1, and is attached to the front, rear, left, and right outer surfaces of the vehicle body, respectively.
Specifically, the detection sensors 1h are attached to the front surface of the front bumper, the rear surface of the rear bumper, and the outer surfaces of the left and right side bumpers of the unmanned moving object 1, respectively.
A detection signal detected by the detection sensor 1h is transmitted from the unmanned moving object 1 to the video processing device 20.

操作端末10は、図1、図2に示すように、操縦者によって操作されるコントローラであって、無人移動体1毎に設けられ、予め定められたコースを走行するように無人移動体1を無線通信によって遠隔操作するものである。
詳しく述べると、操作端末10は、操縦者によるユーザー操作の入力を受け付けて、無人移動体1を操作するための操作データを作成し、当該操作データを無人移動体1に向けてデータ送信することができる。
また、操作端末10は、映像処理装置20とデータ通信を行い、ユーザー操作の入力を受け付けて、モニター30の表示画面上に表示された映像を切り替えることができる。
As shown in FIGS. 1 and 2, the operating terminal 10 is a controller operated by an operator, and is provided for each unmanned vehicle 1, and controls the unmanned vehicle 1 to travel on a predetermined course. It is operated remotely using wireless communication.
Specifically, the operation terminal 10 receives user operation input from the operator, creates operation data for operating the unmanned mobile object 1, and transmits the operation data to the unmanned mobile object 1. I can do it.
Further, the operation terminal 10 can perform data communication with the video processing device 20, accept user operation input, and switch the video displayed on the display screen of the monitor 30.

映像処理装置20は、図1-図3に示すように、無人移動体1、操作端末10、モニター30、ディスプレイ40、携帯端末50、外部撮影装置60及び救出ドローン80とデータ通信を行うコンピュータであって、撮影装置1a及び外部撮影装置60が撮影した「リアル映像」に所定の「視覚情報」を重ねた映像(拡張映像)を、モニター30、ディスプレイ40及び携帯端末50上に表示するものである。
詳しく述べると、映像処理装置20は、図7に示すように、第1の無人移動体1によって撮影されたリアル映像内において、第2の無人移動体1に取り付けられた識別マーク1gを検出したときに、第2の無人移動体1に関する個別情報を取得する。そして、第1の無人移動体1によって撮影された「リアル映像」に、第2の無人移動体1に関する個別情報を重ねて表示することができる。
また、映像処理装置20は、図7に示すように、第1の無人移動体1によって撮影されたリアル映像内において後述の第2識別マーク70Aが検出されたときに、当該第2識別マーク70Aが取り付けられた通過ゲート70を通過したものと判定する。そして、上記「リアル映像」に、第1の無人移動体1が当該通過ゲート70を通過したものと判定した判定結果に基づく内容を同時表示することもできる。
As shown in FIGS. 1 to 3, the video processing device 20 is a computer that performs data communication with the unmanned moving object 1, the operating terminal 10, the monitor 30, the display 40, the mobile terminal 50, the external photographing device 60, and the rescue drone 80. A video (enhanced video) in which predetermined "visual information" is superimposed on "real video" shot by the camera 1a and the external camera 60 is displayed on the monitor 30, display 40, and mobile terminal 50. be.
Specifically, as shown in FIG. 7, the video processing device 20 detects the identification mark 1g attached to the second unmanned moving object 1 in the real video shot by the first unmanned moving object 1. At times, individual information regarding the second unmanned moving object 1 is acquired. Then, the individual information regarding the second unmanned moving object 1 can be displayed superimposed on the "real video" taken by the first unmanned moving object 1.
Further, as shown in FIG. 7, when a second identification mark 70A, which will be described later, is detected in the real video shot by the first unmanned moving object 1, the video processing device 20 detects the second identification mark 70A. It is determined that the vehicle has passed through the passage gate 70 to which the vehicle is attached. Then, content based on the determination result that the first unmanned moving object 1 has passed through the passage gate 70 can be simultaneously displayed on the "real video".

モニター30は、操縦者の頭部に装着されるヘッドマウントディスプレイであって、無人移動体1毎に設けられ、映像処理装置20とデータ通信を行い、映像処理装置20によって生成された映像(拡張映像)を表示画面上に表示することができる。
具体的には、図7に示すような表示画面をリアルタイムで表示することができる。
なお、モニター30は、ヘッドマウントディスプレイに特に限定されることなく、公知なディスプレイ装置を採用することができる。例えば、操作端末10と一体化されたコックピット型のディスプレイ装置であっても良い。
The monitor 30 is a head-mounted display that is attached to the head of the operator, is provided for each unmanned moving object 1, performs data communication with the video processing device 20, and displays the video (extended) generated by the video processing device 20. images) can be displayed on the display screen.
Specifically, a display screen as shown in FIG. 7 can be displayed in real time.
Note that the monitor 30 is not particularly limited to a head-mounted display, and any known display device can be used. For example, it may be a cockpit-type display device integrated with the operating terminal 10.

ディスプレイ40は、映像処理装置20と接続された大型ディスプレイであって、無人移動体レースを閲覧している閲覧者向けの表示画面として用いられる。
具体的には、ディスプレイ40上には、図7-図9に示すような表示画面がリアルタイムで表示されることになり、無人移動体レースの臨場感あふれる内容を演出することができる。
携帯端末50は、映像処理装置20と接続されたタブレット端末であって、ディスプレイ40と同様に、閲覧者向けの表示画面として用いられる。
なお、携帯端末50は、閲覧者毎に利用されるものであって、例えば、複数の無人移動体1の中から自分が閲覧したい無人移動体1を選択し(図9参照)、選択した無人移動体1によって撮影された映像を閲覧することができる。
The display 40 is a large display connected to the video processing device 20, and is used as a display screen for viewers viewing the unmanned mobile race.
Specifically, display screens such as those shown in FIGS. 7 to 9 are displayed in real time on the display 40, making it possible to produce content full of realism of the unmanned mobile body race.
The mobile terminal 50 is a tablet terminal connected to the video processing device 20, and, like the display 40, is used as a display screen for viewers.
Note that the mobile terminal 50 is used by each viewer, and for example, the user selects the unmanned moving object 1 he or she wishes to view from among the plurality of unmanned moving objects 1 (see FIG. 9), and Videos taken by the mobile object 1 can be viewed.

外部撮影装置60は、レース中の各無人移動体1を撮影するための大型の撮影カメラであって、コース上に所定の間隔を空けて複数設置されている。
外部撮影装置60は、コース上の所定区画における映像(リアル映像)を撮影して当該映像を記録する。そして、当該映像を示す映像データを作成し、映像処理装置20に向けてデータ送信するものである。
The external photographing devices 60 are large-sized photographing cameras for photographing each unmanned moving object 1 during the race, and a plurality of external photographing devices 60 are installed at predetermined intervals on the course.
The external photographing device 60 photographs a video (real video) in a predetermined section on the course and records the video. Then, video data representing the video is created and the data is transmitted to the video processing device 20.

通過ゲート70は、図4Aに示すように、無人移動体1が通過するためのゲートであって、コース上に所定の間隔を空けて複数設置されている。
通過ゲート70は、橋形状からなり、一対のゲート脚部71と、一対のゲート脚部71の上方部分を連結するゲート連結部72とから構成されており、一対のゲート脚部71とゲート連結部72とで囲まれた領域が通過領域となっている。
ゲート連結部72のうち、コースの進行方向においてスタート側に位置する正面には、第2識別マーク70Aが所定の間隔を空けながら複数配置されている。
As shown in FIG. 4A, the passage gates 70 are gates through which the unmanned moving object 1 passes, and a plurality of passage gates 70 are installed at predetermined intervals on the course.
The passage gate 70 has a bridge shape and includes a pair of gate legs 71 and a gate connection part 72 that connects the upper portions of the pair of gate legs 71, and connects the pair of gate legs 71 and the gate. The area surrounded by the portion 72 is a passing area.
A plurality of second identification marks 70A are arranged at predetermined intervals on the front side of the gate connecting portion 72 located on the start side in the direction of travel of the course.

第2識別マーク70Aは、2次元バーコードであって、コース上に複数設置された通過ゲート70のうち、いずれの通過ゲート70であるかを特定するための識別データを格納している。
そのため、映像処理装置20は、無人移動体1が撮影した映像内において第2識別マーク70Aを検出したときに、当該無人移動体1がいずれの通過ゲート70を通過したのかを特定することができる。
The second identification mark 70A is a two-dimensional barcode, and stores identification data for identifying which one of the plurality of passage gates 70 installed on the course.
Therefore, when the video processing device 20 detects the second identification mark 70A in the video shot by the unmanned moving object 1, it is possible to specify which passage gate 70 the unmanned moving object 1 has passed through. .

なお、通過ゲート70は、橋形状の通過ゲートに特に限定されることなく変更可能であって、例えば、図4Bに示すようにポール形状の通過ゲート170であっても良い。
また例えば、図4Cに示すようにルーバー付きの通過ゲート270であっても良い。
ルーバー271付きの通過ゲート270を採用すれば、無人移動体1が通過ゲート270に近接した位置まで到達したときに、無人移動体1が通過ゲート270の第2識別マーク70Aを撮影することが可能となる。その結果、映像処理装置20が、無人移動体1の位置情報をより精度高く検出することができる。
Note that the passage gate 70 is not particularly limited to a bridge-shaped passage gate, and may be changed, for example, to a pole-shaped passage gate 170 as shown in FIG. 4B.
Alternatively, for example, as shown in FIG. 4C, a passage gate 270 with a louver may be used.
If the passage gate 270 with the louver 271 is adopted, when the unmanned mobile body 1 reaches a position close to the passage gate 270, it is possible for the unmanned mobile body 1 to photograph the second identification mark 70A of the passage gate 270. becomes. As a result, the video processing device 20 can detect the position information of the unmanned moving object 1 with higher accuracy.

<映像処理装置のハード構成>
映像処理装置20は、図5に示すように、データの演算・制御処理装置としてのCPUと、記憶装置としてのROM、RAM、及びHDD(SSD)と、ホームネットワーク又はインターネットを通じて情報データの送受信を行う通信用インタフェースと、を有するコンピュータである。
また、映像処理装置20は、所定の書式で表示される文字又は画像の情報を表示する表示装置と、CPUに所定の指令を入力するときユーザー入力操作される入力装置と、外付けハードディスク等の記憶媒体装置と、文字又は画像の情報を出力する印刷装置と、をさらに有しているほか、表示画面としてのモニター30、ディスプレイ40及び携帯端末50と接続されている。
<Hardware configuration of video processing device>
As shown in FIG. 5, the video processing device 20 includes a CPU as a data calculation/control processing device, ROM, RAM, and HDD (SSD) as storage devices, and transmits and receives information data through a home network or the Internet. The computer has a communication interface that performs communication.
The video processing device 20 also includes a display device that displays character or image information displayed in a predetermined format, an input device that is operated by the user when inputting a predetermined command to the CPU, and an external hard disk or the like. It further includes a storage medium device and a printing device that outputs text or image information, and is also connected to a monitor 30 as a display screen, a display 40, and a mobile terminal 50.

映像処理装置20のROM、HDD、及び外部記憶装置には、図6に示すように、コンピュータとして必要な機能を果たすメインプログラムに加えて、映像処理プログラムが記憶されており、これらプログラムがCPUによって実行されることにより、映像処理装置20の機能が発揮されることになる。 As shown in FIG. 6, the ROM, HDD, and external storage device of the video processing device 20 store a video processing program in addition to a main program that performs the functions necessary for a computer. By being executed, the functions of the video processing device 20 will be exhibited.

<映像処理装置のソフト構成>
映像処理装置20は、図6に示すように、機能面から説明すると、「映像データ」、「個別データ」、「ラップタイムデータ」、「現在位置データ」のほか、各種プログラム及び各種データを記憶しておく記憶部21と、無人移動体1から「映像データ」を取得する映像データ取得部22と、取得した「映像データ」が示す映像を処理して表示画面上に表示する画面表示部23と、取得した「映像データ」が示す映像内において識別マーク1g(第2識別マーク70A)が存在することを検出するマーク検出部24と、所定の映像内において識別マーク1gが検出されたときに、検出された識別マーク1gが設けられた無人移動体1が、いずれの無人移動体1であるかを識別する移動体識別部25と、を主な構成要素として備えている。
また、映像処理装置20は、所定の映像内において第2識別マーク70Aが検出されたときに、検出された第2識別マーク70Aが設けられた通過ゲート70を無人移動体1が通過したものと判定するゲート通過判定部26と、当該判定結果から、無人移動体1が所定位置から所定の通過ゲート70を通過するまでに要した経過時間を算出する算出部27(経過時間算出部27a)と、当該判定結果から、コース上において無人移動体1の現在位置を算出する現在位置算出部27bと、をさらに備えている。
また、映像処理装置20は、トラブル処理部28として、所定の映像内において識別マーク1gが所定の条件で検出されたときに、検出された識別マーク1gが設けられた無人移動体1が遠隔操作不能になったものと判定する操作不能判定部28aと、遠隔操作不能と判定した場合に、無人移動体1を遠隔操作不能状態から復帰させるために、無人移動体1に向けた所定の対応を行う操作不能対応部28bと、をさらに有している。
また、映像処理装置20は、複数の無人移動体1を所定の条件でコース移動させるために、複数の無人移動体1に向けた所定の対応制御を行う移動体制御部29をさらに有している。
これらは、CPU、ROM、RAM、HDD、通信用インタフェース、及び各種プログラム等によって構成されている。
<Software configuration of video processing device>
As shown in FIG. 6, the video processing device 20 stores "video data", "individual data", "lap time data", "current position data", as well as various programs and various data. a storage section 21 for storing "video data", a video data acquisition section 22 for acquiring "video data" from the unmanned mobile object 1, and a screen display section 23 for processing the video indicated by the acquired "video data" and displaying it on a display screen. , a mark detection unit 24 that detects the presence of the identification mark 1g (second identification mark 70A) in the video indicated by the acquired "video data", and when the identification mark 1g is detected in the predetermined video, The main component includes a moving body identification unit 25 that identifies which unmanned moving body 1 is the unmanned moving body 1 provided with the detected identification mark 1g.
Furthermore, when the second identification mark 70A is detected in a predetermined video, the video processing device 20 assumes that the unmanned moving object 1 has passed through the passage gate 70 provided with the detected second identification mark 70A. A gate passage determination unit 26 that makes a determination, and a calculation unit 27 (elapsed time calculation unit 27a) that calculates the elapsed time required for the unmanned moving object 1 to pass from a predetermined position to a predetermined passage gate 70 from the determination result. , a current position calculation unit 27b that calculates the current position of the unmanned moving object 1 on the course from the determination result.
Further, the video processing device 20, as a trouble processing unit 28, when the identification mark 1g is detected in a predetermined video under predetermined conditions, the unmanned moving body 1 equipped with the detected identification mark 1g is remotely operated. The inoperability determining unit 28a determines that the unmanned vehicle 1 has become inoperable, and takes a predetermined response to the unmanned vehicle 1 in order to recover the unmanned vehicle 1 from the inoperable state when it is determined that the unmanned vehicle 1 is inoperable. It further includes an inoperability response unit 28b.
The video processing device 20 further includes a mobile object control unit 29 that performs predetermined response control for the plurality of unmanned mobile objects 1 in order to move the plurality of unmanned mobile objects 1 on a course under predetermined conditions. There is.
These are composed of a CPU, ROM, RAM, HDD, communication interface, various programs, and the like.

なお、無人移動体1についても機能面から説明すると、各種プログラム及び各種データを格納しておく記憶部2と、操作端末10から「操作データ」を取得する操作データ受信部3と、「映像データ」を映像処理装置20に向けて送信する映像データ送信部4と、を主な構成要素として備えている。 In addition, to explain the unmanned mobile object 1 from a functional perspective, it includes a storage section 2 that stores various programs and various data, an operation data reception section 3 that acquires "operation data" from the operation terminal 10, and a "video data" storage section 2 that stores various programs and various data. '' to the video processing device 20.

記憶部21に記憶される「映像データ」は、各無人移動体1及び各外部撮影装置60が撮影した「リアル映像」を示す動画データであって、無人移動体レース中に各無人移動体1及び各外部撮影装置60からリアルタイムで送信されるものであって、記憶部21に一元管理されて記憶されている。
なお、映像データ(動画データ)は、例えば1秒当たりのフレーム画像数が30枚(30FPS(Frame Per Second))で設定されている。
当該映像データを参照することで、図7に示すように、各無人移動体1が撮影した「リアル映像」を表示させる機能や、各無人移動体1のゲート通過判定機能、ラップタイム・現在位置算出機能、操作不能判定機能等を利用することができる。
The “video data” stored in the storage unit 21 is video data showing “real images” shot by each unmanned moving body 1 and each external photographing device 60, and is video data showing “real images” taken by each unmanned moving body 1 and each external photographing device 60, and is and is transmitted in real time from each external photographing device 60, and is centrally managed and stored in the storage unit 21.
Note that the video data (video data) is set to have a number of frame images per second of 30 (30FPS (Frame Per Second)), for example.
By referring to the video data, as shown in FIG. 7, there is a function to display "real images" taken by each unmanned moving object 1, a function to determine whether each unmanned moving object 1 has passed through a gate, and a lap time/current position calculation. function, inoperability determination function, etc.

「個別データ」は、無人移動体レース中の各無人移動体1に関する個別情報を示すデータであって、無人移動体1毎に作成され、記憶部21に一元管理されて記憶されている。
詳しく述べると、個別データには、各無人移動体1に関する個別情報として、各無人移動体1の操縦者の情報(操縦者の画像、操縦者の名称(Player1-Player4))のほか、レース中に更新される各無人移動体1の最速ラップタイム(FT:Fastest Time)、レース中における現在順位、自身の無人移動体1とのタイム差(Behind)等の情報が含まれている。
当該個別データを参照することで、図7に示すように、例えば、第1の無人移動体1の「リアル映像」に、第2の無人移動体1の操縦者の情報、最速ラップタイム、タイム差の情報を重ねて表示させる機能を利用することができる。
“Individual data” is data indicating individual information regarding each unmanned moving body 1 in the unmanned moving body race, is created for each unmanned moving body 1, and is centrally managed and stored in the storage unit 21.
To be more specific, the individual data includes, as individual information regarding each unmanned moving object 1, information on the operator of each unmanned moving object 1 (image of the operator, name of the operator (Player1-Player4)), as well as information on the driver during the race. Information such as the fastest lap time (FT: Fastest Time) of each unmanned moving object 1, the current ranking during the race, and the time difference (Behind) with the own unmanned moving object 1 is included.
By referring to the individual data, for example, as shown in FIG. You can use the function to display overlapping information.

「ラップタイムデータ」は、無人移動体レース中における各無人移動体1のラップタイムを示すデータであって、経過時間算出部27aによって無人移動体1毎に作成されるものであって、記憶部21に一元管理されて記憶されている。
詳しく述べると、ラップタイムデータには、各無人移動体1が所定のスタート位置から所定の通過ゲート70を通過するまでに要した経過時間(区間ラップタイム)や、スタート位置からコースを1周するまでに要した経過時間(1周目、2周目、3周目のラップタイム)、スタート位置からゴール位置までに要した経過時間(コースを5周するまでに要した総ラップタイム)の情報が含まれているほか、隣り合う通過ゲート70においてスタート位置側にある通過ゲート70を通過してから次の通過ゲート70を通過するまでに要した経過時間(区間ラップタイム)等の情報も含まれている。
当該ラップタイムデータを参照することで、図7に示すように、表示画面上に各無人移動体1の種々のラップタイム、最速のラップタイム(FT)、各無人移動体1の順位等を表示させる機能を利用することができる。
“Lap time data” is data indicating the lap time of each unmanned moving body 1 during the unmanned moving body race, is created for each unmanned moving body 1 by the elapsed time calculation unit 27a, and is stored in the storage unit 21. Centrally managed and stored.
Specifically, the lap time data includes the elapsed time (section lap time) required for each unmanned moving object 1 to pass from a predetermined start position to pass a predetermined passing gate 70, and the time required for each unmanned moving object 1 to complete one lap around the course from the start position. Contains information on the elapsed time required (1st, 2nd, and 3rd lap times), and the elapsed time required from the start position to the goal position (total lap time required to complete 5 laps around the course). In addition, information such as the elapsed time (section lap time) required from passing through the passing gate 70 located on the start position side to passing through the next passing gate 70 among adjacent passing gates 70 is also included.
By referring to the lap time data, as shown in FIG. 7, a function is provided to display various lap times of each unmanned moving object 1, the fastest lap time (FT), the ranking of each unmanned moving object 1, etc. on the display screen. can be used.

「現在位置データ」は、各無人移動体レースのコース上における各無人移動体1の現在位置を示すデータであって、現在位置算出部27bによって無人移動体1毎に作成されるものであって、記憶部21に一元管理されて記憶されている。
詳しく述べると、現在位置データには、コース上において各無人移動体1がいずれの通過ゲート70の位置にいるか(いずれの通過ゲート70の周辺位置にいるか)を示す位置情報が含まれている。
当該現在位置データを参照することで、図7に示すように、ディスプレイ40上に各無人移動体1の現在位置(コースマップ上の現在位置)を表示させる機能を利用することができる。
"Current position data" is data indicating the current position of each unmanned moving object 1 on the course of each unmanned moving object race, and is created for each unmanned moving object 1 by the current position calculation unit 27b. , are centrally managed and stored in the storage unit 21.
To be more specific, the current position data includes position information indicating which passage gate 70 each unmanned moving object 1 is located on the course (which passage gate 70 it is located at).
By referring to the current position data, it is possible to utilize a function of displaying the current position of each unmanned moving body 1 (current position on the course map) on the display 40, as shown in FIG.

映像データ取得部22は、各無人移動体1及び各外部撮影装置60から「映像データ」を取得するものであって、取得された映像データは、無人移動体1毎に外部撮影装置60毎に分類されて記憶部21に記憶される。 The video data acquisition unit 22 acquires "video data" from each unmanned moving object 1 and each external imaging device 60, and the acquired video data is transmitted for each unmanned moving object 1 and each external imaging device 60. The information is classified and stored in the storage unit 21.

画面表示部23は、具体的な機能部として、映像表示部23aと、仮想情報表示部23bと、経過時間表示部23cと、現在位置表示部23dと、を有している。
映像表示部23aは、各無人移動体1及び各外部撮影装置60からそれぞれ取得した「映像データ」が示す映像を、モニター30、ディスプレイ40及び携帯端末50上にリアルタイムで表示するものである。
詳しく述べると、映像表示部23aは、ユーザー操作による選択を受け付けて、各無人移動体1、各外部撮影装置60によって撮影されたそれぞれの「リアル映像」を切り替えて表示することができる。
また、映像表示部23aは、ユーザー操作による選択を受け付けて、所定の無人移動体1の第1撮影装置1aaによって撮影された「一人称映像」と、第3撮影装置1acによって撮影された「三人称映像」と、複数の撮影装置1aa-1adによって撮影された映像を合成して得られた「俯瞰映像」とを切り替えて表示することができる。
The screen display section 23 includes, as specific functional sections, a video display section 23a, a virtual information display section 23b, an elapsed time display section 23c, and a current position display section 23d.
The video display unit 23a displays the video shown by the "video data" acquired from each unmanned moving object 1 and each external photographing device 60 on the monitor 30, display 40, and mobile terminal 50 in real time.
To be more specific, the video display section 23a can receive a selection by a user operation and switch and display the respective "real videos" photographed by each unmanned moving object 1 and each external photographing device 60.
In addition, the video display unit 23a receives a selection by a user operation, and displays a "first-person video" photographed by the first photographing device 1aa of a predetermined unmanned moving object 1, and a "third-person video photographed by the third photographing device 1ac." ” and an “overhead video” obtained by combining videos taken by a plurality of photographing devices 1aa-1ad.

モニター30上の表示画面として図7の本実施形態を見ると、第1の無人移動体1(Player1の無人移動体)によって撮影された「リアル映像」が表示されている。
また、図7の表示画面の右下部分には、第1の無人移動体1の「一人称映像」に切り替えるための「FPV」操作ボタン31と、「三人称映像」に切り替えるための「TPV」操作ボタン32と、「俯瞰映像」に切り替えるための「BEV」操作ボタン33とが表示されている。
図7の表示画面上において、ユーザー操作による「FPV」操作ボタン31の選択を受け付けることで、図8Aに示す表示画面へ切り替えることができる。同様にして、ユーザー操作による「TPV」操作ボタン32、「BEV」操作ボタン33の選択を受け付けることで、図8B、図8Cに示す表示画面へ切り替えることができる。
When looking at the present embodiment shown in FIG. 7 as a display screen on the monitor 30, a "real video" captured by the first unmanned moving object 1 (the unmanned moving object of Player 1) is displayed.
In addition, in the lower right part of the display screen in FIG. 7, there is an "FPV" operation button 31 for switching to "first-person video" of the first unmanned moving object 1, and a "TPV" operation button for switching to "third-person video". A button 32 and a "BEV" operation button 33 for switching to "overhead video" are displayed.
By accepting a user's selection of the "FPV" operation button 31 on the display screen of FIG. 7, the display screen can be switched to the display screen shown in FIG. 8A. Similarly, by accepting a user's selection of the "TPV" operation button 32 and "BEV" operation button 33, it is possible to switch to the display screen shown in FIGS. 8B and 8C.

仮想情報表示部23bは、第1の無人移動体1によって撮影された「リアル映像」内において第1の無人移動体1の個別情報を重ねて表示するほか、第2の無人移動体1が識別されたときに第2の無人移動体1の個別情報を重ねて表示するものである。
図7の表示画面を見ると、表示画面の上方部分には、第1の無人移動体1の個別情報34(操縦者の画像、名称、現在順位)が重ねて表示されている。なお、表示画面の左下部分には、第1の無人移動体1のラップ平均スピードの情報も表示されている。
また、図7の表示画面上において第2の無人移動体1(Player2の無人移動体)が表示された対象位置に、第2の無人移動体1の個別情報35(操縦者の名称、最速ラップタイム(FT)、タイム差(Behind))が重ねて表示されている。
The virtual information display unit 23b displays the individual information of the first unmanned moving object 1 in a superimposed manner in the "real video" taken by the first unmanned moving object 1, and also displays the information of the second unmanned moving object 1 identified. When the second unmanned moving object 1 is displayed, the individual information of the second unmanned moving object 1 is displayed in an overlapping manner.
Looking at the display screen in FIG. 7, individual information 34 (operator's image, name, current ranking) of the first unmanned moving object 1 is displayed in an overlapping manner in the upper part of the display screen. Note that information on the lap average speed of the first unmanned moving object 1 is also displayed in the lower left portion of the display screen.
In addition, individual information 35 of the second unmanned moving object 1 (operator's name, fastest lap time) is displayed at the target position where the second unmanned moving object 1 (unmanned moving object of Player 2) is displayed on the display screen in FIG. (FT) and time difference (Behind)) are displayed in an overlapping manner.

経過時間表示部23c、現在位置表示部23dは、ゲート通過判定部26によって各無人移動体1が所定の通過ゲート70を通過したものと判定された「判定結果に基づく内容」を表示画面上に表示する。
詳しく述べると、経過時間表示部23cは、上記判定結果に基づく内容として、経過時間算出部27aによって算出された「各無人移動体1の経過時間に関する内容」を表示画面上にリアルタイムで表示する。
また、現在位置表示部23dは、上記判定結果に基づく内容として、現在位置算出部27bによって算出された「各無人移動体1の現在位置に関する内容」を表示画面上にリアルタイムで表示することができる。
図7の表示画面を見ると、表示画面の左上部分には、「各無人移動体1の経過時間に関する内容」として、各無人移動体1のレース全体情報36(各無人移動体1の現在順位、操縦者の情報、最速ラップタイム(FT))が表示されている。
また、図7の表示画面の右上部分には、「各無人移動体1の経過時間に関する内容」として、第1の無人移動体1のレース個別情報37(コース1周目、コース2周目のラップタイム、現在のラップタイム)が表示されている。
また、図7の表示画面の右上部分には、「各無人移動体1の現在位置に関する内容」として、無人移動体レースのコースマップ38と、コースマップ38上をリアルタイムで移動する各無人移動体1の位置表示アイコン38aとが表示されている。
なお、コースマップ38上には、外部撮影装置60の設置位置に関する内容として、外部撮影装置60の位置表示アイコン38bも表示されている。
The elapsed time display section 23c and the current position display section 23d display on the display screen "contents based on the determination result" in which each unmanned mobile object 1 is determined to have passed through a predetermined passage gate 70 by the gate passage determination section 26. indicate.
To be more specific, the elapsed time display section 23c displays "contents related to the elapsed time of each unmanned moving object 1" calculated by the elapsed time calculation section 27a on the display screen in real time as content based on the above determination result.
Further, the current position display unit 23d can display on the display screen in real time the “content regarding the current position of each unmanned mobile object 1” calculated by the current position calculation unit 27b as the content based on the above determination result. .
When looking at the display screen of FIG. 7, the entire race information 36 of each unmanned moving object 1 (current ranking of each unmanned moving object 1) is displayed in the upper left part of the display screen as "contents related to the elapsed time of each unmanned moving object 1". , driver information, and fastest lap time (FT) are displayed.
In addition, in the upper right part of the display screen in FIG. Lap time, current lap time) are displayed.
In addition, in the upper right part of the display screen in FIG. 7, the course map 38 of the unmanned moving object race and each unmanned moving object moving in real time on the course map 38 are displayed as "contents regarding the current position of each unmanned moving object 1." 1 position display icon 38a is displayed.
Note that on the course map 38, a position display icon 38b of the external photographing device 60 is also displayed as content regarding the installation position of the external photographing device 60.

また、画面表示部23は、閲覧者向けの表示画面としてディスプレイ40及び携帯端末50上に、コースマップ全体が表示された図9に示す切り替え表示画面を表示することもできる。
図9の表示画面の右側部分には、各無人移動体1(Player1-Player4)の映像に切り替えるための操作ボタン41と、各外部撮影装置60(Camera1-Camera4)の映像に切り替えるための操作ボタン42とが表示されている。
また、図9の表示画面の左側部分には、各無人移動体1のレース全体情報43(各無人移動体1の現在順位、操縦者の情報、最速ラップタイム(FT))が表示されている。
また、図7の表示画面の中央部分には、無人移動体レースのコースマップ44と、コースマップ44上をリアルタイムで移動する各無人移動体1の位置表示アイコン44a、各外部撮影装置60の位置表示アイコン44bとが表示されている。
Further, the screen display unit 23 can also display a switching display screen shown in FIG. 9 in which the entire course map is displayed on the display 40 and the mobile terminal 50 as a display screen for viewers.
On the right side of the display screen in FIG. 9, there are operation buttons 41 for switching to images of each unmanned moving object 1 (Player 1 to Player 4) and operation buttons for switching to images of each external photographing device 60 (Camera 1 to Camera 4). 42 is displayed.
Further, on the left side of the display screen in FIG. 9, overall race information 43 of each unmanned moving object 1 (current ranking of each unmanned moving object 1, driver information, fastest lap time (FT)) is displayed.
Further, in the center part of the display screen in FIG. 7, a course map 44 of the unmanned mobile body race, position display icons 44a of each unmanned mobile body 1 moving on the course map 44 in real time, and positions of each external photographing device 60 are displayed. A display icon 44b is displayed.

マーク検出部24は、取得した「映像データ」が示す映像内において検出対象となる識別マーク1g及び第2識別マーク70Aが存在することを検出するものである。
詳しく述べると、マーク検出部24は、映像データ(動画データ)が1秒当たりのフレーム画像数が30枚(30FPS)で設定されているところ、当該フレーム画像毎に、フレーム画像内において識別マーク1g及び第2識別マーク70Aが存在していることを検出する。
The mark detection unit 24 detects the presence of the identification mark 1g and the second identification mark 70A to be detected in the video indicated by the acquired "video data".
Specifically, when the video data (video data) is set to have a frame image count of 30 frames per second (30FPS), the mark detection unit 24 detects 1g of identification marks within the frame image for each frame image. And the presence of the second identification mark 70A is detected.

移動体識別部25は、識別マーク1gが検出されたときに、検出された識別マークが設けられた無人移動体1が、いずれの無人移動体であるかを識別するものである。
識別マーク1gには、いずれの無人移動体1であるかを特定するための識別データが格納されている。そして、当該識別マーク1gは、各無人移動体1の上下前後左右にそれぞれ取り付けられている。
そのため、図7に示すように、マーク検出部24が、第1の無人移動体1によって撮影された映像内において第2の無人移動体1の右側及び後側にある識別マーク1gを検出したときに、移動体識別部25が、第2の無人移動体1が前方斜め左位置を走行していることを識別することができる。言い換えれば、第2の無人移動体1の個別情報を取得するほか、第2の無人移動体1の相対位置情報(第1の無人移動体1との相対距離)を取得することができる。
The moving body identification unit 25 identifies which unmanned moving body 1 on which the detected identification mark is provided is the unmanned moving body 1 when the identification mark 1g is detected.
The identification mark 1g stores identification data for specifying which unmanned moving object 1 it is. The identification marks 1g are attached to the top, bottom, front, back, left and right of each unmanned moving body 1, respectively.
Therefore, as shown in FIG. 7, when the mark detection unit 24 detects the identification mark 1g on the right side and rear side of the second unmanned moving object 1 in the video shot by the first unmanned moving object 1, In addition, the moving object identification unit 25 can identify that the second unmanned moving object 1 is running diagonally to the left in front. In other words, in addition to acquiring the individual information of the second unmanned moving body 1, relative position information of the second unmanned moving body 1 (relative distance to the first unmanned moving body 1) can be acquired.

ゲート通過判定部26は、取得した「映像データ」が示す映像内において第2識別マーク70Aが検出され、かつ、当該映像よりも後の映像内において第2識別マーク70Aが検出されなくなったときに、検出された第2識別マーク70Aが設けられた通過ゲート70を所定の無人移動体1が通過したものと判定する。
第2識別マーク70Aには、いずれの通過ゲート70であるかを特定するための識別データが格納されている。そして、当該第2識別マーク70Aの大きさは予め定められている。
そのため、マーク検出部24が、所定の無人移動体1によって撮影されたフレーム画像内において所定の第2識別マーク70Aを検出したときに、当該無人移動体1がいずれの通過ゲート70の位置又は周辺位置にいるかを識別することができる。そして、検出された第2識別マーク70Aの大きさによって、無人移動体1の位置を精度良く識別することができる。
When the second identification mark 70A is detected in the video indicated by the acquired "video data" and the second identification mark 70A is no longer detected in the video after the video, the gate passage determination unit 26 detects the second identification mark 70A. , it is determined that the predetermined unmanned moving object 1 has passed through the passage gate 70 provided with the detected second identification mark 70A.
The second identification mark 70A stores identification data for specifying which passage gate 70 it belongs to. The size of the second identification mark 70A is determined in advance.
Therefore, when the mark detection unit 24 detects the predetermined second identification mark 70A in the frame image photographed by the predetermined unmanned moving object 1, the unmanned moving object 1 is located at or around any passing gate 70. You can identify where you are. Then, the position of the unmanned moving body 1 can be identified with high accuracy based on the size of the detected second identification mark 70A.

算出部27は、具体的な機能部として、経過時間算出部27aと、現在位置算出部27bとを有している。
経過時間算出部27aは、ゲート通過判定部26による上記判定結果から、所定の無人移動体1が所定のスタート位置から所定の通過ゲート70を通過するまでに要した経過時間(ラップタイム)を算出する。
詳しく述べると、経過時間算出部27aは、当該経過時間(ラップタイム)を算出し、当該経過時間を示す「ラップタイムデータ」を作成する。
「ラップタイムデータ」には、上述した通り、各無人移動体1が所定のスタート位置から所定の通過ゲート70を通過するまでに要した経過時間(区間ラップタイム)や、スタート位置からコースを1周するまでに要した経過時間(1周目、2周目、3周目のラップタイム)、スタート位置からゴール位置までに要した経過時間(コースを3周するまでに要した総ラップタイム)等の情報が含まれている。
The calculation unit 27 has an elapsed time calculation unit 27a and a current position calculation unit 27b as specific functional units.
The elapsed time calculation unit 27a calculates the elapsed time (lap time) required for the predetermined unmanned moving object 1 to pass from the predetermined start position to the predetermined passage gate 70 from the above determination result by the gate passage determination unit 26. .
Specifically, the elapsed time calculation unit 27a calculates the elapsed time (lap time) and creates "lap time data" indicating the elapsed time.
As mentioned above, the "lap time data" includes the elapsed time (section lap time) required for each unmanned moving object 1 to pass from a predetermined start position to pass a predetermined passage gate 70, and the time required for each unmanned moving object 1 to pass through a predetermined passage gate 70 from the start position, Information such as the elapsed time required to complete the course (1st, 2nd, and 3rd lap times), the elapsed time required from the start position to the goal position (total lap time required to complete 3 laps around the course), etc. include.

現在位置算出部27bは、ゲート通過判定部26による上記判定結果から、所定の空間内において無人移動体1の現在位置を算出する。
詳しく述べると、現在位置算出部27bは、当該現在位置を算出し、当該現在位置を示す「現在位置データ」を作成する。
「現在位置データ」には、上述した通り、無人移動体レースのコース上において各無人移動体1がいずれの通過ゲート70の位置にいるか(いずれの通過ゲート70の周辺位置にいるか)を示す位置情報が含まれている。
なお、現在位置算出部27bが所定の無人移動体1の現在位置を算出するにあたっては、当該レース中における無人移動体1のラップタイム、無人移動体1を操作する操縦者の過去のレースのラップタイム等の情報も参照することで、無人移動体1の現在位置をより精度良く算出することができる。
そのようにして無人移動体1の現在位置を算出することで、図7に示す表示画面において、コースマップ38上の現在位置表示アイコン38aを精度良く移動させながら表示することができる。
The current position calculation unit 27b calculates the current position of the unmanned mobile object 1 within a predetermined space from the above determination result by the gate passing determination unit 26.
More specifically, the current position calculation unit 27b calculates the current position and creates "current position data" indicating the current position.
As described above, the "current position data" includes a position indicating which passing gate 70 each unmanned moving object 1 is located on (the surrounding position of which passing gate 70) each unmanned moving object 1 is located on the course of the unmanned moving object race. Contains information.
Note that when the current position calculation unit 27b calculates the current position of a predetermined unmanned moving object 1, it uses the lap time of the unmanned moving object 1 during the race, the lap time of the driver operating the unmanned moving object 1 in past races, etc. By also referring to the information, the current position of the unmanned moving object 1 can be calculated with higher accuracy.
By calculating the current position of the unmanned vehicle 1 in this way, the current position display icon 38a on the course map 38 can be displayed while being moved with high accuracy on the display screen shown in FIG.

トラブル処理部28は、具体的な機能部として、操作不能判定部28aと、操作不能対応部28bとを有している。
操作不能判定部28aは、取得した「映像データ」が示す映像内において識別マーク1gが所定の条件で検出されたときに、検出された識別マーク1gが設けられた無人移動体1が遠隔操作不能になったものと判定するものである。
具体的には、操作不能判定部28aは、各無人移動体1及び各外部撮影装置60によって撮影された映像内において識別マーク1gが例えば所定の位置かつ所定の向きで検出されたときに、当該識別マーク1gが設けられた無人移動体1が遠隔操作不能になったものと判定する。
なお、当該無人移動体1によって撮影される第1映像と、第1映像よりも後の第2映像との差分を検出し、当該差分が所定の閾値以下であって、当該無人移動体1が停止した状態であると判断した場合の判断結果についても参照すると良い。そうすれば、操作不能判定部28aによる判定結果の精度がより高まる。
The trouble processing unit 28 includes an inoperability determining unit 28a and an inoperability handling unit 28b as specific functional units.
When the identification mark 1g is detected under predetermined conditions in the video indicated by the acquired "video data", the inoperability determining unit 28a determines that the unmanned mobile object 1 on which the detected identification mark 1g is provided is incapable of being remotely operated. It is determined that it has become.
Specifically, when the identification mark 1g is detected, for example, at a predetermined position and in a predetermined orientation in the video shot by each unmanned moving object 1 and each external imaging device 60, the inoperability determination unit 28a detects the identification mark 1g. It is determined that the unmanned moving object 1 provided with the identification mark 1g is no longer remotely controllable.
Note that the difference between the first video shot by the unmanned moving object 1 and the second video after the first video is detected, and if the difference is less than a predetermined threshold and the unmanned moving object 1 is It is also good to refer to the determination result when it is determined that the vehicle is in a stopped state. By doing so, the accuracy of the determination result by the inoperability determining section 28a will be further improved.

操作不能対応部28bは、遠隔操作不能と判定した場合に、無人移動体1を遠隔操作不能状態から復帰させるために、当該無人移動体1に向けた所定の対応を行うものである。
具体的には、操作不能対応部28bは、無人移動体レースの運営者、閲覧者に向けてトラブルが発生した旨のユーザー報知を行い、かつ、待機中の救出ドローン80をトラブル発生地点まで向かわせて当該無人移動体1を救出、回収させるように制御する。
なお、遠隔操作不能となった無人移動体1の操縦者から、トラブル発生に関するユーザー操作の入力を受け付けて、当該無人移動体1を救出、回収させるように救出ドローン80を制御することとしても良い。
The inoperability response unit 28b performs a predetermined response to the unmanned moving body 1 in order to recover the unmanned moving body 1 from the remote-inoperable state when it is determined that the unmanned moving body 1 is not remotely operable.
Specifically, the inoperability response unit 28b notifies the operator and viewers of the unmanned mobile race that a trouble has occurred, and also directs the rescue drone 80 on standby to the trouble point. At the same time, the unmanned vehicle 1 is controlled to be rescued and recovered.
Note that the rescue drone 80 may be controlled to receive user operation input regarding the occurrence of a trouble from the operator of the unmanned mobile object 1 that has become incapable of remote control, and to rescue and recover the unmanned mobile object 1. .

移動体制御部29は、無人移動体レースに参加した全ての無人移動体1を所定の条件でコース移動させるために、各無人移動体1に向けた所定の対応制御を行うものであって、具体的な機能部として、サポート制御部29aと、ペナルティ制御部29bとを有している。
サポート制御部29aは、レースのスタート時に全ての無人移動体1を所定のタイミングで移動開始させるために、複数の前記無人移動体の移動動作をサポート制御するものである。
詳しく述べると、サポート制御部29aは、各無人移動体1が所定のスタートポジションに辿り着くまで、各無人移動体1の移動動作をサポート制御する。そして、グリーンシグナルが点灯するまで各無人移動体1の駆動ユニット1dを動作させないようにサポート制御することができる。
なお、各無人移動体1がゴールした後についても、各無人移動体1の駆動ユニット1dを動作させないようにサポート制御しても良い。
The moving body control unit 29 performs predetermined response control for each unmanned moving body 1 in order to move all the unmanned moving bodies 1 participating in the unmanned moving body race on a course under predetermined conditions, As specific functional units, it has a support control unit 29a and a penalty control unit 29b.
The support control unit 29a controls the movement of the plurality of unmanned moving bodies 1 in order to cause all the unmanned moving bodies 1 to start moving at a predetermined timing at the start of a race.
To be more specific, the support control unit 29a supports and controls the moving operation of each unmanned moving body 1 until each unmanned moving body 1 reaches a predetermined starting position. Then, support control can be performed so that the drive unit 1d of each unmanned moving object 1 does not operate until the green signal lights up.
Note that support control may be performed so that the drive unit 1d of each unmanned moving body 1 does not operate even after each unmanned moving body 1 reaches the goal.

ペナルティ制御部29bは、所定の無人移動体1から検出センサ1hの検出信号を受信したときに、当該無人移動体1の移動動作を所定時間、制限又は停止するペナルティ制御を行うものである。
詳しく述べると、ペナルティ制御部29bは、無人移動体レース中に、所定の無人移動体1同士が接触した場合、あるいは所定の無人移動体1がコースサイドに接触した場合に、当該無人移動体1に対してペナルティ制御を行うことができる。具体的には、所定の時間が経過するまで無人移動体1の移動動作を制限(減速)又は停止させる制御を行うことや(ペナルティストップ)、ラップタイムに別途タイム加算する制御を行う(タイムペナルティ)。
このときに、無人移動体1の前後左右に取り付けられた検出センサ1hの位置によって、当該無人移動体1に対して行うペナルティ制御の内容を変更しても良い。
例えば、無人移動体1の前面にある検出センサ1hが検出信号を受信したときには(無人移動体1が接触事故を起こしたときには)、重いペナルティを課すように当該無人移動体1の移動動作を制御すると良い。また、無人移動体1の後面にある検出センサ1hが検出信号を受信したときには(接触事故を起こされたときには)、軽いペナルティを課すように当該無人移動体1の移動動作を制御すると良い。
なお、無人移動体1が接触したときの衝撃の度合いによって、当該無人移動体1に対して行うペナルティ制御の内容を変更しても良い。
When the penalty control unit 29b receives a detection signal from the detection sensor 1h from a predetermined unmanned moving object 1, it performs penalty control to limit or stop the moving operation of the unmanned moving object 1 for a predetermined period of time.
To be more specific, the penalty control unit 29b controls the unmanned moving body 1 when predetermined unmanned moving bodies 1 come into contact with each other or when the predetermined unmanned moving bodies 1 contact the course side during the unmanned moving body race. Penalty control can be performed for Specifically, control is performed to limit (decelerate) or stop the movement of the unmanned mobile object 1 until a predetermined time has elapsed (penalty stop), and control to add additional time to the lap time (time penalty) is performed. .
At this time, the content of the penalty control performed on the unmanned moving body 1 may be changed depending on the positions of the detection sensors 1h attached to the front, rear, left, and right sides of the unmanned moving body 1.
For example, when the detection sensor 1h on the front of the unmanned moving object 1 receives a detection signal (when the unmanned moving object 1 causes a contact accident), the moving operation of the unmanned moving object 1 is controlled to impose a heavy penalty. That's good. Further, when the detection sensor 1h on the rear surface of the unmanned moving body 1 receives a detection signal (when a contact accident occurs), it is preferable to control the moving operation of the unmanned moving body 1 so as to impose a light penalty.
Note that the content of the penalty control performed on the unmanned moving object 1 may be changed depending on the degree of impact when the unmanned moving object 1 makes contact.

そのほか、移動体制御部29は、具体的な機能部として、音声通信制御部29cと、広告表示制御部29dと、ゴースト表示制御部29eをさらに有していると良い。
音声通信制御部29cは、第1の無人移動体1によって撮影された映像内において第2の無人移動体1の識別マーク1gを検出したときに、第1の無人移動体1の操縦者と、第2の無人移動体1の操縦者とが所定時間、音声通信可能となるように制御するものである。
詳しく述べると、操縦者が装着しているモニター30には、不図示のマイク部(音声発信部)及びレシーバー部(音声受信部)が設けられており、各モニター30が音声通信可能となるように接続されることになる。
なお、音声通信可能な時間については、相手の無人移動体1の識別マーク1gが検出されなくなった後も、所定時間(例えば30秒程度)継続されると良い。
In addition, the mobile object control section 29 preferably further includes a voice communication control section 29c, an advertisement display control section 29d, and a ghost display control section 29e as specific functional sections.
When the voice communication control unit 29c detects the identification mark 1g of the second unmanned moving object 1 in the video shot by the first unmanned moving object 1, the voice communication control unit 29c communicates with the operator of the first unmanned moving object 1, Control is performed so that voice communication with the operator of the second unmanned mobile object 1 is possible for a predetermined period of time.
To be more specific, the monitor 30 worn by the pilot is provided with a microphone section (voice transmitting section) and a receiver section (voice receiving section) (not shown), so that each monitor 30 can perform voice communication. will be connected to.
Note that the time period during which voice communication is possible is preferably continued for a predetermined period of time (for example, about 30 seconds) even after the identification mark 1g of the other party's unmanned moving object 1 is no longer detected.

また、音声通信制御部29cが、第1の無人移動体1のモニター30と、第2の無人移動体1のモニター30とを音声通信可能に制御しているときに、画面表示部23が、お互いに相手のモニター画面を表示画面上にポップアップ表示する。
具体的には、図10に示すように、第1の無人移動体1のモニター30の表示画面上に、第2の無人移動体の個別情報(操縦者の画像、名称)付きのモニター画面39がポップアップ表示される。
なお、音声通信制御部29cが、各モニター30を音声通信可能に制御しているときに、各無人移動体1の操縦者が予め選曲した専用BGMを相手方に対して発信するように制御しても良い。すなわち、第1の無人移動体1のモニター30から、第2の無人移動体1の専用BGMが流れるようにすると良い。
また、検出される識別マーク1gの大きさによって、第2の無人移動体1との相対距離を識別することができるため、第1の無人移動体1に対して第2の無人移動体1が近づくにつれて第2の無人移動体1の専用BGMが大きく流れるようにしても良い。
Further, when the voice communication control unit 29c controls the monitor 30 of the first unmanned moving body 1 and the monitor 30 of the second unmanned moving body 1 to enable voice communication, the screen display unit 23 Each player displays the other's monitor screen as a pop-up on the display screen.
Specifically, as shown in FIG. 10, on the display screen of the monitor 30 of the first unmanned moving object 1, a monitor screen 39 with individual information (image of the operator, name) of the second unmanned moving object is displayed. will pop up.
Note that when the audio communication control unit 29c controls each monitor 30 to enable audio communication, it also controls the operator of each unmanned mobile object 1 to transmit dedicated BGM selected in advance to the other party. Also good. That is, it is preferable that the dedicated BGM of the second unmanned moving object 1 is played from the monitor 30 of the first unmanned moving object 1.
Furthermore, since the relative distance to the second unmanned moving object 1 can be identified based on the size of the detected identification mark 1g, the second unmanned moving object 1 is more sensitive to the first unmanned moving object 1. The exclusive BGM of the second unmanned moving object 1 may be made to play louder as it approaches.

上記構成において、音声通信制御部29cを実行するときには、無人移動体1の後方にある第2撮影装置1abを利用することで、後方から迫ってくる相手の無人移動体1の識別マーク1gを検出することができる。そうすれば、音声通信制御部29cによる演出効果を高めることができる。 In the above configuration, when the voice communication control unit 29c is executed, the second photographing device 1ab located behind the unmanned moving object 1 is used to detect the identification mark 1g of the other unmanned moving object 1 approaching from behind. can do. By doing so, it is possible to enhance the performance effect of the voice communication control section 29c.

広告表示制御部29dは、無人移動体レース中に操縦者及び閲覧者向けに広告表示を表示させるように制御するものである。
詳しく述べると、広告表示制御部29dは、閲覧者が携帯端末50上でレース映像を閲覧しているときに、閲覧者の属性に対応した広告を当該レース映像の所定位置に重ねて表示する。
具体的には、図11に示すように、切り替え表示画面の左下部分において閲覧者が関心を持っているドローンレースの次回開催日に関する広告51が表示されている。
あるいは、操縦者がモニター30上でレース映像を確認しているときに、操縦者の属性に対応した広告を当該レース映像の所定位置(例えばコースサイド)に重ねて表示しても良い。
The advertisement display control unit 29d controls the display of advertisements for the driver and viewers during the unmanned mobile race.
Specifically, while the viewer is viewing the race video on the mobile terminal 50, the advertisement display control unit 29d displays an advertisement corresponding to the viewer's attributes superimposed on a predetermined position of the race video.
Specifically, as shown in FIG. 11, an advertisement 51 regarding the next date of the drone race in which the viewer is interested is displayed in the lower left portion of the switching display screen.
Alternatively, while the driver is checking the race video on the monitor 30, an advertisement corresponding to the driver's attributes may be displayed superimposed on a predetermined position (for example, on the course side) of the race video.

ゴースト表示制御部29eは、レースのタイムトライアルとして、無人移動体1によって撮影された映像上に、当該無人移動体1(操縦者)の過去のレース情報に基づいた無人移動体1の仮想映像(ゴースト映像)を重ねて表示するものである。
詳しく述べると、当該無人移動体1を操縦する操縦者の最速ラップタイムの情報、平均ラップタイムの情報に基づいてゴースト映像を拡張表示することができる。
具体的には、図12に示すように、無人移動体1によって撮影されたリアル映像上に、当該無人移動体1の仮想映像(ゴースト映像G)と、ゴーストの個別情報G1とがリアルタイムで拡張表示されている。
なお、仮想映像(ゴースト映像)の表示にあたっては、コース上に設置される外部撮影装置60及び通過ゲート70の設置数を増やすことで、当該仮想映像の表示を精度良く再現することができる。
The ghost display control unit 29e displays a virtual image ( (ghost images) are displayed on top of each other.
To be more specific, the ghost image can be displayed in an expanded manner based on the information on the fastest lap time and the average lap time of the operator who operates the unmanned moving object 1.
Specifically, as shown in FIG. 12, a virtual image (ghost image G) of the unmanned moving object 1 and individual ghost information G1 are expanded in real time on the real image taken by the unmanned moving object 1. Displayed.
Note that when displaying the virtual image (ghost image), by increasing the number of external photographing devices 60 and passing gates 70 installed on the course, the display of the virtual image can be accurately reproduced.

<映像処理方法>
次に、映像処理装置20で実行される主な映像処理プログラム(映像処理方法)の処理について、図13に基づいて説明する。
本実施形態に係る上記プログラムは、記憶部21を備えた映像処理装置20の機能的な構成要素として、上述した映像データ取得部22と、画面表示部23と、マーク検出部24と、移動体識別部25と、ゲート通過判定部26と、算出部27と、トラブル処理部28と、移動体制御部29と、を実現させるために各種プログラムを集約させたユーティリティプログラムであって、映像処理装置20のCPUがこの映像処理プログラムを実行する。
なお、上記プログラムは、ユーザーから映像処理開始の操作を受け付けて実行されるものである。
<Video processing method>
Next, the processing of the main video processing program (video processing method) executed by the video processing device 20 will be described based on FIG. 13.
The program according to the present embodiment includes the above-mentioned video data acquisition section 22, screen display section 23, mark detection section 24, and mobile object as functional components of the video processing device 20 including the storage section 21. A utility program that integrates various programs to realize the identification section 25, the gate passage determination section 26, the calculation section 27, the trouble processing section 28, and the mobile object control section 29, and is a utility program that integrates various programs for the video processing device. Twenty CPUs execute this video processing program.
Note that the above program is executed upon receiving an operation from the user to start video processing.

図13に示す「映像処理フロー」では、まず、映像データ取得部22が、各無人移動体1から「映像データ」を取得するステップS1から始まる。
なお、取得された映像データは、無人移動体1毎に分類されて記憶部21に記憶される。
The "video processing flow" shown in FIG. 13 begins with step S1 in which the video data acquisition unit 22 acquires "video data" from each unmanned moving object 1.
Note that the acquired video data is classified for each unmanned moving object 1 and stored in the storage unit 21.

次に、ステップS2で、画面表示部23(映像表示部23a)が、各無人移動体1から取得した「映像データ」が示す映像(リアル映像)をモニター30、ディスプレイ40及び携帯端末50上に表示する。 Next, in step S2, the screen display unit 23 (video display unit 23a) displays the video (real video) indicated by the “video data” acquired from each unmanned mobile object 1 on the monitor 30, display 40, and mobile terminal 50. indicate.

次に、ステップS3で、マーク検出部24が、例えば第1の無人移動体1から取得した「映像データ」が示す映像内において検出対象となる識別マーク1gが存在することを検出する。
マーク検出部24が、当該映像内において識別マーク1gが存在することを検出した場合には(ステップS3:Yes)、ステップS4に進む。一方で、当該映像内において識別マーク1gが存在しなかった場合には(ステップS3:Nо)、ステップS9に進む。
Next, in step S3, the mark detection unit 24 detects the presence of the identification mark 1g to be detected in the video indicated by the "video data" acquired from the first unmanned moving object 1, for example.
If the mark detection unit 24 detects that the identification mark 1g is present in the video (step S3: Yes), the process proceeds to step S4. On the other hand, if the identification mark 1g does not exist in the video (step S3: No), the process advances to step S9.

次に、ステップS4で、移動体識別部25が、検出された識別マーク1gが設けられた無人移動体1が、いずれの無人移動体であるかを識別する。
例えば、移動体識別部25が、第1の無人移動体1によって撮影された映像内において、検出された識別マーク1gが設けられた無人移動体が第2の無人移動体1であることを識別する。
Next, in step S4, the mobile object identification unit 25 identifies which unmanned mobile object the unmanned mobile object 1 provided with the detected identification mark 1g is.
For example, the mobile object identification unit 25 identifies, in the video shot by the first unmanned mobile object 1, that the unmanned mobile object provided with the detected identification mark 1g is the second unmanned mobile object 1. do.

次に、ステップS5で、マーク検出部24、移動体識別部25が、識別した第2の無人移動体1の識別マーク1gが複数検出されたか判断する。
なお、識別マーク1gは、無人移動体1の上下前後左右に取り付けられているため、上記映像内において第2の無人移動体1の識別マーク1gが複数検出されることがある。
移動体識別部25が、第2の無人移動体1の識別マーク1gを複数検出した場合には(ステップS5:Yes)、ステップS6に進む。一方で、当該識別マーク1gを複数検出しなかった場合には(ステップS5:Nо)、ステップS7に進む。
Next, in step S5, the mark detection section 24 and the moving object identification section 25 determine whether a plurality of identification marks 1g of the identified second unmanned moving object 1 have been detected.
Note that since the identification marks 1g are attached to the top, bottom, front, back, left and right of the unmanned moving body 1, a plurality of identification marks 1g of the second unmanned moving body 1 may be detected in the above video.
If the mobile object identification unit 25 detects a plurality of identification marks 1g of the second unmanned mobile object 1 (step S5: Yes), the process proceeds to step S6. On the other hand, if a plurality of identification marks 1g are not detected (step S5: No), the process advances to step S7.

次に、ステップS6で、移動体識別部25が、複数検出された第2の無人移動体1の識別マーク1gのうち、最も大きいサイズの識別マーク1gを選定する。
最も大きいサイズの識別マーク1gを選定することで、第1の無人移動体1に対する第2の無人移動体1の相対位置(相対距離)の精度を高めることができる。
Next, in step S6, the mobile object identification unit 25 selects the largest size identification mark 1g among the plurality of detected identification marks 1g of the second unmanned mobile object 1.
By selecting the identification mark 1g with the largest size, the accuracy of the relative position (relative distance) of the second unmanned moving body 1 with respect to the first unmanned moving body 1 can be improved.

次に、ステップS7で、映像処理装置20(情報取得部)が、識別マーク1gによって識別された第2の無人移動体1の個別情報と相対位置情報とを取得する。
ここで「個別情報」とは、第2の無人移動体1の操縦者の情報(操縦者の画像、操縦者の名称)のほか、レース中に更新される第2の無人移動体1の最速ラップタイム(FT)、レース中における現在順位、第1の無人移動体1とのタイム差(Behind)の情報が含まれるものである。
「相対位置情報」とは、第1の無人移動体1に対する第2の無人移動体1の相対位置(相対距離)の情報に相当する。例えば、図7の表示画面によれば、第1の無人移動体1に対して第2の無人移動体1が前方斜め左位置に存在することが分かり、第2の無人移動体の相対距離を算出することも可能である。
Next, in step S7, the video processing device 20 (information acquisition unit) acquires the individual information and relative position information of the second unmanned moving object 1 identified by the identification mark 1g.
Here, "individual information" refers to information on the operator of the second unmanned vehicle 1 (operator's image, operator's name), as well as information on the fastest speed of the second unmanned vehicle 1 that is updated during the race. This includes information on the lap time (FT), the current ranking during the race, and the time difference (Behind) with the first unmanned moving object 1.
“Relative position information” corresponds to information on the relative position (relative distance) of the second unmanned moving body 1 with respect to the first unmanned moving body 1. For example, according to the display screen in FIG. 7, it can be seen that the second unmanned moving body 1 is located diagonally to the left in front of the first unmanned moving body 1, and the relative distance of the second unmanned moving body 1 can be calculated. It is also possible to calculate.

次に、ステップS8で、画面表示部23(仮想情報表示部23b)が、第1の無人移動体1によって撮影された映像上の対象位置(第2の無人移動体1の相対位置)に、第2の無人移動体1の個別情報を重ねて拡張表示するものである。
図7の表示画面を見ると、第2の無人移動体1(Player2の無人移動体)が表示された対象位置に、第2の無人移動体1の個別情報(操縦者の名称、最速ラップタイム(FT)、タイム差(Behind))が重ねて表示されている。
Next, in step S8, the screen display section 23 (virtual information display section 23b) displays the target position (relative position of the second unmanned moving object 1) on the video shot by the first unmanned moving object 1. The individual information of the second unmanned moving object 1 is overlaid and displayed in an expanded manner.
Looking at the display screen of FIG. 7, the individual information of the second unmanned moving object 1 (operator's name, fastest lap time ( FT) and time difference (Behind)) are displayed in an overlapping manner.

最後に、ユーザーから映像処理プログラムの停止操作を受け付けた場合には(ステップS9:Yes)、図13のプロセスを終了する。映像処理プログラムを継続する場合には(ステップS9:Nо)、ステップS1に戻る。
上記の映像処理プログラムの処理フローにより、無人移動体レースの運営にあたって、より高いエンターテイメント性を提供することが可能となる。
また、現実世界と仮想世界を融合させた新しい体験を提供することが可能となる。
Finally, if an operation to stop the video processing program is received from the user (step S9: Yes), the process of FIG. 13 is ended. If the video processing program is to be continued (step S9: No), the process returns to step S1.
The processing flow of the video processing program described above makes it possible to provide higher entertainment value when operating an unmanned mobile race.
It will also be possible to provide a new experience that combines the real world and virtual world.

<その他の実施形態>
上記実施形態において、図1に示すように、無人移動体1は、小型のRCカーであるが、RCカーに特に限定されることなく、撮影装置を搭載した無人移動体であれば適宜変更可能である。
例えば、無人航空機(ドローン)、空中を飛行する無人ヘリコプター、水上を移動する船やヨット等であっても良い。また、玩具に特に限定されることなく、商業用の無人航空機や無人自動車等にも広く適用可能である。また例えば、有人移動体であっても良い。
<Other embodiments>
In the above embodiment, as shown in FIG. 1, the unmanned moving object 1 is a small RC car, but it is not particularly limited to an RC car, and can be changed as appropriate as long as it is an unmanned moving object equipped with a photographing device. It is.
For example, it may be an unmanned aerial vehicle (drone), an unmanned helicopter flying in the air, a ship or a yacht moving on water, or the like. Furthermore, the present invention is not limited to toys, and can be widely applied to commercial unmanned aircraft, unmanned cars, and the like. Further, for example, it may be a manned moving body.

上記実施形態において、図1に示すように、本映像処理システムSは、無人移動体レースを運営するためのシステムであるが、無人移動体レース用のシステムに特に限定されることなく、撮影装置を搭載した無人移動体を用いた映像処理システム、映像処理装置として種々のビジネスに対しても広く適用可能である。 In the above embodiment, as shown in FIG. 1, the video processing system S is a system for operating an unmanned mobile race, but is not particularly limited to a system for an unmanned mobile race; It can be widely applied to various businesses as a video processing system or video processing device using an unmanned moving object equipped with a .

上記実施形態において、図1に示すように、本映像処理システムSでは、無人移動体1が複数用いられているが、特に限定されることなく、例えば、商業用のシステムとして用いられるならば、無人移動体が1基であっても良い。 In the above embodiment, as shown in FIG. 1, a plurality of unmanned moving objects 1 are used in the present video processing system S, but there is no particular limitation, and if used as a commercial system, for example, The number of unmanned moving objects may be one.

上記実施形態において、図3、図4A-Cに示すように、識別マーク1g及び第2識別マーク70Aは、2次元バーコードであるが、特に限定されることなく、映像内において検出可能なマークであれば広く適用可能である。好ましくは、当該識別マークが識別データを格納可能なマークであると良い。 In the above embodiment, as shown in FIGS. 3 and 4A to 4C, the identification mark 1g and the second identification mark 70A are two-dimensional barcodes, but are not particularly limited to marks that can be detected in the video. If so, it is widely applicable. Preferably, the identification mark is a mark capable of storing identification data.

上記実施形態において、図3に示すように、識別マーク1gは、無人移動体1の上下前後左右の外面にそれぞれ取り付けられているが、特に限定されることなく、識別マーク1gの配置パターンについては適宜変更可能である。
例えば、識別マーク1gが、無人移動体1の前方部分(前面)及び後方部分(後面)の2カ所に取り付けられても良いし、無人移動体1の後方部分の1カ所のみに取り付けられても良い。
In the above embodiment, as shown in FIG. 3, the identification marks 1g are attached to the top, bottom, front, back, left, and right outer surfaces of the unmanned vehicle 1, but the arrangement pattern of the identification marks 1g is not particularly limited. It can be changed as appropriate.
For example, the identification mark 1g may be attached to two places, the front part (front face) and the rear part (rear face) of the unmanned moving body 1, or it may be attached only to one place, the rear part of the unmanned moving body 1. good.

上記実施形態において、図7に示すように、画面表示部23(仮想情報表示部23b)は、第2の無人移動体1の個別情報として、操縦者の名称、最速ラップタイム(FT)、タイム差(Behind)を拡張表示しているところ、当該第2の無人移動体1の個別情報は、これらに限定されることなく変更可能である。
例えば、第2の無人移動体1の機種名、操縦者の画像や戦績、現在順位等の情報を拡張表示しても良い。
In the above embodiment, as shown in FIG. 7, the screen display unit 23 (virtual information display unit 23b) displays the operator's name, fastest lap time (FT), time difference, etc. as individual information of the second unmanned moving object 1. (Behind) is expanded and displayed, the individual information of the second unmanned moving object 1 is not limited to these, and can be changed.
For example, information such as the model name of the second unmanned moving object 1, the image and battle record of the operator, and the current ranking may be displayed in an expanded manner.

上記実施形態において、図9に示すように、画面表示部23は、閲覧者向けの表示画面として、コースマップ全体が表示された切り替え表示画面を表示するが、特に限定されることなく、操縦者向けの表示画面に当該切り替え表示画面を表示しても良い。
また、映像処理装置20が、不図示のドローンを別途制御することとし、当該ドローンによる空中撮影映像を操縦者及び閲覧者向けの表示画面上に表示させることとしても良い。
In the embodiment described above, as shown in FIG. 9, the screen display unit 23 displays a switching display screen on which the entire course map is displayed as a display screen for the viewer, but there is no particular limitation. The switching display screen may be displayed on the display screen for the user.
Alternatively, the video processing device 20 may separately control a drone (not shown), and display the aerial footage taken by the drone on a display screen for the operator and viewers.

上記実施形態において、図7に示すように、画面表示部23が、ゲート通過判定部26によって各無人移動体1が所定の通過ゲート70を通過したものと判定された「判定結果に基づく内容」を表示画面上に表示している。
このとき、当該「判定結果に基づく内容」は、各無人移動体1の経過時間、現在位置に関する情報に特に限定されることなく、上記判定結果から得られるその他の情報、すなわち無人移動体レース中のその他のリアルタイムな情報も広く含むものであって良い。
例えば、無人移動体1が、所定の通過ゲート70の通過領域の中央部分を上手く走行した場合や、コースを外れてしまい本来通過すべき通過ゲート70以外の通過ゲート70を通過してしまった場合等に、所定の演出内容を表示させることも可能である。
In the above embodiment, as shown in FIG. 7, the screen display section 23 displays "contents based on the determination result" when the gate passage determination section 26 determines that each unmanned mobile object 1 has passed through a predetermined passage gate 70. is displayed on the display screen.
At this time, the "content based on the determination result" is not particularly limited to information regarding the elapsed time and current position of each unmanned mobile object 1, but other information obtained from the above determination result, i.e., during the unmanned mobile object race. It may also include a wide range of other real-time information.
For example, if the unmanned moving object 1 successfully travels through the central part of the passage area of a predetermined passage gate 70, or if it deviates from the course and passes through a passage gate 70 other than the passage gate 70 that it should have passed through. It is also possible to display predetermined performance contents, etc.

上記実施形態では、映像処理装置20が読み取り可能な記録媒体に映像処理プログラムが記憶されており、映像処理装置20が当該プログラムを読み出して実行することによって処理が実行される。ここで映像処理装置20が読み取り可能な記録媒体とは、磁気ディスク、光磁気ディスク、CD-ROM、DVD-ROM、半導体メモリ等をいう。
また、この映像処理プログラムを通信回線によって不図示のユーザー端末に配信し、この配信を受けたユーザー端末自身が、映像処理装置として機能し、当該プログラムを実行するように構成しても良い。
In the embodiment described above, a video processing program is stored in a recording medium that can be read by the video processing device 20, and processing is executed by the video processing device 20 reading and executing the program. Here, the recording medium that can be read by the video processing device 20 refers to a magnetic disk, a magneto-optical disk, a CD-ROM, a DVD-ROM, a semiconductor memory, and the like.
Further, the video processing program may be distributed to a user terminal (not shown) via a communication line, and the user terminal itself that receives the distribution may function as a video processing device and execute the program.

上記実施形態では、主として本発明に係る無人移動体を用いた映像処理システム、映像処理方法及び映像処理装置に関して説明した。
ただし、上記の実施形態は、本発明の理解を容易にするための一例に過ぎず、本発明を限定するものではない。本発明は、その趣旨を逸脱することなく、変更、改良され得ると共に、本発明にはその等価物が含まれることは勿論である。
In the above embodiment, the video processing system, video processing method, and video processing device using an unmanned moving object according to the present invention have been mainly described.
However, the embodiments described above are merely examples for facilitating understanding of the present invention, and do not limit the present invention. The present invention may be modified and improved without departing from its spirit, and it goes without saying that the present invention includes equivalents thereof.

S 映像処理システム
1 無人移動体(ラジオコントロールカー)
1a 撮影装置
1aa 第1撮影装置
1ab 第2撮影装置
1ac 第3撮影装置
1ad 第4撮影装置
1b 送受信アンテナ
1c 移動ユニット
1d 駆動ユニット
1e プロセッサー
1f バッテリー
1g 識別マーク
1h 検出センサ
2 記憶部
3 操作データ受信部
4 映像データ送信部
10 操作端末
20 映像処理装置
21 記憶部
22 映像データ取得部
23 画面表示部
23a 映像表示部
23b 仮想映像表示部
23c 経過時間表示部
23d 現在位置表示部
24 マーク検出部
25 移動体識別部
26 ゲート通過判定部
27 算出部
27a 経過時間算出部
27b 現在位置算出部
28 トラブル処理部
28a 操作不能判定部
28b 操作不能対応部
29 移動体制御部
29a サポート制御部
29b ペナルティ制御部
29c 音声通信制御部
29d 広告表示制御部
29e ゴースト表示制御部
30 モニター(ヘッドマウントディスプレイ)
31 「FPV」操作ボタン
32 「TPV」操作ボタン
33 「BEV」操作ボタン
34 第1の無人移動体の個別情報
35 第2の無人移動体の個別情報
36 レース全体情報
37 レース個別情報
38 コースマップ
38a、38b 位置表示アイコン
39 モニター画面
40 ディスプレイ
41 操作ボタン
42 操作ボタン
43 レース全体情報
44 コースマップ
44a、44b 位置表示アイコン
50 携帯端末
51 広告
60 外部撮影装置
70、170、270 通過ゲート
70A 第2識別マーク
71 ゲート脚部
72 ゲート連結部
271 ルーバー
80 救出ドローン
G ゴースト映像
G1 ゴーストの個別情報
S Image processing system 1 Unmanned mobile object (radio control car)
1a Photographing device 1aa First photographing device 1ab Second photographing device 1ac Third photographing device 1ad Fourth photographing device 1b Transmitting/receiving antenna 1c Mobile unit 1d Drive unit 1e Processor 1f Battery 1g Identification mark 1h Detection sensor 2 Storage unit 3 Operation data receiving unit 4 Video data transmitting section 10 Operating terminal 20 Video processing device 21 Storage section 22 Video data acquisition section 23 Screen display section 23a Video display section 23b Virtual video display section 23c Elapsed time display section 23d Current position display section 24 Mark detection section 25 Mobile object Identification part
26 Gate passage determination unit 27 Calculation unit 27a Elapsed time calculation unit 27b Current position calculation unit 28 Trouble processing unit 28a Inoperability determination unit 28b Inoperability response unit 29 Mobile object control unit 29a Support control unit 29b Penalty control unit 29c Voice communication control unit 29d Advertisement display control unit 29e Ghost display control unit 30 Monitor (head mounted display)
31 "FPV" operation button 32 "TPV" operation button 33 "BEV" operation button 34 Individual information of the first unmanned moving object 35 Individual information of the second unmanned moving object 36 Overall race information 37 Individual race information 38 Course map 38a , 38b Position display icon 39 Monitor screen 40 Display 41 Operation button 42 Operation button 43 Overall race information 44 Course map 44a, 44b Position display icon 50 Mobile terminal 51 Advertisement 60 External photographing device 70, 170, 270 Passing gate 70A Second identification mark 71 Gate leg portion 72 Gate connection portion 271 Louver 80 Rescue drone G Ghost image G1 Ghost individual information

Claims (9)

撮影装置を搭載し、外部の映像を撮影しながら移動する複数の無人移動体と、
該無人移動体と無線通信によって接続され、前記無人移動体が撮影した映像を処理する映像処理装置と、を備えた映像処理システムであって、
前記映像処理装置は、
前記無人移動体が撮影した映像を示す映像データを取得する映像データ取得部と、
取得した前記映像データが示す映像を表示画面上に表示する画面表示部と、
取得した前記映像データが示す映像内において検出対象となる識別マークが存在することを検出するマーク検出部と、
前記識別マークが検出されたときに、検出された前記識別マークが設けられた前記無人移動体が、いずれの無人移動体であるかを識別する移動体識別部と、を有し、
第1の無人移動体によって撮影された映像内において所定の識別マークを検出し、該所定の識別マークが設けられた無人移動体が第2の無人移動体であることを識別したときに、
前記画面表示部は、
前記第1の無人移動体によって撮影された映像を表示するとともに、
前記第2の無人移動体に関する情報を前記映像上の対象位置に表示することを特徴とする無人移動体を用いた映像処理システム。
Multiple unmanned vehicles equipped with imaging devices that move while filming external images,
A video processing system, comprising: a video processing device connected to the unmanned moving body via wireless communication and processing images taken by the unmanned moving body;
The video processing device includes:
a video data acquisition unit that acquires video data indicating a video shot by the unmanned mobile object;
a screen display unit that displays a video indicated by the acquired video data on a display screen;
a mark detection unit that detects the presence of an identification mark to be detected in a video indicated by the acquired video data;
a mobile object identification unit that identifies which unmanned mobile object the unmanned mobile object provided with the detected identification mark is when the identification mark is detected;
When a predetermined identification mark is detected in the video shot by the first unmanned moving object, and the unmanned moving object provided with the predetermined identification mark is identified as the second unmanned moving object,
The screen display section includes:
Displaying an image taken by the first unmanned mobile object,
A video processing system using an unmanned moving object, characterized in that information regarding the second unmanned moving object is displayed at a target position on the video.
前記無人移動体は、操作端末によって遠隔操作され、予め定められたコースを移動し、
前記マーク検出部は、取得した前記映像データが示す映像内において検出対象となる第2識別マークが存在することを検出し、
前記映像処理装置は、前記映像内において前記第2識別マークが検出されたときに、検出された前記第2識別マークが設けられた通過ゲートを前記無人移動体が通過したものと判定するゲート通過判定部をさらに有し、
前記マーク検出部が、前記第1の無人移動体によって撮影された映像内において、所定の通過ゲートに設けられた前記第2識別マークが存在することを検出したときに、
前記画面表示部は、前記映像を表示するとともに、前記第1の無人移動体が前記所定の通過ゲートを通過したものと判定した判定結果に基づく内容を表示することを特徴とする請求項1に記載の無人移動体を用いた映像処理システム。
The unmanned mobile object is remotely controlled by an operating terminal and moves along a predetermined course,
The mark detection unit detects the presence of a second identification mark to be detected in the video indicated by the acquired video data,
When the second identification mark is detected in the image, the video processing device determines that the unmanned mobile object has passed through a passage gate provided with the detected second identification mark. further comprising a determination section;
When the mark detection unit detects the presence of the second identification mark provided at a predetermined passage gate in the video shot by the first unmanned moving object,
2. The screen display unit according to claim 1, wherein the screen display unit displays the image and also displays content based on a determination result that the first unmanned moving object has passed through the predetermined passage gate. An image processing system using the unmanned moving object described above.
前記無人移動体は、
該無人移動体の前方位置又は中央位置に取り付けられ、前記無人移動体からの一人称視点による一人称映像を撮影する第1撮影装置と、
前記無人移動体の後方位置又は前記無人移動体の本体よりも後方位置に取り付けられ、前記無人移動体自身の映像を含む三人称視点による三人称映像を撮影する第2撮影装置と、を搭載しており、
前記画面表示部は、ユーザー操作による選択を受け付けて、前記無人移動体によって撮影された前記一人称映像と前記三人称映像とを切り替えて表示することを特徴とする請求項1又は2に記載の無人移動体を用いた映像処理システム。
The unmanned moving body is
a first photographing device that is attached to a front position or a central position of the unmanned moving body and photographs a first-person video from a first-person viewpoint from the unmanned moving body;
A second photographing device is installed at a rear position of the unmanned moving body or at a position rearward of the main body of the unmanned moving body and shoots a third-person video from a third-person perspective including an image of the unmanned mobile body itself. ,
The unmanned vehicle according to claim 1 or 2, wherein the screen display unit receives a selection by a user operation and switches and displays the first-person video and the third-person video captured by the unmanned mobile object. An image processing system that uses the body.
前記無人移動体は、操作端末によって遠隔操作され、予め定められたコースを移動し、
前記コース上の所定位置に設置され、前記コースを移動する前記無人移動体を撮影する複数の外部撮影装置をさらに備え、
前記映像データ取得部は、前記外部撮影装置が撮影した映像を示す映像データを取得し、
前記画面表示部は、ユーザー操作による選択を受け付けて、複数の前記無人移動体、複数の前記外部撮影装置によって撮影されたそれぞれの前記映像を切り替えて表示することを特徴とする請求項1乃至3のいずれか1項に記載の無人移動体を用いた映像処理システム。
The unmanned mobile object is remotely controlled by an operating terminal and moves along a predetermined course,
further comprising a plurality of external photographing devices installed at predetermined positions on the course and photographing the unmanned moving body moving on the course,
The video data acquisition unit acquires video data indicating a video shot by the external imaging device,
Claims 1 to 3, wherein the screen display unit receives a selection by a user operation and switches and displays the images taken by the plurality of unmanned moving objects and the plurality of external photographing devices. A video processing system using the unmanned moving object according to any one of the above.
前記無人移動体は、操作端末によって遠隔操作され、予め定められたコースを移動し、
前記映像処理装置は、
前記映像内において前記識別マークが所定の条件で検出されたときに、検出された前記識別マークが設けられた無人移動体が遠隔操作不能になったものと判定する操作不能判定部と、
遠隔操作不能と判定した場合に、前記無人移動体を遠隔操作不能状態から復帰させるために、前記無人移動体に向けた所定の対応を行う操作不能対応部と、をさらに有していることを特徴とする請求項1乃至4のいずれか1項に記載の無人移動体を用いた映像処理システム。
The unmanned mobile object is remotely controlled by an operating terminal and moves along a predetermined course,
The video processing device includes:
an inoperability determination unit that determines that the unmanned mobile object provided with the detected identification mark is inoperable by remote control when the identification mark is detected in the video under predetermined conditions;
The method further includes an inoperability response unit that performs a predetermined response to the unmanned moving body in order to recover the unmanned moving body from the remote control disabled state when it is determined that the unmanned moving body is not remotely operable. An image processing system using an unmanned moving object according to any one of claims 1 to 4.
前記無人移動体は、操作端末によって遠隔操作され、予め定められたコースを移動し、
前記映像処理装置は、複数の前記無人移動体を所定の条件でコース移動させるために、複数の前記無人移動体に向けた所定の対応制御を行う移動体制御部をさらに有し、
該移動体制御部は、複数の前記無人移動体を所定のタイミングで移動開始させるために、複数の前記無人移動体の移動動作を制御することを特徴とする請求項1乃至5のいずれか1項に記載の無人移動体を用いた映像処理システム。
The unmanned mobile object is remotely controlled by an operating terminal and moves along a predetermined course,
The video processing device further includes a mobile body control unit that performs predetermined response control for the plurality of unmanned mobile bodies in order to move the plurality of unmanned mobile bodies on a course under predetermined conditions,
Any one of claims 1 to 5, wherein the moving body control unit controls the moving operation of the plurality of unmanned moving bodies in order to cause the plurality of unmanned moving bodies to start moving at a predetermined timing. An image processing system using the unmanned moving object described in 2.
前記無人移動体は、
操作端末によって遠隔操作され、予め定められたコースを移動し、
前記無人移動体の前面及び後面にそれぞれ設けられ、前記無人移動体に対して対象物が接触したことを検出する検出センサをさらに有し、
前記映像処理装置は、複数の前記無人移動体を所定の条件でコース移動させるために、複数の前記無人移動体に向けた所定の対応制御を行う移動体制御部をさらに有し、
該移動体制御部は、所定の無人移動体から前記検出センサの検出信号を受信したときに、前記所定の無人移動体の移動動作を所定時間、制限又は停止する制御を行うことを特徴とする請求項1乃至6のいずれか1項に記載の無人移動体を用いた映像処理システム。
The unmanned moving body is
It is remotely controlled by a control terminal and moves along a predetermined course.
further comprising a detection sensor provided on the front and rear surfaces of the unmanned moving body and detecting that a target object has contacted the unmanned moving body,
The video processing device further includes a mobile body control unit that performs predetermined response control for the plurality of unmanned mobile bodies in order to move the plurality of unmanned mobile bodies on a course under predetermined conditions,
The mobile body control unit is characterized in that when receiving a detection signal from the detection sensor from a predetermined unmanned mobile body, the mobile body control unit controls to limit or stop the movement operation of the predetermined unmanned mobile body for a predetermined period of time. An image processing system using the unmanned moving object according to any one of claims 1 to 6.
撮影装置を搭載し、外部の映像を撮影しながら移動する複数の無人移動体と無線通信によって接続されたコンピュータが、前記無人移動体が撮影した映像を処理する映像処理方法であって、
前記コンピュータが、
前記無人移動体が撮影した映像を示す映像データを取得する映像データ取得工程と、
取得した前記映像データが示す映像を表示画面上に表示する第1画面表示工程と、
取得した前記映像データが示す映像内において検出対象となる識別マークが存在することを検出するマーク検出工程と、
前記識別マークが検出されたときに、検出された前記識別マークが設けられた前記無人移動体が、いずれの無人移動体であるかを識別する移動体識別工程と、を実行し、
前記マーク検出工程において、第1の無人移動体によって撮影された映像内において所定の識別マークを検出し、前記移動体識別工程において、前記所定の識別マークが設けられた無人移動体が第2の無人移動体であることを識別したときに、
前記第1の無人移動体によって撮影された映像を表示するとともに、前記第2の無人移動体に関する情報を前記映像上の対象位置に表示する第2画面表示工程をさらに実行することを特徴とする無人移動体を用いた映像処理方法。
A video processing method in which a computer connected by wireless communication to a plurality of unmanned mobile bodies equipped with a photographing device and moving while photographing external images processes images photographed by the unmanned mobile bodies, the method comprising:
The computer,
a video data acquisition step of acquiring video data indicating a video shot by the unmanned mobile object;
a first screen display step of displaying a video indicated by the acquired video data on a display screen;
a mark detection step of detecting the presence of an identification mark to be detected in the video indicated by the acquired video data;
when the identification mark is detected, a moving object identification step of identifying which unmanned moving object the unmanned moving object provided with the detected identification mark is;
In the mark detection step, a predetermined identification mark is detected in the video shot by the first unmanned moving object, and in the moving object identification step, the unmanned moving object provided with the predetermined identification mark is detected as a second unmanned moving object. When identifying that it is an unmanned moving object,
The present invention is characterized by further executing a second screen display step of displaying an image taken by the first unmanned moving object and displaying information regarding the second unmanned moving object at a target position on the image. Image processing method using unmanned moving objects.
撮影装置を搭載し、外部の映像を撮影しながら移動する複数の無人移動体と無線通信によって接続され、前記無人移動体が撮影した映像を処理する映像処理装置であって、
前記無人移動体が撮影した映像を示す映像データを取得する映像データ取得部と、
取得した前記映像データが示す映像を表示画面上に表示する画面表示部と、
取得した前記映像データが示す映像内において検出対象となる識別マークが存在することを検出するマーク検出部と、
前記識別マークが検出されたときに、検出された前記識別マークが設けられた前記無人移動体が、いずれの無人移動体であるかを識別する移動体識別部と、を有し、
第1の無人移動体によって撮影された映像内において所定の識別マークを検出し、該所定の識別マークが設けられた無人移動体が第2の無人移動体であることを識別したときに、
前記画面表示部は、前記第1の無人移動体によって撮影された映像上の対象位置に、前記第2の無人移動体に関する情報を重ねて表示することを特徴とする無人移動体を用いた映像処理装置。
An image processing device equipped with a photographing device, connected by wireless communication to a plurality of unmanned moving bodies that move while photographing external images, and processing images photographed by the unmanned mobile bodies,
a video data acquisition unit that acquires video data indicating a video shot by the unmanned mobile object;
a screen display unit that displays a video indicated by the acquired video data on a display screen;
a mark detection unit that detects the presence of an identification mark to be detected in a video indicated by the acquired video data;
a mobile object identification unit that identifies which unmanned mobile object the unmanned mobile object provided with the detected identification mark is when the identification mark is detected;
When a predetermined identification mark is detected in the video shot by the first unmanned moving object, and the unmanned moving object provided with the predetermined identification mark is identified as the second unmanned moving object,
An image using an unmanned moving object, wherein the screen display unit displays information regarding the second unmanned moving object superimposed on a target position on the image taken by the first unmanned moving object. Processing equipment.
JP2020076210A 2020-04-22 2020-04-22 Video processing system, video processing method, and video processing device using unmanned moving objects Active JP7397482B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2020076210A JP7397482B2 (en) 2020-04-22 2020-04-22 Video processing system, video processing method, and video processing device using unmanned moving objects
PCT/JP2021/016219 WO2021215483A1 (en) 2020-04-22 2021-04-21 Video processing system using unmanned moving body, video processing method, and video processing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020076210A JP7397482B2 (en) 2020-04-22 2020-04-22 Video processing system, video processing method, and video processing device using unmanned moving objects

Publications (2)

Publication Number Publication Date
JP2021171232A JP2021171232A (en) 2021-11-01
JP7397482B2 true JP7397482B2 (en) 2023-12-13

Family

ID=78269193

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020076210A Active JP7397482B2 (en) 2020-04-22 2020-04-22 Video processing system, video processing method, and video processing device using unmanned moving objects

Country Status (2)

Country Link
JP (1) JP7397482B2 (en)
WO (1) WO2021215483A1 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012143447A (en) 2011-01-13 2012-08-02 Sharp Corp Network system, control method, controller, and control program
US20180036632A1 (en) 2016-08-03 2018-02-08 OnPoynt Unmanned Systems L.L.C. d/b/a OnPoynt Aerial Solutions System and method for conducting a drone race or game
KR101857245B1 (en) 2017-09-18 2018-05-11 주식회사 블루젠드론 Drone racing game system
WO2019207954A1 (en) 2018-04-25 2019-10-31 ソニー株式会社 Information processing device, information processing method, and information processing program
WO2020235161A1 (en) 2019-05-21 2020-11-26 株式会社スパイシードローンキッチン Image processing system using unmanned mobile body, image processing method, and image processing device

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012143447A (en) 2011-01-13 2012-08-02 Sharp Corp Network system, control method, controller, and control program
US20180036632A1 (en) 2016-08-03 2018-02-08 OnPoynt Unmanned Systems L.L.C. d/b/a OnPoynt Aerial Solutions System and method for conducting a drone race or game
KR101857245B1 (en) 2017-09-18 2018-05-11 주식회사 블루젠드론 Drone racing game system
WO2019207954A1 (en) 2018-04-25 2019-10-31 ソニー株式会社 Information processing device, information processing method, and information processing program
WO2020235161A1 (en) 2019-05-21 2020-11-26 株式会社スパイシードローンキッチン Image processing system using unmanned mobile body, image processing method, and image processing device

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
田沢梓門,マイクロドローンレースが持つエンターテイメントとしての可能性_知識ナシでもスピーディーで明快な展開に,engadget [オンライン],2019年03月01日

Also Published As

Publication number Publication date
JP2021171232A (en) 2021-11-01
WO2021215483A1 (en) 2021-10-28

Similar Documents

Publication Publication Date Title
JP6309779B2 (en) PROGRAM, GAME DEVICE, AND GAME SYSTEM
EP2130571B1 (en) Game device, progress control method, information recording medium, and program
KR101790592B1 (en) Sightseeing tours augmented reality system using drones and a method thereof
CN104781873A (en) Image display device and image display method, mobile body device, image display system, and computer program
CN112150885B (en) Cockpit system based on mixed reality and scene construction method
JP2012213485A (en) Game program and game system
JP2018041259A (en) system
US20210192851A1 (en) Remote camera augmented reality system
JP2007235399A (en) Automatic photographing device
KR102475994B1 (en) Information processing apparatus, information processing method and storage medium
JP3273038B2 (en) Virtual experience type game device
US20190230290A1 (en) Information processing device, information processing method, and program
JP7355390B2 (en) Video processing device, video processing method, and video processing program
JP7397482B2 (en) Video processing system, video processing method, and video processing device using unmanned moving objects
JP6509302B1 (en) Game program and game system
WO2015033446A1 (en) Running assistance system and head mount display device used in same
JP6530453B2 (en) Game program and game system
JP6810486B2 (en) Video processing system, video processing method and video processing device using unmanned moving object
JP5931154B2 (en) GAME PROGRAM AND GAME SYSTEM
JP5931153B2 (en) GAME PROGRAM AND GAME SYSTEM
JP3273017B2 (en) Image synthesis device and virtual experience device using the same
JP2002224434A (en) Image composing device, virtual experience device, and image composing method
KR102502021B1 (en) Virtual reality drone simulator
KR102502020B1 (en) Virtual reality drone simulator
JPH113437A (en) Image synthesizer and image synthesizing method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230407

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231031

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231124

R150 Certificate of patent or registration of utility model

Ref document number: 7397482

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150