JP2012143447A - Network system, control method, controller, and control program - Google Patents
Network system, control method, controller, and control program Download PDFInfo
- Publication number
- JP2012143447A JP2012143447A JP2011005036A JP2011005036A JP2012143447A JP 2012143447 A JP2012143447 A JP 2012143447A JP 2011005036 A JP2011005036 A JP 2011005036A JP 2011005036 A JP2011005036 A JP 2011005036A JP 2012143447 A JP2012143447 A JP 2012143447A
- Authority
- JP
- Japan
- Prior art keywords
- model device
- controller
- course
- radio controlled
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
- 238000000034 method Methods 0.000 title claims description 34
- 230000015654 memory Effects 0.000 claims description 69
- 238000004891 communication Methods 0.000 claims description 61
- 238000010586 diagram Methods 0.000 description 16
- 230000006870 function Effects 0.000 description 13
- 230000008569 process Effects 0.000 description 10
- 230000007246 mechanism Effects 0.000 description 8
- 238000012545 processing Methods 0.000 description 6
- 230000008859 change Effects 0.000 description 3
- 239000002131 composite material Substances 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 230000001133 acceleration Effects 0.000 description 2
- 238000013459 approach Methods 0.000 description 2
- 230000002194 synthesizing effect Effects 0.000 description 2
- SAZUGELZHZOXHB-UHFFFAOYSA-N acecarbromal Chemical compound CCC(Br)(CC)C(=O)NC(=O)NC(C)=O SAZUGELZHZOXHB-UHFFFAOYSA-N 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000005674 electromagnetic induction Effects 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 238000010897 surface acoustic wave method Methods 0.000 description 1
Images
Classifications
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63H—TOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
- A63H30/00—Remote-control arrangements specially adapted for toys, e.g. for toy vehicles
- A63H30/02—Electrical arrangements
- A63H30/04—Electrical arrangements using wireless transmission
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F2300/00—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
- A63F2300/80—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game specially adapted for executing a specific type of game
- A63F2300/8017—Driving on land or water; Flying
Landscapes
- Engineering & Computer Science (AREA)
- Computer Networks & Wireless Communication (AREA)
- Toys (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
- Processing Or Creating Images (AREA)
Abstract
Description
本発明は、ラジオコントロールによって模型装置の動作を制御するための技術に関する。 The present invention relates to a technique for controlling the operation of a model apparatus by radio control.
ラジオコントロールによってスポーツカーやヘリコプターやロボットなどの模型装置を制御する技術が知られている。 Techniques for controlling model devices such as sports cars, helicopters and robots by radio control are known.
たとえば、特開2004−42148号公報(特許文献1)には、移動ロボットが開示されている。特開2004−42148号公報(特許文献1)によると、移動ロボットに自己位置方位検出手段、移動手段及び障害物検出手段を搭載する。移動ロボットの外部装置に環境地図記憶手段及び経路計画手段を組み込む。移動ロボットと外部装置間の通信により、環境地図を参照した自己位置から移動目的地までの経路探索、計画経路に沿った移動ロボットの移動、環境地図上に無い未知障害物に対する回避運動、計画経路から逸脱した後の新たな自己位置から移動目的地までの再度の経路探索、再計画経路に沿った移動を行う。 For example, Japanese Unexamined Patent Application Publication No. 2004-42148 (Patent Document 1) discloses a mobile robot. According to Japanese Patent Laying-Open No. 2004-42148 (Patent Document 1), a self-orientation detecting unit, a moving unit, and an obstacle detecting unit are mounted on a mobile robot. An environmental map storage means and a route planning means are incorporated in an external device of the mobile robot. Through the communication between the mobile robot and an external device, the route search from the self-location to the destination with reference to the environment map, the movement of the mobile robot along the planned route, the avoidance motion for unknown obstacles not on the environment map, the planned route A new route search from the new self-position after deviating from the route to the moving destination, and movement along the re-planned route are performed.
また、特開昭61−70617号公報(特許文献2)には、自動走行体のコース誘導制御システムが開示されている。特開昭61−70617号公報(特許文献2)によると、走行速度を操舵角の関数とする速度制御方法を導入し、操舵角の制御と共にそれに対応する走行速度制御を行う。制御対象となる走行体の用途・種類或いは走行面の条件、たとえば、フロアーやオンロードであるとオフロードであるとを問わず全ての走行体の自己誘導制御方法として用いることができる。 JP-A-61-70617 (Patent Document 2) discloses a course guidance control system for an automatic traveling body. According to Japanese Patent Application Laid-Open No. 61-70617 (Patent Document 2), a speed control method using a traveling speed as a function of a steering angle is introduced, and a traveling speed control corresponding to the steering angle is performed. It can be used as a self-guidance control method for all traveling objects regardless of the use / type of traveling object to be controlled or conditions of the traveling surface, for example, floor or on-road or off-road.
コントローラからの指令に基づいて移動する模型装置を利用した新たなネットワークシステムが模索されている。 New network systems using model devices that move based on commands from controllers are being sought.
本発明は、かかる問題を解決するためになされたものであり、その目的は、コントローラからの指令に基づいて移動する模型装置を利用した新たなネットワークシステムを提供することにある。 The present invention has been made to solve such a problem, and an object thereof is to provide a new network system using a model device that moves based on a command from a controller.
この発明のある局面に従うと、模型装置とコントローラとを備えるネットワークシステムが提供される。模型装置は、コントローラからの指令に基づいて模型装置を移動させるための移動部と、模型装置の前方を撮影するためのカメラと、模型装置の位置を取得するためのGPS部と、模型装置の向きを取得するためのコンパスと、コントローラから指令を受信し、カメラからの撮影画像と位置と向きとをコントローラに送信するための第1の通信インターフェイスとを含む。コントローラは、ディスプレイと、指令を受け付けるための操作部と、模型装置と通信するための第2の通信インターフェイスと、模型装置用のコースのデータを記憶するメモリと、模型装置から受信した位置と向きとに基づいて、コースのデータから表示用のバーチャル画像を作成し、模型装置から受信した撮影画像とバーチャル画像とを合成した画像をディスプレイに表示させるためのプロセッサとを含む。 According to one aspect of the present invention, a network system including a model device and a controller is provided. The model device includes a moving unit for moving the model device based on a command from the controller, a camera for photographing the front of the model device, a GPS unit for acquiring the position of the model device, A compass for acquiring the orientation, and a first communication interface for receiving a command from the controller and transmitting a captured image, position, and orientation from the camera to the controller. The controller includes a display, an operation unit for receiving commands, a second communication interface for communicating with the model device, a memory for storing course data for the model device, and a position and orientation received from the model device. And a processor for generating a virtual image for display from the course data and displaying on the display an image obtained by synthesizing the captured image received from the model device and the virtual image.
好ましくは、プロセッサは、模型装置から受信した位置の時系列データに基づいて、位置の軌跡に沿った模型装置用のコースのデータを作成する。 Preferably, the processor creates course data for the model device along the position trajectory based on the time-series data of the position received from the model device.
好ましくは、メモリは、複数の模型装置用のコースのデータを記憶する。プロセッサは、操作部を介して、複数の模型装置用のコースの選択命令を受け付ける。 Preferably, the memory stores course data for a plurality of model devices. The processor accepts a course selection command for a plurality of model devices via the operation unit.
好ましくは、プロセッサは、第2の通信インターフェイスを介して他のコントローラに、模型装置用のコースのデータを送信する。 Preferably, the processor transmits the course data for the model device to the other controller via the second communication interface.
好ましくは、プロセッサは、第2の通信インターフェイスを介して他のコントローラから、模型装置用のコースのデータを受信する。 Preferably, the processor receives course data for the model device from another controller via the second communication interface.
好ましくは、プロセッサは、第2の通信インターフェイスを介して他のコントローラから、他の模型装置の位置および向きとスタート時点からの経過時間とが対応付けられた時系列データを受信し、時系列データから模型装置のスタート時点からの経過時間に対応する他の模型装置の位置と向きを取得し、模型装置から受信した位置および向きと、他の模型装置の位置および向きと、に基づいて他の模型装置を示す画像を表示用のバーチャル画像に追加する。 Preferably, the processor receives, from the other controller via the second communication interface, time series data in which the position and orientation of the other model apparatus and the elapsed time from the start time are associated with each other, and the time series data To obtain the position and orientation of the other model device corresponding to the elapsed time from the start time of the model device, and based on the position and orientation received from the model device and the position and orientation of the other model device. An image showing the model device is added to the virtual image for display.
この発明の別の局面に従うと、模型装置と模型装置用のコースのデータを記憶するコントローラとを備えるネットワークシステムにおけるコントロール方法が提供される。コントロール方法は、コントローラが、模型装置を移動させるための指令を受け付けるステップと、コントローラが、指令を模型装置へ送信するステップと、模型装置が、コントローラからの指令に基づいて模型装置を移動させるステップと、模型装置が、模型装置の前方を撮影するステップと、模型装置が、模型装置の位置を取得するステップと、模型装置が、模型装置の向きを取得するステップと、模型装置が、撮影画像と位置と向きとをコントローラに送信するステップと、コントローラが、模型装置から受信した位置と向きとに基づいて、模型装置用のコースのデータから表示用のバーチャル画像を作成するステップと、コントローラが、模型装置から受信した撮影画像とバーチャル画像とを合成した画像をディスプレイに表示させるステップとを備える。 When another situation of this invention is followed, the control method in a network system provided with the model apparatus and the controller which memorize | stores the data of the course for model apparatuses is provided. The control method includes a step in which the controller receives a command for moving the model device, a step in which the controller transmits a command to the model device, and a step in which the model device moves the model device based on the command from the controller. A step in which the model device photographs the front of the model device; a step in which the model device acquires the position of the model device; a step in which the model device acquires the orientation of the model device; Transmitting the position and orientation to the controller, creating a virtual image for display from the course data for the model device based on the position and orientation received from the model device by the controller, and the controller The composite image of the captured image received from the model device and the virtual image is displayed on the display. And a step.
この発明の別の局面に従うと、ディスプレイと、模型装置用のコースのデータを記憶するメモリと、模型装置を移動させるための指令を受け付けるための操作部と、指令を模型装置へ送信し、模型装置から撮影画像と模型装置の位置と向きとを受信するための通信インターフェイスと、模型装置から受信した位置と向きとに基づいて、コースのデータから表示用のバーチャル画像を作成し、模型装置から受信した撮影画像とバーチャル画像とを合成した画像をディスプレイに表示させるためのプロセッサとを備える、コントローラが提供される。 According to another aspect of the present invention, a display, a memory for storing course data for the model device, an operation unit for receiving a command for moving the model device, a command is transmitted to the model device, Based on the communication interface for receiving the photographed image and the position and orientation of the model device from the device, and the position and orientation received from the model device, a virtual image for display is created from the course data, and from the model device A controller is provided that includes a processor for causing a display to display an image obtained by combining a received captured image and a virtual image.
この発明の別の局面に従うと、模型装置用のコースのデータを記憶するメモリとディスプレイと通信インターフェイスとプロセッサとを含むコントローラにおけるコントロール方法が提供される。コントロール方法は、プロセッサが、模型装置を移動させるための指令を受け付けるステップと、プロセッサが、通信インターフェイスを介して、指令を模型装置へ送信するステップと、プロセッサが、通信インターフェイスを介して、模型装置から撮影画像と模型装置の位置と向きとを受信するステップと、プロセッサが、模型装置から受信した位置と向きとに基づいて、コースのデータから表示用のバーチャル画像を作成するステップと、プロセッサが、模型装置から受信した撮影画像とバーチャル画像とを合成した画像をディスプレイに表示させるステップとを備える。 According to another aspect of the present invention, there is provided a control method in a controller including a memory for storing course data for a model apparatus, a display, a communication interface, and a processor. The control method includes a step in which a processor receives a command for moving the model device, a step in which the processor transmits a command to the model device via a communication interface, and a processor in which the model device is transmitted via the communication interface. Receiving the captured image and the position and orientation of the model device from the processor, the processor creating a virtual image for display from the course data based on the position and orientation received from the model device, and the processor And displaying on the display an image obtained by synthesizing the captured image received from the model device and the virtual image.
この発明の別の局面に従うと、模型装置用のコースのデータを記憶するメモリとディスプレイと通信インターフェイスとプロセッサとを含むコントローラに模型装置をコントロールさせるためのコントロールプログラムが提供される。コントロールプログラムは、プロセッサに、模型装置を移動させるための指令を受け付けるステップと、通信インターフェイスを介して、指令を模型装置へ送信するステップと、通信インターフェイスを介して、模型装置から撮影画像と模型装置の位置と向きとを受信するステップと、模型装置から受信した位置と向きとに基づいて、コースのデータから表示用のバーチャル画像を作成するステップと、模型装置から受信した撮影画像とバーチャル画像とを合成した画像をディスプレイに表示させるステップとを実行させる。 According to another aspect of the present invention, there is provided a control program for causing a controller including a memory for storing course data for a model device, a display, a communication interface, and a processor to control the model device. The control program includes a step of receiving a command for moving the model device to the processor, a step of transmitting a command to the model device via the communication interface, and a captured image and a model device from the model device via the communication interface. A step of receiving a position and orientation of the image, a step of creating a virtual image for display from the course data based on the position and orientation received from the model device, a captured image and a virtual image received from the model device, And a step of displaying the synthesized image on the display.
以上のように、この発明によれば、コントローラからの指令に基づいて移動する模型装置を利用した新たなネットワークシステムが実現される。 As described above, according to the present invention, a new network system using a model device that moves based on a command from a controller is realized.
以下、図面を参照しつつ、本発明の実施の形態について説明する。以下の説明では、同一の部品には同一の符号を付してある。それらの名称および機能も同じである。したがって、それらについての詳細な説明は繰り返さない。 Hereinafter, embodiments of the present invention will be described with reference to the drawings. In the following description, the same parts are denoted by the same reference numerals. Their names and functions are also the same. Therefore, detailed description thereof will not be repeated.
以下では、ラジコンカーを「模型装置」の代表例として説明を行う。ただし、「模型装置」は、飛行できるヘリコプターや飛行機でもよいし、歩行できるロボットであってもよい。なお、ヘリコプターや飛行機の場合は、模型装置の高度を取得する高度計を含むことが好ましい。また、「コントローラ」は、模型装置の制御専用のものであってもよいし、他の機能を有する携帯型電話機、パーソナルコンピュータ、電子ノート、PDA(Personal Digital Assistant)などのディスプレイと通信インターフェイスを有する機器であってもよい。 In the following, a radio controlled car will be described as a representative example of the “model device”. However, the “model device” may be a helicopter or airplane that can fly, or a robot that can walk. In the case of a helicopter or an airplane, it is preferable to include an altimeter that acquires the altitude of the model device. In addition, the “controller” may be dedicated to control of the model apparatus, and has a display and communication interface such as a portable telephone, personal computer, electronic notebook, PDA (Personal Digital Assistant) having other functions. It may be a device.
[実施の形態1]
<ネットワークシステムの動作概要>
まず、本実施の形態に係るネットワークシステム1の動作概要について説明する。図1は、本実施の形態に係るネットワークシステム1の全体構成を示すイメージ図である。
[Embodiment 1]
<Overview of network system operation>
First, an outline of the operation of the network system 1 according to the present embodiment will be described. FIG. 1 is an image diagram showing an overall configuration of a network system 1 according to the present embodiment.
図1を参照して、ネットワークシステム1は、コントローラ100X,100Yとラジコンカー200X,200Yとを含む。以下では、説明のために、コントローラ100X,100Yを総称して、コントローラ100という。ラジコンカー200X,200Yを総称して、ラジコンカー200という。
Referring to FIG. 1, network system 1 includes
各々のユーザは、ラジコンカー200を公園や庭の地面に載置する。ユーザは、コントローラ100を介してラジコンカー200の動作を制御する。
Each user places the radio controlled
ラジコンカー200は、ラジコンカー200の前方を撮影するためのカメラを搭載する。ラジコンカー200は、撮影画像を逐次コントローラ100に送信する。
The radio controlled
ラジコンカー200は、ラジコンカー200の現在位置を測定するためのGPS(Global Positioning System)を搭載する。ラジコンカー200は、現在の位置を逐次コントローラ100に送信する。
The radio controlled
ラジコンカー200は、ラジコンカー200の現在の向き(姿勢)を測定するための電子コンパスを搭載する。ラジコンカー200は、現在の向きを逐次コントローラ100に送信する。ラジコンカー200は、撮影画像と現在の位置と現在の向きとを、同時にコントローラ100に送信してもよいし、別々に送信してもよい。
The radio controlled
コントローラ100は、ラジコンカー200からの撮影画像を表示する。ユーザは、撮影画像を見ながら、コントローラ100にラジコンカー200を移動させるための命令(前進命令、後進命令、方向転換命令、加減速命令、以下これらの命令を移動命令ともいう。)を入力する。コントローラ100は、ラジコンカー200にユーザからの移動命令を送信する。
The
本実施の形態においては、コントローラ100は、ラジコンカー200からの現在位置の時系列データ(コース作成用時系列データ)を蓄積する。コントローラ100は、時系列データに基づいて、ラジコンカー200の軌跡301を取得する。コントローラ100は、ラジコンカー200の軌跡301に基づいて、ラジコンカー200のためのコース(サーキット)302を示すデータを作成する。
In the present embodiment, the
コースを示すデータ(コースデータとも言う。)は、コースのトラックを示す白線やコースパイロンなどの3Dオブジェクトを含む。コースの位置、形状、向きは、現実の地図データに対応付けられる。あるいは、コースの位置、形状、向きは、緯度・経度に対応付けられる。 Data indicating a course (also referred to as course data) includes a 3D object such as a white line indicating a course track or a course pylon. The course position, shape, and orientation are associated with actual map data. Alternatively, the course position, shape, and orientation are associated with latitude and longitude.
ただし、コントローラ100は、タッチパネル130などを介して、コースの作成命令を受け付けてもよい。たとえば、コントローラ100は地図を表示している状態で、ユーザから地図上におけるスライド操作を受け付ける。コントローラ100は、スライド操作に基づいて、コースの位置と形状と向きとを決定する。
However, the
あるいは、コントローラ100は、予め複数のコースデータを記憶していてもよい。すなわち、ラジコンカー200が走らなくとも、予め準備された複数のコースからユーザが所望のコースを選択してもよい。この場合には、たとえば、コースの位置、形状、向きが予め地図データあるいは緯度・経度に対応付けられている。あるいは、コースの形状のみが準備されており、ユーザがコースを選択する際に、ユーザによってコースの位置と向きとが指定されてもよい。
Alternatively, the
コースが決定された後、ユーザの命令に基づいて、コントローラ100はレースを開始する。コントローラ100は、コースのデータとラジコンカー200の現在の位置と向きとに基づいて、コースにおけるラジコンカー200の位置と向きとを取得する。コントローラ100は、コースにおけるラジコンカー200の位置と向きとに基づいて、コースのデータからラジコンカー200から見た3Dオブジェクトを示すバーチャル画像を作成する。
After the course is determined, the
たとえば、コントローラ100は、サーキットの3Dモデルデータを作成してから、サーキットにおけるラジコンカー200の位置と向きとに基づいて、3Dモデルデータの視点を決定する。コントローラ100は、当該視点からの3Dモデルデータの表示画像(バーチャル画像)を作成する。
For example, after creating 3D model data of a circuit, the
コントローラ100は、ラジコンカー200の撮影画像にバーチャル画像を重畳させて表示する。
The
本実施の形態においては、第1のラジコンカー200Xを制御するための第1のコントローラ100Xは、第2のラジコンカー200Yを制御するための第2のコントローラ100Yと通信することが可能である。第1のコントローラ100Xは、コースデータを第2のコントローラ100Yへと送信したり、第2のラジコンカー200からコースデータを受信したりする。
In the present embodiment, the
すなわち、第1のコントローラ100Xと第2のコントローラ100Yとは、共通のコースデータに基づいて、ラジコンカー200X,200Yの走行を制御することができる。たとえば、第1のコントローラ100Xのユーザは、第1のラジコンカー200Xからの撮影画像を見ながら、すなわち、第2のラジコンカー200Yの現実の映像を見ながら、コースに沿ったレースを行うことができる。第2のコントローラ100Yも同様である。
That is, the
このように、本実施の形態に係るネットワークシステム1においては、ユーザは、仮想的なコースを示す画像(バーチャル画像)を見ながら、ラジコンカー200の目線でラジコンカー200の移動を制御することができる。その結果、ユーザは、ラジコンカー200の移動の制御を臨場感あふれるものにすることができる。
As described above, in the network system 1 according to the present embodiment, the user can control the movement of the radio controlled
以下、このような機能を実現するためのネットワークシステム1の具体的な構成について詳述する。 Hereinafter, a specific configuration of the network system 1 for realizing such a function will be described in detail.
<コントローラ100の構成>
コントローラ100の具体的構成の一態様について説明する。図2は、本実施の形態に係るコントローラ100のハードウェア構成を表わすブロック図である。図2を参照して、コントローラ100は、主たる構成要素として、CPU110と、メモリ120と、タッチパネル130と、スピーカ140と、ボタン150と、メモリインターフェイス160と、通信インターフェイス170と、時計180とを含む。
<Configuration of
One aspect of a specific configuration of the
メモリ120は、各種のRAM(Random Access Memory)や、ROM(Read-Only Memory)や、ハードディスクなどによって実現される。メモリ120は、CPU110によって実行されるプログラム、地図データ、バーチャルコースを示すための各種のモデルデータなどを記憶する。換言すれば、CPU110は、メモリ120に記憶されているプログラムを実行することによって、コントローラ100の各部を制御する。
The
タッチパネル130は、タブレット132とタブレット132の表面に敷設されるディスプレイ131とを含む。後述するようにラジコンカー200が3Dカメラを有する場合には、ディスプレイ131は、3Dディスプレイであることが好ましい。
The
タッチパネル130は、抵抗膜方式、表面弾性波方式、赤外線方式、電磁誘導方式、静電容量方式などのいずれのタイプであってもよい。タッチパネル130は、光センサ液晶を含んでもよい。タッチパネル130(タブレット132)は、所定時間毎に外部の物体によるタッチパネル130へのタッチ操作を検知して、タッチ座標(タッチ位置)をCPU110に入力する。換言すれば、CPU110は、タッチパネル130から順次タッチ座標を取得する。
The
スピーカ140は、CPU110からの命令に基づいて、音声を出力する。たとえば、CPU110は、音声データに基づいて、スピーカ140に音声を出力させる。
The
ボタン150は、コントローラ100の表面に配置される。方向キー、決定キー、テンキーなどの複数のボタンがコントローラ100に配置されてもよい。ボタン150は、ユーザからの命令を受け付ける。ボタン150は、ユーザからの命令をCPU110に入力する。
The
メモリインターフェイス160は、外部の記憶媒体161からデータを読み出す。換言すれば、CPU110は、メモリインターフェイス160を介して外部の記憶媒体161に格納されているデータを読み出して、当該データをメモリ120に格納する。逆に、CPU110は、メモリ120からデータを読み出して、メモリインターフェイス160を介して当該データを外部の記憶媒体161に格納する。
The
なお、記憶媒体161としては、CD(Compact Disc)、DVD(Digital Versatile Disk)、BD(Blu-ray Disc)、USB(Universal Serial Bus)メモリ、メモリカード、FD(Flexible Disk)、ハードディスク、磁気テープ、カセットテープ、MO(Magnetic Optical Disc)、MD(Mini Disc)、IC(Integrated Circuit)カード(メモリカードを除く)、光カード、EPROM、EEPROM(Electronically Erasable Programmable Read-Only Memory)などの、不揮発的にプログラムを格納する媒体が挙げられる。
The
通信インターフェイス170は、アンテナやコネクタによって実現される。通信インターフェイス170は、無線通信によってラジコンカー200や他のコントローラ100との間でデータをやり取りする。CPU110は、通信インターフェイス170を介して、他のコンピュータからプログラムや地図データなどを受信する。CPU110は、通信インターフェイス170を介して、他のコントローラ100にコースデータを送信したり、他のコントローラ100からコースデータを受信したりする。CPU110は、通信インターフェイス170を介して、ラジコンカー200に移動命令を送信したり、ラジコンカー200から撮影画像や現在の位置や現在の向きを受信したりする。
The
時計180は、CPU110からの指令に基づいて、時刻あるいは期間を計測する。
CPU110は、メモリ120あるいは記憶媒体161に記憶されているプログラムを実行することによって、コントローラ100の各部を制御する。たとえば、CPU110は、メモリ120あるいは記憶媒体161に記憶されているプログラムを実行することによって、ラジコンカー200のコントロール処理を実行する。
The
The
具体的には、CPU110は、通信インターフェイス170を介して、ラジコンカー200から撮影画像を受信する。CPU110は、撮影画像をタッチパネル130に表示させる。CPU110は、タッチパネル130またはボタン150を介して、ユーザからラジコンカー200を移動させるための命令(移動命令)を受け付ける。CPU110は、通信インターフェイス170を介して、ラジコンカー200に移動命令を送信する。
Specifically,
CPU110は、通信インターフェイス170を介して、ラジコンカー200から現在の位置と向きとを受信する。CPU110は、ラジコンカー200の現在位置の時系列データをメモリ120に格納する。
CPU110は、時系列データに基づいて、ラジコンカー200の軌跡301を取得する。CPU110は、ラジコンカー200の軌跡301に基づいて、ラジコンカー200のためのコース302を示すデータを作成する。
CPU110 acquires the locus |
コースを示すデータ(コースデータとも言う。)は、コースの中心線を示す白線301Xやコースの端線を示す白線302Xやコースパイロン303Xなどの3Dオブジェクト(モデルデータ)を含む。CPU110は、コースの位置、形状、向きを、現実の地図データに対応付ける。あるいは、CPU110は、コースの位置、形状、向きを、緯度・経度に対応付ける。
Data indicating a course (also referred to as course data) includes 3D objects (model data) such as a
あるいは、CPU110は、ラジコンカー200を走行させることなく、コースデータを作成してもよい。より詳細には、本実施の形態に係るCPU110は、タッチパネル130またはボタン150を介して、ユーザから地図の取得命令を受け付ける。CPU110は、通信インターフェイス170を介して、外部のサーバなどから地図データをダウンロードする。CPU110は、メモリ120や記憶媒体161から地図データを読み出してもよい。
Alternatively, the
CPU110は、タッチパネル130またはボタン150を介して、ユーザから、ラジコンカー200のためのコースを作成するための命令を受け付ける。図3は、本実施の形態に係るユーザがラジコンカー200のためのコースを作成するための命令を入力する状態を示すイメージ図である。
図3を参照して、CPU110は、タッチパネル130に地図画像を表示しながら、ユーザによるスライド操作を受け付ける。たとえば、CPU110は、タッチパネル130を介して、指の地図画像に対するタッチ位置を順次取得することによって、地図画像上の指の軌跡301を取得する。
Referring to FIG. 3,
あるいは、CPU110は、タッチパネル130に地図画像とポインタとを表示する。CPU110は、ボタン150を介して、ユーザからポインタの移動命令を受け付ける。CPU110は、ポインタの地図画像に対する位置を順次取得することによって、地図画像上のポインタの軌跡301を取得する。たとえば、ユーザは、所定のキーを押しながら、方向キーを操作することによってポインタを移動させる。
Alternatively, the
CPU110は、当該指の軌跡301に基づいて、ラジコンカー200のためのコース302を示すデータを作成する。CPU110は、軌跡301の両側にコースの端部を示すためのコースパイロンやトラックラインなどを作成する。
The
あるいは、コントローラ100は、予め複数のコースデータを記憶していてもよい。すなわち、予め準備された複数のコースから、ユーザが所望のコースを選択してもよい。この場合には、たとえば、コースの位置、形状、向きが予め地図データあるいは緯度・経度に対応付けられている。あるいは、コースの形状のみが準備されており、ユーザがコースを選択する際に、コースの位置と向きとが指定されてもよい。
Alternatively, the
本実施の形態においては、CPU110は、コースデータを他のコントローラ100へと送信したり、他のコントローラ100からコースデータを受信したりする。CPU110は、他のコントローラ100から受信したコースデータをメモリ120に格納する。CPU110は、タッチパネル130またはボタン150を介して、ユーザから当該コースデータの選択を受け付ける。
In the present embodiment,
たとえば、第1および第2のコントローラ100X,100Yのユーザが、第1および第2のラジコンカー200X,200Yを、同一のコース上で同時に走らせることによって、レースを行うことができる。
For example, a user of the first and
コースが決定された後、ユーザの命令に基づいて、CPU110は、レースを開始する。CPU110は、コースのデータとラジコンカー200の現在位置と向きとに基づいて、コースにおけるラジコンカー200の位置と向きとを取得する。
After the course is determined, the
CPU110は、コースにおけるラジコンカー200の位置と向きとに基づいて、コースのデータからラジコンカー200から見た3Dオブジェクトを示すバーチャル画像を作成する。CPU110は、ラジコンカー200の撮影画像にバーチャル画像を重畳させて表示する。たとえば、撮影画像には、他のコントローラ100のラジコンカー200が写っていることもある。
CPU110 creates the virtual image which shows the 3D object seen from the radio controlled
図4は、本実施の形態に係る通常モードとレースモードとにおけるコントローラ100を示すイメージ図である。より詳細には、図4(a)は、レースがスタートする前、あるいは、コースを作成するためにラジコンカー200が走行しているとき、におけるコントローラ100のタッチパネル130を示すイメージ図である。図4(b)は、レース中におけるコントローラ100のタッチパネル130を示すイメージ図である。
FIG. 4 is an image
図4(a)を参照して、CPU110は、レースがスタートする前、あるいは、コースを作成するためにラジコンカー200が走行しているとき、ラジコンカー200からの撮影画像をタッチパネル130に表示させる。図4(b)を参照して、CPU110は、レースがスタートすると、あるいは、レース中においては、ラジコンカー200からの撮影画像に、コースの中心を示す白線301X、コースの端を示す白線302X、コースパイロン303Xなどのバーチャル画像を重畳させる。
Referring to FIG. 4A,
より詳細には、CPU110は、タッチパネル130に、撮影画像にレースのスタートに適した2Dまたは3Dのバーチャル画像を重畳させてもよい。すなわち、メモリ120は、スタート用のバーチャル画像を記憶する。図5は、本実施の形態に係るレースのスタート直前におけるコントローラ100を示すイメージ図である。
More specifically, the
図5を参照して、CPU110は、タッチパネル130またはボタン150を介して、コースにおけるスタート地点やゴール地点を受け付ける。CPU110は、コースにおけるラジコンカー200の現在の位置と向きとに基づいて、レースが開始される際に、メモリ120からバーチャル画像を読み出す。CPU110は、タッチパネル130に、撮像画像と白線301X,302Xとコースパイロン303Xとスタートのタイミングを示す文字と信号機の画像などを表示させる。
Referring to FIG. 5,
また、CPU110は、タッチパネル130に、撮影画像にレースのゴールに適した2Dまたは3Dのバーチャル画像を表示させてもよい。すなわち、メモリ120は、ゴール用のバーチャル画像を記憶する。図6は、本実施の形態に係るラジコンカー200がレースのゴール地点の直前に位置するときにおけるコントローラ100を示すイメージ図である。
Further, the
CPU110は、タッチパネル130またはボタン150を介して、コースにおけるスタート地点やゴール地点を受け付ける。CPU110は、タッチパネル130またはボタン150を介して、コースを何週するかの指定を受け付ける。
The
図6を参照して、CPU110は、コースにおけるラジコンカー200の現在位置と向きに基づいて、ラジコンカー200がゴール地点に近づくと、メモリ120からバーチャル画像を読み出す。CPU110は、タッチパネル130に、撮像画像と白線301X,302Xとコースパイロン303Xとゴール地点を示す画像などを表示させる。
Referring to FIG. 6,
<ラジコンカー200の構成>
次に、ラジコンカー200の具体的構成の一態様について説明する。図7は、本実施の形態に係るラジコンカー200のハードウェア構成を表わすブロック図である。図7を参照して、ラジコンカー200は、主たる構成要素として、CPU210と、メモリ220と、移動機構230と、GPS240と、電子コンパス250と、メモリインターフェイス260と、通信インターフェイス270と、時計280と、カメラ290とを含む。
<Configuration of radio controlled
Next, an aspect of a specific configuration of the radio controlled
メモリ220は、各種のRAMや、ROMや、ハードディスクなどによって実現される。メモリ220は、CPU210によって実行されるプログラムなどを記憶する。換言すれば、CPU210は、メモリ220に記憶されているプログラムを実行することによって、ラジコンカー200の各部を制御する。
The
移動機構230は、CPU210からの指令に基づいて、ラジコンカー200を移動させる。たとえば、移動機構230は、モータやシャフトやタイヤなどを含む。ただし、移動機構230は、プロペラ、翼、脚部などであってもよい。移動機構230は、コントローラ100からの移動命令に応じて、ラジコンカー200を移動させる。
The moving
GPS240は、ラジコンカー200の現在位置を取得する。現在位置は、通信インターフェイス270を介して、コントローラ100へと送信される。
The
電子コンパス250は、ラジコンカー200の向きを取得する。向きは、通信インターフェイス270を介して、コントローラ100へと送信される。
The
メモリインターフェイス260は、外部の記憶媒体261からデータを読み出す。換言すれば、CPU210は、メモリインターフェイス260を介して外部の記憶媒体261に格納されているデータを読み出して、当該データをメモリ220に格納する。逆に、CPU210は、メモリ220からデータを読み出して、メモリインターフェイス260を介して当該データを外部の記憶媒体261に格納する。
The
なお、記憶媒体261の実現方法としては、コントローラ100の記憶媒体161と同様であるため、ここでは説明を繰り返さない。
Since the
通信インターフェイス270は、アンテナやコネクタによって実現される。通信インターフェイス270は、無線通信によってコントローラ100との間でデータをやり取りする。換言すれば、CPU210は、通信インターフェイス270を介して、コントローラ100から移動命令を受信したり、撮影画像や現在の位置や現在の向きを送信したりする。
The
時計280は、CPU210からの指令に基づいて、時刻あるいは期間を計測する。
カメラ290は、ラジコンカー200の前部に配置されている。カメラ290は、ラジコンカー200の前方の景色を撮影する。カメラ290は、右目用画像を撮影するための右カメラと左目用画像を撮影するための左カメラとを含むことが好ましい。すなわち、カメラ290は、3D画像を撮影できることが好ましい。
The
The
CPU210は、メモリ220あるいは記憶媒体261に記憶されているプログラムを実行することによって、ラジコンカー200の各部を制御する。たとえば、CPU210は、メモリ220あるいは記憶媒体261に記憶されているプログラムを実行する。
The
より詳細には、本実施の形態に係るCPU210は、通信インターフェイス270を介して、逐次、カメラ290が撮影した画像をコントローラ100に送信する。CPU210は、コントローラ100からの要求に応じて、あるいは定期的に、通信インターフェイス270を介して、ラジコンカー200の現在位置と向きとをコントローラ100に送信する。CPU210は、通信インターフェイス270を介して、コントローラ100から移動命令を受け付ける。CPU210は、移動命令に基づいて、移動機構230を駆動させる。
More specifically,
たとえば、CPU210は、通信インターフェイス270を介して、移動命令として、前進命令、後進命令、方向転換命令、加減速命令などを受信する。CPU210は、当該命令に基づいて移動機構230を駆動させることによって、ラジコンカー200を前進させたり、後進させたり、方向転換させたり、速度を増加させたりする。
For example, the
<制御方法>
以下では、主に、本実施の形態に係るコントローラ100で実行される処理について説明する。すなわち、本実施の形態に係るコントローラ100におけるラジコンカー200の制御方法について説明する。図8は、実施の形態1に係るコントローラ100における制御方法を示すシーケンス図である。
<Control method>
Below, the process performed with the
図8を参照して、コントローラ100のCPU110は、タッチパネル130またはボタン150を介して、ユーザからレースの開始命令を受け付けると、ステップS106からの処理を実行する。なお、以下では、CPU110は、通信インターフェイス170を介して、一度は、ラジコンカー200から現在の位置と向きとを受信しているものとする。
Referring to FIG. 8, when
CPU110は、メモリ120からコースデータを読み出すことによって、コースの3Dバーチャルデータを作成する(ステップS106)。CPU110は、通信インターフェイス170を介して、ラジコンカー200から撮像画像または現在位置および向きを受信したか否かを判断する(ステップS108)。CPU110は、ラジコンカー200から撮像画像または現在位置および向きを受信しなかった場合(ステップS108においてNOである場合)、ステップS108の処理を繰り返す。
CPU110は、ラジコンカー200から撮像画像および現在位置および向きを受信した場合(ステップS108においてYESである場合)、最新のラジコンカー200の現在位置および向きに基づいて、コースを示す3Dバーチャルモデルに対する視点を決定する(ステップS112)。より詳細には、CPU110は、コースにおける位置と向きとに基づいて、3Dバーチャルモデルに対する視点を決定する。
When
CPU110は、決定された視点からの、3Dバーチャル画像を作成する(ステップS114)。CPU110は、最新の撮像画像に、作成された最新の3Dバーチャル画像を重畳させる(ステップS116)。CPU110は、タッチパネル130に、最新の撮像画像と最新の3Dバーチャル画像との合成画像を表示させる(ステップS118)。
CPU110は、タッチパネル130またはボタン150を介して、ユーザからレースを終了するための命令を受け付けたか否かを判断する(ステップS120)。CPU110は、レースを終了するための命令を受け付けなかった場合(ステップS120においてNOである場合)、ステップS108からの処理を繰り返す。CPU110は、レースを終了するための命令を受け付けた場合(ステップS120においてYESである場合)、ラジコンカー200のコントロール処理を終了する。
[実施の形態2]
次に、本発明の実施の形態2について説明する。本実施の形態に係るネットワークシステム1では、第1のコントローラ100Xが、第1のラジコンカー200Xのレース中に、既にコースを走行した第2のラジコンカー200Yを示すバーチャル画像を表示するものである。
[Embodiment 2]
Next, a second embodiment of the present invention will be described. In the network system 1 according to the present embodiment, the
なお、以下では、実施の形態1に係るネットワークシステム1と同様の構成については、説明を繰り返さない。 Hereinafter, the description of the same configuration as that of network system 1 according to Embodiment 1 will not be repeated.
<ネットワークシステムの動作概要>
まず、本実施の形態に係るネットワークシステム1の動作概要について説明する。
<Overview of network system operation>
First, an outline of the operation of the network system 1 according to the present embodiment will be described.
図1を参照して、ネットワークシステム1は、コントローラ100X,100Yとラジコンカー200X,200Yとを含む。ただし、本実施の形態においては、第2のラジコンカー200Yの走行が終了してから、第1のラジコンカー200Xが走行するものとする。以下では、説明のために、コントローラ100X,100Yを総称して、コントローラ100という。ラジコンカー200X,200Yを総称して、ラジコンカー200という。
Referring to FIG. 1, network system 1 includes
ユーザは、ラジコンカー200を公園や庭の地面に載置する。ユーザは、コントローラ100を介してラジコンカー200の動作を制御する。
The user places the radio controlled
ラジコンカー200は、ラジコンカー200の前方を撮影するためのカメラを搭載する。ラジコンカー200は、撮影画像を逐次コントローラ100に送信する。
The radio controlled
ラジコンカー200は、ラジコンカー200の現在位置を測定するためのGPSを搭載する。ラジコンカー200は、現在の位置を逐次コントローラ100に送信する。
The radio controlled
ラジコンカー200は、ラジコンカー200の現在の向き(姿勢)を測定するための電子コンパスを搭載する。ラジコンカー200は、現在の向きを逐次コントローラ100に送信する。
The radio controlled
コントローラ100は、ラジコンカー200からの撮影画像を表示する。ユーザは、撮影画像を見ながら、コントローラ100にラジコンカー200を移動させるための命令(移動命令)を入力する。コントローラ100は、ラジコンカー200にユーザからの移動命令を送信する。
The
本実施の形態においては、コントローラ100は、ラジコンカー200からの現在位置と向きの時系列データ(コース作成用時系列データ)を蓄積する。コントローラ100は、時系列データに基づいて、ラジコンカー200の軌跡301を取得する。コントローラ100は、ラジコンカー200の軌跡301に基づいて、ラジコンカー200のためのコース302を示すデータを作成する。
In the present embodiment, the
コースを示すデータは、コースのトラックを示す白線やコースパイロンなどの3Dオブジェクトを含む。コースの位置、形状、向きは、現実の地図データに対応付けられる。あるいは、コースの位置、形状、向きは、緯度・経度に対応付けられる。 The data indicating the course includes a 3D object such as a white line indicating a course track or a course pylon. The course position, shape, and orientation are associated with actual map data. Alternatively, the course position, shape, and orientation are associated with latitude and longitude.
ただし、コントローラ100は、タッチパネル130などを介して、コースの作成命令を受け付けてもよい。たとえば、コントローラ100は地図を表示している状態で、ユーザから地図上におけるスライド操作を受け付ける。コントローラ100は、スライド操作に基づいて、コースの位置と形状と向きとを決定する。
However, the
あるいは、コントローラ100は、予め複数のコースデータを記憶していてもよい。すなわち、ラジコンカー200が走らなくとも、予め準備された複数のコースからユーザが所望のコースを選択してもよい。この場合には、たとえば、コースの位置、形状、向きが予め地図データあるいは緯度・経度に対応付けられている。あるいは、コースの形状のみが準備されており、ユーザがコースを選択する際に、ユーザによってコースの位置と向きとが指定されてもよい。
Alternatively, the
本実施の形態においては、第1のラジコンカー200Xを制御するための第1のコントローラ100Xは、第2のラジコンカー200Yを制御するための第2のコントローラ100Yと通信することが可能である。第1のコントローラ100Xは、コースの決定後に、コースデータを第2のコントローラ100Yへと送信したり、第2のラジコンカー200Yからコースデータを受信したりする。すなわち、第1のコントローラ100Xと第2のコントローラ100Yとは、共通のコースデータに基づいて、ラジコンカー200X,200Yの走行を制御することができる。
In the present embodiment, the
たとえば、第2のコントローラ100Yが先にコースを走行した場合、第2のコントローラ100Yは、第2のラジコンカー200Yの位置と向きの時系列データ(レース用時系列データ)を蓄積する。第1のコントローラ100Xは、第1のラジコンカー200Xを走行させる前に、第2のコントローラ100Yによって制御されるラジコンカー200Yの位置と向きの時系列データを取得する。
For example, when the
コントローラ100は、時系列データを取得した後、ユーザの命令に基づいて、レースを開始する。コントローラ100は、コースのデータとラジコンカー200の現在位置と向きとに基づいて、コースにおけるラジコンカー200の位置と向きとを取得する。コントローラ100は、他のコントローラ100からの他のラジコンカーの時系列データを参照することによって、レース開始からの時刻に基づいてコースにおける他のラジコンカーの位置と向きを取得する。
After acquiring the time series data, the
コントローラ100は、コースにおけるラジコンカー200の位置と向きとに基づいて、コースのデータと他のラジコンカーの位置および向きとからラジコンカー200から見た3Dオブジェクトを示すバーチャル画像を作成する。本実施の形態においては、バーチャル画像は、コースを示す画像だけでなく、他のラジコンカーを示す画像を含む。他のラジコンカーの画像としては、予め登録されているスポーツカーのアニメーションや他のラジコンカーの顔写真などが挙げられる。
Based on the position and orientation of the radio controlled
コントローラ100は、ラジコンカー200の撮影画像にバーチャル画像を重畳させて表示する。
The
第1のラジコンカー200Xがコースを走行している間、第1のコントローラ100Xは、第1のラジコンカー200Xの位置と向きの時系列データ(レース用時系列データ)を蓄積する。第1のコントローラ100Xは、第1のラジコンカー200Xの走行が終了すると、第1のラジコンカー200Xの位置と向きの時系列データを、第2のコントローラ100Yまたは第3のコントローラへと送信する。
While the first radio controlled
このように、本実施の形態に係るネットワークシステム1においては、ユーザは、仮想のコースと他のラジコンカーとを示すバーチャル画像を見ながら、自分が制御するラジコンカー200の目線でラジコンカー200の移動を制御することができる。その結果、ユーザは、ラジコンカー200の移動の制御を臨場感あふれるものにすることができる。
As described above, in the network system 1 according to the present embodiment, the user looks at the virtual image showing the virtual course and the other radio controlled car, while looking at the radio controlled
以下、このような機能を実現するためのネットワークシステム1の具体的な構成について詳述する。 Hereinafter, a specific configuration of the network system 1 for realizing such a function will be described in detail.
<コントローラ100の構成>
なお、コントローラ100のハードウェア構成については、実施の形態1のそれと同様であるため、ここでは説明を繰り返さない。以下では、メモリ120に記憶されるデータとコントローラ100のCPU110の動作について説明する。
<Configuration of
Since the hardware configuration of
CPU110は、メモリ120あるいは記憶媒体161に記憶されているプログラムを実行することによって、コントローラ100の各部を制御する。たとえば、CPU110は、メモリ120あるいは記憶媒体161に記憶されているプログラムを実行することによって、ラジコンカー200のコントロール処理を実行する。
The
具体的には、CPU110は、通信インターフェイス170を介して、ラジコンカー200から撮影画像を受信する。CPU110は、撮影画像をタッチパネル130に表示させる。CPU110は、タッチパネル130またはボタン150を介して、ユーザからラジコンカー200を移動させるための命令(移動命令)を受け付ける。CPU110は、通信インターフェイス170を介して、ラジコンカー200に移動命令を送信する。
Specifically,
CPU110は、通信インターフェイス170を介して、ラジコンカー200から現在の位置と向きとを受信する。CPU110は、ラジコンカー200の現在位置と向きの時系列データ(コース作成用時系列データ)をメモリ120に格納する。
CPU110は、コース作成用時系列データに基づいて、ラジコンカー200の軌跡301を取得する。CPU110は、ラジコンカー200の軌跡301に基づいて、ラジコンカー200のためのコース302を示すデータを作成する。
CPU110 acquires
コースを示すデータ(コースデータとも言う。)は、コースのトラックを示す白線やコースパイロンなどの3Dオブジェクト(モデルデータ)を含む。CPU110は、コースの位置、形状、向きを、現実の地図データに対応付ける。あるいは、CPU110は、コースの位置、形状、向きを、緯度・経度に対応付ける。
Data indicating a course (also referred to as course data) includes a 3D object (model data) such as a white line indicating a course track or a course pylon. The
あるいは、CPU110は、ラジコンカー200を走行させることなく、コースデータを作成してもよい。より詳細には、本実施の形態に係るCPU110は、タッチパネル130またはボタン150を介して、ユーザから地図の取得命令を受け付ける。CPU110は、通信インターフェイス170を介して、外部のサーバなどから地図データをダウンロードする。CPU110は、メモリ120や記憶媒体161から地図データを読み出してもよい。
Alternatively, the
CPU110は、タッチパネル130またはボタン150を介して、ユーザから、ラジコンカー200のためのコースを作成するための命令を受け付ける。図3を参照して、CPU110は、タッチパネル130に地図画像を表示しながら、ユーザによるスライド操作を受け付ける。たとえば、CPU110は、タッチパネル130を介して、指の地図画像に対するタッチ位置を順次取得することによって、地図画像上の指の軌跡301を取得する。
あるいは、CPU110は、タッチパネル130に地図画像とポインタとを表示する。CPU110は、ボタン150を介して、ユーザからポインタの移動命令を受け付ける。CPU110は、ポインタの地図画像に対する位置を順次取得することによって、地図画像上のポインタの軌跡301を取得する。たとえば、ユーザは、所定のキーを押しながら、方向キーを操作することによってポインタを移動させる。
Alternatively, the
CPU110は、当該指の軌跡301に基づいて、ラジコンカー200のためのコース302を示すデータを作成する。CPU110は、軌跡301の両側にコースの端部を示すためのコースパイロンやトラックラインなどを作成する。
The
あるいは、コントローラ100は、予め複数のコースデータを記憶していてもよい。すなわち、予め準備された複数のコースから、ユーザが所望のコースを選択してもよい。この場合には、たとえば、コースの位置、形状、向きが予め地図データあるいは緯度・経度に対応付けられている。あるいは、コースの形状のみが準備されており、ユーザがコースを選択する際に、コースの位置と向きとが指定されてもよい。
Alternatively, the
本実施の形態においては、CPU110は、コースデータを他のコントローラ100へと送信したり、他のコントローラ100からコースデータを受信したりする。CPU110は、他のコントローラ100から受信したコースデータをメモリ120に格納する。CPU110は、タッチパネル130またはボタン150を介して、ユーザから当該コースデータの選択を受け付ける。
In the present embodiment,
コースが決定され、他のコントローラ100のユーザが他のラジコンカーをコース上で走らせた後、CPU110は、通信インターフェイス170を介して、他のコントローラ100から、他のラジコンカーの位置と向きの時系列データ(レース用時系列データ)を受信する。CPU110は、他のラジコンカーの位置と向きの時系列データをメモリ120に格納する。
After the course is determined and the user of the
図9は、実施の形態2に係るメモリ120に記憶される他のラジコンカーの位置と向きのレース用時系列データのデータベース123を示すイメージ図である。図9を参照して、CPU110は、他のコントローラ100から送信されてくる他のラジコンカーの位置および向きと当該位置および向きが計測されたレース開始からの時間とを対応付けて、レース用時系列データとしてデータベース123に格納する。本実施の形態においては、コントローラ100は、自分のラジコンカー200の位置のレース用時系列データと、他の2つのラジコンカーの位置と向きのレース用時系列データとをデータベース123に格納する。
FIG. 9 is an image diagram showing a
より詳細には、経過時間(HH:MM:SS)に関しては、飛行機のように高速で移動するラジコン機器の場合は、CPU110が1/100秒まで時刻を計測・記録し、当該時刻をHH:MM:SS:NNの形式でデータベース123に記憶する。位置座標に関しては、GPSの分野で標準的に利用されているデータ形式を使用することが望ましい。なお、N:北緯、S:南緯、E:東経、W:西経である。向き(姿勢)に関しては、GPS、電子コンパスなどで標準的に利用されているデータ形式を使用することが望ましい。なお、0:北、90:東、180:南、270:西である。
More specifically, regarding the elapsed time (HH: MM: SS), in the case of a radio-controlled device that moves at high speed like an airplane, the
ユーザの命令に基づいて、CPU110は、レースを開始する。CPU110は、コースのデータとラジコンカー200の現在位置と向きとに基づいて、コースにおけるラジコンカー200の位置と向きとを取得する。CPU110は、データベース123の他のラジコンカーの時系列データを参照することによって、レース開始からの時刻に基づいてコースにおける他のラジコンカーの位置と向きを取得する。
Based on the user's command, the
CPU110は、コースにおけるラジコンカー200の位置と向きとに基づいて、コースのデータと他のラジコンカーの位置および向きとからラジコンカー200から見た3Dオブジェクトを示すバーチャル画像を作成する。CPU110は、ラジコンカー200の撮影画像にバーチャル画像を重畳させて、タッチパネル130に表示する。
Based on the position and orientation of the radio controlled
たとえば、他のラジコンカーが先行する場合には、CPU110は、バーチャル画像に、他のラジコンカーの画像を含ませる。他のラジコンカーの画像としては、予め登録されているスポーツカーのアニメーションや他のラジコンカーの顔写真などが挙げられる。
For example, when another radio controlled car precedes, the
CPU110は、ラジコンカー200がコースを走行している間、ラジコンカー200の位置と向きのレース用時系列データをメモリ120のデータベース123に蓄積する。CPU110は、ラジコンカー200の走行が終了すると、通信インターフェイス170を介して、(自分の)ラジコンカー200の位置と向きのレース用時系列データを、他のコントローラ100へと送信する。
While the radio controlled
すなわち、本実施の形態においても、図4(a)を参照して、CPU110は、レースがスタートする前、あるいは、コースを作成するためにラジコンカー200が走行しているとき、ラジコンカー200からの撮影画像をタッチパネル130に表示させる。図4(b)を参照して、CPU110は、レースがスタートすると、あるいは、レース中においては、ラジコンカー200からの撮影画像に、コースの中心を示す白線301X、コースの端を示す白線302X、コースパイロン303Xなどのバーチャル画像を重畳させる。
That is, also in the present embodiment, referring to FIG. 4A, the
また、CPU110は、タッチパネル130に、撮影画像にレースのスタートに適した2Dまたは3Dのバーチャル画像を重畳させてもよい。すなわち、メモリ120は、スタート用のバーチャル画像を記憶する。
Further, the
図5を参照して、CPU110は、タッチパネル130またはボタン150を介して、コースにおけるスタート地点やゴール地点を受け付ける。CPU110は、コースにおけるラジコンカー200の現在位置と向きに基づいて、レースが開始される際に、メモリ120からバーチャル画像を読み出す。CPU110は、タッチパネル130に、撮像画像と白線301X,302Xとコースパイロン303Xとスタートのタイミングを示す文字と信号機の画像などを表示させる。
Referring to FIG. 5,
また、CPU110は、タッチパネル130に、撮影画像にレースのゴールに適した2Dまたは3Dのバーチャル画像を表示させてもよい。すなわち、メモリ120は、ゴール用のバーチャル画像を記憶する。
Further, the
CPU110は、タッチパネル130またはボタン150を介して、コースにおけるスタート地点やゴール地点を受け付ける。CPU110は、タッチパネル130またはボタン150を介して、コースを何週するかの指定を受け付ける。
The
図6を参照して、CPU110は、コースにおけるラジコンカー200の現在位置と向きに基づいて、ラジコンカー200がゴール地点に近づくと、メモリ120からバーチャル画像を読み出す。CPU110は、タッチパネル130に、撮像画像と白線301X,302Xとコースパイロン303Xとゴール地点を示す画像などを表示させる。
Referring to FIG. 6,
<ラジコンカー200の構成>
なお、ラジコンカー200のハードウェア構成については、実施の形態1のそれと同様であるため、ここでは説明を繰り返さない。
<Configuration of radio controlled
Note that the hardware configuration of the radio controlled
<制御方法>
以下では、主に、本実施の形態に係るコントローラ100で実行される処理について説明する。すなわち、本実施の形態に係るコントローラ100におけるラジコンカー200の制御方法について説明する。図10は、実施の形態2に係るコントローラ100における制御方法を示すシーケンス図である。
<Control method>
Below, the process performed with the
図10を参照して、コントローラ100のCPU110は、タッチパネル130またはボタン150を介して、ユーザからレースの開始命令を受け付けると、ステップS202からの処理を実行する。なお、以下では、CPU110は、通信インターフェイス170を介して、一度は、ラジコンカー200から現在の位置と向きとを受信しているものとする。また、CPU110は、通信インターフェイス170を介して、他のコントローラ100に制御される他のラジコンカーの位置および向きのレース用時系列データをデータベース123に格納しているものとする。
Referring to FIG. 10, when
CPU110は、時計180を利用して、レース開始からの時間を計測し始める(ステップS202)。CPU110は、時計180を参照して、レース開始からの経過時間を取得する(ステップS204)。CPU110は、メモリ120からコースデータを読み出すことによって、コースの3Dバーチャルデータを作成する(ステップS206)。
より詳細には、本実施の形態においては、CPU110は、データベース123の他のラジコンカーの時系列データを参照することによって、レース開始からの時刻に基づいてコースにおける他のラジコンカーの位置および向きを取得する。CPU110は、コースのデータと他のラジコンカーの位置および向きとから、コースと他のラジコンカーとを含む3Dバーチャルデータを作成する。
More specifically, in the present embodiment, the
CPU110は、通信インターフェイス170を介して、ラジコンカー200から撮像画像または現在位置および向きを受信したか否かを判断する(ステップS208)。CPU110は、ラジコンカー200から撮像画像または現在位置および向きを受信しなかった場合(ステップS208においてNOである場合)、ステップS204からの処理を繰り返す。
CPU110は、ラジコンカー200から撮像画像および現在位置および向きを受信した場合(ステップS208においてYESである場合)、現在位置と向きをレース開始からの時間に対応付けて、データベース123に格納する(ステップS210)。CPU110は、最新のラジコンカー200の現在位置および向きに基づいて、コースと他のラジコンカーとを示す3Dバーチャルモデルに対する視点を決定する(ステップS212)。すなわち、CPU110は、コースと他のラジコンカーに対する自分のラジコンカー200の位置と向きとに基づいて、3Dバーチャルモデルに対する視点を決定する。
When
CPU110は、決定された視点からの3Dバーチャル画像を作成する(ステップS214)。CPU110は、最新の撮像画像に、作成された最新の3Dバーチャル画像を重畳させる(ステップS216)。CPU110は、タッチパネル130に、最新の撮像画像と最新の3Dバーチャル画像との合成画像を表示させる(ステップS218)。
The
CPU110は、タッチパネル130またはボタン150を介して、ユーザからレースを終了するための命令を受け付けたか否かを判断する(ステップS220)。CPU110は、レースを終了するための命令を受け付けなかった場合(ステップS220においてNOである場合)、ステップS204からの処理を繰り返す。CPU110は、レースを終了するための命令を受け付けた場合(ステップS220においてYESである場合)、時間の計測を終了する(ステップS222)。CPU110は、ラジコンカー200のコントロール処理を終了する。
<その他の応用例>
本発明は、システム或いは装置にプログラムを供給することによって達成される場合にも適用できることはいうまでもない。そして、本発明を達成するためのソフトウェアによって表されるプログラムを格納した外部の記憶媒体161,261やメモリ120,220を、システム或いは装置に供給し、そのシステム或いは装置のコンピュータ(又はCPUやMPU)が外部の記憶媒体161,261やメモリ120,220に格納されたプログラムコードを読出し実行することによっても、本発明の効果を享受することが可能となる。
<Other application examples>
It goes without saying that the present invention can also be applied to a case where it is achieved by supplying a program to a system or apparatus. Then,
この場合、外部の記憶媒体161,261やメモリ120,220から読出されたプログラムコード自体が前述した実施の形態の機能を実現することになり、そのプログラムコードを記憶した外部の記憶媒体161,261やメモリ120,220は本発明を構成することになる。
In this case, the program code itself read from the
また、コンピュータが読出したプログラムコードを実行することにより、前述した実施の形態の機能が実現されるだけでなく、そのプログラムコードの指示に基づき、コンピュータ上で稼動しているOS(オペレーティングシステム)などが実際の処理の一部または全部を行い、その処理によって前述した実施の形態の機能が実現される場合も含まれることは言うまでもない。 Further, by executing the program code read by the computer, not only the functions of the above-described embodiments are realized, but also an OS (operating system) running on the computer based on the instruction of the program code However, it is needless to say that a case where the function of the above-described embodiment is realized by performing part or all of the actual processing and the processing is included.
さらに、外部の記憶媒体161,261やメモリ120,220から読み出されたプログラムコードが、コンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わる他の記憶媒体に書き込まれた後、そのプログラムコードの指示に基づき、その機能拡張ボードや機能拡張ユニットに備わるCPUなどが実際の処理の一部または全部を行い、その処理によって前述した実施の形態の機能が実現される場合も含まれることは言うまでもない。
Furthermore, the program code read from the
今回開示された実施の形態はすべての点で例示であって制限的なものではないと考えられるべきである。本発明の範囲は、上記した説明ではなく、特許請求の範囲によって示され、特許請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。 The embodiment disclosed this time should be considered as illustrative in all points and not restrictive. The scope of the present invention is defined by the terms of the claims, rather than the description above, and is intended to include any modifications within the scope and meaning equivalent to the terms of the claims.
1 ネットワークシステム、100 コントローラ、110 CPU、120 メモリ、130 タッチパネル、131 ディスプレイ、132 タブレット、140 スピーカ、150 ボタン、160 メモリインターフェイス、161 記憶媒体、170 通信インターフェイス、180 時計、200 ラジコンカー、210 CPU、220 メモリ、230 移動機構、240 GPS、250 電子コンパス、260 メモリインターフェイス、261 記憶媒体、270 通信インターフェイス、280 時計、290 カメラ、301 軌跡、302 コース、301X コースの中心を示す白線、302X コースの端を示す白線、303X コースパイロン。 1 network system, 100 controller, 110 CPU, 120 memory, 130 touch panel, 131 display, 132 tablet, 140 speaker, 150 button, 160 memory interface, 161 storage medium, 170 communication interface, 180 clock, 200 radio controlled car, 210 CPU, 220 memory, 230 moving mechanism, 240 GPS, 250 electronic compass, 260 memory interface, 261 storage medium, 270 communication interface, 280 clock, 290 camera, 301 locus, 302 course, 301X white line indicating the center of the course, end of 302X course White line indicating 303X corspylon.
Claims (10)
前記模型装置は、
前記コントローラからの指令に基づいて前記模型装置を移動させるための移動部と、
前記模型装置の前方を撮影するためのカメラと、
前記模型装置の位置を取得するためのGPS部と、
前記模型装置の向きを取得するためのコンパスと、
前記コントローラから前記指令を受信し、前記カメラからの撮影画像と前記位置と前記向きとを前記コントローラに送信するための第1の通信インターフェイスとを含み、
前記コントローラは、
ディスプレイと、
前記指令を受け付けるための操作部と、
前記模型装置と通信するための第2の通信インターフェイスと、
前記模型装置用のコースのデータを記憶するメモリと、
前記模型装置から受信した前記位置と前記向きとに基づいて、前記コースのデータから表示用のバーチャル画像を作成し、前記模型装置から受信した前記撮影画像と前記バーチャル画像とを合成した画像を前記ディスプレイに表示させるためのプロセッサとを含む、ネットワークシステム。 A network system comprising a model device and a controller,
The model device is
A moving unit for moving the model apparatus based on a command from the controller;
A camera for photographing the front of the model device;
A GPS unit for obtaining the position of the model device;
A compass for obtaining the orientation of the model device;
A first communication interface for receiving the command from the controller and transmitting a captured image from the camera, the position, and the orientation to the controller;
The controller is
Display,
An operation unit for receiving the command;
A second communication interface for communicating with the model device;
A memory for storing the course data for the model device;
Based on the position and orientation received from the model device, a virtual image for display is created from the data of the course, and an image obtained by combining the captured image and the virtual image received from the model device is A network system including a processor for displaying on a display.
前記模型装置から受信した前記位置の時系列データに基づいて、前記位置の軌跡に沿った前記模型装置用のコースのデータを作成する、請求項1に記載のネットワークシステム。 The processor is
The network system according to claim 1, wherein course data for the model device along a locus of the position is created based on time-series data of the position received from the model device.
前記プロセッサは、前記操作部を介して、前記複数の前記模型装置用のコースの選択命令を受け付ける、請求項1または2に記載のネットワークシステム。 The memory stores a plurality of course data for the model apparatus,
The network system according to claim 1, wherein the processor receives a course selection command for the plurality of model devices via the operation unit.
前記第2の通信インターフェイスを介して他のコントローラから、他の模型装置の位置とスタート時点からの経過時間とが対応付けられた時系列データを受信し、
前記時系列データから前記模型装置のスタート時点からの経過時間に対応する前記他の模型装置の位置を取得し、
前記模型装置から受信した前記位置および前記向きと、前記他の模型装置の位置と、に基づいて前記他の模型装置を示す画像を前記表示用のバーチャル画像に追加する、請求項1から5のいずれか1項に記載のネットワークシステム。 The processor is
Receiving time-series data in which the position of another model device and the elapsed time from the start time are associated with each other from another controller via the second communication interface;
Obtaining the position of the other model device corresponding to the elapsed time from the start time of the model device from the time series data,
The image indicating the other model device is added to the virtual image for display based on the position and the direction received from the model device and the position of the other model device. The network system according to any one of the above.
前記コントローラが、前記模型装置を移動させるための指令を受け付けるステップと、
前記コントローラが、前記指令を前記模型装置へ送信するステップと、
前記模型装置が、前記コントローラからの指令に基づいて前記模型装置を移動させるステップと、
前記模型装置が、前記模型装置の前方を撮影するステップと、
前記模型装置が、前記模型装置の位置を取得するステップと、
前記模型装置が、前記模型装置の向きを取得するステップと、
前記模型装置が、撮影画像と前記位置と前記向きとを前記コントローラに送信するステップと、
前記コントローラが、前記模型装置から受信した前記位置と前記向きとに基づいて、前記模型装置用のコースのデータから表示用のバーチャル画像を作成するステップと、
前記コントローラが、前記模型装置から受信した前記撮影画像と前記バーチャル画像とを合成した画像をディスプレイに表示させるステップとを備える、コントロール方法。 A control method in a network system comprising a model device and a controller for storing course data for the model device,
Receiving a command for moving the model device by the controller;
The controller transmitting the command to the model device;
The model device moving the model device based on a command from the controller;
The model device, photographing the front of the model device;
The model device acquires a position of the model device;
The model device acquires the orientation of the model device; and
The model device transmits a captured image, the position, and the orientation to the controller;
The controller creates a virtual image for display from the course data for the model device based on the position and the orientation received from the model device;
The controller includes a step of causing a display to display an image obtained by combining the captured image received from the model device and the virtual image.
模型装置用のコースのデータを記憶するメモリと、
前記模型装置を移動させるための指令を受け付けるための操作部と、
前記指令を前記模型装置へ送信し、前記模型装置から撮影画像と前記模型装置の位置と向きとを受信するための通信インターフェイスと、
前記模型装置から受信した前記位置と前記向きとに基づいて、前記コースのデータから表示用のバーチャル画像を作成し、前記模型装置から受信した前記撮影画像と前記バーチャル画像とを合成した画像を前記ディスプレイに表示させるためのプロセッサとを備える、コントローラ。 Display,
A memory for storing the course data for the model device;
An operation unit for receiving a command for moving the model device;
A communication interface for transmitting the command to the model device and receiving a photographed image and the position and orientation of the model device from the model device;
Based on the position and orientation received from the model device, a virtual image for display is created from the data of the course, and an image obtained by combining the captured image and the virtual image received from the model device is And a processor for displaying on a display.
前記プロセッサが、前記模型装置を移動させるための指令を受け付けるステップと、
前記プロセッサが、前記通信インターフェイスを介して、前記指令を前記模型装置へ送信するステップと、
前記プロセッサが、前記通信インターフェイスを介して、前記模型装置から撮影画像と前記模型装置の位置と向きとを受信するステップと、
前記プロセッサが、前記模型装置から受信した前記位置と前記向きとに基づいて、前記コースのデータから表示用のバーチャル画像を作成するステップと、
前記プロセッサが、前記模型装置から受信した前記撮影画像と前記バーチャル画像とを合成した画像を前記ディスプレイに表示させるステップとを備える、コントロール方法。 A control method in a controller including a memory for storing course data for a model device, a display, a communication interface, and a processor,
Receiving a command for the processor to move the model device;
The processor transmitting the command to the model device via the communication interface;
Receiving the photographed image and the position and orientation of the model device from the model device via the communication interface;
The processor creates a virtual image for display from the course data based on the position and the orientation received from the model device;
A control method comprising: a step of causing the display to display an image obtained by combining the captured image received from the model device and the virtual image.
前記模型装置を移動させるための指令を受け付けるステップと、
前記通信インターフェイスを介して、前記指令を前記模型装置へ送信するステップと、
前記通信インターフェイスを介して、前記模型装置から撮影画像と前記模型装置の位置と向きとを受信するステップと、
前記模型装置から受信した前記位置と前記向きとに基づいて、前記コースのデータから表示用のバーチャル画像を作成するステップと、
前記模型装置から受信した前記撮影画像と前記バーチャル画像とを合成した画像を前記ディスプレイに表示させるステップとを実行させる、コントロールプログラム。 A control program for causing a controller including a memory for storing course data for a model device, a display, a communication interface, and a processor to control the model device,
Receiving a command for moving the model device;
Transmitting the command to the model device via the communication interface;
Receiving the photographed image and the position and orientation of the model device from the model device via the communication interface;
Creating a virtual image for display from the course data based on the position and orientation received from the model device;
The control program which performs the step which displays the image which synthesize | combined the said picked-up image received from the said model apparatus and the said virtual image on the said display.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011005036A JP2012143447A (en) | 2011-01-13 | 2011-01-13 | Network system, control method, controller, and control program |
PCT/JP2012/050497 WO2012096347A1 (en) | 2011-01-13 | 2012-01-12 | Network system, control method, controller, and control program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011005036A JP2012143447A (en) | 2011-01-13 | 2011-01-13 | Network system, control method, controller, and control program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2012143447A true JP2012143447A (en) | 2012-08-02 |
Family
ID=46507239
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011005036A Withdrawn JP2012143447A (en) | 2011-01-13 | 2011-01-13 | Network system, control method, controller, and control program |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP2012143447A (en) |
WO (1) | WO2012096347A1 (en) |
Cited By (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014063411A (en) * | 2012-09-24 | 2014-04-10 | Casio Comput Co Ltd | Remote control system, control method, and program |
WO2014077046A1 (en) | 2012-11-13 | 2014-05-22 | ソニー株式会社 | Image display device and image display method, mobile body device, image display system, and computer program |
US20170278262A1 (en) | 2014-07-31 | 2017-09-28 | Sony Corporation | Information processing device, method of information processing, and image display system |
JP2017212657A (en) * | 2016-05-27 | 2017-11-30 | 京セラ株式会社 | Electronic apparatus, control device, control program and moving image display method |
CN107667321A (en) * | 2015-06-11 | 2018-02-06 | 英特尔公司 | Unmanned aerial vehicle (UAV) control apparatus and method |
JP2018110352A (en) * | 2017-01-05 | 2018-07-12 | Kddi株式会社 | Steering device, information processing method, program, and flight system |
JP2019177038A (en) * | 2018-03-30 | 2019-10-17 | 株式会社バンダイナムコエンターテインメント | Remote control system and program |
WO2019239698A1 (en) * | 2018-06-15 | 2019-12-19 | ブルーイノベーション株式会社 | History management system, operation device, and history management program |
JP2021119714A (en) * | 2019-09-06 | 2021-08-12 | Kddi株式会社 | Steering device, information processing method, and program |
JP2021126454A (en) * | 2020-02-17 | 2021-09-02 | 株式会社セガ | Game system |
WO2021215483A1 (en) * | 2020-04-22 | 2021-10-28 | 株式会社スパイシードローンキッチン | Video processing system using unmanned moving body, video processing method, and video processing device |
JP2022017186A (en) * | 2020-07-13 | 2022-01-25 | 株式会社コロプラ | Program, information processing method, information processing device, and system |
WO2022070618A1 (en) * | 2020-09-30 | 2022-04-07 | 本田技研工業株式会社 | Image processing apparatus and image display apparatus |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5864789B1 (en) * | 2015-01-15 | 2016-02-17 | 治幸 岩田 | Railway model viewing device, method, program, dedicated display monitor, scene image data for composition |
CN107305133A (en) * | 2016-04-22 | 2017-10-31 | 中兴通讯股份有限公司 | The collection picture approach and device of a kind of mobile terminal |
DE102018101862A1 (en) * | 2018-01-26 | 2019-08-01 | Perpetual Mobile Gmbh | Toy remote control system |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH07178235A (en) * | 1993-12-21 | 1995-07-18 | Casio Comput Co Ltd | Control device |
JP4220532B2 (en) * | 2005-05-11 | 2009-02-04 | 株式会社バンダイナムコゲームス | Server system and data management sales method |
JP5051822B2 (en) * | 2006-08-02 | 2012-10-17 | 任天堂株式会社 | Game device with general-purpose remote control function |
JP5526334B2 (en) * | 2007-04-02 | 2014-06-18 | 株式会社タイトー | Game image generation method in remote radio controlled online battle game system |
-
2011
- 2011-01-13 JP JP2011005036A patent/JP2012143447A/en not_active Withdrawn
-
2012
- 2012-01-12 WO PCT/JP2012/050497 patent/WO2012096347A1/en active Application Filing
Cited By (24)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014063411A (en) * | 2012-09-24 | 2014-04-10 | Casio Comput Co Ltd | Remote control system, control method, and program |
WO2014077046A1 (en) | 2012-11-13 | 2014-05-22 | ソニー株式会社 | Image display device and image display method, mobile body device, image display system, and computer program |
US10108018B2 (en) | 2012-11-13 | 2018-10-23 | Sony Corporation | Image display apparatus for displaying an image captured by a mobile apparatus |
US10269132B2 (en) | 2014-07-31 | 2019-04-23 | Sony Corporation | Displaying images according to head posture and camera posture |
US20170278262A1 (en) | 2014-07-31 | 2017-09-28 | Sony Corporation | Information processing device, method of information processing, and image display system |
CN107667321B (en) * | 2015-06-11 | 2021-09-07 | 英特尔公司 | Unmanned aerial vehicle control device and method |
CN107667321A (en) * | 2015-06-11 | 2018-02-06 | 英特尔公司 | Unmanned aerial vehicle (UAV) control apparatus and method |
JP2018522306A (en) * | 2015-06-11 | 2018-08-09 | インテル コーポレイション | Drone control device and method |
JP2017212657A (en) * | 2016-05-27 | 2017-11-30 | 京セラ株式会社 | Electronic apparatus, control device, control program and moving image display method |
JP2018110352A (en) * | 2017-01-05 | 2018-07-12 | Kddi株式会社 | Steering device, information processing method, program, and flight system |
JP2019177038A (en) * | 2018-03-30 | 2019-10-17 | 株式会社バンダイナムコエンターテインメント | Remote control system and program |
WO2019239698A1 (en) * | 2018-06-15 | 2019-12-19 | ブルーイノベーション株式会社 | History management system, operation device, and history management program |
JP2021119714A (en) * | 2019-09-06 | 2021-08-12 | Kddi株式会社 | Steering device, information processing method, and program |
JP7029565B2 (en) | 2019-09-06 | 2022-03-03 | Kddi株式会社 | Maneuvering equipment, information processing methods, and programs |
JP2021126454A (en) * | 2020-02-17 | 2021-09-02 | 株式会社セガ | Game system |
JP7484210B2 (en) | 2020-02-17 | 2024-05-16 | 株式会社セガ | Game System |
JP2021171232A (en) * | 2020-04-22 | 2021-11-01 | 株式会社スパイシードローンキッチン | Image processing system, image processing method, and image processing device using unmanned moving body |
WO2021215483A1 (en) * | 2020-04-22 | 2021-10-28 | 株式会社スパイシードローンキッチン | Video processing system using unmanned moving body, video processing method, and video processing device |
JP7397482B2 (en) | 2020-04-22 | 2023-12-13 | 株式会社スパイシードローンキッチン | Video processing system, video processing method, and video processing device using unmanned moving objects |
JP2022017186A (en) * | 2020-07-13 | 2022-01-25 | 株式会社コロプラ | Program, information processing method, information processing device, and system |
JP7398408B2 (en) | 2020-07-13 | 2023-12-14 | 株式会社コロプラ | Program, information processing method, information processing device, and system |
WO2022070618A1 (en) * | 2020-09-30 | 2022-04-07 | 本田技研工業株式会社 | Image processing apparatus and image display apparatus |
JPWO2022070618A1 (en) * | 2020-09-30 | 2022-04-07 | ||
JP7377372B2 (en) | 2020-09-30 | 2023-11-09 | 本田技研工業株式会社 | Image processing device and image display device |
Also Published As
Publication number | Publication date |
---|---|
WO2012096347A1 (en) | 2012-07-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2012096347A1 (en) | Network system, control method, controller, and control program | |
US11347217B2 (en) | User interaction paradigms for a flying digital assistant | |
US11573562B2 (en) | Magic wand interface and other user interaction paradigms for a flying digital assistant | |
US10977865B2 (en) | Augmented reality in vehicle platforms | |
US9324298B2 (en) | Image processing system, image processing apparatus, storage medium having stored therein image processing program, and image processing method | |
US8838381B1 (en) | Automatic video generation for navigation and object finding | |
WO2016168722A1 (en) | Magic wand interface and other user interaction paradigms for a flying digital assistant | |
JP6788094B2 (en) | Image display methods, image display systems, flying objects, programs, and recording media | |
KR20200032547A (en) | Device of augmented reality games for self-driving vehicles and method for the same | |
JP2024050675A (en) | Video display device and video display method | |
US20200217665A1 (en) | Mobile platform, image capture path generation method, program, and recording medium | |
WO2012099194A1 (en) | Image capturing device, and method and network system for controlling image capturing device | |
WO2021251441A1 (en) | Method, system, and program | |
WO2012096282A1 (en) | Controller, model device and control method | |
JP2010039256A (en) | Display system, display method, and moving body | |
US12007763B2 (en) | Magic wand interface and other user interaction paradigms for a flying digital assistant | |
KR20200134401A (en) | Smart glasses operation method interworking to mobile device | |
KR101866464B1 (en) | Electronic racing system and operating method for the same | |
US11361796B2 (en) | Display control device, operation detection device, display control method, and display control program | |
WO2022070851A1 (en) | Method, system, and program | |
US20240323249A1 (en) | Communication control server, communication system, and communication control method | |
JP2023083072A (en) | Method, system and program | |
JP2024135598A (en) | COMMUNICATION CONTROL SERVER, COMMUNICATION SYSTEM, COMMUNICATION CONTROL METHOD, AND PROGRAM | |
JP2023157912A (en) | Creation device, creation method, and creation program | |
CN117537820A (en) | Navigation method, electronic device and readable storage medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A300 | Application deemed to be withdrawn because no request for examination was validly filed |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20140401 |