JP2017212654A - Gui apparatus - Google Patents

Gui apparatus Download PDF

Info

Publication number
JP2017212654A
JP2017212654A JP2016105681A JP2016105681A JP2017212654A JP 2017212654 A JP2017212654 A JP 2017212654A JP 2016105681 A JP2016105681 A JP 2016105681A JP 2016105681 A JP2016105681 A JP 2016105681A JP 2017212654 A JP2017212654 A JP 2017212654A
Authority
JP
Japan
Prior art keywords
wide area
area image
cursor
target
tracking
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016105681A
Other languages
Japanese (ja)
Inventor
友啓 田畑
Tomohiro Tabata
友啓 田畑
優 高井
Yu Takai
優 高井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
EXVISION Inc
Original Assignee
EXVISION Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by EXVISION Inc filed Critical EXVISION Inc
Priority to JP2016105681A priority Critical patent/JP2017212654A/en
Priority to PCT/JP2017/017702 priority patent/WO2017203981A1/en
Publication of JP2017212654A publication Critical patent/JP2017212654A/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B15/00Special procedures for taking photographs; Apparatus therefor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B17/00Details of cameras or camera bodies; Accessories therefor
    • G03B17/56Accessories
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof

Abstract

PROBLEM TO BE SOLVED: To improve the efficiency of an operation to direct the visual line of a tracking camera to a target.SOLUTION: A wide area image display part 11 presents to a user a wide area image 110 including a target 3. A cursor generation part 12 causes a cursor to be displayed in the wide area image 110 presented to the user 1. A positional operation receiving part 13 receives an instruction from the user 1 to operate a position relating to the cursor in the wide area image 110. A target specification part 14 specifies the target 3 on the basis of information on the position of the cursor.SELECTED DRAWING: Figure 1

Description

本発明は、GUI(Graphical User Interface)装置に関するものであり、特に、いわゆるトラッキングカメラにより追跡されるべき対象をユーザが指定するために好適なGUI装置に関するものである。   The present invention relates to a GUI (Graphical User Interface) device, and more particularly to a GUI device suitable for a user to specify a target to be tracked by a so-called tracking camera.

対象を継続的に撮影するためには、カメラの視線を対象に向け続ける必要がある。多くの場合この作業は撮影者が手動で行うが、ボールの跳躍のような高速かつ不規則な運動に完璧に追従するのは難しい。このため、カメラの視線方向を機械で自動制御するシステム(いわゆるアクティブビジョン:下記非特許文献1参照)の研究が行われている。   In order to continuously shoot an object, it is necessary to keep the camera's line of sight toward the object. In many cases, this is done manually by the photographer, but it is difficult to perfectly follow a fast and irregular movement such as a jumping ball. For this reason, research is being conducted on a system (so-called active vision: see Non-Patent Document 1 below) that automatically controls the camera's line-of-sight direction with a machine.

通常のアクティブビジョンの技術では、カメラ自体を駆動雲台に取り付けて動かしているため、視線方向の移動についての応答速度が遅い。これでは、急激な加速度変化を含む運動対象(例えば球技で用いられているボール)をトラッキングすることは難しい。高速カメラのフレームレートが、速いものでは100万fpsに達する事や、GPUによって画像処理が高速化されている現状を考えると、視線制御速度は、様々なトラッキングシステムにおいて速度面でのボトルネックとなっていると言える。   In the normal active vision technology, the camera itself is attached to the driving head and moved, so that the response speed for movement in the line of sight is slow. With this, it is difficult to track a moving object (for example, a ball used in a ball game) including a rapid acceleration change. Considering the fact that the frame rate of high-speed cameras reaches 1 million fps at high speeds, and the current situation that image processing is accelerated by GPU, gaze control speed is a bottleneck in speed in various tracking systems. It can be said that

この問題を解決するために、カメラ前方に配置した小型駆動鏡面によって高速にカメラの視線変更を行うサッカードミラー(Saccade Mirror)と呼ばれる光学系が提案されている(下記非特許文献2及び特許文献1参照)。この技術では、2軸のガルバノミラーを用いることによって、高速な視線変更ができるようになっている。制御系において、常に画面中心で対象物をとらえるように視線の制御ができれば、他に類を見ないダイナミックな撮像が可能になると考えられる。高速視線制御が行われるカメラをトラッキングカメラと呼び、トラッキングカメラで取得された画像(つまり対象物の画像)を、トラッキング画像と呼ぶことがある。   In order to solve this problem, an optical system called a saccade mirror (Saccade Mirror) that changes the line of sight of a camera at high speed using a small drive mirror surface arranged in front of the camera has been proposed (Non-patent Document 2 and Patent Document below). 1). In this technique, the line of sight can be changed at high speed by using a biaxial galvanometer mirror. If the line of sight can be controlled so that the object is always captured at the center of the screen in the control system, it is considered that unprecedented dynamic imaging is possible. A camera that performs high-speed line-of-sight control is sometimes called a tracking camera, and an image (that is, an image of an object) acquired by the tracking camera is sometimes called a tracking image.

また、下記非特許文献2は、トラッキングカメラで撮影された画像の情報(例えば色情報)を用いて、対象物にトラッキングカメラの視線を向け続ける手法も示している。   Non-Patent Document 2 below also shows a method of keeping the tracking camera's line of sight toward an object using information (for example, color information) of an image captured by the tracking camera.

ところで、前記した技術では、トラッキングの初期段階において、対象物にトラッキングカメラの視線を向けて、対象物を特定する必要がある。そのために、従来は、停止した対象物を用いて、この対象物にトラッキングカメラの視線を向け、その後に、トラッキングを開始する手順を行っていた。   By the way, in the above-described technique, it is necessary to specify the object by directing the line of sight of the tracking camera to the object in the initial stage of tracking. For this purpose, conventionally, a stopped object is used to direct the line of sight of the tracking camera to the object, and then a procedure for starting tracking is performed.

しかしながら、この手順の場合、トラッキングカメラの視線方向を対象物に向ける作業が煩雑であるという問題がある。また、この手順では、すでに移動を開始している対象物に対して、トラッキングカメラの視線を向ける作業が難しくなるという問題もある。例えば、球技開始後(例えば卓球のラリーが始まった後)に、動いている球にトラッキングカメラの視線を向けることは、前記の手順を前提にすると難しい。   However, in the case of this procedure, there is a problem that the work of directing the line-of-sight direction of the tracking camera toward the object is complicated. This procedure also has a problem that it is difficult to turn the tracking camera's line of sight on an object that has already started moving. For example, it is difficult to direct the tracking camera's line of sight to a moving ball after starting a ball game (for example, after a table tennis rally has started), assuming the above procedure.

特開2015−14731号公報JP 2015-14731 A

J. Aloimonos, I. Weiss and A. Bandyopadhyay: "Active Vision", Int'l Journal of Computer Vision, vol. 1, no. 4, pp. 333 - 356 (1988).J. Aloimonos, I. Weiss and A. Bandyopadhyay: "Active Vision", Int'l Journal of Computer Vision, vol. 1, no. 4, pp. 333-356 (1988). K. Okumura, H. Oku and M. Ishikawa: "High-Speed Gaze Controller for Millisecond-order Pan/tilt Camera", Proc. of IEEE Int'l Conf. on Robotics and Automation, pp. 6186 - 6191 (2011).K. Okumura, H. Oku and M. Ishikawa: "High-Speed Gaze Controller for Millisecond-order Pan / tilt Camera", Proc. Of IEEE Int'l Conf. On Robotics and Automation, pp. 6186-6191 (2011) .

本発明は、前記した状況に鑑みてなされたものである。本発明の主な目的の一つは、対象物にトラッキングカメラの視線を向ける作業の効率化を図ることができる技術を提供することである。   The present invention has been made in view of the above situation. One of the main objects of the present invention is to provide a technique capable of improving the efficiency of the work of directing the line of sight of a tracking camera to an object.

前記した課題を解決する手段は、以下の項目のように記載できる。   Means for solving the above-described problems can be described as follows.

(項目1)
トラッキングカメラにより追跡されるべき対象を指定するためのGUI装置であって、
広域画像表示部と、カーソル生成部と、位置操作受付部と、対象特定部とを備えており、
前記広域画像表示部は、前記対象を含む広域画像をユーザに呈示する構成となっており、
前記カーソル生成部は、前記ユーザに呈示される広域画像の中にカーソルを表示させる構成となっており、
前記位置操作受付部は、前記広域画像の中の前記カーソルについての位置を操作するための前記ユーザからの指示を受け取る構成となっており、
前記対象特定部は、前記カーソルの位置の情報に基づいて、前記対象を特定する構成となっている
GUI装置。
(Item 1)
A GUI device for designating an object to be tracked by a tracking camera,
A wide-area image display unit, a cursor generation unit, a position operation reception unit, and a target identification unit;
The wide area image display unit is configured to present a wide area image including the target to the user,
The cursor generation unit is configured to display a cursor in a wide area image presented to the user,
The position operation reception unit is configured to receive an instruction from the user for operating the position of the cursor in the wide area image,
The target specifying unit is configured to specify the target based on information on the position of the cursor.

(項目2)
前記広域画像は、前記トラッキングカメラで追跡されている対象が存在する環境についてのリアルタイムでの動画である
項目1に記載のGUI装置。
(Item 2)
The GUI device according to item 1, wherein the wide area image is a moving image in real time about an environment where an object being tracked by the tracking camera exists.

(項目3)
さらに、指定操作受付部を備えており、
前記特定操作受付部は、前記対象物を特定するための前記ユーザからの指示を受け取る構成となっており、
前記対象特定部は、前記指定操作受付部が前記ユーザからの指示を受け取った時点、又はそれ以降の時点での前記カーソルの位置の情報に基づいて、前記対象を特定する構成となっている
項目1又は2に記載のGUI装置。
(Item 3)
In addition, it has a designated operation reception unit,
The specific operation receiving unit is configured to receive an instruction from the user for specifying the object,
The target specifying unit is configured to specify the target based on information on the position of the cursor at the time when the designation operation receiving unit receives an instruction from the user, or after that. The GUI device according to 1 or 2.

(項目4)
さらに、広域画像受付部を備えており、
前記広域画像受付部は、広域カメラで取得された前記広域画像を受け取って、前記広域画像表示部に送る構成となっており、
前記広域カメラは、前記トラッキングカメラで撮影されるべき領域全体を撮影することにより、前記広域画像を取得する構成となっている
項目1〜3のいずれか1項に記載のGUI装置。
(Item 4)
In addition, it has a wide area image reception unit,
The wide area image receiving unit is configured to receive the wide area image acquired by a wide area camera and send it to the wide area image display unit,
The GUI device according to any one of items 1 to 3, wherein the wide-area camera is configured to acquire the wide-area image by photographing the entire area to be photographed by the tracking camera.

(項目5)
さらに、トラッキング画像表示部を備えており、
前記トラッキング画像表示部は、前記トラッキングカメラで撮影された前記対象物の画像を表示する構成となっている
項目1〜4のいずれか1項に記載のGUI装置。
(Item 5)
In addition, it has a tracking image display,
The GUI device according to any one of items 1 to 4, wherein the tracking image display unit is configured to display an image of the object photographed by the tracking camera.

(項目6)
トラッキングカメラにより追跡されるべき対象を、装置によりユーザが指定するための方法であって、
前記対象を含む広域画像をユーザに呈示するステップと、
前記ユーザに呈示される広域画像の中にカーソルを表示するステップと、
前記広域画像の中の前記カーソルについての位置を操作するための前記ユーザからの指示を受け取るステップと、
前記カーソルの位置の情報に基づいて、前記対象を特定するステップと
を備える方法。
(Item 6)
A method for a user to specify an object to be tracked by a tracking camera by means of a device,
Presenting a user with a wide area image including the object;
Displaying a cursor in the wide area image presented to the user;
Receiving instructions from the user to manipulate the position of the cursor in the wide area image;
Identifying the target based on information on the position of the cursor.

(項目7)
項目6に記載の各ステップをコンピュータに実行させるためのコンピュータプログラム。
(Item 7)
A computer program for causing a computer to execute each step according to item 6.

このコンピュータプログラムは、適宜な記録媒体(例えばCD−ROMやDVDディスクのような光学的な記録媒体、ハードディスクやフレキシブルディスクのような磁気的記録媒体、あるいはMOディスクのような光磁気記録媒体)に格納することができる。このコンピュータプログラムは、インターネットなどの通信回線を介して伝送されることができる。   This computer program is stored in an appropriate recording medium (for example, an optical recording medium such as a CD-ROM or a DVD disk, a magnetic recording medium such as a hard disk or a flexible disk, or a magneto-optical recording medium such as an MO disk). Can be stored. This computer program can be transmitted via a communication line such as the Internet.

本発明によれば、対象物にトラッキングカメラの視線を向ける作業を効率的に行うことが可能となる。   According to the present invention, it is possible to efficiently perform the work of directing the line of sight of the tracking camera to an object.

本発明の一実施形態に係るGUI装置の概略的な構成を説明するためのブロック図である。It is a block diagram for demonstrating the schematic structure of the GUI apparatus which concerns on one Embodiment of this invention. 図1のGUI装置においてユーザに呈示される呈示画像の一例を示す説明図である。It is explanatory drawing which shows an example of the presentation image shown to a user in the GUI apparatus of FIG. 図1のGUI装置を用いてユーザがトラッキング対象を特定する手順を説明するためのフローチャートである。It is a flowchart for demonstrating the procedure in which a user specifies tracking object using the GUI apparatus of FIG. 図3の手順の一部をさらに詳しく説明するためのフローチャートである。4 is a flowchart for explaining a part of the procedure of FIG. 3 in more detail.

以下、本発明の一実施形態に係るGUI装置10を、添付の図面を参照しながら説明する。このGUI装置10は、トラッキングカメラ2により追跡されるべき対象3を指定するために用いられるものである(図1参照)。   Hereinafter, a GUI apparatus 10 according to an embodiment of the present invention will be described with reference to the accompanying drawings. This GUI device 10 is used to designate a target 3 to be tracked by the tracking camera 2 (see FIG. 1).

(本実施形態の構成)
本実施形態のGUI装置10は、広域画像表示部11と、カーソル生成部12と、位置操作受付部13と、対象特定部14とを備えている(図1参照)。さらに、本例のGUI装置10は、指定操作受付部15と、広域画像受付部16と、トラッキング画像表示部17とを追加的な要素として備えている。
(Configuration of this embodiment)
The GUI device 10 according to the present embodiment includes a wide area image display unit 11, a cursor generation unit 12, a position operation reception unit 13, and a target identification unit 14 (see FIG. 1). Further, the GUI device 10 of this example includes a designation operation receiving unit 15, a wide area image receiving unit 16, and a tracking image display unit 17 as additional elements.

(広域画像表示部)
広域画像表示部11は、対象3を含む広域画像110(図2参照)をユーザ1(図1参照)に呈示する構成となっている。ここで、広域画像110を含む、ユーザ1に呈示される画像全体(以下「呈示画像」という)を、図2において符号100で示している。広域画像表示部11としては、広域画像110をユーザのための表示できる機能要素であればよく、例えばディスプレイ(図示せず)の一部として構成することができる。
(Wide area image display)
The wide area image display unit 11 is configured to present a wide area image 110 (see FIG. 2) including the target 3 to the user 1 (see FIG. 1). Here, the entire image presented to the user 1 including the wide area image 110 (hereinafter referred to as “presented image”) is denoted by reference numeral 100 in FIG. The wide area image display unit 11 may be a functional element that can display the wide area image 110 for the user, and may be configured as a part of a display (not shown), for example.

ここで、本実施形態における広域画像110は、トラッキングカメラ2で追跡されている対象3が存在する環境についてのリアルタイムでの動画である。例えば、対象3が、卓球で用いられる球であるとすれば、環境としては、卓球台、ラケット、競技者、床面、壁面などを含むことができる。ただし、環境としては、これらに限るものではなく、要するに対象を含む周辺環境であればよい。   Here, the wide area image 110 in this embodiment is a moving image in real time about the environment where the target 3 tracked by the tracking camera 2 exists. For example, if the object 3 is a sphere used in table tennis, the environment may include a table tennis table, a racket, a player, a floor surface, a wall surface, and the like. However, the environment is not limited to these and may be any surrounding environment including the target.

(カーソル生成部)
カーソル生成部12は、ユーザ1に呈示される広域画像110の中に、カーソル120(図2参照)を表示させる構成となっている。カーソル120は、この実施形態では、四角形状の枠とされているが、カーソルの形状や大きさに特段の制約はない。要するに、対象を特定できるように設定されていればよい。
(Cursor generator)
The cursor generation unit 12 is configured to display a cursor 120 (see FIG. 2) in the wide area image 110 presented to the user 1. In this embodiment, the cursor 120 is a rectangular frame, but there are no particular restrictions on the shape and size of the cursor. In short, it may be set so that the target can be specified.

(位置操作受付部)
位置操作受付部13は、広域画像110の中のカーソル120についての位置を操作するための、ユーザ1からの指示を受け取る構成となっている。ここで、位置操作受付部13は、例えばマウスなどの入出力装置であるが、カーソル120を画像上で必要な位置に調整できるのであれば特段の制約はない。
(Position operation reception part)
The position operation receiving unit 13 is configured to receive an instruction from the user 1 for operating the position of the cursor 120 in the wide area image 110. Here, the position operation accepting unit 13 is an input / output device such as a mouse, for example, but there is no particular limitation as long as the cursor 120 can be adjusted to a necessary position on the image.

(対象特定部)
対象特定部14は、カーソル120の位置の情報に基づいて、対象3を特定する構成となっている。より具体的には、本実施形態の対象特定部14は、指定操作受付部15がユーザからの指示を受け取った時点、又はそれ以降の時点でのカーソルの位置の情報に基づいて、対象3を特定する構成となっている。対象特定部14の詳しい動作は後述する。
(Target specific part)
The target specifying unit 14 is configured to specify the target 3 based on the position information of the cursor 120. More specifically, the target specifying unit 14 of the present embodiment selects the target 3 based on information on the position of the cursor at the time when the designation operation receiving unit 15 receives an instruction from the user, or at a later time. It has a specific configuration. Detailed operation of the target specifying unit 14 will be described later.

(指定操作受付部)
指定操作受付部15は、対象3を特定するためのユーザ1からの指示を受け取る構成となっている。ここで、対象3を特定するためのユーザ1からの指示とは、例えば、広域画像中でのマウスの左クリック、あるいは、呈示画像100におけるトラッキングボタン220(後述)の押し下げであるが、これらに制約されるものではなく、用途に応じて適宜の指示入力方法を設定できる。
(Designated operation reception part)
The designation operation receiving unit 15 is configured to receive an instruction from the user 1 for specifying the target 3. Here, the instruction from the user 1 for specifying the target 3 is, for example, the left click of the mouse in the wide-area image or the depression of the tracking button 220 (described later) in the presented image 100. There is no limitation, and an appropriate instruction input method can be set according to the application.

(広域画像受付部)
広域画像受付部16は、広域カメラ4(図1参照)で取得された広域画像110を受け取って、広域画像表示部11に送る構成となっている。
(Wide area image reception department)
The wide area image receiving unit 16 is configured to receive the wide area image 110 acquired by the wide area camera 4 (see FIG. 1) and send it to the wide area image display unit 11.

広域カメラ4は、トラッキングカメラ2で撮影されるべき領域全体(すなわち、対象3が存在する環境)を撮影することにより、広域画像110を取得する構成となっている。   The wide area camera 4 is configured to acquire the wide area image 110 by photographing the entire area to be photographed by the tracking camera 2 (that is, the environment where the target 3 exists).

(トラッキング画像表示部)
トラッキング画像表示部17は、トラッキングカメラ2で撮影された対象3の画像を表示する構成となっている。トラッキング画像表示部17も、広域画像表示部11と同様に、例えばディスプレイ(図示せず)の一部として構成することができる。
(Tracking image display part)
The tracking image display unit 17 is configured to display an image of the target 3 taken by the tracking camera 2. Similarly to the wide area image display unit 11, the tracking image display unit 17 can be configured as a part of a display (not shown), for example.

ここで、トラッキングカメラ2は、高フレームレートで映像を取得できるカメラ本体と、高速でカメラの視線方向を変更できる二軸ガルバノミラー(いわゆるサッカードミラー)と、瞳転送光学系とを備えている(図示省略)。二軸ガルバノミラーは、チルト方向に回動するチルトミラーと、パン方向に回動するパンミラーとを備えている。瞳転送光学系は、カメラ本体の瞳位置をチルトミラーとパンミラーとの間に転送できるようになっている。このようなトラッキングカメラ2としては、例えば、前記非特許文献2に示されるものを用いることができるので、詳しい説明は省略する。   Here, the tracking camera 2 includes a camera body that can acquire an image at a high frame rate, a biaxial galvanometer mirror (so-called saccade mirror) that can change the camera's viewing direction at high speed, and a pupil transfer optical system. (Not shown). The biaxial galvanometer mirror includes a tilt mirror that rotates in the tilt direction and a pan mirror that rotates in the pan direction. The pupil transfer optical system can transfer the pupil position of the camera body between the tilt mirror and the pan mirror. As such a tracking camera 2, for example, the one shown in Non-Patent Document 2 can be used, and detailed description thereof is omitted.

(本実施形態の動作)
次に、本実施形態に係るGUI装置の動作を、図3をさらに参照しながら説明する。
(Operation of this embodiment)
Next, the operation of the GUI device according to the present embodiment will be described with further reference to FIG.

(図3のステップSA−1)
まず、広域カメラ4で取得される広域画像110と、トラッキングカメラ2の視線方向とのキャリブレーションを行う。つまり、広域画像110における画像上の座標と、トラッキングカメラの視線方向との相互変換が可能な状態とする。これにより、本実施形態では、例えば、広域画像110におけるある画素を画像上で指定すると、それに対応する視線方向にトラッキングカメラ2を向けることができる。また逆に、本実施形態では、トラッキングカメラ2の方向に対応する画素位置にカーソル120を表示することもできる。
(Step SA-1 in FIG. 3)
First, the wide area image 110 acquired by the wide area camera 4 and the line-of-sight direction of the tracking camera 2 are calibrated. That is, it is in a state in which mutual conversion between the coordinates on the image in the wide area image 110 and the line-of-sight direction of the tracking camera is possible. Thereby, in the present embodiment, for example, when a certain pixel in the wide area image 110 is designated on the image, the tracking camera 2 can be directed in the corresponding line-of-sight direction. Conversely, in the present embodiment, the cursor 120 can also be displayed at a pixel position corresponding to the direction of the tracking camera 2.

(図3のステップSA−2)
ついで、広域カメラ4は、広域画像110を取得する。広域画像110は、通常、対象3を含む環境についての動画像である。取得された広域画像110は、広域画像表示部11に送られる。
(Step SA-2 in FIG. 3)
Next, the wide area camera 4 acquires the wide area image 110. The wide area image 110 is usually a moving image for the environment including the target 3. The acquired wide area image 110 is sent to the wide area image display unit 11.

(図3のステップSA−3)
ついで、広域画像表示部11は、広域画像110を、ユーザ用のディスプレイなどのユーザ端末(図示せず)に表示する(図2参照)。
(Step SA-3 in FIG. 3)
Next, the wide area image display unit 11 displays the wide area image 110 on a user terminal (not shown) such as a display for the user (see FIG. 2).

(図3のステップSA−4)
ついで、ユーザ1は、広域画像110を見ながら、トラッキング対象を指定する。このトラッキング対象の指定動作を、図4をさらに参照しながら説明する。
(Step SA-4 in FIG. 3)
Next, the user 1 designates a tracking target while viewing the wide area image 110. This tracking target designation operation will be described with further reference to FIG.

(図4のステップSB−1)
まず、カーソル生成部12により、広域画像110の中にカーソル120を表示する(図2参照)。初期状態では、広域画像110中のカーソル120の位置は任意であり、例えば広域画像110の中央にカーソル120を表示することができる。
(Step SB-1 in FIG. 4)
First, the cursor generator 12 displays the cursor 120 in the wide area image 110 (see FIG. 2). In the initial state, the position of the cursor 120 in the wide area image 110 is arbitrary. For example, the cursor 120 can be displayed at the center of the wide area image 110.

(図4のステップSB−2)
ついで、ユーザは、位置操作受付部13により、カーソル120の位置を調整する。例えば、カーソル120の中に対象3が入る状態とする(図2参照)。
(Step SB-2 in FIG. 4)
Next, the user adjusts the position of the cursor 120 by the position operation receiving unit 13. For example, it is assumed that the object 3 enters the cursor 120 (see FIG. 2).

次いで、ユーザは、指定操作受付部15により、対象3を特定するための指示を入力する。この入力を、この明細書では「カーソルのアクティブ化」と称することがある。対象3を特定するための指示としては、本実施形態では、例えば、広域画像110を左クリックする、あるいは、トラッキングボタン220を押し下げる手法を用いることができる。   Next, the user inputs an instruction for specifying the target 3 through the designation operation receiving unit 15. This input is sometimes referred to herein as “cursor activation”. In this embodiment, for example, a method of left-clicking the wide area image 110 or pressing down the tracking button 220 can be used as an instruction for specifying the target 3.

(図4のステップSB−3及びSB−4)
ついで、対象特定部14は、対象3を特定するための指示が入力されると(つまりカーソルがアクティブになると)、その時点で、カーソル内に、トラッキング対象が存在するかどうか判定する。この判定は、例えば、色情報を用いて行うことができる。
(Steps SB-3 and SB-4 in FIG. 4)
Next, when an instruction for specifying the target 3 is input (that is, when the cursor becomes active), the target specifying unit 14 determines whether or not a tracking target exists in the cursor at that time. This determination can be performed using color information, for example.

より具体的には、例えば、対象物の色を黄色に設定していたとすると、カーソル内に黄色の領域が規定面積以上存在したとき、その色領域の重心を対象物の中心(トラッキング位置)として特定することができる。ただし、トラッキング対象やトラッキング位置を特定するアルゴリズムや、特定のための閾値条件は、用途に応じて適宜に設定することができる。例えば、卓球の球が対象3であった場合、サーブ前にプレーヤーが保持する球にカーソル120を置いて、対象3を特定することができる。   More specifically, for example, if the color of the target object is set to yellow, and the yellow area exceeds the specified area in the cursor, the center of the color area is set as the center of the target object (tracking position). Can be identified. However, an algorithm for specifying a tracking target and a tracking position and a threshold condition for specification can be appropriately set according to the application. For example, when the table tennis ball is the target 3, the target 3 can be specified by placing the cursor 120 on the ball held by the player before serving.

ここで、本実施形態のGUI装置10では、もし、カーソル内に、閾値条件を満たす対象が存在しないときは、その位置において、閾値条件を満たすまで、動画像(広域画像)に対する判定を繰り返す。このようにすると、広域画像内において対象3がカーソル120を通過した時から、トラッキングを開始することができる。この手法は、すでに対象3が動き始めている場合や、対象3が現時点では見えていない場合であって、かつ、対象3の軌跡が予想できる場合において特に有効である。例えば、卓球やテニスのように、球がネットを通過することが確実な場合には、ネットの近く(図2参照)にカーソル120を配置することにより、カーソル120が球を待ち受ける状態とすることができる。同様に、プレーヤーの手前にカーソル120を配置すれば、プレー開始時点(球が前方に供給された時点)からトラッキングを開示することができる。このようにすると、アクティブ化の後に対象3の位置を特定して実際のトラッキングを開始することができる。   Here, in the GUI device 10 of the present embodiment, if there is no target that satisfies the threshold condition in the cursor, the determination on the moving image (wide area image) is repeated until the threshold condition is satisfied at that position. In this way, tracking can be started when the object 3 passes the cursor 120 in the wide area image. This method is particularly effective when the target 3 has already started to move or when the target 3 is not visible at the present time and the trajectory of the target 3 can be predicted. For example, when it is certain that the ball passes through the net, such as table tennis and tennis, the cursor 120 is placed in a state of waiting for the ball by placing the cursor 120 near the net (see FIG. 2). Can do. Similarly, if the cursor 120 is placed in front of the player, tracking can be disclosed from the start of play (the time when the ball is supplied forward). In this way, the actual tracking can be started by specifying the position of the object 3 after the activation.

(図3のステップSA−5)
前記の手順により対象が特定されると、トラッキング位置を含むトラッキング指令が対象特定部14からトラッキングカメラ2に送られて、対象へのトラッキングが開始される。トラッキングにおいては、トラッキングカメラ2で得た画像(トラッキング画像)を用いて、画像ベースでのトラッキングを行うことができる。すなわち、トラッキング画像の情報(例えば直前に得た画像に対する対象の位置ずれ情報)を用いて、トラッキングカメラ2の方向を、対象3を追跡するように制御し、対象3の画像を取得し続けることができる。このようなトラッキングの手法としては、例えば前記した非特許文献2に記載した手法を用いることができるので、これについての詳しい説明は省略する。
(Step SA-5 in FIG. 3)
When the target is specified by the above procedure, a tracking command including the tracking position is sent from the target specifying unit 14 to the tracking camera 2, and tracking to the target is started. In tracking, image-based tracking can be performed using an image (tracking image) obtained by the tracking camera 2. That is, using the tracking image information (for example, the positional deviation information of the target with respect to the image obtained immediately before), the direction of the tracking camera 2 is controlled to track the target 3, and the image of the target 3 is continuously acquired. Can do. As such a tracking method, for example, the method described in Non-Patent Document 2 described above can be used, and detailed description thereof will be omitted.

(図3のステップSA−6)
一方、カーソル生成部12は、対象3の位置に応じて、カーソル120の位置を変更し、常に、対象3を囲む位置にカーソル120が表示されるようにする。本実施形態では、トラッキングカメラ2の方向と広域画像110との対応関係を用いて、広域画像110において、対象3を囲む位置にカーソル120を表示することができる。これにより、ユーザは、トラッキング対象の位置、及び、トラッキングが継続していることを、広域画像110により簡単に認識することができる。
(Step SA-6 in FIG. 3)
On the other hand, the cursor generation unit 12 changes the position of the cursor 120 according to the position of the target 3 so that the cursor 120 is always displayed at a position surrounding the target 3. In the present embodiment, the cursor 120 can be displayed at a position surrounding the target 3 in the wide area image 110 using the correspondence relationship between the direction of the tracking camera 2 and the wide area image 110. Thereby, the user can easily recognize the position to be tracked and that the tracking is continued from the wide area image 110.

なお、本実施形態では、トラッキングが継続しているときと、トラッキングが中断しているときとの間で、カーソルの色を変化させている。これにより、ユーザは、トラッキング状態を一層明瞭に認識することができる。また、本実施形態では、カーソルがアクティブ化した後に対象を見失った(カーソル内に対象が存在しなくなった)場合、カーソルの移動を停止させて、カーソルの色を変更することもできる。   In the present embodiment, the color of the cursor is changed between when tracking is continued and when tracking is interrupted. Thereby, the user can recognize the tracking state more clearly. Further, in this embodiment, when the object is lost after the cursor is activated (the object no longer exists in the cursor), the movement of the cursor can be stopped and the color of the cursor can be changed.

(図3のステップSA−7)
さらに、本実施形態のトラッキングカメラ2は、トラッキング画像を、トラッキング画像表示部17に送り、呈示画像100の中に、トラッキング画像130を表示することができる。このトラッキング画像は、対象をとらえ続けているトラッキングカメラ2からの画像なので、対象3が動き続けている場合であっても、トラッキング画像上では、対象3は、ほぼ停止した状態となる。
(Step SA-7 in FIG. 3)
Furthermore, the tracking camera 2 of the present embodiment can send the tracking image to the tracking image display unit 17 and display the tracking image 130 in the presented image 100. Since this tracking image is an image from the tracking camera 2 that continues to capture the target, even if the target 3 continues to move, the target 3 is almost stopped on the tracking image.

(図3のステップSA−8)
また、ユーザは、広域画像110を再びクリックすることにより、対象を再度指定することができる。再度の指定があったときは、ステップSA−5に戻り、前記の動作を繰り返す。トラッキングを停止するときは、例えば、カーソル120のドラッグ、トラッキングボタン220の押し下げなど、適宜の指示手段により停止が可能である。
(Step SA-8 in FIG. 3)
The user can specify the target again by clicking the wide area image 110 again. If it is designated again, the process returns to step SA-5 to repeat the above operation. When stopping the tracking, for example, it can be stopped by an appropriate instruction means such as dragging the cursor 120 or pushing down the tracking button 220.

(呈示画像における他の箇所の説明)
以下、本実施形態のGUI装置においてユーザに呈示される呈示画像の他の部分について、図2を参照しながら、補足して説明する。
・二値化画像140:トラッキング画像に対する画像処理により得られたリアルタイムの二値化画像
・二値化閾値入力スライダ150:二値化画像処理のためのパラメータにおける閾値を調整するスライダ。このスライダは、対象3を特定するための閾値の設定に使用することができる。
・フレームレート160:トラッキングカメラ2からシステム側(GUI装置側)に入力されるトラッキング画像のフレームレート
・画像処理時間170:トラッキング画像の1フレームについての画像処理(トラッキング方向算出のための画像処理)に要した時間
・フレーム落ちカウンタ180:トラッキング画像の処理において、1秒間に欠損したフレーム数
・チルト方向ミラー角度190:トラッキングカメラの視線方向を制御するための二軸ガルバノミラー(いわゆるサッカードミラー)におけるチルト方向でのミラー角度(チルト方向での対象物位置を示す)
・パン方向ミラー角度200:トラッキングカメラの視線方向を制御するための二軸ガルバノミラーにおけるパン方向でのミラー角度(パン方向での対象物位置を示す)
・画面ロックボタン210:画面操作のLock/Unlockを切り替えるためのボタン
・トラッキングボタン220:トラッキングカメラ2による対象の追跡の開始及び停止を指示するためのボタン
・ミラー制御ボタン230:サッカードミラーの制御の開始/停止を指示するためのボタン
・ターゲット色情報リセットボタン240:対象として特定されるターゲットの色情報をリセットするためのボタン。ボタン色を対象3の色に一致させることにより、ユーザ1は、トラッキング対象を容易に認識することができる。
・録画ボタン250:トラッキング画像(動画像)の録画の開始/停止を指示するためのボタン
・広域ビュー切替ボタン260:広域画像110として表示される画像として、広域カメラ4で取得されたリアルタイムの画像と、事前に取得された背景画像とを切り替えるためのボタン
・背景取得ボタン270:トラッキングの開始前に、対象物が存在すべき環境の画像(背景画像)を広域カメラにより取得し、あるいは、取得した画像をリセットするためのボタン。このボタンは、対象3の抽出のために背景画像を用いる場合に利用される。
・サーバボタン280:GUI装置10の一部の機能を分散して負担するべきサーバへの通信状態を表示し、あるいは、サーバのシャットダウンを指示するためのボタン
・セットアップボタン290:GUI装置10の動作を設定するためのセットアップ画面(図示せず)に遷移するためのボタン
(Description of other parts in the presented image)
Hereinafter, another part of the presented image presented to the user in the GUI device of the present embodiment will be supplementarily described with reference to FIG.
Binarized image 140: Real-time binarized image obtained by image processing on the tracking image. Binarization threshold value input slider 150: A slider for adjusting a threshold value in a parameter for binarized image processing. This slider can be used to set a threshold value for specifying the target 3.
Frame rate 160: Frame rate of the tracking image input from the tracking camera 2 to the system side (GUI device side) Image processing time 170: Image processing for one frame of the tracking image (image processing for calculating the tracking direction) Time / frame drop counter 180 required for processing: number of frames lost per second in tracking image processing / tilt direction mirror angle 190: biaxial galvanometer mirror (so-called saccade mirror) for controlling the viewing direction of the tracking camera Mirror angle in the tilt direction (indicates the object position in the tilt direction)
Pan direction mirror angle 200: Mirror angle in the pan direction in the biaxial galvanometer mirror for controlling the line-of-sight direction of the tracking camera (indicating the position of the object in the pan direction)
Screen lock button 210: Button for switching lock / unlock of screen operation Tracking button 220: Button for instructing start and stop of tracking of target by tracking camera 2 Mirror control button 230: Control of saccade mirror Button for instructing start / stop of the target color information reset button 240: A button for resetting color information of a target specified as a target. By matching the button color with the color of the target 3, the user 1 can easily recognize the tracking target.
Recording button 250: Button for instructing start / stop of recording of tracking image (moving image). Wide area view switching button 260: Real-time image acquired by the wide area camera 4 as an image displayed as the wide area image 110. And a background acquisition button 270 for switching between the background image acquired in advance and the background image acquired before the tracking is started, or an image of the environment where the object should exist (background image) is acquired or acquired by the wide-area camera Button to reset the selected image. This button is used when a background image is used to extract the target 3.
Server button 280: A button for displaying a communication state to the server to which a part of the functions of the GUI device 10 should be distributed or for instructing or shutting down the server. Setup button 290: Operation of the GUI device 10 Button to transition to the setup screen (not shown) for setting

前記した呈示画像100の構成はあくまで一例であり、GUI機能を発揮できる限り、適宜の構成が可能である。また、呈示画像100の各部分を異なるディスプレイに表示することができ、あるいは、呈示画像100を他の画像と組み合わせて表示することもできる。   The configuration of the presented image 100 described above is merely an example, and an appropriate configuration is possible as long as the GUI function can be exhibited. Moreover, each part of the presentation image 100 can be displayed on a different display, or the presentation image 100 can be displayed in combination with other images.

前記した本実施形態のGUI装置によれば、ユーザ1は、カーソル120を操作することにより、対象3にトラッキングカメラ2の視線を向ける作業を効率的に行うことができるという利点がある。   According to the above-described GUI device of the present embodiment, there is an advantage that the user 1 can efficiently perform the work of directing the line of sight of the tracking camera 2 toward the target 3 by operating the cursor 120.

さらに、本実施形態のGUI装置では、トラッキングカメラ2が環境中のどこを見ているのかを、広域画像110中のカーソル120の位置により、簡単に知ることができるという利点もある。   Further, the GUI device according to the present embodiment has an advantage that it is possible to easily know where the tracking camera 2 is looking in the environment from the position of the cursor 120 in the wide area image 110.

なお、本発明の内容は、前記実施形態に限定されるものではない。本発明は、特許請求の範囲に記載された範囲内において、具体的な構成に対して種々の変更を加えうるものである。   The contents of the present invention are not limited to the above embodiment. In the present invention, various modifications can be made to the specific configuration within the scope of the claims.

例えば、前記したカーソル120は、広域画像110のゆがみに対応してゆがんだ形状とすることができる。すなわち、広域画像110は、広域カメラ4の画角に対応して、ある程度のゆがみを持つ。このゆがみに対応して、カーソル形状をゆがんだものにすることにより、対象3の特定作業を一層容易とすることができる。   For example, the cursor 120 described above may have a distorted shape corresponding to the distortion of the wide area image 110. That is, the wide area image 110 has a certain amount of distortion corresponding to the angle of view of the wide area camera 4. Corresponding to this distortion, by making the cursor shape distorted, the specific work of the object 3 can be further facilitated.

また、前記した実施形態では、色情報に基づいて対象3を特定したが、色に限らず、例えば形状や他の特徴量を用いて対象3を特定することができる。   In the above-described embodiment, the target 3 is specified based on the color information. However, the target 3 is not limited to the color, and the target 3 can be specified using, for example, a shape or other feature amount.

さらに、前記した機能要素は、機能ブロックとして存在していればよく、独立したハードウエアとして存在しなくても良い。また、実装方法としては、ハードウエアを用いてもコンピュータソフトウエアを用いても良い。さらに、本発明における一つの機能要素が複数の機能要素の集合によって実現されても良く、本発明における複数の機能要素が一つの機能要素により実現されても良い。   Furthermore, the above-described functional elements only need to exist as functional blocks, and may not exist as independent hardware. As a mounting method, hardware or computer software may be used. Furthermore, one functional element in the present invention may be realized by a set of a plurality of functional elements, and a plurality of functional elements in the present invention may be realized by one functional element.

また、前記機能要素は、物理的に離間した位置に配置されていてもよい。この場合、機能要素どうしがネットワークにより接続されていても良い。グリッドコンピューティング又はクラウドコンピューティングにより機能を実現し、あるいは機能要素を構成することも可能である。   Further, the functional elements may be arranged at physically separated positions. In this case, the functional elements may be connected by a network. It is also possible to realize functions or configure functional elements by grid computing or cloud computing.

1 ユーザ
2 トラッキングカメラ
3 対象
4 広域カメラ
10 GUI装置
11 広域画像表示部
12 カーソル生成部
13 位置操作受付部
14 指定操作受付部
14 対象特定部
15 指定操作受付部
16 広域画像受付部
17 トラッキング画像表示部
100 呈示画像
110 広域画像
120 カーソル
130 トラッキング画像
140 二値化画像
150 二値化閾値入力スライダ
160 フレームレート
170 画像処理時間
180 フレーム落ちカウンタ
190 チルト方向ミラー角度
200 パン方向ミラー角度
210 画面ロックボタン
220 トラッキングボタン
230 ミラー制御ボタン
240 ターゲット色情報リセットボタン
250 録画ボタン
260 広域ビュー切替ボタン
270 背景取得ボタン
280 サーバボタン
290 セットアップボタン
DESCRIPTION OF SYMBOLS 1 User 2 Tracking camera 3 Object 4 Wide area camera 10 GUI apparatus 11 Wide area image display part 12 Cursor generation part 13 Position operation reception part 14 Designation operation reception part 14 Target specification part 15 Designation operation reception part 16 Wide area image reception part 17 Tracking image display Section 100 Presented Image 110 Wide Area Image 120 Cursor 130 Tracking Image 140 Binary Image 150 Binary Threshold Input Slider 160 Frame Rate 170 Image Processing Time 180 Frame Drop Counter 190 Tilt Direction Mirror Angle 200 Pan Direction Mirror Angle 210 Screen Lock Button 220 Tracking button 230 Mirror control button 240 Target color information reset button 250 Record button 260 Wide area view switching button 270 Background acquisition button 280 Server button 290 Doo-up button

Claims (7)

トラッキングカメラにより追跡されるべき対象を指定するためのGUI装置で
あって、
広域画像表示部と、カーソル生成部と、位置操作受付部と、対象特定部とを備えており、
前記広域画像表示部は、前記対象を含む広域画像をユーザに呈示する構成となっており、
前記カーソル生成部は、前記ユーザに呈示される広域画像の中にカーソルを表示させる構成となっており、
前記位置操作受付部は、前記広域画像の中の前記カーソルについての位置を操作するための前記ユーザからの指示を受け取る構成となっており、
前記対象特定部は、前記カーソルの位置の情報に基づいて、前記対象を特定する構成となっている
GUI装置。
A GUI device for designating an object to be tracked by a tracking camera,
A wide-area image display unit, a cursor generation unit, a position operation reception unit, and a target identification unit;
The wide area image display unit is configured to present a wide area image including the target to the user,
The cursor generation unit is configured to display a cursor in a wide area image presented to the user,
The position operation reception unit is configured to receive an instruction from the user for operating the position of the cursor in the wide area image,
The target specifying unit is configured to specify the target based on information on the position of the cursor.
前記広域画像は、前記トラッキングカメラで追跡されている対象が存在する環境についてのリアルタイムでの動画である
請求項1に記載のGUI装置。
The GUI device according to claim 1, wherein the wide area image is a moving image in real time about an environment where an object being tracked by the tracking camera exists.
さらに、指定操作受付部を備えており、
前記特定操作受付部は、前記対象物を特定するための前記ユーザからの指示を受け取る構成となっており、
前記対象特定部は、前記指定操作受付部が前記ユーザからの指示を受け取った時点、又はそれ以降の時点での前記カーソルの位置の情報に基づいて、前記対象を特定する構成となっている
請求項1又は2に記載のGUI装置。
In addition, it has a designated operation reception unit,
The specific operation receiving unit is configured to receive an instruction from the user for specifying the object,
The target specifying unit is configured to specify the target based on information on a position of the cursor at a time when the designation operation receiving unit receives an instruction from the user or a time after that. Item 3. The GUI device according to Item 1 or 2.
さらに、広域画像受付部を備えており、
前記広域画像受付部は、広域カメラで取得された前記広域画像を受け取って、前記広域画像表示部に送る構成となっており、
前記広域カメラは、前記トラッキングカメラで撮影されるべき領域全体を撮影することにより、前記広域画像を取得する構成となっている
請求項1〜3のいずれか1項に記載のGUI装置。
In addition, it has a wide area image reception unit,
The wide area image receiving unit is configured to receive the wide area image acquired by a wide area camera and send it to the wide area image display unit,
The GUI device according to any one of claims 1 to 3, wherein the wide area camera is configured to acquire the wide area image by capturing an entire area to be captured by the tracking camera.
さらに、トラッキング画像表示部を備えており、
前記トラッキング画像表示部は、前記トラッキングカメラで撮影された前記対象物の画像を表示する構成となっている
請求項1〜4のいずれか1項に記載のGUI装置。
In addition, it has a tracking image display,
The GUI device according to any one of claims 1 to 4, wherein the tracking image display unit is configured to display an image of the object photographed by the tracking camera.
トラッキングカメラにより追跡されるべき対象を、装置によりユーザが指定するための方法であって、
前記対象を含む広域画像をユーザに呈示するステップと、
前記ユーザに呈示される広域画像の中にカーソルを表示するステップと、
前記広域画像の中の前記カーソルについての位置を操作するための前記ユーザからの指示を受け取るステップと、
前記カーソルの位置の情報に基づいて、前記対象を特定するステップと
を備える方法。
A method for a user to specify an object to be tracked by a tracking camera by means of a device,
Presenting a user with a wide area image including the object;
Displaying a cursor in the wide area image presented to the user;
Receiving instructions from the user to manipulate the position of the cursor in the wide area image;
Identifying the target based on information on the position of the cursor.
請求項6に記載の各ステップをコンピュータに実行させるためのコンピュータプログラム。   The computer program for making a computer perform each step of Claim 6.
JP2016105681A 2016-05-26 2016-05-26 Gui apparatus Pending JP2017212654A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2016105681A JP2017212654A (en) 2016-05-26 2016-05-26 Gui apparatus
PCT/JP2017/017702 WO2017203981A1 (en) 2016-05-26 2017-05-10 Gui device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016105681A JP2017212654A (en) 2016-05-26 2016-05-26 Gui apparatus

Publications (1)

Publication Number Publication Date
JP2017212654A true JP2017212654A (en) 2017-11-30

Family

ID=60412427

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016105681A Pending JP2017212654A (en) 2016-05-26 2016-05-26 Gui apparatus

Country Status (2)

Country Link
JP (1) JP2017212654A (en)
WO (1) WO2017203981A1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220116299A (en) 2020-04-24 2022-08-22 가부시키가이샤 하모닉 드라이브 시스템즈 rotary encoder

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09265538A (en) * 1996-03-29 1997-10-07 Matsushita Electric Works Ltd Automatic tracking device
WO2012001755A1 (en) * 2010-07-02 2012-01-05 株式会社ソニー・コンピュータエンタテインメント Information processing system, information processing device, and information processing method
JP2016059014A (en) * 2014-09-12 2016-04-21 沖電気工業株式会社 Monitoring system, video analyzer, video analyzing method, and program

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09265538A (en) * 1996-03-29 1997-10-07 Matsushita Electric Works Ltd Automatic tracking device
WO2012001755A1 (en) * 2010-07-02 2012-01-05 株式会社ソニー・コンピュータエンタテインメント Information processing system, information processing device, and information processing method
JP2016059014A (en) * 2014-09-12 2016-04-21 沖電気工業株式会社 Monitoring system, video analyzer, video analyzing method, and program

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220116299A (en) 2020-04-24 2022-08-22 가부시키가이샤 하모닉 드라이브 시스템즈 rotary encoder

Also Published As

Publication number Publication date
WO2017203981A1 (en) 2017-11-30

Similar Documents

Publication Publication Date Title
US10948993B2 (en) Picture-taking within virtual reality
JP6090786B2 (en) Background difference extraction apparatus and background difference extraction method
US20150116502A1 (en) Apparatus and method for dynamically selecting multiple cameras to track target object
JP6419278B1 (en) Control device, control method, and program
JP2015524951A (en) Manipulating computing devices by detecting round objects in images
CN111935393A (en) Shooting method, shooting device, electronic equipment and storage medium
KR20170031733A (en) Technologies for adjusting a perspective of a captured image for display
JP2019139672A (en) Information processing apparatus, image creation method, and computer program
CN110955329B (en) Transmission method, electronic device, and computer storage medium
JP2023103265A (en) Control device, control method and program
JP2020087277A (en) Video synthesizer, method for synthesizing video, and video synthesizing program
US11847735B2 (en) Information processing apparatus, information processing method, and recording medium
US11477433B2 (en) Information processor, information processing method, and program
JP6632681B2 (en) Control device, control method, and program
US20190058828A1 (en) Electronic devices having multiple position cameras
WO2017203981A1 (en) Gui device
CN111142660A (en) Display device, picture display method and storage medium
CN115379195B (en) Video generation method, device, electronic equipment and readable storage medium
JP2016181302A (en) Computer program and computer system for controlling object operation in immersive virtual space
JP2020021104A (en) Information processing apparatus, information processing system, control method thereof and program
CN116828131A (en) Shooting processing method and device based on virtual reality and electronic equipment
KR101960046B1 (en) Method for producing virtual reality image, portable device in which VR photographing program for performing the same is installed, and server supplying the VR photographing program to the portable device
JP2020182109A (en) Information processing device, information processing method, and program
WO2022044357A1 (en) Terminal device, method, and program
JP2019179502A (en) System, method, and program for creating moving image

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190520

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200602

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20201223