JP2017212654A - Gui apparatus - Google Patents
Gui apparatus Download PDFInfo
- Publication number
- JP2017212654A JP2017212654A JP2016105681A JP2016105681A JP2017212654A JP 2017212654 A JP2017212654 A JP 2017212654A JP 2016105681 A JP2016105681 A JP 2016105681A JP 2016105681 A JP2016105681 A JP 2016105681A JP 2017212654 A JP2017212654 A JP 2017212654A
- Authority
- JP
- Japan
- Prior art keywords
- wide area
- area image
- cursor
- target
- tracking
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G03—PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
- G03B—APPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
- G03B15/00—Special procedures for taking photographs; Apparatus therefor
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/67—Focus control based on electronic image sensor signals
-
- G—PHYSICS
- G03—PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
- G03B—APPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
- G03B17/00—Details of cameras or camera bodies; Accessories therefor
- G03B17/56—Accessories
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
Abstract
Description
本発明は、GUI(Graphical User Interface)装置に関するものであり、特に、いわゆるトラッキングカメラにより追跡されるべき対象をユーザが指定するために好適なGUI装置に関するものである。 The present invention relates to a GUI (Graphical User Interface) device, and more particularly to a GUI device suitable for a user to specify a target to be tracked by a so-called tracking camera.
対象を継続的に撮影するためには、カメラの視線を対象に向け続ける必要がある。多くの場合この作業は撮影者が手動で行うが、ボールの跳躍のような高速かつ不規則な運動に完璧に追従するのは難しい。このため、カメラの視線方向を機械で自動制御するシステム(いわゆるアクティブビジョン:下記非特許文献1参照)の研究が行われている。
In order to continuously shoot an object, it is necessary to keep the camera's line of sight toward the object. In many cases, this is done manually by the photographer, but it is difficult to perfectly follow a fast and irregular movement such as a jumping ball. For this reason, research is being conducted on a system (so-called active vision: see Non-Patent
通常のアクティブビジョンの技術では、カメラ自体を駆動雲台に取り付けて動かしているため、視線方向の移動についての応答速度が遅い。これでは、急激な加速度変化を含む運動対象(例えば球技で用いられているボール)をトラッキングすることは難しい。高速カメラのフレームレートが、速いものでは100万fpsに達する事や、GPUによって画像処理が高速化されている現状を考えると、視線制御速度は、様々なトラッキングシステムにおいて速度面でのボトルネックとなっていると言える。 In the normal active vision technology, the camera itself is attached to the driving head and moved, so that the response speed for movement in the line of sight is slow. With this, it is difficult to track a moving object (for example, a ball used in a ball game) including a rapid acceleration change. Considering the fact that the frame rate of high-speed cameras reaches 1 million fps at high speeds, and the current situation that image processing is accelerated by GPU, gaze control speed is a bottleneck in speed in various tracking systems. It can be said that
この問題を解決するために、カメラ前方に配置した小型駆動鏡面によって高速にカメラの視線変更を行うサッカードミラー(Saccade Mirror)と呼ばれる光学系が提案されている(下記非特許文献2及び特許文献1参照)。この技術では、2軸のガルバノミラーを用いることによって、高速な視線変更ができるようになっている。制御系において、常に画面中心で対象物をとらえるように視線の制御ができれば、他に類を見ないダイナミックな撮像が可能になると考えられる。高速視線制御が行われるカメラをトラッキングカメラと呼び、トラッキングカメラで取得された画像(つまり対象物の画像)を、トラッキング画像と呼ぶことがある。
In order to solve this problem, an optical system called a saccade mirror (Saccade Mirror) that changes the line of sight of a camera at high speed using a small drive mirror surface arranged in front of the camera has been proposed (Non-patent
また、下記非特許文献2は、トラッキングカメラで撮影された画像の情報(例えば色情報)を用いて、対象物にトラッキングカメラの視線を向け続ける手法も示している。
Non-Patent
ところで、前記した技術では、トラッキングの初期段階において、対象物にトラッキングカメラの視線を向けて、対象物を特定する必要がある。そのために、従来は、停止した対象物を用いて、この対象物にトラッキングカメラの視線を向け、その後に、トラッキングを開始する手順を行っていた。 By the way, in the above-described technique, it is necessary to specify the object by directing the line of sight of the tracking camera to the object in the initial stage of tracking. For this purpose, conventionally, a stopped object is used to direct the line of sight of the tracking camera to the object, and then a procedure for starting tracking is performed.
しかしながら、この手順の場合、トラッキングカメラの視線方向を対象物に向ける作業が煩雑であるという問題がある。また、この手順では、すでに移動を開始している対象物に対して、トラッキングカメラの視線を向ける作業が難しくなるという問題もある。例えば、球技開始後(例えば卓球のラリーが始まった後)に、動いている球にトラッキングカメラの視線を向けることは、前記の手順を前提にすると難しい。 However, in the case of this procedure, there is a problem that the work of directing the line-of-sight direction of the tracking camera toward the object is complicated. This procedure also has a problem that it is difficult to turn the tracking camera's line of sight on an object that has already started moving. For example, it is difficult to direct the tracking camera's line of sight to a moving ball after starting a ball game (for example, after a table tennis rally has started), assuming the above procedure.
本発明は、前記した状況に鑑みてなされたものである。本発明の主な目的の一つは、対象物にトラッキングカメラの視線を向ける作業の効率化を図ることができる技術を提供することである。 The present invention has been made in view of the above situation. One of the main objects of the present invention is to provide a technique capable of improving the efficiency of the work of directing the line of sight of a tracking camera to an object.
前記した課題を解決する手段は、以下の項目のように記載できる。 Means for solving the above-described problems can be described as follows.
(項目1)
トラッキングカメラにより追跡されるべき対象を指定するためのGUI装置であって、
広域画像表示部と、カーソル生成部と、位置操作受付部と、対象特定部とを備えており、
前記広域画像表示部は、前記対象を含む広域画像をユーザに呈示する構成となっており、
前記カーソル生成部は、前記ユーザに呈示される広域画像の中にカーソルを表示させる構成となっており、
前記位置操作受付部は、前記広域画像の中の前記カーソルについての位置を操作するための前記ユーザからの指示を受け取る構成となっており、
前記対象特定部は、前記カーソルの位置の情報に基づいて、前記対象を特定する構成となっている
GUI装置。
(Item 1)
A GUI device for designating an object to be tracked by a tracking camera,
A wide-area image display unit, a cursor generation unit, a position operation reception unit, and a target identification unit;
The wide area image display unit is configured to present a wide area image including the target to the user,
The cursor generation unit is configured to display a cursor in a wide area image presented to the user,
The position operation reception unit is configured to receive an instruction from the user for operating the position of the cursor in the wide area image,
The target specifying unit is configured to specify the target based on information on the position of the cursor.
(項目2)
前記広域画像は、前記トラッキングカメラで追跡されている対象が存在する環境についてのリアルタイムでの動画である
項目1に記載のGUI装置。
(Item 2)
The GUI device according to
(項目3)
さらに、指定操作受付部を備えており、
前記特定操作受付部は、前記対象物を特定するための前記ユーザからの指示を受け取る構成となっており、
前記対象特定部は、前記指定操作受付部が前記ユーザからの指示を受け取った時点、又はそれ以降の時点での前記カーソルの位置の情報に基づいて、前記対象を特定する構成となっている
項目1又は2に記載のGUI装置。
(Item 3)
In addition, it has a designated operation reception unit,
The specific operation receiving unit is configured to receive an instruction from the user for specifying the object,
The target specifying unit is configured to specify the target based on information on the position of the cursor at the time when the designation operation receiving unit receives an instruction from the user, or after that. The GUI device according to 1 or 2.
(項目4)
さらに、広域画像受付部を備えており、
前記広域画像受付部は、広域カメラで取得された前記広域画像を受け取って、前記広域画像表示部に送る構成となっており、
前記広域カメラは、前記トラッキングカメラで撮影されるべき領域全体を撮影することにより、前記広域画像を取得する構成となっている
項目1〜3のいずれか1項に記載のGUI装置。
(Item 4)
In addition, it has a wide area image reception unit,
The wide area image receiving unit is configured to receive the wide area image acquired by a wide area camera and send it to the wide area image display unit,
The GUI device according to any one of
(項目5)
さらに、トラッキング画像表示部を備えており、
前記トラッキング画像表示部は、前記トラッキングカメラで撮影された前記対象物の画像を表示する構成となっている
項目1〜4のいずれか1項に記載のGUI装置。
(Item 5)
In addition, it has a tracking image display,
The GUI device according to any one of
(項目6)
トラッキングカメラにより追跡されるべき対象を、装置によりユーザが指定するための方法であって、
前記対象を含む広域画像をユーザに呈示するステップと、
前記ユーザに呈示される広域画像の中にカーソルを表示するステップと、
前記広域画像の中の前記カーソルについての位置を操作するための前記ユーザからの指示を受け取るステップと、
前記カーソルの位置の情報に基づいて、前記対象を特定するステップと
を備える方法。
(Item 6)
A method for a user to specify an object to be tracked by a tracking camera by means of a device,
Presenting a user with a wide area image including the object;
Displaying a cursor in the wide area image presented to the user;
Receiving instructions from the user to manipulate the position of the cursor in the wide area image;
Identifying the target based on information on the position of the cursor.
(項目7)
項目6に記載の各ステップをコンピュータに実行させるためのコンピュータプログラム。
(Item 7)
A computer program for causing a computer to execute each step according to
このコンピュータプログラムは、適宜な記録媒体(例えばCD−ROMやDVDディスクのような光学的な記録媒体、ハードディスクやフレキシブルディスクのような磁気的記録媒体、あるいはMOディスクのような光磁気記録媒体)に格納することができる。このコンピュータプログラムは、インターネットなどの通信回線を介して伝送されることができる。 This computer program is stored in an appropriate recording medium (for example, an optical recording medium such as a CD-ROM or a DVD disk, a magnetic recording medium such as a hard disk or a flexible disk, or a magneto-optical recording medium such as an MO disk). Can be stored. This computer program can be transmitted via a communication line such as the Internet.
本発明によれば、対象物にトラッキングカメラの視線を向ける作業を効率的に行うことが可能となる。 According to the present invention, it is possible to efficiently perform the work of directing the line of sight of the tracking camera to an object.
以下、本発明の一実施形態に係るGUI装置10を、添付の図面を参照しながら説明する。このGUI装置10は、トラッキングカメラ2により追跡されるべき対象3を指定するために用いられるものである(図1参照)。
Hereinafter, a
(本実施形態の構成)
本実施形態のGUI装置10は、広域画像表示部11と、カーソル生成部12と、位置操作受付部13と、対象特定部14とを備えている(図1参照)。さらに、本例のGUI装置10は、指定操作受付部15と、広域画像受付部16と、トラッキング画像表示部17とを追加的な要素として備えている。
(Configuration of this embodiment)
The
(広域画像表示部)
広域画像表示部11は、対象3を含む広域画像110(図2参照)をユーザ1(図1参照)に呈示する構成となっている。ここで、広域画像110を含む、ユーザ1に呈示される画像全体(以下「呈示画像」という)を、図2において符号100で示している。広域画像表示部11としては、広域画像110をユーザのための表示できる機能要素であればよく、例えばディスプレイ(図示せず)の一部として構成することができる。
(Wide area image display)
The wide area
ここで、本実施形態における広域画像110は、トラッキングカメラ2で追跡されている対象3が存在する環境についてのリアルタイムでの動画である。例えば、対象3が、卓球で用いられる球であるとすれば、環境としては、卓球台、ラケット、競技者、床面、壁面などを含むことができる。ただし、環境としては、これらに限るものではなく、要するに対象を含む周辺環境であればよい。
Here, the
(カーソル生成部)
カーソル生成部12は、ユーザ1に呈示される広域画像110の中に、カーソル120(図2参照)を表示させる構成となっている。カーソル120は、この実施形態では、四角形状の枠とされているが、カーソルの形状や大きさに特段の制約はない。要するに、対象を特定できるように設定されていればよい。
(Cursor generator)
The
(位置操作受付部)
位置操作受付部13は、広域画像110の中のカーソル120についての位置を操作するための、ユーザ1からの指示を受け取る構成となっている。ここで、位置操作受付部13は、例えばマウスなどの入出力装置であるが、カーソル120を画像上で必要な位置に調整できるのであれば特段の制約はない。
(Position operation reception part)
The position
(対象特定部)
対象特定部14は、カーソル120の位置の情報に基づいて、対象3を特定する構成となっている。より具体的には、本実施形態の対象特定部14は、指定操作受付部15がユーザからの指示を受け取った時点、又はそれ以降の時点でのカーソルの位置の情報に基づいて、対象3を特定する構成となっている。対象特定部14の詳しい動作は後述する。
(Target specific part)
The
(指定操作受付部)
指定操作受付部15は、対象3を特定するためのユーザ1からの指示を受け取る構成となっている。ここで、対象3を特定するためのユーザ1からの指示とは、例えば、広域画像中でのマウスの左クリック、あるいは、呈示画像100におけるトラッキングボタン220(後述)の押し下げであるが、これらに制約されるものではなく、用途に応じて適宜の指示入力方法を設定できる。
(Designated operation reception part)
The designation
(広域画像受付部)
広域画像受付部16は、広域カメラ4(図1参照)で取得された広域画像110を受け取って、広域画像表示部11に送る構成となっている。
(Wide area image reception department)
The wide area
広域カメラ4は、トラッキングカメラ2で撮影されるべき領域全体(すなわち、対象3が存在する環境)を撮影することにより、広域画像110を取得する構成となっている。
The
(トラッキング画像表示部)
トラッキング画像表示部17は、トラッキングカメラ2で撮影された対象3の画像を表示する構成となっている。トラッキング画像表示部17も、広域画像表示部11と同様に、例えばディスプレイ(図示せず)の一部として構成することができる。
(Tracking image display part)
The tracking
ここで、トラッキングカメラ2は、高フレームレートで映像を取得できるカメラ本体と、高速でカメラの視線方向を変更できる二軸ガルバノミラー(いわゆるサッカードミラー)と、瞳転送光学系とを備えている(図示省略)。二軸ガルバノミラーは、チルト方向に回動するチルトミラーと、パン方向に回動するパンミラーとを備えている。瞳転送光学系は、カメラ本体の瞳位置をチルトミラーとパンミラーとの間に転送できるようになっている。このようなトラッキングカメラ2としては、例えば、前記非特許文献2に示されるものを用いることができるので、詳しい説明は省略する。
Here, the tracking
(本実施形態の動作)
次に、本実施形態に係るGUI装置の動作を、図3をさらに参照しながら説明する。
(Operation of this embodiment)
Next, the operation of the GUI device according to the present embodiment will be described with further reference to FIG.
(図3のステップSA−1)
まず、広域カメラ4で取得される広域画像110と、トラッキングカメラ2の視線方向とのキャリブレーションを行う。つまり、広域画像110における画像上の座標と、トラッキングカメラの視線方向との相互変換が可能な状態とする。これにより、本実施形態では、例えば、広域画像110におけるある画素を画像上で指定すると、それに対応する視線方向にトラッキングカメラ2を向けることができる。また逆に、本実施形態では、トラッキングカメラ2の方向に対応する画素位置にカーソル120を表示することもできる。
(Step SA-1 in FIG. 3)
First, the
(図3のステップSA−2)
ついで、広域カメラ4は、広域画像110を取得する。広域画像110は、通常、対象3を含む環境についての動画像である。取得された広域画像110は、広域画像表示部11に送られる。
(Step SA-2 in FIG. 3)
Next, the
(図3のステップSA−3)
ついで、広域画像表示部11は、広域画像110を、ユーザ用のディスプレイなどのユーザ端末(図示せず)に表示する(図2参照)。
(Step SA-3 in FIG. 3)
Next, the wide area
(図3のステップSA−4)
ついで、ユーザ1は、広域画像110を見ながら、トラッキング対象を指定する。このトラッキング対象の指定動作を、図4をさらに参照しながら説明する。
(Step SA-4 in FIG. 3)
Next, the
(図4のステップSB−1)
まず、カーソル生成部12により、広域画像110の中にカーソル120を表示する(図2参照)。初期状態では、広域画像110中のカーソル120の位置は任意であり、例えば広域画像110の中央にカーソル120を表示することができる。
(Step SB-1 in FIG. 4)
First, the
(図4のステップSB−2)
ついで、ユーザは、位置操作受付部13により、カーソル120の位置を調整する。例えば、カーソル120の中に対象3が入る状態とする(図2参照)。
(Step SB-2 in FIG. 4)
Next, the user adjusts the position of the
次いで、ユーザは、指定操作受付部15により、対象3を特定するための指示を入力する。この入力を、この明細書では「カーソルのアクティブ化」と称することがある。対象3を特定するための指示としては、本実施形態では、例えば、広域画像110を左クリックする、あるいは、トラッキングボタン220を押し下げる手法を用いることができる。
Next, the user inputs an instruction for specifying the
(図4のステップSB−3及びSB−4)
ついで、対象特定部14は、対象3を特定するための指示が入力されると(つまりカーソルがアクティブになると)、その時点で、カーソル内に、トラッキング対象が存在するかどうか判定する。この判定は、例えば、色情報を用いて行うことができる。
(Steps SB-3 and SB-4 in FIG. 4)
Next, when an instruction for specifying the
より具体的には、例えば、対象物の色を黄色に設定していたとすると、カーソル内に黄色の領域が規定面積以上存在したとき、その色領域の重心を対象物の中心(トラッキング位置)として特定することができる。ただし、トラッキング対象やトラッキング位置を特定するアルゴリズムや、特定のための閾値条件は、用途に応じて適宜に設定することができる。例えば、卓球の球が対象3であった場合、サーブ前にプレーヤーが保持する球にカーソル120を置いて、対象3を特定することができる。
More specifically, for example, if the color of the target object is set to yellow, and the yellow area exceeds the specified area in the cursor, the center of the color area is set as the center of the target object (tracking position). Can be identified. However, an algorithm for specifying a tracking target and a tracking position and a threshold condition for specification can be appropriately set according to the application. For example, when the table tennis ball is the
ここで、本実施形態のGUI装置10では、もし、カーソル内に、閾値条件を満たす対象が存在しないときは、その位置において、閾値条件を満たすまで、動画像(広域画像)に対する判定を繰り返す。このようにすると、広域画像内において対象3がカーソル120を通過した時から、トラッキングを開始することができる。この手法は、すでに対象3が動き始めている場合や、対象3が現時点では見えていない場合であって、かつ、対象3の軌跡が予想できる場合において特に有効である。例えば、卓球やテニスのように、球がネットを通過することが確実な場合には、ネットの近く(図2参照)にカーソル120を配置することにより、カーソル120が球を待ち受ける状態とすることができる。同様に、プレーヤーの手前にカーソル120を配置すれば、プレー開始時点(球が前方に供給された時点)からトラッキングを開示することができる。このようにすると、アクティブ化の後に対象3の位置を特定して実際のトラッキングを開始することができる。
Here, in the
(図3のステップSA−5)
前記の手順により対象が特定されると、トラッキング位置を含むトラッキング指令が対象特定部14からトラッキングカメラ2に送られて、対象へのトラッキングが開始される。トラッキングにおいては、トラッキングカメラ2で得た画像(トラッキング画像)を用いて、画像ベースでのトラッキングを行うことができる。すなわち、トラッキング画像の情報(例えば直前に得た画像に対する対象の位置ずれ情報)を用いて、トラッキングカメラ2の方向を、対象3を追跡するように制御し、対象3の画像を取得し続けることができる。このようなトラッキングの手法としては、例えば前記した非特許文献2に記載した手法を用いることができるので、これについての詳しい説明は省略する。
(Step SA-5 in FIG. 3)
When the target is specified by the above procedure, a tracking command including the tracking position is sent from the
(図3のステップSA−6)
一方、カーソル生成部12は、対象3の位置に応じて、カーソル120の位置を変更し、常に、対象3を囲む位置にカーソル120が表示されるようにする。本実施形態では、トラッキングカメラ2の方向と広域画像110との対応関係を用いて、広域画像110において、対象3を囲む位置にカーソル120を表示することができる。これにより、ユーザは、トラッキング対象の位置、及び、トラッキングが継続していることを、広域画像110により簡単に認識することができる。
(Step SA-6 in FIG. 3)
On the other hand, the
なお、本実施形態では、トラッキングが継続しているときと、トラッキングが中断しているときとの間で、カーソルの色を変化させている。これにより、ユーザは、トラッキング状態を一層明瞭に認識することができる。また、本実施形態では、カーソルがアクティブ化した後に対象を見失った(カーソル内に対象が存在しなくなった)場合、カーソルの移動を停止させて、カーソルの色を変更することもできる。 In the present embodiment, the color of the cursor is changed between when tracking is continued and when tracking is interrupted. Thereby, the user can recognize the tracking state more clearly. Further, in this embodiment, when the object is lost after the cursor is activated (the object no longer exists in the cursor), the movement of the cursor can be stopped and the color of the cursor can be changed.
(図3のステップSA−7)
さらに、本実施形態のトラッキングカメラ2は、トラッキング画像を、トラッキング画像表示部17に送り、呈示画像100の中に、トラッキング画像130を表示することができる。このトラッキング画像は、対象をとらえ続けているトラッキングカメラ2からの画像なので、対象3が動き続けている場合であっても、トラッキング画像上では、対象3は、ほぼ停止した状態となる。
(Step SA-7 in FIG. 3)
Furthermore, the tracking
(図3のステップSA−8)
また、ユーザは、広域画像110を再びクリックすることにより、対象を再度指定することができる。再度の指定があったときは、ステップSA−5に戻り、前記の動作を繰り返す。トラッキングを停止するときは、例えば、カーソル120のドラッグ、トラッキングボタン220の押し下げなど、適宜の指示手段により停止が可能である。
(Step SA-8 in FIG. 3)
The user can specify the target again by clicking the
(呈示画像における他の箇所の説明)
以下、本実施形態のGUI装置においてユーザに呈示される呈示画像の他の部分について、図2を参照しながら、補足して説明する。
・二値化画像140:トラッキング画像に対する画像処理により得られたリアルタイムの二値化画像
・二値化閾値入力スライダ150:二値化画像処理のためのパラメータにおける閾値を調整するスライダ。このスライダは、対象3を特定するための閾値の設定に使用することができる。
・フレームレート160:トラッキングカメラ2からシステム側(GUI装置側)に入力されるトラッキング画像のフレームレート
・画像処理時間170:トラッキング画像の1フレームについての画像処理(トラッキング方向算出のための画像処理)に要した時間
・フレーム落ちカウンタ180:トラッキング画像の処理において、1秒間に欠損したフレーム数
・チルト方向ミラー角度190:トラッキングカメラの視線方向を制御するための二軸ガルバノミラー(いわゆるサッカードミラー)におけるチルト方向でのミラー角度(チルト方向での対象物位置を示す)
・パン方向ミラー角度200:トラッキングカメラの視線方向を制御するための二軸ガルバノミラーにおけるパン方向でのミラー角度(パン方向での対象物位置を示す)
・画面ロックボタン210:画面操作のLock/Unlockを切り替えるためのボタン
・トラッキングボタン220:トラッキングカメラ2による対象の追跡の開始及び停止を指示するためのボタン
・ミラー制御ボタン230:サッカードミラーの制御の開始/停止を指示するためのボタン
・ターゲット色情報リセットボタン240:対象として特定されるターゲットの色情報をリセットするためのボタン。ボタン色を対象3の色に一致させることにより、ユーザ1は、トラッキング対象を容易に認識することができる。
・録画ボタン250:トラッキング画像(動画像)の録画の開始/停止を指示するためのボタン
・広域ビュー切替ボタン260:広域画像110として表示される画像として、広域カメラ4で取得されたリアルタイムの画像と、事前に取得された背景画像とを切り替えるためのボタン
・背景取得ボタン270:トラッキングの開始前に、対象物が存在すべき環境の画像(背景画像)を広域カメラにより取得し、あるいは、取得した画像をリセットするためのボタン。このボタンは、対象3の抽出のために背景画像を用いる場合に利用される。
・サーバボタン280:GUI装置10の一部の機能を分散して負担するべきサーバへの通信状態を表示し、あるいは、サーバのシャットダウンを指示するためのボタン
・セットアップボタン290:GUI装置10の動作を設定するためのセットアップ画面(図示せず)に遷移するためのボタン
(Description of other parts in the presented image)
Hereinafter, another part of the presented image presented to the user in the GUI device of the present embodiment will be supplementarily described with reference to FIG.
Binarized image 140: Real-time binarized image obtained by image processing on the tracking image. Binarization threshold value input slider 150: A slider for adjusting a threshold value in a parameter for binarized image processing. This slider can be used to set a threshold value for specifying the
Frame rate 160: Frame rate of the tracking image input from the tracking
Pan direction mirror angle 200: Mirror angle in the pan direction in the biaxial galvanometer mirror for controlling the line-of-sight direction of the tracking camera (indicating the position of the object in the pan direction)
Screen lock button 210: Button for switching lock / unlock of screen operation Tracking button 220: Button for instructing start and stop of tracking of target by tracking
Recording button 250: Button for instructing start / stop of recording of tracking image (moving image). Wide area view switching button 260: Real-time image acquired by the
Server button 280: A button for displaying a communication state to the server to which a part of the functions of the
前記した呈示画像100の構成はあくまで一例であり、GUI機能を発揮できる限り、適宜の構成が可能である。また、呈示画像100の各部分を異なるディスプレイに表示することができ、あるいは、呈示画像100を他の画像と組み合わせて表示することもできる。
The configuration of the presented
前記した本実施形態のGUI装置によれば、ユーザ1は、カーソル120を操作することにより、対象3にトラッキングカメラ2の視線を向ける作業を効率的に行うことができるという利点がある。
According to the above-described GUI device of the present embodiment, there is an advantage that the
さらに、本実施形態のGUI装置では、トラッキングカメラ2が環境中のどこを見ているのかを、広域画像110中のカーソル120の位置により、簡単に知ることができるという利点もある。
Further, the GUI device according to the present embodiment has an advantage that it is possible to easily know where the tracking
なお、本発明の内容は、前記実施形態に限定されるものではない。本発明は、特許請求の範囲に記載された範囲内において、具体的な構成に対して種々の変更を加えうるものである。 The contents of the present invention are not limited to the above embodiment. In the present invention, various modifications can be made to the specific configuration within the scope of the claims.
例えば、前記したカーソル120は、広域画像110のゆがみに対応してゆがんだ形状とすることができる。すなわち、広域画像110は、広域カメラ4の画角に対応して、ある程度のゆがみを持つ。このゆがみに対応して、カーソル形状をゆがんだものにすることにより、対象3の特定作業を一層容易とすることができる。
For example, the
また、前記した実施形態では、色情報に基づいて対象3を特定したが、色に限らず、例えば形状や他の特徴量を用いて対象3を特定することができる。
In the above-described embodiment, the
さらに、前記した機能要素は、機能ブロックとして存在していればよく、独立したハードウエアとして存在しなくても良い。また、実装方法としては、ハードウエアを用いてもコンピュータソフトウエアを用いても良い。さらに、本発明における一つの機能要素が複数の機能要素の集合によって実現されても良く、本発明における複数の機能要素が一つの機能要素により実現されても良い。 Furthermore, the above-described functional elements only need to exist as functional blocks, and may not exist as independent hardware. As a mounting method, hardware or computer software may be used. Furthermore, one functional element in the present invention may be realized by a set of a plurality of functional elements, and a plurality of functional elements in the present invention may be realized by one functional element.
また、前記機能要素は、物理的に離間した位置に配置されていてもよい。この場合、機能要素どうしがネットワークにより接続されていても良い。グリッドコンピューティング又はクラウドコンピューティングにより機能を実現し、あるいは機能要素を構成することも可能である。 Further, the functional elements may be arranged at physically separated positions. In this case, the functional elements may be connected by a network. It is also possible to realize functions or configure functional elements by grid computing or cloud computing.
1 ユーザ
2 トラッキングカメラ
3 対象
4 広域カメラ
10 GUI装置
11 広域画像表示部
12 カーソル生成部
13 位置操作受付部
14 指定操作受付部
14 対象特定部
15 指定操作受付部
16 広域画像受付部
17 トラッキング画像表示部
100 呈示画像
110 広域画像
120 カーソル
130 トラッキング画像
140 二値化画像
150 二値化閾値入力スライダ
160 フレームレート
170 画像処理時間
180 フレーム落ちカウンタ
190 チルト方向ミラー角度
200 パン方向ミラー角度
210 画面ロックボタン
220 トラッキングボタン
230 ミラー制御ボタン
240 ターゲット色情報リセットボタン
250 録画ボタン
260 広域ビュー切替ボタン
270 背景取得ボタン
280 サーバボタン
290 セットアップボタン
DESCRIPTION OF
Claims (7)
あって、
広域画像表示部と、カーソル生成部と、位置操作受付部と、対象特定部とを備えており、
前記広域画像表示部は、前記対象を含む広域画像をユーザに呈示する構成となっており、
前記カーソル生成部は、前記ユーザに呈示される広域画像の中にカーソルを表示させる構成となっており、
前記位置操作受付部は、前記広域画像の中の前記カーソルについての位置を操作するための前記ユーザからの指示を受け取る構成となっており、
前記対象特定部は、前記カーソルの位置の情報に基づいて、前記対象を特定する構成となっている
GUI装置。 A GUI device for designating an object to be tracked by a tracking camera,
A wide-area image display unit, a cursor generation unit, a position operation reception unit, and a target identification unit;
The wide area image display unit is configured to present a wide area image including the target to the user,
The cursor generation unit is configured to display a cursor in a wide area image presented to the user,
The position operation reception unit is configured to receive an instruction from the user for operating the position of the cursor in the wide area image,
The target specifying unit is configured to specify the target based on information on the position of the cursor.
請求項1に記載のGUI装置。 The GUI device according to claim 1, wherein the wide area image is a moving image in real time about an environment where an object being tracked by the tracking camera exists.
前記特定操作受付部は、前記対象物を特定するための前記ユーザからの指示を受け取る構成となっており、
前記対象特定部は、前記指定操作受付部が前記ユーザからの指示を受け取った時点、又はそれ以降の時点での前記カーソルの位置の情報に基づいて、前記対象を特定する構成となっている
請求項1又は2に記載のGUI装置。 In addition, it has a designated operation reception unit,
The specific operation receiving unit is configured to receive an instruction from the user for specifying the object,
The target specifying unit is configured to specify the target based on information on a position of the cursor at a time when the designation operation receiving unit receives an instruction from the user or a time after that. Item 3. The GUI device according to Item 1 or 2.
前記広域画像受付部は、広域カメラで取得された前記広域画像を受け取って、前記広域画像表示部に送る構成となっており、
前記広域カメラは、前記トラッキングカメラで撮影されるべき領域全体を撮影することにより、前記広域画像を取得する構成となっている
請求項1〜3のいずれか1項に記載のGUI装置。 In addition, it has a wide area image reception unit,
The wide area image receiving unit is configured to receive the wide area image acquired by a wide area camera and send it to the wide area image display unit,
The GUI device according to any one of claims 1 to 3, wherein the wide area camera is configured to acquire the wide area image by capturing an entire area to be captured by the tracking camera.
前記トラッキング画像表示部は、前記トラッキングカメラで撮影された前記対象物の画像を表示する構成となっている
請求項1〜4のいずれか1項に記載のGUI装置。 In addition, it has a tracking image display,
The GUI device according to any one of claims 1 to 4, wherein the tracking image display unit is configured to display an image of the object photographed by the tracking camera.
前記対象を含む広域画像をユーザに呈示するステップと、
前記ユーザに呈示される広域画像の中にカーソルを表示するステップと、
前記広域画像の中の前記カーソルについての位置を操作するための前記ユーザからの指示を受け取るステップと、
前記カーソルの位置の情報に基づいて、前記対象を特定するステップと
を備える方法。 A method for a user to specify an object to be tracked by a tracking camera by means of a device,
Presenting a user with a wide area image including the object;
Displaying a cursor in the wide area image presented to the user;
Receiving instructions from the user to manipulate the position of the cursor in the wide area image;
Identifying the target based on information on the position of the cursor.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016105681A JP2017212654A (en) | 2016-05-26 | 2016-05-26 | Gui apparatus |
PCT/JP2017/017702 WO2017203981A1 (en) | 2016-05-26 | 2017-05-10 | Gui device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016105681A JP2017212654A (en) | 2016-05-26 | 2016-05-26 | Gui apparatus |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2017212654A true JP2017212654A (en) | 2017-11-30 |
Family
ID=60412427
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016105681A Pending JP2017212654A (en) | 2016-05-26 | 2016-05-26 | Gui apparatus |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP2017212654A (en) |
WO (1) | WO2017203981A1 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20220116299A (en) | 2020-04-24 | 2022-08-22 | 가부시키가이샤 하모닉 드라이브 시스템즈 | rotary encoder |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH09265538A (en) * | 1996-03-29 | 1997-10-07 | Matsushita Electric Works Ltd | Automatic tracking device |
WO2012001755A1 (en) * | 2010-07-02 | 2012-01-05 | 株式会社ソニー・コンピュータエンタテインメント | Information processing system, information processing device, and information processing method |
JP2016059014A (en) * | 2014-09-12 | 2016-04-21 | 沖電気工業株式会社 | Monitoring system, video analyzer, video analyzing method, and program |
-
2016
- 2016-05-26 JP JP2016105681A patent/JP2017212654A/en active Pending
-
2017
- 2017-05-10 WO PCT/JP2017/017702 patent/WO2017203981A1/en active Application Filing
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH09265538A (en) * | 1996-03-29 | 1997-10-07 | Matsushita Electric Works Ltd | Automatic tracking device |
WO2012001755A1 (en) * | 2010-07-02 | 2012-01-05 | 株式会社ソニー・コンピュータエンタテインメント | Information processing system, information processing device, and information processing method |
JP2016059014A (en) * | 2014-09-12 | 2016-04-21 | 沖電気工業株式会社 | Monitoring system, video analyzer, video analyzing method, and program |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20220116299A (en) | 2020-04-24 | 2022-08-22 | 가부시키가이샤 하모닉 드라이브 시스템즈 | rotary encoder |
Also Published As
Publication number | Publication date |
---|---|
WO2017203981A1 (en) | 2017-11-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10948993B2 (en) | Picture-taking within virtual reality | |
JP6090786B2 (en) | Background difference extraction apparatus and background difference extraction method | |
US20150116502A1 (en) | Apparatus and method for dynamically selecting multiple cameras to track target object | |
JP6419278B1 (en) | Control device, control method, and program | |
JP2015524951A (en) | Manipulating computing devices by detecting round objects in images | |
CN111935393A (en) | Shooting method, shooting device, electronic equipment and storage medium | |
KR20170031733A (en) | Technologies for adjusting a perspective of a captured image for display | |
JP2019139672A (en) | Information processing apparatus, image creation method, and computer program | |
CN110955329B (en) | Transmission method, electronic device, and computer storage medium | |
JP2023103265A (en) | Control device, control method and program | |
JP2020087277A (en) | Video synthesizer, method for synthesizing video, and video synthesizing program | |
US11847735B2 (en) | Information processing apparatus, information processing method, and recording medium | |
US11477433B2 (en) | Information processor, information processing method, and program | |
JP6632681B2 (en) | Control device, control method, and program | |
US20190058828A1 (en) | Electronic devices having multiple position cameras | |
WO2017203981A1 (en) | Gui device | |
CN111142660A (en) | Display device, picture display method and storage medium | |
CN115379195B (en) | Video generation method, device, electronic equipment and readable storage medium | |
JP2016181302A (en) | Computer program and computer system for controlling object operation in immersive virtual space | |
JP2020021104A (en) | Information processing apparatus, information processing system, control method thereof and program | |
CN116828131A (en) | Shooting processing method and device based on virtual reality and electronic equipment | |
KR101960046B1 (en) | Method for producing virtual reality image, portable device in which VR photographing program for performing the same is installed, and server supplying the VR photographing program to the portable device | |
JP2020182109A (en) | Information processing device, information processing method, and program | |
WO2022044357A1 (en) | Terminal device, method, and program | |
JP2019179502A (en) | System, method, and program for creating moving image |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190520 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200602 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20201223 |