WO2024116733A1 - Information processing device, information processing method, and recording medium - Google Patents

Information processing device, information processing method, and recording medium Download PDF

Info

Publication number
WO2024116733A1
WO2024116733A1 PCT/JP2023/039870 JP2023039870W WO2024116733A1 WO 2024116733 A1 WO2024116733 A1 WO 2024116733A1 JP 2023039870 W JP2023039870 W JP 2023039870W WO 2024116733 A1 WO2024116733 A1 WO 2024116733A1
Authority
WO
WIPO (PCT)
Prior art keywords
tracking
image
composition
camera
subject
Prior art date
Application number
PCT/JP2023/039870
Other languages
French (fr)
Japanese (ja)
Inventor
和俊 河村
佑輝 中居
Original Assignee
ソニーグループ株式会社
株式会社ソニー・ミュージックエンタテインメント
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニーグループ株式会社, 株式会社ソニー・ミュージックエンタテインメント filed Critical ソニーグループ株式会社
Publication of WO2024116733A1 publication Critical patent/WO2024116733A1/en

Links

Images

Abstract

The information processing device according to the present technology comprises a designation acceptance processing unit that performs a process in which a subject to be tracked by a tracking camera capable of tracking a subject is designated by a user from a subject captured in a sensing image obtained by a sensor device which, separately from the tracking camera, has a light reception sensor.

Description

情報処理装置、情報処理方法、記録媒体Information processing device, information processing method, and recording medium
 本技術は、情報処理装置とその方法、及び記録媒体に関するものであり、特には、撮像の制御技術に関する。 This technology relates to an information processing device and method, and a recording medium, and in particular to imaging control technology.
 撮像に関する制御として、例えば検出した被写体を追尾するようにカメラの向きを制御(つまり被写体追尾制御)したり、プリセットされた画角に合わせるようにカメラのズーム制御を行ったりすることが考えられる。 Examples of image capture control include controlling the camera's orientation to track a detected subject (i.e., subject tracking control) and controlling the camera's zoom to match a preset angle of view.
 下記特許文献1には、対象物が撮像されるようにカメラの向きを制御する技術が開示されている。具体的に、特許文献1には、撮像画像に基づく被写体位置の検出を行うと共に、被写体が保有する無線タグを利用した被写体位置の検出を行い、これら二つの検出結果に基づいてカメラの向きを制御する技術が開示されている。
 また、下記特許文献2には、被写体に取り付けた個別情報発信機から発信される位置情報や音声情報に基づいて、カメラの撮像方向や撮像動作を制御する技術が開示されている。
The following Patent Document 1 discloses a technique for controlling the orientation of a camera so that an object is captured. Specifically, Patent Document 1 discloses a technique for detecting the subject position based on a captured image and detecting the subject position using a wireless tag carried by the subject, and controlling the orientation of the camera based on these two detection results.
Furthermore, Japanese Patent Laid-Open No. 2003-233663 discloses a technique for controlling the imaging direction and imaging operation of a camera based on position information and audio information transmitted from an individual information transmitter attached to a subject.
特開2008-288745号公報JP 2008-288745 A 特開2005-277845号公報JP 2005-277845 A
 ここで、被写体の追尾を行うにあたっては、予めユーザに追尾対象とする被写体を指定させることが考えられるが、このような追尾対象被写体の指定を、追尾を行う追尾カメラの撮像画像に写る被写体からの指定として行わせる場合には、ユーザが追尾対象としたい被写体を適切に指定することができない虞がある。例えば、ユーザが追尾対象としたい被写体が追尾カメラの撮像範囲から外れてしまう等、状況によっては、追尾対象被写体の指定を適切に行うことができなくなる虞がある。 Here, when tracking a subject, it is conceivable to have the user specify in advance the subject to be tracked; however, if the subject to be tracked is specified from among the subjects appearing in the image captured by the tracking camera performing the tracking, there is a risk that the user will not be able to properly specify the subject to be tracked. For example, depending on the situation, there is a risk that the user will not be able to properly specify the subject to be tracked if the subject that the user wants to track falls outside the imaging range of the tracking camera.
 本技術は上記事情に鑑み為されたものであり、追尾カメラによる追尾対象被写体の指定が適切に行われるように図ることを目的とする。 This technology was developed in consideration of the above circumstances, and aims to enable a tracking camera to properly specify the subject to be tracked.
 本技術に係る情報処理装置は、被写体を追尾可能な追尾カメラによる追尾対象被写体を、前記追尾カメラとは別の受光センサを有するセンサ装置によるセンシング画像に写る被写体からユーザにより指定させる処理を行う指定受付処理部を備えたものである。
 上記構成によれば、ユーザが追尾対象としたい被写体が追尾カメラの撮像範囲外となる位置に存在している場合であっても、追尾カメラとは別のセンサ装置が該被写体をセンシング画像内に捉えることが可能となり、ユーザに該センサ装置のセンシング画像内から追尾対象としたい被写体を指定させることが可能となる。また、センサ装置として赤外光を受光可能な受光センサを有するものを用いた場合には、暗い環境下で追尾カメラの撮像画像によってはユーザが被写体を識別できない場合であっても、該センサ装置によるセンシング画像では被写体を識別可能となるように図ることができ、追尾対象被写体を指定することの容易性を高めることが可能となる。
The information processing device related to the present technology is equipped with a designation reception processing unit that performs processing to allow a user to designate a subject to be tracked by a tracking camera capable of tracking a subject from among subjects appearing in a sensing image captured by a sensor device having a light receiving sensor separate from the tracking camera.
According to the above configuration, even if the subject that the user wants to track is located outside the imaging range of the tracking camera, a sensor device other than the tracking camera can capture the subject in a sensing image, and the user can specify the subject that he or she wants to track from the sensing image of the sensor device. In addition, if a sensor device having a light receiving sensor capable of receiving infrared light is used, even if the user cannot identify the subject from the image captured by the tracking camera in a dark environment, the subject can be identified in the sensing image by the sensor device, and it is possible to increase the ease of specifying the subject to be tracked.
 また、本技術に係る情報処理方法は、情報処理装置が、被写体を追尾可能な追尾カメラによる追尾対象被写体を、前記追尾カメラとは別の受光センサを有するセンサ装置によるセンシング画像に写る被写体からユーザにより指定させる処理を行う情報処理方法である。
 また、本技術に係る記録媒体は、コンピュータ装置が読み取り可能なプログラムが記録された記録媒体であって、被写体を追尾可能な追尾カメラによる追尾対象被写体を、前記追尾カメラとは別の受光センサを有するセンサ装置によるセンシング画像に写る被写体からユーザにより指定させる処理を行う指定受付処理機能、を前記コンピュータ装置に実現させるプログラムが記録された記録媒体である。
 これらの情報処理方法や記録媒体により、上記した本技術に係る情報処理装置が実現される。
In addition, the information processing method related to the present technology is an information processing method in which an information processing device performs processing to allow a user to specify a subject to be tracked by a tracking camera capable of tracking a subject from among subjects appearing in a sensing image captured by a sensor device having a light receiving sensor separate from the tracking camera.
In addition, the recording medium related to the present technology is a recording medium having a program recorded thereon that can be read by a computer device, and is a recording medium having a program recorded thereon that causes the computer device to realize a designation reception processing function that performs processing to allow a user to designate a subject to be tracked by a tracking camera capable of tracking a subject from among subjects appearing in a sensing image captured by a sensor device having a light receiving sensor separate from the tracking camera.
The information processing device according to the present technology described above is realized by these information processing methods and recording media.
本技術に係る実施形態としての情報処理装置を含んで構成される画像処理システムの構成例を示した図である。1 is a diagram illustrating an example of the configuration of an image processing system including an information processing device according to an embodiment of the present technology. 実施形態で想定するライブ会場のイメージ図である。FIG. 1 is an image diagram of a live music venue envisioned in an embodiment. 実施形態としての情報処理装置のハードウエア構成例を示したブロック図である。FIG. 1 is a block diagram illustrating an example of a hardware configuration of an information processing device according to an embodiment. カメラごとの構図制御に供される実施形態としての操作画面の例を示した図である。FIG. 13 is a diagram showing an example of an operation screen as an embodiment used for composition control for each camera. 追尾対象被写体を指定するための手順例を説明するための図である。11A to 11C are diagrams for explaining an example of a procedure for designating a tracking target subject. 実施形態における設定画面(共通設定モード時)の例を示した図である。FIG. 13 is a diagram showing an example of a setting screen (in a common setting mode) in the embodiment. 各種情報入力が行われた設定画面(共通設定モード時)の例を示した図である。FIG. 13 is a diagram showing an example of a setting screen (in a common setting mode) on which various information has been input. 実施形態における設定画面(コントロール設定モード時)の例を示した図である。FIG. 13 is a diagram showing an example of a setting screen (in a control setting mode) in the embodiment. コントローラ設定後における操作画面の例を示した図である。FIG. 13 is a diagram showing an example of an operation screen after controller setting. 追尾対象被写体の指定時における操作画面の例を示した図である。11A and 11B are diagrams showing examples of operation screens when a tracking target subject is designated. 同じく、追尾対象被写体の指定時における操作画面の例を示した図である。FIG. 13 is a diagram showing an example of an operation screen when a tracking target subject is designated. センサ装置による距離画像が重畳表示された操作画面の例を示した図である。13 is a diagram showing an example of an operation screen on which a distance image captured by a sensor device is superimposed. FIG. 追尾構図の指定受け付けのための画面表示例を示した図である。13A and 13B are diagrams showing examples of screen displays for accepting designation of a tracking composition. 指定構図を再現可能とするための情報の算出手法例について説明するための図である。11A to 11C are diagrams for explaining an example of a method for calculating information for enabling reproduction of a specified composition. 指定構図を再現可能とするためのパラメータ情報の算出手法例の説明図である。11 is an explanatory diagram of an example of a method for calculating parameter information for enabling reproduction of a specified composition. 目標画枠の算出に係る各ケースの説明図である。6A to 6C are explanatory diagrams of various cases relating to calculation of a target image frame. セミオート制御において切り替え可能な構図種別についての説明図である。11A and 11B are explanatory diagrams of composition types that can be switched in semi-automatic control. 実施形態における構図選択テーブルの説明図である。FIG. 4 is an explanatory diagram of a composition selection table in the embodiment. 禁止遷移構図情報に基づいた構図選択の例を説明するための図である。13A and 13B are diagrams for explaining an example of composition selection based on prohibited transition composition information. 構図選択テーブルに基づく構図選択及び選択した構図に切り替える構図制御を実現するための処理手順例を示したフローチャートである。11 is a flowchart illustrating an example of a processing procedure for implementing composition control for selecting a composition based on a composition selection table and switching to the selected composition. 構図選択テーブルにおける重み情報の更新に係る処理のフローチャートである。13 is a flowchart of a process relating to updating weight information in a composition selection table. セミオート制御の設定手順例の図である。FIG. 11 is a diagram showing an example of a setting procedure for semi-automatic control. 同じく、セミオート制御の設定手順例の図である。FIG. 13 is a diagram showing an example of a procedure for setting semi-automatic control. 実施形態としての構図制御に係る機能の説明図である。4A to 4C are explanatory diagrams of functions relating to composition control according to an embodiment. ユーザによる追尾対象被写体の指定時に対応した画面表示に係る処理手順例を示したフローチャートである。11 is a flowchart showing an example of a processing procedure relating to a screen display corresponding to a tracking target subject designated by a user. 操作画面に表示した撮像画像の明るさに応じた表示切り替えに係る処理のフローチャートである。11 is a flowchart of a process relating to display switching according to the brightness of a captured image displayed on an operation screen. ユーザによる追尾構図の指定に応じて実行すべき処理のフローチャートである。11 is a flowchart of a process to be executed in response to a tracking composition designated by a user. 指定された追尾構図を実現するための目標画枠の算出に係る処理のフローチャートである。11 is a flowchart of a process relating to calculation of a target image frame for realizing a specified tracking composition. 実施形態としてのキャリブレーション処理の概要説明図である。FIG. 2 is a diagram illustrating an outline of a calibration process according to an embodiment. 第一手法としてのキャリブレーション処理手法についての説明図である。FIG. 11 is an explanatory diagram of a calibration processing technique as a first technique. 第一手法における具体的なキャリブレーションの実行手順例を示したフローチャートである。11 is a flowchart showing an example of a specific procedure for performing calibration in the first method. 第一手法が採られる場合に情報処理装置が実行する処理のフローチャートである。11 is a flowchart of a process executed by an information processing device when a first method is adopted. 第二手法としてのキャリブレーション処理手法についての説明図である。FIG. 11 is an explanatory diagram of a calibration processing technique as a second technique. 第二手法における具体的なキャリブレーションの実行手順例を示したフローチャートである。10 is a flowchart showing an example of a specific procedure for performing calibration in the second method. 物体の同一点となる位置を画像上でユーザに指定させる例の説明図である。11 is an explanatory diagram of an example in which a user is prompted to specify positions on an image that are identical points on an object. FIG. グループショット設定の受付画面の例を示した図である。FIG. 13 is a diagram showing an example of a group shot setting acceptance screen. グループショットとしての追尾構図を指示するための実行指示ボタンの例を示した図である。13 is a diagram showing an example of an execution instruction button for instructing a tracking composition as a group shot. FIG. 追尾感度を可変的に設定可能とする変形例の説明図である。13 is an explanatory diagram of a modified example in which the tracking sensitivity can be variably set. FIG. 構図のマニュアル調整ボタンの配置例を説明するための図である。11A and 11B are diagrams for explaining examples of the arrangement of manual composition adjustment buttons. マニュアル操作入力に応じた構図制御手法の例の説明図である。11A and 11B are diagrams illustrating an example of a composition control technique in response to a manual operation input. スイッチャーによる選択割合を表示する変形例についての説明図である。FIG. 13 is an explanatory diagram of a modified example in which a selection ratio by a switcher is displayed.
 以下、添付図面を参照し、本技術に係る実施形態を次の順序で説明する。
<1.実施形態としての画像処理システム>
<2.情報処理装置のハードウエア構成>
<3.実施形態としての構図制御>
(3-1.追尾対象被写体の指定について)
(3-2.追尾構図の指定について)
(3-3.セミオート制御について)
(3-4.実施形態としての構図制御に係る機能構成について)
<4.処理手順>
<5.キャリブレーションについて>
<6.変形例>
<7.記録媒体>
<8.実施形態のまとめ>
<9.本技術>
Hereinafter, with reference to the accompanying drawings, embodiments of the present technology will be described in the following order.
1. Image Processing System as an Embodiment
2. Hardware configuration of information processing device
3. Composition Control as an Embodiment
(3-1. Specifying the subject to be tracked)
(3-2. Specifying the tracking composition)
(3-3. Semi-automatic control)
(3-4. Functional configuration related to composition control as an embodiment)
<4. Processing Procedure>
<5. About calibration>
6. Modifications
7. Recording medium
8. Summary of the embodiment
<9. This Technology>
<1.実施形態としての画像処理システム>
 図1は、本技術に係る実施形態としての情報処理装置1を含んで構成される画像処理システム100の構成例を示している。
 図示のように画像処理システム100は、情報処理装置1と、親カメラ2と、追尾カメラ3と、雲台4と、スイッチャー5と、測距・撮像装置6とを備えている。
1. Image Processing System as an Embodiment
FIG. 1 shows an example of the configuration of an image processing system 100 including an information processing device 1 according to an embodiment of the present technology.
As shown in the figure, the image processing system 100 includes an information processing device 1 , a parent camera 2 , a tracking camera 3 , a pan head 4 , a switcher 5 , and a distance measuring/imaging device 6 .
 本例において、親カメラ2は単数、追尾カメラ3は複数とされており、具体的に追尾カメラ3については三つが用いられている。これら三つの追尾カメラ3の個々を区別する場合、図示のように符号末尾に「-(ハイフン)」と数値を付してそれぞれ「3-1」「3-2」「3-3」と符号を表記する。 In this example, the parent camera 2 is singular and the tracking cameras 3 are plural; specifically, three tracking cameras 3 are used. When distinguishing between the three tracking cameras 3, the codes are written as "3-1", "3-2", and "3-3" by adding a "- (hyphen)" and a number to the end of the code as shown in the figure.
 親カメラ2及び追尾カメラ3は、例えばCCD(Charge Coupled Device)イメージセンサやCMOS(Complementary Metal Oxide Semiconductor)イメージセンサ等の撮像素子を有して撮像を行う撮像装置として構成されている。 The parent camera 2 and the tracking camera 3 are configured as imaging devices that have imaging elements such as a CCD (Charge Coupled Device) image sensor or a CMOS (Complementary Metal Oxide Semiconductor) image sensor to capture images.
 雲台4は、電子雲台として構成され、追尾カメラ3を支持すると共に、外部からの制御信号に基づいて追尾カメラ3の向きをパン方向、及びチルト方向それぞれに変化させることが可能に構成されている。
 本例において、雲台4は、追尾カメラ3ごとに設けられ、以下では三つの雲台4の個々を区別する場合、図示のように符号末尾に「-(ハイフン)」と数値を付してそれぞれ「4-1」「4-2」「4-3」と符号を表記する。
The pan head 4 is configured as an electronic pan head, and supports the tracking camera 3 while being capable of changing the orientation of the tracking camera 3 in both the pan direction and the tilt direction based on an external control signal.
In this example, a tripod head 4 is provided for each tracking camera 3, and in the following, when distinguishing between the three tripod heads 4, the symbols will be written as "4-1,""4-2," and "4-3" with a "- (hyphen)" and a numerical value added to the end of the symbol as shown.
 画像処理システム100では、親カメラ2や追尾カメラ3としての複数のカメラにより複数の視点から対象が撮像され、撮像に基づき得られた複数系統の画像がスイッチャー5に入力される。
 スイッチャー5は、入力された複数系統の画像から操作に基づき一系統の画像を選択・出力する。本例では、このスイッチャー5により選択・出力された画像により、対象イベントについての撮像画像コンテンツが生成される。
 スイッチャー5の出力画像に基づき生成される撮像画像コンテンツは、例えばインターネット等のネットワークを介して配信したり、放送波により送出したりすることができる。或いは、撮像画像コンテンツは、所定の記録媒体に収録(記録)することもできる。
In the image processing system 100 , an object is imaged from a plurality of viewpoints by a plurality of cameras such as a parent camera 2 and a tracking camera 3 , and a plurality of systems of images obtained based on the imaging are input to a switcher 5 .
The switcher 5 selects and outputs one of the images from the multiple images input based on an operation. In this example, the captured image content for the target event is generated from the images selected and output by the switcher 5.
The captured image content generated based on the output image of the switcher 5 can be distributed via a network such as the Internet, or can be transmitted by broadcast waves. Alternatively, the captured image content can be recorded (stored) on a predetermined recording medium.
 本例において、カメラによる撮像対象イベントは音楽ライブイベントとされ、親カメラ2や追尾カメラ3はライブ会場に設置される。 In this example, the event to be imaged by the cameras is a live music event, and the parent camera 2 and tracking camera 3 are installed at the live music venue.
 図2は、実施形態で想定するライブ会場のイメージ図である。
 図示のようにライブ会場には、ステージと客席部とFOH(Front of House)とが設けられる。ステージでは、奏者や歌手等の演者がパフォーマンスを行う。
 客席部は、ステージの後方に位置され、観客を収容可能な空間とされている。
 FOHは、客席部の後方に位置され、照明等のライブの演出に係る要素や会場の音をコントロールするための各種機器が配置される空間とされる。FOHには、ディレクタやスタッフ等のライブ主催者側の人物の立ち入りが可能とされている。
FIG. 2 is an image diagram of a live music venue assumed in this embodiment.
As shown in the figure, the live music venue is equipped with a stage, an audience seating area, and a Front of House (FOH). Performers such as musicians and singers perform on the stage.
The seating area is located behind the stage and is a space capable of accommodating spectators.
The FOH is located behind the seating area and is a space where various devices for controlling the sound of the venue and elements related to the live performance such as lighting are located. People from the concert organizers, such as directors and staff, can enter the FOH.
 本例において、親カメラ2は、ステージ全体を画角内に捉えるためのカメラとされ、FOHに配置される。本例では、親カメラ2による撮像画像の解像度は、スイッチャー5による出力画像の解像度がFHD(Full High Definition:1920×1080)であるのに対し4K(3840×2160)とされる。また本例において、親カメラ2としては、光学ズームを備えないカメラが用いられる。
 また、追尾カメラ3のうち二つは、ステージと客席部との間のスペース(いわゆる、前柵前と呼ばれるスペース)に配置され、FOHよりも近接した位置でステージ上の演者を画角内に捉えることが可能とされている。図示のようにこれら二つの追尾カメラ3は、左右方向(前後方向に直交する方向)における両端部に各1台が配置されている。
 追尾カメラ3のうち残りの一つは、FOHに配置されている。この追尾カメラ3は、ステージ上の演者を望遠で捉えるためのカメラとして用いられる。
 本例において、各追尾カメラ3には光学ズームを備えるカメラが用いられる。また、本例において各追尾カメラ3は、撮像画像の出力解像度を変更可能に構成されている。具体的には、出力解像度として少なくとも4K、FHDの切り替えが可能とされている。
In this example, the parent camera 2 is a camera for capturing the entire stage within its angle of view, and is disposed at the FOH. In this example, the resolution of the image captured by the parent camera 2 is 4K (3840×2160), whereas the resolution of the output image by the switcher 5 is FHD (Full High Definition: 1920×1080). In this example, a camera without an optical zoom is used as the parent camera 2.
Two of the tracking cameras 3 are placed in the space between the stage and the audience area (the space in front of the fence), making it possible to capture the performers on stage within the field of view from a position closer than the FOH. As shown in the figure, these two tracking cameras 3 are placed at both ends in the left-right direction (the direction perpendicular to the front-rear direction).
The remaining one of the tracking cameras 3 is disposed at the FOH and is used as a camera for capturing a telephoto image of the performers on stage.
In this example, a camera equipped with an optical zoom is used as each tracking camera 3. Also, in this example, each tracking camera 3 is configured to be able to change the output resolution of the captured image. Specifically, the output resolution can be switched between at least 4K and FHD.
 後述するように本例の画像処理システム100では、ステージ上の演者等の被写体を追尾するように追尾カメラ3の向きを制御するということが行われる。換言すれば、各追尾カメラは、被写体を追尾可能なカメラである。 As described below, in this example of image processing system 100, the orientation of tracking camera 3 is controlled so that it tracks a subject, such as a performer on stage. In other words, each tracking camera is a camera capable of tracking a subject.
 図示のように、ステージの前柵前に配置された二つの追尾カメラ3のうち、ステージの下手側(ステージに向かって左側)に配置された追尾カメラ3は追尾カメラ3-1であるとし、ステージの上手側に配置された追尾カメラ3は追尾カメラ3-2であるとする。また、FOHに配置された追尾カメラ3は追尾カメラ3-3であるとする。 As shown in the figure, of the two tracking cameras 3 placed in front of the front fence of the stage, the tracking camera 3 placed on the stage's downhill side (left side as you face the stage) is tracking camera 3-1, and the tracking camera 3 placed on the stage's uphill side is tracking camera 3-2. In addition, the tracking camera 3 placed at the FOH is tracking camera 3-3.
 追尾カメラ3による被写体の追尾を可能とするために、画像処理システム100には、ステージ上の被写体の三次元位置(三次元空間上の位置)を検出するための測距・撮像装置6が設けられている。 To enable the tracking camera 3 to track a subject, the image processing system 100 is provided with a distance measuring/imaging device 6 for detecting the three-dimensional position (position in three-dimensional space) of the subject on the stage.
 測距・撮像装置6は、追尾カメラ3とは別の、受光センサを有するセンサ装置の一種であり、具体的に本例では、例えばキネクト(Kinect)等、測距機能と可視光についての撮像機能とを有する装置として構成されている。具体的に、本例における測距・撮像装置6は、受光センサとして、可視光を受光可能な可視光センサと、赤外光を受光可能な赤外光センサとを有すると共に、可視光センサの受光信号に基づき可視光についての撮像画像を得る撮像機能と、赤外光センサの受光信号に基づき距離画像を得る測距機能とを有している。
 本例における測距・撮像装置6は、撮像画像と距離画像の出力機能を有すると共に、距離画像に基づく画像認識処理により、被写体のボーン推定モデルを生成可能とされている。
 ここで言うボーン推定モデルは、被写体の例えば顔、胸、骨盤、肩、肘、手、膝、足首のような主要な部位により被写体の構成を表した、被写体の簡易モデルを意味する。以下、ボーン推定モデルについては「簡易モデル」と表記する。
 測距・撮像装置6は、被写体の簡易モデルにおける各部位の三次元位置を示す情報を出力する機能も有している。
The distance measuring/imaging device 6 is a type of sensor device having a light receiving sensor separate from the tracking camera 3, and specifically in this example is configured as a device having a distance measuring function and an imaging function for visible light, such as a Kinect. Specifically, the distance measuring/imaging device 6 in this example has, as light receiving sensors, a visible light sensor capable of receiving visible light and an infrared light sensor capable of receiving infrared light, and also has an imaging function for obtaining an image of visible light based on a light receiving signal of the visible light sensor, and a distance measuring function for obtaining a distance image based on a light receiving signal of the infrared light sensor.
The distance measuring/imaging device 6 in this example has a function of outputting a captured image and a distance image, and is also capable of generating a bone estimation model of the subject by image recognition processing based on the distance image.
The bone estimation model referred to here means a simplified model of a subject that represents the structure of the subject using main parts such as the face, chest, pelvis, shoulders, elbows, hands, knees, and ankles. Hereinafter, the bone estimation model will be referred to as a "simplified model."
The distance measuring/imaging device 6 also has a function of outputting information indicating the three-dimensional position of each part of the simplified model of the subject.
 本例では、測距・撮像装置6は複数用いられ、ステージ上の下手側、上手側の各端部に配置されている。具体的に本例では、ステージ上の下手側の端部、上手側の端部にそれぞれ二つの測距・撮像装置6が配置されている。これら測距・撮像装置6は、ステージ上で被写体が移動しても少なくとも何れかの測距・撮像装置6の測距範囲内に被写体が捉えられるように配置されている。
 ここで、測距・撮像装置6のうち、ステージ上の下手側端部の手前側に配置されたものを測距・撮像装置6-1とし、ステージ上の上手側端部の手前側に配置されたものを測距・撮像装置6-2とする。また、ステージ上の下手側端部の奥側に配置されたものを測距・撮像装置6-3とし、ステージ上の上手側端部の奥側に配置されたものを測距・撮像装置6-4とする。
In this example, a plurality of distance measuring/imaging devices 6 are used, and are arranged at each end of the stage on the left and right sides. Specifically, in this example, two distance measuring/imaging devices 6 are arranged at each end of the stage on the left and right sides. These distance measuring/imaging devices 6 are arranged so that even if the subject moves on the stage, the subject is captured within the distance measuring range of at least one of the distance measuring/imaging devices 6.
Here, of the distance measuring/imaging devices 6, the one placed on the near side of the right-hand end of the stage is referred to as distance measuring/imaging device 6-1, the one placed on the near side of the right-hand end of the stage is referred to as distance measuring/imaging device 6-2, the one placed on the far side of the right-hand end of the stage is referred to as distance measuring/imaging device 6-3, and the one placed on the far side of the right-hand end of the stage is referred to as distance measuring/imaging device 6-4.
 ここで、図1に例示するように本例の画像処理システム100では、スイッチャー5に対してCAM1からCAM6の計6系統の画像を入力するものとしている。
 CAM1からCAM3の画像については、三つの追尾カメラ3による撮像画像をスイッチャー5に入力している。CAM4からCAM6の画像は、コンピュータ装置としての情報処理装置1が親カメラ2による撮像画像に基づき生成する画像とされる。
As shown in FIG. 1, in the image processing system 100 of this embodiment, images from a total of six systems, CAM 1 to CAM 6, are input to the switcher 5.
As for the images CAM1 to CAM3, images captured by the three tracking cameras 3 are input to a switcher 5. The images CAM4 to CAM6 are images generated by an information processing device 1 serving as a computer device based on images captured by the parent camera 2.
 CAM4,CAM5、CAM6の各画像は、親カメラ2による撮像画像から切り出された画像とされる。これらCAM4,CAM5、CAM6の画像については、画像の切り出しサイズのみでなく、切り出し位置の調整も可能とされている。 The images in CAM4, CAM5, and CAM6 are cut out from the image captured by the parent camera 2. For these images in CAM4, CAM5, and CAM6, it is possible to adjust not only the cut-out size but also the cut-out position.
 ここで、撮像画像に対する切り出し位置を変化させることは、仮想的にカメラと被写体との位置関係を変化させることに相当し、また、撮像画像に対する切り出しサイズを変化させることは、仮想的に光学ズームの倍率を変化させることに相当する。すなわち、撮像画像に対する切り出し位置や切り出しサイズを変化させて画像を得ることは、仮想的なカメラ(仮想カメラ)を動かしたり操作したりして構図を変化させていることに相当すると言うことができる。 Here, changing the cut-out position for a captured image is equivalent to virtually changing the positional relationship between the camera and the subject, and changing the cut-out size for a captured image is equivalent to virtually changing the optical zoom magnification. In other words, obtaining an image by changing the cut-out position or cut-out size for a captured image can be said to be equivalent to changing the composition by moving or operating a virtual camera.
 本明細書では、このような仮想カメラと、親カメラ2や追尾カメラ3のような実カメラの双方を含む概念として「カメラ」という語を用いる。換言すれば、本明細書において「カメラ」といったときは、実カメラ、及び実カメラの受光動作により得られた画像の一部を切り出すことで仮想的に構図変更を行う仮想カメラの双方を含む概念を指すものとする。 In this specification, the term "camera" is used as a concept that includes both such virtual cameras and real cameras such as the parent camera 2 and tracking camera 3. In other words, when "camera" is used in this specification, it refers to a concept that includes both real cameras and virtual cameras that virtually change the composition by cutting out part of an image obtained by the light receiving operation of the real camera.
 また、本明細書においては「撮像」という語を用いているが、この「撮像」とは、上記のように実カメラ及び仮想カメラの双方を「カメラ」として定義したときに、該カメラにより画像を得る動作を意味するものとする。 In addition, the term "imaging" is used in this specification, but this "imaging" refers to the action of obtaining an image using a camera when both real cameras and virtual cameras are defined as "cameras" as described above.
 なお以下の説明において、画像切り出しについては「カットアウト」と称する場合もある。 In the following explanation, image cropping may also be referred to as "cutout."
 また、本例において、CAM6の画像としては、例えば親カメラ2による撮像画像の画角よりも狭い画角を基本画角とした画像を切り出しにより生成して出力する。 In addition, in this example, the image of CAM 6 is generated by cropping and outputted, for example, an image with a basic angle of view narrower than the angle of view of the image captured by parent camera 2.
 ここで、図1に示す情報処理装置1は、例えばCPU(Central Processing Unit)を有したコンピュータ装置を備えて構成され、親カメラ2による撮像画像に基づき、上記のようなCAM4からCAM6の画像生成を行うと共に、実カメラとしての追尾カメラ3による撮像画像についての構図制御を行う。具体的には、操作入力に基づき、雲台4によるパン、チルトや、追尾カメラ3のズーム制御を行うことにより追尾カメラ3による撮像画像の構図制御を行う。
 なお、実施形態としての構図制御の詳細については後に改めて説明する。
1 is configured with a computer device having, for example, a CPU (Central Processing Unit), and performs image generation from CAM 4 to CAM 6 as described above based on an image captured by parent camera 2, and performs composition control for an image captured by tracking camera 3 as a real camera. Specifically, based on an operation input, the composition control of an image captured by tracking camera 3 is performed by controlling pan and tilt using camera platform 4 and zoom of tracking camera 3.
The composition control according to the embodiment will be described in detail later.
<2.情報処理装置のハードウエア構成>
 図3は、情報処理装置1のハードウエア構成例を示したブロック図である。
 情報処理装置1の装置形態としては、例えばパーソナルコンピュータ等とすることが考えられる。
 図3において、情報処理装置1のCPU11は、ROM(Read Only Memory)12やEEP-ROM(Electrically Erasable Programmable Read-Only Memory)などの不揮発性メモリ部14に記憶されているプログラム、又は記憶部19からRAM(Random Access Memory)13にロードされたプログラムに従って各種の処理を実行する。RAM13にはまた、CPU11が各種の処理を実行する上において必要なデータなども適宜記憶される。
 CPU11、ROM12、RAM13、及び不揮発性メモリ部14は、バス23を介して相互に接続されている。このバス23にはまた、入出力インタフェース15も接続されている。
2. Hardware configuration of information processing device
FIG. 3 is a block diagram showing an example of the hardware configuration of the information processing device 1. As shown in FIG.
The information processing device 1 may take the form of a personal computer, for example.
3, a CPU 11 of the information processing device 1 executes various processes according to programs stored in a non-volatile memory unit 14 such as a read-only memory (ROM) 12 or an electrically erasable programmable read-only memory (EEP-ROM), or programs loaded from a storage unit 19 to a random access memory (RAM) 13. The RAM 13 also stores data necessary for the CPU 11 to execute various processes, as appropriate.
The CPU 11, the ROM 12, the RAM 13, and the non-volatile memory unit 14 are interconnected via a bus 23. The input/output interface 15 is also connected to this bus 23.
 入出力インタフェース15には、操作子や操作デバイスよりなる入力部16が接続される。
 例えば入力部16としては、キーボード、マウス、キー、ダイヤル、タッチパネル、タッチパッド、リモートコントローラ等の各種の操作子や操作デバイスが想定される。
 入力部16によりユーザの操作が検知され、入力された操作に応じた信号はCPU11によって解釈される。
The input/output interface 15 is connected to an input unit 16 including an operator and an operating device.
For example, the input unit 16 may be various types of operators or operation devices such as a keyboard, a mouse, keys, a dial, a touch panel, a touch pad, or a remote controller.
An operation by a user is detected by the input unit 16 , and a signal corresponding to the input operation is interpreted by the CPU 11 .
 また入出力インタフェース15には、LCD(Liquid Crystal Display)或いは有機EL(Electro-Luminescence)パネルなどよりなる表示部17や、スピーカなどよりなる音声出力部18が一体又は別体として接続される。
 表示部17は各種表示を行う表示部であり、例えば情報処理装置1の筐体に設けられるディスプレイデバイスや、情報処理装置1に接続される別体のディスプレイデバイス等により構成される。
 表示部17は、CPU11の指示に基づいて表示画面上に各種の画像処理のための画像や処理対象の動画等の表示を実行する。また表示部17はCPU11の指示に基づいて、各種操作メニュー、アイコン、メッセージ等、即ちGUI(Graphical User Interface)としての表示を行う。
In addition, the input/output interface 15 is connected, either integrally or separately, to a display unit 17 formed of an LCD (Liquid Crystal Display) or an organic EL (Electro-Luminescence) panel, or the like, and an audio output unit 18 formed of a speaker, or the like.
The display unit 17 is a display unit that performs various displays, and is configured, for example, by a display device provided in the housing of the information processing device 1, a separate display device connected to the information processing device 1, or the like.
The display unit 17 executes display of images for various image processing, moving images to be processed, etc. on the display screen based on instructions from the CPU 11. Furthermore, the display unit 17 displays various operation menus, icons, messages, etc., that is, GUI (Graphical User Interface), based on instructions from the CPU 11.
 入出力インタフェース15には、ハードディスクや固体メモリなどより構成される記憶部19や、モデムなどより構成される通信部20が接続される場合もある。
 通信部20は、インターネット等の伝送路を介しての通信処理や、各種機器との有線/無線通信、バス通信などによる通信を行う。
The input/output interface 15 may be connected to a storage unit 19 configured with a hard disk or solid-state memory, or a communication unit 20 configured with a modem or the like.
The communication unit 20 performs communication processing via a transmission path such as the Internet, and communication with various devices via wired/wireless communication, bus communication, and the like.
 入出力インタフェース15にはまた、必要に応じてドライブ21が接続され、磁気ディスク、光ディスク、光磁気ディスク、或いは半導体メモリなどのリムーバブル記録媒体22が適宜装着される。
 ドライブ21により、リムーバブル記録媒体22からは画像ファイル等のデータファイルや、各種のコンピュータプログラムなどを読み出すことができる。読み出されたデータファイルは記憶部19に記憶されたり、データファイルに含まれる画像や音声が表示部17や音声出力部18で出力されたりする。またリムーバブル記録媒体22から読み出されたコンピュータプログラム等は必要に応じて記憶部19にインストールされる。
A drive 21 is also connected to the input/output interface 15 as required, and a removable recording medium 22 such as a magnetic disk, optical disk, magneto-optical disk, or semiconductor memory is appropriately mounted thereon.
The drive 21 allows data files such as image files and various computer programs to be read from the removable recording medium 22. The read data files are stored in the storage unit 19, and images and sounds contained in the data files are output on the display unit 17 and the sound output unit 18. In addition, the computer programs and the like read from the removable recording medium 22 are installed in the storage unit 19 as necessary.
 この情報処理装置1では、ソフトウエアを、通信部20によるネットワーク通信やリムーバブル記録媒体22を介してインストールすることができる。或いは当該ソフトウエアは予めROM12や記憶部19等に記憶されていてもよい。 In this information processing device 1, software can be installed via network communication by the communication unit 20 or via the removable recording medium 22. Alternatively, the software may be stored in advance in the ROM 12, the storage unit 19, etc.
<3.実施形態としての構図制御>
 図4は、カメラごとの構図制御に供される実施形態としての操作画面Gmの例を示した図である。
 本例において、操作画面Gmは、情報処理装置1の表示部17に表示される画面とされ、図示のようにCAM1からCAM6のカメラごとに、構図制御の実行指示を行うための実行指示ボタンBmが配置される。具体的に、本例の操作画面Gmでは、CAM1からCAM6の各カメラの名称情報を表示するカメラ名表示領域Arcが設けられ、カメラごとに、実行指示ボタンBmが配置される。
 ディレクタ等のユーザは、或るカメラについて表示されている実行指示ボタンBmを操作することで、該カメラについて、操作した実行指示ボタンBmに対応して定められた態様の構図制御の実行を情報処理装置1に指示することができる。
3. Composition Control as an Embodiment
FIG. 4 is a diagram showing an example of an operation screen Gm as an embodiment used for composition control for each camera.
In this example, the operation screen Gm is a screen displayed on the display unit 17 of the information processing device 1, and as shown in the figure, an execution instruction button Bm for issuing an instruction to execute composition control is arranged for each of the cameras CAM1 to CAM6. Specifically, in the operation screen Gm of this example, a camera name display area Arc for displaying name information of each of the cameras CAM1 to CAM6 is provided, and an execution instruction button Bm is arranged for each camera.
A user, such as a director, can operate an execution instruction button Bm displayed for a certain camera to instruct the information processing device 1 to execute composition control for that camera in a manner determined corresponding to the operated execution instruction button Bm.
 本例では、構図制御に係る項目として、「演出」「ターゲット」の2項目が定められており、操作画面Gmには、「演出」に係る実行指示ボタンBmをカメラごとに配置するための演出領域Areと、「ターゲット」に係る実行指示ボタンBmをカメラごとに配置するためのターゲット領域とが設けられている。 In this example, two items related to composition control are defined: "Direction" and "Target". The operation screen Gm is provided with a direction area Are for arranging the execution instruction button Bm related to "Direction" for each camera, and a target area for arranging the execution instruction button Bm related to "Target" for each camera.
 「演出」の構図制御は、撮像演出情報に基づく構図制御である。撮像演出情報とは、撮像画像の変化を示す情報と換言できるものであり、具体的には、撮像画像に係る視覚的演出態様を示す情報である。
 この「演出」に係る構図制御としては、例えば、「じんわりズーム」(音楽ライブの撮像手法としてしばしば用いられるゆっくりとズームを行う手法)、及び「手持ち感」(手持ちカメラで撮像したような効果)の制御を挙げることができる。
 じんわりズームの演出としては、「引き→寄り」(つまりズームインする方向)、「寄り→引き」(ズームアウトする方向)、「交互」、及び「ランダム」(引き→寄りと寄り→引きのランダム)の4種が用意されている。
The composition control of the "performance" is a composition control based on the imaging performance information. The imaging performance information can be said as information indicating a change in the captured image, and specifically, is information indicating a visual performance mode related to the captured image.
Examples of composition control related to this "production" include control of "gentle zoom" (a slow zoom technique often used to film live music performances) and "handheld feel" (the effect of filming with a handheld camera).
There are four types of gradual zoom effects available: "pull-to-close" (i.e. zooming in), "close-to-pull" (zooming out), "alternate," and "random" (a random combination of pull-to-close and close-to-pull).
 演出領域Areにおいて、カメラごとに何れの種類の演出の実行指示ボタンBmを配置するかは、後述する設定画面Gsにおける「コントロール設定」によりユーザが事前に指定可能とされている(図8参照)。 The user can specify in advance in the "Control Settings" on the settings screen Gs (described later) which type of performance execution command button Bm will be placed for each camera in the performance area Are (see Figure 8).
 「ターゲット」は、追尾対象とする被写体の指定に係る項目である。この「ターゲット」の項目に属する実行指示ボタンBmの操作により、該実行指示ボタンBmに対応する被写体を撮像画像内に収める構図が実現されるように構図制御が行われる。 "Target" is an item related to specifying the subject to be tracked. By operating the execution instruction button Bm belonging to this "Target" item, composition control is performed to realize a composition that includes the subject corresponding to the execution instruction button Bm in the captured image.
 本例において、「ターゲット」の構図制御については、被写体の位置検出結果を用いた制御と用いない制御とがある。被写体の位置検出結果を用いた構図制御としては、例えば、被写体の追尾制御を挙げることができる。この場合、実行指示ボタンBmには追尾対象とする被写体が対応づけられ、実行指示ボタンBmを操作することで、該対応づけられた被写体を追尾する構図を実現するための制御が行われる。例えば、撮像対象とする演者がロックバンドのメンバーである場合、「ターゲット」の実行指示ボタンBmには例えば「ボーカル」としての演者や「ギター」としての演者を対応づけておくことができ、ユーザは実行指示ボタンBmの操作によりこれら「ボーカル」や「ギター」の演者を追尾する構図を実現する制御の実行指示を行うことができる。 In this example, the composition control of the "target" may be either control that uses the subject's position detection results or control that does not. An example of composition control that uses the subject's position detection results is subject tracking control. In this case, the execution instruction button Bm is associated with the subject to be tracked, and by operating the execution instruction button Bm, control is performed to realize a composition that tracks the associated subject. For example, if the performers to be imaged are members of a rock band, the "target" execution instruction button Bm can be associated with the performer as "vocalist" or "guitarist," and the user can operate the execution instruction button Bm to give an instruction to execute control that realizes a composition that tracks the performer as "vocalist" or "guitarist."
 また、被写体の位置検出結果を用いない構図制御としては、後述する「定点位置」に応じた制御を挙げることができる。後述もするように「定点位置」は、撮像対象空間内における特定の位置を撮像対象の位置としてPresetすることができる機能であり、ユーザは「定点位置」の実行指示ボタンBmを操作することで、Presetされた特定位置が撮像画像内に収まる構図(例えば、該特定位置が撮像画像の中心等の所定位置と一致する構図)を実現する制御の実行指示を行うことができる。例えば、図中において、「ドラム下手」や「ドラム上手」、「ドラムセンター」、「引き」の実行指示ボタンBmは、「定点位置」の実行指示ボタンBmに該当する。
 なお、上記説明から理解されるように、本実施形態の構図制御において撮像の対象(ターゲット)となり得るのは、特定の人物のみでなく、特定の位置も含むものである。
Moreover, as an example of composition control that does not use the subject position detection result, there can be mentioned control according to a "fixed position" described later. As described later, the "fixed position" is a function that allows a specific position in the imaging target space to be preset as the position of the imaging target, and the user can operate the "fixed position" execution instruction button Bm to instruct execution of control that realizes a composition in which the preset specific position fits within the imaging image (for example, a composition in which the specific position coincides with a predetermined position such as the center of the imaging image). For example, in the figure, the execution instruction buttons Bm for "drum left", "drum right", "drum center", and "pull back" correspond to the "fixed position" execution instruction button Bm.
As can be understood from the above description, the subject (target) of imaging in the composition control of this embodiment is not limited to a specific person, but also includes a specific position.
 ここで、被写体を追尾する構図について、本実施形態では、カメラによる追尾構図については、ユーザが任意に指定可能とされている。具体的には、画枠内における追尾対象の位置とサイズ(ズーム量)を任意に指定可能とされている。従って、図中のターゲット領域Artに配置された、例えば「ボーカル」や「ギター」、「ベース」等の対象被写体を追尾する構図を実現するための制御を指示する実行指示ボタンBmが操作された場合には、対象被写体について予め指定された追尾構図が実現されるように、対象のカメラについてのパン、チルト、及びズームの制御が行われる。 Here, in this embodiment, the user can arbitrarily specify the composition for tracking a subject with the camera. Specifically, the position and size (zoom amount) of the target to be tracked within the image frame can be arbitrarily specified. Therefore, when the execution instruction button Bm, which is arranged in the target area Art in the figure and instructs control to realize a composition for tracking a target subject such as "vocals," "guitar," or "bass," is operated, the pan, tilt, and zoom of the target camera are controlled so that the tracking composition previously specified for the target subject is realized.
 ここで、操作画面Gmにおいて、情報処理装置1(CPU11)は、演出領域Areに配置された実行指示ボタンBm、及びターゲット領域Artに配置された実行指示ボタンBmの双方について、操作が行われて対応する構図制御が実行中とされている実行指示ボタンBmをハイライト表示する等、構図制御が実行中の実行指示ボタンBmと構図制御が実行中でない実行指示ボタンBmとを異なる表示態様で表示し分ける処理を行う。 Here, on the operation screen Gm, the information processing device 1 (CPU 11) performs processing to display in different display modes the execution instruction buttons Bm for which composition control is being executed and the execution instruction buttons Bm for which composition control is not being executed, for both the execution instruction buttons Bm arranged in the performance area Are and the execution instruction buttons Bm arranged in the target area Art, such as highlighting the execution instruction buttons Bm for which operation has been performed and the corresponding composition control is being executed.
 また、本例では、操作画面Gmのターゲット領域Artにおいて、対象被写体を追尾する構図制御の実行指示を行うための実行指示ボタンBmに対しては、追尾インジケータItを設けている。情報処理装置1は、追尾インジケータItが設けられた実行指示ボタンBmについては、該実行指示ボタンBmに対応する追尾対象被写体を測距・撮像装置6が検出しているか否かに応じて、追尾インジケータItの表示態様を変化させる処理を行う。
 例えば、追尾対象被写体を何れかの測距・撮像装置6が検出していれば追尾インジケータItの表示色を青色等の特定色とし、追尾対象被写体が何れの測距・撮像装置6によっても検出できていなければ追尾インジケータItの表示色を灰色等の特定色以外の色で表示する。
In this example, a tracking indicator It is provided for an execution instruction button Bm for issuing an instruction to execute composition control for tracking a target subject in a target area Art of the operation screen Gm. For the execution instruction button Bm provided with the tracking indicator It, the information processing device 1 performs a process of changing the display mode of the tracking indicator It depending on whether the distance measuring/imaging device 6 has detected a tracking target subject corresponding to the execution instruction button Bm.
For example, if the subject to be tracked is detected by any of the distance measuring/imaging devices 6, the display color of the tracking indicator It is a specific color such as blue, and if the subject to be tracked cannot be detected by any of the distance measuring/imaging devices 6, the display color of the tracking indicator It is a color other than the specific color such as gray.
 また、演出領域Areに配置する実行指示ボタンBmに対しては、該実行指示ボタンBmの操作により実行される演出に係る構図制御のレベルを示す表示を行うこともできる(図中、□内の数字表記を参照)。例えば、じんわりズームについては、後述する設定画面Gsにおいてそのズーム距離を例えば10段階等で設定可能とされているため、該ズーム距離の段階を示す数値を表示することが考えられる。また、手持ち感については設定画面Gsにおいて例えば10段階等でレベル設定が可能とされるため、該レベルを示す数値を表示することが考えられる。 Furthermore, for the execution command button Bm located in the performance area Are, a display can be made showing the level of composition control related to the performance executed by operating the execution command button Bm (see the numbers in the square in the figure). For example, for the gentle zoom, the zoom distance can be set in, for example, 10 steps in the setting screen Gs described below, so it is conceivable to display a numerical value indicating the step of the zoom distance. Furthermore, for the feel in the hand, the level can be set in, for example, 10 steps in the setting screen Gs, so it is conceivable to display a numerical value indicating the level.
 操作画面Gmには、例えば画面上部において、コントローラ名表示領域Acn、プルダウンボタンBpd、追尾対象表示領域At、及びメニューボタンB0が設けられている。
 コントローラ名表示領域Acnは、コントローラの名称情報を表示する領域である。
 カメラごとに何れの実行指示ボタンBmを配置するかについては、例えば撮像対象とするアーティストごと等、撮像対象ごとに切り替えられるようにすることが望ましい。本例では、後述する設定画面Gsにおいて、カメラごとの実行指示ボタンBmの配置組み合わせを「コントローラ」として複数設定しておくことが可能とされる。複数のコントローラが設定されている場合、ユーザは操作画面Gm上のプルダウンボタンBpdを操作すると、コントローラの一覧から、操作画面Gmに呼び出すコントローラの指定を行うことができる。
On the operation screen Gm, for example, at the top of the screen, a controller name display area Acn, a pull-down button Bpd, a tracking target display area At, and a menu button B0 are provided.
The controller name display area Acn is an area for displaying name information of the controller.
It is desirable that which execution instruction button Bm is arranged for each camera can be switched for each imaging subject, such as for each artist to be imaged. In this example, it is possible to set multiple combinations of the arrangement of the execution instruction buttons Bm for each camera as "controllers" in a setting screen Gs described later. When multiple controllers are set, the user can specify the controller to be called up on the operation screen Gm from a list of controllers by operating a pull-down button Bpd on the operation screen Gm.
 追尾対象表示領域Atは、追尾対象として指定可能な数のそれぞれの被写体について、その識別情報を表示する領域とされる。ここでは、追尾対象として指定可能な被写体の数は「6」とされたことに対応して、追尾対象表示領域Atにおいては、追尾対象の被写体ごとの識別情報を表示するための個別表示領域として、個別表示領域t1から個別表示領域t6の六つの個別表示領域が設けられている。図示のように各個別表示領域は、画像表示領域tiと名称表示領域tnとを有している。
 ここで、後述するように本実施形態では、追尾対象被写体の指定は、測距・撮像装置6の撮像画像に写る被写体からの指定として行われるが、図4では、追尾対象として指定可能な6人の被写体のうち、5人までについて、このような追尾対象被写体の指定が行われた後の様子を示している。追尾対象が指定済みとされた被写体についての画像表示領域tiには、該指定済みの被写体についての、測距・撮像装置6による撮像画像が表示される。
 ここで、画像表示領域tiに表示する該当する追尾対象被写体の画像の構図については、該被写体の上半身が写る構図とする。
 また、測距・撮像装置6が追尾対象被写体をロストした場合には、画像表示領域tiには、測距・撮像装置6による撮像画像以外の特定画像(例えば、図中の6番目の追尾対象被写体の画像表示領域tiに表示される、人の上半身を模したアイコン画像:以下「ロスト通知画像」と表記する)の表示に切り替える。
The tracking target display area At is an area that displays the identification information of each of the number of subjects that can be designated as tracking targets. In this example, the number of subjects that can be designated as tracking targets is set to "6," and therefore, in the tracking target display area At, six individual display areas, individual display area t1 to individual display area t6, are provided as individual display areas for displaying the identification information of each of the tracking target subjects. As shown in the figure, each individual display area has an image display area ti and a name display area tn.
As described later, in this embodiment, the designation of the tracking target subject is performed from among the subjects appearing in the captured image of the distance measuring/image capturing device 6, and Fig. 4 shows a state after such designation of tracking target subjects has been performed for up to five of the six subjects that can be designated as tracking targets. In the image display area ti for the subject for which the tracking target has been designated, an image captured by the distance measuring/image capturing device 6 for the designated subject is displayed.
Here, the composition of the image of the corresponding tracking target subject displayed in the image display area ti is a composition in which the upper half of the subject is visible.
In addition, if the ranging/imaging device 6 loses the subject to be tracked, the image display area ti will be switched to display a specific image other than the image captured by the ranging/imaging device 6 (for example, an icon image resembling the upper body of a person, displayed in the image display area ti of the sixth tracking target subject in the figure; hereinafter referred to as the "lost notification image").
 追尾対象表示領域Atにおける各個別表示領域において、名称表示領域tnには、後述する設定画面Gsにおいて設定された名称情報が表示される。なお、名称情報が未設定の場合には、図中の「No Name」と表記するように所定の初期文字列での表記となる。 In each individual display area in the tracking target display area At, the name display area tn displays the name information set in the setting screen Gs described below. If the name information has not been set, it will be displayed with a predetermined initial character string, such as "No Name" in the figure.
 また、操作画面Gmにおいて、セミオートON/OFFボタンB1は、後述するセミオート構図制御のON/OFFを指示するためのボタンである。 Also, on the operation screen Gm, the semi-auto ON/OFF button B1 is a button for instructing ON/OFF of the semi-auto composition control described below.
 メニューボタンB0は、各種メニューの呼び出しボタンである。 The menu button B0 is a button for calling up various menus.
 ここで、操作画面Gmでは、カメラ名表示領域Arcにおいて、スイッチャー5により選択中のカメラ(いわゆるPGM出力中のカメラ)や、いわゆるNEXT(Preview)カメラ(PGM出力中のカメラの次にPGM出力されるカメラ:PGM出力の候補カメラ)を表す表示を行うこともできる(図中の斜線部、梨地部参照)。 Here, on the operation screen Gm, in the camera name display area Arc, it is also possible to display the camera being selected by the switcher 5 (the camera currently outputting PGM) and the so-called NEXT (Preview) camera (the camera that will be outputted as PGM next after the camera currently outputting PGM: a candidate camera for PGM output) (see the shaded and matte areas in the figure).
<3.実施形態としての構図制御>
(3-1.追尾対象被写体の指定について)
 追尾対象被写体を指定するための手順について、図5から図12を参照して説明する。
 追尾対象被写体の指定を開始するにあたっては、図5に示すように、操作画面GmにおけるメニューボタンB0を操作し、呼び出されたメニューMのうちから「設定」の項目を選択する操作を行う。
3. Composition Control as an Embodiment
(3-1. Specifying the subject to be tracked)
The procedure for designating a tracking target subject will be described with reference to FIGS.
To start designating a tracking target subject, as shown in FIG. 5, the menu button B0 on the operation screen Gm is operated, and the "Settings" item is selected from the called menu M.
 図6は、上記「設定」の項目の選択操作に応じて表示部17に表示される設定画面Gsの例を示している。
 図示のように設定画面Gsには、共通設定ボタンB2、コントロール設定ボタンB3、開始ボタンBsが設けられると共に、カメラ切替操作領域As1、被写体名設定領域As2、及びコントローラ設定領域As3が設けられる。
 図6では、共通設定ボタンB2、コントロール設定ボタンB3のうち、共通設定ボタンB2の選択状態で表示される設定画面Gsの例を示している。
FIG. 6 shows an example of a setting screen Gs that is displayed on the display unit 17 in response to a selection operation of the "Settings" item.
As shown in the figure, the setting screen Gs is provided with a common setting button B2, a control setting button B3, and a start button Bs, as well as a camera switching operation area As1, a subject name setting area As2, and a controller setting area As3.
FIG. 6 shows an example of the setting screen Gs that is displayed when the common setting button B2 is selected out of the common setting button B2 and the control setting button B3.
 カメラ切替操作領域As1には、カメラ切替ボタンBcと、カメラ名入力ボックスbcmとが設けられる。カメラ切替ボタンBcにより、カメラ名の設定対象とするカメラをCAM1からCAM6の間で切り替えることができる。
 カメラ切替操作領域As1では、カメラ切替ボタンBcにより名称を設定したいカメラを選択した上で、カメラ名入力ボックスbcmに名称情報を入力することで、該選択したカメラに対する名称情報の設定を行うことができる。
The camera switching operation area As1 is provided with a camera switching button Bc and a camera name input box bcm. The camera switching button Bc allows the camera for which the camera name is to be set to be switched between CAM1 to CAM6.
In the camera switching operation area As1, the user can set name information for the selected camera by selecting the camera for which the user wants to set a name using the camera switching button Bc, and then inputting name information into the camera name input box bcm.
 被写体名設定領域Asには、追尾対象被写体の設定可能数だけ、被写体名入力ボックス(bt1からbt6)が設けられる。前述のように本例では、追尾対象被写体の設定可能数は6であり被写体名入力ボックスbt1から被写体名入力ボックスbt6が設けられている。
 この被写体名入力ボックスに入力された名称情報が、操作画面Gmの追尾対象表示領域Atにおける対応する名称表示領域tnに反映される。
In the subject name setting area As, subject name input boxes (bt1 to bt6) are provided for the number of possible tracking target subjects. As described above, in this example, the number of possible tracking target subjects is 6, and subject name input boxes bt1 to bt6 are provided.
The name information input in this subject name input box is reflected in the corresponding name display area tn in the tracking target display area At of the operation screen Gm.
 コントローラ設定領域As3には、コントローラのスロットが表示されると共に、このスロット内にコントローラ名入力ボックスbcnと、コントローラの消去ボタンBe1とが設けられる。コントローラ名入力ボックスbcnにより、当該スロットに対応するコントローラの名称情報を設定できる。また、消去ボタンBe1の操作により、当該スロットに対応するコントローラの消去を指示することができる。
 また、コントローラ設定領域As3にはコントローラの追加ボタンBp1が設けられており、追加ボタンBp1の操作により新たなコントローラのスロットの追加を指示することができる。
In the controller setting area As3, controller slots are displayed, and within these slots, a controller name input box bcn and a controller delete button Be1 are provided. The controller name input box bcn allows the user to set name information for the controller corresponding to the slot. In addition, by operating the delete button Be1, the user can instruct the user to delete the controller corresponding to the slot.
In addition, an add controller button Bp1 is provided in the controller setting area As3, and the addition of a new controller slot can be instructed by operating the add button Bp1.
 図7は、図6の状態からカメラ名、追尾対象被写体名、及びコントローラ名が設定された後の設定画面Gsの様子を例示している。 Figure 7 shows an example of the setting screen Gs after the camera name, tracking target subject name, and controller name have been set from the state shown in Figure 6.
 ここで、設定画面Gsでは、開始ボタンBsが操作されると、コントローラに対して設定されたカメラごとの実行指示ボタンBmの組み合わせが反映された操作画面Gmの表示に遷移する。この際の操作画面Gmにおいては、コントローラ名表示領域Acnにおいて、該選択されたコントローラに設定されたコントローラ名の情報が表示される。 When the start button Bs is operated on the setting screen Gs, the screen transitions to displaying an operation screen Gm that reflects the combination of execution command buttons Bm for each camera that has been set for the controller. At this time, the operation screen Gm displays information about the controller name that has been set for the selected controller in the controller name display area Acn.
 ここで、設定画面Gsにおいては、コントロール設定ボタンB3を操作してコントロール設定モードに遷移させることで、カメラごとの実行指示ボタンBmの配置組み合わせの設定、すなわちコントローラの設定を行うことができる。 Here, on the setting screen Gs, the control setting button B3 can be operated to transition to the control setting mode, whereby the layout and combination of the execution instruction buttons Bm for each camera can be set, i.e., the controller can be set.
 図8は、コントロール設定モード時の設定画面Gsの例を示している。
 コントロール設定モード時の設定画面Gsにおいては、図6に示した共通設定モード時における設定画面Gsと同様に共通設定ボタンB2、コントロール設定ボタンB3、及び開始ボタンBsが設けられる一方で、カメラ切替ボタンBcと、操作領域コントローラ名表示領域Acn及びプルダウンボタンBpdと、演出設定領域As4と、プリセット設定領域As5とが設けられる。
FIG. 8 shows an example of the setting screen Gs in the control setting mode.
In the setting screen Gs in the control setting mode, a common setting button B2, a control setting button B3, and a start button Bs are provided, similar to the setting screen Gs in the common setting mode shown in Figure 6, while a camera switching button Bc, an operation area controller name display area Acn, a pull-down button Bpd, a performance setting area As4, and a preset setting area As5 are also provided.
 演出設定領域As4には、演出に係る構図制御、具体的に本例では「じんわりズーム」の演出に関する「引き→寄り」「ランダム」「寄り→引き」「交互」、及び「手持ち感」を個別に指定可能とするチェックボックスcbが設けられる。また、演出設定領域As4においては、少なくとも「じんわりズーム」についてのズーム距離(ズーム量)を設定するための例えばスライドバー等の設定操作部も設けられている。
 なお、「手持ち感」の強弱は、構図のブレの大きさ、ブレの速さの少なくとも一方の変化として表現されるものである。
The effect setting area As4 is provided with check boxes cb that allow for individual specification of composition control related to the effect, specifically, in this example, "pull back → close up", "random", "close back → pull back", "alternate", and "handheld feeling" related to the effect of "gradual zoom". Also, the effect setting area As4 is provided with a setting operation section such as, for example, a slide bar for setting the zoom distance (zoom amount) for at least the "gradual zoom".
The strength of the "sense of holding" is expressed as a change in at least one of the magnitude of blurring of the composition and the speed of the blurring.
 プリセット設定領域As5には、プリセットのスロットが表示される。ここで、プリセットの設定は、操作画面Gmにおけるターゲット領域Artに配置する実行指示ボタンBmの設定を行うことに相当する。具体的には、該実行指示ボタンBmに対応づける構図制御内容の設定である。 In the preset setting area As5, preset slots are displayed. Here, setting a preset corresponds to setting the execution instruction button Bm to be placed in the target area Art on the operation screen Gm. Specifically, it is setting the composition control content to be associated with the execution instruction button Bm.
 プリセットのスロット内には、プリセット名(つまり実行指示ボタンBmに表示させる名称情報)を設定するためのプリセット名入力ボックスbpnと、構図制御のモードとして、前述した「定点位置」を捉える構図制御を指定するためのチェックボックスcbsと、被写体を追尾する構図制御を指定するためのチェックボックスcbtとが設けられる。
 後者のチェックボックスcbtがチェックされた場合、プリセット名のスロットには、どの被写体を追尾対象とするかを選択するためのチェックボックスcbが表示される。
 ここでのチェックボックスcbとしては、先に説明した被写体名設定領域As2(図6参照)で名称情報が設定された追尾対象被写体についてのチェックボックスcbが表示される。図7の例ではボーカル、ギター、ベース、ドラム、キーボードの5人について名称情報が設定されたことに対応して、ここでは、これら5人についてのチェックボックスcb(cb1からcb5)が表示された例を示している。
Within the preset slot, there are provided a preset name input box bpn for setting the preset name (i.e., the name information to be displayed on the execution instruction button Bm), a check box cbs for specifying composition control that captures the aforementioned "fixed point position" as a composition control mode, and a check box cbt for specifying composition control that tracks the subject.
When the latter check box cbt is checked, a check box cb for selecting which subject is to be tracked is displayed in the slot of the preset name.
As the check boxes cb here, the check boxes cb for the tracking target subjects for which name information has been set in the previously described subject name setting area As2 (see FIG. 6) are displayed. In the example of FIG. 7, name information has been set for five people, a vocalist, a guitarist, a bassist, a drummer, and a keyboardist, and accordingly, here, an example is shown in which check boxes cb (cb1 to cb5) for these five people are displayed.
 プリセット設定領域As5において、プリセットのスロット内には、当該スロットに対応するプリセットを消去するための消去ボタンBe2が配置されている。
 また、プリセット設定領域As5にはプリセットのスロットの追加を指示するための追加ボタンBp2も配置されている。
In the preset setting area As5, a delete button Be2 for deleting the preset corresponding to the slot is disposed in the preset slot.
In addition, an add button Bp2 for instructing the addition of a preset slot is also arranged in the preset setting area As5.
 このようなコントロール設定モード時の設定画面Gsにおいて、ユーザは、カメラ切替ボタンBcにより設定対象とするカメラを切り替えながら、演出設定領域As4やプリセット設定領域As5に対する操作を行うことで、所望するカメラについて、操作画面Gm上に表示させる実行指示ボタンBmの設定を行うことができる。 In this type of setting screen Gs during control setting mode, the user can set the execution command button Bm to be displayed on the operation screen Gm for the desired camera by operating the performance setting area As4 and preset setting area As5 while switching the camera to be set using the camera switching button Bc.
 ここでは、「アーティスト○△」の名称が設定されたコントローラについて、操作画面Gm上に表示させる実行指示ボタンBmの設定を行う例としたが、先に説明したコントローラ設定領域As3(図6参照)で複数のコントローラのスロットが生成されている場合、ユーザは、図8に示す設定画面GsにおけるプルダウンボタンBpdを操作することで、設定画面Gsに別のコントローラを呼び出して、同様に実行指示ボタンBmの設定を行うことができる。 Here, we have taken the example of setting the execution command button Bm to be displayed on the operation screen Gm for the controller set with the name "Artist ○△". However, if multiple controller slots have been created in the controller setting area As3 (see FIG. 6) described above, the user can operate the pull-down button Bpd on the setting screen Gs shown in FIG. 8 to call up another controller on the setting screen Gs and set the execution command button Bm in the same way.
 図9は、コントローラ設定後における操作画面Gmの例を示している。
 具体的には、図8に示した設定画面Gsにおいて「アーティスト○△」のコントローラについての設定操作後、開始ボタンBsが操作されたことに応じて表示される操作画面Gnを例示している。
FIG. 9 shows an example of the operation screen Gm after the controller has been set.
Specifically, an operation screen Gn is shown as an example that is displayed in response to the start button Bs being operated after the setting operation for the controller of "artist ○△" on the setting screen Gs shown in FIG.
 この状態では、追尾対象被写体の名称情報は設定されているが、具体的にどの被写体を追尾すべきについては未設定である。
 本実施形態では、具体的にどの被写体を追尾すべきかの指定、すなわち追尾対象被写体の指定が、次のような手法で行われるようにする。すなわち、追尾対象被写体を、測距・撮像装置6(つまり追尾カメラ3とは別の受光センサを有するセンサ装置)によるセンシング画像に写る被写体からユーザにより指定させるものである。
In this state, the name information of the subject to be tracked is set, but it is not yet set which subject should be specifically tracked.
In this embodiment, the specification of which subject should be specifically tracked, that is, the specification of the tracking target subject, is performed by the following method: That is, the tracking target subject is specified by the user from among the subjects captured in the sensing image captured by the distance measuring/imaging device 6 (that is, a sensor device having a light receiving sensor other than the tracking camera 3).
 この場合、ユーザは、先ず、操作画面Gmの追尾対象表示領域Atにおいて、指定の対象としたい被写体の個別表示領域を選択する操作(例えば、タップ操作)を行う。ここでは、「ボーカル」としての被写体の個別表示領域t1を選択する操作が行われたとする(図中<1>参照)。 In this case, the user first performs an operation (e.g., a tap operation) to select the individual display area of the subject to be specified in the tracking target display area At of the operation screen Gm. Here, it is assumed that an operation to select the individual display area t1 of the subject as the "vocalist" has been performed (see <1> in the figure).
 情報処理装置1は、操作画面Gmの追尾対象表示領域Atにおいて何れかの個別表示領域を選択する操作が行われた場合には、図10に示すように、操作画面Gm上に、測距・撮像装置6による撮像画像Imsを重畳表示する処理を行う。具体的に本例では、撮像画像Imsは演出領域Are上に重畳表示する。
 ここでは、測距・撮像装置6が4台であるのに対し、3台分の撮像画像Imsのみを表示する例としているが、勿論、4台すべての撮像画像Imsを表示することもできる。
When an operation for selecting any one of the individual display areas is performed in the tracking target display area At of the operation screen Gm, the information processing device 1 performs a process for superimposing and displaying the image Ims captured by the distance measuring/imaging device 6 on the operation screen Gm, as shown in Fig. 10. Specifically, in this example, the captured image Ims is superimposed and displayed on the performance area Are.
Here, there are four distance measuring and imaging devices 6, and only the captured images Ims from three of the devices are displayed as an example, but it is of course possible to display the captured images Ims from all four devices.
 このとき、情報処理装置1は、各測距・撮像装置6から入力される撮像画像Imsについて被写体の認識処理を行い、各撮像画像Imsについて、画像内に写る被写体についての検出枠Fdを重畳表示する。 At this time, the information processing device 1 performs subject recognition processing on the captured images Ims input from each distance measurement/imaging device 6, and displays a detection frame Fd for the subject appearing in each captured image Ims in a superimposed manner.
 ユーザは、このように操作画面Gmに表示された撮像画像Imsに写る被写体から、先の図9の操作で選択した被写体(本例ではボーカル)を指定する操作を行う(図中<2>参照)。具体的にこの指定操作は、該当する被写体の検出枠Fdを選択する操作、具体的には例えば検出枠Fd内をタップする操作であるとする。
 この検出枠Fdの指定操作は、少なくとも1枚の撮像画像Imsに対して行えばよい。
The user performs an operation to specify the subject (vocalist in this example) selected in the previous operation in Fig. 9 from the subjects appearing in the captured image Ims displayed on the operation screen Gm in this way (see <2> in the figure). Specifically, this specification operation is an operation to select the detection frame Fd of the corresponding subject, specifically, for example, an operation to tap inside the detection frame Fd.
This operation of specifying the detection frame Fd needs to be performed for at least one captured image Ims.
 このような検出枠Fdの選択操作が行われることで、 先の<1>の操作で選択された個別表示領域の被写体について、具体的にどの被写体を追尾対象とすべきかが指定されたことになる。 By performing this selection operation of the detection frame Fd, it is possible to specify which specific subject should be tracked from among the subjects in the individual display area selected in the previous operation <1>.
 検出枠Fdの選択操作が行われたことに応じて、情報処理装置1は、図11に示すように、該検出枠Fdの選択操作により指定された被写体、すなわち追尾対象として指定された被写体の検出枠Fdに対応する位置に、該被写体の名称情報を表示する処理を行う。
 また、情報処理装置1は、検出枠Fdの選択操作が行われたことに応じて、図11に例示するように、先の<1>の操作で選択された個別表示領域の画像表示領域tiに、撮像画像Imsから抽出された、追尾対象被写体の画像を表示する処理を行う(図中<3>参照)。
 先の説明から理解されるように、画像表示領域tiに対する画像表示は、撮像画像Imsにおける追尾対象被写体の上半身を抽出した画像を表示する。
In response to a selection operation of the detection frame Fd, the information processing device 1 performs a process of displaying name information of the subject specified by the selection operation of the detection frame Fd, i.e., the subject specified as the tracking target, at a position corresponding to the detection frame Fd, as shown in Figure 11.
In addition, in response to the selection operation of the detection frame Fd, the information processing device 1 performs a process of displaying an image of the subject to be tracked, extracted from the captured image Ims, in the image display area ti of the individual display area selected by the previous operation <1>, as illustrated in Figure 11 (see <3> in the figure).
As will be understood from the above description, the image displayed in the image display area ti displays an image in which the upper body of the tracking target subject in the captured image Ims is extracted.
 ここで、検出枠Fdに対する追尾対象被写体の名称情報の表示は、検出枠Fdの選択操作が行われた画像のみでなく、当該追尾対象被写体が写る全ての撮像画像Imsについて行うことができる。 Here, the name information of the tracking target subject for the detection frame Fd can be displayed not only for the image in which the detection frame Fd is selected, but also for all captured images Ims in which the tracking target subject appears.
 上記のような検出枠Fdに対する名称情報の表示や画像表示領域tiに対する画像表示を行うことで、追尾対象被写体の指定が意図通りに行われたか否かをユーザに直感的に理解させることができる。 By displaying name information in the detection frame Fd and displaying an image in the image display area ti as described above, the user can intuitively understand whether or not the subject to be tracked has been specified as intended.
 ここで、検出枠Fdについては、追尾対象被写体として指定された被写体の検出枠Fdと、追尾対象被写体に未指定の被写体の検出枠Fdとを異なる表示態様で表示することもできる。例えば、指定済み=青等の特定色、未指定=灰色等の非特定色とすることが考えられる。或いは、指定済み=実線枠、未指定=点線枠としたり、指定済み=太線枠、未指定=細線枠としたりすること等も考えられる。 Here, the detection frame Fd for a subject designated as a tracking target subject and the detection frame Fd for a subject not designated as a tracking target subject can be displayed in different display modes. For example, designated can be a specific color such as blue, and undesignated can be a non-specific color such as gray. Alternatively, designated can be a solid frame and undesignated can be a dotted frame, or designated can be a thick frame and undesignated can be a thin frame.
 ユーザは、名称情報を設定した他の被写体についても、同様に追尾対象表示領域Atの個別表示領域の選択操作、及び撮像画像Imsにおける検出枠Fdの選択操作を行うことで、撮像画像Imsからの追尾対象被写体の指定を行うことができる。 The user can similarly specify other subjects for which name information has been set as the tracking target subject from the captured image Ims by selecting the individual display area of the tracking target display area At and selecting the detection frame Fd in the captured image Ims.
 ここで、本実施形態において、情報処理装置1は、操作画面Gmにおいて追尾対象被写体の指定のために表示される撮像画像Imsについて、明るさが所定の明るさ以下であるか否かを判定し、明るさが所定の明るさ以下となったことに応じて、追尾対象被写体の指定を受けつけるための画像として、測距・撮像装置6による距離画像に基づく画像を表示する処理を行う。
 具体的に本例において情報処理装置1は、撮像画像Imsの明るさが所定の明るさ以下となった場合は、図12に例示するように、撮像画像Imsに重畳して、測距・撮像装置6による距離画像を表示する処理を行う。
Here, in this embodiment, the information processing device 1 determines whether or not the brightness of the captured image Ims displayed on the operation screen Gm for specifying the subject to be tracked is equal to or lower than a predetermined brightness, and if the brightness becomes equal to or lower than the predetermined brightness, performs a process of displaying an image based on the distance image captured by the distance measurement/imaging device 6 as an image for accepting the specification of the subject to be tracked.
Specifically, in this example, when the brightness of the captured image Ims becomes equal to or lower than a predetermined brightness, the information processing device 1 performs a process of displaying a distance image captured by the distance measuring/capturing device 6 by superimposing it on the captured image Ims, as illustrated in FIG. 12 .
 なお、撮像画像Imsの明るさの判定は、例えば画像内の平均輝度値に基づき行うこと等が考えられる。
 また、距離画像に代えて、距離画像に基づき生成された簡易モデルを表示することも考えられる。
The brightness of the captured image Ims may be determined based on, for example, an average luminance value within the image.
Moreover, instead of the distance image, a simplified model generated based on the distance image may be displayed.
 上記のような距離画像に基づく画像の表示を行うことで、暗い環境下であっても、ユーザが追尾対象被写体を指定することの容易性を高めることが可能となる。特に、追尾対象被写体の指定操作は、撮像対象とするアーティストがステージ上に上がってから演奏を開始する前のタイミングで行われることが想定されるが、このタイミングではステージ上の照明が消灯している等、暗い環境となることが多いため、上記のような距離画像に基づく画像表示を行うことが有効となる。  Displaying an image based on the distance image as described above makes it easier for the user to specify the subject to be tracked, even in a dark environment. In particular, it is expected that the operation of specifying the subject to be tracked will be performed when the artist to be imaged comes onstage and before they begin performing. At this time, the stage lights are often turned off, making it a dark environment, so it is effective to display an image based on the distance image as described above.
(3-2.追尾構図の指定について)
 続いて、追尾構図の指定について、図13から図16を参照して説明する。
 本実施形態においては、追尾対象被写体ごとに、追尾構図の指定を行うことが可能とされる。
 或る追尾対象被写体について、追尾構図を指定するとしたときは、ユーザは、図7に示した共通設定モード時の設定画面Gsの被写体名設定領域As2において、追尾構図を指定したい被写体を選択する操作を行う。
(3-2. Specifying the tracking composition)
Next, the designation of the tracking composition will be described with reference to FIGS.
In this embodiment, it is possible to specify a tracking composition for each tracking target subject.
When specifying a tracking composition for a certain tracking target subject, the user performs an operation to select the subject for which he or she wishes to specify a tracking composition in the subject name setting area As2 of the setting screen Gs in the common setting mode shown in FIG.
 この選択操作に応じ、情報処理装置1は、表示部17に図13Aに示すような構図指定画面を表示する処理を行う。
 この構図指定画面には、被写体の仮想簡易モデルMbvと、画枠Fsと、リセットボタンB5と、終了ボタンB6とが表示される。ここで、仮想簡易モデルMbvは、被写体の仮想的な簡易モデルである。
In response to this selection operation, the information processing device 1 performs processing to display a composition designation screen as shown in FIG. 13A on the display unit 17.
On this composition designation screen, a virtual simple model Mbv of the subject, an image frame Fs, a reset button B5, and an end button B6 are displayed. Here, the virtual simple model Mbv is a virtual simple model of the subject.
 本実施形態において、情報処理装置1は、追尾構図の指定を、仮想簡易モデルMbvの表示画像に対する追尾画枠の指定として受け付ける。
 具体的に、本例では、画枠Fs側を固定とし、画枠Fs内における仮想簡易モデルMbvの大きさや位置の調整操作を、追尾構図の調整操作として受け付ける。
In this embodiment, the information processing device 1 accepts a designation of a tracking composition as a designation of a tracking image frame for a display image of the virtual simple model Mbv.
Specifically, in this example, the image frame Fs side is fixed, and an adjustment operation for the size and position of the virtual simple model Mbv within the image frame Fs is accepted as an adjustment operation for the tracking composition.
 本例では、構図調整の操作は、キーボード操作子におけるキー操作で行われる。具体的には、+キーの操作、-キーの操作が、画枠Fs内での仮想簡易モデルMbvの拡大、縮小の操作となり、上下左右の矢印キーの操作が画枠Fs内での仮想簡易モデルMbvの位置の調整操作となる。 In this example, the composition adjustment is performed by operating the keys on the keyboard. Specifically, the + and - key operations are performed to enlarge and reduce the virtual simple model Mbv within the image frame Fs, and the up, down, left, and right arrow key operations are performed to adjust the position of the virtual simple model Mbv within the image frame Fs.
 図13では、図13Aから図13Bへの遷移により、+キーによる拡大操作が行われた様子を表しており、図13Bから図13Cへの遷移により右矢印キーにより画枠Fs内で仮想簡易モデルMbvが右側にシフトされた様子を表している。 In Figure 13, the transition from Figure 13A to Figure 13B shows an enlargement operation performed with the + key, and the transition from Figure 13B to Figure 13C shows the virtual simple model Mbv being shifted to the right within the image frame Fs with the right arrow key.
 ユーザは、調整した構図に指定したいとした場合は、終了ボタンB6を操作する。また、リセットボタンB5を操作することで、構図を図13Aに示す初期状態にリセットすることができる。 If the user wishes to specify the adjusted composition, he or she operates the end button B6. In addition, the composition can be reset to the initial state shown in FIG. 13A by operating the reset button B5.
 なお確認のため述べておくと、追尾構図の指定は、図9から図11で説明したような撮像画像Imsからの追尾対象被写体の指定を行う前に事前に行っておくことが可能なものである。 For the sake of clarity, it is possible to specify the tracking composition before specifying the subject to be tracked from the captured image Ims as described in Figures 9 to 11.
 また、追尾構図の構図指定画面において、境界値でズームを変更したときに中心点を基準としたズームが不可能である場合は、仮想簡易モデルMbvが含まれる範囲にズームの中心点を移動してズームすることが考えられる。 In addition, on the composition specification screen for the tracking composition, if zooming based on the center point is not possible when the zoom is changed at the boundary value, it is possible to zoom by moving the zoom center point to a range that includes the virtual simple model Mbv.
 上記の終了ボタンB6が操作されて、追尾構図の指定が行われた場合、情報処理装置1は、指定構図を再現可能とするためのパラメータ情報を算出し、記憶する処理を行う。 When the end button B6 is operated to specify a tracking composition, the information processing device 1 performs a process of calculating and storing parameter information for reproducing the specified composition.
 図14Aは指定された追尾構図を模式的に表している。
 追尾構図の指定が行われた場合、情報処理装置1は、図14Bに示すような交点Jを求める。この交点Jは、画枠Fsの縦方向における中心線である縦方向中心線Vc(画枠Fsを縦方向に二等分する線)と、仮想簡易モデルMbvの横方向中心線(仮想簡易モデルMbvを横方向に二等分する線)との交点である。
 なお図14Bでは、画枠Fsの中心Fc、及び横方向中心線Hc(画枠Fsを横方向に二等分する線)を示している。
FIG. 14A shows a schematic representation of the designated tracking composition.
When the tracking composition is specified, the information processing device 1 obtains an intersection J as shown in Fig. 14B. This intersection J is an intersection between a vertical center line Vc (a line vertically bisecting the image frame Fs), which is a center line in the vertical direction of the image frame Fs, and a horizontal center line (a line horizontally bisecting the virtual simple model Mbv) of the virtual simple model Mbv.
FIG. 14B shows the center Fc of the image frame Fs and a horizontal center line Hc (a line that bisects the image frame Fs in the horizontal direction).
 指定構図を再現可能とするためのパラメータ情報として、情報処理装置1は、図15Aに示す縦方向位置ずれ量Vrcと、図15Bに示す横オフセット量Hofとを求める。
 縦方向位置ずれ量Vrcは、仮想簡易モデルMbvの頭部の縦方向位置を1.0、足首の縦方向位置を0.0として定めた縦スケーラー(「第一縦スケーラー」とする)により、交点Jの縦方向位置をスケーリングした値である。この縦方向位置ずれ量Vrcは、仮想簡易モデルMbvの足首から頭部までの長さを1.0として、交点Jの縦方向位置を相対値により表したものと換言できる。
As parameter information for making it possible to reproduce the designated composition, the information processing apparatus 1 obtains the vertical positional deviation amount Vrc shown in FIG. 15A and the horizontal offset amount Hof shown in FIG. 15B.
The vertical position deviation amount Vrc is a value obtained by scaling the vertical position of the intersection point J by a vertical scaler (hereinafter referred to as a "first vertical scaler") that defines the vertical position of the head of the virtual simple model Mbv as 1.0 and the vertical position of the ankle as 0.0. In other words, the vertical position deviation amount Vrc is a value that represents the vertical position of the intersection point J in a relative value, with the length from the ankle to the head of the virtual simple model Mbv being 1.0.
 なお、本例において追尾構図は、画枠Fs内に仮想簡易モデルMbvの少なくとも一部が収まるという条件を満たす範囲で指定可能としているため、縦方向位置ずれ量Vrcは、1.0を超える値となる場合もあれば、0.0よりも小さい値(つまりマイナス値)となる場合もあり得る。 In this example, the tracking composition can be specified within a range that satisfies the condition that at least a portion of the virtual simple model Mbv fits within the image frame Fs, so the vertical position deviation amount Vrc may be a value exceeding 1.0 or a value less than 0.0 (i.e., a negative value).
 また、横オフセット量Hofについては、図15Bに示すように、交点Jの横方向位置を、画枠Fsの左端位置を0.0とし右端位置を1.0とした横スケーラーによりスケーリングした値として求める。 The horizontal offset amount Hof is calculated as a value scaled by a horizontal scaler in which the left end position of the image frame Fs is 0.0 and the right end position is 1.0, as shown in FIG. 15B.
 また、情報処理装置1は、指定構図を再現可能とするためのパラメータ情報として、ズーム量Zrの情報も記憶する。
 ズーム量Zrの情報としては、許容する最小ズーム量=0.0から許容する最大ズーム量=1.0までの間の値で表現される形で、先の構図指定画面において行われた仮想簡易モデルMbvの拡縮操作から特定される、第一縦スケーラーにおける画枠Fsの縦方向長さを記憶する。
The information processing device 1 also stores information on the zoom amount Zr as parameter information for enabling reproduction of the specified composition.
The information on the zoom amount Zr is stored as the vertical length of the image frame Fs in the first vertical scaler, which is determined from the enlargement/reduction operation of the virtual simple model Mbv performed on the previous composition specification screen, expressed as a value between the minimum allowable zoom amount = 0.0 and the maximum allowable zoom amount = 1.0.
 なお、許容する最大ズーム量は、画枠Fsの縦方向長さが、仮想簡易モデルMbvの縦方向長さの2倍となるズーム量とすることが考えられ、許容する最小ズーム量は、画枠Fsの縦方向長さが仮想簡易モデルMbvの縦方向長さの1/5倍となるズーム量とすることが考えられる。 The maximum allowable zoom amount may be considered to be the amount at which the vertical length of the image frame Fs is twice the vertical length of the virtual simple model Mbv, and the minimum allowable zoom amount may be considered to be the amount at which the vertical length of the image frame Fs is 1/5 the vertical length of the virtual simple model Mbv.
 続いて、指定された追尾構図を再現するための目標画枠の算出手法を説明する。
 本例では、目標画枠は、追尾カメラ3のカメラ座標系ではなく、測距・撮像装置6が基準とするワールド座標系(三次元空間座標系)における目標画枠として求める例とする。具体的に、目標画枠については、目標画枠の縦方向中心座標、及び横方向中心座標を求める。
Next, a method for calculating a target image frame for reproducing a specified tracking composition will be described.
In this example, the target image frame is calculated not in the camera coordinate system of the tracking camera 3 but in a world coordinate system (three-dimensional spatial coordinate system) based on the distance measuring/imaging device 6. Specifically, the vertical and horizontal center coordinates of the target image frame are calculated.
 目標画枠の算出手法は、以下のケース1からケース4によって異なる。
 図16は、ケース1からケース4の説明図である。
 ケース1は、縦方向位置ずれ量Vrcの値が、第一縦スケーラー上における仮想簡易モデルMbvの頭部位置の値(1.0)よりも大きかった場合である。
 ケース2は、縦方向位置ずれ量Vrcの値が、第一縦スケーラー上における仮想簡易モデルMbvの頭部位置の値以下、且つ骨盤部位置の値よりも大きかった場合である。
 ケース3は、縦方向位置ずれ量Vrcの値が、第一縦スケーラー上における仮想簡易モデルMbvの骨盤部位置の値以下、且つ足首位置の値以上であった場合である。
 ケース4は、縦方向位置ずれ量Vrcの値が、第一縦スケーラー上における仮想簡易モデルMbvの足首の値よりも小さかった場合である。
The method of calculating the target image frame differs depending on the following cases 1 to 4.
FIG. 16 is an explanatory diagram of cases 1 to 4.
Case 1 is a case where the value of the vertical positional deviation amount Vrc is larger than the value (1.0) of the head position of the hypothetical simplified model Mbv on the first vertical scaler.
Case 2 is a case where the value of the vertical positional deviation amount Vrc is equal to or smaller than the value of the head position of the hypothetical simplified model Mbv on the first vertical scaler and is larger than the value of the pelvis position.
Case 3 is a case where the value of the vertical positional deviation amount Vrc is equal to or smaller than the value of the pelvis position of the hypothetical simplified model Mbv on the first vertical scaler and equal to or larger than the value of the ankle position.
Case 4 is a case where the value of the vertical positional deviation amount Vrc is smaller than the value of the ankle of the hypothetical simplified model Mbv on the first vertical scaler.
 ケース1からケース4の何れにおいても、目標画枠の縦方向中心座標については、測距・撮像装置6による距離画像に基づき生成される追尾対象被写体の簡易モデルである検出簡易モデルMbdの三次元位置情報と、縦方向位置ずれ量Vrcとに基づいて、同様の手法により求める。
 具体的に、目標画枠の縦方向中心座標を求めるにあたっては、検出簡易モデルMbdの頭部位置の縦方向位置を1.0、足首位置の縦方向位置を0.0とする縦スケーラー(「第二縦スケーラー」とする)を用いる。
 このとき、第二縦スケーラーで基準とする足首の縦方向位置については、追尾対象被写体が片足を上げている可能性も考慮して、左右足首のうち低い方の足首の縦方向位置を基準とする。
In all of cases 1 to 4, the vertical center coordinate of the target image frame is calculated using a similar method based on the three-dimensional position information of the detection simple model Mbd, which is a simple model of the subject to be tracked generated based on the distance image by the ranging/imaging device 6, and the vertical position deviation amount Vrc.
Specifically, to determine the vertical center coordinate of the target image frame, a vertical scaler (called the "second vertical scaler") is used that sets the vertical position of the head position of the detected simple model Mbd to 1.0 and the vertical position of the ankle position to 0.0.
At this time, the vertical position of the ankle used as the reference by the second vertical scaler is the vertical position of the lower of the left and right ankles, taking into consideration the possibility that the subject to be tracked may have one leg raised.
 目標画枠の縦方向中心座標については、上記の第二縦スケーラーにおいて、縦方向位置ずれ量Vrcにより特定される縦方向位置の座標に定める。
 すなわち、例えば縦方向位置ずれ量Vrcの値が0.8であれば、第二縦スケーラーにおいて0.8となる位置の縦方向座標を目標画枠の縦方向中心座標として定める。
The vertical center coordinates of the target image frame are determined in the second vertical scaler as the coordinates of the vertical position specified by the vertical position deviation amount Vrc.
That is, for example, if the value of the vertical positional deviation amount Vrc is 0.8, the vertical coordinate of the position where this becomes 0.8 in the second vertical scaler is determined as the vertical center coordinate of the target image frame.
 また、目標画枠の横方向中心座標については、ケース1からケース4の各ケースにおいて、以下のように定める。
 すなわち、ケース1の場合、追尾対象被写体の検出簡易モデルMbdにおける頭部位置の横方向座標からの横方向へのオフセット量が、横オフセット量Hofと一致するように、目標画枠の横方向中心座標を定める。
The horizontal center coordinates of the target image frame are determined as follows in each of cases 1 to 4.
That is, in case 1, the horizontal center coordinate of the target image frame is determined so that the horizontal offset amount from the horizontal coordinate of the head position in the detected simple model Mbd of the tracked subject matches the horizontal offset amount Hof.
 ケース2の場合、追尾対象被写体の検出簡易モデルMbdの横方向中心線からの横方向へのオフセット量が、横オフセット量Hofと一致するように目標画枠の横方向中心座標を定める。 In case 2, the horizontal center coordinate of the target image frame is determined so that the horizontal offset from the horizontal center line of the simple model Mbd of the tracked subject matches the horizontal offset Hof.
 ケース3の場合、追尾対象被写体の検出簡易モデルMbdにおける骨盤中央部位置の横方向座標からの横方向へのオフセット量が、横オフセット量Hofと一致するように目標画枠の横方向中心座標を定める。 In case 3, the horizontal center coordinate of the target image frame is determined so that the horizontal offset from the horizontal coordinate of the pelvis center position in the simple detection model Mbd of the tracking target subject matches the horizontal offset Hof.
 ケース4の場合、上記ケース3の場合と同様に、追尾対象被写体の検出簡易モデルMbdにおける骨盤中央部位置の横方向座標からの横方向へのオフセット量が、横オフセット量Hofと一致するように目標画枠の横方向中心座標を定める。 In case 4, as in case 3 above, the horizontal center coordinate of the target image frame is determined so that the horizontal offset from the horizontal coordinate of the pelvis center position in the simple detection model Mbd of the tracking target subject matches the horizontal offset Hof.
 ここで、ケース1からケース4の何れのケースにおいても、目標画枠のサイズについては、上記した第二縦スケーラーにおいて、ズーム量Zrから特定されるサイズに設定する。 Here, in all cases from Case 1 to Case 4, the size of the target image frame is set to a size determined by the zoom amount Zr in the second vertical scaler described above.
 上記のような仮想簡易モデルMbv及び検出簡易モデルMbdを用いた相対値に基づく構図再現手法を採用することで、仮想簡易モデルMbvのサイズと、実際の検出簡易モデルMbdのサイズ(追尾対象被写体のサイズ)とが異なる場合であっても、指定された追尾構図が適切に再現されるように図ることができる。換言すれば、追尾対象被写体のサイズに拘わらず、指定された追尾構図が適切に再現されるように図ることができる。 By adopting a composition reproduction method based on relative values using the virtual simple model Mbv and the detected simple model Mbd as described above, it is possible to ensure that the specified tracking composition is properly reproduced even if the size of the virtual simple model Mbv differs from the size of the actual detected simple model Mbd (the size of the subject to be tracked). In other words, it is possible to ensure that the specified tracking composition is properly reproduced regardless of the size of the subject to be tracked.
 ここで、上記のように目標画枠の中心座標はワールド座標系の座標情報とされる。これを、制御対象とする追尾カメラ3のカメラ座標系の座標情報に変換可能とするために、後述するキャリブレーション処理により、少なくとも各測距・撮像装置6と各追尾カメラ3との間の位置関係を把握しておく。
 各測距・撮像装置6と各追尾カメラ3との間の位置関係が把握されることで、三次元空間上の座標をそれぞれの追尾カメラ3のカメラ座標系での座標に変換するための座標変換テーブルを求めることができる。目標画枠の中心位置について、カメラ座標系での座標が求まれば、その座標に光軸中心を一致させるようにするためのパン、チルトの角度情報を算出することができ、指定された追尾構図が実現されるように追尾カメラ3を制御することができる。
Here, as described above, the center coordinates of the target image frame are set as coordinate information in the world coordinate system. In order to make it possible to convert this into coordinate information in the camera coordinate system of the tracking camera 3 to be controlled, the positional relationship between at least each distance measuring/image capturing device 6 and each tracking camera 3 is grasped by a calibration process described later.
By grasping the positional relationship between each distance measuring/imaging device 6 and each tracking camera 3, it is possible to obtain a coordinate conversion table for converting coordinates in three-dimensional space into coordinates in the camera coordinate system of each tracking camera 3. If the coordinates in the camera coordinate system are obtained for the center position of the target image frame, it is possible to calculate pan and tilt angle information for matching the optical axis center with the coordinates, and it is possible to control the tracking camera 3 so as to realize a specified tracking composition.
 なお、上記では第一縦スケーラーとして、仮想簡易モデルMbvの頭部の縦方向位置を1.0、足首の縦方向位置を0.0とするスケーラーを用いる例としたが、第一縦スケーラーとしては、仮想簡易モデルMbvの所定部位の縦方向位置を基準値とし且つ仮想簡易モデルMbvにおける縦方向に離間する所定部位間の長さを基準単位とするスケーラーを用いればよい。
 また、第二縦スケーラーとしては、検出簡易モデルMbdの前記所定部位の縦方向位置を基準値とし且つ検出簡易モデルMbdにおける前記所定部位間の長さを基準単位とするスケーラーを用いればよい。
In the above example, the first vertical scaler is a scaler that sets the vertical position of the head of the virtual simple model Mbv to 1.0 and the vertical position of the ankle to 0.0. However, any other scaler can be used as the first vertical scaler, which uses the vertical position of a specified part of the virtual simple model Mbv as a reference value and uses the length between specified parts spaced apart vertically on the virtual simple model Mbv as a reference unit.
Moreover, as the second vertical scaler, a scaler may be used that uses the vertical position of the specified portion of the simplified detection model Mbd as a reference value and the length between the specified portions in the simplified detection model Mbd as a reference unit.
 ここで、確認のため述べておくと、追尾構図が指定された追尾対象被写体の追尾を指示する実行指示ボタンBmが選択されて、当該追尾対象被写体についての追尾が行われている状態においても、じんわりズームや手持ち感等の演出の実行を指示する実行指示ボタンBmが選択されている場合には、該当する演出に係る構図制御も併せて実行されることになる。 Just to be clear, even when an execution command button Bm is selected to instruct the tracking of a tracking target subject with a specified tracking composition, and tracking of that tracking target subject is in progress, if an execution command button Bm is selected to instruct the execution of an effect such as a gentle zoom or handheld feel, composition control related to the corresponding effect will also be executed.
(3-3.セミオート制御について)
 本実施形態の情報処理装置1は、操作画面Gmにおいてユーザが実行指示ボタンBmを選択せずとも、各カメラの追尾対象被写体や追尾構図を自動的に切り替える、セミオート制御としての構図制御を実行可能とされている。
(3-3. Semi-automatic control)
The information processing device 1 of this embodiment is capable of performing composition control as semi-automatic control, in which the tracking target subject and tracking composition of each camera are automatically switched without the user selecting the execution instruction button Bm on the operation screen Gm.
 図17は、セミオート制御において切り替え可能な構図種別についての説明図である。
 セミオート制御において切り替え可能な構図種別としては、図17Aから図17Dに例示する「UP(アップショット)」「BS(バストショット)」「WS(ウエストショット)」「FF(フルフィギュア)」を挙げることができる。
 「UP」は、撮像対象(被写体)としての人物の顔を画枠内いっぱいに収める構図であり、「BS」は撮像対象としての人物の胸から頭の先までの部分のみを画枠内に収める構図である。また、「WS」は撮像対象としての人物の腰から頭の先までの部分のみを画枠内に収める構図であり、「FF」は撮像対象としての人物の頭から足下までの全体を画枠内に収める構図である。
FIG. 17 is an explanatory diagram of composition types that can be switched in semi-automatic control.
Composition types that can be switched in semi-automatic control include "UP (close-up shot)", "BS (bust shot)", "WS (waist shot)", and "FF (full figure)", as shown in Figures 17A to 17D.
"UP" is a composition that fits the face of the person as the subject (subject) to the full extent of the image frame, "BS" is a composition that fits only the part of the person as the subject from the chest to the top of the head within the image frame, "WS" is a composition that fits only the part of the person as the subject from the waist to the top of the head within the image frame, and "FF" is a composition that fits the whole of the person as the subject from the head to the feet within the image frame.
 セミオート制御としての構図制御について、「構図」とは、図17に例示したような「構図種別」と、撮像対象の別(本例では演者の別)とで特定されるものとなる。例えば、ギター奏者としての撮像対象を構図種別=「WS」により捉える構図や、ボーカルとしての撮像対象を構図種別=「UP」により捉える構図等として特定されるものである。 In semi-automatic composition control, the "composition" is specified by the "composition type" as shown in FIG. 17 and the type of subject to be imaged (in this example, the performer). For example, the composition is specified as capturing the subject as a guitar player with the composition type = "WS", or the composition is specified as capturing the subject as a vocalist with the composition type = "UP".
 セミオート制御では、構図選択テーブルに基づき、カメラの構図を選択する。 In semi-automatic control, the camera selects the composition based on a composition selection table.
 図18は、構図選択テーブルの説明図である。
 構図選択テーブルは、カメラによる撮像対象と、カメラの構図種別との組み合わせごとに重み情報が対応づけられた情報である。
 ここでは、撮像対象イベントが音楽ライブイベントとされ、選択可能な撮像対象が音楽バンドのボーカル、ギター奏者、ベース奏者の何れかとされる場合に対応した構図選択テーブルの例を示している。
 撮像対象と構図種別との組み合わせごとに対応づけられた重み情報、換言すれば、撮像対象と構図種別との組み合わせで特定される構図ごとに対応づけられた重み情報は、その構図の選択率を示す情報と換言できる。
FIG. 18 is an explanatory diagram of the composition selection table.
The composition selection table is information in which weight information is associated with each combination of an object to be captured by the camera and a composition type of the camera.
Here, an example of a composition selection table is shown for a case where the event to be imaged is a live music event, and the selectable subjects to be imaged are the vocalist, guitar player, or bass player of a music band.
The weighting information associated with each combination of an imaging subject and a composition type, in other words, the weighting information associated with each composition identified by the combination of an imaging subject and a composition type, can be said to be information indicating the selection rate of that composition.
 本実施形態において、構図選択テーブルはカメラごとに用意されており、情報処理装置1は、カメラ3ごとに、対応する構図選択テーブルを用いて構図の選択を行う。
 本例において、構図選択テーブルは例えば記憶部19等の所定のメモリ装置に記憶されており、情報処理装置1(CPU11)はこのように記憶された構図選択テーブルに基づいて各カメラの構図選択を行う。
In this embodiment, a composition selection table is prepared for each camera, and the information processing device 1 selects a composition for each camera 3 using the corresponding composition selection table.
In this example, the composition selection table is stored in a predetermined memory device such as the storage unit 19, and the information processing device 1 (CPU 11) selects a composition for each camera based on the composition selection table thus stored.
 構図選択テーブルについては、構図制御の対象とするカメラごとに、少なくとも構図種別と重み情報との組み合わせ設定を異ならせた複数種のテーブルを用意しておくことが考えられる。例えば、音楽プロデューサA、B、Cごとに、それらの音楽プロデューサが多用する構図が選択され易くなるようにそれぞれ構図種別と重み情報との組み合わせ設定が為された構図選択テーブルを用意しておき、それら構図選択テーブルのうちから構図選択に用いるテーブルをユーザにより選択可能となるようにしておく。これにより、撮像画像コンテンツを何れの音楽プロデューサ風のコンテンツとして仕上げるかをユーザに選択させることが可能となる。 As for the composition selection table, it is conceivable to prepare multiple types of tables with at least different combination settings of composition type and weight information for each camera that is the target of composition control. For example, composition selection tables with combination settings of composition type and weight information for each music producer A, B, and C that make it easier to select the composition that is frequently used by those music producers are prepared, and the user is allowed to select from these composition selection tables the table to use for composition selection. This makes it possible for the user to select which music producer's style the captured image content will be finished as.
 ここで、セミオート制御において、カメラごとの構図選択は、予め定められた禁止遷移となる構図遷移が生じないように、禁止遷移構図情報に基づいて行う。
 ここで言う禁止遷移とは、スイッチャー5により順次選択される画像間での構図遷移について、禁止される構図遷移を表すものである。
Here, in the semi-automatic control, composition selection for each camera is performed based on prohibited transition composition information so as to prevent a composition transition that is a predetermined prohibited transition from occurring.
The prohibited transition here refers to a composition transition that is prohibited from occurring between images that are sequentially selected by the switcher 5 .
 情報処理装置1は、上記の禁止遷移構図情報と、スイッチャー5によるカメラの選択履歴情報(構図の履歴情報に相当)とに基づき、スイッチャー5により順次選択される画像間での構図遷移が、禁止遷移構図情報に定められた禁止遷移とならないように、構図選択テーブルに基づく構図選択を行う。
 具体的に情報処理装置1は、禁止遷移構図情報と、スイッチャー5が選択中のカメラの構図とに基づき、各カメラの構図選択テーブルにおける構図のうちから、次にスイッチャー5により選択された場合に禁止遷移となってしまう構図を「禁止遷移構図」として特定し、この禁止遷移構図を除く構図のみを対象として、構図選択テーブルの重み情報に基づく構図選択を行う。
Based on the above-mentioned prohibited transition composition information and the camera selection history information by the switcher 5 (corresponding to composition history information), the information processing device 1 selects a composition based on a composition selection table so that the composition transition between images selected sequentially by the switcher 5 does not become a prohibited transition defined in the prohibited transition composition information.
Specifically, based on the prohibited transition composition information and the composition of the camera currently selected by the switcher 5, the information processing device 1 identifies, from among the compositions in the composition selection table of each camera, compositions that would result in a prohibited transition if next selected by the switcher 5, as "prohibited transition compositions," and performs composition selection based on the weight information of the composition selection table, targeting only compositions excluding these prohibited transition compositions.
 図19を参照してこのような禁止遷移構図情報に基づいた構図選択の例を説明する。
 具体的に図19では、スイッチャー5が選択中のカメラの構図が「ベース・WS」である状態において、「ベース・WS」の構図から「ベース・UP」の構図への遷移、及び撮像対象を「ベース」とする構図への遷移が禁止遷移として定められている場合における或るカメラについての構図選択例を説明する。
 この場合の構図選択テーブルでは、「ベース・UP」の構図、及び撮像対象を「ベース」とする構図が禁止遷移構図となるため、情報処理装置1は、これらの構図を除外した構図(図示の例ではボーカルを撮像対象とする構図、及び「ベース・WS」の構図、及び「ベース・FF」の構図)を対象として構図選択を行う。
 これにより、対象とするカメラが選択構図に切り替えられ、該カメラの撮像画像がスイッチャー5により選択されたとしても、該スイッチャー5による出力画像の構図遷移が禁止遷移となってしまうことの防止を図ることができる。
An example of composition selection based on such prohibited transition composition information will be described with reference to FIG.
Specifically, Figure 19 describes an example of composition selection for a certain camera when the composition of the camera selected by the switcher 5 is "Base WS," and a transition from the "Base WS" composition to a "Base UP" composition, and a transition to a composition in which the subject to be imaged is "Base," are defined as prohibited transitions.
In this case, in the composition selection table, the "Bass UP" composition and the composition with the "Bass" as the imaging subject are prohibited transition compositions, so the information processing device 1 selects compositions excluding these compositions (in the illustrated example, the composition with the vocalist as the imaging subject, the "Bass WS" composition, and the "Bass FF" composition).
This makes it possible to prevent the composition transition of the output image by the switcher 5 from becoming a prohibited transition even if the target camera is switched to a selected composition and the image captured by the camera is selected by the switcher 5.
 また、セミオート制御において、情報処理装置1は、上記により説明したカメラごとの構図選択テーブルに基づく構図選択を、スイッチャー5による画像選択が行われたことを条件として実行する。
 つまり、スイッチャー5により各カメラからの撮像画像のうち何れかが新たに選択されると、それに応じて、各カメラについて、構図選択テーブルに基づく構図の選択が行われ、各カメラの構図がそれぞれ選択された構図に制御される。
Furthermore, in the semi-automatic control, the information processing device 1 executes composition selection based on the composition selection table for each camera described above, on the condition that image selection has been performed by the switcher 5 .
That is, when any of the captured images from each camera is newly selected by the switcher 5, a composition is selected for each camera based on the composition selection table accordingly, and the composition of each camera is controlled to the selected composition.
 また、セミオート制御において、情報処理装置1は、スイッチャー5により画像選択中であるカメラを除外して構図選択テーブルに基づく構図選択を行う。上記のように本例では、スイッチャー5による画像選択が行われたことを条件として構図選択テーブルに基づく構図選択を行うが、この場合、該画像選択により画像選択中となったカメラを除外して、構図選択テーブルに基づく構図選択を行う。
 上記のようにスイッチャー5により画像選択中であるカメラを構図選択の対象から除外することで、スイッチャー5により選択されたカメラについて、撮像画像が選択中であるにも拘わらず構図切替が行われてしまうことの防止を図ることができる。
Furthermore, in semi-automatic control, the information processing device 1 performs composition selection based on the composition selection table, excluding the camera for which an image is being selected by the switcher 5. As described above, in this example, composition selection based on the composition selection table is performed on the condition that image selection has been performed by the switcher 5, but in this case, the camera for which an image is being selected by the image selection is excluded, and composition selection based on the composition selection table is performed.
As described above, by excluding a camera for which an image is being selected by the switcher 5 from the targets for composition selection, it is possible to prevent composition switching from being performed for a camera selected by the switcher 5 even though an image captured by the camera is being selected.
 また、セミオート制御において、情報処理装置1は、撮像対象イベントの音声解析結果から特定される音楽伴奏区間のみを対象として構図選択テーブルに基づく構図選択を行う。
 一例として、各カメラにマイクロフォンを備えさせ、各カメラの撮像画像データに該マイクロフォンにより収音された音声のデータが付帯されるようにしておく。そして、情報処理装置1は、このように付帯された音声データについて音声解析を行って、音楽伴奏区間か否かの判定を行うようにする。この判定結果に基づき、情報処理装置1は、音楽伴奏区間のみを対象として、構図選択テーブルに基づく構図選択を行うようにする。
 なお、音声データの取得手法としては、上記のようなカメラのマイクロフォンを用いる手法に限定されない。例えば、PA(Public Address)機器等のカメラ以外の機器が備えるマイクロフォンにより収音された音声データを音声解析に用いることも考えられる。この場合、音声データは、カメラの撮像画像に付帯されるのではなく、撮像画像とは独立した系統のデータとして扱われる。
 なお、音声伴奏区間か否かの判定は、ユーザからの操作入力に基づき行うことも可能である。
Furthermore, in the semi-automatic control, the information processing device 1 performs composition selection based on the composition selection table only for the musical accompaniment section identified from the audio analysis result of the event to be imaged.
As an example, each camera is equipped with a microphone, and audio data picked up by the microphone is added to the captured image data of each camera. The information processing device 1 then performs audio analysis on the added audio data to determine whether or not the section is a musical accompaniment section. Based on the result of this determination, the information processing device 1 selects a composition based on a composition selection table, targeting only the musical accompaniment section.
The method of acquiring the voice data is not limited to the above-mentioned method using the microphone of the camera. For example, it is also possible to use voice data collected by a microphone provided in a device other than a camera, such as a PA (Public Address) device, for voice analysis. In this case, the voice data is not attached to the image captured by the camera, but is treated as data independent of the captured image.
The determination as to whether or not a section includes audio accompaniment can also be made based on an operational input from the user.
 音楽イベントの撮像画像コンテンツについて、例えばMC(Master of Ceremonies)部分等の曲間の部分は、曲中部分と比較して構図切替のニーズは低いものとなる。
 上記のように音楽伴奏区間のみを対象として構図選択を行うようにすれば、曲間の部分についてまで不要に構図切替が行われてしまうことの防止を図ることができ、構図切替に係る処理負担の軽減を図ることができる。
In the case of captured image content of a music event, the need for composition change is low in inter-song portions, such as MC (Master of Ceremonies) portions, compared to during the middle of a song.
By selecting the composition only for the musical accompaniment section as described above, it is possible to prevent unnecessary composition switching between songs, thereby reducing the processing burden associated with composition switching.
 また、セミオート制御において、情報処理装置1は、予め設定された条件に基づき、構図選択テーブルにおける重み情報を更新する。
 一例として、情報処理装置1は、スイッチャー5によるカメラの選択履歴情報に基づいて重み情報を更新する。この場合、情報処理装置1は、スイッチャー5によるカメラの選択、換言すれば撮像画像の選択が行われるごとに、その撮像画像と構図の情報を選択履歴情報として例えば記憶部19等の所定の記憶装置に記憶する処理を行い、該選択履歴情報に基づき、構図選択テーブルにおける重み情報の更新を行う。
Furthermore, in the semi-automatic control, the information processing device 1 updates the weight information in the composition selection table based on preset conditions.
As an example, the information processing device 1 updates the weight information based on the selection history information of the camera by the switcher 5. In this case, every time the switcher 5 selects a camera, in other words, a captured image is selected, the information processing device 1 performs a process of storing the captured image and information on the composition as selection history information in a predetermined storage device such as the storage unit 19, and updates the weight information in the composition selection table based on the selection history information.
 選択履歴情報に基づく具体的な重み更新の手法としては、例えば、各構図選択テーブルにおける構図ごとの重み情報のうち、スイッチャー5により頻繁に選択されている(選択頻度が一定頻度以上の)構図の重み情報について、重みが低下されるようにすることが考えられる。
 これにより、スイッチャー5において同じ構図が選択され難くなるように重み更新が行われる。
A specific method of updating weights based on selection history information could be, for example, to reduce the weighting of the weighting information for compositions that are frequently selected by the switcher 5 (selection frequency equal to or greater than a certain frequency) among the weighting information for each composition in each composition selection table.
As a result, the weights are updated so that the switcher 5 is less likely to select the same composition.
 また、重み情報は、撮像対象イベントの内容に基づき更新することも考えられる。具体的には、撮像対象イベントの内容として、例えばギターソロ等の楽器のソロパート部分が検出された場合に、該楽器の奏者を撮像対象とする構図の重みを上昇させるように重み情報の更新を行う等が考えられる。
 本例において、楽器のソロパート部分の検出は、例えば撮像対象イベントの音声解析結果に基づき行う。具体的には、例えば前述のように各カメラの撮像画像に付帯されている音声データ、或いはPA機器等で得られる音声データについての音声解析を行った結果に基づき行う。
 なお、楽器のソロパート部分の検出は、ユーザの操作入力に基づき行うことも可能である。
The weight information may also be updated based on the content of the event to be imaged. Specifically, when a solo part of an instrument such as a guitar solo is detected as the content of the event to be imaged, the weight information may be updated to increase the weight of the composition in which the player of the instrument is the image target.
In this example, the detection of the solo part of the instrument is performed based on the results of audio analysis of the event to be imaged, for example, based on the results of audio analysis of the audio data attached to the images captured by each camera as described above, or the audio data obtained by PA equipment, etc.
The detection of the solo part of the instrument can also be performed based on an operational input by the user.
 上記のように楽器のソロパート部分が検出されたことに応じて該楽器の奏者を撮像対象とする構図の重みを大きくすることで、イベントの内容に応じた適切な構図が選択され易くなるようにすることが可能となり、撮像画像コンテンツの質向上を図ることができる。 As described above, by increasing the weight of a composition that captures the player of an instrument in response to the detection of the solo part of that instrument, it becomes easier to select an appropriate composition according to the content of the event, thereby improving the quality of the captured image content.
 ここで、重み情報の更新を行うタイミングについては、少なくとも下記の二例が考えられる。
 第一例は、スイッチャー5による画像選択が行われたことを条件として重み情報を更新する例である。
 これにより、或るカメラ(或る構図)がスイッチャー5により選択されたことに応じて、選択されなかった他カメラについて、どの構図を選択され易くするか(或いは選択され難くするか)についての調整を行うことが可能となる。
 従って、選択されなかったカメラについて、次のスイッチャー5による画像選択に適した構図が選択され易くなるように図ることができ、スイッチャー5が選択対象とする撮像画像に適切な構図による撮像画像が含まれる可能性を高めることが可能となり、撮像画像コンテンツの質向上に繋がる。
Here, there are at least two possible examples of when to update the weight information:
The first example is an example in which the weighting information is updated on the condition that an image has been selected by the switcher 5 .
This makes it possible, in response to a certain camera (certain composition) being selected by the switcher 5, to adjust which composition is made easier (or harder) to select for the other cameras that were not selected.
Therefore, for the camera that was not selected, it is possible to make it easier to select a composition suitable for the next image selection by the switcher 5, and it is possible to increase the possibility that the captured images selected by the switcher 5 will include captured images with an appropriate composition, which leads to an improvement in the quality of the captured image content.
 第二例は、撮像対象イベントの音声解析結果から所定の音変化が検出されたことを条件に重み情報を更新する例である。例えば、歌唱部分から楽器のソロパート部分への変化等、所定の曲調変化が検出されたことを条件に、重み情報を更新することが考えられる。
 これにより、例えばギターソロのパートに遷移したと推定される音変化が検出されたことに応じて、ギター奏者を撮像対象とする構図が選択され易くなるように重み更新を行う等といったように、撮像対象イベントの音の面での内容が特定内容に遷移したことに応じて、該特定内容に応じた適切な構図が選択され易くなるように重み更新を行うことが可能となる。
 従って、撮像画像コンテンツの質向上を図ることができる。
In the second example, the weighting information is updated when a predetermined sound change is detected from the audio analysis result of the imaged event. For example, the weighting information may be updated when a predetermined melody change, such as a change from a singing part to an instrument solo part, is detected.
This makes it possible to perform weight updates so that when the sound content of the event to be imaged transitions to specific content, an appropriate composition that corresponds to the specific content is more likely to be selected, such as by updating weights so that when a sound change that is estimated to have transitioned to a guitar solo part is detected, a composition in which the guitar player is the imaged is more likely to be selected.
Therefore, the quality of the captured image content can be improved.
 確認のため、上記のような実施形態としてのセミオート制御を実現するためにCPU11が実行すべき処理手順の例を図20及び図21のフローチャートを参照して説明する。
 図20は、構図選択テーブルに基づく構図選択及び選択した構図に切り替える構図制御を実現するための処理手順例を示している。
 先ず、ステップS11でCPU11は、構図切替トリガが発生するまで待機する。先の説明から理解されるように、本例では、構図切替トリガの発生条件はスイッチャー5による画像選択が行われ、且つ音楽伴奏区間であるとの条件であり、ステップS11でCPU11は、該条件の成立を待機する処理を行う。
For confirmation, an example of a processing procedure to be executed by the CPU 11 to realize semi-automatic control as the embodiment described above will be described with reference to the flowcharts of FIGS.
FIG. 20 shows an example of a processing procedure for implementing composition control for selecting a composition based on a composition selection table and switching to the selected composition.
First, in step S11, the CPU 11 waits until a composition switching trigger occurs. As will be understood from the above description, in this example, the condition for generating the composition switching trigger is that an image is selected by the switcher 5 and that the image is in a musical accompaniment section. In step S11, the CPU 11 performs a process of waiting for the establishment of the condition.
 構図切替トリガが発生した場合、CPU11はステップS12に進み、対象カメラごとに禁止遷移となる構図を特定する処理を行う。すなわち、前述した禁止遷移構図情報と、スイッチャー5が選択中のカメラの構図の情報(前述したカメラの選択履歴情報に基づく)とに基づき、各カメラの構図選択テーブルにおける構図のうちから次にスイッチャー5により選択された場合に禁止遷移となってしまう構図を「禁止遷移構図」として特定する処理を行う。
 なお確認のため述べておくと、ステップS12の特定処理では、少なくとも何れかの構図選択テーブルにおいて、禁止遷移構図に該当する構図がないとの特定結果が得られる場合もある。
When a composition switching trigger occurs, the CPU 11 proceeds to step S12 and performs a process of identifying a composition that will result in a prohibited transition for each target camera. That is, based on the above-mentioned prohibited transition composition information and information on the composition of the camera currently selected by the switcher 5 (based on the above-mentioned selection history information of the camera), a process of identifying a composition that will result in a prohibited transition when next selected by the switcher 5 from among the compositions in the composition selection table of each camera as a "prohibited transition composition."
For confirmation, in the specification process of step S12, there may be a case where a specification result is obtained that there is no composition that corresponds to the prohibited transition composition in at least any of the composition selection tables.
 ステップS12に続くステップS13でCPU11は、禁止遷移となる構図を除く構図を対象として、構図選択テーブルに基づき構図を選択する処理を行う。すなわち、禁止遷移構図に該当する構図のある構図選択テーブルについては、禁止遷移構図を除く構図を対象として重み情報に基づく構図選択を行う。禁止遷移構図に該当する構図のない構図選択テーブルについては、テーブルにおける各構図を対象として、重み情報に基づく構図選択を行う。
 なお、全ての構図が禁止遷移構図である場合には、他のカメラの選択に対して次の構図選択を見越して構図の決定を行う。
In step S13 following step S12, the CPU 11 performs a process of selecting a composition based on the composition selection table for compositions other than those that are prohibited transitions. That is, for a composition selection table that has a composition that corresponds to a prohibited transition composition, composition selection is performed based on weight information for compositions other than the prohibited transition composition. For a composition selection table that does not have a composition that corresponds to a prohibited transition composition, composition selection is performed based on weight information for each composition in the table.
When all compositions are prohibited transition compositions, the composition is determined in anticipation of the next composition selection with respect to the selection of the other cameras.
 ここで、前述のようにスイッチャー5により画像選択中であるカメラを除外して構図選択テーブルに基づく構図選択を行う場合、ステップS13では、該当するカメラについて構図選択テーブルに基づく構図選択を実行しない。これにより、スイッチャー5により画像選択中であるカメラについて、構図切替が行われてしまうことの防止を図ることができる。 Here, as described above, when composition selection is performed based on the composition selection table, excluding a camera for which an image is being selected by the switcher 5, composition selection based on the composition selection table is not performed for the relevant camera in step S13. This makes it possible to prevent composition switching from being performed for a camera for which an image is being selected by the switcher 5.
 ステップS13に続くステップS14でCPU11は、選択した構図となるように対象カメラの構図を制御する。すなわち、ステップS13で構図選択テーブルに基づき構図選択が行われたカメラを対象カメラとして、該対象カメラの構図が、選択された構図となるように制御を行う。 In step S14 following step S13, the CPU 11 controls the composition of the target camera so that the composition is the selected one. In other words, the camera for which composition selection was performed based on the composition selection table in step S13 is treated as the target camera, and control is performed so that the composition of the target camera is the selected composition.
 ステップS14に続くステップS15でCPU11は、処理終了条件が成立したか否かを判定する。ここでの処理終了条件は、例えば撮像画像コンテンツの生成を終了すべき状態になったこと等、予め図20に示す一連の処理を終了すべきものとして定められた所定条件である。 In step S15 following step S14, the CPU 11 determines whether a processing end condition has been met. The processing end condition here is a predetermined condition that has been set in advance as a condition for ending the series of processes shown in FIG. 20, such as a state in which generation of captured image content should be ended.
 処理終了条件が成立していないと判定した場合、CPU11はステップS11に戻る。これにより、再度の構図切替トリガの発生に応じて、該当するカメラについて、構図選択テーブルに基づく構図選択や選択構図への切替処理が再度実行される。 If it is determined that the processing end condition is not satisfied, the CPU 11 returns to step S11. As a result, in response to the occurrence of another composition switching trigger, composition selection based on the composition selection table and switching to the selected composition are executed again for the corresponding camera.
 一方、処理終了条件が成立したと判定した場合、CPU11は図20に示す一連の処理を終える。 On the other hand, if it is determined that the processing termination condition is met, the CPU 11 ends the series of processing steps shown in FIG. 20.
 図21は、重み情報の更新に係る処理のフローチャートである。
 CPU11はステップS21で、重み更新トリガの発生を待機する。先の説明から理解されるように、重み更新トリガとしては、前述した第一例と第二例とが考えられる。第一例の場合、ステップS21では、スイッチャー5による画像選択を待機する。第二例の場合、ステップS21では、撮像対象イベントの音声解析結果から所定の音変化が検出されること(例えば、歌唱部分から楽器のソロパート部分への変化が検出されること)を待機する。
FIG. 21 is a flowchart of a process related to updating weight information.
In step S21, the CPU 11 waits for the occurrence of a weight update trigger. As will be understood from the above description, the weight update trigger may be the first or second example described above. In the first example, in step S21, the CPU 11 waits for an image selection by the switcher 5. In the second example, in step S21, the CPU 11 waits for a predetermined sound change to be detected from the audio analysis result of the image capture target event (for example, a change from a singing part to a solo part of an instrument to be detected).
 重み更新トリガが発生した場合、CPU11はステップS22に進み、各カメラの構図選択テーブルにおける構図ごとの重みを決定する処理を行う。
 例えば、先に説明したようにスイッチャー5により頻繁に選択される構図が選択され易くなるように重み更新を行う場合には、スイッチャー5による選択頻度が一定頻度以上の構図の重み情報について、より高い数値を決定する。
 また、撮像対象イベントの内容に基づき重みを更新する場合には、例えば楽器のソロパート部分が検出された場合に対応して、該楽器の奏者を撮像対象とする構図の重み情報について、より高い数値を決定する。
If a weight update trigger occurs, the CPU 11 proceeds to step S22 and performs processing for determining a weight for each composition in the composition selection table of each camera.
For example, when updating the weights so that compositions that are frequently selected by the switcher 5 are more likely to be selected as described above, a higher value is determined for the weight information of compositions that are selected by the switcher 5 at a certain frequency or higher.
In addition, when updating the weighting based on the content of the event to be imaged, for example, in response to a case where a solo part of an instrument is detected, a higher value is determined for the weighting information of a composition in which the player of that instrument is the image subject.
 ステップS22に続くステップS23でCPU11は、決定した重みに更新する処理を行う。すなわち、カメラごとの構図選択テーブルにおける重み情報のうち、該当する重み情報の数値を、ステップS22で決定した数値に更新する処理を行う。 In step S23 following step S22, the CPU 11 performs a process of updating the weights to the determined weights. That is, the CPU 11 performs a process of updating the numerical values of the corresponding weight information among the weight information in the composition selection table for each camera to the numerical values determined in step S22.
 ステップS23に続くステップS24でCPU11は、処理終了条件が成立したか否かを判定する。ここでの処理終了条件は、例えば撮像画像コンテンツの生成を終了すべき状態になったこと等、予め図21に示す一連の処理を終了すべきものとして定められた所定条件である。 In step S24 following step S23, the CPU 11 determines whether a processing end condition has been met. The processing end condition here is a predetermined condition that has been set in advance as a condition for ending the series of processes shown in FIG. 21, such as a state in which generation of captured image content should be ended.
 処理終了条件が成立していないと判定した場合、CPU11はステップS21に戻る。これにより、再度の重み更新トリガの発生に応じて、該当する重み情報についての更新が実行される。 If it is determined that the processing termination condition is not met, the CPU 11 returns to step S21. As a result, an update is performed on the corresponding weight information in response to the occurrence of another weight update trigger.
 一方、処理終了条件が成立したと判定した場合、CPU11は図21に示す一連の処理を終える。 On the other hand, if it is determined that the processing termination condition is met, the CPU 11 ends the series of processing steps shown in FIG. 21.
 なお、上記では、構図選択テーブルに基づく構図選択を、スイッチャー5による画像選択が行われたことを条件として実行する例を挙げたが、構図選択テーブルに基づく構図選択は、撮像対象イベントの内容変化に応じて行うこともできる。
 例えば、撮像対象イベントの音声解析結果等に基づき、歌唱部分から楽器のソロパート部分への変化等、所定の曲調変化(イベント内容変化)が検出されたことを条件に、構図選択テーブルに基づく構図選択を行うことが考えられる。
 このように撮像対象イベントの内容変化に応じて構図選択テーブルに基づく構図選択を行うことで、撮像対象イベントの内容変化に応じた適切な構図切替が行われるように図ることができる。
In the above, an example was given in which composition selection based on the composition selection table is performed on the condition that image selection has been performed by the switcher 5, but composition selection based on the composition selection table can also be performed in response to changes in the content of the event to be imaged.
For example, based on the results of audio analysis of the event being imaged, a composition may be selected based on a composition selection table on the condition that a predetermined change in melody (change in event content), such as a change from a singing part to an instrument solo part, is detected.
In this way, by selecting a composition based on the composition selection table in response to a change in the content of the event to be imaged, it is possible to achieve appropriate composition switching in response to the change in the content of the event to be imaged.
 また、構図選択テーブルに基づく構図選択は、前回の構図選択に基づく構図切替からの経過時間に応じて行うことも考えられる。例えば、前回の構図選択に基づく構図切替から一定時間が経過したことを条件に行う等である。 In addition, composition selection based on the composition selection table may be performed according to the amount of time that has elapsed since the composition was switched based on the previous composition selection. For example, composition selection may be performed on the condition that a certain amount of time has elapsed since the composition was switched based on the previous composition selection.
 また、構図選択テーブルに基づく構図選択は、ユーザによる所定の操作入力に応じて行うことも考えられる。この場合、例えば所定ボタンが操作されることで、スイッチャー5により画像選択中のカメラを除くカメラについて、構図選択テーブルに基づく構図選択、及び選択構図への切り替えが行われるようになる。 It is also conceivable that composition selection based on the composition selection table may be performed in response to a specified operational input by the user. In this case, for example, by operating a specified button, composition selection based on the composition selection table and switching to the selected composition are performed for cameras other than the camera for which an image is being selected by the switcher 5.
 また、重み情報の更新については、スイッチャー5によるカメラの選択履歴情報に基づき、スイッチャー5により選択されたことのある構図の重みを低下させているようにすることもできる。
 これにより、スイッチャー5により選択されたことのある構図が選択され難くなるように重み更新が行われ、撮像画像コンテンツにおいて同一構図が頻発してしまうことの防止を図ることができ、コンテンツの質低下防止を図ることができる。
In addition, in updating the weight information, the weight of a composition that has been selected by the switcher 5 can be reduced based on the selection history information of the camera by the switcher 5 .
As a result, the weights are updated so that a composition that has been selected by the switcher 5 becomes less likely to be selected, and it is possible to prevent the same composition from frequently appearing in the captured image content, thereby preventing deterioration in the quality of the content.
 図22及び図23を参照し、セミオート制御の設定手順例を説明する。
 セミオート制御を実行可能とするにあたっては、図22に示すように、設定画面Gs(共通設定モード時)のコントローラ設定領域As3に設けられたコントローラの追加ボタンBp1を操作する。
 追加ボタンBp1が操作されたことに応じて、図示のようにセミオート設定を行うか否かを問うダイアログボックスが表示される。ユーザは、該ダイアログボックスに設けられた「はい」ボタンB7を操作することで、図23に示すようなセミオートパターンの設定画面の表示に遷移させることができる。
 ダイアログボックスに設けられた「いいえ」ボタンB8が操作された場合、先の図8で説明したようなマニュアル操作によるカメラごとの実行指示ボタンBmの設定を行うための通常のコントローラのスロットがコントローラ設定領域As3に追加される。
An example of a procedure for setting semi-automatic control will be described with reference to FIGS.
To enable semi-automatic control, as shown in FIG. 22, the controller add button Bp1 provided in the controller setting area As3 of the setting screen Gs (in the common setting mode) is operated.
In response to the operation of the Add button Bp1, a dialogue box is displayed asking whether or not to perform semi-automatic setting, as shown in the figure. The user can move to the display of a semi-automatic pattern setting screen as shown in FIG. 23 by operating the "Yes" button B7 provided in the dialogue box.
When the "No" button B8 in the dialog box is operated, a normal controller slot is added to the controller setting area As3 for manually setting the execution instruction button Bm for each camera as described above in FIG. 8.
 図23において、セミオートパターンの設定画面には、撮像対象となるアーティストの構成人数を選択するためのチェックボックスcbaが設けられている。具体的に本例では、3ピース、4ピース、5ピース、その他を選択可能とするための四つのチェックボックスcbaが設けられている。これらのチェックボックスcbaは、セミオートパターンの設定画面に表示するアーティストの人員構成パターンの情報が、セミオート制御で対応可能なアーティストの人員構成パターンのうち、該当する人数の人員構成パターンの情報のみとなるようにフィルタリングすることを指示するために設けられている。 In FIG. 23, the semi-automatic pattern setting screen has check boxes cba for selecting the number of members of the artist to be imaged. Specifically, in this example, four check boxes cba are provided to allow selection of 3-piece, 4-piece, 5-piece, and others. These check boxes cba are provided to instruct filtering so that the artist personnel composition pattern information displayed on the semi-automatic pattern setting screen is only information on the corresponding number of members among the artist personnel composition patterns that can be handled by semi-automatic control.
 セミオートパターンの設定画面において、表示される人員構成パターンの情報に対しては、該人員構成パターンを選択するためのチェックボックスcbbが設けられている。
 ユーザは、図示のように表示される人員構成パターンのうちから、撮像対象となるアーティストの人員構成パターンを選択するためのチェックボックスcbbにチェックを入れる操作を行い、OKボタンB9を操作する。
 これに応じ、情報処理装置1は、選択された人員構成パターンに対応して定められた構図選択テーブルが紐付けられたコントローラを生成する。
On the semi-automatic pattern setting screen, for the displayed personnel composition pattern information, a check box cbb is provided for selecting the corresponding personnel composition pattern.
The user checks a check box cbb for selecting the personnel composition pattern of the artist to be imaged from among the personnel composition patterns displayed as shown in the figure, and operates the OK button B9.
In response to this, the information processing device 1 generates a controller to which a composition selection table determined in accordance with the selected personnel composition pattern is linked.
 図示は省略したが、情報処理装置1は、OKボタンB9が操作されたことに応じて、当該コントローラを反映した操作画面Gmの表示を行う。具体的には、構図選択テーブルで選択され得る例えば「ボーカル・UP」や「ギター・WS」等の構図を表す実行指示ボタンBmが配置された操作画面Gmの表示を行う。
 セミオート制御の実行中において、情報処理装置1は、構図選択テーブルに基づき或る構図を選択中である場合には、操作画面Gmにおいて、該選択中の構図を示す実行指示ボタンBmを、選択中でない構図を示す実行指示ボタンBmとは異なる表示態様で表示する処理を行う。
Although not shown in the drawings, the information processing device 1 displays an operation screen Gm reflecting the controller in response to the operation of the OK button B9. Specifically, the information processing device 1 displays an operation screen Gm on which execution instruction buttons Bm representing compositions such as "vocal up" and "guitar work sound" that can be selected from the composition selection table are arranged.
During execution of semi-automatic control, when a certain composition is being selected based on a composition selection table, the information processing device 1 performs processing to display, on the operation screen Gm, an execution instruction button Bm indicating the selected composition in a display mode different from that of the execution instruction button Bm indicating a composition not being selected.
 ここで、情報処理装置1は、操作画面Gm上のセミオートON/OFFボタンB1の操作に応じてセミオート制御のON/OFFを切り替える。 Here, the information processing device 1 switches semi-automatic control ON/OFF in response to the operation of the semi-automatic ON/OFF button B1 on the operation screen Gm.
 なお、セミオート制御は、ユーザ操作に基づきON/OFFするのではなく、予め設定された条件に基づき自動的にON/OFFすることが考えられる。
 例えば、MC中は頻繁な構図変更は好ましくないので、セミオート制御を自動的にOFFすることが考えられる。一方で、演奏中はセミオート制御を自動的にONすることが考えられる。
 或いは、スイッチャー5によるカメラ選択の頻度に応じてセミオート制御を自動的にON/OFFすることも考えられる。例えば、スイッチャー5によるカメラ選択の頻度が高い場合はON、低い場合はOFFとすることが考えられる。
Semi-automatic control may involve automatically turning on/off the device based on preset conditions, rather than on the basis of a user operation.
For example, since frequent composition changes are undesirable during MC, it may be possible to automatically turn off the semi-automatic control, whereas during a performance, it may be possible to automatically turn on the semi-automatic control.
Alternatively, it is also possible to automatically turn semi-automatic control ON/OFF in accordance with the frequency of camera selection by the switcher 5. For example, it is possible to turn semi-automatic control ON when the frequency of camera selection by the switcher 5 is high, and OFF when the frequency of camera selection is low.
 また、セミオート制御をOFFとしたら、これに連動して「じんわりズーム」等の演出系の構図制御もOFFとすることも考えられる。 In addition, if the semi-automatic control is turned off, it is also possible to turn off composition controls such as "gentle zoom" in conjunction with this.
(3-4.実施形態としての構図制御に係る機能構成について)
 図24は、情報処理装置1のCPU11が有する、実施形態としての構図制御に係る機能の説明図であり、CPU11が有する各種機能の機能ブロックと共に、図1に示した親カメラ2、追尾カメラ3、雲台4、スイッチャー5、及び測距・撮像装置6を併せて示している。
(3-4. Functional configuration related to composition control according to the embodiment)
Figure 24 is an explanatory diagram of the functions related to composition control as an embodiment of the invention possessed by the CPU 11 of the information processing device 1, and shows the parent camera 2, tracking camera 3, pan head 4, switcher 5, and distance measurement/imaging device 6 shown in Figure 1, along with functional blocks of various functions possessed by the CPU 11.
 図示のようにCPU11は、キャリブレーション部F1、指定受付部F2、操作受付部F3、構図選択部F4、構図切替制御部F5、重み更新部F6、画像認識処理部F7、画枠算出部F8、座標計算部F9、雲台・カメラ制御部F10、及びカットアウト画像生成部F11としての機能を有する。 As shown in the figure, the CPU 11 has the functions of a calibration unit F1, a designation reception unit F2, an operation reception unit F3, a composition selection unit F4, a composition switching control unit F5, a weight update unit F6, an image recognition processing unit F7, an image frame calculation unit F8, a coordinate calculation unit F9, a pan head/camera control unit F10, and a cutout image generation unit F11.
 キャリブレーション部F1は、測距・撮像装置6により得られる距離画像と追尾カメラ3により得られる撮像画像の双方に写る同一点の同定を行うキャリブレーション処理を行う。
 なお、実施形態におけるキャリブレーション部F1による具体的なキャリブレーション手法の例については後に改めて説明する。
The calibration unit F 1 performs a calibration process to identify the same points that appear in both the distance image obtained by the distance measuring/imaging device 6 and the captured image obtained by the tracking camera 3 .
An example of a specific calibration method performed by the calibration unit F1 in this embodiment will be described later.
 指定受付部F2は、実施形態としての構図制御に係る各種指定を受け付ける処理を行う。 The specification receiving unit F2 performs processing to receive various specifications related to composition control in the embodiment.
 具体的に、指定受付部F2は、追尾対象被写体を、測距・撮像装置6による撮像画像Imsに写る被写体からユーザにより指定させる処理を行う。なお、追尾対象被写体の指定の具体的な受け付け手法については先の図9及び図10を参照して説明済みであるため重複説明は避ける。 Specifically, the designation reception unit F2 performs a process in which the user designates the subject to be tracked from among the subjects appearing in the image Ims captured by the distance measurement and image capture device 6. Note that the specific method of accepting the designation of the subject to be tracked has already been described with reference to Figures 9 and 10, so a duplicate description will be avoided.
 また、指定受付部F2は、先の図12により説明したように、撮像画像Imsの明るさが所定の明るさ以下となったことに応じて、追尾対象被写体の指定を受け付けるための画像として、測距・撮像装置6による距離画像に基づく画像を表示する処理を行う。 In addition, as explained above with reference to FIG. 12, when the brightness of the captured image Ims becomes equal to or lower than a predetermined brightness, the designation receiving unit F2 performs processing to display an image based on the distance image captured by the distance measuring/capturing device 6 as an image for accepting the designation of the subject to be tracked.
 また、指定受付部F2は、先の図11により説明したように、追尾対象被写体の指定に応じて、追尾対象被写体の検出枠Fdに対応する位置に、当該追尾対象被写体の名称情報を表示する処理を行う。 In addition, as described above with reference to FIG. 11, the designation reception unit F2 performs processing to display the name information of the tracking target subject in a position corresponding to the detection frame Fd of the tracking target subject in response to the designation of the tracking target subject.
 さらに指定受付部F2は、先の図11により説明したように、追尾対象被写体が指定されたことに応じて、指定された追尾対象被写体の画像を追尾対象表示領域Atにおける該当する被写体の画像表示領域tiに表示する処理を行う。 Furthermore, as described above with reference to FIG. 11, in response to the designation of a tracking target subject, the designation receiving unit F2 performs processing to display an image of the designated tracking target subject in the image display area ti of the corresponding subject in the tracking target display area At.
 また、指定受付部F2は、先の図13から図15で説明したように、追尾構図の指定を受け付け、縦方向位置ずれ量Vrcと横オフセット量Hofを算出する処理を行う。 The specification receiving unit F2 also receives a specification of the tracking composition, as described above with reference to Figures 13 to 15, and performs processing to calculate the vertical position deviation amount Vrc and the horizontal offset amount Hof.
 また、指定受付部F2は、ユーザが追尾対象被写体について指定した追尾構図となるように追尾カメラ3の構図を制御する指定追尾構図制御の実行指示操作の受け付け、及びセミオート制御の実行指示操作の受け付けを行う。
 本例において、指定追尾構図制御の実行指示操作の受け付けは、操作画面Gmに配置された該当する実行指示ボタンBmの操作受付が該当する。また、本例において、セミオート制御の実行指示操作の受け付けは、前述したセミオートON/OFFボタンB1の操作受付等が該当する。
In addition, the specification reception unit F2 accepts instructions to execute specified tracking composition control, which controls the composition of the tracking camera 3 so that the tracking composition is the tracking composition specified by the user for the subject to be tracked, and accepts instructions to execute semi-automatic control.
In this example, the acceptance of an execution instruction operation of the designated tracking composition control corresponds to the acceptance of an operation of the corresponding execution instruction button Bm arranged on the operation screen Gm. Also, in this example, the acceptance of an execution instruction operation of the semi-automatic control corresponds to the acceptance of an operation of the semi-automatic ON/OFF button B1 described above.
 操作受付部F3は、操作画面Gm上での操作受け付けを行う。この操作受付部F3により、CAM1からCAM6の何れのカメラについて、何れの実行指示ボタンBmが操作されたかが認識される。 The operation reception unit F3 receives operations on the operation screen Gm. This operation reception unit F3 recognizes which execution instruction button Bm has been operated for which camera from CAM1 to CAM6.
 構図選択部F4、構図切替制御部F5、及び重み更新部F6は、セミオート制御を実現するための機能部である。
 構図選択部F4は、前述した構図選択テーブルに基づき各カメラの構図を選択する。
 構図切替制御部F5は、各カメラの構図を構図選択部F4が選択した構図に切り替えるための制御を行う。具体的に、構図切替制御部F5は、構図選択部F4がカメラごとに選択した構図を画枠算出部F8に指示する処理を行う。
The composition selection unit F4, the composition switch control unit F5, and the weight update unit F6 are functional units for realizing semi-automatic control.
The composition selection section F4 selects a composition for each camera based on the composition selection table described above.
The composition switching control unit F5 performs control for switching the composition of each camera to the composition selected by the composition selection unit F4. Specifically, the composition switching control unit F5 performs processing for instructing the image frame calculation unit F8 on the composition selected for each camera by the composition selection unit F4.
 重み更新部F6は、構図選択テーブルにおける重み情報を更新する。具体的な重み情報の更新手法については既に説明済みであるため重複説明は避ける。 The weight update unit F6 updates the weight information in the composition selection table. The specific method for updating the weight information has already been explained, so a duplicate explanation will be avoided.
 画枠算出部F8は、指定追尾構図制御の実行中においては、測距・撮像装置6により得られる距離画像に基づき生成される追尾対象被写体の検出簡易モデルMbdの三次元位置情報に基づいて、追尾対象被写体を追尾するための追尾カメラ3の目標画枠を算出する。
 具体的には、検出簡易モデルMbdの三次元位置情報と、縦方向位置ずれ量Vrc及び横オフセット量Hofとに基づく目標画枠の縦方向中心座標、横方向中心座標を算出する処理を行う。
 また、画枠算出部F8は、操作受付部F3により認識された操作画面Gm上での操作内容に応じた構図となるように目標画枠を算出する。例えば、演出に係る実行指示ボタンBmのうち選択された実行指示ボタンBmに対応する演出の構図制御が実現されるように、目標構図を算出する。
While the specified tracking composition control is being executed, the image frame calculation unit F8 calculates the target image frame of the tracking camera 3 for tracking the tracking target subject based on the three-dimensional position information of the detection simplified model Mbd of the tracking target subject generated based on the distance image obtained by the ranging/imaging device 6.
Specifically, the vertical and horizontal center coordinates of the target image frame are calculated based on the three-dimensional position information of the detection simple model Mbd, the vertical position deviation amount Vrc, and the horizontal offset amount Hof.
Further, the image frame calculation unit F8 calculates a target image frame so as to obtain a composition according to the operation content on the operation screen Gm recognized by the operation reception unit F3. For example, the target composition is calculated so as to realize the composition control of the performance corresponding to the execution instruction button Bm selected from among the execution instruction buttons Bm related to the performance.
 また、画枠算出部F8は、セミオート制御中には、構図切替制御部F5によって指示された構図が実現されるようにするための目標画枠の算出を行う。 In addition, during semi-automatic control, the image frame calculation unit F8 calculates a target image frame so that the composition instructed by the composition switching control unit F5 is realized.
 座標計算部F9は、画枠算出部F8が算出した追尾カメラ3についての目標画枠の情報(ワールド座標系での座標情報)を、追尾カメラ3の座標系での座標情報に変換する。この座標変換には、キャリブレーション部F1によるキャリブレーション処理結果から求められた座標変換行列が用いられる。 The coordinate calculation unit F9 converts the information on the target image frame of the tracking camera 3 calculated by the image frame calculation unit F8 (coordinate information in the world coordinate system) into coordinate information in the coordinate system of the tracking camera 3. For this coordinate conversion, a coordinate conversion matrix obtained from the calibration process results by the calibration unit F1 is used.
 雲台・カメラ制御部F10は、座標計算部F9による座標変換が行われた画枠の情報に基づき、該画枠の情報が示す範囲を撮像する構図が得られるように、追尾カメラ3ごとに、必要に応じて雲台4のパン、チルトの制御、及び追尾カメラ3のズーム制御を行う。
 これにより、各追尾カメラ3の構図を、目標とする構図に制御することが可能となる。
The tripod head/camera control unit F10 controls the pan and tilt of the tripod head 4 and the zoom of the tracking camera 3 as necessary for each tracking camera 3, so as to obtain a composition that captures the range indicated by the image frame information that has been coordinate-converted by the coordinate calculation unit F9.
This makes it possible to control the composition of each tracking camera 3 to a target composition.
 カットアウト画像生成部F11は、画枠算出部F8が算出した仮想カメラについての画枠の情報に従って、親カメラ2による撮像画像に対し必要に応じて画像切り出しを行って、CAM4、CAM5、CAM6の撮像画像を生成する。 The cutout image generating unit F11 performs image cropping as necessary on the image captured by the parent camera 2 according to the image frame information for the virtual camera calculated by the image frame calculating unit F8, and generates captured images for CAM4, CAM5, and CAM6.
 画像認識処理部F7は、親カメラ2による撮像画像、各追尾カメラ3による撮像画像を入力可能とされ、入力された撮像画像について、画像認識処理を行う。ここでの画像認識処理は、人物としての被写体についてのボーン推定処理が少なくとも含まれる。
 本実施形態では、画像認識処理部F7による各追尾カメラ3の撮像画像についての画像認識結果、具体的には、ボーン推定処理により生成された被写体の簡易モデルの情報は、キャリブレーション部F1によるキャリブレーション処理に用いられる。
The image recognition processing unit F7 can receive images captured by the parent camera 2 and images captured by each tracking camera 3, and performs image recognition processing on the received images. The image recognition processing here includes at least a bone estimation process for a subject as a person.
In this embodiment, the image recognition results of the image recognition processing unit F7 for the images captured by each tracking camera 3, specifically, information on the simple model of the subject generated by the bone estimation processing, are used for the calibration processing by the calibration unit F1.
<4.処理手順>
 上記により説明した実施形態としての構図制御に係る機能を実現するためにCPU11が実行すべき具体的な処理手順例について、図25から図28のフローチャートを参照して説明する。
<4. Processing Procedure>
A specific example of a processing procedure to be executed by the CPU 11 in order to realize the function relating to the composition control of the embodiment described above will be described with reference to the flowcharts of FIGS.
 図25は、ユーザによる追尾対象被写体の指定時に対応した画面表示に係る処理手順例を示している。
 この図に示す処理が実行されるにあたっては、表示部17上に操作画面Gmが表示されているとする。
FIG. 25 shows an example of a processing procedure relating to a screen display corresponding to a tracking target subject designated by the user.
It is assumed that the operation screen Gm is displayed on the display unit 17 when the process shown in this figure is executed.
 先ず、CPU11はステップS101で、操作画面Gmにおける追尾対象表示領域Atの何れかの対象の個別表示領域が操作されるまで待機する。
 何れかの個別表示領域が操作された場合、CPU11はステップS102に進み、測距・撮像装置6の撮像画像Imsを操作画面Gm上に未表示か否かを判定する。
 撮像画像Imsを未表示であれば、CPU11はステップS103に進み、測距・撮像装置6の撮像画像Imsの表示処理を実行する。例えば、各測距・撮像装置6の撮像画像Imsを、操作画面Gmにおける演出領域Are上に重畳表示する処理を行う。
 ステップS103の表示処理を実行したことに応じ、CPU11はステップS104に処理を進める。
First, in step S101, the CPU 11 waits until an individual display area of any target in the tracking target display area At on the operation screen Gm is operated.
If any of the individual display areas has been operated, the CPU 11 proceeds to step S102 and determines whether or not the image Ims captured by the distance measuring and imaging device 6 has not yet been displayed on the operation screen Gm.
If the captured image Ims has not been displayed, the CPU 11 proceeds to step S103 and executes a process of displaying the captured image Ims of the distance measuring/imaging device 6. For example, the CPU 11 executes a process of superimposing and displaying the captured image Ims of each distance measuring/imaging device 6 on the performance area Are of the operation screen Gm.
After executing the display process of step S103, the CPU 11 advances the process to step S104.
 一方、ステップS102において、撮像画像Imsを未表示ではないと判定した場合、CPU11はステップS103の表示処理をパスしてステップS104に処理を進める。すなわち、既に何れかの追尾対象被写体の指定操作が行われたこと等に応じて操作画面Gmに撮像画像Imsが既に表示された状態であった場合には、ステップS103の表示処理は実行されない。 On the other hand, if it is determined in step S102 that the captured image Ims is not undisplayed, the CPU 11 skips the display process of step S103 and proceeds to step S104. In other words, if the captured image Ims is already displayed on the operation screen Gm in response to an operation to designate a subject to be tracked, for example, the display process of step S103 is not executed.
 ステップS104でCPU11は、検出枠Fdに対する操作(検出枠Fdの選択操作)を待機し、検出枠Fdに対する操作があった場合は、ステップS105に進み、操作された検出枠Fdの被写体と操作された対象との対応づけ処理を行う。すなわち、操作された検出枠Fd内に写る被写体と、ステップS101で個別表示領域が操作された被写体とを対応づける処理を行う。 In step S104, the CPU 11 waits for an operation on the detection frame Fd (a selection operation on the detection frame Fd), and if an operation on the detection frame Fd has been performed, the process proceeds to step S105, where the CPU 11 performs a process of matching the subject of the operated detection frame Fd with the operated target. In other words, the CPU 11 performs a process of matching the subject appearing within the operated detection frame Fd with the subject whose individual display area was operated in step S101.
 ステップS105に続くステップS106でCPU11は、検出枠Fdに対する対象名称情報の表示処理を行う。すなわち、ステップS104で検出枠Fdが操作された被写体が写る検出枠Fdに対応する位置に、ステップS101で個別表示領域が操作された被写体に設定された名称情報を表示する処理を行う。 In step S106 following step S105, the CPU 11 performs a process of displaying the target name information for the detection frame Fd. That is, the CPU 11 performs a process of displaying the name information set for the subject whose individual display area was operated in step S101 at a position corresponding to the detection frame Fd in which the subject whose detection frame Fd was operated in step S104 appears.
 ステップS106に続くステップS107でCPU11は、追尾対象表示領域Atの該当する画像表示領域tiに指定被写体の撮像画像を表示する処理を行う。すなわち、ステップS101で操作された個別表示領域における画像表示領域tiに対し、追尾対象被写体として指定された被写体の撮像画像(測距・撮像装置6による撮像画像)、具体的には、撮像画像Imsから抽出した画像を表示する処理を行う。 In step S107 following step S106, the CPU 11 performs processing to display the captured image of the designated subject in the corresponding image display area ti of the tracking target display area At. That is, the CPU 11 performs processing to display the captured image of the subject designated as the tracking target subject (image captured by the distance measurement/imaging device 6), specifically, an image extracted from the captured image Ims, in the image display area ti in the individual display area operated in step S101.
 ステップS107に続くステップS108でCPU11は、処理終了であるか否か、すなわち図25に示す一連の処理を終了すべきとして予め定められた所定条件が成立したか否かを判定する。
 ステップS108において、処理終了ではないと判定とした場合、CPU11はステップS101に戻る。これにより、別の追尾対象被写体の指定受付や、追尾対象被写体が指定された際の検出枠Fdに対する指定被写体の名称情報表示等を行うことができる。
In step S108 following step S107, the CPU 11 determines whether or not the process has ended, that is, whether or not a predetermined condition has been established under which the series of processes shown in FIG. 25 should be ended.
If it is determined in step S108 that the process is not complete, the CPU 11 returns to step S101. This makes it possible to accept the designation of another tracking target subject, display the name information of the designated subject in the detection frame Fd when a tracking target subject is designated, and so on.
 CPU11は、ステップS108で処理終了であると判定した場合は図25に示す一連の処理を終える。 If the CPU 11 determines in step S108 that the processing has ended, it ends the series of processing steps shown in FIG. 25.
 図26は、操作画面Gmに表示した撮像画像Imsの明るさに応じた表示切り替えに係る処理のフローチャートである。
 CPU11はステップS201で、測距・撮像装置6の撮像画像Imsの明るさ検出処理を実行する。例えば、撮像画像Imsの平均輝度値を検出する処理を行う。
FIG. 26 is a flowchart of a process related to display switching according to the brightness of the captured image Ims displayed on the operation screen Gm.
In step S201, the CPU 11 executes a brightness detection process for the captured image Ims of the distance measurement and image capture device 6. For example, a process for detecting an average luminance value of the captured image Ims is performed.
 ステップS201に続くステップS202でCPU11は、明るさが所定値以下か否か、具体的には例えば上記の平均輝度値が所定値以下か否かを判定する。
 例えば平均輝度値が所定値以下であり、明るさが所定値以下であると判定した場合、CPU11はステップS203に進み、距離画像重畳中か否かを判定する。すなわち、撮像画像Imsに対し測距・撮像装置6による距離画像を重畳表示中か否かを判定する。
 距離画像を重畳表示中でなければ、CPU11はステップS204に進み、距離画像の重畳処理、すなわち表示中の撮像画像Imsに測距・撮像装置6による距離画像を重畳表示する処理を行い、ステップS207に処理を進める。
In step S202 following step S201, the CPU 11 determines whether or not the brightness is equal to or lower than a predetermined value, specifically, for example, whether or not the above-mentioned average luminance value is equal to or lower than a predetermined value.
For example, if it is determined that the average luminance value is equal to or lower than a predetermined value and the brightness is equal to or lower than a predetermined value, the CPU 11 proceeds to step S203 to determine whether or not a distance image is being superimposed, i.e., whether or not a distance image captured by the distance measuring/imaging device 6 is being superimposed on the captured image Ims.
If the distance image is not being superimposed, the CPU 11 proceeds to step S204, where it performs a distance image superimposing process, i.e., a process of superimposing the distance image captured by the distance measuring/imaging device 6 on the captured image Ims being displayed, and then proceeds to step S207.
 一方CPU11は、ステップS203で距離画像重畳中ではないと判定した場合は、ステップS204の重畳処理をパスしてステップS207に処理を進める。 On the other hand, if the CPU 11 determines in step S203 that the distance image is not being superimposed, it skips the superimposition process in step S204 and proceeds to step S207.
 また、CPU11は、先のステップS202で明るさが所定値以下ではないと判定した場合は、ステップS205に進んで距離画像重畳中か否かを判定し、距離画像重畳中であればステップS206の重畳停止処理、すなわち距離画像の重畳表示を停止する処理を行った上で、ステップS207に処理を進める。
 一方CPU11は、ステップS205で距離画像重畳中ではないと判定した場合は、ステップS206の重畳停止処理をパスしてステップS207に処理を進める。
Furthermore, if the CPU 11 determines in the previous step S202 that the brightness is not below the predetermined value, the process proceeds to step S205 to determine whether or not the distance image is being superimposed, and if the distance image is being superimposed, the process proceeds to step S206, which is a process to stop the superimposition display of the distance image, and then the process proceeds to step S207.
On the other hand, if it is determined in step S205 that the distance image is not being superimposed, the CPU 11 skips the superimposition stop process in step S206 and advances the process to step S207.
 ステップS207でCPU11は、処理終了か否かを判定し、処理終了でないと判定した場合はステップS201に戻り、処理終了であると判定した場合は図26に示す一連の処理を終える。 In step S207, the CPU 11 determines whether or not processing has ended. If it determines that processing has not ended, the process returns to step S201, and if it determines that processing has ended, the process ends the series of steps shown in FIG. 26.
 図27は、ユーザによる追尾構図の指定に応じて実行すべき処理のフローチャートである。
 CPU11はステップS301で、追尾構図の指定が完了するまで待機する。具体的に本例では、先の図13に示した構図指定画面における終了ボタンB6が操作されるまで待機する処理を行う。
FIG. 27 is a flowchart of a process to be executed in response to a tracking composition designated by a user.
In step S301, the CPU 11 waits until the designation of the tracking composition is completed. Specifically, in this example, the CPU 11 performs a process of waiting until the end button B6 on the composition designation screen shown in FIG.
 終了ボタンB6が操作され、追尾構図の指定が完了したと判定した場合、CPU11はステップS302に進み、画枠Fsの縦中心線と仮想簡易モデル中心線との交点を算出する処理を行う。すなわち、図14Bにより説明した交点Jとしての、画枠Fsの縦方向中心線Vcと仮想簡易モデルMbvの横方向中心線との交点を算出する処理を行う。 If it is determined that the end button B6 has been operated and the specification of the tracking composition has been completed, the CPU 11 proceeds to step S302 and performs processing to calculate the intersection between the vertical center line of the image frame Fs and the center line of the virtual simple model. In other words, the CPU 11 performs processing to calculate the intersection between the vertical center line Vc of the image frame Fs and the horizontal center line of the virtual simple model Mbv, which is the intersection J described with reference to FIG. 14B.
 ステップS302に続くステップS303でCPU11は、仮想簡易モデルMbvの身長を基準とした縦方向位置ずれ量Vrcを算出する。すなわち、交点Jの縦方向位置を前述した第一縦スケーラーによりスケーリングした値を縦方向位置ずれ量Vrcとして算出する。 In step S303 following step S302, the CPU 11 calculates the vertical position deviation amount Vrc based on the height of the virtual simple model Mbv. In other words, the vertical position of the intersection point J is scaled by the first vertical scaler described above to calculate the vertical position deviation amount Vrc.
 ステップS303に続くステップS304でCPU11は、画枠Fsの幅を基準とした交点Jの横オフセット量Hofを算出する。すなわち、前述した横スケーラーにより交点Jの横方向位置(仮想簡易モデルMbvの横方向中心線の横方向位置)をスケーリングした値を横オフセット量Hofとして算出する。 In step S304 following step S303, the CPU 11 calculates the horizontal offset amount Hof of the intersection point J based on the width of the image frame Fs. That is, the horizontal offset amount Hof is calculated by scaling the horizontal position of the intersection point J (the horizontal position of the horizontal center line of the virtual simplified model Mbv) using the horizontal scaler described above.
 ステップS304に続くステップS305でCPU11は、構図指定時のズーム操作から求まるズーム量Zrの情報と、縦方向位置ずれ量Vrc及び横オフセット量Hofとを記憶する処理、例えば記憶部19等の所定の記憶装置に記憶させる処理を行う。 In step S305 following step S304, the CPU 11 performs a process of storing information on the zoom amount Zr obtained from the zoom operation when the composition was specified, the vertical position deviation amount Vrc, and the horizontal offset amount Hof, for example, a process of storing them in a predetermined storage device such as the storage unit 19.
 CPU11はステップS305の処理を実行したことに応じて図27に示す一連の処理を終える。 The CPU 11 ends the series of processes shown in FIG. 27 after executing the process of step S305.
 図28は、指定された追尾構図を実現するための目標画枠の算出に係る処理のフローチャートである。
 CPU11はステップS401で、追尾対象の検出簡易モデルMbdの三次元座標情報を取得する処理を行う。具体的に本例では、追尾対象被写体の検出簡易モデルMbdの三次元座標情報を測距・撮像装置6から取得する処理を行う。
FIG. 28 is a flowchart of a process relating to calculation of a target image frame for realizing a specified tracking composition.
In step S401, the CPU 11 performs a process of acquiring three-dimensional coordinate information of the detection simple model Mbd of the tracking target. Specifically, in this example, the CPU 11 performs a process of acquiring the three-dimensional coordinate information of the detection simple model Mbd of the tracking target subject from the distance measuring/imaging device 6.
 ステップS401に続くステップS402でCPU11は、ケース判定処理を実行する。すなわち、記憶された縦方向位置ずれ量Vrcの値に基づき、前述したケース1からケース4の何れのケースに該当するかを判定する。 In step S402 following step S401, the CPU 11 executes a case determination process. That is, based on the stored value of the vertical position deviation amount Vrc, it determines which of the above-mentioned cases 1 to 4 applies.
 ケース1であった場合、CPU11はステップS403に進んで、ケース1に応じた目標画枠の中心座標算出処理を実行し、ステップS407に処理を進める。また、ケース2であった場合、CPU11はステップS404に進んでケース2に応じた目標画枠の中心座標算出処理を実行し、ステップS407に処理を進め、ケース3であった場合、CPU11はステップS405に進んでケース3に応じた目標画枠の中心座標算出処理を実行し、ステップS407に処理を進める。また、ケース4であった場合、CPU11はステップS406に進んでケース4に応じた目標画枠の中心座標算出処理を実行し、ステップS406に処理を進める。
 なお、ケース1からケース4の各ケースに応じた目標画枠の中心座標算出処理の具体例については既に説明済みであるため、重複説明は避ける。
If the case is case 1, the CPU 11 proceeds to step S403 to execute a center coordinate calculation process of the target image frame according to case 1, and proceeds to step S407. If the case is case 2, the CPU 11 proceeds to step S404 to execute a center coordinate calculation process of the target image frame according to case 2, and proceeds to step S407. If the case is case 3, the CPU 11 proceeds to step S405 to execute a center coordinate calculation process of the target image frame according to case 3, and proceeds to step S407. If the case is 4, the CPU 11 proceeds to step S406 to execute a center coordinate calculation process of the target image frame according to case 4, and proceeds to step S406.
Note that specific examples of the process of calculating the center coordinates of the target image frame for each of Cases 1 to 4 have already been described, so a duplicate description will be avoided.
 ステップS407でCPU11は、算出した目標画枠の中心座標と記憶されたズーム量Zrの情報とに基づき対象のカメラのパン、チルト、ズームを制御する処理を行う。 In step S407, the CPU 11 performs processing to control the pan, tilt, and zoom of the target camera based on the calculated center coordinates of the target image frame and the stored zoom amount Zr information.
 ステップS407の処理を実行したことに応じ、CPU11は図28に示す一連の処理を終える。 After executing the process of step S407, the CPU 11 ends the series of processes shown in FIG. 28.
<5.キャリブレーションについて>
 キャリブレーション部F1によるキャリブレーション処理について説明する。
 先に触れたように、実施形態におけるキャリブレーション処理は、各追尾カメラ3と各測距・撮像装置6との位置関係を把握するための処理であり、具体的には、各測距・撮像装置6と各追尾カメラ3との間で、測距・撮像装置6により得られる距離画像と追尾カメラ3により得られる撮像画像の双方に写る同一点の同定を行う処理である。
<5. About calibration>
The calibration process performed by the calibration unit F1 will now be described.
As mentioned earlier, the calibration process in this embodiment is a process for understanding the positional relationship between each tracking camera 3 and each ranging/imaging device 6, and more specifically, a process for identifying the same points that appear in both the distance image obtained by the ranging/imaging device 6 and the image obtained by the tracking camera 3 between each ranging/imaging device 6 and each tracking camera 3.
 撮像対象が例えば音楽ライブイベント等である場合、キャリブレーション処理は、ステージ上でイベント開始に向けた様々な準備作業が行われている下で実行しなければならない場合が多く、そのような場合に、従来通りのテストボードを用いたキャリブレーション処理を行っていると、キャリブレーションのためにステージ上を占有しなければならず、準備作業の停滞を強いるものとなってしまい、望ましくない。 If the subject of imaging is, for example, a live music event, the calibration process must often be performed while various preparations for the start of the event are being carried out on stage. In such cases, if calibration is performed using a conventional test board, the stage must be occupied for calibration, which causes a delay in the preparation work, and is undesirable.
 このような事情に鑑み、本実施形態では、測距・撮像装置6により得られる距離画像から生成される被写体の簡易モデルであるセンサ装置側簡易モデルと、追尾カメラ3により得られる撮像画像から生成される被写体の簡易モデルであるカメラ側簡易モデルとの間での同一部位の位置を同定するキャリブレーション処理を実行する。 In light of these circumstances, in this embodiment, a calibration process is performed to identify the positions of identical parts between a sensor device side simple model, which is a simple model of the subject generated from a distance image obtained by the distance measurement/imaging device 6, and a camera side simple model, which is a simple model of the subject generated from an image obtained by the tracking camera 3.
 具体的には、図29に例示するように、キャリブレーション用の被写体としての人物50をステージ上に配置し、この人物50についてのセンサ装置側簡易モデルとカメラ側簡易モデルとの間で、同一部位の位置を同定するキャリブレーション処理を行う。
 図29に示すように、人物50についてのセンサ装置側簡易モデルの或る部位の座標はXYZの三次元空間座標=P(x,y,z)により表されるものであるのに対し、人物50についてのカメラ側簡易モデルの同部位の座標はカメラ座標系(uv座標系)における座標=Q(u,v)で表されるものである。
 この場合のキャリブレーション処理では、このように人物50の或る部位について、センサ装置側簡易モデル側で検出される三次元位置とカメラ側簡易モデル側で検出されるuv座標系位置とを同定すればよい。
Specifically, as shown in FIG. 29, a person 50 is placed on a stage as a subject for calibration, and a calibration process is performed to identify the positions of identical parts between a simple model on the sensor device side and a simple model on the camera side of this person 50.
As shown in Figure 29, the coordinates of a certain part of the sensor device side simple model of person 50 are represented by the XYZ three-dimensional spatial coordinates = P N (x N , y N , z N ), while the coordinates of the same part of the camera side simple model of person 50 are represented by coordinates in the camera coordinate system (uv coordinate system) = Q N (u N , v N ).
In the calibration process in this case, it is sufficient to identify the three-dimensional position detected on the sensor device side simple model and the uv coordinate system position detected on the camera side simple model for a certain part of the person 50 in this manner.
 この場合のキャリブレーション時には、人物50のトラッキング機能により、ステージ上で人物50が移動すること許容できるため、キャリブレーションを実行することがイベントの開始準備作業の妨げとならないように図ることができる。 In this case, during calibration, the tracking function of person 50 allows person 50 to move around on stage, so that performing calibration does not interfere with preparations for the start of the event.
 本実施形態では、キャリブレーション処理の手法として第一手法と第二手法を提案する。
 図30は、第一手法としてのキャリブレーション処理手法についての説明図である。
 第一手法では、キャリブレーションのためのデータサンプリングを、対象とする測距・撮像装置6を切り替えながら行う。この第一手法では、キャリブレーションのためのデータサンプリングを、測距・撮像装置6の台数と同じ回数行うことになる。
In this embodiment, a first method and a second method are proposed as calibration processing methods.
FIG. 30 is an explanatory diagram of a calibration processing technique as the first technique.
In the first method, data sampling for calibration is performed while switching the target distance measuring/image capturing device 6. In this first method, data sampling for calibration is performed the same number of times as the number of distance measuring/image capturing devices 6.
 具体的なキャリブレーションの実行手順例を図31のフローチャートに示す。
 先ず、ユーザはステップS51で、キャリブレーションの対象とする測距・撮像装置6を一つ選択する。
 続くステップS52でユーザは、全てのカメラ(全ての追尾カメラ3)のパン、チルト、ズームを選択した測距・撮像装置6の測距範囲を写すように調整する。
A specific example of the procedure for performing calibration is shown in the flow chart of FIG.
First, in step S51, the user selects one distance measuring and image capturing device 6 to be calibrated.
In the next step S52, the user adjusts the pan, tilt and zoom of all the cameras (all the tracking cameras 3) so that the distance measurement range of the selected distance measurement/image capture device 6 is captured.
 次いで、ユーザはステップS53で、キャリブレーション用サンプリング処理の開始指示を情報処理装置1に対して行う。ここで言うキャリブレーション用サンプリング処理とは、ステージ上の人物50について生成されたセンサ装置側簡易モデルの所定部位の座標情報(三次元座標)と、同じく人物50について生成されたカメラ側簡易モデルの所定部位の座標情報(uv座標)とをキャリブレーションのためのサンプルデータとして取得する処理を意味するものである。 Then, in step S53, the user instructs the information processing device 1 to start a sampling process for calibration. The sampling process for calibration here refers to a process of acquiring coordinate information (three-dimensional coordinates) of a specified part of the simple model on the sensor device side generated for the person 50 on the stage, and coordinate information (uv coordinates) of a specified part of the simple model on the camera side generated for the person 50, as sample data for calibration.
 ステップS53に続くステップS54では、キャリブレーションの被写体となる人物50が両手を挙げながら選択した測距・撮像装置6の測距範囲を移動する。人物50が両手を挙げることで、ステージ上に人物50以外の人物が存在する場合であっても、情報処理装置1側で人物50の認識を行うことができる。 In step S54 following step S53, person 50, who is the subject of the calibration, moves through the selected distance measurement range of distance measurement/image capture device 6 while raising both hands. By having person 50 raise both hands, person 50 can be recognized by information processing device 1 even if there is a person other than person 50 on the stage.
 そして、ステップS54に続くステップS55では、十分なサンプルが得られたか否かが判断され、十分なサンプルが得られてなければステップ54の人物50の移動が継続され、十分なサンプルが得られた場合には、ステップS56でユーザは、キャリブレーション用サンプリング処理の終了指示を情報処理装置1に対して行う。 Then, in step S55 following step S54, it is determined whether or not sufficient samples have been obtained. If sufficient samples have not been obtained, the movement of person 50 in step 54 continues. If sufficient samples have been obtained, in step S56, the user instructs information processing device 1 to end the calibration sampling process.
 第一手法においては、この図31に示した手順による作業を、対象とする測距・撮像装置6を切り替えながら、測距・撮像装置6ごとに行う。 In the first method, the procedure shown in FIG. 31 is performed for each distance measurement/imaging device 6 while switching between the target distance measurement/imaging devices 6.
 図32は、第一手法が採られる場合に情報処理装置1のCPU11が実行する処理のフローチャートである。
 ステップS501でCPU11は、サンプリング処理開始を待機する。具体的には、図31におけるステップS53において行われるキャリブレーション用サンプリング処理の開始指示を待機するものである。
FIG. 32 is a flowchart of a process executed by the CPU 11 of the information processing device 1 when the first method is adopted.
In step S501, the CPU 11 waits for the start of sampling processing. Specifically, the CPU 11 waits for an instruction to start the sampling processing for calibration performed in step S53 in FIG.
 サンプリング処理開始であると判定した場合、CPU11はステップS502に進み、測距・撮像装置6により得られた簡易モデル情報を取得する。すなわち、対象として選択された測距・撮像装置6により得られるセンサ装置側簡易モデルの情報(例えば、該センサ装置側簡易モデルの特定部位の座標情報)を取得する。 If it is determined that the sampling process has started, the CPU 11 proceeds to step S502 and acquires the simple model information obtained by the distance measurement/imaging device 6. That is, information on the sensor device side simple model obtained by the distance measurement/imaging device 6 selected as the target (for example, coordinate information of a specific part of the sensor device side simple model) is acquired.
 ステップS502に続くステップS503でCPU11は、キャリブレーション用の被写体の簡易モデル情報を抽出し、記憶する処理を行う。すなわち、取得したセンサ装置側簡易モデルの情報のうち、両手を挙げている人物50についての情報のみを抽出し、例えば記憶部19等の所定の記憶装置に記憶させる処理を行う。 In step S503 following step S502, the CPU 11 extracts and stores simple model information of the subject for calibration. That is, from the acquired information on the sensor device side simple model, only information on the person 50 with both hands raised is extracted, and the information is stored in a predetermined storage device such as the storage unit 19.
 ステップS504に続くステップS505でCPU11は、各カメラ(各追尾カメラ3)の撮像画像についての画像認識処理を実行し、さらに続くステップS505で、各カメラの画像認識処理結果からキャリブレーション用の被写体(つまり人物50)の簡易モデル情報を抽出し、記憶する処理を行う。 In step S505 following step S504, the CPU 11 executes image recognition processing on the images captured by each camera (each tracking camera 3), and in the subsequent step S505, extracts and stores simple model information of the calibration subject (i.e., person 50) from the image recognition processing results of each camera.
 ステップS505に続くステップS506でCPU11は、サンプリング処理終了か否か、つまり図31におけるステップS56において行われるキャリブレーション用サンプリング処理の終了指示が行われたか否かを判定する。
 サンプリング処理終了ではないと判定した場合、CPU11はステップS502に戻る。つまりこの場合は、キャリブレーション用サンプリング処理が継続される。
In step S506 following step S505, the CPU 11 determines whether or not the sampling process has ended, that is, whether or not an instruction to end the sampling process for calibration performed in step S56 in FIG. 31 has been issued.
If it is determined that the sampling process has not ended, the CPU 11 returns to step S502, so that the calibration sampling process continues.
 一方、サンプリング処理終了であると判定した場合、CPU11はステップS507に進み、記憶された簡易モデル情報に基づき、測距・撮像装置6と各カメラとの間での同一点の同定処理を行い、図32に示す一連の処理を終える。 On the other hand, if it is determined that the sampling process has ended, the CPU 11 proceeds to step S507, and performs a process of identifying identical points between the distance measurement/image capture device 6 and each camera based on the stored simple model information, and then ends the series of processes shown in FIG. 32.
 ここで、図32で説明した第一手法に対応するCPU11の処理は、次のように表現することができる。
 すなわち、対象とされた一つの測距・撮像装置6の測距範囲を各追尾カメラ3が撮像するように構図調整された状態でセンサ装置側簡易モデルとカメラ側簡易モデルそれぞれの部位の位置のサンプリングを行う単位サンプリング処理を、対象となる測距・撮像装置6が切り替えられる下で測距・撮像装置6ごとに実行する、という処理である。
Here, the process of the CPU 11 corresponding to the first technique described with reference to FIG. 32 can be expressed as follows.
In other words, the composition is adjusted so that each tracking camera 3 captures the ranging range of a targeted ranging/imaging device 6, and a unit sampling process is performed to sample the positions of each part of the simple model on the sensor device side and the simple model on the camera side, and the target ranging/imaging device 6 is switched, for each ranging/imaging device 6.
 上記の単位サンプリング処理が測距・撮像装置6ごとに行われることで、各追尾カメラ3と各測距・撮像装置6との間のキャリブレーション処理(同一点の同定)に必要なサンプルデータを取得することができる。
 各単位サンプリング処理では、各追尾カメラ3の撮像範囲を、対象とする測距・撮像装置6の測距範囲に対して十分にオーバーラップさせることが可能となるため、追尾カメラ3ごとに、対象とする測距・撮像装置6との間のキャリブレーション処理を直接的に行うことができる。従って、上記のように対象とする測距・撮像装置6を切り替えながら単位サンプリング処理を測距・撮像装置6ごとに行うことで、各追尾カメラ3と各測距・撮像装置6との間のキャリブレーション処理を精度良く行うことができる。
By performing the above-mentioned unit sampling process for each distance measuring/image capturing device 6, it is possible to obtain sample data necessary for calibration processing (identification of the same points) between each tracking camera 3 and each distance measuring/image capturing device 6.
In each unit sampling process, the imaging range of each tracking camera 3 can be made to sufficiently overlap with the distance measurement range of the target distance measurement/imaging device 6, so that the calibration process can be directly performed between the target distance measurement/imaging device 6 and each tracking camera 3. Therefore, by performing the unit sampling process for each distance measurement/imaging device 6 while switching the target distance measurement/imaging device 6 as described above, the calibration process between each tracking camera 3 and each distance measurement/imaging device 6 can be performed with high accuracy.
 図33は、第二手法としてのキャリブレーション処理手法についての説明図である。
 第二手法は、キャリブレーション用サンプリング処理の必要回数を1回に抑えることを可能とするための手法である。
 全ての追尾カメラ3の撮像範囲を全ての測距・撮像装置6の測距範囲に対して十分にオーバーラップさせることができれば、キャリブレーション用サンプリング処理の回数は1回に抑えられる。しかしながら、本例における追尾カメラ3と測距・撮像装置6の配置態様によると、追尾カメラ3-1が、対向する側(上手側)に配置された測距・撮像装置6-2、6-4の測距範囲に自身の撮像範囲を十分にオーバーラップさせようとすると、同じ側(下手側)に配置された測距・撮像装置6-1、6-3の測距範囲に対して自身の撮像範囲を十分にオーバーラップさせることができなくなってしまう。また、追尾カメラ3-2についても同様に、該追尾カメラ3-2が、対向する側(下手側)に配置された測距・撮像装置6-1、6-3の測距範囲に自身の撮像範囲を十分にオーバーラップさせようとすると、同じ側(上手側)に配置された測距・撮像装置6-2、6-4の測距範囲に対して自身の撮像範囲を十分にオーバーラップさせることができなくなってしまう。
 撮像範囲を測距範囲に十分にオーバーラップさせることができない関係となる追尾カメラ3と測距・撮像装置6との間では、直接的に同一点の同定を行うことができない。従ってこの場合は、追尾カメラ3-1が測距・撮像装置6-2、6-4の測距範囲に自身の撮像範囲を十分にオーバーラップさせ且つ追尾カメラ3-2が測距・撮像装置6-1、6-3の測距範囲に自身の撮像範囲を十分にオーバーラップさせた状態と、追尾カメラ3-1が測距・撮像装置6-1、6-3の測距範囲に自身の撮像範囲を十分にオーバーラップさせ且つ追尾カメラ3-2が測距・撮像装置6-2、6-4の測距範囲に自身の撮像範囲を十分にオーバーラップさせた状態のそれぞれについて、キャリブレーション用サンプリング処理を実行し分けることが考えられる。
FIG. 33 is an explanatory diagram of a calibration processing technique as the second technique.
The second technique is a technique that enables the necessary number of calibration sampling processes to be reduced to one.
If the imaging ranges of all the tracking cameras 3 can be sufficiently overlapped with the distance measurement ranges of all the distance measurement/imaging devices 6, the number of sampling processes for calibration can be reduced to one. However, according to the arrangement of the tracking cameras 3 and the distance measurement/imaging devices 6 in this example, when the tracking camera 3-1 tries to sufficiently overlap its imaging range with the distance measurement ranges of the distance measurement/imaging devices 6-2 and 6-4 arranged on the opposite side (upper side), it cannot sufficiently overlap its imaging range with the distance measurement ranges of the distance measurement/imaging devices 6-1 and 6-3 arranged on the same side (lower side). Similarly, when the tracking camera 3-2 tries to sufficiently overlap its imaging range with the distance measurement ranges of the distance measurement/imaging devices 6-1 and 6-3 arranged on the opposite side (lower side), it cannot sufficiently overlap its imaging range with the distance measurement ranges of the distance measurement/imaging devices 6-2 and 6-4 arranged on the same side (upper side).
It is not possible to directly identify the same point between the tracking camera 3 and the distance measurement/imaging device 6, which are in a relationship in which the imaging range cannot be fully overlapped with the distance measurement range. Therefore, in this case, it is possible to separately execute the calibration sampling process for each of the following states: the tracking camera 3-1 fully overlaps its imaging range with the distance measurement range of the distance measurement/imaging devices 6-2 and 6-4 and the tracking camera 3-2 fully overlaps its imaging range with the distance measurement range of the distance measurement/imaging devices 6-1 and 6-3, and the tracking camera 3-1 fully overlaps its imaging range with the distance measurement range of the distance measurement/imaging devices 6-1 and 6-3 and the tracking camera 3-2 fully overlaps its imaging range with the distance measurement range of the distance measurement/imaging devices 6-2 and 6-4.
 しかしながら、本例において、FOHに配置された追尾カメラ3-3は、ステージ上の全体を捉えることが可能であるため、全ての測距・撮像装置6の測距範囲と、他の全ての追尾カメラ3(つまり3-1及び3-2)の撮像範囲に対して、自身の撮像範囲を十分にオーバーラップさせることができる。 However, in this example, the tracking camera 3-3 placed at the FOH is capable of capturing the entire stage, and therefore can fully overlap its own imaging range with the ranging ranges of all ranging/imaging devices 6 and the imaging ranges of all other tracking cameras 3 (i.e. 3-1 and 3-2).
 そこで、第二手法では、撮像範囲を測距範囲に十分にオーバーラップさせることができない関係となる追尾カメラ3と測距・撮像装置6との間のキャリブレーション処理は、HOFに配置された追尾カメラ3-3伝いに行うようにすることで、キャリブレーション用サンプリング処理の必要回数が1回に抑えられるようにする。 In the second method, therefore, the calibration process between the tracking camera 3 and the distance measurement/imaging device 6, which are in a relationship in which the imaging range cannot be sufficiently overlapped with the ranging range, is performed along the tracking camera 3-3 arranged in the HOF, thereby reducing the number of required sampling processes for calibration to just one.
 図34は、第二手法における具体的なキャリブレーションの実行手順例を示したフローチャートである。
 この場合、ユーザはステップS61で、各カメラ(各追尾カメラ3)のパン、チルト、ズームをそれぞれ以下のように調整する。
 すなわち、FOH(追尾カメラ3-3):ステージ全体を写す(全ての測距・撮像装置6の測距範囲、及び追尾カメラ3-1の撮像範囲、及び追尾カメラ3-2の撮像範囲のそれぞれに撮像範囲を十分にオーバーラップさせる)。
 下手(追尾カメラ3-1):上手に設置されている測距・撮像装置6(6-2及び6-4)の測距範囲を写す。
 上手(追尾カメラ3-2):下手に設置されている測距・撮像装置6(6-1及び6-3)の測距範囲を写す。
 次いで、ユーザはステップS62で、キャリブレーション用サンプリング処理の開始指示を情報処理装置1に対して行う。
FIG. 34 is a flowchart showing a specific example of a procedure for performing calibration in the second method.
In this case, in step S61, the user adjusts the pan, tilt, and zoom of each camera (each tracking camera 3) as follows.
That is, FOH (tracking camera 3-3): Captures the entire stage (sufficiently overlapping the distance measuring ranges of all distance measuring/imaging devices 6, the imaging ranges of tracking cameras 3-1, and the imaging ranges of tracking cameras 3-2).
Downstream (tracking camera 3-1): Captures the distance measurement range of the distance measurement/imaging device 6 (6-2 and 6-4) installed on the upstream side.
Upstream (tracking camera 3-2): Captures the distance measurement range of the distance measurement/imaging device 6 (6-1 and 6-3) installed downstream.
Next, in step S62, the user instructs the information processing device 1 to start the calibration sampling process.
 ステップS62に続くステップS63では、キャリブレーションの被写体となる人物50が両手を挙げながら全ての測距・撮像装置6の測距範囲を移動する。 In step S63 following step S62, the person 50 who is the subject of the calibration moves through the distance measurement ranges of all distance measurement and image capture devices 6 while raising both hands.
 そして、ステップS63に続くステップS64では、十分なサンプルが得られたか否かが判断され、十分なサンプルが得られてなければステップ63の人物50の移動が継続され、十分なサンプルが得られた場合には、ステップS65でユーザは、キャリブレーション用サンプリング処理の終了指示を情報処理装置1に対して行う。 Then, in step S64 following step S63, it is determined whether or not sufficient samples have been obtained. If sufficient samples have not been obtained, the movement of person 50 in step 63 continues. If sufficient samples have been obtained, in step S65, the user instructs information processing device 1 to end the calibration sampling process.
 この場合におけるCPU11は、キャリブレーションに係る処理として、先の図32に示した処理と同様の処理を行う。ただし、この場合のCPU11は、ステップS507における同一点の同定処理として、撮像範囲を測距範囲に十分にオーバーラップさせることができない関係となる追尾カメラ3と測距・撮像装置6との間の同定処理については、追尾カメラ3-3伝いに行う。
 具体的に、追尾カメラ3-1と測距・撮像装置6-1、6-3との間の同一点の同定処理は、追尾カメラ3-1と追尾カメラ3-3との間の同一点の同定結果と、追尾カメラ3-3と測距・撮像装置6-1、6-3との間のキャリブレーション処理の結果とに基づき行う。また、追尾カメラ3-2と測距・撮像装置6-2、6-4との間の同一点の同定処理は、追尾カメラ3-2と追尾カメラ3-3との間の同一点の同定結果と、追尾カメラ3-3と測距・撮像装置6-2、6-4との間のキャリブレーション処理の結果とに基づき行う。
In this case, the CPU 11 performs the same process as shown in Fig. 32 as the process related to the calibration. However, in this case, the CPU 11 performs the process of identifying the same point in step S507 along the tracking camera 3-3 for identifying the tracking camera 3 and the distance measurement/imaging device 6, which are in a relationship in which the imaging range cannot be sufficiently overlapped with the distance measurement range.
Specifically, the process of identifying the same points between the tracking camera 3-1 and the distance measurement/image capture devices 6-1 and 6-3 is performed based on the result of identifying the same points between the tracking camera 3-1 and the tracking camera 3-3 and the result of the calibration process between the tracking camera 3-3 and the distance measurement/image capture devices 6-1 and 6-3. The process of identifying the same points between the tracking camera 3-2 and the distance measurement/image capture devices 6-2 and 6-4 is performed based on the result of identifying the same points between the tracking camera 3-2 and the tracking camera 3-3 and the result of the calibration process between the tracking camera 3-3 and the distance measurement/image capture devices 6-2 and 6-4.
 上記のような第二手法の採用により、追尾カメラ3-1が測距・撮像装置6-2、6-4の測距範囲に自身の撮像範囲を十分にオーバーラップさせ且つ追尾カメラ3-2が測距・撮像装置6-1、6-3の測距範囲に自身の撮像範囲を十分にオーバーラップさせた状態と、追尾カメラ3-1が測距・撮像装置6-1、6-3の測距範囲に自身の撮像範囲を十分にオーバーラップさせ且つ追尾カメラ3-2が測距・撮像装置6-2、6-4の測距範囲に自身の撮像範囲を十分にオーバーラップさせた状態のそれぞれについて、キャリブレーション用サンプリング処理を実行し分けることを不要とすることができ、キャリブレーション用サンプリング処理の必要回数を1回に抑えることができる。 By adopting the second method as described above, it is possible to eliminate the need to separately execute calibration sampling processes for each of the following states: the state in which the tracking camera 3-1 sufficiently overlaps its own imaging range with the ranging ranges of the ranging/imaging devices 6-2 and 6-4 and the tracking camera 3-2 sufficiently overlaps its own imaging range with the ranging ranges of the ranging/imaging devices 6-1 and 6-3, and the state in which the tracking camera 3-1 sufficiently overlaps its own imaging range with the ranging ranges of the ranging/imaging devices 6-1 and 6-3 and the tracking camera 3-2 sufficiently overlaps its own imaging range with the ranging ranges of the ranging/imaging devices 6-2 and 6-4. This makes it possible to reduce the number of times that calibration sampling processes are required to just one.
 ここで、上記のような第二手法としてのキャリブレーション処理手法は以下のように表現することができる。
 すなわち、測距・撮像装置6と追尾カメラ3の数がそれぞれ複数とされ、追尾カメラ3には、他の全ての追尾カメラ3の撮像範囲と全ての測距・撮像装置6の測距範囲とを撮像可能に配置された第一追尾カメラ(追尾カメラ3-3)と、第一追尾カメラから見て左右何れか一方の側に配置され、第一追尾カメラの撮像範囲を撮像可能に配置された第二追尾カメラ(追尾カメラ3-1又は3-2)とがあり、測距・撮像装置6には、第一追尾カメラから見て第二追尾カメラと左右同側となる位置、左右逆側となる位置に配置された同側センサ装置、逆側センサ装置があり、キャリブレーション部F1は、第一追尾カメラと同側センサ装置との間のキャリブレーション処理を、第二追尾カメラと第一追尾カメラとの間の同一点の同定結果と、第一追尾カメラと同側センサ装置との間のキャリブレーション処理の結果とに基づき行う、というものである。
Here, the calibration processing method as the second method described above can be expressed as follows.
That is, there are multiple distance measuring/imaging devices 6 and tracking cameras 3, and the tracking cameras 3 include a first tracking camera (tracking camera 3-3) arranged so as to be able to image the imaging ranges of all other tracking cameras 3 and the distance measuring ranges of all distance measuring/imaging devices 6, and a second tracking camera (tracking camera 3-1 or 3-2) arranged on either the left or right side as viewed from the first tracking camera and arranged so as to be able to image the imaging range of the first tracking camera, and the distance measuring/imaging device 6 includes a same-side sensor device and an opposite-side sensor device arranged at a position on the same side as the second tracking camera and a position on the opposite side as the second tracking camera, as viewed from the first tracking camera, and the calibration unit F1 performs a calibration process between the first tracking camera and the same-side sensor device based on the identification result of the same point between the second tracking camera and the first tracking camera and the result of the calibration process between the first tracking camera and the same-side sensor device.
 各追尾カメラ3と各測距・撮像装置6との間のキャリブレーション処理を1度のサンプリング処理で実現しようとした場合には、各追尾カメラ3の撮像範囲を、全ての測距・撮像装置6の測距範囲に対して十分にオーバーラップさせることを要するが、第二追尾カメラについては、その撮像範囲を逆側センサ装置の測距範囲に十分にオーバーラップさせようとすると、同側センサ装置の測距範囲を十分に撮像できなくなってしまう場合があり、その場合、第二追尾カメラと同側センサ装置との間のキャリブレーション処理は、直接的に行うことができない。上記のキャリブレーション部F1の処理によれば、第二追尾カメラと同側センサ装置との間のキャリブレーション処理を直接的に行うことができない場合であっても、第一追尾カメラ伝いにキャリブレーション処理を行うことができる。すなわち、第二追尾カメラと逆側センサ装置との間、及び第二追尾カメラと同側センサ装置との間のそれぞれのキャリブレーション処理を実現するにあたり、第二追尾カメラの撮像範囲を逆側センサ装置の測距範囲に十分にオーバーラップさせる状態と、第二追尾カメラの撮像範囲を同側センサ装置の測距範囲に十分にオーバーラップさせる状態とでそれぞれキャリブレーションのためのサンプリング処理を実行し分ける必要がなくなり、各追尾カメラと各センサ装置との間のキャリブレーション処理を1度のサンプリング処理で実現することができる。 If calibration processing between each tracking camera 3 and each ranging/imaging device 6 is to be achieved with a single sampling process, the imaging range of each tracking camera 3 needs to be sufficiently overlapped with the ranging ranges of all ranging/imaging devices 6. However, for the second tracking camera, if an attempt is made to make its imaging range sufficiently overlap with the ranging range of the opposite side sensor device, it may not be possible to sufficiently image the ranging range of the same side sensor device, in which case calibration processing between the second tracking camera and the same side sensor device cannot be performed directly. According to the processing of the calibration unit F1 described above, even if calibration processing between the second tracking camera and the same side sensor device cannot be performed directly, calibration processing can be performed along the first tracking camera. In other words, when performing calibration processing between the second tracking camera and the opposite-side sensor device, and between the second tracking camera and the same-side sensor device, there is no need to perform separate sampling processing for calibration in a state where the imaging range of the second tracking camera is sufficiently overlapped with the ranging range of the opposite-side sensor device, and in a state where the imaging range of the second tracking camera is sufficiently overlapped with the ranging range of the same-side sensor device, and the calibration processing between each tracking camera and each sensor device can be performed with a single sampling processing.
 なお、キャリブレーション処理については、図35に例示するように、ステージ上の物体の同一点となる位置を、画像上でユーザに指定させることもできる。
 このとき、測距・撮像装置6による撮像画像上から同一点となる位置を指定させる場合には、該撮像画像について明るさ検出を行い、該明るさが所定値以下である場合に距離画像を重畳表示するということも考えられる。これにより、ステージ上が暗い状態であってもユーザによる同一点の指定が適切に行われるように図ることができる。
In addition, in the calibration process, as shown in FIG. 35, the user can specify on the image the position that is to be the same point on the object on the stage.
At this time, when the user specifies a position that is the same point on the image captured by the distance measuring/imaging device 6, it is also possible to detect the brightness of the captured image and display a distance image in a superimposed manner if the brightness is equal to or lower than a predetermined value. This allows the user to properly specify the same point even when the stage is dark.
<6.変形例>
 ここで、実施形態としてはこれまでに説明した具体例に限定されるものではなく、多様な変形例としての構成を採り得る。
 例えば、これまでの説明では、追尾構図は、単数の被写体を追尾する構図としたが、追尾構図としては複数の被写体を含む、いわばグループショットとしての構図を指定可能とすることも考えられる。
6. Modifications
Here, the embodiment is not limited to the specific examples described so far, and various modified configurations may be adopted.
For example, in the above description, the tracking composition is a composition for tracking a single subject, but it is also possible to specify a tracking composition that includes a plurality of subjects, that is, a composition for a group shot.
 図36は、このようなグループショットとしての追尾構図の指定を受け付けるためのグループショット設定の受付画面の例を示している。
 図36Aに示すように、グループショット設定の受付画面としては、先ず、先に説明した被写体名設定領域As2(図6、図7参照)において名称情報が設定された被写体を対象としてグループショットの追尾対象を指定するためのチェックボックスcbgを配置した画面を表示することが考えられる。
 ユーザは、チェックボックスcbgにチェックを入れた被写体を、グループショットに含ませる追尾被写体として選択することができ、図中のOKボタンB11を操作することで該追尾対象被写体の選択を確定させることができる。
FIG. 36 shows an example of a group shot setting reception screen for receiving a designation of a tracking composition for such a group shot.
As shown in FIG. 36A, a possible reception screen for group shot settings may first be a screen displaying check boxes cbg for specifying the tracking target for the group shot, with the subject whose name information has been set in the subject name setting area As2 described above (see FIGS. 6 and 7).
The user can select a subject by checking the check box cbg as a tracking subject to be included in the group shot, and can confirm the selection of the tracking target subject by operating the OK button B11 in the figure.
 OKボタンB11を操作すると、図36Bに示すように、追尾対象として指定された複数の被写体についての仮想簡易モデルMbvが配置された画面に遷移する。
 該画面において、ユーザは、仮想簡易モデルMbvに表示される部位のうち、構図に収めたい部位を選択する操作を行い、終了ボタンB12を操作する。
When the OK button B11 is operated, a screen appears on which virtual simple models Mbv for a plurality of subjects designated as tracking targets are arranged, as shown in FIG. 36B.
On this screen, the user performs an operation to select a part that the user wishes to include in the composition from among the parts displayed on the virtual simple model Mbv, and operates the end button B12.
 この場合の目標画枠としては、測距・撮像装置6により得られる、グループショットの追尾対象被写体として指定された被写体についての検出簡易モデルMbdの情報に基づき、それら検出簡易モデルMbdにおけるグループショット設定で指定された部位の全てが、画枠内に含まれるようにして算出することが考えられる。
 一例としては、それぞれの検出簡易モデルMbdにおける指定された部位の各軸(例えば、X,Y,Zの各軸)における最小値と最大値の平均値となる位置を画枠中心とし、指定部位の全てが画枠内に収まるサイズによる画枠として算出することが考えられる。
In this case, the target image frame can be calculated based on information about the detection simple models Mbd for the subjects designated as the subjects to be tracked in the group shot, obtained by the ranging/imaging device 6, so that all of the parts specified in the group shot settings in the detection simple models Mbd are included within the image frame.
As one example, the position where the average value of the minimum and maximum values on each axis (e.g., X, Y, and Z axes) of the specified part in each simple detection model Mbd is set as the center of the image frame, and an image frame of a size such that all of the specified parts fit within the image frame can be calculated.
 なお、目標画枠の画枠中心については、上記の平均値となる位置から、水平、垂直方向にそれぞれ指定された量だけオフセットした位置に定めることも考えられる。
 また、画枠サイズについては、指定された全ての部位をギリギリ含むサイズを基準サイズとして、該サイズから指定された分だけオフセットさせたサイズを設定することも考えられる。
The center of the target image frame may be set at a position offset by a specified amount in the horizontal and vertical directions from the position that corresponds to the average value.
As for the image frame size, it is also possible to set a size that includes all the specified parts as close as possible as a reference size, and to set a size that is offset from that size by a specified amount.
 なお、グループショットに係る構図制御については、メイン人物を指定可能としておき、指定された距離以上メイン人物から離れた人物は追尾対象から除外することも考えられる。
 また、三次元空間上の予め指定された範囲内に入った人物のみを追尾する仕様とすることも考えられる。
In addition, with regard to composition control for group shots, it is possible to designate a main person, and exclude people who are further away from the main person than a designated distance from the main person from being tracked.
It is also possible to configure the system so that it tracks only people who enter a pre-specified range in three-dimensional space.
 図37は、グループショットとしての追尾構図を指示するための実行指示ボタンBm(図中「ボーカル、ギター」)の例を示している。
 グループショットとしての追尾構図を指示するための実行指示ボタンBmに対しても、追尾インジケータItを設けることができる。この場合、追尾インジケータItとしては、追尾対象とされた全ての被写体が検出されている状態、一部の被写体のみが検出されている状態、全ての被写体が検出されていない状態のそれぞれで、異なる態様による表示を行うことが考えられる。例えば、全ての被写体が検出されている状態では青色、一部の被写体のみが検出されている状態では黄色、全ての被写体が検出されていない状態では灰色の表示にする等が考えられる。
FIG. 37 shows an example of an execution instruction button Bm ("vocals, guitar" in the figure) for instructing a tracking composition as a group shot.
A tracking indicator It may also be provided for the execution instruction button Bm for instructing a tracking composition as a group shot. In this case, the tracking indicator It may be displayed in different ways in each of the following states: when all subjects to be tracked are detected, when only some of the subjects are detected, and when none of the subjects are detected. For example, the tracking indicator It may be displayed in blue when all of the subjects are detected, in yellow when only some of the subjects are detected, and in gray when none of the subjects are detected.
 また、被写体の追尾に関して、追尾感度を可変的に設定可能とすることも考えられる。
 図38では、図中の「K」と示すように、追尾感度の設定操作部を操作画面Gmにおける例えば演出領域Areに設けた例を示している。
 この場合、追尾対象被写体の追尾中においても、ユーザから感度の切り替え指示が行われ得る。従ってこの場合のCPU11は、追尾感度の切り替え制御を、追尾カメラ3が追尾対象被写体を追尾中において行うことになる。
 このとき、追尾感度については例えば低、中、高の3段階での切り替えを可能とすることが考えられる。
In addition, regarding tracking of a subject, it is also possible to variably set the tracking sensitivity.
FIG. 38 shows an example in which a setting operation section for tracking sensitivity is provided in, for example, the performance area Are on the operation screen Gm, as indicated by "K" in the figure.
In this case, even while the tracking target subject is being tracked, a user may issue an instruction to switch the sensitivity, so that the CPU 11 in this case performs tracking sensitivity switching control while the tracking camera 3 is tracking the tracking target subject.
In this case, it is conceivable that the tracking sensitivity can be switched between three levels, for example, low, medium, and high.
 例えば、MC中は感度を低くしたり、激しい曲では感度を高めたり、穏やかな曲では感度を低くしたりする等、追尾感度を状況に応じて適切に調整することが可能となる。
 なお、感度の切り替えは自動化することも考えられる。
 このとき、自動化として、セミオート制御をOFFとしたら(MCのときと推定できるため)、感度を低くするように切り替える等が考えられる。
For example, it is possible to appropriately adjust the tracking sensitivity according to the situation, such as lowering the sensitivity during MCs, increasing the sensitivity for intense songs, and lowering the sensitivity for calm songs.
It is also possible to automate the switching of sensitivity.
At this time, as an automation, if the semi-automatic control is turned OFF (because it can be assumed that the MC is in effect), the sensitivity can be switched to a lower level, for example.
 また、追尾対象被写体を追尾中であっても、例えば入力部16の一部として設けられたジョイスティック30等でのマニュアル操作入力に応じて、構図の調整ができるようにするも考えられる。
 図39は、このようなマニュアル調整への切り替えを指示するためのマニュアル調整ボタンBaを操作画面Gm上の例えば演出領域Areに配置した例を示している。
 例えば、マニュアル調整ボタンをONとすることで、選択中の実行指示ボタンBmに対応して制御された構図を、ジョイスティック30等のマニュアル操作入力により調整可能となる。
Also, even when the tracking target subject is being tracked, it is possible to adjust the composition in response to a manual operation input using, for example, a joystick 30 or the like provided as part of the input unit 16 .
FIG. 39 shows an example in which a manual adjustment button Ba for instructing switching to such manual adjustment is arranged, for example, in a performance area Are on an operation screen Gm.
For example, by turning on the manual adjustment button, the composition controlled in accordance with the selected execution instruction button Bm can be adjusted by manual operation input using the joystick 30 or the like.
 このとき、ジョイスティック30等によるマニュアル操作入力は、図40に示すように、情報処理装置1(CPU11)が有する仮想カメラ用のカメラ制御プロトコルにより受け付けるようにし、図中の切替部を介して、マニュアル操作入力に基づく制御信号を、CAM1用、CAM2用、CAM3用のカメラ制御プロトコルのうち該当するカメラ用のカメラ制御プロトコルに入力して、該当するカメラの構図がマニュアル操作入力に基づく構図に制御されるようにする。 At this time, manual operation input using the joystick 30 or the like is accepted by the camera control protocol for the virtual camera of the information processing device 1 (CPU 11) as shown in FIG. 40, and a control signal based on the manual operation input is input via the switching unit in the figure to the camera control protocol for the relevant camera among the camera control protocols for CAM1, CAM2, and CAM3, so that the composition of the relevant camera is controlled to the composition based on the manual operation input.
 また、図41に例示するように、操作画面Gm上において、追尾対象被写体ごとにPGMアウトに選出された割合を示す情報を表示することもできる(図中「R」参照)。
 このとき、該割合を示す情報は、ライブ全体や曲ごとの統計情報として表示することが考えられる。また、該割合を示す情報は、リセットボタンの操作等の所定操作に応じてリセットできるようにすることが望ましい。
Also, as shown in FIG. 41, information indicating the ratio of subjects selected as PGM out for each tracking target subject can be displayed on the operation screen Gm (see "R" in the figure).
In this case, the information showing the ratio may be displayed as statistical information for the entire live performance or for each song. It is also preferable that the information showing the ratio can be reset in response to a predetermined operation such as the operation of a reset button.
 また、実施形態では、追尾対象被写体の指定時において、操作画面Gm上に撮像画像Imsを表示する(図10等参照)ことを言及したが、この撮像画像Imsの画面上での並び順を変更できるようにすることも考えられる。
 これにより、例えば測距・撮像装置6の並びを変更したときに、その並びの変化に応じて撮像画像Imsの画面上での並び順を変更することが可能となる。
In addition, in the embodiment, it has been mentioned that when a subject to be tracked is specified, the captured images Ims are displayed on the operation screen Gm (see FIG. 10, etc.), but it is also conceivable to make it possible to change the order in which the captured images Ims are arranged on the screen.
This makes it possible, for example, when the arrangement of the distance measuring and image capturing devices 6 is changed, to change the arrangement order of the captured images Ims on the screen in accordance with the change in the arrangement.
 また、これまでの説明では、スイッチャー5がハードウエア装置として構成される例を挙げたが、スイッチャー5は、情報処理装置1によるソフトウエアプログラムにより実現されるものであってもよい。 In addition, in the above explanation, an example has been given in which the switcher 5 is configured as a hardware device, but the switcher 5 may also be realized by a software program executed by the information processing device 1.
 また、これまでの説明では、撮像対象イベントが音楽ライブイベントである場合を例示したが、本技術は、例えばミュージカル等、ステージ上(屋内外を問わない)で演目が行われるイベントを始めとして、例えばスタジオ内での番組収録、野球、サッカー、バスケットボール、バレーボール等のスポーツ競技イベント等、他のイベントが撮像対象とされる場合にも好適に適用することができる。 In addition, while the explanation so far has been given of an example in which the event to be imaged is a live music event, this technology can also be suitably applied to events in which other events are to be imaged, such as musicals and other events where the performances are held on a stage (either indoors or outdoors), program recordings in studios, and sporting events such as baseball, soccer, basketball, and volleyball.
<7.記録媒体>
 以上、実施形態としての情報処理装置(同1)を説明してきたが、実施形態の記録媒体は、情報処理装置1としての処理をCPU等のコンピュータ装置に実行させるプログラムが記録された記録媒体である。
7. Recording medium
The information processing device (No. 1) has been described as an embodiment, and the recording medium of the embodiment is a recording medium on which a program for causing a computer device such as a CPU to execute processing as the information processing device 1 is recorded.
 実施形態の記録媒体は、コンピュータ装置が読み取り可能なプログラムが記録された記録媒体であって、被写体を追尾可能な追尾カメラによる追尾対象被写体を、追尾カメラとは別の受光センサを有するセンサ装置によるセンシング画像に写る被写体からユーザにより指定させる処理を行う指定受付処理機能、をコンピュータ装置に実現させるプログラムが記録された記録媒体である。
 すなわち、この記録媒体は、例えばコンピュータ装置に図25等で説明した処理を実行させるプログラムが記録された記録媒体に相当する。
The recording medium of the embodiment is a recording medium having a program recorded thereon that can be read by a computer device, and is a recording medium having a program recorded thereon that causes the computer device to realize a designation reception processing function that allows a user to designate a subject to be tracked by a tracking camera capable of tracking a subject from among subjects appearing in a sensing image captured by a sensor device having a light receiving sensor separate from the tracking camera.
That is, this recording medium corresponds to a recording medium on which a program for causing a computer device to execute the processes described with reference to FIG. 25 and the like is recorded.
 この場合のプログラムは、コンピュータ装置が読み取り可能な記録媒体、例えばROMやHDD(Hard Disk Drive)、SSD(Solid State Drive)等に予め記憶しておくことができる。或いはまた、半導体メモリ、メモリーカード、光ディスク、光磁気ディスク、磁気ディスク等のリムーバブル記録媒体に、一時的又は永続的に格納(記憶)しておくことができる。またこのようなリムーバブル記録媒体は、いわゆるパッケージソフトウェアとして提供することができる。
 また、この場合のプログラムは、リムーバブル記録媒体からパーソナルコンピュータ等にインストールする他、ダウンロードサイトから、LAN、インターネット等のネットワークを介してスマートフォン等の所要の情報処理装置にダウンロードすることもできる。
In this case, the program can be stored in advance in a computer-readable recording medium, such as a ROM, a hard disk drive (HDD), or a solid state drive (SSD). Alternatively, the program can be temporarily or permanently stored in a removable recording medium, such as a semiconductor memory, a memory card, an optical disk, a magneto-optical disk, or a magnetic disk. Such a removable recording medium can be provided as a so-called package software.
In addition, the program in this case can be installed from a removable recording medium onto a personal computer or the like, or can be downloaded from a download site to a required information processing device such as a smartphone via a network such as a LAN or the Internet.
<8.実施形態のまとめ>
 上記のように実施形態としての情報処理装置(同1)は、被写体を追尾可能な追尾カメラによる追尾対象被写体を、追尾カメラとは別の受光センサを有するセンサ装置によるセンシング画像に写る被写体からユーザにより指定させる処理を行う指定受付処理部(指定受付部F2)を備えたものである。
 上記構成によれば、ユーザが追尾対象としたい被写体が追尾カメラの撮像範囲外となる位置に存在している場合であっても、追尾カメラとは別のセンサ装置が該被写体をセンシング画像内に捉えることが可能となり、ユーザに該センサ装置のセンシング画像内から追尾対象としたい被写体を指定させることが可能となる。また、センサ装置として赤外光を受光可能な受光センサを有するものを用いた場合には、暗い環境下で追尾カメラの撮像画像によってはユーザが被写体を識別できない場合であっても、該センサ装置によるセンシング画像では被写体を識別可能となるように図ることができ、追尾対象被写体を指定することの容易性を高めることが可能となる。
 このように実施形態の情報処理装置によれば、追尾カメラによる追尾対象被写体の指定が適切に行われるように図ることができる。
8. Summary of the embodiment
As described above, the information processing device (same embodiment 1) is equipped with a designation reception processing unit (designation reception unit F2) that performs processing to allow a user to designate a subject to be tracked by a tracking camera capable of tracking a subject from among subjects appearing in a sensing image captured by a sensor device having a light receiving sensor separate from the tracking camera.
According to the above configuration, even if the subject that the user wants to track is located outside the imaging range of the tracking camera, a sensor device other than the tracking camera can capture the subject in a sensing image, and the user can specify the subject that he or she wants to track from the sensing image of the sensor device. In addition, if a sensor device having a light receiving sensor capable of receiving infrared light is used, even if the user cannot identify the subject from the image captured by the tracking camera in a dark environment, the subject can be identified in the sensing image by the sensor device, and it is possible to increase the ease of specifying the subject to be tracked.
In this manner, according to the information processing device of the embodiment, it is possible to ensure that the tracking target subject is appropriately specified by the tracking camera.
 また、実施形態としての情報処理装置においては、センサ装置は、受光センサとして、可視光を受光可能な可視光センサと、赤外光を受光可能な赤外光センサとを有すると共に、可視光センサの受光信号に基づき可視光についての撮像画像を得る撮像機能と、赤外光センサの受光信号に基づき距離画像を得る測距機能とを有しており、指定受付処理部は、追尾対象被写体の指定を受けつけるための画像としてセンサ装置による撮像画像が表示されている状態において、当該撮像画像の明るさが所定の明るさ以下となったことに応じて、追尾対象被写体の指定を受け付けるための画像として距離画像に基づく画像を表示する処理を行っている。
 これにより、被写体の環境光が暗くなり、センサ装置の撮像画像ではユーザが被写体を識別困難となる状況となった場合には、センサ装置による距離画像に基づく画像、具体的には距離画像そのものや距離画像に基づき生成された被写体の簡易モデルの画像等が追尾対象被写体の指定を受け付けるための画像として表示され、暗い環境下であっても、追尾対象被写体を指定することの容易性を高めることが可能となる。
 従って、暗い環境下における追尾対象の指定が適切に行われるように図ることができる。
In addition, in an information processing device as an embodiment, the sensor device has a light receiving sensor including a visible light sensor capable of receiving visible light and an infrared light sensor capable of receiving infrared light, and has an imaging function for obtaining an image of visible light based on the light receiving signal of the visible light sensor, and a distance measurement function for obtaining a distance image based on the light receiving signal of the infrared light sensor, and the designation reception processing unit performs processing for displaying an image based on the distance image as an image for accepting designation of a subject to be tracked in response to the brightness of the image being lower than a predetermined brightness when an image captured by the sensor device is displayed as an image for accepting designation of a subject to be tracked.
As a result, when the ambient light of the subject becomes dark and it becomes difficult for the user to identify the subject from the image captured by the sensor device, an image based on the distance image captured by the sensor device, specifically the distance image itself or an image of a simple model of the subject generated based on the distance image, is displayed as an image for accepting the designation of the subject to be tracked, making it easier to designate the subject to be tracked even in a dark environment.
Therefore, it is possible to appropriately specify the tracking target in a dark environment.
 さらに、実施形態としての情報処理装置においては、指定受付処理部は、センサ装置によるセンシング画像に写る被写体から追尾対象被写体が指定されたことに応じて、センシング画像の表示画像上に重畳表示された追尾対象被写体の検出枠に対応する位置に、当該追尾対象被写体の名称情報を表示する処理を行っている。
 これにより、追尾対象被写体の指定が意図通りに行われたか否かを、追尾対象被写体の検出枠に対する該追尾対象被写体の名称情報の表示有無によってユーザに直感的に理解させることができる。
Furthermore, in an information processing device as an embodiment, in response to a subject being designated as a tracking target subject from a subject appearing in a sensing image captured by a sensor device, the designation reception processing unit performs processing to display name information of the tracking target subject at a position corresponding to the detection frame of the tracking target subject superimposed on the display image of the sensing image.
This allows the user to intuitively understand whether or not the tracking target subject has been designated as intended based on whether or not name information of the tracking target subject is displayed in the detection frame of the tracking target subject.
 さらにまた、実施形態としての情報処理装置においては、指定受付処理部は、少なくとも追尾カメラにより追尾対象被写体の追尾を行うか否かの指示操作を行うことが可能な操作画面上において、センサ装置によるセンシング画像を表示させ、センシング画像に写る被写体から追尾対象被写体が指定されたことに応じて、操作画面に設けられた追尾対象被写体の名称情報を表示する追尾対象表示領域に、センシング画像から抽出された、指定された追尾対象被写体の画像を表示する処理を行っている。
 これにより、追尾対象被写体の指定が意図通りに行われたか否かを、操作画面に設けられた追尾対象表示領域に対する追尾対象被写体のセンシング画像の表示有無によってユーザに直感的に理解させることができる。
Furthermore, in the information processing device as an embodiment, the designation reception processing unit displays a sensing image captured by the sensor device on an operation screen where an instruction operation can be performed as to whether or not to track the tracked subject using at least the tracking camera, and in response to a tracked subject being designated from a subject appearing in the sensing image, displays an image of the designated tracked subject extracted from the sensing image in a tracking target display area provided on the operation screen that displays name information of the tracked subject.
This allows the user to intuitively understand whether or not the tracking target subject has been designated as intended based on whether or not a sensing image of the tracking target subject is displayed in the tracking target display area provided on the operation screen.
 また、実施形態としての情報処理装置においては、指定受付処理部は、追尾カメラによる被写体の追尾構図の指定を、被写体の仮想的な簡易モデルである仮想簡易モデルの表示画像に対する追尾画枠の指定として受け付けている。
 これにより、追尾構図として、追尾対象被写体を画枠内の任意位置に配置可能な自由度の高い構図の指定が可能となる。また、上記構成によれば、追尾構図の指定を、視覚的に表示された被写体の仮想簡易モデルに対する追尾画枠の指定として受け付けるので、追尾により得られる撮像画像の構図をユーザにイメージさせ易くすることが可能となり、追尾構図の指定の容易性向上を図ることができる。
In addition, in the information processing device as the embodiment, the designation reception processing unit receives a designation of a tracking composition of a subject by a tracking camera as a designation of a tracking image frame for a display image of a virtual simple model, which is a virtual simple model of the subject.
This allows the specification of a highly flexible composition that allows the tracking target subject to be positioned at any position within the image frame as the tracking composition. Also, according to the above configuration, the specification of the tracking composition is accepted as the specification of the tracking image frame for the virtual simple model of the subject that is visually displayed, so that it is possible to make it easier for the user to imagine the composition of the captured image obtained by tracking, and the ease of specification of the tracking composition can be improved.
 さらに、実施形態としての情報処理装置においては、指定受付処理部は、追尾カメラによる被写体の追尾構図の指定を、仮想簡易モデルの表示画像に対する追尾画枠の位置、及び追尾画枠のサイズの指定として受け付けている。
 これにより、被写体の追尾構図の指定にあたり、ユーザは、仮想簡易モデルに対する追尾画枠の位置の指定操作、及び追尾画枠のサイズの指定操作という二種の操作のみを行えば足る。
 従って、被写体の追尾構図の指定にあたってのユーザの操作負担軽減を図ることができる。
Furthermore, in the information processing device as the embodiment, the designation reception processing unit receives a designation of a subject tracking composition by the tracking camera as a designation of the position of the tracking image frame and the size of the tracking image frame relative to the display image of the virtual simple model.
As a result, when specifying a subject tracking composition, the user needs to perform only two operations: an operation of specifying the position of the tracking image frame relative to the virtual simple model, and an operation of specifying the size of the tracking image frame.
Therefore, the operational burden on the user when specifying a subject tracking composition can be reduced.
 さらにまた、実施形態としての情報処理装置においては、センサ装置は、受光センサとして、赤外光を受光可能な赤外光センサを有すると共に、赤外光センサの受光信号に基づき距離画像を得る測距機能を有しており、センサ装置により得られる距離画像に基づき生成される追尾対象被写体の簡易モデルである検出簡易モデルの三次元位置情報に基づいて、追尾対象被写体を追尾するための追尾カメラの目標画枠を算出する画枠算出部(同F8)を備え、指定受付処理部は、仮想簡易モデルに対する追尾画枠の画枠中心の位置ずれを示す情報を対モデル画枠中心位置ずれ情報として記憶する処理を行い、画枠算出部は、対モデル画枠中心位置ずれ情報が示す位置ずれが、前記検出簡易モデルに対する前記目標画枠の画枠中心の位置ずれとして再現されるように目標画枠を算出している。
 このように、指定された追尾画枠における仮想簡易モデルに対する画枠中心の位置ずれに着目し、該位置ずれが検出簡易モデルと目標画枠の画枠中心の位置ずれとして再現されるようにすることで、追尾構図が指定構図と一致するように追尾カメラの制御を適切に行うことができる。
Furthermore, in an information processing device as an embodiment, the sensor device has an infrared light sensor capable of receiving infrared light as a light receiving sensor, and has a distance measurement function for obtaining a distance image based on the light receiving signal of the infrared light sensor, and is equipped with an image frame calculation unit (F8) that calculates a target image frame of the tracking camera for tracking the tracking subject based on three-dimensional position information of a detection simple model, which is a simple model of the tracking subject generated based on the distance image obtained by the sensor device, and the designation reception processing unit performs a process of storing information indicating the positional deviation of the image frame center of the tracking image frame relative to the virtual simple model as model image frame center position deviation information, and the image frame calculation unit calculates the target image frame so that the position deviation indicated by the model image frame center position deviation information is reproduced as a position deviation of the image frame center of the target image frame relative to the detection simple model.
In this way, by focusing on the positional shift of the center of the image frame relative to the virtual simple model in the specified tracking image frame and reproducing this positional shift as the positional shift of the image frame centers of the detected simple model and the target image frame, the tracking camera can be appropriately controlled so that the tracking composition matches the specified composition.
 また、実施形態としての情報処理装置においては、指定受付処理部は、対モデル画枠中心位置ずれ情報に含まれる、縦方向の位置ずれ量を示す縦方向位置ずれ量を、仮想簡易モデルの所定部位の縦方向位置を基準値とし且つ仮想簡易モデルにおける縦方向に離間する所定部位間の長さを基準単位とする第一スケーラーによりスケーリングした相対値として算出し、画枠算出部は、検出簡易モデルの所定部位の縦方向位置を基準値とし且つ検出簡易モデルにおける縦方向に離間する所定部位間の長さを基準単位とする第二スケーラーにおいて、縦方向位置ずれ量により特定される縦方向位置に、目標画枠の縦方向中心位置を定めている。
 これにより、追尾構図の指定時に用いた仮想簡易モデルのサイズと、実際の検出簡易モデルのサイズ(追尾対象被写体のサイズ)とが異なる場合であっても、指定された追尾構図が適切に再現されるように図ることができる。換言すれば、追尾対象被写体のサイズに拘わらず、指定された追尾構図が適切に再現されるように図ることができる。
In addition, in an information processing device as an embodiment, the designation reception processing unit calculates the vertical position shift amount indicating the vertical position shift amount included in the model image frame center position shift information as a relative value scaled by a first scaler that uses the vertical position of a specified part of the virtual simple model as a reference value and the length between specified parts spaced apart vertically in the virtual simple model as a reference unit, and the image frame calculation unit determines the vertical center position of the target image frame to the vertical position specified by the vertical position shift amount in a second scaler that uses the vertical position of a specified part of the detection simple model as a reference value and the length between specified parts spaced apart vertically in the detection simple model as a reference unit.
This allows the designated tracking composition to be properly reproduced even if the size of the virtual simple model used when designating the tracking composition differs from the size of the actual detection simple model (the size of the tracking target subject). In other words, the designated tracking composition can be properly reproduced regardless of the size of the tracking target subject.
 さらに、実施形態としての情報処理装置においては、センサ装置は、受光センサとして、可視光を受光可能な可視光センサと、赤外光を受光可能な赤外光センサとを有すると共に可視光センサの受光信号に基づき可視光についての撮像画像を得る撮像機能と、赤外光センサの受光信号に基づき距離画像を得る測距機能とを有しており、センサ装置により得られる距離画像に基づき生成される追尾対象被写体の簡易モデルである検出簡易モデルの三次元位置情報に基づいて、追尾対象被写体を追尾するための追尾カメラの目標画枠を算出する画枠算出部を備え、指定受付処理部は、複数の被写体を追尾カメラの追尾対象被写体とするグループ追尾時における追尾対象被写体の指定受付画面として、被写体の仮想的な簡易モデルである仮想簡易モデルが複数配置された指定受付画面を表示する処理を行うと共に、該複数配置されたそれぞれの仮想簡易モデルからの部位の指定を受け付け、画枠算出部は、グループ追尾の追尾対象とされた各被写体の検出簡易モデルが得られている場合において、該追尾対象とされた各被写体の検出部位のうち、指定受付画面において指定された部位が目標画枠内に含まれるように目標画枠を算出している。
 これにより、グループ追尾時における追尾構図の指定にあたり、ユーザは、少なくとも複数配置された仮想簡易モデルから追尾構図内に含ませたい部位を指定する操作を行えば足る。
 従って、グループ追尾時における追尾構図指定の容易化を図ることができる。
 また、追尾対象とされた複数の被写体それぞれの重要部位を含む追尾構図の指定が容易化されるように図ることができる。
Furthermore, in the information processing device as an embodiment, the sensor device has, as a light receiving sensor, a visible light sensor capable of receiving visible light and an infrared light sensor capable of receiving infrared light, and has an imaging function of obtaining an image of visible light based on a light receiving signal of the visible light sensor, and a distance measuring function of obtaining a distance image based on the light receiving signal of the infrared light sensor. The sensor device is provided with an image frame calculation unit that calculates a target image frame of the tracking camera for tracking the tracking target subject based on three-dimensional position information of a detection simple model that is a simple model of the tracking target subject generated based on the distance image obtained by the sensor device. The specification reception processing unit performs processing to display a specification reception screen on which a plurality of virtual simple models, which are virtual simple models of the subjects, are arranged as a specification reception screen for the tracking target subject during group tracking in which a plurality of subjects are tracking target subjects of the tracking camera, and accepts specification of parts from each of the multiple arranged virtual simple models. When a detection simple model of each subject that is the tracking target of group tracking has been obtained, the image frame calculation unit calculates the target image frame so that the part specified on the specification reception screen among the detected parts of each of the tracking targets is included within the target image frame.
As a result, when specifying a tracking composition during group tracking, the user only needs to perform an operation of specifying a portion to be included in the tracking composition from at least a plurality of arranged virtual simple models.
Therefore, it is possible to facilitate the specification of a tracking composition during group tracking.
Also, it is possible to facilitate the specification of a tracking composition that includes important portions of each of a plurality of subjects that are set as tracking targets.
 さらにまた、実施形態としての情報処理装置においては、追尾カメラが追尾対象被写体を追尾中において、追尾カメラの追尾感度の切り替え制御を行うことが可能に構成されている。
 撮像対象イベントの進行中においては、被写体の状態が変化し得る。例えば、音楽ライブでは、被写体がMCを行っている状態、激しい曲を歌唱又は演奏中の状態、穏やかな曲を歌唱又は演奏中の状態等、被写体の状態が様々に変化し得る。このとき、例えばMC中には追尾構図の急変化は避けることが望ましく、一方でアップテンポの曲の歌唱又は演奏中には追尾構図を急変化させることが望ましいといったように、被写体の状態によって追尾感度の切り替えを要することが考えられる。
 上記構成によれば、撮像対象イベントが進行中で追尾カメラによる被写体追尾が行われている状況下において、追尾感度を切り替えることが可能とされるため、撮像対象イベント進行中における被写体の状態変化に応じた適切な追尾感度制御の実現化を図ることができる。
Furthermore, the information processing device according to the embodiment is configured to be capable of switching control of the tracking sensitivity of the tracking camera while the tracking camera is tracking the tracking target subject.
During the progress of the event to be imaged, the state of the subject may change. For example, in a live music concert, the state of the subject may change in various ways, such as when the subject is giving an MC, singing or playing an intense song, or singing or playing a calm song. In this case, it may be necessary to switch the tracking sensitivity depending on the state of the subject, for example, it is desirable to avoid sudden changes in the tracking composition during the MC, while it is desirable to suddenly change the tracking composition when singing or playing an up-tempo song.
According to the above configuration, it is possible to switch the tracking sensitivity when the event to be imaged is in progress and the subject is being tracked by the tracking camera, thereby realizing appropriate tracking sensitivity control in response to changes in the state of the subject while the event to be imaged is in progress.
 また、実施形態としての情報処理装置においては、ユーザが追尾対象被写体について指定した追尾構図となるように追尾カメラの構図を制御する指定追尾構図制御と、追尾カメラによる撮像対象と追尾カメラの構図種別との組み合わせごとに重み情報が対応づけられた構図選択テーブルに基づき、追尾カメラの構図を選択し、選択した構図となるように追尾カメラの構図を制御するセミオート構図制御と、を実行可能に構成され、指定受付処理部は、指定追尾構図制御の実行指示操作の受け付け、及びセミオート構図制御の実行指示操作の受け付けを行っている。
 これにより、追尾カメラの構図制御として、指定追尾構図制御のみでなく、ユーザの指示に応じてセミオート構図制御を実行することができる。
 例えば音楽ライブ等のイベントを対象とした撮像画像コンテンツとしては、カメラの構図を適宜切り替える等して、飽きのこない高品質なコンテンツを作成することが望まれる。しかしながら、適切な構図を選択することは不慣れなユーザにとっては難しいものとなり、熟練者による作業を要してしまう虞がある。また、そもそも構図選択を人手により行うことは撮像画像コンテンツを作成する上でのコストアップを助長する。
 上記のセミオート構図制御によれば、追尾カメラの構図切り替えは構図選択テーブルに基づき自動的に行われるものとなり、また、構図選択テーブルにおける重み情報の設定により、追尾カメラの構図切り替え態様を適切に設定可能となる。
 従って、構図切り替えを伴う撮像画像コンテンツについて、コンテンツの質向上とコンテンツ作成に係る作業コスト低減との両立を図ることができる。
In addition, the information processing device as an embodiment is configured to be able to execute specified tracking composition control that controls the composition of the tracking camera so that it becomes a tracking composition specified by the user for the subject to be tracked, and semi-automatic composition control that selects a composition of the tracking camera based on a composition selection table in which weighting information is associated with each combination of a subject to be imaged by the tracking camera and a composition type of the tracking camera, and controls the composition of the tracking camera so that it becomes the selected composition, and the specification reception processing unit accepts an instruction operation to execute the specified tracking composition control, and an instruction operation to execute the semi-automatic composition control.
This makes it possible to execute semi-automatic composition control in response to a user's instruction as the composition control of the tracking camera, in addition to the designated tracking composition control.
For example, for captured image content for events such as live music concerts, it is desirable to create high-quality content that does not tire the viewer, for example by appropriately switching the camera's composition. However, it may be difficult for an inexperienced user to select an appropriate composition, and this may require the work of an expert. In addition, manually selecting the composition in the first place increases the cost of creating captured image content.
According to the above-described semi-automatic composition control, the composition switching of the tracking camera is performed automatically based on the composition selection table, and by setting the weight information in the composition selection table, the composition switching manner of the tracking camera can be appropriately set.
Therefore, for captured image content involving composition switching, it is possible to achieve both an improvement in content quality and a reduction in the operational costs involved in content creation.
 さらに、実施形態としての情報処理装置においては、センサ装置は、受光センサとして、赤外光を受光可能な赤外光センサを有すると共に、赤外光センサの受光信号に基づき距離画像を得る測距機能を有しており、センサ装置により得られる距離画像と追尾カメラにより得られる撮像画像の双方に写る同一点の同定を行うキャリブレーション処理として、センサ装置により得られる距離画像から生成される被写体の簡易モデルであるセンサ装置側簡易モデルと、追尾カメラにより得られる撮像画像から生成される被写体の簡易モデルであるカメラ側簡易モデルとの間での同一部位の位置を同定するキャリブレーション処理を実行するキャリブレーション処理部(キャリブレーション部F1)を備えている。
 上記のようなキャリブレーション処理を行うことで、センサ装置による三次元座標系において定めた目標とする追尾画枠を、追尾カメラの座標系における画枠に適切に変換することが可能となる。
 また、被写体の簡易モデルを用いるキャリブレーション手法としているので、例えば両手を挙げている被写体等、キャリブレーション用の被写体の簡易モデルの検出部位に基づいたキャリブレーションを実現することができる。
Furthermore, in the information processing device as an embodiment, the sensor device has an infrared light sensor capable of receiving infrared light as a light receiving sensor, and has a distance measurement function of obtaining a distance image based on the light receiving signal of the infrared light sensor, and is equipped with a calibration processing unit (calibration unit F1) that performs a calibration process to identify the same point that appears in both the distance image obtained by the sensor device and the captured image obtained by the tracking camera, and identifies the position of the same part between a sensor device side simple model, which is a simple model of the subject generated from the distance image obtained by the sensor device, and a camera side simple model, which is a simple model of the subject generated from the captured image obtained by the tracking camera.
By performing the above-described calibration process, it becomes possible to appropriately convert a target tracking image frame determined in a three-dimensional coordinate system by the sensor device into an image frame in the coordinate system of the tracking camera.
Furthermore, since the calibration method uses a simple model of the subject, it is possible to realize calibration based on detected parts of a simple model of the subject for calibration, such as a subject with both hands raised.
 さらにまた、実施形態としての情報処理装置においては、センサ装置と追尾カメラの数がそれぞれ複数とされ、キャリブレーション処理部は、対象とされた一つのセンサ装置の測距範囲を各追尾カメラが撮像するように構図調整された状態でセンサ装置側簡易モデルとカメラ側簡易モデルそれぞれの部位の位置のサンプリングを行う単位サンプリング処理を、対象となるセンサ装置が切り替えられる下でセンサ装置ごとに実行している。
 上記の単位サンプリング処理がセンサ装置ごとに行われることで、各追尾カメラと各センサ装置との間のキャリブレーション処理(同一点の同定)に必要なサンプルデータを取得することができる。
 各単位サンプリング処理では、各追尾カメラの撮像範囲を、対象とするセンサ装置の測距範囲に対して十分にオーバーラップさせることが可能となるため、追尾カメラごとに、対象とするセンサ装置との間のキャリブレーション処理を直接的に行うことができる。従って、上記のように対象とするセンサ装置を切り替えながら単位サンプリング処理をセンサ装置ごとに行うことで、各追尾カメラと各センサ装置との間のキャリブレーション処理を精度良く行うことができる。
Furthermore, in an information processing device as an embodiment, the number of sensor devices and tracking cameras are multiple, and the calibration processing unit performs a unit sampling process for each sensor device while switching the target sensor device, sampling the positions of parts of the sensor device side simple model and the camera side simple model with the composition adjusted so that each tracking camera captures the ranging range of a single target sensor device.
By performing the above-mentioned unit sampling process for each sensor device, it is possible to obtain sample data necessary for calibration processing (identification of the same point) between each tracking camera and each sensor device.
In each unit sampling process, the imaging range of each tracking camera can be made to overlap sufficiently with the distance measurement range of the target sensor device, so that the calibration process between the target sensor device and each tracking camera can be directly performed. Therefore, by performing the unit sampling process for each sensor device while switching the target sensor device as described above, the calibration process between each tracking camera and each sensor device can be performed with high accuracy.
 また、実施形態としての情報処理装置においては、センサ装置と追尾カメラの数がそれぞれ複数とされ、追尾カメラには、他の全ての追尾カメラの撮像範囲と全てのセンサ装置の測距範囲とを撮像可能に配置された第一追尾カメラと、第一追尾カメラから見て左右何れか一方の側に配置され、第一追尾カメラの撮像範囲を撮像可能に配置された第二追尾カメラとがあり、センサ装置には、第一追尾カメラから見て第二追尾カメラと左右同側となる位置、左右逆側となる位置に配置された同側センサ装置、逆側センサ装置があり、キャリブレーション処理部は、第一追尾カメラと同側センサ装置との間のキャリブレーション処理を、第二追尾カメラと第一追尾カメラとの間の同一点の同定結果と、第一追尾カメラと同側センサ装置との間のキャリブレーション処理の結果とに基づき行っている。
 各追尾カメラと各センサ装置との間のキャリブレーション処理を1度のサンプリング処理で実現しようとした場合には、各追尾カメラの撮像範囲を、全てのセンサ装置の測距範囲に対して十分にオーバーラップさせることを要するが、第二追尾カメラについては、その撮像範囲を逆側センサ装置の測距範囲に十分にオーバーラップさせようとすると、同側センサ装置の測距範囲を十分に撮像できなくなってしまう場合があり、その場合、第二追尾カメラと同側センサ装置との間のキャリブレーション処理は、直接的に行うことができない。上記構成によれば、第二追尾カメラと同側センサ装置との間のキャリブレーション処理を直接的に行うことができない場合であっても、第一追尾カメラ伝いにキャリブレーション処理を行うことができる。すなわち、第二追尾カメラと逆側センサ装置との間、及び第二追尾カメラと同側センサ装置との間のそれぞれのキャリブレーション処理を実現するにあたり、第二追尾カメラの撮像範囲を逆側センサ装置の測距範囲に十分にオーバーラップさせる状態と、第二追尾カメラの撮像範囲を同側センサ装置の測距範囲に十分にオーバーラップさせる状態とでそれぞれキャリブレーションのためのサンプリング処理を実行し分ける必要がなくなり、各追尾カメラと各センサ装置との間のキャリブレーション処理を1度のサンプリング処理で実現することができる。
In addition, in an information processing device as an embodiment, the number of sensor devices and tracking cameras are each multiple, and the tracking cameras include a first tracking camera arranged so as to be able to capture the imaging ranges of all other tracking cameras and the ranging ranges of all sensor devices, and a second tracking camera arranged on either the left or right side as viewed from the first tracking camera and arranged so as to be able to capture the imaging range of the first tracking camera, and the sensor devices include a same-side sensor device and an opposite-side sensor device arranged at a position on the same side as the second tracking camera as viewed from the first tracking camera, and a calibration processing unit performs calibration processing between the first tracking camera and the same-side sensor device based on the identification result of the same points between the second tracking camera and the first tracking camera and the result of the calibration processing between the first tracking camera and the same-side sensor device.
When the calibration process between each tracking camera and each sensor device is to be realized by a single sampling process, it is necessary to make the imaging range of each tracking camera sufficiently overlap the distance measurement range of all sensor devices. However, when the imaging range of the second tracking camera is to be sufficiently overlapped with the distance measurement range of the opposite side sensor device, it may not be possible to sufficiently image the distance measurement range of the same side sensor device. In that case, the calibration process between the second tracking camera and the same side sensor device cannot be performed directly. According to the above configuration, even if the calibration process between the second tracking camera and the same side sensor device cannot be performed directly, the calibration process can be performed along the first tracking camera. That is, when realizing the calibration process between the second tracking camera and the opposite side sensor device and between the second tracking camera and the same side sensor device, it is not necessary to perform sampling processes for calibration in a state where the imaging range of the second tracking camera is sufficiently overlapped with the distance measurement range of the opposite side sensor device and a state where the imaging range of the second tracking camera is sufficiently overlapped with the distance measurement range of the same side sensor device, and the calibration process between each tracking camera and each sensor device can be realized by a single sampling process.
 さらに、実施形態としての情報処理装置においては、追尾カメラによる撮像対象イベントが音楽ライブイベントである。
 これにより、撮像対象イベントが音楽ライブイベントである場合に対応して、追尾カメラによる追尾対象被写体の指定が適切に行われるように図ることができる。
Furthermore, in the information processing device according to the embodiment, the event to be imaged by the tracking camera is a live music event.
This makes it possible to appropriately specify the subject to be tracked by the tracking camera when the event to be imaged is a live music event.
 また、実施形態としての情報処理方法は、情報処理装置が、被写体を追尾可能な追尾カメラによる追尾対象被写体を、追尾カメラとは別の受光センサを有するセンサ装置によるセンシング画像に写る被写体からユーザにより指定させる処理を行う情報処理方法である。
 このような情報処理方法によっても、上記した実施形態としての情報処理装置と同様の作用及び効果を得ることができる。
In addition, an information processing method as an embodiment is an information processing method in which an information processing device performs processing to allow a user to select a subject to be tracked by a tracking camera capable of tracking a subject from among subjects appearing in a sensing image captured by a sensor device having a light receiving sensor separate from the tracking camera.
With such an information processing method, it is possible to obtain the same functions and effects as those of the information processing device according to the above embodiment.
 なお、本明細書に記載された効果はあくまでも例示であって限定されるものではなく、また他の効果があってもよい。 Note that the effects described in this specification are merely examples and are not limiting, and other effects may also be present.
<9.本技術>
 なお本技術は以下のような構成も採ることができる。
(1)
 被写体を追尾可能な追尾カメラによる追尾対象被写体を、前記追尾カメラとは別の受光センサを有するセンサ装置によるセンシング画像に写る被写体からユーザにより指定させる処理を行う指定受付処理部を備えた
 情報処理装置。
(2)
 前記センサ装置は、前記受光センサとして、可視光を受光可能な可視光センサと、赤外光を受光可能な赤外光センサとを有すると共に、前記可視光センサの受光信号に基づき可視光についての撮像画像を得る撮像機能と、前記赤外光センサの受光信号に基づき距離画像を得る測距機能とを有しており、
 前記指定受付処理部は、
 前記追尾対象被写体の指定を受けつけるための画像として前記センサ装置による撮像画像が表示されている状態において、当該撮像画像の明るさが所定の明るさ以下となったことに応じて、前記追尾対象被写体の指定を受け付けるための画像として前記距離画像に基づく画像を表示する処理を行う
 前記(1)に記載の情報処理装置。
(3)
 前記指定受付処理部は、
 前記センサ装置によるセンシング画像に写る被写体から前記追尾対象被写体が指定されたことに応じて、前記センシング画像の表示画像上に重畳表示された前記追尾対象被写体の検出枠に対応する位置に、当該追尾対象被写体の名称情報を表示する処理を行う
 前記(1)又は(2)に記載の情報処理装置。
(4)
 前記指定受付処理部は、
 少なくとも前記追尾カメラにより前記追尾対象被写体の追尾を行うか否かの指示操作を行うことが可能な操作画面上において、前記センサ装置によるセンシング画像を表示させ、
 前記センシング画像に写る被写体から前記追尾対象被写体が指定されたことに応じて、前記操作画面に設けられた前記追尾対象被写体の名称情報を表示する追尾対象表示領域に、前記センシング画像から抽出された、前記指定された追尾対象被写体の画像を表示する処理を行う
 前記(1)から(3)の何れかに記載の情報処理装置。
(5)
 前記指定受付処理部は、
 前記追尾カメラによる前記被写体の追尾構図の指定を、前記被写体の仮想的な簡易モデルである仮想簡易モデルの表示画像に対する追尾画枠の指定として受け付ける
 前記(1)から(4)の何れかに記載の情報処理装置。
(6)
 前記指定受付処理部は、
 前記追尾カメラによる前記被写体の追尾構図の指定を、前記仮想簡易モデルの表示画像に対する前記追尾画枠の位置、及び前記追尾画枠のサイズの指定として受け付ける
 前記(5)に記載の情報処理装置。
(7)
 前記センサ装置は、前記受光センサとして、赤外光を受光可能な赤外光センサを有すると共に、前記赤外光センサの受光信号に基づき距離画像を得る測距機能を有しており、
 前記センサ装置により得られる前記距離画像に基づき生成される前記追尾対象被写体の簡易モデルである検出簡易モデルの三次元位置情報に基づいて、前記追尾対象被写体を追尾するための前記追尾カメラの目標画枠を算出する画枠算出部を備え、
 前記指定受付処理部は、
 前記仮想簡易モデルに対する追尾画枠の画枠中心の位置ずれを示す情報を対モデル画枠中心位置ずれ情報として記憶する処理を行い、
 前記画枠算出部は、
 前記対モデル画枠中心位置ずれ情報が示す位置ずれが、前記検出簡易モデルに対する前記目標画枠の画枠中心の位置ずれとして再現されるように前記目標画枠を算出する
 前記(6)に記載の情報処理装置。
(8)
 前記指定受付処理部は、
 前記対モデル画枠中心位置ずれ情報に含まれる、縦方向の位置ずれ量を示す縦方向位置ずれ量を、前記仮想簡易モデルの所定部位の縦方向位置を基準値とし且つ前記仮想簡易モデルにおける縦方向に離間する所定部位間の長さを基準単位とする第一スケーラーによりスケーリングした相対値として算出し、
 前記画枠算出部は、
 前記検出簡易モデルの前記所定部位の縦方向位置を基準値とし且つ前記検出簡易モデルにおける縦方向に離間する前記所定部位間の長さを基準単位とする第二スケーラーにおいて、前記縦方向位置ずれ量により特定される縦方向位置に、前記目標画枠の縦方向中心位置を定める
 前記(7)に記載の情報処理装置。
(9)
 前記センサ装置は、前記受光センサとして、可視光を受光可能な可視光センサと、赤外光を受光可能な赤外光センサとを有すると共に、前記可視光センサの受光信号に基づき可視光についての撮像画像を得る撮像機能と、前記赤外光センサの受光信号に基づき距離画像を得る測距機能とを有しており、
 前記センサ装置により得られる前記距離画像に基づき生成される前記追尾対象被写体の簡易モデルである検出簡易モデルの三次元位置情報に基づいて、前記追尾対象被写体を追尾するための前記追尾カメラの目標画枠を算出する画枠算出部を備え、
 前記指定受付処理部は、
 複数の被写体を前記追尾カメラの追尾対象被写体とするグループ追尾時における追尾対象被写体の指定受付画面として、前記被写体の仮想的な簡易モデルである仮想簡易モデルが複数配置された指定受付画面を表示する処理を行うと共に、該複数配置されたそれぞれの仮想簡易モデルからの部位の指定を受け付け、
 前記画枠算出部は、
 前記グループ追尾の追尾対象とされた各被写体の前記検出簡易モデルが得られている場合において、該追尾対象とされた各被写体の検出部位のうち、前記指定受付画面において指定された部位が前記目標画枠内に含まれるように前記目標画枠を算出する
 前記(1)から(8)の何れかに記載の情報処理装置。
(10)
 前記追尾カメラが前記追尾対象被写体を追尾中において、前記追尾カメラの追尾感度の切り替え制御を行うことが可能に構成された
 前記(1)に記載の情報処理装置。
(11)
 ユーザが前記追尾対象被写体について指定した追尾構図となるように前記追尾カメラの構図を制御する指定追尾構図制御と、
 前記追尾カメラによる撮像対象と前記追尾カメラの構図種別との組み合わせごとに重み情報が対応づけられた構図選択テーブルに基づき、前記追尾カメラの構図を選択し、選択した構図となるように前記追尾カメラの構図を制御するセミオート構図制御と、を実行可能に構成され、
 前記指定受付処理部は、
 前記指定追尾構図制御の実行指示操作の受け付け、及び前記セミオート構図制御の実行指示操作の受け付けを行う
 前記(1)から(10)の何れかに記載の情報処理装置。
(12)
 前記センサ装置は、前記受光センサとして、赤外光を受光可能な赤外光センサを有すると共に、前記赤外光センサの受光信号に基づき距離画像を得る測距機能を有しており、
 前記センサ装置により得られる前記距離画像と前記追尾カメラにより得られる撮像画像の双方に写る同一点の同定を行うキャリブレーション処理として、前記センサ装置により得られる前記距離画像から生成される被写体の簡易モデルであるセンサ装置側簡易モデルと、前記追尾カメラにより得られる撮像画像から生成される被写体の簡易モデルであるカメラ側簡易モデルとの間での同一部位の位置を同定するキャリブレーション処理を実行するキャリブレーション処理部を備えた
 前記(1)から(11)の何れかに記載の情報処理装置。
(13)
 前記センサ装置と前記追尾カメラの数がそれぞれ複数とされ、
 前記キャリブレーション処理部は、
 対象とされた一つの前記センサ装置の測距範囲を各前記追尾カメラが撮像するように構図調整された状態で前記センサ装置側簡易モデルと前記カメラ側簡易モデルそれぞれの部位の位置のサンプリングを行う単位サンプリング処理を、対象となる前記センサ装置が切り替えられる下で前記センサ装置ごとに実行する
 前記(12)に記載の情報処理装置。
(14)
 前記センサ装置と前記追尾カメラの数がそれぞれ複数とされ、
 前記追尾カメラには、他の全ての前記追尾カメラの撮像範囲と全ての前記センサ装置の測距範囲とを撮像可能に配置された第一追尾カメラと、前記第一追尾カメラから見て左右何れか一方の側に配置され、前記第一追尾カメラの撮像範囲を撮像可能に配置された第二追尾カメラとがあり、
 前記センサ装置には、前記第一追尾カメラから見て前記第二追尾カメラと左右同側となる位置、左右逆側となる位置に配置された同側センサ装置、逆側センサ装置があり、
 前記キャリブレーション処理部は、
 前記第一追尾カメラと前記同側センサ装置との間の前記キャリブレーション処理を、前記第二追尾カメラと前記第一追尾カメラとの間の同一点の同定結果と、前記第一追尾カメラと前記同側センサ装置との間の前記キャリブレーション処理の結果とに基づき行う
 前記(12)に記載の情報処理装置。
(15)
 前記追尾カメラによる撮像対象イベントが音楽ライブイベントである
 前記(1)から(15)の何れかに記載の情報処理装置。
(16)
 情報処理装置が、
 被写体を追尾可能な追尾カメラによる追尾対象被写体を、前記追尾カメラとは別の受光センサを有するセンサ装置によるセンシング画像に写る被写体からユーザにより指定させる処理を行う
 情報処理方法。
(17)
 コンピュータ装置が読み取り可能なプログラムが記録された記録媒体であって、
 被写体を追尾可能な追尾カメラによる追尾対象被写体を、前記追尾カメラとは別の受光センサを有するセンサ装置によるセンシング画像に写る被写体からユーザにより指定させる処理を行う指定受付処理機能、を前記コンピュータ装置に実現させるプログラムが記録された
 記録媒体。
<9. This Technology>
The present technology can also be configured as follows.
(1)
An information processing device comprising: a designation reception processing unit that performs processing to allow a user to designate a subject to be tracked by a tracking camera capable of tracking a subject from subjects appearing in a sensing image captured by a sensor device having a light receiving sensor separate from the tracking camera.
(2)
the sensor device has, as the light receiving sensor, a visible light sensor capable of receiving visible light and an infrared light sensor capable of receiving infrared light, and has an imaging function of obtaining an image of visible light based on a light receiving signal of the visible light sensor, and a distance measuring function of obtaining a distance image based on the light receiving signal of the infrared light sensor,
The designation reception processing unit includes:
The information processing device described in (1) performs a process of displaying an image based on the distance image as an image for accepting designation of the tracking target subject when the brightness of the captured image becomes equal to or lower than a predetermined brightness while an image captured by the sensor device is being displayed as an image for accepting designation of the tracking target subject.
(3)
The designation reception processing unit includes:
The information processing device described in (1) or (2) performs a process of displaying name information of the tracking target subject at a position corresponding to a detection frame of the tracking target subject superimposed on a display image of the sensing image in response to the tracking target subject being designated from a subject appearing in a sensing image captured by the sensor device.
(4)
The designation reception processing unit includes:
displaying a sensing image captured by the sensor device on an operation screen on which an instruction operation as to whether or not to track the tracking target subject by at least the tracking camera can be performed;
The information processing device according to any one of (1) to (3), wherein, in response to the tracking target subject being designated from among the subjects appearing in the sensing image, a process is performed to display an image of the designated tracking target subject extracted from the sensing image in a tracking target display area provided on the operation screen that displays name information of the tracking target subject.
(5)
The designation reception processing unit includes:
The information processing device according to any one of (1) to (4), wherein a designation of a tracking composition of the subject by the tracking camera is accepted as a designation of a tracking image frame for a display image of a virtual simple model that is a virtual simple model of the subject.
(6)
The designation reception processing unit includes:
The information processing device according to (5), wherein a designation of a tracking composition of the subject by the tracking camera is accepted as a designation of a position of the tracking image frame and a size of the tracking image frame with respect to a display image of the virtual simple model.
(7)
the sensor device has an infrared light sensor capable of receiving infrared light as the light receiving sensor, and has a distance measuring function of obtaining a distance image based on a light receiving signal of the infrared light sensor,
a frame calculation unit that calculates a target frame of the tracking camera for tracking the tracking target subject based on three-dimensional position information of a detection simple model that is a simple model of the tracking target subject generated based on the distance image obtained by the sensor device,
The designation reception processing unit includes:
A process is performed to store information indicating a positional deviation of the image frame center of the tracking image frame with respect to the virtual simple model as image frame center positional deviation information with respect to the model;
The image frame calculation unit
The information processing apparatus according to (6), wherein the target image frame is calculated so that the position shift indicated by the information on position shift of the image frame center relative to the model is reproduced as a position shift of the image frame center of the target image frame relative to the detected simple model.
(8)
The designation reception processing unit includes:
a vertical positional deviation amount indicating a vertical positional deviation amount included in the model image frame center positional deviation information is calculated as a relative value scaled by a first scaler that uses a vertical position of a predetermined portion of the virtual simple model as a reference value and a length between predetermined portions spaced apart in the vertical direction in the virtual simple model as a reference unit;
The image frame calculation unit
The information processing device described in (7) above, in a second scaler that uses the vertical position of the specified part of the detection simple model as a reference value and the length between the specified parts vertically spaced apart in the detection simple model as a reference unit, determines the vertical center position of the target image frame to a vertical position specified by the vertical position shift amount.
(9)
the sensor device has, as the light receiving sensor, a visible light sensor capable of receiving visible light and an infrared light sensor capable of receiving infrared light, and has an imaging function of obtaining an image of visible light based on a light receiving signal of the visible light sensor, and a distance measuring function of obtaining a distance image based on the light receiving signal of the infrared light sensor,
a frame calculation unit that calculates a target frame of the tracking camera for tracking the tracking target subject based on three-dimensional position information of a detection simple model that is a simple model of the tracking target subject generated based on the distance image obtained by the sensor device,
The designation reception processing unit includes:
a process of displaying a designation acceptance screen on which a plurality of virtual simple models, which are virtual simple models of the subjects, are arranged as a designation acceptance screen for the tracking target subjects during group tracking in which the plurality of subjects are the tracking target subjects of the tracking camera, and accepting designation of a body part from each of the plurality of arranged virtual simple models;
The image frame calculation unit
When the simple detection model of each subject that is a tracking target of the group tracking is obtained, the information processing device according to any one of (1) to (8) calculates the target image frame so that a part specified on the specification receiving screen among the detected parts of each subject that is a tracking target is included within the target image frame.
(10)
The information processing device according to (1), wherein the tracking camera is configured to be able to perform switching control of a tracking sensitivity of the tracking camera while the tracking camera is tracking the tracking target subject.
(11)
A designated tracking composition control for controlling a composition of the tracking camera so that the tracking composition is a tracking composition designated by a user for the tracking target subject;
a semi-automatic composition control that selects a composition of the tracking camera based on a composition selection table in which weight information is associated with each combination of an object to be imaged by the tracking camera and a composition type of the tracking camera, and controls the composition of the tracking camera so as to obtain the selected composition;
The designation reception processing unit includes:
The information processing device according to any one of (1) to (10), further comprising: a control unit configured to receive an instruction to execute the designated tracking composition control; and a control unit configured to receive an instruction to execute the semi-automatic composition control.
(12)
the sensor device has an infrared light sensor capable of receiving infrared light as the light receiving sensor, and has a distance measuring function of obtaining a distance image based on a light receiving signal of the infrared light sensor,
The information processing device described in any of (1) to (11) is equipped with a calibration processing unit that performs a calibration process to identify the positions of identical parts between a sensor device side simple model, which is a simple model of the subject generated from the distance image obtained by the sensor device, and a camera side simple model, which is a simple model of the subject generated from the image obtained by the tracking camera, as a calibration process to identify the same points that appear in both the distance image obtained by the sensor device and the image obtained by the tracking camera.
(13)
The number of the sensor devices and the number of the tracking cameras are each plural,
The calibration processing unit:
The information processing device described in (12) executes a unit sampling process for each sensor device while switching between the target sensor devices, in which the position of each part of the sensor device side simple model and the camera side simple model is sampled with the composition adjusted so that each tracking camera captures the ranging range of one of the target sensor devices.
(14)
The number of the sensor devices and the number of the tracking cameras are each plural,
The tracking cameras include a first tracking camera arranged so as to be able to capture the imaging ranges of all the other tracking cameras and the distance measurement ranges of all the sensor devices, and a second tracking camera arranged on either the left or right side as viewed from the first tracking camera and arranged so as to be able to capture the imaging range of the first tracking camera,
The sensor device includes a same-side sensor device and an opposite-side sensor device that are arranged at a position on the same side as the second tracking camera when viewed from the first tracking camera, and at a position on the opposite side as the second tracking camera when viewed from the first tracking camera,
The calibration processing unit:
The information processing device described in (12) above, wherein the calibration process between the first tracking camera and the same-side sensor device is performed based on the identification result of the same point between the second tracking camera and the first tracking camera and the result of the calibration process between the first tracking camera and the same-side sensor device.
(15)
The information processing device according to any one of (1) to (15), wherein the event to be imaged by the tracking camera is a live music event.
(16)
An information processing device,
An information processing method for allowing a user to specify a subject to be tracked by a tracking camera capable of tracking a subject from among subjects captured in an image sensed by a sensor device having a light receiving sensor separate from the tracking camera.
(17)
A recording medium on which a computer-readable program is recorded,
A recording medium having a program recorded thereon that causes a computer device to realize a designation reception processing function that allows a user to designate a subject to be tracked by a tracking camera capable of tracking a subject from among subjects captured in a sensing image captured by a sensor device having a light receiving sensor separate from the tracking camera.
100 画像処理システム
1 情報処理装置
2 親カメラ
3,3-1,3-2,3-3 追尾カメラ
4,4-1,4-2,4-3 雲台
5 スイッチャー
6,6-1,6-2,6-3,6-4 測距・撮像装置
11 CPU
19 記憶部
20 通信部
Gm 操作画面
Gs 設定画面
Arc カメラ名表示領域
Are 演出領域
Art ターゲット領域
At 追尾対象表示領域
t1,t2,t3,t4,t5,t6 個別表示領域
ti 画像表示領域
tn 名称表示領域
Bm 実行指示ボタン
B0 メニューボタン
B1 セミオートON/OFFボタン
It 追尾インジケータ
Acn コントローラ名表示領域
Bpd プルダウンボタン
B2 共通設定ボタン
B3 コントロール設定ボタン
Bs 開始ボタン
As1 カメラ切替操作領域
As2 被写体名設定領域
As3 コントローラ設定領域
bcm カメラ名入力ボックス
bcn コントローラ名入力ボックス
bt1,bt2,bt3,bt4,bt5,bt6 被写体名入力ボックス
Bp1,Bp2 追加ボタン
Be1,Be2 消去ボタン
Bc カメラ切替ボタン
As4 演出設定領域
As5 プリセット設定領域
cb、cb1,cb2,cb3,cb4,cb5,cbs,cbt チェックボックス
bpn プリセット名入力ボックス
Fd 検出枠
Ims 撮像画像
Mbv 仮想簡易モデル
Fs 画枠
Vc 縦方向中心線
J 交点
Vrc 縦方向位置ずれ量
Hof 横オフセット量
Mbd 検出簡易モデル
cba,cbb チェックボックス
B9 OKボタン
B10 キャンセルボタン
F1 キャリブレーション部
F2 指定受付部
F3 操作受付部
F4 構図選択部
F5 構図切替制御部
F6 重み更新部
F7 画像認識処理部
F8 画枠算出部
F9 座標計算部
F10 雲台・カメラ制御部
F11 カットアウト画像生成部
cbg チェックボックス
30 ジョイスティック
100 Image processing system 1 Information processing device 2 Parent camera 3, 3-1, 3-2, 3-3 Tracking camera 4, 4-1, 4-2, 4-3 Pan head 5 Switcher 6, 6-1, 6-2, 6-3, 6-4 Distance measurement/imaging device 11 CPU
19 Memory unit 20 Communication unit Gm Operation screen Gs Setting screen Arc Camera name display area Are Performance area Art Target area At Tracking target display area t1, t2, t3, t4, t5, t6 Individual display area ti Image display area tn Name display area Bm Execution instruction button B0 Menu button B1 Semi-auto ON/OFF button It Tracking indicator Acn Controller name display area Bpd Pull-down button B2 Common setting button B3 Control setting button Bs Start button As1 Camera switching operation area As2 Subject name setting area As3 Controller setting area bcm Camera name input box bcn Controller name input box bt1, bt2, b3, bt4, bt5, bt6 Subject name input box Bp1, Bp2 Add button Be1, Be2 Delete button Bc Camera switching button As4 Performance setting area As5 Preset setting areas cb, cb1, cb2, cb3, cb4, cb5, cbs, cbt Check box bpn Preset name input box Fd Detection frame Ims Captured image Mbv Virtual simple model Fs Image frame Vc Vertical center line J Intersection Vrc Vertical position deviation amount Hof Horizontal offset amount Mbd Detection simple models cba, cbb Check box B9 OK button B10 Cancel button F1 Calibration section F2 Designation acceptance section F3 Operation acceptance section F4 Composition selection section F5 Composition switching control section F6 Weight update section F7 Image recognition processing section F8 Image frame calculation section F9 Coordinate calculation section F10 Tripod head/camera control section F11 Cutout image generation section cbg Check box 30 Joystick

Claims (17)

  1.  被写体を追尾可能な追尾カメラによる追尾対象被写体を、前記追尾カメラとは別の受光センサを有するセンサ装置によるセンシング画像に写る被写体からユーザにより指定させる処理を行う指定受付処理部を備えた
     情報処理装置。
    An information processing device comprising: a designation reception processing unit that performs processing to allow a user to designate a subject to be tracked by a tracking camera capable of tracking a subject from subjects appearing in a sensing image captured by a sensor device having a light receiving sensor separate from the tracking camera.
  2.  前記センサ装置は、前記受光センサとして、可視光を受光可能な可視光センサと、赤外光を受光可能な赤外光センサとを有すると共に、前記可視光センサの受光信号に基づき可視光についての撮像画像を得る撮像機能と、前記赤外光センサの受光信号に基づき距離画像を得る測距機能とを有しており、
     前記指定受付処理部は、
     前記追尾対象被写体の指定を受けつけるための画像として前記センサ装置による撮像画像が表示されている状態において、当該撮像画像の明るさが所定の明るさ以下となったことに応じて、前記追尾対象被写体の指定を受け付けるための画像として前記距離画像に基づく画像を表示する処理を行う
     請求項1に記載の情報処理装置。
    the sensor device has, as the light receiving sensor, a visible light sensor capable of receiving visible light and an infrared light sensor capable of receiving infrared light, and has an imaging function of obtaining an image of visible light based on a light receiving signal of the visible light sensor, and a distance measuring function of obtaining a distance image based on the light receiving signal of the infrared light sensor,
    The designation reception processing unit includes:
    The information processing device of claim 1, further comprising: a processing step of displaying an image based on the distance image as an image for accepting designation of the tracking target subject when the brightness of the captured image becomes equal to or lower than a predetermined brightness while an image captured by the sensor device is being displayed as an image for accepting designation of the tracking target subject.
  3.  前記指定受付処理部は、
     前記センサ装置によるセンシング画像に写る被写体から前記追尾対象被写体が指定されたことに応じて、前記センシング画像の表示画像上に重畳表示された前記追尾対象被写体の検出枠に対応する位置に、当該追尾対象被写体の名称情報を表示する処理を行う
     請求項1に記載の情報処理装置。
    The designation reception processing unit includes:
    2. The information processing device according to claim 1, wherein, in response to the tracking target subject being designated from among the subjects appearing in a sensing image captured by the sensor device, a process is performed to display name information of the tracking target subject at a position corresponding to a detection frame of the tracking target subject superimposed on a display image of the sensing image.
  4.  前記指定受付処理部は、
     少なくとも前記追尾カメラにより前記追尾対象被写体の追尾を行うか否かの指示操作を行うことが可能な操作画面上において、前記センサ装置によるセンシング画像を表示させ、
     前記センシング画像に写る被写体から前記追尾対象被写体が指定されたことに応じて、前記操作画面に設けられた前記追尾対象被写体の名称情報を表示する追尾対象表示領域に、前記センシング画像から抽出された、前記指定された追尾対象被写体の画像を表示する処理を行う
     請求項1に記載の情報処理装置。
    The designation reception processing unit includes:
    displaying a sensing image captured by the sensor device on an operation screen on which an instruction operation as to whether or not to track the tracking target subject by at least the tracking camera can be performed;
    2. The information processing device according to claim 1, wherein, in response to the tracking target subject being designated from among the subjects appearing in the sensing image, a process is performed to display an image of the designated tracking target subject extracted from the sensing image in a tracking target display area provided on the operation screen that displays name information of the tracking target subject.
  5.  前記指定受付処理部は、
     前記追尾カメラによる前記被写体の追尾構図の指定を、前記被写体の仮想的な簡易モデルである仮想簡易モデルの表示画像に対する追尾画枠の指定として受け付ける
     請求項1に記載の情報処理装置。
    The designation reception processing unit includes:
    The information processing apparatus according to claim 1 , wherein a designation of a tracking composition for the subject by the tracking camera is accepted as a designation of a tracking image frame for a display image of a virtual simple model that is a virtual simple model of the subject.
  6.  前記指定受付処理部は、
     前記追尾カメラによる前記被写体の追尾構図の指定を、前記仮想簡易モデルの表示画像に対する前記追尾画枠の位置、及び前記追尾画枠のサイズの指定として受け付ける
     請求項5に記載の情報処理装置。
    The designation reception processing unit includes:
    The information processing apparatus according to claim 5 , wherein a designation of a tracking composition for the subject by the tracking camera is accepted as a designation of a position of the tracking image frame and a size of the tracking image frame with respect to a display image of the virtual simple model.
  7.  前記センサ装置は、前記受光センサとして、赤外光を受光可能な赤外光センサを有すると共に、前記赤外光センサの受光信号に基づき距離画像を得る測距機能を有しており、
     前記センサ装置により得られる前記距離画像に基づき生成される前記追尾対象被写体の簡易モデルである検出簡易モデルの三次元位置情報に基づいて、前記追尾対象被写体を追尾するための前記追尾カメラの目標画枠を算出する画枠算出部を備え、
     前記指定受付処理部は、
     前記仮想簡易モデルに対する追尾画枠の画枠中心の位置ずれを示す情報を対モデル画枠中心位置ずれ情報として記憶する処理を行い、
     前記画枠算出部は、
     前記対モデル画枠中心位置ずれ情報が示す位置ずれが、前記検出簡易モデルに対する前記目標画枠の画枠中心の位置ずれとして再現されるように前記目標画枠を算出する
     請求項6に記載の情報処理装置。
    the sensor device has an infrared light sensor capable of receiving infrared light as the light receiving sensor, and has a distance measuring function of obtaining a distance image based on a light receiving signal of the infrared light sensor,
    an image frame calculation unit that calculates a target image frame of the tracking camera for tracking the tracking target subject based on three-dimensional position information of a detection simple model that is a simple model of the tracking target subject generated based on the distance image obtained by the sensor device,
    The designation reception processing unit includes:
    A process is performed to store information indicating a positional deviation of the image frame center of the tracking image frame with respect to the virtual simple model as image frame center positional deviation information with respect to the model;
    The image frame calculation unit
    The information processing apparatus according to claim 6 , wherein the target image frame is calculated so that the positional deviation indicated by the information on positional deviation of the image frame center relative to the model is reproduced as a positional deviation of the image frame center of the target image frame relative to the detected simple model.
  8.  前記指定受付処理部は、
     前記対モデル画枠中心位置ずれ情報に含まれる、縦方向の位置ずれ量を示す縦方向位置ずれ量を、前記仮想簡易モデルの所定部位の縦方向位置を基準値とし且つ前記仮想簡易モデルにおける縦方向に離間する所定部位間の長さを基準単位とする第一スケーラーによりスケーリングした相対値として算出し、
     前記画枠算出部は、
     前記検出簡易モデルの前記所定部位の縦方向位置を基準値とし且つ前記検出簡易モデルにおける縦方向に離間する前記所定部位間の長さを基準単位とする第二スケーラーにおいて、前記縦方向位置ずれ量により特定される縦方向位置に、前記目標画枠の縦方向中心位置を定める
     請求項7に記載の情報処理装置。
    The designation reception processing unit includes:
    a vertical positional deviation amount indicating a vertical positional deviation amount included in the model image frame center positional deviation information is calculated as a relative value scaled by a first scaler that uses a vertical position of a predetermined portion of the virtual simple model as a reference value and a length between predetermined portions spaced apart in the vertical direction in the virtual simple model as a reference unit;
    The image frame calculation unit
    8. The information processing device according to claim 7, wherein in a second scaler that uses the vertical position of the specified portion of the simple detection model as a reference value and the length between the specified portions vertically spaced apart in the simple detection model as a reference unit, the vertical center position of the target image frame is determined to be at a vertical position specified by the vertical position shift amount.
  9.  前記センサ装置は、前記受光センサとして、可視光を受光可能な可視光センサと、赤外光を受光可能な赤外光センサとを有すると共に、前記可視光センサの受光信号に基づき可視光についての撮像画像を得る撮像機能と、前記赤外光センサの受光信号に基づき距離画像を得る測距機能とを有しており、
     前記センサ装置により得られる前記距離画像に基づき生成される前記追尾対象被写体の簡易モデルである検出簡易モデルの三次元位置情報に基づいて、前記追尾対象被写体を追尾するための前記追尾カメラの目標画枠を算出する画枠算出部を備え、
     前記指定受付処理部は、
     複数の被写体を前記追尾カメラの追尾対象被写体とするグループ追尾時における追尾対象被写体の指定受付画面として、前記被写体の仮想的な簡易モデルである仮想簡易モデルが複数配置された指定受付画面を表示する処理を行うと共に、該複数配置されたそれぞれの仮想簡易モデルからの部位の指定を受け付け、
     前記画枠算出部は、
     前記グループ追尾の追尾対象とされた各被写体の前記検出簡易モデルが得られている場合において、該追尾対象とされた各被写体の検出部位のうち、前記指定受付画面において指定された部位が前記目標画枠内に含まれるように前記目標画枠を算出する
     請求項1に記載の情報処理装置。
    the sensor device has, as the light receiving sensor, a visible light sensor capable of receiving visible light and an infrared light sensor capable of receiving infrared light, and has an imaging function of obtaining an image of visible light based on a light receiving signal of the visible light sensor, and a distance measuring function of obtaining a distance image based on the light receiving signal of the infrared light sensor,
    a frame calculation unit that calculates a target frame of the tracking camera for tracking the tracking target subject based on three-dimensional position information of a detection simple model that is a simple model of the tracking target subject generated based on the distance image obtained by the sensor device,
    The designation reception processing unit includes:
    a process of displaying a designation acceptance screen on which a plurality of virtual simple models, which are virtual simple models of the subjects, are arranged as a designation acceptance screen for the tracking target subjects during group tracking in which the plurality of subjects are the tracking target subjects of the tracking camera, and accepting designation of a body part from each of the plurality of arranged virtual simple models;
    The image frame calculation unit
    2. The information processing device according to claim 1, wherein when the simple detection model of each subject that is a tracking target of the group tracking is obtained, the target image frame is calculated so that a part of the detected part of each subject that is a tracking target, which is specified on the specification receiving screen, is included within the target image frame.
  10.  前記追尾カメラが前記追尾対象被写体を追尾中において、前記追尾カメラの追尾感度の切り替え制御を行うことが可能に構成された
     請求項1に記載の情報処理装置。
    The information processing device according to claim 1 , further comprising: a tracking sensitivity control unit that controls switching of the tracking sensitivity of the tracking camera while the tracking camera is tracking the tracking target subject.
  11.  ユーザが前記追尾対象被写体について指定した追尾構図となるように前記追尾カメラの構図を制御する指定追尾構図制御と、
     前記追尾カメラによる撮像対象と前記追尾カメラの構図種別との組み合わせごとに重み情報が対応づけられた構図選択テーブルに基づき、前記追尾カメラの構図を選択し、選択した構図となるように前記追尾カメラの構図を制御するセミオート構図制御と、を実行可能に構成され、
     前記指定受付処理部は、
     前記指定追尾構図制御の実行指示操作の受け付け、及び前記セミオート構図制御の実行指示操作の受け付けを行う
     請求項1に記載の情報処理装置。
    A designated tracking composition control for controlling a composition of the tracking camera so that the tracking composition is a tracking composition designated by a user for the tracking target subject;
    a semi-automatic composition control that selects a composition of the tracking camera based on a composition selection table in which weight information is associated with each combination of an object to be imaged by the tracking camera and a composition type of the tracking camera, and controls the composition of the tracking camera so as to obtain the selected composition;
    The designation reception processing unit includes:
    The information processing apparatus according to claim 1 , further comprising: a control unit configured to receive an instruction to execute the designated tracking composition control and an instruction to execute the semi-automatic composition control.
  12.  前記センサ装置は、前記受光センサとして、赤外光を受光可能な赤外光センサを有すると共に、前記赤外光センサの受光信号に基づき距離画像を得る測距機能を有しており、
     前記センサ装置により得られる前記距離画像と前記追尾カメラにより得られる撮像画像の双方に写る同一点の同定を行うキャリブレーション処理として、前記センサ装置により得られる前記距離画像から生成される被写体の簡易モデルであるセンサ装置側簡易モデルと、前記追尾カメラにより得られる撮像画像から生成される被写体の簡易モデルであるカメラ側簡易モデルとの間での同一部位の位置を同定するキャリブレーション処理を実行するキャリブレーション処理部を備えた
     請求項1に記載の情報処理装置。
    the sensor device has an infrared light sensor capable of receiving infrared light as the light receiving sensor, and has a distance measuring function of obtaining a distance image based on a light receiving signal of the infrared light sensor,
    The information processing device of claim 1, further comprising a calibration processing unit that performs a calibration process to identify the positions of identical parts between a sensor device side simple model, which is a simple model of the subject generated from the distance image obtained by the sensor device, and a camera side simple model, which is a simple model of the subject generated from the image obtained by the tracking camera, as a calibration process to identify the same points that appear in both the distance image obtained by the sensor device and the captured image obtained by the tracking camera.
  13.  前記センサ装置と前記追尾カメラの数がそれぞれ複数とされ、
     前記キャリブレーション処理部は、
     対象とされた一つの前記センサ装置の測距範囲を各前記追尾カメラが撮像するように構図調整された状態で前記センサ装置側簡易モデルと前記カメラ側簡易モデルそれぞれの部位の位置のサンプリングを行う単位サンプリング処理を、対象となる前記センサ装置が切り替えられる下で前記センサ装置ごとに実行する
     請求項12に記載の情報処理装置。
    The number of the sensor devices and the number of the tracking cameras are each plural,
    The calibration processing unit:
    The information processing device according to claim 12, wherein a unit sampling process is executed for each sensor device while switching between the target sensor devices, in which the positions of parts of the sensor device side simple model and the camera side simple model are sampled with the composition adjusted so that each tracking camera captures the measuring range of a targeted sensor device.
  14.  前記センサ装置と前記追尾カメラの数がそれぞれ複数とされ、
     前記追尾カメラには、他の全ての前記追尾カメラの撮像範囲と全ての前記センサ装置の測距範囲とを撮像可能に配置された第一追尾カメラと、前記第一追尾カメラから見て左右何れか一方の側に配置され、前記第一追尾カメラの撮像範囲を撮像可能に配置された第二追尾カメラとがあり、
     前記センサ装置には、前記第一追尾カメラから見て前記第二追尾カメラと左右同側となる位置、左右逆側となる位置に配置された同側センサ装置、逆側センサ装置があり、
     前記キャリブレーション処理部は、
     前記第一追尾カメラと前記同側センサ装置との間の前記キャリブレーション処理を、前記第二追尾カメラと前記第一追尾カメラとの間の同一点の同定結果と、前記第一追尾カメラと前記同側センサ装置との間の前記キャリブレーション処理の結果とに基づき行う
     請求項12に記載の情報処理装置。
    The number of the sensor devices and the number of the tracking cameras are each plural,
    The tracking cameras include a first tracking camera arranged so as to be able to capture the imaging ranges of all the other tracking cameras and the distance measurement ranges of all the sensor devices, and a second tracking camera arranged on either the left or right side as viewed from the first tracking camera and arranged so as to be able to capture the imaging range of the first tracking camera,
    The sensor device includes a same-side sensor device and an opposite-side sensor device that are arranged at a position on the same side as the second tracking camera when viewed from the first tracking camera, and at a position on the opposite side as the second tracking camera when viewed from the first tracking camera,
    The calibration processing unit:
    The information processing device according to claim 12, wherein the calibration process between the first tracking camera and the same-side sensor device is performed based on the result of identifying identical points between the second tracking camera and the first tracking camera and the result of the calibration process between the first tracking camera and the same-side sensor device.
  15.  前記追尾カメラによる撮像対象イベントが音楽ライブイベントである
     請求項1に記載の情報処理装置。
    The information processing device according to claim 1 , wherein the event to be imaged by the tracking camera is a live music event.
  16.  情報処理装置が、
     被写体を追尾可能な追尾カメラによる追尾対象被写体を、前記追尾カメラとは別の受光センサを有するセンサ装置によるセンシング画像に写る被写体からユーザにより指定させる処理を行う
     情報処理方法。
    An information processing device,
    An information processing method for allowing a user to specify a subject to be tracked by a tracking camera capable of tracking a subject from among subjects captured in an image sensed by a sensor device having a light receiving sensor separate from the tracking camera.
  17.  コンピュータ装置が読み取り可能なプログラムが記録された記録媒体であって、
     被写体を追尾可能な追尾カメラによる追尾対象被写体を、前記追尾カメラとは別の受光センサを有するセンサ装置によるセンシング画像に写る被写体からユーザにより指定させる処理を行う指定受付処理機能、を前記コンピュータ装置に実現させるプログラムが記録された
     記録媒体。
    A recording medium on which a computer-readable program is recorded,
    A recording medium having a program recorded thereon that causes a computer device to realize a designation reception processing function that allows a user to designate a subject to be tracked by a tracking camera capable of tracking a subject from among subjects captured in a sensing image captured by a sensor device having a light receiving sensor separate from the tracking camera.
PCT/JP2023/039870 2022-12-02 2023-11-06 Information processing device, information processing method, and recording medium WO2024116733A1 (en)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022-193796 2022-12-02

Publications (1)

Publication Number Publication Date
WO2024116733A1 true WO2024116733A1 (en) 2024-06-06

Family

ID=

Similar Documents

Publication Publication Date Title
US20060174291A1 (en) Playback apparatus and method
JP6241802B1 (en) Video distribution system, user terminal device, and video distribution method
WO2015151766A1 (en) Projection photographing system, karaoke device, and simulation device
RU2454024C2 (en) Broadcasting system, transmission device and transmission method, reception device and reception method, and programme
JP2005094713A (en) Data display system, data display method, program and recording medium
JP2008131379A (en) Distribution system and terminal device
WO2024116733A1 (en) Information processing device, information processing method, and recording medium
JP4539639B2 (en) Singing and performance device and singing and performance system
JP2023169373A (en) Information processing device, moving image synthesis method and moving image synthesis program
JP2020102687A (en) Information processing apparatus, image processing apparatus, image processing method, and program
WO2022091464A1 (en) Information processing device, information processing method, and program
JP5803956B2 (en) Karaoke system and karaoke device
JP5794934B2 (en) Collaboration song recording system
WO2023286367A1 (en) Information processing device, information processing method, and program
JP2004205738A (en) Apparatus, program, and method for musical sound generation
KR19990014570A (en) Instant Music Video Production System
JP4311099B2 (en) Sequence control data generation apparatus and program
EP4366321A1 (en) Image processing device, image processing method, and program
JP7258441B2 (en) karaoke device
JP2009094701A (en) Information processing device and program
WO2023037956A1 (en) Musical performance recording method, musical performance recording system, and program
JP2017044765A (en) Image presenting device, image presenting system, and program
WO2023171120A1 (en) Information processing device, information processing method, and program
JP2006304065A (en) Server for use in remote conference, client computer, control method and program
JP2023092665A (en) Video distribution apparatus