JP2021119686A - Information processing apparatus, switching system, program and method - Google Patents

Information processing apparatus, switching system, program and method Download PDF

Info

Publication number
JP2021119686A
JP2021119686A JP2021071382A JP2021071382A JP2021119686A JP 2021119686 A JP2021119686 A JP 2021119686A JP 2021071382 A JP2021071382 A JP 2021071382A JP 2021071382 A JP2021071382 A JP 2021071382A JP 2021119686 A JP2021119686 A JP 2021119686A
Authority
JP
Japan
Prior art keywords
image
virtual camera
person
camera work
captured image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2021071382A
Other languages
Japanese (ja)
Other versions
JP2021119686A5 (en
JP7261261B2 (en
Inventor
大樹 加藤
Daiki Kato
大樹 加藤
崇文 久野
Takafumi Kuno
崇文 久野
秀樹 横山
Hideki Yokoyama
秀樹 横山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Television Network Corp
Original Assignee
Nippon Television Network Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Television Network Corp filed Critical Nippon Television Network Corp
Priority to JP2021071382A priority Critical patent/JP7261261B2/en
Publication of JP2021119686A publication Critical patent/JP2021119686A/en
Publication of JP2021119686A5 publication Critical patent/JP2021119686A5/ja
Application granted granted Critical
Publication of JP7261261B2 publication Critical patent/JP7261261B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Studio Devices (AREA)
  • Image Processing (AREA)
  • Studio Circuits (AREA)
  • Collating Specific Patterns (AREA)

Abstract

To automatically generate videos shot with various kinds of camera works.SOLUTION: A video processing apparatus according to the present invention has: an acquiring unit for acquiring an image captured by a camera; a specific-person designation receiving unit for designating a specific person; a virtual camera work designation receiving unit for designating a virtual camera work by trimming a part of the captured image; a person recognizing unit for recognizing a person; a skeleton frame determining unit for determining a skeleton frame of the person; a person specifying unit for specifying a positional relationship in a captured image of a part of the specific person by using the skeleton frame of the specific person by identifying a specific person based on the result of the person specifying unit; a composition information storing unit for storing composition information with respect to each virtual camera work; a trimming frame size determining unit for trimming a part of the captured image by using the positional relationship in the captured image of the part of the specific person and the composition information; a trimming control unit for controlling a positional relationship of the part of a specific person on the captured image and a position of the captured image of the trimmed frame; and a trimming unit for outputting the trimmed image as a virtual camera work image.SELECTED DRAWING: Figure 2

Description

本発明は情報処理装置、スイッチングシステム、プログラム及び方法に関する。 The present invention relates to information processing devices, switching systems, programs and methods.

近年、カメラの高画素化が進み、高画質な4K、8Kなどの映像を取得できるようになってきた。そして、高画質な映像の一部を切り出すことによって、専用の機材を要することなく、アップや、パンやティルト等のカメラワークを模した動画像を生成する技術が提案されている(例えば、特許文献1)。 In recent years, the number of pixels in cameras has increased, and it has become possible to acquire high-quality images such as 4K and 8K. Then, a technique has been proposed in which a moving image that imitates camera work such as ups and pans and tilts is generated by cutting out a part of a high-quality image without requiring special equipment (for example, a patent). Document 1).

特開2016−28539号公報Japanese Unexamined Patent Publication No. 2016-28539

しかしながら、上記技術は、切り出す被写体を、ユーザが映像中で特定する必要があった。 However, in the above technique, it is necessary for the user to specify the subject to be cut out in the video.

更に、カメラワークによってユーザが自ら切り出す映像のサイズ、位置を指定する必要があり、自動で希望するカメラワークの映像を切り出すことはできなかった。特に、アップの映像といっても、フルショット、バストショット、ウェストショット等の色々なショットがあるが、このような高度なカメラワークを、自動で行うことができなかった。 Further, it is necessary for the user to specify the size and position of the image to be cut out by the camera work, and it is not possible to automatically cut out the desired image of the camera work. In particular, there are various shots such as full shots, bust shots, and waist shots, but such advanced camera work could not be performed automatically.

そこで、本発明は、自動的に多種多様なカメラワークの映像を生成することができる情報処理装置、スイッチングシステム、プログラム及び方法を提供することにある。 Therefore, the present invention is to provide an information processing device, a switching system, a program and a method capable of automatically generating a wide variety of images of camera work.

本発明の一態様は、カメラで撮影された撮影映像を取得する取得部と、被写体となる特定人物を指定する特定人物指定受付部と、前記撮影映像の一部をトリミングして、仮想的なカメラの操作による映像効果を実現する仮想カメラワークを指定する仮想カメラワーク指定受付部と、前記撮影映像中の人物を認識する人物認識部と、前記撮影映像を用いて、前記映像中の人物の骨格を判定する骨格判定部と、前記人物認識部の認識結果を用いて前記映像中の特定人物を識別し、前記骨格判定部により判定された骨格のうち前記特定人物の骨格を用いて、前記特定人物の部位の撮影映像上の位置関係を特定する人物特定部と、前記仮想カメラワーク毎に、構図が定められた構図情報が格納された構図情報記憶部と、前記特定人物の部位の撮影映像上の位置関係と、前記指定された仮想カメラワークに対応する構図情報とを用いて、前記撮影映像の一部をトリミングするトリミングフレームのサイズを決定するトリミングフレームサイズ決定部と、前記特定人物の部位の撮影映像上の位置関係と、前記指定された仮想カメラワークに対応する構図情報とを用いて、前記指定された仮想カメラワークに対応するトリミングフレームの前記撮影映像の位置を制御するトリミングフレーム制御部と、前記撮影映像から前記トリミングフレーム内の映像をトリミングし、トリミングされたトリミング映像を、前記仮想カメラワークによる仮想カメラワーク映像として出力するトリミング部とを有する映像処理装置である。 One aspect of the present invention is a virtual acquisition unit that acquires a photographed image captured by a camera, a specific person designation reception unit that specifies a specific person to be a subject, and a part of the photographed image is trimmed. A virtual camera work designation reception unit that specifies a virtual camera work that realizes a video effect by operating a camera, a person recognition unit that recognizes a person in the captured image, and a person in the image using the captured image. The skeleton determination unit for determining the skeleton and the recognition result of the person recognition unit are used to identify a specific person in the image, and among the skeletons determined by the skeleton determination unit, the skeleton of the specific person is used. A person identification unit that specifies the positional relationship on the captured image of a specific person's part, a composition information storage unit that stores composition information for which a composition is defined for each virtual camera work, and an image of the specific person's part. A trimming frame size determination unit that determines the size of a trimming frame that trims a part of the captured image using the positional relationship on the image and the composition information corresponding to the specified virtual camera work, and the specific person. Trimming that controls the position of the captured image of the trimming frame corresponding to the specified virtual camera work by using the positional relationship of the portion on the captured image and the composition information corresponding to the specified virtual camera work. It is a video processing device having a frame control unit and a trimming unit that trims an image in the trimming frame from the captured image and outputs the trimmed trimmed image as a virtual camerawork image by the virtual camera work.

本発明の一態様は、少なくとも2以上の映像処理装置と、表示部と、スイッチング部とを有し、前記映像処理装置は、カメラで撮影された撮影映像を取得する取得部と、被写体となる特定人物を指定する特定人物指定受付部と、前記撮影映像の一部をトリミングして、仮想的なカメラの操作による映像効果を実現する仮想カメラワークを指定する仮想カメラワーク指定受付部と、前記撮影映像中の人物を認識する人物認識部と、前記撮影映像を用いて、前記映像中の人物の骨格を判定する骨格判定部と、前記人物認識部の認識結果を用いて前記映像中の特定人物を識別し、前記骨格判定部により判定された骨格のうち前記特定人物の骨格を用いて、前記特定人物の部位の撮影映像上の位置関係を特定する人物特定部と、前記仮想カメラワーク毎に、構図が定められた構図情報が格納された構図情報記憶部と、前記特定人物の部位の撮影映像上の位置関係と、前記指定された仮想カメラワークに対応する構図情報とを用いて、前記撮影映像の一部をトリミングするトリミングフレームのサイズを決定するトリミングフレームサイズ決定部と、前記特定人物の部位の撮影映像上の位置関係と、前記指定された仮想カメラワークに対応する構図情報とを用いて、前記指定された仮想カメラワークに対応するトリミングフレームの前記撮影映像の位置を制御するトリミングフレーム制御部と、前記撮影映像から前記トリミングフレーム内の映像をトリミングし、トリミングされたトリミング映像を、前記仮想カメラワークによる仮想カメラワーク映像として出力するトリミング部とを有し、前記表示部は、前記撮影映像と、少なくとも二以上の前記仮想カメラワーク映像とを表示し、前記スイッチング部は、少なくとも二以上の前記仮想カメラワーク映像のうち、ユーザにより指定されたひとつの仮想カメラワーク映像を出力するスイッチングシステムである。 One aspect of the present invention includes at least two or more image processing devices, a display unit, and a switching unit, and the image processing device serves as an acquisition unit for acquiring a captured image captured by a camera and a subject. A specific person designation reception unit for designating a specific person, a virtual camera work designation reception unit for designating a virtual camera work that realizes a video effect by operating a virtual camera by trimming a part of the shot image, and the above. A person recognition unit that recognizes a person in a captured image, a skeleton determination unit that determines the skeleton of a person in the image using the captured image, and identification in the image using the recognition result of the person recognition unit. A person identification unit that identifies a person and uses the skeleton of the specific person among the skeletons determined by the skeleton determination unit to specify the positional relationship of the specific person's part on the captured image, and each of the virtual camera works. Using the composition information storage unit that stores the composition information for which the composition is defined, the positional relationship of the specific person's part on the captured image, and the composition information corresponding to the designated virtual camera work. The trimming frame size determining unit that determines the size of the trimming frame that trims a part of the captured image, the positional relationship of the specific person's part on the captured image, and the composition information corresponding to the specified virtual camera work. A trimming frame control unit that controls the position of the captured image of the trimming frame corresponding to the specified virtual camera work, and a trimmed image obtained by trimming the image in the trimming frame from the captured image. The display unit has a trimming unit that outputs the image as a virtual camera work image by the virtual camera work, the display unit displays the captured image and at least two or more of the virtual camera work images, and the switching unit is a switching unit. It is a switching system that outputs one virtual camera work image specified by a user among at least two or more virtual camera work images.

本発明の一態様は、カメラで撮影された撮影映像を取得する取得処理と、被写体となる特定人物の指定を受付ける特定人物指定受付処理と、前記撮影映像の一部をトリミングして、仮想的なカメラの操作による映像効果を実現する仮想カメラワークの指定を受付ける仮想カメラワーク指定受付処理と、前記撮影映像中の人物を認識する人物認識処理と、前記撮影映像を用いて、前記映像中の人物の骨格を判定する骨格判定処理と、前記人物認識処理の認識結果を用いて前記映像中の特定人物を識別し、前記骨格判定処理により判定された骨格のうち前記特定人物の骨格を用いて、前記特定人物の部位の撮影映像上の位置関係を特定する人物特定処理と、前記特定人物の部位の撮影映像上の位置関係と、前記仮想カメラワーク毎に構図が定められた構図情報のうち前記指定された仮想カメラワークに対応する構図情報とを用いて、前記撮影映像の一部をトリミングするトリミングフレームのサイズを決定するトリミングフレームサイズ決定処理と、前記特定人物の部位の撮影映像上の位置関係と、前記指定された仮想カメラワークに対応する構図情報とを用いて、前記指定された仮想カメラワークに対応するトリミングフレームの前記撮影映像の位置を制御するトリミングフレーム制御処理と、前記撮影映像から前記トリミングフレーム内の映像をトリミングし、トリミングされた映像を、前記仮想カメラワークによる仮想カメラワーク映像として出力するトリミング処理とを、コンピュータに実行させるプログラムである。 One aspect of the present invention is a virtual acquisition process for acquiring a captured image captured by a camera, a specific person designation reception process for accepting the designation of a specific person to be a subject, and trimming a part of the captured image to create a virtual image. A virtual camera work designation reception process that accepts a designation of a virtual camera work that realizes a video effect by operating a different camera, a person recognition process that recognizes a person in the shot video, and a person recognition process that recognizes the person in the shot video, and the shot video is used in the video. The skeleton determination process for determining the skeleton of a person and the recognition result of the person recognition process are used to identify a specific person in the image, and the skeleton of the specific person among the skeletons determined by the skeleton determination process is used. Of the person identification process for specifying the positional relationship of the specific person's part on the photographed image, the positional relationship of the specific person's part on the photographed image, and the composition information whose composition is determined for each virtual camera work. The trimming frame size determination process for determining the size of the trimming frame for trimming a part of the captured image using the composition information corresponding to the designated virtual camera work, and the captured image of the specific person's part. Using the positional relationship and the composition information corresponding to the specified virtual camera work, a trimming frame control process for controlling the position of the captured image of the trimming frame corresponding to the specified virtual camera work, and the shooting This is a program for causing a computer to perform a trimming process of trimming an image in the trimming frame from an image and outputting the trimmed image as a virtual camera work image by the virtual camera work.

本発明の一態様は、カメラで撮影された撮影映像を取得する取得処理と、被写体となる特定人物の指定を受付ける特定人物指定処理と、前記撮影映像の一部をトリミングして、仮想的なカメラの操作による映像効果を実現する仮想カメラワークの指定を受付ける仮想カメラワーク指定処理と、前記撮影映像中の人物を認識する人物認識処理と、前記撮影映像を用いて、前記映像中の人物の骨格を判定する骨格判定処理と、前記人物認識処理の認識結果を用いて前記映像中の特定人物を識別し、前記骨格判定処理により判定された骨格のうち前記特定人物の骨格を用いて、前記特定人物の全身の撮影映像上の位置関係を特定する人物特定処理と、前記特定人物の全身の撮影映像上の位置関係と、前記仮想カメラワーク毎に被写体の構図が定められた構図情報のうち前記指定された仮想カメラワークに対応する構図情報とを用いて、前記撮影映像の一部をトリミングするトリミングフレームのサイズを決定するトリミングフレームサイズ決定処理と、前記特定人物の全身の撮影映像上の位置関係と、前記指定された仮想カメラワークに対応する構図情報とを用いて、前記指定された仮想カメラワークに対応するトリミングフレームの前記撮影映像の位置を制御するトリミングフレーム制御処理と、前記撮影映像から前記トリミングフレーム内の映像をトリミングし、トリミングされた映像を、前記仮想カメラワークによる仮想カメラワーク映像として出力するトリミング処理と、前記撮影映像と、少なくとも二以上の特定人物又は少なくとも二以上の仮想カメラワークに対応した少なくとも二以上の仮想カメラワーク映像とを、表示する表示処理と表示されている少なくとも二以上の仮想カメラワーク映像のうち、ユーザにより指定されたひとつの仮想カメラワーク映像を出力するスイッチング処理とを、コンピュータに実行させるプログラム。 One aspect of the present invention is a virtual acquisition process for acquiring a captured image captured by a camera, a specific person designation process for accepting the designation of a specific person as a subject, and a virtual trimming of a part of the captured image. Using the virtual camera work designation process that accepts the designation of the virtual camera work that realizes the image effect by operating the camera, the person recognition process that recognizes the person in the captured image, and the photographed image, the person in the image is The specific person in the image is identified by using the skeleton determination process for determining the skeleton and the recognition result of the person recognition process, and the skeleton of the specific person among the skeletons determined by the skeleton determination process is used. Of the person identification process that specifies the positional relationship of the whole body of a specific person on the captured image, the positional relationship of the specific person on the captured image of the whole body, and the composition information in which the composition of the subject is determined for each virtual camera work. The trimming frame size determination process for determining the size of the trimming frame for trimming a part of the captured image using the composition information corresponding to the designated virtual camera work, and the captured image of the whole body of the specific person. Using the positional relationship and the composition information corresponding to the specified virtual camera work, a trimming frame control process for controlling the position of the captured image of the trimming frame corresponding to the specified virtual camera work, and the shooting A trimming process that trims the image in the trimming frame from the image and outputs the trimmed image as a virtual camera work image by the virtual camera work, and the captured image and at least two or more specific persons or at least two or more. Display at least two or more virtual camera work images corresponding to virtual camera work Output one virtual camera work image specified by the user out of the display processing and the displayed at least two or more virtual camera work images. A program that causes a computer to perform switching processing.

本発明の一態様は、コンピュータは、カメラで撮影された撮影映像を取得し、被写体となる特定人物の指定を受付け、前記撮影映像の一部をトリミングして、仮想的なカメラの操作による映像効果を実現する仮想カメラワークの指定を受付け、前記撮影映像中の人物を認識し、前記撮影映像を用いて、前記映像中の人物の骨格を判定し、前記人物の認識結果を用いて前記映像中の特定人物を識別し、前記判定された骨格のうち前記特定人物の骨格を用いて、前記特定人物の部位の撮影映像上の位置関係を特定し、前記特定人物の部位の撮影映像上の位置関係と、前記仮想カメラワーク毎に構図が定められた構図情報のうち前記指定された仮想カメラワークに対応する構図情報とを用いて、前記撮影映像の一部をトリミングするトリミングフレームのサイズを決定し、前記特定人物の部位の撮影映像上の位置関係と、前記指定された仮想カメラワークに対応する構図情報とを用いて、前記指定された仮想カメラワークに対応するトリミングフレームの前記撮影映像の位置を制御し、前記撮影映像から前記トリミングフレーム内の映像をトリミングし、トリミングされた映像を、前記仮想カメラワークによる仮想カメラワーク映像として出力する映像処理方法である。 In one aspect of the present invention, the computer acquires a photographed image taken by the camera, accepts the designation of a specific person as a subject, trims a part of the photographed image, and operates the image by a virtual camera. Accepts the designation of virtual camera work to realize the effect, recognizes the person in the captured image, determines the skeleton of the person in the image using the photographed image, and uses the recognition result of the person to determine the image. The specific person in the image is identified, the positional relationship of the specific person's part on the captured image is specified by using the skeleton of the specific person among the determined skeletons, and the specific person's part is on the photographed image. The size of the trimming frame for trimming a part of the captured image is determined by using the positional relationship and the composition information corresponding to the specified virtual camera work among the composition information whose composition is determined for each virtual camera work. The captured image of the trimming frame corresponding to the specified virtual camera work is used by determining the positional relationship of the specific person's part on the captured image and the composition information corresponding to the specified virtual camera work. This is a video processing method in which the position of the image is controlled, the image in the trimming frame is trimmed from the captured image, and the trimmed image is output as a virtual camera work image by the virtual camera work.

本発明の一態様は、コンピュータは、カメラで撮影された撮影映像を取得し、被写体となる特定人物の指定を受付け、前記撮影映像の一部をトリミングして、仮想的なカメラの操作による映像効果を実現する仮想カメラワークの指定を受付け、前記撮影映像中の人物を認識し、前記撮影映像を用いて、前記映像中の人物の骨格を判定し、前記人物の認識結果を用いて前記映像中の特定人物を識別し、前記判定された骨格のうち前記特定人物の骨格を用いて、前記特定人物の全身の撮影映像上の位置関係を特定し、前記特定人物の全身の撮影映像上の位置関係と、前記仮想カメラワーク毎に被写体の構図が定められた構図情報のうち前記指定された仮想カメラワークに対応する構図情報とを用いて、前記撮影映像の一部をトリミングするトリミングフレームのサイズを決定し、前記特定人物の全身の撮影映像上の位置関係と、前記指定された仮想カメラワークに対応する構図情報とを用いて、前記指定された仮想カメラワークに対応するトリミングフレームの前記撮影映像の位置を制御し、前記撮影映像から前記トリミングフレーム内の映像をトリミングし、トリミングされた映像を、前記仮想カメラワークによる仮想カメラワーク映像として出力し、前記撮影映像と、少なくとも二以上の特定人物又は少なくとも二以上の仮想カメラワークに対応した少なくとも二以上の仮想カメラワーク映像とを、表示し、表示されている少なくとも二以上の仮想カメラワーク映像のうち、ユーザにより指定されたひとつの仮想カメラワーク映像を出力するスイッチング方法である。 In one aspect of the present invention, the computer acquires a photographed image taken by the camera, accepts the designation of a specific person as a subject, trims a part of the photographed image, and operates the image by a virtual camera. Accepts the designation of virtual camera work to realize the effect, recognizes the person in the captured image, determines the skeleton of the person in the image using the photographed image, and uses the recognition result of the person to determine the image. The specific person in the image is identified, and the skeleton of the specific person is used among the determined skeletons to identify the positional relationship on the photographed image of the whole body of the specific person. A trimming frame that trims a part of the captured image using the positional relationship and the composition information corresponding to the specified virtual camera work among the composition information in which the composition of the subject is determined for each virtual camera work. The size is determined, and the trimming frame corresponding to the specified virtual camera work is used with the positional relationship on the captured image of the whole body of the specific person and the composition information corresponding to the specified virtual camera work. The position of the captured image is controlled, the image in the trimming frame is trimmed from the captured image, and the trimmed image is output as a virtual camera work image by the virtual camera work, and the photographed image and at least two or more images are output. At least two or more virtual camera work images corresponding to a specific person or at least two or more virtual camera works are displayed, and one of the displayed at least two virtual camera work images, one virtual specified by the user. This is a switching method that outputs camera work images.

本発明は、自動的に多種多様なカメラワークの映像を生成することができる。 The present invention can automatically generate a wide variety of camera work images.

図1は第1の実施の形態の全体の構成を示すブロック図である。FIG. 1 is a block diagram showing the overall configuration of the first embodiment. 図2は映像処理装置2のブロック図である。FIG. 2 is a block diagram of the video processing device 2. 図3は顔認識を説明するための図である。FIG. 3 is a diagram for explaining face recognition. 図4は骨格判定を説明するための図である。FIG. 4 is a diagram for explaining the skeleton determination. 図5は人物特定部26による特定人物の部位の撮影映像上の位置関係の特定を説明するための図である。FIG. 5 is a diagram for explaining the identification of the positional relationship on the captured image of the portion of the specific person by the person identification unit 26. 図6はコンピュータシステムによって構成された映像処理装置2のブロック図である。FIG. 6 is a block diagram of a video processing device 2 configured by a computer system. 図7はタブレット端末(コンピュータ100)の表示部を説明するための図である。FIG. 7 is a diagram for explaining a display unit of the tablet terminal (computer 100). 図8は映像処理装置2の全体的な動作フローチャートであFIG. 8 is an overall operation flowchart of the video processing device 2. 図9は映像処理装置2の全体的な動作を説明するための図である。FIG. 9 is a diagram for explaining the overall operation of the video processing device 2. 図10は第1のトリミングフレームを説明するための図である。FIG. 10 is a diagram for explaining the first trimming frame. 図11は第2のトリミングフレームを説明するための図である。FIG. 11 is a diagram for explaining a second trimming frame. 図12は第3のトリミングフレームを説明するための図である。FIG. 12 is a diagram for explaining a third trimming frame. 図13は第4のトリミングフレームを説明するための図である。FIG. 13 is a diagram for explaining a fourth trimming frame. 図14は第1の実施の形態の動作を説明するための図である。FIG. 14 is a diagram for explaining the operation of the first embodiment. 図15は第1の実施の形態の動作を説明するための図である。FIG. 15 is a diagram for explaining the operation of the first embodiment. 図16は第1の実施の形態の動作を説明するための図である。FIG. 16 is a diagram for explaining the operation of the first embodiment. 図17は第1の実施の形態の動作を説明するための図である。FIG. 17 is a diagram for explaining the operation of the first embodiment. 図18は第1の実施の形態の動作を説明するための図である。FIG. 18 is a diagram for explaining the operation of the first embodiment. 図19は第1の実施の形態の動作を説明するための図である。FIG. 19 is a diagram for explaining the operation of the first embodiment. 図20は第1の実施の形態の動作を説明するための図である。FIG. 20 is a diagram for explaining the operation of the first embodiment. 図21は第1の実施の形態の動作を説明するための図である。FIG. 21 is a diagram for explaining the operation of the first embodiment. 図22は第1の実施の形態の動作を説明するための図である。FIG. 22 is a diagram for explaining the operation of the first embodiment. 図23は第1の実施の形態の動作を説明するための図である。FIG. 23 is a diagram for explaining the operation of the first embodiment. 図24は第1の実施の形態の動作を説明するための図である。FIG. 24 is a diagram for explaining the operation of the first embodiment. 図25は第1の実施の形態の動作を説明するための図である。FIG. 25 is a diagram for explaining the operation of the first embodiment. 図26は第1の実施の形態の動作を説明するための図である。FIG. 26 is a diagram for explaining the operation of the first embodiment. 図27は第1の実施の形態の動作を説明するための図である。FIG. 27 is a diagram for explaining the operation of the first embodiment. 図28は第1の実施の形態の変形例の動作を説明するための図である。FIG. 28 is a diagram for explaining the operation of the modified example of the first embodiment. 図29は第1の実施の形態の変形例の動作を説明するための図である。FIG. 29 is a diagram for explaining the operation of the modified example of the first embodiment. 図30は第1の実施の形態の変形例を説明するための図である。FIG. 30 is a diagram for explaining a modified example of the first embodiment. 図31は第1の実施の形態の変形例の動作を説明するための図である。FIG. 31 is a diagram for explaining the operation of the modified example of the first embodiment. 図32は第1の実施の形態の変形例の動作を説明するための図である。FIG. 32 is a diagram for explaining the operation of the modified example of the first embodiment. 図33は第1の実施の形態の変形例の情報処理装置2のブロック図である。FIG. 33 is a block diagram of the information processing apparatus 2 of the modified example of the first embodiment. 図34は第2の実施の形態の情報処理装置2のブロック図である。FIG. 34 is a block diagram of the information processing apparatus 2 according to the second embodiment. 図35は第2の実施の形態の動作を説明するための図である。FIG. 35 is a diagram for explaining the operation of the second embodiment. 図36は第2の実施の形態の動作を説明するための図である。FIG. 36 is a diagram for explaining the operation of the second embodiment. 図37は第2の実施の形態の動作を説明するための図である。FIG. 37 is a diagram for explaining the operation of the second embodiment. 図38は第3の実施の形態のスイッチングシステムのブロック図である。FIG. 38 is a block diagram of the switching system of the third embodiment. 図39は第3の実施の形態の動作を説明するための図である。FIG. 39 is a diagram for explaining the operation of the third embodiment. 図40は第3の実施の形態の動作を説明するための図である。FIG. 40 is a diagram for explaining the operation of the third embodiment. 図41は第3の実施の形態の動作を説明するための図である。FIG. 41 is a diagram for explaining the operation of the third embodiment.

<第1の実施の形態>
第1の実施の形態を説明する。
<First Embodiment>
The first embodiment will be described.

図1は第1の実施の形態の全体の構成を示すブロック図である。図1中、1はカメラ、2は映像処理装置、3は表示装置である。 FIG. 1 is a block diagram showing the overall configuration of the first embodiment. In FIG. 1, 1 is a camera, 2 is a video processing device, and 3 is a display device.

カメラ1は、番組を撮影するカメラである。カメラ1は、原則1台で、被写体(例えば、番組の出演者)全員が写るような広い画角で、番組を撮影する。本実施の形態は、後述するように、カメラ1が撮影した映像(以下、撮影映像と記載する)の一部をトリミングすることにより、仮想的なカメラワークの映像を生成するため、カメラ1は高画質な映像が撮影できる4K又は8Kのカメラが好ましいが、これらに限定されるものではない。 The camera 1 is a camera that shoots a program. As a general rule, one camera 1 shoots a program with a wide angle of view so that all the subjects (for example, the performers of the program) can be captured. In the present embodiment, as will be described later, the camera 1 generates a virtual camera work image by trimming a part of the image captured by the camera 1 (hereinafter, referred to as a captured image). A 4K or 8K camera capable of capturing high-quality images is preferable, but the present invention is not limited thereto.

映像処理装置2は、カメラ1の撮影映像を入力し、被写体に対してユーザが指定するカメラワーク(以下、仮想カメラワークと記載する)を行った場合に得られる映像(以下、仮想カメラワーク映像と記載する)を出力する。仮想カメラワークは、仮想的なカメラの操作によって得られる映像効果(例えば、映像の構図、画角を変化させる)を実現するものであり、例えば、アップショット、バストショット、ウェストショット、フルショット、パン(左右)、ティルト(上下)、ロール、ズームイン、ズームアウトなどがある。仮想カメラワーク映像は、被写体に対する仮想カメラワークを指定することによりその仮想カメラワークに対応する映像を、入力された撮影映像からトリミング(切り出す)することにより得られる映像である。 The image processing device 2 inputs an image captured by the camera 1 and performs an image obtained when a user-designated camera work (hereinafter referred to as virtual camera work) is performed on the subject (hereinafter, virtual camera work image). Is described) is output. Virtual camera work realizes video effects obtained by operating a virtual camera (for example, changing the composition and angle of view of the video), for example, up shot, bust shot, waist shot, full shot, etc. There are pan (left and right), tilt (up and down), roll, zoom in, zoom out, etc. The virtual camera work image is an image obtained by trimming (cutting out) an image corresponding to the virtual camera work from the input captured image by designating the virtual camera work for the subject.

表示装置3は、撮影映像と、映像処理装置2から出力される仮想カメラワーク映像とが出力されるディスプレイである。しかし、表示装置3は、表示機能のみならず、タブレット端末のように、タッチパネルの機能を持つディスプレイであっても良い。 The display device 3 is a display that outputs a captured image and a virtual camera work image output from the image processing device 2. However, the display device 3 may be a display having not only a display function but also a touch panel function such as a tablet terminal.

次に、映像処理装置2を説明する。図2は映像処理装置2のブロック図である。 Next, the video processing apparatus 2 will be described. FIG. 2 is a block diagram of the video processing device 2.

映像処理装置2は、撮影映像入力部20と、特定人物指定受付部21と、仮想カメラワーク指定受付部22と、顔画像辞書部23と、顔認識部24と、骨格判定部25と、人物特定部26と、構図データベース27と、トリミングフレームサイズ決定部28と、トリミング制御部29と、トリミング部30とを備える。 The image processing device 2 includes a captured image input unit 20, a specific person designation reception unit 21, a virtual camera work designation reception unit 22, a face image dictionary unit 23, a face recognition unit 24, a skeleton determination unit 25, and a person. It includes a specific unit 26, a composition database 27, a trimming frame size determination unit 28, a trimming control unit 29, and a trimming unit 30.

撮影映像入力部20は、カメラ1が撮影した撮影映像を入力するものである。 The captured image input unit 20 inputs the captured image captured by the camera 1.

特定人物指定受付部21は、仮想カメラワークの被写体となる人物の指定を、ユーザから受け付けるものである。特定人物指定受付部21は、例えば、タッチ操作パッド、マウス、キーボードといった直接ユーザが指で操作する素子はもちろん、ユーザの音声を取得するマイクや、加速度センサや角速度センサ、傾斜センサ、地磁気センサといった、運動や姿勢を検知する素子等によっても実現できる。 The specific person designation reception unit 21 receives from the user the designation of the person who is the subject of the virtual camera work. The specific person designation reception unit 21 includes, for example, elements such as a touch operation pad, a mouse, and a keyboard that the user directly operates with a finger, as well as a microphone that acquires the user's voice, an acceleration sensor, an angular velocity sensor, an inclination sensor, and a geomagnetic sensor. It can also be realized by an element that detects movement or posture.

仮想カメラワークの被写体の人物は、撮影映像に写っている人物であれば良い。また、仮想カメラワークの被写体となる人物(以下、特定人物と記載する)の指定は、特定人物の氏名を直接に入力して指定する方法、予め用意されている氏名から選択して指定する方法、音声入力によって特定人物を指定する方法、表示されている撮影映像中の人物をタッチパネル等の入力手段により選択して指定する方法等があるが、これらには限られない。 The person who is the subject of the virtual camera work may be the person shown in the captured image. In addition, the person to be the subject of virtual camera work (hereinafter referred to as a specific person) can be specified by directly inputting the name of the specific person or by selecting from the names prepared in advance. , A method of designating a specific person by voice input, a method of selecting and designating a person in the displayed captured image by an input means such as a touch panel, and the like, but the present invention is not limited to these.

仮想カメラワーク指定受付部22は、仮想カメラワークの指定を、ユーザから受け付けるものである。仮想カメラワーク指定受付部22は、例えば、タッチ操作パッド、マウス、キーボードといった直接ユーザが指で操作する素子はもちろん、ユーザの音声を取得するマイクや、加速度センサや角速度センサ、傾斜センサ、地磁気センサといった、運動や姿勢を検知する素子等によっても実現できる。 The virtual camera work designation reception unit 22 receives the designation of the virtual camera work from the user. The virtual camera work designation reception unit 22 includes not only elements directly operated by the user such as a touch operation pad, mouse, and keyboard, but also a microphone that acquires the user's voice, an acceleration sensor, an angular velocity sensor, an inclination sensor, and a geomagnetic sensor. It can also be realized by an element that detects movement or posture.

仮想カメラワークの指定は、カメラワークの種類を直接入力して指定する方法、予め用意されているカメラワークから選択して指定する方法、音声入力によってカメラワークを指定する方法等があるが、これらには限られない。 The virtual camera work can be specified by directly inputting the type of camera work, selecting from the camera work prepared in advance, and specifying the camera work by voice input. Not limited to.

顔画像辞書部23は、カメラ1で撮影される被写体の顔の画像データ、例えば、番組の出演者の顔の画像データが登録された記憶部である。画像データは、被写体の顔の特徴量のデータ等である。 The face image dictionary unit 23 is a storage unit in which image data of the face of a subject photographed by the camera 1, for example, image data of the face of a performer of a program is registered. The image data is data such as the feature amount of the face of the subject.

顔認識部24は、顔認識辞書23を用いて、撮影映像中の人物を認識するものである。認識方法の種類は問わないが、パターンマッチングによる方法、機械学習して得られたアルゴリズムによる認識などがある。機械学習の方法は、深層学習(ディープラーニング)が代表的なものであるが、これに限られない。顔認識部24は、これらの方法用いて、撮影映像中の人物を認識する。具体的に説明すると、図3に示すような三人の出演者が映った撮影映像の場合、三人の出演者の顔を認識する。図3の例では、撮影映像中の人物A、人物B、人物Cが認識されている。 The face recognition unit 24 recognizes a person in the captured image by using the face recognition dictionary 23. The type of recognition method does not matter, but there are methods such as pattern matching and recognition by algorithms obtained by machine learning. Deep learning is a typical method of machine learning, but it is not limited to this. The face recognition unit 24 recognizes a person in the captured image by using these methods. More specifically, in the case of a photographed video showing three performers as shown in FIG. 3, the faces of the three performers are recognized. In the example of FIG. 3, the person A, the person B, and the person C in the captured image are recognized.

骨格判定部25は、撮影映像中に写っている人物の骨格を判定する。骨格判定の手法は、例えば、OpenPose、VisionPose、tf-pose-estimation等があるが、これらに限られない。骨格判定部25は、例えば、図4に示すような三人の出演者が映った撮影映像の場合、三人の出演者の骨格を判定する。 The skeleton determination unit 25 determines the skeleton of the person shown in the captured image. The skeleton determination method includes, for example, OpenPose, VisionPose, tf-pose-estimation, and the like, but is not limited to these. The skeleton determination unit 25 determines the skeletons of the three performers, for example, in the case of a photographed video showing the three performers as shown in FIG.

人物特定部26は、特定人物指定受付部21で受け付けた特定人物を、顔認識部24の結果を用いて撮影映像から特定し、その特定人物の骨格判定部25による骨格判定の結果を用いて、特定人物の部位の撮影映像上の位置関係を特定する。 The person identification unit 26 identifies a specific person received by the specific person designation reception unit 21 from the captured video using the result of the face recognition unit 24, and uses the result of the skeleton determination by the skeleton determination unit 25 of the specific person. , Specify the positional relationship of the part of a specific person on the captured image.

人物特定部26による特定人物の部位の撮影映像上の位置関係の特定について説明する。図5は人物特定部26による特定人物の部位の撮影映像上の位置関係の特定を説明するための図である。図5は特定人物が人物Bの場合を示しており、人物Bの部位の骨格判定の結果を示している。図5では、骨格の頂点から足の骨格の最下部までを人物Bの縦方向の全身としている。また、縦方向のうち、骨格の頂点から骨格の首部までを縦方向の人物Bの顔としている。また、縦方向のうち、骨格の首部から骨格の股関節に対応する部分までを人物Bの上半身としている。また、縦方向のうち、骨格の股関節に対応する部分から足の先端部までを人物Bの下半身としている。また、骨格が横方向に占める最大の範囲を人物Bの全身の横幅としている。また、顔の骨格のうち横方向に占める最大の範囲を人物Bの顔の横幅としている。また、縦方向の右手先から右腕の肘関節までの長さを縦右前腕部の長さとしている。横方向の右手先から右腕の肘関節までの長さを横右前腕部の長さとしている。また、縦方向の左手先から左腕の肘関節までの長さを縦左前腕部の長さとしている。横方向の左手先から左腕の肘関節までの長さを横左前腕部の長さとしている。また、骨格の首部を通る垂線を、人物Bの骨格中心線としている。そして、人物特定部26は、特定人物の各部位の位置及び長さを、撮影映像の画素位置に対応させて特定する。以上の人物特定部26による特定人物の部位の判定は一例であり、適時、判定する部位を変更しても良い。 The identification of the positional relationship on the captured image of the part of the specific person by the person identification unit 26 will be described. FIG. 5 is a diagram for explaining the identification of the positional relationship on the captured image of the portion of the specific person by the person identification unit 26. FIG. 5 shows the case where the specific person is the person B, and shows the result of the skeleton determination of the part of the person B. In FIG. 5, the whole body in the vertical direction of the person B is from the apex of the skeleton to the bottom of the skeleton of the foot. Further, in the vertical direction, the face from the apex of the skeleton to the neck of the skeleton is the face of the person B in the vertical direction. Further, in the vertical direction, the portion from the neck of the skeleton to the portion corresponding to the hip joint of the skeleton is the upper body of the person B. Further, in the vertical direction, the lower body of the person B is from the portion corresponding to the hip joint of the skeleton to the tip of the foot. Further, the maximum range occupied by the skeleton in the lateral direction is defined as the width of the whole body of the person B. Further, the maximum range occupied in the horizontal direction in the skeleton of the face is defined as the width of the face of the person B. The length from the right hand in the vertical direction to the elbow joint of the right arm is defined as the length of the vertical right forearm. The length from the right hand in the lateral direction to the elbow joint of the right arm is defined as the length of the lateral right forearm. The length from the left hand in the vertical direction to the elbow joint of the left arm is defined as the length of the vertical left forearm. The length from the left hand in the lateral direction to the elbow joint of the left arm is defined as the length of the lateral left forearm. Further, the perpendicular line passing through the neck of the skeleton is defined as the skeleton center line of the person B. Then, the person identification unit 26 specifies the position and length of each part of the specific person in correspondence with the pixel position of the captured image. The determination of the part of the specific person by the above person identification unit 26 is an example, and the part to be determined may be changed in a timely manner.

尚、顔認識部24、骨格判定部25及び人物特定部26による処理に用いる画像は、かならずしも撮影映像である必要はない。撮影映像よりも解像度の低い映像を用いることも可能である。撮影映像よりも解像度の低い映像を用いることにより、顔認識部24、骨格判定部25及び人物特定部26の処理速度が速くなるという効果を得られる。 The image used for processing by the face recognition unit 24, the skeleton determination unit 25, and the person identification unit 26 does not necessarily have to be a captured image. It is also possible to use an image having a lower resolution than the captured image. By using an image having a resolution lower than that of the captured image, it is possible to obtain an effect that the processing speed of the face recognition unit 24, the skeleton determination unit 25, and the person identification unit 26 becomes faster.

構図データベース27は、仮想カメラワークの種類毎の構図情報が記憶されたデータベースである。構図情報は、被写体をどのような構図で映すかの情報である。具体的には、構図情報は、被写体フレームの大きさ(例えば、縦又は横の長さ)、使用するトリミングフレームの種類、トリミングフレームの位置(例えば、骨格中心線との位置関係)、トリミングフレームの移動の制御情報等がある。 The composition database 27 is a database in which composition information for each type of virtual camera work is stored. The composition information is information on what kind of composition the subject is projected on. Specifically, the composition information includes the size of the subject frame (for example, vertical or horizontal length), the type of trimming frame to be used, the position of the trimming frame (for example, the positional relationship with the skeleton center line), and the trimming frame. There is control information of the movement of.

トリミングフレームサイズ決定部28は、指定された仮想カメラワークと、特定人物の骨格と、構図データベース27の構図情報とから、撮影映像から被写体を切り出す(トリミング)ためのトリミングフレームのサイズを決定する。 The trimming frame size determination unit 28 determines the size of the trimming frame for cutting out (trimming) the subject from the captured image from the designated virtual camera work, the skeleton of the specific person, and the composition information of the composition database 27.

トリミング制御部29は、トリミングフレームサイズ決定部28により決定されたサイズのトリミングフレームの映像上の位置を制御する。 The trimming control unit 29 controls the position of the trimming frame of the size determined by the trimming frame size determination unit 28 on the image.

トリミング部30は、撮影映像から、トリミング制御部29により制御されて映像上の所定の位置に配置されたトリミングフレーム内の映像をトリミングする。 The trimming unit 30 trims the image in the trimming frame, which is controlled by the trimming control unit 29 and arranged at a predetermined position on the image, from the captured image.

上述した映像処理装置2は、具体的には、各種の演算処理等を行うプロセッサを有するコンピュータシステムによって実現することができる。図6はコンピュータシステムによって構成された映像処理装置2のブロック図である。 Specifically, the video processing device 2 described above can be realized by a computer system having a processor that performs various arithmetic processes and the like. FIG. 6 is a block diagram of a video processing device 2 configured by a computer system.

映像処理装置2は、図6に示す如く、プロセッサ101、メモリ(ROMやRAM)102、記憶装置(ハードディスク、半導体ディスクなど)103、入力装置(キーボード、マウス、タッチパネルなど)104、通信装置105を有するコンピュータ100により構成することができる。 As shown in FIG. 6, the image processing device 2 includes a processor 101, a memory (ROM or RAM) 102, a storage device (hard disk, semiconductor disk, etc.) 103, an input device (keyboard, mouse, touch panel, etc.) 104, and a communication device 105. It can be configured by the computer 100 having the computer 100.

映像処理装置2は、記憶装置103に格納されたプログラムがメモリ102にロードされ、プロセッサ101により実行されることにより、撮影映像入力処理110、特定人物指定受付処理111、仮想カメラワーク指定受付処理112、顔認識処理113、骨格判定処理114、人物特定処理115、トリミングフレームサイズ決定処理116、トリミング制御処理117及びトリミング処理118が実現されるものである。ここで、撮影映像入力処理110は撮影映像入力部20に対応し、特定人物指定受付処理111は特定人物指定受付部21に対応し、仮想カメラワーク指定受付処理112は仮想カメラワーク指定受付部22に対応し、顔認識処理113は顔認識部24に対応し、骨格判定処理114は骨格判定部25に対応し、人物特定処理115は人物特定部26に対応し、トリミングフレームサイズ決定処理116はトリミングフレームサイズ決定部28に対応し、トリミング制御処理117はトリミング制御部29に対応し、トリミング処理118はトリミング部30に対応する。また、顔画像辞書部23及び構図データベース27は、記憶装置103に対応する。尚、顔画像辞書部23及び構図データベース27は、コンピュータ100と物理的に外部に設けられ、LAN等のネットワークを介してコンピュータ100と接続されていても良い。 In the image processing device 2, the program stored in the storage device 103 is loaded into the memory 102 and executed by the processor 101, whereby the captured image input process 110, the specific person designation reception process 111, and the virtual camera work designation reception process 112. , Face recognition process 113, skeleton determination process 114, person identification process 115, trimming frame size determination process 116, trimming control process 117, and trimming process 118 are realized. Here, the captured video input process 110 corresponds to the captured video input unit 20, the specific person designation reception process 111 corresponds to the specific person designation reception unit 21, and the virtual camera work designation reception process 112 corresponds to the virtual camera work designation reception unit 22. The face recognition process 113 corresponds to the face recognition unit 24, the skeleton determination process 114 corresponds to the skeleton determination unit 25, the person identification process 115 corresponds to the person identification unit 26, and the trimming frame size determination process 116 corresponds to. The trimming frame size determination unit 28 corresponds, the trimming control process 117 corresponds to the trimming control unit 29, and the trimming process 118 corresponds to the trimming unit 30. Further, the face image dictionary unit 23 and the composition database 27 correspond to the storage device 103. The face image dictionary unit 23 and the composition database 27 may be physically provided externally to the computer 100 and connected to the computer 100 via a network such as a LAN.

次に、第1の実施の形態における映像処理装置2の動作を説明する。 Next, the operation of the video processing device 2 in the first embodiment will be described.

まず、映像処理装置2の全体の動作を説明する。 First, the overall operation of the video processing device 2 will be described.

以下の説明では、情報処理装置2と表示装置3とが一体に構成されたタブレット端末(コンピュータ100)を想定して説明する。そして、タブレット端末(コンピュータ100)の表示部(表示装置3)には、図7に示す如く、撮影映像が表示される表示部40と、仮想カメラワーク映像が表示される表示部41と、仮想カメラワークを指定する仮想カメラワーク指定受付部42(仮想カメラワーク指定受付部22)と、被写体となる特定人物を指定する特定人物指定受付部43(特定人物指定受付部21)とが表示されるものとする。尚、指定できる仮想カメラワークは、ロングショット、アップショット、バストショット、ウェストショット、ティルトアップ、ティルトダウン、パンである。また、特定人物指定受付部43(特定人物指定受付部21)は、顔認識部24により認識された人物の名前が表示されるものとする。尚、人物の名前に代えて又は加えて、顔認識部24により認識された人物の顔を表示しても良い。 In the following description, a tablet terminal (computer 100) in which the information processing device 2 and the display device 3 are integrally configured will be described. Then, as shown in FIG. 7, the display unit (display device 3) of the tablet terminal (computer 100) includes a display unit 40 on which the captured image is displayed, a display unit 41 on which the virtual camera work image is displayed, and a virtual image. A virtual camera work designation reception unit 42 (virtual camera work designation reception unit 22) for designating camera work and a specific person designation reception unit 43 (specific person designation reception unit 21) for designating a specific person to be a subject are displayed. It shall be. The virtual camera work that can be specified is long shot, up shot, bust shot, waist shot, tilt up, tilt down, and pan. Further, the specific person designation reception unit 43 (specific person designation reception unit 21) shall display the name of the person recognized by the face recognition unit 24. In addition to or in addition to the name of the person, the face of the person recognized by the face recognition unit 24 may be displayed.

図8は映像処理装置2の全体的な動作フローチャートであり、図9は映像処理装置2の全体的な動作を説明するための図である。 FIG. 8 is an overall operation flowchart of the video processing device 2, and FIG. 9 is a diagram for explaining the overall operation of the video processing device 2.

撮影映像入力部20は撮影映像を入力する(Step1)。入力された撮影映像は、表示部40に表示される。 The captured image input unit 20 inputs a captured image (Step 1). The input captured image is displayed on the display unit 40.

顔認識部24は、撮影映像上の人物を認識する(Step2)。図9の例では、人物A、人物B及び人物Cが認識され、その結果として、図9の例では、特定人物指定部43として、認識された人物A、人物B及び人物Cが表示されている。 The face recognition unit 24 recognizes a person on the captured image (Step 2). In the example of FIG. 9, the person A, the person B, and the person C are recognized, and as a result, in the example of FIG. 9, the recognized person A, the person B, and the person C are displayed as the specific person designation unit 43. There is.

骨格判定部25は、撮影映像上の人物の骨格を判定する(Step3)。図9の例では、人物A、人物B及び人物Cの骨格を判定している。 The skeleton determination unit 25 determines the skeleton of a person on the captured image (Step 3). In the example of FIG. 9, the skeletons of the person A, the person B, and the person C are determined.

ユーザは、表示部40に表示されている撮影映像を見ながら、特定人物指定受付部43に表示されている人物をタッチすることにより、被写体となる特定人物を指定する(Step4)。 The user designates a specific person as a subject by touching the person displayed on the specific person designation reception unit 43 while viewing the captured image displayed on the display unit 40 (Step 4).

人物特定部26は、指定された特定人物を認識された人物から特定し、特定人物の部位の撮影映像における長さ、位置を判定する(Step5)。 The person identification unit 26 identifies the designated specific person from the recognized person, and determines the length and position of the part of the specific person in the captured image (Step 5).

ユーザは、仮想カメラワークを、仮想カメラワーク指定受付部42に表示されている仮想カメラワークのいずれかをタッチすることにより、仮想カメラワークを指定する(Step6)。 The user designates the virtual camera work by touching any of the virtual camera works displayed on the virtual camera work designation reception unit 42 (Step 6).

トリミングフレームサイズ決定部28は、構図データベース27から指定された仮想カメラワークの構図情報を読み出し、構図情報及び特定人物の部位の撮影映像における長さ、位置を用いて、トリミングフレームサイズを決定する(Step7)。 The trimming frame size determination unit 28 reads the composition information of the virtual camera work specified from the composition database 27, and determines the trimming frame size using the composition information and the length and position in the captured image of the part of the specific person (the trimming frame size determination unit 28). Step7).

トリミング制御部29は、仮想カメラワークの構図情報を読み出し、構図情報及び特定人物の部位の撮影映像における長さ、位置を用いて、トリミングフレームサイズ決定部28で決定されたトリミングフレームの撮影映像上における位置を制御する(Step8)。 The trimming control unit 29 reads out the composition information of the virtual camera work, and uses the composition information and the length and position in the captured image of the part of the specific person on the captured image of the trimming frame determined by the trimming frame size determining unit 28. Control the position in (Step 8).

トリミング部30は、撮影映像からトリミングフレーム内の映像をトリミングし(Step9)、トリミングした映像を仮想カメラワーク映像として出力し、表示部41に表示する(Step10)。 The trimming unit 30 trims the image in the trimming frame from the captured image (Step 9), outputs the trimmed image as a virtual camera work image, and displays it on the display unit 41 (Step 10).

以上が、映像処理装置2の概略の動作である。 The above is the general operation of the video processing device 2.

次に、トリミングフレームサイズ決定部28、トリミング制御部29、トリミング部30の具体的な動作を説明する。 Next, specific operations of the trimming frame size determining unit 28, the trimming control unit 29, and the trimming unit 30 will be described.

具体的な動作の説明に先立って、トリミングに使用されるトリミングフレームについて説明する。第1の実施の形態では、以下の第1のトリミングフレーム、第2のトリミングフレーム、第3のトリミングフレーム及び第4のトリミングフレームが用いられる。 Prior to the description of the specific operation, the trimming frame used for trimming will be described. In the first embodiment, the following first trimming frame, second trimming frame, third trimming frame and fourth trimming frame are used.

(1)第1のトリミングフレーム
第1のトリミングフレームは、アップショット、バストショット、ウェストショット等に用いられ、フレームの下部にマージン(余白)を取る必要がない仮想カメラワークに用いられる。具体的な第1のトリミングフレームを、図10に示す。第1のトリミングフレームの特徴は以下の通りである。
・アスペクト比: 16:9
・上部マージン: 縦のフレーム長に対して、0.1から0.15倍の長さ(好ましくは、0.15倍の長さ)
・左右部マージン: 横のフレーム長に対して、0.05から0.1倍の長さ(好ましくは、0.1倍の長さ)
・下部マージン: なし
(2)第2のトリミングフレーム
第2のトリミングフレームは、ロングショット等に用いられ、フレームの上下左右にマージン(余白)を取る必要がある仮想カメラワークに用いられる。具体的な第2のトリミングフレームを、図11に示す。第2のトリミングフレームの特徴は以下の通りである。
・アスペクト比: 16:9
・上部マージン: 縦のフレーム長に対して、0.1から0.15倍の長さ(好ましくは、0.15倍の長さ)
・左右部マージン: 縦のフレーム長に対して、0.05から0.1倍の長さ(好ましくは、0.1倍の長さ)
・下部マージン: 縦のフレーム長に対して、0.0.5から0.1倍の長さ(好ましくは、0.1倍の長さ)
(3)第3のトリミングフレーム
第3のトリミングフレームは、ティルトアップ又はティルトダウン等の最初又は最後のフレームに用いられ、フレームの上部にマージン(余白)を取る必要がない仮想カメラワークに用いられる。具体的な第3のトリミングフレームを、図12に示す。第3のトリミングフレームの特徴は以下の通りである。
・アスペクト比: 16:9
・上部マージン: なし
・左右部マージン: 横のフレーム長に対して、0.05から0.1倍の長さ(好ましくは、0.1倍の長さ)
・下部マージン: 縦のフレーム長に対して、0.2から0.25倍の長さ(好ましくは、0.25倍の長さ)
(4)第4のトリミングフレーム
第4のトリミングフレームは、ティルトアップ、ティルトダウンの途中のフレームに用いられ、フレームの上下部にマージン(余白)を取る必要がない仮想カメラワークに用いられる。具体的な第4のトリミングフレームを、図13に示す。第4のトリミングフレームの特徴は以下の通りである。
・アスペクト比: 16:9
・上部マージン: なし
・左右部マージン: 横のフレーム長に対して、0.05から0.1倍の長さ(好ましくは、0.1倍の長さ)
・下部マージン: なし
第1のトリミングフレーム、第2のトリミングフレーム、第3のトリミングフレーム及び第4のトリミングフレームの特徴は、トリミングフレームサイズ決定部28に設定されている。
(1) First Trimming Frame The first trimming frame is used for up shots, bust shots, waist shots, etc., and is used for virtual camera work that does not require a margin (margin) at the bottom of the frame. A specific first trimming frame is shown in FIG. The features of the first trimming frame are as follows.
・ Aspect ratio: 16: 9
-Upper margin: 0.1 to 0.15 times longer than the vertical frame length (preferably 0.15 times longer)
-Left and right margin: 0.05 to 0.1 times the horizontal frame length (preferably 0.1 times the length)
-Lower margin: None (2) Second trimming frame The second trimming frame is used for long shots, etc., and is used for virtual camera work that requires margins (margins) on the top, bottom, left, and right of the frame. A specific second trimming frame is shown in FIG. The features of the second trimming frame are as follows.
・ Aspect ratio: 16: 9
-Upper margin: 0.1 to 0.15 times longer than the vertical frame length (preferably 0.15 times longer)
-Left and right margin: 0.05 to 0.1 times the vertical frame length (preferably 0.1 times the length)
-Lower margin: 0.0.5 to 0.1 times the vertical frame length (preferably 0.1 times the length)
(3) Third trimming frame The third trimming frame is used for the first or last frame such as tilt-up or tilt-down, and is used for virtual camera work that does not require a margin at the top of the frame. .. A specific third trimming frame is shown in FIG. The features of the third trimming frame are as follows.
・ Aspect ratio: 16: 9
-Upper margin: None-Left and right margin: 0.05 to 0.1 times the horizontal frame length (preferably 0.1 times the length)
-Lower margin: 0.2 to 0.25 times longer than the vertical frame length (preferably 0.25 times longer)
(4) Fourth Trimming Frame The fourth trimming frame is used for a frame in the middle of tilt-up and tilt-down, and is used for virtual camera work that does not require a margin (margin) at the upper and lower parts of the frame. A specific fourth trimming frame is shown in FIG. The features of the fourth trimming frame are as follows.
・ Aspect ratio: 16: 9
-Upper margin: None-Left and right margin: 0.05 to 0.1 times the horizontal frame length (preferably 0.1 times the length)
-Lower margin: None The features of the first trimming frame, the second trimming frame, the third trimming frame, and the fourth trimming frame are set in the trimming frame size determination unit 28.

次に、具体的な仮想カメラワークを想定したトリミングフレームサイズ決定部28、トリミング制御部29、トリミング部30の動作を説明する。 Next, the operations of the trimming frame size determination unit 28, the trimming control unit 29, and the trimming unit 30 assuming specific virtual camera work will be described.

1.特定人物が「人物A(一人)」であり、仮想カメラワークが「アップショット」の場合の具体的な動作
以下の説明では、映像処理装置2には、図14に示すような撮影映像が入力されており、特定人物指定受付部21が受け付けた特定人物(仮想カメラワークの被写体)が「人物A」であり、仮想カメラワーク指定受付部22により指定された仮想カメラワークが「アップショット」である場合を説明する。また、各部が読み出す具体的な構図情報は、構図データベース27に予め記憶されているものとする。
1. 1. Specific operation when the specific person is "person A (one person)" and the virtual camera work is "up shot" In the following description, the captured image as shown in FIG. 14 is input to the image processing device 2. The specific person (subject of virtual camera work) received by the specific person designated reception unit 21 is "person A", and the virtual camera work designated by the virtual camera work designated reception unit 22 is "up shot". A case will be described. Further, it is assumed that the specific composition information read by each unit is stored in the composition database 27 in advance.

人物特定部26は、顔認識部24により認識された人物及び骨格判定部25により判定された骨格を用いて、図15に示すように撮影映像から「人物A」の骨格を判定する。また、「人物A」の骨格の縦方向の骨格中心線も決定する。尚、骨格中心線は、骨格の首元を通過する線である。そして、これらの骨格の座標情報をトリミングフレームサイズ決定部28に出力する。 The person identification unit 26 determines the skeleton of the “person A” from the captured image as shown in FIG. 15 by using the person recognized by the face recognition unit 24 and the skeleton determined by the skeleton determination unit 25. In addition, the vertical skeleton centerline of the skeleton of "person A" is also determined. The skeleton center line is a line that passes through the neck of the skeleton. Then, the coordinate information of these skeletons is output to the trimming frame size determination unit 28.

トリミングフレームサイズ決定部28は、特定人物が「一人」であり、仮想カメラワークが「アップショット」に対応する構図情報を、構図データベース27から読み出す。ここで、読み出される「アップショット」に対応する構図情報は、以下の通りである。
・顔の縦方向の長さを1としたとき、被写体フレームの縦方向の長さを1.1倍とする。
・トリミングフレームは第1のトリミングフレームを使用する。
・トリミングフレームの縦方向の中心線と被写体フレームの縦方向の中心線とは一致させる。
The trimming frame size determination unit 28 reads the composition information corresponding to the “upshot” by the virtual camera work from the composition database 27 when the specific person is “one person”. Here, the composition information corresponding to the “up shot” read out is as follows.
-When the vertical length of the face is 1, the vertical length of the subject frame is 1.1 times.
-Use the first trimming frame as the trimming frame.
-Match the vertical center line of the trimming frame with the vertical center line of the subject frame.

トリミングフレームサイズ決定部28は、人物Aの骨格より、顔の縦方向の長さを計算する。そして、図15に示すように、縦方向の長さが、顔の長さの1.1倍の長さである被写体フレームの仮フレームを生成し、仮フレームの上辺が人物の顔の骨格の頂点に位置し、かつ、縦方向の中心線と骨格中心線とが一致する位置に、仮フレームを設置する。 The trimming frame size determination unit 28 calculates the vertical length of the face from the skeleton of the person A. Then, as shown in FIG. 15, a temporary frame of the subject frame whose vertical length is 1.1 times the length of the face is generated, and the upper side of the temporary frame is the skeleton of the human face. The temporary frame is installed at the apex and at the position where the vertical center line and the skeleton center line coincide with each other.

次に、トリミングフレームサイズ決定部28は、図15に示すように、仮フレームの縦方向の長さをかえずに、横方向の人物Aの骨格の最大範囲となるように横方向の長さを調整する。このようにして生成されたフレームが被写体フレームである。 Next, as shown in FIG. 15, the trimming frame size determining unit 28 does not change the vertical length of the temporary frame, but has a horizontal length so as to be the maximum range of the skeleton of the person A in the horizontal direction. To adjust. The frame generated in this way is the subject frame.

トリミングフレームサイズ決定部28は、図15に示すように、構図情報を満足するように、第1のトリミングフレームのサイズを調整する。第1のトリミングフレームのサイズの調整は、最低のマージンを確保した上で、第1のトリミングフレームのマージンが被写体フレームに重ならない範囲で、なるべく好ましいマージンの大きさになるように調整する。このようにして、トリミングフレームサイズ決定部28は、図16に示すように、トリミングフレームのサイズを決定する。 As shown in FIG. 15, the trimming frame size determination unit 28 adjusts the size of the first trimming frame so as to satisfy the composition information. The size of the first trimming frame is adjusted so that the margin of the first trimming frame does not overlap with the subject frame and is as preferable as possible after ensuring the minimum margin. In this way, the trimming frame size determination unit 28 determines the size of the trimming frame as shown in FIG.

トリミング制御部29は、特定人物が「一人」であり、仮想カメラワークが「アップショット」に対応する構図情報のうち、制御に関する構図情報を、構図データベース27から読み出す。ここで、読み出される構図情報は、以下の通りである。
・トリミングフレームを、トリミングフレームの縦方向の中心線と被写体の縦方向の骨格中心線とが一致するように配置する。
The trimming control unit 29 reads out the composition information related to the control from the composition database 27 among the composition information corresponding to the “upshot” by the virtual camera work in which the specific person is “one person”. Here, the composition information read out is as follows.
-Place the trimming frame so that the vertical center line of the trimming frame and the vertical skeleton center line of the subject coincide with each other.

トリミング制御部29は、人物特定部26からの骨格の位置情報(骨格中心線)と構図情報とを用いて、トリミングフレームサイズ決定部28で決定されたサイズのトリミングフレームを、図16に示すように、撮影映像上に配置する。 The trimming control unit 29 uses the position information (skeleton center line) of the skeleton from the person identification unit 26 and the composition information to show the trimming frame of the size determined by the trimming frame size determination unit 28 as shown in FIG. Place it on the captured image.

尚、撮影映像は動画であるため、人物は時間の経過にともなって移動する可能性があり、その移動に伴い骨格中心線も移動する可能性がある。骨格中心線の移動に伴って、トリミングフレームの位置も制御しても良いが、骨格中心線の移動が少ない場合にも、トリミングフレームを移動させると、視聴者にとって視聴し難い映像になる可能性がある。そこで、骨格中心線の移動の範囲が所定の距離範囲内である場合には、トリミングフレームの位置を維持するように制御しても良い。 Since the captured image is a moving image, the person may move with the passage of time, and the skeleton centerline may move with the movement. The position of the trimming frame may be controlled as the skeleton centerline moves, but even if the skeleton centerline does not move much, moving the trimming frame may result in an image that is difficult for the viewer to view. There is. Therefore, when the range of movement of the skeleton center line is within a predetermined distance range, the position of the trimming frame may be controlled to be maintained.

トリミング部30は、撮影映像からトリミングフレーム内の映像をトリミングし、トリミングされたトリミング映像を、図16に示されるように、指定された仮想カメラワークである「人物A」の「アップショット」の映像として出力する。また、タブレット端末(コンピュータ100)の表示部41に仮想カメラワーク映像が表示されている状態を、図17に示す。 The trimming unit 30 trims the image in the trimming frame from the captured image, and the trimmed image is the “up shot” of the designated virtual camera work “person A” as shown in FIG. Output as video. Further, FIG. 17 shows a state in which the virtual camera work image is displayed on the display unit 41 of the tablet terminal (computer 100).

2.特定人物が「人物A(一人)」であり、仮想カメラワークが「ウェストショット」の場合の具体的な動作
以下の説明では、映像処理装置2には、図14に示すような撮影映像が入力されており、特定人物指定受付部21が受け付けた特定人物(仮想カメラワークの被写体)が「人物A」であり、仮想カメラワーク指定受付部22により指定された仮想カメラワークが「ウェストショット」である場合を説明する。また、各部が読み出す具体的な構図情報は、構図データベース27に予め記憶されているものとする。
2. Specific operation when the specific person is "person A (one person)" and the virtual camera work is "west shot" In the following description, the captured image as shown in FIG. 14 is input to the image processing device 2. The specific person (subject of virtual camera work) received by the specific person designated reception unit 21 is "person A", and the virtual camera work designated by the virtual camera work designated reception unit 22 is "west shot". A case will be described. Further, it is assumed that the specific composition information read by each unit is stored in the composition database 27 in advance.

人物特定部26は、顔認識部24により認識された人物及び骨格判定部25により判定された骨格を用いて、図15に示すように撮影映像から「人物A」の骨格を特定する。また、「人物A」の骨格の縦方向の骨格中心線も決定する。尚、骨格中心線は、骨格の首元を通過する線である。そして、これらの骨格の座標情報をトリミングフレームサイズ決定部28に出力する。 The person identification unit 26 identifies the skeleton of the “person A” from the captured image as shown in FIG. 15 by using the person recognized by the face recognition unit 24 and the skeleton determined by the skeleton determination unit 25. In addition, the vertical skeleton centerline of the skeleton of "person A" is also determined. The skeleton center line is a line that passes through the neck of the skeleton. Then, the coordinate information of these skeletons is output to the trimming frame size determination unit 28.

トリミングフレームサイズ決定部28は、特定人物が「一人」であり、仮想カメラワークが「ウェストショット」に対応する構図情報を、構図データベース27から読み出す。ここで、読み出される「ウェストショット」に対応する構図情報は、以下の通りである。
・顔の長さを1としたとき、被写体フレームの縦方向の長さを1.7倍とする。
・トリミングフレームは第1のトリミングフレームを使用する。
・トリミングフレームの縦方向の中心線と被写体フレームの縦方向の中心線とは一致させる。
The trimming frame size determination unit 28 reads the composition information corresponding to the "west shot" by the virtual camera work from the composition database 27 when the specific person is "one person". Here, the composition information corresponding to the “west shot” read out is as follows.
-When the length of the face is 1, the length of the subject frame in the vertical direction is 1.7 times.
-Use the first trimming frame as the trimming frame.
-Match the vertical center line of the trimming frame with the vertical center line of the subject frame.

トリミングフレームサイズ決定部28は、人物Aの骨格より、顔の縦方向の長さを計算する。そして、図18に示すように、縦方向の長さが、顔の長さの1.7倍の長さである被写体フレームの仮フレームを生成し、仮フレームの上辺が人物の顔の骨格の頂点に位置し、かつ、縦方向の中心線と骨格中心線とが一致する位置に、仮フレームを設置する。 The trimming frame size determination unit 28 calculates the vertical length of the face from the skeleton of the person A. Then, as shown in FIG. 18, a temporary frame of the subject frame having a vertical length of 1.7 times the length of the face is generated, and the upper side of the temporary frame is the skeleton of the human face. The temporary frame is installed at the apex and at the position where the vertical center line and the skeleton center line coincide with each other.

次に、トリミングフレームサイズ決定部28は、図18に示すように、仮フレームの縦方向の長さをかえずに、横方向の人物Aの骨格の最大範囲となるように横方向の長さを調整する。このようにして生成されたフレームが被写体フレームである。 Next, as shown in FIG. 18, the trimming frame size determining unit 28 does not change the vertical length of the temporary frame, but has a horizontal length so as to be the maximum range of the skeleton of the person A in the horizontal direction. To adjust. The frame generated in this way is the subject frame.

トリミングフレームサイズ決定部28は、図18に示すように、構図情報を満足するように、第1のトリミングフレームのサイズを調整する。第1のトリミングフレームのサイズの調整は、最低のマージンを確保した上で、第1のトリミングフレームのマージンが被写体フレームに重ならない範囲で、なるべく好ましいマージンの大きさになるように調整する。このようにして、トリミングフレームサイズ決定部28は、図18に示すように、トリミングフレームのサイズを決定する。 As shown in FIG. 18, the trimming frame size determination unit 28 adjusts the size of the first trimming frame so as to satisfy the composition information. The size of the first trimming frame is adjusted so that the margin of the first trimming frame does not overlap with the subject frame and is as preferable as possible after ensuring the minimum margin. In this way, the trimming frame size determination unit 28 determines the size of the trimming frame as shown in FIG.

トリミング制御部29は、特定人物が「一人」であり、仮想カメラワークが「ウェストショット」に対応する構図情報のうち、制御に関する構図情報を、構図データベース27から読み出す。ここで、読み出される構図情報は、以下の通りである。
・トリミングフレームを、トリミングフレームの縦方向の中心線と被写体の縦方向の骨格中心線とが一致するように配置する。
The trimming control unit 29 reads out the composition information related to the control from the composition database 27 among the composition information in which the specific person is “one person” and the virtual camera work corresponds to the “west shot”. Here, the composition information read out is as follows.
-Place the trimming frame so that the vertical center line of the trimming frame and the vertical skeleton center line of the subject coincide with each other.

トリミング制御部29は、人物特定部26からの骨格の位置情報(骨格中心線)と構図情報とを用いて、トリミングフレームサイズ決定部28で決定されたサイズのトリミングフレームを、図19に示すように、撮影映像上に配置する。 The trimming control unit 29 uses the position information (skeleton center line) of the skeleton from the person identification unit 26 and the composition information to show the trimming frame of the size determined by the trimming frame size determination unit 28 as shown in FIG. Place it on the captured image.

尚、撮影映像は動画であるため、人物は時間の経過にともなって移動する可能性があり、骨格中心線も移動する可能性がある。骨格中心線の移動に伴って、トリミングフレームの位置も制御しても良いが、骨格中心線の移動が少ない場合にも、トリミングフレームを移動させると、視聴者にとって視聴し難い映像になる可能性がある。そこで、骨格中心線の移動の範囲が所定の距離範囲内である場合には、トリミングフレームの位置を維持するように制御しても良い。 Since the captured image is a moving image, the person may move with the passage of time, and the skeleton centerline may also move. The position of the trimming frame may be controlled as the skeleton centerline moves, but even if the skeleton centerline does not move much, moving the trimming frame may result in an image that is difficult for the viewer to view. There is. Therefore, when the range of movement of the skeleton center line is within a predetermined distance range, the position of the trimming frame may be controlled to be maintained.

トリミング部30は、撮影映像からトリミングフレーム内の映像をトリミングし、トリミングされたトリミング映像を、図19に示されるように、指定された仮想カメラワークである「人物A」の「ウェストショット」の映像として出力する。尚、タブレット端末(コンピュータ100)の表示部41に仮想カメラワーク映像が表示されている状態は、仮想カメラワーク映像が「人物A」の「ウェストショット」の映像となるだけなので、省略する。 The trimming unit 30 trims the image in the trimming frame from the captured image, and the trimmed image is the "west shot" of the designated virtual camera work "person A" as shown in FIG. Output as video. The state in which the virtual camera work image is displayed on the display unit 41 of the tablet terminal (computer 100) is omitted because the virtual camera work image is only the image of the "west shot" of the "person A".

3.仮想カメラワークが「人物A(一人)」の「フルショット」の場合の具体的な動作
以下の説明では、映像処理装置2には、図14に示すような撮影映像が入力されており、特定人物指定受付部21が受け付けた特定人物(仮想カメラワークの被写体)が「人物A」であり、仮想カメラワーク指定受付部22により指定された仮想カメラワークが「フルショット」である場合を説明する。また、各部が読み出す具体的な構図情報は、構図データベース27に予め記憶されているものとする。
3. 3. Specific operation when the virtual camera work is "full shot" of "person A (one person)" In the following explanation, the captured image as shown in FIG. 14 is input to the image processing device 2 and is specified. The case where the specific person (subject of virtual camera work) received by the person designation reception unit 21 is "person A" and the virtual camera work designated by the virtual camera work designation reception unit 22 is "full shot" will be described. .. Further, it is assumed that the specific composition information read by each unit is stored in the composition database 27 in advance.

人物特定部26は、顔認識部24により認識された人物及び骨格判定部25により判定された骨格を用いて、図15に示すように撮影映像から「人物A」の骨格を特定する。また、「人物A」の骨格の縦方向の骨格中心線も決定する。尚、骨格中心線は、骨格の首元を通過する線である。そして、これらの骨格の座標情報をトリミングフレームサイズ決定部28に出力する。 The person identification unit 26 identifies the skeleton of the “person A” from the captured image as shown in FIG. 15 by using the person recognized by the face recognition unit 24 and the skeleton determined by the skeleton determination unit 25. In addition, the vertical skeleton centerline of the skeleton of "person A" is also determined. The skeleton center line is a line that passes through the neck of the skeleton. Then, the coordinate information of these skeletons is output to the trimming frame size determination unit 28.

トリミングフレームサイズ決定部28は、特定人物が「一人」であり、仮想カメラワークが「フルショット」に対応する構図情報を、構図データベース27から読み出す。ここで、読み出される構図情報は、以下の通りである。
・特定人物の骨格の縦方向の長さ(全身)を、被写体フレームの縦方向の長さとする。
・トリミングフレームは第2のトリミングフレームを使用する。
・トリミングフレームの縦方向の中心線と被写体フレームの縦方向の中心線とは一致させる。
The trimming frame size determination unit 28 reads the composition information corresponding to the “one person” and the virtual camera work “full shot” from the composition database 27. Here, the composition information read out is as follows.
-The vertical length (whole body) of the skeleton of a specific person is defined as the vertical length of the subject frame.
-Use the second trimming frame as the trimming frame.
-Match the vertical center line of the trimming frame with the vertical center line of the subject frame.

トリミングフレームサイズ決定部28は、人物Aの骨格より、骨格の縦方向の長さ(全身)を計算する。そして、図20に示すように、縦方向の長さが、人物Aの縦方向の骨格の長さと同一の長さである被写体フレームの仮フレームを生成し、仮フレームの上辺が人物の骨格の最上部の頂点に位置し、かつ、縦方向の中心線と骨格の中心線とが一致する位置に、仮フレームを設置する。 The trimming frame size determination unit 28 calculates the vertical length (whole body) of the skeleton from the skeleton of the person A. Then, as shown in FIG. 20, a temporary frame of the subject frame having a vertical length equal to the length of the vertical skeleton of the person A is generated, and the upper side of the temporary frame is the skeleton of the person. The temporary frame is installed at the top apex and at the position where the vertical center line and the center line of the skeleton coincide with each other.

次に、トリミングフレームサイズ決定部28は、図20に示すように、仮フレームの縦方向の長さをかえずに、人物Aの骨格が入る最大の範囲となるように、横方向の長さを調整する。このようにして生成されたフレームが被写体フレームである。 Next, as shown in FIG. 20, the trimming frame size determining unit 28 has a horizontal length so as to be the maximum range in which the skeleton of the person A can be inserted without changing the vertical length of the temporary frame. To adjust. The frame generated in this way is the subject frame.

トリミングフレームサイズ決定部28は、図20に示すように、構図情報を満足するように、第2のトリミングフレームのサイズを調整する。第2のトリミングフレームのサイズの調整は、最低のマージンを確保した上で、第2のトリミングフレームのマージンが被写体フレームに重ならない範囲で、なるべく好ましいマージンの大きさになるように調整する。このようにして、トリミングフレームサイズ決定部28は、図21に示すように、トリミングフレームのサイズを決定する。 As shown in FIG. 20, the trimming frame size determination unit 28 adjusts the size of the second trimming frame so as to satisfy the composition information. The size of the second trimming frame is adjusted so that the margin of the second trimming frame does not overlap with the subject frame and is as preferable as possible after ensuring the minimum margin. In this way, the trimming frame size determination unit 28 determines the size of the trimming frame as shown in FIG.

トリミング制御部29は、特定人物が「一人」であり、仮想カメラワークが「フルショット」に対応する構図情報のうち、制御に関する構図情報を、構図データベース27から読み出す。ここで、読み出される構図情報は、以下の通りである。
・トリミングフレームを、トリミングフレームの縦方向の中心線と被写体の縦方向の骨格中心線とが一致するように配置する。
The trimming control unit 29 reads out the composition information related to the control from the composition database 27 among the composition information corresponding to the “one person” and the virtual camera work “full shot”. Here, the composition information read out is as follows.
-Place the trimming frame so that the vertical center line of the trimming frame and the vertical skeleton center line of the subject coincide with each other.

トリミング制御部29は、人物特定部26からの骨格の位置情報(骨格中心線)と構図情報とを用いて、トリミングフレームサイズ決定部28で決定されたサイズのトリミングフレームを、図21に示すように、撮影映像上に配置する。 The trimming control unit 29 uses the position information (skeleton center line) of the skeleton from the person identification unit 26 and the composition information to show the trimming frame of the size determined by the trimming frame size determination unit 28 as shown in FIG. Place it on the captured image.

尚、撮影映像は動画であるため、人物は時間の経過にともなって移動する可能性があり、骨格中心線も移動する可能性がある。骨格中心線の移動に伴って、トリミングフレームの位置も制御しても良いが、骨格中心線の移動が少ない場合にも、トリミングフレームを移動させると、視聴者にとって視聴し難い映像になる可能性がある。そこで、骨格中心線の移動の範囲が所定の距離範囲内である場合には、トリミングフレームの位置を維持するように制御しても良い。 Since the captured image is a moving image, the person may move with the passage of time, and the skeleton centerline may also move. The position of the trimming frame may be controlled as the skeleton centerline moves, but even if the skeleton centerline does not move much, moving the trimming frame may result in an image that is difficult for the viewer to view. There is. Therefore, when the range of movement of the skeleton center line is within a predetermined distance range, the position of the trimming frame may be controlled to be maintained.

トリミング部30は、撮影映像からトリミングフレーム内の映像をトリミングし、トリミングされたトリミング映像を、図21に示されるように、指定された仮想カメラワークである「人物A」の「フルショット」の映像として出力する。尚、タブレット端末(コンピュータ100)の表示部41に仮想カメラワーク映像が表示されている状態は、仮想カメラワーク映像が「人物A」の「フルショット」の映像となるだけなので、省略する。 The trimming unit 30 trims the image in the trimming frame from the captured image, and the trimmed image is the “full shot” of the designated virtual camera work “person A” as shown in FIG. Output as video. The state in which the virtual camera work image is displayed on the display unit 41 of the tablet terminal (computer 100) is omitted because the virtual camera work image is only a "full shot" image of "person A".

4.仮想カメラワークが「人物A、人物B(二人)」の「フルショット」の場合の具体的な動作
以下の説明では、映像処理装置2には、図14に示すような撮影映像が入力されており、特定人物指定受付部21が受け付けた特定人物(仮想カメラワークの被写体)が「人物A、人物B(二人)」であり、仮想カメラワーク指定受付部22により指定された仮想カメラワークが「フルショット」である場合を説明する。また、各部が読み出す具体的な構図情報は、構図データベース27に予め記憶されているものとする。
4. Specific operation when the virtual camera work is "full shot" of "person A, person B (two people)" In the following description, the captured image as shown in FIG. 14 is input to the image processing device 2. The specific person (subject of virtual camera work) received by the specific person designated reception unit 21 is "person A, person B (two people)", and the virtual camera work designated by the virtual camera work designated reception unit 22. The case where is a "full shot" will be described. Further, it is assumed that the specific composition information read by each unit is stored in the composition database 27 in advance.

人物特定部26は、顔認識部24により認識された人物及び骨格判定部25により判定された骨格を用いて、図22に示すように撮影映像から「人物A」及び「人物B」の骨格を特定する。また、「人物A」及び「人物B」」の骨格の縦方向の骨格中心線も決定する。尚、骨格中心線は、骨格の首元を通過する線である。そして、これらの骨格の座標情報をトリミングフレームサイズ決定部28に出力する。 The person identification unit 26 uses the person recognized by the face recognition unit 24 and the skeleton determined by the skeleton determination unit 25 to obtain the skeletons of "person A" and "person B" from the captured video as shown in FIG. Identify. In addition, the vertical skeletal centerline of the skeletons of "person A" and "person B" is also determined. The skeleton center line is a line that passes through the neck of the skeleton. Then, the coordinate information of these skeletons is output to the trimming frame size determination unit 28.

トリミングフレームサイズ決定部28は、特定人物がが「二人」であり、仮想カメラワークである「フルショット」に対応する構図情報のうち縦方向の構図情報を、構図データベース27から読み出す。ここで、読み出される構図情報は、以下の通りである。
・全ての特定人物の骨格の縦方向が入る長さを、被写体フレームの縦方向の長さとする。
・被写体フレームの縦方向の中心線は、二人の人物の骨格中心線の真ん中に位置する。
・トリミングフレームは第2のトリミングフレームを使用する。
・トリミングフレームの縦方向の中心線と被写体フレームの縦方向の中心線とは一致させる。
The trimming frame size determination unit 28 reads out the composition information in the vertical direction from the composition database 27 among the composition information corresponding to the virtual camera work “full shot” in which the specific person is “two people”. Here, the composition information read out is as follows.
-The length in which the vertical direction of the skeleton of all specific persons is inserted is defined as the vertical length of the subject frame.
-The vertical centerline of the subject frame is located in the middle of the skeletal centerlines of the two people.
-Use the second trimming frame as the trimming frame.
-Match the vertical center line of the trimming frame with the vertical center line of the subject frame.

トリミングフレームサイズ決定部28は、「人物A」及び「人物B」の骨格より、骨格の縦方向の長さを計算する。そして、図22に示すように、縦方向の長さが、「人物A」及び「人物B」の縦方向の骨格が全て入る長さと同一の長さである被写体フレームの仮フレームを生成し、仮フレームの上辺が人物の骨格の最上部の頂点に位置し、かつ、縦方向の中心線が二人の骨格中心線との真ん中となる位置に、仮フレームを設置する。 The trimming frame size determination unit 28 calculates the vertical length of the skeleton from the skeletons of "person A" and "person B". Then, as shown in FIG. 22, a temporary frame of the subject frame having a vertical length equal to the length including all the vertical skeletons of "person A" and "person B" is generated. The temporary frame is installed at a position where the upper side of the temporary frame is located at the top apex of the skeleton of the person and the center line in the vertical direction is in the middle of the center lines of the skeletons of the two people.

次に、トリミングフレームサイズ決定部28は、図22に示すように、フレームの縦方向の長さをかえずに、人物A及び人物Bの骨格が入る最大の範囲となるように、横方向の長さを調整する。このようにして生成されたフレームが被写体フレームである。 Next, as shown in FIG. 22, the trimming frame size determining unit 28 is arranged in the horizontal direction so as to have the maximum range in which the skeletons of the person A and the person B can be accommodated without changing the vertical length of the frame. Adjust the length. The frame generated in this way is the subject frame.

トリミングフレームサイズ決定部28は、図22に示すように、構図情報を満足するように、第2のトリミングフレームのサイズを調整する。第2のトリミングフレームのサイズの調整は、最低のマージンを確保した上で、第2のトリミングフレームのマージンが被写体フレームに重ならない範囲で、なるべく好ましいマージンの大きさになるように調整する。このようにして、トリミングフレームサイズ決定部28は、図23に示すように、トリミングフレームのサイズを決定する。 As shown in FIG. 22, the trimming frame size determination unit 28 adjusts the size of the second trimming frame so as to satisfy the composition information. The size of the second trimming frame is adjusted so that the margin of the second trimming frame does not overlap with the subject frame and is as preferable as possible after ensuring the minimum margin. In this way, the trimming frame size determination unit 28 determines the size of the trimming frame as shown in FIG. 23.

トリミング制御部29は、特定人物がが「二人」であり、仮想カメラワークである「フルショット」に対応する構図情報のうち、制御に関する構図情報を、構図データベース27から読み出す。ここで、読み出される構図情報は、以下の通りである。
・トリミングフレームを、トリミングフレームの縦方向の中心線が二人の骨格中心線の真ん中に位置するように配置する。
The trimming control unit 29 reads out the composition information related to control from the composition database 27 among the composition information corresponding to the virtual camera work “full shot” in which the specific person is “two people”. Here, the composition information read out is as follows.
-Place the trimming frame so that the vertical centerline of the trimming frame is located in the middle of the skeleton centerlines of the two people.

トリミング制御部29は、人物特定部26からの骨格の位置情報(骨格中心線)と構図情報とを用いて、トリミングフレームサイズ決定部28で決定されたサイズのトリミングフレームを、図23に示すように、撮影映像上に配置する。 The trimming control unit 29 uses the position information (skeleton center line) of the skeleton from the person identification unit 26 and the composition information to show the trimming frame of the size determined by the trimming frame size determination unit 28 as shown in FIG. Place it on the captured image.

尚、撮影映像は動画であるため、人物は時間の経過にともなって移動する可能性があり、骨格中心線も移動する可能性がある。骨格中心線の移動に伴って、トリミングフレームの位置も制御しても良いが、骨格中心線の移動が少ない場合にも、トリミングフレームを移動させると、視聴者にとって視聴し難い映像になる可能性がある。そこで、骨格中心線の移動の範囲が所定の距離範囲内である場合には、トリミングフレームの位置を維持するように制御しても良い。 Since the captured image is a moving image, the person may move with the passage of time, and the skeleton centerline may also move. The position of the trimming frame may be controlled as the skeleton centerline moves, but even if the skeleton centerline does not move much, moving the trimming frame may result in an image that is difficult for the viewer to view. There is. Therefore, when the range of movement of the skeleton center line is within a predetermined distance range, the position of the trimming frame may be controlled to be maintained.

トリミング部30は、撮影映像からトリミングフレーム内の映像をトリミングし、トリミングされたトリミング映像を、図23に示すように、指定された仮想カメラワークである「人物A、人物B(二人)」の「フルショット」の映像として出力する。尚、タブレット端末(コンピュータ100)の表示部41に仮想カメラワーク映像が表示されている状態は、仮想カメラワーク映像が「人物A、人物B(二人)」の「フルショット」の映像となるだけなので、省略する。 The trimming unit 30 trims the image in the trimming frame from the captured image, and displays the trimmed trimmed image as the designated virtual camera work “person A, person B (two people)” as shown in FIG. 23. Output as a "full shot" video of. When the virtual camera work image is displayed on the display unit 41 of the tablet terminal (computer 100), the virtual camera work image is a "full shot" image of "person A, person B (two people)". Only, so omit it.

5.仮想カメラワークが「人物C(一人)」の「ティルトアップ」の場合の具体的な動作
以下の説明では、映像処理装置2には、図14に示すような撮影映像が入力されており、特定人物指定受付部21が受け付けた特定人物(仮想カメラワークの被写体)が「人物C」であり、仮想カメラワーク指定受付部22により指定された仮想カメラワークが「ティルトアップ」である場合を説明する。また、各部が読み出す具体的な構図情報は、構図データベース27に予め記憶されているものとする。
5. Specific operation when the virtual camera work is "tilt up" of "person C (one person)" In the following explanation, the captured image as shown in FIG. 14 is input to the image processing device 2 and is specified. The case where the specific person (subject of virtual camera work) received by the person designation reception unit 21 is "person C" and the virtual camera work designated by the virtual camera work designation reception unit 22 is "tilt up" will be described. .. Further, it is assumed that the specific composition information read by each unit is stored in the composition database 27 in advance.

人物特定部26は、顔認識部24により認識された人物及び骨格判定部25により判定された骨格を用いて、図24に示すように撮影映像から「人物C」の骨格を特定する。また、「人物C」の骨格の縦方向の骨格中心線も決定する。尚、骨格中心線は、骨格の首元を通過する線である。そして、これらの骨格の座標情報をトリミングフレームサイズ決定部28に出力する。 The person identification unit 26 identifies the skeleton of the “person C” from the captured image as shown in FIG. 24 by using the person recognized by the face recognition unit 24 and the skeleton determined by the skeleton determination unit 25. The vertical skeleton centerline of the skeleton of "person C" is also determined. The skeleton center line is a line that passes through the neck of the skeleton. Then, the coordinate information of these skeletons is output to the trimming frame size determination unit 28.

トリミングフレームサイズ決定部28は、特定人物が「一人」であり、仮想カメラワークである「ティルトアップ」に対応する構図情報を、構図データベース27から読み出す。ここで、読み出される構図情報は、以下の通りである。
・顔の縦方向の長さを1としたとき、被写体フレームの縦方向の長さを1.1倍とする。
・被写体フレームの縦方向の長さは、人物の全身の横幅(人物の骨格が横方向に占める最大の範囲)とする。
・仮想カメラワークの開始時に使用するフレームは、第3のトリミングフレームを使用する。
・仮想カメラワークの終了時に使用するフレームは、第1のトリミングフレームを使用する。
・仮想カメラワークの開始時及び終了時に使用するフレームは、第4のトリミングフレームを使用する。
・トリミングフレームの縦方向の中心線と被写体フレームの縦方向の中心線とは一致させる。
The trimming frame size determination unit 28 reads the composition information corresponding to the virtual camera work “tilt up” from the composition database 27 when the specific person is “one person”. Here, the composition information read out is as follows.
-When the vertical length of the face is 1, the vertical length of the subject frame is 1.1 times.
-The vertical length of the subject frame shall be the width of the whole body of the person (the maximum range occupied by the skeleton of the person in the horizontal direction).
-The third trimming frame is used as the frame used at the start of the virtual camera work.
-The first trimming frame is used as the frame used at the end of the virtual camera work.
-The fourth trimming frame is used as the frame used at the start and end of the virtual camera work.
-Match the vertical center line of the trimming frame with the vertical center line of the subject frame.

トリミングフレームサイズ決定部28は、人物Cの骨格より、横方向の横幅の長さを計算する。そして、図24に示すように、横幅が人物Cの横幅であり、人物Cの骨格中心線と被写体フレームの中心線とが一致するように仮フレームを決定する。更に、トリミングフレームサイズ決定部28は、仮フレームの縦方向の長さが、顔の長さの1.1倍の長さとする被写体フレームを生成する。 The trimming frame size determination unit 28 calculates the length of the lateral width from the skeleton of the person C. Then, as shown in FIG. 24, the temporary frame is determined so that the width is the width of the person C and the skeleton center line of the person C and the center line of the subject frame coincide with each other. Further, the trimming frame size determination unit 28 generates a subject frame in which the length of the temporary frame in the vertical direction is 1.1 times the length of the face.

トリミングフレームサイズ決定部28は、図24に示すように、構図情報を満足するように、第1のトリミングフレームを調整する。第1のトリミングフレームのサイズの調整は、最低のマージンを確保した上で、第1のトリミングフレームのマージンが被写体フレームに重ならない範囲で、なるべく好ましいマージンの大きさになるように調整する。第3及び第4のトリミングフレームの横幅については、サイズの調整後の第1のトリミングフレームの横幅と同じ大きさとする。このようにして、トリミングフレームサイズ決定部28は、図24に示すように、トリミングフレームのサイズを決定する。 As shown in FIG. 24, the trimming frame size determination unit 28 adjusts the first trimming frame so as to satisfy the composition information. The size of the first trimming frame is adjusted so that the margin of the first trimming frame does not overlap with the subject frame and is as preferable as possible after ensuring the minimum margin. The width of the third and fourth trimming frames shall be the same as the width of the first trimming frame after adjusting the size. In this way, the trimming frame size determination unit 28 determines the size of the trimming frame as shown in FIG. 24.

トリミング制御部29は、特定人物が「一人」であり、仮想カメラワークである「ティルトアップ」に対応する構図情報を、構図データベース27から読み出す。ここで、読み出される構図情報は、以下の通りである。
・仮想カメラワークの開始時に使用するフレームは、第3のトリミングフレームを使用する。
・仮想カメラワークの終了時に使用するフレームは、第1のトリミングフレームを使用する。
・仮想カメラワークの開始時及び終了時に使用するフレームは、第4のトリミングフレームを使用する。
・トリミングフレームを、トリミングフレームの縦方向の中心線と人物の縦方向の骨格中心線とが一致するように配置する。
・仮想カメラワークの開始時に使用するフレームを1秒静止後、人物の骨格中心線に沿ってスプライン(最初と最後はゆっくり動き途中は速い動き)に移動する。
・仮想カメラワークの終了時に使用するフレームは静止を維持する。
The trimming control unit 29 reads the composition information corresponding to the virtual camera work “tilt up” from the composition database 27 when the specific person is “one person”. Here, the composition information read out is as follows.
-The third trimming frame is used as the frame used at the start of the virtual camera work.
-The first trimming frame is used as the frame used at the end of the virtual camera work.
-The fourth trimming frame is used as the frame used at the start and end of the virtual camera work.
-Place the trimming frame so that the vertical center line of the trimming frame and the vertical skeleton center line of the person coincide with each other.
-After the frame used at the start of virtual camera work is stationary for 1 second, it moves to a spline (slow movement at the beginning and end and fast movement in the middle) along the skeleton centerline of the person.
-The frame used at the end of virtual camera work remains stationary.

トリミング制御部29は、人物特定部26からの骨格の位置情報(骨格中心線)と構図情報とを用いて、トリミングフレームサイズ決定部28で決定されたサイズのトリミングフレームを、図21に示すように、撮影映像上に配置する。 The trimming control unit 29 uses the position information (skeleton center line) of the skeleton from the person identification unit 26 and the composition information to show the trimming frame of the size determined by the trimming frame size determination unit 28 as shown in FIG. Place it on the captured image.

尚、撮影映像は動画であるため、人物は時間の経過にともなって移動する可能性があり、骨格中心線も移動する可能性がある。骨格中心線の移動に伴って、トリミングフレームの位置も制御しても良いが、骨格中心線の移動が少ない場合にも、トリミングフレームを移動させると、視聴者にとって視聴し難い映像になる可能性がある。そこで、骨格中心線の移動の範囲が所定の距離範囲内である場合には、トリミングフレームの位置を維持するように制御しても良い。 Since the captured image is a moving image, the person may move with the passage of time, and the skeleton centerline may also move. The position of the trimming frame may be controlled as the skeleton centerline moves, but even if the skeleton centerline does not move much, moving the trimming frame may result in an image that is difficult for the viewer to view. There is. Therefore, when the range of movement of the skeleton center line is within a predetermined distance range, the position of the trimming frame may be controlled to be maintained.

トリミング部30は、撮影映像から移動するトリミングフレーム内の映像をトリミングし、トリミングされたトリミング映像を、図25に示されるように、指定された仮想カメラワークである「人物C」の「ティルトアップ」の映像として出力する。尚、タブレット端末(コンピュータ100)の表示部41に仮想カメラワーク映像が表示されている状態は、仮想カメラワーク映像が仮想カメラワークである「人物C」の「ティルトアップ」の映像となるだけなので、省略する。 The trimming unit 30 trims the image in the trimming frame that moves from the captured image, and the trimmed trimmed image is “tilt up” of the designated virtual camera work “person C” as shown in FIG. Is output as a video. Since the virtual camera work image is displayed on the display unit 41 of the tablet terminal (computer 100), the virtual camera work image is only the "tilt up" image of the "person C" who is the virtual camera work. , Omitted.

6.仮想カメラワークが「パン」の場合の具体的な動作
以下の説明では、映像処理装置2には、図14に示すような撮影映像が入力されており、「人物A」から「人物B」に、アップショットでパンする場合を説明する。尚、各部が読み出す具体的な構図情報は、構図データベース27に予め記憶されているものとする。
6. Specific operation when the virtual camera work is "pan" In the following description, the captured image as shown in FIG. 14 is input to the image processing device 2, and the image is changed from "person A" to "person B". , The case of panning with an up shot will be described. It is assumed that the specific composition information read by each unit is stored in the composition database 27 in advance.

仮想カメラワークが「パン」の場合は、始点と終点とを指定する必要がある。始点及び終点の指定内容は、被写体となる特定人物とショット(ロングショット、アップショット、バストショット、ウェストショット)である。本例では、始点は「人物A」のアップショットであるので、仮想カメラワーク指定受付部42(仮想カメラワーク指定受付部22)の「Pan(パン)」をタッチした後に始点をタッチし、「Up(アップショット)」をタッチする。続けて、特定人物指定受付部43(特定人物指定受付部21)の「人物A」をタッチする。次に、終点は「人物B」のアップショットであるので、仮想カメラワーク指定受付部42(仮想カメラワーク指定受付部22)の「Pan(パン)」をタッチした後に終点をタッチし、「Up(アップショット)」をタッチする。続けて、特定人物指定受付部43(特定人物指定受付部21)の「人物B」をタッチする。これにより、「パン」の始点と終点とを指定する。 When the virtual camera work is "pan", it is necessary to specify the start point and the end point. The specified contents of the start point and the end point are a specific person and a shot (long shot, up shot, bust shot, waist shot) to be the subject. In this example, since the start point is a close-up shot of "person A", touch "Pan" of the virtual camera work designated reception unit 42 (virtual camera work designated reception unit 22), and then touch the start point to " Touch "Up". Subsequently, "person A" of the specific person designated reception unit 43 (specific person designated reception unit 21) is touched. Next, since the end point is a close-up shot of "person B", touch "Pan" of the virtual camera work designated reception unit 42 (virtual camera work designated reception unit 22), then touch the end point, and then "Up". (Up shot) ”is touched. Subsequently, the "person B" of the specific person designated reception unit 43 (specific person designated reception unit 21) is touched. This specifies the start and end points of the "pan".

まず、始点の「人物A」について、人物特定部26及びトリミングフレームサイズ決定部28は以下のように動作する。 First, with respect to the starting point "person A", the person identification unit 26 and the trimming frame size determination unit 28 operate as follows.

人物特定部26は、顔認識部24により認識された人物及び骨格判定部25により判定された骨格を用いて、図15に示すように撮影映像から「人物A」の骨格を判定する。また、「人物A」の骨格の縦方向の骨格中心線も決定する。尚、骨格中心線は、骨格の首元を通過する線である。そして、これらの骨格の座標情報をトリミングフレームサイズ決定部28に出力する。 The person identification unit 26 determines the skeleton of the “person A” from the captured image as shown in FIG. 15 by using the person recognized by the face recognition unit 24 and the skeleton determined by the skeleton determination unit 25. In addition, the vertical skeleton centerline of the skeleton of "person A" is also determined. The skeleton center line is a line that passes through the neck of the skeleton. Then, the coordinate information of these skeletons is output to the trimming frame size determination unit 28.

トリミングフレームサイズ決定部28は、始点の特定人物が「一人」であり、始点のショットが「アップショット」に対応する仮想カメラワーク「パン」に対応する構図情報を、構図データベース27から読み出す。ここで、読み出される構図情報は、以下の通りである。
・顔の縦方向の長さを1としたとき、被写体フレームの縦方向の長さを1.1倍とする。
・トリミングフレームは第1のトリミングフレームを使用する。
・トリミングフレームの縦方向の中心線と被写体フレームの縦方向の中心線とは一致させる。
The trimming frame size determination unit 28 reads from the composition database 27 the composition information corresponding to the virtual camera work “pan” in which the specific person at the start point is “one person” and the shot at the start point corresponds to the “up shot”. Here, the composition information read out is as follows.
-When the vertical length of the face is 1, the vertical length of the subject frame is 1.1 times.
-Use the first trimming frame as the trimming frame.
-Match the vertical center line of the trimming frame with the vertical center line of the subject frame.

トリミングフレームサイズ決定部28は、人物Aの骨格より、顔の縦方向の長さを計算する。そして、図15に示すように、縦方向の長さが、顔の長さの1.1倍の長さである被写体フレームの仮フレームを生成し、仮フレームの上辺が人物の顔の骨格の頂点に位置し、かつ、縦方向の中心線と骨格中心線とが一致する位置に、仮フレームを設置する。 The trimming frame size determination unit 28 calculates the vertical length of the face from the skeleton of the person A. Then, as shown in FIG. 15, a temporary frame of the subject frame whose vertical length is 1.1 times the length of the face is generated, and the upper side of the temporary frame is the skeleton of the human face. The temporary frame is installed at the apex and at the position where the vertical center line and the skeleton center line coincide with each other.

次に、トリミングフレームサイズ決定部28は、図15に示すように、仮フレームの縦方向の長さをかえずに、横方向の人物Aの骨格の最大範囲となるように横方向の長さを調整する。このようにして生成されたフレームが被写体フレームである。 Next, as shown in FIG. 15, the trimming frame size determining unit 28 does not change the vertical length of the temporary frame, but has a horizontal length so as to be the maximum range of the skeleton of the person A in the horizontal direction. To adjust. The frame generated in this way is the subject frame.

トリミングフレームサイズ決定部28は、図15に示すように、構図情報を満足するように、第1のトリミングフレームのサイズを調整する。第1のトリミングフレームのサイズの調整は、最低のマージンを確保した上で、第1のトリミングフレームのマージンが被写体フレームに重ならない範囲で、なるべく好ましいマージンの大きさになるように調整する。このようにして、トリミングフレームサイズ決定部28は、図16に示すように、トリミングフレームのサイズを決定する。 As shown in FIG. 15, the trimming frame size determination unit 28 adjusts the size of the first trimming frame so as to satisfy the composition information. The size of the first trimming frame is adjusted so that the margin of the first trimming frame does not overlap with the subject frame and is as preferable as possible after ensuring the minimum margin. In this way, the trimming frame size determination unit 28 determines the size of the trimming frame as shown in FIG.

次に、終点の「人物B」について、人物特定部26及びトリミングフレームサイズ決定部28は以下のように動作する。 Next, with respect to the end point "person B", the person identification unit 26 and the trimming frame size determination unit 28 operate as follows.

人物特定部26は、顔認識部24により認識された人物及び骨格判定部25により判定された骨格を用いて、図26に示すように撮影映像から「人物B」の骨格を判定する。また、「人物B」の骨格の縦方向の骨格中心線も決定する。尚、骨格中心線は、骨格の首元を通過する線である。そして、これらの骨格の座標情報をトリミングフレームサイズ決定部28に出力する。 The person identification unit 26 determines the skeleton of the “person B” from the captured image as shown in FIG. 26 by using the person recognized by the face recognition unit 24 and the skeleton determined by the skeleton determination unit 25. The vertical skeleton centerline of the skeleton of "person B" is also determined. The skeleton center line is a line that passes through the neck of the skeleton. Then, the coordinate information of these skeletons is output to the trimming frame size determination unit 28.

トリミングフレームサイズ決定部28は、終点の特定人物が「一人」であり、終点のショットが「アップショット」に対応する仮想カメラワーク「パン」に対応する構図情報を、構図データベース27から読み出す。ここで、読み出される構図情報は、以下の通りである。
・顔の縦方向の長さを1としたとき、被写体フレームの縦方向の長さを1.1倍とする。
・トリミングフレームは第1のトリミングフレームを使用する。
・トリミングフレームの縦方向の中心線と被写体フレームの縦方向の中心線とは一致させる。
The trimming frame size determination unit 28 reads from the composition database 27 the composition information corresponding to the virtual camera work “pan” in which the specific person at the end point is “one person” and the shot at the end point corresponds to the “up shot”. Here, the composition information read out is as follows.
-When the vertical length of the face is 1, the vertical length of the subject frame is 1.1 times.
-Use the first trimming frame as the trimming frame.
-Match the vertical center line of the trimming frame with the vertical center line of the subject frame.

トリミングフレームサイズ決定部28は、人物Bの骨格より、顔の縦方向の長さを計算する。そして、図26に示すように、縦方向の長さが、顔の長さの1.1倍の長さである被写体フレームの仮フレームを生成し、仮フレームの上辺が人物の顔の骨格の頂点に位置し、かつ、縦方向の中心線と骨格中心線とが一致する位置に、仮フレームを設置する。 The trimming frame size determination unit 28 calculates the vertical length of the face from the skeleton of the person B. Then, as shown in FIG. 26, a temporary frame of the subject frame whose vertical length is 1.1 times the length of the face is generated, and the upper side of the temporary frame is the skeleton of the human face. The temporary frame is installed at the apex and at the position where the vertical center line and the skeleton center line coincide with each other.

次に、トリミングフレームサイズ決定部28は、図26に示すように、仮フレームの縦方向の長さをかえずに、横方向の人物Aの骨格の最大範囲となるように横方向の長さを調整する。このようにして生成されたフレームが被写体フレームである。 Next, as shown in FIG. 26, the trimming frame size determining unit 28 does not change the vertical length of the temporary frame, but has a horizontal length so as to be the maximum range of the skeleton of the person A in the horizontal direction. To adjust. The frame generated in this way is the subject frame.

トリミングフレームサイズ決定部28は、図26に示すように、構図情報を満足するように、第1のトリミングフレームのサイズを調整する。第1のトリミングフレームのサイズの調整は、最低のマージンを確保した上で、第1のトリミングフレームのマージンが被写体フレームに重ならない範囲で、なるべく好ましいマージンの大きさになるように調整する。このようにして、トリミングフレームサイズ決定部28は、図26に示すように、トリミングフレームのサイズを決定する。 As shown in FIG. 26, the trimming frame size determination unit 28 adjusts the size of the first trimming frame so as to satisfy the composition information. The size of the first trimming frame is adjusted so that the margin of the first trimming frame does not overlap with the subject frame and is as preferable as possible after ensuring the minimum margin. In this way, the trimming frame size determination unit 28 determines the size of the trimming frame as shown in FIG.

始点及び終点のトリミングフレームのサイズが決定すると、トリミング制御部29は、始点及び終点の特定人物が「一人」であり、始点及び終点のショットが「アップショット」に対応する仮想カメラワーク「パン」の構図情報のうち、制御に関する構図情報を、構図データベース27から読み出す。ここで、読み出される構図情報は、以下の通りである。
・始点時に指定された特定人物のトリミングフレームを、トリミングフレームの縦方向の中心線と、始点時に指定された特定人物の縦方向の骨格中心線とが一致するように配置する。
・終点時に指定された特定人物のトリミングフレームを、トリミングフレームの縦方向の中心線と、終点時時に指定された特定人物の縦方向の骨格中心線とが一致するように配置する。
・始点時から終点時直前のトリミングフレームは、始点時に使用されるトリミングフレームを使用する。
・終点時は、終点時に指定された特定人物のトリミングフレームを使用する。
・仮想カメラワークの開始時に使用するトリミングフレームを1秒静止後、始点時のトリミングフレームの位置から終点時直前のトリミングフレームの位置まで、スプライン(最初と最後はゆっくり動き途中は速い動き)に移動する。
・仮想カメラワークの終了時に使用するトリミングフレームは静止を維持する。
When the size of the trimming frame at the start point and the end point is determined, the trimming control unit 29 has a virtual camera work "pan" in which the specific person at the start point and the end point is "one person" and the shots at the start point and the end point correspond to the "up shot". Of the composition information of the above, the composition information related to control is read from the composition database 27. Here, the composition information read out is as follows.
-Arrange the trimming frame of the specific person specified at the start point so that the vertical center line of the trimming frame and the vertical skeleton center line of the specific person specified at the start point coincide with each other.
-Arrange the trimming frame of the specific person specified at the end point so that the vertical center line of the trimming frame and the vertical skeleton center line of the specific person specified at the end point coincide with each other.
-For the trimming frame from the start point to just before the end point, use the trimming frame used at the start point.
-At the end point, the trimming frame of the specific person specified at the end point is used.
・ After the trimming frame used at the start of virtual camera work is stopped for 1 second, it moves to a spline (slow movement at the beginning and end and fast movement in the middle) from the position of the trimming frame at the start point to the position of the trimming frame immediately before the end point. do.
-The trimming frame used at the end of virtual camera work remains stationary.

トリミング制御部29は、人物特定部26からの骨格の位置情報(骨格中心線)と構図情報とを用いて、トリミングフレームサイズ決定部28で決定されたサイズのトリミングフレームを、図27に示すように、撮影映像上に配置して制御する。 The trimming control unit 29 uses the position information (skeleton center line) of the skeleton from the person identification unit 26 and the composition information to show the trimming frame of the size determined by the trimming frame size determination unit 28 as shown in FIG. 27. In addition, it is placed on the captured image and controlled.

尚、撮影映像は動画であるため、人物は時間の経過にともなって移動する可能性があり、骨格中心線も移動する可能性がある。骨格中心線の移動に伴って、トリミングフレームの位置も制御しても良いが、骨格中心線の移動が少ない場合にも、トリミングフレームを移動させると、視聴者にとって視聴し難い映像になる可能性がある。そこで、骨格中心線の移動の範囲が所定の距離範囲内である場合には、トリミングフレームの位置を維持するように制御しても良い。 Since the captured image is a moving image, the person may move with the passage of time, and the skeleton centerline may also move. The position of the trimming frame may be controlled as the skeleton centerline moves, but even if the skeleton centerline does not move much, moving the trimming frame may result in an image that is difficult for the viewer to view. There is. Therefore, when the range of movement of the skeleton center line is within a predetermined distance range, the position of the trimming frame may be controlled to be maintained.

トリミング部30は、撮影映像からトリミングフレーム内の映像をトリミングし、トリミングされたトリミング映像を、図27に示されるように、始点「人物A」から終点「人物B」へのアップショットのパンに対応する仮想カメラワーク映像として出力する。 The trimming unit 30 trims the image in the trimming frame from the captured image, and displays the trimmed trimmed image as an up-shot pan from the start point “person A” to the end point “person B” as shown in FIG. 27. Output as the corresponding virtual camera work video.

以上で、第1の実施の形態の説明を終わる。尚、上述したトリミングフレーム及び構図情報の数値等は一例であり、適時変更が可能であることは言うまでもない。 This is the end of the description of the first embodiment. It goes without saying that the above-mentioned trimming frame and numerical values of composition information are examples, and can be changed in a timely manner.

第1の実施の形態は、撮影映像中の人物を認識するように構成されているので、従来の技術のように、ユーザが撮影画像中の特定人物(被写体)を探す必要がなく、手間を削減することができる。 Since the first embodiment is configured to recognize a person in the captured image, it is not necessary for the user to search for a specific person (subject) in the captured image as in the conventional technique, which saves time and effort. Can be reduced.

更に、第1の実施の形態は、特定人物(被写体)の骨格を判定し、特定人物の部位の映像上の大きさや位置を特定し、その情報と構図情報とを用いて、仮想カメラワーク映像を生成しているので、多様なカメラワークの映像を生成することができる。 Further, in the first embodiment, the skeleton of a specific person (subject) is determined, the size and position of the part of the specific person on the image are specified, and the information and the composition information are used to create a virtual camera work image. Is generated, so it is possible to generate images of various camera works.

<第1の実施の形態の変形例1>
上述した第1の実施の形態における仮想カメラワークでは、特定人物の顔の向きを考慮していない。しかしながら、特定人物の顔の向きを考慮することにより、より自然なカメラワークを行うことができる。例えば、特定人物のアップショットを撮影する場合等、特定人物の顔が向いている方向の空間を広く取ることにより、より良い構図を得ることが出来る。そこで、第1の実施の形態の変形例では、顔認識部24より、特定人物の顔の向きの情報を取得し、特定人物の顔の向きの情報を考慮した構図情報を用いた仮想カメラワークの例を説明する。
<Modification 1 of the first embodiment>
In the virtual camera work in the first embodiment described above, the orientation of the face of a specific person is not taken into consideration. However, more natural camera work can be performed by considering the orientation of the face of a specific person. For example, when taking a close-up shot of a specific person, a better composition can be obtained by taking a wide space in the direction in which the face of the specific person is facing. Therefore, in the modified example of the first embodiment, the face recognition unit 24 acquires the information on the face orientation of the specific person, and the virtual camera work using the composition information in consideration of the information on the face orientation of the specific person. An example of is described.

以下の説明においては、特定人物が「人物B(一人)」であり、仮想カメラワークが「アップショット」の場合における、トリミングフレームサイズ決定部28、トリミング制御部29、トリミング部30の具体的な動作を中心に説明する。そして、映像処理装置2には、図14に示すような撮影映像が入力されている場合を説明する。また、各部が読み出す具体的な構図情報は、構図データベース27に予め記憶されているものとする。 In the following description, when the specific person is "person B (one person)" and the virtual camera work is "up shot", the trimming frame size determination unit 28, the trimming control unit 29, and the trimming unit 30 are concrete. The operation will be mainly explained. Then, a case where a captured image as shown in FIG. 14 is input to the image processing device 2 will be described. Further, it is assumed that the specific composition information read by each unit is stored in the composition database 27 in advance.

人物特定部26は、顔認識部24により認識された人物及び骨格判定部25により判定された骨格を用いて、図28に示すように撮影映像から「人物B」の骨格を判定する。また、「人物B」の骨格の縦方向の骨格中心線も決定する。尚、骨格中心線は、骨格の首元を通過する線である。そして、これらの骨格の座標情報をトリミングフレームサイズ決定部28に出力する。 The person identification unit 26 determines the skeleton of the “person B” from the captured image as shown in FIG. 28, using the person recognized by the face recognition unit 24 and the skeleton determined by the skeleton determination unit 25. The vertical skeleton centerline of the skeleton of "person B" is also determined. The skeleton center line is a line that passes through the neck of the skeleton. Then, the coordinate information of these skeletons is output to the trimming frame size determination unit 28.

また、顔認識部24は、「人物B」の顔の向きの情報をトリミングフレームサイズ決定部28に出力する。 Further, the face recognition unit 24 outputs information on the face orientation of the "person B" to the trimming frame size determination unit 28.

トリミングフレームサイズ決定部28は、特定人物が「一人」であり、仮想カメラワークが「アップショット」、顔の向きが「右方向」に対応する構図情報を、構図データベース27から読み出す。ここで、読み出される「アップショット」に対応する構図情報は、以下の通りである。
・顔の縦方向の長さを1としたとき、被写体フレームの縦方向の長さを1.1倍とする。
・トリミングフレームは第1のトリミングフレームを使用する。
・被写体フレームの縦方向の中心線が、トリミングフレームの左から0.65:0.35の位置を通過するようにする。
The trimming frame size determination unit 28 reads composition information corresponding to "one person", virtual camera work "up shot", and face orientation "right direction" from the composition database 27. Here, the composition information corresponding to the “up shot” read out is as follows.
-When the vertical length of the face is 1, the vertical length of the subject frame is 1.1 times.
-Use the first trimming frame as the trimming frame.
-The vertical center line of the subject frame passes through the position of 0.65: 0.35 from the left of the trimming frame.

トリミングフレームサイズ決定部28は、人物Bの骨格より、顔の縦方向の長さを計算する。そして、図28に示すように、縦方向の長さが、顔の長さの1.1倍の長さである被写体フレームの仮フレームを生成し、仮フレームの上辺が人物の顔の骨格の頂点に位置し、かつ、縦方向の中心線と骨格中心線とが一致する位置に、仮フレームを設置する。 The trimming frame size determination unit 28 calculates the vertical length of the face from the skeleton of the person B. Then, as shown in FIG. 28, a temporary frame of the subject frame whose vertical length is 1.1 times the length of the face is generated, and the upper side of the temporary frame is the skeleton of the human face. The temporary frame is installed at the apex and at the position where the vertical center line and the skeleton center line coincide with each other.

次に、トリミングフレームサイズ決定部28は、図28に示すように、仮フレームの縦方向の長さをかえずに、横方向の人物Bの骨格の最大範囲となるように横方向の長さを調整する。このようにして生成されたフレームが被写体フレームである。 Next, as shown in FIG. 28, the trimming frame size determining unit 28 does not change the vertical length of the temporary frame, but has a horizontal length so as to be the maximum range of the skeleton of the person B in the horizontal direction. To adjust. The frame generated in this way is the subject frame.

トリミングフレームサイズ決定部28は、図28に示すように、構図情報を満足するように、第1のトリミングフレームのサイズを調整する。第1のトリミングフレームのサイズの調整は、被写体フレームの縦方向の中心線が、トリミングフレームの左から0.65:0.35の位置を通過する位置で、最低のマージンを確保した上で、第1のトリミングフレームのマージンが被写体フレームに重ならない範囲で、なるべく好ましいマージンの大きさになるように調整する。このようにして、トリミングフレームサイズ決定部28は、図28に示すように、トリミングフレームのサイズを決定する。 As shown in FIG. 28, the trimming frame size determination unit 28 adjusts the size of the first trimming frame so as to satisfy the composition information. The size of the first trimming frame is adjusted after ensuring the minimum margin at the position where the vertical center line of the subject frame passes the position of 0.65: 0.35 from the left of the trimming frame. The margin of the first trimming frame is adjusted so as to be as preferable as possible within a range that does not overlap with the subject frame. In this way, the trimming frame size determination unit 28 determines the size of the trimming frame as shown in FIG. 28.

トリミング制御部29は、特定人物が「一人」であり、仮想カメラワークが「アップショット」に対応する構図情報のうち、制御に関する構図情報を、構図データベース27から読み出す。ここで、読み出される構図情報は、以下の通りである。
・トリミングフレームを、特定人物の縦方向の骨格中心線がトリミングフレームの左から0.65:0.35の位置を通過するように配置する。
The trimming control unit 29 reads out the composition information related to the control from the composition database 27 among the composition information corresponding to the “upshot” by the virtual camera work in which the specific person is “one person”. Here, the composition information read out is as follows.
-The trimming frame is arranged so that the vertical skeleton center line of the specific person passes through the position of 0.65: 0.35 from the left of the trimming frame.

トリミング制御部29は、人物特定部26からの骨格の位置情報(骨格中心線)と構図情報とを用いて、トリミングフレームサイズ決定部28で決定されたサイズのトリミングフレームを、図29に示すように、撮影映像上に配置する。 The trimming control unit 29 uses the position information (skeleton center line) of the skeleton from the person identification unit 26 and the composition information to show the trimming frame of the size determined by the trimming frame size determination unit 28 as shown in FIG. Place it on the captured image.

尚、撮影映像は動画であるため、人物は時間の経過にともなって移動する可能性があり、骨格中心線も移動する可能性がある。骨格中心線の移動に伴って、トリミングフレームの位置も制御しても良いが、骨格中心線の移動が少ない場合にも、トリミングフレームを移動させると、視聴者にとって視聴し難い映像になる可能性がある。そこで、骨格中心線の移動の範囲が所定の距離範囲内である場合には、トリミングフレームの位置を維持するように制御しても良い。 Since the captured image is a moving image, the person may move with the passage of time, and the skeleton centerline may also move. The position of the trimming frame may be controlled as the skeleton centerline moves, but even if the skeleton centerline does not move much, moving the trimming frame may result in an image that is difficult for the viewer to view. There is. Therefore, when the range of movement of the skeleton center line is within a predetermined distance range, the position of the trimming frame may be controlled to be maintained.

トリミング部30は、撮影映像からトリミングフレーム内の映像をトリミングし、トリミングされたトリミング映像を、図29に示されるように、指定された仮想カメラワークである「人物B」の「アップショット」の映像として出力する。 The trimming unit 30 trims the image in the trimming frame from the captured image, and the trimmed image is the “up shot” of the designated virtual camera work “person B” as shown in FIG. 29. Output as video.

第1の実施の形態の変形例1によれば、図27に例示されるように、顔の向きを考慮しない「人物B」の「アップショット」に比べて、図29に示されるように、人物の顔の向きを考慮した「人物B」の「アップショット」の方が、より人間が撮影する理想的な構図の映像を得ることができる。すなわち、より、人間が撮影するカメラワーク映像に近い仮想カメラワーク映像を得ることができる。 According to the first modification of the first embodiment, as illustrated in FIG. 27, as shown in FIG. 29, as compared with the “up shot” of the “person B” that does not consider the orientation of the face. The "up shot" of "person B" considering the orientation of the person's face can obtain an image with an ideal composition taken by a human. That is, it is possible to obtain a virtual camera work image that is closer to the camera work image taken by a human being.

<第1の実施の形態の変形例2>
上述した第1の実施の形態では、被写体の指定として特定人物のみを指定する例を説明した。しかしながら、人物特定部26では、特定人物の各部位を判定している。そこで、第1の実施の形態の変形例2は、特定人物のみならず、特定人物の部位も指定し、特定人物の部位を被写体とするカメラワークを実現する例を説明する。
<Modification 2 of the first embodiment>
In the first embodiment described above, an example of designating only a specific person as a subject designation has been described. However, the person identification unit 26 determines each part of the specific person. Therefore, in the second modification of the first embodiment, not only the specific person but also the part of the specific person is designated, and an example of realizing the camera work in which the part of the specific person is the subject will be described.

第1の実施の形態の変形例2の具体例としては、特定人物が「人物B(一人)」であり、その特定人物の被写体となる部位が「右手」であり、仮想カメラワークが「アップショット」の場合を説明する。尚、各部が読み出す具体的な構図情報は、構図データベース27に予め記憶されているものとする。 As a specific example of the modified example 2 of the first embodiment, the specific person is "person B (one person)", the part to be the subject of the specific person is "right hand", and the virtual camera work is "up". The case of "shot" will be described. It is assumed that the specific composition information read by each unit is stored in the composition database 27 in advance.

まず、具体的な部位の指定方法であるが、図30に示す如く、情報処理装置2と表示装置3とが一体に構成されたタブレット端末(コンピュータ100)上に、特定人物指定受付部43に加えて、部位指定部50を設ける。部位指定部50は、人物の全身を模式的に示した図であり、被写体となる部位をタッチすることにより、部位を指定することができる。例えば、特定人物が「人物B(一人)」であり、その特定人物の被写体となる部位が「右手」の場合、特定人物指定受付部43の「人物B」をタッチ後、部位指定部50の「右手」をタッチすることにより、「人物B」及び「右手」を指定することができる。 First, regarding a specific method of designating a part, as shown in FIG. 30, on a tablet terminal (computer 100) in which an information processing device 2 and a display device 3 are integrally configured, a specific person designation reception unit 43 is used. In addition, a site designation portion 50 is provided. The part designation unit 50 is a diagram schematically showing the whole body of a person, and the part can be designated by touching the part to be the subject. For example, when the specific person is "person B (one person)" and the part to be the subject of the specific person is "right hand", after touching "person B" of the specific person designation reception unit 43, the part designation unit 50 By touching the "right hand", the "person B" and the "right hand" can be specified.

特定人物、被写体となる特定人物の部位及び仮想カメラワークの指定が終了すると、人物特定部26は、顔認識部24により認識された人物及び骨格判定部25により判定された骨格を用いて、図5に示すように撮影映像から「人物B」の骨格を判定する。そして、これらの骨格の座標情報をトリミングフレームサイズ決定部28に出力する。 When the designation of the specific person, the part of the specific person to be the subject, and the virtual camera work is completed, the person identification unit 26 uses the person recognized by the face recognition unit 24 and the skeleton determined by the skeleton determination unit 25 in the drawing. As shown in 5, the skeleton of "person B" is determined from the captured image. Then, the coordinate information of these skeletons is output to the trimming frame size determination unit 28.

トリミングフレームサイズ決定部28は、特定人物が「一人」、被写体となる部位が「右手」であり、仮想カメラワークが「アップショット」に対応する構図情報を、構図データベース27から読み出す。ここで、読み出される構図情報は、以下の通りである。
・被写体フレームの縦横の中心線の交点(被写体フレームの中心)が、右手の先端となるようにする。
・被写体フレームの縦の長さは、縦右前腕部の長さの2倍とする。
・被写体フレームの横の長さは、横右前腕部の長さの2倍とする。
・トリミングフレームは第1のトリミングフレームを使用する。
・トリミングフレームの縦方向の中心線と被写体フレームの縦方向の中心線とは一致させる。
The trimming frame size determination unit 28 reads the composition information corresponding to the “up shot” by the virtual camera work from the composition database 27, in which the specific person is “one person” and the part to be the subject is the “right hand”. Here, the composition information read out is as follows.
-The intersection of the vertical and horizontal center lines of the subject frame (the center of the subject frame) should be the tip of the right hand.
-The vertical length of the subject frame shall be twice the length of the vertical right forearm.
-The horizontal length of the subject frame shall be twice the length of the horizontal right forearm.
-Use the first trimming frame as the trimming frame.
-Match the vertical center line of the trimming frame with the vertical center line of the subject frame.

トリミングフレームサイズ決定部28は、人物Bの骨格より、縦方向及び横方向の右前腕部の長さを計算する。そして、図31に示すように、縦方向の長さが縦右前腕部の長さの2倍、横方向の長さが横右前腕部の長さの2倍であり、かつ、被写体フレームの縦横の中心線の交点(被写体フレームの中心)が、右手の先端となるように被写体フレームを調整する。 The trimming frame size determination unit 28 calculates the length of the right forearm portion in the vertical direction and the horizontal direction from the skeleton of the person B. Then, as shown in FIG. 31, the length in the vertical direction is twice the length of the vertical right forearm, the horizontal length is twice the length of the horizontal right forearm, and the subject frame. Adjust the subject frame so that the intersection of the vertical and horizontal center lines (the center of the subject frame) is the tip of the right hand.

トリミングフレームサイズ決定部28は、図31に示すように、構図情報を満足するように、第1のトリミングフレームのサイズを調整する。第1のトリミングフレームのサイズの調整は、最低のマージンを確保した上で、第1のトリミングフレームのマージンが被写体フレームに重ならない範囲で、なるべく好ましいマージンの大きさになるように調整する。このようにして、トリミングフレームサイズ決定部28は、図31に示すように、トリミングフレームのサイズを決定する。 As shown in FIG. 31, the trimming frame size determination unit 28 adjusts the size of the first trimming frame so as to satisfy the composition information. The size of the first trimming frame is adjusted so that the margin of the first trimming frame does not overlap with the subject frame and is as preferable as possible after ensuring the minimum margin. In this way, the trimming frame size determination unit 28 determines the size of the trimming frame as shown in FIG.

トリミング制御部29は、特定人物が「一人」であり、被写体となる部位が「右手」であり、仮想カメラワークが「アップショット」に対応する構図情報のうち、制御に関する構図情報を、構図データベース27から読み出す。ここで、読み出される構図情報は、以下の通りである。
・トリミングフレームは、トリミングフレームの縦横方向の中心線の交点と、右手の先端とが一致するように配置する。
The trimming control unit 29 stores composition information related to control among composition information in which a specific person is "one person", a part to be a subject is "right hand", and virtual camera work corresponds to "up shot" in a composition database. Read from 27. Here, the composition information read out is as follows.
-Place the trimming frame so that the intersection of the vertical and horizontal center lines of the trimming frame coincides with the tip of the right hand.

トリミング制御部29は、人物特定部26からの骨格の位置情報(右手の先端の座標)と構図情報とを用いて、トリミングフレームサイズ決定部28で決定されたサイズのトリミングフレームを、図32に示すように、撮影映像上に配置する。 The trimming control unit 29 uses the position information (coordinates of the tip of the right hand) of the skeleton from the person identification unit 26 and the composition information to display the trimming frame of the size determined by the trimming frame size determination unit 28 in FIG. 32. As shown, it is placed on the captured image.

尚、撮影映像は動画であるため、人物は時間の経過にともなって移動する可能性があり、その移動に伴い右手の先端の座標も移動する可能性がある。右手の先端の座標の移動に伴って、トリミングフレームの位置も制御しても良いが、右手の先端の座標の移動が少ない場合にも、トリミングフレームを移動させると、視聴者にとって視聴し難い映像になる可能性がある。そこで、右手の先端の座標の移動の範囲が所定の距離範囲内である場合には、トリミングフレームの位置を維持するように制御しても良い。 Since the captured image is a moving image, the person may move with the passage of time, and the coordinates of the tip of the right hand may move with the movement. The position of the trimming frame may be controlled as the coordinates of the tip of the right hand move, but even if the coordinates of the tip of the right hand do not move much, moving the trimming frame makes it difficult for the viewer to view the image. May become. Therefore, when the range of movement of the coordinates of the tip of the right hand is within a predetermined distance range, the position of the trimming frame may be controlled to be maintained.

トリミング部30は、撮影映像からトリミングフレーム内の映像をトリミングし、トリミングされたトリミング映像を、図32に示されるように、「人物Bの右手」の「アップショット」の映像として出力する。 The trimming unit 30 trims the image in the trimming frame from the captured image, and outputs the trimmed trimmed image as an “up shot” image of the “right hand of the person B” as shown in FIG. 32.

第1の実施の形態の変形例2では、特定人物(被写体)の骨格を用いて判定した各部位の位置や長さの情報と、構図情報とを用いることにより、特定人物の特定の部位を被写体とする仮想カメラワークを実現することができる。 In the second modification of the first embodiment, the position and length information of each part determined by using the skeleton of the specific person (subject) and the composition information are used to obtain the specific part of the specific person. It is possible to realize virtual camera work as a subject.

<第1の実施の形態の変形例3>
第1の実施の形態の変形例3を説明する。図33は第1の実施の形態の変形例3の情報処理装置2のブロック図である。
<Modification 3 of the first embodiment>
A modified example 3 of the first embodiment will be described. FIG. 33 is a block diagram of the information processing device 2 of the modification 3 of the first embodiment.

第1の実施の形態の変形例3では、撮影映像をトリミングして生成された仮想カメラワーク映像に対して映像効果を与える例である。映像効果としては、例えば、フォーカスインのように、撮影フレーム自体は変化がないが、時間と共にフォーカスされていない映像から被写体からフォーカスされた映像になるような映像効果や、その逆のフォーカスアウトなどがある。 In the third modification of the first embodiment, an image effect is given to the virtual camera work image generated by trimming the captured image. As for the image effect, for example, the image effect that the shooting frame itself does not change like focus-in, but the image that is not focused with time changes to the image that is focused from the subject, and vice versa, such as focus-out. There is.

これらの映像効果を、撮影映像をトリミングして生成された仮想カメラワーク映像に対して与えるため、第1の実施の形態の変形例3の情報処理装置2は、映像効果処理部31を更に備える。 In order to give these video effects to the virtual camera work video generated by trimming the captured video, the information processing device 2 of the modification 3 of the first embodiment further includes a video effect processing unit 31. ..

映像効果処理部31は、指定された仮想カメラワークに対応する構図情報から映像効果の情報を、構図データベース27から取得する。そして、映像効果処理部31は、トリミング部30から出力されたトリミング映像に対し、その映像効果を処理し、仮想カメラワーク映像を出力する。 The video effect processing unit 31 acquires video effect information from the composition database 27 from the composition information corresponding to the designated virtual camera work. Then, the image effect processing unit 31 processes the image effect on the trimmed image output from the trimming unit 30, and outputs the virtual camera work image.

<第2の実施の形態>
第2の実施の形態を説明する。
<Second embodiment>
A second embodiment will be described.

図34は第2の実施の形態の情報処理装置2のブロック図である。 FIG. 34 is a block diagram of the information processing apparatus 2 according to the second embodiment.

第2の実施の形態の情報処理装置2は、CG(コンピュータグラフィックス)画像や、他の編集済み映像等を、仮想カメラワーク映像にテロップ又はスーパー(重畳)する機能を更に備える。その機能の実現のため、第2の実施の形態の情報処理装置2は、第1の実施の形態の情報処理装置2の構成に加えて、画像データベース50と、画像選択部51と、加算器52とを備える。 The information processing device 2 of the second embodiment further includes a function of teloping or superimposing a CG (computer graphics) image, another edited image, or the like on a virtual camera work image. In order to realize the function, the information processing device 2 of the second embodiment includes an image database 50, an image selection unit 51, and an adder in addition to the configuration of the information processing device 2 of the first embodiment. 52 and.

画像記憶部50は、ロゴなどのCG画像、編集済み映像等(重畳画像と記載する)が格納される。 The image storage unit 50 stores a CG image such as a logo, an edited image, and the like (described as a superimposed image).

画像選択部51は、画像記憶部50に格納されている重畳画像のうち仮想カメラワーク映像に重畳する重畳画像の選択を、ユーザから受付ける部である。画像選択部51は、ユーザの重畳画像の選択のために、画像記憶部50に記憶されている重畳画像のうちユーザが選択可能な重畳画像を表示装置3に表示する。表示の一例としては、重畳画像を識別する識別情報、重畳画像のサムネイル画像などがある。また、画像選択部51は、選択された重畳画像を、仮想カメラワーク映像のどの位置に重畳するか、及びその大きさの制御も行う。位置、大きさの制御は、ユーザによる仮想カメラワーク映像上の位置及び大きさの指定により決定される。 The image selection unit 51 is a unit that receives from the user the selection of the superimposed image to be superimposed on the virtual camera work image among the superimposed images stored in the image storage unit 50. The image selection unit 51 displays the superimposed image that can be selected by the user among the superimposed images stored in the image storage unit 50 on the display device 3 for the user to select the superimposed image. Examples of the display include identification information for identifying the superimposed image, a thumbnail image of the superimposed image, and the like. The image selection unit 51 also controls the position on which the selected superimposed image is superimposed on the virtual camera work image and the size thereof. The control of the position and size is determined by the user's designation of the position and size on the virtual camera work image.

加算器52は、仮想カメラワーク映像に、選択された重畳画像を加算(重畳)し、重畳画像が重畳された仮想カメラワーク映像を出力する。 The adder 52 adds (superimposes) the selected superimposed image to the virtual camera work image, and outputs the virtual camera work image on which the superimposed image is superimposed.

次に、第2の実施の形態の情報処理装置2の動作を説明する。以下の説明では、第1の実施の形態と同様に、情報処理装置2と表示装置3とが一体に構成されたタブレット端末(コンピュータ100)を想定して説明する。 Next, the operation of the information processing device 2 according to the second embodiment will be described. In the following description, as in the first embodiment, a tablet terminal (computer 100) in which the information processing device 2 and the display device 3 are integrally configured will be described.

タブレット端末(コンピュータ100)の表示部(表示装置3)には、図35に示す如く、撮影映像が表示される表示部40と、仮想カメラワーク映像が表示される表示部41と、仮想カメラワークを指定する仮想カメラワーク指定受付部42(仮想カメラワーク指定受付部22)と、被写体となる特定人物を指定する特定人物指定受付部43(特定人物指定受付部21)とに加えて、重畳画像を選択するためのサムネイル画像44(画像選択部51)が表示される。 As shown in FIG. 35, the display unit (display device 3) of the tablet terminal (computer 100) includes a display unit 40 on which a captured image is displayed, a display unit 41 on which a virtual camera work image is displayed, and a virtual camera work. In addition to the virtual camera work designated reception unit 42 (virtual camera work designated reception unit 22) and the specific person designation reception unit 43 (specific person designation reception unit 21) that designates a specific person as a subject, a superimposed image is displayed. The thumbnail image 44 (image selection unit 51) for selecting is displayed.

ユーザは、表示部41に表示されている仮想カメラワーク映像に重畳したい重畳画像を、サムネイル画像44から選択する。選択及び配置方法は、図36に示す如く、選択するサムネイル画像を、指で仮想カメラワーク映像上にドラッグする。そして、仮想カメラワーク映像上の希望する位置にドロップする。重畳画像のサイズは、重畳画像を仮想カメラワーク映像上にドロップ後、図37に示すように、その重畳画像をピンチイン又はピンチアウトすることで、そのサイズを決定する。 The user selects a superimposed image to be superimposed on the virtual camera work image displayed on the display unit 41 from the thumbnail image 44. As for the selection and arrangement method, as shown in FIG. 36, the selected thumbnail image is dragged onto the virtual camera work image with a finger. Then, it is dropped at a desired position on the virtual camera work image. The size of the superimposed image is determined by dropping the superimposed image on the virtual camera work image and then pinching in or out of the superimposed image as shown in FIG. 37.

このようにして、ロゴや編集済み映像を仮想カメラワーク映像上に重畳した映像を生成することができる。 In this way, it is possible to generate an image in which the logo and the edited image are superimposed on the virtual camera work image.

<第3の実施の形態>
第3の実施の形態を説明する。
<Third embodiment>
A third embodiment will be described.

第3の実施の形態は、スイッチングシステムである。図38は第3の実施の形態のスイッチングシステムのブロック図である。 A third embodiment is a switching system. FIG. 38 is a block diagram of the switching system of the third embodiment.

第3の実施の形態のスイッチングシステムは、第1又は第2の実施の形態における情報処理装置2を複数備えている。各情報処理装置2にはカメラ1の撮影映像が入力され、各情報処理装置2はユーザが選択した仮想カメラワークによるひとつの仮想カメラワーク映像を出力する。 The switching system of the third embodiment includes a plurality of information processing devices 2 of the first or second embodiment. The captured image of the camera 1 is input to each information processing device 2, and each information processing device 2 outputs one virtual camera work image by the virtual camera work selected by the user.

スイッチング装置4は、各情報処理装置2からの仮想カメラワーク映像が入力され、ユーザの選択により、ひとつの仮想カメラワーク映像がライン映像として出力される。 The switching device 4 inputs virtual camera work images from each information processing device 2, and one virtual camera work image is output as a line image according to the user's selection.

次に、第3の実施の形態のスイッチングシステムの動作を説明する。以下の説明では、二つの情報処理装置2を用い、第1の実施の形態と同様に、情報処理装置2と表示装置3とが一体に構成されたタブレット端末(コンピュータ100)を想定して説明する。すなわち、タブレット端末(コンピュータ100)は、二つのの情報処理装置2と、表示装置3と、スイッチング装置4とを備える。 Next, the operation of the switching system of the third embodiment will be described. In the following description, it is assumed that two information processing devices 2 are used and a tablet terminal (computer 100) in which the information processing device 2 and the display device 3 are integrally configured as in the first embodiment is assumed. do. That is, the tablet terminal (computer 100) includes two information processing devices 2, a display device 3, and a switching device 4.

第3の実施の形態のタブレット端末(コンピュータ100)の表示部(表示装置3)には、二つの情報処理装置2から出力される二種類の仮想カメラワーク映像が表示される表示部41−1及び41−2が有る点で、第1の実施の形態及び第2の実施の形態と異なる。表示部41−1はライン映像が表示される表示部であり、表示部41−2はライン映像の候補となるプレビュー映像が表示される表示部である。ライン映像が表示される表示部41−1は、表示部41−2に比べて枠線を太く表示され、ライン映像であることが容易に視認できるようになっている。 On the display unit (display device 3) of the tablet terminal (computer 100) of the third embodiment, the display unit 41-1 displaying two types of virtual camera work images output from the two information processing devices 2. It differs from the first embodiment and the second embodiment in that there are 41-2 and 41-2. The display unit 41-1 is a display unit on which a line image is displayed, and the display unit 41-2 is a display unit on which a preview image as a candidate for the line image is displayed. The display unit 41-1 on which the line image is displayed has a thicker frame line than the display unit 41-2, so that the line image can be easily visually recognized.

ユーザは、ライン映像の候補となる仮想カメラワーク映像を得るため、まず、表示部41−2の画面を指でタッチ(選択)後、特定人物指定受付部43(特定人物指定受付部21)により特定人物を指定し、仮想カメラワーク指定受付部42(仮想カメラワーク指定受付部22)により仮想カメラワークを指定する。すると、選択した表示部41−2には指定した特定人物及び仮想カメラワークに対応する仮想カメラワーク映像が表示される。ここで、表示部41−2に表示されている仮想カメラワーク映像(プレビュー映像)をライン映像にスイッチングする場合、表示部41−2をタッチして選択後、「TAKE」ボタンをタッチすることにより、表示部41−2に表示されている仮想カメラワーク映像(プレビュー映像)をライン映像として出力することができる。このとき、表示部41−2に表示されていた仮想カメラワーク映像(プレビュー映像)は、表示部41−2には表示されず、ライン映像が表示される表示部41−1に表示されるようになる。 In order to obtain a virtual camera work image that is a candidate for a line image, the user first touches (selects) the screen of the display unit 41-2 with a finger, and then uses the specific person designation reception unit 43 (specific person designation reception unit 21). A specific person is designated, and the virtual camera work is designated by the virtual camera work designation reception unit 42 (virtual camera work designation reception unit 22). Then, the designated specific person and the virtual camera work image corresponding to the virtual camera work are displayed on the selected display unit 41-2. Here, when switching the virtual camera work image (preview image) displayed on the display unit 41-2 to the line image, touch the display unit 41-2 to select it, and then touch the "TAKE" button. , The virtual camera work image (preview image) displayed on the display unit 41-2 can be output as a line image. At this time, the virtual camera work image (preview image) displayed on the display unit 41-2 is not displayed on the display unit 41-2, but is displayed on the display unit 41-1 on which the line image is displayed. become.

更に、ライン映像の候補となる仮想カメラワーク映像を得るためには、仮想カメラワーク映像(プレビュー映像)が表示されていない表示部41−2の画面を指でタッチ(選択)後、特定人物指定受付部43(特定人物指定受付部21)により特定人物を指定し、仮想カメラワーク指定受付部42(仮想カメラワーク指定受付部22)により仮想カメラワークを指定する。すると、選択した表示部41−2には指定した特定人物及び仮想カメラワークに対応する仮想カメラワーク映像が表示される。 Further, in order to obtain a virtual camera work image that is a candidate for a line image, a specific person is specified after touching (selecting) the screen of the display unit 41-2 on which the virtual camera work image (preview image) is not displayed. A specific person is designated by the reception unit 43 (specific person designation reception unit 21), and the virtual camera work is designated by the virtual camera work designation reception unit 42 (virtual camera work designation reception unit 22). Then, the designated specific person and the virtual camera work image corresponding to the virtual camera work are displayed on the selected display unit 41-2.

図40は二種類の仮想カメラワーク映像が表示部41−1及び表示部41−2に表示されている例を示している。表示部41−1に表示されている仮想カメラワーク映像がライン映像であり、表示部41−2に表示されている仮想カメラワーク映像がプレビュー映像である。そして、表示部41−1に表示されている仮想カメラワーク映像から表示部41−2に表示されている仮想カメラワーク映像に、ライン映像をスイッチングする場合、表示部41−2をタッチして選択後、「TAKE」ボタンをタッチすることにより、表示部41−2に表示されている仮想カメラワーク映像(プレビュー映像)をライン映像として出力することができる。このとき、図41に示すように、表示部41−2に表示されていた仮想カメラワーク映像(プレビュー映像)は、表示部41−2には表示されず、ライン映像が表示される表示部41−1に表示されるようになる。 FIG. 40 shows an example in which two types of virtual camera work images are displayed on the display unit 41-1 and the display unit 41-2. The virtual camera work image displayed on the display unit 41-1 is a line image, and the virtual camera work image displayed on the display unit 41-2 is a preview image. Then, when switching the line image from the virtual camera work image displayed on the display unit 41-1 to the virtual camera work image displayed on the display unit 41-2, touch the display unit 41-2 to select. After that, by touching the "TAKE" button, the virtual camera work image (preview image) displayed on the display unit 41-2 can be output as a line image. At this time, as shown in FIG. 41, the virtual camera work image (preview image) displayed on the display unit 41-2 is not displayed on the display unit 41-2, and the line image is displayed on the display unit 41. It will be displayed at -1.

尚、上述の説明では、ライン映像の候補となる仮想カメラワーク映像を得るため、まず、表示部41−2の画面を指でタッチ(選択)する例を説明した。これは、プレビュー映像を表示する表示部が複数の場合でも対応できるようにするためである。しかし、本例のように、プレビュー映像を表示する表示部がひとつの場合は、表示部を選択しなくても良い構成とすることもできる。 In the above description, in order to obtain a virtual camera work image that is a candidate for a line image, an example of first touching (selecting) the screen of the display unit 41-2 with a finger has been described. This is to support even when there are a plurality of display units for displaying the preview image. However, as in this example, when there is only one display unit for displaying the preview image, it is possible to configure the configuration so that the display unit does not have to be selected.

第3の実施の形態によれば、多数のカメラやユーザ(操作者)を必要とすることなく、スイッチングシステムを実現することができる。 According to the third embodiment, the switching system can be realized without requiring a large number of cameras and users (operators).

以上好ましい実施の形態をあげて本発明を説明したが、全ての実施の形態の構成を備える必要はなく、適時組合せて実施することができるばかりでなく、本発明は必ずしも上記実施の形態に限定されるものではなく、その技術的思想の範囲内において様々に変形し実施することが出来る。 Although the present invention has been described with reference to preferred embodiments, it is not necessary to provide the configurations of all the embodiments, and not only can they be combined in a timely manner, but the present invention is not necessarily limited to the above embodiments. It is not something that is done, and it can be transformed and implemented in various ways within the scope of its technical ideas.

1 カメラ
2 映像処理装置
3 表示装置
4 スイッチング装置
20 撮影映像入力部
21 特定人物指定受付部
22 仮想カメラワーク指定受付部
23 顔画像辞書部
24 顔認識部
25 骨格判定部
26 人物特定部
27 構図データベース
28 トリミングフレームサイズ決定部
29 トリミング制御部
30 トリミング部
31 映像効果処理部
50 画像データベース
51 画像選択部
52 加算器
1 Camera 2 Video processing device 3 Display device 4 Switching device 20 Shooting video input unit 21 Specific person designation reception unit 22 Virtual camera work designation reception unit 23 Face image dictionary unit 24 Face recognition unit 25 Skeletal judgment unit 26 Person identification unit 27 Composition database 28 Trimming frame size determination unit 29 Trimming control unit 30 Trimming unit 31 Video effect processing unit 50 Image database 51 Image selection unit 52 Adder

Claims (13)

カメラで撮影された撮影映像を取得する取得部と、
被写体となる特定人物を指定する特定人物指定受付部と、
前記撮影映像の一部をトリミングして、仮想的なカメラの操作による映像効果を実現する仮想カメラワークを指定する仮想カメラワーク指定受付部と、
前記撮影映像中の人物を認識する人物認識部と、
前記撮影映像を用いて、前記映像中の人物の骨格を判定する骨格判定部と、
前記人物認識部の認識結果を用いて前記映像中の特定人物を識別し、前記骨格判定部により判定された骨格のうち前記特定人物の骨格を用いて、前記特定人物の部位の撮影映像上の位置関係を特定する人物特定部と、
前記仮想カメラワーク毎に、構図が定められた構図情報が格納された構図情報記憶部と、
前記特定人物の部位の撮影映像上の位置関係と、前記指定された仮想カメラワークに対応する構図情報とを用いて、前記撮影映像の一部をトリミングするトリミングフレームのサイズを決定するトリミングフレームサイズ決定部と、
前記特定人物の部位の撮影映像上の位置関係と、前記指定された仮想カメラワークに対応する構図情報とを用いて、前記指定された仮想カメラワークに対応するトリミングフレームの前記撮影映像の位置を制御するトリミングフレーム制御部と、
前記撮影映像から前記トリミングフレーム内の映像をトリミングし、トリミングされたトリミング映像を、前記仮想カメラワークによる仮想カメラワーク映像として出力するトリミング部と
を有する映像処理装置。
The acquisition unit that acquires the captured video taken by the camera,
A specific person designation reception section that specifies a specific person to be the subject, and
A virtual camera work designation reception unit that specifies a virtual camera work that realizes a video effect by operating a virtual camera by trimming a part of the shot image.
A person recognition unit that recognizes a person in the captured image,
A skeleton determination unit that determines the skeleton of a person in the image using the captured image,
A specific person in the image is identified by using the recognition result of the person recognition unit, and the skeleton of the specific person among the skeletons determined by the skeleton determination unit is used on the captured image of the part of the specific person. The person identification part that identifies the positional relationship and
For each virtual camera work, a composition information storage unit that stores composition information for which composition is defined, and a composition information storage unit.
A trimming frame size that determines the size of a trimming frame for trimming a part of the captured image using the positional relationship of the specific person's part on the captured image and the composition information corresponding to the specified virtual camera work. The decision department and
Using the positional relationship of the specific person's part on the captured image and the composition information corresponding to the specified virtual camera work, the position of the captured image of the trimming frame corresponding to the specified virtual camera work is determined. Trimming frame control unit to control and
An image processing device having a trimming unit that trims an image in the trimming frame from the captured image and outputs the trimmed image as a virtual camera work image by the virtual camera work.
前記仮想カメラワークは、少なくとも所定のアップショット、パン、ティルトを含む
請求項1に記載の映像処理装置。
The video processing device according to claim 1, wherein the virtual camera work includes at least predetermined upshots, pans, and tilts.
前記人物認識部又は前記骨格判定部の少なくともいずれかは、前記撮影映像の解像度よりも低い解像度の映像を用いて、人物を認識し、又は、骨格を判定する
請求項1又は請求項2に記載の映像処理装置。
The person according to claim 1 or 2, wherein at least one of the person recognition unit and the skeleton determination unit recognizes a person or determines the skeleton by using an image having a resolution lower than the resolution of the captured image. Video processing equipment.
前記人物認識部は、前記特定人物の顔の向きを判定し、
前記トリミングフレーム制御部は、前記特定人物の顔の向きを考慮し、トリミングフレームの位置を制御する
請求項1から請求項3のいずれかに記載の映像処理装置。
The person recognition unit determines the orientation of the face of the specific person, and determines the direction of the face of the specific person.
The image processing device according to any one of claims 1 to 3, wherein the trimming frame control unit controls the position of the trimming frame in consideration of the orientation of the face of the specific person.
前記特定人物の部位の指定を受け付ける部位指定受付部を有する
請求項1から請求項4のいずれかに記載の映像処理装置。
The video processing apparatus according to any one of claims 1 to 4, which has a part designation receiving unit for receiving the designation of a part of the specific person.
前記トリミング部から出力された映像を加工し、擬似的なフォーカスイン又はフォーカスアウトの映像を出力する映像加工部を有する
請求項1から請求項5のいずれかに記載の映像処理装置。
The image processing apparatus according to any one of claims 1 to 5, further comprising an image processing unit that processes an image output from the trimming unit and outputs a pseudo focus-in or focus-out image.
前記仮想カメラワーク映像に重畳する重畳画像を取得する重畳画像取得部と、
前記仮想カメラワーク映像に重畳画像を重畳する重畳部と
を有する請求項1から請求項6のいずれかに記載の映像処理装置。
A superimposed image acquisition unit that acquires a superimposed image superimposed on the virtual camera work image, and
The video processing apparatus according to any one of claims 1 to 6, further comprising a superimposing portion for superimposing a superimposing image on the virtual camera work image.
少なくとも2以上の映像処理装置と、表示部と、スイッチング部とを有し、
前記映像処理装置は、
カメラで撮影された撮影映像を取得する取得部と、
被写体となる特定人物を指定する特定人物指定受付部と、
前記撮影映像の一部をトリミングして、仮想的なカメラの操作による映像効果を実現する仮想カメラワークを指定する仮想カメラワーク指定受付部と、
前記撮影映像中の人物を認識する人物認識部と、
前記撮影映像を用いて、前記映像中の人物の骨格を判定する骨格判定部と、
前記人物認識部の認識結果を用いて前記映像中の特定人物を識別し、前記骨格判定部により判定された骨格のうち前記特定人物の骨格を用いて、前記特定人物の部位の撮影映像上の位置関係を特定する人物特定部と、
前記仮想カメラワーク毎に、構図が定められた構図情報が格納された構図情報記憶部と、
前記特定人物の部位の撮影映像上の位置関係と、前記指定された仮想カメラワークに対応する構図情報とを用いて、前記撮影映像の一部をトリミングするトリミングフレームのサイズを決定するトリミングフレームサイズ決定部と、
前記特定人物の部位の撮影映像上の位置関係と、前記指定された仮想カメラワークに対応する構図情報とを用いて、前記指定された仮想カメラワークに対応するトリミングフレームの前記撮影映像の位置を制御するトリミングフレーム制御部と、
前記撮影映像から前記トリミングフレーム内の映像をトリミングし、トリミングされたトリミング映像を、前記仮想カメラワークによる仮想カメラワーク映像として出力するトリミング部と
を有し、
前記表示部は、
前記撮影映像と、少なくとも二以上の前記仮想カメラワーク映像とを表示し、
前記スイッチング部は、
少なくとも二以上の前記仮想カメラワーク映像のうち、ユーザにより指定されたひとつの仮想カメラワーク映像を出力する
スイッチングシステム。
It has at least two or more video processing devices, a display unit, and a switching unit.
The video processing device
The acquisition unit that acquires the captured video taken by the camera,
A specific person designation reception section that specifies a specific person to be the subject, and
A virtual camera work designation reception unit that specifies a virtual camera work that realizes a video effect by operating a virtual camera by trimming a part of the shot image.
A person recognition unit that recognizes a person in the captured image,
A skeleton determination unit that determines the skeleton of a person in the image using the captured image,
A specific person in the image is identified by using the recognition result of the person recognition unit, and the skeleton of the specific person among the skeletons determined by the skeleton determination unit is used on the captured image of the part of the specific person. The person identification part that identifies the positional relationship and
For each virtual camera work, a composition information storage unit that stores composition information for which composition is defined, and a composition information storage unit.
A trimming frame size that determines the size of a trimming frame for trimming a part of the captured image using the positional relationship of the specific person's part on the captured image and the composition information corresponding to the specified virtual camera work. The decision department and
Using the positional relationship of the specific person's part on the captured image and the composition information corresponding to the specified virtual camera work, the position of the captured image of the trimming frame corresponding to the specified virtual camera work is determined. Trimming frame control unit to control and
It has a trimming unit that trims the image in the trimming frame from the captured image and outputs the trimmed image as a virtual camera work image by the virtual camera work.
The display unit
The captured image and at least two or more of the virtual camera work images are displayed, and the image is displayed.
The switching unit is
A switching system that outputs one virtual camera work image specified by a user out of at least two or more virtual camera work images.
前記表示部は、ライン映像として出力されている仮想カメラワーク映像と、他の仮想カメラワーク映像とを区別して表示する
請求項8に記載のスイッチングシステム。
The switching system according to claim 8, wherein the display unit distinguishes between a virtual camera work image output as a line image and another virtual camera work image.
カメラで撮影された撮影映像を取得する取得処理と、
被写体となる特定人物の指定を受付ける特定人物指定受付処理と、
前記撮影映像の一部をトリミングして、仮想的なカメラの操作による映像効果を実現する仮想カメラワークの指定を受付ける仮想カメラワーク指定受付処理と、
前記撮影映像中の人物を認識する人物認識処理と、
前記撮影映像を用いて、前記映像中の人物の骨格を判定する骨格判定処理と、
前記人物認識処理の認識結果を用いて前記映像中の特定人物を識別し、前記骨格判定処理により判定された骨格のうち前記特定人物の骨格を用いて、前記特定人物の部位の撮影映像上の位置関係を特定する人物特定処理と、
前記特定人物の部位の撮影映像上の位置関係と、前記仮想カメラワーク毎に構図が定められた構図情報のうち前記指定された仮想カメラワークに対応する構図情報とを用いて、前記撮影映像の一部をトリミングするトリミングフレームのサイズを決定するトリミングフレームサイズ決定処理と、
前記特定人物の部位の撮影映像上の位置関係と、前記指定された仮想カメラワークに対応する構図情報とを用いて、前記指定された仮想カメラワークに対応するトリミングフレームの前記撮影映像の位置を制御するトリミングフレーム制御処理と、
前記撮影映像から前記トリミングフレーム内の映像をトリミングし、トリミングされた映像を、前記仮想カメラワークによる仮想カメラワーク映像として出力するトリミング処理と
を、コンピュータに実行させるプログラム。
The acquisition process to acquire the captured video taken by the camera, and
Specific person designation reception processing that accepts the designation of a specific person to be the subject,
Virtual camera work designation acceptance processing that accepts the designation of virtual camera work that realizes the video effect by operating the virtual camera by trimming a part of the shot video,
The person recognition process for recognizing the person in the captured image and
A skeleton determination process for determining the skeleton of a person in the image using the captured image, and
A specific person in the image is identified by using the recognition result of the person recognition process, and the skeleton of the specific person among the skeletons determined by the skeleton determination process is used on the captured image of the part of the specific person. Person identification processing to identify the positional relationship and
Using the positional relationship of the specific person's part on the captured image and the composition information corresponding to the specified virtual camera work among the composition information whose composition is determined for each virtual camera work, the captured image Trimming frame sizing process to determine the size of the trimming frame to trim a part,
Using the positional relationship of the specific person's part on the captured image and the composition information corresponding to the specified virtual camera work, the position of the captured image of the trimming frame corresponding to the specified virtual camera work is determined. Trimming frame control processing to control and
A program that causes a computer to perform a trimming process of trimming an image in the trimming frame from the captured image and outputting the trimmed image as a virtual camera work image by the virtual camera work.
カメラで撮影された撮影映像を取得する取得処理と、
被写体となる特定人物の指定を受付ける特定人物指定処理と、
前記撮影映像の一部をトリミングして、仮想的なカメラの操作による映像効果を実現する仮想カメラワークの指定を受付ける仮想カメラワーク指定処理と、
前記撮影映像中の人物を認識する人物認識処理と、
前記撮影映像を用いて、前記映像中の人物の骨格を判定する骨格判定処理と、
前記人物認識処理の認識結果を用いて前記映像中の特定人物を識別し、前記骨格判定処理により判定された骨格のうち前記特定人物の骨格を用いて、前記特定人物の全身の撮影映像上の位置関係を特定する人物特定処理と、
前記特定人物の全身の撮影映像上の位置関係と、前記仮想カメラワーク毎に被写体の構図が定められた構図情報のうち前記指定された仮想カメラワークに対応する構図情報とを用いて、前記撮影映像の一部をトリミングするトリミングフレームのサイズを決定するトリミングフレームサイズ決定処理と、
前記特定人物の全身の撮影映像上の位置関係と、前記指定された仮想カメラワークに対応する構図情報とを用いて、前記指定された仮想カメラワークに対応するトリミングフレームの前記撮影映像の位置を制御するトリミングフレーム制御処理と、
前記撮影映像から前記トリミングフレーム内の映像をトリミングし、トリミングされた映像を、前記仮想カメラワークによる仮想カメラワーク映像として出力するトリミング処理と、
前記撮影映像と、少なくとも二以上の特定人物又は少なくとも二以上の仮想カメラワークに対応した少なくとも二以上の仮想カメラワーク映像とを、表示する表示処理と
表示されている少なくとも二以上の仮想カメラワーク映像のうち、ユーザにより指定されたひとつの仮想カメラワーク映像を出力するスイッチング処理と
を、コンピュータに実行させるプログラム。
The acquisition process to acquire the captured video taken by the camera, and
Specific person designation processing that accepts the designation of a specific person to be the subject,
A virtual camera work designation process that accepts a virtual camera work designation that realizes a video effect by operating a virtual camera by trimming a part of the shot video, and
The person recognition process for recognizing the person in the captured image and
A skeleton determination process for determining the skeleton of a person in the image using the captured image, and
A specific person in the image is identified by using the recognition result of the person recognition process, and the skeleton of the specific person among the skeletons determined by the skeleton determination process is used on the captured image of the whole body of the specific person. Person identification processing to identify the positional relationship and
The shooting is performed using the positional relationship on the captured image of the whole body of the specific person and the composition information corresponding to the designated virtual camera work among the composition information in which the composition of the subject is determined for each virtual camera work. Trimming frame size determination process to determine the size of the trimming frame that trims a part of the image,
Using the positional relationship on the captured image of the whole body of the specific person and the composition information corresponding to the specified virtual camera work, the position of the captured image of the trimming frame corresponding to the specified virtual camera work is determined. Trimming frame control processing to control and
A trimming process in which the image in the trimming frame is trimmed from the captured image and the trimmed image is output as a virtual camera work image by the virtual camera work.
Display processing for displaying the captured image and at least two or more virtual camera work images corresponding to at least two or more specific persons or at least two or more virtual camera works and at least two or more virtual camera work images displayed. Of these, a program that causes a computer to execute a switching process that outputs one virtual camera work image specified by the user.
コンピュータは、
カメラで撮影された撮影映像を取得し、
被写体となる特定人物の指定を受付け、
前記撮影映像の一部をトリミングして、仮想的なカメラの操作による映像効果を実現する仮想カメラワークの指定を受付け、
前記撮影映像中の人物を認識し、
前記撮影映像を用いて、前記映像中の人物の骨格を判定し、
前記人物の認識結果を用いて前記映像中の特定人物を識別し、前記判定された骨格のうち前記特定人物の骨格を用いて、前記特定人物の部位の撮影映像上の位置関係を特定し、
前記特定人物の部位の撮影映像上の位置関係と、前記仮想カメラワーク毎に構図が定められた構図情報のうち前記指定された仮想カメラワークに対応する構図情報とを用いて、前記撮影映像の一部をトリミングするトリミングフレームのサイズを決定し、
前記特定人物の部位の撮影映像上の位置関係と、前記指定された仮想カメラワークに対応する構図情報とを用いて、前記指定された仮想カメラワークに対応するトリミングフレームの前記撮影映像の位置を制御し、
前記撮影映像から前記トリミングフレーム内の映像をトリミングし、トリミングされた映像を、前記仮想カメラワークによる仮想カメラワーク映像として出力する
映像処理方法。
Computer
Acquire the shot video taken by the camera and
Accepting the designation of a specific person to be the subject,
Accepts the designation of virtual camera work that trims a part of the shot image and realizes the image effect by operating the virtual camera.
Recognize the person in the shot video and
Using the captured image, the skeleton of the person in the image is determined.
The specific person in the image is identified by using the recognition result of the person, and the positional relationship of the part of the specific person on the captured image is specified by using the skeleton of the specific person among the determined skeletons.
Using the positional relationship of the specific person's part on the captured image and the composition information corresponding to the specified virtual camera work among the composition information whose composition is determined for each virtual camera work, the photographed image Determine the size of the trimming frame to trim a part,
Using the positional relationship of the specific person's part on the captured image and the composition information corresponding to the specified virtual camera work, the position of the captured image of the trimming frame corresponding to the specified virtual camera work is determined. Control and
An image processing method in which an image in the trimming frame is trimmed from the captured image, and the trimmed image is output as a virtual camera work image by the virtual camera work.
コンピュータは、
カメラで撮影された撮影映像を取得し、
被写体となる特定人物の指定を受付け、
前記撮影映像の一部をトリミングして、仮想的なカメラの操作による映像効果を実現する仮想カメラワークの指定を受付け、
前記撮影映像中の人物を認識し、
前記撮影映像を用いて、前記映像中の人物の骨格を判定し、
前記人物の認識結果を用いて前記映像中の特定人物を識別し、前記判定された骨格のうち前記特定人物の骨格を用いて、前記特定人物の全身の撮影映像上の位置関係を特定し、
前記特定人物の全身の撮影映像上の位置関係と、前記仮想カメラワーク毎に被写体の構図が定められた構図情報のうち前記指定された仮想カメラワークに対応する構図情報とを用いて、前記撮影映像の一部をトリミングするトリミングフレームのサイズを決定し、
前記特定人物の全身の撮影映像上の位置関係と、前記指定された仮想カメラワークに対応する構図情報とを用いて、前記指定された仮想カメラワークに対応するトリミングフレームの前記撮影映像の位置を制御し、
前記撮影映像から前記トリミングフレーム内の映像をトリミングし、トリミングされた映像を、前記仮想カメラワークによる仮想カメラワーク映像として出力し、
前記撮影映像と、少なくとも二以上の特定人物又は少なくとも二以上の仮想カメラワークに対応した少なくとも二以上の仮想カメラワーク映像とを、表示し、
表示されている少なくとも二以上の仮想カメラワーク映像のうち、ユーザにより指定されたひとつの仮想カメラワーク映像を出力する
スイッチング方法。
Computer
Acquire the shot video taken by the camera and
Accepting the designation of a specific person to be the subject,
Accepts the designation of virtual camera work that trims a part of the shot image and realizes the image effect by operating the virtual camera.
Recognize the person in the shot video and
Using the captured image, the skeleton of the person in the image is determined.
The specific person in the image is identified by using the recognition result of the person, and the positional relationship of the whole body of the specific person on the captured image is specified by using the skeleton of the specific person among the determined skeletons.
The shooting is performed by using the positional relationship on the captured image of the whole body of the specific person and the composition information corresponding to the designated virtual camera work among the composition information in which the composition of the subject is determined for each virtual camera work. Determine the size of the trimming frame to trim a part of the image,
Using the positional relationship on the captured image of the whole body of the specific person and the composition information corresponding to the specified virtual camera work, the position of the captured image of the trimming frame corresponding to the specified virtual camera work is determined. Control and
The image in the trimming frame is trimmed from the captured image, and the trimmed image is output as a virtual camera work image by the virtual camera work.
The captured image and at least two or more virtual camera work images corresponding to at least two or more specific persons or at least two or more virtual camera works are displayed.
A switching method that outputs one virtual camera work image specified by the user out of at least two or more virtual camera work images displayed.
JP2021071382A 2019-05-15 2021-04-20 Information processing device, switching system, program and method Active JP7261261B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021071382A JP7261261B2 (en) 2019-05-15 2021-04-20 Information processing device, switching system, program and method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2019092321A JP6873186B2 (en) 2019-05-15 2019-05-15 Information processing equipment, switching systems, programs and methods
JP2021071382A JP7261261B2 (en) 2019-05-15 2021-04-20 Information processing device, switching system, program and method

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2019092321A Division JP6873186B2 (en) 2019-05-15 2019-05-15 Information processing equipment, switching systems, programs and methods

Publications (3)

Publication Number Publication Date
JP2021119686A true JP2021119686A (en) 2021-08-12
JP2021119686A5 JP2021119686A5 (en) 2022-07-21
JP7261261B2 JP7261261B2 (en) 2023-04-19

Family

ID=73221792

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2019092321A Active JP6873186B2 (en) 2019-05-15 2019-05-15 Information processing equipment, switching systems, programs and methods
JP2021071382A Active JP7261261B2 (en) 2019-05-15 2021-04-20 Information processing device, switching system, program and method

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2019092321A Active JP6873186B2 (en) 2019-05-15 2019-05-15 Information processing equipment, switching systems, programs and methods

Country Status (1)

Country Link
JP (2) JP6873186B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7362354B2 (en) * 2019-08-26 2023-10-17 キヤノン株式会社 Information processing device, inspection system and information processing method

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004274428A (en) * 2003-03-10 2004-09-30 Konica Minolta Holdings Inc Image processing method, image processor, recording medium and program
JP2005062320A (en) * 2003-08-08 2005-03-10 Konica Minolta Photo Imaging Inc Test-printed print, test-printed print forming system, and test-printed print forming method
JP2005244572A (en) * 2004-02-26 2005-09-08 Fuji Photo Film Co Ltd Method and apparatus for detecting defective trimming image, and program
JP2009100301A (en) * 2007-10-17 2009-05-07 Sony Corp Composition determination apparatus, composition determination method, and program
JP2009218807A (en) * 2008-03-10 2009-09-24 Sanyo Electric Co Ltd Imaging apparatus and image reproducing apparatus
JP2015133549A (en) * 2014-01-09 2015-07-23 株式会社メイクソフトウェア Image processing system, image processing method and computer program

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004274428A (en) * 2003-03-10 2004-09-30 Konica Minolta Holdings Inc Image processing method, image processor, recording medium and program
JP2005062320A (en) * 2003-08-08 2005-03-10 Konica Minolta Photo Imaging Inc Test-printed print, test-printed print forming system, and test-printed print forming method
JP2005244572A (en) * 2004-02-26 2005-09-08 Fuji Photo Film Co Ltd Method and apparatus for detecting defective trimming image, and program
JP2009100301A (en) * 2007-10-17 2009-05-07 Sony Corp Composition determination apparatus, composition determination method, and program
JP2009218807A (en) * 2008-03-10 2009-09-24 Sanyo Electric Co Ltd Imaging apparatus and image reproducing apparatus
JP2015133549A (en) * 2014-01-09 2015-07-23 株式会社メイクソフトウェア Image processing system, image processing method and computer program

Also Published As

Publication number Publication date
JP7261261B2 (en) 2023-04-19
JP6873186B2 (en) 2021-05-19
JP2020187592A (en) 2020-11-19

Similar Documents

Publication Publication Date Title
JP6292867B2 (en) Image capturing apparatus and method for capturing composite image
JP3847753B2 (en) Image processing apparatus, image processing method, recording medium, computer program, semiconductor device
JP4569613B2 (en) Image processing apparatus, image processing method, and program
CN108900767B (en) Camera device and control method thereof
US11367260B2 (en) Video synthesis device, video synthesis method and recording medium
US11625858B2 (en) Video synthesis device, video synthesis method and recording medium
JP7231643B2 (en) Information processing equipment
JP5963006B2 (en) Image conversion apparatus, camera, video system, image conversion method, and recording medium recording program
KR20210136858A (en) Image display apparatus, control method and program
JP2017191492A (en) Information processing device, information processing method and video generation system
JP7499819B2 (en) Head-mounted display
JP2023017920A (en) Image processing device
JP2019192116A (en) Image generation device and image generation program
JP7261261B2 (en) Information processing device, switching system, program and method
US20160344946A1 (en) Screen System
JP7498330B2 (en) Virtual object operation method and head-mounted display
WO2014034137A1 (en) Image processing device, image processing method, and image processing program
JP2008033840A (en) Moving image display device, moving image display method, and computer program
JP2006294066A (en) Image processor, image processing method, recording medium, computer program, and semiconductor device
JP2019192224A (en) Image generation device and image generation program
JP2021040231A (en) Image processing device and program
JP4544262B2 (en) Virtual reality space sharing system and method, and information processing apparatus and method
KR20090028043A (en) Image photographing apparatus having function of auto conversion to selected area on display and method for automatically converting to selected area on display using the apparatus
JP5967126B2 (en) Terminal device and program
JPWO2020008559A1 (en) Head-mounted display and setting method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220511

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220712

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230315

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230407

R150 Certificate of patent or registration of utility model

Ref document number: 7261261

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150