JP6841977B2 - Shooting support device, shooting support method, and shooting support program - Google Patents

Shooting support device, shooting support method, and shooting support program Download PDF

Info

Publication number
JP6841977B2
JP6841977B2 JP2020525302A JP2020525302A JP6841977B2 JP 6841977 B2 JP6841977 B2 JP 6841977B2 JP 2020525302 A JP2020525302 A JP 2020525302A JP 2020525302 A JP2020525302 A JP 2020525302A JP 6841977 B2 JP6841977 B2 JP 6841977B2
Authority
JP
Japan
Prior art keywords
image
bird
shooting
eye view
captured
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020525302A
Other languages
Japanese (ja)
Other versions
JPWO2019239717A1 (en
Inventor
田中 康一
康一 田中
内田 亮宏
亮宏 内田
入江 公祐
公祐 入江
慎也 藤原
慎也 藤原
伸一郎 藤木
伸一郎 藤木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Priority to JP2021024603A priority Critical patent/JP7416736B2/en
Application granted granted Critical
Publication of JP6841977B2 publication Critical patent/JP6841977B2/en
Publication of JPWO2019239717A1 publication Critical patent/JPWO2019239717A1/en
Priority to JP2024000277A priority patent/JP2024026625A/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B17/00Details of cameras or camera bodies; Accessories therefor
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B17/00Details of cameras or camera bodies; Accessories therefor
    • G03B17/18Signals indicating condition of a camera member or suitability of light
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/90Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast

Description


本開示の技術は、撮影支援装置、撮影支援方法、及び撮影支援プログラムに関する。

The technology of the present disclosure relates to a shooting support device, a shooting support method, and a shooting support program.


従来、ユーザが撮像装置を用いて撮影対象の撮影を行う場合、ユーザに対して撮影を支援するための情報を提示する技術が知られている。例えば、特許文献1には、データベースに記憶されている作例を提示し、作例のように撮像する際の設定条件を示す設定情報を用いて撮像を行う技術が記載されている。

Conventionally, when a user shoots a shooting target using an imaging device, a technique for presenting information for supporting the shooting to the user is known. For example, Patent Document 1 describes a technique of presenting an example stored in a database and performing imaging using setting information indicating setting conditions for imaging as in the example.


また、特許文献2には、複数の撮像装置を用いて撮影対象の撮影を行う場合、他の撮像装置において得られた、撮影対象の大きさ、位置及び移動速度を示す情報、及びズーム倍率を示す情報等のメタデータに基づいて決定した構図により撮像装置が撮像を行う技術が記載されている。

Further, Patent Document 2 describes information indicating the size, position, and moving speed of an imaging target, and a zoom magnification obtained by another imaging apparatus when an imaging target is photographed using a plurality of imaging devices. A technique for an image pickup apparatus to take an image based on a composition determined based on metadata such as the information shown is described.


再公表特許2013/118535号公報Republished Patent No. 2013/118535 特開2011−211598号公報Japanese Unexamined Patent Publication No. 2011-21598


ところで、ユーザが撮影対象を撮影する場合に、特定の撮影対象に対して、複数の撮像装置を用いて、異なる方向または異なる位置等から撮影を行い、複数の撮像装置の各々により撮像された撮像画像を組み合わせて、1つの撮像画像を生成することが行われている。

By the way, when a user shoots a shooting target, a plurality of imaging devices are used to shoot a specific shooting target from different directions or different positions, and the imaging is performed by each of the plurality of imaging devices. Images are combined to generate one captured image.


この場合、各撮像画像を組み合わせて得られる1つの撮像画像について、ユーザの所望の画像とするためには、複数の撮像装置の各々が撮像した撮像画像の関係、例えば、各撮像画像に含まれる撮影対象の向き等の関係をユーザの所望の状態とすることが望まれる。そのため、複数の撮像装置の各々、及び撮影対象の相対的な位置関係が重要となる。

In this case, in order to obtain a user's desired image for one captured image obtained by combining the captured images, the relationship between the captured images captured by each of the plurality of imaging devices, for example, is included in each captured image. It is desired that the relationship such as the orientation of the shooting target is set to the user's desired state. Therefore, the relative positional relationship between each of the plurality of imaging devices and the imaging target is important.


しかしながら、複数の撮像装置を用いて撮影を行うため、ユーザは、例えば、適切な撮影方向または撮影位置等の判断がし難い場合があり、その結果、各撮像装置により得られた撮像画像を組み合わせた場合に、ユーザの所望の撮像画像が得られない場合があった。

However, since shooting is performed using a plurality of imaging devices, it may be difficult for the user to determine, for example, an appropriate shooting direction or shooting position, and as a result, the captured images obtained by each imaging device are combined. In that case, the captured image desired by the user may not be obtained.


特許文献1及び特許文献2に記載の技術では、撮影対象を撮影するための作例または構図等は把握できるものの、複数の撮像装置の各々、及び撮影対象の相対的な位置関係までは把握できない。

Although the techniques described in Patent Document 1 and Patent Document 2 can grasp an example or composition for photographing an imaged object, they cannot grasp each of a plurality of imaging devices and the relative positional relationship of the imaged object.


本開示は、上記事情を考慮して成されたものであり、複数の撮像画像を組み合わせて1つの撮像画像を得る場合において、所望の撮像画像を得られるようにすることができる、撮影支援装置、撮影支援方法、及び撮影支援プログラムを提供することを目的とする。

The present disclosure has been made in consideration of the above circumstances, and is a photographing support device capable of obtaining a desired captured image when a plurality of captured images are combined to obtain one captured image. , Shooting support methods, and shooting support programs.


上記目的を達成するために、本開示の第1の態様の撮影支援装置は、特定の撮影対象を撮像する複数の撮像装置のうちの予め定められた撮像装置により撮像された撮像画像を取得する取得部と、取得部が取得した撮像画像に含まれる撮影対象の画像に基づいて、複数の撮像装置の各々及び撮影対象の、撮影対象を撮影するために推奨される相対的な位置関係を表す推奨用の俯瞰図を生成する生成部と、生成部が生成した推奨用の俯瞰図を表示部に表示させる制御を行う表示制御部と、を備える。

In order to achieve the above object, the imaging support device of the first aspect of the present disclosure acquires an image captured by a predetermined imaging device among a plurality of imaging devices that image a specific imaging target. Based on the acquisition unit and the image of the image to be photographed included in the image captured by the acquisition unit, the relative positional relationship between each of the plurality of imaging devices and the object to be photographed is recommended for photographing the object to be photographed. It includes a generation unit that generates a recommended bird's-eye view, and a display control unit that controls the display to display the recommended bird's-eye view generated by the generation unit.


第2の態様の撮影支援装置は、第1の態様の撮影支援装置において、生成部は、予め定められた撮像装置を基準とした場合に推奨される、予め定められた撮像装置と異なる撮像装置の相対的な位置関係を表す推奨用の俯瞰図を生成する。

The imaging support device of the second aspect is the imaging support device of the first aspect, in which the generation unit is an imaging device different from the predetermined imaging device, which is recommended when the predetermined imaging device is used as a reference. Generate a recommended bird's-eye view showing the relative positional relationship of.


第3の態様の撮影支援装置は、第1の態様または第2の態様の撮影支援装置において、取得部は、複数の撮像装置の各々により撮像された撮像画像を取得し、生成部は、取得部が取得した撮像画像の各々に含まれる撮影対象の画像に基づいて、複数の撮像装置の各々及び撮影対象の、撮影対象の撮影が行われた相対的な位置関係を表す実際の位置の俯瞰図をさらに生成する。

In the shooting support device of the third aspect, in the shooting support device of the first aspect or the second aspect, the acquisition unit acquires the captured image captured by each of the plurality of imaging devices, and the generation unit acquires the captured image. A bird's-eye view of the actual positions of each of the plurality of imaging devices and the shooting target, which represent the relative positional relationship in which the shooting target was shot, based on the images of the shooting target included in each of the captured images acquired by the unit. Generate more diagrams.


第4の態様の撮影支援装置は、第3の態様の撮影支援装置において、表示制御部は、推奨用の俯瞰図と、実際の位置の俯瞰図とを重畳させた状態で、表示部に表示させる制御を行う。

The shooting support device of the fourth aspect is the shooting support device of the third aspect, and the display control unit displays the recommended bird's-eye view and the bird's-eye view of the actual position on the display unit in a superposed state. Control to make it.


第5の態様の撮影支援装置は、第1の態様から第4の態様のいずれか1態様の撮影支援装置において、生成部は、撮像画像を解析して得られる、撮影対象の大きさに関する情報、撮影対象の位置に関する情報、及び撮影対象の向きに関する情報のうちの少なくとも一つの情報に基づいて、俯瞰図を生成する。

The shooting support device of the fifth aspect is the shooting support device of any one of the first to fourth aspects, and the generation unit analyzes the captured image to obtain information on the size of the shooting target. , The bird's-eye view is generated based on at least one of the information regarding the position of the shooting target and the information regarding the orientation of the shooting target.


第6の態様の撮影支援装置は、第1の態様から第5の態様のいずれか1態様の撮影支援装置において、取得部は、複数の撮像装置の各々により撮像された撮像画像を取得し、表示制御部は、生成部が生成した俯瞰図と、取得部が取得した複数の撮像装置の各々により撮像された撮像画像のうちの少なくとも一つの撮像画像とを表示部に表示させる制御を行う。

The shooting support device of the sixth aspect is the shooting support device of any one of the first to fifth aspects, and the acquisition unit acquires the captured image captured by each of the plurality of imaging devices. The display control unit controls the display unit to display a bird's-eye view generated by the generation unit and at least one image captured by each of the plurality of image pickup devices acquired by the acquisition unit.


第7の態様の撮影支援装置は、第6の態様の撮影支援装置において、表示部に表示させる撮像画像を、複数の撮像装置の各々により撮像された撮像画像のうちの、いずれの撮像画像とするかの指定を受け付ける受付部をさらに備え、表示制御部は、受付部が指定を受け付けた撮像画像を、表示部に表示させる制御を行う。

In the shooting support device of the seventh aspect, in the shooting support device of the sixth aspect, the captured image to be displayed on the display unit is combined with any of the captured images captured by each of the plurality of imaging devices. The display control unit further includes a reception unit that accepts the designation of whether or not to do so, and the display control unit controls the display unit to display the captured image for which the reception unit has received the designation.


第8の態様の撮影支援装置は、第1の態様から第7の態様のいずれか1態様の撮影支援装置において、表示制御部が表示部に表示させた俯瞰図に対して、俯瞰図に示される複数の撮像装置の各々における位置及び向きの少なくとも一方について、変更後の状態が指定される指定部をさらに備え、生成部は、変更後の状態において複数の撮像装置の各々によって撮像されると推定される推定撮像画像をさらに生成し、表示制御部は、記生成部が生成した推定撮像画像を表示部に表示させる制御を行う。

The shooting support device of the eighth aspect is shown in the bird's-eye view with respect to the bird's-eye view displayed on the display unit by the display control unit in the shooting support device of any one aspect from the first aspect to the seventh aspect. For at least one of the positions and orientations of each of the plurality of imaging devices, a designated unit for designating the changed state is further provided, and the generating unit is imaged by each of the plurality of imaging devices in the changed state. The estimated estimated captured image is further generated, and the display control unit controls the display unit to display the estimated captured image generated by the generation unit.


第9の態様の撮影支援装置は、第1の態様から第8の態様のいずれか1態様の撮影支援装置において、撮影対象の撮影が行われた相対的な位置関係を表す情報を記憶する記憶部をさらに備える。

The imaging support device of the ninth aspect is a storage that stores information representing the relative positional relationship in which the imaging target is photographed in the imaging support device of any one aspect from the first aspect to the eighth aspect. It also has a part.


第10の態様の撮影支援装置は、第1の態様から第9の態様のいずれか1態様の撮影支援装置において、予め定められた撮像装置は、撮影対象の撮影に主として用いられるメインカメラである。

The photographing support device of the tenth aspect is the photographing support device of any one aspect from the first aspect to the ninth aspect, and the predetermined imaging device is a main camera mainly used for photographing the imaged object. ..


第11の態様の撮影支援装置は、第1の態様から第10の態様のいずれか1態様の撮影支援装置において、撮像画像は動画像である。

The imaging support device of the eleventh aspect is the imaging support device of any one aspect from the first aspect to the tenth aspect, and the captured image is a moving image.


第12の態様の撮影支援方法は、特定の撮影対象を撮影する複数の撮像装置のうちの予め定められた撮像装置により撮像された撮像画像を取得し、取得した撮像画像に含まれる撮影対象の画像に基づいて、複数の撮像装置の各々及び撮影対象の、撮影対象を撮影するために推奨される相対的な位置関係を表す推奨用の俯瞰図を生成し、生成した俯瞰図を表示部に表示させる制御を行う、処理をコンピュータが実行するための撮影支援方法である。

The shooting support method of the twelfth aspect acquires a captured image captured by a predetermined imaging device among a plurality of imaging devices that capture a specific imaging target, and captures the image to be included in the acquired image. Based on the image, a recommended bird's-eye view showing the relative positional relationship recommended for shooting the shooting target of each of the plurality of imaging devices and the shooting target is generated, and the generated bird's-eye view is displayed on the display unit. This is a shooting support method for a computer to execute a process that controls display.


第13の態様の撮影支援プログラムは、特定の撮影対象を撮影する複数の撮像装置のうちの予め定められた撮像装置により撮像された撮像画像を取得し、取得した撮像画像に含まれる撮影対象の画像に基づいて、複数の撮像装置の各々及び撮影対象の、撮影対象を撮影するために推奨される相対的な位置関係を表す推奨用の俯瞰図を生成し、生成した俯瞰図を表示部に表示させる制御を行う、処理をコンピュータに実行させる。

The shooting support program of the thirteenth aspect acquires a captured image captured by a predetermined imaging device among a plurality of imaging devices that capture a specific shooting target, and the shooting target included in the acquired captured image. Based on the image, a recommended bird's-eye view showing the relative positional relationship recommended for shooting the shooting target of each of the plurality of imaging devices and the shooting target is generated, and the generated bird's-eye view is displayed on the display unit. Let the computer execute the process that controls the display.


また、上記目的を達成するために、本開示の撮影支援装置は、プロセッサを有する撮影支援装置であって、プロセッサが、特定の撮影対象を撮影する複数の撮像装置のうちの予め定められた撮像装置により撮像された撮像画像を取得し、取得した撮像画像に含まれる撮影対象の画像に基づいて、複数の撮像装置の各々及び撮影対象の、撮影対象を撮影するために推奨される相対的な位置関係を表す推奨用の俯瞰図を生成し、生成した俯瞰図を表示部に表示させる制御を行う、撮影支援装置である。

Further, in order to achieve the above object, the shooting support device of the present disclosure is a shooting support device having a processor, and the processor performs a predetermined imaging among a plurality of imaging devices for shooting a specific shooting target. The image captured by the device is acquired, and based on the image of the image to be captured included in the acquired image, the relative image of each of the plurality of image devices and the object to be photographed is recommended for photographing the object to be photographed. It is a shooting support device that generates a recommended bird's-eye view showing the positional relationship and controls the displayed bird's-eye view to be displayed on the display unit.


本開示によれば、複数の撮像画像を組み合わせて1つの撮像画像を得る場合において、所望の撮像画像を得られる。

According to the present disclosure, when a plurality of captured images are combined to obtain one captured image, a desired captured image can be obtained.


実施形態の撮像システムの構成の一例を示す平面図である。It is a top view which shows an example of the structure of the imaging system of embodiment. 実施形態の撮影支援装置のハードウェア構成の一例を示すブロック図である。It is a block diagram which shows an example of the hardware composition of the photographing support apparatus of embodiment. 第1及び第2実施形態の撮影支援装置の機能的な構成の一例を示すブロック図である。It is a block diagram which shows an example of the functional structure of the photographing support apparatus of 1st and 2nd Embodiment. 第1実施形態の撮影支援処理の流れの一例を示すフローチャートである。It is a flowchart which shows an example of the flow of the shooting support processing of 1st Embodiment. 実施形態の撮影支援装置により生成される推奨用俯瞰図の一例を説明するための説明図である。It is explanatory drawing for demonstrating an example of the recommended bird's-eye view generated by the photographing support apparatus of embodiment. 実施形態の撮影支援装置により生成される実位置俯瞰図の一例を説明するための説明図である。It is explanatory drawing for demonstrating an example of the actual position bird's-eye view generated by the photographing support apparatus of embodiment. 実施形態の撮影支援装置の表示部に表示される推奨用俯瞰図、実位置俯瞰図、メインカメラ画像、及びサブカメラ画像の表示の一例を説明するための説明図である。It is explanatory drawing for demonstrating an example of the display of the recommended bird's-eye view, the actual position bird's-eye view, the main camera image, and the sub-camera image displayed on the display part of the photographing support apparatus of embodiment. 実施形態の撮影支援装置により生成される推奨用俯瞰図の他の例を説明するための説明図である。It is explanatory drawing for demonstrating another example of the recommended bird's-eye view generated by the photographing support apparatus of embodiment. 実施形態の撮影支援装置により生成される推奨用俯瞰図の他の例を説明するための説明図である。It is explanatory drawing for demonstrating another example of the recommended bird's-eye view generated by the photographing support apparatus of embodiment. 第1実施形態の撮影支援処理の流れの他の例を示すフローチャートである。It is a flowchart which shows another example of the flow of the shooting support processing of 1st Embodiment. 実施形態の撮影支援装置の表示部に表示される推奨用俯瞰図、実位置俯瞰図、メインカメラ画像、及びサブカメラ画像の表示の他の例を説明するための説明図である。It is explanatory drawing for demonstrating another example of the display of the recommended bird's-eye view, the actual position bird's-eye view, the main camera image, and the sub-camera image displayed on the display part of the photographing support apparatus of embodiment. 第2実施形態の撮影支援処理の流れの一例を示すフローチャートである。It is a flowchart which shows an example of the flow of the shooting support processing of 2nd Embodiment. 第3実施形態の撮影支援装置の機能的な構成の一例を示すブロック図である。It is a block diagram which shows an example of the functional structure of the photographing support device of 3rd Embodiment. 第3実施形態の撮影支援処理の流れの一例を示すフローチャートである。It is a flowchart which shows an example of the flow of the shooting support processing of 3rd Embodiment. 第3実施形態の撮影支援装置の表示部に表示される推奨用俯瞰図、実位置俯瞰図、メインカメラ画像、及び推定撮像画像の表示の一例を説明するための説明図である。It is explanatory drawing for demonstrating an example of the display of the recommended bird's-eye view, the actual position bird's-eye view, the main camera image, and the estimated image taken image displayed on the display part of the photographing support apparatus of 3rd Embodiment.


以下、図面を参照して本開示の技術を実施するための形態例を詳細に説明する。なお、以下では、ユーザが撮影対象を、撮像装置により撮像して動画像等の撮像画像を得ることを、撮影という。そのため、ユーザが撮像装置を用いて撮影を行う場合の「撮影」と、撮像装置による「撮像」とは、置き換えが可能な場合がある。

Hereinafter, examples of embodiments for carrying out the technique of the present disclosure will be described in detail with reference to the drawings. In the following, it is referred to as shooting that the user captures an image to be photographed by an imaging device and obtains an captured image such as a moving image. Therefore, "shooting" when the user takes a picture using the image pickup device and "imaging" by the image pickup device may be interchangeable.


[第1実施形態]

まず、図1を参照して、本実施形態の撮像システム10の構成を説明する。図1に示すように、本実施形態の撮像システム10は、メインカメラ12及びサブカメラ14の2台の撮像装置と、撮影支援装置16と、を備える。本実施形態のメインカメラ12及びサブカメラ14が、本開示の複数の撮像装置の一例である。

[First Embodiment]

First, the configuration of the imaging system 10 of the present embodiment will be described with reference to FIG. As shown in FIG. 1, the image pickup system 10 of the present embodiment includes two image pickup devices, a main camera 12 and a sub camera 14, and a shooting support device 16. The main camera 12 and the sub camera 14 of the present embodiment are examples of the plurality of imaging devices of the present disclosure.


本実施形態では、一例として、ユーザが、主に使用するメインカメラ12と、補助として使用するサブカメラ14とにより、人物である撮影対象Sを撮影し、メインカメラ12及びサブカメラ14の各々により得られた動画像を組み合わせて1つの動画像、いわゆる映像コンテンツを生成する形態について説明する。なお、撮影対象Sの撮影において、実際にメインカメラ12及びサブカメラ14の各々を操作する人物は一人であってもよいし、複数人であってもよいが、本実施形態では、総称して単に「ユーザ」という。また、以下では、メインカメラ12により撮像された動画像を「メインカメラ画像」といい、サブカメラ14により撮影された動画像を「サブカメラ画像」という。

In the present embodiment, as an example, the user takes a picture of a person S to be photographed by the main camera 12 mainly used and the sub camera 14 used as an auxiliary, and each of the main camera 12 and the sub camera 14 takes a picture. A form of combining the obtained moving images to generate one moving image, so-called video content, will be described. In the shooting of the shooting target S, the person who actually operates each of the main camera 12 and the sub camera 14 may be one person or a plurality of people, but in the present embodiment, they are collectively referred to. Simply called "user". Further, in the following, the moving image captured by the main camera 12 is referred to as a "main camera image", and the moving image captured by the sub camera 14 is referred to as a "sub camera image".


なお、本実施形態では、一例として、ユーザが、時系列順にメインカメラ画像とサブカメラ画像とをつなげることにより、メインカメラ画像とサブカメラ画像とを組み合わせて1つの動画像を生成する形態について説明する。具体的には、例えば、撮影対象Sの撮影を開始から3分後まではメインカメラ画像、3分後から4分後まではサブカメラ画像、及び4分後から7分後まではメインカメラ画像等と、メインカメラ画像とサブカメラ画像とを時系列順に組み合わせる場合について説明する。なお、メインカメラ画像とサブカメラ画像との組み合わせ方は本実施形態に限定されない。例えば、1つの画面を2つの領域に分割し、分割した一方の領域にメインカメラ画像を、他方の領域にサブカメラ画像を配置することによりメインカメラ画像とサブカメラ画像とを組み合わせてもよい。また、メインカメラ画像及びサブカメラ画像の一方の画像中に、他方の画像を組み合わせ、同時に両方の画像が表示される形態として組み合わせてもよい。

In this embodiment, as an example, a mode in which a user connects a main camera image and a sub camera image in chronological order to generate one moving image by combining the main camera image and the sub camera image will be described. To do. Specifically, for example, the main camera image from the start of shooting of the shooting target S to 3 minutes later, the sub camera image from 3 minutes to 4 minutes later, and the main camera image from 4 minutes to 7 minutes later. Etc., and a case where the main camera image and the sub camera image are combined in chronological order will be described. The method of combining the main camera image and the sub camera image is not limited to this embodiment. For example, one screen may be divided into two areas, and the main camera image and the sub camera image may be combined by arranging the main camera image in one of the divided areas and the sub camera image in the other area. Further, one of the main camera image and the sub camera image may be combined with the other image, and both images may be displayed at the same time.


メインカメラ12及びサブカメラ14の各々は、HDMI(High-Definition Multimedia Interface)(登録商標)ケーブルによって撮影支援装置16に接続される。なお、メインカメラ12及びサブカメラ14と、撮影支援装置16との接続方法は本実施形態に限定されず、その他の有線接続を行う形態であってもよいし、無線接続を行う形態であってもよい。また、メインカメラ12及びサブカメラ14の各々が異なる方法により、撮影支援装置16と接続を行う形態であってもよい。メインカメラ12及びサブカメラ14の各々により撮像された動画像を表す動画像データは、撮影支援装置16に出力される。

Each of the main camera 12 and the sub camera 14 is connected to the photographing support device 16 by an HDMI (High-Definition Multimedia Interface) (registered trademark) cable. The connection method between the main camera 12 and the sub camera 14 and the shooting support device 16 is not limited to this embodiment, and other forms of wired connection or wireless connection may be used. May be good. Further, the main camera 12 and the sub camera 14 may be connected to the photographing support device 16 by different methods. The moving image data representing the moving images captured by each of the main camera 12 and the sub camera 14 is output to the photographing support device 16.


撮影支援装置16は、ユーザが所望とする映像コンテンツを得るために適切な、メインカメラ12及びサブカメラ14の撮像位置を提示することにより、ユーザが撮影対象Sを撮影するのを支援する機能を有する。

The shooting support device 16 has a function of assisting the user in shooting the shooting target S by presenting the imaging positions of the main camera 12 and the sub camera 14 that are appropriate for obtaining the video content desired by the user. Have.


図2を参照して、本実施形態の撮影支援装置16のハードウェア構成を説明する。図2に示すように、本実施形態の撮影支援装置16は、CPU(Central Processing Unit)20、一時記憶領域としてのメモリ21、及び不揮発性の記憶部22を含む。また、撮影支援装置16は、液晶ディスプレイ等の表示部23、及び各種ボタン等を含む操作部24を含む。なお、表示部23と、操作部24の一部とは一体化されたタッチパネルディスプレイとして構成されている。また、撮影支援装置16は、メインカメラ12及びサブカメラ14が接続される外部I/F(Interface)26を含む。CPU20、メモリ21、記憶部22、表示部23、操作部24、及び外部I/F26は、バス29に接続される。撮影支援装置16の例としては、パーソナルコンピュータ及びサーバコンピュータ等が挙げられる。

The hardware configuration of the photographing support device 16 of the present embodiment will be described with reference to FIG. As shown in FIG. 2, the photographing support device 16 of the present embodiment includes a CPU (Central Processing Unit) 20, a memory 21 as a temporary storage area, and a non-volatile storage unit 22. Further, the photographing support device 16 includes a display unit 23 such as a liquid crystal display and an operation unit 24 including various buttons and the like. The display unit 23 and a part of the operation unit 24 are integrated as a touch panel display. Further, the photographing support device 16 includes an external I / F (Interface) 26 to which the main camera 12 and the sub camera 14 are connected. The CPU 20, the memory 21, the storage unit 22, the display unit 23, the operation unit 24, and the external I / F 26 are connected to the bus 29. Examples of the photographing support device 16 include a personal computer, a server computer, and the like.


記憶部22は、HDD(Hard Disk Drive)、SSD(Solid State Drive)、及びフラッシュメモリ等によって実現される。記憶媒体としての記憶部22には、撮影支援プログラム30が記憶される。CPU20は、記憶部22から撮影支援プログラム30を読み出してからメモリ21に展開し、展開した撮影支援プログラム30を実行する。

The storage unit 22 is realized by an HDD (Hard Disk Drive), an SSD (Solid State Drive), a flash memory, or the like. The photographing support program 30 is stored in the storage unit 22 as a storage medium. The CPU 20 reads the shooting support program 30 from the storage unit 22, expands it into the memory 21, and executes the expanded shooting support program 30.


次に、図3を参照して、本実施形態の撮影支援装置16の機能的な構成について説明する。図3に示すように、本実施形態の撮影支援装置16は、取得部40、生成部42、表示制御部44、及び受付部46を備える。CPU20が撮影支援プログラム30を実行することにより、取得部40、生成部42、表示制御部44、及び受付部46として機能する。

Next, with reference to FIG. 3, the functional configuration of the photographing support device 16 of the present embodiment will be described. As shown in FIG. 3, the photographing support device 16 of the present embodiment includes an acquisition unit 40, a generation unit 42, a display control unit 44, and a reception unit 46. When the CPU 20 executes the shooting support program 30, it functions as an acquisition unit 40, a generation unit 42, a display control unit 44, and a reception unit 46.


取得部40は、メインカメラ12により撮像されたメインカメラ画像、より具体的にはメインカメラ画像を表す動画像データを、メインカメラ12から取得する。また、取得部40は、サブカメラ14により撮像されたサブカメラ画像、より具体的にはサブカメラ画像を表す動画像データを、サブカメラ14から取得する。

The acquisition unit 40 acquires the main camera image captured by the main camera 12, and more specifically, the moving image data representing the main camera image from the main camera 12. Further, the acquisition unit 40 acquires the sub-camera image captured by the sub-camera 14, and more specifically, the moving image data representing the sub-camera image from the sub-camera 14.


生成部42は、メインカメラ画像及びサブカメラ画像を解析して得られる、撮影対象Sの大きさに関する情報、撮影対象Sの位置に関する情報、及び撮影対象Sの向きに関する情報のうちの少なくとも一つの情報に基づいて、俯瞰図を生成する機能を有する。具体的には、本実施形態の生成部42は、取得部40が取得した、メインカメラ画像に含まれる撮影対象Sの画像に基づいて、メインカメラ12、サブカメラ14、及び撮影対象Sの、ユーザが撮影対象Sを撮影するために推奨される相対的な位置関係を表す推奨用の俯瞰図(以下、「推奨用俯瞰図」という)を生成する。また、本実施形態の生成部42は、取得部40が取得したメインカメラ画像及びサブカメラ14の各々に含まれる撮影対象Sの画像に基づいて、メインカメラ12、サブカメラ14、及び撮影対象Sの、撮影対象Sの撮影が実際に行われた相対的な位置関係を表す実際の位置の俯瞰図(以下、「実位置俯瞰図」という)を生成する。

The generation unit 42 is at least one of information on the size of the shooting target S, information on the position of the shooting target S, and information on the orientation of the shooting target S, which is obtained by analyzing the main camera image and the sub camera image. It has a function to generate a bird's-eye view based on the information. Specifically, the generation unit 42 of the present embodiment of the main camera 12, the sub camera 14, and the shooting target S, based on the image of the shooting target S included in the main camera image acquired by the acquisition unit 40. A recommended bird's-eye view (hereinafter referred to as "recommended bird's-eye view") showing a relative positional relationship recommended for the user to shoot the shooting target S is generated. Further, the generation unit 42 of the present embodiment has the main camera 12, the sub camera 14, and the shooting target S based on the images of the shooting target S included in each of the main camera image and the sub camera 14 acquired by the acquisition unit 40. Generates a bird's-eye view of the actual position (hereinafter, referred to as "actual position bird's-eye view") showing the relative positional relationship in which the image capture target S is actually photographed.


表示制御部44は、生成部42が生成した推奨用俯瞰図を表示部23に表示させる制御を行う。また、本実施形態の表示制御部44は、生成部42が生成した実位置俯瞰図を表示部23に表示させる制御を行う。さらに、本実施形態の表示制御部44は、取得部40が取得したメインカメラ画像、及びサブカメラ画像の少なくとも一方の動画像を表示部23に表示させる制御を行う。

The display control unit 44 controls the display unit 23 to display the recommended bird's-eye view generated by the generation unit 42. Further, the display control unit 44 of the present embodiment controls the display unit 23 to display the actual position bird's-eye view generated by the generation unit 42. Further, the display control unit 44 of the present embodiment controls the display unit 23 to display at least one moving image of the main camera image and the sub camera image acquired by the acquisition unit 40.


受付部46は、表示部23に表示させる動画像をメインカメラ画像、及びサブカメラ画像のうちの、いずれの動画像とするかの指定を、操作部24を介してユーザから受け付ける。

The reception unit 46 receives from the user via the operation unit 24 the designation of which of the main camera image and the sub camera image is the moving image to be displayed on the display unit 23.


次に、図4を参照して、本実施形態の撮影支援装置16の作用を説明する。CPU20が撮影支援プログラム30を実行することによって、図4に示す撮影支援処理が実行される。図4に示す撮影支援処理は、例えば、操作部24により、ユーザから撮影支援処理の実行を指示された場合に実行される。

Next, the operation of the photographing support device 16 of the present embodiment will be described with reference to FIG. When the CPU 20 executes the shooting support program 30, the shooting support process shown in FIG. 4 is executed. The shooting support process shown in FIG. 4 is executed when, for example, the operation unit 24 instructs the user to execute the shooting support process.


図4のステップS100で、表示制御部44は、ユーザに対し、メインカメラ12を撮影支援装置16に接続するよう促すためのガイダンスを表示部23に表示させる。ユーザは、表示部23に表示されたガイダンスに従い、撮影支援装置16のHDMI端子(図示省略)に、メインカメラ12を接続する。なお、本ステップによるガイダンスの表示前に、メインカメラ12が撮影支援装置16に接続されていてもよい。

In step S100 of FIG. 4, the display control unit 44 causes the display unit 23 to display guidance for urging the user to connect the main camera 12 to the shooting support device 16. The user connects the main camera 12 to the HDMI terminal (not shown) of the shooting support device 16 according to the guidance displayed on the display unit 23. The main camera 12 may be connected to the shooting support device 16 before the guidance is displayed by this step.


次のステップS102で取得部40は、撮影支援処理がキャンセルされたか否かを判定する。本実施形態の撮影支援装置16では、ユーザは、例えば、撮影支援処理の実行を指示したものの、撮影支援を行わなくてもよいと判断した場合、操作部24に含まれるキャンセルボタン(図示省略)を操作することにより、撮影支援処理のキャンセルを指示することができる。そこで、本ステップS102では、キャンセルボタンが操作されることにより、ユーザがキャンセルの指示を行ったか否かを判定する。キャンセルの指示が行われた場合、ステップS102の判定が肯定判定となり、ステップS126へ移行する。ステップS126で表示制御部44は、撮影支援処理のキャンセルを行う旨の情報を、表示部23に表示させた後、本撮影支援処理を終了する。

In the next step S102, the acquisition unit 40 determines whether or not the shooting support process has been cancelled. In the shooting support device 16 of the present embodiment, for example, when the user has instructed to execute the shooting support processing but determines that the shooting support does not need to be performed, the cancel button (not shown) included in the operation unit 24 is included. By operating, it is possible to instruct to cancel the shooting support process. Therefore, in this step S102, it is determined whether or not the user has given the cancellation instruction by operating the cancel button. When the cancellation instruction is given, the determination in step S102 becomes an affirmative determination, and the process proceeds to step S126. In step S126, the display control unit 44 ends the main shooting support process after displaying the information to the effect that the shooting support process is canceled on the display unit 23.


一方、キャンセルの指示が行われない場合、ステップS102の判定が否定判定となり、ステップS104へ移行する。ステップS104で取得部40は、メインカメラ12からメインカメラ画像が、外部I/F26を介して撮影支援装置16に入力されたか否かを判定する。メインカメラ画像が入力されるまで、ステップS104の判定が否定判定となり、ステップS102に戻る。一方、メインカメラ画像が入力され、取得部40により取得されると、ステップS104の判定が肯定判定となり、ステップS106へ移行する。

On the other hand, if the cancellation instruction is not given, the determination in step S102 becomes a negative determination, and the process proceeds to step S104. In step S104, the acquisition unit 40 determines whether or not the main camera image from the main camera 12 is input to the shooting support device 16 via the external I / F 26. Until the main camera image is input, the determination in step S104 becomes a negative determination, and the process returns to step S102. On the other hand, when the main camera image is input and acquired by the acquisition unit 40, the determination in step S104 becomes an affirmative determination, and the process proceeds to step S106.


ステップS106で生成部42は、取得部40が取得したメインカメラ画像の解析を開始する。本実施形態の生成部42は、メインカメラ画像を画像解析することにより、撮影対象Sの、メインカメラ12に対する向き(顔の向き)、撮影対象Sとメインカメラ12との距離を推定する。これらの推定方法や、画像解析方法は特に限定されない。例えば、生成部42は、メインカメラ画像に含まれる、撮影対象Sの顔を検出し、画角に占める顔の大きさから、及び撮影対象Sとメインカメラ12との距離を推定してもよい。また例えば、メインカメラ画像に含まれる撮影対象Sの顔、瞳、鼻、及び口等を検出し、これらの位置や大きさ等から、メインカメラ12に対する顔の向き推定してもよい。なお、撮影対象Sとメインカメラ12との距離の推定には、メインカメラ12の焦点距離が用いられるが、より正確な位置解析を行うためには、撮像に実際に用いられたレンズの焦点距離の情報が得られることが好ましい。例えば、外部I/F26を介してメインカメラ12と通信を行い、生成部42がメインカメラ12から撮像に用いられたレンズの焦点距離を表す情報を取得してもよいし、操作部24によりユーザが焦点距離を表す情報を入力してもよい。なお、撮像に実際に用いられたレンズの焦点距離を表す情報が取得できない場合、汎用されている、いわゆる35mm換算の焦点距離50mmを仮定して用いればよい。

In step S106, the generation unit 42 starts the analysis of the main camera image acquired by the acquisition unit 40. The generation unit 42 of the present embodiment estimates the orientation (face orientation) of the shooting target S with respect to the main camera 12 and the distance between the shooting target S and the main camera 12 by performing image analysis on the main camera image. These estimation methods and image analysis methods are not particularly limited. For example, the generation unit 42 may detect the face of the shooting target S included in the main camera image and estimate the distance between the shooting target S and the main camera 12 from the size of the face occupying the angle of view. .. Further, for example, the face, eyes, nose, mouth, etc. of the photographing target S included in the main camera image may be detected, and the orientation of the face with respect to the main camera 12 may be estimated from these positions, sizes, and the like. The focal length of the main camera 12 is used to estimate the distance between the shooting target S and the main camera 12, but in order to perform more accurate position analysis, the focal length of the lens actually used for imaging is used. It is preferable to obtain the information of. For example, communication may be performed with the main camera 12 via an external I / F 26, and the generation unit 42 may acquire information representing the focal length of the lens used for imaging from the main camera 12, or the operation unit 24 may be used by the user. May enter information representing the focal length. If information indicating the focal length of the lens actually used for imaging cannot be obtained, it may be used assuming a so-called 35 mm equivalent focal length of 50 mm, which is widely used.


次のステップS108で表示制御部44は、ユーザに対し、サブカメラ14を撮影支援装置16に接続するよう促すためのガイダンスを表示部23に表示させる。ユーザは、表示部23に表示されたガイダンスに従い、撮影支援装置16のHDMI端子(図示省略)に、サブカメラ14を接続する。なお、本ステップによるガイダンスの表示前に、サブカメラ14が撮影支援装置16に接続されていてもよい。

In the next step S108, the display control unit 44 causes the display unit 23 to display guidance for urging the user to connect the sub camera 14 to the shooting support device 16. The user connects the sub camera 14 to the HDMI terminal (not shown) of the shooting support device 16 according to the guidance displayed on the display unit 23. The sub camera 14 may be connected to the photographing support device 16 before the guidance is displayed by this step.


次のステップS110で取得部40は、上記ステップS102と同様に、撮影支援処理がキャンセルされたか否かを判定する。キャンセルの指示が行われた場合、ステップS110の判定が肯定判定となり、上記ステップS126へ移行し、表示制御部44が、撮影支援処理のキャンセルを行う旨の情報を、表示部23に表示させた後、本撮影支援処理を終了する。

In the next step S110, the acquisition unit 40 determines whether or not the shooting support process has been canceled, as in the step S102. When the cancellation instruction is given, the determination in step S110 becomes an affirmative determination, the process proceeds to step S126, and the display control unit 44 displays information on the display unit 23 to the effect that the shooting support process is cancelled. After that, the main shooting support process is completed.


一方、キャンセルの指示が行われない場合、ステップS110の判定が否定判定となり、ステップS112へ移行する。ステップS112で取得部40は、サブカメラ14からサブカメラ画像が、外部I/F26を介して撮影支援装置16に入力されたか否かを判定する。サブカメラ画像が入力されるまで、ステップS112の判定が否定判定となり、ステップS110に戻る。一方、サブカメラ画像が入力され、取得部40により取得されると、ステップS112の判定が肯定判定となり、ステップS114へ移行する。

On the other hand, if the cancellation instruction is not given, the determination in step S110 becomes a negative determination, and the process proceeds to step S112. In step S112, the acquisition unit 40 determines whether or not the sub camera image from the sub camera 14 is input to the shooting support device 16 via the external I / F 26. Until the sub camera image is input, the determination in step S112 becomes a negative determination, and the process returns to step S110. On the other hand, when the sub camera image is input and acquired by the acquisition unit 40, the determination in step S112 becomes an affirmative determination, and the process proceeds to step S114.


ステップS114で生成部42は、取得部40が取得したサブカメラ画像の解析を開始する。本実施形態の生成部42は、サブカメラ画像を画像解析することにより、撮影対象Sの、サブカメラ14に対する向き(顔の向き)、撮影対象Sとサブカメラ14との距離を推定する。これらの推定方法や、画像解析方法は特に限定されず、上記ステップS106と同様とすることができる。

In step S114, the generation unit 42 starts the analysis of the sub camera image acquired by the acquisition unit 40. The generation unit 42 of the present embodiment estimates the orientation (face orientation) of the shooting target S with respect to the sub camera 14 and the distance between the shooting target S and the sub camera 14 by performing image analysis on the sub camera image. These estimation methods and image analysis methods are not particularly limited, and can be the same as in step S106.


次のステップS116で生成部42は、メインカメラ画像の解析結果に基づいて、推奨用俯瞰図を生成する。上述したように、メインカメラ画像の解析を行うことにより、メインカメラ12に対する撮影対象Sの顔の向き、及び撮影対象Sとメインカメラ12との距離が推定される。一例として本実施形態では、この顔の向き及び撮影対象Sとの距離に基づき、メインカメラ12の撮影位置及び向き(撮影方向)を基準として推奨される、サブカメラ14の撮影位置及び撮影方向を導出する。推奨されるサブカメラ14の撮影位置及び撮影方向の導出方法は特に限定されない。例えば、撮影対象Sの顔の向き、メインカメラ12の位置、及びメインカメラ12の撮影方向の少なくとも一つと、サブカメラ14の位置及び撮影方向との対応関係(以下、「推奨位置関係」という)を予め記憶部22に記憶しておき、生成部42が、記憶部22に記憶されている推奨位置関係に基づいて、推奨されるサブカメラ14の撮影位置及び撮影方向を導出してもよい。

In the next step S116, the generation unit 42 generates a recommended bird's-eye view based on the analysis result of the main camera image. As described above, by analyzing the main camera image, the orientation of the face of the shooting target S with respect to the main camera 12 and the distance between the shooting target S and the main camera 12 are estimated. As an example, in the present embodiment, the shooting position and shooting direction of the sub camera 14 recommended based on the shooting position and orientation (shooting direction) of the main camera 12 based on the orientation of the face and the distance to the shooting target S. Derived. The recommended method for deriving the shooting position and shooting direction of the sub camera 14 is not particularly limited. For example, the correspondence between at least one of the face orientation of the shooting target S, the position of the main camera 12, and the shooting direction of the main camera 12 and the position and shooting direction of the sub camera 14 (hereinafter referred to as "recommended positional relationship"). May be stored in the storage unit 22 in advance, and the generation unit 42 may derive the recommended shooting position and shooting direction of the sub camera 14 based on the recommended positional relationship stored in the storage unit 22.


また、生成部42における推奨用俯瞰図の生成方法も特に限定されない。一例として本実施形態では、メインカメラ12、サブカメラ14、及び撮影対象Sに対応するアイコンを、各々の向き及び位置に合わせて、撮影対象Sの頭側(上側)から俯瞰した状態に配置する。図5Aには、本実施形態の生成部42により生成される推奨用俯瞰図50の一例を示す。図5Aに示した推奨用俯瞰図50には、顔の向きを表す情報とともに、撮影対象Sを示すアイコン60が配置されている。また、推奨用俯瞰図50には、メインカメラ12の撮影位置及び撮影方向に応じてメインカメラ12を示すアイコン62と、推奨されるサブカメラ14の撮影位置及び撮影方向に応じてサブカメラ14を示すアイコン65とが配置されている。なお、一例として本実施形態では、メインカメラ12の撮影位置を基準としているため、推奨用俯瞰図50におけるアイコン62は、実際に撮影が行われたメインカメラ12の撮影位置及び撮影方向に基づいて配置されている。

Further, the method of generating the recommended bird's-eye view in the generation unit 42 is not particularly limited. As an example, in the present embodiment, the icons corresponding to the main camera 12, the sub camera 14, and the shooting target S are arranged in a bird's-eye view from the head side (upper side) of the shooting target S according to their respective directions and positions. .. FIG. 5A shows an example of the recommended bird's-eye view 50 generated by the generation unit 42 of the present embodiment. In the recommended bird's-eye view 50 shown in FIG. 5A, an icon 60 indicating the shooting target S is arranged together with information indicating the orientation of the face. Further, in the recommended bird's-eye view 50, an icon 62 indicating the main camera 12 according to the shooting position and shooting direction of the main camera 12 and a sub camera 14 according to the shooting position and shooting direction of the recommended sub camera 14 are provided. The icon 65 is arranged. As an example, in the present embodiment, since the shooting position of the main camera 12 is used as a reference, the icon 62 in the recommended bird's-eye view 50 is based on the shooting position and shooting direction of the main camera 12 in which shooting was actually performed. Have been placed.


次のステップS118で生成部42は、メインカメラ画像の解析結果、及びサブカメラ画像の解析結果に基づいて、実位置俯瞰図を生成する。生成部42における実位置俯瞰図の生成方法も特に限定されず、例えば、推奨用俯瞰図の生成方法と同様の方法を用いることができる。図5Bには、本実施形態の生成部42により生成される実位置俯瞰図52の一例を示す。図5Bに示した実位置俯瞰図52には、顔の向きを表す情報とともに、撮影対象Sを示すアイコン60が配置されている。また、実位置俯瞰図52には、メインカメラ12の撮影位置及び撮影方向に応じてメインカメラ12を示すアイコン62と、サブカメラ14の撮影位置及び撮影方向に応じてサブカメラ14を示すアイコン64とが配置されている。なお、実位置俯瞰図52では、サブカメラ14を示すアイコン64は、実際に撮影が行われたサブカメラ14の撮影位置及び撮影方向に基づいて配置されている。

In the next step S118, the generation unit 42 generates an actual position bird's-eye view based on the analysis result of the main camera image and the analysis result of the sub camera image. The method of generating the actual position bird's-eye view in the generation unit 42 is not particularly limited, and for example, the same method as the recommended bird's-eye view generation method can be used. FIG. 5B shows an example of an actual position bird's-eye view 52 generated by the generation unit 42 of the present embodiment. In the actual position bird's-eye view 52 shown in FIG. 5B, an icon 60 indicating the shooting target S is arranged together with information indicating the orientation of the face. Further, in the actual position bird's-eye view 52, an icon 62 indicating the main camera 12 according to the shooting position and shooting direction of the main camera 12 and an icon 64 indicating the sub camera 14 according to the shooting position and shooting direction of the sub camera 14 And are arranged. In the actual position bird's-eye view 52, the icon 64 indicating the sub camera 14 is arranged based on the shooting position and the shooting direction of the sub camera 14 in which the shooting was actually performed.


次のステップS120で表示制御部44は、図6に示した一例のように、推奨用俯瞰図50、実位置俯瞰図52、メインカメラ画像70、及びサブカメラ画像72を表示部23に表示させる制御を行う。なお、図6に示した一例では、推奨用俯瞰図50と実位置俯瞰図52とを重畳させて表示部23に表示させた状態を示している。また、図6に示した一例では、メインカメラ12のリアルタイムのメインカメラ画像70と、サブカメラ14のリアルタイムのサブカメラ画像72とを表示させた状態を示している。

In the next step S120, the display control unit 44 causes the display unit 23 to display the recommended bird's-eye view 50, the actual position bird's-eye view 52, the main camera image 70, and the sub camera image 72, as in the example shown in FIG. Take control. In the example shown in FIG. 6, the recommended bird's-eye view 50 and the actual position bird's-eye view 52 are superimposed and displayed on the display unit 23. Further, in the example shown in FIG. 6, a state in which the real-time main camera image 70 of the main camera 12 and the real-time sub camera image 72 of the sub camera 14 are displayed is shown.


このように、メインカメラ画像70及びサブカメラ画像72を表示部23に表示させることにより、ユーザは、メインカメラ12及びサブカメラ14各々の撮影位置及び撮影向きの関係と、実際に撮像される動画像との関係を把握しやすくなる。

By displaying the main camera image 70 and the sub camera image 72 on the display unit 23 in this way, the user can use the relationship between the shooting positions and shooting directions of the main camera 12 and the sub camera 14 and the moving image actually captured. It becomes easier to understand the relationship with the image.


なお、本実施形態に限定されず、表示制御部44は、メインカメラ画像70及びサブカメラ画像72を表示部23に表示させないことも可能であるし、いずれか一方のみを表示させることとも可能である。本実施形態では、受付部46が、表示させる動画像の指定を操作部24を介してユーザから受け付けた場合、表示制御部44は指定された動画像を、表示部23に表示させ、受付部46が指定を受け付けなかった場合、メインカメラ画像70及びサブカメラ画像72の両方を表示部23に表示させる形態としている。

Not limited to this embodiment, the display control unit 44 may not display the main camera image 70 and the sub camera image 72 on the display unit 23, or may display only one of them. is there. In the present embodiment, when the reception unit 46 receives the designation of the moving image to be displayed from the user via the operation unit 24, the display control unit 44 causes the display unit 23 to display the designated moving image, and the reception unit When the 46 does not accept the designation, both the main camera image 70 and the sub camera image 72 are displayed on the display unit 23.


次のステップS122で生成部42は、メインカメラ12及びサブカメラ14の少なくとも一方のカメラが移動したか否か、より具体的には、メインカメラ12及びサブカメラ14の少なくとも一方のカメラの撮影位置及び撮影方向が変化したか否かを判定する。生成部42が少なくとも一方のカメラが移動したか否かを判定する方法は特に限定されない。例えば、生成部42は、メインカメラ画像70及びサブカメラ画像72の各々を画像解析し、撮影対象Sまたは他の被写体の位置または向きが変化したか否かにより判定してもよい。また例えば、生成部42は、メインカメラ画像70及びサブカメラ画像72が位置検出センサを備えている場合は、これらのセンサの検出結果を取得し、取得した検出結果に基づいて判定してもよい。

In the next step S122, the generation unit 42 determines whether or not at least one of the main camera 12 and the sub camera 14 has moved, more specifically, the shooting position of at least one of the main camera 12 and the sub camera 14. And it is determined whether or not the shooting direction has changed. The method by which the generation unit 42 determines whether or not at least one camera has moved is not particularly limited. For example, the generation unit 42 may perform image analysis of each of the main camera image 70 and the sub camera image 72, and determine whether or not the position or orientation of the shooting target S or another subject has changed. Further, for example, when the main camera image 70 and the sub camera image 72 are provided with position detection sensors, the generation unit 42 may acquire the detection results of these sensors and make a determination based on the acquired detection results. ..


メインカメラ12及びサブカメラ14の少なくとも一方のカメラが移動した場合、ステップS122の判定が肯定判定となり、ステップS116に戻り、上記ステップS118、S120の各処理を繰り返す。この場合、少なくとも一方のカメラの移動に応じて、表示部23に表示される推奨用俯瞰図50及び実位置俯瞰図52が更新され、各々、リアルタイムの状態に応じた俯瞰図となる。

When at least one of the main camera 12 and the sub camera 14 moves, the determination in step S122 becomes an affirmative determination, the process returns to step S116, and the processes of steps S118 and S120 are repeated. In this case, the recommended bird's-eye view 50 and the actual position bird's-eye view 52 displayed on the display unit 23 are updated according to the movement of at least one of the cameras, and each becomes a bird's-eye view according to the real-time state.


一方、メインカメラ12及びサブカメラ14の両方のカメラが移動していない場合、ステップS122の判定が否定判定となり、ステップS124へ移行する。ステップS124で生成部42は、本撮影支援処理を終了するか否かを判定する。本実施形態では、一例として、上記キャンセルボタンがユーザにより操作された場合や、メインカメラ12及びサブカメラ14の少なくとも一方が、上記HDMI端子と非接続となった場合等、予め定められた終了条件を満たす場合に、本撮影支援処理を終了する。終了条件を満たさない場合、ステップS124の判定が否定判定となり、ステップS122に戻り、上記処理を繰り返す。一方、終了条件を満たす場合、ステップS124の判定が肯定判定となり、本撮影支援処理を終了する。本撮影支援処理を終了する場合、表示制御部44は、表示部23に表示されている推奨用俯瞰図50、実位置俯瞰図52、メインカメラ画像70、サブカメラ画像72の表示を終了する。

On the other hand, when both the cameras of the main camera 12 and the sub camera 14 are not moving, the determination in step S122 becomes a negative determination, and the process proceeds to step S124. In step S124, the generation unit 42 determines whether or not to end the main shooting support process. In the present embodiment, as an example, predetermined termination conditions such as when the cancel button is operated by the user or when at least one of the main camera 12 and the sub camera 14 is disconnected from the HDMI terminal. When the condition is satisfied, the main shooting support process is terminated. If the end condition is not satisfied, the determination in step S124 becomes a negative determination, the process returns to step S122, and the above process is repeated. On the other hand, when the end condition is satisfied, the determination in step S124 becomes an affirmative determination, and the main shooting support process ends. When the main shooting support process is terminated, the display control unit 44 ends the display of the recommended bird's-eye view 50, the actual position bird's-eye view 52, the main camera image 70, and the sub camera image 72 displayed on the display unit 23.


なお、本実施形態の撮影支援装置16では撮影対象Sの顔の向き、メインカメラ12の位置、及びメインカメラ12の撮影方向の少なくとも一つに対し、推奨されるサブカメラ14の撮影位置及び撮影方向が一意に定まる形態、いわば、推奨される推奨用俯瞰図50が1種類の場合について説明したが、本実施形態に限定されず、推奨される推奨用俯瞰図が複数種類あってもよく、例えば、メインカメラ12の撮影位置及び撮影方向に対して、対応付けられている推奨されるサブカメラ14の撮影位置及び撮影方向が複数あってもよい。換言すると、上記推奨位置関係を複数有していてもよい。具体例として、図7Aに示すように、撮影対象Sに対するサブカメラ14の向きが、図5Aに示した推奨用俯瞰図50により推奨されるサブカメラ14の向きと異なる推奨用俯瞰図50Aや、図7Bに示すように、撮影対象Sとサブカメラ14との距離が、図5Aに示した推奨用俯瞰図50により推奨されるサブカメラ14の距離と異なる推奨用俯瞰図50B等を有していてもよい。

In the shooting support device 16 of the present embodiment, the shooting position and shooting of the sub camera 14 are recommended for at least one of the face orientation of the shooting target S, the position of the main camera 12, and the shooting direction of the main camera 12. The case where the direction is uniquely determined, so to speak, the case where the recommended bird's-eye view 50 is one type has been described, but the present invention is not limited to this embodiment, and there may be a plurality of recommended bird's-eye views for recommendation. For example, there may be a plurality of recommended shooting positions and shooting directions of the sub camera 14 associated with the shooting position and shooting direction of the main camera 12. In other words, it may have a plurality of the above recommended positional relationships. As a specific example, as shown in FIG. 7A, a recommended bird's-eye view 50A in which the orientation of the sub-camera 14 with respect to the photographing target S is different from the orientation of the sub-camera 14 recommended by the recommended bird's-eye view 50 shown in FIG. As shown in FIG. 7B, the distance between the photographing target S and the sub camera 14 has a recommended bird's-eye view 50B or the like different from the distance of the sub camera 14 recommended by the recommended bird's-eye view 50 shown in FIG. 5A. You may.


操作部24を操作することにより、ユーザが推奨用俯瞰図の変更を指示することができる形態の一例について、図8を参照して説明する。図8には、推奨用俯瞰図を複数種類有する場合の、撮影支援処理の流れの一例を表すフローチャートが示されている。

An example of a mode in which the user can instruct to change the recommended bird's-eye view by operating the operation unit 24 will be described with reference to FIG. FIG. 8 shows a flowchart showing an example of the flow of shooting support processing when a plurality of types of recommended bird's-eye views are provided.


図8に示した撮影支援処理は、ステップS120とS122との間にステップS121A〜S121Cの処理を含む点で、上述の撮影支援処理(図4参照)と異なっている。図8に示した撮影支援処理では、受付部46が、推奨用俯瞰図(50、50A、及び50B)の変更の指示を受け付けたか否かを判定する。受付部46が、変更の指示を受け付けていない場合、ステップS121Aの判定が否定判定となり、ステップS122へ移行する。一方、受付部46が変更の指示を受け付けた場合、ステップS121Aの判定が肯定判定となり、ステップS121Bへ移行する。ステップS121Bで表示制御部44は、表示部23に表示されている推奨用俯瞰図(50、50A、または50Bのいずれか)を更新する。具体的には、生成部42が、記憶部22に記憶されている複数の推奨位置関係から、現在、表示部23に表示されている推奨用俯瞰図と異なる推奨位置関係を1つ取得し、取得した推奨位置関係に基づいて推奨用俯瞰図を生成し、生成された推奨用俯瞰図を表示制御部44が表示部23に表示させる。ユーザは、表示部23に表示されている推奨用俯瞰図を撮影に用いることを決定した場合、操作部24に含まれる決定ボタン(図示省略)を操作することにより推奨用俯瞰図の決定を指示する。

The shooting support process shown in FIG. 8 is different from the above-mentioned shooting support process (see FIG. 4) in that the processing of steps S121A to S121C is included between steps S120 and S122. In the shooting support process shown in FIG. 8, it is determined whether or not the reception unit 46 has received the instruction to change the recommended bird's-eye view (50, 50A, and 50B). If the reception unit 46 has not received the change instruction, the determination in step S121A is a negative determination, and the process proceeds to step S122. On the other hand, when the reception unit 46 receives the change instruction, the determination in step S121A becomes an affirmative determination, and the process proceeds to step S121B. In step S121B, the display control unit 44 updates the recommended bird's-eye view (either 50, 50A, or 50B) displayed on the display unit 23. Specifically, the generation unit 42 acquires one recommended positional relationship different from the recommended bird's-eye view currently displayed on the display unit 23 from the plurality of recommended positional relationships stored in the storage unit 22. A recommended bird's-eye view is generated based on the acquired recommended positional relationship, and the display control unit 44 displays the generated recommended bird's-eye view on the display unit 23. When the user decides to use the recommended bird's-eye view displayed on the display unit 23 for shooting, the user instructs the determination of the recommended bird's-eye view by operating the decision button (not shown) included in the operation unit 24. To do.


次のステップS121Cで受付部46は、上記の決定の指示を受け付けたか否かを判定する。本実施形態の受付部46が、予め定められた時間が経過しても、上記の決定の指示を受け付けなかった場合、ステップS121Cの判定が否定判定となり、ステップS121Aに戻り、ステップS121Bの処理を繰り返す。一方、受付部46が、予め定められた時間内に上記の決定の指示を受け付けた場合、ステップS121Cの判定が肯定判定となり、ステップS122へ移行する。なお、本処理の後、ステップS122で肯定判定となり、ステップS116に戻り再び推奨用俯瞰図を生成する場合、ステップS121Cにおいて決定された推奨用俯瞰図に対応する推奨位置関係に基づいて、推奨用俯瞰図を生成する。

In the next step S121C, the reception unit 46 determines whether or not the instruction for the above decision has been accepted. If the reception unit 46 of the present embodiment does not accept the instruction for the above determination even after the lapse of a predetermined time, the determination in step S121C becomes a negative determination, the process returns to step S121A, and the processing in step S121B is performed. repeat. On the other hand, when the reception unit 46 receives the instruction for the above determination within a predetermined time, the determination in step S121C becomes an affirmative determination, and the process proceeds to step S122. After this processing, when a positive judgment is made in step S122 and the process returns to step S116 to generate the recommended bird's-eye view again, the recommended bird's-eye view is based on the recommended positional relationship determined in step S121C. Generate a bird's-eye view.


また、本実施形態では、一例として、メインカメラ12の撮影位置及び撮影方向を基準として推奨される、サブカメラ14の撮影位置及び撮影方向を導出する形態について説明したが、本実施形態に限定されない。例えば、撮影対象Sの向きまたは位置を基準として推奨される、メインカメラ12の撮影位置及び撮影方向と、サブカメラ14の撮影位置及び撮影方向とを導出する形態としてもよい。この場合、生成部42によって生成され、表示部23に表示される推奨用俯瞰図50Cは、図9に示した一例のように、推奨されるメインカメラ12の撮影位置及び撮影方向に応じたメインカメラ12を示すアイコン63と、推奨されるサブカメラ14の撮影位置及び撮影方向に応じたサブカメラ14を示すアイコン65とが配置された状態となる。

Further, in the present embodiment, as an example, a mode for deriving the shooting position and shooting direction of the sub camera 14 recommended based on the shooting position and shooting direction of the main camera 12 has been described, but the present embodiment is not limited to this embodiment. .. For example, the shooting position and shooting direction of the main camera 12 and the shooting position and shooting direction of the sub camera 14, which are recommended based on the orientation or position of the shooting target S, may be derived. In this case, the recommended bird's-eye view 50C generated by the generation unit 42 and displayed on the display unit 23 is the main according to the recommended shooting position and shooting direction of the main camera 12, as in the example shown in FIG. An icon 63 indicating the camera 12 and an icon 65 indicating the sub camera 14 according to the recommended shooting position and shooting direction of the sub camera 14 are arranged.


このように本施形態の撮影支援装置16では、取得部40がユーザにより撮影対象Sが撮影されたメインカメラ画像をメインカメラ12から取得し、生成部42が、取得したメインカメラ画像を解析し、メインカメラ画像に含まれる撮影対象Sの画像から得られる解析結果に基づいて推奨用俯瞰図を生成し、表示制御部44が推奨用俯瞰図を表示部23に表示させる。

As described above, in the photographing support device 16 of the present embodiment, the acquisition unit 40 acquires the main camera image in which the image target S is photographed by the user from the main camera 12, and the generation unit 42 analyzes the acquired main camera image. A recommended bird's-eye view is generated based on the analysis result obtained from the image of the shooting target S included in the main camera image, and the display control unit 44 causes the display unit 23 to display the recommended bird's-eye view.


このように本実施形態の撮影支援装置16によれば、ユーザが、撮影対象Sをメインカメラ12及びサブカメラ14により撮影するために推奨される各カメラ及び撮影対象Sの相対的な位置関係を把握できるようになる。従って、本実施形態の撮影支援装置16によれば、ユーザはメインカメラ画像及びサブカメラ画像を組み合わせて1つの動画像を得る場合において、所望の動画像を得ることができる。

As described above, according to the shooting support device 16 of the present embodiment, the user determines the relative positional relationship between each camera and the shooting target S recommended for shooting the shooting target S by the main camera 12 and the sub camera 14. You will be able to grasp. Therefore, according to the photographing support device 16 of the present embodiment, the user can obtain a desired moving image when the main camera image and the sub camera image are combined to obtain one moving image.


[第2実施形態]

以下、第2実施形態について詳細に説明する。なお、本実施形態では、上記第1実施形態で説明した構成及び作用と同一の構成及び作用については同一の符号を付し、詳細な説明を省略する。

[Second Embodiment]

Hereinafter, the second embodiment will be described in detail. In this embodiment, the same configurations and actions as those described in the first embodiment are designated by the same reference numerals, and detailed description thereof will be omitted.


本実施形態の撮像システム10及び撮影支援装置16の構成は、第1実施形態の撮像システム10及び撮影支援装置16の構成(図1〜図3参照)と同様であるため、説明を省略する。

Since the configurations of the imaging system 10 and the photographing support device 16 of the present embodiment are the same as the configurations of the imaging system 10 and the photographing support device 16 of the first embodiment (see FIGS. 1 to 3), the description thereof will be omitted.


一方、本実施形態の撮影支援装置16の作用は、撮影支援処理の一部が異なっている。図10には、本実施形態の撮影支援処理の流れの一例を示すフローチャートを示す。図10に示すように、本実施形態の撮影支援処理では、第1実施形態の撮影支援処理(図4参照)のステップS124の後に、ステップS125の処理を行う点が異なっている。

On the other hand, the operation of the photographing support device 16 of the present embodiment is partially different from the photographing support process. FIG. 10 shows a flowchart showing an example of the flow of the photographing support process of the present embodiment. As shown in FIG. 10, the shooting support processing of the present embodiment is different in that the processing of step S125 is performed after step S124 of the shooting support processing (see FIG. 4) of the first embodiment.


本撮影支援処理を終了するか否かの判定が肯定判定となった後に行われるステップS125で生成部42は、表示制御部44の制御により表示部23に表示されている実位置俯瞰図52、メインカメラ12を表す情報、及びサブカメラ14を表す情報を対応付けて記憶部22に記憶させた後、本撮影支援処理を終了する。すなわち、生成部42は、撮影対象Sの撮影が行われた相対的な位置関係を表す情報を記憶部22に記憶させる。なお、生成部42が、記憶部22に記憶させるメインカメラ12を表す情報、及びサブカメラ14を表す情報は特に限定されず、例えば、識別子等の撮影に用いられたカメラを識別可能とする情報であればよい。

In step S125, which is performed after the determination as to whether or not to end the main shooting support process is an affirmative determination, the generation unit 42 is displayed on the display unit 23 under the control of the display control unit 44. After the information representing the main camera 12 and the information representing the sub camera 14 are associated and stored in the storage unit 22, the main shooting support process is terminated. That is, the generation unit 42 stores the information representing the relative positional relationship in which the photographing target S is photographed in the storage unit 22. The information representing the main camera 12 and the information representing the sub camera 14 stored in the storage unit 22 by the generation unit 42 are not particularly limited, and for example, information such as an identifier that enables the camera used for photographing to be identified. It should be.


このように本実施形態の撮影支援装置16では、撮影支援処理を終了する場合、すなわち、ユーザがメインカメラ12及びサブカメラ14による撮影対象Sの撮影を終了する場合、終了時点におけるメインカメラ12及びサブカメラ14の配置と、撮影対象Sの向きとの相対的な位置関係を表す実位置俯瞰図52を、メインカメラ12を表す情報及びサブカメラ14を表す情報に対応付けて記憶部22に記載させる。

As described above, in the shooting support device 16 of the present embodiment, when the shooting support process is terminated, that is, when the user ends the shooting of the shooting target S by the main camera 12 and the sub camera 14, the main camera 12 and the shooting support device 16 at the end time are finished. The actual position bird's-eye view 52 showing the relative positional relationship between the arrangement of the sub-camera 14 and the orientation of the shooting target S is described in the storage unit 22 in association with the information representing the main camera 12 and the information representing the sub-camera 14. Let me.


なお、ステップS125で生成部42は、メインカメラ12を表す情報及びサブカメラ14を表す情報と対応付けて、実位置俯瞰図52に代わり、また、実位置俯瞰図52とともに推奨用俯瞰図50を記憶部22に記憶させてもよい。また、推奨用俯瞰図50及び実位置俯瞰図52のいずれの俯瞰図を記憶部22に記憶させるかについて操作部24を介してユーザによる指示が可能であってもよい。

In step S125, the generation unit 42 correlates with the information representing the main camera 12 and the information representing the sub camera 14, and replaces the actual position bird's-eye view 52 with the recommended bird's-eye view 50 together with the actual position bird's-eye view 52. It may be stored in the storage unit 22. Further, the user may be able to instruct via the operation unit 24 which of the recommended bird's-eye view 50 and the actual position bird's-eye view 52 is to be stored in the storage unit 22.


また、図10に示すように、本実施形態の撮影支援処理では、第1実施形態の撮影支援処理(図4参照)に比べ、ステップS114とステップS116との間に、ステップS115A〜S115Dの各処理を実行する点が異なっている。

Further, as shown in FIG. 10, in the shooting support processing of the present embodiment, as compared with the shooting support processing of the first embodiment (see FIG. 4), steps S115A to S115D are performed between steps S114 and S116. The difference is that the processing is executed.


ステップS115Aで生成部42は、現在、接続されているメインカメラ12及びサブカメラ14について、記憶部22にメインカメラ12を表す情報及びサブカメラ14を表す情報の両方のカメラ情報が記憶されているか否かを判定する。記憶部22に両方のカメラ情報が記憶されている場合、ステップS115Aの判定が肯定判定となり、ステップS115Bへ移行する。ステップS115Bで、生成部42は、メインカメラ12を表す情報及びサブカメラ14を表す情報に対応付けられている実位置俯瞰図52を、記憶部22から読み出して推奨用俯瞰図50とした後、ステップS118へ移行する。

In step S115A, the generation unit 42 stores the camera information of both the information representing the main camera 12 and the information representing the sub camera 14 in the storage unit 22 for the main camera 12 and the sub camera 14 currently connected. Judge whether or not. When both camera information is stored in the storage unit 22, the determination in step S115A becomes an affirmative determination, and the process proceeds to step S115B. In step S115B, the generation unit 42 reads the actual position bird's-eye view 52 associated with the information representing the main camera 12 and the information representing the sub-camera 14 from the storage unit 22 and makes it a recommended bird's-eye view 50. The process proceeds to step S118.


一方、記憶部22に、両方のカメラ情報が記憶されていない場合、ステップS115Aの判定が否定判定となり、ステップS115Cへ移行する。ステップS115Cで表示制御部44は、表示部23に、両方のカメラ情報に対応する実位置俯瞰図52が記憶部22に記憶されていない旨、すなわち、撮影支援装置16が、接続されているメインカメラ12及びサブカメラ14が、今まで撮影の支援対象としていないメインカメラ12及びサブカメラ14の組み合わせであることを表す情報をガイダンスとして、表示部23に表示させる。本実施形態では一例として、ユーザは、表示部23に表示されたガイダンスを参照し、接続されているカメラについて変更がなければ、操作部24に含まれる了承ボタン(図示省略)を操作することにより、了承する旨を指示するか、または操作部24に含まれるキャンセルボタン(図示省略)を操作することにより、撮影支援処理のキャンセルを指示する。

On the other hand, when both camera information is not stored in the storage unit 22, the determination in step S115A becomes a negative determination, and the process proceeds to step S115C. In step S115C, the display control unit 44 indicates that the actual position bird's-eye view 52 corresponding to both camera information is not stored in the storage unit 22, that is, the main shooting support device 16 is connected to the display unit 23. Information indicating that the camera 12 and the sub camera 14 are a combination of the main camera 12 and the sub camera 14 that have not been supported for shooting until now is displayed on the display unit 23 as guidance. In the present embodiment, as an example, the user refers to the guidance displayed on the display unit 23, and if there is no change in the connected camera, the user operates the approval button (not shown) included in the operation unit 24. , Instruct to approve, or instruct to cancel the shooting support process by operating the cancel button (not shown) included in the operation unit 24.


そこで、次のステップS115Dで生成部42は、了承ボタンが操作されたか否かを判定する。キャンセルボタンが操作された場合、ステップS115Dの判定が否定判定となり、本撮影支援処理を終了する。

Therefore, in the next step S115D, the generation unit 42 determines whether or not the approval button has been operated. When the cancel button is operated, the determination in step S115D becomes a negative determination, and the main shooting support process ends.


一方、了承ボタンが操作された場合、ステップS115Dの判定が肯定判定となり、ステップS116へ移行する。この場合、生成部42は、新たに接続されているメインカメラ12及びサブカメラ14の組み合わせにより入力される、メインカメラ画像及びサブカメラ画像に基づき、推奨用俯瞰図50及び実位置俯瞰図52を生成することとなる。

On the other hand, when the approval button is operated, the determination in step S115D becomes an affirmative determination, and the process proceeds to step S116. In this case, the generation unit 42 obtains the recommended bird's-eye view 50 and the actual position bird's-eye view 52 based on the main camera image and the sub camera image input by the combination of the newly connected main camera 12 and the sub camera 14. It will be generated.


なお、本実施形態では、上記ステップS115Aで両方のカメラ情報が記憶されているか否かを判定する形態としたが、本実施形態に限定されず、メインカメラ12及びサブカメラ14の一方のカメラ情報が記憶されているか否かを判定する形態としてもよい。例えば、撮影対象Sの撮影について一旦休憩後、撮影を再開する場合、主として撮影に用いられるメインカメラ12は、同じカメラを使用するが、サブカメラ14は先ほどと異なる機種のカメラを使用する場合がある。このような場合に対応する形態として、ステップS115Aでは、メインカメラ12を表す情報が記憶部22に記憶されているか否かを判定する形態としてもよい。

In this embodiment, it is determined in step S115A whether or not both camera information is stored, but the present embodiment is not limited to this embodiment, and the camera information of one of the main camera 12 and the sub camera 14 is not limited to this embodiment. May be in the form of determining whether or not is stored. For example, when the shooting of the shooting target S is resumed after a break, the main camera 12 mainly used for shooting may use the same camera, but the sub camera 14 may use a different model of camera. is there. As a form corresponding to such a case, in step S115A, a form for determining whether or not the information representing the main camera 12 is stored in the storage unit 22 may be used.


このように本実施形態の撮影支援装置16で行われる撮影支援処理では、撮影支援処理を行った後、同一のメインカメラ12及びサブカメラ14を用いた撮影に対して再び撮影支援処理を行う場合、前回、表示部23に表示した俯瞰図を、推奨用俯瞰図として採用する。これにより、本実施形態の撮影支援装置16によれば、前回、撮影を終了した時点におけるメインカメラ12及びサブカメラ14の配置状態と同様の状態から、撮影を再開し易くなる。

As described above, in the shooting support processing performed by the shooting support device 16 of the present embodiment, after the shooting support processing is performed, the shooting support processing is performed again for the shooting using the same main camera 12 and sub camera 14. , The bird's-eye view displayed on the display unit 23 last time is adopted as the recommended bird's-eye view. As a result, according to the shooting support device 16 of the present embodiment, it becomes easy to resume shooting from the same state as the arrangement state of the main camera 12 and the sub camera 14 at the time when the shooting was completed last time.


[第3実施形態]

以下、第3実施形態について詳細に説明する。なお、本実施形態では、上記第1実施形態及び第2実施形態で説明した構成及び作用と同一の構成及び作用については同一の符号を付し、詳細な説明を省略する。

[Third Embodiment]

Hereinafter, the third embodiment will be described in detail. In this embodiment, the same configurations and actions as those described in the first and second embodiments are designated by the same reference numerals, and detailed description thereof will be omitted.


本実施形態の撮像システム10の構成は、第1実施形態の撮像システム10の構成(図1参照)と同様であるため、説明を省略する。一方、撮影支援装置16の構成は、図11に示すように、指定部47をさらに備えている点で、第1実施形態の撮影支援装置16の構成(図2及び図3参照)と異なっている。

Since the configuration of the imaging system 10 of the present embodiment is the same as the configuration of the imaging system 10 of the first embodiment (see FIG. 1), the description thereof will be omitted. On the other hand, the configuration of the shooting support device 16 is different from the configuration of the shooting support device 16 of the first embodiment (see FIGS. 2 and 3) in that the designation unit 47 is further provided as shown in FIG. There is.


上記各実施形態では、表示制御部44が表示部23に、メインカメラ画像70及びサブカメラ画像72を表示させる形態について説明した。一方、本実施形態では、推奨用俯瞰図50または実位置俯瞰図52に対して、メインカメラ12及びサブカメラ14の位置及び撮影方向を指定すると、指定した位置及び撮影方向においてメインカメラ12及びサブカメラ14により撮像されたと推定される推定撮像画像を、メインカメラ画像70またはサブカメラ画像72に代わり表示部23に表示させる形態について説明する。以下では、このように、ユーザが指定した位置及び撮影方向において、メインカメラ12またはサブカメラ14により撮像されたと推定される推定撮像画像を生成して表示させる動作について、シミュレーションと称する。

In each of the above embodiments, a mode in which the display control unit 44 causes the display unit 23 to display the main camera image 70 and the sub camera image 72 has been described. On the other hand, in the present embodiment, when the positions and shooting directions of the main camera 12 and the sub camera 14 are specified with respect to the recommended bird's-eye view 50 or the actual position bird's-eye view 52, the main camera 12 and the sub camera 12 and the sub camera 12 and the sub camera 12 are designated in the designated position and shooting direction. A mode in which the estimated captured image presumed to have been captured by the camera 14 is displayed on the display unit 23 instead of the main camera image 70 or the sub camera image 72 will be described. Hereinafter, the operation of generating and displaying the estimated captured image presumed to have been captured by the main camera 12 or the sub camera 14 at the position and the shooting direction specified by the user will be referred to as a simulation.


指定部47は、表示部23に表示されている推奨用俯瞰図50または実位置俯瞰図52に対して、俯瞰図に示されるアイコン62、63、64、及び65について、位置及び撮影方向の少なくとも一方について変更後の状態がユーザによって指定される機能を有する。

The designation unit 47 has at least the position and shooting direction of the icons 62, 63, 64, and 65 shown in the bird's-eye view with respect to the recommended bird's-eye view 50 or the actual position bird's-eye view 52 displayed on the display unit 23. One has a function that the changed state is specified by the user.


図12を参照して、本実施形態の撮影支援装置16において、上記シミュレーションを行う作用を説明する。CPU20が撮影支援プログラム30を実行することによって、図12に示すシミュレーション処理が実行される。一例として図12に示すシミュレーション処理は、例えば、表示部23に表示されたアイコン62、63、64、及び65のいずれかにユーザがタッチした場合、またはシミュレーションを行う旨の指示を操作部24を用いてユーザが行った場合に実行される。

The operation of performing the above simulation in the photographing support device 16 of the present embodiment will be described with reference to FIG. When the CPU 20 executes the shooting support program 30, the simulation process shown in FIG. 12 is executed. As an example, in the simulation process shown in FIG. 12, for example, when the user touches any of the icons 62, 63, 64, and 65 displayed on the display unit 23, or an instruction to perform the simulation is given to the operation unit 24. Executed when the user uses it.


図12に示したステップS200で指定部47は、アイコン62、63、64、及び65のいずれかに対するユーザの操作が完了したか否かを判定する。本実施形態では、ユーザの操作により、アイコン62、63、64、及び65各々について、位置の移動、回転、拡大、及び縮小することができる。アイコン62、63、64、及び65各々の位置の移動は、各アイコンに対応するメインカメラ12またはサブカメラ14の位置の移動に対応する。また、アイコン62、63、64、及び65各々の回転は、各アイコンに対応するメインカメラ12またはサブカメラ14の撮影方向の変更(回転)に対応する。また、アイコン62、63、64、及び65各々の拡大及び縮小は、各アイコンに対応するメインカメラ12またはサブカメラ14の高さ方向(実世界における高さ方向、表示部23の表示における奥行き方向)の移動に対応し、拡大された場合は、高さが高くなる方向への移動に対応し、縮小された場合は、高さが低くなる方向への移動に対応する。

In step S200 shown in FIG. 12, the designation unit 47 determines whether or not the user's operation on any of the icons 62, 63, 64, and 65 has been completed. In this embodiment, the position can be moved, rotated, enlarged, and reduced for each of the icons 62, 63, 64, and 65 by the operation of the user. The movement of the positions of the icons 62, 63, 64, and 65 corresponds to the movement of the position of the main camera 12 or the sub camera 14 corresponding to each icon. Further, the rotation of each of the icons 62, 63, 64, and 65 corresponds to the change (rotation) of the shooting direction of the main camera 12 or the sub camera 14 corresponding to each icon. Further, the enlargement and reduction of each of the icons 62, 63, 64, and 65 are in the height direction of the main camera 12 or the sub camera 14 corresponding to each icon (height direction in the real world, depth direction in the display of the display unit 23). ), When it is enlarged, it corresponds to the movement in the direction of increasing height, and when it is reduced, it corresponds to the movement in the direction of decreasing height.


操作が完了するまでステップS200の判定が否定判定となり、操作が完了するとステップS200の判定が肯定判定となって、ステップS202へ移行する。ステップS202で、生成部42は、ユーザによって操作されたアイコン62、63、64、及び65のいずれかの操作後の状態に応じて、推定撮像画像を生成する。具体的には、生成部42は、操作後の上記アイコンの位置、向き、及び大きさに基づいて、撮影対象Sに対するメインカメラ12またはサブカメラ14の位置及び撮影方向を導出し、導出した位置及び撮影方向において撮像されると推定される推定撮像画像を生成する。

The determination in step S200 becomes a negative determination until the operation is completed, and when the operation is completed, the determination in step S200 becomes an affirmative determination, and the process proceeds to step S202. In step S202, the generation unit 42 generates an estimated captured image according to the state after the operation of any of the icons 62, 63, 64, and 65 operated by the user. Specifically, the generation unit 42 derives the position and shooting direction of the main camera 12 or the sub camera 14 with respect to the shooting target S based on the position, orientation, and size of the above icon after the operation, and the derived position. And generate an estimated captured image that is presumed to be captured in the imaging direction.


生成部42が、推定撮像画像を生成する具体的な方法は特に限定されない。例えば、3次元の人物構図データを記憶部22に記憶しておき、導出した撮影対象Sに対するメインカメラ12またはサブカメラ14の位置及び撮影方向に応じて、上記3次元の人物構図データをレンダリングすることにより推定撮像画像を生成してもよい。

The specific method by which the generation unit 42 generates the estimated captured image is not particularly limited. For example, the three-dimensional person composition data is stored in the storage unit 22, and the three-dimensional person composition data is rendered according to the position and shooting direction of the main camera 12 or the sub camera 14 with respect to the derived shooting target S. This may generate an estimated captured image.


次のステップS204で表示制御部44は、ユーザによって操作されたアイコン62、63、64、及び65のいずれかに対応するメインカメラ画像70またはサブカメラ画像72に代わり、生成部42が生成した推定撮像画像を表示部23に表示させる。図13には、サブカメラ14に対応する推奨用俯瞰図50のアイコン65が操作された場合に、生成部42によって生成された推定撮像画像73を、サブカメラ画像72の代わりに表示部23に表示させた状態の一例を示す。

In the next step S204, the display control unit 44 is estimated to be generated by the generation unit 42 in place of the main camera image 70 or the sub camera image 72 corresponding to any of the icons 62, 63, 64, and 65 operated by the user. The captured image is displayed on the display unit 23. In FIG. 13, when the icon 65 of the recommended bird's-eye view 50 corresponding to the sub camera 14 is operated, the estimated captured image 73 generated by the generation unit 42 is displayed on the display unit 23 instead of the sub camera image 72. An example of the displayed state is shown.


次のステップS206で指定部47は、本シミュレーション処理を終了するか否かを判定する。終了条件を満たすまでステップS206の判定が否定判定となり、ステップS200に戻り、ステップS202及びS204の処理を繰り返す。一方、シミュレーションを終了する旨の指示を操作部24を用いてユーザが行った場合に、終了条件を満たすと判定し、ステップS206の判定が肯定判定となり、本シミュレーション処理を終了する。

In the next step S206, the designation unit 47 determines whether or not to end the simulation process. The determination in step S206 becomes a negative determination until the end condition is satisfied, the process returns to step S200, and the processes in steps S202 and S204 are repeated. On the other hand, when the user gives an instruction to end the simulation using the operation unit 24, it is determined that the end condition is satisfied, the determination in step S206 becomes an affirmative determination, and the simulation process is terminated.


このように、本実施形態の撮影支援装置16では、ユーザの指定に応じて、メインカメラ12またはサブカメラ14により撮影されたと推定される推定撮像画像を生成して、表示部23に表示する。

As described above, the photographing support device 16 of the present embodiment generates an estimated captured image presumed to have been taken by the main camera 12 or the sub camera 14 according to the user's designation, and displays it on the display unit 23.


従って、本実施形態の撮影支援装置16によれば、ユーザは簡単な操作により、実際にメインカメラ12またはサブカメラ14の位置を移動させなくても、メインカメラ画像またはサブカメラ画像がどのような画像となるかを推定撮像画像により把握することができる。従って、撮影対象Sの撮影を行い易くすることができ、また、撮影時間の短縮化を図ることができる。

Therefore, according to the shooting support device 16 of the present embodiment, what kind of main camera image or sub camera image can be obtained by the user without actually moving the position of the main camera 12 or the sub camera 14 by a simple operation. Whether it becomes an image can be grasped from the estimated captured image. Therefore, it is possible to facilitate shooting of the shooting target S, and it is possible to shorten the shooting time.


以上説明したように、上記各実施形態の撮影支援装置16は、特定の撮影対象Sを撮像するメインカメラ12及びサブカメラ14のうちのメインカメラ12により撮像されたメインカメラ画像を取得する取得部40と、取得部40が取得したメインカメラ画像に含まれる撮影対象Sの画像に基づいて、メインカメラ12及びサブカメラ14の各々及び撮影対象Sの、撮影対象Sを撮影するために推奨される相対的な位置関係を表す推奨用俯瞰図を生成する生成部42と、生成部42が生成した俯瞰図を表示部23に表示させる制御を行う表示制御部44と、を備える。

As described above, the shooting support device 16 of each of the above embodiments is an acquisition unit that acquires a main camera image captured by the main camera 12 of the main camera 12 and the sub camera 14 that captures a specific shooting target S. It is recommended to shoot the shooting target S of each of the main camera 12 and the sub camera 14 and the shooting target S based on the image of the shooting target S included in the main camera image acquired by the acquisition unit 40 and 40. It includes a generation unit 42 that generates a recommended bird's-eye view showing a relative positional relationship, and a display control unit 44 that controls the display unit 23 to display the bird's-eye view generated by the generation unit 42.


このような構成により、本実施形態の撮影支援装置16によれば、撮影に不慣れなユーザでも各撮像装置のセッティング位置を容易に把握できるようになる。従って、上記各実施形態の撮影支援装置16によれば、メインカメラ画像及びサブカメラ画像を組み合わせて1つの動画像を得る場合において、所望の動画像を得られるようにすることができる。

With such a configuration, according to the photographing support device 16 of the present embodiment, even a user who is unfamiliar with photographing can easily grasp the setting position of each imaging device. Therefore, according to the photographing support device 16 of each of the above embodiments, when a main camera image and a sub camera image are combined to obtain one moving image, a desired moving image can be obtained.


なお、上記各実施形態では、撮影支援装置16にメインカメラ12とサブカメラ14とが同時に接続可能な形態、換言すると、取得部40が、メインカメラ画像とサブカメラ画像とを同時に取得可能な形態について説明したが、上記各実施形態に限定されない。例えば、撮影支援装置16にはメインカメラ12及びサブカメラ14のいずれか一方のみが接続可能で有り、メインカメラ12及びサブカメラ14を交互に接続させることにより、取得部40によるメインカメラ画像とサブカメラ画像との取得を可能とする形態としてもよい。なお、この形態の場合、取得部40が取得するメインカメラ画像及びサブカメラ画像が、リアルタイムで撮像された動画像とならないため、生成部42が生成する推奨用俯瞰図及び実位置俯瞰図が、リアルタイムの状態に応じた俯瞰図とならない場合がある。

In each of the above embodiments, the main camera 12 and the sub camera 14 can be connected to the shooting support device 16 at the same time, in other words, the acquisition unit 40 can acquire the main camera image and the sub camera image at the same time. However, the present invention is not limited to each of the above embodiments. For example, only one of the main camera 12 and the sub camera 14 can be connected to the shooting support device 16, and by connecting the main camera 12 and the sub camera 14 alternately, the main camera image and the sub camera by the acquisition unit 40 can be connected. It may be in a form that enables acquisition with a camera image. In the case of this form, the main camera image and the sub camera image acquired by the acquisition unit 40 are not moving images captured in real time, so that the recommended bird's-eye view and the actual position bird's-eye view generated by the generation unit 42 are It may not be a bird's-eye view according to the real-time state.


なお、上記各実施形態では、撮影対象Sの撮影にユーザが用いる撮像装置がメインカメラ12及びサブカメラ14の2台である形態について説明したが、撮影に用いる撮像装置の数に制限はない。また、上記各実施形態では、メインカメラ画像及びサブカメラ画像が動画像である形態について説明したが、メインカメラ画像及びサブカメラ画像の少なくとも一方が静止画像であってもよい。

In each of the above embodiments, two image pickup devices, a main camera 12 and a sub camera 14, used by the user for shooting the shooting target S have been described, but the number of image pickup devices used for shooting is not limited. Further, in each of the above embodiments, the mode in which the main camera image and the sub camera image are moving images has been described, but at least one of the main camera image and the sub camera image may be a still image.


上記各実施形態において、例えば取得部40、生成部42、表示制御部44、及び受付部46、及び指定部47といった各種の処理を実行する処理部(processing unit)のハードウェア的な構造としては、次に示す各種のプロセッサ(processor)を用いることができる。上記各種のプロセッサには、上述したように、ソフトウェア(プログラム)を実行して各種の処理部として機能する汎用的なプロセッサであるCPUに加えて、FPGA(Field Programmable Gate Array)等の製造後に回路構成を変更可能なプロセッサであるプログラマブルロジックデバイス(Programmable Logic Device :PLD)、ASIC(Application Specific Integrated Circuit)等の特定の処理を実行させるために専用に設計された回路構成を有するプロセッサである専用電気回路などが含まれる。

In each of the above embodiments, the hardware structure of the processing unit that executes various processes such as the acquisition unit 40, the generation unit 42, the display control unit 44, the reception unit 46, and the designation unit 47 , The following various processors can be used. As described above, the various processors include CPUs, which are general-purpose processors that execute software (programs) and function as various processing units, as well as circuits after manufacturing FPGAs (Field Programmable Gate Arrays) and the like. Dedicated electricity, which is a processor having a circuit configuration specially designed to execute a specific process such as a programmable logic device (PLD), which is a processor whose configuration can be changed, and an ASIC (Application Specific Integrated Circuit). Circuits etc. are included.


1つの処理部は、これらの各種のプロセッサのうちの1つで構成されてもよいし、同種または異種の2つ以上のプロセッサの組み合わせ(例えば、複数のFPGAの組み合わせや、CPUとFPGAとの組み合わせ)で構成されてもよい。また、複数の処理部を1つのプロセッサで構成してもよい。

複数の処理部を1つのプロセッサで構成する例としては、第1に、クライアント及びサーバ等のコンピュータに代表されるように、1つ以上のCPUとソフトウェアの組み合わせで1つのプロセッサを構成し、このプロセッサが複数の処理部として機能する形態が挙げられる。第2に、システムオンチップ(System On Chip:SoC)等に代表されるように、複数の処理部を含むシステム全体の機能を1つのIC(Integrated Circuit)チップで実現するプロセッサを使用する形態が挙げられる。このように、各種の処理部は、ハードウェア的な構造として、上記各種のプロセッサの1つ以上を用いて構成される。

One processing unit may be composed of one of these various processors, or a combination of two or more processors of the same type or different types (for example, a combination of a plurality of FPGAs or a combination of a CPU and an FPGA). It may be composed of a combination). Further, a plurality of processing units may be configured by one processor.

As an example of configuring a plurality of processing units with one processor, first, one processor is configured by a combination of one or more CPUs and software, as represented by a computer such as a client and a server. An example is a form in which a processor functions as a plurality of processing units. Secondly, as typified by System On Chip (SoC), there is a form in which a processor that realizes the functions of the entire system including a plurality of processing units with one IC (Integrated Circuit) chip is used. Can be mentioned. As described above, the various processing units are configured by using one or more of the above-mentioned various processors as a hardware structure.


さらに、これらの各種のプロセッサのハードウェア的な構造としては、より具体的には、半導体素子等の回路素子を組み合わせた電気回路(circuitry)を用いることができる。

Further, as the hardware structure of these various processors, more specifically, an electric circuit (circuitry) in which circuit elements such as semiconductor elements are combined can be used.


また、上記実施形態では、撮影支援プログラム30が記憶部22に予め記憶(インストール)されている態様を説明したが、これに限定されない。撮影支援プログラム30は、CD−ROM(Compact Disk Read Only Memory)、DVD−ROM(Digital Versatile Disk Read Only Memory)、及びUSB(Universal Serial Bus)メモリ等の記録媒体に記録された形態で提供されてもよい。また、撮影支援プログラム30は、ネットワークを介して外部装置からダウンロードされる形態としてもよい。

Further, in the above embodiment, the embodiment in which the photographing support program 30 is stored (installed) in the storage unit 22 in advance has been described, but the present invention is not limited to this. The shooting support program 30 is provided in a form recorded on a recording medium such as a CD-ROM (Compact Disk Read Only Memory), a DVD-ROM (Digital Versatile Disk Read Only Memory), and a USB (Universal Serial Bus) memory. May be good. Further, the shooting support program 30 may be downloaded from an external device via a network.


本明細書に記載された全ての文献、特許出願及び技術規格は、個々の文献、特許出願及び技術規格が参照により取り込まれることが具体的かつ個々に記された場合と同程度に、本明細書中に参照により取り込まれる。

All documents, patent applications and technical standards described herein are to the same extent as if the individual documents, patent applications and technical standards were specifically and individually stated to be incorporated by reference. Incorporated by reference in the book.


10 撮像システム

12 メインカメラ

14 サブカメラ

16 撮影支援装置

20 CPU

21 メモリ

22 記憶部

23 表示部

24 操作部

26 外部I/F

29 バス

30 撮影支援プログラム

40 取得部

42 生成部

44 表示制御部

46 受付部

47 指定部

50、50A、50B、50C 推奨用俯瞰図

52 実位置俯瞰図

60、62、63、64、65 アイコン

70 メインカメラ画像

72 サブカメラ画像

73 推定撮像画像

S 撮影対象

10 Imaging system

12 Main camera

14 Sub camera

16 Shooting support device

20 CPU

21 memory

22 Memory

23 Display

24 Operation unit

26 External I / F

29 bus

30 Shooting support program

40 Acquisition department

42 Generator

44 Display control unit

46 Reception

47 Designated part

50, 50A, 50B, 50C Recommended bird's-eye view

52 Real position bird's-eye view

60, 62, 63, 64, 65 icons

70 Main camera image

72 Sub camera image

73 Estimated captured image

S Shooting target

Claims (16)


特定の撮影対象を撮像する複数の撮像装置のうちの予め定められた撮像装置により撮像された撮像画像を取得する取得部と、

前記取得部が取得した撮像画像に含まれる前記撮影対象の画像に基づいて、前記複数の撮像装置の各々及び前記撮影対象の、前記撮影対象を撮影するために推奨される相対的な位置関係を表す推奨用の俯瞰図を生成する生成部と、

前記生成部が生成した前記推奨用の俯瞰図を表示部に表示させる制御を行う表示制御部と、

を備えた撮影支援装置。

An acquisition unit that acquires an image captured by a predetermined imaging device among a plurality of imaging devices that capture a specific image target, and an acquisition unit.

Based on the image of the shooting target included in the captured image acquired by the acquisition unit, the relative positional relationship recommended for shooting the shooting target of each of the plurality of imaging devices and the shooting target is determined. A generator that generates a recommended bird's-eye view to represent

A display control unit that controls the display to display the recommended bird's-eye view generated by the generation unit.

Shooting support device equipped with.

前記生成部は、前記予め定められた撮像装置を基準とした場合に推奨される、前記予め定められた撮像装置と異なる撮像装置の相対的な前記位置関係を表す前記推奨用の俯瞰図を生成する、

請求項1に記載の撮影支援装置。

The generation unit generates the recommended bird's-eye view showing the relative positional relationship of the imaging device different from the predetermined imaging device, which is recommended when the predetermined imaging device is used as a reference. To do,

The shooting support device according to claim 1.

前記取得部は、前記複数の撮像装置の各々により撮像された撮像画像を取得し、

前記生成部は、前記取得部が取得した撮像画像の各々に含まれる前記撮影対象の画像に基づいて、前記複数の撮像装置の各々及び前記撮影対象の、前記撮影対象の撮影が行われた相対的な位置関係を表す実際の位置の俯瞰図をさらに生成する、

請求項1または請求項2に記載の撮影支援装置。

The acquisition unit acquires an image captured by each of the plurality of image pickup devices, and obtains an image captured.

Based on the image of the image to be photographed included in each of the captured images acquired by the acquisition unit, the generation unit is relative to each of the plurality of imaging devices and the image to be photographed. Further generate a bird's-eye view of the actual position that represents the typical positional relationship,

The photographing support device according to claim 1 or 2.

前記表示制御部は、前記推奨用の俯瞰図と、前記実際の位置の俯瞰図とを重畳させた状態で、前記表示部に表示させる制御を行う、

請求項3に記載の撮影支援装置。

The display control unit controls the display unit to display the recommended bird's-eye view and the bird's-eye view of the actual position in a superposed state.

The shooting support device according to claim 3.

前記生成部は、前記撮像画像を解析して得られる、前記撮影対象の大きさに関する情報、前記撮影対象の位置に関する情報、及び前記撮影対象の向きに関する情報のうちの少なくとも一つの情報に基づいて、前記推奨用の俯瞰図を生成する、

請求項1から請求項4のいずれか1項に記載の撮影支援装置。

The generation unit is based on at least one of information about the size of the shooting target, information about the position of the shooting target, and information about the orientation of the shooting target, which is obtained by analyzing the captured image. , Generate a bird's-eye view for the recommendations,

The photographing support device according to any one of claims 1 to 4.

前記生成部は、前記撮像画像を解析して得られる、前記撮影対象の大きさに関する情報、前記撮影対象の位置に関する情報、及び前記撮影対象の向きに関する情報のうちの少なくとも一つの情報に基づいて、前記推奨用の俯瞰図及び前記実際の位置の俯瞰図を生成する、

請求項3または請求項4に記載の撮影支援装置。

The generation unit is based on at least one of information about the size of the shooting target, information about the position of the shooting target, and information about the orientation of the shooting target, which is obtained by analyzing the captured image. Generates the recommended bird's-eye view and the bird's-eye view of the actual position.

The photographing support device according to claim 3 or 4.

前記取得部は、前記複数の撮像装置の各々により撮像された撮像画像を取得し、

前記表示制御部は、前記生成部が生成した前記推奨用の俯瞰図と、前記取得部が取得した前記複数の撮像装置の各々により撮像された撮像画像のうちの少なくとも一つの撮像画像とを前記表示部に表示させる制御を行う、

請求項1から請求項6のいずれか1項に記載の撮影支援装置。

The acquisition unit acquires an image captured by each of the plurality of image pickup devices, and obtains an image captured.

The display control unit captures the recommended bird's-eye view generated by the generation unit and at least one image captured by each of the plurality of image pickup devices acquired by the acquisition unit. Control the display on the display unit,

The photographing support device according to any one of claims 1 to 6.

前記取得部は、前記複数の撮像装置の各々により撮像された撮像画像を取得し、

前記表示制御部は、前記生成部が生成した前記推奨用の俯瞰図及び前記実際の位置の俯瞰図と、前記取得部が取得した前記複数の撮像装置の各々により撮像された撮像画像のうちの少なくとも一つの撮像画像とを前記表示部に表示させる制御を行う、

請求項3、請求項4または請求項6に記載の撮影支援装置。

The acquisition unit acquires an image captured by each of the plurality of image pickup devices, and obtains an image captured.

The display control unit is among the recommended bird's-eye view and the bird's-eye view of the actual position generated by the generation unit and the captured images captured by each of the plurality of imaging devices acquired by the acquisition unit. Control is performed to display at least one captured image on the display unit.

The photographing support device according to claim 3, claim 4, or claim 6.

前記表示部に表示させる撮像画像を、前記複数の撮像装置の各々により撮像された撮像画像のうちの、いずれの撮像画像とするかの指定を受け付ける受付部をさらに備え、

前記表示制御部は、前記受付部が指定を受け付けた撮像画像を、前記表示部に表示させる制御を行う、

請求項7または請求項8に記載の撮影支援装置。

A reception unit that accepts designation of which of the captured images captured by each of the plurality of imaging devices is to be the captured image to be displayed on the display unit is further provided.

The display control unit controls the display unit to display the captured image for which the reception unit has received the designation.

The photographing support device according to claim 7 or 8.

前記表示制御部が前記表示部に表示させた前記推奨用の俯瞰図に対して、前記推奨用の俯瞰図に示される前記複数の撮像装置の各々における位置及び向きの少なくとも一方について、変更後の状態が指定される指定部をさらに備え、

前記生成部は、前記変更後の状態において前記複数の撮像装置の各々によって撮像されると推定される推定撮像画像をさらに生成し、

前記表示制御部は、前記生成部が生成した前記推定撮像画像を前記表示部に表示させる制御を行う、

請求項1から請求項9のいずれか1項に記載の撮影支援装置。

With respect to the recommended bird's-eye view displayed on the display by the display control unit, at least one of the positions and orientations of each of the plurality of imaging devices shown in the recommended bird's-eye view has been changed. It also has a designated part where the state is specified,

The generation unit further generates an estimated captured image that is estimated to be captured by each of the plurality of imaging devices in the changed state.

The display control unit controls the display unit to display the estimated captured image generated by the generation unit.

The photographing support device according to any one of claims 1 to 9.

前記表示制御部が前記表示部に表示させた前記推奨用の俯瞰図または前記実際の位置の俯瞰図に対して、前記推奨用の俯瞰図または前記実際の位置の俯瞰図に示される前記複数の撮像装置の各々における位置及び向きの少なくとも一方について、変更後の状態が指定される指定部をさらに備え、

前記生成部は、前記変更後の状態において前記複数の撮像装置の各々によって撮像されると推定される推定撮像画像をさらに生成し、

前記表示制御部は、前記生成部が生成した前記推定撮像画像を前記表示部に表示させる制御を行う、

請求項3、請求項4、請求項6または請求項8に記載の撮影支援装置。

The plurality of said bird's-eye views shown in the recommended bird's-eye view or the actual position bird's-eye view with respect to the recommended bird's-eye view or the bird's-eye view of the actual position displayed on the display unit by the display control unit. Further, a designation unit for designating the changed state for at least one of the position and the orientation in each of the image pickup devices is provided.

The generation unit further generates an estimated captured image that is estimated to be captured by each of the plurality of imaging devices in the changed state.

The display control unit controls the display unit to display the estimated captured image generated by the generation unit.

The photographing support device according to claim 3, claim 4, claim 6 or claim 8.

前記撮影対象の撮影が行われた相対的な位置関係を表す情報を記憶する記憶部をさらに備える、

請求項1から請求項11のいずれか1項に記載の撮影支援装置。

A storage unit that stores information representing the relative positional relationship in which the image to be photographed was taken is further provided.

The photographing support device according to any one of claims 1 to 11.

前記予め定められた撮像装置は、前記撮影対象の撮影に主として用いられるメインカメラである、

請求項1から請求項12のいずれか1項に記載の撮影支援装置。

The predetermined imaging device is a main camera mainly used for photographing the imaged object.

The photographing support device according to any one of claims 1 to 12.

前記撮像画像は動画像である、

請求項1から請求項13のいずれか1項に記載の撮影支援装置。

The captured image is a moving image.

The photographing support device according to any one of claims 1 to 13.

特定の撮影対象を撮影する複数の撮像装置のうちの予め定められた撮像装置により撮像された撮像画像を取得し、

取得した撮像画像に含まれる前記撮影対象の画像に基づいて、前記複数の撮像装置の各々及び前記撮影対象の、前記撮影対象を撮影するために推奨される相対的な位置関係を表す推奨用の俯瞰図を生成し、

生成した前記俯瞰図を表示部に表示させる制御を行う、

処理をコンピュータが実行する撮影支援方法。

Acquires an captured image captured by a predetermined imaging device among a plurality of imaging devices that capture a specific shooting target, and obtains the captured image.

Based on the image of the image to be photographed included in the acquired image, the recommended relative positional relationship between each of the plurality of image pickup devices and the object to be photographed is recommended for photographing the object to be photographed. Generate a bird's-eye view and

Controls to display the generated bird's-eye view on the display unit.

A shooting support method in which a computer executes processing.

特定の撮影対象を撮影する複数の撮像装置のうちの予め定められた撮像装置により撮像された撮像画像を取得し、

取得した撮像画像に含まれる前記撮影対象の画像に基づいて、前記複数の撮像装置の各々及び前記撮影対象の、前記撮影対象を撮影するために推奨される相対的な位置関係を表す推奨用の俯瞰図を生成し、

生成した前記俯瞰図を表示部に表示させる制御を行う、

処理をコンピュータに実行させるための撮影支援プログラム。

Acquires an captured image captured by a predetermined imaging device among a plurality of imaging devices that capture a specific shooting target, and obtains the captured image.

Based on the image of the image to be photographed included in the acquired image, the recommended relative positional relationship between each of the plurality of image pickup devices and the object to be photographed is recommended for photographing the object to be photographed. Generate a bird's-eye view and

Controls to display the generated bird's-eye view on the display unit.

A shooting support program that allows a computer to perform processing.
JP2020525302A 2018-06-11 2019-04-18 Shooting support device, shooting support method, and shooting support program Active JP6841977B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2021024603A JP7416736B2 (en) 2018-06-11 2021-02-18 Photography support device, photography support method, and photography support program
JP2024000277A JP2024026625A (en) 2018-06-11 2024-01-04 Photography support device, photography support method, and photography support program

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2018111460 2018-06-11
JP2018111460 2018-06-11
PCT/JP2019/016696 WO2019239717A1 (en) 2018-06-11 2019-04-18 Imaging assistance device, imaging assistance method, and imaging assistance program

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2021024603A Division JP7416736B2 (en) 2018-06-11 2021-02-18 Photography support device, photography support method, and photography support program

Publications (2)

Publication Number Publication Date
JP6841977B2 true JP6841977B2 (en) 2021-03-10
JPWO2019239717A1 JPWO2019239717A1 (en) 2021-04-01

Family

ID=68843177

Family Applications (3)

Application Number Title Priority Date Filing Date
JP2020525302A Active JP6841977B2 (en) 2018-06-11 2019-04-18 Shooting support device, shooting support method, and shooting support program
JP2021024603A Active JP7416736B2 (en) 2018-06-11 2021-02-18 Photography support device, photography support method, and photography support program
JP2024000277A Pending JP2024026625A (en) 2018-06-11 2024-01-04 Photography support device, photography support method, and photography support program

Family Applications After (2)

Application Number Title Priority Date Filing Date
JP2021024603A Active JP7416736B2 (en) 2018-06-11 2021-02-18 Photography support device, photography support method, and photography support program
JP2024000277A Pending JP2024026625A (en) 2018-06-11 2024-01-04 Photography support device, photography support method, and photography support program

Country Status (2)

Country Link
JP (3) JP6841977B2 (en)
WO (1) WO2019239717A1 (en)

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3201533B2 (en) * 1991-08-19 2001-08-20 日本電信電話株式会社 Presentation method of video and its shooting information
JP4664897B2 (en) * 2006-12-25 2011-04-06 日本放送協会 Shooting shot candidate setting device and shooting shot candidate setting program
JP6163899B2 (en) * 2013-06-11 2017-07-19 ソニー株式会社 Information processing apparatus, imaging apparatus, information processing method, and program
JP6187811B2 (en) * 2013-09-09 2017-08-30 ソニー株式会社 Image processing apparatus, image processing method, and program
JP6619927B2 (en) * 2014-10-24 2019-12-11 株式会社日立製作所 Calibration device

Also Published As

Publication number Publication date
JP7416736B2 (en) 2024-01-17
JP2024026625A (en) 2024-02-28
JP2021083117A (en) 2021-05-27
JPWO2019239717A1 (en) 2021-04-01
WO2019239717A1 (en) 2019-12-19

Similar Documents

Publication Publication Date Title
JP6733267B2 (en) Information processing program, information processing method, and information processing apparatus
TWI434567B (en) An image processing apparatus, an image processing method, an image processing program, and a recording medium
JP4752918B2 (en) Image processing apparatus, image collation method, and program
JP6789624B2 (en) Information processing device, information processing method
US10771761B2 (en) Information processing apparatus, information processing method and storing unit
CN107229274B (en) Position indication method, terminal device, self-propelled device, and program
JP7406875B2 (en) Information processing equipment and programs
CN102348065A (en) Method and apparatus for photographing panoramic image
JP2010141697A (en) Imaging apparatus
WO2021200432A1 (en) Imaging instruction method, imaging method, imaging instruction device, and imaging device
CN106797429A (en) Control device, the methods and procedures being controlled to control device
JP6828708B2 (en) Control device, surveillance system, and surveillance camera control method
JP2020053774A (en) Imaging apparatus and image recording method
JP6544996B2 (en) Control device and control method
JP6714110B2 (en) Position measuring device and position measuring method
JP2022027804A (en) Information processing apparatus, information processing system, information processing method, and program
JP6841977B2 (en) Shooting support device, shooting support method, and shooting support program
JP2018173924A (en) Image output program, image output method and image output apparatus
JP6625654B2 (en) Projection device, projection method, and program
JP2017046106A (en) Imaging apparatus, imaging method, and imaging program
JP2019144958A (en) Image processing device, image processing method, and program
CN112969963B (en) Information processing apparatus, control method thereof, and storage medium
JP2012068062A (en) Alignment device, alignment system and alignment program
JP2020005111A (en) Information processing apparatus, control method, and program
JP6257798B2 (en) Image processing apparatus and image processing method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201211

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20201211

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20210107

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210119

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210218

R150 Certificate of patent or registration of utility model

Ref document number: 6841977

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250