JP2017152931A - Photographing system and program - Google Patents

Photographing system and program Download PDF

Info

Publication number
JP2017152931A
JP2017152931A JP2016033634A JP2016033634A JP2017152931A JP 2017152931 A JP2017152931 A JP 2017152931A JP 2016033634 A JP2016033634 A JP 2016033634A JP 2016033634 A JP2016033634 A JP 2016033634A JP 2017152931 A JP2017152931 A JP 2017152931A
Authority
JP
Japan
Prior art keywords
image data
camera
subject
processing unit
cameras
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016033634A
Other languages
Japanese (ja)
Inventor
淳 高嶋
Atsushi Takashima
淳 高嶋
圭昭 鍛冶屋敷
Yoshiaki Kajiyashiki
圭昭 鍛冶屋敷
將史 大橋
Masashi Ohashi
將史 大橋
Original Assignee
株式会社Tbwa Hakuhodo
Tbwa Hakuhodo Inc
株式会社Tbwa Hakuhodo
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社Tbwa Hakuhodo, Tbwa Hakuhodo Inc, 株式会社Tbwa Hakuhodo filed Critical 株式会社Tbwa Hakuhodo
Priority to JP2016033634A priority Critical patent/JP2017152931A/en
Publication of JP2017152931A publication Critical patent/JP2017152931A/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B15/00Special procedures for taking photographs; Apparatus therefor
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B17/00Details of cameras or camera bodies; Accessories therefor
    • G03B17/38Releasing-devices separate from shutter
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B37/00Panoramic or wide-screen photography; Photographing extended surfaces, e.g. for surveying; Photographing internal surfaces, e.g. of pipe
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment ; Cameras comprising an electronic image sensor, e.g. digital cameras, video cameras, TV cameras, video cameras, camcorders, webcams, camera modules for embedding in other devices, e.g. mobile phones, computers or vehicles
    • H04N5/225Television cameras ; Cameras comprising an electronic image sensor, e.g. digital cameras, video cameras, camcorders, webcams, camera modules specially adapted for being embedded in other devices, e.g. mobile phones, computers or vehicles
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment ; Cameras comprising an electronic image sensor, e.g. digital cameras, video cameras, TV cameras, video cameras, camcorders, webcams, camera modules for embedding in other devices, e.g. mobile phones, computers or vehicles
    • H04N5/225Television cameras ; Cameras comprising an electronic image sensor, e.g. digital cameras, video cameras, camcorders, webcams, camera modules specially adapted for being embedded in other devices, e.g. mobile phones, computers or vehicles
    • H04N5/232Devices for controlling television cameras, e.g. remote control ; Control of cameras comprising an electronic image sensor
    • H04N5/23203Remote-control signaling for television cameras, cameras comprising an electronic image sensor or for parts thereof, e.g. between main body and another part of camera
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment ; Cameras comprising an electronic image sensor, e.g. digital cameras, video cameras, TV cameras, video cameras, camcorders, webcams, camera modules for embedding in other devices, e.g. mobile phones, computers or vehicles
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/272Means for inserting a foreground image in a background image, i.e. inlay, outlay

Abstract

PROBLEM TO BE SOLVED: To generate photographed image data in which a subject is clearly recognizable against a grand background.SOLUTION: A photographing system (1) comprises one or more cameras (21, 22, 23) for photographing a subject and generating image data that represents the photographed image of the subject, according to instructions from a remote control device. The photographing system (1) generates, on the basis of image data from the one or more cameras, moving-image data in which the subject is photographed and which includes at least one of a moving image that zooms in on the subject and a moving image that zooms out from the subject, and a still-image data set that is a set of still-image data in which the subject is photographed and which is different in angle of view. Alternatively, the photographing system (1) synthesizes image data that represents the photographed image of the subject generated by one camera and previously recorded background image data, thereby generating synthesized image data in which the subject is clearly recognizable against a grand background.SELECTED DRAWING: Figure 1

Description

本開示は、撮影システムに関する。   The present disclosure relates to an imaging system.
近年、カメラ付き携帯電話や安価で小型なディジタルカメラの普及により、撮影者が自身を撮影すること、所謂自撮りが広く行われている。
一般の撮影者のカメラによっては撮影することができない写真撮影をするために、水族館において、水槽内に、水槽を通して水槽外のゲストを撮影するためのカメラを配置し、カメラを遠隔制御して、水槽外のゲストを撮影する撮影システムもまた知られている(例えば特許文献1参照)。
In recent years, with the spread of camera-equipped mobile phones and inexpensive and small digital cameras, so-called self-photographing has been widely performed by photographers.
In order to take a photo that cannot be taken by a general photographer's camera, in the aquarium, a camera for photographing guests outside the aquarium through the aquarium is placed in the aquarium, and the camera is remotely controlled. An imaging system for imaging a guest outside the aquarium is also known (see, for example, Patent Document 1).
特開2015−144369号公報Japanese Patent Laying-Open No. 2015-144369
ところで、人は、壮大な景観を目にしたとき、この壮大な景観を自身と共に写した写真を撮りたいと考えることが多い。しかしながら、自撮りでは、カメラから撮影者までの距離が近いために、壮大な景観をフレーム内に収めることが難しい。従って、自撮りでは、撮影者が満足する写真を撮ることが難しい。   By the way, when people see a magnificent landscape, they often want to take a picture of this magnificent landscape with themselves. However, since the distance from the camera to the photographer is short in the self-photographing, it is difficult to fit a magnificent landscape in the frame. Therefore, it is difficult for the photographer to take a photo that satisfies the photographer.
一方、三脚を用いてカメラ撮影する場合には、三脚を用いずに撮影者が自身の手でカメラを持って自撮りする場合よりも、壮大な景観をフレーム内に収めてカメラ撮影することができる。しかしながら、三脚を用いた撮影は、撮影者が三脚を持ち運ぶ必要がある。即ち、三脚を用いた遠隔撮影は、一般の者にとって手軽なものではない。   On the other hand, when shooting with a camera using a tripod, it is possible to shoot a camera with a magnificent landscape within the frame, rather than when the photographer takes a camera with his / her hand without using a tripod. it can. However, shooting using a tripod requires the photographer to carry the tripod. That is, remote shooting using a tripod is not easy for the general public.
また、三脚を用いた遠隔撮影を行うにしても壮大な景観をフレーム内に収めるには限界がある。更に言えば、壮大な景観をフレーム内に収めてカメラ撮影をする場合には、人が小さく低解像度で撮影されてしまう。   In addition, there is a limit to fit a spectacular landscape within the frame even when performing remote photography using a tripod. Furthermore, when a magnificent landscape is put in a frame and taken by a camera, a person is taken with a small and low resolution.
そこで、本開示の一側面によれば、壮大な背景の中に被写体を明瞭に認知可能な撮影画像データを生成可能な技術を提供できることが望ましい。   Therefore, according to one aspect of the present disclosure, it is desirable to be able to provide a technique capable of generating captured image data that can clearly recognize a subject in a magnificent background.
本開示の一側面に係る撮影システムは、カメラと、記憶ユニットと、画像処理ユニットと、を備える。カメラは、遠隔操作装置からの命令に従って、被写体を撮影し、被写体の撮影画像を表す画像データを生成する。記憶ユニットは、カメラが撮影可能な被写体の背景よりも広域の背景の撮影画像を表す背景画像データを記憶する。この背景画像データは、広域の背景を区画毎に撮影して生成された背景画像データであり得る。   An imaging system according to one aspect of the present disclosure includes a camera, a storage unit, and an image processing unit. The camera captures a subject according to a command from the remote control device, and generates image data representing a captured image of the subject. The storage unit stores background image data representing a captured image of a background that is wider than the background of the subject that can be captured by the camera. The background image data may be background image data generated by photographing a wide background for each section.
画像処理ユニットは、カメラが生成した画像データが表す被写体の撮影画像を、記憶ユニットが記憶する背景画像データが表す背景の撮影画像に合成することによって、広域の背景に被写体の撮影画像を配置した合成画像データを生成するように構成される。   The image processing unit arranges the photographed image of the subject on the wide background by combining the photographed image of the subject represented by the image data generated by the camera with the photographed image of the background represented by the background image data stored in the storage unit. It is configured to generate composite image data.
この撮影システムによれば、カメラで目的の被写体を高解像度に撮影し、この撮影画像データを用いて、被写体の周囲に壮大な背景を含む合成画像データを生成することができる。従って、この撮影システムによれば、壮大な背景の中に被写体を明瞭に認知可能な画像データを生成可能である。   According to this photographing system, it is possible to photograph a target subject with a camera at high resolution, and to generate composite image data including a magnificent background around the subject using the photographed image data. Therefore, according to this photographing system, it is possible to generate image data that can clearly recognize a subject in a magnificent background.
本開示の一側面によれば、画像処理ユニットは、上記合成画像データを用いて、被写体が写る動画データであって被写体にズームインする動画及び被写体からズームアウトする動画の少なくとも一方を含む動画データ、並びに、被写体が写る静止画データであって画角の異なる静止画データの集合である静止画データセットの少なくとも一方を、処理画像データとして生成するように構成されてもよい。   According to one aspect of the present disclosure, the image processing unit uses the composite image data, and includes moving image data that includes at least one of a moving image data in which a subject is captured and a moving image that zooms in on the subject and a moving image that zooms out from the subject, In addition, at least one of still image data sets that are still image data in which a subject is captured and that is a set of still image data having different angles of view may be generated as processed image data.
本開示の一側面によれば、例えば、上述した処理画像データを被写体に対応するユーザに提供することによって、ユーザにとって扱いやすい又は楽しみやすい被写体の撮影画像データを、被写体に対応するユーザに提供することができる。   According to one aspect of the present disclosure, for example, by providing the processed image data described above to a user corresponding to a subject, the captured image data of a subject that is easy to handle or enjoy for the user is provided to the user corresponding to the subject. be able to.
本開示の一側面によれば、撮影システムは、カメラに接続される通信ユニットであって、カメラが生成した画像データを、広域ネットワークを通じて画像処理ユニットに送信する通信ユニットを備えていてもよい。画像処理ユニットは、記憶ユニットと共にカメラとは離れて配置されてもよい。画像処理ユニットは、広域ネットワークを通じてカメラが生成した画像データを取得し、当該取得した画像データと記憶ユニットが記憶する背景画像データとを用いて、合成画像データを生成するように構成され得る。   According to one aspect of the present disclosure, the imaging system may include a communication unit that is connected to the camera and that transmits image data generated by the camera to the image processing unit through a wide area network. The image processing unit may be arranged apart from the camera together with the storage unit. The image processing unit may be configured to acquire image data generated by a camera through a wide area network, and generate composite image data using the acquired image data and background image data stored in the storage unit.
本開示の一側面によれば、複数の撮影地に設置されたカメラに対して、共通する画像処理ユニットが設けられてもよい。画像処理ユニットは、広域ネットワークを通じて、各撮影地のカメラから画像データを取得するように構成され得る。   According to one aspect of the present disclosure, a common image processing unit may be provided for cameras installed in a plurality of shooting locations. The image processing unit may be configured to acquire image data from a camera at each shooting location through a wide area network.
本開示の別側面によれば、遠隔操作装置からの命令に従って動作するカメラの一群であって、被写体を背景と共に撮影し、その撮影画像を表す静止画データである狭域画像データを生成する狭域カメラと、狭域カメラが被写体と共に撮影する背景よりも広域の背景を撮影し、その撮影画像を表す静止画データである広域画像データを生成する一つ以上の広域カメラと、を含むカメラの一群と、画像処理ユニットと、を備える撮影システムが提供されてもよい。   According to another aspect of the present disclosure, a group of cameras that operate according to a command from a remote control device, capture a subject together with a background, and generate narrow-area image data that is still image data representing the captured image. A wide-area camera and one or more wide-area cameras that capture a wide-area background than the background captured by the narrow-area camera together with the subject and generate wide-area image data that is still image data representing the captured image. An imaging system including a group and an image processing unit may be provided.
画像処理ユニットは、カメラの一群が生成した狭域画像データと広域画像データとを用いて、被写体が写る動画データであって被写体にズームインする動画及び被写体からズームアウトする動画の少なくとも一方を含む動画データ、並びに、被写体が写る静止画データであって画角の異なる静止画データの集合である静止画データセットの少なくとも一方を、処理画像データとして生成するように構成され得る。この撮影システムによっても、壮大な背景の中に被写体を明瞭に認知可能な画像データを生成可能である。   The image processing unit uses the narrow-area image data and the wide-area image data generated by a group of cameras, and includes at least one of a moving-image data in which the subject is captured and a moving-image that zooms in on the subject and a moving-image that zooms out from the subject Data and at least one of still image data that is a set of still image data with different angles of view, which is still image data in which the subject is captured, may be generated as processed image data. Even with this photographing system, it is possible to generate image data that allows a subject to be clearly recognized in a magnificent background.
この撮影システムには、上記カメラの一群に接続される通信ユニットであって、カメラの一群が生成した狭域画像データと広域画像データとを、広域ネットワークを通じて画像処理ユニットに送信する通信ユニットが設けられてもよい。画像処理ユニットは、カメラの一群とは離れて配置されて、広域ネットワークを通じてカメラの一群が生成した狭域画像データと広域画像データとを取得し、当該取得した狭域画像データと広域画像データとを用いて、上記処理画像データを生成するように構成されてもよい。   The photographing system includes a communication unit that is connected to the group of cameras and transmits the narrow area image data and the wide area image data generated by the group of cameras to the image processing unit through the wide area network. May be. The image processing unit is arranged apart from the group of cameras, acquires the narrow area image data and the wide area image data generated by the group of cameras through the wide area network, and acquires the acquired narrow area image data and the wide area image data May be used to generate the processed image data.
画像処理ユニットは、上記処理画像データを、被写体と対応付けられたユーザ端末、及び、上記遠隔操作装置の少なくとも一方に配信するように構成されてもよい。遠隔操作装置は、被写体に対応するユーザが所持又は所有する通信端末であり得る。この場合、画像処理ユニットは、上記通信端末に、生成した処理画像データを配信するように構成され得る。画像処理ユニットは、上記処理画像データを、被写体に対応するユーザがアクセス可能なサーバ装置に格納するように構成されてもよい。   The image processing unit may be configured to distribute the processed image data to at least one of the user terminal associated with the subject and the remote operation device. The remote control device may be a communication terminal possessed or owned by a user corresponding to the subject. In this case, the image processing unit may be configured to distribute the generated processed image data to the communication terminal. The image processing unit may be configured to store the processed image data in a server device accessible by a user corresponding to the subject.
撮影システムの使用を制限するために、撮影システムは、被写体に対応するユーザに対して認証コードを発行するように構成されてもよい。例えば、撮影システムは、被写体に対応するユーザに対して認証コードを発行し、発行した認証コードが入力されたことを条件に、遠隔操作装置からの命令を受け付けて、カメラを作動させる作動制御ユニットを備えた構成にされ得る。カメラは、作動制御ユニットに制御されて動作し、被写体を撮影するように構成され得る。   In order to restrict the use of the imaging system, the imaging system may be configured to issue an authentication code to a user corresponding to the subject. For example, the photographing system issues an authentication code to a user corresponding to the subject, and receives an instruction from the remote operation device on condition that the issued authentication code is input, and activates the camera. It can be set as the structure provided with. The camera may be configured to operate under the control of the operation control unit and to capture a subject.
この作動制御ユニットと画像処理ユニットとしての機能は、共通するサーバ装置で実現されてもよい。
本開示の一側面によれば、撮影システムが備える上記画像処理ユニットとしての機能を、コンピュータに実現させるためのプログラムが提供されてもよい。本開示の一側面によれば、撮影システムが備える上記作動制御ユニットとしての機能を、コンピュータに実現させるためのプログラムが提供されてもよい。本開示の一側面によれば、これらのプログラムの一つ以上を記憶するコンピュータ読取可能な一時的でない記録媒体が提供されてもよい。
The functions as the operation control unit and the image processing unit may be realized by a common server device.
According to one aspect of the present disclosure, a program for causing a computer to realize the function as the image processing unit included in the imaging system may be provided. According to one aspect of the present disclosure, a program for causing a computer to realize the function as the operation control unit included in the imaging system may be provided. According to one aspect of the present disclosure, a computer-readable non-transitory recording medium that stores one or more of these programs may be provided.
撮影スポットに対するカメラ配置を説明した図である。It is a figure explaining the camera arrangement | positioning with respect to an imaging | photography spot. カメラ間における撮影領域の関係を説明した図である。It is a figure explaining the relationship of the imaging region between cameras. 撮影システムの構成を表すブロック図である。It is a block diagram showing the structure of an imaging | photography system. 案内装置が実行する処理を表すフローチャートである。It is a flowchart showing the process which a guidance apparatus performs. サービス提供システムが実行する撮影制御処理を表すフローチャートである。It is a flowchart showing the imaging | photography control processing which a service provision system performs. ユーザ端末のディスプレイに表示される画面の遷移を説明した図である。It is the figure explaining the transition of the screen displayed on the display of a user terminal. サービス提供システムが実行する配信準備処理を表すフローチャートである。It is a flowchart showing the delivery preparation process which a service provision system performs. カメラ側システムの制御装置が実行する処理を表すフローチャートである。It is a flowchart showing the process which the control apparatus of a camera side system performs. 動画データの生成方法を説明した図である。It is a figure explaining the production | generation method of moving image data. 動画内容を例示する図である。It is a figure which illustrates animation content. サービス提供システムが実行する配信処理を表すフローチャートである。It is a flowchart showing the delivery process which a service provision system performs. 第二実施形態におけるカメラ側システムの構成を表すブロック図である。It is a block diagram showing the structure of the camera side system in 2nd embodiment. 第二実施形態においてカメラ側システムの制御装置が実行する処理を表すフローチャートである。It is a flowchart showing the process which the control apparatus of the camera side system performs in 2nd embodiment. 第二実施形態においてサービス提供システムが実行する配信準備処理を表すフローチャートである。It is a flowchart showing the delivery preparation process which a service provision system performs in 2nd embodiment. 第三実施形態のカメラ側システムの構成を表すブロック図である。It is a block diagram showing the structure of the camera side system of 3rd embodiment. 第三実施形態においてカメラ側システムの制御装置が実行する処理を表すフローチャートである。It is a flowchart showing the process which the control apparatus of the camera side system performs in 3rd embodiment. 第三実施形態における合成画像データの生成方法に関する説明図である。It is explanatory drawing regarding the production | generation method of the synthetic image data in 3rd embodiment. 第三実施形態においてサービス提供システムが実行する配信準備処理を表すフローチャートである。It is a flowchart showing the delivery preparation process which a service provision system performs in 3rd embodiment. 第三実施形態における動画データの生成方法を説明した図である。It is a figure explaining the production | generation method of the moving image data in 3rd embodiment.
本開示の例示的実施形態を、図面を参照して以下に説明する。
[第一実施形態]
本実施形態の撮影システム1は、観光地及び景勝地等で、壮大な景観に被写体であるユーザを明瞭に認知可能な撮影画像データ(動画/静止画)を生成し、ユーザに提供するように構成されたシステムである。
Exemplary embodiments of the present disclosure are described below with reference to the drawings.
[First embodiment]
The photographing system 1 of the present embodiment generates photographed image data (moving image / still image) that can clearly recognize a user who is a subject in a magnificent landscape at a sightseeing spot, a scenic spot, and the like, and provides it to the user. It is a configured system.
この撮影システム1は、図1に示すように、撮影スポットZの周辺においてユーザに対して撮影システム1の利用案内を行うための案内装置10を備え、ユーザを撮影するために、撮影スポットZから離れた場所に複数のカメラ21,22,23を備える。案内装置10は、撮影時のユーザの立ち位置である撮影ポイントから少し離れた場所で目立たないように設置される。   As shown in FIG. 1, the photographing system 1 includes a guide device 10 for guiding the user to use the photographing system 1 in the vicinity of the photographing spot Z, and from the photographing spot Z to photograph the user. A plurality of cameras 21, 22 and 23 are provided at remote locations. The guide device 10 is installed so as not to stand out at a position slightly away from the shooting point, which is the user's standing position at the time of shooting.
複数のカメラ21,22,23は、被写体TRと共に撮影される背景の領域サイズがカメラ21,22,23間で異なるように設置される。例えば、複数のカメラ21,22,23は、図1及び図2に示すように、互いに被写体TRから異なる距離に固定配置される。   The plurality of cameras 21, 22, and 23 are installed so that the background area size photographed together with the subject TR is different between the cameras 21, 22, and 23. For example, the plurality of cameras 21, 22, and 23 are fixedly arranged at different distances from the subject TR as shown in FIGS. 1 and 2.
図2に示す例によれば、複数のカメラ21,22,23の内、第1カメラ21は、被写体TRに最も近い位置に配置され、第2カメラ22は、第1カメラ21よりも被写体TRから離れた位置に配置され、第3カメラ23は、第2カメラ22よりも更に被写体TRから離れた位置に配置される。第2カメラ22は、第1カメラ21により撮影される背景を含む、当該背景よりも広い背景を撮影可能に配置される。第3カメラ23は、第2カメラ22により撮影される背景を含む、当該背景よりも広い背景を撮影可能に配置される。図2に示す矢印は、第1カメラ21、第2カメラ22、及び第3カメラ23による撮影範囲の関係を概念的に示す。   According to the example shown in FIG. 2, among the plurality of cameras 21, 22, and 23, the first camera 21 is disposed at a position closest to the subject TR, and the second camera 22 is more subject TR than the first camera 21. The third camera 23 is disposed at a position further away from the subject TR than the second camera 22 is. The second camera 22 is arranged so that a background wider than the background including the background photographed by the first camera 21 can be photographed. The third camera 23 is arranged so that a background wider than the background including the background photographed by the second camera 22 can be photographed. The arrows shown in FIG. 2 conceptually indicate the relationship between the shooting ranges of the first camera 21, the second camera 22, and the third camera 23.
図2に示す例によれば、これらのカメラ21,22,23は、三脚に固定される。好ましくは、これらのカメラ21,22,23は、レンズの高さ、向き、画角、及び倍率等の調整により、他のカメラ21,22,23が撮影画像内に写り込まないように設置される。   According to the example shown in FIG. 2, these cameras 21, 22, and 23 are fixed to a tripod. Preferably, these cameras 21, 22, and 23 are installed so that other cameras 21, 22, and 23 do not appear in the captured image by adjusting the height, direction, angle of view, magnification, and the like of the lens. The
本実施形態において、カメラ21,22,23の夫々は、個別の制御装置30に接続される。制御装置30は、遠隔で送信されてくる撮影命令に従って、対応するカメラ21,22,23を制御して、カメラ21,22,23に撮影動作を実行させ、その撮影画像を表す静止画データを、サービス提供システム60(図3参照)に送信するように構成される。サービス提供システム60は、撮影システム1を管理し、ユーザに対して各種サービスを提供する。   In the present embodiment, each of the cameras 21, 22, and 23 is connected to an individual control device 30. The control device 30 controls the corresponding cameras 21, 22, and 23 according to the imaging command transmitted remotely, causes the cameras 21, 22, and 23 to perform imaging operations, and obtains still image data representing the captured images. , Configured to transmit to the service providing system 60 (see FIG. 3). The service providing system 60 manages the photographing system 1 and provides various services to the user.
以下では、第1カメラ21による撮影画像を表す静止画データを、第1カメラ画像データとも表現し、第2カメラ22による撮影画像を表す静止画データを、第2カメラ画像データとも表現し、第3カメラ23による撮影画像を表す静止画データを、第3カメラ画像データとも表現する。第1カメラ画像データ、第2カメラ画像データ、及び、第3カメラ画像データを区別しないとき、これらを単にカメラ画像データと表現する。   In the following, still image data representing an image captured by the first camera 21 is also expressed as first camera image data, still image data representing an image captured by the second camera 22 is also expressed as second camera image data, Still image data representing an image captured by the three cameras 23 is also expressed as third camera image data. When the first camera image data, the second camera image data, and the third camera image data are not distinguished, they are simply expressed as camera image data.
図3に示すように、制御装置30は、処理ユニット31と、記憶ユニット32と、無線通信ユニット33と、接続ユニット34と、を備える。処理ユニット31は、図示しないCPU及びRAMを含み、記憶ユニット32が記憶するプログラムに従う処理を実行する。記憶ユニット32は、ハードディスク装置等の補助記憶装置によって構成され、処理ユニット31が実行するプログラム及びプログラムの実行に供されるデータを記憶する。無線通信ユニット33は、広域ネットワークNTを通じて、サービス提供システム60と双方向通信可能な通信インタフェースである。広域ネットワークNTは、セルラー網を含む。   As shown in FIG. 3, the control device 30 includes a processing unit 31, a storage unit 32, a wireless communication unit 33, and a connection unit 34. The processing unit 31 includes a CPU and a RAM (not shown), and executes processing according to a program stored in the storage unit 32. The storage unit 32 is configured by an auxiliary storage device such as a hard disk device, and stores a program executed by the processing unit 31 and data used for execution of the program. The wireless communication unit 33 is a communication interface capable of bidirectional communication with the service providing system 60 through the wide area network NT. The wide area network NT includes a cellular network.
接続ユニット34は、カメラ21,22,23を制御装置30に接続するためのインタフェースである。接続ユニット34は、例えばUSBインタフェースにより構成される。接続ユニット34を通じたカメラ21,22,23の制御装置30への接続は、処理ユニット31がカメラ21,22,23を制御して、カメラ21,22,23からカメラ画像データを取得することを可能にする。以下では、撮影スポットZのユーザを撮影するために、離れた場所に配置されたカメラ21,22,23及び制御装置30の一群を、カメラ側システム40とも称する。   The connection unit 34 is an interface for connecting the cameras 21, 22 and 23 to the control device 30. The connection unit 34 is configured by a USB interface, for example. The connection of the cameras 21, 22, 23 to the control device 30 through the connection unit 34 means that the processing unit 31 controls the cameras 21, 22, 23 and acquires camera image data from the cameras 21, 22, 23. to enable. Hereinafter, a group of the cameras 21, 22, 23 and the control device 30 that are arranged at a distance to capture a user of the shooting spot Z is also referred to as a camera-side system 40.
上述した撮影スポットZの周辺に設置される案内装置10もまた、図3に示すように広域ネットワークNTを通じてサービス提供システム60と双方向通信可能に構成される。
案内装置10は、図3に示すように、処理ユニット11と、記憶ユニット12と、無線通信ユニット13と、ディスプレイ15と、入力ユニット17と、を備える。処理ユニット11は、図示しないCPU及びRAMを含み、記憶ユニット12が記憶するプログラムに従う処理を実行する。記憶ユニット12は、処理ユニット11が実行するプログラム及びプログラムの実行に供されるデータを記憶する。無線通信ユニット13は、広域ネットワークNTを通じて、サービス提供システム60と双方向通信可能に構成される。
As shown in FIG. 3, the guidance device 10 installed around the photographing spot Z is also configured to be capable of bidirectional communication with the service providing system 60 through the wide area network NT.
As shown in FIG. 3, the guide device 10 includes a processing unit 11, a storage unit 12, a wireless communication unit 13, a display 15, and an input unit 17. The processing unit 11 includes a CPU and a RAM (not shown), and executes processing according to a program stored in the storage unit 12. The storage unit 12 stores a program executed by the processing unit 11 and data used for execution of the program. The wireless communication unit 13 is configured to be capable of bidirectional communication with the service providing system 60 through the wide area network NT.
ディスプレイ15は、処理ユニット11に制御されて、ユーザに案内画面を表示するように構成される。ディスプレイ15は、例えば、液晶ディスプレイにより構成される。入力ユニット17は、案内装置10に対するユーザの操作を受け付けるように構成される。入力ユニット17は、例えば、ディスプレイ15上のタッチパネルにより構成される。   The display 15 is controlled by the processing unit 11 and configured to display a guidance screen to the user. The display 15 is configured by, for example, a liquid crystal display. The input unit 17 is configured to accept a user operation on the guidance device 10. The input unit 17 is configured by a touch panel on the display 15, for example.
この案内装置10では、入力ユニット17を通じてユーザからの操作を受けると、処理ユニット11が図4に示す処理を実行する。処理ユニット11は、図4に示す処理を開始すると、ユーザからの操作に従い各種案内画面をディスプレイ15に表示させる(S110)。そして、入力ユニット17を通じてユーザから撮影要求が入力されると(S120でYes)、撮影動作に関する排他制御を行うために、ワンタイムパスワードをユーザに発行する処理を実行する(S130)。   In this guide device 10, when an operation from the user is received through the input unit 17, the processing unit 11 executes the processing shown in FIG. When the processing unit 11 starts the process shown in FIG. 4, various guidance screens are displayed on the display 15 in accordance with an operation from the user (S <b> 110). When a shooting request is input from the user through the input unit 17 (Yes in S120), a process of issuing a one-time password to the user is executed in order to perform exclusive control related to the shooting operation (S130).
S130において、処理ユニット11は、ワンタイムパスワードを記したパスワード発行画面を表示させるようにディスプレイ15を制御する。処理ユニット11は、ユーザに対して発行すべきワンタイムパスワードをサービス提供システム60に無線通信ユニット13を通じて要求し、サービス提供システム60から提供されたワンタイムパスワードをディスプレイ15に表示させることで、ユーザにワンタイムパスワードを発行することができる。サービス提供システム60は、ワンタイムパスワードを、発行日時と共に管理することができる。   In S <b> 130, the processing unit 11 controls the display 15 to display a password issuance screen in which the one-time password is written. The processing unit 11 requests the service providing system 60 for a one-time password to be issued to the user through the wireless communication unit 13, and causes the display 15 to display the one-time password provided from the service providing system 60. A one-time password can be issued. The service providing system 60 can manage the one-time password together with the issue date and time.
パスワード発行画面には、シャッターボタンを提供するウェブサイトでワンタイムパスワードを入力するように案内するメッセージを、ウェブサイトを案内するメッセージと共に記述することができる。このウェブサイトは、サービス提供システム60にて実現される。   On the password issuing screen, a message for guiding the user to input a one-time password at the website providing the shutter button can be described together with a message for guiding the website. This website is realized by the service providing system 60.
サービス提供システム60は、図3に示すように、フロントエンドサーバ70と、バックエンドサーバ80と、を備える。フロントエンドサーバ70及びバックエンドサーバ80は、一つ以上のサーバ装置から構成される。   As shown in FIG. 3, the service providing system 60 includes a front-end server 70 and a back-end server 80. The front end server 70 and the back end server 80 are composed of one or more server devices.
フロントエンドサーバ70は、処理ユニット71と、記憶ユニット72とを備える。処理ユニット71は、図示しないCPU及びRAMを含み、記憶ユニット72が記憶するプログラムに従う処理を実行する。記憶ユニット72は、処理ユニット71が実行するプログラム及びプログラムの実行に供されるデータを記憶する。処理ユニット71が上記プログラムを実行することにより、フロントエンドサーバ70は、上述のウェブサイトとして機能する。   The front end server 70 includes a processing unit 71 and a storage unit 72. The processing unit 71 includes a CPU and a RAM (not shown), and executes processing according to a program stored in the storage unit 72. The storage unit 72 stores a program executed by the processing unit 71 and data used for executing the program. When the processing unit 71 executes the program, the front-end server 70 functions as the website described above.
バックエンドサーバ80は、上記ウェブサイトを通じたユーザからの指示に従い、カメラ21,22,23を制御したり、カメラ21,22,23から受信した静止画データを画像処理したり、その処理画像データを、ウェブサイトを通じてユーザに提供したりする。このバックエンドサーバ80は、処理ユニット81と、記憶ユニット82と、を備える。処理ユニット81は、図示しないCPU及びRAMを含み、記憶ユニット82が記憶するプログラムに従う処理を実行するように構成される。記憶ユニット82は、処理ユニット81が実行するプログラム及びプログラムの実行に供されるデータを記憶する。   The back-end server 80 controls the cameras 21, 22, and 23 according to instructions from the user through the website, processes the still image data received from the cameras 21, 22, and 23, and processes the processed image data Are provided to users through a website. The back end server 80 includes a processing unit 81 and a storage unit 82. The processing unit 81 includes a CPU and a RAM (not shown), and is configured to execute processing according to a program stored in the storage unit 82. The storage unit 82 stores a program executed by the processing unit 81 and data used for executing the program.
バックエンドサーバ80は、カメラ側システム40の制御装置30及び案内装置10と広域ネットワークNTを通じて通信可能に設置され、フロントエンドサーバ70は、ユーザ端末90と広域ネットワークNTを通じて通信可能、且つ、バックエンドサーバ80と内部ネットワークを通じて通信可能に設置される。   The back end server 80 is installed so as to be able to communicate with the control device 30 and the guide device 10 of the camera side system 40 through the wide area network NT, and the front end server 70 can communicate with the user terminal 90 through the wide area network NT. It is installed so as to be able to communicate with the server 80 through an internal network.
ユーザ端末90の例には、スマートフォン、タブレット、モバイルコンピュータ、及び、ウェアラブル機器等の携帯性を有する通信端末が含まれる。但し、ユーザ端末90は、携帯性を有さなくてもよい。例えば、ユーザ端末90は、車載装置であってもよい。ユーザ端末90は、単独で広域ネットワークNTにアクセス可能である必要はなく、モバイルルータ及び無線アクセスポイント等の中継器を通じて広域ネットワークNTにアクセス可能な通信端末であってもよい。ユーザ端末90は、例えば図3に示すように、CPU及びRAMを含む処理ユニット91、プログラム等を記憶する記憶ユニット92、無線通信ユニット93、ディスプレイ95、及び、タッチパネル等の入力ユニット97を備えた構成にされる。   Examples of the user terminal 90 include portable communication terminals such as smartphones, tablets, mobile computers, and wearable devices. However, the user terminal 90 may not have portability. For example, the user terminal 90 may be an in-vehicle device. The user terminal 90 does not need to be able to access the wide area network NT alone, and may be a communication terminal that can access the wide area network NT through a relay such as a mobile router and a wireless access point. For example, as shown in FIG. 3, the user terminal 90 includes a processing unit 91 including a CPU and a RAM, a storage unit 92 that stores programs, a wireless communication unit 93, a display 95, and an input unit 97 such as a touch panel. Made up.
フロントエンドサーバ70の処理ユニット71は、ソフトウェア的なシャッターボタンをユーザ端末90に提供するために、案内装置10が案内するURLにユーザ端末90からアクセスがあると、図5に示す撮影制御処理を実行する。上記シャッターボタンを提供するウェブサイトの機能は、この撮影制御処理にて実現される。   The processing unit 71 of the front-end server 70 performs the shooting control process shown in FIG. 5 when the user terminal 90 accesses a URL guided by the guidance device 10 in order to provide a software shutter button to the user terminal 90. Run. The function of the website providing the shutter button is realized by this shooting control process.
処理ユニット71は、撮影制御処理を開始すると、図示しないトップページをアクセス元のユーザ端末90に送信して、トップページをユーザ端末90のディスプレイ95に表示させた後、ワンタイムパスワードの入力ページG1を、広域ネットワークNTを通じてアクセス元のユーザ端末90に送信して、この入力ページG1をユーザ端末90のディスプレイ95に表示させる(S210)。入力ページG1の一例を、図6左上に示す。   When the processing unit 71 starts the photographing control process, the processing unit 71 transmits a top page (not shown) to the access source user terminal 90 to display the top page on the display 95 of the user terminal 90, and then the one-time password input page G1. Is transmitted to the access source user terminal 90 through the wide area network NT, and this input page G1 is displayed on the display 95 of the user terminal 90 (S210). An example of the input page G1 is shown in the upper left of FIG.
処理ユニット71は、S210において、この入力ページG1に対するワンタイムパスワードの入力操作を受け付け、ユーザ端末90からワンタイムパスワードを受信すると、ワンタイムパスワードが、案内装置10で発行され、一度も使用されておらず、更には、発行時刻から一定期間内に入力された正当なパスワードがあるか否かを判断する(S220)。処理ユニット71は、正当なパスワードであると判断すると、S230に移行し、正当なパスワードではないと判断すると、再度、ユーザ端末90にワンタイムパスワードの入力ページG1を表示させて、ワンタイムパスワードの再入力をユーザに要求する。処理ユニット71は、正当ではないパスワードが複数回入力された場合、アクセス元からの接続を遮断するように動作してもよい。   In S210, the processing unit 71 receives an input operation of a one-time password for the input page G1, and when the one-time password is received from the user terminal 90, the one-time password is issued by the guidance device 10 and used once. Further, it is further determined whether or not there is a valid password entered within a certain period from the issue time (S220). If the processing unit 71 determines that the password is valid, the processing unit 71 proceeds to step S230. If the processing unit 71 determines that the password is not valid, the processing unit 71 displays the one-time password input page G1 on the user terminal 90 again, and displays the one-time password. Require user to re-enter. The processing unit 71 may operate so as to cut off the connection from the access source when an unauthorized password is input a plurality of times.
S230に移行すると、処理ユニット71は、シャッター操作受付ページG2をユーザ端末90に送信して、この受付ページG2をユーザ端末90のディスプレイ95に表示させる。シャッター操作受付ページG2の一例を、図6右上に示す。処理ユニット71は、撮影スポットZにおいてカメラ21,22,23を用いて撮影をしようとする先行ユーザが存在する場合には、先行ユーザの撮影が完了するまで、シャッター操作受付ページG2に代えて、待機を案内するページをユーザ端末90に表示させることが考えられる。あるいは、案内装置10におけるワンタイムパスワードの発行を、先行ユーザの撮影が完了するまで保留することが考えられる。   In S230, the processing unit 71 transmits the shutter operation reception page G2 to the user terminal 90, and displays the reception page G2 on the display 95 of the user terminal 90. An example of the shutter operation acceptance page G2 is shown in the upper right of FIG. When there is a preceding user who wants to shoot using the cameras 21, 22, 23 at the shooting spot Z, the processing unit 71 replaces the shutter operation reception page G2 until shooting of the preceding user is completed. It is conceivable to display a page that guides the standby on the user terminal 90. Alternatively, it is conceivable that the issuance of the one-time password in the guidance device 10 is suspended until the shooting of the preceding user is completed.
図6に示されるシャッター操作受付ページG2は、操作オブジェクトとして、シャッターボタンR1を備える。また、この受付ページG2は、カメラ位置を案内する画像R2を有する。画像R2は、撮影ポイント周囲の撮影画像に、カメラ位置を指し示すポインタR3を合成した合成画像である。画像R2は、ユーザ端末90が備える電子コンパス99からの方位情報に基づく、ユーザ端末90の向きに合わせた動的な表示画像であってもよい。   The shutter operation acceptance page G2 shown in FIG. 6 includes a shutter button R1 as an operation object. The reception page G2 includes an image R2 that guides the camera position. The image R2 is a composite image in which a pointer R3 indicating a camera position is combined with a captured image around the shooting point. The image R <b> 2 may be a dynamic display image that matches the orientation of the user terminal 90 based on orientation information from the electronic compass 99 provided in the user terminal 90.
例えば、フロントエンドサーバ70は、記憶ユニット72に、撮影ポイントからカメラ21,22,23を撮影したパノラマ画像データであって、上記ポインタR3を合成したパノラマ画像データを記憶しておくことができる。処理ユニット71は、方位情報から特定されるユーザ端末90の向きを、ユーザの向きとみなして、ユーザから見える視界に対応する画像をパノラマ画像データから抽出し、その抽出画像が上記画像R2としてシャッター操作受付ページG2に表示されるように、ユーザ端末90との間で通信を行うことができる。   For example, the front-end server 70 can store in the storage unit 72 panoramic image data obtained by photographing the cameras 21, 22, and 23 from the photographing points and combining the pointer R3. The processing unit 71 regards the orientation of the user terminal 90 identified from the orientation information as the orientation of the user, extracts an image corresponding to the field of view visible to the user from the panoramic image data, and the extracted image is used as the image R2 as a shutter. Communication with the user terminal 90 can be performed as displayed on the operation reception page G2.
その後、処理ユニット71は、ユーザ端末90からシャッターボタンR1が押下操作されたことを示す操作信号を受信するまで待機し(S240)、操作信号を受信すると(S240でYes)、S250に移行して、撮影処理を実行する。   Thereafter, the processing unit 71 waits until an operation signal indicating that the shutter button R1 has been pressed is received from the user terminal 90 (S240). When the operation signal is received (Yes in S240), the process proceeds to S250. Execute the shooting process.
S250において、処理ユニット71は、シャッター操作受付ページG2においてカウントダウン表示がなされるように、ユーザ端末90との間で通信する。カウントダウン表示中のシャッター操作受付ページG2の構成を、図6右下に例示する。更に、処理ユニット71は、カウントダウン終了に合わせて、カメラ側システム40で撮影動作が実行されるように、カメラ側システム40の制御装置30に撮影命令を送信する処理の実行をバックエンドサーバ80に依頼する。その後、処理ユニット71は、S260に移行する。   In S250, the processing unit 71 communicates with the user terminal 90 so that a countdown display is made on the shutter operation reception page G2. The configuration of the shutter operation reception page G2 during countdown display is illustrated in the lower right of FIG. Further, the processing unit 71 executes the process of transmitting a shooting command to the control device 30 of the camera side system 40 to the back-end server 80 so that the shooting operation is executed by the camera side system 40 at the end of the countdown. Ask. Thereafter, the processing unit 71 proceeds to S260.
S260において、処理ユニット71は、被写体TRに対応するユーザのメールアドレスの入力を求める入力ページG4をユーザ端末90に送信して、この入力ページG4をユーザ端末90のディスプレイ95に表示させる(S260)。入力ページG4の一例を、図6左下に示す。   In S260, the processing unit 71 transmits to the user terminal 90 an input page G4 for requesting input of the user's mail address corresponding to the subject TR, and displays the input page G4 on the display 95 of the user terminal 90 (S260). . An example of the input page G4 is shown in the lower left of FIG.
処理ユニット71は、この入力ページG4に対するメールアドレスの入力操作を、ユーザ端末90を通じて受け付け、入力されたメールアドレスの情報をユーザ端末90から受信すると(S270でYes)、このメールアドレスを、撮影画像データの提供先のメールアドレスとしてバックエンドサーバ80に通知する(S280)。その後、フロントエンドサーバ70の処理ユニット71は、図5に示す撮影制御処理を終了する。   When the processing unit 71 accepts an input operation of the mail address for the input page G4 through the user terminal 90 and receives the information of the input mail address from the user terminal 90 (Yes in S270), the processing unit 71 converts the mail address into a captured image. The backend server 80 is notified as the mail address of the data providing destination (S280). Thereafter, the processing unit 71 of the front-end server 70 ends the shooting control process shown in FIG.
バックエンドサーバ80の処理ユニット81は、フロントエンドサーバ70における撮影処理(S250)の実行により、撮影命令を送信する処理の実行依頼をフロントエンドサーバ70から受けると、図7に示す配信準備処理を開始する。   When the processing unit 81 of the back-end server 80 receives from the front-end server 70 an execution request for processing to transmit a shooting command by executing the shooting processing (S250) in the front-end server 70, the distribution preparation processing shown in FIG. Start.
図7に示す配信準備処理を開始すると、処理ユニット81は、フロントエンドサーバ70からの依頼内容に従って、上記カウントダウン終了に合わせて、カメラ側システム40で撮影動作が実行されるように、カメラ側システム40の制御装置30に撮影命令を送信する(S310)。   When the distribution preparation process shown in FIG. 7 is started, the processing unit 81 follows the request from the front-end server 70 so that the camera-side system 40 executes a shooting operation in accordance with the end of the countdown. A photographing command is transmitted to the control device 30 (S310).
第1カメラ21の制御装置30、第2カメラ22の制御装置30、及び、第3カメラ23の制御装置30の夫々は、バックエンドサーバ80から、この撮影命令を受信すると、接続されているカメラを制御して、このカメラに撮影動作を実行させる。撮影命令に従うこのカメラ制御は、制御装置30の処理ユニット31が、図8に示す処理を実行することにより実現される。   When the control device 30 of the first camera 21, the control device 30 of the second camera 22, and the control device 30 of the third camera 23 receive this shooting command from the back-end server 80, the connected cameras To cause the camera to perform a shooting operation. This camera control according to the shooting command is realized by the processing unit 31 of the control device 30 executing the processing shown in FIG.
図8に示すように、制御装置30の処理ユニット31は、バックエンドサーバ80からの撮影命令を受信すると(S410)、自己の制御装置30に接続されているカメラを制御して、このカメラに撮影動作を実行させる。そして、撮影動作によりカメラが生成した静止画データを、接続されているカメラから取得する(S420)。   As shown in FIG. 8, when the processing unit 31 of the control device 30 receives a shooting command from the back-end server 80 (S410), it controls the camera connected to its own control device 30, and Execute the shooting operation. And the still image data which the camera produced | generated by imaging | photography operation | movement is acquired from the connected camera (S420).
処理ユニット31は、このようにして取得した静止画データを、上記カメラ画像データとして、撮影命令送信元のバックエンドサーバ80に送信する(S430)。処理ユニット31は、上述したS420,S430の処理を、撮影命令を受信する度に実行する。   The processing unit 31 transmits the still image data obtained in this way as the camera image data to the back-end server 80 that is the photographing command transmission source (S430). The processing unit 31 executes the above-described processes of S420 and S430 every time it receives a shooting command.
従って、バックエンドサーバ80の処理ユニット81は、S310で撮影命令を送信すると、続くS320において、上記撮影命令に基づき生成された第1カメラ画像データ、第2カメラ画像データ、第3カメラ画像データを、広域ネットワークNTを通じて、第1カメラ21、第2カメラ22、及び、第3カメラ23の制御装置30から受信する。   Accordingly, when the processing unit 81 of the back-end server 80 transmits the shooting command in S310, in the subsequent S320, the first camera image data, the second camera image data, and the third camera image data generated based on the shooting command are transmitted. The data is received from the control device 30 of the first camera 21, the second camera 22, and the third camera 23 through the wide area network NT.
その後、処理ユニット81は、受信した第1カメラ画像データ、第2カメラ画像データ、及び、第3カメラ画像データを用いて、被写体TRであるユーザが写る動画データであってユーザからズームアウトする動画データを生成する処理を実行する(S330)。   Thereafter, the processing unit 81 uses the received first camera image data, second camera image data, and third camera image data, and is moving image data that shows the user who is the subject TR and that is zoomed out from the user. A process of generating data is executed (S330).
S330における動画データの生成方法を、図9を用いて詳述する。ここでは、1920×720画素の動画データを生成する例を説明する。図9において例示される撮影領域E1は、第1カメラ21による撮影領域に対応し、撮影領域E2は、第2カメラ22による撮影領域に対応し、撮影領域E3は、第3カメラ23による撮影領域に対応する。   The moving image data generation method in S330 will be described in detail with reference to FIG. Here, an example of generating moving image data of 1920 × 720 pixels will be described. The shooting area E1 illustrated in FIG. 9 corresponds to the shooting area by the first camera 21, the shooting area E2 corresponds to the shooting area by the second camera 22, and the shooting area E3 is the shooting area by the third camera 23. Corresponding to
この場合、第1カメラ21の撮影動作により生成される第1カメラ画像データは、撮影領域E1内の被写体TR及び背景BGが写る静止画データであり、第2カメラ22の撮影動作により生成される第2カメラ画像データは、撮影領域E2内の被写体TR及び背景BGが写る静止画データであり、第3カメラ23の撮影動作により生成される第3カメラ画像データは、撮影領域E3内の被写体TR及び背景BGが写る静止画データである。第1カメラ画像データ、第2カメラ画像データ、及び、第3カメラ画像データは、夫々、1920×720画素より大きい画素数の画像データとして生成される。   In this case, the first camera image data generated by the shooting operation of the first camera 21 is still image data in which the subject TR and the background BG in the shooting area E1 are captured, and is generated by the shooting operation of the second camera 22. The second camera image data is still image data in which the subject TR and the background BG in the shooting region E2 are captured, and the third camera image data generated by the shooting operation of the third camera 23 is the subject TR in the shooting region E3. And background image BG. The first camera image data, the second camera image data, and the third camera image data are each generated as image data having a number of pixels larger than 1920 × 720 pixels.
動画データの生成のために、バックエンドサーバ80は、記憶ユニット82に、第1カメラ画像データの端点に対応する第2カメラ画像データ上の画素位置P1、第2カメラ画像データの端点に対応する第3カメラ画像データ上の画素位置P2を記憶する。この画素位置P1,P2の情報を参照することにより、処理ユニット81は、第2カメラ画像データ内において、第1カメラ画像データの撮影領域に対応する画像領域を特定でき、第3カメラ画像データ内において、第2カメラ画像データの撮影領域に対応する画像領域を特定することができる。   In order to generate moving image data, the back-end server 80 corresponds to the pixel position P1 on the second camera image data corresponding to the end point of the first camera image data and the end point of the second camera image data in the storage unit 82. The pixel position P2 on the third camera image data is stored. By referring to the information of the pixel positions P1 and P2, the processing unit 81 can specify an image area corresponding to the shooting area of the first camera image data in the second camera image data. The image area corresponding to the shooting area of the second camera image data can be specified.
動画データの生成のための第1ステップにおいて、処理ユニット81は、第1カメラ画像データから、被写体のバストアップが写る領域Fの画像データを取り込み、この領域Fの画像データを動画データにおける第1フレームの画像データに設定する。領域Fは、1920x720画素の領域である。領域Fは、例えば撮影領域E1に対して固定的に定められ得る。あるいは、領域Fは、第1カメラ画像データの解析により人物を検知した結果に基づいて、動的に定められてもよい。第1カメラ画像データに被写体TRが過度に大きく写る場合には、1920x720画素より大きい領域Fの画像データを、第1カメラ画像データから取り込み、この画像データを1920x720画素に縮小して、第1フレームの画像データを設定してもよい。   In the first step for generating moving image data, the processing unit 81 takes in the image data of the region F in which the subject's bust-up appears from the first camera image data, and uses the image data of this region F as the first data in the moving image data. Set to frame image data. The area F is an area of 1920 × 720 pixels. The area F can be fixedly defined with respect to the imaging area E1, for example. Alternatively, the region F may be dynamically determined based on the result of detecting a person by analyzing the first camera image data. When the subject TR appears excessively large in the first camera image data, the image data of the area F larger than 1920 × 720 pixels is taken from the first camera image data, the image data is reduced to 1920 × 720 pixels, and the first frame The image data may be set.
処理ユニット81は、この領域Fを基準に、領域Fから撮影領域E3の外縁までを、領域Fと相似する矩形枠で、動画データのフレーム数Nより1少ない数に分割して、撮影領域E3の外縁までの領域に、矩形枠で定義される第2フレームから第Nフレームまでの画像取込領域を設定する。そして、第2フレームから、画像取込領域が撮影領域E1内に収まるフレームである第1カメラ終端フレームまでは、フレーム毎に、第1カメラ画像データから、そのフレームに対応する画像取込領域の画像データを1920x720画素の縮小画像データとして取り込み、この画像データを、対応するフレームの画像データに設定する。   Based on this area F, the processing unit 81 divides the area from the area F to the outer edge of the shooting area E3 by a rectangular frame similar to the area F into a number one less than the number N of frames of the moving image data, and the shooting area E3. An image capture area from the second frame to the Nth frame defined by the rectangular frame is set in the area up to the outer edge of the frame. From the second frame to the first camera end frame, which is a frame in which the image capture area is within the shooting area E1, for each frame, from the first camera image data, the image capture area corresponding to that frame is stored. Image data is taken in as reduced image data of 1920 × 720 pixels, and this image data is set as image data of a corresponding frame.
処理ユニット81は、第1カメラ終端フレームの次フレームから、画像取込領域が撮影領域E2内に収まるフレームである第2カメラ終端フレームまでは、フレーム毎に、第2カメラ画像データから、そのフレームに対応する画像取込領域の画像データを、1920x720画素の縮小画像データとして取り込み、この画像データを対応するフレームの画像データに設定する。   From the next frame of the first camera end frame to the second camera end frame, which is a frame in which the image capture area falls within the shooting area E2, the processing unit 81 starts from the second camera image data for each frame. The image data of the image capture area corresponding to is captured as reduced image data of 1920 × 720 pixels, and this image data is set as the image data of the corresponding frame.
処理ユニット81は、第2カメラ終端フレームの次フレームから、終端フレームである第Nフレームまでは、フレーム毎に、第3カメラ画像データから、そのフレームに対応する画像取込領域の画像データを1920x720画素の縮小画像データとして取り込み、この画像データを対応するフレームの画像データに設定する。   For each frame from the next frame of the second camera end frame to the Nth frame as the end frame, the processing unit 81 sets the image data of the image capture area corresponding to the frame from the third camera image data to 1920 × 720. This is taken in as reduced image data of pixels, and this image data is set as image data of a corresponding frame.
処理ユニット81は、このようにして生成した第1フレームから第Nフレームの画像データを時系列に並べて、被写体TRであるユーザが写る動画データであってユーザからズームアウトする動画データを生成する。図10には、図9に示す静止画データから生成される動画を例示する。   The processing unit 81 arranges the image data of the first frame to the Nth frame generated in this way in time series, and generates moving image data that is a moving image of the user who is the subject TR and is zoomed out from the user. FIG. 10 illustrates a moving image generated from the still image data illustrated in FIG.
この動画データの生成方法では、被写体TRが大きく写るフレームに関して、第2、第3カメラ画像データを用いずに、第1カメラ画像データを用いてフレームを生成している点が特徴的である。この生成方法によれば、壮大な背景の中に位置する被写体を明瞭に認知可能な動画データを生成することができる。   This moving image data generation method is characterized in that a frame is generated using the first camera image data without using the second and third camera image data for a frame in which the subject TR is greatly captured. According to this generation method, moving image data capable of clearly recognizing a subject located in a magnificent background can be generated.
処理ユニット81は、上記生成した動画データを、記憶ユニット82に保存し、この動画データを配信用データとして登録する(S340)。具体的には、動画データに対して、配信用のURLを付与し、このURLと動画データとの対応付け情報を記憶する(S340)。   The processing unit 81 stores the generated moving image data in the storage unit 82 and registers this moving image data as distribution data (S340). Specifically, a URL for distribution is assigned to the moving image data, and association information between the URL and the moving image data is stored (S340).
その後、処理ユニット81は、S340で動画データに対して付与した配信用URLを記述した電子メールを、シャッターボタンR1を押下操作したユーザ端末90からフロントエンドサーバ70がS260,S270で取得したメールアドレス先に送信し、図7に示す処理を終了する。この電子メールをユーザ端末90又はその他の電子機器を通じて受信したユーザは、電子メールに記述されるURL先に、ユーザ端末90又は他の電子機器を通じてアクセスすることで、このURLに対応付けられた動画データの配信を受けることができる。その他の電子機器の例には、ユーザが所有するパーソナルコンピュータを挙げることができる。   After that, the processing unit 81 sends the e-mail describing the distribution URL assigned to the moving image data in S340, and the e-mail address acquired by the front-end server 70 in S260 and S270 from the user terminal 90 that has operated the shutter button R1. First, the process shown in FIG. 7 ends. A user who has received this e-mail through the user terminal 90 or other electronic device accesses the URL destination described in the e-mail through the user terminal 90 or other electronic device, so that the moving image associated with the URL is displayed. Receive data distribution. Examples of other electronic devices include a personal computer owned by a user.
フロントエンドサーバ70の処理ユニット71は、図11に示す処理を繰返し実行し、配信用URLへのアクセスがあると(S510でYes)、そのアクセス元端末に対して、URLに対応付けられた動画データを送信する(S520)。別例として、処理ユニット71は、S520において、動画データ自体を配信せずに、動画データを再生処理して、アクセス元端末に動画の再生サービスを提供してもよい。   When the processing unit 71 of the front-end server 70 repeatedly executes the processing shown in FIG. 11 and accesses the distribution URL (Yes in S510), the moving image associated with the URL is transmitted to the access source terminal. Data is transmitted (S520). As another example, the processing unit 71 may reproduce the moving image data and provide the moving image reproduction service to the access source terminal without distributing the moving image data itself in S520.
以上に説明した第一実施形態の撮影システム1は、次のように変形されてもよい。例えば、この撮影システム1は、動画データ配信用のURLを記述した電子メールではなく、S330で生成した動画データを添付した電子メールを送信するように構成されてもよい。サービス提供システム60は、S520において、ユーザに対して無償で動画データの再生サービスを提供し、有償で動画データのダウンロードサービスを提供するように構成されてもよい。動画データは、先頭又は末尾に広告を挿入するように生成又は再生されてもよい。本開示における動画データの配信は、動画データそれ自体を送信する態様の他、動画データの再生信号を送信する態様を含む。   The imaging system 1 of the first embodiment described above may be modified as follows. For example, the photographing system 1 may be configured to transmit an e-mail attached with the moving image data generated in S330 instead of the e-mail describing the moving image data distribution URL. In S520, the service providing system 60 may be configured to provide a moving image data reproduction service free of charge to the user and a moving image data download service for a fee. The moving image data may be generated or reproduced so that an advertisement is inserted at the beginning or end. Distribution of moving image data in the present disclosure includes a mode of transmitting a reproduction signal of moving image data in addition to a mode of transmitting moving image data itself.
この他、被写体に対応するユーザではない者への誤った配信を回避するために、ウェブサイトを通じた動画データの配信に際しては、ユーザ認証を行うように、サービス提供システム60は構成されてもよい。ユーザ認証は、例えばパスワードを用いて行うことができる。認証用のパスワードは、メールアドレスと共にS260,S270でユーザ端末90から取得することができる。   In addition, in order to avoid erroneous delivery to a person who is not a user corresponding to the subject, the service providing system 60 may be configured to perform user authentication when delivering moving image data through a website. . User authentication can be performed using a password, for example. The password for authentication can be acquired from the user terminal 90 in S260 and S270 together with the mail address.
この他、サービス提供システム60は、S330で、被写体であるユーザにズームインする動画データを生成するように構成されてもよい。ユーザにズームインする動画データは、上述したユーザからズームアウトする動画データを構成するフレームの並びを逆にすることで生成することができる。サービス提供システム60は、ユーザにズームインする動画及びズームアウトする動画の両者を含む動画データを生成するように構成されてもよい。   In addition, the service providing system 60 may be configured to generate moving image data that zooms in on the user who is the subject in S330. The moving image data to be zoomed in by the user can be generated by reversing the arrangement of the frames constituting the moving image data to be zoomed out from the user. The service providing system 60 may be configured to generate moving image data including both a moving image to be zoomed in and a moving image to be zoomed out.
サービス提供システム60は、上記動画データに代えて、又は、動画データに加えて、静止画データセットをS330で生成するように構成されてもよい。例えば、サービス提供システム60は、動画データから、被写体に対してズームイン/ズームアウトした画角の異なる静止画データをいくつか抽出することで、これら抽出した静止画データの集合を、上記静止画データセットとして生成する構成にされてもよい。このときの静止画データセットは、第1カメラ画像データと第2カメラ画像データとの中間の画角を有する静止画データ、及び、第2カメラ画像データと第3カメラ画像データとの中間の画角を有する静止画データの一方又は両方を含む静止画データセットとして生成され得る。本実施形態によれば、カメラ21,22,23の画角に限られない多種の画角を有する静止画データセットを生成することができる。   The service providing system 60 may be configured to generate a still image data set in S330 instead of the moving image data or in addition to the moving image data. For example, the service providing system 60 extracts some still image data with different angles of view zoomed in / out from the subject from the moving image data, and the set of the extracted still image data is converted into the still image data. You may make it the structure produced | generated as a set. The still image data set at this time includes still image data having an intermediate angle of view between the first camera image data and the second camera image data, and an intermediate image between the second camera image data and the third camera image data. It may be generated as a still image data set including one or both of still image data having a corner. According to the present embodiment, it is possible to generate a still image data set having various angles of view that are not limited to the angles of view of the cameras 21, 22, and 23.
この他、本実施形態では、撮影スポットZに案内装置10が設けられたが、案内装置10としての機能は、ユーザ端末90のハードウェア資源を用いて実現されてもよい。即ち、案内装置10としての機能は、ユーザ端末90の入力ユニット97を通じて入力されるユーザからの指令に基づき、サービス提供システム60がウェブページをユーザ端末90に送信し、ユーザ端末90の処理ユニット91がディスプレイ95にウェブページを表示させることにより実現されてもよい。この場合、サービス提供システム60は、ユーザ端末90から位置情報を取得して、この位置情報に基づき、撮影スポットZに位置するユーザ端末90に対してのみワンタイムパスワードを発行することができる。   In addition, in this embodiment, the guide device 10 is provided at the shooting spot Z. However, the function as the guide device 10 may be realized using hardware resources of the user terminal 90. That is, the function as the guidance device 10 is based on a command from the user input through the input unit 97 of the user terminal 90, the service providing system 60 transmits a web page to the user terminal 90, and the processing unit 91 of the user terminal 90. May be realized by displaying a web page on the display 95. In this case, the service providing system 60 can acquire position information from the user terminal 90 and issue a one-time password only to the user terminal 90 located at the shooting spot Z based on the position information.
撮影スポットZに、無線アクセスポイントを設けて、この無線アクセスポイントを通じてアクセスしてきたユーザ端末90に対してのみワンタイムパスワードを発行するように、撮影システム1は構成されてもよい。このようなワンタイムパスワードの発行は、撮影スポットZに存在しないユーザからのカメラ利用を抑えることができる。また、ワンタイムパスワードを利用したシャッター操作受付ページG2の表示制限によれば(S220,S230)、複数ユーザによるカメラ利用の衝突が生じるのを抑制することができ、ユーザ毎の排他的な撮影動作を適切に実行することができる。   The imaging system 1 may be configured to provide a wireless access point at the imaging spot Z and issue a one-time password only to the user terminal 90 that has accessed through the wireless access point. Issuing such a one-time password can suppress the use of the camera by a user who does not exist at the shooting spot Z. Further, according to the display restriction on the shutter operation reception page G2 using the one-time password (S220, S230), it is possible to suppress the occurrence of a collision of camera use by a plurality of users, and an exclusive shooting operation for each user. Can be executed appropriately.
用語間の対応関係は、次の通りである。本実施形態のユーザ端末90は、遠隔操作装置の一例に対応し、シャッターボタンR1の押下操作によって、ユーザ端末90からサービス提供システム60に発信される操作信号は、遠隔操作装置からの命令の一例に対応する。案内装置10及びサービス提供システム60がワンタイムパスワードに基づいて利用制限を行うこと(S130,S210−S250)は、作動制御ユニットによって実現される機能の一例に対応する。サービス提供システム60が実行する動画データの生成処理(S330)及び動画配信に関する処理(S340,S350,S520)は、画像処理ユニットにより実現される機能の一例に対応する。カメラ21,22,23が生成したカメラ画像データを、広域ネットワークNTを通じてバックエンドサーバ80に送信する制御装置30は、通信ユニットの一例に対応する。第1カメラ21は、狭域カメラの一例に対応し、第2カメラ22及び第3カメラ23は、広域カメラの一例に対応する。   The correspondence between terms is as follows. The user terminal 90 of the present embodiment corresponds to an example of a remote operation device, and an operation signal transmitted from the user terminal 90 to the service providing system 60 when the shutter button R1 is pressed is an example of a command from the remote operation device. Corresponding to The guide device 10 and the service providing system 60 restricting the use based on the one-time password (S130, S210-S250) corresponds to an example of a function realized by the operation control unit. The moving image data generation processing (S330) and the moving image distribution processing (S340, S350, S520) executed by the service providing system 60 correspond to an example of functions realized by the image processing unit. The control device 30 that transmits the camera image data generated by the cameras 21, 22, and 23 to the back-end server 80 through the wide area network NT corresponds to an example of a communication unit. The first camera 21 corresponds to an example of a narrow area camera, and the second camera 22 and the third camera 23 correspond to an example of a wide area camera.
[第二実施形態]
第二実施形態の撮影システム1は、制御装置30が複数のカメラ21,22,23に共通して設けられている点、及び、制御装置30が動画データを生成する点で、第一実施形態とは異なり、その他の点で第一実施形態と基本的に一致する。以下では、第二実施形態の撮影システム1の構成として、第一実施形態とは異なる構成を選択的に説明し、第一実施形態と共通する構成の説明を適宜省略する。
[Second Embodiment]
The imaging system 1 of the second embodiment is the first embodiment in that the control device 30 is provided in common to the plurality of cameras 21, 22, and 23, and the control device 30 generates moving image data. Unlike the first embodiment, the second embodiment basically corresponds to the first embodiment in other points. Below, as a structure of the imaging system 1 of 2nd embodiment, the structure different from 1st embodiment is selectively demonstrated, and description of the structure which is common in 1st embodiment is abbreviate | omitted suitably.
図12に示すように、本実施形態のカメラ側システム40は、第1カメラ21、第2カメラ22、及び第3カメラ23に対して共通する制御装置30を有する。制御装置30は、第一実施形態と同様、処理ユニット31と、記憶ユニット32と、広域ネットワークNTを通じてサービス提供システム60と通信可能な無線通信ユニット33と、接続ユニット34と、を備える。但し、本実施形態の接続ユニット34は、複数の接続ポートを有し、接続ユニット34には、一つの撮影スポットZに対して設けられたカメラ側システム40の全カメラ21,22,23が接続される。   As shown in FIG. 12, the camera-side system 40 of the present embodiment includes a control device 30 that is common to the first camera 21, the second camera 22, and the third camera 23. As in the first embodiment, the control device 30 includes a processing unit 31, a storage unit 32, a wireless communication unit 33 that can communicate with the service providing system 60 through the wide area network NT, and a connection unit 34. However, the connection unit 34 of the present embodiment has a plurality of connection ports, and all the cameras 21, 22, and 23 of the camera side system 40 provided for one photographing spot Z are connected to the connection unit 34. Is done.
この制御装置30における処理ユニット31は、図13に示すように、バックエンドサーバ80からの撮影命令を受信すると(S610)、カメラ21,22,23を制御して、カメラ21,22,23に撮影動作を同時実行させる。そして、撮影動作によりカメラ21,22,23が生成した第1カメラ画像データ、第2カメラ画像データ、及び第3カメラ画像データを、カメラ21,22,23から取得する(S620)。   As shown in FIG. 13, the processing unit 31 in the control device 30 receives the shooting command from the back-end server 80 (S610), controls the cameras 21, 22, and 23, and controls the cameras 21, 22, and 23. Perform shooting operations simultaneously. Then, the first camera image data, the second camera image data, and the third camera image data generated by the cameras 21, 22, and 23 by the shooting operation are acquired from the cameras 21, 22, and 23 (S620).
処理ユニット31は、このようにして、カメラ21,22,23から取得した第1カメラ画像データ、第2カメラ画像データ、及び第3カメラ画像データを用いて、被写体TRであるユーザが写る動画データであって、ユーザからズームアウトする動画データを生成する(S630)。動画データの生成方法は、第一実施形態と同様である。動画データは、ユーザにズームインする動画データであってもよいし、ユーザからズームアウトする動画及びユーザにズームインする動画の両者を含む動画データであってもよい。   In this way, the processing unit 31 uses the first camera image data, the second camera image data, and the third camera image data acquired from the cameras 21, 22, and 23, and the moving image data that shows the user who is the subject TR The moving image data to be zoomed out from the user is generated (S630). The method for generating moving image data is the same as in the first embodiment. The moving image data may be moving image data that zooms in on the user, or moving image data that includes both a moving image that zooms out from the user and a moving image that zooms in on the user.
処理ユニット31は、上記生成した動画データを、撮影命令送信元のバックエンドサーバ80に送信する(S640)。処理ユニット31は、上述したS620−S640の処理を、撮影命令を受信する度に実行する。   The processing unit 31 transmits the generated moving image data to the back-end server 80 that is the transmission source of the shooting command (S640). The processing unit 31 executes the above-described processing of S620-S640 every time it receives a shooting command.
バックエンドサーバ80では、上記制御装置30の構成に合わせて、処理ユニット81が、図7に示す配信準備処理に代えて、図14に示す配信準備処理を実行する。このバックエンドサーバ80の処理ユニット81は、第一実施形態におけるS310と同様に、フロントエンドサーバ70からの依頼に従って、カメラ側システム40の制御装置30に撮影命令を送信する(S710)。   In the back-end server 80, in accordance with the configuration of the control device 30, the processing unit 81 executes the distribution preparation process shown in FIG. 14 instead of the distribution preparation process shown in FIG. The processing unit 81 of the back-end server 80 transmits a shooting command to the control device 30 of the camera-side system 40 in accordance with a request from the front-end server 70, similarly to S310 in the first embodiment (S710).
その後、処理ユニット81は、上記撮影命令に基づきカメラ側システム40で生成された動画データを、広域ネットワークNTを通じて制御装置30から受信し(S720)、受信した動画データに関して、第一実施形態のS340,S350と同様の処理を実行する(S730,S740)。即ち、処理ユニット81は、受信した動画データを記憶ユニット82に保存し、配信用データとして登録する(S730)。更に、処理ユニット81は、上記動画データ配信用のURLを記述した電子メールを、被写体TRに対応するユーザのメールアドレス先に送信し(S740)、図14に示す処理を終了する。   Thereafter, the processing unit 81 receives the moving image data generated by the camera-side system 40 based on the shooting command from the control device 30 through the wide area network NT (S720), and regarding the received moving image data, S340 of the first embodiment. , S350 is executed (S730, S740). That is, the processing unit 81 stores the received moving image data in the storage unit 82 and registers it as distribution data (S730). Further, the processing unit 81 transmits an e-mail describing the URL for moving image data distribution to the e-mail address of the user corresponding to the subject TR (S740), and ends the process shown in FIG.
以上に説明した第二実施形態の撮影システム1によれば、カメラ側システム40にカメラ毎の制御装置30を設けなくて済むので、第1カメラ21、第2カメラ22、第3カメラ23を近い位置に配置するときに有意義である。   According to the imaging system 1 of the second embodiment described above, since the camera-side system 40 does not have to be provided with the control device 30 for each camera, the first camera 21, the second camera 22, and the third camera 23 are close to each other. Significant when placed in position.
本実施形態では、制御装置30で動画データを生成したが、動画データは、第一実施形態と同様に、サービス提供システム60で生成されてもよい。即ち、第二実施形態の撮影システム1は、制御装置30が複数のカメラ21,22,23に共通して設けられる点を除いて、第一実施形態と同様の構成にされてもよい。制御装置30は、S630,S640において、動画データに代えて、又は、加えて、上述の静止画データセットを生成し、これサービス提供システム60に送信するように構成されてもよい。   In the present embodiment, the moving image data is generated by the control device 30, but the moving image data may be generated by the service providing system 60 as in the first embodiment. That is, the imaging system 1 of the second embodiment may have the same configuration as that of the first embodiment, except that the control device 30 is provided in common for the plurality of cameras 21, 22, and 23. The control device 30 may be configured to generate the above-described still image data set and transmit it to the service providing system 60 in S630 and S640 instead of or in addition to the moving image data.
[第三実施形態]
第三実施形態の撮影システム1は、カメラ側システム40が単一のカメラ20と制御装置30とから構成される点、及び、カメラ20の撮影画像を表す静止画データD1が予め用意されたパノラマ背景画像データD2と合成され、その合成画像データD3に基づいて動画データが生成される点で、第一実施形態とは異なり、その他の点で第一実施形態と基本的に一致する。以下では、第三実施形態の撮影システム1の構成として、第一実施形態とは異なる構成を選択的に説明し、第一実施形態と共通する構成の説明を適宜省略する。
[Third embodiment]
The imaging system 1 of the third embodiment is a panorama in which camera-side system 40 is configured by a single camera 20 and a control device 30 and still image data D1 representing a captured image of the camera 20 is prepared in advance. Unlike the first embodiment, the background image data D2 is combined with the background image data D2, and the moving image data is generated based on the combined image data D3. Below, as a structure of the imaging system 1 of 3rd embodiment, the structure different from 1st embodiment is selectively demonstrated, and description of the structure which is common in 1st embodiment is abbreviate | omitted suitably.
図15に示すように、本実施形態のカメラ側システム40は、第1カメラ21に対応するカメラ20と、カメラ20と接続された制御装置30と、を有した構成にされる。
制御装置30は、第一実施形態と同様、処理ユニット31と、記憶ユニット32と、無線通信ユニット33と、接続ユニット34とを備え、接続ユニット34は、カメラ20に接続される。制御装置30における処理ユニット31は、図16に示すように、バックエンドサーバ80からの撮影命令を受信すると(S810)、カメラ20を制御して、カメラ20に撮影動作を実行させる。そして、この撮影動作によるカメラ20の撮影画像を表す静止画データD1を、カメラ画像データD1として、カメラ20から取得する(S820)。
As shown in FIG. 15, the camera-side system 40 of the present embodiment is configured to include a camera 20 corresponding to the first camera 21 and a control device 30 connected to the camera 20.
Similar to the first embodiment, the control device 30 includes a processing unit 31, a storage unit 32, a wireless communication unit 33, and a connection unit 34, and the connection unit 34 is connected to the camera 20. As shown in FIG. 16, the processing unit 31 in the control device 30 receives the shooting command from the back-end server 80 (S810), controls the camera 20, and causes the camera 20 to execute a shooting operation. Then, still image data D1 representing a photographed image of the camera 20 by this photographing operation is acquired from the camera 20 as camera image data D1 (S820).
その後、処理ユニット31は、図17に示すように、このカメラ画像データD1と記憶ユニット32が記憶するパノラマ背景画像データD2とを合成して、図19に例示する合成画像データD3を生成する(S830)。本実施形態によれば、カメラ20は、およそユーザの全身が写る範囲で、撮影ポイントに位置する被写体TRとしてのユーザを大きく撮影する。従って、カメラ20が生成するカメラ画像データD1には、被写体TRが大きく写る。   Thereafter, as shown in FIG. 17, the processing unit 31 combines the camera image data D1 and the panoramic background image data D2 stored in the storage unit 32 to generate combined image data D3 illustrated in FIG. S830). According to the present embodiment, the camera 20 takes a large image of the user as the subject TR located at the shooting point within a range where the whole body of the user is captured. Accordingly, the subject TR appears large in the camera image data D1 generated by the camera 20.
一方、パノラマ背景画像データD2は、広範囲の背景BGを、図17において破線で示す区画毎に撮影し、区画毎の背景画像データをつなぎ合わせて生成された画像データである。図17において太線で囲まれる領域の背景画像を表すパノラマ背景画像データD2は、その破線で区切られた区画毎の背景画像を表す背景画像データの結合体からなる。   On the other hand, the panoramic background image data D2 is image data generated by capturing a wide range of backgrounds BG for each section indicated by a broken line in FIG. 17 and connecting the background image data for each section. In FIG. 17, the panoramic background image data D2 representing the background image of the region surrounded by the thick line is composed of a combination of background image data representing the background image for each section divided by the broken line.
区画毎の背景画像データがメガピクセルの画像データであれば、それらの結合体であるパノラマ背景画像データD2は、区画数にもよるがギガピクセルの画像データである。図17は、簡易的に、パノラマ背景画像データD2が9区画分の広さを有する例を示しているが、実際のパノラマ背景画像データD2は、これより多い区画数を有するのが通常である。   If the background image data for each section is megapixel image data, the combined panorama background image data D2 is gigapixel image data depending on the number of sections. FIG. 17 simply shows an example in which the panorama background image data D2 has a width corresponding to nine sections, but the actual panorama background image data D2 normally has a larger number of sections. .
このように記憶ユニット32が記憶するパノラマ背景画像データD2は、広範囲の背景BGを有する画像データでありながら、高解像度の画像データとして構成される。制御装置30の記憶ユニット32は、このパノラマ背景画像データD2に加えて、パノラマ背景画像データD2に対するカメラ画像データD1の合成位置を規定するデータを記憶する。   As described above, the panorama background image data D2 stored in the storage unit 32 is image data having a wide range of backgrounds BG, but is configured as high-resolution image data. In addition to the panorama background image data D2, the storage unit 32 of the control device 30 stores data that defines the synthesis position of the camera image data D1 with respect to the panorama background image data D2.
処理ユニット31は、この合成位置を規定するデータに基づき、記憶ユニット32が記憶するパノラマ背景画像データD2の背景画像の特定領域に、カメラ画像データD1が表す撮影画像をペーストするようにして、広域の背景BGに被写体TRの撮影画像を配置した合成画像データD3を生成する。   The processing unit 31 pastes the captured image represented by the camera image data D1 on the specific area of the background image of the panoramic background image data D2 stored in the storage unit 32 based on the data defining the synthesis position, so that the wide area The composite image data D3 is generated in which the captured image of the subject TR is arranged on the background BG.
処理ユニット31は、この合成画像データD3を、撮影命令元のバックエンドサーバ80に広域ネットワークNTを通じて送信する(S840)。処理ユニット31は、上述したS820,S830,S840の処理を、撮影命令を受信する度に実行する。   The processing unit 31 transmits the composite image data D3 to the back-end server 80 that is the imaging command source through the wide area network NT (S840). The processing unit 31 executes the above-described processing of S820, S830, and S840 every time it receives a shooting command.
バックエンドサーバ80では、上記制御装置30の構成に合わせて、処理ユニット81が、図7に示す配信準備処理に代えて、図18に示す配信準備処理を実行する。このバックエンドサーバ80の処理ユニット81は、第一実施形態におけるS310と同様に、フロントエンドサーバ70からの依頼に従って、カメラ側システム40の制御装置30に撮影命令を送信する(S910)。   In the back-end server 80, in accordance with the configuration of the control device 30, the processing unit 81 executes the distribution preparation process shown in FIG. 18 instead of the distribution preparation process shown in FIG. The processing unit 81 of the back-end server 80 transmits a shooting command to the control device 30 of the camera-side system 40 in accordance with a request from the front-end server 70, similarly to S310 in the first embodiment (S910).
その後、処理ユニット81は、上記撮影命令に基づきカメラ側システム40で生成された合成画像データD3を、広域ネットワークNTを通じて制御装置30から受信する(S920)。更に、受信した合成画像データD3に基づいて、被写体TRであるユーザが写る動画データであって、ユーザからズームアウトする動画データを生成する(S930)。   Thereafter, the processing unit 81 receives the composite image data D3 generated by the camera-side system 40 based on the shooting command from the control device 30 through the wide area network NT (S920). Furthermore, based on the received composite image data D3, moving image data that shows the user who is the subject TR and that is zoomed out from the user is generated (S930).
S930における動画データの生成方法を、図19を用いて詳述する。ここでは、1920×720画素の動画データを生成する例を説明する。
動画データの生成のための第1ステップにおいて、処理ユニット81は、合成画像データD3から、被写体TRのバストアップが写る領域Fの画像データを取り込み、この画像データを動画データにおける第1フレームの画像データに設定する。領域Fは、1920x720画素の領域である。
The moving image data generation method in S930 will be described in detail with reference to FIG. Here, an example of generating moving image data of 1920 × 720 pixels will be described.
In the first step for generating the moving image data, the processing unit 81 takes in the image data of the region F in which the bust-up of the subject TR is captured from the composite image data D3, and this image data is the first frame image in the moving image data. Set to data. The area F is an area of 1920 × 720 pixels.
領域Fは、パノラマ背景画像データD2に合成されたカメラ画像データD1の画像領域よりも小さい領域であり得る。領域Fは、例えば合成画像データD3の画像領域に対して固定的に定められる。あるいは、領域Fは、合成画像データD3の解析による人物の検知結果に基づき、動的に定められてもよい。被写体TRが過度に大きく写る場合には、1920x720画素より大きい領域Fの画像データを、合成画像データD3から取り込み、この画像データを1920x720画素に縮小して、第1フレームの画像データを設定してもよい。   The area F may be an area smaller than the image area of the camera image data D1 synthesized with the panorama background image data D2. The area F is fixedly defined with respect to the image area of the composite image data D3, for example. Alternatively, the region F may be dynamically determined based on a person detection result obtained by analyzing the composite image data D3. When the subject TR appears excessively large, the image data of the area F larger than 1920 × 720 pixels is taken from the composite image data D3, the image data is reduced to 1920 × 720 pixels, and the image data of the first frame is set. Also good.
処理ユニット81は、この領域Fを基準に、領域Fから合成画像データD3の撮影領域の外縁までを、領域Fと相似する矩形枠で、動画データのフレーム数Nより1少ない数に分割し、上記外縁までの領域に、矩形枠で定義される第2フレームから第Nフレームまでの画像取込領域を設定する。そして、第2フレームから第Nフレームまでの各フレーム毎に、合成画像データD3から、そのフレームに対応する画像取込領域の画像データを1920x720画素の縮小画像データとして取り込み、この画像データを、対応するフレームの画像データに設定する。   Based on this area F, the processing unit 81 divides the area from the area F to the outer edge of the shooting area of the composite image data D3 with a rectangular frame similar to the area F into a number one less than the frame number N of the video data, An image capture area from the second frame to the Nth frame defined by a rectangular frame is set in the area up to the outer edge. Then, for each frame from the second frame to the Nth frame, the image data of the image capture area corresponding to that frame is captured as reduced image data of 1920 × 720 pixels from the composite image data D3, and this image data is Set to the image data of the frame to be used.
処理ユニット81は、このようにして生成した第1フレームから第Nフレームの画像データを時系列に並べて、被写体TRであるユーザが写る動画データであってユーザからズームアウトする動画データを生成する。この動画データにより再生される動画は、第一実施形態と同様である(図10参照)。即ち、この動画は、壮大な背景の中に位置する被写体TRを明瞭に認知可能でありながら、壮大な景観も楽しむことのできる動画として構成される。   The processing unit 81 arranges the image data of the first frame to the Nth frame generated in this way in time series, and generates moving image data that is a moving image of the user who is the subject TR and is zoomed out from the user. The moving image reproduced by the moving image data is the same as that in the first embodiment (see FIG. 10). That is, this moving image is configured as a moving image that can clearly recognize the subject TR located in the magnificent background and can also enjoy the magnificent scenery.
処理ユニット81は、このようにして生成した動画データを、第一実施形態のS340と同様に、記憶ユニット82に保存し、配信用データとして登録する(S940)。更に、処理ユニット81は、この動画データに対して付与した配信用URLを記述した電子メールを、シャッターボタンを押下操作したユーザ端末90から取得したメールアドレス先に送信し(S950)、図18に示す処理を終了する。   The processing unit 81 stores the moving image data generated in this way in the storage unit 82 and registers it as distribution data, similarly to S340 of the first embodiment (S940). Further, the processing unit 81 transmits an e-mail describing the distribution URL assigned to the moving image data to the e-mail address obtained from the user terminal 90 operated by pressing the shutter button (S950). The processing shown in FIG.
以上に説明した第三実施形態の撮影システム1によれば、カメラ側システム40に、複数のカメラを設置しなくても済む。本実施形態の動画データは、第一実施形態と同様、ユーザにズームインする動画データであってもよいし、ユーザにズームインする動画及びユーザからズームアウトする動画を含む動画データであってもよい。サービス提供システム60は、動画データに代えて、又は、加えて、静止画データセットを配信するように構成されてもよい。   According to the imaging system 1 of the third embodiment described above, it is not necessary to install a plurality of cameras in the camera side system 40. As in the first embodiment, the moving image data of the present embodiment may be moving image data that zooms in on the user, or moving image data that includes a moving image that zooms in on the user and a moving image that zooms out from the user. The service providing system 60 may be configured to deliver a still image data set instead of or in addition to the moving image data.
この他、サービス提供システム60は、カメラ側システム40から合成画像データD3ではなくカメラ画像データD1を取得して、合成画像データD3及び動画データを生成するように構成されてもよい。例えば、制御装置30は、処理ユニット31が、図16に示すように、S830,S840の処理に代えて、カメラ画像データD1を送信する処理(S850)を実行するように構成されてもよい。バックエンドサーバ80は、処理ユニット81が、図18に示すように、S920の処理に代えて、制御装置30から受信したカメラ画像データD1に基づき、合成画像データD3を生成する処理(S960)を実行するように構成されてもよい。この場合、サービス提供システム60の記憶ユニット82は、パノラマ背景画像データD2を記憶しておくことができる。   In addition, the service providing system 60 may be configured to acquire the camera image data D1 instead of the composite image data D3 from the camera side system 40, and generate the composite image data D3 and the moving image data. For example, the control device 30 may be configured such that the processing unit 31 executes a process (S850) of transmitting the camera image data D1 instead of the processes of S830 and S840 as shown in FIG. The back-end server 80 performs a process (S960) in which the processing unit 81 generates composite image data D3 based on the camera image data D1 received from the control device 30, instead of the process of S920, as shown in FIG. It may be configured to execute. In this case, the storage unit 82 of the service providing system 60 can store the panoramic background image data D2.
カメラ側システム40の制御装置30は、合成画像データD3に基づき動画データを生成して、生成した動画データをサービス提供システム60に送信するように構成されてもよい。サービス提供システム60は、電子メールに添付する形態で、動画データを被写体TRに対応するユーザに配信するように構成されてもよい。   The control device 30 of the camera-side system 40 may be configured to generate moving image data based on the composite image data D3 and transmit the generated moving image data to the service providing system 60. The service providing system 60 may be configured to deliver moving image data to a user corresponding to the subject TR in a form attached to an e-mail.
この他、カメラ20は、カメラ画像データD1として、静止画データではなく動画データを生成する構成にされてもよく、撮影システム1は、カメラ20からの動画データと、静止画データであるパノラマ背景画像データD2とを合成して、壮大な背景の中で被写体が動く動画データを生成するように構成されてもよい。   In addition to this, the camera 20 may be configured to generate moving image data instead of still image data as the camera image data D1, and the imaging system 1 may include moving image data from the camera 20 and a panoramic background that is still image data. The image data D2 may be combined to generate moving image data in which a subject moves in a magnificent background.
本実施形態において、制御装置30及びバックエンドサーバ80の少なくとも一方において実現される、合成画像データD3を生成し、合成画像データD3に基づき動画データを生成する処理は、画像処理ユニットにて実現される処理の一例に対応する。   In the present embodiment, the process of generating the composite image data D3 and generating the moving image data based on the composite image data D3, which is realized in at least one of the control device 30 and the back-end server 80, is realized by the image processing unit. This corresponds to an example of processing.
[その他の実施形態]
本開示の撮影システムは、上記実施形態に限定されるものではなく、種々の態様をとることができる。例えば、ユーザ端末90は、ユーザにカメラ位置を知らせるために、内蔵カメラ(図示せず)を起動して、そのカメラにて撮影される画像をディスプレイ95に表示し、その画像中にカメラ位置を知らせるポインタR3を表示するように構成されてもよい。例えば、ユーザ端末90は、内蔵機器から得られるGPS位置情報及び方位情報と、サービス提供システム60から得られるカメラ位置情報とに基づき、ポインタR3を表示することができる。
[Other Embodiments]
The imaging system of the present disclosure is not limited to the above embodiment, and can take various forms. For example, in order to inform the user of the camera position, the user terminal 90 activates a built-in camera (not shown), displays an image captured by the camera on the display 95, and indicates the camera position in the image. You may comprise so that the pointer R3 to notify may be displayed. For example, the user terminal 90 can display the pointer R <b> 3 based on the GPS position information and direction information obtained from the built-in device and the camera position information obtained from the service providing system 60.
この他、撮影システム1は、撮影を完了したユーザが案内装置10を通じて動画を確認できるように構成されてもよい。この場合、サービス提供システム60は、案内装置10に動画データを配信するように構成され得る。上記ワンタイムパスワードに代えて、複数回又は長期間利用可能なパスワードが用いられてもよい。例えば、案内装置10は、日毎に異なるパスワードを表示するようにして、複数ユーザに同一パスワードを発行する構成にされてもよい。このようなパスワードの発行によっても、撮影スポットZに存在しないユーザからの無秩序なカメラ利用を抑えることができる。   In addition, the photographing system 1 may be configured such that a user who has completed photographing can check a moving image through the guidance device 10. In this case, the service providing system 60 may be configured to distribute moving image data to the guidance device 10. Instead of the one-time password, a password that can be used multiple times or for a long time may be used. For example, the guidance device 10 may be configured to issue the same password to a plurality of users by displaying different passwords every day. Even by issuing such a password, it is possible to suppress random use of the camera by a user who does not exist at the shooting spot Z.
上記実施形態における1つの構成要素が有する機能は、複数の構成要素に分散して設けられ得る。複数の構成要素が有する機能は、1つの構成要素に統合されてもよい。上記実施形態の構成の一部は、省略されてもよい。上記実施形態の構成の少なくとも一部は、他の上記実施形態の構成に対して付加又は置換されてもよい。特許請求の範囲に記載の文言から特定される技術思想に含まれるあらゆる態様が本発明の実施形態である。   The functions of one constituent element in the above embodiment can be distributed among a plurality of constituent elements. Functions of a plurality of components may be integrated into one component. A part of the configuration of the above embodiment may be omitted. At least a part of the configuration of the embodiment may be added to or replaced with the configuration of the other embodiment. Any aspect included in the technical idea specified by the wording of the claims is an embodiment of the present invention.
1…撮影システム、10…案内装置、11…処理ユニット、12…記憶ユニット、13…無線通信ユニット、15…ディスプレイ、17…入力ユニット、20,21,22,23…カメラ、30…制御装置、31…処理ユニット、32…記憶ユニット、33…無線通信ユニット、34…接続ユニット、40…カメラ側システム、60…サービス提供システム、70…フロントエンドサーバ、71…処理ユニット、72…記憶ユニット、80…バックエンドサーバ、81…処理ユニット、82…記憶ユニット、90…ユーザ端末、91…処理ユニット、92…記憶ユニット、93…無線通信ユニット、95…ディスプレイ、97…入力ユニット、TR…被写体、BG…背景、D1…カメラ画像データ、D2…パノラマ背景画像データ、D3…合成画像データ、NT…広域ネットワーク、R1…シャッターボタン。 DESCRIPTION OF SYMBOLS 1 ... Imaging system, 10 ... Guide apparatus, 11 ... Processing unit, 12 ... Storage unit, 13 ... Wireless communication unit, 15 ... Display, 17 ... Input unit, 20, 21, 22, 23 ... Camera, 30 ... Control device, DESCRIPTION OF SYMBOLS 31 ... Processing unit, 32 ... Storage unit, 33 ... Wireless communication unit, 34 ... Connection unit, 40 ... Camera side system, 60 ... Service providing system, 70 ... Front end server, 71 ... Processing unit, 72 ... Storage unit, 80 ... Back-end server, 81 ... Processing unit, 82 ... Storage unit, 90 ... User terminal, 91 ... Processing unit, 92 ... Storage unit, 93 ... Wireless communication unit, 95 ... Display, 97 ... Input unit, TR ... Subject, BG ... Background, D1 ... Camera image data, D2 ... Panorama background image data, D3 ... Image data, NT ... wide area network, R1 ... shutter button.

Claims (11)

  1. 遠隔操作装置からの命令に従って、被写体を撮影し、前記被写体の撮影画像を表す画像データを生成するカメラと、
    前記カメラが撮影可能な前記被写体の背景よりも広域の背景の撮影画像を表す画像データであって、前記広域の背景を区画毎に撮影して生成された背景画像データを記憶する記憶ユニットと、
    前記カメラが生成した前記画像データが表す前記被写体の撮影画像を、前記記憶ユニットが記憶する前記背景画像データが表す前記背景の撮影画像に合成することによって、前記広域の背景に前記被写体の撮影画像を配置した合成画像データを生成する画像処理ユニットと、
    を備える撮影システム。
    In accordance with a command from the remote control device, a camera that shoots a subject and generates image data representing a captured image of the subject;
    A storage unit for storing background image data generated by photographing the background of the wide area for each section, the image data representing a captured image of a background of a wider area than the background of the subject that can be photographed by the camera;
    The photographed image of the subject represented by the image data generated by the camera is combined with the photographed image of the background represented by the background image data stored in the storage unit, so that the photographed image of the subject on the background of the wide area. An image processing unit for generating composite image data in which
    A photographing system comprising:
  2. 前記画像処理ユニットは、前記合成画像データを用いて、前記被写体が写る動画データであって前記被写体にズームインする動画及び前記被写体からズームアウトする動画の少なくとも一方を含む動画データ、並びに、前記被写体が写る静止画データであって画角の異なる静止画データの集合である静止画データセットの少なくとも一方を、処理画像データとして生成する請求項1記載の撮影システム。   The image processing unit uses the composite image data to store moving image data including the moving image data including at least one of a moving image zooming in on the subject and a moving image zooming out from the subject. The imaging system according to claim 1, wherein at least one of still image data sets that are captured still image data and a set of still image data having different angles of view is generated as processed image data.
  3. 前記カメラに接続されて、前記カメラが生成した前記画像データを、広域ネットワークを通じて前記画像処理ユニットに送信する通信ユニット
    を備え、前記画像処理ユニットは、前記記憶ユニットと共に前記カメラとは離れて配置され、前記広域ネットワークを通じて前記カメラが生成した前記画像データを取得し、当該取得した画像データと前記記憶ユニットが記憶する前記背景画像データとを用いて、前記合成画像データを生成する請求項2記載の撮影システム。
    A communication unit that is connected to the camera and transmits the image data generated by the camera to the image processing unit through a wide area network; and the image processing unit is disposed apart from the camera together with the storage unit. The acquired image data generated by the camera through the wide area network is acquired, and the synthesized image data is generated using the acquired image data and the background image data stored in the storage unit. Shooting system.
  4. 遠隔操作装置からの命令に従って動作するカメラの一群であって、被写体を背景と共に撮影し、その撮影画像を表す静止画データである狭域画像データを生成する狭域カメラと、前記狭域カメラが前記被写体と共に撮影する前記背景よりも広域の背景を撮影し、その撮影画像を表す静止画データである広域画像データを生成する一つ以上の広域カメラと、を含むカメラの一群と、
    前記カメラの一群が生成した前記狭域画像データと前記広域画像データとを用いて、前記被写体が写る動画データであって前記被写体にズームインする動画及び前記被写体からズームアウトする動画の少なくとも一方を含む動画データ、並びに、前記被写体が写る静止画データであって画角の異なる静止画データの集合である静止画データセットの少なくとも一方を、処理画像データとして生成する画像処理ユニットと、
    を備える撮影システム。
    A group of cameras that operate according to a command from a remote control device, which captures a subject together with a background and generates narrow-area image data that is still image data representing the captured image, and the narrow-area camera includes A group of cameras, including one or more wide area cameras that capture a wide area background than the background to be photographed with the subject and generate wide area image data that is still image data representing the captured image;
    Using the narrow-area image data and the wide-area image data generated by the group of cameras, the moving-image data including the subject includes at least one of a movie that zooms in on the subject and a movie that zooms out from the subject. An image processing unit that generates at least one of moving image data and a still image data set that is a set of still image data with different angles of view, which is still image data in which the subject is captured, as processed image data;
    A photographing system comprising:
  5. 前記カメラの一群に接続されて、前記カメラの一群が生成した前記狭域画像データと前記広域画像データとを、広域ネットワークを通じて前記画像処理ユニットに送信する通信ユニット
    を備え、前記画像処理ユニットは、前記カメラの一群とは離れて配置されて、前記広域ネットワークを通じて前記カメラの一群が生成した前記狭域画像データと前記広域画像データとを取得し、当該取得した前記狭域画像データと前記広域画像データとを用いて、前記処理画像データを生成する請求項4記載の撮影システム。
    A communication unit connected to the group of cameras and transmitting the narrow area image data and the wide area image data generated by the group of cameras to the image processing unit through a wide area network, the image processing unit comprising: The narrow-area image data and the wide-area image data generated by the group of cameras that are arranged apart from the group of the cameras and generated through the wide-area network are acquired, and the acquired narrow-area image data and the wide-area image are acquired. The imaging system according to claim 4, wherein the processed image data is generated using data.
  6. 前記画像処理ユニットは、前記処理画像データを、前記遠隔操作装置、及び、前記被写体と対応付けられたユーザ端末の少なくとも一方に配信する請求項2〜請求項5のいずれか一項記載の撮影システム。   The imaging system according to any one of claims 2 to 5, wherein the image processing unit distributes the processed image data to at least one of the remote control device and a user terminal associated with the subject. .
  7. 前記遠隔操作装置は、前記被写体に対応するユーザの通信端末であり、
    前記画像処理ユニットは、前記通信端末に、前記生成した前記処理画像データを配信するように構成される請求項6記載の撮影システム。
    The remote control device is a communication terminal of a user corresponding to the subject;
    The imaging system according to claim 6, wherein the image processing unit is configured to distribute the generated processed image data to the communication terminal.
  8. 前記画像処理ユニットは、前記処理画像データを、前記被写体に対応するユーザがアクセス可能なサーバ装置に格納する請求項2又は請求項4記載の撮影システム。   The imaging system according to claim 2 or 4, wherein the image processing unit stores the processed image data in a server device accessible by a user corresponding to the subject.
  9. 前記被写体に対応するユーザに対して認証コードを発行し、発行した前記認証コードが入力されたことを条件に、前記遠隔操作装置からの命令を受け付けて、前記カメラを作動させる作動制御ユニットを備え、
    前記カメラは、前記作動制御ユニットに制御されて動作し、前記被写体を撮影する請求項1〜請求項3のいずれか一項記載の撮影システム。
    An operation control unit that issues an authentication code to a user corresponding to the subject, receives an instruction from the remote control device, and operates the camera on condition that the issued authentication code is input. ,
    The imaging system according to any one of claims 1 to 3, wherein the camera operates under the control of the operation control unit and images the subject.
  10. 前記被写体に対応するユーザに対して認証コードを発行し、発行した前記認証コードが入力されたことを条件に、前記遠隔操作装置からの命令を受け付けて、前記カメラの一群を作動させる作動制御ユニットを備え、
    前記カメラの一群は、前記作動制御ユニットに制御されて動作する請求項4又は請求項5記載の撮影システム。
    An operation control unit that issues an authentication code to a user corresponding to the subject, receives an instruction from the remote control device, and operates the group of cameras on condition that the issued authentication code is input With
    The photographing system according to claim 4 or 5, wherein the group of cameras operate under the control of the operation control unit.
  11. 請求項1〜請求項10のいずれか一項記載の撮影システムが備える前記画像処理ユニットとしての機能を、コンピュータに実現させるためのプログラム。   The program for making a computer implement | achieve the function as the said image processing unit with which the imaging | photography system as described in any one of Claims 1-10 is provided.
JP2016033634A 2016-02-24 2016-02-24 Photographing system and program Pending JP2017152931A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016033634A JP2017152931A (en) 2016-02-24 2016-02-24 Photographing system and program

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2016033634A JP2017152931A (en) 2016-02-24 2016-02-24 Photographing system and program
TW106106483A TW201736933A (en) 2016-02-24 2017-02-24 Photographing system and data generation method
PCT/JP2017/007171 WO2017146224A1 (en) 2016-02-24 2017-02-24 Photographing system and data generation method

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2017047299A Division JP6196403B2 (en) 2017-03-13 2017-03-13 Imaging system and program

Publications (1)

Publication Number Publication Date
JP2017152931A true JP2017152931A (en) 2017-08-31

Family

ID=59686332

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016033634A Pending JP2017152931A (en) 2016-02-24 2016-02-24 Photographing system and program

Country Status (3)

Country Link
JP (1) JP2017152931A (en)
TW (1) TW201736933A (en)
WO (1) WO2017146224A1 (en)

Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003207841A (en) * 2002-01-16 2003-07-25 Omron Corp Method and device for automatically vending picture seal, seal paper unit and picture seal sheet
JP2003241293A (en) * 2002-12-16 2003-08-27 Fuji Photo Film Co Ltd Camera with remote control device
JP2004007296A (en) * 2002-06-03 2004-01-08 Toshiba Eng Co Ltd Camera photography system and camera photographing device
JP2005099164A (en) * 2003-09-22 2005-04-14 Fuji Photo Film Co Ltd Automatic photographing system
JP2006270550A (en) * 2005-03-24 2006-10-05 Casio Comput Co Ltd Image photographing apparatus, and program
JP2007166352A (en) * 2005-12-15 2007-06-28 Sony Corp Camera system
JP2008072308A (en) * 2006-09-13 2008-03-27 Tatsumi Denshi Kogyo Kk Automatic photographing device and automatic photographing method
JP2009033755A (en) * 2008-08-20 2009-02-12 Make Softwear:Kk Photo print providing apparatus, method and program
CN101656836A (en) * 2008-08-22 2010-02-24 奥林巴斯映像株式会社 Camera, image composition method and procedures
JP2011160354A (en) * 2010-02-03 2011-08-18 Canon Inc Image processing device, image processing method, and program therefor
JP2014183425A (en) * 2013-03-19 2014-09-29 Sony Corp Image processing method, image processing device and image processing program
JP2014217010A (en) * 2013-04-30 2014-11-17 株式会社ニコン Imaging device and control program
JP2015195581A (en) * 2014-03-20 2015-11-05 フリュー株式会社 Management apparatus and control method of management apparatus

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004048648A (en) * 2002-05-13 2004-02-12 Fuji Photo Film Co Ltd Method of forming special effect image, camera and image server
JP2004297143A (en) * 2003-03-25 2004-10-21 Fuji Photo Film Co Ltd Photographing system
JP2006229467A (en) * 2005-02-16 2006-08-31 Fuji Photo Film Co Ltd Photo movie creating apparatus, photo movie creating program, and object recognition method
JP6178048B2 (en) * 2012-06-06 2017-08-09 ソニー株式会社 Image processing apparatus, image processing method, and program

Patent Citations (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003207841A (en) * 2002-01-16 2003-07-25 Omron Corp Method and device for automatically vending picture seal, seal paper unit and picture seal sheet
JP2004007296A (en) * 2002-06-03 2004-01-08 Toshiba Eng Co Ltd Camera photography system and camera photographing device
JP2003241293A (en) * 2002-12-16 2003-08-27 Fuji Photo Film Co Ltd Camera with remote control device
JP2005099164A (en) * 2003-09-22 2005-04-14 Fuji Photo Film Co Ltd Automatic photographing system
JP2006270550A (en) * 2005-03-24 2006-10-05 Casio Comput Co Ltd Image photographing apparatus, and program
JP2007166352A (en) * 2005-12-15 2007-06-28 Sony Corp Camera system
JP2008072308A (en) * 2006-09-13 2008-03-27 Tatsumi Denshi Kogyo Kk Automatic photographing device and automatic photographing method
JP2009033755A (en) * 2008-08-20 2009-02-12 Make Softwear:Kk Photo print providing apparatus, method and program
JP2010050795A (en) * 2008-08-22 2010-03-04 Olympus Imaging Corp Camera, image composition method, and program
CN101656836A (en) * 2008-08-22 2010-02-24 奥林巴斯映像株式会社 Camera, image composition method and procedures
JP2011160354A (en) * 2010-02-03 2011-08-18 Canon Inc Image processing device, image processing method, and program therefor
JP2014183425A (en) * 2013-03-19 2014-09-29 Sony Corp Image processing method, image processing device and image processing program
CN105190511A (en) * 2013-03-19 2015-12-23 索尼公司 Image processing method, image processing device and image processing program
US20160027201A1 (en) * 2013-03-19 2016-01-28 Sony Corporation Image processing method, image processing device and image processing program
JP2014217010A (en) * 2013-04-30 2014-11-17 株式会社ニコン Imaging device and control program
JP2015195581A (en) * 2014-03-20 2015-11-05 フリュー株式会社 Management apparatus and control method of management apparatus

Also Published As

Publication number Publication date
TW201736933A (en) 2017-10-16
WO2017146224A1 (en) 2017-08-31

Similar Documents

Publication Publication Date Title
JP6756269B2 (en) Communication terminals, image communication systems, communication methods, and programs
KR102145542B1 (en) Image photographing apparatus, image photographing system for photographing using a plurality of image photographing apparatuses and methods for photographing image thereof
JP6171263B2 (en) Remote conference system and remote conference terminal
JP4098808B2 (en) Remote video display method, video acquisition device, method thereof, and program thereof
JP2018129716A (en) Image processing device, image processing system, image processing metho, and program
US10187571B2 (en) Image management apparatus, image communication system, method for controlling display of captured image, and non-transitory computer-readable medium
JP2014131215A (en) Image management system, image management method, and program
JP2016096487A (en) Imaging system
US10437545B2 (en) Apparatus, system, and method for controlling display, and recording medium
US9742995B2 (en) Receiver-controlled panoramic view video share
WO2014154003A1 (en) Method and apparatus for displaying self-taken images
WO2017092128A1 (en) Method and device for displaying preview image
KR20170013877A (en) Photo-video-camera with dynamic orientation lock, constant framing and defined aspect ratio
JP2020170526A (en) Image management system and image management method
KR20100070146A (en) Display method and photographing apparatus and display apparatus using the same
KR20150128688A (en) Method and apparatus for camera control using a virtual button and gestures
JP2017201753A (en) Network system and method for controlling the same
JP6196403B2 (en) Imaging system and program
US20150189151A1 (en) Information processing apparatus, imaging apparatus, information processing method, information processing program, and imaging system
JP6586819B2 (en) Image management system, image communication system, image management method, and program
JP2017152931A (en) Photographing system and program
KR20150128689A (en) Method and system for stabilization and reframing
JP2021039468A (en) Imaging device, communication system, communication method, and program
JP6625341B2 (en) Video search device, video search method, and program
JP2003018070A (en) System for transmitting video image to photographed person

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170613

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20171212