JP2009164817A - Camera system and synthesizing apparatus - Google Patents
Camera system and synthesizing apparatus Download PDFInfo
- Publication number
- JP2009164817A JP2009164817A JP2007340834A JP2007340834A JP2009164817A JP 2009164817 A JP2009164817 A JP 2009164817A JP 2007340834 A JP2007340834 A JP 2007340834A JP 2007340834 A JP2007340834 A JP 2007340834A JP 2009164817 A JP2009164817 A JP 2009164817A
- Authority
- JP
- Japan
- Prior art keywords
- information
- distribution terminal
- shooting
- image data
- terminal device
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Television Signal Processing For Recording (AREA)
- Studio Devices (AREA)
Abstract
Description
本発明は、撮影者が撮影した画像データに特殊効果を施して印刷するカメラシステムおよび合成装置に関する。 The present invention relates to a camera system and a synthesizing apparatus that prints image data taken by a photographer with a special effect.
遊園地やテーマパークなどの施設内において、来場客が撮影した画像にフレーム等の付加画像を合成して印刷するサービスが知られている。このようなサービスの付加価値を高めるために特許文献1には、カメラが撮影実行の度に位置情報をサーバに送信し、送られた位置情報に基づいてサーバが付加画像をランダムに選択しカメラに送信することで、来場客に意外性の高いアミューズメント性を提供することが記載されている。
しかしながら、一般に撮影画像で重要なのは撮影位置ではなく何が撮影されているかであると考えられる。このため、撮影された物に基づいて付加画像を合成することが望ましい。ところが、撮影画像から撮影された物を判別することは困難であり処理が煩雑になってしまうのに加え、精度も期待できない。 However, it is generally considered that what is important in the photographed image is not the photographing position but what is being photographed. For this reason, it is desirable to synthesize the additional image based on the photographed object. However, it is difficult to discriminate the photographed object from the photographed image, and the processing becomes complicated, and accuracy cannot be expected.
本発明はこのような状況を鑑みてなされたものであり、煩雑な処理を行なうことなく撮影対象物を評価して付加画像を合成するのに好適なカメラシステムおよび合成装置を提供することを目的とする。 The present invention has been made in view of such a situation, and an object of the present invention is to provide a camera system and a composition apparatus suitable for evaluating an object to be photographed and composing an additional image without performing complicated processing. And
上記課題を解決するため、本発明に係るカメラシステムは、自装置の位置情報を取得する位置情報取得手段と、自装置が向いている方位情報を取得する方位情報取得手段と、取得した位置情報と方位情報とを配信端末情報として配信する配信手段とを備えた配信端末装置と、撮影位置の位置情報を取得する位置情報取得手段と、撮影方向の方位情報を取得する方位情報取得手段と、画像データを生成する撮影手段と、前記撮影手段による撮影の際に前記配信端末装置が配信する配信端末情報を受信する受信手段と、前記取得した位置情報と方位情報とを撮影情報として、前記受信した配信端末情報とともに前記画像データに関連付けて記録する記録手段とを備えたカメラと、複数種の付加画像を記録した記憶手段と、前記記録された画像データを読み取る読取手段と、前記読み取った画像データに関連付けられた前記撮影情報と前記配信端末情報とから算出される撮影位置と配信端末装置との距離および相対方向とから、前記配信端末装置が配置された物の正面が前記画像データに写っているか否かを所定の基準により判別し、判別結果に応じて付加画像を選択する選択手段と、前記画像データに前記選択された付加画像を合成した印刷データを生成する印刷データ生成手段とを備えた合成装置と、を備えたことを特徴とする。 In order to solve the above problems, a camera system according to the present invention includes position information acquisition means for acquiring position information of the own apparatus, direction information acquisition means for acquiring direction information toward the own apparatus, and acquired position information. And a distribution terminal device that distributes the azimuth information as distribution terminal information, a position information acquisition unit that acquires the position information of the shooting position, a direction information acquisition unit that acquires the direction information of the shooting direction, An imaging unit that generates image data, a receiving unit that receives distribution terminal information distributed by the distribution terminal device at the time of imaging by the imaging unit, and the received position information and orientation information as imaging information. A camera having a recording means for recording in association with the image data together with the distributed terminal information, a storage means for recording a plurality of types of additional images, and the recorded image data. The distribution terminal device is arranged from the reading means for reading the image, the distance between the shooting position calculated from the shooting information associated with the read image data and the distribution terminal information, and the distribution terminal device, and the relative direction. A selection unit that determines whether or not the front side of the object is reflected in the image data based on a predetermined criterion, and selects the additional image according to the determination result; and the print that combines the selected additional image with the image data And a synthesizing device including print data generation means for generating data.
上記課題を解決するため、本発明に係る合成装置は、撮影の際に、自装置の位置情報と自装置が向いている方位情報とを配信端末情報として配信する配信端末装置から前記配信端末情報を受信し、撮影位置の位置情報と撮影方向の方位情報とを撮影情報として、前記受信した配信端末情報とともに撮影に係る画像データに関連付けて記録するカメラによって記録された画像データを読み取る読取手段と、複数種の付加画像を記録した記憶手段と、前記読み取った画像データに関連付けられた前記撮影情報と前記配信端末情報とから算出される撮影位置と配信端末装置との距離および相対方向とから、前記配信端末装置が配置された物の正面が前記画像データに写っているか否かを所定の基準により判別し、判別結果に応じて付加画像を選択する選択手段と、前記画像データに前記選択された付加画像を合成した印刷データを生成する印刷データ生成手段とを備える。 In order to solve the above problems, the synthesizing apparatus according to the present invention provides the distribution terminal information from the distribution terminal apparatus that distributes the position information of the own apparatus and the azimuth information to which the own apparatus is directed as the distribution terminal information at the time of shooting. Reading means for reading image data recorded by a camera that records the position information of the shooting position and the direction information of the shooting direction as shooting information in association with the received distribution terminal information and the image data relating to shooting. , From a storage unit that records a plurality of types of additional images, a shooting position calculated from the shooting information associated with the read image data and the distribution terminal information, and a distance and a relative direction between the distribution terminal device, It is determined whether or not the front of the object on which the distribution terminal device is arranged is reflected in the image data based on a predetermined criterion, and an additional image is selected according to the determination result. Comprising a selection unit, a print data generating unit that generates print data obtained by synthesizing the selected additional image to said image data.
本発明によれば、配信端末装置からの位置情報および方位情報と、カメラの撮影時の位置情報および方位情報に基づいて撮影対象物が写っているかどうかを判別して合成する付加画像を選択するため、煩雑な処理を行なうことなく撮影対象物を評価して付加画像を合成するのに好適なカメラシステムおよび合成装置を実現することができる。 According to the present invention, the additional image to be combined is selected based on the position information and the direction information from the distribution terminal device and the position information and the direction information at the time of shooting by the camera. Therefore, it is possible to realize a camera system and a synthesizing apparatus suitable for evaluating an object to be photographed and synthesizing an additional image without performing complicated processing.
以下、図面を参照して、本発明の好適な実施形態を例示的に詳しく説明する。但し、本実施形態に記載されている構成要素の相対配置や表示図面等は、特に決定的な記載がない限り、本発明の範囲をそれらのみに限定するものではない。 Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the drawings. However, the relative arrangement of components and display drawings described in the present embodiment do not limit the scope of the present invention to those unless otherwise specified.
図1は、本実施形態に係るカメラシステムの概要を示す図である。本図に示すように、カメラシステムは施設700内において効果的に適用することができる。施設700としては、遊園地、テーマパーク等の複数の撮影対象物が存在しているアミューズメント施設が代表的であるが、これらに限定されるものではない。 FIG. 1 is a diagram showing an overview of a camera system according to the present embodiment. As shown in the figure, the camera system can be effectively applied in the facility 700. The facility 700 is typically an amusement facility where a plurality of objects to be photographed, such as an amusement park and a theme park, but is not limited thereto.
施設700には、撮影対象物の例として建造物A600a、アトラクションB600b、キャラクタC600cが存在している。なお、これらの撮影対象物の例を撮影対象物600という場合もある。撮影対象物はそれぞれ向き・位置が定められる。ここで、向きはその撮影対象物の正面方向とする。ただし、撮影対象物によっては向きが問題にならないものもある。建造物A600aは、位置・方向とも固定された撮影対象物である。アトラクションB600bは、種類により位置・方向とも変化するもの、位置は固定され方向が変化するもの、位置は変化するが方向は固定されるものがある撮影対象物である。キャラクタC600cは位置・方向とも自在に変化する撮影対象物である。 In the facility 700, there are a building A600a, an attraction B600b, and a character C600c as examples of objects to be photographed. Note that examples of these shooting objects may be referred to as shooting objects 600. The direction and position of each object to be photographed are determined. Here, the direction is the front direction of the subject. However, depending on the object to be photographed, the direction may not be a problem. The building A600a is a photographing object whose position and direction are both fixed. The attraction B600b is an object to be photographed that has both a position and direction that change depending on the type, a position that is fixed and the direction changes, and a position that changes and the direction is fixed. The character C600c is a subject to be photographed whose position and direction change freely.
各撮影対象物600には、配信端末装置200が配置されている。すなわち、建造物A600aには配信端末装置200aが配置され、アトラクションB600には配信端末装置200bが配置され、キャラクタC600cには配信端末装置200cが配置されている。各配信端末装置200は正面方向が設定されており、対応する撮影対象物600の正面方向と一致するように固定して配置される。なお、図中の撮影対象物600に付された矢印は、撮影対象物600および配信端末装置200の正面方向を示している。配信端末装置200は位置を検出する位置検出機能と自装置が向いている方向を検出する方位検出機能を備えており、自装置の識別情報と方位情報と位置情報とを含む配信端末情報をあらかじめ定められた方式の無線信号により配信している。 A distribution terminal device 200 is disposed on each photographing object 600. That is, the distribution terminal device 200a is arranged in the building A600a, the distribution terminal device 200b is arranged in the attraction B600, and the distribution terminal device 200c is arranged in the character C600c. Each distribution terminal device 200 has a front direction set, and is fixedly arranged so as to coincide with the front direction of the corresponding photographing object 600. In addition, the arrow attached | subjected to the imaging | photography target object 600 in the figure has shown the front direction of the imaging | photography target object 600 and the delivery terminal device 200. FIG. The distribution terminal device 200 has a position detection function for detecting a position and an azimuth detection function for detecting a direction in which the own device is facing, and the distribution terminal information including the identification information, the azimuth information, and the position information of the own device in advance. It is distributed by radio signals of a prescribed method.
施設700の来場者であるユーザは、カメラ100を用いて施設700内の撮影を行なう。カメラ100には、通常の撮影機能に加え、撮影位置と撮影方向とを検出する機能と、配信端末装置200が配信する配信端末情報を受信して、撮影位置および撮影方向の撮影情報とともに画像データと関連付けて可搬型の記憶装置500に記録する機能を備えている。図中のカメラ100に付された矢印は撮影方向を示している。 A user who is a visitor of the facility 700 uses the camera 100 to photograph the inside of the facility 700. In addition to the normal shooting function, the camera 100 receives a shooting position and shooting direction, and distribution terminal information distributed by the distribution terminal device 200, and receives image data together with shooting information of the shooting position and shooting direction. And a function of recording in the portable storage device 500. The arrow attached to the camera 100 in the figure indicates the shooting direction.
施設700内にはサービスセンタ620が設けられている。サービスセンタ620には、合成装置300と、プリンタ320とが備えられている。合成装置300は、複数種類のフレームを記憶しており、記憶装置500から画像データを読込んで、その画像データに関連付けられた配信端末情報および撮影情報に応じたフレームを選択し、選択されたフレームが合成された画像の印刷データを生成しプリンタ320に出力する。 A service center 620 is provided in the facility 700. The service center 620 includes a composition device 300 and a printer 320. The synthesizing device 300 stores a plurality of types of frames, reads image data from the storage device 500, selects a frame corresponding to distribution terminal information and shooting information associated with the image data, and selects the selected frame. Is generated and output to the printer 320.
図2は、カメラ100の構成を示すブロック図である。本図に示すようにカメラ100は、処理装置・メモリ等を有し、カメラ100における各種処理を制御する制御部11と、レンズ・CCD等を有し撮影を実行する撮影機構部12と、液晶画面等の表示装置13と、可搬型の記憶装置500に画像データ等を書き込む画像情報記録部14と、配信端末装置200からの配信端末情報を受信する無線受信部15と、衛星からの電波を受信して自装置の位置を検出するGPS16と、自装置の向き(撮影方向)を検出する方位センサ17とを備えている。 FIG. 2 is a block diagram illustrating the configuration of the camera 100. As shown in the figure, the camera 100 includes a processing device, a memory, and the like, a control unit 11 that controls various processes in the camera 100, a photographing mechanism unit 12 that includes a lens, a CCD, and the like to perform photographing, A display device 13 such as a screen; an image information recording unit 14 that writes image data or the like in a portable storage device 500; a wireless reception unit 15 that receives distribution terminal information from the distribution terminal device 200; and a radio wave from a satellite. It includes a GPS 16 that receives and detects the position of the own device, and an orientation sensor 17 that detects the direction (photographing direction) of the own device.
制御部11には、撮影機構部12が撮影した画像に対する処理を行なう画像処理部11aが含まれる。なお、カメラ100に合成装置300との通信機能を持たせて記憶装置500を介さずに直接情報のやり取りを行えるようにしてもよい。また、通信は有線無線を問わない。 The control unit 11 includes an image processing unit 11a that performs processing on an image captured by the imaging mechanism unit 12. Note that the camera 100 may have a communication function with the synthesizing device 300 so that information can be directly exchanged without using the storage device 500. The communication may be wired or wireless.
図3は、配信端末装置200の構成を示すブロック図である。本図に示すように配信端末装置200は、配信端末装置200における処理を制御する制御部21と、配信端末情報を無線信号で配信する無線配信部22と、衛星からの電波を受信して自装置の位置を検出するGPS23と、自装置の向きを検出する方位センサ24とを備えている。ただし、位置が変化しない撮影対象物600に配置される配信端末装置200には、GPS23を備える必要はなく、設定された自装置の位置情報を記憶しておけばよい。また、方向が変化しない撮影対象物600に配置される配信端末装置200には、方位センサ24を備える必要はなく、設定された自装置の方向を記憶しておけばよい。 FIG. 3 is a block diagram illustrating a configuration of the distribution terminal device 200. As shown in the figure, the distribution terminal device 200 receives a radio wave from a satellite, a control unit 21 that controls processing in the distribution terminal device 200, a wireless distribution unit 22 that distributes distribution terminal information by a radio signal, A GPS 23 that detects the position of the device and an azimuth sensor 24 that detects the orientation of the device itself are provided. However, the distribution terminal device 200 arranged on the photographing object 600 whose position does not change does not need to include the GPS 23, and the set location information of the device itself may be stored. Further, the distribution terminal device 200 arranged on the photographing object 600 whose direction does not change does not need to include the direction sensor 24, and the set direction of the device itself may be stored.
配信端末装置200には識別子が付されており、制御部21に記録されている。この識別子により、どの撮影対象物600に配置された配信端末装置200であるかを特定することができるようになっている。配信端末装置200が配信端末情報を配信する範囲は、配信端末装置200が配置されている撮影対象物600の撮影可能範囲程度の距離に設定することが望ましい。例えば、撮影対象物600が大きくて遠くからでも撮影可能な場合には配信範囲を広く設定し、撮影対象物600が小さくて近くでなければ撮影できない場合には配信範囲を狭く設定する。もちろん、すべての配信端末装置200について一律に設定してもよいし、可変としてもよい。配信端末装置200が配信に用いる無線方式は、カメラ100の無線受信部15にも採用されており、配信端末装置200の配信範囲内にあるカメラ100は、その配信端末装置200が配信する配信端末情報を受信することが可能である。 An identifier is assigned to the distribution terminal device 200 and is recorded in the control unit 21. With this identifier, it is possible to specify which photographing object 600 the distribution terminal device 200 is placed on. The range in which the distribution terminal device 200 distributes the distribution terminal information is desirably set to a distance that is about the shootable range of the shooting target object 600 in which the distribution terminal device 200 is arranged. For example, if the object 600 is large and can be photographed from a distance, the distribution range is set wide. If the object 600 is small and cannot be photographed, the distribution range is set narrow. Of course, all of the distribution terminal devices 200 may be set uniformly or may be variable. The wireless method used for distribution by the distribution terminal device 200 is also adopted by the wireless reception unit 15 of the camera 100, and the camera 100 within the distribution range of the distribution terminal device 200 is distributed by the distribution terminal device 200. It is possible to receive information.
図4は、合成装置300の構成を示すブロック図である。本図に示すように合成装置300は、処理装置・メモリ等を有し、合成装置300における各種処理を制御する制御部31と、可搬型の記憶装置500から画像データ等を読込む画像情報読取部32と、画像データに合成するフレーム画像等を格納するフレーム情報格納部33と、生成した印刷データをプリンタ320に出力する印刷データ出力部34とを備えている。なお、合成装置300にカメラ100との通信機能を持たせて記憶装置500を介さずに直接情報のやり取りを行えるようにしてもよい。また、通信は有線無線を問わない。 FIG. 4 is a block diagram illustrating a configuration of the synthesis apparatus 300. As shown in the figure, the synthesizing device 300 includes a processing device, a memory, etc., and a control unit 31 that controls various processes in the synthesizing device 300, and image information reading that reads image data and the like from the portable storage device 500. A unit 32, a frame information storage unit 33 that stores a frame image to be combined with the image data, and a print data output unit 34 that outputs the generated print data to the printer 320. Note that the compositing device 300 may have a communication function with the camera 100 so that information can be directly exchanged without using the storage device 500. The communication may be wired or wireless.
制御部31には、画像データに関連付けられた配信端末情報および撮影情報に応じたフレームを選択するフレーム処理部31a、選択されたフレームと画像データを合成した印刷データを生成する印刷データ生成部31bが含まれる。 The control unit 31 includes a frame processing unit 31a that selects a frame according to distribution terminal information and shooting information associated with the image data, and a print data generation unit 31b that generates print data obtained by combining the selected frame and the image data. Is included.
本実施形態において、フレーム情報格納部33が格納するフレームは、汎用フレーム、撮影対象物対応フレーム、特別フレームの3種類に大別される。汎用フレームは、画像データに撮影対象物が写っていないと判断されたり、写っていても遠かったり正面を向いていないと判断された場合に用いるフレームであり、例えば、施設700に関連する一般的なオリジナルフレームとすることができる。汎用フレームは、複数個用意してもよい。 In the present embodiment, the frames stored in the frame information storage unit 33 are roughly classified into three types: general-purpose frames, frames for photographing objects, and special frames. The general-purpose frame is a frame used when it is determined that the object to be photographed is not captured in the image data, or when it is determined that the subject is far away or not facing the front. Original frame. A plurality of general-purpose frames may be prepared.
撮影対象物対応フレームは、画像データに撮影対象物の正面が写っていると判断された場合に用いるフレームであり、その撮影対象物に関連したフレームとすることがき、撮影対象物毎に用意しておくことが望ましい。さらに同一の撮影対象物について複数個用意してもよい。 The frame corresponding to the shooting target is a frame used when it is determined that the front of the shooting target is reflected in the image data, and can be a frame related to the shooting target, and is prepared for each shooting target. It is desirable to keep it. Further, a plurality of the same object to be photographed may be prepared.
特別フレームは、撮影対象物対応フレームを用いる場合であっても、さらに、特別な条件を満たしたときに用いるプレミアム的なフレームである。特別な条件は、例えば、特定の撮影時刻に限定したり、特定の撮影地に限定したり、特定の撮影対象物に限定したり、所定の確率を満たした場合等とすることができる。なお、1日の使用回数の上限を定めるようにしてもよい。このような容易に取得することができない特別なフレームを用いることによりエンタテインメント性を一層高めることができる。また、特別フレームは撮影対象物共通としてもよいし撮影対象物毎に用意してもよい。もちろん、フレーム情報格納部33が格納するフレームの種類は3種類に限られない。例えば、特別フレームは用いることなく、汎用フレームと撮影対象物対応フレームの2種類としてもよい。 The special frame is a premium frame that is used when a special condition is satisfied even when a frame corresponding to the photographing object is used. The special condition can be, for example, limited to a specific shooting time, limited to a specific shooting location, limited to a specific shooting target, or when a predetermined probability is satisfied. In addition, you may make it define the upper limit of the frequency | count of a daily use. By using such a special frame that cannot be easily obtained, entertainment can be further enhanced. Further, the special frame may be common to the photographing object or may be prepared for each photographing object. Of course, the types of frames stored in the frame information storage unit 33 are not limited to three. For example, a special frame and a frame corresponding to a photographing object may be used without using a special frame.
また、合成装置300は、配信端末装置200の識別子と、その配信端末装置200が配置された撮影対象物600との対応表を記憶しており、配信端末装置200の識別子から撮影対象物600を特定することができるようになっている。 The synthesizing device 300 stores a correspondence table between the identifier of the distribution terminal device 200 and the shooting target object 600 on which the distribution terminal device 200 is arranged, and the shooting target object 600 is determined from the identifier of the distribution terminal device 200. It can be specified.
次に、本実施形態における各装置の処理の流れについて説明する。まず図5のフローチャートを参照して配信端末装置200の処理を説明する。図5(a)に示すように、配信端末装置200は、定期的または不定期な間隔に、あるいは所定のトリガにより位置情報を取得する(S101)。位置情報の取得はGPS23を用いて行なうことができる。また、方位情報を取得する(S102)。方位情報の取得は方位センサ24を用いて行なうことができる。そして、取得した位置情報と方位情報と自装置の識別子とを含む配信端末情報を、無線配信部22を通じて配信する(S103)。 Next, the processing flow of each device in the present embodiment will be described. First, the processing of the distribution terminal device 200 will be described with reference to the flowchart of FIG. As shown in FIG. 5A, the distribution terminal device 200 acquires position information at regular or irregular intervals or by a predetermined trigger (S101). The position information can be acquired using the GPS 23. Also, direction information is acquired (S102). The direction information can be acquired using the direction sensor 24. Then, distribution terminal information including the acquired position information, direction information, and the identifier of the own device is distributed through the wireless distribution unit 22 (S103).
なお、位置、方向とも変わらない撮影対象物600に配置された配信端末装置200であれば、図5(b)に示すように位置情報(S101a)および方位情報(S102a)は始めに1度だけ取得して、配信端末情報(S103a)を繰り返し配信するようにしてもよい。この場合、固定値である位置情報および方位情報は、GPS23および方位センサ24を用いずに、あらかじめ記録された値を読み出して取得することができる。 If the distribution terminal device 200 is placed on the photographing object 600 whose position and direction do not change, the position information (S101a) and the direction information (S102a) are only once at the beginning as shown in FIG. You may make it acquire and distribute delivery terminal information (S103a) repeatedly. In this case, the position information and the azimuth information, which are fixed values, can be obtained by reading out values recorded in advance without using the GPS 23 and the azimuth sensor 24.
また、方向は変わるが位置は変わらない撮影対象物600に配置された配信端末装置200であれば、図5(c)に示すように位置情報は始めに1度だけ取得して(S101b)、方位情報の取得(S102b)と配信端末情報の配信(S103b)を繰り返すようにしてもよい。この場合、固定値である位置情報は方位センサ24を用いずに、あらかじめ記録された値を読み出して取得することができる。 Further, if the distribution terminal device 200 is arranged on the photographing object 600 whose direction is changed but the position is not changed, the position information is acquired only once as shown in FIG. 5C (S101b). You may make it repeat acquisition of azimuth | direction information (S102b), and delivery (S103b) of delivery terminal information. In this case, the position information that is a fixed value can be obtained by reading a value recorded in advance without using the azimuth sensor 24.
次に、カメラ100の処理について説明する。図6は、カメラ100の処理を説明するためのフローチャートである。本図に示すように、カメラ100は、ユーザからの撮影指示を受け付けるのを待つ(S201)。撮影指示は具体的には図示しないシャッタボタンの押下とすることができる。ユーザから撮影指示を受け付けると(S201:Yes)、カメラ100は撮影を実行して画像データを記憶装置500に記録する(S202)。 Next, processing of the camera 100 will be described. FIG. 6 is a flowchart for explaining processing of the camera 100. As shown in the figure, the camera 100 waits to accept a shooting instruction from the user (S201). Specifically, the shooting instruction can be a press of a shutter button (not shown). When a shooting instruction is received from the user (S201: Yes), the camera 100 executes shooting and records image data in the storage device 500 (S202).
撮影の実行の際、GPS16を用いて撮影場所の位置情報を取得する(S203)。また、方位センサ17を用いて自装置の向き、すなわち、撮影方向を取得する(S204)。 At the time of shooting, position information of the shooting location is acquired using the GPS 16 (S203). Further, the orientation sensor 17 is used to acquire the direction of the device itself, that is, the shooting direction (S204).
さらに、配信端末情報を受信可能かどうかを判断する(S205)。その結果、配信端末情報が受信不可能なとき(S205:No)、すなわち、カメラ100がいずれの配信端末装置200の配信範囲内にないときは、再度、撮影指示の受付を待つ(S201)。 Further, it is determined whether or not the distribution terminal information can be received (S205). As a result, when the distribution terminal information cannot be received (S205: No), that is, when the camera 100 is not within the distribution range of any of the distribution terminal devices 200, the reception of the imaging instruction is again waited (S201).
一方、配信端末情報が受信可能なとき(S205:Yes)、すなわち、カメラ100がいずれかの配信端末装置200の配信範囲内にいるときは、受信した配信端末情報、すなわち、配信端末装置200の位置情報と方位情報と識別子と、自装置が取得した撮影情報、すなわち、撮影場所の位置情報と撮影方向とを画像データに関連付けて記憶装置500に記録する(S206)。配信端末情報および撮影情報と画像データとの関連付けは、例えば、画像データのExif情報の所定の項目に配信端末情報の各情報と、撮影情報の各情報とを記録することにより行なうことができる。なお、複数の配信端末装置200から配信端末情報を受信した場合には、それぞれの配信端末情報を画像データに関連付けるものとする。ただし、受信強度、受信タイミング等にしたがっていずれかの配信端末装置200を選択して配信端末情報を画像データに関連付けてもよい。 On the other hand, when the distribution terminal information is receivable (S205: Yes), that is, when the camera 100 is within the distribution range of any of the distribution terminal devices 200, the received distribution terminal information, that is, the distribution terminal device 200 The position information, the direction information, the identifier, and the shooting information acquired by the own apparatus, that is, the position information of the shooting location and the shooting direction are recorded in the storage device 500 in association with the image data (S206). The association between the distribution terminal information and the photographing information and the image data can be performed, for example, by recording each piece of information of the distribution terminal information and each piece of information of the photographing information in a predetermined item of Exif information of the image data. When distribution terminal information is received from a plurality of distribution terminal devices 200, each distribution terminal information is associated with image data. However, any one of the distribution terminal devices 200 may be selected according to reception intensity, reception timing, and the like, and the distribution terminal information may be associated with the image data.
次に、合成装置300の処理について説明する。図7は、合成装置300の処理の概要について説明するためのフローチャートである。合成装置300は、記憶装置500を読み込むと、処理対象の画像データを特定し、画像データを読込む(S301)。なお、処理対象の画像データの特定は、サムネイル画像を表示してユーザから選択を受け付けたり、記録されている画像データを順番に処理対象として扱うようにすることができる。 Next, processing of the synthesis apparatus 300 will be described. FIG. 7 is a flowchart for explaining an outline of processing of the synthesis apparatus 300. When the synthesizing apparatus 300 reads the storage device 500, the synthesizing apparatus 300 identifies image data to be processed and reads the image data (S301). Note that the image data to be processed can be specified by displaying thumbnail images and accepting selection from the user, or by sequentially handling the recorded image data.
画像データを読込むと、読込んだ画像データに関連付けられている配信端末情報および撮影情報に基づいてフレーム画像を設定する(S302)。そして、画像データに設定されたフレームを合成した画像の印刷データを生成して(S303)、プリンタ320に印刷データを出力する(S304)。この印刷データに基づいてプリンタ320が印刷を実行することでフレームが合成された写真を得ることができる。 When the image data is read, a frame image is set based on the distribution terminal information and shooting information associated with the read image data (S302). Then, print data of an image obtained by combining the frames set in the image data is generated (S303), and the print data is output to the printer 320 (S304). When the printer 320 executes printing based on the print data, it is possible to obtain a photograph in which frames are combined.
ここで、処理(S302)におけるフレーム画像の設定について説明する。図8は、フレーム画像の設定処理について説明するためのフローチャートである。フレーム画像の設定処理では、処理対象の画像データに配信端末情報が関連付けられているかどうかを判断する(S401)。その結果、関連付けられていない場合(S401:No)には、撮影対象物600が写っていないものと判断して、汎用フレームを選択する(S408)。 Here, the setting of the frame image in the process (S302) will be described. FIG. 8 is a flowchart for explaining frame image setting processing. In the frame image setting process, it is determined whether distribution terminal information is associated with the image data to be processed (S401). As a result, if they are not associated with each other (S401: No), it is determined that the object 600 is not captured, and a general-purpose frame is selected (S408).
一方、配信端末情報が関連付けられている場合(S401:Yes)には、配信端末情報を抽出し、さらに、撮影情報も抽出する(S402)。そして、抽出した情報から配信端末装置200とカメラ100との位置関係、具体的には、距離と対面関係とを算出する。ここで、距離は配信端末情報に含まれる配信端末装置200の位置情報と撮影情報に含まれる撮影時の位置情報とから算出することができる。 On the other hand, when the delivery terminal information is associated (S401: Yes), the delivery terminal information is extracted, and further, the shooting information is also extracted (S402). Then, the positional relationship between the distribution terminal device 200 and the camera 100, specifically, the distance and the facing relationship are calculated from the extracted information. Here, the distance can be calculated from the position information of the distribution terminal device 200 included in the distribution terminal information and the position information at the time of shooting included in the shooting information.
また、対面関係は、画像データに撮影対象物600に写っているかどうかを判断するものであり、配信端末情報に含まれる配信端末装置200の方位情報と撮影情報に含まれる撮影時の方位情報とから算出する。対面関係であるので、一方の方位を180度反転させ、他方の方位との差を算出することで、求めることができる。すなわち、この差が0度であれば、撮影対象物600とカメラ100とが向き合っており、撮影対象物600の正面方向から撮影したことになり、差が大きくなるにつれて斜め方向から撮影したことになる。 The face-to-face relationship is used to determine whether or not the object to be imaged 600 appears in the image data. The orientation information of the distribution terminal device 200 included in the distribution terminal information and the direction information at the time of imaging included in the imaging information Calculate from Since it is a face-to-face relationship, it can be obtained by inverting one direction by 180 degrees and calculating the difference from the other direction. That is, if this difference is 0 degree, the object 600 and the camera 100 are facing each other, and the image is taken from the front direction of the object 600, and the image is taken from an oblique direction as the difference increases. Become.
位置関係を算出すると、算出された距離が所定距離であるかどうかを判断する(S404)。配信端末装置200から所定距離以上離れている場合は、その配信端末装置200が配置された撮影対象物600が写っていないものと判断するためである。このため、所定距離内ではない場合(S404:No)には、汎用フレームを選択する(S408)。ただし、配信端末情報を受信したできた段階で撮影可能な範囲内にあるものとして、距離の算出および判定を省くようにしてもよい。 When the positional relationship is calculated, it is determined whether the calculated distance is a predetermined distance (S404). This is because when the distance from the distribution terminal device 200 is more than a predetermined distance, it is determined that the photographing object 600 on which the distribution terminal device 200 is arranged is not captured. For this reason, when it is not within the predetermined distance (S404: No), a general-purpose frame is selected (S408). However, the calculation and determination of the distance may be omitted assuming that the distribution terminal information is within the range that can be photographed when it has been received.
所定距離内である場合(S404:Yes)には、さらに配信端末装置200が配置された撮影対象物600と撮影時のカメラ100とが向き合っているかどうかを判断する(S405)。この判定は、処理(S403)で算出した対面関係を示す一方の方位の180度反転と他方の方位との差が所定値以内かどうかで判断することができる。 If it is within the predetermined distance (S404: Yes), it is further determined whether or not the photographing object 600 on which the distribution terminal device 200 is arranged and the camera 100 at the time of photographing face each other (S405). This determination can be made based on whether or not the difference between the 180 ° reversal of one azimuth indicating the facing relationship calculated in the process (S403) and the other azimuth is within a predetermined value.
この結果、撮影対象物600と撮影時のカメラ100とが向き合っていないと判定された場合(S405:No)には、配信端末装置200が配置された撮影対象物600が写っていないものと判断して汎用フレームを選択する(S408)。 As a result, when it is determined that the shooting target object 600 and the camera 100 at the time of shooting are not facing each other (S405: No), it is determined that the shooting target object 600 on which the distribution terminal device 200 is arranged is not shown. Then, a general-purpose frame is selected (S408).
一方、撮影対象物600と撮影時のカメラ100とが向き合っていると判定された場合(S405:Yes)には、いずれかの撮影対象物600の正面が画像データに写っているものと判断し、写っている撮影対象物600を特定する(S406)。写っている撮影対象物600は、配信端末情報に含まれる配信端末装置200の識別子から特定することができる。 On the other hand, if it is determined that the shooting object 600 and the camera 100 at the time of shooting face each other (S405: Yes), it is determined that the front of any shooting object 600 is reflected in the image data. Then, the photographed object 600 is identified (S406). The photographed object 600 can be identified from the identifier of the distribution terminal device 200 included in the distribution terminal information.
そして、特別フレームを用いるかどうかを判定するために、あらかじめ定められた特別条件を満たすかどうかを判断する(S407)。特別な条件は上述のように、例えば、特定の撮影時刻に限定したり、特定の撮影地に限定したり、特定の撮影対象物に限定したり、所定の確率を満たした場合等とすることができる。 Then, in order to determine whether or not to use a special frame, it is determined whether or not a predetermined special condition is satisfied (S407). As described above, the special condition is, for example, limited to a specific shooting time, limited to a specific shooting location, limited to a specific shooting target, or when a predetermined probability is satisfied. Can do.
特別な条件を満たさない場合(S407:No)には、特定された撮影対象物600に対応した撮影対象物対応フレームを選択する(S410)。一方、特別な条件を満たした場合(S407:Yes)には、プレミアム的な意味合いの特別フレームを選択する(S410)。 When the special condition is not satisfied (S407: No), a frame corresponding to the shooting target corresponding to the specified shooting target 600 is selected (S410). On the other hand, when the special condition is satisfied (S407: Yes), a special frame having a premium meaning is selected (S410).
図9は、処理(S407)の特別条件として特定時間内の撮影であることを条件とした場合の処理を示すフローチャートである。特別フレームを選択する特定時間は、あらかじめ定めておく。定められた特定時間はユーザに知らせない方がエンタテインメント性を高めることができる。 FIG. 9 is a flowchart showing processing when the special condition of the processing (S407) is that shooting is performed within a specific time. The specific time for selecting the special frame is determined in advance. Entertainment can be improved if the specified time is not notified to the user.
特別条件として特定時間内の撮影であることを条件として用いた場合、処理対象画像データの撮影時刻を取得する(S501)。撮影時刻は画像データのExif情報から抽出してもよいが、カメラ100の内蔵時計が正確である保証はなく、また、特別フレームを欲するユーザによる時刻データ改竄を防ぐため、配信端末装置200からの配信端末情報に時刻情報を含めておき、取得した配信端末情報の時刻情報から撮影時刻を取得することが望ましい。 When it is used as a condition that the shooting is performed within a specific time as a special condition, the shooting time of the processing target image data is acquired (S501). The shooting time may be extracted from the Exif information of the image data, but there is no guarantee that the built-in clock of the camera 100 is accurate, and in order to prevent time data tampering by a user who wants a special frame, It is desirable to include time information in the distribution terminal information and acquire the shooting time from the time information of the acquired distribution terminal information.
そして、取得した撮影時刻が特定時間内に含まれるかどうかを判断する(S502)。その結果、特定時間内に含まれる場合(S502:Yes)は特別条件を満たすと判定し(S503)、特定時間内に含まれない場合(S502:No)は特別条件を満たさないと判定する(S504)。 Then, it is determined whether or not the acquired shooting time is included in the specific time (S502). As a result, when it is included within the specific time (S502: Yes), it is determined that the special condition is satisfied (S503), and when it is not included within the specific time (S502: No), it is determined that the special condition is not satisfied (S502: No). S504).
図10は、撮影対象物対応フレームの合成について説明するための図である。ここでは、簡単のため、特別フレームについては考慮しないものとする。画像350は、配信端末装置200が配置された撮影対象物であるキャラクタ600xに対応したフレームの例を示している。ここで、画像352に示すようにキャラクタ600xの正面が写った画像については、画像354に示すようにキャラクタ600xに対応したフレーム画像350が合成された画像が生成される。 FIG. 10 is a diagram for explaining the composition of frames to be photographed. Here, for simplicity, the special frame is not considered. An image 350 shows an example of a frame corresponding to a character 600x that is a shooting target on which the distribution terminal device 200 is arranged. Here, for the image in which the front of the character 600x is shown as shown in the image 352, an image in which the frame image 350 corresponding to the character 600x is combined as shown in the image 354 is generated.
図11は、汎用フレームの合成について説明するための図である。画像360は、撮影対象物の正面が写っていない場合に用いられる汎用フレームの例を示している。ここで、画像362に示すように建造物600yが写っているが正面ではない画像については、画像364に示すように汎用フレーム画像360が合成された画像が生成される。 FIG. 11 is a diagram for explaining the synthesis of the general-purpose frame. The image 360 shows an example of a general-purpose frame that is used when the front of the object to be photographed is not shown. Here, as shown in the image 362, for the image in which the building 600y is shown but is not in front, an image in which the general-purpose frame image 360 is combined as shown in the image 364 is generated.
なお、カメラ100が撮影を行なった場所が、複数の配信端末装置200の配信範囲内である場合、例えば図12に示すように、カメラ100が、配信端末装置200xの配信範囲220xと配信端末装置200yの配信範囲220yとが重なっている領域で撮影を行なった場合には、双方の配信情報を受信し記録することになる。 In addition, when the place where the camera 100 has shot is within the distribution range of the plurality of distribution terminal devices 200, for example, as illustrated in FIG. 12, the camera 100 includes the distribution range 220x of the distribution terminal device 200x and the distribution terminal device. When shooting is performed in an area where the 200y distribution range 220y overlaps, both pieces of distribution information are received and recorded.
このような場合、合成装置300は、あらかじめ定めた基準に従って、いずれの配信端末装置200を選択してフレームの設定を行なうものとする。あらかじめ定めた基準は、例えば、(1)より向かい合っている方、(2)より距離が近い方、(3)距離と方向とを所定の評価式で評価し、評価値が高い方等とすることができる。ただし、配信情報を受信できた配信端末装置200のすべてについてフレームを設定し、フレームを重ね合わせるようにしてもよい。 In such a case, the synthesizing apparatus 300 selects any distribution terminal apparatus 200 and sets a frame according to a predetermined standard. Predetermined criteria are, for example, those that face each other than (1), those that are closer than (2), (3) those that have a higher evaluation value by evaluating the distance and direction with a predetermined evaluation formula, etc. be able to. However, a frame may be set for all of the distribution terminal devices 200 that have received the distribution information, and the frames may be overlapped.
また、カメラ100に傾斜角度センサを備えさせて、傾斜角度を考慮して撮影対象物600が画像データに写っているかどうかを判断するようにしてもよい。また、カメラ100の撮影時の焦点距離を考慮して撮影対象物600が画像データに写っているかどうかを判断するようにしてもよい。これにより、撮影対象物600が画像データに写っているかどうかの判別精度を高めることができる。 In addition, the camera 100 may be provided with an inclination angle sensor, and it may be determined whether or not the photographing object 600 is reflected in the image data in consideration of the inclination angle. Further, it may be determined whether or not the photographing object 600 is reflected in the image data in consideration of the focal length when photographing with the camera 100. As a result, it is possible to improve the accuracy of determining whether or not the photographing object 600 is reflected in the image data.
11…制御部、11a…画像処理部、12…撮影機構部、13…表示装置、14…画像情報記録部、15…無線受信部、16…GPS、17…方位センサ、21…制御部、22…無線配信部、23…GPS、24…方位センサ、31…制御部、31a…フレーム処理部、31b…印刷データ生成部、32…画像情報読取部、33…フレーム情報格納部、34…印刷データ出力部、100…カメラ、200…配信端末装置、300…合成装置、320…プリンタ、500…記憶装置、600…撮影対象物、620…サービスセンタ、700…施設 DESCRIPTION OF SYMBOLS 11 ... Control part, 11a ... Image processing part, 12 ... Imaging | photography mechanism part, 13 ... Display apparatus, 14 ... Image information recording part, 15 ... Wireless reception part, 16 ... GPS, 17 ... Direction sensor, 21 ... Control part, 22 ... Wireless distribution unit, 23 ... GPS, 24 ... Direction sensor, 31 ... Control unit, 31a ... Frame processing unit, 31b ... Print data generation unit, 32 ... Image information reading unit, 33 ... Frame information storage unit, 34 ... Print data Output unit 100 ... Camera 200 ... Distribution terminal device 300 ... Composition device 320 ... Printer 500 ... Storage device 600 ... Photographing object 620 ... Service center 700 ... Facility
Claims (2)
撮影位置の位置情報を取得する位置情報取得手段と、撮影方向の方位情報を取得する方位情報取得手段と、画像データを生成する撮影手段と、前記撮影手段による撮影の際に前記配信端末装置が配信する配信端末情報を受信する受信手段と、前記取得した位置情報と方位情報とを撮影情報として、前記受信した配信端末情報とともに前記画像データに関連付けて記録する記録手段とを備えたカメラと、
複数種の付加画像を記録した記憶手段と、前記記録された画像データを読み取る読取手段と、前記読み取った画像データに関連付けられた前記撮影情報と前記配信端末情報とから算出される撮影位置と配信端末装置との距離および相対方向とから、前記配信端末装置が配置された物の正面が前記画像データに写っているか否かを所定の基準により判別し、判別結果に応じて付加画像を選択する選択手段と、前記画像データに前記選択された付加画像を合成した印刷データを生成する印刷データ生成手段とを備えた合成装置と、
を備えたことを特徴とするカメラシステム。 Position information acquisition means for acquiring position information of the own apparatus, direction information acquisition means for acquiring direction information that the own apparatus is facing, and distribution means for distributing the acquired position information and direction information as distribution terminal information A distribution terminal device provided;
Position information acquisition means for acquiring position information of the shooting position, direction information acquisition means for acquiring direction information of the shooting direction, shooting means for generating image data, and the distribution terminal device at the time of shooting by the shooting means A camera comprising: receiving means for receiving distribution terminal information to be distributed; and recording means for recording the acquired position information and orientation information as shooting information in association with the received distribution terminal information in association with the image data;
Storage means for recording a plurality of types of additional images, reading means for reading the recorded image data, photographing position and distribution calculated from the photographing information associated with the read image data and the distribution terminal information Based on the distance from the terminal device and the relative direction, it is determined whether or not the front side of the object on which the distribution terminal device is arranged is reflected in the image data, and an additional image is selected according to the determination result. A combining device comprising: selecting means; and print data generating means for generating print data obtained by combining the selected additional image with the image data;
A camera system comprising:
複数種の付加画像を記録した記憶手段と、
前記読み取った画像データに関連付けられた前記撮影情報と前記配信端末情報とから算出される撮影位置と配信端末装置との距離および相対方向とから、前記配信端末装置が配置された物の正面が前記画像データに写っているか否かを所定の基準により判別し、判別結果に応じて付加画像を選択する選択手段と、
前記画像データに前記選択された付加画像を合成した印刷データを生成する印刷データ生成手段とを備えたことを特徴とする合成装置。 At the time of shooting, the distribution terminal information is received from the distribution terminal device that distributes the position information of the own device and the direction information to which the own device is directed as the distribution terminal information, and the position information of the shooting position and the direction information of the shooting direction Reading means for reading image data recorded by a camera that records the image information in association with the received distribution terminal information and image data related to shooting,
Storage means for recording multiple types of additional images;
From the distance and relative direction between the shooting position calculated from the shooting information associated with the read image data and the distribution terminal information and the distribution terminal device, the front of the object on which the distribution terminal device is arranged is Selecting means for determining whether or not the image data is reflected by a predetermined criterion, and selecting an additional image according to the determination result;
A synthesizing apparatus comprising: print data generating means for generating print data by synthesizing the selected additional image with the image data.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007340834A JP2009164817A (en) | 2007-12-28 | 2007-12-28 | Camera system and synthesizing apparatus |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007340834A JP2009164817A (en) | 2007-12-28 | 2007-12-28 | Camera system and synthesizing apparatus |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2009164817A true JP2009164817A (en) | 2009-07-23 |
Family
ID=40966925
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2007340834A Pending JP2009164817A (en) | 2007-12-28 | 2007-12-28 | Camera system and synthesizing apparatus |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2009164817A (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016038293A (en) * | 2014-08-07 | 2016-03-22 | キヤノン株式会社 | Information processing system, information processing device, imaging apparatus and information processing method |
-
2007
- 2007-12-28 JP JP2007340834A patent/JP2009164817A/en active Pending
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016038293A (en) * | 2014-08-07 | 2016-03-22 | キヤノン株式会社 | Information processing system, information processing device, imaging apparatus and information processing method |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20090136221A1 (en) | Photographic management system, photographic management method, and device and program used for them | |
JP5922067B2 (en) | Image forming system | |
JP2007052809A5 (en) | ||
JP2006074366A (en) | Electronic camera system, photographing ordering device, and photographing system | |
JP2019110434A (en) | Image processing apparatus, image processing system, and program | |
JP6323682B2 (en) | Image forming system | |
JP2010198104A (en) | Image display system, portable terminal system, portable terminal equipment, server, and image display method thereof | |
JP4206488B2 (en) | Image processing apparatus, photographing system, image processing method, image processing program, and recording medium | |
JP2009164817A (en) | Camera system and synthesizing apparatus | |
US7502555B2 (en) | Information terminal device | |
JP4919545B2 (en) | Data transmission system and photographing apparatus | |
JP2008167225A (en) | Optical device, and information distribution/reception system | |
JP2009111827A (en) | Photographing apparatus and image file providing system | |
JP2008090447A (en) | Image album creation device and method, communication terminal, and image collection device | |
JP2008148220A (en) | Imaging apparatus, imaging method, and control program | |
JP4307932B2 (en) | Shooting system | |
JP2007020054A (en) | Method and device for managing image | |
JP6544788B2 (en) | Mobile terminal, watching system, control method of mobile terminal, watching method and program | |
JP4345424B2 (en) | Camera system | |
JP6520262B2 (en) | How to play video data | |
JP5376899B2 (en) | Image display device, imaging device, and image display method | |
JP6888543B2 (en) | Automatic shooting system and automatic shooting method | |
JP2012216885A (en) | Imaging apparatus and image sharing system | |
CN108681983A (en) | A method of prevent shooting from faking | |
JP2005223601A (en) | Photographing control system, photographing control program and photographing control method, and digital camera |