JP2008085715A - Photographing system, photographing method, and program - Google Patents

Photographing system, photographing method, and program Download PDF

Info

Publication number
JP2008085715A
JP2008085715A JP2006263984A JP2006263984A JP2008085715A JP 2008085715 A JP2008085715 A JP 2008085715A JP 2006263984 A JP2006263984 A JP 2006263984A JP 2006263984 A JP2006263984 A JP 2006263984A JP 2008085715 A JP2008085715 A JP 2008085715A
Authority
JP
Japan
Prior art keywords
person
photographing
positional relationship
image
shooting
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2006263984A
Other languages
Japanese (ja)
Other versions
JP4799346B2 (en
Inventor
Hiroshi Yamaji
啓 山路
Hisashi Obara
寿 小原
Koichi Tanimura
幸一 谷村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Priority to JP2006263984A priority Critical patent/JP4799346B2/en
Publication of JP2008085715A publication Critical patent/JP2008085715A/en
Application granted granted Critical
Publication of JP4799346B2 publication Critical patent/JP4799346B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To easily photograph an object such as a stuffed toy and a child. <P>SOLUTION: A positional relationship between the stuffed toy 4 disposed at a photographing place and a human figure 5 present at the photographing place is detected. A camera 6 is zoomed, panned and/or tilted to bring the stuffed toy 4 and the human figure 5 into a predetermined positional relationship. When the stuffed toy 4 and the human figure 5 are brought into the predetermined positional relationship, photographing is performed, and an image is captured. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

本発明は、とくに撮影スタジオにおける撮影に適した撮影システムおよび撮影方法並びに撮影方法をコンピュータに実行させるためのプログラムに関するものである。   The present invention relates to a photographing system and a photographing method suitable for photographing in a photographing studio, and a program for causing a computer to execute the photographing method.

写真店の撮影スタジオにおいてプロのカメラマンに撮影を依頼し、撮影スタジオに設置されたぬいぐるみ、子供の家、樹木等の様々なオブジェクトとともに子供を撮影して、写真を記念に残すことが行われている。しかしながら、子供は撮影時に静止させておくことが困難である。このため、カメラの画角内において被写体を追従して被写体の測距動作範囲を変更できるようにしたカメラが提案されている(特許文献1)。このようなカメラを使用することにより、動いている子供にピントを合わせることが容易となるため、失敗のない画像を得ることができる。
特開平5−61092号公報
In the photo studio of a photo shop, a professional photographer is asked to shoot, and children are photographed with various objects such as stuffed animals, children's houses, trees etc. installed in the photo studio, and the photo is left in commemoration Yes. However, it is difficult for a child to remain stationary during shooting. For this reason, there has been proposed a camera that can change the distance measuring operation range of the subject by following the subject within the angle of view of the camera (Patent Document 1). By using such a camera, it becomes easy to focus on a moving child, so that an image without failure can be obtained.
JP-A-5-61092

しかしながら、カメラマンの前にいると子供は緊張してしまうため、自然な表情にて撮影を行うことが難しい。上記特許文献1に記載された手法は、被写体にピントを合わせることが容易であるが、子供が自然な表情となったタイミングで撮影を行うことは困難である。また、子供の動きが激しいと、撮影スタジオ内にあるオブジェクトの影に子供が隠れたりしてしまうため、好ましい画像を容易に得ることができない。   However, if the child is in front of the photographer, the child becomes nervous, and it is difficult to shoot with a natural expression. The technique described in Patent Document 1 is easy to focus on the subject, but it is difficult to photograph at the timing when the child has a natural expression. In addition, if the child moves strongly, the child may be hidden in the shadow of the object in the shooting studio, so that a preferable image cannot be easily obtained.

本発明は、上記事情に鑑みなされたものであり、とくにオブジェクトと子供との撮影を容易に行うことができるようにすることを目的とする。   The present invention has been made in view of the above circumstances, and it is an object of the present invention to make it particularly easy to photograph an object and a child.

本発明による撮影システムは、撮影により画像を取得する、ズーム機能、パン機能およびチルト機能を有する撮影手段と、
撮影場所に存在するオブジェクトと、該撮影場所に存在する人物との位置関係を検出する検出手段と、
前記オブジェクトと前記人物とが所定の位置関係となるように、前記撮影手段をズーム、パンおよび/またはチルトさせ、前記オブジェクトと前記人物とが前記所定の位置関係となったときに前記撮影を行って前記画像を取得するよう前記撮影手段を制御する制御手段とを備えたことを特徴とするものである。
An imaging system according to the present invention includes an imaging unit having a zoom function, a pan function, and a tilt function for acquiring an image by imaging,
Detecting means for detecting a positional relationship between an object existing at the shooting location and a person existing at the shooting location;
The photographing means is zoomed, panned and / or tilted so that the object and the person have a predetermined positional relationship, and the photographing is performed when the object and the person have the predetermined positional relationship. Control means for controlling the photographing means so as to acquire the image.

「オブジェクト」としては、上述したようにぬいぐるみ、子供の家、樹木等を挙げることができる。なお、オブジェクトは撮影場所に固定されている必要はなく、移動可能に置かれていてもよい。   Examples of the “object” include a stuffed animal, a child's house, and a tree as described above. Note that the object need not be fixed at the shooting location, and may be placed so as to be movable.

なお、本発明による撮影システムにおいては、前記検出手段を、前記撮影手段が取得するスルー画像に含まれる前記オブジェクトおよび前記人物の位置を認識することにより、前記オブジェクトおよび前記人物の位置関係を検出する手段としてもよい。   In the imaging system according to the present invention, the detection unit detects the positional relationship between the object and the person by recognizing the position of the object and the person included in the through image acquired by the imaging unit. It may be a means.

また、本発明による撮影システムにおいては、前記検出手段を、前記オブジェクトに付与されたオブジェクト用ICタグが出力する信号に基づいて前記オブジェクトの位置を検出する手段としてもよい。   In the photographing system according to the present invention, the detecting means may be means for detecting the position of the object based on a signal output from an object IC tag attached to the object.

この場合、前記オブジェクト用ICタグは、前記オブジェクトの最上部に付与されていることが好ましい。   In this case, it is preferable that the object IC tag is attached to the top of the object.

また、本発明による撮影システムにおいては、前記検出手段を、前記人物に所持された人物用ICタグが出力する信号に基づいて前記人物の位置を検出する手段としてもよい。   In the photographing system according to the present invention, the detection means may be means for detecting the position of the person based on a signal output from a person IC tag carried by the person.

この場合、前記人物用ICタグは、前記人物の靴に付与されていることが好ましい。   In this case, it is preferable that the person IC tag is attached to the person's shoes.

とくに、前記人物用ICタグは、前記靴のつま先部分およびかかと部分に付与されていることが好ましい。   In particular, the person IC tag is preferably attached to the toe portion and the heel portion of the shoe.

また、本発明による撮影システムにおいては、前記検出手段を、前記人物の顔が正面を向いたことをさらに検出する手段とし、前記制御手段を、さらに前記人物の顔が正面を向いたときに前記画像を取得するよう前記撮影手段を制御する手段としてもよい。   Further, in the photographing system according to the present invention, the detection means is a means for further detecting that the person's face faces the front, and the control means further includes the control unit when the person's face faces the front. It is good also as a means to control the said imaging | photography means so that an image may be acquired.

本発明による撮影方法は、撮影により画像を取得する、ズーム機能、パン機能およびチルト機能を有する撮影手段を備えた撮影システムにおける撮影方法において、
撮影場所に存在するオブジェクトと、該撮影場所に存在する人物との位置関係を検出し、
前記オブジェクトと前記人物とが所定の位置関係となるように、前記撮影手段をズーム、パンおよび/またはチルトさせ、
前記オブジェクトと前記人物とが前記所定の位置関係となったときに前記撮影を行って前記画像を取得することを特徴とするものである。
A photographing method according to the present invention is a photographing method in a photographing system including a photographing unit having a zoom function, a pan function, and a tilt function, which acquires an image by photographing.
Detecting the positional relationship between an object present at the shooting location and a person present at the shooting location;
Zoom, pan and / or tilt the photographing means so that the object and the person are in a predetermined positional relationship,
The image is acquired by performing the photographing when the object and the person are in the predetermined positional relationship.

なお、本発明による撮影方法をコンピュータに実行させるためのプログラムとして提供してもよい。   In addition, you may provide as a program for making a computer perform the imaging | photography method by this invention.

本発明によれば、オブジェクトと人物との位置関係が検出され、オブジェクトと人物とが所定の位置関係となるように、撮影手段がズーム、パンおよび/またはチルトされる。そして、オブジェクトと人物とが所定の位置関係となったときに撮影が行われて画像が取得される。このため、撮影を行う際にカメラマンが不要となる。したがって、撮影時に子供が緊張することがなくなり、子供が自然な表情の画像を得ることができる。また、オブジェクトの影に隠れた状態では撮影が行われないため、オブジェクトと子供とが好ましい位置関係にある画像を取得することができる。また、カメラマンを必要としないため、人件費を削減することができる。   According to the present invention, the positional relationship between the object and the person is detected, and the photographing unit is zoomed, panned and / or tilted so that the object and the person have a predetermined positional relationship. Then, when an object and a person have a predetermined positional relationship, shooting is performed and an image is acquired. This eliminates the need for a cameraman when shooting. Therefore, the child is not nervous at the time of shooting, and the child can obtain an image with a natural expression. In addition, since shooting is not performed in a state hidden behind the shadow of the object, an image in which the object and the child are in a preferable positional relationship can be acquired. Moreover, since a photographer is not required, labor costs can be reduced.

以下、図面を参照して本発明の実施形態について説明する。図1は本発明の第1の実施形態による撮影システムを用いた撮影スタジオの例を示す図である。図1に示すようにこの撮影スタジオは、背景2が床3の上に設置されている。また背景2の前方には熊のぬいぐるみ4が設置されており、背景2の正面に、カメラ6を備えた本実施形態の撮影システム1が配置されている。そして、ぬいぐるみ4と人物5とをカメラ6により撮影するものである。   Hereinafter, embodiments of the present invention will be described with reference to the drawings. FIG. 1 is a diagram showing an example of a shooting studio using the shooting system according to the first embodiment of the present invention. As shown in FIG. 1, in this photography studio, the background 2 is installed on the floor 3. A bear stuffed animal 4 is installed in front of the background 2, and the imaging system 1 of the present embodiment including the camera 6 is arranged in front of the background 2. Then, the stuffed animal 4 and the person 5 are photographed by the camera 6.

図2は本発明の第1の実施形態による撮影システムの構成を示す概略ブロック図である。図2に示すように第1の実施形態による撮影システム1は、画像データの記録制御および表示制御等の各種制御を行うとともに、撮影システム1を構成する各部の制御を行うCPU12と、CPU12を動作させるプログラムおよび各種定数が記録されているROMおよびCPU12が処理を実行する際の作業領域となるRAMにより構成されるシステムメモリ14と、各種表示を行う液晶モニタ等からなる表示部16と、表示部16を制御する表示制御部18と、種々の指示および入力を撮影システム1に対して行うためのキーボード、マウスおよびタッチパネル等からなる入力部20と、入力部20を制御する入力制御部22とを備える。   FIG. 2 is a schematic block diagram showing the configuration of the photographing system according to the first embodiment of the present invention. As shown in FIG. 2, the imaging system 1 according to the first embodiment performs various controls such as image data recording control and display control, and also controls the CPU 12 that controls each part of the imaging system 1 and operates the CPU 12. A system memory 14 including a ROM in which programs to be executed and various constants are recorded, and a RAM serving as a work area when the CPU 12 executes processing, a display unit 16 including a liquid crystal monitor for performing various displays, and a display unit 16, a display control unit 18 that controls 16, an input unit 20 including a keyboard, a mouse, and a touch panel for performing various instructions and inputs to the imaging system 1, and an input control unit 22 that controls the input unit 20. Prepare.

また、撮影システム1は、カメラ6から画像データを読み込むための画像読込部24と、画像読込部24を制御する画像読込制御部26と、画像データを含む各種情報を保存するハードディスク28とを備える。   The photographing system 1 also includes an image reading unit 24 for reading image data from the camera 6, an image reading control unit 26 for controlling the image reading unit 24, and a hard disk 28 for storing various information including image data. .

また、撮影システム1は、カメラ6をズーム、パンおよびチルトさせるとともに、カメラ6に対して撮影の指示等を行うためのカメラ駆動部30と、カメラ6が取得するスルー画像に基づいてぬいぐるみ4と被写体である人物5との位置関係を検出する検出部32とを備える。なお、スルー画像とは、カメラ6が撮影前の撮影準備状態にあるときに、操作に関係なく被写体を逐次撮像することにより取得される画像である。   In addition, the photographing system 1 zooms, pans and tilts the camera 6 and also provides a camera driving unit 30 for instructing the camera 6 to perform photographing, and the stuffed toy 4 based on a through image acquired by the camera 6. And a detection unit 32 that detects a positional relationship with the person 5 as a subject. Note that the through image is an image acquired by sequentially capturing an image of the subject regardless of the operation when the camera 6 is in a shooting preparation state before shooting.

ここで、第1の実施形態においては、ハードディスク28にぬいぐるみ4と人物5との好ましい位置関係を表す基準パターンの画像が保存されている。図3は基準パターンの画像を示す図である。図3に示すように基準パターンP1は、ぬいぐるみ4の外形に対応するエリアE1と、人物5が入るべきエリアE2を含む。   Here, in the first embodiment, an image of a reference pattern representing a preferable positional relationship between the stuffed animal 4 and the person 5 is stored in the hard disk 28. FIG. 3 shows an image of a reference pattern. As shown in FIG. 3, the reference pattern P1 includes an area E1 corresponding to the outer shape of the stuffed toy 4 and an area E2 into which the person 5 is to enter.

検出部32は、カメラ6が取得したスルー画像と基準パターンP1とのパターンマッチングを行い、エリアE1にぬいぐるみ4が、エリアE2に人物5が位置するように、カメラ6のズーム量、パン量および/またはチルト量(以下設定値とする)を算出する。そして、算出した設定値をカメラ駆動部30に入力する。カメラ駆動部30は設定値に基づいてカメラ6のズーム、パンおよび/またはチルトを行う。   The detection unit 32 performs pattern matching between the through image acquired by the camera 6 and the reference pattern P1, and the zoom amount, pan amount, and panning amount of the camera 6 so that the stuffed animal 4 is located in the area E1 and the person 5 is located in the area E2. // Tilt amount (hereinafter referred to as a set value) is calculated. Then, the calculated set value is input to the camera driving unit 30. The camera driving unit 30 performs zooming, panning and / or tilting of the camera 6 based on the set value.

また、検出部32は、基準パターンP1のエリアE1にぬいぐるみ4が、エリアE2に人物5が位置したときに撮影を行うよう、撮影指示をカメラ駆動部30に入力する。なお、ぬいぐるみ4と人物5とが離れていると、カメラ6をズーム、パンおよび/またはチルトしても、ぬいぐるみ4と人物5との位置関係が基準パターンP1とはならない場合がある。このような場合は、ぬいぐるみ4と人物5との位置関係が基準パターンP1となるまで、すなわち人物5がぬいぐるみ4に近づくまで、設定値の算出を続けるものとする。   In addition, the detection unit 32 inputs a shooting instruction to the camera driving unit 30 so that shooting is performed when the stuffed toy 4 is located in the area E1 of the reference pattern P1 and the person 5 is positioned in the area E2. If the stuffed animal 4 and the person 5 are separated from each other, the positional relationship between the stuffed animal 4 and the person 5 may not be the reference pattern P1 even if the camera 6 is zoomed, panned and / or tilted. In such a case, the calculation of the set value is continued until the positional relationship between the stuffed toy 4 and the person 5 becomes the reference pattern P1, that is, until the person 5 approaches the stuffed toy 4.

次いで、第1の実施形態において行われる処理について説明する。図4は第1の実施形態において行われる処理を示すフローチャートである。作業者が撮影の指示を入力部20から行うことによりCPU12が処理を開始し、カメラ6が取得したスルー画像を画像読込部24が読み込み(ステップST1)、検出部32がスルー画像と基準パターンP1とのパターンマッチングを行う(ステップST2)。そして、エリアE1にぬいぐるみ4が、エリアE2に人物5が位置しているか否かを判定し(ステップST3)、ステップST3が否定されると設定値を算出する(ステップST4)。   Next, processing performed in the first embodiment will be described. FIG. 4 is a flowchart showing processing performed in the first embodiment. The CPU 12 starts processing when the operator gives an instruction for photographing from the input unit 20, the image reading unit 24 reads the through image acquired by the camera 6 (step ST1), and the detection unit 32 uses the through image and the reference pattern P1. (Step ST2). Then, the stuffed toy 4 in the area E1 determines whether or not the person 5 is located in the area E2 (step ST3). If step ST3 is negative, a set value is calculated (step ST4).

そして、カメラ駆動部30が検出部32が算出した設定値に基づいてカメラ6を駆動、すなわちカメラ6をズーム、パンおよび/またはチルトし(ステップST5)、ステップST1に戻る。   Then, the camera driving unit 30 drives the camera 6 based on the set value calculated by the detecting unit 32, that is, the camera 6 is zoomed, panned and / or tilted (step ST5), and the process returns to step ST1.

ステップST3が肯定されると、検出部32は撮影指示をカメラ駆動部30へ出力する(ステップST6)。これによりカメラ駆動部30がカメラ6により撮影を行い(ステップST7)、処理を終了する。   If step ST3 is affirmed, the detection unit 32 outputs a shooting instruction to the camera driving unit 30 (step ST6). As a result, the camera drive unit 30 takes an image with the camera 6 (step ST7), and the process ends.

これにより、図5に示すように、ぬいぐるみ4と人物5とが並んだ画像を得ることができる。   Thereby, as shown in FIG. 5, an image in which the stuffed toy 4 and the person 5 are arranged can be obtained.

このように本実施形態においては、ぬいぐるみ4と人物5との位置関係が基準パターンP1となるように、カメラ6を駆動して撮影を行うようにしたため、撮影を行う際にカメラマンが不要となる。したがって、とくに子供を被写体とした場合に、撮影時に子供が緊張することがなくなり、子供が自然な表情の画像を得ることができる。また、ぬいぐるみ4の影に隠れた状態では撮影が行われないため、ぬいぐるみ4と子供とが好ましい位置関係にある画像を取得することができる。また、カメラマンが不要となるため、撮影スタジオにおいてはカメラマンの人件費を削減することができる。   As described above, in the present embodiment, since the camera 6 is driven to perform shooting so that the positional relationship between the stuffed toy 4 and the person 5 becomes the reference pattern P1, a cameraman is not required for shooting. . Therefore, particularly when a child is a subject, the child is not nervous at the time of shooting, and the child can obtain a natural expression image. Further, since shooting is not performed in a state hidden behind the shadow of the stuffed toy 4, an image in which the stuffed toy 4 and the child have a preferable positional relationship can be acquired. In addition, since a cameraman is not necessary, the labor cost of the cameraman can be reduced in the shooting studio.

次いで、本発明の第2の実施形態について説明する。図6は本発明の第2の実施形態による撮影システムを用いた撮影スタジオの例を示す図である。なお、第2の実施形態において第1の実施形態と同一の構成については同一の参照番号を付与し、ここでは詳細な説明は省略する。第2の実施形態による撮影システム1Aを用いた撮影スタジオは、ぬいぐるみ4の頭の部分に無線通信が可能な小型の非接触型ICメモリタグ等の通信素子(以下、ICタグという)7を埋め込むとともに、被写体である人物5の靴のつま先およびかかとにICタグ8A,8Bをそれぞれ埋め込み、ICタグ7,8A,8Bを用いて、ぬいぐるみ4の位置および高さ、並びに人物5の位置および向きを検出するようにしたものである。   Next, a second embodiment of the present invention will be described. FIG. 6 is a diagram showing an example of a shooting studio using the shooting system according to the second embodiment of the present invention. In the second embodiment, the same components as those in the first embodiment are denoted by the same reference numerals, and detailed description thereof is omitted here. A shooting studio using the shooting system 1A according to the second embodiment embeds a communication element (hereinafter referred to as an IC tag) 7 such as a small non-contact IC memory tag capable of wireless communication in the head portion of the stuffed toy 4. At the same time, IC tags 8A and 8B are embedded in the toes and heels of the shoes of the person 5 as the subject, and the position and height of the stuffed toy 4 and the position and orientation of the person 5 are determined using the IC tags 7, 8A and 8B. It is intended to be detected.

このため、床3の背景2の前方の所定範囲3Aには、ICタグ7,8A,8Bの位置を検出するための複数のセンサ9が2次元状に多数配置されている。また、背景2とカメラ6との間には、床3から垂直にICタグ7の床3からの高さを検出するための複数のセンサ10が2次元状に多数配置されている。   For this reason, a plurality of sensors 9 for detecting the positions of the IC tags 7, 8A, 8B are two-dimensionally arranged in a predetermined range 3A in front of the background 2 of the floor 3. In addition, a plurality of sensors 10 for detecting the height of the IC tag 7 from the floor 3 are arranged two-dimensionally between the background 2 and the camera 6 perpendicularly from the floor 3.

図7は本発明の第2の実施形態による撮影システムの構成を示す概略ブロック図である。図7に示すように第2の実施形態による撮影システム1Bは、第1の実施形態における検出部32に代えて、センサ9,10の出力に基づいて、ぬいぐるみ4の位置および高さ並びに人物5の位置および向きを検出する検出部34を備えた点が第1の実施形態と異なる。   FIG. 7 is a schematic block diagram showing a configuration of an imaging system according to the second embodiment of the present invention. As shown in FIG. 7, the imaging system 1B according to the second embodiment replaces the detection unit 32 in the first embodiment with the position and height of the stuffed animal 4 and the person 5 based on the outputs of the sensors 9 and 10. The point provided with the detection part 34 which detects the position and direction of is different from the first embodiment.

ここで、ICタグ7,8A,8Bは、それぞれ異なるID情報を表す信号を所定時間間隔にて出力しており、センサ9,10はICタグ7,8A,8Bが出力したID情報を表す信号を受信すると、受信したことを表す受信情報を対応するID情報とともに検出部34に出力する。検出部34は、受信情報を出力したセンサ9の位置および対応するID情報に基づいて、ICタグ7,8A,8Bの位置を検出する。そして、ICタグ7の位置に基づいてぬいぐるみ4の位置を、ICタグ8A,8Bの位置に基づいて人物5の位置を検出し、ICタグ8A,8Bの位置関係に基づいて人物5の向きを検出する。   Here, the IC tags 7, 8A, 8B output signals representing different ID information at predetermined time intervals, and the sensors 9, 10 are signals representing the ID information output by the IC tags 7, 8A, 8B. Is received, the reception information indicating that it has been received is output to the detection unit 34 together with the corresponding ID information. The detection unit 34 detects the positions of the IC tags 7, 8A, and 8B based on the position of the sensor 9 that outputs the reception information and the corresponding ID information. Then, the position of the stuffed toy 4 is detected based on the position of the IC tag 7, the position of the person 5 is detected based on the positions of the IC tags 8A, 8B, and the orientation of the person 5 is determined based on the positional relationship between the IC tags 8A, 8B. To detect.

また、検出部34は、受信情報を出力したセンサ10の位置に基づいて、ICタグ7の高さすなわちぬいぐるみ4の高さを検出する。   Further, the detection unit 34 detects the height of the IC tag 7, that is, the height of the stuffed toy 4 based on the position of the sensor 10 that has output the received information.

そして検出部34は、検出したぬいぐるみ4および人物5の方向を向くようにカメラ6のズーム量、パン量および/またはチルト量(以下設定値とする)を算出する。そして、算出した設定値をカメラ駆動部30に入力する。これにより、カメラ駆動部30は設定値に基づいてカメラのズーム、パンおよび/またはチルトを制御する。   Then, the detection unit 34 calculates the zoom amount, pan amount and / or tilt amount (hereinafter referred to as a set value) of the camera 6 so as to face the detected stuffed animals 4 and the person 5. Then, the calculated set value is input to the camera driving unit 30. Thereby, the camera driving unit 30 controls zoom, pan and / or tilt of the camera based on the set value.

また、検出部34は、ぬいぐるみ4並びに人物5の位置および向きがあらかじめ定められた所定のパターンとなったときに撮影を行うよう、撮影指示をカメラ駆動部30に入力する。なお、所定のパターンとしては、ぬいぐるみ4と人物5とが並び、かつ人物5がカメラ6の方を向いた状態とすればよい。   In addition, the detection unit 34 inputs a shooting instruction to the camera driving unit 30 so that shooting is performed when the positions and orientations of the stuffed toy 4 and the person 5 have a predetermined pattern. The predetermined pattern may be a state in which the stuffed animals 4 and the person 5 are arranged and the person 5 faces the camera 6.

次いで、第2の実施形態において行われる処理について説明する。図8は第2の実施形態において行われる処理を示すフローチャートである。作業者が撮影の指示を入力部20から行うことによりCPU12が処理を開始し、検出部34が、センサ9,10の出力を受信し(ステップST11)、センサ9,10の出力結果に基づいて、ぬいぐるみ4の位置および高さ並びに人物5の位置を検出する(ステップST12)。そして、検出部34は、検出した位置に基づいてカメラ6がぬいぐるみ4および人物5の方を向いているか否かを判定し(ステップST13)、ステップST13が否定されると設定値を算出する(ステップST14)。そして、カメラ駆動部30が検出部34が算出した設定値に基づいてカメラ6を駆動、すなわちカメラ6をズーム、パンおよび/またはチルトし(ステップST15)、ステップST11に戻る。   Next, processing performed in the second embodiment will be described. FIG. 8 is a flowchart showing processing performed in the second embodiment. The CPU 12 starts processing when the operator gives an instruction for photographing from the input unit 20, and the detection unit 34 receives the outputs of the sensors 9 and 10 (step ST <b> 11), and based on the output results of the sensors 9 and 10. Then, the position and height of the stuffed toy 4 and the position of the person 5 are detected (step ST12). Then, the detection unit 34 determines whether or not the camera 6 is facing the stuffed toy 4 and the person 5 based on the detected position (step ST13), and calculates a set value when step ST13 is negative (step ST13). Step ST14). Then, the camera driving unit 30 drives the camera 6 based on the set value calculated by the detecting unit 34, that is, the camera 6 is zoomed, panned and / or tilted (step ST15), and the process returns to step ST11.

ステップST13が肯定されると、検出部34は、ぬいぐるみ4並びに人物5の位置および向きが所定のパターンとなっているか否かを判定する(ステップST16)。ステップST16が否定されると、人物5が移動することを考慮してステップST11に戻る。ステップST16が肯定されると、検出部34は撮影指示をカメラ駆動部30へ出力し(ステップST17)、これによりカメラ駆動部30がカメラ6により撮影を行い(ステップST18)、処理を終了する。   If step ST13 is positive, the detection unit 34 determines whether the positions and orientations of the stuffed toy 4 and the person 5 are in a predetermined pattern (step ST16). If step ST16 is negative, the process returns to step ST11 considering that the person 5 moves. If step ST16 is affirmed, the detection unit 34 outputs a shooting instruction to the camera driving unit 30 (step ST17), whereby the camera driving unit 30 performs shooting with the camera 6 (step ST18), and the process ends.

これにより、図5に示すように、ぬいぐるみ4と人物5とが並んだ画像を得ることができる。また、人物5がぬいぐるみ4の場所を移動しても、ICタグ7,8A,8Bの位置を検出することにより、カメラ6はぬいぐるみ4および人物5を追従することができるため、ぬいぐるみ4と人物5とが並んだ画像を得ることができる。また、ぬいぐるみ4の陰に人物5が隠れてしまったり、逆にぬいぐるみ4の前に人物5が位置している場合には撮影が行われないため、ぬいぐるみ4と人物5とが並んだ画像を確実に得ることができる。   Thereby, as shown in FIG. 5, an image in which the stuffed toy 4 and the person 5 are arranged can be obtained. Even if the person 5 moves around the stuffed toy 4, the camera 6 can follow the stuffed toy 4 and the person 5 by detecting the positions of the IC tags 7, 8A, 8B. 5 can be obtained. In addition, when the person 5 is hidden behind the stuffed toy 4 or when the person 5 is positioned in front of the stuffed toy 4, shooting is not performed, so an image in which the stuffed toy 4 and the person 5 are arranged is displayed. You can definitely get it.

なお、上記第1および第2の実施形態においては、カメラ6が取得したスルー画像から顔を検出し、検出した顔が正面を向いているか否かを判定し、顔が正面を向いている場合にのみ撮影指示を行うようにしてもよい。これにより、撮影により取得された人物5の顔を正面を向いたものとすることができる。   In the first and second embodiments, the face is detected from the through image acquired by the camera 6, it is determined whether the detected face is facing the front, and the face is facing the front. It is also possible to issue a shooting instruction only during the period. Thereby, the face of the person 5 acquired by imaging | photography can be made to face the front.

また、上記第2の実施形態においては、2次元状に配置したセンサ9,10によりぬいぐるみ4の高さを検出しているが、センサ9,10が受信する、ICタグ7が出力する信号の電波の強度を判定し、その強度に応じてセンサ9,10からの距離を算出することにより、ぬいぐるみ4の高さを検出するようにしてもよい。   Moreover, in the said 2nd Embodiment, although the height of the stuffed toy 4 is detected by the sensors 9 and 10 arrange | positioned two-dimensionally, the signal which the IC tags 7 output which the sensors 9 and 10 receive is received. You may make it detect the height of the stuffed toy 4 by determining the intensity | strength of an electromagnetic wave and calculating the distance from the sensors 9 and 10 according to the intensity | strength.

また、上記第2の実施形態においては、人物5の靴にICタグ8A,8Bを埋め込んで、人物5の位置および向きを検出しているが、ICタグ8A,8Bを用いることなく、カメラ6が取得したスルー画像から顔を検出し、検出した顔の位置および向きに基づいて人物5の位置および向きを検出するようにしてもよい。   In the second embodiment, the IC tags 8A and 8B are embedded in the shoes of the person 5 to detect the position and orientation of the person 5, but the camera 6 can be used without using the IC tags 8A and 8B. May detect the face from the acquired through image, and detect the position and orientation of the person 5 based on the detected position and orientation of the face.

また、上記第1および第2の実施形態においては、ぬいぐるみ4を撮影スタジオ内に設置しているが、ぬいぐるみ以外にも子供の家や樹木等のオブジェクトを用いて撮影を行うことも可能である。この場合、第1の実施形態においては、基準パターンとしてオブジェクトの外形に対応するエリアを含むものとすればよい。また、第2の実施形態においては、使用するオブジェクトにICタグを付与すればよい。   In the first and second embodiments, the stuffed toy 4 is installed in the shooting studio. However, in addition to the stuffed toy, it is also possible to shoot using objects such as children's houses and trees. . In this case, in the first embodiment, the reference pattern may include an area corresponding to the outer shape of the object. In the second embodiment, an IC tag may be attached to an object to be used.

以上、本発明の実施形態について説明したが、コンピュータを、上記の検出部32,34に対応する手段として機能させ、図4,8に示すような処理を行わせるプログラムも本発明の実施形態の1つである。また、そのようなプログラムを記録したコンピュータ読取り可能な記録媒体も、本発明の実施形態の1つである。   The embodiment of the present invention has been described above. However, a program that causes a computer to function as means corresponding to the above-described detection units 32 and 34 and performs processing as shown in FIGS. 4 and 8 is also an embodiment of the present invention. One. A computer-readable recording medium in which such a program is recorded is also one embodiment of the present invention.

本発明の第1の実施形態による撮影システムを用いた撮影スタジオの例を示す図The figure which shows the example of the imaging | photography studio using the imaging | photography system by the 1st Embodiment of this invention. 本発明の第1の実施形態による撮影システムの構成を示す概略ブロック図1 is a schematic block diagram showing a configuration of a photographing system according to a first embodiment of the present invention. 基準パターンの画像を示す図Figure showing a reference pattern image 第1の実施形態において行われる処理を示すフローチャートThe flowchart which shows the process performed in 1st Embodiment. ぬいぐるみと人物とが並んだ画像を示す図Figure showing an image of a stuffed animal and a person 本発明の第2の実施形態による撮影システムを用いた撮影スタジオの例を示す図The figure which shows the example of the imaging | photography studio using the imaging | photography system by the 2nd Embodiment of this invention. 本発明の第2の実施形態による撮影システムの構成を示す概略ブロック図The schematic block diagram which shows the structure of the imaging | photography system by the 2nd Embodiment of this invention. 第2の実施形態において行われる処理を示すフローチャートThe flowchart which shows the process performed in 2nd Embodiment.

符号の説明Explanation of symbols

1,1A 撮影システム
2 背景
3 床
4 ぬいぐるみ
5 人物
6 カメラ
7,8A,8B ICタグ
9,10 センサ
12 CPU
14 システムメモリ
16 表示部
18 表示制御部
20 入力部
22 入力制御部
24 画像読込部
26 画像読込制御部
28 ハードディスク
30 カメラ駆動部
32,34 検出部
DESCRIPTION OF SYMBOLS 1,1A Shooting system 2 Background 3 Floor 4 Stuffed toy 5 Person 6 Camera 7, 8A, 8B IC tag 9, 10 Sensor 12 CPU
DESCRIPTION OF SYMBOLS 14 System memory 16 Display part 18 Display control part 20 Input part 22 Input control part 24 Image reading part 26 Image reading control part 28 Hard disk 30 Camera drive part 32,34 Detection part

Claims (10)

撮影により画像を取得する、ズーム機能、パン機能およびチルト機能を有する撮影手段と、
撮影場所に存在するオブジェクトと、該撮影場所に存在する人物との位置関係を検出する検出手段と、
前記オブジェクトと前記人物とが所定の位置関係となるように、前記撮影手段をズーム、パンおよび/またはチルトさせ、前記オブジェクトと前記人物とが前記所定の位置関係となったときに前記撮影を行って前記画像を取得するよう前記撮影手段を制御する制御手段とを備えたことを特徴とする撮影システム。
An imaging means for obtaining an image by shooting, having a zoom function, a pan function, and a tilt function;
Detecting means for detecting a positional relationship between an object existing at the shooting location and a person existing at the shooting location;
The photographing means is zoomed, panned and / or tilted so that the object and the person have a predetermined positional relationship, and the photographing is performed when the object and the person have the predetermined positional relationship. And a control means for controlling the photographing means so as to acquire the image.
前記検出手段は、前記撮影手段が取得するスルー画像に含まれる前記オブジェクトおよび前記人物の位置を認識することにより、前記オブジェクトおよび前記人物の位置関係を検出する手段であることを特徴とする請求項1記載の撮影システム。   The detection unit is a unit that detects a positional relationship between the object and the person by recognizing positions of the object and the person included in a through image acquired by the photographing unit. The imaging system according to 1. 前記検出手段は、前記オブジェクトに付与されたオブジェクト用ICタグが出力する信号に基づいて前記オブジェクトの位置を検出する手段であることを特徴とする請求項1または2記載の撮影システム。   3. The photographing system according to claim 1, wherein the detecting means is means for detecting the position of the object based on a signal output from an object IC tag attached to the object. 前記オブジェクト用ICタグは、前記オブジェクトの最上部に付与されていることを特徴とする請求項3記載の撮影システム。   4. The photographing system according to claim 3, wherein the object IC tag is attached to the top of the object. 前記検出手段は、前記人物に所持された人物用ICタグが出力する信号に基づいて前記人物の位置を検出する手段であることを特徴とする請求項1から4のいずれか1項記載の撮影システム。   5. The photographing according to claim 1, wherein the detecting unit is a unit that detects a position of the person based on a signal output from an IC tag for a person possessed by the person. system. 前記人物用ICタグは、前記人物の靴に付与されてなることを特徴とする請求項5記載の撮影システム。   6. The photographing system according to claim 5, wherein the person IC tag is attached to a shoe of the person. 前記人物用ICタグは、前記靴のつま先部分およびかかと部分に付与されていることを特徴とする請求項6記載の撮影システム。   The photographing system according to claim 6, wherein the IC tag for person is attached to a toe portion and a heel portion of the shoe. 前記検出手段は、前記人物の顔が正面を向いたことをさらに検出する手段であり、前記制御手段は、さらに前記人物の顔が正面を向いたときに前記画像を取得するよう前記撮影手段を制御する手段であることを特徴とする請求項1から7のいずれか1項記載の撮影システム。   The detection means is means for further detecting that the face of the person is facing the front, and the control means further includes the photographing means for acquiring the image when the face of the person is facing the front. 8. The photographing system according to claim 1, wherein the photographing system is a control means. 撮影により画像を取得する、ズーム機能、パン機能およびチルト機能を有する撮影手段を備えた撮影システムにおける撮影方法において、
撮影場所に存在するオブジェクトと、該撮影場所に存在する人物との位置関係を検出し、
前記オブジェクトと前記人物とが所定の位置関係となるように、前記撮影手段をズームパンおよび/またはチルトさせ、
前記オブジェクトと前記人物とが前記所定の位置関係となったときに前記撮影を行って前記画像を取得することを特徴とする撮影方法。
In a photographing method in a photographing system including photographing means having a zoom function, a pan function, and a tilt function for acquiring an image by photographing,
Detecting the positional relationship between an object present at the shooting location and a person present at the shooting location;
Zooming and / or tilting the photographing means so that the object and the person are in a predetermined positional relationship,
An imaging method, wherein the image is acquired by performing the imaging when the object and the person are in the predetermined positional relationship.
撮影により画像を取得する、ズーム機能、パン機能およびチルト機能を有する撮影手段を備えた撮影システムにおける撮影方法をコンピュータに実行させるためのプログラムにおいて、
撮影場所に存在するオブジェクトと、該撮影場所に存在する人物との位置関係を検出する手順と、
前記オブジェクトと前記人物とが所定の位置関係となるように、前記撮影手段をズーム、パンおよび/またはチルトさせる手順と、
前記オブジェクトと前記人物とが前記所定の位置関係となったときに前記撮影を行って前記画像を取得する手順とを有することを特徴とするプログラム。
In a program for causing a computer to execute a shooting method in a shooting system including a shooting unit having a zoom function, a pan function, and a tilt function to acquire an image by shooting,
A procedure for detecting a positional relationship between an object existing at the shooting location and a person existing at the shooting location;
A procedure for zooming, panning and / or tilting the photographing means so that the object and the person have a predetermined positional relationship;
And a program for acquiring the image by performing the photographing when the object and the person are in the predetermined positional relationship.
JP2006263984A 2006-09-28 2006-09-28 Imaging system, imaging method and program Expired - Fee Related JP4799346B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006263984A JP4799346B2 (en) 2006-09-28 2006-09-28 Imaging system, imaging method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006263984A JP4799346B2 (en) 2006-09-28 2006-09-28 Imaging system, imaging method and program

Publications (2)

Publication Number Publication Date
JP2008085715A true JP2008085715A (en) 2008-04-10
JP4799346B2 JP4799346B2 (en) 2011-10-26

Family

ID=39356098

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006263984A Expired - Fee Related JP4799346B2 (en) 2006-09-28 2006-09-28 Imaging system, imaging method and program

Country Status (1)

Country Link
JP (1) JP4799346B2 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000244800A (en) * 1999-02-22 2000-09-08 Victor Co Of Japan Ltd Image pickup device
JP2003289465A (en) * 2002-03-28 2003-10-10 Fuji Photo Film Co Ltd Imaging system and imaging method
JP2005073094A (en) * 2003-08-27 2005-03-17 Fuji Photo Film Co Ltd Automatic photographing system
JP2005099164A (en) * 2003-09-22 2005-04-14 Fuji Photo Film Co Ltd Automatic photographing system
JP2006254358A (en) * 2005-03-14 2006-09-21 Omron Corp Imaging apparatus and method of timer photographing

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000244800A (en) * 1999-02-22 2000-09-08 Victor Co Of Japan Ltd Image pickup device
JP2003289465A (en) * 2002-03-28 2003-10-10 Fuji Photo Film Co Ltd Imaging system and imaging method
JP2005073094A (en) * 2003-08-27 2005-03-17 Fuji Photo Film Co Ltd Automatic photographing system
JP2005099164A (en) * 2003-09-22 2005-04-14 Fuji Photo Film Co Ltd Automatic photographing system
JP2006254358A (en) * 2005-03-14 2006-09-21 Omron Corp Imaging apparatus and method of timer photographing

Also Published As

Publication number Publication date
JP4799346B2 (en) 2011-10-26

Similar Documents

Publication Publication Date Title
TWI389555B (en) Imaging apparatus, control method of imaging apparatus, and computer program
JP4579980B2 (en) Taking a series of images
JP4182117B2 (en) IMAGING DEVICE, ITS CONTROL METHOD, PROGRAM, AND STORAGE MEDIUM
US7920161B2 (en) Method for forming combined digital images
JP4586709B2 (en) Imaging device
US10433709B2 (en) Image display device, image display method, and program
JP4459788B2 (en) Facial feature matching device, facial feature matching method, and program
JP2008506953A5 (en)
KR20190013759A (en) Arithmetic processing device and arithmetic processing method
JPWO2010073619A1 (en) Imaging device
JP2017097577A (en) Posture estimation method and posture estimation device
JP2020053774A (en) Imaging apparatus and image recording method
JP6879375B2 (en) Information processing equipment, length measurement system, length measurement method and computer program
JP2007134845A (en) Camera controller and control program
JP4799346B2 (en) Imaging system, imaging method and program
JP7028729B2 (en) Object tracking device, object tracking system, and object tracking method
CN110313172B (en) Imaging system and information processing method
EP3511906A1 (en) Image processing apparatus and image processing method
JP6631594B2 (en) Information processing apparatus, control method for information processing apparatus, and program
JP2019134389A (en) Imaging control device, imaging control method, and imaging control system
JP2021049262A (en) Image processing system and method for controlling the same
US10796449B2 (en) Measurement device, measurement method, and computer readable recording medium
JP2004227230A (en) Light indicating system, questionnaire collecting system, game system, light indicator, imaging device, projector, light indicating method, position specifying method, questionnaire collecting method, and game executing method
JP2006238362A (en) Apparatus and method for determining image top and bottom, and program
JP2006324727A (en) Imaging apparatus and image processing method thereof

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090217

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20101216

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110118

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110317

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110412

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110523

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110712

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110802

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140812

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4799346

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees