JP2015015559A - Camera system, camera, image-capturing control program, and image-capturing method - Google Patents

Camera system, camera, image-capturing control program, and image-capturing method Download PDF

Info

Publication number
JP2015015559A
JP2015015559A JP2013140338A JP2013140338A JP2015015559A JP 2015015559 A JP2015015559 A JP 2015015559A JP 2013140338 A JP2013140338 A JP 2013140338A JP 2013140338 A JP2013140338 A JP 2013140338A JP 2015015559 A JP2015015559 A JP 2015015559A
Authority
JP
Japan
Prior art keywords
camera
specific subject
information
predetermined
receiving
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013140338A
Other languages
Japanese (ja)
Other versions
JP2015015559A5 (en
JP6136662B2 (en
Inventor
光喜 中村
Koki Nakamura
光喜 中村
英明 松田
Hideaki Matsuda
英明 松田
浩良 小川
Hiroyoshi Ogawa
浩良 小川
和真 川原
Kazuma Kawahara
和真 川原
村木 淳
Atsushi Muraki
淳 村木
俊彦 吉田
Toshihiko Yoshida
俊彦 吉田
加奈子 中野
Kanako Nakano
加奈子 中野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2013140338A priority Critical patent/JP6136662B2/en
Publication of JP2015015559A publication Critical patent/JP2015015559A/en
Publication of JP2015015559A5 publication Critical patent/JP2015015559A5/ja
Application granted granted Critical
Publication of JP6136662B2 publication Critical patent/JP6136662B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Studio Devices (AREA)
  • Television Signal Processing For Recording (AREA)

Abstract

PROBLEM TO BE SOLVED: To enable resulting images by capturing a specific object as an image-capturing target of simultaneous image-capturing from desired multiple directions, to be securely obtained, in the simultaneous image-capturing using multiple cameras.SOLUTION: An image-capturing method includes: detecting a specific object corresponding to received feature information in a live view image, upon receipt of position information and the feature information of the specific object transmitted from a master camera (step SC6); determining whether or not the specific object is positioned at the center of the live view image (step SC9), and returning processing to step SC2 if the specific object is not positioned at the center of the live view image; notifying the master camera that the image-capturing of the specific object is ready, when the specific object comes to be in a position at the center of the live view image (step SC10); and starting simultaneous image-capturing at a time point when execution start is instructed from the master camera (step SC12).

Description

本発明は、複数のカメラを用いて同一の被写体を撮影するカメラシステム、このカメラシステムに用いられるカメラ、撮影制御プログラム及び撮影方法に関する。   The present invention relates to a camera system for photographing the same subject using a plurality of cameras, a camera used in the camera system, a photographing control program, and a photographing method.

従来、複数のカメラを用いて同一の被写体を異方向から同時に動画撮影し、これら撮影した複数の動画を同期再生するカメラシステムにおける撮影方法がある(例えば、特許文献1参照)。この撮影方法に用いられるカメラは、親機および子機機能からなり、親機として選択された場合には、子機とされた他のカメラの登録情報や現状情報(撮影直前の状況及び能力情報)を集め、これらを基に統合的な撮影条件を生成する。しかる後に、この生成した統合的な撮影条件を各子機に供給し、親機のレリーズシャッタボタンの操作に連動して各子機で撮影を行う。   2. Description of the Related Art Conventionally, there is a shooting method in a camera system in which a plurality of cameras are used to simultaneously record a moving image of the same subject from different directions, and the plurality of captured moving images are synchronously reproduced (see, for example, Patent Document 1). The camera used in this shooting method is composed of a master unit and a slave unit function, and when selected as a master unit, registration information and current status information of other cameras set as slave units (situation and capability information immediately before shooting) ) And an integrated shooting condition is generated based on these. Thereafter, the generated integrated photographing condition is supplied to each child device, and photographing is performed by each child device in conjunction with the operation of the release shutter button of the parent device.

特開2003−324649号公報JP 2003-324649 A

上述のように、従来の発明において親機は、子機とされた他のカメラの登録情報や現状情報を集め、これらを基に全カメラが参加可能な統合的な撮影条件を生成し、この生成した撮影条件で所定の同時撮影処理を実行する。ここで、登録情報とは焦点距離、f値、画素数、感度であり、現状情報とは画像を記録するメモリの残容量、電池の残容量、発光部の準備状況であるとされている。   As described above, in the conventional invention, the master unit collects registration information and current status information of other cameras set as slave units, and based on these, generates an integrated shooting condition in which all cameras can participate, and this A predetermined simultaneous photographing process is executed under the generated photographing conditions. Here, the registration information is the focal length, the f value, the number of pixels, and the sensitivity, and the current status information is the remaining capacity of the memory that records the image, the remaining capacity of the battery, and the preparation status of the light emitting unit.

しかしながら、これら登録情報や現状情報は、当該カメラ自体の状態や能力に対する情報であって、各カメラが撮影しようとする被写体に関する情報は含まれていない。したがって、各カメラにおいて同時に所定の撮影処理を実行する場合の撮影対象である特定被写体が確実あるいは適正に撮影されているか否かは定かではない。よって、多くのカメラを同時撮影に参加させたとしても、同時撮影に参加したカメラが特定被写体を適正に撮影していない場合がある。その結果、特定被写体を所望の多方向から撮影した同時撮影画像を得ることができない事態も発生することになる。   However, these registration information and current status information are information on the state and ability of the camera itself, and do not include information on the subject that each camera is to shoot. Therefore, it is not certain whether or not a specific subject that is a subject of photographing when a predetermined photographing process is simultaneously performed in each camera is photographed reliably or appropriately. Therefore, even if many cameras are allowed to participate in simultaneous shooting, the cameras that participated in the simultaneous shooting may not properly capture the specific subject. As a result, a situation may arise in which it is not possible to obtain a simultaneous photographed image obtained by photographing a specific subject from a desired multi-direction.

本発明は、係る従来の課題に鑑みてなされたものであり、複数のカメラを用いた所定の同時撮影処理において(ここでいう所定の同時撮影処理とは、少なくとも同じ時間帯で複数のカメラが1又は複数回の同期または非同期の撮影を行う処理のことであり、必ずしも1回毎の撮影タイミングが複数のカメラで一致する必要は無い)、この所定の同時撮影処理の撮影対象である特定被写体を所望の多方向から撮影した撮影結果を確実に得ることのできるカメラシステム、カメラ、撮影制御プログラム及び撮影方法を提供することを目的とする。   The present invention has been made in view of the conventional problems, and in a predetermined simultaneous shooting process using a plurality of cameras (the predetermined simultaneous shooting process here refers to a plurality of cameras in at least the same time zone. This is a process of performing one or a plurality of synchronous or asynchronous shootings, and it is not always necessary that a plurality of cameras have the same shooting timing.) A specific subject that is a shooting target of this predetermined simultaneous shooting process An object of the present invention is to provide a camera system, a camera, a shooting control program, and a shooting method that can reliably obtain a shooting result obtained by shooting images from various desired directions.

前記課題を解決するために本発明は、特定被写体を複数のカメラで同時撮影するカメラシステムであって、前記複数のカメラは、単一のマスターカメラと他のスレーブカメラとに区分され、前記マスターカメラは、前記特定被写体に関する所定情報を検出する検出手段と、この検出手段により検出した前記所定情報を送信する送信手段とを備え、前記スレーブカメラは、前記送信手段により送信される前記所定情報を受信する受信手段と、この受信手段により受信した所定情報に基づいて前記同時撮影を実行する実行手段とを備えることを特徴とする。   In order to solve the above-described problems, the present invention provides a camera system for simultaneously photographing a specific subject with a plurality of cameras, wherein the plurality of cameras are divided into a single master camera and other slave cameras. The camera includes detection means for detecting predetermined information about the specific subject, and transmission means for transmitting the predetermined information detected by the detection means. The slave camera receives the predetermined information transmitted by the transmission means. It is characterized by comprising receiving means for receiving and executing means for executing the simultaneous photographing based on predetermined information received by the receiving means.

また、本発明は、特定被写体を複数のカメラで同時撮影するカメラシステムに用いられるカメラであって、前記特定被写体に関する所定情報を検出する検出手段と、この検出手段により検出した前記所定情報を送信する送信手段とを備えるマスターカメラ機能、又は、前記送信手段により送信される前記所定情報を受信する受信手段と、この受信手段により受信した所定情報に基づいて前記同時撮影を実行する実行手段とを備えるスレーブカメラ機能、の少なくとも一方の機能を備えることを特徴とする。   Further, the present invention is a camera used in a camera system for simultaneously photographing a specific subject with a plurality of cameras, and detecting means for detecting predetermined information about the specific subject, and transmitting the predetermined information detected by the detecting means. A master camera function comprising: a transmitting means for receiving; or a receiving means for receiving the predetermined information transmitted by the transmitting means; and an executing means for executing the simultaneous photographing based on the predetermined information received by the receiving means. It is characterized by having at least one function of a slave camera function.

また、本発明に係るプログラムは、特定被写体を複数のカメラで同時撮影するカメラシステムに用いられるカメラが有するコンピュータを、前記特定被写体に関する所定情報を検出する検出手段と、この検出手段により検出した前記所定情報を送信する送信手段、又は、前記送信手段により送信される前記所定情報を受信する受信手段と、この受信手段により受信した所定情報に基づいて前記同時撮影を実行する実行手段、の少なくとも一方として機能させることを特徴とする。   In addition, the program according to the present invention includes a detection unit that detects predetermined information about the specific subject, and a computer that is used in the camera system that simultaneously captures the specific subject with a plurality of cameras, and the detection unit detects the computer. At least one of transmitting means for transmitting predetermined information, receiving means for receiving the predetermined information transmitted by the transmitting means, and executing means for executing the simultaneous photographing based on the predetermined information received by the receiving means It is made to function as.

また、本発明は、特定被写体を複数のカメラで同時撮影する撮影方法であって、前記複数のカメラを、単一のマスターカメラと他のスレーブカメラとに区分し、前記マスターカメラには、前記特定被写体に関する所定情報を検出する検出ステップと、この検出ステップにより検出した前記所定情報を送信する送信ステップとを実行させ、前記スレーブカメラには、前記送信ステップにより送信される前記所定情報を受信する受信ステップと、この受信ステップにより受信した所定情報に基づいて前記同時撮影を実行する実行ステップとを実行させることを特徴とする。   Further, the present invention is a shooting method for simultaneously shooting a specific subject with a plurality of cameras, wherein the plurality of cameras are classified into a single master camera and another slave camera, A detection step for detecting predetermined information related to the specific subject and a transmission step for transmitting the predetermined information detected by the detection step are executed, and the slave camera receives the predetermined information transmitted by the transmission step. A reception step and an execution step of executing the simultaneous photographing based on the predetermined information received by the reception step are performed.

本発明によれば、複数のカメラを用いた所定の同時撮影処理において、この所定の同時撮影処理の撮影対象である特定被写体を所望の多方向から撮影した撮影結果を確実に得ることができる。   According to the present invention, in a predetermined simultaneous shooting process using a plurality of cameras, it is possible to reliably obtain a shooting result of shooting a specific subject that is a shooting target of the predetermined simultaneous shooting process from a desired multi-direction.

(a)は本発明の一実施の形態に係るカメラシステムの撮影時における配置例を示す図、(b)はカメラ1Bがマスターカメラである場合の動作説明図である。(A) is a figure which shows the example of arrangement | positioning at the time of imaging | photography of the camera system which concerns on one embodiment of this invention, (b) is operation | movement explanatory drawing when the camera 1B is a master camera. 本実施の一実施の形態に係るカメラのブロック構成図である。It is a block block diagram of the camera which concerns on one embodiment of this Embodiment. 同実施の形態の撮影時における全カメラ共通の処理手順示すフローチャートである。It is a flowchart which shows the process sequence common to all the cameras at the time of imaging | photography of the embodiment. 同実施の形態におけるマスターカメラの処理手順を示すフローチャートである。It is a flowchart which shows the process sequence of the master camera in the embodiment. 同実施の形態におけるスレーブカメラの処理手順を示すフローチャートである。It is a flowchart which shows the process sequence of the slave camera in the embodiment.

以下、本発明の一実施の形態を図に従って説明する。図1(a)は、本発明の一実施の形態に係るカメラシステムを示す説明図である。このカメラシステムは、第1カメラ1Aから第6カメラ1Fまでの6台カメラ(以下、第1カメラ1A〜第6カメラ1Fの全部又はその一部を、カメラ1と表記する)で構成されている。これらカメラ1は、特定被写体30(例えば、ゴルフスウィングを行うゴルファー)を囲繞するように略等間隔に配置され、当該特定被写体30を周囲から動画撮影しようとするものである。   Hereinafter, an embodiment of the present invention will be described with reference to the drawings. FIG. 1A is an explanatory diagram showing a camera system according to an embodiment of the present invention. This camera system is composed of six cameras from the first camera 1A to the sixth camera 1F (hereinafter, all or a part of the first camera 1A to the sixth camera 1F will be referred to as the camera 1). . These cameras 1 are arranged at substantially equal intervals so as to surround a specific subject 30 (for example, a golfer who performs golf swing), and intends to shoot the specific subject 30 from the surroundings.

図2は、カメラ1の概略構成を示すブロック図である。本実施の形態において、第1カメラ1A〜第6カメラ1Fにおいて、少なくとも1つのカメラは同図に示す構成を備えている。すなわち、カメラ1は、バスライン20を介して各部に接続された制御部3を有しており、この制御部3は、カメラ1の各部を制御するワンチップマイコンである。撮像部4は、CMOSイメージセンサからなりフォーカスレンズ、ズームレンズ等で構成される撮像レンズ5の光軸上に配置され、露光タイミングがライン毎に異なるライン露光順次読み出し方式(ローリングシャッター )により、被写体の光学像に応じたアナログの撮像信号をライン毎に出力する。   FIG. 2 is a block diagram illustrating a schematic configuration of the camera 1. In the present embodiment, in the first camera 1A to the sixth camera 1F, at least one camera has the configuration shown in FIG. That is, the camera 1 includes a control unit 3 connected to each unit via the bus line 20, and the control unit 3 is a one-chip microcomputer that controls each unit of the camera 1. The imaging unit 4 is disposed on the optical axis of an imaging lens 5 that is composed of a CMOS image sensor and includes a focus lens, a zoom lens, and the like, and uses a line exposure sequential readout method (rolling shutter) with different exposure timing for each line. An analog imaging signal corresponding to the optical image is output for each line.

ユニット回路6は、撮像部4から出力される被写体の光学像に応じたアナログの撮像信号が入力される回路であって、入力した撮像信号を保持するCDSと、その撮像信号を増幅するゲイン調整アンプ(AGC)、増幅された撮像信号をデジタルの撮像信号に変換するA/D変換器(ADC)等から構成されている。撮像部4の出力信号はユニット回路6を経て、各々デジタル信号として信号処理部7に送られる。   The unit circuit 6 is a circuit to which an analog imaging signal corresponding to the optical image of the subject output from the imaging unit 4 is input, and a CDS that holds the input imaging signal and a gain adjustment that amplifies the imaging signal. An amplifier (AGC), an A / D converter (ADC) that converts the amplified imaging signal into a digital imaging signal, and the like are configured. The output signal of the imaging unit 4 passes through the unit circuit 6 and is sent to the signal processing unit 7 as a digital signal.

この送られたデジタル信号は、信号処理部7にて各種信号処理された後、画像処理部8に送られて、各種画像処理が施されるとともに、表示部9に供給されることにより、ライブビュー画像として表示される。また、画像記録時において、画像処理部8で処理された信号は、さらに符号化されて画像記録部(外部記録媒体を含む)10に記録され、画像再生時において、画像記録部10から読み出された画像データは画像処理部8で復号化されて表示部9に表示される。   The sent digital signal is subjected to various signal processing by the signal processing unit 7, then sent to the image processing unit 8, subjected to various image processing, and supplied to the display unit 9, so Displayed as a view image. Further, at the time of image recording, the signal processed by the image processing unit 8 is further encoded and recorded in an image recording unit (including an external recording medium) 10 and read out from the image recording unit 10 at the time of image reproduction. The processed image data is decoded by the image processing unit 8 and displayed on the display unit 9.

また、バスライン20には、TG(Timing Generator)11、ROM12及びバッファメモリ13が接続されている。TG11は、制御部3が設定するタイミング及びフレーム周期のフレーム同期信号(センサV同期信号)を生成し、このフレーム同期信号に従ったタイミングで、撮像部4、ユニット回路6及びLED17を駆動する。ROM12には静止画撮影時、動画撮影時等の各撮影時における適正な露出値(EV)に対応する絞り値(F)とシャッタースピードとの組み合わせを示すプログラム線図を構成するプログラムAEデータや、EV値表も格納されている。そして、制御部3がプログラム線図により設定されるシャッタースピードに基づき設定した電荷蓄積時間はシャッターパルスとして、TG11を介して撮像部4に供給され、これに従い撮像部4が動作することにより露光期間、露光タイミングが制御される。さらに、ROM12には、後述するフローチャートに示すプログラム及びデジタルカメラとして機能するに必要な各種プログラムが格納されている。   Further, a TG (Timing Generator) 11, a ROM 12, and a buffer memory 13 are connected to the bus line 20. The TG 11 generates a frame synchronization signal (sensor V synchronization signal) having a timing and a frame period set by the control unit 3, and drives the imaging unit 4, the unit circuit 6, and the LED 17 at a timing according to the frame synchronization signal. The ROM 12 stores program AE data constituting a program diagram showing a combination of an aperture value (F) and a shutter speed corresponding to an appropriate exposure value (EV) at the time of shooting such as still image shooting and moving image shooting. The EV value table is also stored. The charge accumulation time set by the control unit 3 based on the shutter speed set by the program diagram is supplied as a shutter pulse to the imaging unit 4 via the TG 11, and the imaging unit 4 operates according to the exposure period to thereby expose the exposure period. The exposure timing is controlled. Further, the ROM 12 stores a program shown in a flowchart to be described later and various programs necessary for functioning as a digital camera.

バッファメモリ13は、画像データ等を一時保存するバッファであるとともに、制御部3のワーキングメモリ等としても使用される。すなわち、前記画像処理部8は、信号処理部7から送られてきたベイヤーデータに、ペデスタルクランプ等の処理を施した後、RGBデータに変換し、更にRGBデータを輝度(Y)信号及び色差(UV)信号に変換する。この画像処理部8で変換されたYUVデータは、1フレーム分のデータがバッファメモリ13に格納される。バッファメモリ13に格納された1フレーム分のYUVデータは表示部9へ送られ、そこでビデオ信号に変換された後、ライブビュー画像として表示される。   The buffer memory 13 is a buffer for temporarily storing image data and the like, and is also used as a working memory for the control unit 3. That is, the image processing unit 8 performs processing such as pedestal clamping on the Bayer data sent from the signal processing unit 7, converts it into RGB data, and further converts the RGB data into a luminance (Y) signal and a color difference ( UV) signal. The YUV data converted by the image processing unit 8 stores data for one frame in the buffer memory 13. One frame of YUV data stored in the buffer memory 13 is sent to the display unit 9, where it is converted into a video signal and then displayed as a live view image.

なお、静止画撮影モードにおいて使用者によるシャッターキー操作が検出されると、撮像部4及びユニット回路6をライブビュー画像撮像時とは異なる静止画撮影用の駆動方式や駆動タイミングに切り替えることにより静止画撮影処理を実行し、この静止画撮影処理によりバッファメモリ13に格納された1フレーム分のYUVデータは、画像処理部8でJPEG方式等によるデータ圧縮後コード化され、バッファメモリ13内でファイル化された後、バスライン20を介して画像記録部10に静止画データとして記録される。   Note that when a shutter key operation by the user is detected in the still image shooting mode, the imaging unit 4 and the unit circuit 6 are switched to a still image shooting drive system or drive timing different from that for live view image shooting. The image processing is executed, and the YUV data for one frame stored in the buffer memory 13 by the still image capturing processing is encoded after data compression by the JPEG method or the like by the image processing unit 8, and the file is stored in the buffer memory 13. Then, it is recorded as still image data in the image recording unit 10 via the bus line 20.

また、動画撮影モードにおいて撮影開始指示が検出されると、撮影処理を開始し、撮影終了指示が検出されるまでの複数フレーム分のYUVデータをバッファメモリ13に格納する。このバッファメモリ13に格納された複数フレーム分のYUVデータは、動画終了指示後において制御部3へ送られ、JPEG方式等(動画撮影の場合は所定のMPEGのコーデック)によりデータ圧縮後コード化されて、バッファメモリ13及びバスライン20を介してフレームデータとしファイル名を付されて画像記録部10に書き込まれる。また、制御部3は、静止画又は動画の再生時には画像記録部10から読み出された静止画や動画のデータを伸張し、静止画データや動画像のフレームデータとしてバッファメモリ13の画像データ作業領域に展開する。   When a shooting start instruction is detected in the moving image shooting mode, shooting processing is started, and YUV data for a plurality of frames until the shooting end instruction is detected is stored in the buffer memory 13. The YUV data for a plurality of frames stored in the buffer memory 13 is sent to the control unit 3 after the moving image end instruction, and is encoded after data compression by the JPEG method or the like (a predetermined MPEG codec in the case of moving image shooting). Then, the file name is given as frame data via the buffer memory 13 and the bus line 20 and is written to the image recording unit 10. In addition, the control unit 3 expands the still image or moving image data read from the image recording unit 10 during reproduction of the still image or moving image, and operates the image data in the buffer memory 13 as still image data or moving image frame data. Expand into the area.

さらに、バスライン20には、キー入力部14、無線I/F21、ID番号記憶部22、GPS(Global Positioning System)23、方位センサ24、及び測距センサ25が接続されている。キー入力部14は、シャッターキー、モード設定キー、電源キー等の複数の操作キーを含み、使用者によるキー操作に応じたキー入力信号を検出して制御部3に出力する。   Further, a key input unit 14, a wireless I / F 21, an ID number storage unit 22, a GPS (Global Positioning System) 23, an orientation sensor 24, and a distance measurement sensor 25 are connected to the bus line 20. The key input unit 14 includes a plurality of operation keys such as a shutter key, a mode setting key, and a power key. The key input unit 14 detects a key input signal corresponding to a key operation by the user and outputs the detected key input signal to the control unit 3.

無線I/F21は、他のカメラとの間で、ブルートゥース(登録商標)等の近接無線でリンクを行うインタフェースである。ID番号記憶部22は、各カメラ1A〜1F毎に異なる自機のID番号(本実施の形態においては、相互に異なる自然数)を記憶しているとともに、他機から取得したID番号を記憶するリストエリアを有している。GPS23は、複数の測位衛星(GPS衛星)から送られてくる電波をGPS受信アンテナにより受信することによって、現在位置を示す緯度・経度からなる位置データを取得し、取得した位置データを、当該カメラの現在位置を示す位置情報として制御部3に供給する。方位センサ24は、当該カメラにおいて前記撮像レンズ5の光軸が向いている方向を検出し、これを撮影方向として制御部3に供給する。測距センサ25は、被写体までの距離、特に後述する特定被写体までの距離を検出して、制御部3に供給する。
なお、電源部26はバッテリーを備え、バッテリーから各部に電力を供給する。
The wireless I / F 21 is an interface that performs a link with other cameras using close proximity wireless communication such as Bluetooth (registered trademark). The ID number storage unit 22 stores different ID numbers (natural numbers different from each other in the present embodiment) for each camera 1A to 1F, and stores ID numbers obtained from other devices. Has a list area. The GPS 23 receives radio waves transmitted from a plurality of positioning satellites (GPS satellites) by a GPS receiving antenna, thereby acquiring position data composed of latitude and longitude indicating the current position, and the acquired position data is transmitted to the camera. Is supplied to the control unit 3 as position information indicating the current position. The azimuth sensor 24 detects the direction in which the optical axis of the imaging lens 5 faces in the camera, and supplies this to the control unit 3 as the photographing direction. The distance measuring sensor 25 detects a distance to the subject, particularly a distance to a specific subject described later, and supplies the detected distance to the control unit 3.
The power supply unit 26 includes a battery and supplies power to each unit from the battery.

また、第1カメラ1A〜第6カメラ1Fは、全てのカメラが図2に示した構成を備えているのではなく、GPS23及び方位センサ24を備えていないカメラが含まれている場合もあるものとする。   In addition, the first camera 1A to the sixth camera 1F may not include all the cameras having the configuration shown in FIG. 2 but may include a camera that does not include the GPS 23 and the direction sensor 24. And

以上の構成にかかる本実施の形態において、ユーザのキー入力部14での操作により電源がオンされて各カメラ1に同期撮影モードが設定されていると、制御部3は、ROM12に記憶されたプログラムに従って、全カメラに共通する処理である図3のフローチャートに示すマスター/スレーブ決定処理を実行する。すなわち、制御部3は、自機の現在の状態が他のカメラとの同時撮影に参加可能か否かを判断する(ステップSA1)。当該カメラに、同期撮影モードが設定されており同時撮影に参加可能であれば、制御部は次のステップに処理を進める。そして、自機のID番号記憶部22に記憶されている各カメラ固有のID番号を、無線I/F21から外部に送信して他機に近接無線により通知する(ステップSA2)。   In the present embodiment according to the above configuration, when the power is turned on by the user's operation on the key input unit 14 and the synchronous shooting mode is set for each camera 1, the control unit 3 is stored in the ROM 12. According to the program, the master / slave determination process shown in the flowchart of FIG. 3 which is a process common to all cameras is executed. That is, the control unit 3 determines whether or not the current state of the own device can participate in simultaneous shooting with another camera (step SA1). If the synchronous shooting mode is set for the camera and the camera can participate in the simultaneous shooting, the control unit proceeds to the next step. Then, the ID number unique to each camera stored in the ID number storage unit 22 of the own device is transmitted from the wireless I / F 21 to the outside and notified to the other device by proximity wireless (step SA2).

次に、GPS23と方位センサ24とを備えており、よって、これらより自機の位置と撮影方向とを取得可能であるか否かを判断する(ステップSA3)。つまり、前述のように、第1カメラ1A〜第6カメラ1Fは、全てのカメラが図2に示した構成を備えているのではなく、GPS23及び方位センサ24を備えていないカメラが含まれている場合もある。そして、これらGPS23及び方位センサ24を備えていないカメラの場合、ステップSA3の判断はNOとなる。よって、ステップSA3からステップSA9に進み、自機をスレーブカメラに設定する。   Next, the GPS 23 and the azimuth sensor 24 are provided. Therefore, it is determined from these whether or not the position and photographing direction of the own device can be acquired (step SA3). That is, as described above, the first camera 1A to the sixth camera 1F do not have all the cameras shown in FIG. 2 but include cameras that do not include the GPS 23 and the direction sensor 24. There may be. If the camera does not include the GPS 23 and the azimuth sensor 24, the determination in step SA3 is NO. Therefore, the process proceeds from step SA3 to step SA9, and the own apparatus is set as a slave camera.

これにより、GPS23や方位センサ24を具備せず、マスターカメラとなることが不適当なカメラがマスターカメラに選定される不都合を未然に防止することができ、適切なマスターカメラ選定が可能となる。   Accordingly, it is possible to prevent inconvenience that a camera that does not include the GPS 23 and the azimuth sensor 24 and is inappropriate to be a master camera is selected as the master camera, and an appropriate master camera can be selected.

また、GPS23と方位センサ24とを備えており、これらより自機の位置と撮影方向とを取得可能であるカメラ1の制御部3は、ステップSA3からステップSA4に処理を進める。そして、自機のリスト(ID番号記憶部22)に未だ記憶されていないID番号の通知が他機からあったか否かを判断する(ステップSA4)。自機のリストに未記憶のID番号の通知が他機からあった場合には、通知のあったID番号をリストに追加して(ステップSA5)、ステップSA4に戻る。したがって、第1カメラ1Aから第6カメラ1Fまでの6台カメラの内、GPS23と方位センサ24とを備えたカメラのID番号が、各カメラ1のリストに記憶されるまで、ステップSA2→SA3→SA2のループ処理が繰り返される。また、このループ処理が繰り返されることにより、GPS23と方位センサ24とを備えたカメラのID番号記憶部22には、同様にGPS23と方位センサ24とを備えたカメラのID番号を記憶した同一のリストが形成されることになる。   The control unit 3 of the camera 1 that includes the GPS 23 and the azimuth sensor 24 and can acquire the position of the own device and the shooting direction from the GPS 23 and the direction sensor 24 proceeds from step SA3 to step SA4. Then, it is determined whether or not a notification of an ID number not yet stored in the list (ID number storage unit 22) of the own device has been received from another device (step SA4). If a notification of an ID number not stored in the list of the own device is received from another device, the notified ID number is added to the list (step SA5), and the process returns to step SA4. Therefore, among the six cameras from the first camera 1A to the sixth camera 1F, until the ID numbers of the cameras having the GPS 23 and the direction sensor 24 are stored in the list of each camera 1, steps SA2 → SA3 → The loop process of SA2 is repeated. Further, by repeating this loop process, the ID number storage unit 22 of the camera having the GPS 23 and the direction sensor 24 similarly stores the ID number of the camera having the GPS 23 and the direction sensor 24. A list will be formed.

そこで、各カメラ1は、同一のリスト内において、最も若いID番号は、自機のものであるか否かを判断する(ステップSA6)。最も若いID番号が自機のものでない場合には、自機をスレーブカメラに設定して(ステップSA9)、このマスター/スレーブ決定処理を終了する。   Therefore, each camera 1 determines whether or not the youngest ID number belongs to the same list in the same list (step SA6). If the youngest ID number is not that of the own device, the own device is set as a slave camera (step SA9), and this master / slave determination process is terminated.

また、最も若いID番号は自機のものである場合には、自機をマスターカメラに設定する(ステップSA7)。したがって、このステップSA5までの処理が図1に示したカメラシステムにおいて実行されることにより、第1カメラ1Aから第6カメラ1Fまでの6台カメラの内の1台のカメラがマスターカメラに決定され、他のカメラがスレーブカメラに決定される。例えば、図1(b)に示すように、カメラ1Bがマスターカメラに決定され、カメラ1A,1C,1D,1E,1Fスレーブカメラに決定されることとなる。   If the youngest ID number is that of the own device, the own device is set as the master camera (step SA7). Therefore, by executing the processing up to step SA5 in the camera system shown in FIG. 1, one of the six cameras from the first camera 1A to the sixth camera 1F is determined as the master camera. The other camera is determined as the slave camera. For example, as shown in FIG. 1B, the camera 1B is determined as the master camera, and is determined as the cameras 1A, 1C, 1D, 1E, and 1F slave cameras.

このように本実施の形態においては、最も若いID番号のカメラをマスターカメラに決定するようにしたので、マスターカメラの決定処理が単純にして、迅速な撮影開始が可能となる。無論、これに限ることなく、各カメラの制御能力(制御部3の処理速度等の能力)を比較して、制御能力の最も高いカメラ1をマスターカメラにするようにしてもよい。このようにすれば、高性能のカメラを有効利用して、システム全体を精度よく制御することができる。   As described above, in the present embodiment, since the camera with the smallest ID number is determined as the master camera, the master camera determination process can be simplified, and rapid imaging can be started. Of course, the present invention is not limited to this, and the control capability of each camera (capability such as the processing speed of the control unit 3) may be compared to make the camera 1 having the highest control capability the master camera. In this way, the entire system can be accurately controlled by effectively using a high-performance camera.

しかる後に、自機を含むスト内のID番号に対応する複数のカメラを同時撮影への参加候補と決定して(ステップSA6)、マスター/スレーブ決定処理を終了する。したがって、以上のマスター/スレーブ決定処理が図1に示したカメラシステムにおいて実行されることにより、前述のようにマスターカメラとスレーブカメラとが決定されるとともに、第1カメラ1Aから第6カメラ1Fが同時撮影への参加候補として決定されることとなる。   Thereafter, a plurality of cameras corresponding to the ID numbers in the strike including the own device are determined as candidates for simultaneous shooting (step SA6), and the master / slave determination process is terminated. Therefore, by executing the above master / slave determination process in the camera system shown in FIG. 1, the master camera and the slave camera are determined as described above, and the first camera 1A to the sixth camera 1F are determined. It will be determined as a candidate for simultaneous shooting.

したがって、本実施の形態によれば、カメラシステムを構成するカメラ、及び当該カメラシステムにおけるマスター/スレーブの決定をユーザの手動による指定操作を伴うことなく、自動的に行うことができ、同時撮影に際しての事前操作の簡略することできる。   Therefore, according to the present embodiment, it is possible to automatically determine the camera constituting the camera system and the master / slave in the camera system without a manual designation operation by the user. Pre-operation can be simplified.

無論、キー入力部14にてのユーザの操作により、カメラシステムを構成するカメラ、及び当該カメラシステムにおけるマスター/スレーブの決定を行うようにしてもよい。このようにすれば、ユーザの意思をカメラシステムを構成するカメラ、及びマスター/スレーブの決定に反映させることができ、任意のカメラでカメラシステムを構成し、いずれか任意のカメラをマスターとすることができる。   Of course, the user constituting the camera system and the master / slave in the camera system may be determined by a user operation on the key input unit 14. In this way, the user's intention can be reflected in the determination of the camera and master / slave constituting the camera system, the camera system is configured with an arbitrary camera, and any arbitrary camera is set as the master. Can do.

図4は、前述のステップSA7の処理でマスターカメラに設定されたカメラ(以下、単にマスターカメラという)が有する制御部3が実行するマスターカメラ処理の処理手順を示すフローチャートである。マスターカメラの制御部3は、撮影画像内から撮影対象とすべき特定被写体を選択する(ステップSB1)。ここで撮影画像とは、撮像部4により撮像されユニット回路6、信号処理部7、画像処理部8に送られて、各種画像処理が施されるとともに、表示部9に供給されることにより表示されるライブビュー画像である。したがって、制御部3はこのライブビュー画像中において、例えばフォーカス枠内に存在する被写体、あるいはライブビュー画像中においてユーザがカーソル操作等により指定した被写体を特定被写体として選択する。   FIG. 4 is a flowchart showing a processing procedure of the master camera process executed by the control unit 3 included in the camera (hereinafter simply referred to as a master camera) set as the master camera in the process of step SA7. The control unit 3 of the master camera selects a specific subject to be photographed from the photographed image (step SB1). Here, the photographed image is picked up by the image pickup unit 4, sent to the unit circuit 6, the signal processing unit 7, and the image processing unit 8, subjected to various image processing, and supplied to the display unit 9 for display. It is a live view image. Therefore, the control unit 3 selects, as the specific subject, a subject existing in the focus frame in the live view image, or a subject specified by the user through a cursor operation or the like in the live view image, for example.

次に、この選択した特定被写体の特徴情報、例えば特定被写体の色相、彩度、明度、輪郭形状、大きさの各特徴量データを取得する(ステップSB2)。次に、測距センサ25を起動して、前記選択した特定被写体までの距離を検出するとともに(ステップSB3)、GPS23及び方位センサ24からの出力信号に基づき、自機(マスターカメラ)の位置及び撮影方向を検出する(ステップSB4)。   Next, the feature information of the selected specific subject, for example, each feature quantity data of hue, saturation, brightness, contour shape, and size of the specific subject is acquired (step SB2). Next, the distance measuring sensor 25 is activated to detect the distance to the selected specific subject (step SB3), and based on the output signals from the GPS 23 and the direction sensor 24, the position of the own device (master camera) and The shooting direction is detected (step SB4).

更に、これら検出した特定被写体までの距離、自機の位置及び撮影方向に基づいて、特定被写体の位置を算出する(ステップSB5)。つまり、マスターカメラから特定被写体までの距離、当該マスターカメラの位置(緯度・経度)、及び撮影方向から得られる特定被写体に対して撮像レンズ5の光軸が向いている方向(方位)が得られれば、特定被写体の位置(緯度・経度)を算出することが可能である。よって、ステップSB5では、その前段のステップで検出した情報に基づき、特定被写体の位置を算出する。   Further, the position of the specific subject is calculated based on the detected distance to the specific subject, the position of the own device, and the shooting direction (step SB5). In other words, the distance from the master camera to the specific subject, the position (latitude / longitude) of the master camera, and the direction (azimuth) in which the optical axis of the imaging lens 5 faces the specific subject obtained from the shooting direction can be obtained. For example, the position (latitude / longitude) of the specific subject can be calculated. Therefore, in step SB5, the position of the specific subject is calculated based on the information detected in the preceding step.

しかる後に、このステップSB5で算出した特定被写体の位置を示す位置情報と、前記ステップSB2で取得した特定被写体の特徴情報とを無線I/F21から各スレーブカメラに送信する(ステップSB6)。引き続き、全てのスレーブカメラから、特定被写体を撮影する準備ができた否かの通知を受けたか否かを判断する(ステップSB7)。つまり、全てのスレーブカメラから、「特定被写体を撮影する準備ができた」又は「特定被写体を撮影する準備ができない」旨の通知を受けたか否かを判断する。これらいずれかの通知を全てのスレーブカメラから受けるまで、次のステップに進むことなくステップSA7の判断を繰り返しつつ待機する。   Thereafter, the position information indicating the position of the specific subject calculated in step SB5 and the characteristic information of the specific subject acquired in step SB2 are transmitted from the wireless I / F 21 to each slave camera (step SB6). Subsequently, it is determined whether or not notification has been received from all the slave cameras regarding whether or not the specific subject is ready to be photographed (step SB7). That is, it is determined whether all slave cameras have received a notification that “ready to take a specific subject” or “not ready to take a specific subject”. Until one of these notifications is received from all slave cameras, the process waits while repeating the determination in step SA7 without proceeding to the next step.

その結果、前記いずれかの通知を全てのスレーブカメラから受けたならば、受けた通知の内容に基づき、特定被写体を撮影する準備ができないスレーブカメラを同時撮影に参加するカメラから除外する(ステップSB8)。そして、同時撮影の開始を同時撮影に参加する全てのスレーブカメラ、つまりステップSB8で除外した後の残る全てのスレーブカメラに指示するとともに、自機も同時撮影を開始し(ステップSB9)、撮影終了までの複数フレーム分のYUVデータをバッファメモリ13に格納し始める。   As a result, if any of the notifications is received from all the slave cameras, the slave cameras that are not ready to shoot the specific subject are excluded from the cameras participating in the simultaneous shooting based on the contents of the received notifications (step SB8). ). Then, all slave cameras participating in the simultaneous shooting, that is, all remaining slave cameras after being excluded in step SB8 are instructed, and the own device also starts the simultaneous shooting (step SB9), and the shooting is finished. The storage of the YUV data for a plurality of frames in the buffer memory 13 is started.

つまり、本実施の形態においては、特定被写体を撮影する準備ができないスレーブカメラに関しては、準備ができるまで待つことなく同時撮影に参加するカメラから除外して同時撮影を行うこととした。よって、迅速に同時撮影を開始することが可能となる。また、その時点で同時撮影に参加可能な最大カメラ数のスレーブカメラを用いて同期動画撮影を行うことができる。   In other words, in the present embodiment, slave cameras that are not ready to shoot a specific subject are excluded from cameras participating in simultaneous shooting without waiting until they are ready, and simultaneous shooting is performed. Therefore, it is possible to start simultaneous shooting quickly. In addition, synchronous moving image shooting can be performed using the maximum number of slave cameras that can participate in simultaneous shooting at that time.

なお、本実施の形態においては、マスターカメラ(自機)も同時撮影に参加することとし、より多くのカメラを用いて同期動画撮影を行うようにした。しかし、マスターカメラか撮影に参加することなく、スレーブカメラへの指示のみを行うようにしてもよい。このようにすれば、マスターカメラが有する制御部3の処理能力内において、適正且つ確実に複数のスレーブカメラを制御することができる。   In the present embodiment, the master camera (own device) also participates in simultaneous shooting, and synchronous video shooting is performed using more cameras. However, the slave camera may be instructed only without participating in shooting with the master camera. In this way, a plurality of slave cameras can be controlled appropriately and reliably within the processing capability of the control unit 3 of the master camera.

引き続き、自機及びスレーブカメラによる同時撮影を終了する否かを判断する(ステップSB10)。この同時撮影終了の判断は、マスターカメラのキー入力部14にてのユーザの操作により撮影終了が指示されたか否か、あるいは、予め設定されている同時撮影の継続時間が終了したか否かにより判断する。   Subsequently, it is determined whether or not the simultaneous shooting by the own device and the slave camera is to be ended (step SB10). This determination of the end of simultaneous shooting is made based on whether or not the end of shooting has been instructed by a user operation on the key input unit 14 of the master camera, or whether or not the preset duration of simultaneous shooting has ended. to decide.

同時撮影を終了すると判断したならば、無線I/F21を起動させて近接無線により同時撮影の実行終了を同時撮影に参加する全てのスレーブカメラに指示するとともに、自機も同時撮影を終了する(ステップSB11)。また、特定被写体の位置、同時撮影の開始日時、同時撮影の終了日時、又は自機の位置に基づいて、今回の同時撮影を識別する識別情報としての名称を決定する(ステップSB12)。なお、これら特定被写体の位置、同時撮影の開始日時、同時撮影の終了日時、自機の位置等の名称決定に用いられる要素は一例であって、今回の同時撮影を識別できる名称となるもの、より好ましくは特定被写体を識別できる名称となるのであれば、他の要素であってもよい。   If it is determined that the simultaneous shooting is to be ended, the wireless I / F 21 is activated to instruct all slave cameras participating in the simultaneous shooting to execute the simultaneous shooting by proximity wireless, and the own device also ends the simultaneous shooting ( Step SB11). Further, based on the position of the specific subject, the start date / time of the simultaneous shooting, the end date / time of the simultaneous shooting, or the position of the own device, a name as identification information for identifying the current simultaneous shooting is determined (step SB12). The elements used for determining the name of the position of the specific subject, the start date and time of the simultaneous shooting, the end date and time of the simultaneous shooting, the position of the own device, etc. are examples, and the names that can be used to identify the current simultaneous shooting, More preferably, other elements may be used as long as the name can identify the specific subject.

そして、この決定した名称を同時撮影に参加した全てのスレーブカメラに送信するとともに、当該名称を付加して自機の撮影画像を保存する(ステップSB13)。すなわち、前記名称を無線I/F21を介してスレーブカメラに送信する。また、自機のバッファメモリ13に格納された複数フレーム分のYUVデータを制御部3へ送り、所定のMPEGのコーデックによりデータ圧縮後コード化して、バッファメモリ13及びバスライン20を介して、動画データとして前記名称を付し画像記録部10に書き込む。これにより、マスターカメラの画像記録部10には、今回の同時撮影において当該マスターカメラが特定被写体を撮影した動画データが固有の名称を付されて記憶されることとなる。   Then, the determined name is transmitted to all the slave cameras that participated in the simultaneous photographing, and the photographed image of the own device is stored by adding the name (step SB13). That is, the name is transmitted to the slave camera via the wireless I / F 21. Also, YUV data for a plurality of frames stored in the buffer memory 13 of the own device is sent to the control unit 3, encoded after data compression by a predetermined MPEG codec, and the moving image is transmitted via the buffer memory 13 and the bus line 20. The name is attached as data and written in the image recording unit 10. As a result, in the image recording unit 10 of the master camera, moving image data obtained by photographing the specific subject by the master camera in the current simultaneous photographing is stored with a unique name.

図5は、前述のステップSA9の処理でスレーブカメラに設定されたカメラ(以下、単にスレーブカメラという)が有する制御部3が実行するスレーブカメラ処理の処理手順を示すフローチャートである。スレーブカメラの制御部3は、前記ステップSB6の処理でマスターカメラから送信される特定被写体の位置情報と特徴情報とを受信したか否かを判断し(ステップSC1)、これらを受信するまで待機する。   FIG. 5 is a flowchart showing a processing procedure of slave camera processing executed by the control unit 3 included in the camera (hereinafter simply referred to as slave camera) set as the slave camera in the processing of step SA9. The control unit 3 of the slave camera determines whether or not the position information and feature information of the specific subject transmitted from the master camera in the process of step SB6 has been received (step SC1), and waits until these are received. .

特定被写体の位置情報と特徴情報とを受信したならば、GPS23と方位センサ24とで、自機の位置と撮影方向とを取得可能であるか否かを判断する(ステップSC2)。取得可能であるならば、GPS23と方位センサ24とで、自機の位置と撮影方向とを取得する(ステップSC3)。   If the position information and the characteristic information of the specific subject are received, it is determined by the GPS 23 and the azimuth sensor 24 whether or not the position and photographing direction of the own device can be acquired (step SC2). If it can be acquired, the GPS 23 and the direction sensor 24 acquire the position and shooting direction of the own device (step SC3).

更に、受信した特定被写体の位置情報が示す位置と自機の位置及び撮影方向に基づいて、ライブビュー画像上における特定被写体の位置、又はライブビュー画像外の方向を特定する(ステップSC4)。   Furthermore, the position of the specific subject on the live view image or the direction outside the live view image is specified based on the position indicated by the received position information of the specific subject, the position of the own device, and the shooting direction (step SC4).

つまり、当該スレーブカメラの表示部9表示されているライブビュー画像内に特定被写体が存在する場合には、当該ライブビュー画像上における特定被写体の位置であるライブビュー画像上の座標を特定する。また、当該スレーブカメラの表示部9表示されているライブビュー画像内に特定被写体が存在しない場合には、表示されているライブビュー画像に対して、どの方向に特定被写体が存在するのかを特定する。   That is, when the specific subject exists in the live view image displayed on the display unit 9 of the slave camera, the coordinates on the live view image that are the positions of the specific subject on the live view image are specified. Further, when there is no specific subject in the live view image displayed on the display unit 9 of the slave camera, it is specified in which direction the specific subject exists with respect to the displayed live view image. .

このとき、制御部3はライブビュー画像内に特定被写体が存在する場合には、その位置と自機の位置とに基づき特定被写体までの距離を算出する。そして、撮像レンズ5が有するフォーカスレンズを制御して、ライブビュー画像内の特定被写体を合焦させる。これにより、ライブビュー画像内において特定被写体が明瞭となり、ユーザによる特定被写体の確認が容易となるのみならず、後述する同時撮影において特定被写体にピントがあった撮影結果を得ることが可能となる。   At this time, when a specific subject exists in the live view image, the control unit 3 calculates the distance to the specific subject based on the position and the position of the own device. Then, the focus lens of the imaging lens 5 is controlled to focus a specific subject in the live view image. As a result, the specific subject becomes clear in the live view image, so that the user can easily confirm the specific subject, and it is possible to obtain a shooting result in which the specific subject is in focus in the simultaneous shooting described later.

しかる後に、この特定された被写体の位置又は方向をライブビュー画像上に表示する(ステップSC5)。この表示の例としては、ライブビュー画像内に特定被写体が存在する場合には、当該特定被写体を枠で囲繞して表示したり、その輪郭を強調表示したり、特定の色で着色表示する等、背景や他の被写体とは視覚上明確に識別できるようにする。また、ライブビュー画像内に特定被写体が存在しない場合には、ライブビュー画像上に矢印を表示して、矢印で指し示す方向に特定被写体が存在することを示す。   Thereafter, the position or direction of the specified subject is displayed on the live view image (step SC5). As an example of this display, when a specific subject is present in the live view image, the specific subject is surrounded and displayed by a frame, its outline is highlighted, a color is displayed in a specific color, etc. The background and other subjects can be clearly identified visually. When the specific subject does not exist in the live view image, an arrow is displayed on the live view image to indicate that the specific subject exists in the direction indicated by the arrow.

一方、ステップSC2での判断の結果、自機の位置と撮影方向とを取得不可能であるスレーブカメラの制御部3は、ステップSC6に処理を進め、受信した特徴情報に対応する特定被写体を表示部9に表示されているライブビュー画像内で、画像認識により検出する(ステップSC6)。この検出された特定被写体の位置をライブビュー画像上に表示する(ステップSC7)。この特定被写体の位置の表示に際しては、前述のステップSC5での表示の例と同様に、ライブビュー画像内の特定被写体を枠で囲繞して表示したり、その輪郭を強調表示したり、特定の色で着色表示する等、背景や他の被写体とは視覚上明確に識別できるようにすればよい。   On the other hand, as a result of the determination in step SC2, the control unit 3 of the slave camera that cannot acquire the position and shooting direction of the own device proceeds to step SC6 and displays a specific subject corresponding to the received feature information. Detection is performed by image recognition in the live view image displayed in the section 9 (step SC6). The position of the detected specific subject is displayed on the live view image (step SC7). When displaying the position of the specific subject, the specific subject in the live view image is displayed surrounded by a frame, the outline thereof is highlighted, or the specific subject is displayed, as in the display example in step SC5 described above. What is necessary is just to make it visually distinguishable from the background and other subjects, such as colored display.

したがって、GPS23と方位センサ24とで自機の位置と撮影方向とを取得可能であった場合のステップSC5での処理結果と同様に、自機の位置と撮影方向とを取得不可能であった場合にも、ステップSC7での処理結果により、ライブビュー画像内において特定被写体の位置を表示することが可能となる。   Therefore, as with the processing result in step SC5 when the GPS 23 and the direction sensor 24 can acquire the position and shooting direction of the own apparatus, it is impossible to acquire the position and shooting direction of the own apparatus. Even in this case, the position of the specific subject can be displayed in the live view image based on the processing result in step SC7.

そして、ステップSC5又はステップSC7に続くステップSC8では、マスターカメラから情報(位置情報、特徴情報)を受信してから所定時間が経過したか否かを判断する(ステップSC8)。未だ所定時間が経過していない場合には、特定被写体はライブビュー画像の中央であるか否かを判断する(ステップSC9)。特定被写体がライブビュー画像の中央である場合には次のステップSC10に処理を進めるが、特定被写体がライブビュー画像の中央でない場合には、ステップSC2に処理を戻す。   Then, in step SC8 following step SC5 or step SC7, it is determined whether or not a predetermined time has elapsed since the reception of information (position information, feature information) from the master camera (step SC8). If the predetermined time has not yet elapsed, it is determined whether or not the specific subject is at the center of the live view image (step SC9). If the specific subject is in the center of the live view image, the process proceeds to the next step SC10. If the specific subject is not in the center of the live view image, the process returns to step SC2.

したがって、マスターカメラから情報を受信してから所定時間が経過するまでの間、特定被写体がライブビュー画像の中央となるまで、ステップSC2からの処理が繰り返し実行されることとなる。この間ユーザは、当該スレーブカメラの表示部9に表示されているライブビュー画像を見て、特定被写体がライブビュー画像の中央であるか否かを確認し、中央でない場合には特定被写体がライブビュー画像の中央となるように、手作業により当該スレーブカメラの撮影方向や位置を調整する。   Therefore, the process from step SC2 is repeatedly executed until the specific subject is in the center of the live view image until a predetermined time elapses after receiving information from the master camera. During this time, the user looks at the live view image displayed on the display unit 9 of the slave camera to check whether or not the specific subject is in the center of the live view image. The shooting direction and position of the slave camera are adjusted manually so as to be in the center of the image.

このとき、ライブビュー画像内に特定被写体が存在せず、当該スレーブカメラの位置や撮影方向が特定被写体から大幅にずれており、ライブビュー画像内に特定被写体が存在しない場合であっても、ステップSC4及びSC5での処理により、例えばライブビュー画像上に矢印が表示されて、矢印で指し示す方向に特定被写体が存在することが示される。したがって、ユーザは矢印に従って当該スレーブカメラの撮影方向を調整することにより、特定被写体がライブビュー画像の中央となるようにすることが可能となる。   At this time, even if the specific subject does not exist in the live view image, the position and shooting direction of the slave camera are greatly deviated from the specific subject, and even if the specific subject does not exist in the live view image, the step By the processing in SC4 and SC5, for example, an arrow is displayed on the live view image, indicating that the specific subject exists in the direction indicated by the arrow. Therefore, the user can adjust the shooting direction of the slave camera in accordance with the arrow so that the specific subject becomes the center of the live view image.

以上のように、ユーザがスレーブカメラの撮影方向等を調整することにより、特定被写体がライブビュー画像の中央に位置するようになると、当該スレーブカメラの制御部3はステップSC9からステップSC10以降に処理を進める。そして、先ずは無線I/F21を介して、特定被写体を撮影する準備ができたことをマスターカメラに通知する(ステップSC10)。   As described above, when the user adjusts the shooting direction or the like of the slave camera so that the specific subject is positioned at the center of the live view image, the control unit 3 of the slave camera performs processing from step SC9 to step SC10 and subsequent steps. To proceed. First, the master camera is notified via the wireless I / F 21 that it is ready to photograph a specific subject (step SC10).

すると、これを受信したマスターカメラの制御部3は、前記ステップSB9の処理でスレーブカメラに同時撮影の実行開始指示を送信する。そこで、スレーブカメラの制御部3は、マスターカメラから実行開始が指示されたか否かを判断し(ステップSC11)、実行開始が指示された時点で同時撮影を開始する(ステップSC12)。すなわち、ステップSB9で説明したように、撮影終了までの複数フレーム分のYUVデータをバッファメモリ13に格納し始める。   Then, the control unit 3 of the master camera that has received this transmits an instruction to start simultaneous shooting to the slave camera in the process of step SB9. Therefore, the control unit 3 of the slave camera determines whether or not the execution start is instructed from the master camera (step SC11), and starts the simultaneous photographing when the execution start is instructed (step SC12). That is, as described in step SB9, YUV data for a plurality of frames until the end of photographing is started to be stored in the buffer memory 13.

次に、マスターカメラから同時撮影の実行終了が指示されたか否かを判断する(ステップSC13)。マスターカメラが、同時撮影が終了すると、前記ステップSB11の処理で同時撮影の実行終了を指示するので、この実行終了指示を受信したか否かを判断する。実行終了指示を受信したならば、同時撮影を終了する(ステップSC14)。   Next, it is determined whether or not the master camera has instructed the end of simultaneous shooting (step SC13). When the master camera completes the simultaneous shooting, it instructs the end of the simultaneous shooting in the process of step SB11, so it is determined whether or not this execution end instruction has been received. If the execution end instruction is received, the simultaneous photographing is ended (step SC14).

また、マスターカメラから今回の同時撮影を識別する名称を受信したか否かを判断する(ステップSC15)。マスターカメラは、前述のステップSB13の処理で、決定した名称を同時撮影に参加した全てのスレーブカメラに送信してくるので、この名称を受信したか否かを判断する。そして、この名称を受信したならば、受信した名称を付加して自機の撮影画像を保存する(ステップSC16)。すなわち、自機のバッファメモリ13に格納された複数フレーム分のYUVデータを制御部3へ送り、所定のMPEGのコーデックによりデータ圧縮後コード化して、バッファメモリ13及びバスライン20を介して、動画データとして前記名称を付し画像記録部10に書き込む。   Further, it is determined whether a name for identifying the current simultaneous photographing is received from the master camera (step SC15). Since the master camera transmits the determined name to all the slave cameras that participated in the simultaneous shooting in the process of step SB13, it is determined whether or not this name has been received. If this name is received, the received name is added and the captured image of the own device is stored (step SC16). That is, YUV data for a plurality of frames stored in its own buffer memory 13 is sent to the control unit 3 and encoded after data compression by a predetermined MPEG codec. The name is attached as data and written in the image recording unit 10.

したがって、図4のフローチャートに示したマスターカメラの処理と、図5のフローチャートに示したスレーブカメラの処理とがそれぞれのカメラで実行されることにより、下記の特徴事項を有する動画データが各カメラの画像記録部10に記憶されることとなる。
(A)撮影開始時点と終了時点とが同一である。
(B)したがって、動画の時間長も同一である。
(C)特定被写体の画像内(フレーム内)における位置は、中央である。
(D)同一の名称が付加されている。
(E)付加された名称は、特定被写体の位置、同時撮影の開始日時、同時撮影の終了日時等の今回の同時撮影を識別することのできるものである。
(F)GPS23及び方位センサ24を具備しないカメラで撮影された画像データにも同一の名称が付加されている。
(G)特定被写体に対する各カメラの相対的な位置は相互に異なるので、動画データは各々異なる方向から特定被写体を撮影したものである。
Therefore, when the master camera process shown in the flowchart of FIG. 4 and the slave camera process shown in the flowchart of FIG. 5 are executed by each camera, the moving image data having the following characteristic items is stored in each camera. It is stored in the image recording unit 10.
(A) The shooting start point and the end point are the same.
(B) Accordingly, the time length of the moving image is the same.
(C) The position of the specific subject in the image (in the frame) is the center.
(D) The same name is added.
(E) The added name can identify the current simultaneous photographing such as the position of the specific subject, the simultaneous photographing start date and time, and the simultaneous photographing end date and time.
(F) The same name is also added to image data taken by a camera that does not include the GPS 23 and the direction sensor 24.
(G) Since the relative positions of the cameras with respect to the specific subject are different from each other, the moving image data is obtained by photographing the specific subject from different directions.

よって、
[1]特徴事項(A)により、同時再生すべき動画の撮影開始時点と終了時点とが共通する複数の動画を同時再生することが可能となる。
[2]特徴事項(B)により、同時再生すべき動画の長さが共通する複数の動画を同時再生することが可能となる。
[3]特徴事項(C)により、複数のカメラにより特定被写体が確実に撮影された動画撮影を得ることができる。しかも、特定被写体が画像内の中央に存在することから、特定被写体を複数のカメラの各々で確実かつ適正に撮影することができる。
[4]特徴事項(D)により、同一の名称が付加された動画データを同時再生することにより、間違いなく同一の特定被写体を同時撮影した動画を同時再生することができる。
[5]特徴事項(E)により、付加された名称は、特定被写体の位置、同時撮影の開始日時、同時撮影の終了日時、自機の位置等に基づいて作成されていることから、今回の同時撮影や特定被写体を端的に表す。したがって、再生時において画像記録部10に記録されている複数の動画データからユーザが、キー入力部14に設けられているキー(画像データ選択手段)により当該動画データを選択する際にも、間違いなく選択を行うことができる。
[6]特徴事項(F)により、GPS23及び方位センサ24を具備しないカメラで撮影された画像データであっても、名称として位置情報を付加して記憶することができる。
[7]特徴事項(G)により、特定被写体を所望の多方向から撮影した撮影結果をえることができる。
Therefore,
[1] The feature item (A) makes it possible to simultaneously reproduce a plurality of moving images having the same shooting start point and end point of moving images to be simultaneously reproduced.
[2] The feature item (B) makes it possible to simultaneously reproduce a plurality of moving images having the same length of moving images to be simultaneously reproduced.
[3] According to the feature item (C), it is possible to obtain moving image shooting in which a specific subject is reliably shot by a plurality of cameras. Moreover, since the specific subject exists in the center of the image, the specific subject can be reliably and properly photographed by each of the plurality of cameras.
[4] By simultaneously reproducing the moving image data with the same name added according to the feature item (D), it is possible to simultaneously reproduce the moving image in which the same specific subject is simultaneously captured.
[5] The name added by the feature item (E) is created based on the position of the specific subject, the start date / time of simultaneous shooting, the end date / time of simultaneous shooting, the position of the own device, etc. It represents the simultaneous shooting and a specific subject. Accordingly, even when the user selects the moving image data from the plurality of moving image data recorded in the image recording unit 10 at the time of reproduction by using the key (image data selection means) provided in the key input unit 14, You can make a selection without.
[6] According to the feature item (F), even image data captured by a camera that does not include the GPS 23 and the azimuth sensor 24 can be stored by adding position information as a name.
[7] According to the feature item (G), it is possible to obtain a photographing result of photographing a specific subject from a desired multi-direction.

その結果、[3]及び[7]により、複数のカメラを用いた同時撮影において、同時撮影の撮影対象である特定被写体を所望の多方向から撮影した撮影結果を確実に得ることができる。   As a result, according to [3] and [7], in simultaneous shooting using a plurality of cameras, it is possible to reliably obtain a shooting result of shooting a specific subject that is a shooting target of simultaneous shooting from a desired multi-direction.

なお、ステップSC8での判断の結果、マスターカメラからの情報を受信してから所定時間が経過してしまった場合には、特定被写体を撮影する準備ができないことをマスターカメラに通知して(ステップSC17)、このスレーブカメラ処理を終了する。この場合は、ユーザが当該スレーブカメラの撮影状態を確認することなく放置した場合であり、ユーザは撮影方向等から見て当該スレーブカメラによる同時撮影の必要性を感じていない場合が想定される。よって、この場合には、当該スレーブカメラを今回の同時撮影に参加させないことにより、参加するスレーブカメラにユーザの意思を反映させることを可能となる。   As a result of the determination in step SC8, if a predetermined time has elapsed since the information from the master camera was received, the master camera is notified that preparation for photographing a specific subject cannot be performed (step SC17), this slave camera processing is terminated. In this case, it is assumed that the user has left without confirming the shooting state of the slave camera, and the user does not feel the necessity of simultaneous shooting by the slave camera when viewed from the shooting direction or the like. Therefore, in this case, by not allowing the slave camera to participate in the current simultaneous shooting, it is possible to reflect the user's intention on the participating slave camera.

また、本実施の形態においては、複数のカメラが同時に撮影開始及び終了して特定被写体を動画撮影するシステムに本発明を定用した構成を示した。しかし、前述したように、本発明にいう所定の同時撮影処理とは、少なくとも同じ時間帯で複数のカメラが1又は複数回の同期または非同期の撮影を行う処理のことであり、必ずしも1回毎の撮影タイミングが複数のカメラで一致する必要は無い。したがって、例えばカメラ1A〜1Fが時間差を持って順次撮影を開始したり、時間差を持って順次撮影を終了するシステムや、カメラ1A、1C、1Eが同時撮影を開始し後、そのこれらカメラ1A、1C、1F間に配置されたカメラ1B、1D、1Fが時間差を持って同時撮影を開始する等、異なる撮影タイミングで複数のカメラが特定被写体を撮影するシステムにも適用することができる。   In the present embodiment, a configuration is shown in which the present invention is applied to a system in which a plurality of cameras start and end shooting simultaneously and shoot a moving image of a specific subject. However, as described above, the predetermined simultaneous shooting process according to the present invention is a process in which a plurality of cameras perform one or a plurality of synchronous or asynchronous shootings at least in the same time zone, and is not necessarily performed every time. There is no need to match the shooting timings of a plurality of cameras. Therefore, for example, the cameras 1A to 1F start shooting sequentially with a time difference, or the cameras 1A, 1C, 1E start simultaneous shooting after the time difference, and the cameras 1A, 1C, 1E start simultaneous shooting. The present invention can also be applied to a system in which a plurality of cameras capture a specific subject at different shooting timings, such as cameras 1B, 1D, and 1F arranged between 1C and 1F start simultaneous shooting with a time difference.

要は、各カメラが共通の被写体である特定被写体を撮影するシステムであれば、どのようなシステムであっても、本発明を適用すること可能である。   In short, the present invention can be applied to any system as long as each system captures a specific subject, which is a common subject.

以上、この発明の実施形態について説明したが、この発明はこれらに限定されるものではなく、特許請求の範囲に記載された発明とその均等の範囲を含むものである。
以下に、本願出願時の特許請求の範囲を付記する。
<請求項1>
特定被写体を対象として複数のカメラで所定の同時撮影処理を実行するカメラシステムであって、
前記複数のカメラは、単一のマスターカメラと他のスレーブカメラとに区分され、
前記マスターカメラは、
前記特定被写体に関する所定情報を検出する検出手段と、
この検出手段により検出した前記所定情報を送信する送信手段とを備え、
前記スレーブカメラは、
前記送信手段により送信される前記所定情報を受信する受信手段と、
この受信手段により受信した所定情報に基づいて前記所定の同時撮影処理を実行する実行手段と
を備えることを特徴とするカメラシステム。
<請求項2>
前記複数のカメラにおいて、前記特定被写体の位置を前記所定情報として検出する機能を備えるカメラが前記マスターカメラに区分され、
前記送信手段は、前記検出手段により検出された特定被写体の位置を示す位置情報を前記所定情報として送信し、
前記スレーブカメラの受信手段は前記位置情報を受信し、
前記実行手段は、前記位置情報に基づいて前記所定の同時撮影処理を実行することを特徴とする請求項1記載のカメラシステム。
<請求項3>
前記複数のカメラにおいて、更に前記特定被写体とこれを撮影する当該カメラとの位置関係、撮影方向及び距離のいずれかを前記所定情報として検出する機能を有するカメラが前記マスターカメラとされ、
前記送信手段は、前記検出手段により検出された前記いずれかの所定情報を送信し、
前記スレーブカメラの受信手段は前記いずれかの所定情報を受信し、
前記実行手段は、前記いずれかの所定情報に基づいて前記所定の同時撮影処理を実行することを特徴とする請求項1または2に記載のカメラシステム。
<請求項4>
前記マスターカメラは、
前記検出手段により検出した所定情報に基づき、画像データを識別するための識別情報を生成する識別情報生成手段を備え、
当該マスターカメラの前記送信手段は、前記識別情報を送信し、
前記スレーブカメラは、
前記受信手段より前記識別情報を受信して、前記所定の同時撮影処理により得られた画像データに前記識別情報を付加して記録する記録手段を備えることを特徴とする請求項1、2又は3にいずれか記載のカメラシステム。
<請求項5>
前記マスターカメラの識別情報生成手段は、
前記検出手段により検出した特定被写体の位置又は当該特定被写体を撮影対象とする自機の位置に基づいて、前記識別情報を生成することとを特徴とする請求項4記載のカメラシステム。
<請求項6>
前記マスターカメラは、
前記検出手段により検出した特定被写体の位置を示す位置情報を前記送信手段により送信し、
前記スレーブカメラは、
前記受信手段より前記位置情報を受信し、
前記実行手段により、前記受信手段で受信した位置情報に基づき前記特定被写体に対する撮影の方向を調整されて、前記所定の同時撮影処理を実行することを特徴とする請求項1乃至5にいずれか記載のカメラシステム。
<請求項7>
前記スレーブカメラの実行手段は、
前記受信手段で受信した位置情報と、自機の位置とに基づき前記特定被写体までの距離を算出する第1の算出手段を有し、
この第1の算出手段により算出した距離に基づくフォーカス制御して、前記所定の同時撮影処理を実行することを特徴とする請求項6記載のカメラシステム。
<請求項8>
前記スレーブカメラの実行手段は、
前記受信手段により受信した位置情報により示される位置と自機の位置に基づき前記特定被写体の方向を算出する第2の算出手段と、
この第2の算出手段により算出した方向を撮影時に案内するガイド手段とを有すること特徴とする請求項6又は7記載のカメラシステム。
<請求項9>
前記マスターカメラの検出手段は、
撮影画像内における特定被写体の特徴を検出するものであり、
前記送信手段は、前記検出手段により検出された特定被写体の特徴を示す特徴情報を送信し、
前記スレーブカメラは、
前記受信手段より前記特徴情報を受信し、
前記実行手段により、前記受信手段で受信した特徴情報に基づき前記特定被写体を特定して、前記所定の同時撮影処理を実行することを特徴とする請求項1乃至8にいずれか記載のカメラシステム。
<請求項10>
前記記録手段に記録された複数の画像データの中から、前記識別情報に基づき処理対象とすべき画像データを選択する画像データ選択手段を備えることを特徴とする請求項4記載のカメラシステム。
<請求項11>
前記選択手段は、同一の前記所定の同時撮影処理で得られた画像データを他のカメラと同時再生するに際して、前記選択を実行することを特徴とする請求項10記載のカメラシステム。
<請求項12>
前記マスターカメラの送信手段は、前記所定情報とともに所定の同時撮影処理の実行を指示する指示情報を送信し、
前記スレーブカメラの受信手段は、前記所定情報とともに前記指示情報を受信し、
前記実行手段は、前記指示情報の受信に応答して、前記所定の同時撮影処理を実行することを特徴とする請求項1乃至11にいずれか記載のカメラシステム。
<請求項13>
前記マスターカメラの検出手段は、
同期した動画撮影中において特定被写体の位置を逐次検出するものであり、
前記送信手段は、前記検出手段により検出された特定被写体の位置を示す位置情報を逐次送信し、
前記スレーブカメラは、
前記受信手段より前記位置情報を逐次受信し、
前記実行手段は、前記逐次受信下位置情報に基づき特定被写体の方向を逐次案内するガイド手段を有すること特徴とする請求項12記載のカメラシステム。
<請求項14>
特定被写体を複数のカメラで所定の同時撮影処理を実行するカメラシステムに用いられるカメラであって、
前記特定被写体に関する所定情報を検出する検出手段と、
この検出手段により検出した前記所定情報を送信する送信手段とを備えるマスターカメラ機能、
又は、
前記送信手段により送信される前記所定情報を受信する受信手段と、
この受信手段により受信した所定情報に基づいて前記所定の同時撮影処理を実行する実行手段とを備えるスレーブカメラ機能、
の少なくとも一方の機能を備えることを特徴とするカメラ。
<請求項15>
前記マスターカメラ機能と前記スレーブカメラ機能とを併有することを特徴とする請求項14記載のカメラ。
<請求項16>
前記特定被写体の位置を前記所定情報として検出する機能を備え、
前記送信手段は、前記検出手段により検出された特定被写体の位置を示す位置情報を前記所定情報として送信し、
前記受信手段は前記位置情報を受信し、
前記実行手段は、前記位置情報に基づいて前記所定の同時撮影処理を実行することを特徴とする請求項14又は15記載のカメラ。
<請求項17>
更に前記特定被写体とこれを撮影する当該カメラとの位置関係、撮影方向及び距離のいずれかを前記所定情報として検出する機能を有し、
前記送信手段は、前記検出手段により検出された前記いずれかの所定情報を送信し、
前記受信手段は前記いずれかの所定情報を受信し、
前記実行手段は、前記いずれかの所定情報に基づいて前記所定の同時撮影処理を実行することを特徴とする請求項14又は15記載のカメラ。
<請求項18>
前記検出手段により検出した所定情報に基づき、画像データを識別するための識別情報を生成する識別情報生成手段を備え、
前記送信手段は、前記識別情報を送信し、
前記受信手段より前記識別情報を受信して、前記所定の同時撮影処理より得られた画像データに前記識別情報を付加して記録する記録手段を備えることを特徴とする請求項14、15又は17にいずれか記載のカメラ。
<請求項19>
前記識別情報生成手段は、
前記検出手段により検出した特定被写体の位置又は当該特定被写体を撮影対象とする自機の位置に基づいて、前記識別情報を生成することとを特徴とする請求項18記載のカメラ。
<請求項20>
前記検出手段により検出した特定被写体の位置を示す位置情報を前記送信手段により送信し、
前記受信手段より前記位置情報を受信し、
前記実行手段により、前記受信手段で受信した位置情報に基づき前記特定被写体に対する撮影の方向を調整されて、前記所定の同時撮影処理を実行することを特徴とする請求項14乃至19にいずれか記載のカメラ。
<請求項21>
前記受信手段で受信した位置情報と、自機の位置とに基づき前記特定被写体までの距離を算出する第1の算出手段を有し、
この第1の算出手段により算出した距離に基づくフォーカス制御して、前記所定の同時撮影処理を実行することを特徴とする請求項20記載のカメラ。
<請求項22>
前記受信手段により受信した位置情報により示される位置と自機の位置に基づき前記特定被写体の方向を算出する第2の算出手段と、
この第2の算出手段により算出した方向を撮影時に案内するガイド手段とを有すること特徴とする請求項20又は21記載のカメラ。
<請求項23>
前記検出手段は、撮影画像内における特定被写体の特徴を検出するものであり、
前記送信手段は、前記検出手段により検出された特定被写体の特徴を示す特徴情報を送信し、
前記受信手段より前記特徴情報を受信し、
前記実行手段により、前記受信手段で受信した特徴情報に基づき前記特定被写体を特定して、前記所定の同時撮影処理を実行することを特徴とする請求項14乃至22にいずれか記載のカメラ。
<請求項24>
前記記録手段に記録された複数の画像データの中から、前記識別情報に基づき処理対象とすべき画像データを選択する画像データ選択手段を備えることを特徴とする請求項18記載のカメラ。
<請求項25>
前記選択手段は、同一の同時撮影で得られた画像データを他のカメラと同時再生するに際して、前記選択を実行することを特徴とする請求項24記載のカメラ。
<請求項26>
前記送信手段は、前記所定情報とともに同時撮影の実行を指示する指示情報を送信し、
前記受信手段は、前記所定情報とともに前記指示情報を受信し、
前記実行手段は、前記指示情報の受信に応答して、前記所定の同時撮影処理を実行することを特徴とする請求項14乃至25にいずれか記載のカメラ。
<請求項27>
前記検出手段は、
同期した動画撮影中において特定被写体の位置を逐次検出するものであり、
前記送信手段は、前記検出手段により検出された特定被写体の位置を示す位置情報を逐次送信し、
前記受信手段より前記位置情報を逐次受信し、
前記実行手段は、前記逐次受信下位置情報に基づき特定被写体の方向を逐次案内するガイド手段を有すること特徴とする請求項26記載のカメラ。
<請求項28>
前記マスターカメラ機能と前記スレーブカメラ機能とを併有することを特徴とする請求項14乃至27にいずれか記載のカメラ。
<請求項29>
特定被写体を複数のカメラで同時撮影するカメラシステムに用いられるカメラが有するコンピュータを、
前記特定被写体に関する所定情報を検出する検出手段と、
この検出手段により検出した前記所定情報を送信する送信手段、
又は、
前記送信手段により送信される前記所定情報を受信する受信手段と、
この受信手段により受信した所定情報に基づいて前記所定の同時撮影処理を実行する実行手段、
の少なくとも一方として機能させることを特徴とするプログラム。
<請求項30>
特定被写体を複数のカメラで同時撮影する撮影方法であって、
前記複数のカメラを、単一のマスターカメラと他のスレーブカメラとに区分し、
前記マスターカメラには、
前記特定被写体に関する所定情報を検出する検出ステップと、
この検出ステップにより検出した前記所定情報を送信する送信ステップとを実行させ、
前記スレーブカメラには、
前記送信ステップにより送信される前記所定情報を受信する受信ステップと、
この受信ステップにより受信した所定情報に基づいて前記所定の同時撮影処理を実行する実行ステップと
を実行させることを特徴とする撮影方法。
As mentioned above, although embodiment of this invention was described, this invention is not limited to these, The invention described in the claim and its equal range are included.
The claims appended at the time of filing this application will be appended below.
<Claim 1>
A camera system that executes a predetermined simultaneous photographing process with a plurality of cameras for a specific subject,
The plurality of cameras are divided into a single master camera and other slave cameras,
The master camera
Detecting means for detecting predetermined information about the specific subject;
Transmission means for transmitting the predetermined information detected by the detection means,
The slave camera is
Receiving means for receiving the predetermined information transmitted by the transmitting means;
A camera system comprising: execution means for executing the predetermined simultaneous photographing process based on predetermined information received by the receiving means.
<Claim 2>
In the plurality of cameras, a camera having a function of detecting the position of the specific subject as the predetermined information is classified as the master camera.
The transmission means transmits position information indicating the position of the specific subject detected by the detection means as the predetermined information,
The receiving means of the slave camera receives the position information,
The camera system according to claim 1, wherein the execution unit executes the predetermined simultaneous photographing process based on the position information.
<Claim 3>
In the plurality of cameras, a camera having a function of detecting, as the predetermined information, a positional relationship between the specific subject and the camera that captures the specific subject, a capturing direction, and a distance is the master camera.
The transmission means transmits any one of the predetermined information detected by the detection means,
The receiving means of the slave camera receives any one of the predetermined information,
The camera system according to claim 1, wherein the execution unit executes the predetermined simultaneous photographing process based on any one of the predetermined information.
<Claim 4>
The master camera
Based on the predetermined information detected by the detecting means, comprising identification information generating means for generating identification information for identifying image data;
The transmission means of the master camera transmits the identification information,
The slave camera is
4. The recording apparatus according to claim 1, further comprising a recording unit that receives the identification information from the receiving unit and adds the identification information to the image data obtained by the predetermined simultaneous photographing process. A camera system according to any one of the above.
<Claim 5>
The master camera identification information generating means includes:
5. The camera system according to claim 4, wherein the identification information is generated based on a position of the specific subject detected by the detection means or a position of the own device that takes the specific subject as a photographing target.
<Claim 6>
The master camera
Position information indicating the position of the specific subject detected by the detection means is transmitted by the transmission means;
The slave camera is
Receiving the position information from the receiving means;
6. The predetermined simultaneous photographing process is executed by the execution unit, adjusting a photographing direction with respect to the specific subject based on position information received by the receiving unit. Camera system.
<Claim 7>
The slave camera execution means includes:
First calculating means for calculating a distance to the specific subject based on the position information received by the receiving means and the position of the own device;
7. The camera system according to claim 6, wherein the predetermined simultaneous photographing processing is executed by performing focus control based on the distance calculated by the first calculating means.
<Claim 8>
The slave camera execution means includes:
Second calculating means for calculating the direction of the specific subject based on the position indicated by the position information received by the receiving means and the position of the own device;
8. The camera system according to claim 6, further comprising guide means for guiding the direction calculated by the second calculation means at the time of photographing.
<Claim 9>
The detection means of the master camera is
It detects the characteristics of a specific subject in the captured image,
The transmission means transmits feature information indicating the characteristics of the specific subject detected by the detection means,
The slave camera is
Receiving the feature information from the receiving means;
9. The camera system according to claim 1, wherein the execution unit specifies the specific subject based on the characteristic information received by the reception unit and executes the predetermined simultaneous photographing process.
<Claim 10>
5. The camera system according to claim 4, further comprising image data selection means for selecting image data to be processed based on the identification information from a plurality of image data recorded in the recording means.
<Claim 11>
11. The camera system according to claim 10, wherein the selection unit performs the selection when simultaneously reproducing the same image data obtained by the predetermined simultaneous photographing process with another camera.
<Claim 12>
The transmission means of the master camera transmits instruction information for instructing execution of a predetermined simultaneous photographing process together with the predetermined information,
The slave camera receiving means receives the instruction information together with the predetermined information,
12. The camera system according to claim 1, wherein the execution unit executes the predetermined simultaneous photographing process in response to reception of the instruction information.
<Claim 13>
The detection means of the master camera is
During the synchronized video shooting, the position of the specific subject is detected sequentially,
The transmission means sequentially transmits position information indicating the position of the specific subject detected by the detection means,
The slave camera is
Sequentially receiving the position information from the receiving means;
13. The camera system according to claim 12, wherein the execution unit includes a guide unit that sequentially guides the direction of the specific subject based on the sequentially received lower position information.
<Claim 14>
A camera used in a camera system for executing a predetermined simultaneous photographing process on a specific subject with a plurality of cameras,
Detecting means for detecting predetermined information about the specific subject;
A master camera function comprising: transmission means for transmitting the predetermined information detected by the detection means;
Or
Receiving means for receiving the predetermined information transmitted by the transmitting means;
A slave camera function comprising execution means for executing the predetermined simultaneous photographing process based on the predetermined information received by the receiving means;
A camera having at least one of the functions.
<Claim 15>
The camera according to claim 14, wherein the camera has both the master camera function and the slave camera function.
<Claim 16>
A function of detecting the position of the specific subject as the predetermined information;
The transmission means transmits position information indicating the position of the specific subject detected by the detection means as the predetermined information,
The receiving means receives the position information;
16. The camera according to claim 14, wherein the execution unit executes the predetermined simultaneous photographing process based on the position information.
<Claim 17>
Furthermore, it has a function of detecting any one of a positional relationship, a shooting direction and a distance between the specific subject and the camera for shooting the specific subject as the predetermined information,
The transmission means transmits any one of the predetermined information detected by the detection means,
The receiving means receives any one of the predetermined information,
The camera according to claim 14, wherein the execution unit executes the predetermined simultaneous photographing process based on any one of the predetermined information.
<Claim 18>
Based on the predetermined information detected by the detecting means, comprising identification information generating means for generating identification information for identifying image data;
The transmitting means transmits the identification information;
18. A recording means for receiving the identification information from the receiving means and adding the identification information to the image data obtained by the predetermined simultaneous photographing process and recording the image data. Any one described in the camera.
<Claim 19>
The identification information generating means
19. The camera according to claim 18, wherein the identification information is generated based on a position of a specific subject detected by the detecting means or a position of the own device that takes the specific subject as a subject of photographing.
<Claim 20>
Position information indicating the position of the specific subject detected by the detection means is transmitted by the transmission means;
Receiving the position information from the receiving means;
20. The predetermined simultaneous photographing process is executed by the execution unit adjusting a photographing direction with respect to the specific subject based on position information received by the receiving unit. Camera.
<Claim 21>
First calculating means for calculating a distance to the specific subject based on the position information received by the receiving means and the position of the own device;
21. The camera according to claim 20, wherein the predetermined simultaneous photographing processing is executed by performing focus control based on the distance calculated by the first calculating means.
<Claim 22>
Second calculating means for calculating the direction of the specific subject based on the position indicated by the position information received by the receiving means and the position of the own device;
The camera according to claim 20 or 21, further comprising guide means for guiding the direction calculated by the second calculation means at the time of photographing.
<Claim 23>
The detecting means detects a characteristic of a specific subject in a captured image,
The transmission means transmits feature information indicating the characteristics of the specific subject detected by the detection means,
Receiving the feature information from the receiving means;
23. The camera according to claim 14, wherein the execution unit specifies the specific subject based on the characteristic information received by the reception unit, and executes the predetermined simultaneous photographing process.
<Claim 24>
19. The camera according to claim 18, further comprising image data selection means for selecting image data to be processed based on the identification information from a plurality of image data recorded in the recording means.
<Claim 25>
25. The camera according to claim 24, wherein the selection means executes the selection when simultaneously reproducing image data obtained by the same simultaneous photographing with another camera.
<Claim 26>
The transmission means transmits instruction information instructing execution of simultaneous photographing together with the predetermined information,
The receiving means receives the instruction information together with the predetermined information,
26. The camera according to claim 14, wherein the execution means executes the predetermined simultaneous photographing process in response to reception of the instruction information.
<Claim 27>
The detection means includes
During the synchronized video shooting, the position of the specific subject is detected sequentially,
The transmission means sequentially transmits position information indicating the position of the specific subject detected by the detection means,
Sequentially receiving the position information from the receiving means;
27. The camera according to claim 26, wherein the execution means includes guide means for sequentially guiding the direction of the specific subject based on the sequentially received lower position information.
<Claim 28>
The camera according to any one of claims 14 to 27, wherein the camera has both the master camera function and the slave camera function.
<Claim 29>
A computer included in a camera used in a camera system for simultaneously photographing a specific subject with a plurality of cameras,
Detecting means for detecting predetermined information about the specific subject;
Transmitting means for transmitting the predetermined information detected by the detecting means;
Or
Receiving means for receiving the predetermined information transmitted by the transmitting means;
Execution means for executing the predetermined simultaneous photographing process based on the predetermined information received by the receiving means;
A program that functions as at least one of the above.
<Claim 30>
A shooting method for simultaneously shooting a specific subject with multiple cameras,
Dividing the plurality of cameras into a single master camera and other slave cameras;
The master camera has
A detection step of detecting predetermined information relating to the specific subject;
A transmission step for transmitting the predetermined information detected by the detection step;
In the slave camera,
A receiving step for receiving the predetermined information transmitted by the transmitting step;
And a step of executing the predetermined simultaneous photographing process based on the predetermined information received in the receiving step.

1 カメラ
3 制御部
4 撮像部
6 ユニット回路
7 信号処理部
8 画像処理部
9 表示部
10 画像記録部
11 TG
12 ROM
13 バッファメモリ
14 キー入力部
17 LED
20 バスライン
21 無線I/F
22 ID番号記憶部
23 GPS
24 方位センサ
25 測距センサ
26 電源部
30 特定被写体
DESCRIPTION OF SYMBOLS 1 Camera 3 Control part 4 Imaging part 6 Unit circuit 7 Signal processing part 8 Image processing part 9 Display part 10 Image recording part 11 TG
12 ROM
13 Buffer memory 14 Key input section 17 LED
20 Bus line 21 Wireless I / F
22 ID number storage unit 23 GPS
24 Direction sensor 25 Distance sensor 26 Power supply unit 30 Specific subject

Claims (30)

特定被写体を対象として複数のカメラで所定の同時撮影処理を実行するカメラシステムであって、
前記複数のカメラは、単一のマスターカメラと他のスレーブカメラとに区分され、
前記マスターカメラは、
前記特定被写体に関する所定情報を検出する検出手段と、
この検出手段により検出した前記所定情報を送信する送信手段とを備え、
前記スレーブカメラは、
前記送信手段により送信される前記所定情報を受信する受信手段と、
この受信手段により受信した所定情報に基づいて前記所定の同時撮影処理を実行する実行手段と
を備えることを特徴とするカメラシステム。
A camera system that executes a predetermined simultaneous photographing process with a plurality of cameras for a specific subject,
The plurality of cameras are divided into a single master camera and other slave cameras,
The master camera
Detecting means for detecting predetermined information about the specific subject;
Transmission means for transmitting the predetermined information detected by the detection means,
The slave camera is
Receiving means for receiving the predetermined information transmitted by the transmitting means;
A camera system comprising: execution means for executing the predetermined simultaneous photographing process based on predetermined information received by the receiving means.
前記複数のカメラにおいて、前記特定被写体の位置を前記所定情報として検出する機能を備えるカメラが前記マスターカメラに区分され、
前記送信手段は、前記検出手段により検出された特定被写体の位置を示す位置情報を前記所定情報として送信し、
前記スレーブカメラの受信手段は前記位置情報を受信し、
前記実行手段は、前記位置情報に基づいて前記所定の同時撮影処理を実行することを特徴とする請求項1記載のカメラシステム。
In the plurality of cameras, a camera having a function of detecting the position of the specific subject as the predetermined information is classified as the master camera.
The transmission means transmits position information indicating the position of the specific subject detected by the detection means as the predetermined information,
The receiving means of the slave camera receives the position information,
The camera system according to claim 1, wherein the execution unit executes the predetermined simultaneous photographing process based on the position information.
前記複数のカメラにおいて、更に前記特定被写体とこれを撮影する当該カメラとの位置関係、撮影方向及び距離のいずれかを前記所定情報として検出する機能を有するカメラが前記マスターカメラとされ、
前記送信手段は、前記検出手段により検出された前記いずれかの所定情報を送信し、
前記スレーブカメラの受信手段は前記いずれかの所定情報を受信し、
前記実行手段は、前記いずれかの所定情報に基づいて前記所定の同時撮影処理を実行することを特徴とする請求項1または2に記載のカメラシステム。
In the plurality of cameras, a camera having a function of detecting, as the predetermined information, a positional relationship between the specific subject and the camera that captures the specific subject, a capturing direction, and a distance is the master camera.
The transmission means transmits any one of the predetermined information detected by the detection means,
The receiving means of the slave camera receives any one of the predetermined information,
The camera system according to claim 1, wherein the execution unit executes the predetermined simultaneous photographing process based on any one of the predetermined information.
前記マスターカメラは、
前記検出手段により検出した所定情報に基づき、画像データを識別するための識別情報を生成する識別情報生成手段を備え、
当該マスターカメラの前記送信手段は、前記識別情報を送信し、
前記スレーブカメラは、
前記受信手段より前記識別情報を受信して、前記所定の同時撮影処理により得られた画像データに前記識別情報を付加して記録する記録手段を備えることを特徴とする請求項1、2又は3にいずれか記載のカメラシステム。
The master camera
Based on the predetermined information detected by the detecting means, comprising identification information generating means for generating identification information for identifying image data;
The transmission means of the master camera transmits the identification information,
The slave camera is
4. The recording apparatus according to claim 1, further comprising a recording unit that receives the identification information from the receiving unit and adds the identification information to the image data obtained by the predetermined simultaneous photographing process. A camera system according to any one of the above.
前記マスターカメラの識別情報生成手段は、
前記検出手段により検出した特定被写体の位置又は当該特定被写体を撮影対象とする自機の位置に基づいて、前記識別情報を生成することとを特徴とする請求項4記載のカメラシステム。
The master camera identification information generating means includes:
5. The camera system according to claim 4, wherein the identification information is generated based on a position of the specific subject detected by the detection means or a position of the own device that takes the specific subject as a photographing target.
前記マスターカメラは、
前記検出手段により検出した特定被写体の位置を示す位置情報を前記送信手段により送信し、
前記スレーブカメラは、
前記受信手段より前記位置情報を受信し、
前記実行手段により、前記受信手段で受信した位置情報に基づき前記特定被写体に対する撮影の方向を調整されて、前記所定の同時撮影処理を実行することを特徴とする請求項1乃至5にいずれか記載のカメラシステム。
The master camera
Position information indicating the position of the specific subject detected by the detection means is transmitted by the transmission means;
The slave camera is
Receiving the position information from the receiving means;
6. The predetermined simultaneous photographing process is executed by the execution unit, adjusting a photographing direction with respect to the specific subject based on position information received by the receiving unit. Camera system.
前記スレーブカメラの実行手段は、
前記受信手段で受信した位置情報と、自機の位置とに基づき前記特定被写体までの距離を算出する第1の算出手段を有し、
この第1の算出手段により算出した距離に基づくフォーカス制御して、前記所定の同時撮影処理を実行することを特徴とする請求項6記載のカメラシステム。
The slave camera execution means includes:
First calculating means for calculating a distance to the specific subject based on the position information received by the receiving means and the position of the own device;
7. The camera system according to claim 6, wherein the predetermined simultaneous photographing processing is executed by performing focus control based on the distance calculated by the first calculating means.
前記スレーブカメラの実行手段は、
前記受信手段により受信した位置情報により示される位置と自機の位置に基づき前記特定被写体の方向を算出する第2の算出手段と、
この第2の算出手段により算出した方向を撮影時に案内するガイド手段とを有すること特徴とする請求項6又は7記載のカメラシステム。
The slave camera execution means includes:
Second calculating means for calculating the direction of the specific subject based on the position indicated by the position information received by the receiving means and the position of the own device;
8. The camera system according to claim 6, further comprising guide means for guiding the direction calculated by the second calculation means at the time of photographing.
前記マスターカメラの検出手段は、
撮影画像内における特定被写体の特徴を検出するものであり、
前記送信手段は、前記検出手段により検出された特定被写体の特徴を示す特徴情報を送信し、
前記スレーブカメラは、
前記受信手段より前記特徴情報を受信し、
前記実行手段により、前記受信手段で受信した特徴情報に基づき前記特定被写体を特定して、前記所定の同時撮影処理を実行することを特徴とする請求項1乃至8にいずれか記載のカメラシステム。
The detection means of the master camera is
It detects the characteristics of a specific subject in the captured image,
The transmission means transmits feature information indicating the characteristics of the specific subject detected by the detection means,
The slave camera is
Receiving the feature information from the receiving means;
9. The camera system according to claim 1, wherein the execution unit specifies the specific subject based on the characteristic information received by the reception unit and executes the predetermined simultaneous photographing process.
前記記録手段に記録された複数の画像データの中から、前記識別情報に基づき処理対象とすべき画像データを選択する画像データ選択手段を備えることを特徴とする請求項4記載のカメラシステム。   5. The camera system according to claim 4, further comprising image data selection means for selecting image data to be processed based on the identification information from a plurality of image data recorded in the recording means. 前記選択手段は、同一の前記所定の同時撮影処理で得られた画像データを他のカメラと同時再生するに際して、前記選択を実行することを特徴とする請求項10記載のカメラシステム。   11. The camera system according to claim 10, wherein the selection unit performs the selection when simultaneously reproducing the same image data obtained by the predetermined simultaneous photographing process with another camera. 前記マスターカメラの送信手段は、前記所定情報とともに所定の同時撮影処理の実行を指示する指示情報を送信し、
前記スレーブカメラの受信手段は、前記所定情報とともに前記指示情報を受信し、
前記実行手段は、前記指示情報の受信に応答して、前記所定の同時撮影処理を実行することを特徴とする請求項1乃至11にいずれか記載のカメラシステム。
The transmission means of the master camera transmits instruction information for instructing execution of a predetermined simultaneous photographing process together with the predetermined information,
The slave camera receiving means receives the instruction information together with the predetermined information,
12. The camera system according to claim 1, wherein the execution unit executes the predetermined simultaneous photographing process in response to reception of the instruction information.
前記マスターカメラの検出手段は、
同期した動画撮影中において特定被写体の位置を逐次検出するものであり、
前記送信手段は、前記検出手段により検出された特定被写体の位置を示す位置情報を逐次送信し、
前記スレーブカメラは、
前記受信手段より前記位置情報を逐次受信し、
前記実行手段は、前記逐次受信下位置情報に基づき特定被写体の方向を逐次案内するガイド手段を有すること特徴とする請求項12記載のカメラシステム。
The detection means of the master camera is
During the synchronized video shooting, the position of the specific subject is detected sequentially,
The transmission means sequentially transmits position information indicating the position of the specific subject detected by the detection means,
The slave camera is
Sequentially receiving the position information from the receiving means;
13. The camera system according to claim 12, wherein the execution unit includes a guide unit that sequentially guides the direction of the specific subject based on the sequentially received lower position information.
特定被写体を複数のカメラで所定の同時撮影処理を実行するカメラシステムに用いられるカメラであって、
前記特定被写体に関する所定情報を検出する検出手段と、
この検出手段により検出した前記所定情報を送信する送信手段とを備えるマスターカメラ機能、
又は、
前記送信手段により送信される前記所定情報を受信する受信手段と、
この受信手段により受信した所定情報に基づいて前記所定の同時撮影処理を実行する実行手段とを備えるスレーブカメラ機能、
の少なくとも一方の機能を備えることを特徴とするカメラ。
A camera used in a camera system for executing a predetermined simultaneous photographing process on a specific subject with a plurality of cameras,
Detecting means for detecting predetermined information about the specific subject;
A master camera function comprising: transmission means for transmitting the predetermined information detected by the detection means;
Or
Receiving means for receiving the predetermined information transmitted by the transmitting means;
A slave camera function comprising execution means for executing the predetermined simultaneous photographing process based on the predetermined information received by the receiving means;
A camera having at least one of the functions.
前記マスターカメラ機能と前記スレーブカメラ機能とを併有することを特徴とする請求項14記載のカメラ。   The camera according to claim 14, wherein the camera has both the master camera function and the slave camera function. 前記特定被写体の位置を前記所定情報として検出する機能を備え、
前記送信手段は、前記検出手段により検出された特定被写体の位置を示す位置情報を前記所定情報として送信し、
前記受信手段は前記位置情報を受信し、
前記実行手段は、前記位置情報に基づいて前記所定の同時撮影処理を実行することを特徴とする請求項14又は15記載のカメラ。
A function of detecting the position of the specific subject as the predetermined information;
The transmission means transmits position information indicating the position of the specific subject detected by the detection means as the predetermined information,
The receiving means receives the position information;
16. The camera according to claim 14, wherein the execution unit executes the predetermined simultaneous photographing process based on the position information.
更に前記特定被写体とこれを撮影する当該カメラとの位置関係、撮影方向及び距離のいずれかを前記所定情報として検出する機能を有し、
前記送信手段は、前記検出手段により検出された前記いずれかの所定情報を送信し、
前記受信手段は前記いずれかの所定情報を受信し、
前記実行手段は、前記いずれかの所定情報に基づいて前記所定の同時撮影処理を実行することを特徴とする請求項14又は15記載のカメラ。
Furthermore, it has a function of detecting any one of a positional relationship, a shooting direction and a distance between the specific subject and the camera for shooting the specific subject as the predetermined information,
The transmission means transmits any one of the predetermined information detected by the detection means,
The receiving means receives any one of the predetermined information,
The camera according to claim 14, wherein the execution unit executes the predetermined simultaneous photographing process based on any one of the predetermined information.
前記検出手段により検出した所定情報に基づき、画像データを識別するための識別情報を生成する識別情報生成手段を備え、
前記送信手段は、前記識別情報を送信し、
前記受信手段より前記識別情報を受信して、前記所定の同時撮影処理より得られた画像データに前記識別情報を付加して記録する記録手段を備えることを特徴とする請求項14、15又は17にいずれか記載のカメラ。
Based on the predetermined information detected by the detecting means, comprising identification information generating means for generating identification information for identifying image data;
The transmitting means transmits the identification information;
18. A recording means for receiving the identification information from the receiving means and adding the identification information to the image data obtained by the predetermined simultaneous photographing process and recording the image data. Any one described in the camera.
前記識別情報生成手段は、
前記検出手段により検出した特定被写体の位置又は当該特定被写体を撮影対象とする自機の位置に基づいて、前記識別情報を生成することとを特徴とする請求項18記載のカメラ。
The identification information generating means
19. The camera according to claim 18, wherein the identification information is generated based on a position of a specific subject detected by the detecting means or a position of the own device that takes the specific subject as a subject of photographing.
前記検出手段により検出した特定被写体の位置を示す位置情報を前記送信手段により送信し、
前記受信手段より前記位置情報を受信し、
前記実行手段により、前記受信手段で受信した位置情報に基づき前記特定被写体に対する撮影の方向を調整されて、前記所定の同時撮影処理を実行することを特徴とする請求項14乃至19にいずれか記載のカメラ。
Position information indicating the position of the specific subject detected by the detection means is transmitted by the transmission means;
Receiving the position information from the receiving means;
20. The predetermined simultaneous photographing process is executed by the execution unit adjusting a photographing direction with respect to the specific subject based on position information received by the receiving unit. Camera.
前記受信手段で受信した位置情報と、自機の位置とに基づき前記特定被写体までの距離を算出する第1の算出手段を有し、
この第1の算出手段により算出した距離に基づくフォーカス制御して、前記所定の同時撮影処理を実行することを特徴とする請求項20記載のカメラ。
First calculating means for calculating a distance to the specific subject based on the position information received by the receiving means and the position of the own device;
21. The camera according to claim 20, wherein the predetermined simultaneous photographing processing is executed by performing focus control based on the distance calculated by the first calculating means.
前記受信手段により受信した位置情報により示される位置と自機の位置に基づき前記特定被写体の方向を算出する第2の算出手段と、
この第2の算出手段により算出した方向を撮影時に案内するガイド手段とを有すること特徴とする請求項20又は21記載のカメラ。
Second calculating means for calculating the direction of the specific subject based on the position indicated by the position information received by the receiving means and the position of the own device;
The camera according to claim 20 or 21, further comprising guide means for guiding the direction calculated by the second calculation means at the time of photographing.
前記検出手段は、撮影画像内における特定被写体の特徴を検出するものであり、
前記送信手段は、前記検出手段により検出された特定被写体の特徴を示す特徴情報を送信し、
前記受信手段より前記特徴情報を受信し、
前記実行手段により、前記受信手段で受信した特徴情報に基づき前記特定被写体を特定して、前記所定の同時撮影処理を実行することを特徴とする請求項14乃至22にいずれか記載のカメラ。
The detecting means detects a characteristic of a specific subject in a captured image,
The transmission means transmits feature information indicating the characteristics of the specific subject detected by the detection means,
Receiving the feature information from the receiving means;
23. The camera according to claim 14, wherein the execution unit specifies the specific subject based on the characteristic information received by the reception unit, and executes the predetermined simultaneous photographing process.
前記記録手段に記録された複数の画像データの中から、前記識別情報に基づき処理対象とすべき画像データを選択する画像データ選択手段を備えることを特徴とする請求項18記載のカメラ。   19. The camera according to claim 18, further comprising image data selection means for selecting image data to be processed based on the identification information from a plurality of image data recorded in the recording means. 前記選択手段は、同一の同時撮影で得られた画像データを他のカメラと同時再生するに際して、前記選択を実行することを特徴とする請求項24記載のカメラ。   25. The camera according to claim 24, wherein the selection means executes the selection when simultaneously reproducing image data obtained by the same simultaneous photographing with another camera. 前記送信手段は、前記所定情報とともに同時撮影の実行を指示する指示情報を送信し、
前記受信手段は、前記所定情報とともに前記指示情報を受信し、
前記実行手段は、前記指示情報の受信に応答して、前記所定の同時撮影処理を実行することを特徴とする請求項14乃至25にいずれか記載のカメラ。
The transmission means transmits instruction information instructing execution of simultaneous photographing together with the predetermined information,
The receiving means receives the instruction information together with the predetermined information,
26. The camera according to claim 14, wherein the execution means executes the predetermined simultaneous photographing process in response to reception of the instruction information.
前記検出手段は、
同期した動画撮影中において特定被写体の位置を逐次検出するものであり、
前記送信手段は、前記検出手段により検出された特定被写体の位置を示す位置情報を逐次送信し、
前記受信手段より前記位置情報を逐次受信し、
前記実行手段は、前記逐次受信下位置情報に基づき特定被写体の方向を逐次案内するガイド手段を有すること特徴とする請求項26記載のカメラ。
The detection means includes
During the synchronized video shooting, the position of the specific subject is detected sequentially,
The transmission means sequentially transmits position information indicating the position of the specific subject detected by the detection means,
Sequentially receiving the position information from the receiving means;
27. The camera according to claim 26, wherein the execution means includes guide means for sequentially guiding the direction of the specific subject based on the sequentially received lower position information.
前記マスターカメラ機能と前記スレーブカメラ機能とを併有することを特徴とする請求項14乃至27にいずれか記載のカメラ。   The camera according to any one of claims 14 to 27, wherein the camera has both the master camera function and the slave camera function. 特定被写体を複数のカメラで同時撮影するカメラシステムに用いられるカメラが有するコンピュータを、
前記特定被写体に関する所定情報を検出する検出手段と、
この検出手段により検出した前記所定情報を送信する送信手段、
又は、
前記送信手段により送信される前記所定情報を受信する受信手段と、
この受信手段により受信した所定情報に基づいて前記所定の同時撮影処理を実行する実行手段、
の少なくとも一方として機能させることを特徴とするプログラム。
A computer included in a camera used in a camera system for simultaneously photographing a specific subject with a plurality of cameras,
Detecting means for detecting predetermined information about the specific subject;
Transmitting means for transmitting the predetermined information detected by the detecting means;
Or
Receiving means for receiving the predetermined information transmitted by the transmitting means;
Execution means for executing the predetermined simultaneous photographing process based on the predetermined information received by the receiving means;
A program that functions as at least one of the above.
特定被写体を複数のカメラで同時撮影する撮影方法であって、
前記複数のカメラを、単一のマスターカメラと他のスレーブカメラとに区分し、
前記マスターカメラには、
前記特定被写体に関する所定情報を検出する検出ステップと、
この検出ステップにより検出した前記所定情報を送信する送信ステップとを実行させ、
前記スレーブカメラには、
前記送信ステップにより送信される前記所定情報を受信する受信ステップと、
この受信ステップにより受信した所定情報に基づいて前記所定の同時撮影処理を実行する実行ステップと
を実行させることを特徴とする撮影方法。
A shooting method for simultaneously shooting a specific subject with multiple cameras,
Dividing the plurality of cameras into a single master camera and other slave cameras;
The master camera has
A detection step of detecting predetermined information relating to the specific subject;
A transmission step for transmitting the predetermined information detected by the detection step;
In the slave camera,
A receiving step for receiving the predetermined information transmitted by the transmitting step;
And a step of executing the predetermined simultaneous photographing process based on the predetermined information received in the receiving step.
JP2013140338A 2013-07-04 2013-07-04 Camera system, camera, shooting control program, and shooting method Active JP6136662B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013140338A JP6136662B2 (en) 2013-07-04 2013-07-04 Camera system, camera, shooting control program, and shooting method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013140338A JP6136662B2 (en) 2013-07-04 2013-07-04 Camera system, camera, shooting control program, and shooting method

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2017089028A Division JP2017135754A (en) 2017-04-28 2017-04-28 Photographing system, photographing controller, photographing control method and program

Publications (3)

Publication Number Publication Date
JP2015015559A true JP2015015559A (en) 2015-01-22
JP2015015559A5 JP2015015559A5 (en) 2016-07-21
JP6136662B2 JP6136662B2 (en) 2017-05-31

Family

ID=52437012

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013140338A Active JP6136662B2 (en) 2013-07-04 2013-07-04 Camera system, camera, shooting control program, and shooting method

Country Status (1)

Country Link
JP (1) JP6136662B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107800954A (en) * 2016-09-05 2018-03-13 卡西欧计算机株式会社 Video camera controller, camera device, camera shooting control method, image capture method and recording medium
WO2019069380A1 (en) * 2017-10-03 2019-04-11 マクセル株式会社 Camera system and camera device used therein
US11810386B2 (en) 2020-05-18 2023-11-07 Canon Kabushiki Kaisha Image capture apparatus and control method

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002034032A (en) * 2000-07-13 2002-01-31 Asahi Optical Co Ltd Controller for monitoring camera system
JP2004235780A (en) * 2003-01-29 2004-08-19 Nikon Gijutsu Kobo:Kk Digital camera
JP2006295396A (en) * 2005-04-07 2006-10-26 Matsushita Electric Ind Co Ltd Monitoring camera, monitoring camera system and method of controlling monitoring
JP2006333512A (en) * 2006-08-01 2006-12-07 Fujifilm Holdings Corp Image display apparatus, camera and image communications system
JP2007166420A (en) * 2005-12-15 2007-06-28 Fujifilm Corp Camera system and digital camera
JP2007266781A (en) * 2006-03-27 2007-10-11 Fujifilm Corp Photographing system
JP2008042315A (en) * 2006-08-02 2008-02-21 Matsushita Electric Ind Co Ltd Camera controller and camera control system
JP2011091607A (en) * 2009-10-22 2011-05-06 Olympus Corp Imaging device, imaging method and imaging system

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002034032A (en) * 2000-07-13 2002-01-31 Asahi Optical Co Ltd Controller for monitoring camera system
JP2004235780A (en) * 2003-01-29 2004-08-19 Nikon Gijutsu Kobo:Kk Digital camera
JP2006295396A (en) * 2005-04-07 2006-10-26 Matsushita Electric Ind Co Ltd Monitoring camera, monitoring camera system and method of controlling monitoring
JP2007166420A (en) * 2005-12-15 2007-06-28 Fujifilm Corp Camera system and digital camera
JP2007266781A (en) * 2006-03-27 2007-10-11 Fujifilm Corp Photographing system
JP2006333512A (en) * 2006-08-01 2006-12-07 Fujifilm Holdings Corp Image display apparatus, camera and image communications system
JP2008042315A (en) * 2006-08-02 2008-02-21 Matsushita Electric Ind Co Ltd Camera controller and camera control system
JP2011091607A (en) * 2009-10-22 2011-05-06 Olympus Corp Imaging device, imaging method and imaging system

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107800954A (en) * 2016-09-05 2018-03-13 卡西欧计算机株式会社 Video camera controller, camera device, camera shooting control method, image capture method and recording medium
JP2018042003A (en) * 2016-09-05 2018-03-15 カシオ計算機株式会社 Imaging controller, imaging apparatus, imaging control method, imaging method and program
US10397462B2 (en) 2016-09-05 2019-08-27 Casio Computer Co., Ltd. Imaging control apparatus and imaging apparatus for synchronous shooting
WO2019069380A1 (en) * 2017-10-03 2019-04-11 マクセル株式会社 Camera system and camera device used therein
US11810386B2 (en) 2020-05-18 2023-11-07 Canon Kabushiki Kaisha Image capture apparatus and control method

Also Published As

Publication number Publication date
JP6136662B2 (en) 2017-05-31

Similar Documents

Publication Publication Date Title
JP6047858B2 (en) Imaging control apparatus and imaging control method
TWI423658B (en) Image capturing device suitable for photographing a person
US9667826B2 (en) Image pickup apparatus, method for controlling the same, and program for obtaining position information and direction information
KR102375688B1 (en) Imaging device, shooting system and shooting method
JP2015233250A (en) Image processing apparatus and control method thereof
JP6136662B2 (en) Camera system, camera, shooting control program, and shooting method
US20160088219A1 (en) Image capture apparatus which controls frame rate based on motion of object, information transmission apparatus, image capture control method, information transmission method, and recording medium
JP4281954B2 (en) Camera device
JP2018033013A (en) Control device, imaging apparatus, control method, program, and memory medium
JP6102138B2 (en) Imaging apparatus, imaging method, and program
JP2017135754A (en) Photographing system, photographing controller, photographing control method and program
JP2007116372A (en) Digital camera
JP5332497B2 (en) Imaging apparatus and image transfer method
JP2010200084A (en) Imaging apparatus
US20190198058A1 (en) Image recording control apparatus, image recording method, recording medium storing image recording program, image pickup apparatus, and image recording control system
JP5800280B2 (en) Imaging apparatus, imaging condition control method, program
JP5962974B2 (en) Imaging apparatus, imaging method, and program
JP2006174010A (en) Imaging apparatus
JP2013201756A (en) Camera
JP2006253875A (en) Imaging apparatus
JP6062029B2 (en) Imaging apparatus, imaging system, imaging method, and imaging program
JP6605081B2 (en) Imaging apparatus, control method therefor, and program
JP2010130590A (en) Imaging apparatus and imaging method
JPWO2022254653A5 (en)
JP6604192B2 (en) Imaging apparatus, imaging system, imaging method, and program

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160603

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160603

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170130

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170302

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170316

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170404

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170417

R150 Certificate of patent or registration of utility model

Ref document number: 6136662

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150