JP2024064186A - Imaging system, device and control method - Google Patents

Imaging system, device and control method Download PDF

Info

Publication number
JP2024064186A
JP2024064186A JP2022172596A JP2022172596A JP2024064186A JP 2024064186 A JP2024064186 A JP 2024064186A JP 2022172596 A JP2022172596 A JP 2022172596A JP 2022172596 A JP2022172596 A JP 2022172596A JP 2024064186 A JP2024064186 A JP 2024064186A
Authority
JP
Japan
Prior art keywords
camera
imaging
main subject
subject
wearable device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022172596A
Other languages
Japanese (ja)
Inventor
尚子 渡澤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2022172596A priority Critical patent/JP2024064186A/en
Publication of JP2024064186A publication Critical patent/JP2024064186A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Automatic Focus Adjustment (AREA)
  • Studio Devices (AREA)

Abstract

【課題】 複数カメラによる解析結果と携帯可能な装置によるセンシング結果を連携し、撮影パラメータを制御する撮像システムを提供する。【解決手段】 被写体を撮像する撮像手段と、前記撮像手段が撮像した画像を用いて主被写体を検出する主被写体検出手段と、外部装置から送信されたセンシング結果を受信する受信手段と、を備えた複数の撮像装置と被写体の情報を取得するセンサ手段と、前記センサ手段のセンシング結果を前記撮像装置に送信する送信手段と、を備えた前記撮像手段とは異なる、撮影する被写体に装着するセンサ装置からなる撮像システムであって、前記撮像装置は、前記センサ手段のセンシング結果を受信し、前記センサ手段のセンシング結果と、前記主被写体検出手段の結果を用いて前記撮像装置のピント位置・画角・構図の少なくとも1つ以上を制御することを特徴とする撮像システム。【選択図】 図1[Problem] To provide an imaging system that controls shooting parameters by linking analysis results from multiple cameras with sensing results from a portable device. [Solution] An imaging system comprising multiple imaging devices each including an imaging means for imaging a subject, a main subject detection means for detecting a main subject using an image captured by the imaging means, and a receiving means for receiving sensing results transmitted from an external device, and a sensor device attached to a subject to be photographed that is different from the imaging means and includes a sensor means for acquiring information about the subject and a transmitting means for transmitting the sensing results of the sensor means to the imaging device, wherein the imaging device receives the sensing results of the sensor means and controls at least one of the focus position, angle of view, and composition of the imaging device using the sensing results of the sensor means and the results of the main subject detection means. [Selected Figure] Figure 1

Description

本発明は、カメラの撮影を制御する技術に関し、特に、ウェアラブルデバイス等を用いた撮像システム並びに装置、制御方法に関する。 The present invention relates to a technology for controlling camera photography, and in particular to an imaging system, device, and control method using a wearable device, etc.

加速度センサや人感センサ等のセンシング結果によりカメラの撮影動作を制御する技術が知られている。 Technology is known that controls the shooting operation of a camera based on the results of sensing from an acceleration sensor, a human presence sensor, etc.

例えば、特許文献1では携帯可能な装置(ウェアラブルデバイス)の状況に応じて、離れたところにあるカメラのオート撮影を制御することが開示されている。 For example, Patent Document 1 discloses controlling automatic photography of a remote camera according to the status of a portable device (wearable device).

特開2016-072673号公報JP 2016-072673 A

しかしながら、上述の特許文献に開示された従来技術では、センシング結果に基づいてオート撮影のタイミング制御を行うことが主である。すなわち、センシング結果に基づいて複数のカメラのピント位置・画角・構図といった撮影パラメータを制御するところまでは考慮されていない。例えば、撮影対象の被写体の顔の一部が他の被写体によって隠れていて、カメラで被写体の顔検出が出来ない場合を考える。この時、腕や足に装着しているセンシング結果のみから撮影のタイミングを制御すると、撮影対象の被写体の顔に焦点が合っていない撮影画像や、顔の一部が隠れたままの撮影画像になってしまう可能性がある。 However, the conventional technology disclosed in the above-mentioned patent document mainly controls the timing of automatic photography based on the sensing results. In other words, it does not take into consideration the control of photography parameters such as the focus position, angle of view, and composition of multiple cameras based on the sensing results. For example, consider a case where part of the face of the subject being photographed is hidden by another subject, making it impossible for the camera to detect the subject's face. In this case, if the timing of photography is controlled only from the sensing results attached to the arm or leg, there is a possibility that the face of the subject being photographed will not be in focus, or that the face will remain partially hidden.

そこで本発明では、複数カメラによる解析結果と携帯可能な装置によるセンシング結果を連携させ、被写体のベストショットを撮影出来るようカメラのピント位置・画角・構図といった撮影パラメータを制御することを可能にした撮像システムを提供する。 The present invention provides an imaging system that combines the analysis results from multiple cameras with the sensing results from a portable device, making it possible to control shooting parameters such as the camera's focus position, angle of view, and composition to capture the best shot of the subject.

上記目的を達成するために、本発明は、被写体を撮像する撮像手段と、前記撮像手段が撮像した画像を用いて主被写体を検出する主被写体検出手段と、外部装置から送信されたセンシング結果を受信する受信手段と、を備えた複数の撮像装置と被写体の情報を取得するセンサ手段と、前記センサ手段のセンシング結果を前記撮像装置に送信する送信手段と、を備えた前記撮像手段とは異なる、撮影する被写体に装着するセンサ装置からなる撮像システムであって、前記撮像装置は、前記センサ手段のセンシング結果を受信し、前記センサ手段のセンシング結果と、前記主被写体検出手段の結果を用いて前記撮像装置のピント位置・画角・構図の少なくとも1つ以上を制御することを特徴とするシステムを備えることを特徴とする。 In order to achieve the above object, the present invention provides an imaging system comprising a plurality of imaging devices each including an imaging means for imaging a subject, a main subject detection means for detecting a main subject using an image captured by the imaging means, and a receiving means for receiving a sensing result transmitted from an external device, and a sensor device attached to a subject to be photographed that is different from the imaging means and includes a sensor means for acquiring information about the subject and a transmitting means for transmitting the sensing result of the sensor means to the imaging device, wherein the imaging device receives the sensing result of the sensor means and uses the sensing result of the sensor means and the result of the main subject detection means to control at least one of the focus position, angle of view, and composition of the imaging device.

本発明によれば、複数のカメラが連携して撮影対象の被写体のベストショット撮影が可能なカメラシステムを提供することができる。 The present invention provides a camera system in which multiple cameras work together to capture the best shot of a subject.

本発明の構成例を示す図FIG. 1 shows a configuration example of the present invention. 撮像システム100の外観としての一例を示す図FIG. 1 is a diagram showing an example of the external appearance of an imaging system 100. 撮像システム100の位置関係の一例を示す図FIG. 1 is a diagram showing an example of a positional relationship of an imaging system 100. 実施例1のカメラ101、カメラ102の動作を説明するフローチャートA flowchart for explaining the operation of the camera 101 and the camera 102 according to the first embodiment. ウェアラブルデバイス103の動作を説明するフローチャート1 is a flowchart for explaining the operation of the wearable device 103. 実施例1のカメラ102の表示の一例を示す図FIG. 1 shows an example of a display of the camera 102 according to the first embodiment. 実施例2の構図リクエストを説明する図FIG. 11 is a diagram for explaining a composition request according to a second embodiment. 実施例2のカメラ101、カメラ102の動作を説明するフローチャートA flowchart for explaining the operation of the camera 101 and the camera 102 according to the second embodiment.

以下に、本発明の好ましい実施の形態を、添付の図面に基づいて詳細に説明する。なお、以下の実施形態は特許請求に係る発明を限定しない。また、実施形態には複数の特徴が記載されているが、そのすべてが発明に必須のものとは限らず、また、複数の特徴は任意に組み合わせられてもよい。さらに、添付図面においては、同一若しくは同様の構成に同一の参照番号を付し、重複した説明は省略する。 Below, preferred embodiments of the present invention will be described in detail with reference to the attached drawings. Note that the following embodiments do not limit the claimed invention. In addition, although multiple features are described in the embodiments, not all of them are necessarily essential to the invention, and multiple features may be combined in any manner. Furthermore, in the attached drawings, the same reference numbers are used for the same or similar configurations, and duplicate explanations will be omitted.

本実施形態では、スマートフォンや、リストバンド型端末等のウェアラブルデバイスのセンシング結果と複数のカメラによる解析結果とを連携させ、カメラのピント位置・画角・構図といった撮影パラメータを制御する。具体的には、特定のカメラでは、撮影したい被写体の一部が他の被写体により隠れていてカメラで主被写体検出が困難な場合においても、別のカメラの主被写体検出結果の情報を用いて被写体のベストショット撮影が可能なシステムを実現する。 In this embodiment, the sensing results of a wearable device such as a smartphone or a wristband-type terminal are linked to the analysis results of multiple cameras to control shooting parameters such as the camera's focus position, angle of view, and composition. Specifically, even if a particular camera has difficulty detecting the main subject because part of the subject to be photographed is hidden by other subjects, a system is realized that can take the best shot of the subject by using information from the main subject detection results of another camera.

図1は本実施例で説明する撮像システム100の一例である。図1の撮像システム100は、カメラ101、カメラ102、ウェアラブルデバイス103の三つの装置で実現する。ウェアラブルデバイス103の一例としては、スマートフォンやリストバンド型端末等が挙げられ、その形態については問わない。図2は、本発明の一実施の形態の外観を示す図である。図2(a)はカメラ101、カメラ102としてデジタルカメラ201の二台と、ウェアラブルデバイス103としてスマートフォン202の三つを接続している撮像システム100を表している。 Figure 1 shows an example of an imaging system 100 described in this embodiment. The imaging system 100 in Figure 1 is realized by three devices: a camera 101, a camera 102, and a wearable device 103. Examples of the wearable device 103 include a smartphone and a wristband-type terminal, and the form is not important. Figure 2 shows the external appearance of one embodiment of the present invention. Figure 2(a) shows the imaging system 100 to which three devices are connected: two digital cameras 201 as the camera 101 and camera 102, and a smartphone 202 as the wearable device 103.

制御部112は、例えばCPUであり、カメラ101が備える各ブロックに対する制御プログラムを後述のROM113より読み出し、後述のRAM114に展開して実行する。これにより、制御部112は、カメラ101が備える各ブロックの動作を制御する。 The control unit 112 is, for example, a CPU, and reads out a control program for each block of the camera 101 from a ROM 113 (described later), and deploys it in a RAM 114 (described later) for execution. In this way, the control unit 112 controls the operation of each block of the camera 101.

ROM113は、電気的に消去・記録可能な不揮発性メモリであり、カメラ101が備える各ブロックの動作プログラムに加え、各ブロックの動作に必要なパラメータ等を記憶する。 The ROM 113 is a non-volatile memory that can be electrically erased and recorded, and stores the operating programs of each block of the camera 101 as well as parameters required for the operation of each block.

RAM114は、書き換え可能な揮発性メモリであり、制御部112等が実行するプログラムの展開や、カメラ101が備える各ブロックの動作で生成等されたデータの一時的な記憶等に用いられる。 RAM 114 is a rewritable volatile memory, and is used for expanding programs executed by the control unit 112, etc., and for temporarily storing data generated by the operation of each block of the camera 101, etc.

通信部115は、所定の無線通信規格に応じて通信を行う。無線通信規格としては、IEEE802.11規格の所謂Wi-Fi、Bluetooth(登録商標)、およびNFCなどがある。後述のウェアラブルデバイス103との連携は、カメラ101、カメラ102、ウェアラブルデバイス103との距離間において通信可能な規格が必要となる。例えば、Bluetooth(登録商標)は通信距離が400メートル程度あり、位置と方向(相対角度)を検知することが可能である。 The communication unit 115 communicates according to a predetermined wireless communication standard. Examples of wireless communication standards include the so-called Wi-Fi of the IEEE 802.11 standard, Bluetooth (registered trademark), and NFC. Linkage with the wearable device 103 (described below) requires a standard that allows communication over the distance between the camera 101, camera 102, and wearable device 103. For example, Bluetooth (registered trademark) has a communication distance of approximately 400 meters, and is capable of detecting position and direction (relative angle).

光学系121は、ズームレンズ、フォーカスレンズを含むレンズ群で構成され、被写体像を後述の撮像素子122の撮像面上に結像する。 The optical system 121 is composed of a group of lenses including a zoom lens and a focus lens, and forms an image of the subject on the imaging surface of the image sensor 122, which will be described later.

撮像素子122は、例えばCCDやCMOSセンサ等で構成される。撮像素子122の各画素は、光学系121により撮像素子122の撮像面上に結像された光学像を光電変換し、得られたアナログ画像信号を後述のA/D変換部123に出力する。 The image sensor 122 is composed of, for example, a CCD or CMOS sensor. Each pixel of the image sensor 122 photoelectrically converts the optical image formed on the imaging surface of the image sensor 122 by the optical system 121, and outputs the resulting analog image signal to the A/D converter 123 described below.

A/D変換部123は、撮像素子122から入力されたアナログ画像信号をデジタル画像データに変換し、A/D変換部123から出力されたデジタル画像データは、RAM114に一時的に記憶される。 The A/D conversion unit 123 converts the analog image signal input from the image sensor 122 into digital image data, and the digital image data output from the A/D conversion unit 123 is temporarily stored in the RAM 114.

画像処理部124は、RAM114に記憶されている画像データに対して、ホワイトバランス調整、色補間、ガンマ処理など、様々な画像処理を適用する。また、画像処理部124は、記録された画像の主被写体検出なども行う。これらの詳細については後述する。 The image processing unit 124 applies various image processing such as white balance adjustment, color interpolation, and gamma processing to the image data stored in the RAM 114. The image processing unit 124 also performs main subject detection of the recorded image. These will be described in detail later.

記録部125は、着脱可能なメモリカード等であり、画像処理部124で処理された画像データを、RAM114を介し、記録画像として記録する。 The recording unit 125 is a removable memory card or the like, and records the image data processed by the image processing unit 124 as a recorded image via the RAM 114.

パルス発生部126は、非撮影状態から撮影状態に移行した際に、撮像素子122に走査クロック(水平駆動パルス)や所定の制御パルスを供給する。パルス発生部126で発生した走査クロックのうち、垂直走査用のクロックは、後述の垂直駆動変調部111に入力する。 When transitioning from a non-imaging state to an imaging state, the pulse generating unit 126 supplies a scanning clock (horizontal drive pulse) and a predetermined control pulse to the image sensor 122. Of the scanning clocks generated by the pulse generating unit 126, the clock for vertical scanning is input to the vertical drive modulation unit 111, which will be described later.

垂直駆動変調部111は、パルス発生部126で発生した走査クロック信号のうち、垂直走査用のクロックを所定のクロック周波数に変調し、撮像素子122に入力する。この垂直駆動変調部111によって、複数の画素からなる撮像素子122のライン毎に行われるリセット走査の走査パターンが決定される。この撮像素子122のライン毎のリセット走査により、電子先幕シャッタとしての機能を実現する。 The vertical drive modulation unit 111 modulates the vertical scanning clock, which is one of the scanning clock signals generated by the pulse generation unit 126, to a predetermined clock frequency and inputs it to the image sensor 122. The vertical drive modulation unit 111 determines the scanning pattern of the reset scanning performed for each line of the image sensor 122, which is made up of multiple pixels. This reset scanning for each line of the image sensor 122 realizes the function of an electronic front curtain shutter.

ジャイロセンサ119は、角速度を検出する動き検知センサであり、カメラの振れの大きさを判別する。 The gyro sensor 119 is a motion detection sensor that detects angular velocity and determines the magnitude of camera shake.

メカシャッタ118は、物理的に光を遮る遮光機構を実現する開閉式のシャッタ機構で構成される(以降、メカシャッタ)。また、メカシャッタ118は、複数の遮光羽根で構成された後幕(以降、メカ後幕)として働く。制御部112は、メカ後幕の走行を開始させるタイミングを調整することで露光時間(シャッタースピード)を制御する。一方、電子先幕の機能は、所定のタイミングで撮像素子122の画素をライン毎に順次リセット走査することで実現する。 The mechanical shutter 118 is composed of an open/close shutter mechanism that provides a light blocking mechanism that physically blocks light (hereinafter, mechanical shutter). The mechanical shutter 118 also functions as a rear curtain (hereinafter, mechanical rear curtain) that is composed of multiple light blocking blades. The control unit 112 controls the exposure time (shutter speed) by adjusting the timing at which the mechanical rear curtain starts to run. On the other hand, the function of the electronic front curtain is realized by resetting and scanning the pixels of the image sensor 122 line by line in sequence at a predetermined timing.

表示部127は、LCD等の表示デバイスであり、RAM114に記憶されている画像や記録部125に記録されている画像の表示、ユーザの指示を受け付けるための操作ユーザインターフェイスの表示等を行う。また、表示部127は、準備撮影中に構図合わせ等のために撮像素子122が撮像した画像を表示する。 The display unit 127 is a display device such as an LCD, and displays images stored in the RAM 114 and images recorded in the recording unit 125, and displays an operation user interface for receiving user instructions. The display unit 127 also displays images captured by the image sensor 122 for adjusting the composition during preparatory shooting.

以上、カメラ101の構成について説明した。カメラ102の構成に関しては、カメラ101と同じ構成の為、説明は省略する。 The configuration of camera 101 has been explained above. As the configuration of camera 102 is the same as that of camera 101, a description of it will be omitted.

続いてウェアラブルデバイス103の構成について図1を用いて説明する。ウェアラブルデバイス103はタッチスクリーンディスプレイ141を備えており、液晶ディスプレイ142には文字、画像、およびアイコンなどが表示される。タッチスクリーン143はジェスチャー操作を検知することでできる。 Next, the configuration of the wearable device 103 will be described with reference to FIG. 1. The wearable device 103 has a touch screen display 141, and characters, images, icons, etc. are displayed on the liquid crystal display 142. The touch screen 143 can detect gesture operations.

インカメラ134は、レンズと光学像を電気信号に変換するCCD又はCMOSなどの撮像素子とを備えている。このインカメラ134はAF(オートフォーカス)、絞り、およびシャッタースピード調整機能などを備える小型のカメラモジュールである。そして、インカメラ134はタッチスクリーンディスプレイ141に対面する物体を撮像する。 The in-camera 134 is equipped with a lens and an imaging element such as a CCD or CMOS that converts an optical image into an electrical signal. The in-camera 134 is a small camera module equipped with AF (autofocus), aperture, and shutter speed adjustment functions. The in-camera 134 captures an image of an object facing the touch screen display 141.

照度センサ145はインカメラ134や、アウトカメラ135で集光する被写体の照度情報を取得し、撮影時の露光時間やISO感度の調整に用いる。 The illuminance sensor 145 acquires illuminance information of the subject focused by the in-camera 134 and the out-camera 135, and uses this information to adjust the exposure time and ISO sensitivity during shooting.

制御部138は、例えばCPUであり、ウェアラブルデバイス103が備える各ブロックに対する制御プログラムを後述のROM151より読み出し、後述のRAM152に展開して実行する。これにより、制御部138は、ウェアラブルデバイス103が備える各ブロックの動作を制御する。制御部138はタッチスクリーン143、スイッチ144、インカメラ134、照度センサ145、アウトカメラ135、およびライト136などを制御してカメラ機能を提供する。 The control unit 138 is, for example, a CPU, and reads out a control program for each block of the wearable device 103 from the ROM 151 described below, and deploys it in the RAM 152 described below for execution. In this way, the control unit 138 controls the operation of each block of the wearable device 103. The control unit 138 provides a camera function by controlling the touch screen 143, the switch 144, the in-camera 134, the illuminance sensor 145, the out-camera 135, and the light 136, etc.

ROM151は、電気的に消去・記録可能な不揮発性メモリであり、ウェアラブルデバイス103が備える各ブロックの動作プログラムに加え、各ブロックの動作に必要なパラメータ等を記憶する。 ROM 151 is a non-volatile memory that can be electrically erased and recorded, and stores the operating programs of each block of wearable device 103 as well as parameters required for the operation of each block.

RAM152は、書き換え可能な揮発性メモリであり、制御部112等が実行するプログラムの展開や、ウェアラブルデバイス103が備える各ブロックの動作で生成等されたデータの一時的な記憶等に用いられる。 RAM 152 is a rewritable volatile memory, and is used for expanding programs executed by the control unit 112, etc., and for temporarily storing data generated by the operation of each block of the wearable device 103, etc.

スピーカー139からは、スイッチ144において音出力オンの場合に、撮像の際のシャッタ音および警告音を出力する。 When the switch 144 is set to ON for sound output, the speaker 139 outputs the shutter sound and warning sound when capturing an image.

コネクタ133はウェアラブルデバイス103と外部装置とを接続する際に用いられる。例えば、コネクタ133には、後述する電源モジュール132に備えられたバッテリーを充電するためのACアダプタが接続される。また、コネクタ133は、外部から接続される不揮発性メモリに対する画像データおよび音声データなどの入出力の際に用いられる。なお、コネクタ133はDockコネクタのような専用に設計された端子であってもよく、USB(Universal Serial Bus)のような汎用的な端子であってもよい。 The connector 133 is used to connect the wearable device 103 to an external device. For example, an AC adapter for charging a battery provided in the power supply module 132 described below is connected to the connector 133. The connector 133 is also used to input and output image data, audio data, and the like to a non-volatile memory connected from the outside. The connector 133 may be a specially designed terminal such as a dock connector, or a general-purpose terminal such as a USB (Universal Serial Bus).

アウトカメラ135は、インカメラ134と同様の小型のカメラモジュールである。アウトカメラ135はインカメラ134の反対側の被写体を撮像する。ライト136は発光モジュールであり、アウトカメラ135による撮像の際にはフラッシュとして機能する。 The outer camera 135 is a small camera module similar to the inner camera 134. The outer camera 135 captures an image of a subject on the opposite side of the inner camera 134. The light 136 is a light emitting module that functions as a flash when the outer camera 135 captures an image.

通信モジュール131は、所定の無線通信規格に応じて通信を行う。無線通信規格としては、IEEE802.11規格の所謂Wi-Fi、Bluetooth(登録商標)、およびNFCなどがある。具体的な通信としては、撮像によって得られた画像データの入出力およびウェアラブルデバイス103に対する機能追加プログラムモジュールのダウンロードが該当する。また、カメラ101、カメラ102に対し、後述するセンサ群(照度センサ145、加速度センサ146、ジャイロセンサ147、奥行きセンサ148)の情報を送信する際に用いられる。 The communication module 131 communicates according to a specific wireless communication standard. Examples of wireless communication standards include the so-called Wi-Fi of the IEEE 802.11 standard, Bluetooth (registered trademark), and NFC. Specific examples of communication include input and output of image data obtained by capturing images and downloading of program modules for adding functions to the wearable device 103. The communication module 131 is also used to transmit information from a group of sensors (illuminance sensor 145, acceleration sensor 146, gyro sensor 147, and depth sensor 148) to the cameras 101 and 102, which will be described later.

電源モジュール132は充電可能なバッテリーを備えており、ウェアラブルデバイス103全体に電源を供給する。電源モジュール132に備えられたバッテリーとして、例えば、リチウムイオン電池又はニッケル水素電池が用いられる。 The power supply module 132 is equipped with a rechargeable battery and supplies power to the entire wearable device 103. The battery equipped in the power supply module 132 may be, for example, a lithium ion battery or a nickel-metal hydride battery.

加速度センサ146は、ウェアラブルデバイス103に作用する加速度の方向と大きさを検知する。加速度センサ146はXYZ方向の3軸における検知が可能である。 The acceleration sensor 146 detects the direction and magnitude of acceleration acting on the wearable device 103. The acceleration sensor 146 is capable of detection in three axes: X, Y, and Z.

ジャイロセンサ147はウェアラブルデバイス103の角度および角速度を検知する。奥行きセンサ148は、カメラから撮影する被写体までの距離を計測する。距離の計測する方式としては以下のようなものを用いることができる。例えば赤外線や光や超音波などを物体に反射して跳ね返ってくるまでの時間を測定する方式が挙げられる。また、複数台のカメラや画素を平行に並べ、視差画像から被写体の奥行情報を取得する方法でもよい。Bluetooth(登録商標)の無線通信規格を用いてウェアラブルデバイス103の位置、ウェアラブルデバイス103(発信機)からカメラ(受信機)までの距離と、ウェアラブルデバイス103(発信機)とカメラ(受信機)との相対角度を検知する方式などもある。なお、本発明を実施するうえで距離を計測する方式は上記に上げたものに限定されず、既存の好適な手法を適宜活用することが可能である。 The gyro sensor 147 detects the angle and angular velocity of the wearable device 103. The depth sensor 148 measures the distance from the camera to the subject being photographed. The following methods can be used to measure distance. For example, a method can be used in which the time it takes for infrared rays, light, ultrasonic waves, etc. to be reflected from an object and bounce back can be measured. In addition, a method can be used in which multiple cameras and pixels are arranged in parallel to obtain depth information of the subject from a parallax image. There is also a method that uses the wireless communication standard Bluetooth (registered trademark) to detect the position of the wearable device 103, the distance from the wearable device 103 (transmitter) to the camera (receiver), and the relative angle between the wearable device 103 (transmitter) and the camera (receiver). Note that the method of measuring distance in implementing the present invention is not limited to the above, and any existing suitable method can be used as appropriate.

図2は、撮像システム100の外観としての一例を示している。図2の(a)~(c)は、それぞれ撮像システム100として連携するカメラ101、カメラ102とウェアラブルデバイス103の組合せを表している。カメラ101、カメラ102と、ウェアラブルデバイス103間の接続は例えばBluetooth(商標登録)等で無線接続し、通信を行い撮像システム100と連携する。201は、カメラ101、カメラ102の一例としてデジタルカメラを示す。202は、ウェアラブルデバイス103の一例としてスマートフォンを示しており、このスマートフォンにはカメラ機能が搭載されている場合が多い。そのため、図2(c)のスマートフォン202に搭載するインカメラ134やアウトカメラ135のように、カメラ機能を使うことでウェアラブルデバイス103側ではなく、カメラ101、カメラ102側として使うことも可能である。また、ウェアラブルデバイス103は、スマートフォン以外にもリストバンド型端末203等の形態を使用することも可能である。以上、撮像システム100の外観とシステム構成について説明を行った。 Figure 2 shows an example of the appearance of the imaging system 100. (a) to (c) of Figure 2 respectively show a combination of the camera 101, the camera 102 and the wearable device 103 that cooperate as the imaging system 100. The connection between the camera 101, the camera 102 and the wearable device 103 is wirelessly connected, for example, by Bluetooth (registered trademark) or the like, and they communicate with the imaging system 100. 201 shows a digital camera as an example of the camera 101, the camera 102. 202 shows a smartphone as an example of the wearable device 103, and this smartphone is often equipped with a camera function. Therefore, by using the camera function, it is possible to use it as the camera 101, the camera 102 side instead of the wearable device 103 side, like the in-camera 134 and the out-camera 135 mounted on the smartphone 202 in Figure 2 (c). In addition, the wearable device 103 can also be in the form of a wristband-type terminal 203 or the like other than a smartphone. Above, we have explained the external appearance and system configuration of the imaging system 100.

(第1の実施形態)
以下、図3~図6を参照して、本発明の第1の実施形態(実施例1)に係る、撮像システム100の処理について説明する。実施例1では、ウェアラブルデバイス103を撮影対象である被写体が装着し、カメラ101とカメラ102を用いてユーザが撮影対象の被写体を撮影するという構成をとる。例えば、子供のサッカーやダンスの試合をお父さんとお母さんが各々のカメラで子供中心に撮影するようなユースケースを想定している。
First Embodiment
3 to 6, the processing of the imaging system 100 according to the first embodiment (Example 1) of the present invention will be described below. In Example 1, a subject to be photographed wears the wearable device 103, and a user photographs the subject to be photographed using the cameras 101 and 102. For example, a use case is assumed in which a father and a mother use their respective cameras to photograph a child's soccer or dance match, with the child at the center.

図3(a)にカメラ101、カメラ102、ウェアラブルデバイス103、被写体の位置関係の一例を示す。被写体として複数人の被写体A~被写体Dがいて、カメラ101とカメラ102は、ウェアラブルデバイス103を装着している被写体Aを撮影対象として撮影をする。カメラ101とカメラ102は、ウェアラブルデバイス103を通して各々のカメラと被写体の位置関係を考慮して、撮影パラメータを制御する。 Figure 3 (a) shows an example of the positional relationship between camera 101, camera 102, wearable device 103, and a subject. There are multiple subjects A to D as subjects, and cameras 101 and 102 capture subject A, who is wearing wearable device 103, as the subject. Cameras 101 and 102 control the shooting parameters by taking into account the positional relationship between each camera and the subject through wearable device 103.

まずは、ウェアラブルデバイス103の動作について、図5を用いて処理について説明する。なお、以下の処理は、ROM151に記憶されたプログラムに従って、制御部138が装置の各部を制御することにより実現される。 First, the operation of the wearable device 103 will be described with reference to FIG. 5. The following process is realized by the control unit 138 controlling each part of the device according to the program stored in the ROM 151.

ステップS501では、まずウェアラブルデバイス103の電源をユーザが入れる。そしてウェアラブルデバイス103はセンサ(加速度センサ146、ジャイロセンサ147、奥行きセンサ148等)からウェアラブルデバイス103のセンシング信号を受信するための待機動作を行う。 In step S501, the user first turns on the power of the wearable device 103. Then, the wearable device 103 performs a standby operation to receive sensing signals of the wearable device 103 from the sensors (acceleration sensor 146, gyro sensor 147, depth sensor 148, etc.).

ステップS502において、カメラ101、カメラ102の通信部115は、ステップS501で取得したセンシング信号を一定の時間の間隔で取得する。例えば、センシング信号として、ウェアラブルデバイス103の位置、ウェアラブルデバイス103からカメラ101、カメラ102までの距離とウェアラブルデバイス103とカメラ101、カメラ102との相対角度の情報を受信する。これら位置・距離・相対角度の情報を取得するためには、奥行きセンサ148からの出力を所定時刻ごとに定期的に取得する。 In step S502, the communication units 115 of the cameras 101 and 102 acquire the sensing signals acquired in step S501 at regular time intervals. For example, as sensing signals, information on the position of the wearable device 103, the distance from the wearable device 103 to the cameras 101 and 102, and the relative angles between the wearable device 103 and the cameras 101 and 102 is received. In order to acquire this position, distance, and relative angle information, the output from the depth sensor 148 is acquired periodically at predetermined times.

ステップS503において、まずユーザは、ウェアラブルデバイス103を特定の位置、例えば手首に装着する。ウェアラブルデバイス103は、被写体に装着されたことを触感センサ(不図示)により感知する。また、ウェアラブルデバイス103は、被写体の動きがわかる位置なら自由に取り付けることも可能である。その場合、ウェアラブルデバイス103の装着部位の特定方法としては、装着しているデバイスをカメラ101側が取得した画像データから検出してもよい。事前にウェアラブルデバイス103の被写体に装着する部位を設定してもよい。また、事前に所定時間内における特定部位の加速度、速度の大きさなどを記録しておき、実際の動きを基に動いている被写体部位を特定する技術が知られている(特許第6325581号)。 In step S503, the user first wears the wearable device 103 at a specific position, for example, on the wrist. The wearable device 103 detects that it has been worn by the subject using a tactile sensor (not shown). The wearable device 103 can also be attached anywhere so long as the subject's movements can be monitored. In this case, the method of identifying the part of the subject where the wearable device 103 is worn may involve detecting the device being worn from image data acquired by the camera 101. The part of the subject where the wearable device 103 is to be worn may be set in advance. There is also a known technology for recording the acceleration, speed, etc. of a specific part within a specified period of time in advance, and identifying the part of the subject that is moving based on the actual movement (Patent No. 6325581).

ステップS504において、ウェアラブルデバイス103の通信モジュールA131は、ステップS502で求めたウェアラブルデバイス103の位置、ウェアラブルデバイス103からカメラ101、カメラ102までの距離、ウェアラブルデバイス103とカメラ101、カメラ102との相対角度の情報や、ウェアラブルデバイス103の装着部位情報をカメラ101、カメラ102に送信する。 In step S504, communication module A131 of wearable device 103 transmits to camera 101 and camera 102 information on the position of wearable device 103, the distance from wearable device 103 to camera 101 and camera 102, the relative angle between wearable device 103 and camera 101 and camera 102, and information on the part of the body where wearable device 103 is attached, all of which were determined in step S502.

以上が、ウェアラブルデバイス103の処理である。 This completes the processing of the wearable device 103.

続いて、カメラ101、カメラ102の動作について図4のフローチャートを用いて説明する。図4のフローチャートでは、カメラ101、カメラ102、ウェアラブルデバイス103、被写体の位置関係が図3(a)に示す位置関係にある。ここではカメラ101からは撮影対象の主被写体Aの顔が検出できていて、カメラ102からは撮影対象の主被写体Aの顔の一部が他の被写体Bによって隠れている状況でのカメラ101、カメラ102の動作について説明する。なお、図4のフローチャートの処理は、撮像システム100のカメラ101、カメラ102において、ROM113に記憶されたプログラムに従って、制御部112がカメラ101、カメラ102の各部を制御することで実現される。 Next, the operation of cameras 101 and 102 will be described using the flowchart in FIG. 4. In the flowchart in FIG. 4, the positional relationship between cameras 101, 102, wearable device 103, and the subject is as shown in FIG. 3(a). Here, the operation of cameras 101 and 102 will be described in a situation where camera 101 can detect the face of main subject A, the subject of the image capture, and camera 102 detects that part of the face of main subject A is hidden by another subject B. Note that the processing of the flowchart in FIG. 4 is realized by control unit 112 controlling each unit of cameras 101 and 102 according to a program stored in ROM 113 in cameras 101 and 102 of imaging system 100.

撮影対象の主被写体が検出できたカメラ101の処理フローについて図4(a)を用いて説明する。 The processing flow of the camera 101 when the main subject of the image capture is detected will be explained using FIG. 4(a).

ステップS401では、カメラ101の通信部115は、ウェアラブルデバイス103から送信されたウェアラブルデバイス103の位置、ウェアラブルデバイス103からカメラ101までの距離とウェアラブルデバイス103とカメラ101の相対角度の情報を受信する。 In step S401, the communication unit 115 of the camera 101 receives information transmitted from the wearable device 103, including the position of the wearable device 103, the distance from the wearable device 103 to the camera 101, and the relative angle between the wearable device 103 and the camera 101.

ステップS402において、ユーザは、カメラ101を用いて構図合わせなどの準備撮影を開始する。ステップS401で取得したウェアラブルデバイス103の位置、ウェアラブルデバイス103からカメラ101までの距離、ウェアラブルデバイス103とカメラ101の相対角度の情報を基に、ウェアラブルデバイス103の方向についてアシスト表示する。例えば、ウェアラブルデバイス103の位置がカメラ101の画角に含まれていなかった場合に、ウェアラブルデバイス103の位置が画角に含まれるように表示部127において、「もう少し左側を撮影して下さい」などといった表示をする。この準備撮影期間中は、カメラ101は連続的に画像を撮像し、記録した画像を表示部127に表示する。ユーザは表示された準備撮影画像を見ながら構図合わせなどを行う。なお、後述するステップS403、ステップS404及びステップS405の処理は準備撮影期間中に行う。 In step S402, the user starts preparatory shooting, such as adjusting the composition, using the camera 101. Based on the information on the position of the wearable device 103, the distance from the wearable device 103 to the camera 101, and the relative angle between the wearable device 103 and the camera 101 acquired in step S401, assistance is displayed regarding the direction of the wearable device 103. For example, if the position of the wearable device 103 is not included in the angle of view of the camera 101, a message such as "Please take the picture a little further to the left" is displayed on the display unit 127 so that the position of the wearable device 103 is included in the angle of view. During this preparatory shooting period, the camera 101 continuously captures images and displays the recorded images on the display unit 127. The user adjusts the composition while looking at the displayed preparatory shooting image. Note that the processing of steps S403, S404, and S405 described below is performed during the preparatory shooting period.

ステップS403において、カメラ101の制御部112は、画像処理部124において、準備撮影画像から主被写体が検出されたか否かを判定する。主被写体が検出されたと判定された場合はステップS404に進み、主被写体が検出されていないと判定された場合は、ステップS401に戻りステップS401以降の処理を繰り返す。カメラ101は、撮影対象である被写体Aの主被写体検出が出来ているとしてステップS404に進む。 In step S403, the control unit 112 of the camera 101 determines whether or not the main subject has been detected from the preparatory captured image in the image processing unit 124. If it is determined that the main subject has been detected, the process proceeds to step S404, and if it is determined that the main subject has not been detected, the process returns to step S401 and repeats the processes from step S401 onwards. The camera 101 proceeds to step S404, assuming that it has detected the main subject of subject A, which is the subject of the image capture.

被写体を検出する方法としては、一般的な被写体検出技術などの手法を用いる。例えば、顔・顔器官検出や頭部検出などが挙げられる。顔・顔器官検出や頭部検出は、撮影された画像から、パターン認識や機械学習に基づく手法により、人物の顔及び器官や頭部が存在する領域を検出する方法である。検出された被写体が主被写体か否かの判定方法としては、例えば、予めユーザが登録した登録顔の特徴と一致するか否かで判定する方法や、画像全体の面積に対する被写体の顔面積の割合が大きい場合に主被写体と判定する方法などがある。 Methods for detecting subjects include general subject detection techniques. Examples include face/facial organ detection and head detection. Face/facial organ detection and head detection are methods for detecting the area where a person's face, organs, and head are present from a captured image using techniques based on pattern recognition and machine learning. Methods for determining whether a detected subject is the main subject include, for example, a method for determining whether the features match those of a registered face registered in advance by a user, and a method for determining that a subject is the main subject when the ratio of the subject's face area to the area of the entire image is large.

ステップS404では、撮像システム100内における他カメラ(カメラ102)で主被写体検出できていないカメラがあるかどうかを判定する。主被写体検出できていないカメラがあった場合は、ステップS405へ進み、主被写体検出できていないカメラがない場合は、ステップS406へ進む。 In step S404, it is determined whether there is any other camera (camera 102) in the imaging system 100 that has not been able to detect the main subject. If there is a camera that has not been able to detect the main subject, the process proceeds to step S405, and if there is no camera that has not been able to detect the main subject, the process proceeds to step S406.

ステップS405では、主被写体の検出に成功したカメラ(カメラ101)から、主被写体検出が出来なかったカメラ(カメラ102)に対し、主被写体検出情報を送信する。主被写体検出情報とは、具体的には、検出した主被写体の顔の中心座標情報と、ウェアラブルデバイス103と主被写体Aの顔までの距離差分情報である。距離差分情報については、後述する図4(b)のフローで詳細に説明する。 In step S405, the camera that successfully detected the main subject (camera 101) transmits main subject detection information to the camera that failed to detect the main subject (camera 102). Specifically, the main subject detection information is center coordinate information of the detected main subject's face and distance difference information between the wearable device 103 and the face of main subject A. The distance difference information will be explained in detail in the flow of FIG. 4(b) described later.

ステップS406では、カメラ101の制御部112は、画像を撮影するために上記のステップの処理で行った撮影設定で撮影を行い、撮影が完了した画像は、ROM113に記録する。このように、準備撮影中において、ユーザは表示部127に表示される準備撮影画像を確認しながら、撮影対象の主被写体に焦点が合うよう撮影パラメータ設定を繰り返し、シャッターチャンス時にシャッターボタンを押下する。 In step S406, the control unit 112 of the camera 101 captures an image using the shooting settings made in the processing of the above steps, and records the captured image in the ROM 113. In this way, during the preparatory shooting, the user repeatedly sets the shooting parameters so that the main subject of the shooting target is in focus while checking the preparatory shooting image displayed on the display unit 127, and presses the shutter button when the photo opportunity arises.

続いて、撮影対象の主被写体が検出できなかったカメラ102の処理フローについて図4(b)を用いて説明する。 Next, the processing flow of the camera 102 when the main subject of the image capture cannot be detected will be explained using FIG. 4(b).

ステップS401では、カメラ102の通信部115は、ウェアラブルデバイス103から送信されたウェアラブルデバイス103の位置、ウェアラブルデバイス103からカメラ102までの距離とウェアラブルデバイス103とカメラ102の相対角度の情報を受信する。 In step S401, the communication unit 115 of the camera 102 receives information transmitted from the wearable device 103, including the position of the wearable device 103, the distance from the wearable device 103 to the camera 102, and the relative angle between the wearable device 103 and the camera 102.

ステップS402において、ユーザは、カメラ102を用いて構図合わせなどの準備撮影を開始する。ステップS401で取得したウェアラブルデバイス103の位置、ウェアラブルデバイス103からカメラ102までの距離、ウェアラブルデバイス103とカメラ102の相対角度の情報を基に、ウェアラブルデバイス103の方向についてアシスト表示する。この準備撮影期間中は、カメラ102は連続的に画像を撮像し、記録した画像を表示部127に表示する。ユーザは表示された準備撮影画像を見ながら構図合わせなどを行う。なお、後述するステップS403、ステップS407及びステップS408の処理は準備撮影期間中に行う。 In step S402, the user starts preparatory shooting, such as adjusting the composition, using the camera 102. Based on the information on the position of the wearable device 103, the distance from the wearable device 103 to the camera 102, and the relative angle between the wearable device 103 and the camera 102 acquired in step S401, assistance is displayed regarding the direction of the wearable device 103. During this preparatory shooting period, the camera 102 continuously captures images and displays the recorded images on the display unit 127. The user adjusts the composition and the like while looking at the displayed preparatory shooting images. Note that the processes of steps S403, S407, and S408 described below are performed during the preparatory shooting period.

ステップS403において、カメラ102の制御部112は、画像処理部124において、準備撮影画像から主被写体が検出されたか否かを判定する。主被写体が検出されたと判定された場合はステップS406に進み、主被写体が検出されていないと判定された場合は、ステップS407に進む。カメラ102は、被写体Aの顔の一部が被写体Bによって隠れていて主被写体検出が出来ないため、ステップS407に進む。図6に、カメラ102からの撮影対象の主被写体Aを撮影しようとしてカメラ102の準備撮影中の表示部127で表示される準備撮影画像の一例を示す。 In step S403, the control unit 112 of the camera 102 determines whether or not the main subject has been detected from the preparatory shooting image in the image processing unit 124. If it is determined that the main subject has been detected, the process proceeds to step S406, and if it is determined that the main subject has not been detected, the process proceeds to step S407. Since part of the face of subject A is hidden by subject B, the camera 102 cannot detect the main subject, so the process proceeds to step S407. Figure 6 shows an example of a preparatory shooting image displayed on the display unit 127 of the camera 102 during preparatory shooting when attempting to capture main subject A, which is the subject to be shot by the camera 102.

ステップS407において、ステップS403で主被写体検出できなかったカメラ(カメラ102)が、撮像システム100内の他カメラ(カメラ101)に主被写体検出の情報があるか否かを判定する。他カメラ(カメラ101)の主被写体検出情報がある場合はステップS408に進み、他カメラ(カメラ101)の主被写体検出情報がない場合は、ステップS401に戻り、ステップS401以降の処理を繰り返す。 In step S407, the camera (camera 102) that was unable to detect the main subject in step S403 determines whether or not there is main subject detection information in the other camera (camera 101) in the imaging system 100. If there is main subject detection information in the other camera (camera 101), the process proceeds to step S408, and if there is no main subject detection information in the other camera (camera 101), the process returns to step S401 and repeats the processes from step S401 onwards.

ステップS408では、主被写体検出できた他カメラ(カメラ101)からウェアラブルデバイス103と主被写体Aの顔までの距離差分情報を取得する。ここで、主被写体検出できなかったカメラ(カメラ102)はカメラ101が取得した距離情報を基に、ウェアラブルデバイス103の位置ではなく、主被写体Aの顔の位置にピント位置を合わせる。距離差分とは、図6(b)において、被写体Aが装着しているウェアラブルデバイス103の中心座標(Xs,Ys,Zs)から被写体Aの顔中心座標(X,Y,Z)までの点線で示した距離差分のことを指す。この距離差分情報を基に主被写体検出できなかったカメラ(カメラ102)は、ピント合わせをしていたウェアラブルデバイス103の中心座標(Xs,Ys,Zs)から主被写体Aの顔中心座標(X,Y,Z)にピント位置を移す。具体的には、図3(b)に示すように、カメラ101は、ウェアラブルデバイス103から受信したセンシング結果を基に、ウェアラブルデバイス103の中心座標(Xs,Ys,Zs)とカメラ101からウェアラブルデバイス103までの距離P、ウェアラブルデバイス103とカメラ101の相対角度Pの情報と、画像処理部124で検出した主被写体Aの顔の中心座標(X,Y,Z)を取得している。同様にカメラ102は、ウェアラブルデバイス103から受信したセンシング結果を基に、ウェアラブルデバイス103の中心座標(Xs,Ys,Zs)とカメラ102からウェアラブルデバイス103までの距離Q、ウェアラブルデバイス103とカメラ102の相対角度Qの情報を取得している。これらカメラ101、カメラ102で取得している情報を送受信することで情報を共有し、連携が可能である。例えば主被写体検出できたカメラ(カメラ101)から主被写体検出できなかったカメラ(カメラ102)に対して、どの位置にピントを合わせるべきか(主被写体Aの顔中心座標(X,Y,Z))や、現在合わせているピント位置(ウェアラブルデバイス103の中心座標(Xs,Ys,Zs))からどうピント位置を制御すれば良いか、カメラ102の撮影パラメータをアシスト制御することが出来る。 In step S408, the camera (camera 101) that was able to detect the main subject acquires distance difference information between the wearable device 103 and the face of the main subject A. Here, the camera (camera 102) that was unable to detect the main subject adjusts the focus position to the position of the face of the main subject A, not the position of the wearable device 103, based on the distance information acquired by camera 101. The distance difference refers to the distance difference indicated by the dotted line in Fig. 6B from the center coordinates (Xs, Ys, Zs) of the wearable device 103 worn by the subject A to the face center coordinates ( XA , YA , ZA ) of the subject A. The camera (camera 102) that was unable to detect the main subject based on this distance difference information moves the focus position from the center coordinates (Xs, Ys, Zs) of the wearable device 103 that was being focused on to the face center coordinates ( XA , YA , ZA ) of the main subject A. 3B, camera 101 acquires information on the center coordinates (Xs, Ys, Zs) of wearable device 103, distance P from camera 101 to wearable device 103, and relative angle P between wearable device 103 and camera 101, as well as center coordinates ( XA , YA , ZA ) of the face of main subject A detected by image processing unit 124, based on the sensing result received from wearable device 103. Similarly, camera 102 acquires information on the center coordinates (Xs, Ys, Zs) of wearable device 103, distance Q from camera 102 to wearable device 103, and relative angle Q between wearable device 103 and camera 102, based on the sensing result received from wearable device 103. By transmitting and receiving the information acquired by cameras 101 and 102, information can be shared and cooperation can be achieved. For example, a camera that was able to detect a main subject (camera 101) can assist in controlling the shooting parameters of camera 102 to determine, for a camera that was not able to detect the main subject, where to focus (the facial center coordinates ( XA , YA , ZA ) of main subject A) or how to control the focus position based on the currently set focus position (the center coordinates (Xs, Ys, Zs) of wearable device 103).

ステップS406では、カメラ102の制御部112は、画像を撮影するために上記のステップの処理で行った撮影設定で撮影を行い、撮影が完了した画像は、ROM113に記録する。このように、準備撮影中において、ユーザは表示部127に表示される準備撮影画像を確認しながら、撮影対象の主被写体に焦点が合うよう撮影パラメータ設定を繰り返し、シャッターチャンス時にシャッターボタンを押下する。 In step S406, the control unit 112 of the camera 102 captures an image using the shooting settings made in the processing of the above steps, and records the captured image in the ROM 113. In this way, during the preparatory shooting, the user repeatedly sets the shooting parameters so that the main subject of the shooting target is in focus while checking the preparatory shooting image displayed on the display unit 127, and presses the shutter button when the photo opportunity arises.

実施例1では、ピントを合わせる座標を撮影対象の主被写体の顔中心座標としたが、主被写体の瞳の中心座標としても良い。 In the first embodiment, the coordinates for focusing are the center coordinates of the face of the main subject being photographed, but they may also be the center coordinates of the main subject's eyes.

実施例1では、ステップS406においてシャッターチャンス時にシャッターボタンを押下するとしたが、主被写体が検出できたS403のタイミングでオート撮影する構成にしても良い。 In the first embodiment, the shutter button is pressed when a photo opportunity arises in step S406, but the camera may be configured to automatically capture the image when the main subject is detected in step S403.

実施例1では、カメラのピント位置についての撮影パラメータを制御する構成について説明した。なお、ピントに限らず、カメラの画角や構図に関する撮影パラメータを制御する構成にしても良い。例えば、カメラで主被写体の大きさ、中心座標を検出し、それに基づいてカメラ内での主被写体の面積が所定の割合になるように焦点距離を調整する(ズーム倍率を設定)ことが可能である。または、主被写体が画面内の中央になるように撮影者に移動の方向を指示するなどの構成にしても良い。 In the first embodiment, a configuration was described in which a shooting parameter related to the focus position of the camera is controlled. Note that the configuration may be such that shooting parameters related to the angle of view and composition of the camera are controlled in addition to the focus. For example, the size and center coordinates of the main subject are detected by the camera, and the focal length is adjusted (zoom magnification is set) based on the size and center coordinates so that the area of the main subject in the camera is a predetermined ratio. Alternatively, the configuration may be such that the photographer is instructed in the direction of movement so that the main subject is in the center of the screen.

(第2の実施形態)
次に、本発明の第2の実施形態(実施例2)について図面を参照して詳細に説明する。実施例2では、撮像動作に先立って、制御部112を介して、それぞれのカメラで撮影する構図の要件(以下、構図リクエストと表記)が設定された場合に、各々のカメラの撮影パラメータを制御する処理について説明する。なお、実施例2の撮像システム100のウェアラブルデバイス103側の処理は、実施例1と同様のため説明を省略する。実施例2の特徴となるカメラ101、カメラ102の制御部112で行う動作を図7と図8のフローチャートを用いて説明を行う。なお、以下の処理は、撮像システム100としてカメラ101、カメラ102は、ROM113に記憶されたプログラムに従って、制御部112が装置の各部を制御することで実現される。また、ウェアラブルデバイス103は、ROM151に記録されたプログラムに従って、制御部138が装置の各部を制御することによって実現される。実施例1と同じステップの処理については同符号を付与し、詳細な説明は省略する。
Second Embodiment
Next, a second embodiment (Example 2) of the present invention will be described in detail with reference to the drawings. In Example 2, a process of controlling the shooting parameters of each camera will be described when the requirements for the composition to be shot by each camera (hereinafter, referred to as a composition request) are set via the control unit 112 prior to the image capture operation. The process on the wearable device 103 side of the image capture system 100 in Example 2 is the same as that in Example 1, and therefore will not be described. The operation performed by the control unit 112 of the camera 101 and the camera 102, which is a feature of Example 2, will be described with reference to the flowcharts of FIG. 7 and FIG. 8. The following process is realized by the camera 101 and the camera 102 as the image capture system 100, in that the control unit 112 controls each unit of the device according to a program stored in the ROM 113. In addition, the wearable device 103 is realized by the control unit 138 controlling each unit of the device according to a program recorded in the ROM 151. The same reference numerals are given to the processes of the same steps as those in Example 1, and detailed descriptions will be omitted.

図8のフローチャートを用いてカメラ101、カメラ102の動作について説明する。 The operation of cameras 101 and 102 will be explained using the flowchart in Figure 8.

ステップS401では、カメラ101、カメラ102の通信部115は、ウェアラブルデバイス103から送信されたウェアラブルデバイス103の位置、ウェアラブルデバイス103からカメラ101、カメラ102までの距離とウェアラブルデバイス103とカメラ101、カメラ102の相対角度の情報を受信する。 In step S401, the communication units 115 of the cameras 101 and 102 receive information transmitted from the wearable device 103 regarding the position of the wearable device 103, the distance from the wearable device 103 to the cameras 101 and 102, and the relative angles between the wearable device 103 and the cameras 101 and 102.

ステップS402では、ユーザは、カメラ101、カメラ102を用いて構図合わせなどの準備撮影を開始する。 In step S402, the user begins preparatory shooting, such as adjusting the composition, using cameras 101 and 102.

ステップS403では、カメラ101、カメラ102の制御部112は、画像処理部124において、準備撮影画像から主被写体が検出されたか否かを判定する。主被写体検出方法に関しては、実施例1で前述した通りである。 In step S403, the control units 112 of the cameras 101 and 102 determine in the image processing unit 124 whether or not a main subject has been detected from the preparatory captured image. The main subject detection method is as described above in the first embodiment.

主被写体が検出されたと判定された場合はステップS801に進み、主被写体が検出されていないと判定された場合は、ステップS407に進む。 If it is determined that the main subject has been detected, the process proceeds to step S801; if it is determined that the main subject has not been detected, the process proceeds to step S407.

ステップS801では、カメラ101、カメラ102の制御部は、ステップS403において、主被写体を検出できたと判定されている。そこで、不図示の操作部を介してユーザが設定した構図リクエスト情報と画像処理部124での画像解析結果を基に構図を評価する。 In step S801, the control units of the cameras 101 and 102 have determined in step S403 that the main subject was detected. The control units then evaluate the composition based on the composition request information set by the user via an operation unit (not shown) and the image analysis results from the image processing unit 124.

図7を用いてユーザによる構図リクエストについて説明する。図7は、ユーザが構図リクエストを設定(構図リクエスト設定)する設定画面の一例である。この例では、顔サイズ、被写体領域、顔位置について設定する。顔サイズとは、画面全体の面積における主被写体の顔サイズについてのリクエストである。被写体領域とは、主被写体をどう撮りたいかのリクエストであり、顔アップなのか、バストアップなのか、全身なのかといった項目を選択可能である。顔位置とは、画像全体における主被写体の顔の位置のリクエストを設定する項目である。主被写体の位置が画像の左なのか、画像の中心なのか、画像の右なのかといったことを設定可能な例である。尚、構図リクエストで設定される構図の要件は、カメラ101、102のレンズの焦点距離や、撮影中の画像解析結果に基づいて、制御部112が決定してもよい。 A composition request by a user will be described with reference to FIG. 7. FIG. 7 is an example of a setting screen on which a user sets a composition request (composition request setting). In this example, face size, subject area, and face position are set. Face size is a request for the face size of the main subject in the area of the entire screen. Subject area is a request for how the main subject is to be photographed, and items such as a close-up of the face, a bust-up, or the whole body can be selected. Face position is an item for setting a request for the position of the main subject's face in the entire image. In this example, it is possible to set whether the position of the main subject is to the left of the image, the center of the image, or the right of the image. Note that the composition requirements set in the composition request may be determined by the control unit 112 based on the focal length of the lenses of the cameras 101 and 102 and the results of image analysis during shooting.

構図の評価方法としては、ステップS401、~ステップS403で取得したウェアラブルデバイス103の位置、ウェアラブルデバイス103のカメラ101、カメラ102までの距離とウェアラブルデバイス103とカメラ101、カメラ102の相対角度の情報及び、ユーザの構図リクエスト情報、主被写体検出情報、及び、カメラ101、カメラ102のレンズ情報(焦点距離)を基に構図評価値を算出する(第1の構図評価値)。 The composition evaluation method involves calculating a composition evaluation value (first composition evaluation value) based on the position of the wearable device 103, the distances from the wearable device 103 to the cameras 101 and 102, and the relative angles between the wearable device 103 and the cameras 101 and 102, which are acquired in steps S401 to S403, as well as the user's composition request information, main subject detection information, and lens information (focal length) of the cameras 101 and 102.

例えば、図7の構図リクエストで示したように、被写体領域として「バストアップ」と「全身」をリクエストしていた場合、カメラ101、カメラ102の各々のカメラのレンズの焦点距離とウェアラブルデバイス103までの距離とから評価値を算出する。具体的には、カメラ101とウェアラブルデバイス103までの距離とカメラ101のレンズの焦点距離から、「バストアップ」の撮影が可能であれば構図評価値を高く設定し、「バストアップ」の撮影が不可能であれば構図評価値は低く設定する。構図評価値は、各カメラ毎に、ユーザが設定したリクエスト項目全てに対して算出する。図7の例では、顔サイズで設定された項目・被写体領域で設定された項目・顔位置で設定された項目の各々で構図評価値を算出する。 For example, as shown in the composition request in FIG. 7, if "bust-up" and "full body" are requested as the subject area, the evaluation value is calculated from the focal length of the lens of each of cameras 101 and 102 and the distance to wearable device 103. Specifically, if a "bust-up" shot is possible based on the distance between camera 101 and wearable device 103 and the focal length of the lens of camera 101, the composition evaluation value is set high, and if a "bust-up" shot is not possible, the composition evaluation value is set low. The composition evaluation value is calculated for all the requested items set by the user for each camera. In the example of FIG. 7, the composition evaluation value is calculated for each of the items set by face size, subject area, and face position.

ステップS407において、ステップS403で主被写体検出できなかったカメラが、撮像システム100内の他カメラに主被写体検出の情報があるか否かを判定する。他カメラの主被写体検出情報がある場合はステップS408に進み、他カメラの主被写体検出情報がない場合は、ステップS802に進む。 In step S407, the camera that was unable to detect the main subject in step S403 determines whether or not there is main subject detection information in other cameras in the imaging system 100. If there is main subject detection information in other cameras, the process proceeds to step S408, and if there is no main subject detection information in other cameras, the process proceeds to step S802.

ステップS408では、主被写体検出が出来た他カメラからウェアラブルデバイス103と主被写体Aの顔までの距離差分情報を取得する。一方、主被写体検出できなかったカメラはその算出した距離を基に、ウェアラブルデバイス103の位置ではなく、主被写体Aの顔の位置にピント位置を合わせ、ステップS403に戻り、ステップS403以降の処理を繰り返す。ステップS802では、ステップS407において他カメラでも主被写体検出情報がないと判定されているので、主被写体検出に基づく画像解析は用いることはできない。したがって、不図示の操作部を介してユーザが設定した構図リクエスト情報とウェアラブルデバイス103とカメラ101、カメラ102との距離・カメラ101、カメラ102のレンズ情報(焦点距離)を基に、構図評価値を算出する(第2の構図評価値)。 In step S408, distance difference information between the wearable device 103 and the face of the main subject A is obtained from the other camera that was able to detect the main subject. On the other hand, the camera that was unable to detect the main subject adjusts the focus position to the position of the face of the main subject A, rather than the position of the wearable device 103, based on the calculated distance, and returns to step S403, repeating the processes from step S403 onwards. In step S802, since it was determined in step S407 that the other camera also did not have main subject detection information, image analysis based on main subject detection cannot be used. Therefore, a composition evaluation value is calculated (second composition evaluation value) based on the composition request information set by the user via an operation unit (not shown), the distance between the wearable device 103 and cameras 101 and 102, and the lens information (focal length) of cameras 101 and 102.

具体的には、ステップS801の構図評価値算出方法と同じであるがステップS802においては主被写体検出の情報がなく主被写体の顔サイズなどが分からない。そこで、人体の標準的な大きさを、例えば予め大人と子供の標準的な大きさを予めROM113に記憶しておき、ウェアラブルデバイス103の装着時に大人なのか子供なのか予めユーザが設定することで設定する。ステップS803では、ステップS801、ステップS802の構図評価値を基に、カメラ101とカメラ102のどちらが「バストアップ」、「全身」の撮影に適しているか否かを判定する。例えば、「バストアップ」の構図評価値がカメラ101の方がカメラ102よりも高ければ、カメラ101で「バストアップ」を撮影、カメラ102で「全身」の画像を撮影するよう判定する。 Specifically, the composition evaluation value calculation method is the same as that of step S801, but in step S802, there is no information on main subject detection, and the face size of the main subject is unknown. Therefore, the standard sizes of the human body, for example, the standard sizes of adults and children are stored in ROM 113 in advance, and the user sets whether the subject is an adult or a child when wearing wearable device 103. In step S803, based on the composition evaluation values of steps S801 and S802, it is determined whether camera 101 or camera 102 is more suitable for capturing "bust-up" or "full-body" images. For example, if the composition evaluation value of camera 101 for "bust-up" is higher than that of camera 102, it is determined that camera 101 should capture "bust-up" images and camera 102 should capture "full-body" images.

ステップS406では、ステップS803で判定された判定結果を基に、各カメラでの撮影条件を決定する。 In step S406, the shooting conditions for each camera are determined based on the results of the determination made in step S803.

以上、実施例2の撮像システム100が、ユーザが設定した構図リクエストに基づいて各々のカメラ撮影パラメータを制御する方法について図8のフローチャートを用いて説明を行った。これらの処理により、ユーザのリクエストに沿った主被写体のベストショットを撮影することが可能になる。 The above describes the method in which the imaging system 100 of the second embodiment controls each camera shooting parameter based on a composition request set by the user, using the flowchart in FIG. 8. Through these processes, it becomes possible to take the best shot of the main subject according to the user's request.

(その他の実施形態)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
Other Embodiments
The present invention can also be realized by a process in which a program for implementing one or more of the functions of the above-described embodiments is supplied to a system or device via a network or a storage medium, and one or more processors in a computer of the system or device read and execute the program. The present invention can also be realized by a circuit (e.g., ASIC) that implements one or more of the functions.

以上、本発明の好ましい実施形態について説明したが、本発明はこれらの実施形態に限定されず、その要旨の範囲内で種々の変形及び変更が可能である。 The above describes preferred embodiments of the present invention, but the present invention is not limited to these embodiments, and various modifications and variations are possible within the scope of the gist of the invention.

100 撮像システム
101 カメラ
102 カメラ
121 光学系
122 撮像素子
123 A/D変換部
124 画像処理部
125 記録部
126 パルス発生部
127 表示部
118 メカシャッタ
119 ジャイロセンサ
111 垂直駆動変調部
112 制御部
113 ROM
114 RAM
115 通信部
103 ウェアラブルデバイス
132 電源モジュール
131 通信モジュール
133 コネクタ
134 インカメラ
135 アウトカメラ
136 ライト
137 システムメモリ
138 制御部
139 スピーカー
141 タッチスクリーンディスプレイ
142 液晶ディスプレイ
143 タッチスクリーン
144 スイッチ
145 照度センサ
147 ジャイロセンサ
148 奥行きセンサ
151 ROM
152 RAM
146 加速度センサ
REFERENCE SIGNS LIST 100 Imaging system 101 Camera 102 Camera 121 Optical system 122 Imaging element 123 A/D conversion section 124 Image processing section 125 Recording section 126 Pulse generating section 127 Display section 118 Mechanical shutter 119 Gyro sensor 111 Vertical drive modulation section 112 Control section 113 ROM
114 RAM
115 Communication unit 103 Wearable device 132 Power supply module 131 Communication module 133 Connector 134 In-camera 135 Out-camera 136 Light 137 System memory 138 Control unit 139 Speaker 141 Touch screen display 142 Liquid crystal display 143 Touch screen 144 Switch 145 Illuminance sensor 147 Gyro sensor 148 Depth sensor 151 ROM
152 RAM
146 Acceleration Sensor

Claims (5)

被写体を撮像する撮像手段と、
前記撮像手段が撮像した画像を用いて主被写体を検出する主被写体検出手段と、
外部装置から送信されたセンシング結果を受信する受信手段と、
を備えた複数の撮像装置と、
被写体の情報を取得するセンサ手段と、
前記センサ手段のセンシング結果を前記撮像装置に送信する送信手段と、
を備えた前記撮像手段とは異なる、撮影する被写体に装着するセンサ装置、
からなる撮像システムであって、
前記撮像装置は、前記センサ手段のセンシング結果を受信し、前記センサ手段のセンシング結果と、前記主被写体検出手段の結果を用いて前記撮像装置のピント位置、画角、構図の少なくとも1つ以上を制御することを特徴とする撮像システム。
An imaging means for imaging a subject;
a main subject detection means for detecting a main subject using the image captured by the imaging means;
A receiving means for receiving a sensing result transmitted from an external device;
A plurality of imaging devices each having
A sensor means for acquiring information of a subject;
a transmitting means for transmitting a sensing result of the sensor means to the imaging device;
A sensor device attached to a subject to be photographed, which is different from the imaging means;
An imaging system comprising:
an imaging system characterized in that the imaging device receives a sensing result of the sensor means, and controls at least one of a focus position, an angle of view, and a composition of the imaging device using the sensing result of the sensor means and a result of the main subject detection means.
前記センサ手段は、前記センサ装置の位置、前記センサ装置と前記撮像装置との距離、前記センサ装置と前記撮像装置との相対角度に関する少なくとも1つ以上の情報をセンシングすることを特徴とする請求項1に記載の撮像システム。 The imaging system according to claim 1, characterized in that the sensor means senses at least one piece of information related to the position of the sensor device, the distance between the sensor device and the imaging device, and the relative angle between the sensor device and the imaging device. 前記複数の撮像装置と前記センサ装置は、前記センサ手段のセンシング結果と前記主被写体検出手段の検出結果を共有し、主被写体を検出した第1の撮像装置の主被写体の情報を基に、主被写体を検出しなかった第1とは異なる第2の撮像装置のピント位置、画角、構図の少なくとも1つ以上を制御することを特徴とする請求項1に記載の撮像システム。 The imaging system according to claim 1, characterized in that the multiple imaging devices and the sensor device share the sensing results of the sensor means and the detection results of the main subject detection means, and control at least one of the focus position, angle of view, and composition of a second imaging device different from the first imaging device that did not detect the main subject based on information about the main subject of a first imaging device that detected the main subject. 前記複数の撮像装置は、撮影時の構図についてのリクエスト情報を設定する構図リクエスト設定手段を更に備え、
前記構図リクエスト設定手段により設定されたリクエスト情報と、前記センサ手段のセンシング結果及び前記複数の撮像装置のレンズ情報から、各々の撮像装置の構図を制御することを特徴とする請求項1に記載の撮像システム。
the plurality of image capture devices further include a composition request setting unit for setting request information regarding a composition at the time of photographing,
2. The imaging system according to claim 1, wherein the composition of each of the imaging devices is controlled based on the request information set by said composition request setting means, the sensing result of said sensor means, and lens information of said plurality of imaging devices.
前記リクエスト情報には前記主被写体の領域、サイズ、位置の少なくとも1つが含まれることを特徴とする請求項4に記載の撮像システム。 The imaging system according to claim 4, characterized in that the request information includes at least one of the area, size, and position of the main subject.
JP2022172596A 2022-10-27 2022-10-27 Imaging system, device and control method Pending JP2024064186A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022172596A JP2024064186A (en) 2022-10-27 2022-10-27 Imaging system, device and control method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022172596A JP2024064186A (en) 2022-10-27 2022-10-27 Imaging system, device and control method

Publications (1)

Publication Number Publication Date
JP2024064186A true JP2024064186A (en) 2024-05-14

Family

ID=91034402

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022172596A Pending JP2024064186A (en) 2022-10-27 2022-10-27 Imaging system, device and control method

Country Status (1)

Country Link
JP (1) JP2024064186A (en)

Similar Documents

Publication Publication Date Title
JP4442330B2 (en) Electronic camera and electronic camera system
US20090086032A1 (en) System for detecting and compensating camera movement and a method thereof
CN102158646A (en) Imaging control apparatus, imaging apparatus, imaging control method, and program
CN104243800A (en) Control device and storage medium
US10708503B2 (en) Image capture system, image capturing apparatus, lens unit, control methods therefor, and storage medium
CN103813093A (en) Imaging apparatus and imaging method thereof
RU2635873C2 (en) Method and device for displaying framing information
WO2015194084A1 (en) Information processing device, information processing system, and information processing method and program
WO2015056466A1 (en) Display device, image generation device, display method and program
JP6833375B2 (en) Lighting device, imaging device and control method
CN114882543A (en) Image processing apparatus, image processing method, and computer-readable storage medium
JP5397078B2 (en) Imaging device
KR101814714B1 (en) Method and system for remote control of camera in smart phone
JP2010157851A (en) Camera and camera system
JP5448868B2 (en) IMAGING DEVICE AND IMAGING DEVICE CONTROL METHOD
US9143763B2 (en) Imaging apparatus, imaging method, and computer-readable recording medium
JP2024064186A (en) Imaging system, device and control method
JP6257260B2 (en) Imaging apparatus and control method thereof
JP2015031902A (en) Camera system, main camera and sub camera
US20240147078A1 (en) Photographing system having exposure control with sensing result, photographing device, and controlling method
US20240121506A1 (en) System consisting of electronic device and notification apparatus, control method thereof, and electronic device and notification apparatus
JP6994665B1 (en) Imaging device
JP2023119433A (en) System, apparatus, and control method
JP2024078298A (en) Image capture device, image capture system, and control method and program thereof
JP5665434B2 (en) Imaging apparatus, control method and program thereof, and recording medium

Legal Events

Date Code Title Description
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20231213