JP2019208225A - Electronic apparatus and program - Google Patents

Electronic apparatus and program Download PDF

Info

Publication number
JP2019208225A
JP2019208225A JP2019123749A JP2019123749A JP2019208225A JP 2019208225 A JP2019208225 A JP 2019208225A JP 2019123749 A JP2019123749 A JP 2019123749A JP 2019123749 A JP2019123749 A JP 2019123749A JP 2019208225 A JP2019208225 A JP 2019208225A
Authority
JP
Japan
Prior art keywords
camera
sensing
information
sensing device
cpu
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019123749A
Other languages
Japanese (ja)
Other versions
JP6750714B2 (en
Inventor
健介 内田
Kensuke Uchida
健介 内田
享永 千田
Kyoei Senda
享永 千田
麻莉 大渕
Mari Obuchi
麻莉 大渕
悟 竹内
Satoru Takeuchi
悟 竹内
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2019123749A priority Critical patent/JP6750714B2/en
Publication of JP2019208225A publication Critical patent/JP2019208225A/en
Priority to JP2020127060A priority patent/JP6950793B2/en
Application granted granted Critical
Publication of JP6750714B2 publication Critical patent/JP6750714B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Details Of Cameras Including Film Mechanisms (AREA)
  • Studio Devices (AREA)

Abstract

To provide an electronic apparatus capable of performing automatic photographing at a proper opportunity for a photograph.SOLUTION: A camera 51 comprises: an acquisition unit 18 for acquiring a plurality of sensing signals including at least a sensing signal relating to sound by a sensor possessed by a subject; and a control unit 16 for determining an angle of view of the camera for imaging the subject on the basis of a comparison between a signal pattern of the sensing signals relating to sound and a reference pattern by using the acquired sensing signal relating to sound and setting the angle of view to perform automatic photographing.SELECTED DRAWING: Figure 5

Description

本発明は、電子機器およびプログラムに関する。   The present invention relates to an electronic device and a program.

競技場などにあらかじめ一定間隔で多数の位置センサを設け、目標被写体が所持する発信器またはICタグが発する信号がどの位置センサによって受信されたかを判断することにより、目標被写体の位置を検出する撮影支援装置が知られている(特許文献1参照)。   Shooting to detect the position of the target subject by providing a number of position sensors at predetermined intervals in the stadium, etc., and determining which position sensor received the signal emitted by the transmitter or IC tag possessed by the target subject A support device is known (see Patent Document 1).

特許第4750158号公報Japanese Patent No. 4750158

従来技術では、撮影タイミングの決定がカメラマンに委ねられるため、適切なシャッターチャンスにおいて自動撮影を行うことができない。   In the prior art, since the determination of the shooting timing is left to the cameraman, automatic shooting cannot be performed at an appropriate shutter chance.

本発明の第1の態様によると、電子機器は、被写体が有するセンサによる、少なくとも音に関するセンシング信号を取得する取得部と、前記取得された音に関するセンシング信号を用いて、前記被写体を撮像するカメラの画角を決定する制御部と、を備える。
本発明の第2の態様によると、プログラムは、被写体が有するセンサによる、少なくとも音に関するセンシング信号を取得する処理と、前記取得された音に関するセンシング信号を用いて、前記被写体を撮像するカメラの画角を決定する処理と、をコンピュータに実行させる。
本発明の第3の態様によると、電子機器は、モバイル機器から複数の音に関する信号を取得する取得部と、前記取得された複数の信号を用いて、カメラが撮影する画角を決定する制御部と、を備える。
本発明の第4の態様によると、プログラムは、モバイル機器から複数の音に関する信号を取得する処理と、前記取得した複数の音に関する信号を用いて、カメラが撮影する画角を決定する処理と、をコンピュータに実行させる。
本発明の第5の態様によると、電子機器は、被写体が有する複数のセンサによる、音を含む複数のセンシング信号を取得する取得部と、前記複数のセンシング信号に含まれる複数の音のうちの類似する音の信号パターンに基づいて、撮影タイミングを決定する制御部と、を備える。
According to the first aspect of the present invention, the electronic device uses an acquisition unit that acquires at least a sensing signal related to sound by a sensor included in the subject, and a camera that captures the subject using the acquired sensing signal related to sound. And a control unit for determining the angle of view.
According to the second aspect of the present invention, the program obtains at least a sensing signal related to sound by a sensor included in the subject, and an image of a camera that captures the subject using the acquired sensing signal related to sound. And causing the computer to execute the process of determining the corners.
According to the third aspect of the present invention, the electronic device obtains a signal related to a plurality of sounds from a mobile device, and a control for determining an angle of view taken by the camera using the obtained plurality of signals. A section.
According to a fourth aspect of the present invention, a program acquires a signal related to a plurality of sounds from a mobile device, and determines a field angle captured by a camera using the acquired signals related to the plurality of sounds. , Execute on the computer.
According to the fifth aspect of the present invention, the electronic device includes: an acquisition unit that acquires a plurality of sensing signals including sound by a plurality of sensors included in a subject; and a plurality of sounds included in the plurality of sensing signals. And a control unit that determines shooting timing based on a similar sound signal pattern.

本発明の第一の実施形態による撮影システムを説明する図である。It is a figure explaining the imaging | photography system by 1st embodiment of this invention. カメラの構成例を説明するブロック図である。It is a block diagram explaining the structural example of a camera. 図3(a)は、カメラが実行する処理を例示するフローチャートであり、図3(b)は、センシング機器が実行する処理を例示するフローチャートである。FIG. 3A is a flowchart illustrating processing executed by the camera, and FIG. 3B is a flowchart illustrating processing executed by the sensing device. 本発明の第二の実施形態による撮影システムを説明する図である。It is a figure explaining the imaging | photography system by 2nd embodiment of this invention. カメラおよび自動雲台の構成を例示する図である。It is a figure which illustrates the composition of a camera and an auto pan head. 図6(a)は、カメラが実行する処理を例示するフローチャートであり、図6(b)は、センシング機器が実行する処理を例示するフローチャートである。FIG. 6A is a flowchart illustrating processing executed by the camera, and FIG. 6B is a flowchart illustrating processing executed by the sensing device. 音声マッチング処理を説明する図である。It is a figure explaining an audio | voice matching process. 撮影方向の決定を説明する図である。It is a figure explaining determination of an imaging direction. 本発明の第三の実施形態による撮影システムを説明する図である。It is a figure explaining the imaging | photography system by 3rd embodiment of this invention. 高機能携帯電話機の要部構成を例示するブロック図である。It is a block diagram which illustrates the principal part structure of a highly functional mobile telephone. 図11(a)は、撮影すべき方向とカメラの向きとが異なる場合の表示画面を例示する図、図11(b)は、撮影すべき方向とカメラの向きとが一致している場合の表示画面を例示する図である。FIG. 11A is a diagram illustrating a display screen when the direction to be photographed differs from the direction of the camera, and FIG. 11B is a case in which the direction to be photographed matches the direction of the camera. It is a figure which illustrates a display screen. 図12(a)は、センシング機器が実行する処理を例示するフローチャートであり、図12(b)は、自動撮影装置が実行する処理を例示するフローチャートである。FIG. 12A is a flowchart illustrating processing executed by the sensing device, and FIG. 12B is a flowchart illustrating processing executed by the automatic photographing apparatus. 情報表示装置の表示・入力部の表示面に表示された通知表示画面を例示する図である。It is a figure which illustrates the notification display screen displayed on the display surface of the display and input part of an information display apparatus. 情報表示装置が実行する処理の流れを例示するフローチャートである。It is a flowchart which illustrates the flow of the process which an information display apparatus performs. モバイル機器へのプログラムの供給を説明する図である。It is a figure explaining supply of the program to a mobile device.

以下、図面を参照して本発明を実施するための形態について説明する。
(第一の実施形態)
<使用場面の説明>
図1は、本発明の第一の実施形態による撮影システムを説明する図である。図1において、カメラ51と、高機能携帯電話機100と、によって撮影システムが構成される。カメラ51は、三脚52にセットされている。また、カメラ51は無線通信ユニットを搭載する。
無線通信ユニットは、カメラ51の筐体内に搭載される他、カメラ51の筐体外部のアクセサリ端子などに装着させるものでもよい。
Hereinafter, embodiments for carrying out the present invention will be described with reference to the drawings.
(First embodiment)
<Explanation of usage>
FIG. 1 is a diagram for explaining a photographing system according to a first embodiment of the present invention. In FIG. 1, the camera 51 and the high-function mobile phone 100 constitute an imaging system. The camera 51 is set on a tripod 52. The camera 51 is equipped with a wireless communication unit.
The wireless communication unit may be mounted in an accessory terminal outside the housing of the camera 51 in addition to being mounted in the housing of the camera 51.

人物1は、スマートフォンと呼ばれる高機能携帯電話機100を携帯している。高機能携帯電話機100は、オペレーティングシステム(OS)と呼ばれる基本プログラムを実行した上で、OS上で動作する所定のアプリケーションプログラム(以下、単にアプリと呼ぶ)を実行する。スマートフォンは公知であるので、本実施形態の説明では高機能携帯電話機100の詳細な説明を省略するが、後述する第三の実施形態の説明において図10に例示するものと同様である。   A person 1 carries a high-function mobile phone 100 called a smartphone. The advanced mobile phone 100 executes a basic application program called an operating system (OS) and then executes a predetermined application program (hereinafter simply referred to as an application) that runs on the OS. Since smartphones are publicly known, detailed description of the high-function mobile phone 100 is omitted in the description of the present embodiment, but is the same as that illustrated in FIG. 10 in the description of the third embodiment to be described later.

高機能携帯電話機100が、例えばカメラ用のアプリを実行した場合、高機能携帯電話機100はカメラとして動作し、高機能携帯電話機100が、情報提供用のアプリを実行した場合、高機能携帯電話機100はセンシング機器として動作する。本実施形態では、高機能携帯電話機100をセンシング機器として使用するので、以降、情報提供用のアプリを実行した高機能携帯電話機100をセンシング機器100と呼ぶ。   When the high function mobile phone 100 executes an application for a camera, for example, the high function mobile phone 100 operates as a camera, and when the high function mobile phone 100 executes an application for providing information, the high function mobile phone 100 Operates as a sensing device. In the present embodiment, since the high-function mobile phone 100 is used as a sensing device, the high-function mobile phone 100 that executes the information providing application is hereinafter referred to as the sensing device 100.

センシング機器100は、例えば、カメラ51との間で無線LANを介してPTP(Picture Transfer Protocol)接続を行い、PTP接続中のカメラ51へセンシング情報を送信する。本実施形態では、センシング機器100に内蔵される角加速度センサによって検出される角加速度信号や、センシング機器100に内蔵される加速度センサによって検出される加速度信号をセンシング情報とする。   For example, the sensing device 100 performs PTP (Picture Transfer Protocol) connection with the camera 51 via a wireless LAN, and transmits sensing information to the camera 51 that is connected to PTP. In the present embodiment, an angular acceleration signal detected by an angular acceleration sensor built in the sensing device 100 and an acceleration signal detected by an acceleration sensor built in the sensing device 100 are used as sensing information.

図1の使用場面において、人物1は、カメラ51を操作して自分撮りモードを起動させる。自分撮りモードは、カメラ51を操作した人物1がカメラ51の撮影画角内まで移動して略停止した場合に、カメラ51が自動で人物1を含む撮影を行うモードである。   In the usage scene of FIG. 1, the person 1 operates the camera 51 to activate the self-portrait mode. The self-portrait mode is a mode in which the camera 51 automatically performs shooting including the person 1 when the person 1 who operates the camera 51 moves within the shooting angle of view of the camera 51 and substantially stops.

カメラ51は、自分撮りモードが起動された以降にセンシング機器100から送信されるセンシング情報に基づいて人物1の移動軌跡を求め、この移動軌跡に基づいてカメラ51の撮影画角内で人物1が略停止したことを判定すると、撮影処理を行う。   The camera 51 obtains the movement locus of the person 1 based on sensing information transmitted from the sensing device 100 after the self-shooting mode is activated, and the person 1 moves within the shooting angle of view of the camera 51 based on the movement locus. If it is determined that the operation has stopped substantially, a photographing process is performed.

<カメラの説明>
図2は、上記カメラ51の構成例を説明するブロック図である。図2において、カメラ51は、撮像光学系11と、撮像素子12と、画像データ受信部13と、画像処理回路14と、LCDモニタ15と、RAM16と、フラッシュメモリ17と、CPU18と、通信制御回路19と、操作部材20と、を備える。
<Explanation of camera>
FIG. 2 is a block diagram illustrating a configuration example of the camera 51. In FIG. 2, a camera 51 includes an imaging optical system 11, an imaging element 12, an image data receiving unit 13, an image processing circuit 14, an LCD monitor 15, a RAM 16, a flash memory 17, a CPU 18, and communication control. A circuit 19 and an operation member 20 are provided.

画像処理回路14、LCDモニタ15、通信制御回路19、RAM16、フラッシュメモリ17、およびCPU18は、それぞれバス21を介して接続されている。   The image processing circuit 14, LCD monitor 15, communication control circuit 19, RAM 16, flash memory 17, and CPU 18 are each connected via a bus 21.

撮像光学系11は、ズームレンズやフォーカシングレンズを含む複数のレンズ群で構成され、被写体像を撮像素子12の撮像面に結像させる。なお、図2を簡単にするため、撮像光学系11を単レンズとして図示している。撮像素子12は、CMOSイメージセンサなどで構成され、撮像面上の被写体像を撮像する。撮像素子12からは、明るさに応じた光電変換信号(画像データ)が画素ごとに読み出される。   The imaging optical system 11 includes a plurality of lens groups including a zoom lens and a focusing lens, and forms a subject image on the imaging surface of the imaging element 12. In order to simplify FIG. 2, the imaging optical system 11 is illustrated as a single lens. The image sensor 12 is configured by a CMOS image sensor or the like, and captures a subject image on the imaging surface. From the image sensor 12, a photoelectric conversion signal (image data) corresponding to the brightness is read for each pixel.

画像データ受信部13は、撮像素子12から読み出された画像データを受信し、画像処理回路14へ送る。画像処理回路14は、画像データに対して各種の画像処理(色補間処理、階調変換処理、輪郭強調処理、ホワイトバランス調整処理など)を施す。   The image data receiving unit 13 receives the image data read from the image sensor 12 and sends it to the image processing circuit 14. The image processing circuit 14 performs various types of image processing (color interpolation processing, gradation conversion processing, contour enhancement processing, white balance adjustment processing, etc.) on the image data.

LCDモニタ15は液晶パネルによって構成され、CPU18からの指示に応じて画像や操作メニュー画面などを表示する。RAM16はCPU18のワークメモリとして使用される。また、RAM16は、画像処理回路14による画像処理工程における画像データを一時的に記憶する。フラッシュメモリ17は、CPU18が実行するプログラムを記憶する。   The LCD monitor 15 is constituted by a liquid crystal panel, and displays an image, an operation menu screen, and the like according to an instruction from the CPU 18. The RAM 16 is used as a work memory for the CPU 18. The RAM 16 temporarily stores image data in the image processing step by the image processing circuit 14. The flash memory 17 stores a program executed by the CPU 18.

CPU18は、フラッシュメモリ17が記憶するプログラムを実行することにより、カメラ51の動作を制御する。CPU18は、AF(オートフォーカス)動作制御や、自動露出(AE)演算も行う。AF動作は、例えば、画像のコントラスト情報に基づいてフォーカシングレンズ(不図示)の合焦位置を求めるコントラスト検出方式を用いる。露出(AE)演算は、例えば、フォーカス調節の対象とされている領域の画像信号に基づいて演算を行う。   The CPU 18 controls the operation of the camera 51 by executing a program stored in the flash memory 17. The CPU 18 also performs AF (autofocus) operation control and automatic exposure (AE) calculation. The AF operation uses, for example, a contrast detection method for obtaining a focusing position of a focusing lens (not shown) based on image contrast information. In the exposure (AE) calculation, for example, the calculation is performed based on an image signal of an area that is a focus adjustment target.

操作部材20は、メインスイッチ、レリーズボタンおよびメニュースイッチなどを含む。操作部材20は、メインスイッチ操作やレリーズ操作、メニュー選択操作、シャッター速度の変更操作など、各操作に応じた操作信号をCPU18へ送出する。CPU18は、操作部材20からの操作信号の入力を監視する。   The operation member 20 includes a main switch, a release button, a menu switch, and the like. The operation member 20 sends an operation signal corresponding to each operation such as a main switch operation, a release operation, a menu selection operation, and a shutter speed change operation to the CPU 18. The CPU 18 monitors input of operation signals from the operation member 20.

CPU18は、自分撮りモード時にセンシング機器100から送信されるセンシング情報、すなわち角加速度検出信号および加速度検出信号に基づいて、人物1の移動軌跡を算出するとともに、人物1が略停止状態にあるか否かを判断する。移動軌跡を算出することによって、カメラ51を基準にした人物1の位置を求めることができる。また、センシング機器100の揺動の大きさから、人物1が移動中であるか、移動を停止した状態であるかを判断できる。   The CPU 18 calculates the movement trajectory of the person 1 based on sensing information transmitted from the sensing device 100 in the self-portrait mode, that is, the angular acceleration detection signal and the acceleration detection signal, and whether or not the person 1 is in a substantially stopped state. Determine whether. By calculating the movement trajectory, the position of the person 1 with respect to the camera 51 can be obtained. Further, it can be determined from the magnitude of the swing of the sensing device 100 whether the person 1 is moving or is stopped.

CPU18は、通常の撮影モード時にレリーズボタンの押下(全押し)操作信号を受けた場合に加えて、自分撮りモード時に人物1がカメラ51の撮影画角内で略停止したことを判定した場合に、図2の各ブロックへ指示を送って撮影処理を開始させる。つまり、自分撮りモード時におけるカメラ51の撮影タイミングは、センシング機器100から送信されるセンシング情報に基づいてカメラ51のCPU18が決定する。   In addition to the case where the release button is pressed (fully pressed) in the normal shooting mode, the CPU 18 determines that the person 1 has substantially stopped within the shooting angle of view of the camera 51 in the self-shooting mode. Then, an instruction is sent to each block in FIG. 2 to start the photographing process. That is, the CPU 18 of the camera 51 determines the shooting timing of the camera 51 in the self-portrait mode based on the sensing information transmitted from the sensing device 100.

通信制御回路19は、センシング機器100との間で無線通信を行うため、CPU18からの指示に応じてアンテナ19aを介して電波を送受信する。本実施形態では、通信制御回路19がセンシング機器100との間で無線通信を行う。
なお、無線通信ユニットがカメラ51の筐体外部のアクセサリとして構成される場合、通信制御回路19は無線通信ユニットに搭載されていてもよい。
The communication control circuit 19 transmits and receives radio waves via the antenna 19a in response to an instruction from the CPU 18 in order to perform wireless communication with the sensing device 100. In the present embodiment, the communication control circuit 19 performs wireless communication with the sensing device 100.
When the wireless communication unit is configured as an accessory outside the housing of the camera 51, the communication control circuit 19 may be mounted on the wireless communication unit.

<フローチャートの説明>
自分撮りモードにおいてカメラ51(CPU18)が実行する処理の流れと、センシング機器100が実行する処理の流れについて、図3に例示するフローチャートを参照して説明する。図3(a)は、カメラ51が実行する処理を例示するフローチャートである。図3(b)は、センシング機器100が実行する処理を例示するフローチャートである。
<Description of flowchart>
A flow of processing executed by the camera 51 (CPU 18) in the self-portrait mode and a flow of processing executed by the sensing device 100 will be described with reference to a flowchart illustrated in FIG. FIG. 3A is a flowchart illustrating the process executed by the camera 51. FIG. 3B is a flowchart illustrating a process executed by the sensing device 100.

<カメラ側の処理>
カメラ51のCPU18は、ユーザー操作によって自分撮りモードにセットされると、図3(a)による処理を開始する。ステップS310において、CPU18は、自分撮りモードの処理を起動させてステップS320へ進む。ステップS320において、CPU18は、接続シーケンス処理を実行してステップS330へ進む。接続シーケンス処理では、接続要求を送信した端末機(センシング機器100)との間で上記PTP接続を行う。
<Camera processing>
When the CPU 18 of the camera 51 is set to the self-portrait mode by a user operation, the process shown in FIG. In step S310, the CPU 18 activates the self-shooting mode process and proceeds to step S320. In step S320, the CPU 18 executes a connection sequence process and proceeds to step S330. In the connection sequence process, the PTP connection is performed with the terminal (sensing device 100) that transmitted the connection request.

ステップS330において、CPU18は、レリーズ操作が行われたか否かを判定する。CPU18は、操作部材20を構成するレリーズボタンが押下された場合にステップS330を肯定判定してステップS340へ進み、レリーズボタンが押下されない場合にはステップS330を否定判定してステップS390へ進む。   In step S330, the CPU 18 determines whether a release operation has been performed. If the release button constituting the operation member 20 is pressed, the CPU 18 makes a positive determination in step S330 and proceeds to step S340. If the release button is not pressed, the CPU 18 makes a negative determination in step S330 and proceeds to step S390.

ステップS340において、CPU18は、センシング機器100へセンシング情報(本例では角加速度信号と加速度信号)の送信要求を送り、センシング機器100によって所定間隔で検出、送信されるセンシング情報の受信を開始する。   In step S340, the CPU 18 sends a transmission request for sensing information (angular acceleration signal and acceleration signal in this example) to the sensing device 100, and starts receiving sensing information detected and transmitted by the sensing device 100 at predetermined intervals.

ステップS350において、CPU18は、受信したセンシング情報に基づいて人物1の移動軌跡を算出する。CPU18は、1回目のセンシング情報が取得された時点の人物1の位置がカメラ51の位置と等価であるとみなし、カメラ51の位置を基準にして人物1の移動軌跡を求める。   In step S350, the CPU 18 calculates the movement locus of the person 1 based on the received sensing information. The CPU 18 considers that the position of the person 1 at the time when the first sensing information is acquired is equivalent to the position of the camera 51, and obtains the movement locus of the person 1 based on the position of the camera 51.

ステップS360において、CPU18は、人物1の位置がカメラ51の撮影画角内か否かを判定する。撮影画角については、撮像光学系11の設計データに基づく値(画角情報)があらかじめフラッシュメモリ17に記録されている。CPU18は、上記移動軌跡に基づく人物1の位置が画角内に存在する場合にステップS360を肯定判定してステップS370へ進み、人物1の位置が画角内に存在しない場合には、ステップS360を否定判定してステップS340へ戻る。   In step S <b> 360, the CPU 18 determines whether the position of the person 1 is within the shooting angle of view of the camera 51. As for the shooting angle of view, a value (viewing angle information) based on the design data of the imaging optical system 11 is recorded in the flash memory 17 in advance. If the position of the person 1 based on the movement trajectory exists within the angle of view, the CPU 18 makes a positive determination in step S360 and proceeds to step S370. If the position of the person 1 does not exist within the angle of view, the CPU 18 proceeds to step S360. Is negatively determined, and the process returns to step S340.

ステップS370において、CPU18は、人物1が静止したか否かを判定する。CPU18は、上記加速度信号に基づいて、人物1の移動が止まって略停止と判断できる場合にステップS370を肯定判定してステップS380へ進み、人物1の移動が停止しておらず、略停止と判断できない場合には、ステップS370を否定判定してステップS340へ戻る。ステップS340へ戻る場合、CPU18は上述した処理を繰り返す。CPU18は、加速度信号が0でなくても、所定値以下であれば、略停止と判断する。   In step S370, the CPU 18 determines whether the person 1 is stationary. If the CPU 18 determines that the movement of the person 1 has stopped and is substantially stopped based on the acceleration signal, the CPU 18 makes an affirmative determination in step S370 and proceeds to step S380. If it cannot be determined, a negative determination is made in step S370 and the process returns to step S340. When returning to step S340, the CPU 18 repeats the above-described processing. Even if the acceleration signal is not 0, the CPU 18 determines that it is substantially stopped if it is equal to or less than a predetermined value.

ステップS380において、CPU18は撮影許可コマンドを出力し、撮影処理を行わせる。CPU18は、人物1の移動軌跡に基づいてカメラ51から人物1までの距離を算出し、この距離に合わせて焦点調節を行ってから本撮影を行う。
なお、あらかじめ焦点調節位置を固定しておく、いわゆる置きピンによって本撮影を行ってもよい。
In step S380, the CPU 18 outputs a photographing permission command to perform photographing processing. The CPU 18 calculates the distance from the camera 51 to the person 1 based on the movement trajectory of the person 1 and performs the main photographing after adjusting the focus according to this distance.
It should be noted that the main photographing may be performed by a so-called setting pin in which the focus adjustment position is fixed in advance.

ステップS390において、CPU18は、自分撮りモードを終了するか否かを判定する。CPU18は、操作部材20から終了操作が行われた場合、ステップS390を肯定判定してステップS400へ進む。CPU18は、終了操作が行われない場合には、ステップS390を否定判定してステップS330へ戻る。ステップS330へ戻るCPU18は、上述した処理を繰り返す。   In step S390, the CPU 18 determines whether or not to end the self-portrait mode. When the end operation is performed from the operation member 20, the CPU 18 makes a positive determination in step S390 and proceeds to step S400. If the end operation is not performed, the CPU 18 makes a negative determination in step S390 and returns to step S330. CPU18 which returns to step S330 repeats the process mentioned above.

ステップS400において、CPU18は、自分撮りモードの処理を終了させて図3(a)による処理を終了する。
なお、上記説明では、ステップS370において、CPU18は、人物1が静止したか否かを判定したが、ステップS370は省略してもよい。すなわち、ステップS360において、CPU18は、人物1の位置がカメラ51の撮影画角内であると判定した場合に、ステップS380に進み、CPU18は撮影許可コマンドを出力し、撮影処理を行わせるように構成しても良い。また、その場合に、CPU18が人物1の位置がカメラ51の撮影画角内であると判定した後、所定の時間を経過後に撮影許可コマンドを出力するように構成しても良い。
In step S400, the CPU 18 ends the process of the self-portrait mode and ends the process of FIG.
In the above description, in step S370, the CPU 18 determines whether or not the person 1 is stationary, but step S370 may be omitted. That is, in step S360, if the CPU 18 determines that the position of the person 1 is within the shooting angle of view of the camera 51, the process proceeds to step S380, where the CPU 18 outputs a shooting permission command to perform shooting processing. It may be configured. In this case, the CPU 18 may be configured to output a photographing permission command after a predetermined time has elapsed after the CPU 18 determines that the position of the person 1 is within the photographing field angle of the camera 51.

<センシング機器側の処理>
センシング機器100は、ユーザー操作によって情報提供用のアプリを実行すると、図3(b)による処理を開始する。ステップS710において、センシング機器100は、自動撮りモードの処理を開始してステップS720へ進む。
<Processing on the sensing device side>
When the sensing device 100 executes the application for providing information by a user operation, the sensing device 100 starts the process illustrated in FIG. In step S710, the sensing device 100 starts the automatic shooting mode process and proceeds to step S720.

ステップS720において、センシング機器100は接続シーケンス処理を実行し、カメラ51との間でPTP接続を行う。   In step S <b> 720, the sensing device 100 executes a connection sequence process and performs PTP connection with the camera 51.

ステップS730において、センシング機器100は、カメラ51からセンシング情報の送信要求の有無を判定する。センシング機器100は、送信要求を受信した場合にステップS730を肯定判定してステップS740へ進み、送信要求を受信していない場合にはステップS730を否定判定してステップS750へ進む。   In step S <b> 730, the sensing device 100 determines whether there is a sensing information transmission request from the camera 51. The sensing device 100 makes an affirmative determination in step S730 when a transmission request is received, and proceeds to step S740. If no transmission request is received, the sensing device 100 determines negative in step S730 and proceeds to step S750.

ステップS740において、センシング機器100は、センシング情報(本例では角加速度信号と加速度信号)をカメラ51へ送信してステップS750へ進む。   In step S740, the sensing device 100 transmits sensing information (in this example, an angular acceleration signal and an acceleration signal) to the camera 51, and proceeds to step S750.

ステップS750において、センシング機器100は、自分撮りモードを終了するか否かを判定する。センシング機器100は、ユーザー操作によって情報提供用のアプリの終了が指示されると、ステップS750を肯定判定してステップS760へ進む。センシング機器100は、情報提供用のアプリの終了が指示されない場合には、ステップS750を否定判定してステップS730へ戻る。ステップS730へ戻るセンシング機器100は、上述した処理を繰り返す。この結果、カメラ51からセンシング情報の送信要求の有った場合に、センシング機器100は、所定間隔でセンシング情報(本例では角加速度信号と加速度信号)をカメラ51へ送信することになる。   In step S750, the sensing device 100 determines whether to end the self-portrait mode. When the termination of the information providing application is instructed by a user operation, the sensing device 100 makes an affirmative determination in step S750 and proceeds to step S760. If the termination of the information providing application is not instructed, the sensing device 100 makes a negative determination in step S750 and returns to step S730. The sensing device 100 returning to step S730 repeats the above-described processing. As a result, when there is a transmission request for sensing information from the camera 51, the sensing device 100 transmits sensing information (an angular acceleration signal and an acceleration signal in this example) to the camera 51 at predetermined intervals.

ステップS760において、センシング機器100は、自分撮りモードの処理を終了して図3(b)による処理を終了する。   In step S760, the sensing device 100 ends the process of the self-portrait mode and ends the process of FIG.

上述した第一の実施形態によれば、次の作用効果が得られる。
(1)カメラ51は、人物1が備えるセンシング機器100によるセンシング情報を取得する通信制御回路19と、取得したセンシング情報を用いて、人物1を撮像するカメラ51の撮影タイミングを決定するCPU18と、を備えるようにした。人物1の情報を人物1の近くでセンシングすることにより、人物1から離れた位置でセンシングする場合に比べて高精度のセンシングが行える。このため、高精度のセンシング結果を用いた適切な撮影タイミングで撮影を行い得る。
According to the first embodiment described above, the following operational effects are obtained.
(1) The camera 51 uses the communication control circuit 19 that acquires sensing information from the sensing device 100 included in the person 1, the CPU 18 that determines the shooting timing of the camera 51 that images the person 1 using the acquired sensing information, I was prepared to. By sensing the information of the person 1 near the person 1, sensing can be performed with higher accuracy than when sensing at a position away from the person 1. For this reason, imaging can be performed at an appropriate imaging timing using a highly accurate sensing result.

(2)上記CPU18は、センシング情報に基づいて撮影に関するコマンドを出力するので、例えば、撮影許可コマンドなどのレリーズを許可するコマンドや、手動撮影する場合におけるレリーズタイミングを知らせるコマンドを、適切なタイミングで出力できる。 (2) Since the CPU 18 outputs a command related to shooting based on the sensing information, for example, a command for permitting a release such as a shooting permission command or a command for informing the release timing in the case of manual shooting at an appropriate timing. Can output.

(3)上記センシング情報は、人物1の移動情報を示し、上記CPU18は、センシング情報に基づいて人物1の移動軌跡を演算し、移動軌跡に基づき人物1がカメラ51の画角内まで移動したと判断した場合に、上記コマンドを出力するようにした。移動軌跡に基づいてコマンドを出力することで、人物1が早く移動するか、遅く移動するかにかかわらず、人物1が画角内へ移動した適切なタイミングで、上記コマンドを出力することができる。 (3) The sensing information indicates the movement information of the person 1, and the CPU 18 calculates the movement locus of the person 1 based on the sensing information, and the person 1 moves within the angle of view of the camera 51 based on the movement locus. The above command is output when it is determined. By outputting a command based on the movement trajectory, the command can be output at an appropriate timing when the person 1 moves into the angle of view regardless of whether the person 1 moves early or late. .

(4)上記CPU18は、カメラ51の画角内で人物1が略停止したと判断した場合に、上記コマンドを出力するようにしたので、移動中の人物1の像ぶれを抑えた撮影を行い得る。 (4) Since the CPU 18 outputs the command when it is determined that the person 1 has substantially stopped within the angle of view of the camera 51, the CPU 18 performs shooting while suppressing the image blur of the moving person 1. obtain.

(変形例1)
上記カメラ51は、センシング機器100との間で通信を行うものであれば、デジタルカメラでなくてもよく、銀塩カメラであっても構わない。
また、上記カメラ51は、自分撮りモード用のアプリを実行した別の高機能携帯電話機100やタブレット端末などのモバイル機器によって構成してもよい。また、センシング機器100は、眼鏡型または腕時計型などのウェアラブル端末によって構成してもよい。
(Modification 1)
The camera 51 may not be a digital camera and may be a silver salt camera as long as it communicates with the sensing device 100.
Further, the camera 51 may be configured by another mobile device such as another high-function mobile phone 100 or a tablet terminal that has executed the self-shooting mode application. The sensing device 100 may be configured by a wearable terminal such as a glasses type or a wristwatch type.

(変形例2)
上述した説明では、カメラ51のCPU18が、撮影処理(S380)を行うための許可コマンドを出す例を説明したが、ステップS350〜S370に相当する処理をセンシング機器100側で行うようにしてもよい。
(Modification 2)
In the above description, an example in which the CPU 18 of the camera 51 issues a permission command for performing the photographing process (S380) has been described, but the processing corresponding to steps S350 to S370 may be performed on the sensing device 100 side. .

変形例2において、CPU18は、操作部材20を構成するレリーズボタンが押下された場合にステップS330を肯定判定して以下の処理を行う。すなわち、CPU18は、センシング機器100へ撮影許可の要求を送信し、センシング機器100からの撮影許可を待つ。CPU18は、撮影許可を要求する前に、上記画角情報をセンシング機器100へ送信しておく。   In the second modification, when the release button that constitutes the operation member 20 is pressed, the CPU 18 makes an affirmative determination in step S330 and performs the following processing. That is, the CPU 18 transmits a request for photographing permission to the sensing device 100 and waits for photographing permission from the sensing device 100. The CPU 18 transmits the angle of view information to the sensing device 100 before requesting permission for photographing.

撮影許可の要求を受けたセンシング機器100は、上記ステップS350〜S370に相当する処理を行う。そして、ステップS370に相当する処理において肯定判定したセンシング機器100は、撮影許可コマンドをカメラ51へ送信する。   The sensing device 100 that has received the request for permission to perform imaging performs processing corresponding to steps S350 to S370. Then, the sensing device 100 that has made an affirmative determination in the process corresponding to step S370 transmits a photographing permission command to the camera 51.

また、センシング機器100は、上記撮影許可コマンドとともに距離情報をカメラ51へ送信する。距離情報は、人物1の移動軌跡に基づいて算出したカメラ51から人物1までの距離である。撮影許可コマンドをセンシング機器100から受信したカメラ51のCPU18は、上記ステップS380において撮影処理を行う。以上説明した変形例2によっても、上記第一の実施形態と同様の作用効果が得られる。   In addition, the sensing device 100 transmits distance information to the camera 51 together with the photographing permission command. The distance information is a distance from the camera 51 to the person 1 calculated based on the movement locus of the person 1. The CPU 18 of the camera 51 that has received the photographing permission command from the sensing device 100 performs photographing processing in step S380. Also by the modification 2 demonstrated above, the effect similar to said 1st embodiment is acquired.

(変形例3)
移動する人物1がカメラ51の画角内において停止する位置をあらかじめ決めておいてもよい。カメラ51のCPU18またはセンシング機器100は、人物1の移動軌跡に基づいて、カメラ51を基準にする所定の位置(例えば、撮影画角内で右、左、手前、奥)へ人物1が移動した場合に、撮影許可コマンドを出力する。
(Modification 3)
A position where the moving person 1 stops within the angle of view of the camera 51 may be determined in advance. The CPU 18 of the camera 51 or the sensing device 100 moves the person 1 to a predetermined position (for example, right, left, front, back in the shooting angle of view) based on the movement locus of the person 1. In this case, a shooting permission command is output.

(変形例4)
また、撮影許可コマンドを出力する撮影距離を、あらかじめ決めておいてもよい。カメラ51のCPU18またはセンシング機器100は、人物1の移動軌跡に基づいて、カメラ51を基準にした所定の撮影距離まで人物1が移動した場合に、撮影許可コマンドを出力する。
(Modification 4)
Further, the shooting distance for outputting the shooting permission command may be determined in advance. The CPU 18 or the sensing device 100 of the camera 51 outputs a shooting permission command when the person 1 moves to a predetermined shooting distance based on the camera 51 based on the movement locus of the person 1.

(第二の実施形態)
<使用場面の説明>
図4は、本発明の第二の実施形態による撮影システムを説明する図である。図4において、カメラ51と、複数の高機能携帯電話機(いわゆるスマートフォン)100A〜100Eと、によって撮影システムが構成される。カメラ51は、無線通信ユニットを搭載する。無線通信ユニットは、カメラ51の筐体内に搭載する他に、カメラ51の筐体外部のアクセサリ端子などに装着させてもよい。なお、図4、図5において第一の実施形態の説明で用いた符号と同じ符号が存在する場合、本実施形態における説明を優先して適用する。
(Second embodiment)
<Explanation of usage>
FIG. 4 is a diagram for explaining an imaging system according to the second embodiment of the present invention. In FIG. 4, a camera 51 and a plurality of high-function mobile phones (so-called smartphones) 100A to 100E constitute an imaging system. The camera 51 is equipped with a wireless communication unit. The wireless communication unit may be mounted on an accessory terminal outside the housing of the camera 51 in addition to being mounted in the housing of the camera 51. In addition, when the same code | symbol as the code | symbol used by description of 1st embodiment in FIG. 4, FIG. 5 exists, the description in this embodiment is applied preferentially.

図4の例では、複数の人物A〜人物Eが集う室内に、カメラ51が配置されている。カメラ51は、自動雲台53を有する三脚52にセットされている。モータによって駆動される自動雲台53がパン(左右に回転)、チルト(上下に回転)動作をすることにより、カメラ51の撮影方向が制御される。人物A〜人物Eは着席しておらず、各自が室内を自由に移動できる。
なお、カメラ51および自動雲台53は、三脚52にセットする代わりに、部屋の壁や天井に取り付けてもよい。また、カメラ51と自動雲台53は、必ずしも別体である必要は無く、カメラ51に自動雲台53が含まれる構成であっても良い。
In the example of FIG. 4, a camera 51 is arranged in a room where a plurality of persons A to E gather. The camera 51 is set on a tripod 52 having an automatic camera platform 53. The shooting direction of the camera 51 is controlled by the automatic pan head 53 driven by the motor performing pan (rotate left and right) and tilt (rotate up and down) operations. Person A to person E are not seated and can move freely in the room.
The camera 51 and the automatic camera platform 53 may be attached to the wall or ceiling of the room instead of being set on the tripod 52. Further, the camera 51 and the automatic camera platform 53 are not necessarily separate from each other, and the camera 51 may include the automatic camera platform 53.

人物A〜人物Eは、それぞれ高機能携帯電話機100A〜100Eを携帯している。高機能携帯電話機100A〜100Eは、それぞれがOSを実行した上で所定のアプリを実行する。スマートフォンは公知であるので高機能携帯電話機100A〜100Eの詳細な説明を省略するが、後述する第三の実施形態の説明において図10に例示するものと同様である。   Person A to person E carry high-function mobile phones 100A to 100E, respectively. Each of the high-function mobile phones 100A to 100E executes a predetermined application after executing the OS. Since smart phones are known, detailed description of the high-functional mobile phones 100A to 100E is omitted, but is the same as that illustrated in FIG. 10 in the description of the third embodiment to be described later.

本実施形態では、高機能携帯電話機100A〜100Eにそれぞれ情報提供用のアプリを実行させて、高機能携帯電話機100A〜100Eをセンシング機器として使用する。以降、情報提供用のアプリを実行した高機能携帯電話機100A〜100Eを、センシング機器100A〜100Eと呼ぶ。
高機能携帯電話機に代えて、タブレット端末などのモバイル機器や、眼鏡型または腕時計型などのウェアラブル端末を、センシング機器100A〜100Eとして用いてもよい。
In the present embodiment, the high-function mobile phones 100A to 100E are caused to execute applications for providing information, and the high-function mobile phones 100A to 100E are used as sensing devices. Hereinafter, the high-functional mobile phones 100A to 100E that execute the information providing application are referred to as sensing devices 100A to 100E.
Instead of the high-function mobile phone, mobile devices such as tablet terminals, or wearable terminals such as glasses or wristwatches may be used as the sensing devices 100A to 100E.

センシング機器100A〜100Eは、カメラ51との間で相互に無線通信を行い、カメラ51へセンシング情報を送信する。本実施形態では、センシング機器100A〜100Eに内蔵されるマイクによって検出される音声信号や、センシング機器100A〜100Eに内蔵される位置検出部によって検出される位置情報、さらにセンシング機器100A〜100Eに内蔵される角加速度センサによって検出される角加速度信号を、センシング情報とする。   The sensing devices 100 </ b> A to 100 </ b> E perform wireless communication with the camera 51 and transmit sensing information to the camera 51. In the present embodiment, an audio signal detected by a microphone incorporated in sensing devices 100A to 100E, position information detected by a position detection unit incorporated in sensing devices 100A to 100E, and further incorporated in sensing devices 100A to 100E. An angular acceleration signal detected by the angular acceleration sensor is used as sensing information.

図4の使用場面において、カメラ51は、あらかじめ自動撮影モードで起動されている。自動撮影モードは、センシング機器100A〜100Eから送出されたセンシング情報に基づいて、カメラ51が自動で人物A〜人物Eの撮影を行うモードである。   In the usage scene of FIG. 4, the camera 51 is activated in advance in the automatic shooting mode. The automatic photographing mode is a mode in which the camera 51 automatically photographs the person A to the person E based on the sensing information sent from the sensing devices 100A to 100E.

カメラ51は、自動撮影モードが起動された以降にセンシング機器100A〜100Eから送信されるセンシング情報に基づいて撮影方向を制御する(例えば、会話がはずんでいる人物Aと人物Dと人物Eとで構成されるグループ61へカメラ51を向ける)とともに、所定のタイミング(例えば、グループ61の会話が盛り上がった時点)で撮影処理を行う。   The camera 51 controls the shooting direction based on the sensing information transmitted from the sensing devices 100A to 100E after the automatic shooting mode is activated (for example, the person A, the person D, and the person E who are out of conversation). The camera 51 is directed to the group 61 to be configured), and at the same time (for example, when the conversation of the group 61 is excited), the photographing process is performed.

<カメラの説明>
図5は、カメラ51および自動雲台53の構成を例示する図である。カメラ51は、自動雲台53にセットされ、自動雲台53は、三脚52(図4)に取り付けられている。カメラ51および自動雲台53間は、無線通信によって接続される。カメラ51およびセンシング機器100A〜100E間も、無線通信によって接続される。
なお、カメラ51および自動雲台53間の接続は、無線通信接続に代えて有線通信接続を行ってもよい。
<Explanation of camera>
FIG. 5 is a diagram illustrating the configuration of the camera 51 and the automatic camera platform 53. The camera 51 is set on an automatic camera platform 53, and the automatic camera platform 53 is attached to a tripod 52 (FIG. 4). The camera 51 and the automatic camera platform 53 are connected by wireless communication. The camera 51 and the sensing devices 100A to 100E are also connected by wireless communication.
The connection between the camera 51 and the automatic camera platform 53 may be a wired communication connection instead of a wireless communication connection.

カメラ51は、レンズ群11と、撮像素子12と、電源コントローラ13と、カードコントローラ14と、カードスロット15と、CPU16と、通信ドライバ17と、送受信回路18と、I/F(インターフェース)ドライバ19と、操作部材20と、メモリ21と、LCDドライバ22と、ディスプレイ23と、を有し、電池31およびメモリカード32が実装される。   The camera 51 includes a lens group 11, an image sensor 12, a power controller 13, a card controller 14, a card slot 15, a CPU 16, a communication driver 17, a transmission / reception circuit 18, and an I / F (interface) driver 19. And the operation member 20, the memory 21, the LCD driver 22, and the display 23, and the battery 31 and the memory card 32 are mounted.

レンズ群11はズームレンズを含み、被写体像を撮像素子12に結像させる。撮像素子12は、レンズ群11により結像された被写体像を撮像する。電源コントローラ13は、電池31の電圧を所定の電圧に変換してカメラ51内の各部へ供給する。カードコントローラ14は、CPU16からの指示に応じてカードスロット15に実装されたメモリカード32に対するデータの書き込みや、メモリカード32に記録されているデータの読み出しを行う。   The lens group 11 includes a zoom lens, and forms a subject image on the image sensor 12. The image sensor 12 captures the subject image formed by the lens group 11. The power controller 13 converts the voltage of the battery 31 into a predetermined voltage and supplies it to each part in the camera 51. The card controller 14 writes data to the memory card 32 mounted in the card slot 15 and reads data recorded on the memory card 32 in accordance with an instruction from the CPU 16.

CPU16は、CPU16内の不揮発性メモリに記録された所定のプログラムに基づいてカメラ51内の各部を制御しながら、自動焦点調節(AF)、自動露出調節(AE)、撮影を行う。通信ドライバ17は、CPU16からの指示に応じて送受信回路18を駆動する。送受信回路18は、センシング機器100A〜100Eとの間で無線通信を行うため、CPU16からの指示に応じて電波を送受信する。本実施形態では、送受信回路18が、センシング機器100A〜100Eとの間の無線通信に加えて、自動雲台53との間の無線通信も行う。
なお、カメラ51の筐体外部のアクセサリとして無線通信ユニットを構成した場合、通信ドライバ17および送受信回路18を無線通信ユニットに搭載してもよい。
The CPU 16 performs automatic focus adjustment (AF), automatic exposure adjustment (AE), and photographing while controlling each part in the camera 51 based on a predetermined program recorded in a nonvolatile memory in the CPU 16. The communication driver 17 drives the transmission / reception circuit 18 in response to an instruction from the CPU 16. The transmission / reception circuit 18 transmits and receives radio waves in accordance with instructions from the CPU 16 in order to perform wireless communication with the sensing devices 100A to 100E. In the present embodiment, the transmission / reception circuit 18 performs wireless communication with the automatic camera platform 53 in addition to wireless communication with the sensing devices 100A to 100E.
When the wireless communication unit is configured as an accessory outside the housing of the camera 51, the communication driver 17 and the transmission / reception circuit 18 may be mounted on the wireless communication unit.

送受信回路18は、センシング機器100A〜100Eから送信されたセンシング情報を受信する。   The transmission / reception circuit 18 receives sensing information transmitted from the sensing devices 100A to 100E.

I/F(インターフェース)ドライバ19は、操作部材20からの操作信号を所定のデータに変換してCPU16へ送出する。操作部材20はレリーズボタンや操作ダイヤルなどを含み、操作部材20に対する操作に応じた操作信号を発する。メモリ21は、CPU16のワークメモリとして用いられる。LCDドライバ22は、CPU16からの指示に基づいて、ディスプレイ23に画像や操作メニュー画面を表示させるための表示制御信号を生成する。ディスプレイ23は、例えばLCD(液晶表示)パネルによって構成され、LCDドライバ23からの表示制御信号に基づいて表示を行う。   An I / F (interface) driver 19 converts an operation signal from the operation member 20 into predetermined data and sends it to the CPU 16. The operation member 20 includes a release button, an operation dial, and the like, and issues an operation signal corresponding to an operation on the operation member 20. The memory 21 is used as a work memory for the CPU 16. The LCD driver 22 generates a display control signal for causing the display 23 to display an image or an operation menu screen based on an instruction from the CPU 16. The display 23 is constituted by an LCD (liquid crystal display) panel, for example, and performs display based on a display control signal from the LCD driver 23.

<自動雲台の説明>
自動雲台53は、駆動モータ41と、電源コントローラ42と、CPU43と、通信ドライバ44と、送受信回路45と、メモリ46と、を有し、電池33が実装されている。
<Explanation of automatic head>
The automatic camera platform 53 includes a drive motor 41, a power supply controller 42, a CPU 43, a communication driver 44, a transmission / reception circuit 45, and a memory 46, and a battery 33 is mounted thereon.

駆動モータ41は、パン用モータおよびチルト用モータによって構成される。駆動モータ41は、電源コントローラ42から供給される駆動パルス信号に応じて、自動雲台53を左右方向に回動させたり、自動雲台53を上下方向に回動させたりする。電源コントローラ42は、電池33の電圧を所定の電圧に変換して自動雲台53内の各部へ供給する他、CPU43からの指示に応じてパン用モータおよびチルト用モータに対する駆動パルス信号を生成する。   The drive motor 41 includes a pan motor and a tilt motor. The drive motor 41 rotates the automatic camera platform 53 in the left-right direction or rotates the automatic camera platform 53 in the up-down direction in accordance with the drive pulse signal supplied from the power controller 42. The power supply controller 42 converts the voltage of the battery 33 into a predetermined voltage and supplies it to each part in the automatic camera platform 53, and generates drive pulse signals for the pan motor and the tilt motor in accordance with instructions from the CPU 43. .

CPU43は、CPU43内の不揮発性メモリに記録された所定のプログラムに基づいて自動雲台53内の各部を制御する。通信ドライバ44は、CPU43からの指示に応じて送受信回路45を駆動する。送受信回路45は、カメラ51との間で無線通信を行うため、CPU43からの指示に応じて電波を送受信する。本実施形態では、送受信回路45が、カメラ51との間で無線通信を行う。   The CPU 43 controls each part in the automatic camera platform 53 based on a predetermined program recorded in the nonvolatile memory in the CPU 43. The communication driver 44 drives the transmission / reception circuit 45 in response to an instruction from the CPU 43. The transmission / reception circuit 45 transmits and receives radio waves according to instructions from the CPU 43 in order to perform wireless communication with the camera 51. In the present embodiment, the transmission / reception circuit 45 performs wireless communication with the camera 51.

送受信回路45は、自動雲台53を左右方向に回動するためにカメラ51から送信された指示や、自動雲台53を上下方向に回動するためにカメラ51から送信された指示を受信する。すなわち、自動雲台53のパン動作およびチルト動作(すなわちカメラ51の撮影方向の変更)は、カメラ51からの制御信号によって制御される。送受信回路45は、自動雲台53に設定されている角度(左右方向および上下方向)を示す情報を、カメラ51へ送信する。メモリ46は、CPU43のワークメモリとして用いられる。   The transmission / reception circuit 45 receives an instruction transmitted from the camera 51 for rotating the automatic camera platform 53 in the left-right direction and an instruction transmitted from the camera 51 for rotating the automatic camera platform 53 in the vertical direction. . That is, the pan operation and tilt operation of the automatic camera platform 53 (that is, the change in the shooting direction of the camera 51) is controlled by the control signal from the camera 51. The transmission / reception circuit 45 transmits information indicating the angles (left-right direction and vertical direction) set in the automatic camera platform 53 to the camera 51. The memory 46 is used as a work memory for the CPU 43.

カメラ51の撮影条件(シャッター速度、絞り、焦点距離等)は、カメラ51のCPU16によって制御される。また、カメラ51による撮影タイミングは、センシング機器100A〜100Eから送信されるセンシング情報に基づいてカメラ51のCPU16が決定する。また、カメラ51が撮影する方向も、センシング機器100A〜100Eから送信されるセンシング情報に基づいてカメラ51のCPU16が決定する。カメラ51で撮影された画像は、カメラ51に装着されたメモリカード32に保存される。   The shooting conditions (shutter speed, aperture, focal length, etc.) of the camera 51 are controlled by the CPU 16 of the camera 51. Further, the shooting timing of the camera 51 is determined by the CPU 16 of the camera 51 based on sensing information transmitted from the sensing devices 100A to 100E. The direction in which the camera 51 captures is also determined by the CPU 16 of the camera 51 based on sensing information transmitted from the sensing devices 100A to 100E. An image photographed by the camera 51 is stored in a memory card 32 attached to the camera 51.

<フローチャートの説明>
自動撮影モードにおいてカメラ51(CPU16)が実行する処理の流れと、センシング機器100が実行する処理の流れについて、図6に例示するフローチャートを参照して説明する。図6(a)は、カメラ51のCPU16が実行する処理を例示するフローチャートである。図6(b)は、センシング機器100(100A〜100E)が実行する処理を例示するフローチャートである。
<Description of flowchart>
A flow of processing executed by the camera 51 (CPU 16) in the automatic shooting mode and a flow of processing executed by the sensing device 100 will be described with reference to a flowchart illustrated in FIG. FIG. 6A is a flowchart illustrating a process executed by the CPU 16 of the camera 51. FIG. 6B is a flowchart illustrating processing executed by the sensing device 100 (100A to 100E).

<カメラ側の処理>
CPU16は、ユーザー操作によって自動撮影モードにセットされると、図6(a)による処理を開始する。ステップS10において、CPU16は、自動撮影モードの処理を起動させてステップS20へ進む。ステップS20において、CPU16は、リクエストハンドラ処理を起動させてステップS30へ進む。リクエストハンドラ処理では、例えば接続要求受付問い合わせ(Inquiry)をブロードキャスト送信する。ブロードキャスト送信するのは、無線通信可能な範囲に存在する多くの端末機(センシング機器100)へ送信するためである。
<Camera processing>
When the CPU 16 is set to the automatic shooting mode by a user operation, the CPU 16 starts the process shown in FIG. In step S10, the CPU 16 activates the automatic photographing mode process and proceeds to step S20. In step S20, the CPU 16 activates the request handler process and proceeds to step S30. In the request handler process, for example, a connection request reception inquiry (Inquiry) is broadcast. The broadcast transmission is performed for transmission to many terminals (sensing device 100) existing in a wireless communication range.

ステップS30において、CPU16は、人物A〜人物Eが携帯する端末機(センシング機器100A〜100E)のうち、自動撮影モードが起動されている端末機を検出する。CPU16は、接続要求を送信している端末機を検出した場合にステップS30を肯定判定してステップS40へ進み、接続要求を送信している端末機を検出しない場合には、当該検出処理を繰り返す。   In step S30, the CPU 16 detects a terminal in which the automatic shooting mode is activated among terminals (sensing devices 100A to 100E) carried by the persons A to E. When the CPU 16 detects the terminal that transmits the connection request, the CPU 16 makes a positive determination in step S30 and proceeds to step S40. When the terminal that transmits the connection request is not detected, the CPU 16 repeats the detection process. .

ステップS40において、CPU16は、接続シーケンス処理を実行してステップS50へ進む。接続シーケンス処理では、接続要求を送信した端末機(センシング機器100)との間でそれぞれ無線接続を開始させ、個々の端末機(センシング機器100)を認識する為のIDを各端末機へ送付する。   In step S40, the CPU 16 executes a connection sequence process and proceeds to step S50. In the connection sequence process, wireless connection is started with each terminal (sensing device 100) that transmitted the connection request, and an ID for recognizing each terminal (sensing device 100) is sent to each terminal. .

ステップS50において、CPU16は、音声取得処理を実行してステップS60へ進む。音声取得処理では、無線接続中の端末機(センシング機器100)に対し、例えば音声取得開始時刻を指定して録音要求を送信する。このとき、CPU16(カメラ51側)の現在時刻を送信することによって、CPU16と端末機(センシング機器100)との間の時刻ずれを端末機(センシング機器100)において補正させる。   In step S50, the CPU 16 executes a sound acquisition process and proceeds to step S60. In the voice acquisition process, for example, a voice acquisition start time is designated and a recording request is transmitted to the wirelessly connected terminal (sensing device 100). At this time, the time difference between the CPU 16 and the terminal (sensing device 100) is corrected in the terminal (sensing device 100) by transmitting the current time of the CPU 16 (camera 51 side).

CPU16は、録音要求に応じた無線接続中の端末機(センシング機器100)から、各端末機(センシング機器100)で取得された音声情報を受信する。音声情報には、各端末機(センシング機器100)のIDと、音声取得時刻情報とが付されている。音声情報は、所定時間(例えば10秒)単位の録音データである。   The CPU 16 receives voice information acquired by each terminal (sensing device 100) from a wirelessly connected terminal (sensing device 100) according to the recording request. The voice information includes an ID of each terminal (sensing device 100) and voice acquisition time information. The audio information is recorded data in units of a predetermined time (for example, 10 seconds).

ステップS60において、CPU16は、音声マッチング処理を実行してステップS70へ進む。図7は、音声マッチング処理を説明する図である。音声波形71は、センシング機器100Aから受信した音声情報に基づく波形であり、横軸は時間、縦軸は周波数の高低を表す。音声波形72は、センシング機器100Bから受信した音声情報に基づく波形であり、横軸は時間、縦軸は周波数の高低を表す。他の音声波形73〜音声波形75も、それぞれセンシング機器100C〜100Eから受信した音声情報に基づく波形である。   In step S60, the CPU 16 executes a voice matching process and proceeds to step S70. FIG. 7 is a diagram for explaining the voice matching process. The voice waveform 71 is a waveform based on voice information received from the sensing device 100A, and the horizontal axis represents time, and the vertical axis represents the frequency. The voice waveform 72 is a waveform based on voice information received from the sensing device 100B, and the horizontal axis represents time, and the vertical axis represents the frequency. The other audio waveforms 73 to 75 are also waveforms based on the audio information received from the sensing devices 100C to 100E, respectively.

CPU16は、各端末機(センシング機器100)から受信した音声情報に基づく音声波形71〜音声波形75の中から類似する音声波形を検出する。図7の例では音声波形71、音声波形74および音声波形75が類似する。このため、CPU16は、音声波形71、音声波形74および音声波形75が、概ね一致していると判定する。本実施形態では、音声の大小(振幅差)や、音声波形の中に部分的に違う周波数成分が加わっている等、データとしての厳密な一致までを判定基準とせず、波形形状が類似していれば概ね一致と判定するおおよそのマッチング判定を行う。   The CPU 16 detects similar speech waveforms from the speech waveforms 71 to 75 based on the speech information received from each terminal (sensing device 100). In the example of FIG. 7, the speech waveform 71, the speech waveform 74, and the speech waveform 75 are similar. For this reason, the CPU 16 determines that the audio waveform 71, the audio waveform 74, and the audio waveform 75 are substantially the same. In the present embodiment, the waveform shape is similar without using as a criterion the exact match as data, such as the magnitude of the sound (amplitude difference) or a partially different frequency component in the speech waveform. If this is the case, an approximate matching determination is made to determine that they are generally coincident.

おおよそのマッチング判定を行う理由は、音声データ(パターン)の厳密な一致判定ができるほど、各端末機(センシング機器100)において集音条件が同じとはいえないからである。例えば、音源(話す人物)と各端末機(センシング機器100)との位置関係が異なると、取得される音声レベルが異なる。また、端末機(センシング機器100)が露出しているか否か、端末機(センシング機器100)が衣類のポケットやバッグ等の中に収納されているか否かによって、録音信号の中に、音声とは別の摩擦音などの周波数成分が加わることもある。このため、本実施形態では音声波形の厳密な一致判定を行わない。   The reason for performing the approximate matching determination is that the sound collection conditions cannot be said to be the same in each terminal (sensing device 100) to the extent that voice data (pattern) can be determined to be exact. For example, when the positional relationship between the sound source (speaking person) and each terminal (sensing device 100) is different, the acquired sound level is different. Depending on whether or not the terminal (sensing device 100) is exposed and whether or not the terminal (sensing device 100) is stored in a pocket or bag of clothing, voice and May add another frequency component such as frictional noise. For this reason, in this embodiment, the exact coincidence determination of the speech waveform is not performed.

音声波形71、音声波形74および音声波形75が類似する場合の環境例としては、図4において人物A、人物Dおよび人物Eが集まって談笑している場面があげられる。音源が1つであろうと複数であろうと、同じ音源からの音を録音した音声波形は類似するという考え方に基づく。CPU16は、図4に例示するように、類似する音声波形に対応する端末機(センシング機器100)を携帯する人物をブロックに分ける。ブロック61は、音声波形71、音声波形74および音声波形75に対応する人物A、人物Dおよび人物Eを包含するブロックである。類似しない音声波形72、音声波形73に対応する人物B、人物Cについては、それぞれ個別のブロック62、ブロック63とする。   As an example of the environment in which the audio waveform 71, the audio waveform 74, and the audio waveform 75 are similar, there is a scene in which the person A, the person D, and the person E gather together in FIG. Regardless of whether the sound source is one or plural, the sound waveforms obtained by recording sounds from the same sound source are similar. As illustrated in FIG. 4, the CPU 16 divides a person carrying a terminal (sensing device 100) corresponding to a similar voice waveform into blocks. The block 61 includes a person A, a person D, and a person E corresponding to the voice waveform 71, the voice waveform 74, and the voice waveform 75. The person B and the person C corresponding to the voice waveform 72 and the voice waveform 73 that are not similar to each other are referred to as individual blocks 62 and 63, respectively.

なお、本実施形態では音声波形71〜音声波形75のおおよそのマッチング判定を行う例を説明したが、音声の振幅や周波数成分を任意に限定するようにしてもよい。例えば、音声レベル(音圧)が所定値以上の音声波形のみを比較したり、周波数成分が所定の周波数帯に含まれる音声波形のみを比較したりすることにより、多様なマッチング判定を行うことができる。   In the present embodiment, the example in which the rough matching determination is performed on the speech waveform 71 to the speech waveform 75 has been described. However, the amplitude and frequency component of speech may be arbitrarily limited. For example, various matching determinations can be performed by comparing only sound waveforms whose sound level (sound pressure) is a predetermined value or higher, or comparing only sound waveforms whose frequency components are included in a predetermined frequency band. it can.

図6のステップS70において、CPU16は、上記音声マッチング処理における一致の有無を判定する。CPU16は、上述したように音声波形の概ね一致(類似)を判定した場合にステップS70を肯定判定してステップS80へ進み、音声波形の概ね一致(類似)を判定しない場合には、ステップS70を否定判定してステップS50へ戻る。ステップS50へ戻るCPU16は、上述した処理を繰り返す。   In step S70 of FIG. 6, the CPU 16 determines whether there is a match in the voice matching process. As described above, the CPU 16 makes an affirmative decision in step S70 when it is determined that the speech waveforms are generally matched (similar), and proceeds to step S80. If it is not determined that the speech waveforms are generally matched (similar), it proceeds to step S70. A negative determination is made and the process returns to step S50. CPU16 which returns to step S50 repeats the process mentioned above.

ステップS80において、CPU16は、端末機(センシング機器100)の位置情報を取得する。CPU16は、類似を判定した音声波形に対応する端末機(本例では、ブロック61内のセンシング機器100A、100Dおよび100E)から、それぞれの位置情報を取得する。位置情報は、室内における端末機(センシング機器100)の位置を検出するための信号であり、例えばIMES(Indoor MEssaging System)で用いる信号でもよいし、無線LANを利用する場合はアクセスポイント位置を示す信号でもよい。
なお、カメラ51が端末機(センシング機器100)の位置情報を音声情報と別に取得する代わりに、ステップS50で取得する音声情報に位置情報を含めておいてもよい。この場合は、音声情報の中に各端末機(センシング機器100)のIDと、各端末(センシング機器100)の音声取得時刻情報と、各端末(センシング機器100)の位置情報とが付されることになる。
In step S80, the CPU 16 acquires position information of the terminal (sensing device 100). CPU16 acquires each positional information from the terminal (In this example, sensing apparatus 100A, 100D and 100E in the block 61) corresponding to the audio | voice waveform which determined the similarity. The location information is a signal for detecting the location of the terminal (sensing device 100) in the room. For example, the location information may be a signal used in IMES (Indoor Messaging System), and indicates the access point location when using a wireless LAN. It may be a signal.
Instead of acquiring the position information of the terminal (sensing device 100) separately from the sound information, the camera 51 may include the position information in the sound information acquired in step S50. In this case, the ID of each terminal (sensing device 100), the sound acquisition time information of each terminal (sensing device 100), and the position information of each terminal (sensing device 100) are added to the sound information. It will be.

ステップS90において、CPU16は、自動撮影および記録を行わせる。自動撮影および記録は以下の手順で行う。先ずCPU16は、ブロック61内のセンシング機器100A、100Dおよび100Eの位置情報に基づいて、カメラ51の撮影方向を決める。図8に例示するように、CPU16は、センシング機器100A、100Dおよび100Eの位置を中心とする3つの同半径の円が交わる領域90(斜線で示す)を撮影画角の中央に含むように撮影すべき方向を決め、この撮影方向を知らせるコマンドを自動雲台53へ出力する。具体的には、自動雲台53を回転させる指示を送受信回路18から送信させる。円の半径は、適宜変更して構わない。すなわち、領域90が広すぎる場合は円の半径を小さくし、3つの円が交わらず、領域90が存在しない場合は円の半径を大きくする。   In step S90, the CPU 16 performs automatic photographing and recording. Automatic shooting and recording are performed according to the following procedure. First, the CPU 16 determines the shooting direction of the camera 51 based on the position information of the sensing devices 100A, 100D, and 100E in the block 61. As illustrated in FIG. 8, the CPU 16 takes an image so as to include a region 90 (indicated by oblique lines) where three circles with the same radius centering on the positions of the sensing devices 100 </ b> A, 100 </ b> D, and 100 </ b> E intersect at the center of the shooting field angle. A direction to be determined is determined, and a command for informing the shooting direction is output to the automatic camera platform 53. Specifically, an instruction to rotate the automatic camera platform 53 is transmitted from the transmission / reception circuit 18. The radius of the circle may be changed as appropriate. That is, if the area 90 is too wide, the radius of the circle is reduced, and if the three circles do not intersect and the area 90 does not exist, the radius of the circle is increased.

また、CPU16は、ブロック61内のセンシング機器100A、100Dおよび100Eの位置情報に基づいて、センシング機器100A、100Dおよび100E(すなわち人物A、人物Dおよび人物E)が撮影画角から外れると判断した場合には、レンズ群11のズームレンズによるズーム倍率を変化させて撮影画角を変更する。   Further, the CPU 16 determines that the sensing devices 100A, 100D, and 100E (that is, the person A, the person D, and the person E) are out of the shooting angle of view based on the position information of the sensing devices 100A, 100D, and 100E in the block 61. In this case, the shooting angle of view is changed by changing the zoom magnification of the zoom lens of the lens group 11.

次にCPU16は、撮像素子12によって取得されたプレビュー画像に基づいて顔検出処理を行い、検出した顔(例えば人物Dの顔)を対象に自動焦点調節(AF)を行う。プレビュー画像は、本撮影前に所定のフレームレート(例えば60fps)で繰り返し取得するモニタ用の画像である。   Next, the CPU 16 performs face detection processing based on the preview image acquired by the image sensor 12, and performs automatic focus adjustment (AF) on the detected face (for example, the face of the person D). The preview image is a monitor image that is repeatedly acquired at a predetermined frame rate (for example, 60 fps) before the actual photographing.

CPU16はさらに、類似を判定した音声波形に対応する端末機(本例では、ブロック61内のセンシング機器100A、100Dおよび100E)から送信された音声情報の音声レベルが、あらかじめ定めた所定のレベルを超えた場合に、撮影許可コマンドを出力して本撮影を開始させる。本撮影は、撮像素子12によって記録用画像を所定のフレームレート(例えば60fps)で繰り返し取得させる。
なお、本撮影開始のタイミングの決定は、上述した音声情報の音声レベルに基づく決定の他に、上記類似を判定した音声波形と、あらかじめCPU16内の不揮発性メモリに記録させた基準波形との比較結果に基づいて決定してもよい。CPU16は、両波形間で公知のパターンマッチング処理を行うことにより、両波形が略一致していると判断した場合に、本撮影を開始させる。基準波形は、例えば笑い声、樂曲のフレーズ、感嘆詞などの所定の言葉の音声波形を用いることもできる。
基準波形は、ユーザーが自由にCPU16内の不揮発性メモリへ追加したり、不揮発性メモリから削除したりすることができる。また、音声レベルに基づいて本撮影を開始させたCPU16が、そのときに取得された音声波形を基準波形として不揮発性メモリに保存させてもよい。
In addition, the CPU 16 further determines that the sound level of the sound information transmitted from the terminal (in this example, the sensing devices 100A, 100D and 100E in the block 61) corresponding to the sound waveform determined to be similar to a predetermined level. If it exceeds, a shooting permission command is output to start actual shooting. In the main photographing, the image for recording is repeatedly acquired by the image sensor 12 at a predetermined frame rate (for example, 60 fps).
In addition to the determination based on the sound level of the sound information described above, the timing for starting the actual photographing is compared with the sound waveform determined to be similar to the reference waveform previously recorded in the nonvolatile memory in the CPU 16. You may decide based on a result. When the CPU 16 performs a known pattern matching process between the two waveforms and determines that the two waveforms are substantially the same, the CPU 16 starts the main photographing. As the reference waveform, for example, a speech waveform of a predetermined word such as a laughing voice, a melody phrase, or an exclamation can be used.
The reference waveform can be freely added to the nonvolatile memory in the CPU 16 or deleted from the nonvolatile memory by the user. Further, the CPU 16 that has started the main photographing based on the sound level may store the sound waveform acquired at that time in the nonvolatile memory as a reference waveform.

CPU16は、本撮影で取得した画像のデータを、類似を判定した音声波形に対応する端末機(本例では、ブロック61内のセンシング機器100A、100Dおよび100E)から送信された音声情報とともにメモリカード32に記録させる。   The CPU 16 uses the memory card together with the audio information transmitted from the terminal (in this example, the sensing devices 100A, 100D, and 100E in the block 61) corresponding to the audio waveform for which the similarity is determined. 32.

ステップS100において、CPU16は、自動撮影を終了するか否かを判定する。CPU16は、類似を判定した音声波形に対応する端末機(本例では、ブロック61内のセンシング機器100A、100Dおよび100E)から送信された音声情報の音声レベルが、上記所定のレベルを下回った場合に、ステップS100を肯定判定し、上記本撮影を終了させてステップS110へ進む。CPU16は、ブロック61内のセンシング機器100A、100Dおよび100Eから送信された音声情報の音声レベルが、継続して上記所定のレベルを上回っている場合にはステップS100を否定判定し、上記本撮影を継続しながら判定処理を繰り返す。
なお、音声情報の音声レベルが上記所定のレベルを下回らなくても、本撮影の開始から所定時間が経過した場合に自動撮影を終了させるようにしてもよい。
In step S100, the CPU 16 determines whether or not to end automatic shooting. When the voice level of the voice information transmitted from the terminal (in this example, the sensing devices 100A, 100D, and 100E in the block 61) corresponding to the voice waveform determined to be similar falls below the predetermined level, the CPU 16 In step S100, an affirmative determination is made, the main photographing is terminated, and the process proceeds to step S110. When the sound level of the sound information transmitted from the sensing devices 100A, 100D, and 100E in the block 61 continues to exceed the predetermined level, the CPU 16 makes a negative determination in step S100 and performs the main photographing. The determination process is repeated while continuing.
Note that, even if the sound level of the sound information does not fall below the predetermined level, the automatic shooting may be terminated when a predetermined time has elapsed since the start of the main shooting.

ステップS110において、CPU16は、自動撮影モードを終了するか否かを判定する。CPU16は、ユーザー操作によって自動撮影モード以外の他のモードにセットされると、ステップS110を肯定判定してステップS120へ進む。CPU16は、自動撮影モードが維持されている場合には、ステップS110を否定判定してステップS50へ戻る。ステップS50へ戻るCPU16は、上述した処理を繰り返す。   In step S110, the CPU 16 determines whether or not to end the automatic shooting mode. When the CPU 16 is set to a mode other than the automatic shooting mode by a user operation, the CPU 16 makes a positive determination in step S110 and proceeds to step S120. If the automatic shooting mode is maintained, the CPU 16 makes a negative determination in step S110 and returns to step S50. CPU16 which returns to step S50 repeats the process mentioned above.

ステップS120において、CPU16は、自動撮影モードの処理を終了させて図6(a)による処理を終了する。   In step S120, the CPU 16 ends the process of the automatic shooting mode and ends the process of FIG.

なお、ステップS20〜S40の処理は、図6(a)におけるイニシャル処理としてだけではなく、自動撮影処理中も所定のタイミングで行うようにしてもよい。一定期間ごとに行うことにより、例えば遅れて参加した人物が携帯するセンシング機器100との間の無線接続をカメラ51が後から追加することが可能になる。   Note that the processes in steps S20 to S40 may be performed not only as the initial process in FIG. 6A but also at a predetermined timing during the automatic photographing process. By performing it at regular intervals, for example, the camera 51 can later add a wireless connection with the sensing device 100 carried by a person who joined late.

<センシング機器側の処理>
センシング機器100は、ユーザー操作によって情報提供用のアプリを実行すると、図6(b)による処理を開始する。ステップS510において、センシング機器100は、自動撮影モードの処理を開始してステップS520へ進む。
<Processing on the sensing device side>
When the sensing device 100 executes the application for providing information by a user operation, the sensing device 100 starts the process illustrated in FIG. In step S510, the sensing device 100 starts the automatic photographing mode process and proceeds to step S520.

ステップS520において、センシング機器100は、カメラ51から接続要求受付問い合わせ(Inquiry)を受信した場合に、接続要求をカメラ51へ送信する。センシング機器100はさらに、接続シーケンスを実行する。具体的には、カメラ51との間で無線接続を開始させる。   In step S <b> 520, when the sensing device 100 receives a connection request acceptance inquiry (Inquiry) from the camera 51, the sensing device 100 transmits a connection request to the camera 51. The sensing device 100 further executes a connection sequence. Specifically, wireless connection with the camera 51 is started.

ステップS530において、センシング機器100は、カメラ51からIDを受信したか否かを判定する。センシング機器100は、IDを受信した場合にステップS530を肯定判定してステップS540へ進み、IDを受信していない場合にはステップS530を否定判定してIDの受信を待つ。   In step S530, the sensing device 100 determines whether an ID is received from the camera 51. The sensing device 100 makes an affirmative determination in step S530 when the ID is received, and proceeds to step S540. If the ID is not received, the sensing device 100 makes a negative determination in step S530 and waits for the reception of the ID.

ステップS540において、センシング機器100は、音声取得処理を行ってステップS550へ進む。音声取得処理では、カメラ51からの録音要求に応じて、カメラ51から指定された時刻から所定時間(本例では10秒)の録音を行う。センシング機器100は、録音を行うと、録音した音声情報に、センシング機器100のIDと、センシング機器100の音声取得時刻情報と、を付してカメラ51へ送信する。
なお、録音した音声情報に、センシング機器100の位置情報を付してもよい。
In step S540, the sensing device 100 performs voice acquisition processing and proceeds to step S550. In the sound acquisition process, in response to a recording request from the camera 51, recording is performed for a predetermined time (in this example, 10 seconds) from the time designated by the camera 51. When recording, the sensing device 100 appends the ID of the sensing device 100 and the sound acquisition time information of the sensing device 100 to the recorded sound information and transmits it to the camera 51.
Note that the position information of the sensing device 100 may be attached to the recorded voice information.

ステップS550において、センシング機器100は、自動撮影モードを終了するか否かを判定する。センシング機器100は、ユーザー操作によって情報提供用のアプリの終了が指示されると、ステップS550を肯定判定してステップS560へ進む。センシング機器100は、情報提供用のアプリの終了が指示されない場合には、ステップS550を否定判定してステップS540へ戻る。ステップS540へ戻るセンシング機器100は、上述した処理を繰り返す。   In step S550, the sensing device 100 determines whether to end the automatic shooting mode. When the termination of the information providing application is instructed by a user operation, the sensing device 100 makes a positive determination in step S550 and proceeds to step S560. If the termination of the information providing application is not instructed, the sensing device 100 makes a negative determination in step S550 and returns to step S540. The sensing device 100 returning to step S540 repeats the above-described processing.

ステップS560において、センシング機器100は、自動撮影モードの処理を終了して図6(b)による処理を終了する。   In step S560, the sensing device 100 ends the process of the automatic shooting mode and ends the process of FIG.

上述した第二の実施形態によれば、次の作用効果が得られる。
(1)カメラ51は、人物A〜Eが備えるセンシング機器100A〜100Eによるセンシング情報を取得する送受信回路18と、取得したセンシング情報を用いて、人物A〜Eを撮像するカメラ51の撮影タイミングを決定するCPU16と、を備えるようにした。人物A〜Eが備えるセンシング機器100A〜100Eを用いることにより、人物A〜Eの情報を人物A〜Eの近くでセンシングすることが可能となり、人物A〜Eから離れた位置でセンシングする場合に比べて高精度のセンシングが行える。このため、高精度のセンシング結果を用いた適切な撮影タイミングで撮影を行い得る。
According to the second embodiment described above, the following operational effects can be obtained.
(1) The camera 51 uses the transmission / reception circuit 18 that acquires sensing information by the sensing devices 100A to 100E included in the persons A to E and the shooting timing of the camera 51 that images the persons A to E using the acquired sensing information. And a CPU 16 to be determined. By using the sensing devices 100A to 100E included in the persons A to E, it becomes possible to sense the information of the persons A to E near the persons A to E, and when sensing at a position away from the persons A to E. Compared to high-precision sensing. For this reason, imaging can be performed at an appropriate imaging timing using a highly accurate sensing result.

(2)センシング情報は、人物A〜Eの位置と異なる種類の物理量を示し、上記CPU16は、上記物理量に基づいて撮影に関するコマンドを出力するので、位置情報以外の物理量のセンシング結果に基づく適切なタイミングでコマンドを出力できる。 (2) The sensing information indicates a physical quantity of a type different from the positions of the persons A to E, and the CPU 16 outputs a command related to shooting based on the physical quantity. Commands can be output at the timing.

(3)センシング機器100A〜100Eは上記物理量として音をセンシングし、上記CPU16は、音を示す信号に基づいて上記コマンドを出力する。これにより、人物A〜Eの近くでセンシングした音に基づく適切なタイミングでコマンドを出力できる。 (3) The sensing devices 100A to 100E sense sound as the physical quantity, and the CPU 16 outputs the command based on a signal indicating sound. Thereby, a command can be output at an appropriate timing based on sounds sensed near the persons A to E.

(4)上記の説明では、カメラ51は、複数のセンシング機器100A〜100Eでそれぞれセンシングされた複数の音を取得したが、一つのセンシング機器のみからの音を取得するように構成しても良い。その場合、上記CPU16は、音の信号パターンと基準パターンとの比較に基づいて上記コマンドを出力するので、例えば、笑い声や樂曲のフレーズ、所定の言葉の音声パターンと合致した場合にコマンドを出力できる。また、カメラ51が音を直接取得するのに比べて、被写体が有するセンシング機器がセンシングした音を取得することにより、より高精度のセンシングが行える。 (4) In the above description, the camera 51 has acquired a plurality of sounds respectively sensed by the plurality of sensing devices 100A to 100E, but may be configured to acquire sound from only one sensing device. . In this case, since the CPU 16 outputs the command based on the comparison between the sound signal pattern and the reference pattern, for example, the command can be output when the voice pattern matches a laughing voice, a song phrase, or a predetermined word. . Further, as compared with the case where the camera 51 directly acquires sound, by acquiring sound sensed by a sensing device included in the subject, sensing with higher accuracy can be performed.

(5)センシング情報は、複数のセンシング機器100A〜100Eでそれぞれセンシングされた複数の音を示し、上記CPU16は、複数の音のうち類似する音の信号パターンに基づいて上記コマンドを出力するようにした。例えば、センシングした音のパターンが類似するセンシング機器100Aとセンシング機器100Dとセンシング機器100Eとが存在する方向を、撮影方向とするようにコマンドを出力する。これにより、全てのセンシング機器100A〜100Eを含めた撮影を行う場合に比べて、撮影対象を絞った適切な撮影を行い得る。 (5) The sensing information indicates a plurality of sounds respectively sensed by the plurality of sensing devices 100A to 100E, and the CPU 16 outputs the command based on a signal pattern of similar sounds among the plurality of sounds. did. For example, the command is output so that the direction in which the sensing device 100A, the sensing device 100D, and the sensing device 100E with similar sensed sound patterns exist is set as the shooting direction. Accordingly, it is possible to perform appropriate shooting with a shooting target narrower than in the case of shooting including all the sensing devices 100A to 100E.

(6)上記センシング情報は、複数のセンシング機器100A〜100Eのそれぞれの位置を示し、上記CPU16は、類似する音がセンシングされた複数の位置に基づいて、カメラ51の撮影方向を決めるようにした。類似する音がセンシングされたセンシング機器100Aの位置とセンシング機器100Dの位置とセンシング機器100Eの位置とに基づいて撮影方向を決めることで、例えばグループ61において談笑する人物A、人物D、および人物Eを、撮影対象とすることができる。 (6) The sensing information indicates the respective positions of the plurality of sensing devices 100A to 100E, and the CPU 16 determines the shooting direction of the camera 51 based on the plurality of positions at which similar sounds are sensed. . By determining the shooting direction based on the position of the sensing device 100A where the similar sound is sensed, the position of the sensing device 100D, and the position of the sensing device 100E, for example, the person A, the person D, and the person E chatting in the group 61 Can be taken as an object to be photographed.

(7)上記CPU16は、類似する音がセンシングされた複数の位置を画角内に含むようにカメラ51の画角を変更するようにした。これにより、全てのセンシング機器100A〜100Eが画角に含まれない場合には、画角を広げるように対処できる。 (7) The CPU 16 changes the angle of view of the camera 51 so that a plurality of positions where similar sounds are sensed are included in the angle of view. As a result, when all the sensing devices 100A to 100E are not included in the angle of view, it is possible to cope with widening the angle of view.

(変形例5)
上記カメラ51は、センシング機器100A〜100Eとの間で通信を行うものであれば、自動撮影モード用のアプリを実行した別の高機能携帯電話機100などのモバイル機器によって構成してもよい。また、センシング機器100A〜100Eは、眼鏡型または腕時計型などのウェアラブル端末によって構成してもよい。
(Modification 5)
As long as the camera 51 communicates with the sensing devices 100A to 100E, the camera 51 may be configured by a mobile device such as another high-performance mobile phone 100 that executes an application for the automatic shooting mode. In addition, the sensing devices 100A to 100E may be configured by wearable terminals such as glasses or watches.

(変形例6)
上述した説明では、カメラ51のCPU16が決定した撮影方向へ、自動雲台53を駆動することによってカメラ51の撮影方向を自動制御する例を説明したが、人物が、カメラ51を手持ちして撮影できるように構成してもよい。変形例6においては、カメラ51が決定した撮影すべき方向を、カメラ51のディスプレイ23に表示させる。変形例6の場合は、ディスプレイ23に対する表示コマンドが撮影すべき方向を知らせるコマンドに相当する。ディスプレイ23の表示内容は、例えば第三の実施形態において例示する図11の場合と同様に行わせることができる。
(Modification 6)
In the above description, an example in which the shooting direction of the camera 51 is automatically controlled by driving the automatic camera platform 53 in the shooting direction determined by the CPU 16 of the camera 51 has been described. You may comprise so that it can do. In the modified example 6, the direction to be shot determined by the camera 51 is displayed on the display 23 of the camera 51. In the case of the modification 6, the display command for the display 23 corresponds to a command for informing the direction to be photographed. The display content of the display 23 can be performed, for example, in the same manner as in the case of FIG.

変形例6によれば、カメラ51を操作する人物に対し、カメラ51が決定した撮影すべき方向を知らせることができる。   According to the modified example 6, it is possible to notify the person who operates the camera 51 of the direction to be shot determined by the camera 51.

(変形例7)
センシング機器100A〜100Eによって検出された振動に基づいて、本撮影開始のタイミングの決定を行うようにしてもよい。CPU16は、所定のセンシング機器(例えば、上述したように類似を判定した音声波形に対応するセンシング機器)から送信された振動情報の振幅が、あらかじめ定めた所定のレベルを超えた場合に、撮影許可コマンドを出力して本撮影を開始させる。
(Modification 7)
Based on the vibrations detected by the sensing devices 100A to 100E, the timing for starting the main photographing may be determined. The CPU 16 permits photographing when the amplitude of vibration information transmitted from a predetermined sensing device (for example, a sensing device corresponding to a speech waveform determined to be similar as described above) exceeds a predetermined level. Output a command to start actual shooting.

一般に、場を盛り上げている人物は、大きく揺動することが多い。このため、この人物が携帯するセンシング機器の振動が大きくなったタイミングはシャッターチャンスの可能性が高い。
また、人物が踊る場合、踊る人物が携帯するセンシング機器は大きな振動を検出する。このため、踊る人物が携帯するセンシング機器の振動が大きくなったタイミングはシャッターチャンスの可能性が高い。
In general, a person who excites a field often swings greatly. For this reason, there is a high possibility of a photo opportunity when the vibration of the sensing device carried by the person increases.
In addition, when a person dances, a sensing device carried by the dancing person detects a large vibration. For this reason, there is a high possibility of a photo opportunity when the vibration of the sensing device carried by the dancing person increases.

変形例7によれば、本撮影開始のタイミングの決定について、音声情報の音声レベルに基づく決定以外にも、振動情報の振動レベルに基づいて決定することができる。   According to the modified example 7, it is possible to determine the timing of starting the actual photographing based on the vibration level of the vibration information in addition to the determination based on the sound level of the sound information.

(第三の実施形態)
<使用場面の説明>
図9は、本発明の第三の実施形態による撮影システムを説明する図である。図9において、複数の高機能携帯電話機(いわゆるスマートフォン)100A、100B−1、100B−2によって撮影システムが構成される。
(Third embodiment)
<Explanation of usage>
FIG. 9 is a diagram for explaining an imaging system according to the third embodiment of the present invention. In FIG. 9, a plurality of high-function mobile phones (so-called smartphones) 100A, 100B-1, and 100B-2 constitute an imaging system.

本実施形態では、情報提供用のアプリを実行した高機能携帯電話機100(以降、センシング機器100B−1、100B−2と呼ぶ)を携帯する人物Oと人物Pが、それぞれセンシング機器100B−1、100B−2を用いて撮影を行う。センシング機器100B−1、100B−2は撮像部(カメラモジュール)を備えており、人物O、人物Pはそれぞれ、気に入った風景、他の人物、動物、草花等を撮影する。   In the present embodiment, a person O and a person P who carry a high-function mobile phone 100 (hereinafter referred to as sensing devices 100B-1 and 100B-2) that execute an information providing application are respectively connected to the sensing device 100B-1, Photographing is performed using 100B-2. The sensing devices 100B-1 and 100B-2 include an imaging unit (camera module), and the person O and the person P respectively photograph a favorite landscape, another person, an animal, a flower, and the like.

撮影処理を実行したセンシング機器100B−1、100B−2はそれぞれ、撮影時刻と、位置情報と、撮影した方位を示す情報とを、センシング情報として他の高機能携帯電話機へブロードキャスト送信する。他の高機能携帯電話機は、自動撮影用のアプリを実行した高機能携帯電話機100(以降、自動撮影装置100Aと呼ぶ)であり、上記人物O、人物Pと異なる人物Qが携帯している。なお、自動撮影装置100Aは、第二の実施形態で説明したカメラ51と自動雲台53として構成しても良い。   Each of the sensing devices 100B-1 and 100B-2 that has performed the imaging process broadcasts the imaging time, position information, and information indicating the imaging direction to other high-function mobile phones as sensing information. Another high-function mobile phone is a high-function mobile phone 100 (hereinafter referred to as an automatic photographing device 100A) that executes an application for automatic photographing, and a person Q different from the person O and the person P is carried by the person. The automatic photographing apparatus 100A may be configured as the camera 51 and the automatic camera platform 53 described in the second embodiment.

センシング機器100B−1、100B−2によって撮影が行われると、自動撮影装置100Aにはセンシング情報(例えば、撮影が行われたという情報)が集まる。自動撮影装置100Aは、集まったセンシング情報に基づいて、撮影すべき方向を決定する。例えば、より多くの撮影が行われている方向を撮影すべき方向とする。   When photographing is performed by the sensing devices 100B-1 and 100B-2, sensing information (for example, information that photographing is performed) is collected in the automatic photographing apparatus 100A. 100 A of automatic imaging devices determine the direction which should be image | photographed based on the collected sensing information. For example, a direction in which more shooting is performed is set as a direction to be shot.

自動撮影装置100Aはさらに、集まったセンシング情報に基づいて決定したタイミングで、自動撮影を行う。例えば、センシング情報がより多く集まってきた時点で撮影を行わせる。   The automatic photographing apparatus 100A further performs automatic photographing at a timing determined based on the collected sensing information. For example, photographing is performed when more sensing information is gathered.

上述したようなセンシング機器100B−1、100B−2および自動撮影装置100Aについて、さらに詳細に説明する。図10は、高機能携帯電話機100の要部構成を例示するブロック図である。図中に第一の実施形態、第二の実施形態の説明において用いた符号と同じ符号が存在する場合、本実施形態における説明を優先して適用する。   The sensing devices 100B-1 and 100B-2 and the automatic photographing device 100A as described above will be described in more detail. FIG. 10 is a block diagram illustrating the main configuration of the high-function mobile phone 100. When the same reference numerals as those used in the description of the first embodiment and the second embodiment exist in the drawing, the description in the present embodiment is applied with priority.

センシング機器100B−1、100B−2および自動撮影装置100Aは、高機能携帯電話機100として同じ構成を有する。すなわち、高機能携帯電話機100は、表示・入力部25と、制御部30と、カメラ26と、カメラ27と、通信部28と、センサ群29と、を有する。   Sensing devices 100B-1 and 100B-2 and automatic photographing apparatus 100A have the same configuration as high-function mobile phone 100. That is, the high-function mobile phone 100 includes a display / input unit 25, a control unit 30, a camera 26, a camera 27, a communication unit 28, and a sensor group 29.

表示・入力部25は、表示面22と、位置検出部23とを含む。表示面22は、操作面を兼ねる。位置検出部23は、指による接触位置を示す位置検出信号と、表示制御部33が有する表示情報(表示・入力部25の表示面22のどこに、何を表示させているかを示す情報)とに基づいて、表示・入力部25の画面上の対象(アイコンなど)を特定する。   The display / input unit 25 includes a display surface 22 and a position detection unit 23. The display surface 22 also serves as an operation surface. The position detection unit 23 includes a position detection signal indicating a contact position by a finger and display information (information indicating where and what is displayed on the display surface 22 of the display / input unit 25) of the display control unit 33. Based on this, an object (such as an icon) on the screen of the display / input unit 25 is specified.

制御部30は、プログラム実行部32と、表示制御部33と、通信制御部34と、不揮発性メモリ35とを含み、高機能携帯電話機100内の各部の動作を制御する。プログラム実行部32は、オペレーションシステム(OS)と呼ばれる基本プログラムを実行した上で、OS上で動作するアプリを不揮発性メモリ35から読み込んで実行する。なお、アプリを不揮発性メモリ35から読み込んで実行することを、単にアプリを起動すると称することもある。   The control unit 30 includes a program execution unit 32, a display control unit 33, a communication control unit 34, and a nonvolatile memory 35, and controls the operation of each unit in the high function mobile phone 100. The program execution unit 32 executes a basic program called an operation system (OS), and then reads and executes an application running on the OS from the nonvolatile memory 35. Note that reading an application from the nonvolatile memory 35 and executing the application may be simply referred to as starting the application.

プログラム実行部32は通常、表示・入力部25の位置検出部23によって特定された不図示のアイコンに対応づけられているアプリを実行する。プログラム実行部32がカメラ用のアプリを実行した場合、プログラム実行部32はカメラ26または27を起動させて撮影機能を発揮させる。プログラム実行部32が情報提供用のアプリを実行した場合、プログラム実行部32は高機能携帯電話機100にセンシング機器としての機能を発揮させる。プログラム実行部32が自動撮影用のアプリを実行した場合、プログラム実行部32はカメラ27を起動させて自動撮影機能を発揮させる。ユーザーは、表示・入力部25の表示面22に表示されているアイコンに対応する任意のアプリを起動させることが可能である。   The program execution unit 32 normally executes an application associated with an icon (not shown) specified by the position detection unit 23 of the display / input unit 25. When the program execution unit 32 executes the camera application, the program execution unit 32 activates the camera 26 or 27 to exhibit the photographing function. When the program execution unit 32 executes the information providing application, the program execution unit 32 causes the high-function mobile phone 100 to function as a sensing device. When the program execution unit 32 executes an application for automatic shooting, the program execution unit 32 activates the camera 27 to exhibit the automatic shooting function. The user can activate any application corresponding to the icon displayed on the display surface 22 of the display / input unit 25.

表示制御部33は、表示・入力部25の表示面22に、画像やテキスト、アイコンなどを表示させる。通信制御部34は、通信部28を介して行う外部機器との通信を制御する。不揮発性メモリ35は、上記OSやアプリ、および必要なデータなどを格納する。ユーザーは、不揮発性メモリ35に上記OS上で動作する任意のアプリを追加、削除することが可能である。   The display control unit 33 displays images, texts, icons, and the like on the display surface 22 of the display / input unit 25. The communication control unit 34 controls communication with an external device performed through the communication unit 28. The nonvolatile memory 35 stores the OS, applications, and necessary data. The user can add or delete any application that operates on the OS to the nonvolatile memory 35.

カメラ26は、ユーザー自身を撮影する際や、高機能携帯電話機100のテレビ電話機能を使用する際に、ユーザー撮影用カメラとして使用される。カメラ27は、高機能携帯電話機100で撮影機能・自動撮影機能を発揮する際に、撮影用カメラとして使用される。   The camera 26 is used as a user shooting camera when shooting the user himself / herself or when using the videophone function of the high-function mobile phone 100. The camera 27 is used as a shooting camera when the high function mobile phone 100 exhibits a shooting function / automatic shooting function.

通信部28は、通信制御部34からの指示に応じて無線通信を行う。通信部28は、不図示の無線LANのアクセスポイントを経由する通信や、不図示の携帯電話回線網を経由する通信の他に、他の高機能携帯電話機100などとの間で直接、近距離無線通信を行うことが可能に構成されている。近距離無線通信は、メッシュネットワークを構成するものを含む。   The communication unit 28 performs wireless communication in response to an instruction from the communication control unit 34. The communication unit 28 directly communicates with other high-function mobile phones 100 in addition to communication via a wireless LAN access point (not shown) or communication via a mobile phone network (not shown). The wireless communication can be performed. Near field communication includes what constitutes a mesh network.

センサ群29は、輝度センサ、音センサ(マイク)、角加速度センサ、加速度センサ、重力センサ、温度センサ、気圧センサ、湿度センサ、磁気センサ、方位センサ、位置検出部を含む。位置検出部は、屋外ではGPS衛星からの送信波に基づいて位置情報を取得し、屋内では、例えばIMESによる送信波に基づいて位置情報を得る。センサ群29は、制御部30からの要求に応じて検出した信号や取得した情報を、制御部30へ送出する。   The sensor group 29 includes a luminance sensor, a sound sensor (microphone), an angular acceleration sensor, an acceleration sensor, a gravity sensor, a temperature sensor, an atmospheric pressure sensor, a humidity sensor, a magnetic sensor, a direction sensor, and a position detection unit. The position detection unit acquires position information based on a transmission wave from a GPS satellite outdoors, and obtains position information based on a transmission wave based on IMES, for example, indoors. The sensor group 29 sends a signal detected in response to a request from the control unit 30 and acquired information to the control unit 30.

<センシング情報の送信>
情報提供用のアプリを実行したセンシング機器100B−1、100B−2は、それぞれ人物O、人物Pによってなされたレリーズ操作に応じて撮影処理を実行する。撮影処理自体は、カメラ用のアプリを実行した場合の通常の撮影処理と同様である。
<Transmission of sensing information>
The sensing devices 100B-1 and 100B-2 that have executed the information providing application execute shooting processing according to the release operation performed by the person O and the person P, respectively. The shooting process itself is the same as a normal shooting process when a camera application is executed.

撮影処理を実行したセンシング機器100B−1、100B−2はさらに、各機器の撮影時刻と、各機器の位置情報と、各機器の撮影した方位を示す情報とを、センシング情報として自動撮影装置100Aへブロードキャスト送信する。ブロードキャスト送信するのは、無線通信可能な範囲に自動撮影装置100A以外の他の自動撮影装置が存在する場合に、多くの自動撮影装置へセンシング情報を送るためである。   The sensing devices 100B-1 and 100B-2 that have performed the photographing process further use the photographing time of each device, the position information of each device, and information indicating the direction of photographing of each device as automatic sensing device 100A. Broadcast to. The broadcast transmission is performed in order to send sensing information to many automatic photographing devices when there is an automatic photographing device other than the automatic photographing device 100A within a range where wireless communication is possible.

<撮影方向の決定>
自動撮影用のアプリを実行した自動撮影装置100Aは、上述したように、センシング機器100B−1、100B−2から送信されたセンシング情報に基づいて、撮影方向を決定する。決定した撮影方向は、表示・入力部25の表示面22に表示させる。図11は、表示面22の表示画面を例示する図である。撮影方向の決定方法の詳細については後述する。
<Determination of shooting direction>
As described above, the automatic photographing apparatus 100A that has executed the automatic photographing application determines the photographing direction based on the sensing information transmitted from the sensing devices 100B-1 and 100B-2. The determined shooting direction is displayed on the display surface 22 of the display / input unit 25. FIG. 11 is a diagram illustrating a display screen of the display surface 22. Details of the method for determining the shooting direction will be described later.

図11(a)は、撮影方向(撮影すべき方向)と、自動撮影装置100Aのカメラ27の向きとが異なる場合の表示画面である。制御部30は、撮影方向(撮影すべき方向)が東の方位であるのに対し、カメラ27の向きが北の方位を向いている場合には、東へ向くようにメッセージを表示させる。   FIG. 11A shows a display screen when the shooting direction (direction to be shot) is different from the direction of the camera 27 of the automatic shooting device 100A. When the shooting direction (direction to be shot) is the east direction, the control unit 30 displays a message so that the camera 27 faces the east direction.

図11(b)は、撮影方向(撮影すべき方向)と、自動撮影装置100Aのカメラ27の向きとが一致している場合の表示画面である。制御部30は、カメラ27の向き(東の方位)が撮影方向(撮影すべき方向)と一致している場合、その旨を表示させる。   FIG. 11B is a display screen when the shooting direction (direction to be shot) matches the direction of the camera 27 of the automatic shooting device 100A. When the direction (east direction) of the camera 27 matches the shooting direction (direction to be shot), the control unit 30 displays that fact.

<撮影タイミングの決定>
自動撮影装置100Aはさらに、センシング機器100B−1、100B−2から送信されたセンシング情報に基づいて、所定のタイミング(例えば、センシング情報の受信回数が所定時間において所定回数(例えば直近の10秒間に10回)を超えた時点)で撮影処理を開始する。
<Determining shooting timing>
The automatic photographing apparatus 100A further determines a predetermined timing (for example, the number of times the sensing information is received within a predetermined time (for example, within the last 10 seconds) based on the sensing information transmitted from the sensing devices 100B-1 and 100B-2. The photographing process is started at the time when (10 times) is exceeded.

<フローチャートの説明>
自動撮影モードにおいて自動撮影装置100Aが実行する処理の流れと、センシング機器100B−1、100B−2が実行する処理の流れについて、図12に例示するフローチャートを参照して説明する。図12(a)は、センシング機器100B−1、100B−2が実行する処理を例示するフローチャートである。図12(b)は、自動撮影装置100Aが実行する処理を例示するフローチャートである。
<Description of flowchart>
A flow of processing executed by the automatic photographing apparatus 100A in the automatic photographing mode and a flow of processing executed by the sensing devices 100B-1 and 100B-2 will be described with reference to a flowchart illustrated in FIG. FIG. 12A is a flowchart illustrating processing executed by the sensing devices 100B-1 and 100B-2. FIG. 12B is a flowchart illustrating a process executed by the automatic photographing apparatus 100A.

<センシング機器側の処理>
センシング機器100B−1、100B−2は、それぞれユーザー操作によって情報提供用のアプリを実行すると、図12(a)による処理を開始する。センシング機器100B−1および100B−2は同じ処理を行うので、以降は、センシング機器100Bとして説明する。ステップS210において、センシング機器100Bは、情報提供撮影モードの処理を開始してステップS220へ進む。
<Processing on the sensing device side>
When the sensing devices 100B-1 and 100B-2 each execute an information providing application by a user operation, the processing illustrated in FIG. Since the sensing devices 100B-1 and 100B-2 perform the same processing, the following description will be made as the sensing device 100B. In step S210, the sensing device 100B starts the information providing shooting mode process and proceeds to step S220.

ステップS220において、センシング機器100Bは、レリーズ操作が行われたか否かを判定する。センシング機器100Bは、例えば表示・入力部25の表示面22に表示されているカメラアイコンがタップ操作された場合にステップS220を肯定判定してステップS230へ進み、カメラアイコンがタップ操作されない場合にはステップS230を否定判定してタップ操作を待つ。   In step S220, the sensing device 100B determines whether a release operation has been performed. For example, when the camera icon displayed on the display surface 22 of the display / input unit 25 is tapped, the sensing device 100B makes a positive determination in step S220 and proceeds to step S230. When the camera icon is not tapped, A negative determination is made in step S230 to wait for a tap operation.

ステップS230において、センシング機器100Bは、カメラ27による撮影処理を実行してステップS240へ進む。ステップS240において、センシング機器100Bは、センサ群29からセンシング情報(本例では、撮影時刻と、位置情報と、撮影した方位を示す情報)を取得してステップS250へ進む。   In step S230, the sensing device 100B executes a photographing process by the camera 27 and proceeds to step S240. In step S240, the sensing device 100B acquires sensing information (in this example, information indicating shooting time, position information, and shooting direction) from the sensor group 29, and proceeds to step S250.

ステップS250において、センシング機器100Bは通信部28へ指示を送り、センシング情報を送信させてステップS260へ進む。ステップS260において、センシング機器100Bは、情報提供撮影モードを終了するか否かを判定する。センシング機器100Bは、ユーザー操作によって情報提供用のアプリの終了が指示されると、ステップS260を肯定判定してステップS270へ進む。センシング機器100Bは、情報提供撮影モードが維持されている場合には、ステップS260を否定判定してステップS220へ戻る。ステップS220へ戻るセンシング機器100Bは、上述した処理を繰り返す。   In step S250, the sensing device 100B sends an instruction to the communication unit 28, transmits sensing information, and proceeds to step S260. In step S260, the sensing device 100B determines whether to end the information providing shooting mode. When the termination of the information providing application is instructed by a user operation, the sensing device 100B makes a positive determination in step S260 and proceeds to step S270. If the information providing shooting mode is maintained, the sensing device 100B makes a negative determination in step S260 and returns to step S220. The sensing device 100B returning to step S220 repeats the above-described processing.

ステップS270において、センシング機器100Bは、情報提供撮影モードの処理を終了して図12(a)による処理を終了する。   In step S270, the sensing device 100B ends the information providing shooting mode process and ends the process of FIG.

<自動撮影装置側の処理>
自動撮影装置100Aは、ユーザー操作によって自動撮影用のアプリを実行すると、図12(b)による処理を開始する。ステップS610において、自動撮影装置100Aは、自動撮影モードの処理を起動させてステップS620へ進む。
<Processing on the automatic photographing device>
When the automatic photographing apparatus 100A executes an automatic photographing application by a user operation, the automatic photographing apparatus 100A starts the process illustrated in FIG. In step S610, the automatic photographing apparatus 100A activates the automatic photographing mode process and proceeds to step S620.

ステップS620において、自動撮影装置100Aは、センシング機器100Bからセンシング情報を受信したか否かを判定する。自動撮影装置100Aは、センシング機器100Bからのセンシング情報を受信した場合にステップS620を肯定判定してステップS630へ進み、センシング機器100Bからのセンシング情報を受信しない場合にはステップS620を否定判定してステップS670へ進む。   In step S620, the automatic imaging device 100A determines whether sensing information has been received from the sensing device 100B. The automatic photographing apparatus 100A makes an affirmative decision in step S620 when receiving sensing information from the sensing device 100B and proceeds to step S630, and makes a negative decision in step S620 when not receiving sensing information from the sensing device 100B. Proceed to step S670.

ステップS630において、自動撮影装置100Aは、受信したセンシング情報を蓄積(例えば不揮発性メモリ35に記録)してステップS640へ進む。ステップS640において、自動撮影装置100Aは、センシング機器100Bによる複数回の撮影に対応するセンシング情報に基づいて撮影方向を決める。自動撮影装置100Aは、図9に例示するように、センシング機器100Bによる複数の撮影位置から、それぞれのセンシング機器100Bが撮影した方位へ伸ばした複数の直線が交差する位置Xを、撮影対象物の位置と推定する。図中の符号D1は、センシング機器100B−1によって撮影された方位を示し、図中の符号D2は、センシング機器100B−2によって撮影された方位を示す。   In step S630, the automatic photographing apparatus 100A accumulates the received sensing information (for example, records it in the nonvolatile memory 35), and proceeds to step S640. In step S640, the automatic photographing apparatus 100A determines a photographing direction based on sensing information corresponding to a plurality of photographings by the sensing device 100B. As illustrated in FIG. 9, the automatic image capturing device 100 </ b> A sets a position X where a plurality of straight lines extending from a plurality of image capturing positions by the sensing device 100 </ b> B to the direction imaged by each sensing device 100 </ b> B intersect. Estimated position. A symbol D1 in the figure indicates an orientation imaged by the sensing device 100B-1, and a symbol D2 in the diagram indicates an orientation imaged by the sensing device 100B-2.

自動撮影装置100Aはさらに、自動撮影装置100Aの位置検出部で検出される自己の位置から上記推定した位置Xへ向かう方位Dを、自動撮影装置100Aで撮影すべき方向として決定する。決定した方向は、図11に例示したように、表示・入力部25の表示面22に表示させる。   The automatic photographing apparatus 100A further determines a direction D from the own position detected by the position detection unit of the automatic photographing apparatus 100A to the estimated position X as a direction to be photographed by the automatic photographing apparatus 100A. The determined direction is displayed on the display surface 22 of the display / input unit 25 as illustrated in FIG.

自動撮影装置100Aのユーザーは、表示・入力部25の表示面22に表示される撮影すべき方向(上記方位D)と、自動撮影装置100Aのカメラ27の向き(方位センサで検出される方位)が一致するように、自動撮影装置100Aを構えればよい。   The user of the automatic image capturing device 100A displays the direction to be imaged (the above direction D) displayed on the display surface 22 of the display / input unit 25 and the direction of the camera 27 of the automatic image capturing device 100A (the direction detected by the direction sensor). It is only necessary to hold the automatic photographing apparatus 100A so that the two match.

ステップS650において、自動撮影装置100Aは、レリーズ許可を行うための所定条件を満たすか否かを判定する。自動撮影装置100Aは、例えば、センシング情報の受信回数が所定時間において所定回数(直近の10秒間に10回)を超えた時点を撮影タイミングとし、このときステップS650を肯定判定してステップS660へ進む。自動撮影装置100Aは、上記所定条件を満たさない場合は、ステップS650を否定判定してステップS620へ戻る。ステップS620へ戻る自動撮影装置100Aは、センシング情報の受信を継続する。   In step S650, automatic photographing apparatus 100A determines whether or not a predetermined condition for permitting release is satisfied. For example, the automatic photographing apparatus 100A sets the time when the number of sensing information receptions exceeds a predetermined number of times (10 times in the latest 10 seconds) in a predetermined time as an imaging timing, and at this time, an affirmative determination is made in step S650 and the process proceeds to step S660. . If the predetermined condition is not satisfied, automatic photographing apparatus 100A makes a negative determination in step S650 and returns to step S620. The automatic photographing apparatus 100A that returns to step S620 continues to receive the sensing information.

ステップS660において、自動撮影装置100Aは撮影処理を行う。自動撮影装置100Aは、自動撮影装置100Aの位置検出部で検出される自己位置から、上記推定した位置Xまでの距離を算出し、この距離に合わせて焦点調節を行ってから本撮影を行う。   In step S660, the automatic photographing apparatus 100A performs photographing processing. The automatic photographing apparatus 100A calculates the distance from the self-position detected by the position detection unit of the automatic photographing apparatus 100A to the estimated position X, and performs the main photographing after performing the focus adjustment according to this distance.

ステップS670において、自動撮影装置100Aは、自動撮影モードを終了するか否かを判定する。自動撮影装置100Aは、ユーザーにより終了操作が行われた場合、ステップS670を肯定判定してステップS680へ進む。自動撮影装置100Aは、終了操作が行われない場合には、ステップS670を否定判定してステップS620へ戻る。ステップS620へ戻る自動撮影装置100Aは、上述した処理を繰り返す。   In step S670, the automatic photographing apparatus 100A determines whether or not to end the automatic photographing mode. When the end operation is performed by the user, automatic photographing apparatus 100A makes an affirmative decision in step S670 and proceeds to step S680. If the ending operation is not performed, automatic photographing apparatus 100A makes a negative determination in step S670 and returns to step S620. The automatic photographing apparatus 100A returning to step S620 repeats the above-described processing.

ステップS680において、自動撮影装置100Aは、自動撮影モードの処理を終了させて図12(b)による処理を終了する。   In step S680, the automatic photographing apparatus 100A terminates the automatic photographing mode process and terminates the process illustrated in FIG.

本実施形態では、わかりやすく説明するためにセンシング機器100Bと自動撮影装置100Aとを分けて説明したが、センシング機器100Bが自動撮影装置100Aを兼ねるとともに、自動撮影装置100Aがセンシング機器100Bを兼ねるようにしてもよい。すなわち、情報提供用のアプリと自動撮影用のアプリの双方を実行する高機能携帯電話機100は、センシング機器100Bとしての機能と自動撮影装置100Aとしての機能とを備える。   In the present embodiment, the sensing device 100B and the automatic photographing device 100A are described separately for easy understanding. However, the sensing device 100B also serves as the automatic photographing device 100A, and the automatic photographing device 100A also serves as the sensing device 100B. It may be. That is, the high-function mobile phone 100 that executes both the information providing application and the automatic photographing application has a function as the sensing device 100B and a function as the automatic photographing apparatus 100A.

上述した第三の実施形態によれば、次の作用効果が得られる。
(1)自動撮影装置100Aは、センシング機器100Bから複数の信号を取得する通信部28と、取得した複数の信号を用いて、カメラ27の撮影に関するコマンドを出力する制御部30と、を備えるようにした。センシング機器100Bからの複数の信号を用いることで、自動撮影装置100Aでは直接得られない複数の信号を用いて、適切な撮影タイミングで撮影を行い得る。
According to 3rd embodiment mentioned above, the following effect is obtained.
(1) The automatic photographing apparatus 100A includes a communication unit 28 that acquires a plurality of signals from the sensing device 100B, and a control unit 30 that outputs a command related to shooting of the camera 27 using the acquired plurality of signals. I made it. By using a plurality of signals from the sensing device 100B, it is possible to perform imaging at an appropriate imaging timing using a plurality of signals that cannot be directly obtained by the automatic imaging apparatus 100A.

(2)上記複数の信号は、センシング機器100Bの位置と、センシング機器100Bがレリーズしたことを示す信号と、センシング機器100Bが撮影した方向を示す信号と、を含み、上記制御部30は、センシング機器100Bがレリーズしたことを示す信号に基づいて上記コマンドを出力するようにした。これにより、例えば、複数の信号の受信回数が直近の10秒間に10回を超えた時点で、撮影処理を行い得る。つまり、センシング機器100Bによって多くの撮影が行われた場合に、自動的に撮影を行わせることができる。 (2) The plurality of signals include a position of the sensing device 100B, a signal indicating that the sensing device 100B has been released, and a signal indicating a direction taken by the sensing device 100B. The above command is output based on a signal indicating that the device 100B has been released. Thereby, for example, when the number of receptions of the plurality of signals exceeds 10 times in the latest 10 seconds, the photographing process can be performed. That is, when a large number of images are taken by the sensing device 100B, the images can be automatically taken.

(3)上記制御部30は、複数のセンシング機器100Bの各位置から、センシング機器100Bがそれぞれ撮影した方向を示す複数の直線が交差する位置の方向を、カメラ27の撮影すべき方向とする。これにより、センシング機器100Bによる撮影方向を用いて、自動撮影装置100Aによる撮影方向を自動的に決めることができる。 (3) The control unit 30 sets the direction at which the plurality of straight lines indicating the directions photographed by the sensing device 100B from the positions of the plurality of sensing devices 100B intersect as the direction in which the camera 27 should photograph. Accordingly, the shooting direction by the automatic shooting device 100A can be automatically determined using the shooting direction by the sensing device 100B.

(変形例8)
上記センシング機器100B−1、100B−2、および自動撮影装置100Aは、それぞれ相互に通信を行うものであれば、情報提供用アプリ、自動撮影モード用のアプリを実行した別の高機能携帯電話機100などのモバイル機器や、ウェアラブル端末によって構成してもよい。
(Modification 8)
As long as the sensing devices 100B-1 and 100B-2 and the automatic photographing apparatus 100A can communicate with each other, another high-functional mobile phone 100 that executes an information providing application and an automatic photographing mode application. You may comprise by mobile devices, such as, and a wearable terminal.

(第四の実施形態)
<使用場面の説明>
本実施形態では、第三の実施形態の説明において図10に例示したものと同様の高機能携帯電話機100に、センシング機器としての機能と、情報表示装置としての機能と、を備える。センシング機能と情報表示機能とを備えた高機能携帯電話機100は複数台存在し、これらの高機能携帯電話機100を、複数のユーザーがそれぞれ携帯している。
(Fourth embodiment)
<Explanation of usage>
In the present embodiment, the high-function mobile phone 100 similar to that illustrated in FIG. 10 in the description of the third embodiment is provided with a function as a sensing device and a function as an information display device. There are a plurality of high-performance mobile phones 100 having a sensing function and an information display function, and a plurality of users carry these high-performance mobile phones 100 respectively.

高機能携帯電話機100を携帯するユーザーは、各自の高機能携帯電話機100を用いて撮影を行う。ユーザーはそれぞれ、気に入った風景、人物、動物、草花等を撮影する。撮影動作を行った携帯電話機100を、以降センシング機器100Bと呼ぶ。   Each user who carries the high-performance mobile phone 100 performs shooting using his / her high-function mobile phone 100. Each user shoots a favorite landscape, person, animal, flower, etc. The mobile phone 100 that has performed the photographing operation is hereinafter referred to as a sensing device 100B.

撮影処理を実行したセンシング機器100Bはそれぞれ、撮影時刻と、位置情報と、撮影に関して付随する情報とを、センシング情報として他の高機能携帯電話機100へブロードキャスト送信する。撮影に関して付随する情報には、撮影した画像を解析して得た被写体や撮影シーンの情報、ユーザーが入力したコメントなどが含まれる。ユーザーのプロフィール情報を含めてもよい。
ブロードキャスト送信する理由は、無線通信可能な範囲にセンシング機器100B以外の他の高機能携帯電話機100が存在する場合に、なるべく多くの高機能携帯電話機100へセンシング情報を送るためである。
Each sensing device 100B that has performed the imaging process broadcasts the imaging time, position information, and information associated with imaging to other high-function mobile phones 100 as sensing information. Information associated with shooting includes information on the subject and shooting scene obtained by analyzing the shot image, comments input by the user, and the like. User profile information may be included.
The reason for performing the broadcast transmission is to send sensing information to as many high-function mobile phones 100 as possible when there is another high-performance mobile phone 100 other than the sensing device 100B in a wireless communicable range.

センシング機器100Bから送信されたセンシング情報を受信した別の高機能携帯電話機100(以降、情報表示装置100Aと呼ぶ)は、センシング情報を受信した旨をユーザーに知らせる通知表示を行う。   Another high-function mobile phone 100 (hereinafter referred to as information display device 100A) that has received the sensing information transmitted from the sensing device 100B performs a notification display informing the user that the sensing information has been received.

図13は、情報表示装置100Aの表示・入力部25の表示面22に表示された通知表示画面を例示する図である。情報表示装置100Aは、地図画面上に現在地(自己の位置)とセンシング情報によって伝えられたセンシング機器100Bの撮影位置(センシング機器100Bの位置)とを表示する。図13においてマーク82、88、92、98、99は、それぞれセンシング機器100の撮影位置を示す。   FIG. 13 is a diagram illustrating a notification display screen displayed on the display surface 22 of the display / input unit 25 of the information display device 100A. The information display device 100A displays the current location (own position) and the shooting position of the sensing device 100B (position of the sensing device 100B) transmitted by the sensing information on the map screen. In FIG. 13, marks 82, 88, 92, 98, and 99 indicate the shooting positions of the sensing device 100.

情報表示装置100Aのユーザーが、例えばマーク98をタップ操作すると、情報表示装置100Aは、マーク98が示す撮影位置に対応するセンシング情報を地図に重ねて表示する。図13の例では、センシング情報として、撮影位置の他に、撮影日時、撮影者(センシング機器100Bのユーザー)のニックネーム、撮影画像のカテゴリ、撮影者が入力したコメントが含まれている。ここで、図13にはサムネイル画像を加えて図示したが、カテゴリやコメントの内容を分かり易くするために図示したものである。本実施形態ではサムネイル画像をセンシング情報に含めていないので、通常、通知表示としてサムネイル画像を表示しない。   When the user of the information display device 100A performs a tap operation on the mark 98, for example, the information display device 100A displays the sensing information corresponding to the shooting position indicated by the mark 98 on the map. In the example of FIG. 13, the sensing information includes the shooting date and time, the nickname of the photographer (user of the sensing device 100B), the category of the photographed image, and the comment input by the photographer. Here, FIG. 13 is shown with a thumbnail image added, but it is shown in order to make the contents of the category and comment easy to understand. In the present embodiment, since the thumbnail image is not included in the sensing information, the thumbnail image is not normally displayed as a notification display.

<フローチャートの説明>
情報表示装置100Aが実行する処理の流れについて、図14に例示するフローチャートを参照して説明する。図14において、情報表示装置100Aは、ユーザー操作によって情報表示用のアプリを実行すると、図14による処理を開始する。ステップS810において、情報表示装置100Aは、情報表示モードの処理を起動させてステップS820へ進む。
<Description of flowchart>
The flow of processing executed by the information display device 100A will be described with reference to the flowchart illustrated in FIG. In FIG. 14, when the information display device 100A executes an information display application by a user operation, the information display device 100A starts the process of FIG. In step S810, the information display device 100A activates the information display mode process and proceeds to step S820.

ステップS820において、情報表示装置100Aは、センシング機器100Bからセンシング情報を受信したか否かを判定する。情報表示装置100Aは、センシング機器100Bからのセンシング情報を受信した場合にステップS820を肯定判定してステップS830へ進み、センシング機器100Bからのセンシング情報を受信しない場合にはステップS820を否定判定してステップS860へ進む。   In step S820, the information display device 100A determines whether sensing information has been received from the sensing device 100B. The information display device 100A makes a positive determination in step S820 when receiving sensing information from the sensing device 100B and proceeds to step S830, and makes a negative determination in step S820 when it does not receive sensing information from the sensing device 100B. Proceed to step S860.

ステップS830において、情報表示装置100Aは、受信したセンシング情報を蓄積(例えば不揮発性メモリ35に記録)してステップS840へ進む。ステップS840において、情報表示装置100Aは、センシング機器100Bによる複数回の撮影に対応するセンシング情報に基づいて、所定の条件を満たす情報が存在するか否かを判定する。所定の条件は、例えば、あらかじめユーザーが指定しておいたカテゴリ(例えば、自然、花、動物、スポーツ、海、花火、クルマ、航空機、…など)や、コメント(「いいね」など)によって指定する。   In step S830, the information display device 100A accumulates the received sensing information (for example, records in the nonvolatile memory 35), and proceeds to step S840. In step S840, the information display device 100A determines whether there is information satisfying a predetermined condition based on sensing information corresponding to a plurality of times of shooting by the sensing device 100B. The predetermined condition is specified by, for example, a category (for example, nature, flower, animal, sports, sea, fireworks, car, aircraft, etc.) specified by the user or a comment (such as “Like”). To do.

情報表示装置100Aは、受信したセンシング情報に上記所定の条件を満たす情報が存在する場合にステップS840を肯定判定してステップS850へ進み、受信したセンシング情報の中に上記所定の条件を満たす情報が存在しない場合には、ステップS840を否定判定してステップS860へ進む。   When there is information satisfying the predetermined condition in the received sensing information, the information display device 100A makes an affirmative determination in step S840 and proceeds to step S850, and information that satisfies the predetermined condition is received in the received sensing information. If it does not exist, a negative determination is made in step S840 and the process proceeds to step S860.

情報表示装置100Aは、ステップS850において、表示・入力部25の表示面22に表示された通知表示画面(図13)を表示させてステップS860へ進む。通知表示画面を見た情報表示装置100Aのユーザーは、どこで撮影が行われたかを知ることができる。ユーザーが撮影対象を撮りたくなった場合には、地図に示された撮影位置を訪れるなどのアクションを起こすことが可能である。   In step S850, the information display apparatus 100A displays the notification display screen (FIG. 13) displayed on the display surface 22 of the display / input unit 25, and proceeds to step S860. The user of the information display device 100A who has seen the notification display screen can know where the shooting has been performed. When the user wants to take a picture, the user can take an action such as visiting the shooting position shown on the map.

ステップS860において、情報表示装置100Aは、表示を終了するか否かを判定する。情報表示装置100Aは、ユーザーにより終了操作が行われた場合、ステップS860を肯定判定してステップS870へ進む。情報表示装置100Aは、終了操作が行われない場合には、ステップS860を否定判定してステップS820へ戻る。ステップS820へ戻る情報表示装置100Aは、上述した処理を繰り返す。   In step S860, the information display device 100A determines whether to end the display. When the end operation is performed by the user, the information display apparatus 100A makes an affirmative determination in step S860 and proceeds to step S870. If the end operation is not performed, the information display device 100A makes a negative determination in step S860 and returns to step S820. The information display apparatus 100A returning to step S820 repeats the above-described processing.

ステップS870において、情報表示装置100Aは、情報表示モードの処理を終了させて図14による処理を終了する。   In step S870, the information display device 100A ends the process of the information display mode and ends the process of FIG.

<センシング機器側の処理>
センシング機器100Bの処理は、第三の実施形態の説明において例示した図12の左側のフローチャートによって表すことができる。ただし、図12のステップS240において取得するセンシング情報は、撮影時刻と、位置情報と、撮影に関して付随する情報とを、含む。撮影に関して付随する情報は、上述したように、センシング機器100Bが撮影した画像を解析して得た被写体や撮影シーンの情報、ユーザーが入力したコメントなどである。
<Processing on the sensing device side>
The processing of the sensing device 100B can be represented by the flowchart on the left side of FIG. 12 illustrated in the description of the third embodiment. However, the sensing information acquired in step S240 in FIG. 12 includes shooting time, position information, and information associated with shooting. As described above, information associated with shooting is information on a subject or a shooting scene obtained by analyzing an image shot by the sensing device 100B, a comment input by the user, and the like.

上記フローチャートの説明では、わかりやすく説明するためにセンシング機器100Bと情報表示装置100Aとを分けて説明したが、センシング機器100Bが情報表示装置100Aを兼ねるとともに、情報表示装置100Aがセンシング機器100Bを兼ねる点は、上述した通りである。すなわち、情報提供用のアプリと情報表示用のアプリの双方を実行する高機能携帯電話機100は、センシング機器100Bとしての機能と情報表示装置100Aとしての機能とを兼ね備える。   In the description of the flowchart, the sensing device 100B and the information display device 100A are described separately for easy understanding. However, the sensing device 100B also serves as the information display device 100A, and the information display device 100A also serves as the sensing device 100B. The points are as described above. That is, the high-function mobile phone 100 that executes both the information providing application and the information display application has both the function as the sensing device 100B and the function as the information display device 100A.

第四の実施形態において説明したセンシング機能および情報表示機能を備えた高機能携帯電話機100を用いると、次のような使用場面において作用効果が得られる。
(1)遊園地などでキャラクターショーが始まると、複数の人物が、センシング機器100Bを用いて出演中のキャラクターを数多く撮影する。撮影を行ったセンシング機器100Bは、キャラクターショーの開催を知らないで遊園地を訪れた人物が携帯する情報表示装置100Aに対してセンシング情報を通知する。これにより、キャラクターショーの開催を知らなかった人物は、情報表示装置100Aの表示・入力部25の表示面22に表示された通知表示画面をたよりにキャラクターショーの開催場所へ移動し得るから、キャラクターショーを見逃すことがなくなる。
When the high-function mobile phone 100 having the sensing function and the information display function described in the fourth embodiment is used, an effect can be obtained in the following usage scene.
(1) When a character show starts at an amusement park or the like, a plurality of persons shoot a large number of characters that are appearing using the sensing device 100B. The sensing device 100B that has taken the image notifies the information display device 100A carried by the person who visited the amusement park without knowing that the character show is being held. As a result, a person who did not know the hosting of the character show can move to the location of the character show based on the notification display screen displayed on the display surface 22 of the display / input unit 25 of the information display device 100A. Never miss a show.

(2)海浜公園などで花火大会が開演すると、複数の人物が、センシング機器100Bを用いて花火が打ち上げられた場面を数多く撮影する。撮影を行ったセンシング機器100Bは、海浜公園を訪れたものの、花火の鑑賞ポイントを知らない人物が携帯する情報表示装置100Aに対してセンシング情報を通知する。これにより、鑑賞ポイントを知らなかった人物は、情報表示装置100Aの表示・入力部25の表示面22に表示された通知表示画面をたよりに鑑賞ポイントへ移動することが可能になる。 (2) When a fireworks display is started in a beach park or the like, a plurality of people shoot many scenes where fireworks are launched using the sensing device 100B. The sensing device 100B that has taken the image notifies sensing information to the information display device 100A carried by a person who has visited the beach park but does not know the fireworks appreciation point. As a result, a person who does not know the viewing point can move to the viewing point according to the notification display screen displayed on the display surface 22 of the display / input unit 25 of the information display device 100A.

(3)結婚披露宴のとき、披露宴会場の庭へ出た新郎新婦の撮影会が行われると、複数の人物が、センシング機器100Bを用いて新郎新婦を数多く撮影する。撮影を行ったセンシング機器100Bは、同じ披露宴に出席しているものの、自己のテーブル席で食事や会話に夢中になっている人物が携帯する情報表示装置100Aに対してセンシング情報を通知する。これにより、当初撮影会に気づかなかった人物は、情報表示装置100Aの表示・入力部25の表示面22に表示された通知表示画面をたよりに新郎新婦の撮影チャンスを知り得るから、せっかくの撮影チャンスを逃してしまうことを防止できる。 (3) At the wedding reception, when a photo session for the bride and groom who went out to the garden of the reception banquet is held, a plurality of persons photograph a large number of the bride and groom using the sensing device 100B. The sensing device 100B that has taken the image notifies the information display device 100A carried by a person who is attending the same reception but carrying a meal or talking at his / her table seat. As a result, a person who has not noticed the photo session at the beginning can know the shooting chance of the bride and groom from the notification display screen displayed on the display surface 22 of the display / input unit 25 of the information display device 100A. Prevent missed opportunities.

(4)街なかで、芸能人などの著名人が歩いていた場合、著名人に気づいた人物が、センシング機器100Bを用いて著名人を撮影する。撮影を行ったセンシング機器100Bは、その著名人の近くにいるものの著名人に気づかない人物が携帯する情報表示装置100Aに対してセンシング情報を通知する。これにより、著名人に気づかなかった人物は、情報表示装置100Aの表示・入力部25の表示面22に表示された通知表示画面をたよりに、著名人の存在を知り得るから、せっかくの遭遇チャンスを逃してしまうことが少なくなる。 (4) When a celebrity such as a celebrity is walking in the city, a person who notices the celebrity photographs the celebrity using the sensing device 100B. Sensing device 100B that has taken the image notifies sensing information to information display device 100A carried by a person who is close to the celebrity but does not notice the celebrity. Thereby, since the person who has not noticed the celebrity can know the existence of the celebrity on the basis of the notification display screen displayed on the display surface 22 of the display / input unit 25 of the information display device 100A, there is a great chance of encounter. Less likely to miss

(5)ある場所で、モデル撮影会が行われていたとする。あらかじめ撮影会と知って出かけた複数の人物が、センシング機器100Bを用いてモデルを数多く撮影する。撮影を行ったセンシング機器100Bは、モデル撮影会と知らずに訪れた人物が携帯する情報表示装置100Aに対してセンシング情報を通知する。これにより、撮影会と知らずに訪れた人物は、情報表示装置100Aの表示・入力部25の表示面22に表示された通知表示画面を通じて、モデル撮影会であることや、モデルの名前等を知り得るから、何が開催されているのかがわからないということが少なくなる。 (5) Assume that a model photo shoot was held at a certain place. A plurality of persons who have known the photo session in advance take a number of models using the sensing device 100B. Sensing device 100B that has taken the image notifies sensing information to information display device 100A carried by the person who visited without knowing the model photo session. Thereby, the person who visited without knowing the photo session knows that it is a model photo session, the name of the model, and the like through the notification display screen displayed on the display surface 22 of the display / input unit 25 of the information display device 100A. So you do n’t know what ’s going on.

(6)人物Aが、撮影会場でカメラ撮影を行っている人物Bに出会ったとき、人物Bが撮影に用いたセンシング機器100Bは、人物Aが携帯する情報表示装置100Aに対してセンシング情報を通知する。これにより、人物Aは、情報表示装置100Aの表示・入力部25の表示面22に表示された通知表示画面を通じて、人物Bがどのような人かを知り得る。つまり、センシング機能および情報表示機能を備えた高機能携帯電話機100を使って、他人に対して自己紹介を行い得る。 (6) When the person A meets the person B who is shooting the camera at the shooting venue, the sensing device 100B used for the shooting by the person B sends sensing information to the information display device 100A carried by the person A. Notice. Thereby, the person A can know what the person B is through the notification display screen displayed on the display surface 22 of the display / input unit 25 of the information display apparatus 100A. That is, using the high-function mobile phone 100 having a sensing function and an information display function, self-introduction can be performed to others.

(7)人物Pが、見ず知らずの人物Qによって撮影されたとき、人物Qが撮影に用いたセンシング機器100Bは、人物Pが携帯する情報表示装置100Aに対してセンシング情報を通知する。これにより、人物Pは、情報表示装置100Aの表示・入力部25の表示面22に表示された通知表示画面を通じて、人物Qによって撮影されたという事実を知り得る。つまり、センシング機能および情報表示機能を備えた高機能携帯電話機100を使って、隠し撮り防止を行い得る。 (7) When the person P is photographed by an unknown person Q, the sensing device 100B used for photographing by the person Q notifies the information display device 100A carried by the person P of sensing information. Thereby, the person P can know the fact that the person P was photographed through the notification display screen displayed on the display surface 22 of the display / input unit 25 of the information display device 100A. That is, it is possible to prevent hidden shooting using the high-function mobile phone 100 having a sensing function and an information display function.

(変形例9)
上記高機能携帯電話機100は、それぞれ相互に通信を行うものであれば、センシング機能および情報表示機能を備えたモバイル機器や、ウェアラブル端末によって構成してもよい。
(Modification 9)
The high-function mobile phone 100 may be configured by a mobile device having a sensing function and an information display function, or a wearable terminal as long as they communicate with each other.

(変形例10)
上述した各実施形態におけるカメラ51、高機能携帯電話機100、またはタブレット端末などのモバイル機器へのプログラムの供給は、例えば図15に例示するように、プログラムを格納したパーソナルコンピュータ205から赤外線通信や近距離無線通信によってモバイル機器へ送信することができる。
(Modification 10)
The program is supplied to the mobile device such as the camera 51, the high-function mobile phone 100, or the tablet terminal in each of the above-described embodiments, for example, as illustrated in FIG. It can be transmitted to the mobile device by distance wireless communication.

パーソナルコンピュータ205に対するプログラムの供給は、プログラムを格納したCD−ROMなどの記憶媒体204をパーソナルコンピュータ205にセットして行ってもよいし、ネットワークなどの通信回線201を経由する方法でパーソナルコンピュータ205へローディングしてもよい。通信回線201を経由する場合は、当該通信回線に接続されたサーバー202のストレージ装置203などにプログラムを格納しておく。   The program may be supplied to the personal computer 205 by setting a storage medium 204 such as a CD-ROM storing the program in the personal computer 205, or to the personal computer 205 by a method via the communication line 201 such as a network. You may load. When passing through the communication line 201, the program is stored in the storage device 203 of the server 202 connected to the communication line.

また、通信回線201に接続された無線LANのアクセスポイント(不図示)を経由して、モバイル機器へプログラムを直接送信することもできる。さらに、プログラムを格納したメモリカードなどの記憶媒体204Bをモバイル機器にセットしてもよい。このように、プログラムは記憶媒体や通信回線を介する提供など、種々の形態のコンピュータプログラム製品として供給できる。   The program can also be directly transmitted to the mobile device via a wireless LAN access point (not shown) connected to the communication line 201. Further, a storage medium 204B such as a memory card storing the program may be set in the mobile device. In this way, the program can be supplied as various forms of computer program products such as provision via a storage medium or a communication line.

上記では、種々の実施の形態および変形例を説明したが、本発明はこれらの内容に限定されるものではない。本発明の技術的思想の範囲内で考えられるその他の態様も、本発明の範囲内に含まれる。
また、各実施形態やその変形例の一つもしくは複数を、各実施形態と組み合わせることも可能である
Although various embodiments and modifications have been described above, the present invention is not limited to these contents. Other embodiments conceivable within the scope of the technical idea of the present invention are also included in the scope of the present invention.
Moreover, it is also possible to combine one or more of each embodiment and its modification with each embodiment.

1、A〜E…人物
16…CPU
18…CPU、送受信回路
19…通信制御回路
20…操作部材
27…カメラ
28…通信部
30…制御部
51…カメラ
100…センシング機器、高機能携帯電話機
100A…自動撮影装置
100A〜100E…センシング機器
1, A to E ... person 16 ... CPU
DESCRIPTION OF SYMBOLS 18 ... CPU, transmission / reception circuit 19 ... Communication control circuit 20 ... Operation member 27 ... Camera 28 ... Communication part 30 ... Control part 51 ... Camera 100 ... Sensing device, high-functional mobile phone 100A ... Automatic photographing device 100A-100E ... Sensing device

Claims (10)

被写体が有するセンサによる、少なくとも音に関するセンシング信号を取得する取得部と、
前記取得された音に関するセンシング信号を用いて、前記被写体を撮像するカメラの画角を決定する制御部と、
を備える電子機器。
An acquisition unit that acquires at least a sensing signal related to sound by a sensor of the subject;
A control unit that determines an angle of view of a camera that images the subject using a sensing signal related to the acquired sound;
Electronic equipment comprising.
請求項1に記載の電子機器において、
前記制御部は、前記音の信号パターンと基準パターンとの比較に基づいて前記画角を決定する電子機器。
The electronic device according to claim 1,
The control unit is an electronic device that determines the angle of view based on a comparison between the signal pattern of the sound and a reference pattern.
請求項1に記載の電子機器において、
前記取得部は、複数の前記センサでそれぞれセンシングされた複数のセンシング信号を取得し、
前記制御部は、前記複数のセンシング信号に含まれる複数の音のうち類似する音の信号パターンに基づいて前記画角を決定する電子機器。
The electronic device according to claim 1,
The acquisition unit acquires a plurality of sensing signals respectively sensed by the plurality of sensors,
The control unit is an electronic device that determines the angle of view based on a signal pattern of a similar sound among a plurality of sounds included in the plurality of sensing signals.
請求項3に記載の電子機器において、
前記センシング信号は、前記センサの位置をさらに含み、
前記制御部は、前記類似する音がセンシングされた複数の位置に基づいて、前記カメラの画角を決定する電子機器。
The electronic device according to claim 3,
The sensing signal further includes a position of the sensor,
The control unit is an electronic device that determines an angle of view of the camera based on a plurality of positions where the similar sound is sensed.
請求項4に記載の電子機器において、
前記制御部は、前記類似する音がセンシングされた複数の位置を画角内に含むように前記カメラの画角を制御する電子機器。
The electronic device according to claim 4,
The control unit is an electronic device that controls the angle of view of the camera so that the angle of view includes a plurality of positions where the similar sound is sensed.
請求項1から5のいずれか一項に記載の電子機器において、
前記被写体を撮像するカメラをさらに備える電子機器。
The electronic device according to any one of claims 1 to 5,
An electronic device further comprising a camera that images the subject.
被写体が有するセンサによる、少なくとも音に関するセンシング信号を取得する処理と、
前記取得された音に関するセンシング信号を用いて、前記被写体を撮像するカメラの画角を決定する処理と、
をコンピュータに実行させるプログラム。
Processing for obtaining at least a sensing signal related to sound by a sensor of the subject;
Processing for determining an angle of view of a camera that images the subject using a sensing signal related to the acquired sound;
A program that causes a computer to execute.
モバイル機器から複数の音に関する信号を取得する取得部と、
前記取得された複数の信号を用いて、カメラが撮影する画角を決定する制御部と、
を備える電子機器。
An acquisition unit for acquiring signals relating to a plurality of sounds from a mobile device;
A control unit that determines an angle of view captured by the camera using the plurality of acquired signals;
Electronic equipment comprising.
モバイル機器から複数の音に関する信号を取得する処理と、
前記取得した複数の音に関する信号を用いて、カメラが撮影する画角を決定する処理と、
をコンピュータに実行させるプログラム。
Processing to obtain signals related to multiple sounds from a mobile device;
Processing for determining an angle of view taken by the camera, using the signals related to the plurality of acquired sounds;
A program that causes a computer to execute.
被写体が有する複数のセンサによる、音を含む複数のセンシング信号を取得する取得部と、
前記複数のセンシング信号に含まれる複数の音のうちの類似する音の信号パターンに基づいて、撮影タイミングを決定する制御部と、
を備える電子機器。
An acquisition unit for acquiring a plurality of sensing signals including sound by a plurality of sensors included in the subject;
A control unit that determines shooting timing based on a signal pattern of a similar sound among a plurality of sounds included in the plurality of sensing signals;
Electronic equipment comprising.
JP2019123749A 2019-07-02 2019-07-02 Electronic devices and programs Active JP6750714B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2019123749A JP6750714B2 (en) 2019-07-02 2019-07-02 Electronic devices and programs
JP2020127060A JP6950793B2 (en) 2019-07-02 2020-07-28 Electronics and programs

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019123749A JP6750714B2 (en) 2019-07-02 2019-07-02 Electronic devices and programs

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2014211033A Division JP2016082356A (en) 2014-10-15 2014-10-15 Electronic apparatus and program

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2020127060A Division JP6950793B2 (en) 2019-07-02 2020-07-28 Electronics and programs

Publications (2)

Publication Number Publication Date
JP2019208225A true JP2019208225A (en) 2019-12-05
JP6750714B2 JP6750714B2 (en) 2020-09-02

Family

ID=68768659

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019123749A Active JP6750714B2 (en) 2019-07-02 2019-07-02 Electronic devices and programs

Country Status (1)

Country Link
JP (1) JP6750714B2 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08163522A (en) * 1994-11-30 1996-06-21 Canon Inc Video conference system and terminal equipment
JP2008131379A (en) * 2006-11-21 2008-06-05 Yamaha Corp Distribution system and terminal device
JP2009118229A (en) * 2007-11-07 2009-05-28 Nec Saitama Ltd Cellular phone of paired constitution
JP2010177898A (en) * 2009-01-28 2010-08-12 Kyocera Corp Mobile terminal and control method of mobile terminal

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08163522A (en) * 1994-11-30 1996-06-21 Canon Inc Video conference system and terminal equipment
JP2008131379A (en) * 2006-11-21 2008-06-05 Yamaha Corp Distribution system and terminal device
JP2009118229A (en) * 2007-11-07 2009-05-28 Nec Saitama Ltd Cellular phone of paired constitution
JP2010177898A (en) * 2009-01-28 2010-08-12 Kyocera Corp Mobile terminal and control method of mobile terminal

Also Published As

Publication number Publication date
JP6750714B2 (en) 2020-09-02

Similar Documents

Publication Publication Date Title
CN111837174B (en) Head-mounted display, head-mounted display cooperation system and method thereof
US9007464B2 (en) Photographing apparatus, photographing system, photographing method, and program stored in non-transitory medium in photographing apparatus
US8976270B2 (en) Imaging device and imaging device control method capable of taking pictures rapidly with an intuitive operation
US8817134B2 (en) Imaging control device, subject detection method, and program
JP2011511348A (en) Camera system and method for sharing pictures based on camera perspective
JP5434339B2 (en) Imaging control apparatus, imaging system, imaging method, program
CN106575027A (en) Image pickup device and tracking method for subject thereof
KR20130069123A (en) Image pickup apparatus, method for providing composition of pickup and computer-readable recording medium
US8692666B2 (en) Communication system and communication terminal
JP2008193196A (en) Imaging device and specified voice output method
US11750926B2 (en) Video image stabilization processing method and electronic device
WO2013084337A1 (en) Image pickup apparatus, control method thereof, and program
JP6950793B2 (en) Electronics and programs
US20160088219A1 (en) Image capture apparatus which controls frame rate based on motion of object, information transmission apparatus, image capture control method, information transmission method, and recording medium
KR20160002330A (en) Camera controlling apparatus for controlling camera operation
JP2016082356A (en) Electronic apparatus and program
JP2016213548A (en) Imaging system, imaging method, detector and imaging device
KR101814714B1 (en) Method and system for remote control of camera in smart phone
JP6750714B2 (en) Electronic devices and programs
US11245830B2 (en) Image capture apparatus and control method for same, and storage medium
JP2017215858A (en) Wearable apparatus, information processing device, photographing device, control method of those, and program
JP2020042262A (en) Imaging apparatus and control method thereof, program, and storage medium
US11595565B2 (en) Image capturing apparatus, method for controlling the same, and recording medium for automatic image capturing of a subject
JP2003283976A (en) Medium information recording apparatus and its method
JP2012216885A (en) Imaging apparatus and image sharing system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190704

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200225

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200303

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20200422

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200701

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200714

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200727

R150 Certificate of patent or registration of utility model

Ref document number: 6750714

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250