JP6380634B2 - Image reproducing apparatus, image reproducing method and program - Google Patents

Image reproducing apparatus, image reproducing method and program Download PDF

Info

Publication number
JP6380634B2
JP6380634B2 JP2017169567A JP2017169567A JP6380634B2 JP 6380634 B2 JP6380634 B2 JP 6380634B2 JP 2017169567 A JP2017169567 A JP 2017169567A JP 2017169567 A JP2017169567 A JP 2017169567A JP 6380634 B2 JP6380634 B2 JP 6380634B2
Authority
JP
Japan
Prior art keywords
display
image
established
shooting
imaging condition
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017169567A
Other languages
Japanese (ja)
Other versions
JP2018061239A (en
Inventor
太 山本
太 山本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to US15/703,643 priority Critical patent/US10334160B2/en
Priority to CN201710879591.8A priority patent/CN107872637B/en
Publication of JP2018061239A publication Critical patent/JP2018061239A/en
Application granted granted Critical
Publication of JP6380634B2 publication Critical patent/JP6380634B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Description

本発明は、特にカメラの有する機能により自動撮影した画像を再生して表示させる際に好適な技術に関する。   The present invention relates to a technique particularly suitable for reproducing and displaying an image automatically captured by a function of a camera.

近年、複数のセンサを搭載したウエアラブルカメラが登場し、センサの計測結果に応じて自動撮影する技術が知られている。   In recent years, wearable cameras equipped with a plurality of sensors have appeared, and a technique for automatically capturing images according to the measurement results of the sensors is known.

例えば撮影側の技術としては、特開2016−119624号公報に記載されているように、自転車による走行中の風景をより適切に撮影するべく、自転車の運転者に関連する加速度、各速度、気圧等の物理量を計測し、計測した物理量に基づいて運転者の状態に関する評価を行ない、その評価結果に応じて自動撮影を制御するような技術が提案されている。   For example, as a technique on the photographing side, as described in JP-A-2006-119624, acceleration, various speeds, and atmospheric pressures related to a bicycle driver in order to photograph a landscape while traveling by bicycle more appropriately. A technique has been proposed in which a physical quantity such as the above is measured, the driver's state is evaluated based on the measured physical quantity, and automatic photographing is controlled according to the evaluation result.

また、再生側の技術としては、特開2010−259028号公報に記載されているように、ドライブレコーダで自動撮影した画像を、複数フレーム分ウインドウ内に並べて、撮影が行われた契機をフレーム画像に対応付けて表示する技術が提案されている。撮影が行われた契機とは、例えば加速度センサが所定の閾値を超えた時に撮影された画像であることを示し、加速度を示すマーク「G」と加速度値をフレーム画像と対応付けて再生する。撮影契機は加速度のほかにも多数あり、外部機器から指示を受信した場合や、緊急スイッチが押された場合等がある。ユーザは、これらの条件を絞り込んでサムネイル画像を再生させることができる。再生されている複数のフレーム画像には、撮影契機を示すマーク「G」と加速度値が表示されているので、どういう状態で撮影されたかが分かる。   Further, as a technique on the reproduction side, as described in Japanese Patent Application Laid-Open No. 2010-259028, an image automatically captured by a drive recorder is arranged in a window for a plurality of frames, and an opportunity for capturing the image is taken as a frame image. There has been proposed a technique for displaying in association with each other. The opportunity for taking a picture indicates, for example, that the picture is taken when the acceleration sensor exceeds a predetermined threshold, and the mark “G” indicating acceleration and the acceleration value are reproduced in association with the frame image. There are many shooting opportunities in addition to acceleration, such as when an instruction is received from an external device or when an emergency switch is pressed. The user can play back thumbnail images by narrowing down these conditions. Since the mark “G” indicating the shooting opportunity and the acceleration value are displayed in the plurality of reproduced frame images, it is possible to know in what state the image was shot.

また特開2013−117998号公報には、ドライブレコーダにおいて地図上に違反や危険運転のマークを表示する技術が提案されている。すなわち、常時循環撮影している動画像から、所定のトリガ条件を満たした場合の画像をメモリカードに記録する。トリガ条件とは、加速度センサから検出した重力加速度情報、車速センサから検出した速度情報等で、交通違反や危険運転に相当する値をトリガ条件としている。従って、地図上のどこで速度超過をしたか、急加速をしたか、急減速をしたか、等が分かりやすいようにマークとともにその値が表示される。   Japanese Patent Application Laid-Open No. 2013-117998 proposes a technique for displaying a violation or dangerous driving mark on a map in a drive recorder. That is, an image in a case where a predetermined trigger condition is satisfied is recorded on a memory card from a moving image that is continuously photographed. The trigger conditions are gravity acceleration information detected from an acceleration sensor, speed information detected from a vehicle speed sensor, and the like, and values corresponding to traffic violations and dangerous driving are used as trigger conditions. Therefore, the value is displayed together with the mark so that it can be easily understood where the speed has been exceeded, sudden acceleration, sudden deceleration, etc. on the map.

特開2016−119624号公報JP-A-2006-119624 特開2010−259028号公報JP 2010-259028 A 特開2013−117998号公報JP 2013-117998 A

上述した特許文献に記載された技術を含めて、各種センサによるシャッタトリガを設定して撮影を自動化することで、ユーザの負担を軽減しながら、ユーザの意図したタイミングでの画像を取得することが可能となっている。
このような自動撮影では、非常に多くの撮影がなされるため、自分にとって有用な画像にたどり着くのに手間がかかるという課題があった。ユーザが視認しながらのシャッタボタン操作により意図して撮影した画像ではないため、特に複数のシャッタトリガを設定していた場合には、ユーザが再生時に画像を見ても、その画像が何をシャッタトリガとして撮影されたものであるのかを把握できない、という事態も十分起こりうる。
Including the techniques described in the above-mentioned patent documents, it is possible to acquire images at the timing intended by the user while reducing the burden on the user by setting shutter triggers by various sensors and automating shooting. It is possible.
In such automatic shooting, since a large number of shootings are performed, there is a problem that it takes time to arrive at an image useful for the user. Since this is not an image that was intentionally shot by the user operating the shutter button while visually recognizing, even if a plurality of shutter triggers are set, even if the user views the image during playback, what the shutter does There may be a situation where it is impossible to know whether the image was taken as a trigger.

本発明は上記のような実情に鑑みてなされたもので、その目的とするところは、自動撮影により得られた画像が何をシャッタトリガとして撮影されたものであるのかを容易に把握することが可能で、ユーザが簡易に所望の画像を選別可能である画像再生装置、画像再生方法及びプログラムを提供することにある。 The present invention has been made in view of the above circumstances, and the purpose of the present invention is to easily grasp what an image obtained by automatic photographing is taken as a shutter trigger. possible, the image reproducing apparatus user is capable selecting a desired image simply to provide a picture image reproducing method and a program.

本発明の一態様は、画像再生装置であって、作動及び停止を設定可能な複数のセンシング機能に対応して、作動を設定されていたセンシング機能のセンシング結果から、所定の撮影条件が成立したときに自動撮影された撮影画像情報を、その成立した撮影条件またはその成立した撮影条件に使用したセンシング機能を示すトリガ情報とともに取得する取得手段と、上記取得手段により取得した自動撮影された撮影画像情報を、その成立した撮影条件またはその成立した撮影条件に使用したセンシング機能を示すトリガ情報と関連付けて記憶する記憶手段と、上記記憶手段に記憶されている撮影画像情報を表示する表示手段と、上記表示手段に表示される撮影画像情報と、上記記憶手段に記憶されている上記自動撮影された撮影画像情報の成立した撮影条件またはその成立した撮影条件に使用したセンシング機能を示すトリガ情報を関連付けて、上記表示手段に表示させる表示制御手段と、を備え、上記取得手段は、撮影位置情報を取得し、上記表示手段は、地図を表示し、上記表示制御手段は、上記取得手段で取得したトリガ情報を、上記地図中の対応する位置と関連付けて上記表示手段で表示させる。 One aspect of the present invention is an image reproduction device, and a predetermined imaging condition is established from a sensing result of a sensing function that has been set to operate in response to a plurality of sensing functions that can be set to operate and stop. An acquisition unit that acquires captured image information that has been automatically captured together with trigger information that indicates the established imaging condition or the sensing function used for the established imaging condition, and an automatically captured captured image that is acquired by the acquisition unit Storage means for storing information in association with the established photographing condition or trigger information indicating the sensing function used for the established photographing condition, and display means for displaying the photographed image information stored in the storage means, Establishment of the photographed image information displayed on the display means and the automatically photographed image information stored in the storage means Imaging conditions or in association with trigger information indicating a sensing function used in its formation the imaging conditions, and a display control means for displaying on the display means, the acquisition means acquires the shooting position information, the display The means displays a map, and the display control means causes the display means to display the trigger information acquired by the acquisition means in association with the corresponding position in the map.

本発明によれば、自動撮影により得られた画像が何をシャッタトリガとして撮影されたものであるのかを容易に把握することが可能で、ユーザが簡易に所望の画像を選別可能となる。   According to the present invention, it is possible to easily grasp what an image obtained by automatic photographing is taken using a shutter trigger, and a user can easily select a desired image.

本発明の第1の実施形態に係るデジタルカメラの機能回路の構成を示すブロック図。1 is a block diagram showing a configuration of a functional circuit of a digital camera according to a first embodiment of the present invention. 同実施形態に係るスマートフォンの回路構成を示すブロック図。The block diagram which shows the circuit structure of the smart phone which concerns on the embodiment. 同実施形態に係る上記デジタルカメラの自動撮影設定を行なうスマートフォンでの画面を例示する図。The figure which illustrates the screen in the smart phone which performs automatic imaging | photography setting of the said digital camera which concerns on the embodiment. 同実施形態に係る分離型デジタルカメラでの自動撮影動作時の処理内容を示すフローチャート。6 is a flowchart showing the processing contents during an automatic photographing operation in the separation type digital camera according to the embodiment. 同実施形態に係るスマートフォンの画像表示用アプリケーションプログラムの処理内容を示すフローチャート。The flowchart which shows the processing content of the application program for image display of the smart phone which concerns on the embodiment. 同実施形態に係るスマートフォンでのアルバムトップの一覧画像の表示例を示す図。The figure which shows the example of a display of the list image of the album top with the smart phone which concerns on the same embodiment. 同実施形態に係るスマートフォンでの画像表示例を示す図。The figure which shows the example of an image display with the smart phone which concerns on the same embodiment. 本発明の第2の実施形態に係るセンサ端末とデジタルカメラの各機能回路の構成を示すブロック図。The block diagram which shows the structure of each functional circuit of the sensor terminal and digital camera which concern on the 2nd Embodiment of this invention. 同実施形態に係るデジタルカメラでの画像撮影時の処理内容を示すフローチャート。6 is a flowchart showing the processing content at the time of image capturing by the digital camera according to the embodiment. 同実施形態に係るスマートフォンでのアルバムトップの一覧画像の表示処理時の内容を示すフローチャート。The flowchart which shows the content at the time of the display process of the list image of the album top with the smart phone which concerns on the same embodiment.

[第1の実施形態]
以下、本発明の第1の実施形態について、詳細に説明する。
本実施形態では、デジタルカメラ専用のアプリケーションプログラムを予めインストールしたスマートフォンにおいて撮影条件を設定し、設定した内容をスマートフォンからデジタルカメラに転送する。デジタルカメラでの自動撮影により得られた画像データ群は、随時上記スマートフォンに転送して記録する。当該スマートフォンでは、上記アプリケーションプログラムの一機能として、記録した画像をアルバムとして閲覧表示することが可能となる。
[First Embodiment]
Hereinafter, a first embodiment of the present invention will be described in detail.
In the present embodiment, shooting conditions are set in a smartphone in which an application program dedicated to the digital camera is installed in advance, and the set contents are transferred from the smartphone to the digital camera. A group of image data obtained by automatic photographing with a digital camera is transferred to the smartphone and recorded as needed. The smartphone can browse and display recorded images as an album as a function of the application program.

図1は、デジタルカメラ10の機能回路の構成を示すブロック図である。このデジタルカメラ10は分離型であり、カメラ部10Aと、本体部10Bとが、近距離無線通信規格であるBluetooth(登録商標)技術により無線接続される。   FIG. 1 is a block diagram illustrating a configuration of a functional circuit of the digital camera 10. The digital camera 10 is a separation type, and the camera unit 10A and the main unit 10B are wirelessly connected by Bluetooth (registered trademark) technology which is a short-range wireless communication standard.

カメラ部10Aにおいて、撮影部11、GPS(Global Positioning System:全地球測位システム)レシーバ12、地磁気センサ13、3軸加速度センサ14、ジャイロセンサ15、撮影制御部16、近距離無線通信部17、気圧センサ18、及び操作部19が、バスB1を介して相互接続される。   In the camera unit 10A, an imaging unit 11, a GPS (Global Positioning System) receiver 12, a geomagnetic sensor 13, a triaxial acceleration sensor 14, a gyro sensor 15, an imaging control unit 16, a short-range wireless communication unit 17, an atmospheric pressure The sensor 18 and the operation unit 19 are interconnected via the bus B1.

撮影部11は、レンズ光学系と、例えばCMOSイメージセンサによる固体撮像素子、及びそれらの各駆動回路、及びA/D変換部を含んで構成され、撮影により得られ、デジタル化された画像データがバスB1を介して撮影制御部16へ送出される。   The imaging unit 11 includes a lens optical system, a solid-state imaging device using, for example, a CMOS image sensor, their respective drive circuits, and an A / D conversion unit, and digitized image data obtained by imaging. The data is sent to the imaging control unit 16 via the bus B1.

GPSレシーバ12は、GPSアンテナ20を介して、図示しない複数、少なくとも4つ以上のGPS衛星からの到来電波を受信し、所定の演算を実施して現在位置の緯度、経度及び高度と現在時刻の情報を算出し、算出結果を撮影制御部16へ送出する。   The GPS receiver 12 receives incoming radio waves from a plurality of GPS satellites (not shown) and at least four GPS satellites via the GPS antenna 20, and performs predetermined calculations to calculate the latitude, longitude, altitude and current time of the current position. Information is calculated, and the calculation result is sent to the imaging control unit 16.

地磁気センサ13は、その地点における磁北方向により撮影部11の上記レンズ光学系が対向している方位の情報を検出する。   The geomagnetic sensor 13 detects information on the direction in which the lens optical system of the imaging unit 11 is facing, based on the magnetic north direction at that point.

3軸加速度センサ14は、互いに直交する3軸方向それぞれの加速度を検出するもので、重力加速度の方向により、カメラ部10Aの姿勢を検出できる。   The triaxial acceleration sensor 14 detects acceleration in each of three axial directions orthogonal to each other, and can detect the posture of the camera unit 10A based on the direction of gravitational acceleration.

ジャイロセンサ15は、振動型ジャイロスコープで構成され、上記3軸加速度センサ14の出力と組み合わせて、このカメラ部10Aを装着しているユーザの動作を解析するのに用いる。   The gyro sensor 15 is composed of a vibration gyroscope, and is used in combination with the output of the triaxial acceleration sensor 14 to analyze the operation of the user wearing the camera unit 10A.

撮影制御部16は、カメラ部10A側の動作を統括して制御するプロセッサとその動作プログラムを記録したプログラムメモリ、当該プログラムを実行するためのワークメモリ等を含んで構成される。   The imaging control unit 16 includes a processor that controls the operation on the camera unit 10A side, a program memory that records the operation program, a work memory that executes the program, and the like.

近距離無線通信部17は、例えばBluetooth(登録商標)のSMARTまたはANT+により、近距離通信アンテナ21を介して、上記本体部10B側と無線接続する他、予めペアリング処理を実行しておくことで、例えばこのデジタルカメラ10をサイクリング画像の撮影を行なう場合に、ユーザが胸部に装着する心拍検出用の心電チェストベルトから送られてくる心拍データを受信する。   The short-range wireless communication unit 17 performs a pairing process in advance in addition to wireless connection to the main body unit 10B side via the short-range communication antenna 21 using, for example, Bluetooth (registered trademark) SMART or ANT +. Thus, for example, when taking a cycling image with the digital camera 10, the heart rate data sent from the electrocardiogram chest belt for heart rate detection worn by the user on the chest is received.

気圧センサ18は、例えば静電容量型あるいはピエゾ抵抗型の大気圧を検知するセンサであり、その検知出力により現在位置の高度を推定することも可能となる。   The atmospheric pressure sensor 18 is a sensor that detects, for example, an electrostatic pressure type or piezoresistive type atmospheric pressure, and it is possible to estimate the altitude of the current position from the detection output.

操作部19は、電源キーやシャッタボタン、上記撮影部11のレンズ光学系が可変焦点系レンズを有する場合は焦点距離の可変キー等の操作キーを備え、そのキー操作に応じたキー操作信号をバスB1を介して上記撮影制御部16へ送出する。   The operation unit 19 includes operation keys such as a power key and a shutter button, and a variable focal length key when the lens optical system of the photographing unit 11 includes a variable focal length lens. A key operation signal corresponding to the key operation is provided. The data is sent to the photographing control unit 16 via the bus B1.

一方、上記カメラ部10Aと無線接続される本体部10Bは、記録制御部31、近距離無線通信部32、モニタ表示部33、記録部34、及び操作部35が、バスB2を介して相互接続される。   On the other hand, the main body unit 10B wirelessly connected to the camera unit 10A is connected to the recording control unit 31, the short-range wireless communication unit 32, the monitor display unit 33, the recording unit 34, and the operation unit 35 via the bus B2. Is done.

記録制御部31は、この本体部10B側の動作を統括して制御するプロセッサとその動作プログラムを記録したプログラムメモリ、当該プログラムを実行するためのワークメモリ等を含んで構成される。   The recording control unit 31 includes a processor that performs overall control of the operation on the main body 10B side, a program memory that records the operation program, a work memory that executes the program, and the like.

近距離無線通信部32は、例えばクラス2(到達距離:約10[m])のBluetooth(登録商標)技術により近距離通信アンテナ36を介して、上記カメラ部10A側と無線接続する他、予めペアリング処理を実行しておくことで、例えばこのデジタルカメラ10専用のアプリケーションプログラムをインストール済のスマートフォンとも無線接続し、カメラ部10A側で自動撮影を行なう場合の撮影条件の設定情報の受信、カメラ部10Aから送られてくる画像データの上記スマートフォンへの転送等を行なう。   The short-range wireless communication unit 32 is preliminarily connected to the camera unit 10A side via the short-range communication antenna 36 by, for example, class 2 (reach distance: about 10 [m]) Bluetooth (registered trademark) technology. By executing the pairing process, for example, receiving the setting information of the shooting conditions when wirelessly connecting to the smartphone in which the application program dedicated to the digital camera 10 is installed and performing automatic shooting on the camera unit 10A side, the camera The image data sent from the unit 10A is transferred to the smartphone.

モニタ表示部33は、バックライト付きのカラー液晶パネルとそれらの各駆動回路で構
成され、必要に応じて画像や設定内容等を表示する。
The monitor display unit 33 is composed of a color liquid crystal panel with a backlight and their respective drive circuits, and displays images, setting contents, and the like as necessary.

記録部34は、この本体部10Bに内蔵した、着脱が不可能な不揮発性メモリと、外部から着脱が可能なメモリカードとを含み、撮影によりカメラ部10Aから送られてくる画像データを随時記録する。また、この記録部34をカメラ部10A側に設け、カメラ部10Aで多数の画像を記録しつつ、本体部10Bまたはスマートフォンで撮影された画像を確認できる構成としても良い。   The recording unit 34 includes a non-removable non-volatile memory built in the main body unit 10B and an externally removable memory card, and records image data sent from the camera unit 10A by shooting as needed. To do. Alternatively, the recording unit 34 may be provided on the camera unit 10A side, and a large number of images may be recorded by the camera unit 10A while images taken with the main body unit 10B or a smartphone may be confirmed.

操作部35は、電源キーや再生キー、カーソルキー等を有し、それらのキー操作に応じたキー操作信号を、バスB2を介して上記記録制御部31へ送出する。   The operation unit 35 includes a power key, a reproduction key, a cursor key, and the like, and sends a key operation signal corresponding to the key operation to the recording control unit 31 via the bus B2.

続いて図2により、上記デジタルカメラ10と組み合わせて使用するスマートフォン50内の電子回路の機能構成を示すブロック図について説明する。同図で、51がこのスマートフォン50全体の制御動作を司るCPUである。このCPU51に対して、バスBLを介して、ワークメモリ52、プログラムメモリ53、撮影部55、表示部56、タッチ入力部57、音声処理部58、通信インタフェース(I/F)59、NFC(Near Field Communication)部60、及び外部デバイスインタフェース(I/F)61が接続される。   Next, a block diagram illustrating a functional configuration of an electronic circuit in the smartphone 50 used in combination with the digital camera 10 will be described with reference to FIG. In the figure, 51 is a CPU that controls the overall operation of the smartphone 50. A work memory 52, a program memory 53, a photographing unit 55, a display unit 56, a touch input unit 57, an audio processing unit 58, a communication interface (I / F) 59, NFC (Near) are connected to the CPU 51 via a bus BL. A Field Communication unit 60 and an external device interface (I / F) 61 are connected.

ワークメモリ52は、例えばDRAMで構成され、上記CPU51のメインメモリとして機能する。   The work memory 52 is constituted by a DRAM, for example, and functions as a main memory of the CPU 51.

プログラムメモリ53は、不揮発性メモリで構成され、上記CPU51が動作するためのOS及び、上記デジタルカメラ10専用のアプリケーションプログラムを含む各種アプリケーションプログラム、固定データ等を記憶する。   The program memory 53 is composed of a nonvolatile memory, and stores an OS for operating the CPU 51, various application programs including application programs dedicated to the digital camera 10, fixed data, and the like.

撮影部55は、レンズ光学系と例えばCMOSイメージセンサ等の固体撮像素子とで構成され、撮影により得られる画像信号をデジタル化、及びデータ圧縮を伴うデータファイル化した上でCPU51へ送出する。   The photographing unit 55 includes a lens optical system and a solid-state imaging device such as a CMOS image sensor. The photographing unit 55 digitizes an image signal obtained by photographing and converts the image signal into a data file with data compression, and sends the data signal to the CPU 51.

表示部56は、バックライト付きのカラー液晶パネルとそれらの駆動回路とで構成される。この表示部56に対して、透明電極膜を用いたタッチ入力部57が一体に構成される。タッチ入力部57は、ユーザのタッチ操作に応じた時系列の座標信号をデジタル化して、タッチ操作信号として上記CPU51へ送出する。   The display unit 56 includes a color liquid crystal panel with a backlight and their drive circuits. A touch input unit 57 using a transparent electrode film is integrally formed with the display unit 56. The touch input unit 57 digitizes a time-series coordinate signal corresponding to a user's touch operation and sends it to the CPU 51 as a touch operation signal.

音声処理部58は、PCM音源等の音源回路を備え、与えられる音声データに応じてアナログの音声信号を発生し、スピーカ62から拡声放音させる一方で、マイクロホン63から入力されるアナログの音声信号をデジタル化して音声データファイルを作成する。   The sound processing unit 58 includes a sound source circuit such as a PCM sound source, generates an analog sound signal according to applied sound data, emits a loud sound from the speaker 62, and receives an analog sound signal input from the microphone 63. To create an audio data file.

上記スピーカ62を受話器、上記マイクロホン63を送話器として使用することで、音声通話が可能となる。   By using the speaker 62 as a receiver and the microphone 63 as a transmitter, a voice call can be made.

通信インタフェース59は、アンテナ64,65,66を用いて、第4世代携帯電話システム、IEEE802.11a/b/g/n規格の無線LAN、及びIEEE802.15.1規格のBluetooth(登録商標)の各技術に基づいた、それぞれ図示しないネットワークとの間での無線通信を行なう。   The communication interface 59 uses antennas 64, 65, and 66, a fourth-generation mobile phone system, an IEEE802.11a / b / g / n standard wireless LAN, and an IEEE802.15.1 standard Bluetooth (registered trademark). Wireless communication is performed with a network (not shown) based on each technology.

NFC部60は、電子マネーやポイントサービスのサービスカードとしてこのスマートフォン50を機能させるべく、NFC技術を用いて、他のNFC機器と当接された場合にデータの送受を行なう。   The NFC unit 60 uses NFC technology to send and receive data when it comes into contact with other NFC devices in order to make the smartphone 50 function as a service card for electronic money or point service.

外部デバイスインタフェース61は、ヘッドホンジャック67、マイクロUSB端子68、及びメモリカードスロット69を介して、例えばヘッドホンやイヤホン、外付けハードディスク装置やUSBメモリなどのUSB機器、及びメモリカードをそれぞれ接続または装着可能とする。   The external device interface 61 can connect or attach a USB device such as a headphone or an earphone, an external hard disk device or a USB memory, and a memory card via a headphone jack 67, a micro USB terminal 68, and a memory card slot 69, respectively. And

次に本実施形態の動作について説明する。   Next, the operation of this embodiment will be described.

図3は、上記スマートフォン50に予めインストールされている、上記デジタルカメラ10専用のアプリケーションプログラムを起動した場合の一画面を例示する図である。同図では、デジタルカメラ10での自動撮影の撮影条件を設定する画面を開いた状態を示している。   FIG. 3 is a diagram illustrating one screen when an application program dedicated to the digital camera 10 installed in the smartphone 50 in advance is activated. The figure shows a state in which a screen for setting shooting conditions for automatic shooting with the digital camera 10 is opened.

ここでは、デジタルカメラ10をサイクリングで使用するユーザが上体、例えばサイクルヘルメットにカメラ部10Aを装着する場合の、撮影条件を設定するものとしており、具体的な項目として、「乗車姿勢」「加速度変化」「ケイデンス」「心拍数」「登り」「下り」「他者との接近」「コーナリング」を挙げている。   Here, shooting conditions when a user who uses the digital camera 10 in cycling wears the camera unit 10A on an upper body, for example, a cycle helmet, are set. Specific items include “ride posture”, “acceleration” He cited “change”, “cadence”, “heart rate”, “up”, “down”, “approach to others”, and “cornering”.

「乗車姿勢」は、ダンシング(立ちこぎ)状態となったことを示すものであり、上記3軸加速度センサ14及びジャイロセンサ15の検知出力から当該状態を判断して、その状態となった当初のタイミングで自動撮影を行なう。   “Riding posture” indicates that the vehicle is in a dancing state, and the state is determined from the detection outputs of the three-axis acceleration sensor 14 and the gyro sensor 15, and the initial state when the state becomes that state. Automatic shooting at the timing.

「加速度変化」は、急加速または急減速を3軸加速度センサ14の検知出力から判断するもので、加速度の閾値を設定して、その閾値を超えたタイミングで自動撮影を行なう。   The “acceleration change” is to determine sudden acceleration or sudden deceleration from the detection output of the triaxial acceleration sensor 14, and set a threshold value for acceleration and perform automatic photographing at a timing exceeding the threshold value.

「ケイデンス」は、自転車のペダルクランクの1分間当たりの回転数を示すものであり、3軸加速度センサ14とジャイロセンサ15の検知出力から判断するもので、予め設定した回転数を超えたタイミングで自動撮影を行なう。   “Cadence” indicates the number of revolutions per minute of the pedal crank of the bicycle, and is determined from detection outputs of the triaxial acceleration sensor 14 and the gyro sensor 15, and at a timing exceeding a preset number of revolutions. Perform automatic shooting.

「心拍数」は、ユーザが装着している心電チェストベルトからの信号を上記近距離通信アンテナ21を介して近距離無線通信部17で受信して心拍数をカウントするもので、予め設定した閾値を超えたタイミングで自動撮影を行なう。   “Heart rate” is a value obtained by receiving a signal from an electrocardiogram chest belt worn by the user by the short-range wireless communication unit 17 via the short-range communication antenna 21 and counting a heart rate. Automatic shooting is performed when the threshold is exceeded.

「登り」及び「下り」はそれぞれGPSアンテナ20とGPSレシーバ12で得られる現在位置の経時的な高度情報の変化度から算出するもので、登り勾配及び下り勾配として閾値となる傾斜角を設定して、それ以上の傾斜度となったタイミングで自動撮影を行なう。   “Climb” and “Descent” are calculated from the degree of change in altitude information over time of the current position obtained by the GPS antenna 20 and the GPS receiver 12, respectively. Then, automatic shooting is performed at the timing when the inclination becomes higher than that.

「他者との接近」は、撮影部55で得られるモニタ状態の画像に対する人物の認識処理を行ない、人物が画像中に写り込んでいる場合にその合焦距離から、予め設定した距離より接近したタイミングで自動撮影を行なう。また、「他者との接近」は無線で行なうこともできる。具体的にはBluetooth(登録商標)のLE技術を用いて、事前のペアリングなしに、電界強度情報をやりとりすることで、ある値を超えたら接近したものと判断することができる。   The “approach to other person” is a person recognition process for the monitor-state image obtained by the photographing unit 55. When a person is reflected in the image, the approach distance is closer than a preset distance. Automatic shooting is performed at the timing. In addition, “approaching with another person” can be performed wirelessly. Specifically, by using the Bluetooth (registered trademark) LE technology and exchanging the electric field strength information without prior pairing, it is possible to determine that a certain value has been approached.

「コーナリング」は、3軸加速度センサ14の検知出力から判断するもので、加速度の閾値を設定して、重力加速度が得られる方向以外でその閾値を超えたタイミングで自動撮影を行なう。また、「コーナリング」はジャイロセンサ15の出力に基づく角速度を使うことによっても検出できる。   “Cornering” is determined from the detection output of the three-axis acceleration sensor 14, and a threshold value for acceleration is set, and automatic shooting is performed at a timing exceeding the threshold value in directions other than the direction in which gravitational acceleration is obtained. “Cornering” can also be detected by using an angular velocity based on the output of the gyro sensor 15.

上記図3では、「乗車姿勢」「心拍数」及び「下り」が自動撮影の条件としてオン設定された状態を例として示している。   FIG. 3 shows an example in which “boarding posture”, “heart rate”, and “descent” are set as automatic photographing conditions.

どの条件をオン設定するか、すなわちどのセンサを作動させるかは、ユーザが任意に選択することができる。   The user can arbitrarily select which condition is set to ON, that is, which sensor is activated.

「心拍数」としては、例えば110[bpm](1分あたり110拍)、「下り」としては例えば下り勾配10[%]のようにそれぞれ閾値を設定できるものとする。その他の条件についても、単純にオン/オフ設定するだけではなく、適宜閾値を変動設定できるものとする。   As the “heart rate”, for example, 110 [bpm] (110 beats per minute) can be set, and as “downward”, for example, a downward slope can be set as 10 [%]. As for other conditions, it is assumed that the threshold value can be appropriately varied as well as simply turned on / off.

また、自動撮影条件のオン/オフは、単純にセンサのオン/オフと1対1に対応するものではない。1つのセンサから、複数のセンシング情報を取り出すことができるし、複数のセンサのセンシング情報を演算して1つの撮影条件を得ることもできる。例えば、固体撮像素子から明るさの測定情報を取り出すこともできるし、色の測定情報を取り出すこともできる。   Further, the on / off of the automatic photographing condition does not simply correspond to the on / off of the sensor on a one-to-one basis. A plurality of sensing information can be extracted from one sensor, and one imaging condition can be obtained by calculating sensing information of the plurality of sensors. For example, brightness measurement information can be extracted from a solid-state imaging device, and color measurement information can be extracted.

また上記項目以外にも、例えばGPSアンテナ20とGPSレシーバ12で得られる現在位置中の高度情報(標高)が、予め設定した切りのいい単位、例えば100[m]単位となった毎に自動撮影を行なうようにしても良い。   In addition to the above items, for example, every time the altitude information (elevation) in the current position obtained by the GPS antenna 20 and the GPS receiver 12 becomes a preset good unit, for example, 100 [m], automatic shooting is performed. May be performed.

このようにスマートフォン50で設定した撮影条件を、本体部10Bを介してカメラ部10Aに送信して設定することで、カメラ部10Aにおいて、設定された撮影条件となった時点で自動的に撮影を行なうことができるようになる
図4は、デジタルカメラ10のカメラ部10Aにおいて、撮影制御部16による制御の下に実行される、自動撮影の処理内容を示すフローチャートである。
The shooting conditions set by the smartphone 50 in this manner are transmitted to the camera unit 10A via the main body unit 10B and set, so that the camera unit 10A automatically takes a picture when the set shooting conditions are met. FIG. 4 is a flowchart showing the contents of the automatic shooting process executed under the control of the shooting control unit 16 in the camera unit 10A of the digital camera 10.

その当初に撮影制御部16では、スマートフォン50によって設定されている、1つ乃至は複数の撮影条件のうちの少なくとも1つが成立しているか否かを、設定されている各種センサの検知出力により判断する(ステップS101)。撮影条件が成立していないと判断した場合(ステップS101のNo)、撮影制御部16は再びこのステップS101の処理に戻る。このステップS101で、図3においてOFFの設定がなされている撮影条件については判断の対象としない。   At the beginning, the shooting control unit 16 determines whether or not at least one of one or a plurality of shooting conditions set by the smartphone 50 is satisfied based on detection outputs of the set various sensors. (Step S101). If it is determined that the shooting condition is not satisfied (No in step S101), the shooting control unit 16 returns to the process of step S101 again. In this step S101, the shooting conditions that are set to OFF in FIG. 3 are not determined.

こうしてステップS101での判断を繰返し実行することにより、撮影制御部16は設定された撮影条件が成立するのを待機する。   By repeatedly executing the determination in step S101 in this manner, the imaging control unit 16 waits for the set imaging condition to be satisfied.

次に、撮影制御部16は、設定された撮影条件が成立したと判断した時点で(ステップS101のYes)、同一状態での連続、重複した自動撮影となっていないか否かを判断する(ステップS102)。即ち、撮影制御部16は、同一の撮影条件が成立した前回の自動撮影した時点から、予め設定された一定時間、例えば30[秒]が経過しているか否かにより判断する。   Next, when it is determined that the set shooting condition is satisfied (Yes in Step S101), the shooting control unit 16 determines whether continuous or overlapping automatic shooting is not performed in the same state ( Step S102). In other words, the shooting control unit 16 determines whether or not a predetermined time, for example, 30 [seconds] has elapsed since the previous automatic shooting when the same shooting condition was satisfied.

なお、この一定時間経過しているかどうかの判断は、スマートフォン50側で判断して、撮影指示を撮影制御部16へ送るようにしてもよい。   The determination as to whether or not the predetermined time has elapsed may be made on the smartphone 50 side and a shooting instruction may be sent to the shooting control unit 16.

ここで同一の撮影条件から自動撮影を実行した後、まだ上記一定時間が経過しておらず、同一状態での連続、重複した自動撮影となると判断した場合(ステップS102のNo)、撮影制御部16は撮影動作を行なわずに、再び上記ステップS101からの処理に戻る。   Here, after executing automatic shooting from the same shooting conditions, if it is determined that the above-mentioned fixed time has not yet elapsed and continuous or overlapping automatic shooting is performed in the same state (No in step S102), the shooting control unit Step 16 returns to the processing from step S101 again without performing the photographing operation.

また上記ステップS102において、同一の撮影条件から自動撮影を実行した後、上記一定時間が経過しており、同一状態での連続、重複した自動撮影ではないと判断した場合(ステップS102のYes)、撮影制御部16は、あらためて撮影部11による自動撮影動作を実行させる(ステップS103)。   In step S102, after executing the automatic shooting from the same shooting condition, if the predetermined time has elapsed and it is determined that the automatic shooting is not continuous or overlapping in the same state (Yes in step S102), The imaging control unit 16 again executes an automatic imaging operation by the imaging unit 11 (step S103).

さらに撮影制御部16は、自動撮影により得た、例えばJPEG(Joint Photographic Experts Group)形式の画像データファイルに、Exif(Exchangeable image file format)規格に基づいた規定のメタデータに対し、上記自動撮影を行なった際の撮影条件とその検出値(センサ出力値)を、その時点で得られる他の各種センサの検出値と共に埋め込む(ステップS104)。なお、当該検出値と共に、その時点で得られる他の各種センサの検出値も含まれても良い。   Further, the shooting control unit 16 performs the above automatic shooting on the prescribed metadata based on the Exif (Exchangeable image file format) standard, for example, in an image data file in JPEG (Joint Photographic Experts Group) format obtained by automatic shooting. The imaging conditions and the detected values (sensor output values) at the time of execution are embedded together with the detected values of other various sensors obtained at that time (step S104). In addition to the detection value, detection values of other various sensors obtained at that time may be included.

ここで上記自動撮影を行なった際の撮影条件が複数あった場合には、成立したそれぞれの撮影条件とその検出値とを、他の各種センサの検出値と共に埋め込むこととなる。   Here, when there are a plurality of shooting conditions when performing the above automatic shooting, the established shooting conditions and detection values thereof are embedded together with detection values of other various sensors.

因みに上記規定のメタデータとしては、撮影日時、撮影機器のメーカ名、撮影機器の機種名、画像全体の解像度(画像サイズ)、水平・垂直方向の単位あたり解像度、撮影方向(方位)、シャッタ速度、絞りF値、ISO感度、測光モード、フラッシュの有無、露光補正ステップ値、焦点距離、色空間(カラースペース)、GPS情報、及びサムネイル画像(160×120画素)(.bmp)を含む。   Incidentally, the above-mentioned metadata includes the shooting date and time, the manufacturer name of the shooting device, the model name of the shooting device, the resolution of the entire image (image size), the resolution per unit in the horizontal and vertical directions, the shooting direction (azimuth), and the shutter speed. , Aperture F value, ISO sensitivity, photometry mode, presence / absence of flash, exposure correction step value, focal length, color space (color space), GPS information, and thumbnail image (160 × 120 pixels) (.bmp).

撮影条件とその検出値としては、例えば心拍値で110[bpm]を閾値として126[bpm]が得られた場合、ケイデンスで100[rpm]を閾値として115[rpm]が得られた場合、などがあり得る。   As imaging conditions and detection values thereof, for example, when heart rate is 110 [bpm] with a threshold of 126 [bpm], cadence with 100 [rpm] as a threshold and 115 [rpm] is obtained, etc. There can be.

撮影制御部16は、撮影条件をExifのメタデータに付随して画像データファイルに埋め込んだ後に、当該画像データファイルを本体部10B側に送信して、本体部10Bの記録部34に記録させる(ステップS105)。   The imaging control unit 16 embeds the imaging conditions in the image data file along with the Exif metadata, and then transmits the image data file to the main body unit 10B to be recorded in the recording unit 34 of the main body unit 10B ( Step S105).

こうして、撮影制御部16は、予め設定した撮影条件が成立して自動撮影を行なってから記録するまでの一連の処理を終えると、あらためて次の自動撮影に備えるべく、上記ステップS101からの処理に戻る。   In this way, when the predetermined shooting conditions are satisfied and the series of processing from automatic shooting to recording is completed, the shooting control unit 16 proceeds to the processing from step S101 to prepare for the next automatic shooting. Return.

撮影制御部16により、上記図4の処理に基づいて自動撮影が実行され、撮影により得られた画像データファイルが記録部34に随時蓄積して記録される。   The photographing control unit 16 executes automatic photographing based on the processing of FIG. 4 described above, and an image data file obtained by photographing is accumulated and recorded in the recording unit 34 as needed.

さらに、ユーザがデジタルカメラ10専用のアプリケーションプログラムをインストールしたスマートフォン50を、デジタルカメラ10の本体部10Bと近接して所持することにより、記録部34に記録されている画像データファイルは、自動的にスマートフォン50側の所定のデータフォルダ、例えばメモリカードスロット69に装着されたメモリカードのデジタルカメラ10専用の画像データフォルダに転送して記録される。スマートフォン50には、デジタルカメラ10専用のアプリケーションプログラムがインストールされている。また、記録部34に記録されている画像データファイルは、自動的にスマートフォン50側の所定のデータフォルダ、例えばメモリカードスロット69に装着されたメモリカードの上記画像データフォルダに転送して記録される。   Further, when the user holds the smartphone 50 in which the application program dedicated to the digital camera 10 is installed in the vicinity of the main body 10B of the digital camera 10, the image data file recorded in the recording unit 34 is automatically The data is transferred and recorded in a predetermined data folder on the smartphone 50 side, for example, an image data folder dedicated to the digital camera 10 of a memory card inserted in the memory card slot 69. An application program dedicated to the digital camera 10 is installed in the smartphone 50. The image data file recorded in the recording unit 34 is automatically transferred to and recorded on a predetermined data folder on the smartphone 50 side, for example, the image data folder on a memory card installed in the memory card slot 69.

次に図5を用いて、スマートフォン50で上記デジタルカメラ10専用のアプリケーションプログラムに従ってアルバム画像の再生を行なう場合の処理内容について説明する。   Next, processing contents when the album image is played back by the smartphone 50 in accordance with the application program dedicated to the digital camera 10 will be described with reference to FIG.

このアプリケーションプログラムは、CPU51がプログラムメモリ53から読出し、ワークメモリ52上に展開して保持させた上で実行される。   The application program is read out from the program memory 53 by the CPU 51, developed on the work memory 52, and executed.

当該アプリケーションプログラムを起動した当初、CPU51はメモリカードスロット69に装着されたメモリカードの所定の画像データフォルダ中に記憶されている画像ファイルデータを、撮影日時データが新しいものから順に読出すことで、アルバムトップとなる一覧画像を作成して表示部56で表示させる(ステップS301)。   When the application program is started up, the CPU 51 reads the image file data stored in the predetermined image data folder of the memory card mounted in the memory card slot 69 in order from the latest shooting date / time data, so that the album A top list image is created and displayed on the display unit 56 (step S301).

図6は、このアルバムトップの一覧画像を表示している状態を例示している。ここでは、日付単位で画像を取り纏めて纏めて表示する設定が選択されている場合の画面例を示す。各画像は、記録されている各画像のメタデータ中のサムネイル画像を用いて一覧表示するもので、それぞれ自動撮影により撮影されたものである場合に、画像の下端部にその撮影条件となった要因を具体的な数値と共に表示している。   FIG. 6 illustrates a state in which the album top list image is displayed. Here, an example of a screen when the setting for collecting and displaying images in units of dates is selected is shown. Each image is displayed as a list using thumbnail images in the metadata of each recorded image. When each image was shot by automatic shooting, the shooting conditions were set at the lower end of the image. Factors are displayed with specific numerical values.

例えば、左上端の画像は、心拍値が閾値を超えたことを検知して自動撮影されたものであることを、ハート型のシンボル記号と心拍の数値「110[bpm]」により表示している。   For example, the image in the upper left corner indicates that the heart rate value has been automatically taken by detecting that the heart rate value has exceeded the threshold value, and displays the heart symbol symbol and the heart rate value “110 [bpm]”. .

またその右に位置する、上端中央の画像は、ケイデンスが閾値を超えると共に、心拍値も閾値を超えたことを検知して自動撮影されたものであることを、ペダルクランクのシンボル記号と回転数の数値「110[rpm]」、及びハート型のシンボル記号と心拍の数値「115[bpm]」により、表示している。   In addition, the image in the center of the top, located to the right of the above, was taken automatically by detecting that the cadence exceeded the threshold value and the heart rate value also exceeded the threshold value. The numerical value of “110 [rpm]” and the heart-shaped symbol symbol and the numerical value of heart rate “115 [bpm]”.

このように、他にも撮影条件が「高度情報(標高)」であれば山のシンボル記号と標高値([m])を、「走行速度」であればアナログメータのシンボル記号と速度値([km/h])を、それぞれ対応する画像の下端部に付加して表示することにより、それらの画像がどのような撮影条件によって自動撮影されたのか、及びその時点で撮影条件を超えた値はいくつであったのか、を一目で理解できるように表示させることができる。   As described above, if the imaging condition is “altitude information (elevation)”, the symbol symbol and altitude value ([m]) of the mountain are displayed. [Km / h]) is added to the lower end of each corresponding image and displayed, and under what shooting conditions the images were automatically shot, and values exceeding the shooting conditions at that time It is possible to display how many were there at a glance.

このようなアルバムトップの画像群を一覧表示した状態から、CPU51は画面がスクロール操作されたか否かをタッチ入力部57からの検出信号により判断する(ステップS302)。   From a state in which the album top image group is displayed as a list, the CPU 51 determines whether or not the screen has been scrolled based on a detection signal from the touch input unit 57 (step S302).

ここで画面がスクロール操作されていないと判断した場合(ステップS302のNo)、さらにCPU51は日時範囲指定の地図表示モードに移行するためのメニュー項目が指定されたかどうかを判断する(ステップS303)。   If it is determined that the screen has not been scrolled (No in step S302), the CPU 51 further determines whether a menu item for shifting to the map display mode for designating the date / time range has been designated (step S303).

この日時範囲指定の地図表示モードは、例えば上記図6の上端の「アルバムTop」右横の各種メニューを表示するための記号「▽」をタッチ操作することで、選択できるものとする。   The map display mode for specifying the date and time range can be selected by touching a symbol “「 ”for displaying various menus to the right of“ Album Top ”at the top of FIG.

ここで日時範囲指定の地図表示モードに移行するためのメニュー項目もなされていないと判断した場合(ステップS303のNo)、CPU51は上記ステップS302からの処理に戻る。   If it is determined that there is no menu item for shifting to the map display mode for specifying the date and time range (No in step S303), the CPU 51 returns to the processing from step S302.

こうして、CPU51は、ステップS302,S303の処理を繰返し実行することで、画面がスクロール操作されるか、日時範囲指定の地図表示モードが指定されるのを待機する。   Thus, the CPU 51 waits until the screen is scrolled or the map display mode for specifying the date and time range is specified by repeatedly executing the processes of steps S302 and S303.

上記ステップS302において、画面がスクロール操作されたと判断した場合(ステップS302のYes)、CPU51はそのスクロール量をタッチ入力部57からの検出信号により判断した上で、当該スクロール量分だけ一覧画像を表示する範囲を移動させた上で(ステップS304)、上記ステップS302からの処理に戻る。   If it is determined in step S302 that the screen has been scrolled (Yes in step S302), the CPU 51 determines the scroll amount based on the detection signal from the touch input unit 57 and then displays a list image for the scroll amount. The range to be moved is moved (step S304), and the process returns to step S302.

なお図6では、スマートフォン50の表示部56において複数の撮影画像のサムネイル画像を一覧表示する場合について説明したが、本発明はこれに限らず、例えばリスト端末などの表示容量が限られる装置においては、サムネイル画像を撮影のシャッタトリガとなったシンボル記号等と共に一枚分ずつ表示して、画面へのスクロール操作により順次表示する画像を変更、更新するようにしても良い。   In addition, although FIG. 6 demonstrated the case where the thumbnail image of the some picked-up image was displayed as a list in the display part 56 of the smart phone 50, this invention is not limited to this, For example, in apparatuses with limited display capacity, such as a list terminal Alternatively, thumbnail images may be displayed one by one together with symbols and the like that have become shooting shutter triggers, and images to be sequentially displayed may be changed and updated by scrolling the screen.

また上記ステップS303において、日時範囲指定の地図表示モードに移行するためのメニュー項目が指定されたと判断した場合(ステップS303のYes)、CPU51は当該範囲の開始日時と終了日時とを表示部56とタッチ入力部57での表示及びタッチ操作により受付ける(ステップS305)。   If it is determined in step S303 that the menu item for shifting to the map display mode for specifying the date / time range has been specified (Yes in step S303), the CPU 51 displays the start date / time and end date / time of the range on the display unit 56. This is accepted by the display and touch operation on the touch input unit 57 (step S305).

CPU51は、受付けたな地図範囲指定にしたがって、上記メモリカードスロット69に装着されたメモリカード中の対応する画像フォルダから、範囲内の撮影日時に該当するものをすべて読出した上で、併せてExifのメタデータ中に含まれているGPS情報により、必要な地図範囲、具体的には緯度と経度、それぞれの最小値と最大値との差に応じ、差がより大きい方に合わせて必要な地図範囲を算出する(ステップS306)。   In accordance with the received map range designation, the CPU 51 reads out all the images corresponding to the shooting date and time in the range from the corresponding image folder in the memory card inserted in the memory card slot 69, and also combines the Exif. Depending on the GPS information included in the metadata of the map, the required map range, specifically the latitude and longitude, the difference between the minimum and maximum values of each, the map that needs to be larger The range is calculated (step S306).

次にCPU51は、通信インタフェース59を介して予め登録されているサーバ装置から、必要な地図情報を取得し、地図画像を展開して作成し、表示部56で表示させる(ステップS307)。   Next, the CPU 51 acquires necessary map information from a server device registered in advance via the communication interface 59, develops and creates a map image, and displays it on the display unit 56 (step S307).

さらにCPU51は、上記ステップS306で画像データに付加されたExifのメタデータ中のGPS情報と撮影条件の情報とに基づいて、表示部56で表示している画像上の対応する位置に、各画像の撮影条件のシンボル記号を重畳して表示させる(ステップS308)。   Furthermore, the CPU 51 sets each image at a corresponding position on the image displayed on the display unit 56 based on the GPS information and the shooting condition information in the Exif metadata added to the image data in step S306. The symbols of the shooting conditions are superimposed and displayed (step S308).

その上でCPU51は、地図表示モードを解除する操作がなされたか否かを判断する(ステップS309)。これは、例えば画面上端の左側に左方向への矢印「←」を表示しておき、その矢印が操作されたか否かにより判断する。   Then, the CPU 51 determines whether or not an operation for canceling the map display mode has been performed (step S309). This is determined, for example, by displaying an arrow “←” in the left direction on the left side of the upper end of the screen and operating the arrow.

ここで地図表示モードを解除する操作がなされていないと判断した場合(ステップS309のNo)、CPU51はさらに地図画像上の任意の撮影条件のシンボル記号のうちの1つが指定操作されたかどうかを判断する(ステップS310)。   If it is determined that the operation for canceling the map display mode has not been performed (No in step S309), the CPU 51 further determines whether one of the symbol symbols of arbitrary shooting conditions on the map image has been designated. (Step S310).

ここで地図画像上の撮影条件のシンボル記号が指定操作されていないと判断した場合(ステップS310のNo)、CPU51は上記ステップS309からの処理に戻る。   If it is determined that the symbol symbol of the shooting condition on the map image has not been designated (No in step S310), the CPU 51 returns to the processing from step S309.

こうしてCPU51は、上記ステップS309,S310の処理を繰返し実行しながら、地図表示モードを解除する操作がなされるか、地図画像上の撮影条件のシンボル記号が指定操作されるのを待機する。   In this way, the CPU 51 waits for an operation for canceling the map display mode or for designating the symbol symbol of the shooting condition on the map image while repeatedly executing the processes of steps S309 and S310.

上記ステップS310において、地図画像上の任意の撮影条件のシンボル記号のうちの1つが指定操作されたと判断した場合(ステップS310のYes)、CPU51はそのシンボル記号に対応する撮影画像を地図画像の直下に配置して表示させた上で(ステップS311)、上記ステップS309からの処理に戻る。   If it is determined in step S310 that one of the symbol symbols of any shooting condition on the map image has been designated (Yes in step S310), the CPU 51 displays the shot image corresponding to the symbol symbol immediately below the map image. (Step S311), the process returns to step S309.

図7は、ステップS311の処理により表示部56で表示される画像を例示している。ここでは、地図画像MIの直下に、指定操作された画像を配置して表示している例を示す。即ち、「登り坂」のシンボル記号HCと数値「(登り勾配)10.5[%]」とを画像に添え、併せてその時点で得られた他の各種センサの検出値とともに表示することで、その画像がどのような撮影条件によって自動撮影されたのか、及びその他の条件はどうであったのか、をきわめて理解し易く提示できる。   FIG. 7 illustrates an image displayed on the display unit 56 by the process of step S311. Here, an example is shown in which the designated and operated image is arranged and displayed immediately below the map image MI. That is, the symbol symbol HC of “Climbing slope” and the numerical value “(Climbing slope) 10.5 [%]” are attached to the image and displayed together with the detection values of other various sensors obtained at that time. It is possible to present in an extremely easy-to-understand manner what photographing conditions the image was automatically photographed and what other conditions were.

また上記ステップS309において、地図表示モードを解除する操作がなされたと判断した場合(ステップS309のYes)、CPU51は上記ステップS301からの処理に戻る。   If it is determined in step S309 that an operation for canceling the map display mode has been performed (Yes in step S309), the CPU 51 returns to the process from step S301.

なお上記実施形態では、デジタルカメラ10をサイクリングで使用するユーザが使用する場合を例にとって説明したが、デジタルカメラ10の使用する用途と、自動撮影で撮影のシャッタトリガとなる条件の設定の仕方は上記実施形態に限らない。例えばダイビングにおいては、水圧の変化や、急激な露光量の低下、カメラ筐体の姿勢の停止、等を検出して自動撮影を行なうことが考えられる。   In the above-described embodiment, the case where a user who uses the digital camera 10 in cycling is used as an example. However, the usage of the digital camera 10 and how to set the conditions for the shutter trigger for shooting in automatic shooting are described. The present invention is not limited to the above embodiment. For example, in diving, it is conceivable to perform automatic photographing by detecting a change in water pressure, a rapid decrease in exposure amount, a stop of the posture of the camera housing, and the like.

また、シャッタトリガとなる条件は1つでなくてもよく、複数の条件の全てを満足したとき(AND)、または複数の条件のいずれかを満足したとき(OR)でもよい。   Further, the number of conditions for the shutter trigger is not limited to one, and may be when all of the plurality of conditions are satisfied (AND) or when any of the plurality of conditions is satisfied (OR).

さらに、図1に示したようなカメラ部10Aと本体部10Bが分離したカメラ10の場合は、シャッタトリガとなる条件はカメラ部10Aで設定しても良いし、本体部10Bで設定してカメラ部10Aへ送信しても良い。   Furthermore, in the case of the camera 10 in which the camera unit 10A and the main unit 10B are separated as shown in FIG. 1, the conditions for the shutter trigger may be set by the camera unit 10A, or set by the main unit 10B. You may transmit to the part 10A.

また、地図画像は、撮影画像情報を表示するたびに作成しても良いし、地図画像を予め用意しておいて、撮影位置を示す情報を重畳表示させるようにしてもよい。   Further, the map image may be created every time the captured image information is displayed, or a map image may be prepared in advance and information indicating the captured position may be superimposed and displayed.

さらに上記実施形態では、画像の端部に添えて、シャッタトリガとなった条件のシンボル記号を同時に表示させる場合について説明したが、本発明はその表示態様を限るものではなく、例えば表示している画像に対する引出線を付加して離れた位置にシャッタトリガとなった条件のシンボル記号を表示させても良いし、あるいは複数の画像に対するインデックス表示のようにしてシャッタトリガとなった条件のシンボル記号を取り纏めて表示しても良い。   Furthermore, in the above-described embodiment, a case has been described in which the symbol symbol of the condition that has become the shutter trigger is displayed at the same time along the edge of the image. However, the present invention does not limit the display mode, and for example, the display is performed. It is possible to add a leader line to the image and display the symbol symbol of the condition that caused the shutter trigger at a distant position, or to display the symbol symbol of the condition that caused the shutter trigger as an index display for a plurality of images. It may be displayed collectively.

加えて、一見した状態ではあえてシャッタトリガとなった条件のシンボル記号等を表示させず、任意の画像に対するクリック操作を行なうか、あるいは当該画像上にカーソルを移動させた状態で、シャッタトリガとなった条件のシンボル記号等が現出して表示されるような構成を採ることも考えられる。   In addition, at first glance, the symbol symbol or the like of the condition that caused the shutter trigger is not displayed, but a click operation is performed on an arbitrary image, or the cursor is moved over the image to become a shutter trigger. It is also conceivable to adopt a configuration in which a symbol symbol or the like of the specified condition appears and is displayed.

画像に関連付けられるシャッタトリガの情報は、撮影に係る一定時間内に条件を満たしたものであれば、複数の条件を関連付けて表示することができる。   The shutter trigger information associated with the image can be displayed in association with a plurality of conditions as long as the conditions are satisfied within a certain time period related to shooting.

画像により選別された個別画像を閲覧する際には、自動撮影を行なうに至ったクリティカルな第一の撮影条件の情報以外に、その他の情報を合わせて表示することが可能である。この場合、上記クリティカルな撮影条件の情報は、特にハイライト色を呈するなど、他のシンボル記号等と識別可能であることが好ましい。   When browsing the individual images selected by the images, it is possible to display other information in addition to the information on the critical first photographing condition that has led to the automatic photographing. In this case, it is preferable that the information on the critical photographing condition is distinguishable from other symbol symbols, such as a highlight color.

また、取得された複数の画像は、シャタトリガとなった撮影条件の種別によってソートすることが可能であり、地図情報と合わせて提示することで、より詳細な選別が可能となる。   In addition, the plurality of acquired images can be sorted according to the type of shooting condition that has become a shutter trigger, and more detailed sorting is possible by presenting them together with map information.

以上詳述した如く本実施形態によれば、自動撮影により得られた画像が何をシャッタトリガとして撮影されたものであるのかを容易に把握することが可能で、ユーザが簡易に所望の画像を選別することが可能となる。   As described above in detail, according to the present embodiment, it is possible to easily grasp what the image obtained by the automatic photographing is taken as a shutter trigger, and the user can easily obtain a desired image. It becomes possible to sort.

また上記実施形態では、撮影した画像にここに対応してその画像を撮影する条件となったシンボル記号を添えて表示するものとしたため、自動撮影が何を撮影条件によってなされたのかを撮影画像そのものと併せて理解し易い形で提示できる。   Further, in the above embodiment, the captured image is displayed with the symbol symbol corresponding to the image capturing condition corresponding to the captured image, so that the captured image itself indicates what automatic shooting is performed according to the capturing condition. It can be presented in an easy-to-understand form.

加えて上記実施形態では、撮影画像が位置に関する情報を合せて有しており、撮影画像を指定した際にその位置情報に基づいて地図画像を作成し、作成した地図画像上に各撮影画像の対応する位置に撮影条件となったシンボル記号を重畳して表示することにより、どのような過程で自動撮影がなされていったのか、自動撮影が行なわれた過程の傾向等を理解し易い形で提示できる。   In addition, in the above-described embodiment, the captured image has information related to the position. When the captured image is designated, a map image is created based on the position information, and each captured image is displayed on the created map image. By superimposing and displaying the symbol symbol that is the shooting condition at the corresponding position, it is easy to understand the process of automatic shooting, the tendency of the process of automatic shooting, etc. Can present.

さらに上記実施形態では、画像に添えて表示する撮影条件のシンボル記号と、その撮影条件となった状態の具体的な数値、単位を併せて表示することで、実際に撮影に至った程度を容易に知ることができる。   Furthermore, in the above-described embodiment, by displaying the symbol symbol of the shooting condition to be displayed along with the image and the specific numerical value and unit of the state that has become the shooting condition together, it is easy to determine the degree of actual shooting. Can know.

[第2の実施形態]
以下、本発明の第2の実施形態について、詳細に説明する。
[Second Embodiment]
Hereinafter, the second embodiment of the present invention will be described in detail.

本実施形態では、デジタルカメラ専用のアプリケーションプログラムを予めインストールしたスマートフォンにおいて撮影条件を設定し、設定した内容をスマートフォンからデジタルカメラに転送する。デジタルカメラでは、別体のセンサ端末から送られてくる各種センサの検知出力に応じて、設定された条件が成立したタイミングで、上記センサ端末の装着者を被写体として自動撮影する。   In the present embodiment, shooting conditions are set in a smartphone in which an application program dedicated to the digital camera is installed in advance, and the set contents are transferred from the smartphone to the digital camera. The digital camera automatically photographs the wearer of the sensor terminal as a subject at a timing when a set condition is satisfied according to detection outputs of various sensors sent from a separate sensor terminal.

デジタルカメラでの自動撮影により得られた画像データ群は、随時上記スマートフォンに転送して記録する。当該スマートフォンでは、上記アプリケーションプログラムの一機能として、記録した画像をアルバムとして閲覧表示することが可能となる。   A group of image data obtained by automatic photographing with a digital camera is transferred to the smartphone and recorded as needed. The smartphone can browse and display recorded images as an album as a function of the application program.

図8は、センサ端末70とデジタルカメラ90の機能回路の構成を示すブロック図である。これらセンサ端末70とデジタルカメラ90は、例えば近距離無線通信規格であるBluetooth(登録商標)技術により無線接続される。   FIG. 8 is a block diagram illustrating a configuration of functional circuits of the sensor terminal 70 and the digital camera 90. The sensor terminal 70 and the digital camera 90 are wirelessly connected by, for example, Bluetooth (registered trademark) technology which is a short-range wireless communication standard.

センサ端末70は、被写体となる人物が装着する、例えば腕時計状のリスト端末である。このセンサ端末70内では、GPS受信部71、3軸加速度センサ72、ジャイロセンサ73、地磁気センサ74、気圧センサ75、検出制御部76、操作部78、及び心拍センサ79が、バスB3を介して相互接続される。   The sensor terminal 70 is, for example, a wristwatch-shaped wrist terminal worn by a person who is a subject. In the sensor terminal 70, the GPS receiving unit 71, the triaxial acceleration sensor 72, the gyro sensor 73, the geomagnetic sensor 74, the atmospheric pressure sensor 75, the detection control unit 76, the operation unit 78, and the heart rate sensor 79 are connected via the bus B3. Interconnected.

GPS受信部71は、GPSアンテナ80を介して、図示しない複数、少なくとも4つ以上のGPS衛星からの到来電波を受信し、所定の演算を実施して現在位置の緯度、経度及び高度と現在時刻の情報を算出し、算出結果を検出制御部76へ送出する。   The GPS receiving unit 71 receives incoming radio waves from a plurality of GPS satellites (not shown) and at least four or more GPS satellites via the GPS antenna 80, performs a predetermined calculation, and the latitude, longitude, altitude and current time of the current position. And the calculation result is sent to the detection control unit 76.

3軸加速度センサ72は、互いに直交する3軸方向それぞれの加速度を検出するもので、重力加速度の方向により、センサ端末70の姿勢を検出できる。   The triaxial acceleration sensor 72 detects accelerations in the three axial directions orthogonal to each other, and can detect the attitude of the sensor terminal 70 based on the direction of gravity acceleration.

ジャイロセンサ73は、振動型ジャイロスコープで構成され、上記3軸加速度センサ72の出力と組み合わせて、このセンサ端末70の装着者の動作を解析するのに用いる。   The gyro sensor 73 is composed of a vibration gyroscope, and is used for analyzing the operation of the wearer of the sensor terminal 70 in combination with the output of the triaxial acceleration sensor 72.

地磁気センサ74は、その地点における磁北方向によりこのセンサ端末70の装着者の向いている方位の情報を検出する。   The geomagnetic sensor 74 detects information on the orientation of the wearer of the sensor terminal 70 from the magnetic north direction at that point.

気圧センサ75は、例えば静電容量型あるいはピエゾ抵抗型の大気圧を検知するセンサであり、その検知出力により現在位置の高度を推定することも可能となる。   The atmospheric pressure sensor 75 is, for example, a sensor that detects an atmospheric pressure of a capacitance type or a piezoresistive type, and it is also possible to estimate the altitude of the current position from the detection output.

検出制御部76は、センサ端末70の動作を統括して制御するプロセッサとその動作プログラムを記録したプログラムメモリ、当該プログラムを実行するためのワークメモリ等を含んで構成される。   The detection control unit 76 includes a processor that performs overall control of the operation of the sensor terminal 70, a program memory that records the operation program, a work memory that executes the program, and the like.

近距離無線通信部77は、Bluetooth(登録商標)により、近距離通信アンテナ81を介して、上記デジタルカメラ90側と無線接続する。   The near field communication unit 77 is wirelessly connected to the digital camera 90 side via the near field communication antenna 81 by Bluetooth (registered trademark).

操作部78は、電源キー等の簡易な操作キーを備え、そのキー操作に応じたキー操作信号をバスB3を介して上記検出制御部76へ送出する。   The operation unit 78 includes simple operation keys such as a power key, and sends a key operation signal corresponding to the key operation to the detection control unit 76 via the bus B3.

心拍センサ79は、リスト端末の裏面側に設けられ、装着者の手首の血管の膨張と収縮から心拍を検知する、光学式の心拍センサである。   The heart rate sensor 79 is an optical heart rate sensor that is provided on the back side of the wrist terminal and detects the heart rate from the expansion and contraction of the blood vessels on the wearer's wrist.

一方、上記センサ端末70の装着者を被写体として撮影するデジタルカメラ90では、撮影部91、近距離無線通信部92、モニタ表示部93、撮影記録制御部94、記録部95、及び操作部96が、バスB4を介して相互接続される。   On the other hand, in the digital camera 90 that photographs the wearer of the sensor terminal 70 as a subject, the photographing unit 91, the short-range wireless communication unit 92, the monitor display unit 93, the photographing / recording control unit 94, the recording unit 95, and the operation unit 96 are provided. Are interconnected via a bus B4.

撮影部91は、レンズ光学系と、CMOSイメージセンサあるいはCCDセンサによる固体撮像素子、及びそれらの各駆動回路、及びA/D変換部を含んで構成される。この撮影部91での撮影により得られ、デジタル化された画像データが、バスB4を介して撮影記録制御部94へ送出される。   The photographing unit 91 includes a lens optical system, a solid-state imaging device using a CMOS image sensor or a CCD sensor, their respective drive circuits, and an A / D conversion unit. Image data obtained and digitized by the photographing unit 91 is sent to the photographing / recording control unit 94 via the bus B4.

近距離無線通信部92は、例えばクラス2(到達距離:約10[m])のBluetooth(登録商標)技術により近距離通信アンテナ97を介して、上記センサ端末70と無線接続する他、予めペアリング処理を実行しておくことで、このデジタルカメラ90専用のアプリケーションプログラムをインストール済のスマートフォンとも無線接続し、自動撮影を行なう場合の撮影条件の設定情報の受信、自動撮影した画像データの上記スマートフォンへの転送等を行なう。   The short-range wireless communication unit 92 is connected to the sensor terminal 70 wirelessly via the short-range communication antenna 97 using, for example, the Bluetooth (registered trademark) technology of class 2 (reach distance: about 10 [m]), By performing ring processing, wireless connection is established with a smartphone in which an application program dedicated to the digital camera 90 has been installed, reception of shooting condition setting information for automatic shooting, and the above-mentioned smartphone for automatically shot image data Transfer to.

モニタ表示部93は、バックライト付きのカラー液晶パネルとそれらの各駆動回路で構成され、必要に応じて画像や設定内容等を表示する。   The monitor display unit 93 is composed of a color liquid crystal panel with a backlight and their respective drive circuits, and displays images, setting contents, and the like as necessary.

撮影記録制御部94は、このデジタルカメラ90の動作を統括して制御するプロセッサとその動作プログラムを記録したプログラムメモリ、当該プログラムを実行するためのワークメモリ等を含んで構成される。   The shooting / recording control unit 94 includes a processor that controls the operation of the digital camera 90, a program memory that records the operation program, a work memory that executes the program, and the like.

記録部95は、このデジタルカメラ90に内蔵した、着脱が不可能な不揮発性メモリと、外部から着脱が可能なメモリカードとを含み、撮影により得た画像データを随時記録する。   The recording unit 95 includes a non-removable nonvolatile memory built in the digital camera 90 and an externally removable memory card, and records image data obtained by photographing as needed.

操作部96は、電源キーやシャッタボタン、上記撮影部91のレンズ光学系が可変焦点系レンズを有する場合は焦点距離の可変キー等の操作キーを備え、そのキー操作に応じたキー操作信号をバスB4を介して上記撮影記録制御部94へ送出する。   The operation unit 96 includes a power key, a shutter button, and operation keys such as a variable focal length key when the lens optical system of the photographing unit 91 has a variable focus lens, and a key operation signal corresponding to the key operation is provided. The data is sent to the photographing / recording control unit 94 via the bus B4.

なお、上記デジタルカメラ90と組み合わせて使用するスマートフォンの電子回路の機能構成については、上記第1の実施形態の図2で説明したスマートフォン50と同様であるものとして、同一部分は同一符号を用いるものとして、その図示と説明とを省略するものとする。   In addition, about the functional structure of the electronic circuit of the smart phone used in combination with the said digital camera 90, it is the same as that of the smart phone 50 demonstrated in FIG. 2 of the said 1st Embodiment, and the same part uses the same code | symbol The illustration and description thereof will be omitted.

次に本実施形態の動作について説明する。   Next, the operation of this embodiment will be described.

スマートフォン50で設定した撮影条件をデジタルカメラ90に送信して設定することで、デジタルカメラ90において、設定された撮影条件となった時点で自動的に撮影を行なうことができるようになる
図9は、デジタルカメラ90において、撮影記録制御部94による制御の下に実行される、自動撮影の処理内容を示すフローチャートである。
By sending and setting the shooting conditions set by the smartphone 50 to the digital camera 90, the digital camera 90 can automatically take a picture when the set shooting conditions are met. 6 is a flowchart showing processing contents of automatic shooting executed under the control of the shooting / recording control unit 94 in the digital camera 90.

その当初に撮影記録制御部94では、モニタ表示用に撮影部91で所定のフレームレート、例えば30[フレーム/秒]で撮影を実行する(ステップS501)。この場合、フレームレートを保持するために、撮影時のシャッタ速度は、例えば1/60[秒]より速い速度が設定され、自動露出処理によりそのシャッタ速度に対応した絞り値が設定されて、撮影が実行される。   At the beginning, the photographing / recording control unit 94 performs photographing at a predetermined frame rate, for example, 30 [frames / second], for monitor display (step S501). In this case, in order to maintain the frame rate, the shutter speed at the time of shooting is set to a speed faster than 1/60 [second], for example, and an aperture value corresponding to the shutter speed is set by automatic exposure processing, and shooting is performed. Is executed.

このモニタ用の画像撮影と併せて、撮影記録制御部94はセンサ端末70側からの各センサ出力を受信する(ステップS502)。   In conjunction with the monitor image capturing, the recording / recording control unit 94 receives each sensor output from the sensor terminal 70 side (step S502).

撮影記録制御部94は、上記直前のステップS501で取得した画像データ中から輪郭抽出処理、顔認識処理、及び人物抽出処理を含む画像処理により被写体抽出処理を実行する(ステップS503)。   The imaging / recording control unit 94 executes subject extraction processing by image processing including contour extraction processing, face recognition processing, and person extraction processing from the image data acquired in the immediately preceding step S501 (step S503).

撮影記録制御部94は、画像中から複数の人物が抽出された場合、ステップS502で取得した各種のセンサ出力により、センサ端末70を装着している人物の経時的な変化を参照して、センサ端末70を装着している人物を選定し、被写体として認識する。ここで、当該変化には、例えば、体を動かしている量の大きさや、3次元空間内で移動している方位等が含まれる。   When a plurality of persons are extracted from the image, the imaging / recording control unit 94 refers to changes with time of the person wearing the sensor terminal 70 based on various sensor outputs acquired in step S502, and A person wearing the terminal 70 is selected and recognized as a subject. Here, the change includes, for example, the magnitude of the amount of movement of the body, the direction of movement in the three-dimensional space, and the like.

さらに撮影記録制御部94は、スマートフォン50によって設定されている、1つ乃至複数の撮影条件のうちの少なくとも1つが成立しているか否かを、設定されている各種のセンサ出力により判断する(ステップS504)。なお、センサ端末70またはスマートフォン50内で撮影条件の成立を判断し、自動撮影指示信号をデジタルカメラ90に送ってもよい。その場合は、ステップS504でYesと判断する。   Furthermore, the shooting / recording control unit 94 determines whether or not at least one of the one to a plurality of shooting conditions set by the smartphone 50 is satisfied based on the set sensor outputs (step). S504). Note that it may be determined that the shooting condition is satisfied in the sensor terminal 70 or the smartphone 50 and an automatic shooting instruction signal may be sent to the digital camera 90. In that case, Yes is determined in step S504.

撮影条件が成立していないと判断した場合(ステップS504のNo)、撮影記録制御部94は再び上記ステップS501からの処理に戻る。このステップS504で、オフの設定がなされている撮影条件については判断の対象としない。   If it is determined that the shooting condition is not satisfied (No in step S504), the shooting / recording control unit 94 returns to the process from step S501 again. In this step S504, the photographing conditions that are set to OFF are not determined.

こうしてステップS501〜S504での処理を繰返し実行することにより、撮影記録制御部94はモニタ画像中の被写体を追尾しながら、設定された撮影条件が成立するのを待機する。   By repeatedly executing the processing in steps S501 to S504 in this way, the shooting / recording control unit 94 waits for the set shooting condition to be satisfied while tracking the subject in the monitor image.

そして、設定された撮影条件が成立したと判断した時点で(ステップS504のYes)、撮影記録制御部94は、次に同一の撮影条件が成立して前回自動撮影した時点から、予め設定する一定時間、例えば30[秒]が経過しているか否かにより、同一状態での連続、重複した自動撮影となっていないかどうかを判断する(ステップS505)。   When it is determined that the set shooting condition is satisfied (Yes in step S504), the shooting record control unit 94 is set in advance from the time when the same shooting condition is satisfied and the previous automatic shooting is performed. It is determined whether or not continuous or overlapping automatic photographing in the same state has been performed depending on whether or not a time, for example, 30 [seconds] has elapsed (step S505).

なお、この一定時間経過しているかどうかの判断は、スマートフォン50側で判断して、撮影指示を撮影記録制御部94へ送るようにしてもよい。   The determination as to whether or not the predetermined time has elapsed may be made on the smartphone 50 side and a shooting instruction may be sent to the shooting / recording control unit 94.

ここで同一の撮影条件から自動撮影を実行した後、まだ上記一定時間が経過しておらず、同一状態での連続、重複した自動撮影となると判断した場合(ステップS504のNo)、撮影記録制御部94は撮影動作を行なわずに、再び上記ステップS501からの処理に戻る。   Here, after executing automatic shooting from the same shooting conditions, if it is determined that the above-mentioned fixed time has not yet elapsed and continuous or overlapping automatic shooting is performed in the same state (No in step S504), shooting and recording control is performed. The unit 94 returns to the process from step S501 again without performing the photographing operation.

また上記ステップS504において、同一の撮影条件から自動撮影を実行した後、上記一定時間が経過しており、同一状態での連続、重複した自動撮影ではないと判断した場合(ステップS504のYes)、撮影制御部16は、被写体が撮影画角内に収まっているか否か、すなわち上記直前のステップS503の処理において、センサ端末70を装着している人物を被写体として特定することができたか否かを判断する(ステップS506)。   In step S504, after the automatic shooting is performed from the same shooting condition, the fixed time has elapsed and it is determined that the automatic shooting is not continuous or overlapping in the same state (Yes in step S504). The shooting control unit 16 determines whether or not the subject is within the shooting angle of view, that is, whether or not the person wearing the sensor terminal 70 can be specified as the subject in the process of step S503 immediately above. Judgment is made (step S506).

ここで、直前のステップS503において、人物が全く認識できなかった場合や、複数の人物中から被写体となる人物を特定することができなかった場合など、被写体が撮影画角内に収まっていないと判断すると(ステップS506のNo)、撮影記録制御部94は、無駄な撮影動作を回避するべく、上記ステップS501からの処理に戻る。   Here, in the immediately preceding step S503, when the person is not recognized at all, or when the person who is the subject cannot be specified from a plurality of persons, the subject is not within the shooting angle of view. When the determination is made (No in step S506), the photographing / recording control unit 94 returns to the processing from step S501 in order to avoid useless photographing operations.

また上記ステップS506において、被写体となる人物を特定することができたと判断すると(ステップS506のYes)、撮影記録制御部94は適宜必要なズーミング処理を行なう(ステップS507)。   If it is determined in step S506 that the person who is the subject has been identified (Yes in step S506), the photographing / recording control unit 94 performs a necessary zooming process (step S507).

この場合、事前のズーム設定に応じたズーミング処理を行なう。例えば、被写体が撮影範囲の中央に位置しており、撮影部91が焦点距離を連続的に可変できるズームレンズを有している場合には、光学ズーム機能により焦点距離を大きくして、撮影画像中の被写体をより大きく設定する。   In this case, zooming processing according to the prior zoom setting is performed. For example, when the subject is located at the center of the shooting range and the shooting unit 91 has a zoom lens capable of continuously changing the focal length, the shot distance is increased by the optical zoom function. Set the subject inside larger.

反対に、被写体が撮影範囲の端部に位置しており、体あるいは顔が部分的にしか写っておらず、且つ撮影部91が焦点距離を連続的に可変できるズームレンズを有している場合には、光学ズーム機能により焦点距離を小さく(撮影画角を大きく)して、撮影画像中に被写体が確実に入るようにする。   Conversely, when the subject is located at the end of the shooting range, the body or face is only partially captured, and the shooting unit 91 has a zoom lens that can continuously change the focal length. In such a case, the focal length is reduced (the shooting angle of view is increased) by the optical zoom function so that the subject is surely included in the shot image.

また、撮影部91が、光学ズームが実行できない単焦点レンズである場合でも、その時点で設定されている撮影画像の画像サイズが、撮影部91が有する固体撮像素子の画素数の構成に比して十分に小さい場合には、撮影部91で得た画像データ中から切り出す画像の範囲を可変する、所謂デジタルズーム処理を実行することで、光学ズーと同様の効果をそうすることができる。   Further, even when the photographing unit 91 is a single focus lens that cannot perform optical zoom, the image size of the photographed image set at that time is compared with the configuration of the number of pixels of the solid-state imaging device that the photographing unit 91 has. If it is sufficiently small, an effect similar to that of the optical zoom can be achieved by executing a so-called digital zoom process in which the range of an image to be cut out from the image data obtained by the photographing unit 91 is changed.

また、上記光学ズームとデジタルズームとを組み合わせて実行するものとしてもよい。   The optical zoom and the digital zoom may be executed in combination.

さらに、予め画像の構図を複数設定しておくような、シーンプログラム機能と組み合わせて、あえて被写体を画像の中心に据えるのみでなく、背景との位置関係を考慮したズーム処理を設定するものとしてもよい。   Furthermore, in combination with a scene program function that sets multiple image compositions in advance, it is possible to set not only the subject at the center of the image but also zoom processing that takes into account the positional relationship with the background. Good.

上記ステップS507において、ズーミング処理を予め設定した内容に基づいて適宜実行した後、撮影記録制御部94はあらためて撮影部91による自動撮影動作を実行させる(ステップS508)。   In step S507, after appropriately performing the zooming process based on the preset content, the shooting / recording control unit 94 again causes the shooting unit 91 to execute an automatic shooting operation (step S508).

さらに撮影記録制御部94は、自動撮影により得た、例えばJPEG形式の画像データファイルに、Exif規格に基づいた規定のメタデータに付随して、上記自動撮影を行なった際の撮影条件とその検出値(センサ出力値)を埋め込む(ステップS509)。当該検出値と共に、その時点で得られる他の各種センサの検出値が含まれても良い。   Further, the shooting / recording control unit 94 adds, for example, a JPEG format image data file obtained by automatic shooting, along with specified metadata based on the Exif standard, and shooting conditions and detection thereof when the automatic shooting is performed. A value (sensor output value) is embedded (step S509). The detection values of other various sensors obtained at that time may be included together with the detection values.

ここで上記自動撮影を行なった際の撮影条件が複数あった場合には、成立したそれぞれの撮影条件とその検出値とを、他の各種センサの検出値と共に埋め込むこととなる。   Here, when there are a plurality of shooting conditions when performing the above automatic shooting, the established shooting conditions and detection values thereof are embedded together with detection values of other various sensors.

因みに上記規定のメタデータとしては、撮影日時、撮影機器のメーカ名、撮影機器の機種名、画像全体の解像度(画像サイズ)、水平・垂直方向の単位あたり解像度、撮影方向(方位)、シャッタ速度、絞りF値、ISO感度、測光モード、フラッシュの有無、露光補正ステップ値、焦点距離、色空間(カラースペース)、GPS情報、及びサムネイル画像(160×120画素)(.bmp)を含む。   Incidentally, the above-mentioned metadata includes the shooting date and time, the manufacturer name of the shooting device, the model name of the shooting device, the resolution of the entire image (image size), the resolution per unit in the horizontal and vertical directions, the shooting direction (azimuth), and the shutter speed. , Aperture F value, ISO sensitivity, photometry mode, presence / absence of flash, exposure correction step value, focal length, color space (color space), GPS information, and thumbnail image (160 × 120 pixels) (.bmp).

撮影条件をExifのメタデータに付随して画像データファイルに埋め込んだ撮影記録制御部94は、当該画像データファイルを外部のスマートフォン50に送信すると共に、このデジタルカメラ90内の記録部95にも記録させる(ステップS510)。   The shooting / recording control unit 94 that embeds the shooting conditions in the image data file accompanying the Exif metadata transmits the image data file to the external smartphone 50 and also records it in the recording unit 95 in the digital camera 90. (Step S510).

こうして、予め設定した撮影条件が成立して自動撮影を行なってから記録するまでの一連の処理を終えると、撮影記録制御部94はあらためて次の自動撮影に備えるべく、上記ステップS501からの処理に戻る。   In this way, when a series of processing from when automatic shooting is performed after the predetermined shooting conditions are satisfied and recording is completed, the shooting / recording control unit 94 performs the processing from step S501 to prepare for the next automatic shooting. Return.

こうして上記図9の処理に基づいて自動撮影が実行され、撮影により得られた画像データファイルがスマートフォン50へ送信されると共に、記録部95にも随時蓄積して記録される。   In this way, automatic shooting is executed based on the processing of FIG. 9, and an image data file obtained by shooting is transmitted to the smartphone 50 and is also accumulated and recorded in the recording unit 95 as needed.

このデジタルカメラ90のユーザが、デジタルカメラ90専用のアプリケーションプログラムをインストールしたスマートフォン50を、デジタルカメラ90と近接して所持することにより、デジタルカメラ90から送信された画像データファイルは、スマートフォン50側の所定のデータフォルダ、例えばメモリカードスロット69に装着されたメモリカードのデジタルカメラ90専用の画像データフォルダに記録される。   When the user of the digital camera 90 holds the smartphone 50 installed with the application program dedicated to the digital camera 90 in the vicinity of the digital camera 90, the image data file transmitted from the digital camera 90 is stored on the smartphone 50 side. The data is recorded in a predetermined data folder, for example, an image data folder dedicated to the digital camera 90 of the memory card inserted in the memory card slot 69.

次に図10を用いて、スマートフォン50で上記デジタルカメラ90専用のアプリケーションプログラムに従ってアルバム画像の再生を行なう場合、その当初にアルバムトップとなる一覧画像を作成して表示部56で表示させる際の処理を説明する。   Next, referring to FIG. 10, when the album image is played back on the smartphone 50 in accordance with the application program dedicated to the digital camera 90, a process for creating a list image that initially becomes the album top and displaying it on the display unit 56 is performed. Will be explained.

このアプリケーションプログラムは、CPU51がプログラムメモリ53から読出し、ワークメモリ52上に展開して保持させた上で実行されるもので、上記図5のステップS301の、より詳細な別処理を示すサブルーチンに相当する。   This application program is read out from the program memory 53 by the CPU 51 and executed after being expanded and held on the work memory 52. The application program corresponds to a subroutine showing further detailed processing in step S301 in FIG. To do.

当該アプリケーションプログラムを起動した当初、CPU51はメモリカードスロット69に装着されたメモリカードの所定の画像データフォルダ中に記憶されている画像ファイルデータ中で、撮影日時データが新しい順序に従って、まだ選択されていないものから1つ選択する(ステップS701)。   At the start of the application program, the CPU 51 has not yet selected the shooting date / time data in the new order in the image file data stored in the predetermined image data folder of the memory card inserted in the memory card slot 69. One of them is selected (step S701).

CPU51は、この選択により未選択の画像データがもうないかどうかにより、すべての画像データの選択を終えたかどうかを判断する(ステップS702)。   The CPU 51 determines whether or not selection of all image data has been completed depending on whether or not there is no unselected image data due to this selection (step S702).

CPU51は、選択すべき画像データがあった場合(ステップS702のNo)、その選択した画像データと、他の画像データがあるか否かを判断する(ステップS703)。他の画像データとは、同一の時間帯、同一の撮影条件、及び同一の構図で、すでにアルバムトップの画像の一部として表示設定されたものである。   When there is image data to be selected (No in step S702), the CPU 51 determines whether there is the selected image data and other image data (step S703). The other image data is already set as a part of the album top image in the same time zone, the same shooting condition, and the same composition.

ここで、選択した画像データと、同一の時間帯、撮影条件、及び同一の構図が一致する、すでに表示設定された他の画像データがあると判断した場合(ステップS703のYes)、アルバムトップ中の画像で同様の画像がすでに表示すべきものとして存在することとなる。   Here, when it is determined that there is other image data that has already been set for display in which the selected image data matches the same time zone, shooting conditions, and the same composition (Yes in step S703), the album top A similar image already exists as an image to be displayed.

そのためにCPU51は、そのすでに表示設定されている画像データに、関連画像があることを示すシンボルマークを一部に重ねて表示させるように付帯情報を設定すると共に、直前に選択した画像データ自体に対しては不表示の設定を行なって、アルバムトップ中での重複した画像の表示を回避する(ステップS704)。   For this purpose, the CPU 51 sets incidental information so that a symbol mark indicating that there is a related image is displayed in a part of the image data that has already been set for display, and the image data selected immediately before is displayed. On the other hand, a non-display setting is performed to avoid displaying duplicate images in the album top (step S704).

また上記ステップS703において、選択した画像データと、同一の時間帯、撮影条件、及び同一の構図が一致する、すでに表示設定された他の画像データはないと判断した場合(ステップS703のNo)、アルバムトップ中の画像で同様の画像はまだ表示すべきものとして設定されていないことになる。   If it is determined in step S703 that there is no other image data that has already been set for display, the selected image data matches the same time zone, shooting conditions, and the same composition (No in step S703). A similar image in the album top is not yet set to be displayed.

そのためにCPU51は、直前に選択した画像データを表示すべきものとして設定する(ステップS705)。   For this purpose, the CPU 51 sets the image data selected immediately before to be displayed (step S705).

上記ステップS704またはS705の処理後、CPU51は選択した画像データに関して表示/不表示の設定を終えた選択済である設定を行なった上で(ステップS706)、まだ選択していない他の画像データに備えるべく上記ステップS701からの処理に戻る。   After the processing of step S704 or S705, the CPU 51 performs the setting that has been set for the display / non-display for the selected image data (step S706), and sets other image data that has not been selected yet. In order to be prepared, the processing returns to step S701.

このようにして、CPU51は、ステップS701〜S706の処理を繰返し実行することで、メモリカードスロット69に装着されたメモリカードに記録されているすべての画像データの表示/不表示の設定を行なう。   In this manner, the CPU 51 repeatedly executes the processing of steps S701 to S706 to set display / non-display of all image data recorded on the memory card inserted in the memory card slot 69.

CPU51は、撮影日時データが最も古い最後の画像データに対する表示/不表示の設定と選択済の設定とを行なった後、ステップS701の処理を経て、ステップS702において、選択すべき画像データが存在しないと判断すると(ステップS702のYes)、図6で示したようなアルバムトップとなる一覧画像を作成して表示部56で表示させる(ステップS707)。この場合、CPU51は、表示すべきものとして選択した画像データそれぞれのサムネイル画像データを用いて、アルバムトップとなる一覧画像を作成して表示部56で表示させる。以上で、CPU51は、図10に示すサブルーチンの処理を終了すると共に、そのアルバムトップ画像に対する操作を受付けるべく、図5に示すステップS302の処理に移行する。   The CPU 51 performs display / non-display setting and selected setting for the last image data with the oldest shooting date / time data, and then there is no image data to be selected in step S702 through the processing in step S701. (Yes in step S702), a list image that is the album top as shown in FIG. 6 is created and displayed on the display unit 56 (step S707). In this case, the CPU 51 uses the thumbnail image data of each of the image data selected to be displayed to create a list image that becomes the album top and displays it on the display unit 56. As described above, the CPU 51 ends the processing of the subroutine shown in FIG. 10 and shifts to the processing of step S302 shown in FIG. 5 in order to accept the operation on the album top image.

以上詳述した如く本実施形態においては、複数のセンサを備えたセンサ端末70を装着している人物を被写体として、デジタルカメラ90により当該被写体が撮影画角に入るように確実に自動撮影を行なうことができる。   As described above in detail, in the present embodiment, a person wearing a sensor terminal 70 having a plurality of sensors is used as a subject, and automatic shooting is surely performed by the digital camera 90 so that the subject falls within the shooting angle of view. be able to.

デジタルカメラ90での撮影により得た画像データと撮影条件となったセンサ出力及びその他のセンサ出力のデータは、すべてスマートフォン50に転送され、スマートフォン50で画像再生等の後処理を行なうため、デジタルカメラ90は撮影動作のみに注力して処理の負担を軽減できる。   Since the image data obtained by photographing with the digital camera 90 and the sensor output and other sensor output data as photographing conditions are all transferred to the smartphone 50 and post-processing such as image reproduction is performed by the smartphone 50, the digital camera 90 can reduce the processing load by focusing only on the shooting operation.

また上記実施形態では示さなかったが、デジタルカメラ90では、撮影した画像データと撮影条件を含む各種センサ出力のデータ等をあえてデータファイル化しない状態で外部のスマートフォン50へ転送し、これらを受けたスマートフォン50側であらためてExifデータの作成などデータファイル化する処理を実行することにより、さらにデジタルカメラ90での処理負担を軽減できる。   Although not shown in the above embodiment, in the digital camera 90, the captured image data and various sensor output data including shooting conditions are transferred to the external smartphone 50 in a state where the data is not converted into a data file and received. The processing load on the digital camera 90 can be further reduced by executing a process for creating a data file such as creation of Exif data again on the smartphone 50 side.

また上記実施形態では、自動撮影に際して、センサ端末70を装着している人物を被写体としてその被写体の位置に応じたズーミング処理を伴って画像撮影を行なうものとしたので、例えば撮影画角一杯に被写体が位置させるように設定する他、予め選択したいくつかの構図のうちのいずれかに該当するように意図して被写体を小さく写るように設定するなど、予め設定した意図に応じた自動撮影を実行させることが可能となる。   Further, in the above-described embodiment, in automatic shooting, the person wearing the sensor terminal 70 is taken as a subject, and image shooting is performed with zooming processing according to the position of the subject. In addition to setting to position the subject, automatic shooting is performed according to the preset intention, such as setting the subject to be small so that it corresponds to one of several pre-selected compositions It becomes possible to make it.

なお上記実施形態では、センサ端末70がGPS受信部71及びGPSアンテナ80を設けている場合を説明したので、撮影条件の1つとして、自動撮影を行なう地点をピンポイント、あるいは範囲で設定することができる。   In the above embodiment, the case where the sensor terminal 70 is provided with the GPS receiving unit 71 and the GPS antenna 80 has been described. Therefore, as one of the shooting conditions, a point where automatic shooting is performed is set as a pinpoint or a range. Can do.

そのため、撮影を行ないたい地点の正確な位置情報を事前に設定しておくことで、確実に自動撮影を行なわせることができる。   Therefore, automatic shooting can be surely performed by setting in advance accurate position information of a point where shooting is desired.

加えて、上記位置情報から被写体が所定の範囲内に存在し、且つ他の撮影条件が成立いるときの自動撮影が重複しないように、自動撮影を行なう回数を1回に制限することで、同一のエリア内で類似した画像を無駄に自動撮影する事態を回避できる。   In addition, by limiting the number of times of automatic shooting to one so that the automatic shooting when the subject exists within a predetermined range and other shooting conditions are satisfied from the position information is not repeated, the same It is possible to avoid a situation where a similar image is automatically shot in the area.

なお上記実施形態では、スマートフォン50が事前にインストールしているアプリケーションに基づいて各種撮影条件の設定を任意に行なうものとして説明したが、同様のアプリケーションプログラムを、撮影対象となる被写体の種類(人物/ペットなど)や、撮影を行なう環境や用途(例えば登山やトレッキング、サイクリング、フィッシング、ダイビング、ゴルフなど)に応じて複数用意し、それら複数のアプリケーションプログラムから1つを選択することで、そのアプリケーションプログラムに対応する撮影条件を、ある程度固定的に設定するようにすることも考えられる。   In the above-described embodiment, it has been described that various shooting conditions are arbitrarily set based on an application installed in advance by the smartphone 50. However, a similar application program is used for the type of subject to be shot (person / person (Pet, etc.) and shooting environment and usage (for example, mountain climbing, trekking, cycling, fishing, diving, golf, etc.), multiple application programs can be selected by selecting one of these application programs. It is also conceivable that the shooting conditions corresponding to are fixed to some extent.

このようにすれば、シーンプログラムによる撮影の選択と同様に、手間を省いて効率的に自動撮影のための条件を設定することができる。   In this way, it is possible to efficiently set the conditions for automatic shooting, saving time and effort, in the same way as shooting selection by the scene program.

その他、本発明は、上記実施形態に限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で種々に変形することが可能である。また、各実施形態は適宜組み合わせて実施してもよく、その場合組み合わせた効果が得られる。更に、上記実施形態には種々の発明が含まれており、開示される複数の構成要件から選択された組み合わせにより種々の発明が抽出され得る。例えば、実施形態に示される全構成要件からいくつかの構成要件が削除されても、課題が解決でき、効果が得られる場合には、この構成要件が削除された構成が発明として抽出され得る。   In addition, the present invention is not limited to the above-described embodiment, and various modifications can be made without departing from the scope of the invention in the implementation stage. Further, the embodiments may be implemented in combination as appropriate, and in that case, the combined effect can be obtained. Furthermore, the present invention includes various inventions, and various inventions can be extracted by combinations selected from a plurality of disclosed constituent elements. For example, even if several constituent requirements are deleted from all the constituent requirements shown in the embodiment, if the problem can be solved and an effect can be obtained, the configuration from which the constituent requirements are deleted can be extracted as an invention.

以下に、本願出願の当初の特許請求の範囲に記載された発明を付記する。
[請求項1]
作動及び停止を設定可能な複数のセンシング機能に対応して、作動を設定されていたセンシング機能のセンシング結果から、所定の撮影条件が成立したときに自動撮影された撮影画像情報を、その成立した撮影条件またはその成立した撮影条件に使用したセンシング機能を示すトリガ情報とともに取得する取得手段と、
画像を表示する表示手段と、
上記取得手段で取得した撮影条件を示すトリガ情報を、上記撮影画像情報に関連付けて、上記表示手段で表示させる表示制御手段と、
を備える画像再生装置。
[請求項2]
上記取得手段は、撮影位置情報を取得し、
上記表示手段は、地図を表示し、
上記表示制御手段は、上記取得手段で取得したトリガ情報を、上記地図中の対応する位置と関連付けて上記表示手段で表示させる、
請求項1記載の画像再生装置。
[請求項3]
上記撮影条件を示すトリガ情報は、上記成立した撮影条件に使用したセンシング機能を示す記号または上記成立した撮影条件を示す数値である、請求項1記載の画像再生装置。
[請求項4]
上記表示制御手段は、上記成立した撮影条件に使用したセンシング機能を示す記号、上記成立した撮影条件を示す数値及びその単位を上記表示手段で表示させる、請求項1記載の画像再生装置。
[請求項5]
上記取得手段は、当該画像再生装置とは別体の撮像装置から上記撮影画像情報及び上記トリガ情報を無線により取得する、請求項1記載の画像再生装置。
[請求項6]
上記取得手段は、当該画像再生装置とは別体の撮像装置から、上記撮像装置の位置情報を無線により取得する、請求項2記載の画像再生装置。
[請求項7]
上記表示手段で表示する画像の変更を指示する指示手段をさらに備え、
上記表示制御手段は、上記指示手段での変更指示に応じて上記撮影画像情報に基づく画像を上記表示手段で表示させる、
請求項1記載の画像再生装置。
[請求項8]
上記所定の撮影条件は、複数のセンシング機能から選択または組み合わせて決定し、別体の撮像装置へ送信することができる、請求項1記載の画像再生装置。
[請求項9]
所定の時間内に上記所定の撮影条件が複数成立していた場合、上記取得手段は、代表として少なくとも1つの撮影画像情報を取得し、上記表示制御手段は、上記少なくとも1つの代表撮影画像に関連付けて上記複数のトリガ情報を表示させる、請求項1記載の画像再生装置。
[請求項10]
複数のセンサと、
上記複数のセンサの作動及び停止を設定する設定手段と、
上記設定手段で作動を設定されたセンサのセンシング結果から所定の撮影条件が成立したときに自動撮影する撮像手段と、
上記自動撮影された撮影画像情報を、その成立した撮影条件またはその成立した撮影条件に使用したセンサを示すトリガ情報とともに記録する記録手段と、
を備える撮像装置。
[請求項11]
上記複数のセンサと上記設定手段は、上記撮像装置の外部のセンサ端末に含まれており、
上記センサ端末から、作動を設定されたセンサのセンシング結果を受信する通信装置を含む、
請求項10記載の撮像装置。
[請求項12]
上記センサ端末を装着した被写体が撮影画角内に収まっていることを判定する撮影制御手段をさらに備え、
上記通信装置は、上記作動を設定されたセンサの測定値から所定の撮影条件が成立したことを示す、またはその成立した撮影条件に使用したセンサを示すトリガ情報を受信し、
上記撮影制御手段は、上記被写体が撮影画角内に収まっていると判定したときに、上記撮像手段による自動撮影を実行させる、
請求項11記載の撮像装置。
[請求項13]
上記通信装置は、上記撮像手段による自動撮影処理を行って取得した撮影画像情報と、上記トリガ情報を、外部の画像再生装置に送信する、請求項11記載の撮像装置。
[請求項14]
上記撮影制御手段は、所定の時間内に上記所定の撮影条件が複数成立していた場合、代表として少なくとも1枚の撮影画像の自動撮影処理を実行させる、請求項12記載の撮像装置。
[請求項15]
上記センサ端末との接近を検出する検出手段をさらに備え、
上記撮影制御手段は、上記検出手段により上記被写体の接近を検出し、且つ、上記センサの少なくとも1つの測定値から所定の撮影条件が成立したと判断した場合に、自動撮影処理を実行させる、
請求項12記載の撮像装置。
[請求項16]
上記撮像手段は、上記被写体の撮影画角内での大きさに応じたズーム処理を伴って自動撮影処理を行なう、請求項12記載の撮像装置。
[請求項17]
上記センサ端末から、現在位置を測定した位置情報を受信する位置情報受信手段をさらに備え、
上記撮影制御手段は、上記受信した位置情報により上記被写体が所定の位置の範囲内に存在し、且つ、上記センサの少なくとも1つの測定値から所定の撮影条件が成立したと判断した場合に、自動撮影処理を実行させる、
請求項12記載の撮像装置。
[請求項18]
上記撮影制御手段は、上記位置情報受信手段により上記被写体が所定の位置の範囲内に存在し、且つ、センサの少なくとも1つの測定値から所定の撮影条件が成立したと判断した場合に、代表として少なくとも1枚の撮影画像の自動撮影処理を実行させる、請求項17記載の撮像装置。
[請求項19]
複数のアプリケーションプログラムを内蔵し、アプリケーションプログラム毎に必要とする上記複数のセンサが異なっており、
選択したアプリケーションプログラムに対応して、上記設定手段により、複数のセンサの測定値に対する作動及び停止を設定させる、
請求項11記載の撮像装置。
[請求項20]
撮像装置の外部のセンサ端末から、複数のセンサのセンシング結果を受信すること、
上記センサ端末を保持した被写体が撮影画角内に収まっていることを判定すること、
上記受信したセンシング結果が所定の撮影条件が成立していることを示し、且つ、上記被写体が撮影画角内に収まっていることを判定したときに、自動撮影を実行すること、
上記自動撮影された撮影画像情報を、その成立した撮影条件またはその成立した撮影条件に使用したセンサを示すトリガ情報とともに記録すること、
を実行する画像再生方法。
[請求項21]
表示部を備える装置が内蔵したコンピュータが実行するプログラムであって、上記コンピュータを、
作動及び停止を設定可能な複数のセンシング機能に対応して、作動を設定されていたセンシング機能のセンシング結果から、所定の撮影条件が成立したときに自動撮影された撮影画像情報を、その成立した撮影条件またはその成立した撮影条件に使用したセンシング機能を示すトリガ情報とともに取得する取得手段、及び
上記取得手段で取得した撮影条件を示すトリガ情報を、上記撮影画像情報に関連付けて、上記表示部で表示させる表示制御手段、
として機能させるプログラム。
[請求項22]
複数のセンサを備える装置が内蔵したコンピュータが実行するプログラムであって、上記コンピュータを、
上記複数のセンサの作動及び停止を設定する設定手段、
上記設定手段で作動を設定されたセンサのセンシング結果から所定の撮影条件が成立したときに自動撮影する撮像手段、及び
上記自動撮影された撮影画像情報を、その成立した撮影条件またはその成立した撮影条件に使用したセンサを示すトリガ情報とともに記録する記録手段、
として機能させるプログラム。
Hereinafter, the invention described in the scope of claims of the present application will be appended.
[Claim 1]
Corresponding to a plurality of sensing functions that can be activated and deactivated, based on the sensing result of the sensing function that was set to activate, the captured image information that was automatically captured when a predetermined imaging condition was met was established Acquisition means for acquiring together with trigger information indicating a sensing function used for the imaging condition or the established imaging condition;
Display means for displaying an image;
Display control means for causing the display means to display trigger information indicating the photographing condition obtained by the obtaining means in association with the photographed image information;
An image reproduction apparatus comprising:
[Claim 2]
The acquisition means acquires shooting position information,
The display means displays a map,
The display control means causes the display means to display the trigger information acquired by the acquisition means in association with a corresponding position in the map;
The image reproduction apparatus according to claim 1.
[Claim 3]
The image reproducing device according to claim 1, wherein the trigger information indicating the imaging condition is a symbol indicating a sensing function used for the established imaging condition or a numerical value indicating the established imaging condition.
[Claim 4]
2. The image reproducing apparatus according to claim 1, wherein the display control means causes the display means to display a symbol indicating a sensing function used for the established photographing condition, a numerical value indicating the established photographing condition, and a unit thereof.
[Claim 5]
The image reproduction device according to claim 1, wherein the acquisition unit wirelessly acquires the captured image information and the trigger information from an imaging device separate from the image reproduction device.
[Claim 6]
The image reproducing apparatus according to claim 2, wherein the acquisition unit wirelessly acquires position information of the imaging apparatus from an imaging apparatus separate from the image reproducing apparatus.
[Claim 7]
An instruction means for instructing a change of an image displayed by the display means;
The display control means causes the display means to display an image based on the captured image information in response to a change instruction from the instruction means.
The image reproduction apparatus according to claim 1.
[Claim 8]
The image reproducing apparatus according to claim 1, wherein the predetermined imaging condition can be selected or determined from a plurality of sensing functions and transmitted to a separate imaging apparatus.
[Claim 9]
When a plurality of the predetermined shooting conditions are satisfied within a predetermined time, the acquisition unit acquires at least one captured image information as a representative, and the display control unit associates with the at least one representative captured image. The image reproduction device according to claim 1, wherein the plurality of trigger information is displayed.
[Claim 10]
Multiple sensors,
Setting means for setting operation and stop of the plurality of sensors;
Imaging means for automatically photographing when a predetermined photographing condition is satisfied from the sensing result of the sensor set to operate by the setting means;
Recording means for recording the automatically captured image information together with trigger information indicating the established imaging condition or a sensor used for the established imaging condition;
An imaging apparatus comprising:
[Claim 11]
The plurality of sensors and the setting unit are included in a sensor terminal outside the imaging device,
Including a communication device that receives a sensing result of a sensor set to operate from the sensor terminal;
The imaging device according to claim 10.
[Claim 12]
A photographing control means for determining that the subject wearing the sensor terminal is within a photographing angle of view;
The communication device receives trigger information indicating that a predetermined imaging condition is established from the measured value of the sensor set for the operation, or indicating a sensor used for the established imaging condition,
The photographing control means, when it is determined that the subject is within the photographing angle of view, the automatic photographing by the imaging means is executed;
The imaging device according to claim 11.
[Claim 13]
The imaging apparatus according to claim 11, wherein the communication apparatus transmits captured image information acquired by performing automatic imaging processing by the imaging unit and the trigger information to an external image reproduction apparatus.
[Claim 14]
The imaging apparatus according to claim 12, wherein the imaging control unit executes an automatic imaging process of at least one captured image as a representative when a plurality of the predetermined imaging conditions are satisfied within a predetermined time.
[Claim 15]
It further comprises detection means for detecting the approach with the sensor terminal,
The photographing control means detects an approach of the subject by the detecting means, and executes an automatic photographing process when it is determined that a predetermined photographing condition is satisfied from at least one measurement value of the sensor.
The imaging device according to claim 12.
[Claim 16]
The imaging apparatus according to claim 12, wherein the imaging unit performs an automatic shooting process with a zoom process according to a size of the subject within a shooting angle of view.
[Claim 17]
The apparatus further comprises position information receiving means for receiving position information obtained by measuring the current position from the sensor terminal,
The photographing control means automatically determines that the subject is within a predetermined position range based on the received position information and that a predetermined photographing condition is satisfied from at least one measurement value of the sensor. Execute shooting process,
The imaging device according to claim 12.
[Claim 18]
The photographing control means is representative when the position information receiving means determines that the subject is within a predetermined position range and a predetermined photographing condition is satisfied from at least one measurement value of the sensor. The imaging apparatus according to claim 17, wherein automatic imaging processing of at least one captured image is executed.
[Claim 19]
Built-in multiple application programs, the multiple sensors required for each application program is different,
Corresponding to the selected application program, the above setting means sets the operation and stop for the measured values of a plurality of sensors.
The imaging device according to claim 11.
[Claim 20]
Receiving sensing results of a plurality of sensors from a sensor terminal outside the imaging device;
Determining that the subject holding the sensor terminal is within the shooting angle of view;
Performing automatic shooting when the received sensing result indicates that a predetermined shooting condition is satisfied and it is determined that the subject is within a shooting angle of view;
Recording the automatically captured image information together with trigger information indicating the established imaging condition or the sensor used for the established imaging condition;
Image playback method to execute.
[Claim 21]
A program executed by a computer built in an apparatus having a display unit, wherein the computer is
Corresponding to a plurality of sensing functions that can be activated and deactivated, based on the sensing result of the sensing function that was set to activate, the captured image information that was automatically captured when a predetermined imaging condition was met was established Acquisition means for acquiring together with trigger information indicating a sensing function used for the imaging condition or the established imaging condition; and
Display control means for displaying trigger information indicating the shooting condition acquired by the acquisition means on the display unit in association with the captured image information;
Program to function as.
[Claim 22]
A program executed by a computer built in an apparatus including a plurality of sensors, wherein the computer is
Setting means for setting operation and stop of the plurality of sensors;
Imaging means for automatically photographing when a predetermined photographing condition is satisfied from the sensing result of the sensor set to operate by the setting means, and
Recording means for recording the automatically captured image information together with trigger information indicating the established imaging condition or the sensor used for the established imaging condition,
Program to function as.

10…(分離型)デジタルカメラ
10A…カメラ部
10B…本体部
11…撮影部
12…GPSレシーバ
13…地磁気センサ
14…3軸加速度センサ
15…ジャイロセンサ
16…撮影制御部
17…近距離無線通信部
18…気圧センサ
19…操作部
20…GPSアンテナ
21…近距離通信アンテナ
31…記録制御部
32…近距離無線通信部
33…モニタ表示部
34…記録部
35…操作部
36…近距離通信アンテナ
50…スマートフォン
51…CPU
52…ワークメモリ
53…プログラムメモリ
55…撮影部
56…表示部
57…タッチ入力部
58…音声処理部
59…通信インタフェース(I/F)
60…NFC部
61…外部デバイスインタフェース(I/F)
62…スピーカ
63…マイクロホン
64〜66…アンテナ
67…ヘッドホンジャック
68…マイクロUSB端子
69…メモリカードスロット
70…センサ端末
71…GPS受信部
72…3軸加速度センサ
73…ジャイロセンサ
74…地磁気センサ
75…気圧センサ
76…検出制御部
77…近距離無線通信部
78…操作部
79…心拍センサ
80…GPSアンテナ
81…近距離通信アンテナ
90…デジタルカメラ
91…撮影部
92…近距離無線通信部
93…モニタ表示部
94…撮影記録制御部
95…記録部
96…操作部
97…近距離通信アンテナ
B1〜B4,BL…バス
HC…「登り坂」シンボル記号
MI…地図画像
DESCRIPTION OF SYMBOLS 10 ... (Separate type) Digital camera 10A ... Camera part 10B ... Main-body part 11 ... Imaging | photography part 12 ... GPS receiver 13 ... Geomagnetic sensor 14 ... 3-axis acceleration sensor 15 ... Gyro sensor 16 ... Shooting control part 17 ... Near field communication part 18 ... Barometric pressure sensor 19 ... Operation unit 20 ... GPS antenna 21 ... Short range communication antenna 31 ... Recording control unit 32 ... Short range wireless communication unit 33 ... Monitor display unit 34 ... Recording unit 35 ... Operation unit 36 ... Short range communication antenna 50 ... Smartphone 51 ... CPU
52 ... Work memory 53 ... Program memory 55 ... Shooting unit 56 ... Display unit 57 ... Touch input unit 58 ... Audio processing unit 59 ... Communication interface (I / F)
60 ... NFC 61 ... External device interface (I / F)
62 ... Speaker 63 ... Microphone 64-66 ... Antenna 67 ... Headphone jack 68 ... Micro USB terminal 69 ... Memory card slot 70 ... Sensor terminal 71 ... GPS receiver 72 ... 3-axis acceleration sensor 73 ... Gyro sensor 74 ... Geomagnetic sensor 75 ... Barometric sensor 76 ... detection control unit 77 ... short-range wireless communication unit 78 ... operation unit 79 ... heart rate sensor 80 ... GPS antenna 81 ... short-range communication antenna 90 ... digital camera 91 ... photographing unit 92 ... short-range wireless communication unit 93 ... monitor Display unit 94 ... Shooting / recording control unit 95 ... Recording unit 96 ... Operation unit 97 ... Short-range communication antennas B1-B4, BL ... Bus HC ... "Uphill" symbol symbol MI ... Map image

Claims (11)

作動及び停止を設定可能な複数のセンシング機能に対応して、作動を設定されていたセンシング機能のセンシング結果から、所定の撮影条件が成立したときに自動撮影された撮影画像情報を、その成立した撮影条件またはその成立した撮影条件に使用したセンシング機能を示すトリガ情報とともに取得する取得手段と、
上記取得手段により取得した自動撮影された撮影画像情報を、その成立した撮影条件またはその成立した撮影条件に使用したセンシング機能を示すトリガ情報と関連付けて記憶する記憶手段と、
上記記憶手段に記憶されている撮影画像情報を表示する表示手段と、
上記表示手段に表示される撮影画像情報と、上記記憶手段に記憶されている上記自動撮影された撮影画像情報の成立した撮影条件またはその成立した撮影条件に使用したセンシング機能を示すトリガ情報を関連付けて、上記表示手段に表示させる表示制御手段と、
を備え
上記取得手段は、撮影位置情報を取得し、
上記表示手段は、地図を表示し、
上記表示制御手段は、上記取得手段で取得したトリガ情報を、上記地図中の対応する位置と関連付けて上記表示手段で表示させる、
画像再生装置。
Corresponding to a plurality of sensing functions that can be activated and deactivated, based on the sensing result of the sensing function that was set to activate, the captured image information that was automatically captured when a predetermined imaging condition was met was established Acquisition means for acquiring together with trigger information indicating a sensing function used for the imaging condition or the established imaging condition;
Storage means for storing the automatically captured image information acquired by the acquisition means in association with the established imaging condition or trigger information indicating the sensing function used for the established imaging condition;
Display means for displaying photographed image information stored in the storage means;
The photographed image information displayed on the display means is associated with trigger information indicating a sensing condition used for the established photographing condition or the photographing condition for which the automatically photographed photographed image information stored in the storage means is established. Display control means for displaying on the display means,
Equipped with a,
The acquisition means acquires shooting position information,
The display means displays a map,
The display control means causes the display means to display the trigger information acquired by the acquisition means in association with a corresponding position in the map;
Image playback device.
上記撮影条件を示すトリガ情報は、上記成立した撮影条件に使用したセンシング機能を示す記号または上記成立した撮影条件を示す数値である、請求項1記載の画像再生装置。   The image reproducing device according to claim 1, wherein the trigger information indicating the imaging condition is a symbol indicating a sensing function used for the established imaging condition or a numerical value indicating the established imaging condition. 上記表示制御手段は、上記成立した撮影条件に使用したセンシング機能を示す記号、上記成立した撮影条件を示す数値及びその単位を上記表示手段で表示させる、請求項1記載の画像再生装置。   2. The image reproducing apparatus according to claim 1, wherein the display control means causes the display means to display a symbol indicating a sensing function used for the established photographing condition, a numerical value indicating the established photographing condition, and a unit thereof. 上記取得手段は、当該画像再生装置とは別体の撮像装置から上記撮影画像情報及び上記トリガ情報を無線により取得する、請求項1記載の画像再生装置。   The image reproduction device according to claim 1, wherein the acquisition unit wirelessly acquires the captured image information and the trigger information from an imaging device separate from the image reproduction device. 上記取得手段は、当該画像再生装置とは別体の撮像装置から、上記撮像装置の位置情報を無線により取得する、請求項1記載の画像再生装置。 The image reproducing apparatus according to claim 1 , wherein the acquisition unit wirelessly acquires position information of the imaging apparatus from an imaging apparatus separate from the image reproducing apparatus. 上記表示手段で表示する画像の変更を指示する指示手段をさらに備え、
上記表示制御手段は、上記指示手段での変更指示に応じて上記撮影画像情報に基づく画像を上記表示手段で表示させる、
請求項1記載の画像再生装置。
An instruction means for instructing a change of an image displayed by the display means;
The display control means causes the display means to display an image based on the captured image information in response to a change instruction from the instruction means.
The image reproduction apparatus according to claim 1.
上記所定の撮影条件は、複数のセンシング機能から選択または組み合わせて決定し、別体の撮像装置へ送信することができる、請求項1記載の画像再生装置。   The image reproducing apparatus according to claim 1, wherein the predetermined imaging condition can be selected or determined from a plurality of sensing functions and transmitted to a separate imaging apparatus. 所定の時間内に上記所定の撮影条件が複数成立していた場合、上記取得手段は、代表として少なくとも1つの撮影画像情報を取得し、上記表示制御手段は、上記少なくとも1つの代表撮影画像に関連付けて上記複数のトリガ情報を表示させる、請求項1記載の画像再生装置。   When a plurality of the predetermined shooting conditions are satisfied within a predetermined time, the acquisition unit acquires at least one captured image information as a representative, and the display control unit associates with the at least one representative captured image. The image reproduction device according to claim 1, wherein the plurality of trigger information is displayed. 表示部を備える装置が内蔵したコンピュータが実行するプログラムであって、上記コンピュータを、
作動及び停止を設定可能な複数のセンシング機能に対応して、作動を設定されていたセンシング機能のセンシング結果から、所定の撮影条件が成立したときに自動撮影された撮影画像情報を、その成立した撮影条件またはその成立した撮影条件に使用したセンシング機能を示すトリガ情報とともに取得する取得手段、
上記取得手段により取得した自動撮影された撮影画像情報を、その成立した撮影条件またはその成立した撮影条件に使用したセンシング機能を示すトリガ情報と関連付けて記憶する記憶手段、
上記記憶手段に記憶されている撮影画像情報を表示する表示手段、
上記表示手段に表示される撮影画像情報と、上記記憶手段に記憶されている上記自動撮影された撮影画像情報の成立した撮影条件またはその成立した撮影条件に使用したセンシング機能を示すトリガ情報を関連付けて、上記表示手段に表示させる表示制御手段、
として機能させ
上記取得手段は、撮影位置情報を取得し、
上記表示手段は、地図を表示し、
上記表示制御手段は、上記取得手段で取得したトリガ情報を、上記地図中の対応する位置と関連付けて上記表示手段で表示させる、
プログラム。
A program executed by a computer built in an apparatus having a display unit, wherein the computer is
Corresponding to a plurality of sensing functions that can be activated and deactivated, based on the sensing result of the sensing function that was set to activate, the captured image information that was automatically captured when a predetermined imaging condition was met was established Acquisition means for acquiring together with trigger information indicating a sensing function used for the imaging condition or the established imaging condition;
Storage means for storing the automatically captured image information acquired by the acquisition means in association with the established imaging condition or trigger information indicating the sensing function used for the established imaging condition;
Display means for displaying photographed image information stored in the storage means;
The photographed image information displayed on the display means is associated with trigger information indicating a sensing condition used for the established photographing condition or the photographing condition for which the automatically photographed photographed image information stored in the storage means is established. Display control means for displaying on the display means,
To function as,
The acquisition means acquires shooting position information,
The display means displays a map,
The display control means causes the display means to display the trigger information acquired by the acquisition means in association with a corresponding position in the map;
program.
コンピュータが、作動及び停止を設定可能な複数のセンシング機能に対応して、作動を設定されていたセンシング機能のセンシング結果から、所定の撮影条件が成立したときに自動撮影された撮影画像情報を、その成立した撮影条件またはその成立した撮影条件に使用したセンシング機能を示すトリガ情報とともに取得する取得ステップと、
上記取得ステップで取得した自動撮影された撮影画像情報を、その成立した撮影条件またはその成立した撮影条件に使用したセンシング機能を示すトリガ情報と関連付けて記憶する記憶ステップと、
上記記憶ステップで記憶された撮影画像情報を表示する表示ステップと、
上記表示ステップで表示される撮影画像情報と、上記記憶ステップで記憶された、上記自動撮影された撮影画像情報の成立した撮影条件またはその成立した撮影条件に使用したセンシング機能を示すトリガ情報を関連付けて、上記表示ステップで表示させる表示制御ステップと、を実行し、
上記取得ステップは、撮影位置情報を取得し、
上記表示ステップは、地図を表示し、
上記表示制御ステップは、上記取得ステップにより取得したトリガ情報を、上記地図中の対応する位置と関連付けて上記表示ステップで表示させる、
画像再生方法。
Corresponding to a plurality of sensing functions that can be activated and deactivated by the computer, from the sensing result of the sensing function that has been activated, captured image information that is automatically captured when a predetermined imaging condition is satisfied, An acquisition step of acquiring together with the trigger information indicating the sensing function used for the established imaging condition or the established imaging condition;
A storage step of storing the automatically captured image information acquired in the acquisition step in association with the established imaging condition or trigger information indicating the sensing function used for the established imaging condition;
A display step for displaying the captured image information stored in the storage step;
Associating the captured image information displayed in the display step with the trigger information indicating the sensing condition used for the established imaging condition or the established imaging condition of the automatically captured image information stored in the storing step And executing a display control step to display in the display step ,
The acquisition step acquires shooting position information,
The above display step displays a map,
The display control step displays the trigger information acquired in the acquisition step in the display step in association with a corresponding position in the map.
Image playback method.
複数のセンシング機能に対応して、所定の撮影条件が成立したときに自動撮影された撮影画像情報を、その成立した撮影条件またはその成立した撮影条件に使用したセンシング機能を示すトリガ情報とともに取得する取得手段と、
画像を表示する表示手段と、
上記取得手段で取得した撮影条件を示すトリガ情報を、上記撮影画像情報に関連付けて、上記表示手段で表示させる表示制御手段と、
を備え、
上記取得手段は、撮影位置情報を取得し、
上記表示手段は、地図を表示し、
上記表示制御手段は、上記取得手段で取得したトリガ情報を、上記地図中の対応する位置と関連付けて上記表示手段で表示させる、
画像再生装置。
Corresponding to a plurality of sensing functions, the captured image information automatically captured when a predetermined imaging condition is satisfied is acquired together with the established imaging condition or trigger information indicating the sensing function used for the established imaging condition. Acquisition means;
Display means for displaying an image;
Display control means for causing the display means to display trigger information indicating the photographing condition obtained by the obtaining means in association with the photographed image information;
With
The acquisition means acquires shooting position information,
The display means displays a map,
The display control means causes the display means to display the trigger information acquired by the acquisition means in association with a corresponding position in the map;
Image playback device.
JP2017169567A 2016-09-28 2017-09-04 Image reproducing apparatus, image reproducing method and program Active JP6380634B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
US15/703,643 US10334160B2 (en) 2016-09-28 2017-09-13 Imaging apparatus capable of automatic photography, image playback apparatus which plays back automatically photographed image, image playback method, and imaging method
CN201710879591.8A CN107872637B (en) 2016-09-28 2017-09-25 Image reproducing apparatus, image reproducing method, and recording medium

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2016189524 2016-09-28
JP2016189524 2016-09-28

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2018135864A Division JP6638772B2 (en) 2016-09-28 2018-07-19 Imaging device, image recording method, and program

Publications (2)

Publication Number Publication Date
JP2018061239A JP2018061239A (en) 2018-04-12
JP6380634B2 true JP6380634B2 (en) 2018-08-29

Family

ID=61907777

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2017169567A Active JP6380634B2 (en) 2016-09-28 2017-09-04 Image reproducing apparatus, image reproducing method and program
JP2018135864A Active JP6638772B2 (en) 2016-09-28 2018-07-19 Imaging device, image recording method, and program

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2018135864A Active JP6638772B2 (en) 2016-09-28 2018-07-19 Imaging device, image recording method, and program

Country Status (1)

Country Link
JP (2) JP6380634B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020179328A1 (en) * 2019-03-01 2020-09-10 三浦工業株式会社 Work assist system
JP7458724B2 (en) * 2019-08-30 2024-04-01 キヤノン株式会社 Electronic devices, their control methods and programs

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000244800A (en) * 1999-02-22 2000-09-08 Victor Co Of Japan Ltd Image pickup device
JP2004274274A (en) * 2003-03-06 2004-09-30 Canon Inc Imaging device
JP2004361708A (en) * 2003-06-05 2004-12-24 Fuji Photo Film Co Ltd Wrist camera
JP3968522B2 (en) * 2003-10-06 2007-08-29 ソニー株式会社 Recording apparatus and recording method
CA2554135C (en) * 2003-12-24 2013-09-24 Walker Digital, Llc Method and apparatus for automatically capturing and managing images
JP4121974B2 (en) * 2004-03-26 2008-07-23 富士フイルム株式会社 Image capturing system and image capturing method
JP4421929B2 (en) * 2004-04-13 2010-02-24 株式会社エヌ・ティ・ティ・ドコモ Server system
JP4367663B2 (en) * 2007-04-10 2009-11-18 ソニー株式会社 Image processing apparatus, image processing method, and program
JP5024093B2 (en) * 2008-02-08 2012-09-12 ソニー株式会社 Image capturing device, display device thereof, and image data management system
JP2010268128A (en) * 2009-05-13 2010-11-25 Olympus Corp Control apparatus, imaging apparatus, imaging system, image acquisition method and program
JP2012156822A (en) * 2011-01-27 2012-08-16 Nikon Corp Electronic apparatus, automatic photographing start condition determination method, program, and computer readable recording medium
JP2013130808A (en) * 2011-12-22 2013-07-04 Nikon Corp Electronic apparatus
JP2013251826A (en) * 2012-06-01 2013-12-12 Nikon Corp Mobile communication device and imaging system
JP6476692B2 (en) * 2014-09-26 2019-03-06 カシオ計算機株式会社 System, apparatus, and control method
JP6379424B2 (en) * 2014-10-20 2018-08-29 シャープ株式会社 Image recording device

Also Published As

Publication number Publication date
JP2018061239A (en) 2018-04-12
JP6638772B2 (en) 2020-01-29
JP2018207496A (en) 2018-12-27

Similar Documents

Publication Publication Date Title
CN108596976B (en) Method, device and equipment for relocating camera attitude tracking process and storage medium
CN108322653B (en) Image pickup apparatus
US9569898B2 (en) Wearable display system that displays a guide for a user performing a workout
JP2008099268A (en) Apparatus and method for tagging id on photograph on the basis of geographical relative position
TW200837713A (en) Image display system, display device and display method
JP6079566B2 (en) Information processing apparatus, information processing method, and program
JP6379424B2 (en) Image recording device
US9635234B2 (en) Server, client terminal, system, and program
US20160006974A1 (en) System, a method, a wearable digital device and a recording device for remote activation of a storage operation of pictorial information
JP2015028686A (en) Method of generating social time line, social net work service system, server, terminal, and program
JP6380634B2 (en) Image reproducing apparatus, image reproducing method and program
JP5387723B2 (en) Image display device, image display method, and image display program
JP2012019374A (en) Electronic album creation server, information processor, electronic album creation system, and control method of electronic album creation server
JP6241495B2 (en) Training support apparatus, training support method, and program
CN107888827A (en) Image processing method and related product
JP6435595B2 (en) Training support system, server, terminal, camera, method and program
KR100956114B1 (en) Image information apparatus and method using image pick up apparatus
CN107872637B (en) Image reproducing apparatus, image reproducing method, and recording medium
JP5924474B2 (en) Portable electronic device, its control method and program
JP2009211341A (en) Image display method and display apparatus thereof
JP2019179977A (en) Wearable camera
JP2019061386A (en) Information processing system, information processing apparatus, information processing method and program
JP6256634B2 (en) Wearable device, wearable device control method, and program
JP5977697B2 (en) Electronic device and method for controlling electronic device
JP6414313B2 (en) Portable device, method for controlling portable device, and program

Legal Events

Date Code Title Description
A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20180109

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180123

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180320

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180417

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180614

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180703

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180716

R150 Certificate of patent or registration of utility model

Ref document number: 6380634

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150