JP5570923B2 - Imaging apparatus, imaging method for imaging apparatus, and program - Google Patents

Imaging apparatus, imaging method for imaging apparatus, and program Download PDF

Info

Publication number
JP5570923B2
JP5570923B2 JP2010209776A JP2010209776A JP5570923B2 JP 5570923 B2 JP5570923 B2 JP 5570923B2 JP 2010209776 A JP2010209776 A JP 2010209776A JP 2010209776 A JP2010209776 A JP 2010209776A JP 5570923 B2 JP5570923 B2 JP 5570923B2
Authority
JP
Japan
Prior art keywords
image
icon
unit
information
distance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2010209776A
Other languages
Japanese (ja)
Other versions
JP2012065262A5 (en
JP2012065262A (en
Inventor
順一 臼田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Imaging Corp
Original Assignee
Olympus Imaging Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Imaging Corp filed Critical Olympus Imaging Corp
Priority to JP2010209776A priority Critical patent/JP5570923B2/en
Publication of JP2012065262A publication Critical patent/JP2012065262A/en
Publication of JP2012065262A5 publication Critical patent/JP2012065262A5/en
Application granted granted Critical
Publication of JP5570923B2 publication Critical patent/JP5570923B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Studio Devices (AREA)

Description

本発明は、撮影装置の撮影状況を表すアイコンの画像を撮影画像に表示する撮影装置、撮影装置の撮影方法、及びプログラムに関する。 The present invention relates to a photographing apparatus that displays an image of an icon representing a photographing state of a photographing apparatus on a photographed image, a photographing method of the photographing apparatus, and a program .

近年、種々の機能を備えたデジタルカメラ等の撮影装置が広く普及している。また、表示部に各種の情報を表示する撮影装置も提案されている。
例えば、従来例としての特開2005−260798号公報には、表示部にスルー画像を表示し、その余白部分に撮影済み画像の撮影情報、例えば画像サイズ、シャッター速度、絞り値等や、最近撮影した数駒分の画像の撮影情報を表示することにより、ユーザに有効な情報を提供している。
In recent years, photographing apparatuses such as digital cameras having various functions have been widely used. There has also been proposed a photographing apparatus that displays various types of information on a display unit.
For example, Japanese Patent Laid-Open No. 2005-260798 as a conventional example displays a through image on a display unit, and photographing information of a photographed image, such as an image size, a shutter speed, an aperture value, or the like, is displayed in the margin. By displaying shooting information of several frames of images, effective information is provided to the user.

上記従来例においては、撮影済みの撮影画像を鑑賞する場合において、シャッター速度、絞り値の撮影条件における具体的な数値読み取ることにより撮影条件を確認することができるが、撮影した場合の撮影状況を直感的に把握又は把握し易くするものにならない。
換言すると、上記従来例においては、撮影画像を鑑賞して撮影状況を把握しようとした場合、シャッター速度、絞り値等、カメラにより撮影する場合に必須に近い撮影条件の情報が羅列され、暑かった状況で撮影したり、郊外まで出かけて撮影したりしたような撮影状況を直感的に把握することが困難である。
このため、鑑賞する場合において、撮影状況を直感的に把握し易くするような画像を表示できるような撮影装置が望まれる。
本発明は上述した点に鑑みてなされたもので、撮影状況を直感的に把握し易くする撮影装置、撮影装置の撮影方法、及びプログラムを提供することを目的とする。
In the above conventional example, when appreciating a captured image, the shooting conditions can be confirmed by reading specific numerical values in the shooting conditions of the shutter speed and aperture value. It is not intuitive or easy to grasp.
In other words, in the above-described conventional example, when an attempt was made to grasp a shooting situation by viewing a shot image, information on shooting conditions, such as shutter speed, aperture value, and the like, which are essential for shooting with a camera, were listed and were hot. or taken in the situation, it is difficult to intuitively grasp the shooting conditions that looks as though it or taken go out to the suburbs.
For this reason, in appreciation, there is a demand for a photographing apparatus that can display an image that makes it easy to intuitively grasp the photographing situation.
SUMMARY An advantage of some aspects of the invention is that it provides a photographing apparatus, a photographing method for the photographing apparatus, and a program that make it easy to intuitively grasp a photographing state.

本発明の一態様による撮像装置は、被写体を撮像する撮像部と、記撮像部により撮像された画像を撮影画像として記録する記録部と、数種類のセンサ情報を取得し、取得した上記センサ情報が所定の撮影状況に該当するか否かを判定する情報取得・判定部と、上記所定の撮影状況に対応したアイコンの画像を生成するアイコン生成部と、上記アイコンの画像を上記撮影画像と合成した合成画像を生成する合成画像生成部と、画像を表示する表示部と、撮影の指示操作に従って、上記情報取得・判定部により撮影状況を検出し、上記アイコン生成部でアイコン画像を生成し、合成画像生成部により生成した合成画像を上記表示部に表示すると共に、上記記録部により撮影画像を記録するように制御する制御部と、を有し、さらに、当該撮影装置に予め登録した基準の位置データから、GPS情報及び地図データベースを用いて該撮影装置が前記基準の位置から移動した距離の情報も取得すると共に、距離の大きさに関する判定も行う前記情報取得・判定部の1つとしての位置取得・判定部が設けられ、前記基準の位置からの距離の情報として近距離に相当する第1の距離範囲と、該第1の距離範囲より遠い遠距離に相当する第2の距離範囲を判定すると共に、さらに前記GPS情報及び前記地図データベースから市街と郊外とを判定した情報を生成し、前記第1の距離範囲における市街と郊外とで異なる第1及び第2のアイコンを生成し、前記第2の距離範囲における市街と郊外とにおいても異なる第3及び第4のアイコンを生成する。
また、本発明の撮影装置の撮影方法において、撮影の指示操作に従って、被写体を撮像し、複数種類のセンサ情報を取得し、取得した上記センサ情報が所定の撮影状況に該当するか否かを判定し、上記所定の撮影状況に対応したアイコンの画像を生成し、上記アイコンの画像を上記撮影画像と合成して合成画像を生成し、上記合成画像を表示すると共に、上記撮像された画像を撮影画像として記録するように制御し、さらに、当該撮影装置に予め登録した基準の位置データから、GPS情報及び地図データベースを用いて該撮影装置が前記基準の位置から移動した距離の情報も取得すると共に、距離の大きさに関する判定も行い、前記基準の位置からの距離の情報として近距離に相当する第1の距離範囲と、該第1の距離範囲より遠い遠距離に相当する第2の距離範囲を判定すると共に、さらに前記GPS情報及び前記地図データベースから市街と郊外とを判定した情報を生成し、前記第1の距離範囲における市街と郊外とで異なる第1及び第2のアイコンを生成し、前記第2の距離範囲における市街と郊外とにおいても異なる第3及び第4のアイコンを生成する。
また、本発明のプログラムは、撮影装置の制御部に、撮影の指示操作に従って、被写体を撮像させる手順と、複数種類のセンサ情報を取得し、取得した上記センサ情報が所定の撮影状況に該当するか否かを判定する手順と、上記所定の撮影状況に対応したアイコンの画像を生成する手順と、上記アイコンの画像を上記撮影画像と合成して合成画像を生成する手順と、上記合成画像を表示させると共に、上記撮像された画像を撮影画像として記録するように制御するよう指示する手順と、さらに、前記撮影装置に予め登録した基準の位置データから、GPS情報及び地図データベースを用いて前記撮影装置が前記基準の位置から移動した距離の情報も取得すると共に、距離の大きさに関する判定も行い、前記基準の位置からの距離の情報として近距離に相当する第1の距離範囲と、該第1の距離範囲より遠い遠距離に相当する第2の距離範囲を判定すると共に、さらに前記GPS情報及び前記地図データベースから市街と郊外とを判定した情報を生成し、前記第1の距離範囲における市街と郊外とで異なる第1及び第2のアイコンを生成し、前記第2の距離範囲における市街と郊外とにおいても異なる第3及び第4のアイコンを生成する手順と、を実行させる。
Imaging device according to an aspect of the present invention, the sensor acquires the imaging unit, and a recording unit that records the image captured by the upper Symbol imaging unit as a photographic image, a multi several sensor information acquired for imaging a subject An information acquisition / determination unit that determines whether information corresponds to a predetermined shooting situation, an icon generation unit that generates an icon image corresponding to the predetermined shooting situation, and the icon image as the shot image The information acquisition / determination unit detects a shooting situation according to a combined image generation unit that generates a combined composite image, a display unit that displays the image, and a shooting instruction operation, and the icon generation unit generates an icon image. , a composite image generated by the composite image generating unit and displays on the display unit, and a control unit that controls to record the captured image by the recording unit, further, the photographing The information acquisition / acquisition that obtains information on the distance that the imaging device has moved from the reference position using GPS information and a map database from the reference position data registered in advance in the device, and also makes a determination regarding the magnitude of the distance. A position acquisition / determination unit is provided as one of the determination units, and corresponds to a first distance range corresponding to a short distance as information on a distance from the reference position and a long distance farther than the first distance range. A second distance range to be determined, and further information that determines a city and a suburb is generated from the GPS information and the map database, and a first and a second different between the city and the suburb in the first distance range. The third icon and the fourth icon that are different in the city and the suburbs in the second distance range are generated.
In the photographing method of the photographing apparatus of the present invention, in accordance with a photographing instruction operation, a subject is imaged, a plurality of types of sensor information are obtained, and it is determined whether or not the obtained sensor information corresponds to a predetermined photographing situation. Then, an icon image corresponding to the predetermined shooting situation is generated, the icon image is combined with the captured image to generate a combined image, the combined image is displayed, and the captured image is captured. Control is made to record as an image, and further, from reference position data registered in advance in the photographing apparatus, information on the distance that the photographing apparatus has moved from the reference position is obtained using GPS information and a map database. In addition, a determination on the magnitude of the distance is also made, and as a distance information from the reference position, a first distance range corresponding to a short distance and a long distance farther than the first distance range The corresponding second distance range is determined, and further information that determines the city and the suburbs is generated from the GPS information and the map database, and the first and the first different from the city and the suburbs in the first distance range. Two icons are generated, and different third and fourth icons are generated in the city and the suburbs in the second distance range.
Further, the program of the present invention acquires a procedure for causing the control unit of the image capturing apparatus to image a subject and a plurality of types of sensor information in accordance with a shooting instruction operation, and the acquired sensor information corresponds to a predetermined image capturing situation. A procedure for determining whether or not, a procedure for generating an icon image corresponding to the predetermined shooting situation, a procedure for generating a composite image by combining the icon image with the captured image, and the composite image In addition to displaying the captured image as a captured image, a procedure for instructing to record the captured image, and reference position data registered in advance in the imaging device, using the GPS information and the map database, the imaging As well as obtaining information on the distance the device has moved from the reference position, it also makes a determination on the magnitude of the distance, as information on the distance from the reference position. A first distance range corresponding to a distance and a second distance range corresponding to a far distance farther than the first distance range are determined, and further, a city and a suburb are determined from the GPS information and the map database. Information is generated, and first and second icons that are different between the city and the suburbs in the first distance range are generated, and third and fourth icons that are different between the city and the suburbs in the second distance range. And a procedure for generating

本発明によれば、アイコンの画像を表示することにより、撮影状況を直感的に把握し易くすることができる。   According to the present invention, it is possible to easily grasp the shooting situation intuitively by displaying an icon image.

図1は本発明の第1の実施形態の撮影装置としてのカメラの全体構成を示すブロック図。FIG. 1 is a block diagram showing the overall configuration of a camera as a photographing apparatus according to a first embodiment of the present invention. 図2はカメラの正面側の外観を示す斜視図。FIG. 2 is a perspective view showing the appearance of the front side of the camera. 図3は撮影画像及び撮影画像にアイコンを表示した合成画像を示す図。FIG. 3 is a diagram illustrating a captured image and a composite image in which icons are displayed on the captured image. 図4は複数の情報から設定される暑さ、寒さを表すアイコンの具体例を示す図。FIG. 4 is a diagram showing a specific example of icons representing heat and cold set from a plurality of pieces of information. 図5は自宅からの距離等の情報に応じて設定されるアイコンの具体例を示す図。FIG. 5 is a diagram illustrating a specific example of an icon set according to information such as a distance from home. 図6は水深、高度等の情報に応じて設定されるアイコンの具体例を示す図。FIG. 6 is a diagram illustrating a specific example of icons set according to information such as water depth and altitude. 図7は町中の騒音等の音声情報に応じて設定されるアイコンの具体例を示す図。FIG. 7 is a diagram showing a specific example of icons set according to voice information such as noise in the town. 図8は本実施形態におけるカメラ制御の処理手順を示すフローチャート。FIG. 8 is a flowchart showing a camera control processing procedure in this embodiment. 図9は第1の実施形態の変形例における再生モードでの処理手順を示すフローチャート。FIG. 9 is a flowchart illustrating a processing procedure in a reproduction mode according to a modification of the first embodiment. 図10は図9の処理の場合における撮影画像の表示例を示す図。FIG. 10 is a diagram illustrating a display example of a captured image in the case of the process of FIG. 図11は図9の処理により図10の撮影画像にアイコンを表示した表示例を示す図。11 is a diagram showing a display example in which icons are displayed on the captured image of FIG. 10 by the processing of FIG. 図12は本発明の第2の実施形態のカメラの全体構成を示すブロック図。FIG. 12 is a block diagram showing the overall configuration of the camera of the second embodiment of the present invention. 図13は本発明の第2の実施形態における再生モードでの処理手順を示すフローチャート。FIG. 13 is a flowchart showing a processing procedure in the reproduction mode according to the second embodiment of the present invention. 図14は図13の処理における撮影画像の表示例を示す図。FIG. 14 is a view showing a display example of a captured image in the process of FIG. 図15は図13の処理により図14の撮影画像にアイコンを表示した表示例を示す図。15 is a diagram showing a display example in which icons are displayed on the captured image of FIG. 14 by the processing of FIG. 図16は第2の実施形態の第1変形例における再生モードでの処理手順を示すフローチャート。FIG. 16 is a flowchart showing a processing procedure in the reproduction mode in the first modification of the second embodiment. 図17は図16の処理により撮影画像にアイコンを表示した表示例を示す図。FIG. 17 is a diagram showing a display example in which icons are displayed on a captured image by the processing of FIG. 図18は第2の実施形態の第2変形例における再生モードでの処理手順を示すフローチャート。FIG. 18 is a flowchart illustrating a processing procedure in a reproduction mode according to a second modification of the second embodiment. 図19は図18の処理における撮影画像の表示例を示す図。FIG. 19 is a diagram showing a display example of a captured image in the process of FIG. 図20は図18の処理により撮影画像にアイコンを表示した表示例を示す図。FIG. 20 is a view showing a display example in which icons are displayed on the photographed image by the processing of FIG. 図21は第2の実施形態の第3変形例における再生モードでの処理手順を示すフローチャート。FIG. 21 is a flowchart showing a processing procedure in a reproduction mode in a third modification of the second embodiment.

以下、図面を参照して本発明の実施形態を説明する。
(第1の実施形態)
図1に示すように本発明の第1の実施形態の撮影装置としてのカメラ1は、被写体を撮像する撮像部2と、撮像部2により撮像した撮像画像に対して画像処理を行う画像処理部3aを備えた制御部3とを有する。
また、このカメラ1は、画像処理部3aにより撮像画像に対する画像処理して生成された表示用の画像を表示する表示部4と、画像処理部3aにより撮影画像に対して圧縮等の画像処理して生成された撮影画像を記録する記録部5と、操作者(ユーザ)が撮影指示を行うレリーズボタン等を備えた操作部6とを有する。
上記画像処理部3aは、記録部5に記録された撮影画像に対する再生の指示操作がされた場合には、再生の指示操作がされた圧縮された撮影画像を伸張等の画像処理を行い、表示部4に表示する。また、この画像処理部3aは、撮影画像を生成する場合、色調整や、コントラストの補正等の画像処理も行う。
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
(First embodiment)
As shown in FIG. 1, a camera 1 as an imaging apparatus according to a first embodiment of the present invention includes an imaging unit 2 that images a subject, and an image processing unit that performs image processing on a captured image captured by the imaging unit 2. And a control unit 3 having 3a.
The camera 1 also includes a display unit 4 that displays a display image generated by performing image processing on the captured image by the image processing unit 3a, and image processing such as compression on the captured image by the image processing unit 3a. A recording unit 5 that records the captured image generated in this manner, and an operation unit 6 that includes a release button or the like for an operator (user) to issue a shooting instruction.
When the reproduction instruction operation is performed on the photographed image recorded in the recording unit 5, the image processing unit 3 a performs image processing such as decompression on the compressed photographed image on which the reproduction instruction operation is performed, and displays the image. Part 4 is displayed. The image processing unit 3a also performs image processing such as color adjustment and contrast correction when generating a captured image.

また、このカメラ1は、操作部6の他に、ユーザが指などでタッチすることにより、各種の指示操作や選択操作などを行うタッチパネル部7と、ユ−ザにより把持されたカメラ1の撮像又は撮影状態の姿勢を検出する姿勢検出部としての加速度センサ8とを有する。
操作部6による指示操作の信号、タッチパネル部7によるタッチ操作による信号、加速度センサ8による検出信号は、制御部3に入力される。制御部3は、入力された信号に基づいて、対応する制御動作を行う。
また、このカメラ1は、ユーザにより撮影の指示操作がされた撮影時の撮影状況における各種のセンサ情報を取得する各種のセンサからなる情報取得部と、取得した各種のセンサ情報(単に情報と略記)からそれぞれの撮影状況を判定したり、又は所定の撮影状況に該当するか否かを判定する状況判定部との機能を備えた情報取得・判定部9を有する。
In addition to the operation unit 6, the camera 1 includes a touch panel unit 7 that performs various instruction operations and selection operations when the user touches with a finger or the like, and an imaging of the camera 1 held by the user. Or it has the acceleration sensor 8 as an attitude | position detection part which detects the attitude | position of a imaging | photography state.
A signal of an instruction operation by the operation unit 6, a signal by a touch operation by the touch panel unit 7, and a detection signal by the acceleration sensor 8 are input to the control unit 3. The control unit 3 performs a corresponding control operation based on the input signal.
In addition, the camera 1 includes an information acquisition unit including various sensors that acquire various sensor information in a shooting state at the time of shooting in which a shooting instruction operation is performed by a user, and various acquired sensor information (simply referred to simply as information). The information acquisition / determination unit 9 includes a function of a situation determination unit that determines each shooting situation from the above and determines whether or not a predetermined shooting situation is met.

この情報取得・判定部9は、撮影時におけるカメラ1の位置情報を取得し、取得した位置情報から位置に関する判定(地図上での位置等の判定)を行う位置取得・判定部9aと、音声の情報を取得し、取得した音声情報から音声に関する判定(環境音等の判定)を行う音声取得・判定部9bと、温度の情報を取得し、取得して温度情報から温度に関する判定(所定温度以上に暑いか否か等の判定)を行う温度取得・判定部9cとを有する。
位置取得・判定部9aは、地球上の現在位置を調べるためのグローバル・ポジショニング・システム (Global Positioning System:GPSと略記)を構成するGPS受信機を位置センサとして備えている。このGPS受信機により取得した位置の情報(緯度、経度の情報)から、地名に変換するための地図データベース5a(図面では地図DBと略記)を、例えば記録部5内に備えている。
This information acquisition / determination unit 9 acquires position information of the camera 1 at the time of shooting, and performs position determination / determination unit 9a that performs position determination (determination of position on the map, etc.) from the acquired position information, and voice A voice acquisition / determination unit 9b that performs voice-related determination (determination of environmental sound, etc.) from the acquired voice information, acquires temperature information, acquires and determines temperature-related determination (predetermined temperature) And a temperature acquisition / determination unit 9c that determines whether or not the temperature is hot.
The position acquisition / determination unit 9a includes a GPS receiver that constitutes a global positioning system (Global Positioning System: GPS) for checking the current position on the earth as a position sensor. A map database 5a (abbreviated as map DB in the drawing) for converting the position information (latitude and longitude information) acquired by the GPS receiver into a place name is provided in the recording unit 5, for example.

また、この情報取得・判定部9は、撮影時におけるカメラ1の水深又は高度の情報を取得し、取得した水深又は高度の情報から水深又は高度に関する判定を行う水深・高度取得・判定部9dと、撮影時の日時の情報を取得し、取得した日時の情報から日時に関する判定を行う日時取得・判定部9eとを有する。
また、情報取得・判定部9は、取得した各種の情報が、所定の撮影状況に対応する所定条件を満たすか否か、又は所定の撮影条件に該当するか否かの判定を行い、判定結果の情報を制御部3に出力する。
この制御部3は判定結果の情報に基づいて、その所定条件に対応した、所定の撮影状況を直感的に把握(又は認識)し易くするための絵柄を記号化等して表したアイコンの画像を生成するアイコン生成部3bの機能を有する。
In addition, the information acquisition / determination unit 9 acquires information on the water depth or altitude of the camera 1 at the time of photographing, and a water depth / altitude acquisition / determination unit 9d that performs determination on the water depth or altitude from the acquired water depth or altitude information. A date acquisition / determination unit 9e that acquires date and time information at the time of shooting and makes a determination regarding date and time from the acquired date and time information.
In addition, the information acquisition / determination unit 9 determines whether or not the acquired various types of information satisfy a predetermined condition corresponding to a predetermined shooting situation, or whether or not a predetermined shooting condition is satisfied. Is output to the control unit 3.
Based on the information of the determination result, the control unit 3 is an icon image that expresses a symbol corresponding to the predetermined condition to make it easy to intuitively grasp (or recognize) a predetermined shooting situation. It has the function of the icon production | generation part 3b which produces | generates.

なお、情報取得・判定部9は、情報取得部と判定部とに分離した構成にしても良いし、例えば判定部の機能を制御部3が行う構成にしても良い。この場合には、情報取得部を構成する各種のセンサにより取得した各種の情報が制御部3内の判定部に入力され、この判定部は、各種の情報が所定の撮影状況に対応した所定条件を満たすか否かを判定する。
上記制御部3は、生成したアイコンの画像(以下、単にアイコンと略記)と、撮影画像とを合成して合成画像を生成する合成画像生成部3cの機能を有する。この合成画像生成部3cにより生成された合成画像は、記録部5に記録されると共に、表示部4で表示することもできる。なお、アイコン生成部3bの機能を合成画像生成部3cが兼ねる構成にしても良いし、アイコン生成部3bが合成画像生成部3cの機能を兼ねる構成にしても良い。
The information acquisition / determination unit 9 may be configured to be separated into an information acquisition unit and a determination unit. For example, the control unit 3 may perform the function of the determination unit. In this case, various types of information acquired by various types of sensors constituting the information acquisition unit are input to the determination unit in the control unit 3, and the determination unit includes a predetermined condition corresponding to a predetermined shooting situation. It is determined whether or not the above is satisfied.
The control unit 3 has a function of a combined image generation unit 3c that combines a generated icon image (hereinafter simply abbreviated as an icon) and a captured image to generate a combined image. The composite image generated by the composite image generation unit 3 c is recorded in the recording unit 5 and can be displayed on the display unit 4. Note that the composition of the icon generation unit 3b may be combined with the composite image generation unit 3c, or the icon generation unit 3b may be combined with the function of the composite image generation unit 3c.

なお、アイコン生成部3bは、情報取得・判定部9による判定結果の情報に基づいて、所定条件に対応するアイコンを生成する場合、以下のようにしても良い。
例えば記録部5は、一部の記録領域(格納領域)に予め用意したアイコンを格納したアイコン格納部としてのアイコンデータベース5bを有し、アイコン生成部3bは、所定条件に対応するアイコンを読み出すことにより、所定条件に対応するアイコンを生成するようにしても良い。なお、記録部5の内部にアイコンデータベース5bを形成しないで、例えばアイコン生成部3b内に、アイコン格納部としてのアイコンデータベース5bを設ける構成にしても良い。
アイコン生成部3bが情報取得・判定部9による各種の情報に対応したアイコンを生成する場合、各種の情報毎に、予め登録などして用意されている複数のアイコンから、撮影状況に対応したアイコンを選択することにより、所定の撮影状況又は所望の撮影状況に対応するアイコンを生成又は表示することができるようにしても良い。
Note that the icon generation unit 3b may be configured as follows when generating an icon corresponding to a predetermined condition based on information of a determination result by the information acquisition / determination unit 9.
For example, the recording unit 5 includes an icon database 5b serving as an icon storage unit that stores icons prepared in advance in a part of recording areas (storage areas), and the icon generation unit 3b reads out icons corresponding to predetermined conditions. Thus, an icon corresponding to a predetermined condition may be generated. Instead of forming the icon database 5b inside the recording unit 5, for example, an icon database 5b as an icon storage unit may be provided in the icon generation unit 3b.
When the icon generation unit 3b generates icons corresponding to various types of information by the information acquisition / determination unit 9, an icon corresponding to the shooting situation is selected from a plurality of icons prepared in advance for each type of information. By selecting, an icon corresponding to a predetermined shooting situation or a desired shooting situation may be generated or displayed.

このようにアイコンデータベース5bを備えた構成にすることにより、アイコン生成部3bは、それぞれの撮影状況又は所定の撮影状況に対応した所定条件に対応したアイコンを選択的に読み出することによって、簡単かつ迅速に、撮影状況に適したアイコンを生成し、(表示部4で表示)することができる。
また、タッチパネル部7からの操作により、アイコンデータベース5bに、新たなアイコンを登録したり、変更したりすることもできる。
なお、以下では所定の撮影状況に対して、対応するアイコンを用意して表示する場合を説明するが、所定の撮影状況に限らず、任意の撮影状況に対応したアイコンを用意して、そのアイコンを表示することができるようにしても良い。
With the configuration including the icon database 5b as described above, the icon generation unit 3b can easily and easily read out icons corresponding to each shooting situation or a predetermined condition corresponding to a predetermined shooting situation. An icon suitable for the shooting situation can be quickly generated and displayed (displayed on the display unit 4).
In addition, a new icon can be registered or changed in the icon database 5 b by an operation from the touch panel unit 7.
In the following, a case where a corresponding icon is prepared and displayed for a predetermined shooting situation will be described. However, not only the predetermined shooting situation but also an icon corresponding to an arbitrary shooting situation is prepared and the icon is displayed. May be displayed.

また、本実施形態においては、表示部4に表示された合成画像におけるアイコン部分にタッチすることにより、タッチパネル部7は、タッチしたアイコンの位置情報を制御部3に送る。そして、制御部3は、タッチされたアイコンの意味又は内容(アイコンに対応する所定条件や、各種センサで取得した情報の内容など)を表示部4において表示するように制御する。
また、上記制御部3は、撮影画像にローコントラスト(ローコンと略記)の領域としてのローコン領域を検出するローコン検出部3dを有する。
そして、制御部3は、アイコンを生成する場合、ローコン領域に生成したアイコンを配置する。つまり、撮影画像にアイコンを配置して合成画像を生成する場合、撮影画像におけるローコン領域にアイコンを配置して合成画像を生成する。
In the present embodiment, the touch panel unit 7 sends position information of the touched icon to the control unit 3 by touching the icon portion in the composite image displayed on the display unit 4. Then, the control unit 3 controls the display unit 4 to display the meaning or content of the touched icon (a predetermined condition corresponding to the icon, the content of information acquired by various sensors, etc.).
Further, the control unit 3 includes a low contrast detection unit 3d that detects a low contrast region as a region of low contrast (abbreviated as low contrast) in the captured image.
And the control part 3 arrange | positions the produced | generated icon in the low contrast area | region, when producing | generating an icon. That is, when an icon is placed on a captured image to generate a composite image, the composite image is generated by placing an icon in the low contrast area of the captured image.

一方、ローコン領域が無い場合には、撮影画像にはアイコンが生成されないことになる。換言すると、本実施形態における制御部3は、ローコン領域の有無により、撮影画像にアイコンを加えて表示する第1の画像表示と、撮影画像にアイコンを表示しない第2の画像表示との切替を行う表示制御部(又は切替制御部)3eの機能を有する。
図2は、カメラ1の外観を示す。カメラ1の略箱形形状のケース11の中央付近には、撮像部2を構成する撮影レンズ2aを取り付けたレンズ鏡筒が配置され、撮影レンズ2aの結像位置に図示しない撮像素子が配置されている。撮影レンズ2aと撮像素子とにより撮像部2が形成される。撮影レンズ2aの斜め上方付近には、フラッシュ撮影するフラッシュ発光装置12が設けてある。
On the other hand, when there is no low contrast area, no icon is generated in the captured image. In other words, the control unit 3 according to the present embodiment switches between the first image display in which an icon is added to the photographed image and the second image display in which the icon is not displayed on the photographed image depending on the presence or absence of the low contrast area. It has the function of the display control part (or switching control part) 3e to perform.
FIG. 2 shows the external appearance of the camera 1. Near the center of the substantially box-shaped case 11 of the camera 1, a lens barrel to which a photographing lens 2a constituting the imaging unit 2 is attached is disposed, and an imaging element (not shown) is disposed at the imaging position of the photographing lens 2a. ing. The imaging unit 2 is formed by the photographing lens 2a and the imaging element. A flash light emitting device 12 for flash photography is provided in the vicinity of the oblique upper part of the photographing lens 2a.

また、ケース11の上面には撮影の指示操作を行うレリーズボタン6aが配置されている。なお、カメラ1における背面側には、表示部4を形成する液晶ディスプレイが設けてあり、ユーザは、表示部4に表示される撮像画像を観察して撮影操作等を行う。また、上記タッチパネル部7は、表示部4にタッチセンサを設けて形成されている。
また、本実施形態においては、例えば地図データベース5aには、カメラ1の所有者の住居となる自宅の位置データが、タッチパネル部7等からの入力操作により予め登録することができるようにしてある。また、位置取得・判定部9aは、カメラ1の所有者の自宅の位置データから、カメラ1が、自宅の位置から移動した距離の情報も取得すると共に、距離(の大きさ)に関する判定も行う。
Further, a release button 6 a for performing a shooting instruction operation is disposed on the upper surface of the case 11. Note that a liquid crystal display that forms the display unit 4 is provided on the back side of the camera 1, and the user observes a captured image displayed on the display unit 4 and performs a shooting operation or the like. The touch panel unit 7 is formed by providing a touch sensor on the display unit 4.
In the present embodiment, for example, in the map database 5a, the position data of the home serving as the residence of the owner of the camera 1 can be registered in advance by an input operation from the touch panel unit 7 or the like. The position acquisition / determination unit 9a also acquires information on the distance that the camera 1 has moved from the home position from the home position data of the owner of the camera 1, and also makes a determination regarding the distance (size). .

本発明に係る撮像装置としてのカメラ1は、被写体を撮像する撮像部2と、撮影の指示操作に従って上記撮像部2により撮像された画像を撮影画像として記録する記録部5と、上記撮影画像として記録する場合の撮影時における複数種類のセンサ情報を取得し、取得した上記センサ情報が所定の撮影状況に該当するか否かを判定する情報取得・判定部9と、上記所定の撮影状況に対応したアイコンの画像を生成するアイコン生成部3bと、上記アイコンの画像を上記撮影画像と合成した合成画像を生成する合成画像生成部3cと、を有し、上記合成画像を表示部4によって表示可能にしたことを特徴とする。   A camera 1 as an imaging apparatus according to the present invention includes an imaging unit 2 that captures an image of a subject, a recording unit 5 that records an image captured by the imaging unit 2 in accordance with a shooting instruction operation, and a captured image. Information acquisition / determination unit 9 that acquires a plurality of types of sensor information at the time of shooting when recording and determines whether the acquired sensor information corresponds to a predetermined shooting situation, and corresponds to the predetermined shooting situation An icon generation unit 3b that generates an image of the icon and a composite image generation unit 3c that generates a composite image by combining the icon image with the captured image, and the display unit 4 can display the composite image It is characterized by that.

このような構成のカメラ1における動作を具体的に説明する。図3における(A)及び(B)は、ユーザが家族で外出した場合に本実施形態のカメラ1で撮影した撮影画像例を示す。
また、図3(C)は、図3(B)の撮影状況における撮影画像の場合に、その撮影状況に対応したアイコンを追加して合成した合成画像例を示す。
図3(A)の撮影画像においては、この撮影画像を鑑賞した場合、晴天の状態で、家族数人が撮影されているため、誰と出かけたか、どんな天気であったかの撮影状況を思い出したり把握することが簡単にできる。しかし、図3(B)のように1人だけの人物しか写っていない撮影画像Iaの場合には、撮影時の状況が分かり難くなる。
The operation of the camera 1 having such a configuration will be specifically described. (A) and (B) in FIG. 3 show examples of captured images taken by the camera 1 of the present embodiment when the user goes out as a family.
FIG. 3C shows an example of a composite image in which an icon corresponding to the shooting situation is added and combined in the case of the shot image in the shooting situation of FIG.
In the photographed image of FIG. 3 (A), when this photographed image is viewed, several family members are photographed in a clear sky, so it is possible to remember and grasp the photographing situation of who went out and what the weather was. Easy to do. However, in the case of the photographed image Ia in which only one person is shown as shown in FIG. 3B, the situation at the time of photographing becomes difficult to understand.

本実施形態においては、特に図3(B)の場合においては、その撮影画像Iaに対して、図3(C)に示すようにアイコン21a,22cを生成して、合成画像Icとして表示する。また、この合成画像Icを記録部5にも記録する。
アイコン21aは、晴天の撮影状況を表す太陽と、汗をかいた様子を簡略な絵柄に表してアイコン化したものである。従って、ユーザは、このアイコン21aから、暑い撮影状況で撮影したものであることを直感的に把握し易くする。
また、アイコン22cは、旅行カバンの絵柄でアイコン化して表示した例である。ユーザは、このアイコン22cを見ることにより、自宅から外出して旅行した場合の撮影状況であることを直感的に把握し易くする。このように撮影画像には直接、現れない撮影状況を直感的に把握し易くするためのアイコンを表示することにより、ユーザは、撮影状況を直感的に把握し易くなる。
In the present embodiment, particularly in the case of FIG. 3B, icons 21a and 22c are generated for the captured image Ia as shown in FIG. 3C and displayed as a composite image Ic. The composite image Ic is also recorded in the recording unit 5.
The icon 21a is an icon that represents the sun representing a shooting situation in fine weather and a state of sweating in a simple pattern. Therefore, it is easy for the user to intuitively understand from the icon 21a that the image was taken in a hot shooting situation.
The icon 22c is an example of an icon displayed with a travel bag pattern. By viewing this icon 22c, the user can easily intuitively grasp the shooting situation when he / she travels away from home. In this way, by displaying an icon for making it easy to intuitively grasp a shooting situation that does not appear directly in the shot image, the user can easily grasp the shooting situation intuitively.

図3で示したアイコン21a、22c等は、図4及び図5に示すように各種の情報から、所定の撮影状況に対応する所定条件を満たす(又は該当する)場合に、予め採用するアイコンとして用意されている。換言すると、取得された各種の情報が所定条件を満たす場合に、アイコンとして採用される(図4等では採用アイコンと略記)。そして、これらのアイコンがアイコンデータベース5bに格納されている。
図4では、日時情報から取得される6月〜9月及び11月〜2月の季節情報と、(GPS受信機から取得した)位置情報から判定された北半球と南半球の領域判定情報(GPS情報)と、(温度取得・判定部9cの温度取得部による)温度情報から例えば35°C以上と5°C以下の条件に該当する温度判定結果の場合に、それぞれ暑さ、寒さに対応したアイコン21a、21bが用意されている。なお、アイコン21bは、人が寒さで震えている様子を示すものであり、このアイコン21bを見ることにより、直感的に寒い撮影状況であることを把握し易くする。
The icons 21a, 22c, and the like shown in FIG. 3 are icons that are adopted in advance when various conditions satisfy (or fall under) a predetermined condition corresponding to a predetermined shooting situation, as shown in FIGS. It is prepared. In other words, it is adopted as an icon when the various pieces of acquired information satisfy a predetermined condition (in FIG. 4 etc., it is abbreviated as an adopted icon). These icons are stored in the icon database 5b.
In FIG. 4, the region information (GPS information) for the northern and southern hemispheres determined from the season information from June to September and November to February acquired from the date and time information and the position information (obtained from the GPS receiver). ) And the temperature information (by the temperature acquisition unit of the temperature acquisition / determination unit 9c), for example, in the case of temperature determination results corresponding to conditions of 35 ° C. or more and 5 ° C. or less, icons corresponding to heat and cold respectively. 21a and 21b are prepared. Note that the icon 21b indicates that the person is trembling in the cold, and viewing the icon 21b makes it easy to intuitively grasp the cold shooting situation.

図4の例では異なる複数種類の情報が、所定の撮影状況に対応する所定条件を満たす場合に、1つのアイコンを生成するようにしている。
また、図5では、自宅からの距離の情報として例えば近距離に相当する第1の距離範囲としての20km〜100kmの範囲と、遠距離に相当する第2の距離範囲としての100km以上を判定すると共に、さらにGPS情報及び地図データベース5aとから市街と郊外とを判定した情報を生成する。
そして、例えば第1の距離範囲における市街と郊外とで異なる旅行ケースとしての旅行カバンとリュックサックのアイコン22a,22bを用意し、第2の距離範囲における市街と郊外とにおいても旅行カバン及び遠方まで出かけたことを示す山のアイコン22c、22dを用意する。
In the example of FIG. 4, when a plurality of different types of information satisfy a predetermined condition corresponding to a predetermined shooting situation, one icon is generated.
Further, in FIG. 5, as information on the distance from the home, for example, a range of 20 km to 100 km as a first distance range corresponding to a short distance and a distance of 100 km or more as a second distance range corresponding to a long distance are determined. At the same time, information for determining the city and the suburbs is further generated from the GPS information and the map database 5a.
Then, for example, travel bags and rucksack icons 22a and 22b are prepared as different travel cases between the city and the suburbs in the first distance range, and the travel bags and far away in the city and suburbs in the second distance range. Mountain icons 22c and 22d indicating that the user has gone out are prepared.

なお、地図データベース5aのデータベースの内容が充実している場合には、実際に出かけた位置周辺に特有なマークをアイコン化しても良い。この場合には、アイコン生成部3bがアイコンを生成する場合、アイコンデータベース5bに格納したアイコンから所定条件に対応するアイコンを読み出し、そのアイコンにさらに地図データベース5aから読み出した上記位置周辺に特有のマークを追加する等して加工してアイコンを生成するようにしても良い。
また、図3の撮影画像においては示していないが、水深と高度の情報とから図6に示すように所定条件を満たす場合に、その所定条件に対応したアイコンを採用する。
In addition, when the content of the database of the map database 5a is enriched, a mark peculiar to the position where the user actually went out may be converted into an icon. In this case, when the icon generation unit 3b generates an icon, an icon corresponding to a predetermined condition is read from the icon stored in the icon database 5b, and a mark peculiar to the periphery of the position read from the map database 5a is further read from the icon. The icon may be generated by processing such as adding.
Further, although not shown in the photographed image of FIG. 3, when a predetermined condition is satisfied as shown in FIG. 6 from the water depth and altitude information, an icon corresponding to the predetermined condition is adopted.

水深・高度取得・判定部9dを構成する図示しない水深センサにより計測される水深の計測結果が0〜10mの範囲と10m以上の範囲を判定し、10m以下の範囲ではスノーケルを表したアイコン23a、10m以上の範囲では深海魚を表したアイコン23bを採用する。
また、水深・高度取得・判定部9dを構成する図示しない高度センサにより計測される高度の計測結果が1000m以上(で3000m未満)の範囲と3000m以上の範囲を判定し、1000m以上の範囲では山と高山植物を表したアイコン23c、3000m以上の範囲では雪で覆われた山頂を表したアイコン23dを採用する。
A water depth measurement result measured by a water depth sensor (not shown) constituting the water depth / altitude acquisition / determination unit 9d determines a range of 0 to 10 m and a range of 10 m or more, and in the range of 10 m or less, an icon 23a representing a snorkel, An icon 23b representing a deep sea fish is employed in a range of 10 m or more.
In addition, the altitude measurement result measured by an altitude sensor (not shown) constituting the water depth / altitude acquisition / determination unit 9d determines a range of 1000 m or more (less than 3000 m) and a range of 3000 m or more. The icon 23c representing the alpine plant and the icon 23d representing the mountain top covered with snow are adopted in the range of 3000 m or more.

この他に、音声取得・判定部9bにより音声として環境音を取得し、取得した環境音の周波数分析による判定結果に基づいて、町中の場合の環境音(騒音、複数の車の音等)に該当する判定の場合には、図7(A)に示すように町中を絵柄にして表したアイコン24aを採用する。
また、音声取得・判定部9bにより音声を取得し、取得した音声が人が発した音声であると判定した場合には、人をアバター化した図7(B)のアイコン24bを採用しても良い。この場合、撮影画像には写らなかった人をアバター化したアイコン24bを採用しても良い。
次に図8のフローチャートを参照して本実施形態のカメラ1によりカメラ制御の処理手順例を説明する。
In addition to this, environmental sound is acquired as sound by the sound acquisition / determination unit 9b, and environmental sound in the town (noise, sound of multiple cars, etc.) based on the determination result by frequency analysis of the acquired environmental sound In the case of the determination corresponding to the above, an icon 24a representing the town as a picture is adopted as shown in FIG.
Further, when the voice acquisition / determination unit 9b acquires a voice and determines that the acquired voice is a voice uttered by a person, the icon 24b shown in FIG. good. In this case, you may employ | adopt the icon 24b which made the avatar the person who did not appear in the picked-up image.
Next, a processing procedure example of camera control by the camera 1 of the present embodiment will be described with reference to a flowchart of FIG.

カメラ1の電源が投入されると、カメラ1の制御部3はカメラ1の各部の動作を制御するカメラ制御の動作を開始する。
最初のステップS1において制御部3は、このカメラ1が撮影モードに設定されているか、又は撮影モードを選択する操作がされているか否かの判定を行う。撮影モードの設定又は選択に該当する場合には、次のステップS2において制御部3は、撮像部2により撮像された撮像画像を表示部4で表示するように制御する。図8ではスルー画像表示と略記。
また、この場合、ステップS3に示すように情報取得・判定部9は、その状況における各種の情報を取得すると共に、取得した各種の情報から状況判定を行う。
When the power of the camera 1 is turned on, the control unit 3 of the camera 1 starts a camera control operation for controlling the operation of each unit of the camera 1.
In the first step S1, the control unit 3 determines whether or not the camera 1 is set to the shooting mode or an operation for selecting the shooting mode is performed. If the shooting mode is set or selected, the control unit 3 controls the display unit 4 to display the captured image captured by the imaging unit 2 in the next step S2. In FIG. 8, it is abbreviated as a through image display.
In this case, as shown in step S <b> 3, the information acquisition / determination unit 9 acquires various kinds of information in the situation and performs situation judgment from the obtained various information.

次のステップS4において制御部3は、ユーザにより撮影操作が行われたか否かの判定を行う。撮影操作が行われた判定結果の場合には、ステップS5に示すように制御部3は、撮影画像等のデータを記録部5に記録する処理を行うように制御する。
そして、ステップS6に示すように制御部3は、撮影時の操作を反映したデータ(撮影反映データ)を撮影画像のデータに付与する。
また、ステップS7に示すように制御部3は、情報取得・判定部9により判定された状況判定のデータを取得し、撮影画像のデータに付与する。また、ステップS8に示すように制御部3は、情報取得・判定部9により取得された時計データ(日時データ)を撮影画像のデータに付与する。
In the next step S4, the control unit 3 determines whether or not a shooting operation has been performed by the user. In the case of the determination result obtained by performing the shooting operation, as shown in step S5, the control unit 3 performs control so as to perform processing for recording data such as a captured image in the recording unit 5.
Then, as shown in step S <b> 6, the control unit 3 gives data (shooting reflection data) reflecting the operation at the time of shooting to the data of the shot image.
Further, as shown in step S7, the control unit 3 acquires the data of the situation determination determined by the information acquisition / determination unit 9, and assigns the data to the captured image data. Further, as shown in step S8, the control unit 3 gives the clock data (date / time data) acquired by the information acquisition / determination unit 9 to the data of the captured image.

また、ステップS9に示すように制御部3は、ステップS6−S8で取得したデータを記録ファイルにファイル化、つまり記録ファイル化して、記録部5に記録する。
なお、ステップS6、S9の撮影反映データを撮影画像のデータに付与して記録ファイル化する代わりに、撮影反映データを撮影画像のデータに関連付けた状態で、記録部5に別々に記録しても良い(ステップS7とS9又はステップS8とS9に関しても同様)。
ステップS9の処理により生成された記録ファイルには、例えばステップS7の処理に基づいて、撮影画像の撮影状況に対応して状況判定のデータから、図4〜図7で説明したように特定のアイコン(採用アイコン)が決定される。このようにして、記録部5には撮影画像のデータと、その撮影画像に関連付けたデータとが記録ファイルとして記録される。
Further, as shown in step S9, the control unit 3 converts the data acquired in steps S6-S8 into a recording file, that is, converts the data into a recording file and records it in the recording unit 5.
Instead of adding the captured reflection data in steps S6 and S9 to the captured image data to form a recording file, the captured reflected data may be recorded separately in the recording unit 5 in a state associated with the captured image data. Good (same for steps S7 and S9 or steps S8 and S9).
In the recording file generated by the process of step S9, for example, based on the process of step S7, a specific icon as described with reference to FIGS. (Employment icon) is determined. In this way, the recording unit 5 records the captured image data and the data associated with the captured image as a recording file.

この記録ファイルは、撮影画像が記録された記録ファイルのデータベースとなる。ステップS9の処理の後、ステップS1の処理に戻る。
ステップS4において撮影操作がされていない場合には、ステップS10において制御部3は、撮影モードから他のモードに変更するスイッチ操作がされたか否かの判定を行う。
このスイッチ操作が行われない場合には、ステップS1の処理に戻り、スイッチ操作が行われた場合には次のステップS11の処理に移る。
ステップS11において制御部3は、スイッチ操作を反映した制御動作を行った後、ステップS1の処理に戻る。
This recording file is a database of recording files in which captured images are recorded. After step S9, the process returns to step S1.
If the photographing operation is not performed in step S4, in step S10, the control unit 3 determines whether or not a switch operation for changing from the photographing mode to another mode is performed.
If this switch operation is not performed, the process returns to step S1, and if a switch operation is performed, the process proceeds to the next step S11.
In step S11, the control unit 3 performs a control operation reflecting the switch operation, and then returns to the process of step S1.

ステップS1において撮影モードでない判定結果の場合には、ステップS12において制御部3は、再生モードの設定か否かの判定を行う。再生モードの設定でない場合には、ステップS1の処理に戻り、再生モードの設定の場合には次のステップS13に進む。
ステップS13において制御部3は、表示部4において記録部5に記録されている撮影画像のファイルを一覧表示する。記録部5に撮影画像が複数枚、ファイル化されている場合には、縮小された縮小画像としてのサムネイル画像により、一覧表示する。
次のステップS14において制御部3は、一覧表示された撮影画像のサムネイル画像に対する選択操作が行われたか否かを判定する。選択操作が一定期間されていないと、ステップS1の処理に戻る。
If the determination result is not the shooting mode in step S1, the control unit 3 determines whether or not the playback mode is set in step S12. If the playback mode is not set, the process returns to step S1, and if the playback mode is set, the process proceeds to the next step S13.
In step S <b> 13, the control unit 3 displays a list of captured image files recorded in the recording unit 5 on the display unit 4. When a plurality of captured images are filed in the recording unit 5, a list is displayed with thumbnail images as reduced reduced images.
In the next step S14, the control unit 3 determines whether or not a selection operation has been performed on the thumbnail images of the captured images displayed as a list. If the selection operation has not been performed for a certain period, the process returns to step S1.

ユーザは、拡大表示して鑑賞しようと思うサムネイル画像がある場合には、そのサムネイル画像を指でタッチして選択する。
選択の操作が行われると、サムネイル画像の縮小表示の状態から選択画像が通常表示のサイズに拡大されて表示部4で表示される。ステップS15に示すように制御部3(のローコン検出部3d)は、この選択画像の背景にローコン領域が有るか否かを判定する。
ローコン領域が有る判定結果の場合には、ステップS16に示すように制御部3は、選択画像の背景にローコン領域の面積から表示可能なアイコン数を決定する。
表示部4の表示サイズにも異存するが、アイコンを表示する表示サイズとして例えば50×50ドット程度の画素数が必要であり、また、カメラ1における表示面では1cm四方位の大きさが必要になる。
When there is a thumbnail image that the user wants to view in an enlarged manner, the user touches the thumbnail image with a finger to select it.
When the selection operation is performed, the selected image is enlarged to the normal display size from the reduced display state of the thumbnail image and displayed on the display unit 4. As shown in step S15, the control unit 3 (the low contrast detection unit 3d) determines whether or not there is a low contrast area in the background of the selected image.
In the case of the determination result that there is a low contrast area, the control unit 3 determines the number of icons that can be displayed from the area of the low contrast area on the background of the selected image as shown in step S16.
Although it depends on the display size of the display unit 4, the display size for displaying an icon requires, for example, a number of pixels of about 50 × 50 dots, and the display surface of the camera 1 requires a size of 1 cm in four directions. Become.

このため、表示部4の分解能や、面積によって、表示できるアイコン数は異なる。そして、上記ステップS16では、ローコン領域の面積が1cm四方を有する場合に、アイコン数を決定する。なお、選択画像を拡大しない状態でその背景におけるローコン領域の面積から表示可能なアイコン数を決定しても良い。
次のステップS17において制御部3のアイコン生成部3bは、選択画像のローコン領域にアイコンを配置する。そして、ステップS18に示すように制御部3の合成画像生成部3cにより選択画像(撮影画像)にアイコンを合成する。つまり、表示部4において撮影画像にアイコンを加えて合成画像として表示する。この場合の表示例は、図3(C)のようになる。
For this reason, the number of icons that can be displayed varies depending on the resolution and area of the display unit 4. In step S16, the number of icons is determined when the area of the low-con region has a 1 cm square. Note that the number of icons that can be displayed may be determined from the area of the low contrast area in the background without enlarging the selected image.
In the next step S17, the icon generation unit 3b of the control unit 3 arranges an icon in the low contrast area of the selected image. Then, as shown in step S18, an icon is synthesized with the selected image (captured image) by the synthesized image generating unit 3c of the control unit 3. That is, the display unit 4 adds the icon to the captured image and displays it as a composite image. A display example in this case is as shown in FIG.

また、次のステップS19に示すように制御部3は、タッチパネル部によりアイコンがタッチされたか否かを判定する。タッチされた場合には、ステップS20に示すように制御部3は、タッチされたアイコンの説明を、所定時間(例えば5秒程度)行うように制御し、所定時間後に説明の表示を終了する。
仮に、アイコンの表示によっても撮影状況が分かりにくい場合には、そのアイコンにタッチする操作を行うことにより、そのアイコンの撮影状況を具体的に説明を行うようにしているので、ユーザに対する利便性を確保することができる。
ステップS19においてタッチされない場合及びステップS20の処理の後、ステップS22に進む。
Further, as shown in the next step S19, the control unit 3 determines whether or not the icon is touched by the touch panel unit. When touched, the control unit 3 controls to explain the touched icon for a predetermined time (for example, about 5 seconds) as shown in step S20, and ends the description display after the predetermined time.
If the shooting situation is difficult to understand even if the icon is displayed, the icon shooting situation is specifically explained by touching the icon. Can be secured.
When not touched in step S19 and after the process of step S20, the process proceeds to step S22.

ステップS15においてローコン領域が無い場合には、ステップS21に示すように制御部3は、選択画像のみで拡大表示する制御を行う。このように、ローコン領域が無い場合には、制御部3は、アイコンを有しない選択画像(撮影画像)のみを表示するように制御する。
図8においては、ローコン領域の検出の有無に従って、制御部3(の表示制御部3e)は、ローコン領域が有る検出結果の場合には表示部4に撮影画像と共に、そのローコン領域にアイコンを表示する表示制御を行うと共に、ローコン領域が無い検出結果の場合には表示部4に撮影画像のみを表示する表示制御を行う。
If there is no low contrast area in step S15, the control unit 3 performs control to enlarge and display only the selected image as shown in step S21. As described above, when there is no low contrast area, the control unit 3 performs control so that only a selected image (captured image) having no icon is displayed.
In FIG. 8, according to the detection of the low contrast area, the control section 3 (the display control section 3e) displays an icon in the low contrast area along with the photographed image in the case of the detection result including the low contrast area. Display control is performed, and in the case of a detection result without a low contrast area, display control for displaying only the captured image on the display unit 4 is performed.

なお、ローコン領域が検出された場合においても、アイコンを表示する場合の最小領域のサイズよりも小さい場合には、ローコン領域が無い場合と同様の表示制御となる。ステップS21の後、ステップS22において制御部3は、再生終了の操作がされるのを待つ。再生終了の操作がされると、ステップS1の処理に戻る。
このように動作する本実施形態のカメラ1によれば、例えば図3(C)のように合成画像が表示されるので、撮影画像を鑑賞する場合、アイコン21a、22cなどから撮影状況を直感的に把握することが容易となる。
従って、本実施形態によれば、撮影画像を鑑賞する場合、撮影状況を直感的に把握することが容易となる効果を有する。
また、撮影画像には現れない撮影状況の場合にも、その撮影状況を表すアイコンによりユーザは撮影状況を直感的に把握することが容易となる。
なお、図8においては、ステップS16においてアイコン数の決定を行うようにしているが、ステップS5以降で行うようにしても良い。
Even when the low-con area is detected, if the size is smaller than the minimum area when the icon is displayed, the display control is the same as when there is no low-con area. After step S21, in step S22, the control unit 3 waits for an operation to end reproduction. When the reproduction end operation is performed, the process returns to step S1.
According to the camera 1 of the present embodiment that operates in this way, a composite image is displayed as shown in FIG. 3C, for example. When a photographed image is to be viewed, the photographing situation can be intuitively viewed from the icons 21a and 22c. It is easy to grasp.
Therefore, according to the present embodiment, when viewing a captured image, it is possible to intuitively grasp the shooting situation.
In addition, even in a shooting situation that does not appear in the shot image, the user can easily grasp the shooting situation intuitively with an icon representing the shooting situation.
In FIG. 8, the number of icons is determined in step S <b> 16, but may be determined in step S <b> 5 and subsequent steps.

なお、同じ日に撮影した複数枚の撮影画像を再生する場合には、何度も同じアイコンが出てくる(表示される)場合には、目障りになる可能性がある。このため、スライドショーを行う場合には、同じ日に撮影されたもので、最もローコン領域が大きいもののみに、アイコンを表示するように、制御部3がアイコンの表示制御を行うようにしても良い。
次に図9を参照して、図8の変形例におけるアイコンを合成表示する場合の再生モードの説明を行う。
再生モードに設定された場合、ステップS31において制御部3は、ユーザによる撮影画像の再生指示に対応して、記録部5における記録ファイルのデータベースにアクセスする。
次のステップS32において制御部3は、記録ファイルのデータベースにおける再生指示された撮影画像に関する各種のタブ情報を読み込む。
When playing back a plurality of captured images taken on the same day, if the same icon appears (displayed) many times, there is a possibility that it may be annoying. For this reason, when a slide show is performed, the control unit 3 may perform icon display control so that icons are displayed only on those shot on the same day and having the largest low contrast area. .
Next, with reference to FIG. 9, a description will be given of a playback mode in the case of combining and displaying icons in the modification of FIG.
When the reproduction mode is set, in step S31, the control unit 3 accesses the recording file database in the recording unit 5 in response to a user's instruction to reproduce the captured image.
In the next step S32, the control unit 3 reads various tab information related to the photographed image for which reproduction is instructed in the database of the recording file.

次のステップS33において制御部3は、撮像された撮像画像を再生画像として表示部4に表示するように制御する。図10はステップS33の撮影画像Idの表示例を示す。
次のステップS34において制御部3は、ユーザが撮影画像をイメージとして把握できる程度の時間として予め設定されている所定時間(例えば2〜3秒)経過したかの判定を行う。この所定時間が経過した場合には、ステップS35において制御部3は、撮影画像における背景部分にローコン領域が有るか否かの判定を行う。なお、ステップS35の判定処理を、ステップS33とS34の間で行うようにしても良い。
ローコン領域が有る判定結果の場合には、次のステップS36において制御部3は、ローコン領域にアイコンを配置して、合成画像を表示部4で表示するように制御した後、ステップS38に進む。図11は、ステップS36の撮影画像とアイコンとを合成した合成画像Ieの表示例を示す。
In the next step S33, the control unit 3 performs control so that the captured image is displayed on the display unit 4 as a reproduced image. FIG. 10 shows a display example of the captured image Id in step S33.
In the next step S34, the control unit 3 determines whether or not a predetermined time (for example, 2 to 3 seconds) set in advance as a time that allows the user to grasp the captured image as an image has elapsed. When the predetermined time has elapsed, in step S35, the control unit 3 determines whether or not the background area in the captured image has a low contrast area. The determination process in step S35 may be performed between steps S33 and S34.
In the case of the determination result that there is a low contrast area, in the next step S36, the control unit 3 arranges an icon in the low contrast area and controls the display unit 4 to display the composite image, and then proceeds to step S38. FIG. 11 shows a display example of the composite image Ie obtained by combining the captured image and the icon in step S36.

図10及び図11において、背景部分における点線で示す木はローコン領域に属するため、アイコン21a,22cが上書きして表示される。
一方、ステップS34において所定時間が経過していない場合及びステップS35のローコン領域が無い判定の場合には、ステップS37に進み、このステップS37において制御部3は、ステップS33における表示部4に表示した撮影画像を継続して表示させるように制御して、ステップS38の処理に移る。
ステップS38において制御部3は、別の撮影画像が選択されたか否かの判定を行い、別の撮影画像が選択された場合には、ステップS31の処理に戻り、逆に撮影画像が選択されない場合には、次のステップS39に進む。
10 and 11, since the tree indicated by the dotted line in the background portion belongs to the low contrast area, the icons 21a and 22c are overwritten and displayed.
On the other hand, when the predetermined time has not elapsed in step S34 and when it is determined in step S35 that there is no low contrast area, the process proceeds to step S37, and in this step S37, the control unit 3 displays on the display unit 4 in step S33. Control is performed to continuously display the captured image, and the process proceeds to step S38.
In step S38, the control unit 3 determines whether or not another captured image is selected. If another captured image is selected, the process returns to step S31, and conversely, the captured image is not selected. The process proceeds to the next step S39.

ステップS39において制御部3は、再生終了の操作がされたか否かの判定を行い、再生終了の操作がされない場合には、ステップS31の処理に戻り、逆に再生終了の操作がされた場合には、図8のステップS12の処理に戻る。
このように本変形例においては、制御部3(の表示制御部3e)は、撮影画像を表示した後、所定時間が経過後に、その撮影画像の表示状態からその背景部分にアイコンを表示するように表示切替の制御を行う。従って、撮影画像を鑑賞するユーザは、撮影画像のイメージを確認した位の時間後に、撮影状況を直感的に表すアイコンが表示される表示状態に切り替わるため、撮影状況の把握が容易にできる。なお、表示制御部3eが以下のように表示切替の制御を行うようにしても良い。
図9のフローチャートにおいては、撮影画像を表示した後、所定時間の経過後にアイコンを表示する例を示したが、その逆の表示切替、つまり撮影画像にアイコンを表示した後、所定時間の経過後において表示したアイコンを非表示(撮影画像のみを表示)する表示切替を行うようにしても良い。
In step S39, the control unit 3 determines whether or not the playback end operation has been performed. If the playback end operation has not been performed, the control unit 3 returns to the process of step S31, and conversely, if the playback end operation has been performed. Returns to the process of step S12 of FIG.
As described above, in this modification, the control unit 3 (the display control unit 3e) displays an icon on the background portion from the display state of the captured image after a predetermined time has elapsed after displaying the captured image. Control display switching. Accordingly, the user who views the photographed image switches to a display state in which an icon that intuitively represents the photographing state is displayed after the time when the image of the photographed image is confirmed, so that the photographing state can be easily grasped. Note that the display control unit 3e may control display switching as follows.
In the flowchart of FIG. 9, an example is shown in which an icon is displayed after a lapse of a predetermined time after displaying a captured image, but the reverse display switching, that is, after an icon has been displayed on the captured image, The display may be switched so that the icon displayed in is not displayed (only the captured image is displayed).

また、図9のように表示部4において撮影画像を表示した後、所定時間の経過後にアイコンを表示し、このアイコンの表示後の第2の所定時間後に、表示したアイコンを非表示にする表示切替を行うようにしても良い。
この第2の所定時間として、アイコンにより撮影状況の把握ができる時間以上に設定すれば良い。また、ユーザが第2の所定時間の値を可変設定できるようにしても良い。この場合には、アイコンの表示により、ユーザは撮影状況が把握でき、その撮影状況の把握後にアイコンが非表示になるため、ユーザによる撮影画像を鑑賞する場合の表示内容の選択肢を広げることができる。換言すると、広範囲のユーザの要望に対応することができる。その他、第1の実施形態の場合と同様の効果を有する。
Further, as shown in FIG. 9, after the captured image is displayed on the display unit 4, an icon is displayed after a predetermined time has elapsed, and the displayed icon is hidden after a second predetermined time after the icon is displayed. Switching may be performed.
The second predetermined time may be set to a time longer than the time when the shooting situation can be grasped by the icon. Further, the user may be able to variably set the value of the second predetermined time. In this case, the display of the icon allows the user to grasp the shooting situation, and the icon is not displayed after grasping the shooting situation. Therefore, it is possible to expand the choices of display contents when the user views the shot image. . In other words, a wide range of user needs can be met. Other effects are the same as those of the first embodiment.

(第2の実施形態)
次に本発明の第2の実施形態を説明する。図12は本発明の第2の実施形態のカメラ1Bの構成を示す。
本実施形態のカメラ1Bは、図1のカメラ1において、制御部3は被写体を撮影した場合に人物の顔部分が存在するか否かを検出する顔検出部3fと、アイコンを表示する場合、表示するアイコンの優先度を予め設定する優先度設定部3gとを有する。
なお、このアイコンの優先度を設定する場合、タッチパネル部7を操作する等してユーザは、表示するアイコンの優先度を設定することができる。その他の構成は、図1と同様である。なお、優先度設定部3gにより、アイコン生成部3bが生成するアイコンの優先度を設定する場合に適用しても良い。
(Second Embodiment)
Next, a second embodiment of the present invention will be described. FIG. 12 shows the configuration of a camera 1B according to the second embodiment of the present invention.
In the camera 1B of the present embodiment, in the camera 1 of FIG. 1, the control unit 3 displays a face detection unit 3f that detects whether or not a person's face portion exists when the subject is photographed, and an icon. A priority setting unit 3g for presetting the priority of the icon to be displayed.
When setting the priority of this icon, the user can set the priority of the icon to be displayed by operating the touch panel unit 7 or the like. Other configurations are the same as those in FIG. In addition, you may apply when setting the priority of the icon which the icon generation part 3b produces | generates by the priority setting part 3g.

次に図13を参照して本実施形態におけるカメラ1B再生モードの処理手順を説明する。なお、再生モード以外は、図8と同様の処理手順である。
再生モードに設定された場合、最初のステップS41において制御部3は、ユーザによる撮影画像の再生指示に対応して、記録部5における記録ファイルのデータベースにアクセスする。
次のステップS42において制御部3は、記録ファイルのデータベースにおける再生指示された撮影画像に関する各種のタブ情報を読み込む。
次のステップS43において制御部3は、撮像された撮像画像を表示部4に表示するように制御する。図14はステップS43の撮影画像Ifの表示例を示す。
Next, the processing procedure of the camera 1B playback mode in this embodiment will be described with reference to FIG. Except for the playback mode, the processing procedure is the same as in FIG.
When the playback mode is set, in the first step S41, the control unit 3 accesses the recording file database in the recording unit 5 in response to a user's instruction to reproduce the captured image.
In the next step S42, the control unit 3 reads various tab information related to the photographed image for which reproduction has been instructed in the recording file database.
In the next step S43, the control unit 3 performs control so that the captured image is displayed on the display unit 4. FIG. 14 shows a display example of the captured image If in step S43.

次のステップS44において制御部3(の顔検出部3f)は、撮影画像に顔(部分)検出有りか否かの判定を行う。顔検出有りの場合には次のステップS45において制御部3は、検出した顔部分以外の領域にアイコンを配置する。
アイコンを配置することにより、ステップS46に示すように制御部3は、撮影画像にアイコンを加えた合成画像を表示部4で表示するように制御した後、ステップS49の処理に進む。図15は、ステップS46により撮影画像にアイコン21a,24a,24bを加えた合成画像Igの表示例を示す。
一方、ステップS44において顔検出が無い場合にはステップS47において制御部3は、撮影画像における任意箇所にアイコンを配置する。さらにステップS48において制御部3は、合成画像を表示部4で表示するように制御した後、ステップS49に進む。
In the next step S44, the control unit 3 (the face detection unit 3f) determines whether or not a face (part) is detected in the captured image. If face detection is present, in the next step S45, the control unit 3 places an icon in an area other than the detected face portion.
By arranging the icons, as shown in step S46, the control unit 3 controls the display unit 4 to display a composite image in which the icon is added to the photographed image, and then proceeds to the process of step S49. FIG. 15 shows a display example of the composite image Ig obtained by adding the icons 21a, 24a, and 24b to the photographed image in step S46.
On the other hand, when there is no face detection in step S44, in step S47, the control unit 3 arranges an icon at an arbitrary position in the captured image. Further, in step S48, the control unit 3 performs control to display the composite image on the display unit 4, and then proceeds to step S49.

ステップS49において制御部3は、別の撮影画像が選択されたか否かの判定を行い、別の撮影画像が選択された場合には、ステップS41の処理に戻り、逆に撮影画像が選択されない場合には、次のステップS50に進む。
ステップS50において制御部3は、再生終了の操作がされたか否かの判定を行い、再生終了の操作がされない場合には、ステップS41の処理に戻り、逆に再生終了の操作がされた場合には、図8のステップ12の処理に戻る。
このように動作する本実施形態によれば、図14に示すように顔検出有りの撮影画像の場合には、検出された顔部以外の領域にアイコンを配置して合成画像として表示するようにしている。
In step S49, the control unit 3 determines whether or not another captured image is selected. If another captured image is selected, the process returns to step S41, and conversely, the captured image is not selected. The process proceeds to the next step S50.
In step S50, the control unit 3 determines whether or not the reproduction end operation has been performed. If the reproduction end operation has not been performed, the control unit 3 returns to the process of step S41, and conversely, if the reproduction end operation has been performed. Returns to the process of step 12 in FIG.
According to the present embodiment that operates in this way, in the case of a captured image with face detection as shown in FIG. 14, icons are arranged in areas other than the detected face and displayed as a composite image. ing.

従って、人物を撮影したような場合においては、人物における主要な部分となる顔部分以外にアイコンを表示するため、人物の表情が分かり難くなることなく、撮影状況を直感的に把握し易くできる。
図16は変形例における再生モードの処理手順を示す。再生モードに設定された場合、ステップS51において制御部3は、ユーザによる撮影画像の再生指示に対応して、記録部5における記録ファイルのデータベースにアクセスする。
次のステップS52において制御部3は、記録ファイルのデータベースにおける再生指示された撮影画像に関する各種のタブ情報を読み込む。
次のステップS53において制御部3は、撮像された撮像画像を表示部4に表示するように制御する。例えば、図10はステップS53の撮影画像Idの表示例を示す。
Accordingly, when a person is photographed, an icon is displayed in addition to the face part that is the main part of the person, so that it is easy to intuitively grasp the photographing situation without making it difficult to understand the facial expression of the person.
FIG. 16 shows the processing procedure of the reproduction mode in the modified example. When the reproduction mode is set, in step S51, the control unit 3 accesses the recording file database in the recording unit 5 in response to the reproduction instruction of the captured image by the user.
In the next step S52, the control unit 3 reads various tab information related to the photographed image for which reproduction is instructed in the recording file database.
In next step S <b> 53, the control unit 3 performs control so that the captured image is displayed on the display unit 4. For example, FIG. 10 shows a display example of the captured image Id in step S53.

次のステップS54において制御部3は、撮影画像における背景部分にローコン領域が有るか否かの判定を行う。
ローコン領域が有る判定結果の場合には、次のステップS55において制御部3は、ローコン領域の面積に入るアイコン数を演算し、ローコン領域の面積に入るアイコン数を決定する。
その後、次のステップS56において制御部3は、予め設定された優先順位に基づきローコン領域にアイコンを配置する。つまり、優先順位の高いアイコンを優先してローコン領域に配置する。図17は、ステップS56の処理により図10の撮影画像の場合においてローコン領域にアイコン21a,22c,22dが配置された合成画像Ihの例を示す。
In the next step S54, the control unit 3 determines whether or not there is a low contrast area in the background portion of the captured image.
If the determination result indicates that there is a low-con area, in the next step S55, the control unit 3 calculates the number of icons that enter the area of the low-con area, and determines the number of icons that enter the area of the low-con area.
Thereafter, in the next step S56, the control unit 3 arranges an icon in the low contrast area based on a preset priority order. That is, an icon with a high priority is preferentially arranged in the low contrast area. FIG. 17 shows an example of the composite image Ih in which the icons 21a, 22c, and 22d are arranged in the low contrast area in the case of the photographed image of FIG. 10 by the process of step S56.

このようにして、ステップS57に示すように制御部3は、撮影画像におけるローコン領域にアイコンを配置した合成画像を表示部4で表示するように制御した後、ステップS59に進む。
一方、ステップS54においてローコン領域が無い判定の場合には、ステップS58に進み、このステップS58において制御部3は、表示部4に撮影画像を継続して表示させるように制御して、ステップS59の処理に移る。
ステップS59において制御部3は、別の撮影画像が選択されたか否かの判定を行い、別の撮影画像が選択された場合には、ステップS51の処理に戻り、逆に撮影画像が選択されない場合には、次のステップS60に進む。
In this way, as shown in step S57, the control unit 3 controls the display unit 4 to display the composite image in which the icon is arranged in the low contrast area in the captured image, and then proceeds to step S59.
On the other hand, if it is determined in step S54 that there is no low contrast area, the process proceeds to step S58. In step S58, the control unit 3 controls the display unit 4 to continuously display the captured image. Move on to processing.
In step S59, the control unit 3 determines whether or not another captured image is selected. If another captured image is selected, the process returns to step S51, and conversely, the captured image is not selected. Then, the process proceeds to the next step S60.

ステップS60において制御部3は、再生終了の操作がされたか否かの判定を行い、再生終了の操作がされない場合には、ステップS51の処理に戻り、逆に再生終了の操作がされた場合には、図8のステップ12の処理に戻る。
このように本変形例においてはアイコンを表示する場合、優先度の高いアイコンを優先して表示するようにしているので、限られた数のアイコンしか表示できない場合、優先度の高いアイコンを確実に表示できる。
図18は第2変形例による再生モードの処理手順を示す。図18のフローチャートは図16のフローチャートにおいてステップS55,S56の代わりに、ステップS61及びS62の処理を行うように置換している。また本変形例においては、ステップS53の撮影画像として、例えば図19の撮影画像Iiを表示する。
In step S60, the control unit 3 determines whether or not a reproduction end operation has been performed. If the reproduction end operation has not been performed, the control unit 3 returns to the process of step S51, and conversely, if a reproduction end operation has been performed. Returns to the process of step 12 in FIG.
In this way, in this modification, when displaying icons, priority is given to high priority icons, so if only a limited number of icons can be displayed, ensure that high priority icons are displayed. Can be displayed.
FIG. 18 shows a processing procedure in the reproduction mode according to the second modification. The flowchart of FIG. 18 is replaced by performing the processes of steps S61 and S62 instead of steps S55 and S56 in the flowchart of FIG. In this modification, for example, the captured image Ii of FIG. 19 is displayed as the captured image in step S53.

ステップS54において制御部3が撮影画像の背景にローコン領域有りか否かの検出(判定)を行い、ローコン領域が有りと判定(検出)した場合には、ステップS61において制御部3は、ローコン領域が分布している各位置を算出する。
次のステップS62において制御部3は、ステップS54により算出された位置の情報を参照して、撮影画像におけるローコン領域にアイコンを配置する。アイコンを配置する場合において、ローコン領域における撮影画像の四隅及び(表示部4の表示面の)周辺部から優先してアイコンを配置するように制御する。
そして、次のステップS57に示すように制御部3は、(ステップS62の配置方法に従って)撮影画像にアイコンを加えた合成画像を表示する。
If the controller 3 detects (determines) whether or not there is a low contrast area in the background of the captured image in step S54, and determines (detects) that there is a low contrast area, the controller 3 determines in step S61 that the low contrast area is present. Each position where is distributed is calculated.
In the next step S62, the control unit 3 refers to the position information calculated in step S54 and arranges an icon in the low contrast area in the captured image. When arranging the icons, control is performed so that the icons are arranged with priority from the four corners of the captured image in the low contrast region and the peripheral portion (of the display surface of the display unit 4).
Then, as shown in the next step S57, the control unit 3 displays a composite image obtained by adding an icon to the photographed image (according to the arrangement method in step S62).

図20は本変形例により撮影画像にアイコン21a,22c,22d,24bを追加して合成した合成画像Ijの表示例を示す。
その他の処理は、図16の場合と同様である。撮影画像は殆どの場合、撮影画像の中央部が撮影者が最も撮影したいと希望する主要部となる設定で撮影されているので、本変形例によれば、アイコンを撮影画像の周辺部側から優先して配置することにより、主要部がアイコンによって欠けたり、遮られるようなことを防止できる。
また、このようにアイコンを配置することにより、アイコンが撮影画像の表示の妨げになることも防止できる。
FIG. 20 shows a display example of a composite image Ij synthesized by adding icons 21a, 22c, 22d, and 24b to a photographed image according to this modification.
Other processes are the same as those in FIG. In most cases, the photographed image is taken with the setting that the central part of the photographed image is the main part that the photographer wants to photograph most, so according to this modification, the icon is displayed from the peripheral side of the photographed image. By prioritizing the arrangement, it is possible to prevent the main part from being cut off or blocked by the icon.
Further, by arranging the icons in this way, it is possible to prevent the icons from obstructing the display of the captured image.

図21は、第3変形例によるアイコンの表示を行う処理内容を示す。本変形例は、例えば図16の処理手順におけるステップS55−S57の代わりにステップS71−73を行うように変更した処理を行うようにしている。
具体的にはステップS54において、撮影画像の背景にローコン領域が有るか否かの判定を行う。そして、ローコン領域が有りの場合には、次にステップS71において制御部3は、この撮影画像の場合に表示予定のアイコン数を算出する。
さらに、次のステップS72において制御部3は、ローコン領域における所定領域において、表示予定のアイコン数のアイコンを時間的に順次変更して配置する。
そして、ステップS73に示すように撮影画像に表示するアイコンを時間的に変更した合成画像を表示する。
FIG. 21 shows processing contents for displaying icons according to the third modification. In the present modification, for example, the processing is changed so that steps S71-73 are performed instead of steps S55-S57 in the processing procedure of FIG.
Specifically, in step S54, it is determined whether or not there is a low contrast area in the background of the captured image. If there is a low contrast area, then in step S71, the control unit 3 calculates the number of icons scheduled to be displayed for this captured image.
Further, in the next step S72, the control unit 3 sequentially changes and arranges icons corresponding to the number of icons scheduled to be displayed in a predetermined area in the low contrast area.
Then, as shown in step S73, a composite image obtained by temporally changing the icon displayed on the captured image is displayed.

ステップS72及びS73においては、撮影画像に表示するアイコンを例えば所定の時間の経過毎に所定の順序で順次変更する。そして、表示予定のアイコン数を全て表示した場合には、再び最初に表示する予定のアイコンから同様の表示を繰り返し行う。ステップS73の処理の後、ステップS59の処理に移る。なお、検出されたローコン領域の面積に応じて、同時に表示するアイコン数を複数にしても良い。
このようにな表示を行うことにより、ローコン領域が小さい場合においても、表示予定のアイコンを表示することが可能になる。なお、ローコン領域として、帯状の領域を確保できる場合には、帯状のローコン領域に表示予定のアイコンを移動させながら順次表示するようにしても良い。
また、上述の説明においては、アイコンデータベース5b内に格納したアイコンを適宜に読み出して表示部4で表示に採用するアイコンの例で説明したが、以下のようにしても良い。
アイコンデータベース5b内に、アイコンの素材のみを記録して、撮影状況に応じてアイコン生成部3bがアイコンの素材を組み合わせて表示に採用する新しいアイコンを生成したり、ユーザが手動操作で、自分に似た(アバター化した)アバター画像を作り、そのアバター画像を表示に採用するアイコンにしても良い。また、このアバター画像をアイコンデータベース5b内に記録できるようにしても良い。
上述した実施形態及び変形例等を部分的に組み合わせる等して構成される実施形態も本発明に属する。
In steps S72 and S73, the icons displayed on the photographed image are sequentially changed in a predetermined order, for example, every elapse of a predetermined time. When all the icons to be displayed are displayed, the same display is repeated from the first icon to be displayed again. After the process of step S73, the process proceeds to step S59. Note that a plurality of icons may be displayed simultaneously according to the detected area of the low contrast region.
By performing such display, it is possible to display an icon scheduled to be displayed even when the low contrast area is small. If a band-like area can be secured as the low-con area, the icons to be displayed may be sequentially displayed while moving to the band-like low-con area.
In the above description, an example of icons that are appropriately read out and stored in the icon database 5b and used for display on the display unit 4 has been described. However, the following may be used.
Only the icon material is recorded in the icon database 5b, and the icon generation unit 3b generates a new icon to be used for display by combining the icon material according to the shooting situation. A similar avatar image may be created and the avatar image may be used as an icon for display. Further, this avatar image may be recorded in the icon database 5b.
Embodiments configured by partially combining the above-described embodiments and modification examples also belong to the present invention.

1、1B…カメラ、2…撮像部、3…制御部、3a…画像処理部、3b…アイコン生成部、3c…合成画像生成部、3d…ローコン検出部、3e…表示制御部、3f…顔検出部、4…表示部、5…記録部、5a…地図DB、5b…アイコンDB、6…操作部、7…タッチパネル部、8…加速度センサ、9…情報取得・状況判定部、9a…位置取得・判定部、9b…音声取得・判定部、9c…温度取得・判定部、9d…水深・高度取得・判定部、9e…日時取得・判定部   DESCRIPTION OF SYMBOLS 1, 1B ... Camera, 2 ... Imaging part, 3 ... Control part, 3a ... Image processing part, 3b ... Icon production | generation part, 3c ... Composite image generation part, 3d ... Low contrast detection part, 3e ... Display control part, 3f ... Face Detection unit, 4 ... display unit, 5 ... recording unit, 5a ... map DB, 5b ... icon DB, 6 ... operation unit, 7 ... touch panel unit, 8 ... acceleration sensor, 9 ... information acquisition / situation determination unit, 9a ... position Acquisition / determination unit, 9b ... voice acquisition / determination unit, 9c ... temperature acquisition / determination unit, 9d ... water depth / altitude acquisition / determination unit, 9e ... date acquisition / determination unit

特開2005−260798号公報JP 2005-260798 A

Claims (12)

被写体を撮像する撮像部と、
上記撮像部により撮像された画像を撮影画像として記録する記録部と、
複数種類のセンサ情報を取得し、取得した上記センサ情報が所定の撮影状況に該当するか否かを判定する情報取得・判定部と、
上記所定の撮影状況に対応したアイコンの画像を生成するアイコン生成部と、
上記アイコンの画像を上記撮影画像と合成した合成画像を生成する合成画像生成部と、
画像を表示する表示部と、
撮影の指示操作に従って、上記情報取得・判定部により撮影状況を検出し、上記アイコン生成部でアイコン画像を生成し、上記合成画像生成部により生成した上記合成画像を上記表示部に表示すると共に、上記記録部により上記撮影画像を記録するように制御する制御部と、
を有し
さらに、
前記情報取得・判定部の1つとして、GPS情報及び地図データベースを用いて当該撮影装置に予め登録した基準の位置データを基に、該撮影装置が前記基準の位置から移動した距離の情報を取得すると共に、距離の大きさに関する判定も行う位置取得・判定部が設けられ、
前記基準の位置からの距離の情報として近距離に相当する第1の距離範囲と、該第1の距離範囲より遠い遠距離に相当する第2の距離範囲を判定すると共に、さらに前記GPS情報及び前記地図データベースから市街と郊外とを判定した情報を生成し、前記第1の距離範囲における市街と郊外とで異なる第1及び第2のアイコンを生成し、前記第2の距離範囲における市街と郊外とにおいても異なる第3及び第4のアイコンを生成することを特徴とする撮影装置。
An imaging unit for imaging a subject;
A recording unit that records an image captured by the imaging unit as a captured image;
An information acquisition / determination unit that acquires a plurality of types of sensor information and determines whether the acquired sensor information corresponds to a predetermined shooting situation;
An icon generator for generating an icon image corresponding to the predetermined shooting situation;
A composite image generation unit that generates a composite image by combining the icon image with the captured image;
A display for displaying an image;
Follow the instructions operating the photographing, detects the photographing condition by the information acquisition and judgment unit, generates an icon image in the icon generating unit, the synthesized image generated by the composite image generating unit and displays on the display unit, a control unit for controlling to record the captured image by the recording unit,
Have,
further,
As one of the information acquisition / determination unit, information on the distance the imaging device has moved from the reference position is acquired based on reference position data registered in advance in the imaging device using GPS information and a map database. In addition, a position acquisition / determination unit is also provided for determining the distance magnitude.
As the distance information from the reference position, a first distance range corresponding to a short distance and a second distance range corresponding to a long distance farther than the first distance range are determined, and the GPS information and Information that determines the city and suburbs is generated from the map database, first and second icons that are different between the city and suburbs in the first distance range are generated, and the city and suburbs in the second distance range are generated. And a third and a fourth icon that are different from each other .
上記制御部は、上記情報取得・判定部が上記所定の撮影状況に該当すると判定した場合に上記合成画像を上記表示部に表示するように制御することを特徴とする請求項1に記載の撮影装置。   2. The photographing according to claim 1, wherein the control unit controls the composite image to be displayed on the display unit when the information acquisition / determination unit determines that the predetermined photographing situation is satisfied. apparatus. さらに、上記撮影画像におけるローコントラスト領域を検出するローコントラスト検出部を有し、上記アイコン生成部は、検出された上記ローコントラスト領域に上記アイコンの画像を配置し、上記表示部は、上記ローコントラスト領域に上記アイコンの画像が配置された上記合成画像を表示することを特徴とする請求項1に記載の撮影装置。   Furthermore, it has a low contrast detection unit for detecting a low contrast region in the photographed image, the icon generation unit arranges the image of the icon in the detected low contrast region, and the display unit displays the low contrast region The photographing apparatus according to claim 1, wherein the composite image in which an image of the icon is arranged in a region is displayed. 上記制御部は、上記ローコントラスト検出部が上記アイコンを配置可能とする条件を満たすローコントラスト領域を検出しない場合には、上記表示部に表示される上記撮影画像に上記アイコンの画像を表示しないように制御することを特徴とする請求項3に記載の撮影装置。   The control unit does not display the icon image on the captured image displayed on the display unit when the low contrast detection unit does not detect a low contrast region that satisfies the condition that the icon can be arranged. The photographing apparatus according to claim 3, wherein the photographing apparatus is controlled as follows. さらに、上記情報取得・判定部により取得した上記センサ情報が所定の撮影状況に該当する場合に、上記所定の撮影状況に対応して予め用意されたアイコンの画像を格納するアイコン格納部を有し、上記アイコン生成部は、上記情報取得・判定部により取得された複数種類のセンサ情報が上記所定の撮影状況に該当する判定結果の場合に、上記アイコン格納部から上記所定の撮影状況に対応するアイコンの画像を読み出して、上記所定の撮影状況に対応する上記アイコンの画像を生成することを特徴とする請求項1に記載の撮影装置。   Furthermore, when the sensor information acquired by the information acquisition / determination unit corresponds to a predetermined shooting situation, an icon storage unit that stores an image of an icon prepared in advance corresponding to the predetermined shooting situation is provided. The icon generation unit responds to the predetermined shooting situation from the icon storage unit when the plurality of types of sensor information acquired by the information acquisition / determination unit is a determination result corresponding to the predetermined shooting situation. The imaging apparatus according to claim 1, wherein an icon image is read to generate an icon image corresponding to the predetermined shooting situation. さらに、被写体における顔部分を検出する顔検出部を有し、上記アイコン生成部は、上記撮影画像における上記顔検出部により検出された顔部分以外の領域に上記アイコンの画像を生成することを特徴とする請求項1に記載の撮影装置。   Further, the image processing apparatus includes a face detection unit that detects a face portion of the subject, and the icon generation unit generates an image of the icon in an area other than the face portion detected by the face detection unit in the captured image. The imaging device according to claim 1. 上記情報取得・判定部は、上記撮影装置の位置又は移動距離、温度、水深若しくは高度、音声のセンサ情報と、日時に関する情報のうち、少なくとも2つ以上の情報を取得することを特徴とする請求項1に記載の撮影装置。   The information acquisition / determination unit acquires at least two or more pieces of information related to the position or moving distance of the photographing apparatus, temperature, water depth or altitude, audio sensor information, and date and time. Item 2. The photographing apparatus according to Item 1. さらに、上記情報取得・判定部は、上記撮影時の情報として、音声のセンサ情報を環境音の情報として取得し、上記アイコン生成部は、上記環境音の情報に対応したアイコンの画像を生成することを特徴とする請求項7に記載の撮影装置。   Further, the information acquisition / determination unit acquires audio sensor information as environmental sound information as information at the time of shooting, and the icon generation unit generates an icon image corresponding to the environmental sound information. The imaging device according to claim 7, wherein: さらに、上記アイコンの画像を表示又は生成する場合の優先度を設定する優先度設定部を有することを特徴とする請求項3又は6に記載の撮影装置。   The photographing apparatus according to claim 3, further comprising a priority setting unit configured to set a priority when the icon image is displayed or generated. 上記制御部は、上記撮影画像の表示状態において上記アイコンの画像を合成して表示する第1の表示切替の制御、又は上記第1の表示切替の制御状態から上記アイコンを非表示に切り替える第2の表示切替の制御を行うことを特徴とする請求項9に記載の撮影装置。   The control unit controls the first display switching for combining and displaying the icon image in the display state of the captured image, or the second switching the icon from the first display switching control state to non-display. The imaging apparatus according to claim 9, wherein display switching is controlled. 撮影装置の撮影方法において、
撮影の指示操作に従って、被写体を撮像し、
複数種類のセンサ情報を取得し、取得した上記センサ情報が所定の撮影状況に該当するか否かを判定し、
上記所定の撮影状況に対応したアイコンの画像を生成し、
上記アイコンの画像を上記撮影画像と合成して合成画像を生成し、
上記合成画像を表示すると共に、上記撮像された画像を撮影画像として記録するように制御し、
さらに、
当該撮影装置に予め登録した基準の位置データから、GPS情報及び地図データベースを用いて該撮影装置が前記基準の位置から移動した距離の情報も取得すると共に、距離の大きさに関する判定も行い、前記基準の位置からの距離の情報として近距離に相当する第1の距離範囲と、該第1の距離範囲より遠い遠距離に相当する第2の距離範囲を判定すると共に、さらに前記GPS情報及び前記地図データベースから市街と郊外とを判定した情報を生成し、前記第1の距離範囲における市街と郊外とで異なる第1及び第2のアイコンを生成し、前記第2の距離範囲における市街と郊外とにおいても異なる第3及び第4のアイコンを生成することを特徴とする撮影装置の撮影方法。
In the photographing method of the photographing apparatus,
Follow the shooting instruction operation to capture the subject,
Acquire multiple types of sensor information, determine whether the acquired sensor information corresponds to a predetermined shooting situation,
Generate an icon image corresponding to the predetermined shooting situation,
The image of the icon is combined with the captured image to generate a composite image,
Displaying the composite image and controlling the captured image to be recorded as a captured image ;
further,
From the reference position data registered in advance in the photographing apparatus, information on the distance that the photographing apparatus has moved from the reference position is acquired using GPS information and a map database, and determination on the magnitude of the distance is also performed. As the distance information from the reference position, a first distance range corresponding to a short distance and a second distance range corresponding to a long distance farther than the first distance range are determined, and the GPS information and the Generate information that determines the city and suburb from the map database, generate first and second icons that differ between the city and suburb in the first distance range, and the city and suburb in the second distance range. A third and fourth icons that are different from each other are also generated .
撮影装置の制御部に、
撮影の指示操作に従って、被写体を撮像させる手順と、
複数種類のセンサ情報を取得し、取得した上記センサ情報が所定の撮影状況に該当するか否かを判定する手順と、
上記所定の撮影状況に対応したアイコンの画像を生成する手順と、
上記アイコンの画像を上記撮影画像と合成して合成画像を生成する手順と、
上記合成画像を表示させると共に、上記撮像された画像を撮影画像として記録するように制御するよう指示する手順と、
さらに、
前記撮影装置に予め登録した基準の位置データから、GPS情報及び地図データベースを用いて前記撮影装置が前記基準の位置から移動した距離の情報も取得すると共に、距離の大きさに関する判定も行い、前記基準の位置からの距離の情報として近距離に相当する第1の距離範囲と、該第1の距離範囲より遠い遠距離に相当する第2の距離範囲を判定すると共に、さらに前記GPS情報及び前記地図データベースから市街と郊外とを判定した情報を生成し、前記第1の距離範囲における市街と郊外とで異なる第1及び第2のアイコンを生成し、前記第2の距離範囲における市街と郊外とにおいても異なる第3及び第4のアイコンを生成する手順と、
を実行させるためのプログラム。
In the control unit of the shooting device,
In accordance with the shooting instruction operation,
A procedure for acquiring a plurality of types of sensor information and determining whether the acquired sensor information corresponds to a predetermined shooting situation;
A procedure for generating an icon image corresponding to the predetermined shooting situation;
A procedure for combining the image of the icon with the captured image to generate a combined image,
With displays the synthetic image image, a step of instructing to control so as to record the captured image as a captured image,
further,
From the reference position data registered in advance in the photographing device, the information about the distance that the photographing device has moved from the reference position is obtained using GPS information and a map database, and also the determination regarding the magnitude of the distance is performed, As the distance information from the reference position, a first distance range corresponding to a short distance and a second distance range corresponding to a long distance farther than the first distance range are determined, and the GPS information and the Generate information that determines the city and suburb from the map database, generate first and second icons that differ between the city and suburb in the first distance range, and the city and suburb in the second distance range. A procedure for generating different third and fourth icons in FIG.
A program for running
JP2010209776A 2010-09-17 2010-09-17 Imaging apparatus, imaging method for imaging apparatus, and program Expired - Fee Related JP5570923B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010209776A JP5570923B2 (en) 2010-09-17 2010-09-17 Imaging apparatus, imaging method for imaging apparatus, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010209776A JP5570923B2 (en) 2010-09-17 2010-09-17 Imaging apparatus, imaging method for imaging apparatus, and program

Publications (3)

Publication Number Publication Date
JP2012065262A JP2012065262A (en) 2012-03-29
JP2012065262A5 JP2012065262A5 (en) 2013-08-29
JP5570923B2 true JP5570923B2 (en) 2014-08-13

Family

ID=46060495

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010209776A Expired - Fee Related JP5570923B2 (en) 2010-09-17 2010-09-17 Imaging apparatus, imaging method for imaging apparatus, and program

Country Status (1)

Country Link
JP (1) JP5570923B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5966778B2 (en) * 2012-09-05 2016-08-10 カシオ計算機株式会社 Imaging apparatus, imaging method, and program

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4339040B2 (en) * 2003-07-18 2009-10-07 シャープ株式会社 Shooting and editing system, shooting and editing method, and program
JP4719020B2 (en) * 2006-02-03 2011-07-06 富士フイルム株式会社 Digital camera and image processing method
JP4859130B2 (en) * 2007-03-27 2012-01-25 株式会社メガチップス Monitoring system
JP5039786B2 (en) * 2007-07-23 2012-10-03 パナソニック株式会社 Imaging device
JP5157647B2 (en) * 2008-05-30 2013-03-06 株式会社ニコン camera
JP5120716B2 (en) * 2008-09-24 2013-01-16 カシオ計算機株式会社 Imaging apparatus, imaging control method, and program

Also Published As

Publication number Publication date
JP2012065262A (en) 2012-03-29

Similar Documents

Publication Publication Date Title
US10931866B2 (en) Methods and apparatus for receiving and storing in a camera a user controllable setting that is used to control composite image generation performed after image capture
CN105210379B (en) Display control unit, display control method
TWI450111B (en) Method, computer useable medium, and device for guided photography based on image capturing device rendered user recommendations
US20070171282A1 (en) Camera apparatus and imaging method
US20110242395A1 (en) Electronic device and image sensing device
CN103491331A (en) Display control apparatus, display control method, and program
JP2000333045A (en) Digital still camera with composition advice function and its operation control method
JP2005110097A (en) Imaging apparatus and image pickup method
JP2010263341A (en) Image processor, image processing method, and program
JP2010263340A (en) Image processor, image processing method, and program
KR20120119794A (en) Method and apparatus for photographing using special effect
JP2019176249A (en) Image processing device, image processing method, image processing program, and imaging device
JP4901258B2 (en) Camera and data display method
JP2007142565A (en) Imaging apparatus and method thereof
JP2012156640A (en) Image display apparatus and imaging apparatus
JP5570923B2 (en) Imaging apparatus, imaging method for imaging apparatus, and program
JP2010074297A (en) Digital camera, image search apparatus, image search method, and program for image search
JP5206445B2 (en) MOVIE DISPLAY DEVICE, PROGRAM, AND IMAGING DEVICE
JP2007293555A (en) Image reproduction device, its control method, and its control program
JP5329691B2 (en) Camera and camera control method
JP5368614B2 (en) Image search apparatus and image search method
JP2011135502A (en) Image display program, image display device and digital camera
JP5907602B2 (en) IMAGING DEVICE AND IMAGING DEVICE CONTROL METHOD
JP7352672B2 (en) Imaging display method
JP2010183565A (en) Image capturing apparatus, image retrieval device, and program

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130711

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130711

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140218

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140311

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140512

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140603

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140625

R151 Written notification of patent or utility model registration

Ref document number: 5570923

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees