JP2015159511A - Photographing apparatus and image recording method - Google Patents
Photographing apparatus and image recording method Download PDFInfo
- Publication number
- JP2015159511A JP2015159511A JP2014034511A JP2014034511A JP2015159511A JP 2015159511 A JP2015159511 A JP 2015159511A JP 2014034511 A JP2014034511 A JP 2014034511A JP 2014034511 A JP2014034511 A JP 2014034511A JP 2015159511 A JP2015159511 A JP 2015159511A
- Authority
- JP
- Japan
- Prior art keywords
- image
- information
- sub
- control unit
- association
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Television Signal Processing For Recording (AREA)
- Studio Devices (AREA)
- Processing Or Creating Images (AREA)
Abstract
Description
本発明は、画像ファイルに補助データを記録する撮影機器及び画像記録方法に関する。 The present invention relates to a photographing apparatus and an image recording method for recording auxiliary data in an image file.
近年、デジタルカメラなどの撮影機能付き携帯機器(撮影機器)は、画像処理を駆使して、様々な撮影機能を備えている。また、撮影機器においては、通信機能を備えたものもあり、撮影して得た画像を他の機器やネットワーク上に伝送することも可能である。 2. Description of the Related Art In recent years, portable devices (photographing devices) with a photographing function such as digital cameras have various photographing functions by making full use of image processing. Some photographing devices have a communication function, and an image obtained by photographing can be transmitted to another device or a network.
ところで、従来、撮影機器においては、画像の記録に際して、撮影日時や撮影場所の情報等、画像以外の補助データを画像と共にファイル化して記録するようになっている。即ち、画像ファイルは、画像データと補助データとによって構成され、記録後に画像ファイルの編集も可能である。 By the way, conventionally, in an image recording device, auxiliary data other than an image such as information on the shooting date and time and a shooting location is recorded as a file together with the image. That is, the image file is composed of image data and auxiliary data, and the image file can be edited after recording.
更に、特許文献1に開示されているように、記録された原画像中に含まれるオブジェクトを判別して、優先度を付して判別したオブジェクトを抽出する装置も開発されている。例えば、オブジェクトとして文字領域を設定することで、画像中に含まれる文字を抽出し、画像データの補助データとして記録することも可能である。 Furthermore, as disclosed in Patent Document 1, an apparatus for discriminating an object included in a recorded original image and extracting the discriminated object by assigning a priority has been developed. For example, by setting a character area as an object, it is possible to extract characters included in the image and record them as auxiliary data of the image data.
しかしながら、従来の技術は、画像から抽出した情報や画像の撮影に関する情報を補助データとして記録するだけのものであり、必ずしも、ユーザが希望する情報をユーザが希望する形態で提示可能にはなっていないという問題があった。 However, the conventional technique only records information extracted from an image and information related to image capturing as auxiliary data, and can always present information desired by the user in a form desired by the user. There was no problem.
本発明は、簡単な操作で、撮像画像にユーザが希望する情報を付加して記録することができる撮影機器及び画像記録方法を提供することを目的とする。 An object of the present invention is to provide a photographing apparatus and an image recording method capable of adding and recording information desired by a user to a captured image with a simple operation.
本発明に係る撮影機器は、被写体の撮像画像をメイン画像として記録可能な記録制御部と、上記メイン画像中の関連位置及び関連対象物の少なくとも一方を設定する位置及び対象判定部と、上記位置及び対象判定部によって設定された上記関連位置及び関連対象物に関連するサブ情報を取得し、上記記録制御部を制御して、上記メイン画像と上記サブ情報とを関連付けて記録する関連付け制御部とを具備する。 An imaging device according to the present invention includes a recording control unit capable of recording a captured image of a subject as a main image, a position and target determination unit for setting at least one of a related position and a related target in the main image, and the position And an association control unit that acquires sub information related to the related position and the related object set by the target determination unit, controls the recording control unit, and records the main image and the sub information in association with each other. It comprises.
また、本発明に係る画像記録方法は、被写体の撮像画像をメイン画像として取得するステップと、上記メイン画像中の関連位置及び関連対象物の少なくとも一方を設定する位置及び対象判定ステップと、上記位置及び対象判定ステップにおいて設定された上記関連位置及び関連対象物に関連するサブ情報を取得し、上記メイン画像と上記サブ情報とを関連付けて記録する関連付けステップとを具備する。 The image recording method according to the present invention includes a step of acquiring a captured image of a subject as a main image, a position and target determination step for setting at least one of a related position and a related object in the main image, and the position And an association step of acquiring sub-information related to the related position and the related object set in the object determination step, and associating and recording the main image and the sub-information.
本発明によれば、撮像画像にユーザが希望する情報を簡単な操作で付加して記録することができるという効果を有する。 According to the present invention, there is an effect that information desired by a user can be added to a captured image and recorded by a simple operation.
以下、図面を参照して本発明の実施の形態について詳細に説明する。 Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
(第1の実施の形態)
図1は本発明の第1の実施の形態に係る撮影機器の回路構成を示すブロック図である。本実施の形態は、ユーザが撮影して得たメイン画像中の任意の位置又は対象物に関連するサブ画像(サブ情報)を得て、メイン画像とサブ画像(サブ情報)とを関連付けて記録するものである。例えば、サブ画像はユーザの撮影操作によって得られる。
(First embodiment)
FIG. 1 is a block diagram showing a circuit configuration of the photographing apparatus according to the first embodiment of the present invention. In the present embodiment, a sub image (sub information) related to an arbitrary position or an object in a main image obtained by shooting by a user is obtained, and the main image and the sub image (sub information) are recorded in association with each other. To do. For example, the sub image is obtained by a user's photographing operation.
図2乃至図5はメイン画像及びサブ画像の撮影及び記録を説明するための説明図である。 2 to 5 are explanatory diagrams for explaining the shooting and recording of the main image and the sub image.
図2はユーザが撮影によってメイン画像を取得する様子を示している。図2に示すように、ユーザ21は、右手21aで図1に示す撮影機器10の回路ブロックが収納された筐体22を把持した状態で、被写体である人物31を撮影している。人物31は山脈32を背景として、人物31がいる△高原の名称33aを刻んだ石碑33の傍らに立っている。撮影機器10の筐体22の背面側には、表示画面23が設けられており、この表示画面23には撮像中の画像であるスルー画24が表示されている。図2は、撮影範囲内に人物31、山脈32及び石碑33を含む撮像画像がスルー画24として表示されていることを示している。 FIG. 2 shows how the user acquires the main image by shooting. As shown in FIG. 2, the user 21 is photographing a person 31 as a subject while holding the housing 22 in which the circuit block of the photographing apparatus 10 shown in FIG. 1 is stored with the right hand 21 a. A person 31 stands by a stone monument 33 engraved with a name 33a of a plateau where the person 31 is located against a mountain range 32 as a background. A display screen 23 is provided on the back side of the housing 22 of the photographing apparatus 10, and a through image 24 that is an image being captured is displayed on the display screen 23. FIG. 2 shows that a captured image including a person 31, a mountain range 32, and a monument 33 within the shooting range is displayed as a through image 24.
この状態でユーザ21が右手21aでシャッタボタン22aを押すことで、スルー画24として表示されている撮像画像が記録される。いま、例えば、ユーザ21がこの記録した撮像画像をメイン画像とするものとする。 In this state, when the user 21 presses the shutter button 22a with the right hand 21a, the captured image displayed as the through image 24 is recorded. Now, for example, it is assumed that the captured image recorded by the user 21 is the main image.
本実施形態においては、メイン画像とサブ画像(サブ情報)とを関連付けて記録する関連付けモードでの動作が可能である。関連付けモードにおいては、ユーザ21は、画像中のいずれの位置(以下、関連位置という)又は対象物(以下、関連対象物という)に関連付けてサブ画像を撮影するかを指定することができる。図2は、関連付けモード時に、ユーザ21が、スルー画24中の石碑33に対応する画像25を左手の指21bでタッチする操作を行ったことを示している。このタッチ操作によって、メイン画像中の石碑33に対応する画像25の位置が関連位置として設定される。このように、画像の位置に意味を持たせ、撮影画像を元にして、その画像上の位置から別の情報を読み出すことが可能となる。これによって、画像鑑賞が表面的なものにとどまらず、さらなる情報読み出しの鍵となって、鑑賞者の追体験をさらに豊かなものにすることが出来る。例えば、読み取れない看板やポスターに書いてあることが気になる場合は、それをタッチすれば、さらなる情報を再生することが出来るようになって、好奇心を満たすようなことが可能となる。この好奇心を満たす情報の付加は以下のようにして行う。 In the present embodiment, an operation in an association mode in which a main image and a sub image (sub information) are recorded in association with each other is possible. In the association mode, the user 21 can specify which position in the image (hereinafter referred to as a related position) or an object (hereinafter referred to as a related object) to capture a sub image. FIG. 2 shows that the user 21 performs an operation of touching the image 25 corresponding to the monument 33 in the through image 24 with the finger 21b of the left hand in the association mode. By this touch operation, the position of the image 25 corresponding to the monument 33 in the main image is set as the related position. In this way, it is possible to give meaning to the position of the image and to read other information from the position on the image based on the captured image. As a result, the image appreciation is not only superficial, but it can be a key for further information reading, and the viewer's pursuit experience can be further enriched. For example, if you are worried about being written on a signboard or poster that cannot be read, touching it will allow you to play more information and satisfy your curiosity. Information that satisfies this curiosity is added as follows.
図3は関連付けモードにおけるサブ画像の撮影の様子を示している。ユーザ21は、右手21aで撮影機器10の筐体22を把持した状態で、タッチ操作によって関連付けの対象に指定した石碑33に対応するサブ画像の撮影を行う。指定してから撮影しても、指定しながら撮影しても良い。指定してから撮影するときは、図3に示すように、例えば、ユーザ21は、ズーム操作を行ったり、撮影位置を変更したりして、石碑33が表示画面23の表示範囲一杯に撮影されるように、画角の調整を行う。図3はこの状態を示しており、石碑33に対応する画像43は表示範囲一杯に表示されている。また、表示画面23の上部には、関連付けモードにおけるサブ画像の撮影中であることを示す「関連撮影中」の表示44が表示されている。この表示が重要で、この表示がないと、ユーザは、写真作品としてメイン画像を撮影しているのか、情報画像として撮影しているのか分からなくなるからである。また、作品撮影時には、自然さや色合いや階調表現などが重要であるが、情報撮影時に文字などを撮影する場合には、文字が読めることが重要で、白黒でもよく、コントラストも不自然なまでに高めて読みやすくしても良い。露出制御や絞り制御なども含めて撮影制御であるが、これをメイン撮影時と異ならせて、文字を読みやすくしたり、ボケを抑える撮影にしても良い。また、白黒化やエッジ強調などは画像処理であり、撮影制御と画像処理のどちらか、または両方を行って補助情報としての表現はメイン画像と変えておくようにした方が良い。記録時のみならず、スルー画時にも、こうした制御をメイン画像と変えてもよい。この状態で、ユーザ21がシャッタボタン22aを押すことにより、スルー画24として表示されている撮像画像がサブ画像として記録される。この撮影に先立って、鑑賞者が好奇心を持つであろう部分をメイン撮影時にガイド表示しても良い。例えば、顔や文字や、背景の風景に特徴的な山などは、画像判定で、再撮影候補として判定して、この部分に関する情報を取得するようにアドバイス表示しても良い。例えば、撮影確認画像で、この部分を指で指定するとその部分がスルー画状態になって、その部分には、さらに情報が必要な旨を表示しつつ、そのスルー画を見ながら撮影を行うようにしても良い。指定しながら撮影しても良い、と書いたのはこのような撮影方法である。 FIG. 3 shows a state of taking a sub image in the association mode. The user 21 shoots a sub image corresponding to the monument 33 designated as an association target by a touch operation while holding the housing 22 of the photographic device 10 with the right hand 21a. It is possible to shoot after designation, or shoot while designation. When photographing after designation, as shown in FIG. 3, for example, the user 21 performs a zoom operation or changes the photographing position, and the monument 33 is photographed to fill the display range of the display screen 23. Adjust the angle of view so that FIG. 3 shows this state, and the image 43 corresponding to the monument 33 is displayed in the full display range. In addition, on the upper part of the display screen 23, a display 44 of “related shooting” indicating that the sub image is being shot in the association mode is displayed. This display is important. Without this display, the user cannot know whether the main image is taken as a photographic work or an information image. In addition, when shooting a work, naturalness, hue, gradation expression, etc. are important. However, when shooting text, etc. when shooting information, it is important to be able to read the text, it may be black and white, and the contrast is unnatural. You can make it easier to read. The shooting control includes exposure control, aperture control, and the like. However, this may be different from the main shooting to make it easier to read characters or to reduce blur. In addition, black and white and edge enhancement are image processing, and it is better to change the representation as auxiliary information from the main image by performing one or both of shooting control and image processing. Such a control may be changed to the main image not only at the time of recording but also at the time of a through image. In this state, when the user 21 presses the shutter button 22a, the captured image displayed as the through image 24 is recorded as a sub image. Prior to this shooting, a portion of the viewer's curiosity may be displayed as a guide during main shooting. For example, a face or a character, a mountain characteristic of the background scenery, or the like may be determined as an image recapture candidate by image determination, and advice display may be performed so as to acquire information regarding this portion. For example, if you specify this part with a finger in a shooting confirmation image, that part will be in the through image state, and while shooting that while viewing the through image, displaying that it needs more information in that part Anyway. It is such a shooting method that it is possible to shoot while specifying.
図4は関連付けモード時に記録される画像ファイルを説明するための説明図である。図4(a)はメイン画像のみが記録されている状態を説明するものであり、図4(b)はメイン画像及びサブ画像が記録されている状態を説明するものである。 FIG. 4 is an explanatory diagram for explaining an image file recorded in the association mode. 4A illustrates a state where only the main image is recorded, and FIG. 4B illustrates a state where the main image and the sub image are recorded.
図4(a),(b)に示すように、画像ファイルは、メイン画像の画像データ45及び補助データであるタグ情報46を含む。タグ情報46には、メイン画像に関する情報及びメイン画像の撮影に関する情報等、例えば、被写体顔情報、撮影場所、撮影時間の情報等が含まれる。更に、本実施の形態においては、タグ情報には、関連付けモードによる撮影であって、このメイン画像に関連するサブ画像が関連付けられて記録されているか又は記録が予定されていることを示す情報であるサブ画像想定情報も含まれる。更に、本実施の形態においては、画像ファイルには、関連付けモードにおいて記録されたサブ情報47も含まれる。 As shown in FIGS. 4A and 4B, the image file includes image data 45 of the main image and tag information 46 which is auxiliary data. The tag information 46 includes information relating to the main image, information relating to the shooting of the main image, and the like, for example, subject face information, shooting location, shooting time information and the like. Further, in the present embodiment, the tag information is information indicating that the sub-image related to the main image is recorded in association with the shooting in the association mode and is recorded. Some sub-image assumption information is also included. Furthermore, in the present embodiment, the image file also includes sub information 47 recorded in the association mode.
図5はサブ情報の一例を示す説明図である。図5は図2及び図3の撮影に対応したものである。本実施の形態においては、サブ情報はユーザが指定した関連位置や関連対象物毎に登録される。図5の例では、画面を中央、右上、右下、左上、左下の5つの領域に分け、各領域毎にサブ情報を登録した例を示している。画面中央の領域に対応して人名が登録されている。このサブ情報は、撮像範囲の略中央に写された人物(図2及び図3の人物31)の名前に関する情報を示している。また、図5では、画面の左下に対応させて、図3に示す撮影によって取得したサブ画像が記録されていることを示している。また、図5では、このサブ画像中の文字列に対する文字認識によって取得した「△高原」の文字情報も記録されていることを示している。このような文字認識をするために、サブ画像撮影は、メイン画像撮影とは異なる(画像処理も含めて)制御を行う。 FIG. 5 is an explanatory diagram showing an example of sub information. FIG. 5 corresponds to the photographing in FIGS. 2 and 3. In the present embodiment, the sub information is registered for each related position or related object specified by the user. The example of FIG. 5 shows an example in which the screen is divided into five areas: center, upper right, lower right, upper left, and lower left, and sub information is registered for each area. Personal names are registered corresponding to the area in the center of the screen. This sub-information indicates information related to the name of a person (person 31 in FIGS. 2 and 3) photographed approximately at the center of the imaging range. Further, FIG. 5 shows that a sub-image acquired by photographing shown in FIG. 3 is recorded in correspondence with the lower left of the screen. Further, FIG. 5 shows that character information of “Δ plateau” acquired by character recognition for the character string in the sub-image is also recorded. In order to perform such character recognition, the sub image shooting is controlled differently from the main image shooting (including image processing).
図1において、撮影機器10は、CCDやCMOSセンサ等の撮像素子によって構成された撮像部11を有している。撮像部11は、被写体を撮影し、撮影画像を出力する。撮像画像は、関連付け部20に与えられる。関連付け部20の関連付け制御部14は、図示しないCPU及びメモリ等によって構成されており、メモリに記憶されたプログラムに従ってカメラ制御を行う。関連付け制御部14は、撮像部11を制御すると共に(図示省略)、撮像部11が出力した撮影画像に対して、所定の信号処理、例えば、色調整処理、マトリックス変換処理、ノイズ除去処理、その他各種の信号処理を行う。 In FIG. 1, an imaging device 10 has an imaging unit 11 constituted by an imaging element such as a CCD or a CMOS sensor. The imaging unit 11 captures a subject and outputs a captured image. The captured image is given to the associating unit 20. The association control unit 14 of the association unit 20 includes a CPU and a memory (not shown), and performs camera control according to a program stored in the memory. The association control unit 14 controls the imaging unit 11 (not shown), and performs predetermined signal processing, such as color adjustment processing, matrix conversion processing, noise removal processing, and the like, on the captured image output by the imaging unit 11. Perform various signal processing.
また、関連付け制御部14は、表示に関する各種処理を実行することができる。関連付け制御部14は、信号処理後の撮影画像を表示及び操作部17に与えることができる。表示及び操作部17は、LCD等の表示画面を有しており、関連付け制御部14から与えられた画像を表示する。また、関連付け制御部14は、各種メニュー表示等を表示及び操作部17の表示画面23(図2参照)に表示させることもできるようになっている。 Further, the association control unit 14 can execute various processes related to display. The association control unit 14 can give the captured image after the signal processing to the display and operation unit 17. The display and operation unit 17 has a display screen such as an LCD, and displays an image given from the association control unit 14. Further, the association control unit 14 can display various menu displays and the like on the display and display screen 23 (see FIG. 2) of the operation unit 17.
また、表示及び操作部17は、ユーザ操作を受け付ける図示しない操作部を有している。この操作部として、表示及び操作部17は、例えば表示画面23上に構成されたタッチパネルを備えていてもよい。タッチパネルは、ユーザが指で指し示した表示画面上の位置に応じた操作信号を発生することができる。この操作信号は、関連付け制御部14に供給される。これにより、関連付け制御部14は、ユーザが表示画面上をタッチしたりスライドさせたりした場合には、ユーザのタッチ位置、指を閉じ離間させる操作(ピンチ操作)、スライド操作やスライド操作によって到達した位置、スライド方向、タッチしている期間等の各種操作を検出することができ、ユーザ操作に対応した処理を実行することができるようになっている。 The display and operation unit 17 includes an operation unit (not shown) that receives user operations. As this operation unit, the display and operation unit 17 may include, for example, a touch panel configured on the display screen 23. The touch panel can generate an operation signal corresponding to the position on the display screen pointed by the user with a finger. This operation signal is supplied to the association control unit 14. Thus, when the user touches or slides on the display screen, the association control unit 14 arrives by the user's touch position, an operation for closing and separating the finger (pinch operation), a slide operation or a slide operation. Various operations such as a position, a sliding direction, a touch period, and the like can be detected, and processing corresponding to a user operation can be executed.
記録再生制御部12は、撮像画像の記録及び再生に関する処理を行うことができる。例えば、記録再生制御部12は、信号処理後の撮影画像を圧縮処理し、圧縮後の画像を記録部16に与えて記録させることができる。記録部16としては、例えばカードインターフェースを採用することができ、記録部16はメモリカード等の記録媒体に画像情報及び音声情報等を記録可能である。 The recording / playback control unit 12 can perform processing related to recording and playback of captured images. For example, the recording / playback control unit 12 can compress the captured image after signal processing, and can apply the compressed image to the recording unit 16 for recording. As the recording unit 16, for example, a card interface can be adopted, and the recording unit 16 can record image information, audio information, and the like on a recording medium such as a memory card.
記録再生制御部12は、記録部16に記録されている撮像画像を読み出して伸張処理することができる。記録再生制御部12は伸張処理された撮像画像を表示及び操作部17に与えることで、記録画像の再生が可能である。 The recording / playback control unit 12 can read out the captured image recorded in the recording unit 16 and perform expansion processing. The recording / reproducing control unit 12 can reproduce the recorded image by giving the expanded captured image to the display / operation unit 17.
なお、表示及び操作部17の表示画面23は、撮影機器10の例えば背面の略全域を占めるように配設されており、撮影者は、撮影時に表示及び操作部17の表示画面23上に表示されたスルー画を確認することができ、スルー画を確認しながら撮影操作を行うこともできる。 Note that the display screen 23 of the display and operation unit 17 is arranged so as to occupy substantially the entire rear surface of the photographing apparatus 10, for example, and the photographer displays the display screen 23 on the display and operation unit 17 during photographing. The photographed operation can be performed while confirming the through image.
本実施の形態においては、関連付け制御部14は、関連付けモード時において、メイン画像及びサブ情報を取得して、記録部16に記録することができるようになっている。位置及び対象判定部13は、表示及び操作部17の操作、例えばタッチパネルに対するタッチ操作によって、画像中の位置が指定されると、当該位置を関連位置として設定する。また、位置及び対象判定部13は、表示及び操作部17の操作、例えばタッチパネルに対するタッチ操作によって、画像中の対象物が指定されると、当該対象物を関連対象物として設定する。なお、位置及び対象判定部13は、撮像部11からの撮像画像だけでなく記録部16から再生された再生画像についても、関連位置及び関連対象物を設定することができるようになっている。対象判定機能としては、画像のパターンによる顔検出、文字検出などがあり、風景などは遠距離なので、距離情報などを反映して、色により空とか形によって山とか、対象物を判定するようにしても良い。このように判定できるものは、ユーザも興味を持つものであると考えて、判定された部分について、再撮影を促すアドバイスを行ってもよい。 In the present embodiment, the association control unit 14 can acquire the main image and the sub information and record them in the recording unit 16 in the association mode. When the position in the image is designated by an operation of the display and operation unit 17, for example, a touch operation on the touch panel, the position and target determination unit 13 sets the position as a related position. Further, when an object in the image is designated by an operation of the display and operation unit 17, for example, a touch operation on the touch panel, the position and object determination unit 13 sets the object as a related object. Note that the position and target determination unit 13 can set the related position and the related target object not only for the captured image from the imaging unit 11 but also for the reproduced image reproduced from the recording unit 16. Target determination functions include face detection and character detection based on image patterns, and landscapes are far distances, so distance information etc. is reflected to determine objects such as mountains by sky or shape by color. May be. What can be determined in this way may be considered to be of interest to the user, and advice for prompting re-shooting may be given to the determined portion.
関連情報格納部15には、サブ情報が記録される。関連情報格納部15に記録されているサブ情報は、既に関連位置や関連対象物が指定された情報と、まだ関連位置や関連対象物が指定されていな情報とを含む。 In the related information storage unit 15, sub information is recorded. The sub information recorded in the related information storage unit 15 includes information in which the related position and the related object are already specified, and information in which the related position and the related object are not specified yet.
関連付け制御部14は、関連付けモード時には、撮像部11からの撮像画像をメイン画像として処理するか又はサブ画像として処理する。このサブ画像が関連情報格納部15に記録されてサブ情報として用いられることもある。また、関連付け制御部14は、撮像部11からの撮像画像から得られる各種情報、例えば文字情報をサブ情報として取得することもできる。関連付け制御部14は、取得したサブ情報を関連情報格納部15に記録させることもある。 In the association mode, the association control unit 14 processes the captured image from the imaging unit 11 as a main image or a sub image. This sub-image may be recorded in the related information storage unit 15 and used as sub-information. The association control unit 14 can also acquire various types of information obtained from the captured image from the imaging unit 11, such as character information, as sub-information. The association control unit 14 may cause the related information storage unit 15 to record the acquired sub information.
関連付け制御部14は、メイン画像の各関連位置や関連対象物毎にサブ情報を割当てて、記録再生制御部12により記録部16に記録させることができるようになっている。 The association control unit 14 can assign sub-information to each related position or related object in the main image and cause the recording / playback control unit 12 to record the information on the recording unit 16.
次に、このように構成された実施の形態の動作について図6及び図7を参照して説明する。図6は実施の形態の動作を説明するためのフローチャートである。図6はカメラ制御を示している。 Next, the operation of the embodiment configured as described above will be described with reference to FIGS. FIG. 6 is a flowchart for explaining the operation of the embodiment. FIG. 6 shows camera control.
図6のステップS1において、関連付け制御部14は撮影モードであるか否かを判定する。いま、撮影モードが指示されているものとする。この場合には、関連付け制御部14は、ステップS2において、撮像部11を制御して撮像を開始させ、撮像部11からの撮影画像を取り込む。関連付け制御部14は、取り込んだ撮像画像中の被写体の判定を行う。 In step S1 of FIG. 6, the association control unit 14 determines whether or not the shooting mode is set. Assume that the shooting mode is instructed. In this case, the association control unit 14 controls the imaging unit 11 to start imaging in step S <b> 2 and captures a captured image from the imaging unit 11. The association control unit 14 determines a subject in the captured image that has been captured.
関連付け制御部14は、次のステップS3において、関連付けモードであるか否かを判定する。関連付けモードでない場合には、関連付け制御部14は、通常モードの撮影動作を行う。即ち、関連付け制御部14は、ステップS4においてスルー画を表示させ、ステップS5において撮影が行われたか否かを判定する。ユーザがシャッタボタン22aを押すと、関連付け制御部14は、ステップS6において撮影を行い、撮像部11からの撮像画像に対して所定の信号処理を施した後、記録再生制御部12によって、撮像画像を記録部16に記録させる。 In the next step S3, the association control unit 14 determines whether or not the association mode is set. When the association mode is not set, the association control unit 14 performs a shooting operation in the normal mode. That is, the association control unit 14 displays a through image in step S4, and determines whether or not shooting has been performed in step S5. When the user presses the shutter button 22a, the association control unit 14 performs imaging in step S6, performs predetermined signal processing on the captured image from the imaging unit 11, and then performs a captured image by the recording / playback control unit 12. Is recorded in the recording unit 16.
いま、ユーザ操作によって、関連付けモードが指定されているものとする。この場合には、関連付け制御部14は、ステップS11において、メイン画像の撮影が指定されているかサブ画像の撮影が指定されているかを判定する。本実施の形態においては、メイン画像を先に撮影してもよく、サブ画像を先に撮影してもよい。 Now, it is assumed that the association mode is designated by a user operation. In this case, the association control unit 14 determines in step S11 whether the main image shooting is specified or the sub-image shooting is specified. In the present embodiment, the main image may be taken first, and the sub image may be taken first.
即ち、本実施の形態においては、既にメイン画像が撮影記録されており、記録されているメイン画像に対して、関連位置や関連対象物毎にサブ画像を関連付けて記録するモード(以下、メイン−サブ関連付けモードという)と、既にサブ画像が撮影記録されており、記録されているサブ画像を、撮影したメイン画像の関連位置や関連対象物毎に関連付けて記録するモード(以下、サブ−メイン関連付けモードという)とが可能である。図6のステップS23〜S30は、メイン−サブ関連付けモードの動作を示し、ステップS12〜S20,S31〜S37は、サブ−メイン関連付けモードの動作を示している。 That is, in the present embodiment, a main image has already been captured and recorded, and a mode in which sub-images are recorded in association with the recorded main image for each related position or related object (hereinafter referred to as main-). Sub-association mode) and a mode in which a sub-image has already been captured and recorded, and the recorded sub-image is recorded in association with each associated position of the captured main image and each related object (hereinafter referred to as sub-main association). Mode). Steps S23 to S30 in FIG. 6 show the operation in the main-sub association mode, and steps S12 to S20 and S31 to S37 show the operation in the sub-main association mode.
いま、ユーザはメイン−サブ関連付けモードを指定するものとする。即ち、既にメイン画像が撮影記録されており、記録されているメイン画像に対してサブ画像を関連付けるように、ユーザがサブ画像の撮影を指定するものとする。この場合には、関連付け制御部14は、処理をステップS11からステップS21に移行して、既に記録されているメイン画像を記録部16から読出して、表示及び操作部17に与えて所定時間サムネイル表示させる。関連付け制御部14は、次のステップS22において、メイン画像が選択操作されたか否かを判定する。 Now, assume that the user specifies the main-sub association mode. That is, it is assumed that the main image has already been photographed and recorded, and the user designates photographing of the sub image so that the sub image is associated with the recorded main image. In this case, the association control unit 14 shifts the processing from step S11 to step S21, reads the main image that has already been recorded from the recording unit 16, and provides it to the display and operation unit 17 for thumbnail display for a predetermined time. Let In the next step S22, the association control unit 14 determines whether or not the main image has been selected and operated.
関連付け制御部14は、所定時間経過してもメイン画像が選択されない場合には、サブ−メイン関連付けモードにおけるサブ画像の撮影、即ち、ユーザがメイン画像に関連付けることなくサブ画像の撮影を行おうとしているものと判定して、処理をステップS22からステップS31に移行する。 If the main image is not selected even after a predetermined time has elapsed, the association control unit 14 tries to take a sub image in the sub-main association mode, that is, to take a sub image without associating the user with the main image. Therefore, the process proceeds from step S22 to step S31.
いま、ユーザは、既に記録されているメイン画像に対してサブ画像を関連付けようとしているので、ユーザはメイン画像の選択操作を行う。関連付け制御部14は、ステップS23においてタッチ位置の指定操作を受け付ける。例えば、ユーザは図2の画像25の表示位置をタッチする。これにより、位置及び対象判定部13は、例えば画面左下を関連位置に設定する。次に、関連付け制御部14は、撮像部11において現在撮像中の撮像画像を表示及び操作部17の表示画面にスルー画表示させる(ステップS24)。ユーザは、メイン画像中の関連位置や関連対象物を視野範囲に収めるように、撮影位置やズーム操作を行って、撮影を行う。 Now, since the user is trying to associate the sub image with the already recorded main image, the user performs an operation of selecting the main image. The association control unit 14 receives a touch position designation operation in step S23. For example, the user touches the display position of the image 25 in FIG. Thereby, the position and object determination unit 13 sets, for example, the lower left of the screen as the related position. Next, the association control unit 14 displays the captured image currently being captured by the imaging unit 11 and displays a through image on the display screen of the operation unit 17 (step S24). The user performs shooting by performing a shooting position and a zoom operation so that the related position and the related object in the main image are within the visual field range.
関連付け制御部14は、ステップS25においてサブ画像の撮影操作が行われた否かを判定する。関連付け制御部14は、撮影操作が行われると、撮像部11を制御して撮影を行わせる(ステップS26)。これは、作品撮影とも表すことができ、自然さや色合いや階調表現などが重要である。後述のサブ撮影で、情報撮影時に文字などを撮影する場合には、文字が読めることなどが重要であるが、ここでは、露出をあえて飛ばしたり、色をかえたりして、ユーザの好みを反映した撮影が重要である。もちろん、文字認識などを行うために、スルー画時や撮影直後に、どの部分が特徴的かを判定するステップを設けてもよい。記録時のみならず、S24のスルー画時にも、こうした制御を後述のサブ画像と変えてもよい。次に、関連付け制御部14は、ステップS27において撮像画像の関連位置内の文字を認識可能であるか否かを判定する。認識可能な場合には、この文字をサブ情報として記録するために、関連付け制御部14は、文字情報の読み取りを行い(ステップS28)、読み取った文字をサブ情報化する(ステップS29)。 The association control unit 14 determines whether or not a sub-image shooting operation has been performed in step S25. When the shooting operation is performed, the association control unit 14 controls the imaging unit 11 to perform shooting (step S26). This can be expressed as work shooting, and naturalness, hue, gradation expression, etc. are important. It is important to be able to read characters when shooting information etc. in sub-shooting, which will be described later, but here it is important to reflect the user's preference by skipping exposure or changing colors. Shooting is important. Of course, in order to perform character recognition or the like, a step of determining which part is characteristic during a through image or immediately after shooting may be provided. Such control may be changed to a sub-image to be described later not only at the time of recording but also at the time of the through image in S24. Next, the association control unit 14 determines whether or not the characters in the related position of the captured image can be recognized in step S27. If the character is recognizable, the association control unit 14 reads the character information to record the character as sub-information (step S28), and converts the read character into sub-information (step S29).
次に、関連付け制御部14は、選択したメイン画像の画像ファイルに、撮影したサブ画像及び読み取った文字からなるサブ情報を関連位置や関連対象物の情報と共に記録する(ステップS30)。また、関連位置と関連対象物の一方だけでなく、関連位置とその位置の関連対象物を判定して、関連位置及び関連対象物の両方を記録するようにしてもよい。例えば、関連位置として画面中央を設定すると共に、その位置の対象物が実物の顔であることを記録するのである。こうして、記録部16には、図4(b)に示す画像ファイルが記録される。 Next, the association control unit 14 records the sub information including the captured sub image and the read characters in the image file of the selected main image together with the information on the related position and the related object (step S30). Further, not only one of the related position and the related object, but also the related position and the related object at the position may be determined, and both the related position and the related object may be recorded. For example, the center of the screen is set as the related position, and the fact that the object at that position is a real face is recorded. Thus, the image file shown in FIG. 4B is recorded in the recording unit 16.
サブ−メイン関連付けモードにおけるサブ画像の撮影処理は、ステップS31〜S37において行われる。ステップS31〜S36の処理は、関連位置や関連対象物を指定しない点を除き、ステップS24〜S29と同様である。関連付け制御部14は、ステップS37において、撮影されたサブ画像を関連情報格納部15に記録する。 The sub-image shooting process in the sub-main association mode is performed in steps S31 to S37. The processes in steps S31 to S36 are the same as those in steps S24 to S29, except that the related position and the related object are not designated. In step S <b> 37, the association control unit 14 records the captured sub image in the related information storage unit 15.
次に、サブ−メイン関連付けモードにおいて、メイン画像の撮影が行われるものとする。この場合には、関連付け制御部14は、処理をステップS11からステップS12に移行する。ユーザは、メイン画像を撮影するために、画角の設定を行った後撮影を行う。例えば、既に、図3の石碑33をサブ画像として撮影している場合には、例えば、図2のように、この石碑33を含む画角でメイン画像を撮影する。 Next, it is assumed that the main image is shot in the sub-main association mode. In this case, the association control unit 14 proceeds from step S11 to step S12. In order to shoot the main image, the user performs shooting after setting the angle of view. For example, when the monument 33 in FIG. 3 has already been photographed as a sub-image, the main image is photographed at an angle of view including the monument 33, for example, as shown in FIG.
関連付け制御部14は、ステップS13においてメイン画像の撮影操作が行われた否かを判定する。関連付け制御部14は、撮影操作が行われると、撮像部11を制御して撮影を行わせる(ステップS14)。この撮影は、メイン撮影(作品撮影)時に、重要であった自然さや色合いや階調表現などより、文字などを読みとりやすく、顔などは検出しやすくすることが重要で、白黒でもよく、コントラストも高めにしても良い。露出制御や絞り制御なども含めて撮影制御であるが、これをメイン撮影時と異ならせて、文字を読みやすくしたり、ボケを抑える撮影にしても良い。また、白黒化やエッジ強調などは画像処理であり、撮影制御と画像処理のどちらか、または両方を行って補助情報としての表現はメイン画像と変えておくようにした方が良い。もちろん、記録時のみならず、S12のスルー画時にも、こうした制御をメイン画像と変えてもよい。次に、関連付け制御部14は、ステップS15において、撮影した画像の確認表示(レックビュー)を表示画面23上に表示させ、関連位置や関連対象物の指定を受け付ける(ステップS16)。このとき、前述のように、特定の特徴を持った画像の部分を強調表示しても良い。つまり、検出技術が進歩している顔認識や文字認識は、ユーザが気になるものの代表であり、こうした部分は判定したことを表示して、ユーザに再撮影候補として、枠で囲んだり、色を変えたり、矢印で指示したりしてアドバイス表示する。また、距離データが取得できる場合には背景を検出して空や山などを判定し、山がどこの山であるかなどを対話型で情報取得しても良い。この時、道標や、行き先表示板の他、手持ちの地図などを撮影してもよく、ガイドブックなどを撮影して、その地方だけを情報表示可能にしてもよい。ユーザは、ガイドブックを撮影することなど思い浮かばない場合があり、「手持ちの地図やガイドブックを撮影してください」などと、アドバイスを表示してもよい。このような表示情報は、記録部16に記録しておいても良い。ユーザは、いま撮影したメイン画像に関連付けようとしているサブ画像が、メイン画像中のいずれの位置に写されているものかを指定するようにしてもよい。例えば、サブ画像が図3の石碑33の画像43である場合において、図2に示すメイン画像を撮像した場合には、ユーザは画面の左下の位置をタッチする。これにより、関連付け制御部14は、関連位置や関連対象物の指定を行う。 The association control unit 14 determines whether or not a main image photographing operation has been performed in step S13. When the shooting operation is performed, the association control unit 14 controls the imaging unit 11 to perform shooting (step S14). In this shooting, it is important to make it easier to read characters and to detect faces, etc., because of the naturalness, hue, and gradation expression that were important at the time of main shooting (work shooting). You can make it higher. The shooting control includes exposure control, aperture control, and the like. However, this may be different from the main shooting to make it easier to read characters or to reduce blur. In addition, black and white and edge enhancement are image processing, and it is better to change the representation as auxiliary information from the main image by performing one or both of shooting control and image processing. Of course, such control may be changed to the main image not only at the time of recording but also at the through image of S12. Next, in step S15, the association control unit 14 displays a confirmation display (rec view) of the captured image on the display screen 23, and accepts designation of a related position and a related object (step S16). At this time, as described above, an image portion having a specific feature may be highlighted. In other words, face recognition and character recognition, whose detection technology has advanced, are representative of what the user is worried about, and these parts are displayed as determined, and the user is surrounded by a frame or color as a re-shooting candidate. Change the display or indicate with an arrow to display advice. If distance data can be acquired, the background may be detected to determine the sky, mountains, etc., and it may be interactively acquired such as which mountain the mountain is. At this time, in addition to a signpost and a destination display board, a hand-held map or the like may be photographed, or a guidebook or the like may be photographed so that only the region can be displayed. The user may not be able to think of shooting a guidebook, and may display advice such as “shoot a map or guidebook on hand”. Such display information may be recorded in the recording unit 16. The user may designate at which position in the main image the sub-image to be associated with the main image that has just been captured. For example, when the sub image is the image 43 of the monument 33 in FIG. 3 and the main image shown in FIG. 2 is captured, the user touches the lower left position on the screen. Thereby, the association control unit 14 specifies the related position and the related object.
関連付け制御部14は、ステップS17において、関連情報格納部15に格納されているサブ情報の一覧を示すアイコンを表示及び操作部17の表示画面23上に表示させる。ユーザはこの表示を参照することで、サブ情報を指定する。 In step S <b> 17, the association control unit 14 displays an icon indicating a list of sub information stored in the related information storage unit 15 on the display and display screen 23 of the operation unit 17. The user designates the sub information by referring to this display.
関連付け制御部14は、ステップS18において、サブ情報が指定されたか否かを判定する。指定された場合は、関連付け制御部14は、ステップS19において、メイン画像の画像ファイルに、サブ情報を付加して記録する。また、所定時間内にサブ情報が指定されない場合には、関連位置や関連対象物の指定が行われたメイン画像のみを記録する(ステップS20)
図7は再生モードにおける動作を説明するためのフローチャートである。
The association control unit 14 determines whether or not the sub information is specified in step S18. If specified, the association control unit 14 adds the sub information to the image file of the main image and records it in step S19. If the sub information is not specified within the predetermined time, only the main image for which the related position or related object is specified is recorded (step S20).
FIG. 7 is a flowchart for explaining the operation in the reproduction mode.
関連付け制御部14は、図7のステップS41において、再生モードが指定されているか否かを判定する。関連付け制御部14は、再生モードが指定されている場合には、ステップS42において、既に記録されているメイン画像を記録部16から読出して、表示及び操作部17に与えて所定時間一覧表示させる。関連付け制御部14は、次のステップS43において、画像が選択操作されたか否かを判定する。関連付け制御部14は、画像の選択が行われると、ステップS44において、選択された画像を画面一杯に表示する(拡大表示)。 The association control unit 14 determines whether or not the playback mode is designated in step S41 of FIG. When the reproduction mode is designated, the association control unit 14 reads the main image that has already been recorded from the recording unit 16 and gives it to the display and operation unit 17 to display a list for a predetermined time in step S42. The association control unit 14 determines whether or not an image has been selected in the next step S43. When the image is selected, the association control unit 14 displays the selected image on the full screen (enlarged display) in step S44.
本実施の形態においては、関連付け制御部14は、ステップS45において、関連付け撮影に変更されたか否かを判定する。本実施の形態においては、再生モード時においても、サブ画像の撮影を行うことができるようになっている。ユーザによって関連付け撮影が指示されると、関連付け制御部14は、処理をステップS46に移行して、タッチ位置の指定があったか否かを判定する。ステップS46の判定は、図6のステップS23の判定と同様の判定であり、以後、処理は図6のステップS24に移行する。 In the present embodiment, the association control unit 14 determines whether or not the association shooting has been changed in step S45. In the present embodiment, the sub image can be taken even in the playback mode. When association shooting is instructed by the user, the association control unit 14 proceeds to step S46 and determines whether or not a touch position has been designated. The determination in step S46 is the same as the determination in step S23 in FIG. 6, and the process thereafter proceeds to step S24 in FIG.
こうして、本実施の形態においては、メイン画像の再生モード時においても、関連位置や関連対象物を指定して、サブ画像を新たに撮影して保存することが可能である。 Thus, in the present embodiment, even in the main image playback mode, it is possible to specify a related position and a related object, and to newly shoot and store a sub-image.
関連付け撮影へ変更が指示されていない場合には、関連付け制御部14は、処理をステップS45からステップS51に移行して、ユーザが再生モードから他のモードに戻る処理をしたか否かを判定する。 When the change to the association shooting is not instructed, the association control unit 14 shifts the process from step S45 to step S51, and determines whether the user has performed the process of returning from the reproduction mode to another mode. .
次に、関連付け制御部14は、再生モード時において関連付け撮影への変更が行われなければ、ステップS52において、関連位置や関連対象物を指定するタッチ操作が行われたか否かを判定する。タッチ操作が行われると、当該タッチ操作によって指定された関連位置や関連対象物に関するサブ情報を関連情報格納部15から読出して、表示及び操作部17に与えて表示させる。 Next, the association control unit 14 determines whether or not a touch operation for designating a related position or a related object has been performed in step S52 if the change to the related shooting is not performed in the playback mode. When the touch operation is performed, the sub information related to the related position and the related object specified by the touch operation is read from the related information storage unit 15 and given to the display and operation unit 17 for display.
こうして、ユーザは、表示及び操作部17の表示画面23上において、メイン画像中の関連位置や関連対象物について、サブ情報を表示させることができる。また、図5の例のように、所定の関連位置や関連対象物に関して複数のサブ情報が記録されていることがある。この場合には、ユーザは不要と判断したサブ情報を削除することができる。関連付け制御部14は、ステップS54において、削除するサブ情報の選択を受け付ける。削除するサブ情報が指定されると、関連付け制御部14は、この削除操作に応じたサブ情報を関連情報格納部15から削除する。 In this way, the user can display the sub-information on the related position and the related object in the main image on the display screen 23 of the display and operation unit 17. In addition, as in the example of FIG. 5, a plurality of sub information may be recorded for a predetermined related position or related object. In this case, the user can delete the sub information determined to be unnecessary. In step S54, the association control unit 14 receives selection of sub information to be deleted. When the sub information to be deleted is designated, the association control unit 14 deletes the sub information corresponding to the deletion operation from the related information storage unit 15.
このように本実施の形態においては、メイン画像中の関連位置や関連対象物を指定して、サブ情報を割当てて記録することができる。サブ情報としては、撮影によって得た撮像画像や撮像画像から取得した情報を記録することができ、メイン画像中にユーザが希望する情報をユーザが希望する形態で付加して記録することができる。 As described above, in the present embodiment, it is possible to specify the related position and the related object in the main image and assign and record the sub information. As the sub information, a captured image obtained by photographing or information acquired from the captured image can be recorded, and information desired by the user can be added and recorded in the main image in a form desired by the user.
(第2の実施の形態)
図8は本発明の第2の実施の形態を示すブロック図である。また、図9は第2の実施の形態に係る撮影機器の外観を示す説明図である。
(Second Embodiment)
FIG. 8 is a block diagram showing a second embodiment of the present invention. Moreover, FIG. 9 is explanatory drawing which shows the external appearance of the imaging device which concerns on 2nd Embodiment.
本実施の形態はレンズ型カメラが装着されたタブレットPC(パーソナルコンピュータ)に適用したものである。タブレットPCに代えてスマートフォンや携帯電話を採用してもよい。タブレットPC61の表示部68には、後述するように、レンズ型カメラ51による撮像画像が表示される。 This embodiment is applied to a tablet PC (personal computer) equipped with a lens type camera. A smartphone or a mobile phone may be employed instead of the tablet PC. As will be described later, an image captured by the lens-type camera 51 is displayed on the display unit 68 of the tablet PC 61.
図8において、タブレットPC61にはカメラ用通信部62が設けられ、レンズ型カメラ51には通信部55が設けられており、タブレットPC61とレンズ型カメラ51とは、これらの通信部62,55を介して相互に通信可能に構成されている。 In FIG. 8, the tablet PC 61 is provided with a camera communication unit 62, and the lens type camera 51 is provided with a communication unit 55, and the tablet PC 61 and the lens type camera 51 include these communication units 62 and 55. Via the network.
図9に示すように、タブレットPC61の筐体61aには取り付け器具71が着脱自在に取り付けられるようになっており、取り付け器具71にはレンズ型カメラ51を取り付けるための取付部72が設けられている。レンズ型カメラ51は基端側に取付部51bが設けられており、この取付部51bを取り付け器具71の取付部72に、嵌込み又はねじ込み等によって取り付けるようになっている。 As shown in FIG. 9, an attachment device 71 is detachably attached to the housing 61 a of the tablet PC 61, and the attachment device 71 is provided with an attachment portion 72 for attaching the lens camera 51. Yes. The lens-type camera 51 is provided with a mounting portion 51b on the base end side, and the mounting portion 51b is attached to the mounting portion 72 of the mounting device 71 by fitting or screwing.
なお、本実施の形態においては、タブレットPC61は、レンズ型カメラ51を制御してメイン画像及びサブ画像の撮影及び記録を制御する機能を有しているが、この機能については、一部又は全部の機能をレンズ型カメラ51側に設けるようにしてもよい。 In the present embodiment, the tablet PC 61 has a function of controlling the photographing and recording of the main image and the sub-image by controlling the lens-type camera 51. These functions may be provided on the lens-type camera 51 side.
レンズ型カメラ51には、光学系52aを有する撮像部52が設けられている。撮像部52にはCCDやCMOSセンサ等によって構成された図示しない撮像素子が設けられており、光学系52aによって被写体像が撮像素子の撮像面に導かれるようになっている。光学系52aは、鏡筒51a内にピント合わせによりフォーカス(合焦)状態に設定するために可動されるフォーカスレンズやフォーカス状態で変倍するズームレンズ等を有する。また、光学系52aは、これらのレンズ及び絞りを駆動する図示しない機構部を有する。制御部53は光学系52aの機構部を制御して、これらのフォーカスレンズ、ズームレンズ及び絞りを駆動制御するようになっている。 The lens-type camera 51 is provided with an imaging unit 52 having an optical system 52a. The imaging unit 52 is provided with an imaging element (not shown) configured by a CCD, a CMOS sensor, or the like, and a subject image is guided to the imaging surface of the imaging element by an optical system 52a. The optical system 52a includes a focus lens that is movable to set a focus (in-focus) state by focusing within the lens barrel 51a, a zoom lens that changes magnification in the focus state, and the like. The optical system 52a has a mechanism (not shown) that drives these lenses and the diaphragm. The control unit 53 controls the mechanism unit of the optical system 52a to drive and control these focus lens, zoom lens and diaphragm.
レンズ型カメラ51には、ユーザによる撮影に関するパラメータ、例えば、ピント、ズームや絞りに関するパラメータの設定操作のために、操作リング54a等の操作部54が設けられている。制御部53は、操作部54に対するユーザ操作を検出して検出結果に基づく制御を行う。制御部53は、CPU等によって構成されており、操作部54に対するユーザ操作と後述するタブレットPC61からの信号とに基づいて、レンズ型カメラ51の各部を制御する。 The lens-type camera 51 is provided with an operation unit 54 such as an operation ring 54a for setting operation of parameters related to shooting by the user, for example, parameters related to focus, zoom, and aperture. The control unit 53 detects a user operation on the operation unit 54 and performs control based on the detection result. The control unit 53 includes a CPU and the like, and controls each unit of the lens-type camera 51 based on a user operation on the operation unit 54 and a signal from a tablet PC 61 described later.
撮影制御部53cは、フォーカス信号、ズーム信号及び絞り制御信号を発生して、光学系52aのフォーカス、ズーム及び絞りを駆動制御する。また、撮影制御部53cは、撮像素子に駆動信号を供給して、被写体の撮像を制御する。 The imaging control unit 53c generates a focus signal, a zoom signal, and an aperture control signal, and drives and controls the focus, zoom, and aperture of the optical system 52a. In addition, the shooting control unit 53c supplies a drive signal to the image sensor to control the shooting of the subject.
画像処理部53bは、撮像素子からの撮像画像が与えられ、所定の画像信号処理、例えば、色調整処理、マトリックス変換処理、ノイズ除去処理、その他各種の信号処理を施した後、記録部56に与えて記録することができる。記録部56としては例えばICメモリを採用することができる。また、画像処理部53bは、撮像画像を通信部55を介してタブレットPC61に転送することができるようになっている。 The image processing unit 53b is provided with a captured image from the image sensor and performs predetermined image signal processing, for example, color adjustment processing, matrix conversion processing, noise removal processing, and other various signal processing, and then the recording unit 56 Can be given and recorded. As the recording unit 56, for example, an IC memory can be employed. Further, the image processing unit 53 b can transfer the captured image to the tablet PC 61 via the communication unit 55.
レンズ情報処理部53aは、ズームレンズ、フォーカスレンズ等のレンズ状態、絞り状態等のレンズに関する情報を取得して、通信部55を介してタブレットPC61に転送することができるようになっている。レンズに関する情報には、ピント位置、被写界深度の範囲等の光軸方向の距離の情報が含まれる。 The lens information processing unit 53a can acquire information about the lens state such as the zoom lens and the focus lens, and the lens state such as the aperture state, and can transfer the information to the tablet PC 61 via the communication unit 55. Information on the lens includes information on the distance in the optical axis direction such as the focus position and the range of depth of field.
通信部55は、タブレットPC61に設けられたカメラ用通信部62との間で所定の伝送路を介して通信が可能である。伝送路としては、有線及び無線による各種伝送路、例えば、USB(Universal Serial Bus)ケーブルやWifi(Wireless Fidelity)等の無線LANの伝送路等を採用することができるようになっている。制御部53は、タブレットPC61との間で通信が確立すると、タブレットPC61の制御部65に従って撮影が制御されると共に、撮像画像及びレンズに関する情報をタブレットPC61に転送することができるようになっている。 The communication unit 55 can communicate with the camera communication unit 62 provided in the tablet PC 61 via a predetermined transmission path. As the transmission path, various wired and wireless transmission paths, for example, a wireless LAN transmission path such as a USB (Universal Serial Bus) cable or WiFi (Wireless Fidelity) can be employed. When the communication with the tablet PC 61 is established, the control unit 53 controls the shooting according to the control unit 65 of the tablet PC 61 and can transfer the captured image and information about the lens to the tablet PC 61. .
タブレットPC61の制御部65は、例えばCPU等によって構成されてタブレットPC61の各部を制御する。制御部65は、レンズ型カメラ51の撮像部52を駆動するための信号を出力すると共に、レンズ型カメラ51からの撮像画像を受信する。制御部65は、受信した撮像画像に対して、所定の信号処理、例えば、色調整処理、マトリックス変換処理、ノイズ除去処理、その他各種の信号処理を行う。 The control unit 65 of the tablet PC 61 is configured by a CPU or the like, for example, and controls each unit of the tablet PC 61. The control unit 65 outputs a signal for driving the imaging unit 52 of the lens type camera 51 and receives a captured image from the lens type camera 51. The control unit 65 performs predetermined signal processing, for example, color adjustment processing, matrix conversion processing, noise removal processing, and other various signal processing on the received captured image.
タブレットPC61には、操作部66も配設されている。操作部66は、タブレットPC61に設けられた図示しないスイッチ、キー、ソフトウェアキーボード等の各種の操作部によって構成され、ユーザ操作に基づく操作信号を発生して、制御部65に出力するようになっている。制御部65は、操作信号に基づいて、各部を制御する。 An operation unit 66 is also provided on the tablet PC 61. The operation unit 66 includes various operation units such as switches, keys, and software keyboards (not shown) provided in the tablet PC 61. The operation unit 66 generates operation signals based on user operations and outputs the operation signals to the control unit 65. Yes. The control unit 65 controls each unit based on the operation signal.
制御部65は、撮像画像の記録及び再生に関する処理を行うことができる。例えば、制御部65は、信号処理後の撮影画像を圧縮処理し、圧縮後の画像を記録部64に与えて記録させることができる。記録部64としては、例えばICメモリ等の各種記録媒体を採用することができ、記録部64は記録媒体に画像情報及び音声情報等を記録可能である。 The control unit 65 can perform processing related to recording and reproduction of captured images. For example, the control unit 65 can compress the captured image after the signal processing and give the compressed image to the recording unit 64 for recording. As the recording unit 64, for example, various recording media such as an IC memory can be adopted, and the recording unit 64 can record image information, audio information, and the like on the recording medium.
表示制御部67は表示に関する各種処理を実行する。表示制御部67は、制御部65から信号処理後の撮影画像が与えられて、表示部68に与えることができる。表示部68は、LCD等の表示画面68a(図10参照)を有しており、表示制御部67から与えられた画像を表示する。また、表示制御部67は、各種メニュー表示等を表示部68の表示画面68aに表示させることもできるようになっている。制御部65は、記録部64に記録されている撮像画像を読み出して伸張処理することができる。表示制御部67は伸張処理された撮像画像を表示部68に与えることで、記録画像の再生が可能である。 The display control unit 67 executes various processes related to display. The display control unit 67 can receive the captured image after the signal processing from the control unit 65 and can provide it to the display unit 68. The display unit 68 has a display screen 68a (see FIG. 10) such as an LCD, and displays an image given from the display control unit 67. The display control unit 67 can also display various menu displays on the display screen 68a of the display unit 68. The control unit 65 can read out the captured image recorded in the recording unit 64 and perform expansion processing. The display control unit 67 can reproduce the recorded image by giving the expanded captured image to the display unit 68.
表示部68の表示画面68a上には、図示しないタッチパネルが設けられている。タッチパネルは、ユーザが指で指し示した表示画面68a上の位置に応じた操作信号を発生することができる。この操作信号は、制御部65に供給される。これにより、制御部65は、ユーザが表示画面68a上をタッチしたりスライドさせたりした場合には、ユーザのタッチ位置、指を閉じ離間させる操作(ピンチ操作)、スライド操作やスライド操作によって到達した位置、スライド方向、タッチしている期間等の各種操作を検出することができ、ユーザ操作に対応した処理を実行することができるようになっている。このタッチパネルによって、関連位置や関連対象物の指定か可能である。 On the display screen 68a of the display unit 68, a touch panel (not shown) is provided. The touch panel can generate an operation signal according to the position on the display screen 68a pointed by the user with a finger. This operation signal is supplied to the control unit 65. Thereby, when the user touches or slides on the display screen 68a, the control unit 65 arrives by the touch position of the user, the operation of closing and separating the finger (pinch operation), the slide operation or the slide operation. Various operations such as a position, a sliding direction, a touch period, and the like can be detected, and processing corresponding to a user operation can be executed. With this touch panel, it is possible to specify a related position or a related object.
なお、表示部68は、タブレットPC61の例えば前面の略全域を占めるように配設されており、ユーザは、レンズ型カメラ51による撮影時に表示部68の表示画面68a上に表示された撮像画像を確認することができ、撮像画像を確認しながら撮影操作を行うことができる。 Note that the display unit 68 is arranged so as to occupy substantially the entire front surface of the tablet PC 61, for example, and the user captures a captured image displayed on the display screen 68 a of the display unit 68 when shooting with the lens type camera 51. It is possible to confirm, and a photographing operation can be performed while confirming the captured image.
更に、本実施の形態においては、タブレットPC61は、ネット接続部63を備えている。ネット接続部63は、制御部65に制御されて、無線又は有線によって、図示しないインターネット回線に接続可能である。ネット接続部63は、操作部66のユーザ操作に応じてサイトにアクセスして、ユーザ操作に応じたデータの送受を行ってユーザが希望するデータのダウンロートが可能である。本実施の形態においては、ダウンロードするデータは、ユーザが直接指定するだけでなく、制御部65によって自動的に取得することもできる。 Furthermore, in the present embodiment, the tablet PC 61 includes a net connection unit 63. The network connection unit 63 is controlled by the control unit 65 and can be connected to an Internet line (not shown) wirelessly or by wire. The net connection unit 63 can access the site in accordance with a user operation of the operation unit 66, and send and receive data in accordance with the user operation to download data desired by the user. In the present embodiment, the data to be downloaded can be automatically acquired by the control unit 65 as well as designated directly by the user.
制御部65は、第1の実施の形態における位置及び対象判定部13並びに関連付け制御部14の両方と同様の機能を有しており、関連付けモードにおける動作が可能である。例えば、制御部65は、ユーザのタッチ操作に基づいて関連位置や関連対象物を設定すると共に、設定された関連位置や関連対象物に対応付けて、第1の実施の形態と同様に、レンズ型カメラ51の撮像画像からサブ情報を取得することができるようになっている。 The control unit 65 has the same functions as both the position and object determination unit 13 and the association control unit 14 in the first embodiment, and can operate in the association mode. For example, the control unit 65 sets the related position and the related object based on the touch operation of the user, and associates the lens with the set related position and the related object, as in the first embodiment. The sub information can be acquired from the captured image of the mold camera 51.
更に、本実施の形態においては、記録部64には、ユーザが登録した住所録の情報が記録されていることもあり、制御部65は、この住所録の情報やその他記録部64に記録されている情報をサブ情報として利用することができるようになっている。 Further, in the present embodiment, the information of the address book registered by the user may be recorded in the recording unit 64, and the control unit 65 is recorded in the information of the address book and the other recording unit 64. Can be used as sub-information.
更に、本実施の形態においては、制御部65は、ネット接続部63によって取得したデータをサブ情報として関連位置や関連対象物に関連付けて記録部64に記録することもできるようになっている。 Further, in the present embodiment, the control unit 65 can record the data acquired by the network connection unit 63 in the recording unit 64 in association with the related position or the related object as sub information.
図10及び図11はインターネットからサブ情報をダウンロードする例を説明するための説明図である。 10 and 11 are explanatory diagrams for explaining an example of downloading sub-information from the Internet.
図10はユーザが撮影によってメイン画像を取得する様子を示している。図10に示すように、ユーザ81は、右手81aで図8のタブレットPC61の回路ブロックが収納された筐体61aを把持した状態で、レンズ型カメラ51によって被写体である人物91を撮影している。人物91は壁92を背景として、「演奏会」と表示された看板93の傍らに立っている。筐体61aの背面側には、表示画面68aが設けられており、この表示画面68aには撮像中の画像であるスルー画85が表示されている。図10は、撮影範囲内に人物91、壁92及び看板93を含む撮像画像がスルー画85として表示されていることを示している。 FIG. 10 shows how the user acquires the main image by shooting. As shown in FIG. 10, the user 81 takes a picture of a person 91 as a subject with the lens-type camera 51 while holding the housing 61a in which the circuit block of the tablet PC 61 of FIG. . The person 91 stands by the sign 93 displayed as “Performance” with the wall 92 as the background. A display screen 68a is provided on the back side of the housing 61a, and a through image 85 that is an image being captured is displayed on the display screen 68a. FIG. 10 shows that a captured image including a person 91, a wall 92, and a signboard 93 is displayed as a through image 85 within the shooting range.
この状態でユーザ81が右手81aでシャッタボタン61bを押すことで、スルー画85として表示されている撮像画像が記録される。いま、例えば、ユーザ81がこの記録した撮像画像をメイン画像とするものとする。 In this state, when the user 81 presses the shutter button 61b with the right hand 81a, the captured image displayed as the through image 85 is recorded. Now, for example, it is assumed that the captured image recorded by the user 81 is a main image.
本実施形態においても、メイン画像とサブ画像とを関連付けて記録する関連付けモードでの動作が可能である。関連付けモードにおいては、ユーザ81は、画像中に関連位置や関連対象物を指定して、サブ画像を撮影することを指定することができる。更に、上述したように、関連付けモードにおいて、画像中に設定された関連位置や関連対象物に対応するサブ情報を、インターネット回線を介して取得することも可能である。 Also in this embodiment, it is possible to operate in the association mode in which the main image and the sub image are recorded in association with each other. In the association mode, the user 81 can designate that a sub-image is to be taken by designating a related position or related object in the image. Furthermore, as described above, in the association mode, it is also possible to acquire the sub information corresponding to the related position and the related object set in the image via the Internet line.
いま、ユーザ81が、関連付けモード時においてインターネット回線からのサブ情報の取得を行うものとする。例えば、ユーザ81が、看板93に対応するスルー画85中の画像87を左手81bでタッチする操作を行うものとする。このタッチ操作によって、メイン画像中の看板93に対応する画像87の位置が関連位置として設定され、この関連位置に関するサブ情報を取得するサブ情報取得モードに移行する。 Now, it is assumed that the user 81 acquires sub information from the Internet line in the association mode. For example, it is assumed that the user 81 performs an operation of touching the image 87 in the through image 85 corresponding to the signboard 93 with the left hand 81b. By this touch operation, the position of the image 87 corresponding to the signboard 93 in the main image is set as a related position, and the process proceeds to a sub information acquisition mode for acquiring sub information related to the related position.
図11は関連付けモードにおけるサブ情報取得の様子を示している。サブ情報取得モードにおいては、関連位置の画像に対する文字認識処理等によって関連位置の文字情報が取得される。更に、サブ情報取得モードにおいては、インターネット回線へ接続が行われて、表示画面68a上に情報取得画面95が表示される。ユーザ81は、左手81bでタブレットPC61を把持し、右手81aのタッチ操作によって情報取得画面95上に表示された検索ボタン96をタッチする。これにより、関連位置から取得された文字情報をキーとした検索が行われて、当該文字情報に関連する情報が取得される。 FIG. 11 shows how the sub information is acquired in the association mode. In the sub information acquisition mode, the character information of the related position is acquired by character recognition processing or the like for the image of the related position. Further, in the sub information acquisition mode, connection to the Internet line is made, and the information acquisition screen 95 is displayed on the display screen 68a. The user 81 holds the tablet PC 61 with the left hand 81b and touches the search button 96 displayed on the information acquisition screen 95 by the touch operation of the right hand 81a. Thus, a search is performed using the character information acquired from the related position as a key, and information related to the character information is acquired.
例えば、文字情報として演奏者の名前が取得された場合には、この演奏者に関するプロフィールの情報をサブ情報として取得することができる。また、文字情報として演奏曲名が取得された場合には、この演奏曲名の音声データ等をサブ情報として取得することができる。 For example, when the name of a performer is acquired as character information, profile information about the performer can be acquired as sub-information. Further, when the performance song name is acquired as the character information, the sound data of the performance song name or the like can be acquired as the sub information.
図12は関連付けモード時に記録される画像ファイルを説明するための説明図である。図12に示すように、画像ファイルは、メイン画像の画像データ45及び補助データであるタグ情報46を含む。タグ情報46には、メイン画像に関する情報及びメイン画像の撮影に関する情報等、例えば、被写体顔情報、撮影場所、撮影時間の情報等が含まれる。タグ情報には、関連付けモードによる撮影であって、このメイン画像に関連するサブ画像が関連付けられて記録されているか又は記録が予定されていることを示す情報であるサブ画像想定情報も含まれる。また、画像ファイルには、関連付けモードにおいて記録されたサブ情報47も含まれる。サブ情報47としては、関連位置や関連対象物に対応した各所情報が記録される。例えば、関連位置や関連対象物から取得した文字情報等に基づくURL情報や関連ファイル名等の情報が含まれる。 FIG. 12 is an explanatory diagram for explaining an image file recorded in the association mode. As shown in FIG. 12, the image file includes image data 45 of the main image and tag information 46 that is auxiliary data. The tag information 46 includes information relating to the main image, information relating to the shooting of the main image, and the like, for example, subject face information, shooting location, shooting time information, and the like. The tag information includes sub-image assumption information which is information indicating that the sub-image related to the main image is recorded in association with the main image and is recorded in association mode. The image file also includes sub information 47 recorded in the association mode. As the sub information 47, each location information corresponding to the related position and the related object is recorded. For example, information such as URL information and related file names based on character information acquired from related positions and related objects is included.
図13はサブ情報の一例を示す説明図である。図13は図10及び図11に対応したものである。本実施の形態においても、サブ情報はユーザが指定した関連位置や関連対象物毎に登録される。図13の例は、画面上の対象物である被写体について人物、人物の顔及び文字毎にサブ情報を登録した例を示している。人物に対しては人名が登録されている。また、人物の顔については、別表情の顔の画像が記録されている。また、文字については、音声情報、URL情報及びファイル名等が記録されている。ファイル名は、記録部64中に記録された音声ファイルを指定するためのものである。この音声ファイルは、予め記録部64に記録されていたものであってもよく、また、上述したサブ情報取得モードにおいて取得されたものであってもよい。 FIG. 13 is an explanatory diagram showing an example of sub information. FIG. 13 corresponds to FIG. 10 and FIG. Also in the present embodiment, the sub information is registered for each related position or related object specified by the user. The example of FIG. 13 shows an example in which sub-information is registered for each person, a person's face, and characters for a subject that is an object on the screen. A personal name is registered for the person. In addition, for a human face, an image of a face with a different expression is recorded. For characters, voice information, URL information, file names, and the like are recorded. The file name is for designating an audio file recorded in the recording unit 64. This audio file may be recorded in the recording unit 64 in advance, or may be acquired in the sub information acquisition mode described above.
ユーザはメイン画像の再生時に、関連位置をタッチすることで、サブ情報を提示させることが可能である。図14はこの様子を説明するための説明図である。図14に示すように、例えば、記録部64に図13に示すサブ情報が記録されている場合には、ユーザ81が表示画面68aに表示された再生画像97中の看板の画像98の位置をタッチすることで、看板の画像97の位置を関連位置とするサブ情報である音声データを再生することが可能である。図14はこの音声データに基づく音響出力99が出力されていることを示している。 The user can present sub-information by touching the relevant position when reproducing the main image. FIG. 14 is an explanatory diagram for explaining this situation. As shown in FIG. 14, for example, when the sub information shown in FIG. 13 is recorded in the recording unit 64, the user 81 determines the position of the signboard image 98 in the reproduced image 97 displayed on the display screen 68a. By touching, it is possible to reproduce audio data which is sub-information with the position of the signboard image 97 as a related position. FIG. 14 shows that an acoustic output 99 based on the audio data is output.
次に、このように構成された実施の形態の動作について図15を参照して説明する。図15は第2の実施の形態の動作を説明するためのフローチャートである。図15において図6と同一の手順について同一符号を付して説明を省略する。 Next, the operation of the embodiment configured as described above will be described with reference to FIG. FIG. 15 is a flowchart for explaining the operation of the second embodiment. In FIG. 15, the same steps as those in FIG.
図15のステップS23,S71〜S77は、メイン−サブ関連付けモードの動作を示し、ステップS12〜S20,S81〜S87は、サブ−メイン関連付けモードの動作を示している。 Steps S23 and S71 to S77 in FIG. 15 show the operation in the main-sub association mode, and steps S12 to S20 and S81 to S87 show the operation in the sub-main association mode.
いま、ユーザがメイン−サブ関連付けモードを指定するものとする。即ち、既にメイン画像が撮影記録されており、記録されているメイン画像に対してサブ情報を関連付けるように、ユーザがサブ情報の取得を指定するものとする。この場合には、制御部65は、処理をステップS11からステップS21に移行して、既に記録されているメイン画像を記録部16から読出して、表示及び操作部17に与えて所定時間サムネイル表示させる。制御部65は、次のステップS22において、メイン画像が選択操作されたか否かを判定する。 Assume that the user specifies the main-sub association mode. That is, it is assumed that the main image has already been captured and recorded, and the user designates acquisition of the sub information so as to associate the sub information with the recorded main image. In this case, the control unit 65 shifts the process from step S11 to step S21, reads the main image that has already been recorded from the recording unit 16, and provides the display and operation unit 17 with thumbnail display for a predetermined time. . In the next step S22, the control unit 65 determines whether or not a main image has been selected and operated.
制御部65は、所定時間経過してもメイン画像が選択されない場合には、サブ−メイン関連付けモードにおけるサブ情報の取得、即ち、ユーザがメイン画像に関連付けることなくサブ情報の取得を行おうとしているものと判定して、処理をステップS22からステップS81に移行する。 If the main image is not selected even after a predetermined time has elapsed, the control unit 65 acquires the sub information in the sub-main association mode, that is, the user tries to acquire the sub information without associating it with the main image. It judges that it is a thing and transfers a process to step S81 from step S22.
いま、ユーザは、既に記録されているメイン画像に対してサブ情報を関連付けようとしているので、ユーザはメイン画像の選択操作を行う。制御部65は、ステップS23においてタッチ位置の指定操作を受け付ける。例えば、ユーザは図10の画像87の表示位置をタッチする。これにより、制御部65は、看板の画像87を関連対象物に設定する。次に、制御部65は、サブ情報取得モードが指定されているか否かを判定する(ステップS71)。制御部65は、サブ情報取得モードが指定されている場合には、ステップS72において図11に示す情報取得画面95を表示する。 Now, since the user is trying to associate the sub information with the already recorded main image, the user performs an operation of selecting the main image. In step S23, the control unit 65 receives a touch position designation operation. For example, the user touches the display position of the image 87 in FIG. Accordingly, the control unit 65 sets the signboard image 87 as the related object. Next, the control unit 65 determines whether or not the sub information acquisition mode is designated (step S71). When the sub information acquisition mode is designated, the control unit 65 displays the information acquisition screen 95 shown in FIG. 11 in step S72.
ユーザは、情報取得画面95上の検索ボタン96を操作することで、検索を行う。検索キーは、ユーザが自分で入力してもよく、制御部65が関連対象物の画像から取得した文字列を用いて設定してもよい。制御部65は、ステップS73において検索入力が発生したか否かを判定し、検索入力があると当該検索入力に対応するコンテンツやURLの取得を行う(ステップS74)。即ち、制御部65は、ネット接続部63を制御してインターネット回線に接続し、該当するサイトから情報をダウンロードする。制御部65は、選択したメイン画像の画像ファイルに、取得したサブ情報を関連位置や関連対象物の情報と共に記録する(ステップS77)。 The user performs a search by operating a search button 96 on the information acquisition screen 95. The search key may be input by the user himself or may be set using a character string acquired by the control unit 65 from the image of the related object. The control unit 65 determines whether or not a search input has occurred in step S73, and if there is a search input, acquires the content and URL corresponding to the search input (step S74). That is, the control unit 65 controls the network connection unit 63 to connect to the Internet line, and downloads information from the corresponding site. The control unit 65 records the acquired sub-information together with the information on the related position and related object in the image file of the selected main image (step S77).
また、制御部65は、ステップS73において、ネット入力が発生しない場合には、サブ情報としてサブ画像を取得するものとして、レンズ型カメラ51からの撮像画像をスルー画表示させ(ステップS75)、ステップS76において撮影等の処理を行う。このサブ画像撮影では、情報撮影時に文字などを撮影する場合など、文字が読めることが重要で、白黒でもよく、コントラストも不自然なまでに高めて読みやすくしても良い。露出制御や絞り制御なども含めて撮影制御であるが、これをメイン撮影時と異ならせて、文字を読みやすくしたり、ボケを抑える撮影にしても良い。また、白黒化やエッジ強調などは画像処理であり、撮影制御と画像処理のどちらか、または両方を行って補助情報としての表現はメイン画像と変えておくようにした方が良い。記録時のみならず、S75のスルー画時にも、こうした制御をメイン画像と変えてもよい。こうして、この場合には、制御部65は、選択したメイン画像の画像ファイルに、取得したサブ画像を関連位置や関連対象物の情報と共に記録する(ステップS77)。 In addition, when no net input occurs in step S73, the control unit 65 displays the captured image from the lens-type camera 51 as a through image as a sub-image as sub-information (step S75). In S76, processing such as shooting is performed. In this sub-image shooting, it is important that characters can be read, such as when shooting characters at the time of information shooting, and it may be black and white, and the contrast may be unnatural and easy to read. The shooting control includes exposure control, aperture control, and the like. However, this may be different from the main shooting to make it easier to read characters or to reduce blur. In addition, black and white and edge enhancement are image processing, and it is better to change the representation as auxiliary information from the main image by performing one or both of shooting control and image processing. Such control may be changed to the main image not only at the time of recording but also at the time of the through image in S75. Thus, in this case, the control unit 65 records the acquired sub-image together with information on the related position and related object in the image file of the selected main image (step S77).
サブ−メイン関連付けモードにおけるサブ情報の取得処理は、ステップS81〜S87において行われる。ステップS81〜S86の処理は、ステップS71〜S76と同様である。制御部65は、ステップS87において、取得されたサブ情報を記録部64に記録する。 The sub information acquisition process in the sub-main association mode is performed in steps S81 to S87. The processing in steps S81 to S86 is the same as that in steps S71 to S76. In step S87, the control unit 65 records the acquired sub information in the recording unit 64.
他の作用は第1の実施の形態と同様である。この実施例では、サブ情報を取得する際、画像情報に限らないので、音楽を記録した方が良いとか、地名を記録した方が良いとか、画像判定にしたがった情報取得をアドバイス表示しても良い。画像で文字認識した結果、「コンサート」とか「演奏会」とあれば、音楽記録を促してもよい。これは実際に録音してもよく、ダウンロードしても良い。風景部に独特の山や川、海の形状や色、または波の動きなどが検出された場合は、サブ情報を地名としても良い。地名の場合は、GPSと連携した地図情報を取得すればよい。花や動物などは、図鑑と連携するようにアドバイスしても良い。これらの場合は、表示部にテキスト表示したり、音声で伝えてアドバイスを行う。 Other operations are the same as those in the first embodiment. In this embodiment, when sub-information is acquired, it is not limited to image information. Therefore, it is better to record music, it is better to record place names, or information acquisition according to image determination may be displayed as an advice. good. If the result of character recognition in the image is “concert” or “concert”, music recording may be prompted. This can be actually recorded or downloaded. When a unique mountain or river, sea shape or color, or wave motion is detected in the landscape portion, the sub-information may be used as the place name. In the case of a place name, map information linked to GPS may be acquired. Flowers and animals may be advised to work with the picture book. In these cases, advice is given by displaying text on the display unit or by voice.
このように本実施の形態においては第1の実施の形態と同様の効果が得られると共に、撮影する画像や既に記録されている情報をサブ情報とするだけでなく、インターネット回線から取得した情報をサブ情報とすることができ、より有効な情報の記録が可能である。 As described above, in this embodiment, the same effects as those in the first embodiment can be obtained, and not only the image to be taken and the information already recorded are used as sub-information, but also the information acquired from the Internet line is used. Sub-information can be used, and more effective information can be recorded.
さらに、本発明の各実施形態においては、撮影のための機器として、デジタルカメラを用いて説明したが、カメラとしては、レンズ型カメラでも、デジタル一眼レフカメラでもコンパクトデジタルカメラでもよく、ビデオカメラ、ムービーカメラのような動画用のカメラでもよく、さらに、携帯電話やスマートフォンなど携帯情報端末(PDA:Personal Digital Assist)等に内蔵されるカメラでも勿論構わない。また、内視鏡、顕微鏡のような産業用、医療用の光学機器でもよく、監視カメラや車載用カメラ、据え置き型のカメラ、例えば、テレビジョン受信機やパーソナルコンピュータ等に取り付けられているカメラであってもよい。 Furthermore, in each embodiment of the present invention, a digital camera has been described as an apparatus for photographing. However, the camera may be a lens type camera, a digital single-lens reflex camera, or a compact digital camera, a video camera, A camera for moving images such as a movie camera may be used, and a camera built in a personal digital assistant (PDA) such as a mobile phone or a smartphone may of course be used. In addition, it may be an industrial or medical optical device such as an endoscope or a microscope, such as a surveillance camera, an on-vehicle camera, a stationary camera, for example, a camera attached to a television receiver or a personal computer. There may be.
本発明は、上記各実施形態にそのまま限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また、上記各実施形態に開示されている複数の構成要素の適宜な組み合わせにより、種々の発明を形成できる。例えば、実施形態に示される全構成要素の幾つかの構成要素を削除してもよい。さらに、異なる実施形態にわたる構成要素を適宜組み合わせてもよい。 The present invention is not limited to the above-described embodiments as they are, and can be embodied by modifying the constituent elements without departing from the scope of the invention in the implementation stage. Moreover, various inventions can be formed by appropriately combining a plurality of constituent elements disclosed in the above embodiments. For example, you may delete some components of all the components shown by embodiment. Furthermore, constituent elements over different embodiments may be appropriately combined.
なお、特許請求の範囲、明細書、および図面中の動作フローに関して、便宜上「まず、」、「次に、」等を用いて説明したとしても、この順で実施することが必須であることを意味するものではない。また、これらの動作フローを構成する各ステップは、発明の本質に影響しない部分については、適宜省略も可能であることは言うまでもない。 It should be noted that even if the operation flow in the claims, the description, and the drawings is described using “first,” “next,” etc. for convenience, it is essential to carry out in this order. It doesn't mean. In addition, it goes without saying that the steps constituting these operation flows can be omitted as appropriate for portions that do not affect the essence of the invention.
また、ここで説明した技術のうち、主にフローチャートで説明した制御や機能は、多くがプログラムにより設定可能であり、そのプログラムをコンピュータが読み取り実行することで上述した制御や機能を実現することができる。そのプログラムは、コンピュータプログラム製品として、フレキシブルディスク、CD−ROM等、不揮発性メモリ等の可搬媒体や、ハードディスク、揮発性メモリ等の記憶媒体に、その全体あるいは一部を記録又は記憶することができ、製品出荷時又は可搬媒体或いは通信回線を介して流通又は提供可能である。利用者は、通信ネットワークを介してそのプログラムをダウンロードしてコンピュータにインストールしたり、あるいは記録媒体からコンピュータにインストールすることで、容易に本実施の形態の撮影機器を実現することができる。 Of the technologies described here, many of the controls and functions mainly described in the flowcharts can be set by a program, and the above-described controls and functions can be realized by a computer reading and executing the program. it can. As a computer program product, the program may be recorded or stored in whole or in part on a portable medium such as a non-volatile memory such as a flexible disk or a CD-ROM, or a storage medium such as a hard disk or a volatile memory. It can be distributed or provided at the time of product shipment or via a portable medium or communication line. The user can easily realize the photographing apparatus of the present embodiment by downloading the program via a communication network and installing it on a computer, or installing the program on a computer from a recording medium.
11…撮像部、12…記録再生制御部、13…位置及び対象判定部、14…関連付け制御部、15…関連情報格納部、16…記録部、17…表示及び操作部、20…関連付け部。 DESCRIPTION OF SYMBOLS 11 ... Imaging part, 12 ... Recording / reproducing control part, 13 ... Position and object determination part, 14 ... Association control part, 15 ... Related information storage part, 16 ... Recording part, 17 ... Display and operation part, 20 ... Association part.
Claims (8)
上記メイン画像中の関連位置及び関連対象物の少なくとも一方を設定する位置及び対象判定部と、
上記位置及び対象判定部によって設定された上記関連位置及び関連対象物に関連するサブ情報を取得し、上記記録制御部を制御して、上記メイン画像と上記サブ情報とを関連付けて記録する関連付け制御部と
を具備したことを特徴とする撮影機器。 A recording control unit capable of recording a captured image of a subject as a main image;
A position and target determination unit for setting at least one of the related position and the related object in the main image;
Association control for acquiring sub information related to the related position and related object set by the position and target determination unit, controlling the recording control unit, and recording the main image and the sub information in association with each other An imaging device characterized by comprising:
ことを特徴とする請求項1に記載の撮影機器。 The association control unit controls the imaging unit to acquire an image related to the related position and the related object by performing image processing using a method different from the main image shooting control, as the sub information. The photographing apparatus according to claim 1.
上記位置及び対象判定部は、表示された上記メイン画像上で位置が指定されて、上記関連位置及び関連対象物の少なくとも一方を設定する
ことを特徴とする請求項1又は2に記載の撮影機器。 A display control unit for displaying the main image;
The photographing apparatus according to claim 1, wherein the position and target determination unit sets a position on the displayed main image and sets at least one of the related position and the related target object. .
ことを特徴とする請求項3に記載の撮影機器。 The photographing apparatus according to claim 3, wherein the display control unit displays a sub-image photographing advice during the main image photographing.
ことを特徴とする請求項1乃至4のいずれか1つに記載の撮影機器。 The imaging device according to any one of claims 1 to 4, wherein the association control unit records the sub information in association with each of the related positions or the related objects.
ことを特徴とする請求項1乃至5のいずれか1つに記載の撮影機器。 The imaging apparatus according to claim 1, wherein the association control unit acquires the sub information with respect to the main image that has already been captured.
ことを特徴とする請求項1乃至5のいずれか1つに記載の撮影機器。 The imaging device according to any one of claims 1 to 5, wherein the association control unit assigns the already acquired sub-information to the main image obtained by imaging.
上記メイン画像中の関連位置及び関連対象物の少なくとも一方を設定する位置及び対象判定ステップと、
上記位置及び対象判定ステップによって設定された上記関連位置及び関連対象物に関連するサブ情報を取得し、上記メイン画像と上記サブ情報とを関連付けて記録する関連付けステップと
を具備したことを特徴とする画像記録方法。 Acquiring a captured image of a subject as a main image;
A position and target determination step for setting at least one of a related position and a related object in the main image;
A step of acquiring sub-information related to the related position and the related object set in the position and target determination step, and associating and recording the main image and the sub-information. Image recording method.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014034511A JP2015159511A (en) | 2014-02-25 | 2014-02-25 | Photographing apparatus and image recording method |
CN201510075125.5A CN104869302B (en) | 2014-02-25 | 2015-02-12 | Photographic equipment and image recording process |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014034511A JP2015159511A (en) | 2014-02-25 | 2014-02-25 | Photographing apparatus and image recording method |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2015159511A true JP2015159511A (en) | 2015-09-03 |
Family
ID=53914789
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014034511A Pending JP2015159511A (en) | 2014-02-25 | 2014-02-25 | Photographing apparatus and image recording method |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP2015159511A (en) |
CN (1) | CN104869302B (en) |
Family Cites Families (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3124600B2 (en) * | 1991-12-20 | 2001-01-15 | 京セラ株式会社 | Electronic still camera |
JP4268612B2 (en) * | 1998-05-20 | 2009-05-27 | 富士フイルム株式会社 | Image playback device |
JP4434094B2 (en) * | 2005-07-06 | 2010-03-17 | ソニー株式会社 | Tag information generation apparatus, tag information generation method and program |
JP2007068045A (en) * | 2005-09-01 | 2007-03-15 | Sony Corp | Additional information communication system, imaging apparatus, and method of automatically recording object additional information |
JP4889349B2 (en) * | 2006-04-05 | 2012-03-07 | オリンパス株式会社 | Electronic still camera and image processing apparatus |
JP4336387B2 (en) * | 2007-01-15 | 2009-09-30 | パナソニック株式会社 | Imaging device |
CN101275854A (en) * | 2007-03-26 | 2008-10-01 | 日电(中国)有限公司 | Method and equipment for updating map data |
JP4982715B2 (en) * | 2008-08-21 | 2012-07-25 | 学校法人関西学院 | Information providing method and information providing system |
JP5299912B2 (en) * | 2009-04-20 | 2013-09-25 | 株式会社ザクティ | Imaging device and data structure of image file |
JP2012093991A (en) * | 2010-10-27 | 2012-05-17 | Buffalo Inc | Tag information management device, tag information management system, tag information management program, tag information management method |
JP5948731B2 (en) * | 2011-04-19 | 2016-07-06 | 富士ゼロックス株式会社 | Image processing apparatus, image processing system, and program |
JPWO2014156568A1 (en) * | 2013-03-28 | 2017-02-16 | 日本電気株式会社 | Image recording apparatus, image recording method, and program |
-
2014
- 2014-02-25 JP JP2014034511A patent/JP2015159511A/en active Pending
-
2015
- 2015-02-12 CN CN201510075125.5A patent/CN104869302B/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
CN104869302A (en) | 2015-08-26 |
CN104869302B (en) | 2019-06-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4931845B2 (en) | Imaging apparatus and captured image display control method | |
KR101901910B1 (en) | Method and apparatus for generating or storing resultant image which changes selected area | |
KR20120081516A (en) | Digital photographing apparatus and control method thereof | |
KR101737086B1 (en) | Digital photographing apparatus and control method thereof | |
JP5490689B2 (en) | Method for generating sound sequence of a plurality of photographs and device for generating and reproducing the sound sequence | |
JP2008066886A (en) | Camera, communication control device, photography technical assistance system, photography technical assistance method, program | |
JP4888711B2 (en) | Scene selection screen generation device, scene selection screen addition system, scene selection screen generation method, scene selection screen addition method, and program | |
JP4889554B2 (en) | Camera, content creation method, and program | |
JP6355333B2 (en) | Imaging apparatus, image processing apparatus, image processing method, and program | |
JP2008078836A (en) | Camera, blog search system, and program | |
KR101436325B1 (en) | Method and apparatus for configuring thumbnail image of video | |
JP6952584B2 (en) | Imaging device, imaging method and imaging program | |
JP2015159511A (en) | Photographing apparatus and image recording method | |
JP2009272846A (en) | Image processor, image processing method and program | |
JP2005143014A (en) | Device, method, and program for image processing | |
JP2009296504A (en) | Image processing system, image processing method, and program | |
KR101946574B1 (en) | Apparatus and method for reproducing image and computer-readable storage medium | |
JP6249771B2 (en) | Image processing apparatus, image processing method, and program | |
JP2019114847A (en) | Image recording control apparatus, image recording method, image recording program, imaging apparatus, and image recording control system | |
JP7101285B2 (en) | Display device | |
WO2022158201A1 (en) | Image processing device, image processing method, and program | |
JP5409852B2 (en) | Virtual landscape display device and virtual landscape display method | |
JP4485455B2 (en) | Karaoke system, music setting method and photographing apparatus | |
KR101643604B1 (en) | A digital photographing apparatus, a method for controlling the same, and a computer-readable storage medium | |
JP2015061129A (en) | Imaging equipment and imaging method |