JP6375114B2 - Image reproducing apparatus and method for controlling image reproducing apparatus - Google Patents
Image reproducing apparatus and method for controlling image reproducing apparatus Download PDFInfo
- Publication number
- JP6375114B2 JP6375114B2 JP2014001924A JP2014001924A JP6375114B2 JP 6375114 B2 JP6375114 B2 JP 6375114B2 JP 2014001924 A JP2014001924 A JP 2014001924A JP 2014001924 A JP2014001924 A JP 2014001924A JP 6375114 B2 JP6375114 B2 JP 6375114B2
- Authority
- JP
- Japan
- Prior art keywords
- image data
- sub
- image
- unit
- block
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Television Signal Processing For Recording (AREA)
- Studio Devices (AREA)
Description
本発明は、画像再生装置とその制御方法に関する。 The present invention relates to an image reproduction device and a control method thereof.
一般的な電子カメラでは、撮影され取得された画像データは電子カメラ内のメモリカードなどの記録部に記録される。ユーザは、その画像データを任意に再生することで画像を鑑賞することができる。ユーザは、表示された画像を鑑賞するとき、画像に写されている人物などに興味が沸いても、その人物の詳しい情報すなわち、画像に対応する関連情報を鑑賞中に知ることは難しかった。 In a general electronic camera, captured and acquired image data is recorded in a recording unit such as a memory card in the electronic camera. The user can view the image by arbitrarily reproducing the image data. Even when a user is interested in a person or the like shown in the image when viewing the displayed image, it is difficult to know detailed information about the person, that is, related information corresponding to the image during viewing.
特許文献1の電子カメラは、被写体を撮影して一枚の画像データを取得する。そして、この電子カメラは、該画像データと、該画像データから読み取り可能であり該画像データ上の被写体に関連付けられた関連情報とを、それぞれ関連付けて記憶しておく。これにより、この電子カメラは、該画像データが表示された後、表示画面をタッチされると、画面内の被写体に応じた関連情報を表示することができる。
The electronic camera of
しかしながら、画像に単に文字情報が重ねられて表示されるすなわち、別の事象が突然に現れると、ユーザは不自然に感じることがある。 However, the user may feel unnatural if the text information is simply superimposed on the image, that is, if another event suddenly appears.
本発明では、関連情報である画像データを違和感なく再生可能な電子カメラを含む画像再生装置を提供する。 The present invention provides an image reproduction apparatus including an electronic camera that can reproduce image data as related information without a sense of incongruity.
本発明の一態様の画像再生装置は、第1の画像データを再生する再生部と、前記再生部に再生されている状態で前記第1の画像データの領域の位置を指定する指定部と、前記第1の画像データ内の領域の用途に応じた第2の画像データであって、前記第1の画像データの前記領域の用途ごとの特徴に応じた変化を表し、輝度の変化及びピント位置を含む複数の画像データを含む第2の画像データを読み出して、前記再生部の前記指定された前記領域の近傍位置に再生させる再生制御部とを具備する。 An image reproduction apparatus according to an aspect of the present invention includes a reproduction unit that reproduces first image data, a designation unit that designates the position of the region of the first image data while being reproduced by the reproduction unit, The second image data according to the use of the area in the first image data, and represents a change according to the feature of the area of the first image data for each use, and changes in brightness and focus position A reproduction control unit that reads out second image data including a plurality of image data including and reproduces the second image data at a position near the designated area of the reproduction unit.
本発明の画像再生装置では、ユーザは、ユーザが記録したい主画像データを見ているとき、主画像データ内の領域についての関連情報を見たくなった場合に、その領域を指定することで、該領域が関連情報の副画像データに違和感なく置き換えられた画像データを見ることができる。 In the image reproduction device of the present invention, when the user wants to see related information about the area in the main image data when the user is looking at the main image data that the user wants to record, by specifying the area, It is possible to see image data in which the area is replaced with the sub-image data of the related information without a sense of incongruity.
以下、本発明の一実施形態に係る撮像装置について、撮影し画像データを取得する撮影モードと、画像データを再生する再生モードとに分けて説明する。図1は、本発明の一実施形態に係る撮像装置の撮像機能を概念的に示す図である。撮像装置100は、撮像部111と、連続撮影部110とを有する。撮像部111は、被写体を撮影して被写体に係る画像データを取得する。連続撮影部110は、画像領域分類部112と、領域別撮影条件変更部113と、領域別再取得部114と、撮像結果関連付け記録部115とを有する。画像領域分類部112は、撮像部111により取得された画像データを複数のブロックに分割し、分割したブロック毎に再撮影を行うべきか否かを判定する。領域別撮影条件変更部113は、画像領域分類部112により分割された各ブロックの再撮影の条件を設定する。領域別再取得部114は、領域別撮影条件変更部113の設定を基に再撮影を行って画像データを再取得する。撮像結果関連付け記録部115は、再取得された画像データと、最初に取得された画像データとを関連付けて記録する。記録部115は、画像データを例えばJPEG形式などに圧縮する静止画用圧縮部若しくは、動画を例えばMPEG形式に圧縮する動画用の圧縮部を内蔵しても良い。
Hereinafter, an imaging apparatus according to an embodiment of the present invention will be described separately for a shooting mode for shooting and acquiring image data and a playback mode for playing back image data. FIG. 1 is a diagram conceptually illustrating an imaging function of an imaging apparatus according to an embodiment of the present invention. The
本発明の一実施形態に係る撮像装置の具体的な構成例を図2のブロック図に示す。図2の撮像装置100は、ネットワーク21を介してサーバ23に通信自在に接続されている。また、ネットワーク21には、スマートフォン(スマホ)22も通信自在に接続されている。スマホ22は、ネットワーク21を介して受信した画像データや音データなどを再生可能な携帯端末の一例である。
A specific configuration example of an imaging apparatus according to an embodiment of the present invention is shown in the block diagram of FIG. The
本発明の一実施形態において、再取得された画像データは、撮影時に取得される。しかしながら、撮影時に再取得された画像データに加えて、サーバ23やスマホ22を使用して外部から画像データ若しくはテキストデータなどの関連情報をさらに取得しても良い。また、後述する方位センサ7b若しくは場所検出部10などから取得された位置情報をさらに関連付けても良い。
In one embodiment of the present invention, the reacquired image data is acquired at the time of shooting. However, in addition to the image data re-acquired at the time of shooting, related information such as image data or text data may be further acquired from the outside using the
撮像装置100は、撮像部111と、制御部1と、表示部8と、タッチパネル8bと、記録部4と、操作判定部5と、通信部6と、アイセンサ3bと、接眼表示部3と、姿勢センサ7aと、方位センサ7bと、場所検出部10と、時計9とを有する。制御部1は、連続撮影部110と対応する機能を有し、撮影及び再生を制御する。表示部8は、画像データに基づく画像を表示する。タッチパネル8bは、タッチを検出して信号を出力する。記録部4は、画像データなどの各種データを記録する。操作判定部5は、撮像装置100を動作させるための操作を判定する。この操作は、例えば、表示部8に表示する画像の切り替え、モードの変更若しくは画像データの送受信などの操作に対応している。通信部6は、撮像装置100とサーバ23との間のデータの送受信を介する。アイセンサ3bは、接眼表示部3へのユーザの接眼状態を検出する。接眼表示部3は、接眼式のファインダ用の表示部である。姿勢センサ7aは例えば、撮像装置100の加速度を検出して撮像装置100の姿勢を検出する。方位センサ7bは、地磁気の方向に対する傾きから撮像装置100の方位を検出する。場所検出部10は、例えばGPSであり、撮影時の位置を検出する。時計9は時刻情報を算出する。
The
撮像部111は、被写体から発せられる光を入射させ像を結ばせるレンズ26と、レンズ26から入射した光を受光面で受けて、光を電気信号(アナログ信号)に変換する撮像素子2とを有する。
The
レンズ26は、図示しない被写体からの撮影光束を、撮像素子101bの受光面上に導くための光学系である。このレンズ26は、フォーカスレンズ等の複数のレンズを有している。撮像素子2は、多数の画素が配列されて構成される受光面を有し、レンズ26を介して受光した被写体からの像を電気的な信号に変換する。
The
表示部8は、例えば液晶ディスプレイ(LCD)又は有機ELディスプレイである。この表示部8は、撮像装置100の背面に設置され、画像データに基づいてライブビュー用の画像及び記録部4に記録された画像及び各種の情報を表示する。表示部8に表示される画像データは複数のブロックに分割される。本実施形態においては、ユーザは複数のブロックから注目するブロックを選別する。このとき、ブロックが可視化させていれば、ユーザは再撮影された画像データの表示の選択が容易になる。そのため例えば、ブロックの分割区画に対応する線を画像に重ねて表示させても良い。
The
タッチパネル8bは、表示部8の表示画面上に重なるように形成されており、表示画面上へのユーザの指等によるタッチを検出し、その検出結果を制御部1へ入力する。また、タッチパネルの各タッチ位置は表示部上の各表示位置に対応している。本実施形態においては例えば、タッチパネル8bがタッチされたとき、タッチ位置を含むブロックに対応した表示部8上の表示位置に再撮影された画像データなどを表示する。また、タッチパネル8bは、画像を分割したブロックを指定するための方法の一つであって、ブロックの指定は、タッチによって指定するタッチパネル8b以外の部材によってなされても良い。ブロックを指定するためのタッチパネル8bなどの部材を、指定部と呼ぶことにする。
The
制御部1は、ピントの位置を調節するか否かを判定するピント判定部1cと、被写体が特定の被写体であるか否かを判定する被写体判定部1hと、画像の陰影を判定する陰影判定部1bと、画像データを表示部8に表示させるための画像処理を制御する表示制御部1eと、画像領域分類部112と領域別撮影条件変更部113とに対応し、画像を複数のブロックに分割し、各ブロックへの関連情報の付与を制御する部位情報部1dと、被写体が動いたか否かを判定する動き判定部1fと、通信部6と外部とのデータの送受信を制御する通信制御部1gとを有する。
The
記録部4は、撮影で取得された画像データが保存された画像ファイルを記録する。また、記録部4は、サーバ23を含む外部から取得された画像データが記録されている接続先DB4bと、画像に表示される被写体の種類を特定するために参照される画像データが記録されている対象物DB4cとを有する。
The
サーバ23は、サーバ23が有する画像データを端末に送信したとき、画像データの送信先での表示を制御する表示制御部23bと、撮像装置100及びスマホ22などからアクセスされたことを判定するアクセス判定部23cと、撮像装置100から求められる画像データに関連する画像を選択する関連づけ部23dと、サーバ23内の画像を記録するサーバ記録部23eとを有する。
When the
撮影例を図3に示す。ユーザが図3に示されたシーンにおいて人物を撮影するとき、他の被写体も同時に画像に写りこむことがある。図3の例における他の被写体とは例えば、飛んでいる鳥Aと、留まっている鳥Bである。また、図3に示す暗い空間のように、画像上では被写体の状態が分からないような場合もある。撮影の結果、これらの被写体が写りこんだ図4に示すような画像が取得される。通常、人物に適したピントや露出で撮影が行われると、撮影後に得られる画像において他の被写体のピントや露出は適切なものではなくなる。例えば、鳥Bにはピントが合っていない。図4では、鳥Bのピントが合っていないことは点線で示されている。また、暗い空間内の露出は、その内部の花瓶が可視され難い程度になってしまう。ユーザは、ピントが合っていない被写体や露出が合っていない被写体が撮影後に気になったとしても、後から気になった被写体にピント及び露出を合わせて撮影するのは困難である。なお、図4の「だんだん露出」は、人物と室内の露出の変化を示す。しかしながら、撮像装置100は、人物の露出を変化させずに、室内の露出のみを変化させても良い。
An example of photographing is shown in FIG. When the user shoots a person in the scene shown in FIG. 3, other subjects may appear in the image at the same time. Other subjects in the example of FIG. 3 are, for example, a flying bird A and a standing bird B. Further, there may be a case where the state of the subject is not known on the image as in the dark space shown in FIG. As a result of photographing, an image as shown in FIG. 4 in which these subjects are reflected is acquired. Usually, when shooting is performed with focus and exposure suitable for a person, the focus and exposure of other subjects are not appropriate in an image obtained after shooting. For example, bird B is not in focus. In FIG. 4, the fact that the bird B is not in focus is indicated by a dotted line. Further, the exposure in the dark space is such that the vase inside the space is not easily visible. Even if a user is concerned about a subject that is out of focus or a subject whose exposure is not suitable after photographing, it is difficult for the user to photograph the subject concerned later in focus and exposure. Note that “gradual exposure” in FIG. 4 indicates changes in exposure between the person and the room. However, the
本発明の一実施形態では、ユーザが最初に気になった被写体を写した主画像と、その主画像内でユーザが気になると考えられる被写体の画像を関連情報として写した副画像とが取得される。本発明の一実施形態に係る撮像装置100は、被写体の動画の副画像、ピント補正された被写体の副画像及び適正な露出の被写体を示す副画像を取得することができる。
In one embodiment of the present invention, a main image that captures a subject that the user is first interested in and a sub-image that captures an image of the subject that the user is likely to be interested in as the relevant information in the main image are acquired. Is done. The
また、露出用の副画像データ若しくはピント変更用の副画像データを取得する際、撮像装置100は、露出を変化させていく過程若しくはピント位置を変更させていく過程で、複数枚の副画像データを主画像データの撮影後に取得しても良い。そして、主画像データのブロック(領域)内に副画像データを再生するとき、前記複数枚の副画像データを連続して再生しても良い。ユーザは、露出用若しくはピント変更用の複数枚の副画像データが連続して再生されていく過程を見ると、ユーザは、領域が少しずつ変化していく過程を見て次の変化に期待感を持つことができる。
Further, when acquiring the sub-image data for exposure or the sub-image data for changing the focus, the
撮像装置100の動作例を図5のフローチャートで説明する。制御部1は、撮影モードが選択されたか否かを判定する(ステップS201)。撮影モードが選択されなかったと判定するとき(ステップS201でNOのとき)、制御部1は、再生モードを選択する。一方、撮影モードが選択されたと判定するとき(ステップS201でYESのとき)、制御部1は、撮像部111に撮影を開始させまた、被写体の判定を開始する(ステップS202)。この被写体の判定は、後述する後で気になる部位判定に用いる。その後、制御部1は、後で気になる部位判定を図6に示すように行う(ステップS204)。
An example of the operation of the
後で気になる部位判定は、副画像データを取得すべきブロックの位置情報と、各ブロックで取得する副画像データの種類とを決定する処理である。後で気になる部位判定を図6を使用して説明する。図6(a)は動作例を示すフローチャートであり、図6(b)は副画像データを取得すべきブロックを示す。まず、部位情報部1dは、取得された画像データを複数のブロックに分割する(ステップS101)。本発明の一実施形態では、画像データを矩形の15個のブロックに図6(b)に示すように分割する。その後、部位情報部1dは、該画像データに対する副画像データを取得するか否かを判定するための情報を各ブロックから取得する(ステップS102)。該情報は例えば、ブロックの画像が、所定の画像データであるか否かの情報などである。次に、部位情報部1dは、所定露出よりもアンダー露出であるブロック若しくは所定露出よりもオーバー露出であるブロックがあるか否かを判定する(ステップS103)。少なくとも一つのブロックが、オーバーの露出であると判定するとき若しくは、アンダー露出であると判定するとき(ステップS103でYESのとき)、部位情報部1dは、オーバー露出若しくはアンダー露出であると判定されるブロックの位置情報と、このブロックについて後で取得される副画像が露出用として使用される旨を示す情報とを記録部4に記録する(ステップS106)。この情報は、後述する主画像データと副画像データとを関連付けるための情報である。ブロックの位置情報では例えば、図6(b)に示すように2行目のB列目のブロックをB2と呼称する。一方、A1からE3までのすべてのブロックが、オーバー露出若しくはアンダー露出ではなかったと判定するとき(ステップS103でNOのとき)又はステップS106の処理の後、部位情報部1dは、少なくとも一つのブロックが、被写体のピントがボケているブロックであるか否かを判定する(ステップS104)。被写体のピントがボケているブロックがあったと判定するとき(ステップS104でYESのとき)、部位情報部1dは、被写体のピントがボケているブロックの位置情報と、このブロックについて後で取得される副画像データがピント用として使用される旨を示す情報とを記録部4に記録する(ステップS107)。ステップS107の後若しくは、A1からE3までのすべてのブロックが、被写体のピントがボケていなかったと判定するとき(ステップS104でNOのとき)、部位情報部1dは、被写体が動いているブロックがあるか否かを判定する(ステップS105)。被写体が動いているか否かの判定は例えば、主画像の被写体と、その前後に撮影された画像の該被写体の形状の比較によってなされる。被写体が動いているブロックがあると判定するとき(ステップS105でYESのとき)、部位情報部1dは、被写体が動いているブロックの位置情報と、このブロックについて後で取得される副画像データが動画用として使用される旨を示す用途情報とを記録部4に記録する(ステップS108)。ステップ108の後若しくは、被写体が動いているブロックがなかったと判定するとき(ステップS105でNOのとき)、部位情報部1dは、後で気になる部位判定の処理を終了する。
The part determination to be worried later is a process of determining the position information of the block from which the sub image data is to be acquired and the type of sub image data to be acquired in each block. The part determination to be worried later will be described with reference to FIG. FIG. 6A is a flowchart showing an operation example, and FIG. 6B shows a block from which sub-image data is to be acquired. First, the part information unit 1d divides the acquired image data into a plurality of blocks (step S101). In one embodiment of the present invention, the image data is divided into 15 rectangular blocks as shown in FIG. Thereafter, the part information unit 1d acquires information for determining whether to acquire sub-image data for the image data from each block (step S102). The information is, for example, information on whether or not the image of the block is predetermined image data. Next, the part information unit 1d determines whether or not there is a block that is underexposed more than the predetermined exposure or a block that is overexposed than the predetermined exposure (step S103). When it is determined that at least one block is overexposed or underexposed (YES in step S103), the part information portion 1d is determined to be overexposed or underexposed. And the information indicating that a sub-image acquired later for this block is used for exposure is recorded in the recording unit 4 (step S106). This information is information for associating main image data and sub-image data described later. In the block position information, for example, as shown in FIG. 6B, the block in the Bth column of the second row is called B2. On the other hand, when it is determined that all the blocks A1 to E3 are not overexposed or underexposed (NO in step S103) or after the process of step S106, the part information unit 1d includes at least one block. Then, it is determined whether or not the subject is out of focus (step S104). When it is determined that there is a block in which the subject is out of focus (YES in step S104), the part information unit 1d is acquired later regarding the position information of the block in which the subject is out of focus and this block. Information indicating that the sub-image data is used for focusing is recorded in the recording unit 4 (step S107). After step S107 or when all the blocks from A1 to E3 determine that the subject is not out of focus (NO in step S104), the part information unit 1d includes a block in which the subject is moving. Whether or not (step S105). Whether or not the subject is moving is determined, for example, by comparing the shape of the subject of the main image and the shape of the subject of images taken before and after the subject. When it is determined that there is a block in which the subject is moving (YES in step S105), the part information unit 1d receives the position information of the block in which the subject is moving and the sub-image data acquired later for this block. Application information indicating that it is used for moving images is recorded in the recording unit 4 (step S108). After
前述の通り、撮像装置100は、時系列順に撮影された複数枚の副画像データを取得する。時系列順で撮影された複数枚の副画像データを再生することで、ユーザは、被写体のピントや露出がだんだん合う様子を見ることができる。撮像装置100は、時系列順に撮影された複数枚の副画像データを順次再生して、被写体がじわじわ遷移していく様子をユーザに示すことで、ユーザに期待感を伴わせることができる。一方、撮像装置100は、動画用の複数枚の副画像データを再生して、対象物の動きを表示する。さらに、撮像装置100は、動画用の副画像データを取得したブロックを目立たせるため情報を、副画像ファイルに記録しても良い。なお、撮像装置100は、副画像データを主画像データを取得する前に取得してもよい。この副画像データは、第2の画像データに対応している。撮像装置100は、後で気になる部位判定の結果に応じて、ピント変更用副画像データ、露出用副画像データ若しくは動画用の副画像データを取得する。また、1ブロックで取得した複数枚の副画像データを圧縮するか否かの判定をさらに行っても良い。
As described above, the
ところで、図5において、制御部1は、動画用ブロックが、後で気になる部位判定で取得した各情報を参照した結果あるか否かを判定する(ステップS205)。動画用ブロックがなかったと判定するとき(ステップS205でNOのとき)、制御部1は、主画像データを撮影するか否かを判定する(ステップS211)。主画像データは、副画像データが関連付けられる画像データであって、ユーザが意図して取得しようとしている画像データである。主画像データを撮影しないと判定するとき(ステップS211でNOのとき)、例えばレリーズ操作が所定時間なされなかったとき、制御部1は、処理をステップS201に戻す。一方、主画像データを撮影すると判定するとき(ステップS211でYESのとき)、制御部1は、主画像データを撮影する(ステップS212)。その後、制御部1は、で気になる部位判定で取得した各情報を参照し、副画像データを取得するブロックがあるか否かを判定する(ステップS213)。すなわち、副画像データを取得するブロックは、動画用、露出用及びピント用である。副画像データを取得するブロックがなかったと判定するとき(ステップS213でNOのとき)、制御部1は、主画像データを主画像ファイルとして記録部4に記録する。その後、制御部1は、処理をステップS201に戻す(ステップS214)。
By the way, in FIG. 5, the
ところで、動画用ブロックがあると判定するとき(ステップS205でYESのとき)、制御部1は、該ブロックにおいて、主画像データの取得前に取得された画像データを動画用副画像データとして記録する(ステップS206)。その後、制御部1は、処理をステップS211に移行させる。
When it is determined that there is a moving image block (YES in step S205), the
ところで、副画像データを取得するブロックがあると判定するとき(ステップS213でYESのとき)、制御部1は、まず、動画用ブロックがあるか否かを判定する(ステップS221)。ステップ221において、動画用ブロックとして判定された場合、主画像データの取得後の画像データが、動画用副画像データとして取得される。動画用ブロックがあったと判定するとき(ステップS221でYESのとき)、制御部1は、該ブロックの画像データを動画用副画像データとして所定時間取得する(ステップS222)。
By the way, when it is determined that there is a block from which sub-image data is acquired (YES in step S213), the
動画用副画像データの取得について図7及び図8を使用してさらに説明する。図7(a)は、主画像データ内の動画用ブロックを示す。すなわち、飛んでいる鳥Aが含まれているブロックA1及びB1が、動画用副画像データを取得するブロックである。各ブロックにおける動画用副画像データの取得のタイミングチャート例を図8に示す。横軸方向は時間経過であって、T1、T2、T3・・・というタイミングで、副画像データの像1、像2、像3・・・が取得される。まず、図7(b)のブロックB1に鳥Aが含まれているので、主画像データのブロックB1を動画用の副画像データに置き換えるための副画像データを取得する。時間が進むと、図7(b)に示すように、ブロックB1及びA1に鳥Aが含まれる。したがって、図8(a)に示すようにブロックB1及びブロックA1の動画用の副画像データを同時のタイミングで取得する。その後、ブロックA1のみに鳥Aが含まれているので、ブロックA1の動画用の副画像データのみが取得される。ここで、図8(a)は、鳥Aが含まれている動画用の副画像データだけが取得される例を示している。これに対し、図8(b)のように鳥Aが含まれているブロックの周辺のブロックも動画用の動画像データとして取得しても良い。
The acquisition of moving image sub-image data will be further described with reference to FIGS. FIG. 7A shows a moving image block in the main image data. That is, the blocks A1 and B1 including the flying bird A are blocks for acquiring moving image sub-image data. FIG. 8 shows an example of a timing chart for obtaining moving image sub-image data in each block. In the horizontal axis direction, time elapses, and
ところで、動画用ブロックがなかったと判定するとき(ステップS221でNOのとき)、制御部1は、動画用の副画像データを取得しない。そして、動画用の副画像データを取得した後若しくは、動画用の副画像データを取得するブロックがなかったと判定するとき(ステップS221でNOのとき)、制御部1は、後で気になる部位判定で取得した各情報を参照し、露出用のブロックがあるか否かを判定する(ステップS223)。露出用のブロックがあると判定するとき(ステップS223でYESのとき)、制御部1は、露出用の副画像データを取得する(ステップS224)。
Incidentally, when it is determined that there is no moving image block (NO in step S221), the
ここで、露出用の副画像データ、まず、アンダー露出用の副画像データの取得例について、図9及び図10を使用して説明する。図9(a)は、主画像データ内のアンダー露出用のブロックを示す。すなわち、暗い空間が表示されているブロックD1、D2及びD3が、アンダー露出用画像データを取得するブロックである。アンダー露出を補正したブロックは例えば、同一ブロックについて撮影された複数の副画像データを重ねて輝度を上げることで取得される。各ブロックにおけるアンダー露出用の副画像データの取得のタイミングチャート例を図10に示す。図10の上部では、横軸は、露出用の副画像データ取得のタイミングを示しており、縦軸は、重ね合わせ前の副画像データの輝度を表す。一方、図10の下部は、重ね合わせ後の副画像データの輝度を表す。すなわち、重ね合わせる副画像データの数が多くなるほど、副画像データの輝度が上がる。例えば、副画像データの図9(b)の像1及び図9(c)の像2が重ねられることで、図9(d)の像1+像2のような露出が補正された副画像データが取得される。なお、副画像データの重ね合わせの場合、露出はオーバーに補正される。これに対し、露出がオーバーなブロックの輝度を下げる場合例えば、図1に示すブロック図にアンプをさらに追加して、そのアンプによって輝度を下げるようにしても良い。
Here, an example of acquiring sub-image data for exposure, first, sub-image data for under-exposure will be described with reference to FIGS. FIG. 9A shows a block for underexposure in main image data. That is, the blocks D1, D2, and D3 in which the dark space is displayed are blocks that acquire the underexposure image data. A block in which underexposure is corrected is acquired by, for example, overlapping a plurality of sub-image data photographed for the same block to increase the luminance. FIG. 10 shows an example of a timing chart for acquiring under-exposure sub-image data in each block. In the upper part of FIG. 10, the horizontal axis indicates the timing of acquiring the sub image data for exposure, and the vertical axis indicates the luminance of the sub image data before superimposition. On the other hand, the lower part of FIG. 10 represents the luminance of the sub-image data after superposition. That is, the luminance of the sub image data increases as the number of sub image data to be superimposed increases. For example, the sub-image data in which the exposure is corrected such as the
ところで、露出用の副画像データを取得した後又は、露出用ブロックがなかったと判定されるとき、制御部1は、後で気になる部位判定によって記録された各情報を参照して、ピント変更用のブロックがあるか否かを判定する(ステップS225)。ピント変更用のブロックがあると判定するとき(ステップS226でYESのとき)、制御部1は、ブロック内のピント位置を変えながら撮影を行い、その撮影で取得したピント変更用の副画像データを記録する(ステップS226)。
By the way, after acquiring the sub-image data for exposure or when it is determined that there is no exposure block, the
ここで、ピント変更用の副画像データの取得例について図11及び図12を使用してさらに説明する。図11(a)は、主画像データ内のピント変更用のブロックを示す。すなわち、鳥Bが表示されているブロックB2及びB3が、ピント変更用副画像データを取得するブロックである。図11(b)、(c)及び(d)は、ピントを変更して取得した各ブロックの画像データを示す。各ブロックにおけるピント変更用の副画像データの取得のタイミングチャート例を図12に示す。 Here, an example of acquiring sub-image data for focus change will be further described with reference to FIGS. FIG. 11A shows a focus change block in the main image data. That is, the blocks B2 and B3 in which the bird B is displayed are blocks for acquiring the focus change sub-image data. FIGS. 11B, 11C, and 11D show image data of each block acquired by changing the focus. An example of a timing chart for acquiring sub-image data for focus change in each block is shown in FIG.
ところで、ピント変更用副画像データの取得が行われた後(ステップS226)若しくは、ピント変更用ブロックがなかったと判定するとき(ステップS225でNOのとき)、制御部1は、主画像データを主画像ファイル化する。主画像ファイルの構成例を図13(a)に示す。主画像ファイルには、主画像データと、部位別タグ情報と、部位情報とが格納されている。部位別タグ情報は、各ブロックと、各ブロックに再生する副画像データの種類とを対応付ける情報である。例えば、主画像データのブロックA1は、動画用の副画像データと対応付けられている。対応付ける副画像データの種類は複数であっても良い。部位情報は、後で気になる部位判定で分割された主画像データの各ブロックが、どのような大きさのブロックであるかを示す情報である。例えば、ブロックA1は、主画像データを横方向に5分割し、縦方向に3分割したときの一ブロックである。それぞれのブロックの大きさは、被写体の大きさなどに応じて非画一であっても良い。撮像装置100は、副画像は、ブロックのみを記録しても良いし、複数のブロック例えばすべてのブロックを含む一画面を記録してもよい。撮像装置100は、一ブロックに一画面の副画像データを再生するとき、一画面の副画像データから任意のブロックを切り取って、切り取られたブロックを再生しても良い。
By the way, after the focus change sub-image data is acquired (step S226) or when it is determined that there is no focus change block (NO in step S225), the
主画像データを主画像ファイル化した後(ステップS227)、制御部1は、副画像データを副画像ファイルとして記録部4に記録する(ステップS228)。副画像ファイルには、副画像データと、タグ情報とが保存されている。タグ情報は、主画像データのブロックと副画像データとを関連付けるための情報である。図13(b)は、副画像ファイルの構成例である。図13(b)に示す副画像ファイルk及び副画像ファイルlは、副画像データと、タグ情報とを格納している。副画像ファイルkのタグ情報は、副画像データkが対応する主画像データの名称及びその主画像データのブロックと、副画像データを再生するタイミングと、副画像データの用途とに関する情報を有する。例えば、副画像データkは、タグ情報に示されるように図13(a)の主画像データimg1のブロックB1に対応している。主画像データimg1のブロックB1の副画像データkを再生するとき、副画像データkは、図8(a)に示すタイミングT1すなわち、動画再生の最初に再生される。一方、副画像ファイルlの副画像データlにおいて、用途情報は、副画像データが露出用であることを示す。また、タイミング情報は、主画像データimg1のブロックD2にT1のタイミングで再生されることを示す。なお、副画像ファイルには、複数対の副画像データ及びタグ情報を格納しても良い。例えば、複数の動画の副画像及びタグ情報が、副画像ファイルとしてまとめられて扱われることで、ユーザは、動画の副画像ファイルを管理しやすくなる。
After main image data is converted into a main image file (step S227), the
以上、本発明の一実施形態における撮像装置100の撮影モードでは、ユーザが求める主画像データと、主画像データの撮影時の関連情報を示す副画像データとを取得し、それぞれの画像データを関連付けて記録する。副画像データは、動画用途、露出用途若しくはピント変更用途として、主画像データの撮影前後に取得される。ユーザは、主画像データの撮影操作のみによって、主画像データの取得時の関連情報を容易に取得することができる。
As described above, in the shooting mode of the
また、副画像データの取得の判定は、一枚の主画像データからなされても良いし、時系列順に取得された複数の画像データの比較によってなされても良い。また、撮像装置100は、隣り合うブロックの画像データを比較して判定しても良い。
Also, the sub image data acquisition determination may be made from a single piece of main image data, or may be made by comparing a plurality of image data acquired in chronological order. Further, the
また、撮像装置100は、主画像データの露出量やコントラスト量などの要素を判定して、露出用副画像データやピント変更用副画像データの取得を判定する。上述の判定も、一枚の主画像データ若しくは時系列順に取得された複数の画像データの比較のいずれで成されても良い。判定の要素は、露出量やコントラスト量に限らず、各部位の距離情報の差異や被写界深度の情報でも良い。
Further, the
撮像装置100は、ピント変更用の画像データを取得すると判定するとき、ブロックの画像データのコントラスト量に応じたAF(オートフォーカス)、例えば山登りAF(オートフォーカス)を行って、ピント変更用の副画像データを取得する。
When the
また、本発明の一実施形態に係る主画像データは、15分割された単純な四辺形のブロックを結合して構成されている。しかしながら、主画像データは、より細かなブロックに分割され、それらのブロックが結合されたものであっても良い。若しくは、主画像データは、1ブロックであっても良い。また、主画像データは、四辺形のブロックを結合した円形若しくは楕円形であっても良い。また、主画像データを構成するブロックの形状は、四辺形に限らず例えば、別の多角形若しくは被写体の形状のような主画像データ内の特定の領域であってもよい。例えば、ブロックの形状は、人物や鳥の輪郭の形状であっても良い。そして、人物や鳥の輪郭の形状の露出用途若しくはピント変更用途などの副画像データが取得されても良い。ただし、輪郭の検出することは困難であるため、例えば、ブロックの形状は、人物や鳥の輪郭に近似した楕円形であればよい。すなわち、ブロックは四辺形に限らない形状を有して良いので、ブロックを特定の領域と呼称する。 The main image data according to the embodiment of the present invention is configured by combining simple quadrilateral blocks divided into 15 parts. However, the main image data may be divided into smaller blocks and those blocks may be combined. Alternatively, the main image data may be one block. The main image data may be a circle or an ellipse obtained by combining quadrilateral blocks. Further, the shape of the blocks constituting the main image data is not limited to a quadrilateral, and may be a specific area in the main image data such as another polygon or the shape of a subject. For example, the shape of the block may be a contour shape of a person or a bird. Then, sub-image data such as an exposure application or a focus change application for the contour shape of a person or a bird may be acquired. However, since it is difficult to detect the contour, for example, the shape of the block may be an ellipse that approximates the contour of a person or a bird. That is, since the block may have a shape that is not limited to a quadrilateral, the block is referred to as a specific area.
また、副画像データは、特定の領域のみを取得して記録しても良いし、画像データを特定の領域だけを選ばずに副画像データとして記録しても良い。また、副画像データは、副画像データと主画像データを関連付けるタグ情報と共に、副画像ファイルに格納される。本発明の一実施形態に係る撮像装置100は、タグ情報を読み込むことで、ピント変更用、露出用、動画用のいずれかの副画像データを特定の領域に再生する。再生の例として、ピント用副画像データが再生されると、ユーザはピントの変化を副画像データの取得時の時系列順に動的に見ることができる。若しくは、露出用副画像データが再生されると、ユーザは露出の変化を副画像データの取得時の時系列順に動的に見ることができる。なお、複数枚から成る副画像データは、時系列順に再生されなくとも良い。撮像装置100は、時系列順ではない再生を行うための情報をタグ情報に記録しても良い。また、撮像装置100は、複数枚の副画像データをスロー再生させるための情報をタグ情報に記録しても良い。また、撮像装置100は、動画用副画像データ、露出用副画像データ、ピント変更用副画像データだけでなく、他のパラメータに対応する副画像データを取得しても良い。当然ながら、撮像装置100は、主画像データの再生時に、特定の領域を指定されたとき、該特定の領域に応じた副画像データを取得しても良い。撮像装置100は、該副画像データの取得後、該主画像データの再生中に特定の領域に副画像データを再生しても良い。
The sub image data may be acquired and recorded only in a specific area, or the image data may be recorded as sub image data without selecting only the specific area. The sub image data is stored in the sub image file together with tag information for associating the sub image data with the main image data. The
次に、本発明の一実施形態に係る撮像装置100の再生機能ついて図14及び図15を使用して説明する。再生モードでは、主画像のブロックの位置のタッチ操作によって、ユーザは、そのブロックに再生される副画像データを見ることができる。
Next, the playback function of the
図14は、本発明の一実施形態に係る撮像装置の再生機能を概念的に示す図である。本発明の第1の実施形態に係る再生装置を備える撮像装置100は、撮像部111と、連写結果記録部116と、指定部120と、再生制御部130と、再生部121とを有する。撮像部111は、被写体を撮影し画像データを取得する。連写結果記録部116は、複数の画像データ及び複数の画像データを関連付けるための情報を記録する。指定部120は、主画像データを分割して形成された複数のブロックから所定のブロックを指定する。再生制御部130は、制御部1に対応しており、画像領域分類部112と、領域特定部117と、再生方法変更部118と、取捨選択部119とを有する。画像領域分類部112は、部位情報部1dに対応し、連写結果記録部116から主画像データを読み出して複数のブロックに分割し、各ブロックに関連付けられている副画像データがあるか否かを判定する。領域特定部117は、表示制御部1eと対応しており、指定部120に指定されたブロックの位置を切り出す。再生方法変更部118は、部位情報部1dに対応しており、切り出されたブロックの位置に再生する撮影条件(用途)の副画像データを選択する。取捨選択部119は、表示制御部1eに対応しており、再生方法変更部118に選択された撮影条件の副画像データを連写結果記録部116から読み出して、第2の画像データを再生部121に出力する。再生部121は、表示部8に対応しており、画像データを再生し、画像を表示する。
FIG. 14 is a diagram conceptually showing the reproduction function of the imaging apparatus according to the embodiment of the present invention. The
次に、本発明の一実施形態に係る撮像装置の再生モードの動作例を図15で説明する。まず、制御部1は、記録部4に記録されている複数の図13(a)に示す主画像ファイルを読み込んで、複数の主画像データを表示部8に一覧させるように再生する(ステップS301)。その後、制御部1は、タッチパネル8bへのタッチの検出によって再生する主画像データを判定し、タッチ位置に応じた主画像データを再生する(ステップS302)。その後、制御部1は、再生されている主画像データへのタッチが検出されたか否かを判定する(ステップS303)。再生されている主画像データへのタッチが検出されなかったと判定するとき(ステップS303でNOのとき)、制御部1は、操作判定部5への操作を検出したときに、表示部8に表示する画像の切り替え操作、モードの変更操作若しくは画像データの送受信操作などを行う(ステップS315)。一方、再生されている主画像データへのタッチが検出されたと判定するとき(ステップS303でYESのとき)、制御部1は、主画像ファイルの部位別タグ情報に基づいて、主画像データを複数のブロックに分割する。制御部1は、部位別タグ情報から、ステップS303でタッチが検出された主画像データの位置が、動画用の副画像データと関連付けられているか否かを判定する(ステップS304)。ステップS303でタッチが検出された主画像データの位置例えばブロックB1が、動画用の副画像データと関連付けられていると判定するとき(ステップS304でYESのとき)、制御部1は、図13(b)の副画像ファイルkを読み込んだ後、タッチが検出された位置のブロックB1を切り取って、切り取られたブロックB1に副画像データkを再生する(ステップS311)。この副画像データkの再生のタイミングは、副画像ファイルkのタイミング情報T1である。なお、制御部1は、主画像データを切り取らずに、主画像データのレイヤに副画像データのレイヤを重ねて再生しても良い。なお、撮像装置100は、主画像データのブロックに表示されている被写体が人や動物であることを検出して、ブロックに人や動物の動画用副画像データを再生しても良い。
Next, an operation example of the playback mode of the imaging apparatus according to the embodiment of the present invention will be described with reference to FIG. First, the
また、本発明の一実施形態では、撮像装置100は、撮影時に「あとで気になる部位判定」を行ったが、撮影時に「あとで気になる部位判定」を行わなくても良い。例えば、撮像装置100は、撮影時に、ブロック毎に様々なパラメータの副画像データを、ブロック毎に「あとで気になる部位判定」を行うことなく取得する。そして、副画像データを再生するときに、ユーザの意向に沿った(暗い画像が明るくなる、ピンぼけしているブロックにピントが合う)副画像データを判定して、該副画像データを再生しても良い。ユーザの意向に沿った副画像データであるか否かの判定は例えば、タッチされたブロックの画像の特徴の判定である。また、複数枚の画像データを有する副画像データを動画圧縮すれば、副画像ファイルを記録する記録部4の容量を減らすことができる。
Further, in the embodiment of the present invention, the
一方、ステップS303でタッチが検出された主画像データの位置が、動画用の副画像データと関連付けられていないと判定するとき(ステップS304でNOのとき)、制御部1は、タッチが検出された主画像データの位置が、露出用の副画像データと関連付けられているか否かを判定する(ステップS305)。タッチが検出された主画像データの位置例えばブロックD2が、露出用の副画像データと関連付けられていると判定するとき(ステップS305でYESのとき)、制御部1は、図13(b)の副画像ファイルlを読み込んだ後、ブロックD2を切り取って、切り取られたブロックD2に副画像データlを再生する(ステップS312)。副画像データlの再生のタイミングは、副画像データlのタイミング情報T1である。
On the other hand, when it is determined that the position of the main image data where the touch is detected in step S303 is not associated with the sub image data for moving images (NO in step S304), the
本発明の一実施形態では、「後で気になる部位判定」を撮影時に行った。しかしながら、撮影時に「後で気になる部位判定」を行わなくても良い。すなわち、撮像装置100は、撮影時に、各パラメータに応じた副画像データをすべてのブロックに対して取得する。そして、再生時に、ブロックに再生する副画像データを判定して、その判定に応じた副画像データをブロックに再生しても良い。その判定では、撮像装置100は、ブロックへのタッチを検出して、タッチされたブロックの明るさを判定して、タッチされたブロックの画像が暗いと判定するときに露出用の副画像データをそのブロックに再生する。なお、撮像装置100は、露出用の副画像データを、例えば図9に示すように複数画像を加算して取得する。また、撮像装置100は、副画像データを圧縮して記録しても良いし、圧縮しなくとも良い。
In one embodiment of the present invention, “determining a part to be worried later” is performed at the time of imaging. However, it is not necessary to perform “determination of parts to be worried later” at the time of imaging. That is, the
ところで、副画像データlが再生された後若しくは、タッチが検出された主画像データの位置が、露出用の副画像データと関連付けられていなかったと判定するとき(ステップS305でNOのとき)、制御部1は、タッチが検出された主画像データの位置が、ピント変更用の副画像データと関連付けられているか否かを判定する(ステップS306)。タッチが検出された主画像データの位置が、ピント変更用の副画像データと関連付けられていると判定するとき(ステップS306でYESのとき)、制御部1は、図示しないピント変更用の副画像データを読み込んだ後、タッチが検出された主画像データのブロックを切り取って、切り取られたブロックにピント変更用の副画像データを再生する(ステップS313)。本発明の一実施形態に係る撮像装置100は、「後で気になる部位判定」を撮影時に行ったが、撮影時に「後で気になる部位判定」を行わなくても良い。すなわち、撮像装置100は、撮影時に、各パラメータに応じた副画像データをすべてのブロックに対して取得する。そして、再生時に、ブロックに再生する副画像データの判定を行い、その判定に応じた副画像データをブロックに再生しても良い。その判定では例えば、撮像装置100は、タッチされたブロックのピントを判定して、タッチされたブロックのピントがぼけていると判定するときに、ピント変更用の副画像データをそのブロックに再生する。また、撮像装置100は、副画像データを圧縮して記録しても良いし、圧縮しなくとも良い。
一方、ピント変更用の副画像データが再生された後若しくは、タッチが検出された主画像データの位置が、ピント変更用の副画像データと関連付けられていなかったと判定するとき(ステップS306でNOのとき)、再生制御部130は、該位置に主画像データを再生する(ステップS314)。
By the way, after the sub-image data l is reproduced or when it is determined that the position of the main image data where the touch is detected is not associated with the sub-image data for exposure (NO in step S305), the control is performed. The
On the other hand, after the sub image data for focus change is reproduced or when it is determined that the position of the main image data where the touch is detected is not associated with the sub image data for focus change (NO in step S306). ), The
以上、本発明の一実施形態にかかる撮像装置100の再生モードでは、主画像データと、前記主画像データと関連付けられている副画像データとを再生する。ユーザは、再生される主画像データへのタッチによって主画像データの位置を指定すると、主画像データの取得時の関連情報を容易に見ることができる。
As described above, in the reproduction mode of the
本発明の一実施形態に係る撮像装置100において、指定部121による指定(タッチ操作に限らず、カーソルでの指定などでも良い)が再生部121に対してなされたことを検出したとき、再生制御部130は、再生部121内の指定された特定の領域に対応する副画像データを選択して、該副画像データから適切な画像データ(コマ)を読み出して、再生部121の指定された領域近傍の位置に順次再生させる。ユーザは、ユーザが記録したい主画像データを見ているとき、主画像データ内の領域についての関連情報を見たくなった場合に、その領域を指定することで、該領域が関連情報の副画像データ(ピント変更用、露出用、動画用)に違和感なく置き換えられた画像データを見ることができる。
In the
撮像装置100は、複数枚の副画像データをスロー再生させても良い。再生される主画像データの特定の領域において、ピントや露出がゆっくりと変化していく様子を見て、ユーザは、次の変化に期待感を有する。また、スロー再生によって、撮像装置100は、趣意に富んだ表現が可能となる。例えば、撮像装置100は、ピント変更用副画像データと露出用副画像データとを入り混じりながら再生して、最後に最適な露出用副画像データを再生するといった趣向を凝らした表現を行っても良い。
The
次に、本発明の位置実施形態に係る撮像装置100の撮影モード及び再生モードの変形例を図16、図17及び図18を使用して説明する。変形例における副画像データの大きさは、主画像データと同じ大きさである。なお、撮影モード及び再生モードの構成は、図1、図2及び図14に示す構成例と同一である。
Next, modified examples of the shooting mode and the playback mode of the
変形例の撮影モードの動作例を図16で説明する。撮影モードが選択され(ステップS201)、撮像部111による撮影が開始された後(ステップS202)、制御部1は、動画用の副画像データを仮記録する(ステップS406)。ここで、変形例における副画像データは、一実施形態とは異なり、画角内の位置及び大きさを限定せずに撮影される。その後、制御部1は、撮影するか否かを判定する(ステップS211)。撮影すると判定するとき(ステップS211でYESのとき)、制御部1は、撮影し主画像データを取得する(ステップS212)。その後、制御部1は、動画用の副画像データを取得する(ステップS422)。その後、制御部1は、露出用の副画像データを取得する(ステップS424)。その後、制御部1は、ピント変更用の複数の副画像データを取得する(ステップS426)。その後、主画像データを主画像ファイルとして記録する(ステップS227)。その後、制御部1は、副画像データを副画像ファイルとして記録する(ステップS228)。
An operation example of the photographing mode of the modification will be described with reference to FIG. After the shooting mode is selected (step S201) and shooting by the
以上、図16に示した変形例における撮影の動作例では、全画角の副画像データを記録するので、画像データの取得時において後で気になる部位判定が行われない。すなわち、主画像データに対応する副画像データの位置及び大きさは、撮影モードで決定されない。 As described above, in the example of the photographing operation in the modification shown in FIG. 16, the sub-image data of all the angles of view is recorded, so that the part determination that will be of concern later is not performed when the image data is acquired. That is, the position and size of the sub image data corresponding to the main image data are not determined in the shooting mode.
主画像データに対応する副画像データの位置及び大きさは、再生モードで決定される。そこで、変形例の再生モードの動作例を図17で説明する。 The position and size of the sub image data corresponding to the main image data are determined in the reproduction mode. An example of the operation in the reproduction mode of the modification will be described with reference to FIG.
記録部4に記録されている主画像ファイルが読み込まれて、主画像データが表示部8に再生され(ステップS301)、制御部1、選択された主画像データを再生する(ステップS302)。その後、制御部1は、後で気になる部位判定を行う(ステップS204)。変形例では、再生モードにおいて、後で気になる部位判定により、主画像データの位置と、副画像データとが対応付けられる。変形例では、副画像データが再生される位置、大きさ、形状などを、15個のブロックに分割した場合として説明する。当然ながら、副画像データの形状は、被写体を型取った形状であっても良い。したがって、主画像ファイルと副画像ファイルに格納される各情報は、変形例では、後で気になる部位判定の判定に基づいて主画像ファイルの部位別タグ情報と副画像ファイルの部位情報及び候補用途情報を更新される。
The main image file recorded in the
変形例における主画像ファイル及び副画像ファイルの図18に示す構成例は、図13に示す構成例と同一である。例えば、図13では、副画像ファイルmのタグ情報は、副画像データmが対応する主画像データの情報と、副画像データmのT1のタイミングでの再生を示すタイミング情報と、副画像データmが動画用かつ露出用の候補用途であることを示す情報とを有する。 The configuration example shown in FIG. 18 of the main image file and sub-image file in the modification is the same as the configuration example shown in FIG. For example, in FIG. 13, the tag information of the sub-image file m includes main image data information corresponding to the sub-image data m, timing information indicating reproduction of the sub-image data m at the timing T1, and sub-image data m. Has information indicating that it is a candidate use for moving images and exposure.
副画像ファイルnのタグ情報は、副画像データnが対応する主画像データの情報と、副画像データnがT8のタイミングで再生されるタイミング情報と、副画像データnがピント変更用である候補用途の情報とを有する。 The tag information of the sub-image file n includes information on the main image data corresponding to the sub-image data n, timing information for reproducing the sub-image data n at the timing T8, and candidates for sub-image data n for changing the focus. Application information.
ところで、後で気になる部位判定が行われた後(ステップS204)、再生制御部130は、主画像へタッチが検出されたか否かを判定する(ステップS303)。主画像へのタッチが検出されたと判定するとき(ステップS303でYESのとき)、再生制御部130は、画像領域分類部112によって、タッチが検出された主画像データの位置が、動画用の副画像データと関連付けられているか否かを判定する(ステップS304)。タッチされた主画像データの位置が、動画用の副画像データと関連付けられていると判定するとき(ステップS304でYESのとき)、再生制御部130は、動画用の副画像データを、タッチされた位置のブロックの大きさに対応するように切り取って、切り取られた副画像データを主画像データのブロックに重ねてタイミング順に再生する(ステップS511)。
By the way, after the part determination to be worried later is performed (step S204), the
一方、動画用の副画像データが再生されたあと若しくは、タッチが検出された主画像データの位置が、動画用の副画像データと関連付けられていなかったと判定するとき(ステップS304でNOのとき)、再生制御部130は、タッチが検出されたブロックの位置が、露出用の副画像データと関連付けられているか否かを判定する(ステップS305)。タッチが検出された主画像データの位置が、露出補正された副画像データに関連付けられていると判定するとき(ステップS305でYESのとき)、再生制御部130は、露出用の副画像データを、タッチされた主画像の大きさに対応するように切り取って、切り取られた副画像データを主画像データのブロックに重ねてタイミング順に再生する(ステップS512)。一方、露出用の副画像データが再生された後若しくは、タッチされた主画像データのブロックの位置が露出用の副画像データと関連付けられていなかったと判定するとき(ステップS305でNOのとき)、再生制御部130は、タッチされた主画像データの位置がピント用の副画像データと関連付けられているか否かを判定する(ステップS306)。タッチされた主画像データの位置が、ピント用の副画像データと関連付けられていると判定するとき(ステップS306でYESのとき)、再生制御部130は、ピント用の副画像データを、タッチされた主画像のブロックの大きさに対応するように切り取って、切り取られた副画像データを主画像データのブロックに重ねて再生する(ステップS513)。
On the other hand, after the sub image data for moving images is reproduced or when it is determined that the position of the main image data where the touch is detected is not associated with the sub image data for moving images (NO in step S304). The
以上、図17に示した変形例における再生の動作例では、主画像データの位置と、その位置に対応する副画像データの判定が行われる。再生部121へのタッチにより、副画像データが対応している主画像データの位置が選択されたとき、副画像データは、主画像ファイルと副画像ファイルとに格納されている各情報に基づいて、選択された位置に所定の大きさに切り取られて再生される。
As described above, in the reproduction operation example in the modification shown in FIG. 17, the position of the main image data and the sub image data corresponding to the position are determined. When the position of the main image data corresponding to the sub image data is selected by touching the
以上、本発明の一実施形態の変形例では、撮影モードにおいて、主画像データと、主画像データと同じ大きさの副画像データとが取得される。そして、再生モードにおいて、主画像データの位置と、副画像データとを関連付ける情報が取得される。その情報は、主画像ファイル及び副画像ファイルに格納される。 As described above, in the modification of the embodiment of the present invention, the main image data and the sub image data having the same size as the main image data are acquired in the shooting mode. In the reproduction mode, information that associates the position of the main image data with the sub image data is acquired. The information is stored in the main image file and the sub image file.
なお、副画像の表示は、主画像に重ねて表示しても良いし、主画像のブロックを切り取って、副画像と置き換えても良い。また、本発明の一実施形態では、副画像データとして動画、露出若しくはピントを補正した画像データを例とした。しかしながら、ユーザが後から見たい副画像データはこれらに限らず例えば、ブロックを光学ズームした副画像データであっても良い。ブロック内を光学ズームで拡大した副画像データを取得しておく。ブロックがタッチされたとき、そのブロックにその副画像データを再生することで、より高解像度の拡大画像をユーザに示すことができる。 The display of the sub image may be displayed so as to overlap the main image, or a block of the main image may be cut out and replaced with the sub image. In one embodiment of the present invention, image data obtained by correcting moving image, exposure, or focus is taken as an example of sub-image data. However, the sub-image data that the user wants to see later is not limited thereto, and may be sub-image data obtained by optically zooming the block. Sub-image data obtained by enlarging the inside of the block with optical zoom is acquired. When a block is touched, the sub-image data is reproduced in the block, so that an enlarged image with higher resolution can be shown to the user.
加えて、上述した一実施形態における撮像装置による各処理の手法、すなわち、各フローチャートに示す処理は、何れも制御部1に実行させることができるプログラムとして記憶される。このプログラムは、メモリカード(ROMカード、RAMカード等)、磁気ディスク(フロッピー(登録商標)ディスク、ハードディスク等)、光ディスク(CD−ROM、DVD等)、半導体メモリ等の外部記憶装置の記憶媒体に記憶されたプログラムを読み込み、この読み込んだプログラムによって動作が制御されることにより、上述した処理を実行することができる。
In addition, each processing method performed by the imaging apparatus according to the above-described embodiment, that is, the processing illustrated in each flowchart is stored as a program that can be executed by the
1…制御部、 1b…陰影判定部、 1c…ピント判定部、 1d…部位情報部、 1e…表示制御部、 1f…動き判定部、 1g…通信制御部、 1h…被写体判定部、 2…撮像素子、 3…接眼表示部、 3b…アイセンサ、 4…記録部、 4b…接続先DB、 4c…対象物DB、 5…操作判定部、 6…通信部、 7a…姿勢センサ、 7b…方位センサ、 8…表示部、 8b…タッチパネル、 9…時計、 10…場所検出部、 21…ネットワーク、 22…スマホ、 23…サーバ、 23b…表示制御部、 23c…アクセス判定部、 23d…関連付け部、 23e…サーバ記録部、 26…レンズ、 100…撮像装置、 110…連続撮影部、 111…撮像部、 112…画像領域分類部、 113…領域別撮影条件変更部、 114…領域別再取得部、 115…撮像結果関連付け記録部、 116…連射結果記録部、 117…領域切り出し部、 118…再生方法変更部、 119…再生方法変更部、 120…指定部、 121…再生部、 130…再生制御部
DESCRIPTION OF
Claims (6)
前記再生部に再生されている状態で前記第1の画像データの領域の位置を指定する指定部と、
前記第1の画像データ内の領域の用途に応じた第2の画像データであって、前記第1の画像データの前記領域の用途ごとの特徴に応じた変化を表し、輝度の変化及びピント位置を含む複数の画像データを含む第2の画像データを読み出して、前記再生部の前記指定された前記領域の近傍位置に再生させる再生制御部と、
を具備する画像再生装置。 A playback unit for playing back the first image data;
A designation unit for designating a position of the area of the first image data in a state of being reproduced by the reproduction unit;
The second image data according to the use of the area in the first image data, and represents a change according to the feature of the area of the first image data for each use, and changes in brightness and focus position A reproduction control unit that reads out second image data including a plurality of image data including and reproduces the second image data at a position near the designated area of the reproduction unit;
An image reproducing apparatus comprising:
前記再生制御部は、特定された前記領域の位置に所定の撮影条件の前記第2の画像データを重ねて、または差し替えて順次再生する請求項1に記載の画像再生装置。 An area specifying unit for specifying the position of the area specified in the specifying unit;
The image reproduction apparatus according to claim 1 , wherein the reproduction control unit sequentially reproduces the second image data with a predetermined shooting condition superimposed on or replaced with the specified position of the region.
再生されている前記第1の画像データの領域の位置を指定するステップと、
前記指定された前記領域の位置が、前記第1の画像データの前記領域の用途ごとの特徴に応じた変化を表し、輝度の変化及びピント位置を含む複数の画像データを含む第2の画像データと関連付けられていると判定されるとき、前記第2の画像データの用途の情報を選択するステップと、
選択された前記用途の前記第2の画像データを選択して、前記領域の近傍位置に時系列に変化するように再生させるステップと、
を具備する画像再生装置の制御方法。 Reproducing the first image data obtained by photographing the subject;
Designating the position of the area of the first image data being reproduced;
Second image data including a plurality of pieces of image data including a change in brightness and a focus position, wherein the position of the designated region represents a change according to a feature of the first image data for each application. Selecting the usage information of the second image data when it is determined that
Selecting the selected second image data for the selected use and reproducing it so as to change in a time-series manner in the vicinity of the region; and
A control method for an image reproducing apparatus comprising
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014001924A JP6375114B2 (en) | 2014-01-08 | 2014-01-08 | Image reproducing apparatus and method for controlling image reproducing apparatus |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014001924A JP6375114B2 (en) | 2014-01-08 | 2014-01-08 | Image reproducing apparatus and method for controlling image reproducing apparatus |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018080624A Division JP6450879B2 (en) | 2018-04-19 | 2018-04-19 | Recording apparatus, recording method, and recording program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2015130627A JP2015130627A (en) | 2015-07-16 |
JP6375114B2 true JP6375114B2 (en) | 2018-08-15 |
Family
ID=53761061
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014001924A Active JP6375114B2 (en) | 2014-01-08 | 2014-01-08 | Image reproducing apparatus and method for controlling image reproducing apparatus |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6375114B2 (en) |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004329742A (en) * | 2003-05-12 | 2004-11-25 | Canon Inc | Image displaying device, image displaying method, computer program, and recording medium in which computer reading is possible |
JP2007312097A (en) * | 2006-05-18 | 2007-11-29 | Fujifilm Corp | Image processing apparatus, image processing method and program |
JP2012138763A (en) * | 2010-12-27 | 2012-07-19 | Nikon Corp | Image processing device, electronic camera, and image processing program |
JP6075821B2 (en) * | 2012-02-07 | 2017-02-08 | キヤノン株式会社 | Image playback apparatus, control method thereof, and program |
JP5409829B2 (en) * | 2012-02-17 | 2014-02-05 | キヤノン株式会社 | Image processing apparatus, imaging apparatus, image processing method, and program |
-
2014
- 2014-01-08 JP JP2014001924A patent/JP6375114B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2015130627A (en) | 2015-07-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR100933416B1 (en) | Camera device, imaging method and computer program recording medium | |
JP4640456B2 (en) | Image recording apparatus, image recording method, image processing apparatus, image processing method, and program | |
JP5806623B2 (en) | Imaging apparatus, imaging method, and program | |
JP4509081B2 (en) | Digital camera and digital camera program | |
JP2010010883A (en) | Image processor and image processing method | |
KR20190080779A (en) | Electronic apparatus and method for controlling the same | |
US8525913B2 (en) | Digital photographing apparatus, method of controlling the same, and computer-readable storage medium | |
JP2013088579A (en) | Imaging apparatus | |
JP2019176249A (en) | Image processing device, image processing method, image processing program, and imaging device | |
KR20100055938A (en) | Method and apparatus for displaying scene information, and digital photographing apparatus thereof | |
JP6261205B2 (en) | Image processing device | |
JP2014050022A (en) | Image processing device, imaging device, and program | |
JP2014146989A (en) | Image pickup device, image pickup method, and image pickup program | |
US20120229678A1 (en) | Image reproducing control apparatus | |
KR20150080343A (en) | Method of displaying a photographing mode using lens characteristics, Computer readable storage medium of recording the method and a digital photographing apparatus. | |
JP6355333B2 (en) | Imaging apparatus, image processing apparatus, image processing method, and program | |
JP2017175589A (en) | Imaging apparatus, imaging method and program | |
JP6450879B2 (en) | Recording apparatus, recording method, and recording program | |
JP6375114B2 (en) | Image reproducing apparatus and method for controlling image reproducing apparatus | |
JP6362735B2 (en) | IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD AND CONTROL PROGRAM | |
JP7353821B2 (en) | Image processing device, its control method, program | |
JP6550506B2 (en) | Recording apparatus, recording method and recording program | |
JP6169963B2 (en) | IMAGING DEVICE AND IMAGING DEVICE CONTROL METHOD | |
US20190198058A1 (en) | Image recording control apparatus, image recording method, recording medium storing image recording program, image pickup apparatus, and image recording control system | |
JP2008048152A (en) | Moving picture processing apparatus, moving picture photographing apparatus and moving picture photographing program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A712 Effective date: 20150423 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20161014 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20170713 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20170808 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20171004 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20180123 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180419 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20180427 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20180626 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20180723 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6375114 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313113 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |