JP2013146025A - Imaging apparatus - Google Patents
Imaging apparatus Download PDFInfo
- Publication number
- JP2013146025A JP2013146025A JP2012006312A JP2012006312A JP2013146025A JP 2013146025 A JP2013146025 A JP 2013146025A JP 2012006312 A JP2012006312 A JP 2012006312A JP 2012006312 A JP2012006312 A JP 2012006312A JP 2013146025 A JP2013146025 A JP 2013146025A
- Authority
- JP
- Japan
- Prior art keywords
- image
- imaging
- unit
- information
- additional information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Television Signal Processing For Recording (AREA)
- Studio Devices (AREA)
Abstract
Description
本発明は、撮影者の表情に関する情報が画像と共に記録可能であって、この情報を用いてシーン検索が可能な撮像装置に関するものである。 The present invention relates to an imaging apparatus capable of recording information relating to a photographer's facial expression together with an image, and capable of scene search using this information.
デジタルカメラやビデオカメラなどの撮像装置の記録媒体の大容量化により、長時間の動画の撮影が可能になった今、記録された大量の画像の中から特定の画像を検索することが困難になっている。特に動画を再生する際に所望のシーンを見つけ出すためには、早送りや逆戻しを繰り返しながら探し出す必要があり、困難で時間のかかる仕事である。 Due to the increased capacity of recording media in imaging devices such as digital cameras and video cameras, it has become possible to shoot movies for long periods of time, making it difficult to search for specific images from a large number of recorded images. It has become. In particular, in order to find a desired scene when playing back a moving image, it is necessary to search while repeating fast forward and reverse, which is a difficult and time-consuming work.
このため、従来の技術では、操作履歴を元に画像データの優先順位を決定するような動画像検索支援装置があった(特許文献1参照)。この方法は、動画像の再生を行う際に、再生の方法(Slow Scan、Play、Fast Scanなど)によって重み付けした履歴データを作成し、検索支援に使用するというものである。したがって、検索を行うデータを得るために、少なくとも一回以上動画を再生することが必要であった。 For this reason, in the prior art, there has been a moving image search support apparatus that determines the priority order of image data based on an operation history (see Patent Document 1). In this method, when reproducing a moving image, history data weighted by a reproduction method (Slow Scan, Play, Fast Scan, etc.) is created and used for search support. Therefore, it has been necessary to reproduce the moving image at least once in order to obtain data to be searched.
しかしながら、この方法では、検索を行うデータを得るために、少なくとも一回以上動画を再生することが必要であるため、撮影した画像を最初に見るときには、所望のシーンの検索を行うことが出来ない。また、再生の方法によって、データを重み付けするため、何度もスロー再生した見づらいシーンなどが上位に設定される恐れがある。 However, in this method, since it is necessary to reproduce a moving image at least once in order to obtain data to be searched, when a photographed image is first viewed, a desired scene cannot be searched. . In addition, since the data is weighted depending on the reproduction method, a scene that is difficult to see that has been slowly reproduced many times may be set higher.
シーン検索のための情報を、撮影時に撮影画像に付加することができれば、シーン検索を行う前に、動画の再生を行う必要がなくなり、時間のかかる作業が不要になる。 If information for scene search can be added to a captured image at the time of shooting, it is not necessary to reproduce a moving image before performing a scene search, and time-consuming work is unnecessary.
また、撮影者の表情など、撮影者の挙動によって、シーン検索のための情報を付加することができれば、撮影する側からみて興味深い内容など、人の気持ちに配慮した検索情報が撮影画像に付加されることになって、検索する人が感覚的にわかり易い情報となる。 In addition, if information for scene search can be added according to the photographer's behavior, such as the photographer's facial expression, search information that takes human feelings into consideration, such as interesting content from the viewpoint of the photographer, is added to the photographed image. As a result, it becomes information that is easily understood by the person who searches.
そこで、本発明では、第一の撮像手段と第二の撮像手段を有する撮像装置において、第一の撮像手段で撮影された撮影画像に、同時に撮影を行った第二の撮像手段で撮影された画像を元にした情報を付加することを特徴とする。これによって、第一の撮像手段で撮影した撮影画像のなかから、所望のシーンを探し出す際に、第二の撮像手段で撮影した、周囲の状況を元に撮影者が記憶をたどって探すことができ、感覚的にわかりやすく所望のシーンを探し出すことが容易になる。 Therefore, in the present invention, in the imaging device having the first imaging means and the second imaging means, the photographed image photographed by the first imaging means was photographed by the second imaging means that photographed simultaneously. It is characterized by adding information based on an image. As a result, when searching for a desired scene from the captured images captured by the first image capturing unit, the photographer can search the memory based on the surrounding conditions captured by the second image capturing unit. This makes it easy to find a desired scene in a sensuous manner.
また、付加された情報を第一の撮像手段で撮影した画像の再生時に使用することによって、第一の撮像手段で撮影した撮影画像のなかから、所望のシーンを探し出す際に、第一の撮像手段では撮影できていないが、第二の撮像手段で撮影した特徴的な周囲の変化を思い出すことによって、所望のシーンを容易に探し出すことが可能である。 Further, by using the added information at the time of reproduction of the image captured by the first imaging unit, the first imaging is performed when searching for a desired scene from the captured images captured by the first imaging unit. Although it cannot be photographed by the means, it is possible to easily find a desired scene by remembering the characteristic change in the surroundings photographed by the second imaging means.
さらに、第二の撮像手段の撮影対象が、撮影者であるため、撮影者の撮影時の挙動からシーンの検索が可能になる。楽しいシーンを見たい場合には、付加された撮影者の情報が「楽しい場合の挙動」のシーンを検索することによって、楽しいシーンを探しだすことが可能となる。このように、再生者は、楽しいシーン、悲しいシーンなどを指定して検索することによって、容易に所望のシーンを探しだすことができる。また、付加する情報が、撮影者の表情を元にした情報であるため、撮影者は、撮影時に感じたことを思い出すことによって、所望のシーンを探すことが可能となる。 Furthermore, since the subject to be imaged by the second imaging means is a photographer, it is possible to search for a scene from the behavior of the photographer at the time of photographing. When it is desired to see a fun scene, it is possible to find a fun scene by searching for a scene whose attached photographer information is “behavior when fun”. Thus, the player can easily find a desired scene by specifying and searching for a fun scene, a sad scene, or the like. Further, since the information to be added is information based on the photographer's facial expression, the photographer can search for a desired scene by remembering what he / she felt at the time of photographing.
このように、撮影された画像を最初に見る場合にも、どのような場面が見たいかという再生者の希望により、所望のシーンを探しだすという操作が感覚的に行えるようになる。 In this way, even when the photographed image is first viewed, an operation of searching for a desired scene can be performed sensuously according to the player's desire for what kind of scene he / she wants to see.
以上説明したように、本発明によれば、撮影画像の中から所望のシーンを探し出す際に、容易に所望のシーンを探し出すことが可能になる。撮影者は自分が感じたことを思い出すことによって、所望のシーンを探し出すことが容易になるため、これまでのように、早送りや逆戻しを繰り返しながら、所望のシーンを探し出すというような、時間がかかり、つまらない時間を過ごす必要がなくなる。また初めて撮影画像を見る再生者も、楽しいシーン、悲しいシーンなどを指定して検索することにより、自分が見たいシーンの見を容易に探し出し再生することが可能になる。このため、画像のすべてに目を通す必要はなくなり、短い時間で所望のシーンのみを見ることが可能になる。このように、容易に感覚的に所望のシーンを検索可能になって、装置の操作性が向上する。 As described above, according to the present invention, it is possible to easily find a desired scene when searching for a desired scene from a captured image. Since the photographer can easily find the desired scene by remembering what he / she felt, the time required to search for the desired scene while repeating fast forward and reverse operations as before. Takes up and eliminates the need to spend boring time. Also, a player who first views a photographed image can easily find and reproduce the scene he / she wants to see by specifying and searching for a fun scene, a sad scene, or the like. For this reason, it is not necessary to look through all of the images, and only a desired scene can be viewed in a short time. In this way, a desired scene can be easily and intuitively searched, and the operability of the apparatus is improved.
以下、本発明を実施するための形態に関して説明する。 Hereinafter, embodiments for carrying out the present invention will be described.
<第1の実施形態>
図1は本発明の実施形態におけるビデオカメラの構成を示すブロック図である。図2は本発明の第1の実施形態におけるビデオカメラの正面方向(被写体側)右側から見た外観斜視図、図3は同ビデオカメラの後方(撮影者側)から見た外観背面図、図4は撮影時の様子を表す概略図である。
<First Embodiment>
FIG. 1 is a block diagram showing a configuration of a video camera according to an embodiment of the present invention. 2 is an external perspective view of the video camera according to the first embodiment of the present invention as viewed from the front (subject side) right side, and FIG. 3 is an external rear view of the video camera as viewed from the rear (photographer side). 4 is a schematic diagram showing a state during photographing.
ビデオカメラ本体100は、図1に示すように、フォーカス及びズーム等の光学制御系を含む光学レンズ群及び絞りからなるレンズ101とサブレンズ124、CCDなどの撮像素子を含む撮像部102とサブ撮像部125があり、メインレンズ101はメイン撮像部102に、サブレンズ124はサブ撮像部125にそれぞれ対応している。
As shown in FIG. 1, the video camera
その他にもビデオカメラ100は、カメラ信号処理部103、圧縮伸張処理部104、表示部105、記録再生処理部106、カード制御部107、テープ制御部108、マイクロフォン109、音声信号処理部110、メモリ111、メモリ制御部112、CPU113、操作部114、デジタルI/F115、入出力部116、電源制御部117を備えている。
In addition, the
また、各機能ブロックはそれぞれデータバス118を介して互いにデータ通信可能に接続されている。
The functional blocks are connected to each other via a
このようなビデオカメラ本体100において、メモリ111は、プログラム記憶領域とデータ作業領域を有し、データバス118を介して各機能ブロックでタイム・シェアリングして使用され、メモリ制御部112により制御及び管理されている。
In such a video camera
CPU113は所定のプログラムを実行すること等により、ビデオカメラ本体100全体を統括制御する中央演算処理回路である。
The CPU 113 is a central processing circuit that performs overall control of the entire video camera
操作部114は、図2及び図3の114a、114b、114c、114d、114e、114f、114g、114h、114i、114j、114k、114l、114m、114n、114o、114p、114q、114r等の操作キーなどを有し、ユーザーからのキー操作などに基づいて、CPU113に対して動作指示する機能を有する。
The
ここで、各操作キーの機能について、図2及び図3を用いて説明する。 Here, the function of each operation key will be described with reference to FIGS.
114a、114b、114c、114dは再生操作ボタンであり、114aは逆戻しボタン、114bは早送りボタン、114cは再生/一時停止ボタン、114dは停止ボタンである。 114a, 114b, 114c, and 114d are playback operation buttons, 114a is a reverse button, 114b is a fast forward button, 114c is a playback / pause button, and 114d is a stop button.
また、114eはデジタルエフェクトの可否ボタン、114fは連写機能の設定ボタン、、114gはセルフタイマーの設定ボタンである。 114e is a digital effect enable / disable button, 114f is a continuous shooting function setting button, and 114g is a self-timer setting button.
114hはレンズの画角をワイド側又はテレ側に変化させるズーム操作を行うためのズームキー、114iは静止画の記録を行う静止画撮影ボタンであり、半押しと全押し操作が可能な2段階スイッチである。 114h is a zoom key for performing a zoom operation to change the angle of view of the lens to the wide side or the tele side, and 114i is a still image shooting button for recording a still image, which is a two-stage switch that can be pressed halfway and fully It is.
114jはメニュー表示のON/OFFの切替え等を行うメニューボタン、114kはメニューの選択・決定等を行うメニューキー、114lは撮影時にホワイトバランスの設定を行うホワイトバランス設定ボタン、114mは撮影時にオート/マニュアルフォーカス選択を設定するフォーカス設定ボタン、114nは撮影時に露出を設定する露出設定ボタンである。
114j is a menu button for switching the menu display ON / OFF, 114k is a menu key for selecting and determining a menu, 114l is a white balance setting button for setting white balance at the time of shooting, and 114m is auto / auto at the time of shooting. A
114oはモードダイヤルであり、ダイヤルを回転動作することで、全自動モード、シャッタースピード優先モード、絞り優先モードなどの撮影イメージに合わせたプログラム自動露出を設定することが可能である。 Reference numeral 114o denotes a mode dial. By rotating the dial, it is possible to set program automatic exposure in accordance with a photographed image such as a fully automatic mode, a shutter speed priority mode, and an aperture priority mode.
114pは電源ダイヤルであり、回転動作することで電源オフ、撮影モード、再生モードを切り替えることが可能である。
114qは動画撮影ボタンであり、押圧動作することで、動画撮影のスタート/ストップを行うことが可能である。
114rは記録媒体切替えレバーであり、回転動作することで、画像を記録する記録媒体を選択することが可能である。
A recording
デジタルI/F115は、例えばIEEE1394やUSB等の規格に従い信号を授受する。
The digital I /
メモリーカード119は、脱着式のフラッシュメモリーであり、撮影データ及び音声データが記録される。
The
電源制御部117は、バッテリ検出回路、DC−DCコンバータ、通電するブロックを切り替えるスイッチ回路等により構成されており、電池の装着の有無、電池の種類、電池残量の検出を行う。バッテリ123は、リチウムイオン電池等であり、ビデオカメラ本体100に電源を供給する。
The power
付加情報生成処理部126は表情検知手段や表情識別手段や表情情報格納部からなり、特開平6−76058に示されるような方法に基づき、サブ撮像部125にうつった人物の表情を識別して、付加情報を生成する。表情検知手段は撮影画像から顔の特徴部位を抽出し表情要素を抽出する。表情識別手段は抽出した表情要素から表情要素コードを算出し、表情要素コードから表情を識別する。表情情報格納部には、各表情に対応した識別コードが格納されており、識別された表情に対応する識別コードを付加情報として、撮影画像に付加する。
The additional information
次に、本発明の第1の実施形態におけるビデオカメラの撮影動作及び記録動作、再生動作について説明する。例えば、操作部114により撮影動作及び記録動作が指示された場合、メイン撮像部102の被写体からの光は、レンズ101により所定の明るさ、画角、及びフォーカス等が制御された光学信号となって撮像部102に対して入力される。撮像部102は入力光学信号を電気信号に変換し、カメラ信号処理部103に出力する。カメラ信号処理部103はこの電気信号をデジタル画像信号に変換する。そして、この画像信号に対して、色分離、階調補正、及びホワイトバランス調整などの信号処理を施した後出力する。音声信号処理部110は、マイクロフォン109より入力された音声信号を所定レベルにゲインコントロールしてデジタル化することで、音声データとして出力する。
Next, the shooting operation, recording operation, and playback operation of the video camera in the first embodiment of the present invention will be described. For example, when a photographing operation and a recording operation are instructed by the
一方、サブ撮像部125においては、撮影者の像は、サブレンズ124により所定の明るさ、画角、及びフォーカス等が制御された光学信号となってサブ撮像部125に対して入力される。撮影時は図4に示すように、撮影者401は撮像装置本体100をグリップして被写体402をメインレンズで撮影している。このようなときに、サブレンズ124は撮影者401を撮影できるような場所に配置されている。
On the other hand, in the
サブ撮像部125は入力光学信号を電気信号に変換し、カメラ信号処理部103に出力する。カメラ信号処理部103はこの電気信号をデジタル画像信号に変換する。そして、この画像信号の中に人の顔があった場合には、付加情報生成処理部126は顔の特徴部位を抽出し表情要素を抽出して表情要素コードを算出し、表情を識別し、識別された表情に対応する識別コードを付加情報として出力する。
The
圧縮伸張処理部104は、カメラ信号処理部103から出力された画像データ及び音声信号処理部110から出力された音声データを所定の圧縮符号化方式により圧縮符号化する。表示部105は、図2及び図3に示す液晶表示部105aとEVF105bにより構成され、圧縮伸張処理部104で圧縮符号化対象の撮影データを表示する。また、表示部105は、必要に応じてビデオカメラ本体100の動作状況をオンスクリーン・ディスプレイ情報として表示する。
The compression /
記録再生処理部106は、圧縮伸張処理部104で得られた圧縮符号化後のデータに対して、エラー訂正符号化処理や変調処理等を施し、更に同期、IDなどのデータを付加して記録に適した形態に変換した後、テープ120あるいはメモリーカード119等の記録媒体に記録する。この際、テープ制御部108はテープ120の記録制御を、カード制御部107はメモリーカード119の記録制御をおこなう。
The recording /
一方、操作部114により再生動作が指示された場合、記録再生処理部106は、テープ120またはメモリーカード119から読み出したデータから元のデジタルデータを検出し、エラー訂正及び復調等の処理を施す。また、PLL回路によりこの再生データに同期したクロックを生成する。
On the other hand, when a reproduction operation is instructed by the
圧縮伸張処理部104は、記録再生処理部106より出力されたデータに対して、所定の圧縮符号化方式に対応した伸張処理を施し、圧縮符号化前の撮影データ及び音声データと付加情報生成処理部126によって生成された付加情報を取得する。表示部105は、圧縮伸張処理部104で得られた再生データを表示する。
The compression /
また操作部114によりデジタルI/F115からの入力データを記録する指示があった場合、CPU113はデジタルI/F115により、外部装置121からの画像データあるいは音声データあるいは付加情報をデジタル信号の状態で入力し、記録再生処理部106に送る。この際、外部装置121からの画像データ、音声データは既に符号化されているものとし、記録再生処理部106は前述のようにこの入力データに対して記録に必要な処理を施してテープ120やメモリーカード119などの記録媒体に記録する。
When the
また操作部114により、入出力部116からの入力信号を記録する指示があった場合、CPU113は入出力部116を制御し、外部装置122から出力された画像、音声信号を入力する。入出力部116は外部装置122から出力された画像、音声信号をデジタルデータに変換してメモリ111に出力する。CPU113はこのメモリ111に記憶された画像、音声データ、付加情報を圧縮伸張処理部104に出力して圧縮符号化し、記録再生処理部106に送る。記録再生処理部106は前述の様にこの符号化されたデータに対して記録に必要な処理を施してテープ120やメモリーカード119などの記録媒体に記録する。
When the
次に本発明の第1の実施形態の特徴とする、撮影時の付加情報の付加処理や画像再生時の付加情報の利用について、図を参照しながら説明する。この撮像装置では、メイン撮像部102で撮影した画像に、サブ撮像部125で撮影した画像を元に情報を付加することができ、再生時にこの付加情報を元に再生を行うことが可能である。
Next, additional information addition processing at the time of shooting and use of additional information at the time of image reproduction, which are features of the first embodiment of the present invention, will be described with reference to the drawings. In this imaging apparatus, information can be added to the image captured by the
図5は、本発明の第一の実施形態における動画撮影時処理手順を示すフローチャートである。 FIG. 5 is a flowchart showing a processing procedure during moving image shooting according to the first embodiment of the present invention.
まず、ユーザーが動画を撮影する際には、電源ダイヤル114pにより撮影モードを選択する。
First, when the user shoots a moving image, the shooting mode is selected by the
このように、撮影モードが選択されると、ステップS501にて、撮像動画のリアルタイムスルー画像を液晶表示部105aもしくはEVF105bに表示し、ステップS502に進む。
As described above, when the shooting mode is selected, the real-time through image of the captured moving image is displayed on the liquid
ステップS502では、動画撮影ボタン114qが押圧されたか否かを判別する。ここで、動画撮影ボタン114qが押圧されたと判別された場合、ステップS503に進む。
In step S502, it is determined whether or not the moving
ステップS503では、記録処理を開始し、ステップS504に進む。 In step S503, the recording process is started, and the process proceeds to step S504.
ステップS504では、サブ撮像部125から得られた情報を元に付加情報を生成する。
In step S504, additional information is generated based on the information obtained from the
ここで、付加情報生成処理については詳しく述べる。付加情報生成処理部では、特開平6−76058に示されるような方法に基づき、サブ撮像部125で撮像した人物の表情を識別して、付加情報とする。図6は本発明の第1の実施形態における付加情報生成処理を説明するためのフローチャートである。
Here, the additional information generation process will be described in detail. The additional information generation processing unit identifies the facial expression of the person imaged by the
まず、ステップS601でサブ撮像部125から得られた画像情報の中に、顔があるかどうかを判断する。ある場合はステップS602に進む。
First, it is determined whether or not there is a face in the image information obtained from the
ステップS602では、検出した顔の中から特徴部位を抽出して、ステップS603に進む。 In step S602, a characteristic part is extracted from the detected face, and the process proceeds to step S603.
ステップS603では、抽出した特徴部位の中から表情要素を抽出して、ステップS604に進む。 In step S603, facial expression elements are extracted from the extracted feature parts, and the process proceeds to step S604.
ステップS604では、ステップS603で抽出した表情要素によって、表情を決定しステップS605に進む。 In step S604, a facial expression is determined based on the facial expression elements extracted in step S603, and the process proceeds to step S605.
ステップS605では、ステップS604で決定した表情に対応する付加情報を生成する。このとき、ステップS601で顔が検出されなかった場合は、ステップS605に進み、「人物無し」に当たる付加情報を生成する。付加する情報は図7ように、いくつかの表情に分類してあり、付加情報としては、表情ID 701を使用する。
In step S605, additional information corresponding to the facial expression determined in step S604 is generated. At this time, if no face is detected in step S601, the process advances to step S605 to generate additional information corresponding to “no person”. The information to be added is classified into several facial expressions as shown in FIG. 7, and
ステップS605で、付加情報を生成したら、ステップS505に進む。 If additional information is generated in step S605, the process proceeds to step S505.
ステップS505では、ステップS504で生成された付加情報とメイン撮像部102から得られた情報を元に、記録情報を作成する。
In step S505, recording information is created based on the additional information generated in step S504 and the information obtained from the
ステップS506では、動画撮影ボタン114qが押圧されたか否かを判別する。ここで、動画撮影ボタン114qが押圧されていなければ、ステップS504に戻る。一方、動画撮影ボタン114qが押圧されたと判別された場合は、ステップS507に進む。
In step S506, it is determined whether or not the moving
ステップS507では、動画記録を終了し、本処理を終了する。 In step S507, the moving image recording ends, and the present process ends.
記録情報は、図12に示すように、ヘッダーにサムネイルやファイルNoやその他付加情報などが格納され、画像や音声ファイルに結合した形となっている。 As shown in FIG. 12, the recorded information has a header, a thumbnail, a file number, and other additional information stored therein, and is combined with an image or audio file.
次に、本発明の第1の実施形態における画像再生時の処理について図を参照しながら説明する。 Next, processing during image reproduction in the first embodiment of the present invention will be described with reference to the drawings.
まず、画像再生の際には電源ダイヤル114qにより再生モードを選択する。このように、再生モードが選択されると、ステップS801にて液晶表示部105aもしくはEVF105bに再生モード画面を作成する。ここで再生モード画面の作成S801について詳しく述べる。図9は本発明の第1の実施形態における再生モード画面作成処理を説明するためのフローチャートである。
First, at the time of image reproduction, the reproduction mode is selected by the
まず、ステップS901で、画像に付加情報である、表情ID 701が付加されているか判断する。表情ID 701が付加されている場合には、ステップS902に進む。
First, in step S901, it is determined whether a
ステップS902では、画像に付加された表情ID 701を読み込んでステップS903に進む。
In step S902, the
ステップS903では、表情ID 701に対応する表示文字702または表示インジケータ703を読み出し、ステップS904に進む。
In step S903, the
ステップS904では、画像が静止画の場合にはサムネイル画像、動画の場合にはタイムコードを読み出し、ステップS905に進む。ステップS901で、画像に表情ID 701が付加されていない場合には、直接ステップS904に進む。
In step S904, a thumbnail image is read if the image is a still image, and a time code is read if the image is a moving image, and the process advances to step S905. If the
ステップS905では、ステップS903で読み出した表示文字702または表示インジケータ703と、ステップS904で読み出したサムネイル画像またはタイムコードから、再生モード画面を作成して、ステップS801にもどる。
In step S905, a playback mode screen is created from the
ステップS802では、ステップS801作成した再生モード画面を表示する。 In step S802, the reproduction mode screen created in step S801 is displayed.
再生モード画面は、図10に示すような形態で、例えば、図10(a)のように静止画をサムネイル画像1001と表示文字702で表したり、図10(b)のように静止画をサムネイル画像1001と表示インジケータ703で表しても良い。画像が動画である場合には、図10(c)のように、動画のタイムコード1002にあわせて表示文字702や表示インジケータ703などの付加情報を表示する。付加情報の表示は、一定時間ごとの付加情報を表示してもよいが、図10(c)のように付加情報に変化があったときのみ表示すると表示が煩雑にならなくてよい。
The playback mode screen has a form as shown in FIG. 10, for example, a still image is represented by a
ステップS803で、ユーザは再生したい画像を操作部114kを使って選択する。このときに図11に示すように選択されている表示文字702や表示インジケータ703がハイライト部1101のように他と区別して示されるとわかりやすい。
In step S803, the user selects an image to be reproduced using the
ステップS803で画像やシーンが選択された状態でステップS804に進み、再生ボタンが押圧された場合にステップS805に進み、選択された画像やシーンを再生し、本処理を終了する。 When the image or scene is selected in step S803, the process proceeds to step S804. When the playback button is pressed, the process proceeds to step S805, where the selected image or scene is reproduced, and this process ends.
以上のように、本発明による撮像装置では、メイン撮像部で撮影した画像に、サブ撮像部で撮影した画像を元に情報を付加することができ、再生時にこの付加情報を元に再生を行うことが可能である。これによって、撮影者は、撮影時に感じていたことを思い出すことによって感覚的に再生したいシーンを選ぶことが可能となる。例えば、「あの時は、子供が泥だらけで遊ぶのをみて爆笑したなぁ。」だったり、「その後、知らない人が前をのろのろと横切って腹が立ったなぁ。」だったり、そのときそのときに感じたことを思い出して再生が可能である。「泥だらけで遊んでいたシーンを再生したい」と思った場合は、「爆笑」の付加情報が着いている場所で、その後に「怒り」の付加情報がある場所を探せばよいことになる。一方、画像を始めて再生する操作者も、楽しいシーンだけを見たい場合には、「笑い」や「爆笑」のシーンのみを選択して、再生すればよい。このような方法であれば、長い動画の中を早送りや逆戻しを繰り返しながら、希望の個所を探すような煩雑で時間のかかる操作が減り、長い動画の中から、見たい個所を選び出すことが感覚的にできるようになり、撮像装置の操作性が向上する。 As described above, in the imaging apparatus according to the present invention, information can be added to the image captured by the main imaging unit based on the image captured by the sub imaging unit, and reproduction is performed based on this additional information during reproduction. It is possible. Thus, the photographer can select a scene to be reproduced sensuously by remembering what he / she felt at the time of shooting. For example, “At that time, I was laughing when I saw a child playing in the mud.” “After that, an unknown person crossed the front and got angry.” It is possible to replay it when you remember what you felt. If you want to replay a scene that was playing in the muddy area, you can search for a place where the additional information of “Laughter” arrives and then the additional information of “anger”. On the other hand, if an operator who plays an image for the first time wants to see only a fun scene, he / she only needs to select and play the “laugh” or “lol” scene. With this method, it is possible to select the location you want to watch from long videos by reducing the complicated and time-consuming operations of searching for the desired location while repeating fast-forwarding and rewinding in a long movie. It becomes possible to feel it, and the operability of the imaging apparatus is improved.
100 ビデオカメラ本体
101 メインレンズ
102 メイン撮像部
103 カメラ信号処理部
104 圧縮伸張処理部
105 表示部
106 記録再生処理部
107 カード制御部
108 テープ制御部
109 マイクロフォン
110 音声信号処理部
111 メモリ
112 メモリ制御部
113 CPU
114 操作部
115 デジタルI/F
116 入出力部
117 電源制御部
118 バス
124 サブレンズ
125 サブ撮像部
126 付加情報生成処理部
DESCRIPTION OF
114
116 Input /
Claims (4)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012006312A JP2013146025A (en) | 2012-01-16 | 2012-01-16 | Imaging apparatus |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012006312A JP2013146025A (en) | 2012-01-16 | 2012-01-16 | Imaging apparatus |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2013146025A true JP2013146025A (en) | 2013-07-25 |
Family
ID=49041604
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012006312A Pending JP2013146025A (en) | 2012-01-16 | 2012-01-16 | Imaging apparatus |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2013146025A (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20170098102A (en) * | 2016-02-19 | 2017-08-29 | 삼성전자주식회사 | Method, storage medium and electronic device for providing a plurality of images |
US9774843B2 (en) | 2014-05-02 | 2017-09-26 | Samsung Electronics Co., Ltd. | Method and apparatus for generating composite image in electronic device |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007110261A (en) * | 2005-10-11 | 2007-04-26 | Nikon Corp | Digital camera |
JP2010003201A (en) * | 2008-06-23 | 2010-01-07 | Olympus Imaging Corp | Image processor, image processing method and program |
JP2010187109A (en) * | 2009-02-10 | 2010-08-26 | Nikon Corp | Electronic still camera |
JP2011211349A (en) * | 2010-03-29 | 2011-10-20 | Canon Inc | Information processing device and operating method thereof |
JP2011211621A (en) * | 2010-03-30 | 2011-10-20 | Nikon Corp | Image display processing apparatus, electronic camera and program |
-
2012
- 2012-01-16 JP JP2012006312A patent/JP2013146025A/en active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007110261A (en) * | 2005-10-11 | 2007-04-26 | Nikon Corp | Digital camera |
JP2010003201A (en) * | 2008-06-23 | 2010-01-07 | Olympus Imaging Corp | Image processor, image processing method and program |
JP2010187109A (en) * | 2009-02-10 | 2010-08-26 | Nikon Corp | Electronic still camera |
JP2011211349A (en) * | 2010-03-29 | 2011-10-20 | Canon Inc | Information processing device and operating method thereof |
JP2011211621A (en) * | 2010-03-30 | 2011-10-20 | Nikon Corp | Image display processing apparatus, electronic camera and program |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9774843B2 (en) | 2014-05-02 | 2017-09-26 | Samsung Electronics Co., Ltd. | Method and apparatus for generating composite image in electronic device |
KR20170098102A (en) * | 2016-02-19 | 2017-08-29 | 삼성전자주식회사 | Method, storage medium and electronic device for providing a plurality of images |
US10141027B2 (en) | 2016-02-19 | 2018-11-27 | Samsung Electronics Co., Ltd. | Method, storage medium, and electronic device for providing plurality of images |
KR102424296B1 (en) | 2016-02-19 | 2022-07-25 | 삼성전자주식회사 | Method, storage medium and electronic device for providing a plurality of images |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6324063B2 (en) | Image reproducing apparatus and control method thereof | |
US8515237B2 (en) | Imaging device and image processing apparatus | |
EP1347455A2 (en) | Contents recording/playback apparatus and contents edit method | |
JP2013258510A (en) | Imaging device, and method and program of controlling the same | |
US8666220B2 (en) | Recording/reproducing apparatus and method of controlling the apparatus | |
JP5058780B2 (en) | Image processing device | |
JP2005117369A (en) | Moving image recorder, moving image reproducer and digital camera | |
JP2013146025A (en) | Imaging apparatus | |
JP2019075638A (en) | Image processing device | |
KR20110070809A (en) | Information processing apparatus, method of controlling the same and camera | |
JP2011049653A (en) | Image capturing apparatus | |
JP2009296504A (en) | Image processing system, image processing method, and program | |
JP2019114847A (en) | Image recording control apparatus, image recording method, image recording program, imaging apparatus, and image recording control system | |
JP6463967B2 (en) | Imaging apparatus and control method thereof | |
JP2014168207A (en) | Imaging apparatus, control method of the same, and program | |
JP2014120926A (en) | Imaging apparatus | |
JP2009088686A (en) | Scene switching point detector and method for detecting scene switching point | |
JP2016129313A (en) | Stream recording device and control method for stream recording device | |
JP4714053B2 (en) | camera | |
JP2009095047A (en) | Recording and reproducing device | |
JP2016123136A (en) | Image processing apparatus | |
JP2005117370A (en) | Digital camera | |
JP6332963B2 (en) | Image processing apparatus and image processing apparatus control method | |
JP6643081B2 (en) | Album moving image generating apparatus, album moving image generating method, and program | |
JP2022187301A (en) | Image capture apparatus, control method, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20150116 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20151021 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20151027 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20151224 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20160119 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20160524 |