JP2013146025A - Imaging apparatus - Google Patents

Imaging apparatus Download PDF

Info

Publication number
JP2013146025A
JP2013146025A JP2012006312A JP2012006312A JP2013146025A JP 2013146025 A JP2013146025 A JP 2013146025A JP 2012006312 A JP2012006312 A JP 2012006312A JP 2012006312 A JP2012006312 A JP 2012006312A JP 2013146025 A JP2013146025 A JP 2013146025A
Authority
JP
Japan
Prior art keywords
image
imaging
unit
information
additional information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2012006312A
Other languages
Japanese (ja)
Inventor
Mayuko Shibata
真由子 柴田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2012006312A priority Critical patent/JP2013146025A/en
Publication of JP2013146025A publication Critical patent/JP2013146025A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Television Signal Processing For Recording (AREA)
  • Studio Devices (AREA)

Abstract

PROBLEM TO BE SOLVED: To solve the problem that, since it is necessary to reproduce a motion picture at least once or more in order to obtain data for retrieving a desired scene from massive motion picture data, when watching captured images for the first time, the desired scene cannot be retrieved.SOLUTION: An imaging apparatus comprising first imaging means and second imaging means is characterized in that information based on an image captured by the second imaging means which performs imaging simultaneously, is added to a captured image which is captured by the first imaging means. Furthermore, the added information is used for reproducing images captured by the first imaging means. Moreover, the information to be added is based on expressions of a photographer.

Description

本発明は、撮影者の表情に関する情報が画像と共に記録可能であって、この情報を用いてシーン検索が可能な撮像装置に関するものである。   The present invention relates to an imaging apparatus capable of recording information relating to a photographer's facial expression together with an image, and capable of scene search using this information.

デジタルカメラやビデオカメラなどの撮像装置の記録媒体の大容量化により、長時間の動画の撮影が可能になった今、記録された大量の画像の中から特定の画像を検索することが困難になっている。特に動画を再生する際に所望のシーンを見つけ出すためには、早送りや逆戻しを繰り返しながら探し出す必要があり、困難で時間のかかる仕事である。   Due to the increased capacity of recording media in imaging devices such as digital cameras and video cameras, it has become possible to shoot movies for long periods of time, making it difficult to search for specific images from a large number of recorded images. It has become. In particular, in order to find a desired scene when playing back a moving image, it is necessary to search while repeating fast forward and reverse, which is a difficult and time-consuming work.

このため、従来の技術では、操作履歴を元に画像データの優先順位を決定するような動画像検索支援装置があった(特許文献1参照)。この方法は、動画像の再生を行う際に、再生の方法(Slow Scan、Play、Fast Scanなど)によって重み付けした履歴データを作成し、検索支援に使用するというものである。したがって、検索を行うデータを得るために、少なくとも一回以上動画を再生することが必要であった。   For this reason, in the prior art, there has been a moving image search support apparatus that determines the priority order of image data based on an operation history (see Patent Document 1). In this method, when reproducing a moving image, history data weighted by a reproduction method (Slow Scan, Play, Fast Scan, etc.) is created and used for search support. Therefore, it has been necessary to reproduce the moving image at least once in order to obtain data to be searched.

特開平5−54085JP-A-5-54085

しかしながら、この方法では、検索を行うデータを得るために、少なくとも一回以上動画を再生することが必要であるため、撮影した画像を最初に見るときには、所望のシーンの検索を行うことが出来ない。また、再生の方法によって、データを重み付けするため、何度もスロー再生した見づらいシーンなどが上位に設定される恐れがある。   However, in this method, since it is necessary to reproduce a moving image at least once in order to obtain data to be searched, when a photographed image is first viewed, a desired scene cannot be searched. . In addition, since the data is weighted depending on the reproduction method, a scene that is difficult to see that has been slowly reproduced many times may be set higher.

シーン検索のための情報を、撮影時に撮影画像に付加することができれば、シーン検索を行う前に、動画の再生を行う必要がなくなり、時間のかかる作業が不要になる。   If information for scene search can be added to a captured image at the time of shooting, it is not necessary to reproduce a moving image before performing a scene search, and time-consuming work is unnecessary.

また、撮影者の表情など、撮影者の挙動によって、シーン検索のための情報を付加することができれば、撮影する側からみて興味深い内容など、人の気持ちに配慮した検索情報が撮影画像に付加されることになって、検索する人が感覚的にわかり易い情報となる。   In addition, if information for scene search can be added according to the photographer's behavior, such as the photographer's facial expression, search information that takes human feelings into consideration, such as interesting content from the viewpoint of the photographer, is added to the photographed image. As a result, it becomes information that is easily understood by the person who searches.

そこで、本発明では、第一の撮像手段と第二の撮像手段を有する撮像装置において、第一の撮像手段で撮影された撮影画像に、同時に撮影を行った第二の撮像手段で撮影された画像を元にした情報を付加することを特徴とする。これによって、第一の撮像手段で撮影した撮影画像のなかから、所望のシーンを探し出す際に、第二の撮像手段で撮影した、周囲の状況を元に撮影者が記憶をたどって探すことができ、感覚的にわかりやすく所望のシーンを探し出すことが容易になる。   Therefore, in the present invention, in the imaging device having the first imaging means and the second imaging means, the photographed image photographed by the first imaging means was photographed by the second imaging means that photographed simultaneously. It is characterized by adding information based on an image. As a result, when searching for a desired scene from the captured images captured by the first image capturing unit, the photographer can search the memory based on the surrounding conditions captured by the second image capturing unit. This makes it easy to find a desired scene in a sensuous manner.

また、付加された情報を第一の撮像手段で撮影した画像の再生時に使用することによって、第一の撮像手段で撮影した撮影画像のなかから、所望のシーンを探し出す際に、第一の撮像手段では撮影できていないが、第二の撮像手段で撮影した特徴的な周囲の変化を思い出すことによって、所望のシーンを容易に探し出すことが可能である。   Further, by using the added information at the time of reproduction of the image captured by the first imaging unit, the first imaging is performed when searching for a desired scene from the captured images captured by the first imaging unit. Although it cannot be photographed by the means, it is possible to easily find a desired scene by remembering the characteristic change in the surroundings photographed by the second imaging means.

さらに、第二の撮像手段の撮影対象が、撮影者であるため、撮影者の撮影時の挙動からシーンの検索が可能になる。楽しいシーンを見たい場合には、付加された撮影者の情報が「楽しい場合の挙動」のシーンを検索することによって、楽しいシーンを探しだすことが可能となる。このように、再生者は、楽しいシーン、悲しいシーンなどを指定して検索することによって、容易に所望のシーンを探しだすことができる。また、付加する情報が、撮影者の表情を元にした情報であるため、撮影者は、撮影時に感じたことを思い出すことによって、所望のシーンを探すことが可能となる。   Furthermore, since the subject to be imaged by the second imaging means is a photographer, it is possible to search for a scene from the behavior of the photographer at the time of photographing. When it is desired to see a fun scene, it is possible to find a fun scene by searching for a scene whose attached photographer information is “behavior when fun”. Thus, the player can easily find a desired scene by specifying and searching for a fun scene, a sad scene, or the like. Further, since the information to be added is information based on the photographer's facial expression, the photographer can search for a desired scene by remembering what he / she felt at the time of photographing.

このように、撮影された画像を最初に見る場合にも、どのような場面が見たいかという再生者の希望により、所望のシーンを探しだすという操作が感覚的に行えるようになる。   In this way, even when the photographed image is first viewed, an operation of searching for a desired scene can be performed sensuously according to the player's desire for what kind of scene he / she wants to see.

以上説明したように、本発明によれば、撮影画像の中から所望のシーンを探し出す際に、容易に所望のシーンを探し出すことが可能になる。撮影者は自分が感じたことを思い出すことによって、所望のシーンを探し出すことが容易になるため、これまでのように、早送りや逆戻しを繰り返しながら、所望のシーンを探し出すというような、時間がかかり、つまらない時間を過ごす必要がなくなる。また初めて撮影画像を見る再生者も、楽しいシーン、悲しいシーンなどを指定して検索することにより、自分が見たいシーンの見を容易に探し出し再生することが可能になる。このため、画像のすべてに目を通す必要はなくなり、短い時間で所望のシーンのみを見ることが可能になる。このように、容易に感覚的に所望のシーンを検索可能になって、装置の操作性が向上する。   As described above, according to the present invention, it is possible to easily find a desired scene when searching for a desired scene from a captured image. Since the photographer can easily find the desired scene by remembering what he / she felt, the time required to search for the desired scene while repeating fast forward and reverse operations as before. Takes up and eliminates the need to spend boring time. Also, a player who first views a photographed image can easily find and reproduce the scene he / she wants to see by specifying and searching for a fun scene, a sad scene, or the like. For this reason, it is not necessary to look through all of the images, and only a desired scene can be viewed in a short time. In this way, a desired scene can be easily and intuitively searched, and the operability of the apparatus is improved.

本発明の第1の実施形態におけるビデオカメラの構成を示すブロック図The block diagram which shows the structure of the video camera in the 1st Embodiment of this invention. 本発明の第1の実施形態におけるビデオカメラの正面方向(被写体側)右側から見た外観斜視図FIG. 2 is an external perspective view of the video camera according to the first embodiment of the present invention as viewed from the front side (subject side) right side. 本発明の第1の実施形態におけるビデオカメラの後方(撮影者側)から見た外観背面図The external appearance rear view seen from the back (photographer side) of the video camera in the 1st Embodiment of this invention 本発明の第1の実施形態におけるビデオカメラでの撮影時の様子を表す概略図Schematic showing the mode at the time of imaging | photography with the video camera in the 1st Embodiment of this invention. 本発明の第1の実施形態におけるビデオカメラの動画撮影時処理手順を示すフローチャートThe flowchart which shows the process sequence at the time of the video recording of the video camera in the 1st Embodiment of this invention. 本発明の第1の実施形態におけるビデオカメラの付加情報生成処理のフローチャートFlowchart of additional information generation processing of the video camera in the first embodiment of the present invention 本発明の第1の実施形態におけるビデオカメラの付加情報を示す表Table showing additional information of the video camera according to the first embodiment of the present invention 本発明の第1の実施形態におけるビデオカメラの画像再生時の処理を示すフローチャートThe flowchart which shows the process at the time of the image reproduction of the video camera in the 1st Embodiment of this invention 本発明の第1の実施形態におけるビデオカメラの再生モード画面作成処理のフローチャートFlowchart of playback mode screen creation processing of the video camera in the first embodiment of the present invention 本発明の第1の実施形態におけるビデオカメラの再生モード画面Playback mode screen of the video camera in the first embodiment of the present invention 本発明の第1の実施形態におけるビデオカメラの再生モード画面で選択部がハイライトされた様子The selection unit is highlighted on the playback mode screen of the video camera according to the first embodiment of the present invention. 本発明の第1の実施形態における記録情報のファイル形式の一例を表す図The figure showing an example of the file format of the recording information in the 1st Embodiment of this invention

以下、本発明を実施するための形態に関して説明する。   Hereinafter, embodiments for carrying out the present invention will be described.

<第1の実施形態>
図1は本発明の実施形態におけるビデオカメラの構成を示すブロック図である。図2は本発明の第1の実施形態におけるビデオカメラの正面方向(被写体側)右側から見た外観斜視図、図3は同ビデオカメラの後方(撮影者側)から見た外観背面図、図4は撮影時の様子を表す概略図である。
<First Embodiment>
FIG. 1 is a block diagram showing a configuration of a video camera according to an embodiment of the present invention. 2 is an external perspective view of the video camera according to the first embodiment of the present invention as viewed from the front (subject side) right side, and FIG. 3 is an external rear view of the video camera as viewed from the rear (photographer side). 4 is a schematic diagram showing a state during photographing.

ビデオカメラ本体100は、図1に示すように、フォーカス及びズーム等の光学制御系を含む光学レンズ群及び絞りからなるレンズ101とサブレンズ124、CCDなどの撮像素子を含む撮像部102とサブ撮像部125があり、メインレンズ101はメイン撮像部102に、サブレンズ124はサブ撮像部125にそれぞれ対応している。   As shown in FIG. 1, the video camera main body 100 includes an optical lens group including an optical control system such as focus and zoom, a lens 101 including a diaphragm, a sub lens 124, an imaging unit 102 including an imaging element such as a CCD, and a sub imaging. The main lens 101 corresponds to the main imaging unit 102, and the sub lens 124 corresponds to the sub imaging unit 125.

その他にもビデオカメラ100は、カメラ信号処理部103、圧縮伸張処理部104、表示部105、記録再生処理部106、カード制御部107、テープ制御部108、マイクロフォン109、音声信号処理部110、メモリ111、メモリ制御部112、CPU113、操作部114、デジタルI/F115、入出力部116、電源制御部117を備えている。   In addition, the video camera 100 includes a camera signal processing unit 103, a compression / decompression processing unit 104, a display unit 105, a recording / playback processing unit 106, a card control unit 107, a tape control unit 108, a microphone 109, an audio signal processing unit 110, a memory. 111, a memory control unit 112, a CPU 113, an operation unit 114, a digital I / F 115, an input / output unit 116, and a power supply control unit 117.

また、各機能ブロックはそれぞれデータバス118を介して互いにデータ通信可能に接続されている。   The functional blocks are connected to each other via a data bus 118 so that data communication is possible.

このようなビデオカメラ本体100において、メモリ111は、プログラム記憶領域とデータ作業領域を有し、データバス118を介して各機能ブロックでタイム・シェアリングして使用され、メモリ制御部112により制御及び管理されている。   In such a video camera main body 100, the memory 111 has a program storage area and a data work area, and is used by time sharing in each functional block via the data bus 118, and is controlled by the memory control unit 112. It is managed.

CPU113は所定のプログラムを実行すること等により、ビデオカメラ本体100全体を統括制御する中央演算処理回路である。   The CPU 113 is a central processing circuit that performs overall control of the entire video camera main body 100 by executing a predetermined program.

操作部114は、図2及び図3の114a、114b、114c、114d、114e、114f、114g、114h、114i、114j、114k、114l、114m、114n、114o、114p、114q、114r等の操作キーなどを有し、ユーザーからのキー操作などに基づいて、CPU113に対して動作指示する機能を有する。   The operation unit 114 is an operation key such as 114a, 114b, 114c, 114d, 114e, 114f, 114g, 114h, 114i, 114j, 114k, 114l, 114m, 114n, 114o, 114p, 114q, 114r in FIGS. And has a function of instructing the CPU 113 to perform an operation based on a key operation from the user.

ここで、各操作キーの機能について、図2及び図3を用いて説明する。   Here, the function of each operation key will be described with reference to FIGS.

114a、114b、114c、114dは再生操作ボタンであり、114aは逆戻しボタン、114bは早送りボタン、114cは再生/一時停止ボタン、114dは停止ボタンである。   114a, 114b, 114c, and 114d are playback operation buttons, 114a is a reverse button, 114b is a fast forward button, 114c is a playback / pause button, and 114d is a stop button.

また、114eはデジタルエフェクトの可否ボタン、114fは連写機能の設定ボタン、、114gはセルフタイマーの設定ボタンである。   114e is a digital effect enable / disable button, 114f is a continuous shooting function setting button, and 114g is a self-timer setting button.

114hはレンズの画角をワイド側又はテレ側に変化させるズーム操作を行うためのズームキー、114iは静止画の記録を行う静止画撮影ボタンであり、半押しと全押し操作が可能な2段階スイッチである。   114h is a zoom key for performing a zoom operation to change the angle of view of the lens to the wide side or the tele side, and 114i is a still image shooting button for recording a still image, which is a two-stage switch that can be pressed halfway and fully It is.

114jはメニュー表示のON/OFFの切替え等を行うメニューボタン、114kはメニューの選択・決定等を行うメニューキー、114lは撮影時にホワイトバランスの設定を行うホワイトバランス設定ボタン、114mは撮影時にオート/マニュアルフォーカス選択を設定するフォーカス設定ボタン、114nは撮影時に露出を設定する露出設定ボタンである。   114j is a menu button for switching the menu display ON / OFF, 114k is a menu key for selecting and determining a menu, 114l is a white balance setting button for setting white balance at the time of shooting, and 114m is auto / auto at the time of shooting. A focus setting button 114 n for setting manual focus selection, and an exposure setting button 114 n for setting exposure at the time of shooting.

114oはモードダイヤルであり、ダイヤルを回転動作することで、全自動モード、シャッタースピード優先モード、絞り優先モードなどの撮影イメージに合わせたプログラム自動露出を設定することが可能である。   Reference numeral 114o denotes a mode dial. By rotating the dial, it is possible to set program automatic exposure in accordance with a photographed image such as a fully automatic mode, a shutter speed priority mode, and an aperture priority mode.

114pは電源ダイヤルであり、回転動作することで電源オフ、撮影モード、再生モードを切り替えることが可能である。   Reference numeral 114p denotes a power dial, which can be switched between power-off, shooting mode, and playback mode by rotating.

114qは動画撮影ボタンであり、押圧動作することで、動画撮影のスタート/ストップを行うことが可能である。   Reference numeral 114q denotes a moving image shooting button, which can start / stop moving image shooting by pressing.

114rは記録媒体切替えレバーであり、回転動作することで、画像を記録する記録媒体を選択することが可能である。   A recording medium switching lever 114r can select a recording medium for recording an image by rotating.

デジタルI/F115は、例えばIEEE1394やUSB等の規格に従い信号を授受する。   The digital I / F 115 sends and receives signals in accordance with standards such as IEEE 1394 and USB.

メモリーカード119は、脱着式のフラッシュメモリーであり、撮影データ及び音声データが記録される。   The memory card 119 is a detachable flash memory in which shooting data and audio data are recorded.

電源制御部117は、バッテリ検出回路、DC−DCコンバータ、通電するブロックを切り替えるスイッチ回路等により構成されており、電池の装着の有無、電池の種類、電池残量の検出を行う。バッテリ123は、リチウムイオン電池等であり、ビデオカメラ本体100に電源を供給する。   The power supply control unit 117 includes a battery detection circuit, a DC-DC converter, a switch circuit that switches a block to be energized, and the like, and detects whether or not a battery is installed, the type of battery, and the remaining battery level. The battery 123 is a lithium ion battery or the like, and supplies power to the video camera body 100.

付加情報生成処理部126は表情検知手段や表情識別手段や表情情報格納部からなり、特開平6−76058に示されるような方法に基づき、サブ撮像部125にうつった人物の表情を識別して、付加情報を生成する。表情検知手段は撮影画像から顔の特徴部位を抽出し表情要素を抽出する。表情識別手段は抽出した表情要素から表情要素コードを算出し、表情要素コードから表情を識別する。表情情報格納部には、各表情に対応した識別コードが格納されており、識別された表情に対応する識別コードを付加情報として、撮影画像に付加する。   The additional information generation processing unit 126 includes a facial expression detection unit, a facial expression identification unit, and a facial expression information storage unit. Based on a method disclosed in Japanese Patent Laid-Open No. 6-76058, the additional information generation processing unit 126 identifies the facial expression of a person who has passed through the sub imaging unit 125. , Generate additional information. The facial expression detection means extracts facial feature parts from the photographed image and extracts facial expression elements. The facial expression identification means calculates a facial expression element code from the extracted facial expression element, and identifies the facial expression from the facial expression element code. An identification code corresponding to each facial expression is stored in the facial expression information storage unit, and an identification code corresponding to the identified facial expression is added to the captured image as additional information.

次に、本発明の第1の実施形態におけるビデオカメラの撮影動作及び記録動作、再生動作について説明する。例えば、操作部114により撮影動作及び記録動作が指示された場合、メイン撮像部102の被写体からの光は、レンズ101により所定の明るさ、画角、及びフォーカス等が制御された光学信号となって撮像部102に対して入力される。撮像部102は入力光学信号を電気信号に変換し、カメラ信号処理部103に出力する。カメラ信号処理部103はこの電気信号をデジタル画像信号に変換する。そして、この画像信号に対して、色分離、階調補正、及びホワイトバランス調整などの信号処理を施した後出力する。音声信号処理部110は、マイクロフォン109より入力された音声信号を所定レベルにゲインコントロールしてデジタル化することで、音声データとして出力する。   Next, the shooting operation, recording operation, and playback operation of the video camera in the first embodiment of the present invention will be described. For example, when a photographing operation and a recording operation are instructed by the operation unit 114, light from the subject of the main imaging unit 102 becomes an optical signal whose predetermined brightness, angle of view, focus, and the like are controlled by the lens 101. Are input to the imaging unit 102. The imaging unit 102 converts the input optical signal into an electrical signal and outputs it to the camera signal processing unit 103. The camera signal processing unit 103 converts this electric signal into a digital image signal. The image signal is subjected to signal processing such as color separation, gradation correction, and white balance adjustment, and then output. The audio signal processor 110 outputs the audio signal as audio data by gain-controlling the audio signal input from the microphone 109 to a predetermined level and digitizing it.

一方、サブ撮像部125においては、撮影者の像は、サブレンズ124により所定の明るさ、画角、及びフォーカス等が制御された光学信号となってサブ撮像部125に対して入力される。撮影時は図4に示すように、撮影者401は撮像装置本体100をグリップして被写体402をメインレンズで撮影している。このようなときに、サブレンズ124は撮影者401を撮影できるような場所に配置されている。   On the other hand, in the sub imaging unit 125, the photographer's image is input to the sub imaging unit 125 as an optical signal in which predetermined brightness, field angle, focus, and the like are controlled by the sub lens 124. At the time of shooting, as shown in FIG. 4, the photographer 401 grips the imaging apparatus main body 100 and shoots the subject 402 with the main lens. In such a case, the sub lens 124 is arranged at a place where the photographer 401 can be photographed.

サブ撮像部125は入力光学信号を電気信号に変換し、カメラ信号処理部103に出力する。カメラ信号処理部103はこの電気信号をデジタル画像信号に変換する。そして、この画像信号の中に人の顔があった場合には、付加情報生成処理部126は顔の特徴部位を抽出し表情要素を抽出して表情要素コードを算出し、表情を識別し、識別された表情に対応する識別コードを付加情報として出力する。   The sub imaging unit 125 converts the input optical signal into an electrical signal and outputs it to the camera signal processing unit 103. The camera signal processing unit 103 converts this electric signal into a digital image signal. If there is a human face in the image signal, the additional information generation processing unit 126 extracts facial feature parts, extracts facial expression elements, calculates facial expression element codes, identifies facial expressions, An identification code corresponding to the identified facial expression is output as additional information.

圧縮伸張処理部104は、カメラ信号処理部103から出力された画像データ及び音声信号処理部110から出力された音声データを所定の圧縮符号化方式により圧縮符号化する。表示部105は、図2及び図3に示す液晶表示部105aとEVF105bにより構成され、圧縮伸張処理部104で圧縮符号化対象の撮影データを表示する。また、表示部105は、必要に応じてビデオカメラ本体100の動作状況をオンスクリーン・ディスプレイ情報として表示する。   The compression / decompression processing unit 104 compresses and encodes the image data output from the camera signal processing unit 103 and the audio data output from the audio signal processing unit 110 using a predetermined compression encoding method. The display unit 105 includes a liquid crystal display unit 105a and an EVF 105b shown in FIGS. 2 and 3, and the compression / decompression processing unit 104 displays shooting data to be compressed and encoded. The display unit 105 displays the operation status of the video camera body 100 as on-screen display information as necessary.

記録再生処理部106は、圧縮伸張処理部104で得られた圧縮符号化後のデータに対して、エラー訂正符号化処理や変調処理等を施し、更に同期、IDなどのデータを付加して記録に適した形態に変換した後、テープ120あるいはメモリーカード119等の記録媒体に記録する。この際、テープ制御部108はテープ120の記録制御を、カード制御部107はメモリーカード119の記録制御をおこなう。   The recording / playback processing unit 106 performs error correction coding processing, modulation processing, and the like on the data after compression coding obtained by the compression / decompression processing unit 104, and further adds data such as synchronization and ID to record. Then, the data is recorded on a recording medium such as the tape 120 or the memory card 119. At this time, the tape control unit 108 performs recording control of the tape 120, and the card control unit 107 performs recording control of the memory card 119.

一方、操作部114により再生動作が指示された場合、記録再生処理部106は、テープ120またはメモリーカード119から読み出したデータから元のデジタルデータを検出し、エラー訂正及び復調等の処理を施す。また、PLL回路によりこの再生データに同期したクロックを生成する。   On the other hand, when a reproduction operation is instructed by the operation unit 114, the recording / reproduction processing unit 106 detects original digital data from data read from the tape 120 or the memory card 119, and performs processing such as error correction and demodulation. Further, a clock synchronized with the reproduction data is generated by a PLL circuit.

圧縮伸張処理部104は、記録再生処理部106より出力されたデータに対して、所定の圧縮符号化方式に対応した伸張処理を施し、圧縮符号化前の撮影データ及び音声データと付加情報生成処理部126によって生成された付加情報を取得する。表示部105は、圧縮伸張処理部104で得られた再生データを表示する。   The compression / decompression processing unit 104 performs decompression processing corresponding to a predetermined compression encoding method on the data output from the recording / playback processing unit 106, and performs shooting data and audio data before compression encoding and additional information generation processing The additional information generated by the unit 126 is acquired. The display unit 105 displays the reproduction data obtained by the compression / decompression processing unit 104.

また操作部114によりデジタルI/F115からの入力データを記録する指示があった場合、CPU113はデジタルI/F115により、外部装置121からの画像データあるいは音声データあるいは付加情報をデジタル信号の状態で入力し、記録再生処理部106に送る。この際、外部装置121からの画像データ、音声データは既に符号化されているものとし、記録再生処理部106は前述のようにこの入力データに対して記録に必要な処理を施してテープ120やメモリーカード119などの記録媒体に記録する。   When the operation unit 114 instructs to record input data from the digital I / F 115, the CPU 113 inputs image data, audio data, or additional information from the external device 121 in a digital signal state by the digital I / F 115. Then, the data is sent to the recording / reproducing processor 106. At this time, it is assumed that the image data and audio data from the external device 121 have already been encoded, and the recording / playback processing unit 106 performs processing necessary for recording on the input data as described above to perform the tape 120 or the like. Recording is performed on a recording medium such as a memory card 119.

また操作部114により、入出力部116からの入力信号を記録する指示があった場合、CPU113は入出力部116を制御し、外部装置122から出力された画像、音声信号を入力する。入出力部116は外部装置122から出力された画像、音声信号をデジタルデータに変換してメモリ111に出力する。CPU113はこのメモリ111に記憶された画像、音声データ、付加情報を圧縮伸張処理部104に出力して圧縮符号化し、記録再生処理部106に送る。記録再生処理部106は前述の様にこの符号化されたデータに対して記録に必要な処理を施してテープ120やメモリーカード119などの記録媒体に記録する。   When the operation unit 114 instructs to record an input signal from the input / output unit 116, the CPU 113 controls the input / output unit 116 and inputs an image and audio signal output from the external device 122. The input / output unit 116 converts the image and audio signals output from the external device 122 into digital data and outputs the digital data to the memory 111. The CPU 113 outputs the image, audio data, and additional information stored in the memory 111 to the compression / decompression processing unit 104, compression-codes them, and sends them to the recording / reproduction processing unit 106. As described above, the recording / playback processing unit 106 performs processing necessary for recording on the encoded data and records it on a recording medium such as the tape 120 or the memory card 119.

次に本発明の第1の実施形態の特徴とする、撮影時の付加情報の付加処理や画像再生時の付加情報の利用について、図を参照しながら説明する。この撮像装置では、メイン撮像部102で撮影した画像に、サブ撮像部125で撮影した画像を元に情報を付加することができ、再生時にこの付加情報を元に再生を行うことが可能である。   Next, additional information addition processing at the time of shooting and use of additional information at the time of image reproduction, which are features of the first embodiment of the present invention, will be described with reference to the drawings. In this imaging apparatus, information can be added to the image captured by the main imaging unit 102 based on the image captured by the sub imaging unit 125, and reproduction can be performed based on this additional information during reproduction. .

図5は、本発明の第一の実施形態における動画撮影時処理手順を示すフローチャートである。   FIG. 5 is a flowchart showing a processing procedure during moving image shooting according to the first embodiment of the present invention.

まず、ユーザーが動画を撮影する際には、電源ダイヤル114pにより撮影モードを選択する。   First, when the user shoots a moving image, the shooting mode is selected by the power dial 114p.

このように、撮影モードが選択されると、ステップS501にて、撮像動画のリアルタイムスルー画像を液晶表示部105aもしくはEVF105bに表示し、ステップS502に進む。   As described above, when the shooting mode is selected, the real-time through image of the captured moving image is displayed on the liquid crystal display unit 105a or the EVF 105b in step S501, and the process proceeds to step S502.

ステップS502では、動画撮影ボタン114qが押圧されたか否かを判別する。ここで、動画撮影ボタン114qが押圧されたと判別された場合、ステップS503に進む。   In step S502, it is determined whether or not the moving image shooting button 114q has been pressed. If it is determined that the moving image shooting button 114q has been pressed, the process proceeds to step S503.

ステップS503では、記録処理を開始し、ステップS504に進む。   In step S503, the recording process is started, and the process proceeds to step S504.

ステップS504では、サブ撮像部125から得られた情報を元に付加情報を生成する。   In step S504, additional information is generated based on the information obtained from the sub imaging unit 125.

ここで、付加情報生成処理については詳しく述べる。付加情報生成処理部では、特開平6−76058に示されるような方法に基づき、サブ撮像部125で撮像した人物の表情を識別して、付加情報とする。図6は本発明の第1の実施形態における付加情報生成処理を説明するためのフローチャートである。   Here, the additional information generation process will be described in detail. The additional information generation processing unit identifies the facial expression of the person imaged by the sub imaging unit 125 based on a method as disclosed in JP-A-6-76058, and uses it as additional information. FIG. 6 is a flowchart for explaining the additional information generation processing in the first embodiment of the present invention.

まず、ステップS601でサブ撮像部125から得られた画像情報の中に、顔があるかどうかを判断する。ある場合はステップS602に進む。   First, it is determined whether or not there is a face in the image information obtained from the sub imaging unit 125 in step S601. If there is, the process proceeds to step S602.

ステップS602では、検出した顔の中から特徴部位を抽出して、ステップS603に進む。   In step S602, a characteristic part is extracted from the detected face, and the process proceeds to step S603.

ステップS603では、抽出した特徴部位の中から表情要素を抽出して、ステップS604に進む。   In step S603, facial expression elements are extracted from the extracted feature parts, and the process proceeds to step S604.

ステップS604では、ステップS603で抽出した表情要素によって、表情を決定しステップS605に進む。   In step S604, a facial expression is determined based on the facial expression elements extracted in step S603, and the process proceeds to step S605.

ステップS605では、ステップS604で決定した表情に対応する付加情報を生成する。このとき、ステップS601で顔が検出されなかった場合は、ステップS605に進み、「人物無し」に当たる付加情報を生成する。付加する情報は図7ように、いくつかの表情に分類してあり、付加情報としては、表情ID 701を使用する。   In step S605, additional information corresponding to the facial expression determined in step S604 is generated. At this time, if no face is detected in step S601, the process advances to step S605 to generate additional information corresponding to “no person”. The information to be added is classified into several facial expressions as shown in FIG. 7, and facial expression ID 701 is used as the additional information.

ステップS605で、付加情報を生成したら、ステップS505に進む。   If additional information is generated in step S605, the process proceeds to step S505.

ステップS505では、ステップS504で生成された付加情報とメイン撮像部102から得られた情報を元に、記録情報を作成する。   In step S505, recording information is created based on the additional information generated in step S504 and the information obtained from the main imaging unit 102.

ステップS506では、動画撮影ボタン114qが押圧されたか否かを判別する。ここで、動画撮影ボタン114qが押圧されていなければ、ステップS504に戻る。一方、動画撮影ボタン114qが押圧されたと判別された場合は、ステップS507に進む。   In step S506, it is determined whether or not the moving image shooting button 114q is pressed. If the moving image shooting button 114q is not pressed, the process returns to step S504. On the other hand, if it is determined that the moving image shooting button 114q has been pressed, the process proceeds to step S507.

ステップS507では、動画記録を終了し、本処理を終了する。   In step S507, the moving image recording ends, and the present process ends.

記録情報は、図12に示すように、ヘッダーにサムネイルやファイルNoやその他付加情報などが格納され、画像や音声ファイルに結合した形となっている。   As shown in FIG. 12, the recorded information has a header, a thumbnail, a file number, and other additional information stored therein, and is combined with an image or audio file.

次に、本発明の第1の実施形態における画像再生時の処理について図を参照しながら説明する。   Next, processing during image reproduction in the first embodiment of the present invention will be described with reference to the drawings.

まず、画像再生の際には電源ダイヤル114qにより再生モードを選択する。このように、再生モードが選択されると、ステップS801にて液晶表示部105aもしくはEVF105bに再生モード画面を作成する。ここで再生モード画面の作成S801について詳しく述べる。図9は本発明の第1の実施形態における再生モード画面作成処理を説明するためのフローチャートである。   First, at the time of image reproduction, the reproduction mode is selected by the power dial 114q. As described above, when the reproduction mode is selected, a reproduction mode screen is created on the liquid crystal display unit 105a or the EVF 105b in step S801. Here, the reproduction mode screen creation S801 will be described in detail. FIG. 9 is a flowchart for explaining the playback mode screen creation processing in the first embodiment of the present invention.

まず、ステップS901で、画像に付加情報である、表情ID 701が付加されているか判断する。表情ID 701が付加されている場合には、ステップS902に進む。   First, in step S901, it is determined whether a facial expression ID 701, which is additional information, is added to the image. If the facial expression ID 701 is added, the process proceeds to step S902.

ステップS902では、画像に付加された表情ID 701を読み込んでステップS903に進む。   In step S902, the facial expression ID 701 added to the image is read, and the process proceeds to step S903.

ステップS903では、表情ID 701に対応する表示文字702または表示インジケータ703を読み出し、ステップS904に進む。   In step S903, the display character 702 or the display indicator 703 corresponding to the facial expression ID 701 is read, and the process proceeds to step S904.

ステップS904では、画像が静止画の場合にはサムネイル画像、動画の場合にはタイムコードを読み出し、ステップS905に進む。ステップS901で、画像に表情ID 701が付加されていない場合には、直接ステップS904に進む。   In step S904, a thumbnail image is read if the image is a still image, and a time code is read if the image is a moving image, and the process advances to step S905. If the expression ID 701 is not added to the image in step S901, the process proceeds directly to step S904.

ステップS905では、ステップS903で読み出した表示文字702または表示インジケータ703と、ステップS904で読み出したサムネイル画像またはタイムコードから、再生モード画面を作成して、ステップS801にもどる。   In step S905, a playback mode screen is created from the display character 702 or display indicator 703 read in step S903 and the thumbnail image or time code read in step S904, and the process returns to step S801.

ステップS802では、ステップS801作成した再生モード画面を表示する。   In step S802, the reproduction mode screen created in step S801 is displayed.

再生モード画面は、図10に示すような形態で、例えば、図10(a)のように静止画をサムネイル画像1001と表示文字702で表したり、図10(b)のように静止画をサムネイル画像1001と表示インジケータ703で表しても良い。画像が動画である場合には、図10(c)のように、動画のタイムコード1002にあわせて表示文字702や表示インジケータ703などの付加情報を表示する。付加情報の表示は、一定時間ごとの付加情報を表示してもよいが、図10(c)のように付加情報に変化があったときのみ表示すると表示が煩雑にならなくてよい。   The playback mode screen has a form as shown in FIG. 10, for example, a still image is represented by a thumbnail image 1001 and display characters 702 as shown in FIG. 10A, or a still image is displayed as a thumbnail as shown in FIG. 10B. It may be represented by an image 1001 and a display indicator 703. When the image is a moving image, additional information such as a display character 702 and a display indicator 703 is displayed in accordance with the time code 1002 of the moving image, as shown in FIG. Although the additional information may be displayed at regular intervals, if the additional information is changed as shown in FIG. 10C, the display does not have to be complicated.

ステップS803で、ユーザは再生したい画像を操作部114kを使って選択する。このときに図11に示すように選択されている表示文字702や表示インジケータ703がハイライト部1101のように他と区別して示されるとわかりやすい。   In step S803, the user selects an image to be reproduced using the operation unit 114k. At this time, as shown in FIG. 11, it is easy to understand if the display character 702 and the display indicator 703 that are selected are distinguished from each other like the highlight portion 1101.

ステップS803で画像やシーンが選択された状態でステップS804に進み、再生ボタンが押圧された場合にステップS805に進み、選択された画像やシーンを再生し、本処理を終了する。   When the image or scene is selected in step S803, the process proceeds to step S804. When the playback button is pressed, the process proceeds to step S805, where the selected image or scene is reproduced, and this process ends.

以上のように、本発明による撮像装置では、メイン撮像部で撮影した画像に、サブ撮像部で撮影した画像を元に情報を付加することができ、再生時にこの付加情報を元に再生を行うことが可能である。これによって、撮影者は、撮影時に感じていたことを思い出すことによって感覚的に再生したいシーンを選ぶことが可能となる。例えば、「あの時は、子供が泥だらけで遊ぶのをみて爆笑したなぁ。」だったり、「その後、知らない人が前をのろのろと横切って腹が立ったなぁ。」だったり、そのときそのときに感じたことを思い出して再生が可能である。「泥だらけで遊んでいたシーンを再生したい」と思った場合は、「爆笑」の付加情報が着いている場所で、その後に「怒り」の付加情報がある場所を探せばよいことになる。一方、画像を始めて再生する操作者も、楽しいシーンだけを見たい場合には、「笑い」や「爆笑」のシーンのみを選択して、再生すればよい。このような方法であれば、長い動画の中を早送りや逆戻しを繰り返しながら、希望の個所を探すような煩雑で時間のかかる操作が減り、長い動画の中から、見たい個所を選び出すことが感覚的にできるようになり、撮像装置の操作性が向上する。   As described above, in the imaging apparatus according to the present invention, information can be added to the image captured by the main imaging unit based on the image captured by the sub imaging unit, and reproduction is performed based on this additional information during reproduction. It is possible. Thus, the photographer can select a scene to be reproduced sensuously by remembering what he / she felt at the time of shooting. For example, “At that time, I was laughing when I saw a child playing in the mud.” “After that, an unknown person crossed the front and got angry.” It is possible to replay it when you remember what you felt. If you want to replay a scene that was playing in the muddy area, you can search for a place where the additional information of “Laughter” arrives and then the additional information of “anger”. On the other hand, if an operator who plays an image for the first time wants to see only a fun scene, he / she only needs to select and play the “laugh” or “lol” scene. With this method, it is possible to select the location you want to watch from long videos by reducing the complicated and time-consuming operations of searching for the desired location while repeating fast-forwarding and rewinding in a long movie. It becomes possible to feel it, and the operability of the imaging apparatus is improved.

100 ビデオカメラ本体
101 メインレンズ
102 メイン撮像部
103 カメラ信号処理部
104 圧縮伸張処理部
105 表示部
106 記録再生処理部
107 カード制御部
108 テープ制御部
109 マイクロフォン
110 音声信号処理部
111 メモリ
112 メモリ制御部
113 CPU
114 操作部
115 デジタルI/F
116 入出力部
117 電源制御部
118 バス
124 サブレンズ
125 サブ撮像部
126 付加情報生成処理部
DESCRIPTION OF SYMBOLS 100 Video camera main body 101 Main lens 102 Main imaging part 103 Camera signal processing part 104 Compression / decompression processing part 105 Display part 106 Recording / reproduction processing part 107 Card control part 108 Tape control part 109 Microphone 110 Audio | voice signal processing part 111 Memory 112 Memory control part 113 CPU
114 Operation unit 115 Digital I / F
116 Input / output unit 117 Power supply control unit 118 Bus 124 Sub lens 125 Sub imaging unit 126 Additional information generation processing unit

Claims (4)

第一の撮像手段と第二の撮像手段を有する撮像装置において、第一の撮像手段で撮影された撮影画像に、同時に撮影を行った第二の撮像手段で撮影された画像を元にした情報を付加することを特徴とする撮像装置。   In an imaging apparatus having a first imaging means and a second imaging means, information based on an image photographed by the second imaging means that was photographed at the same time as a photographed image photographed by the first imaging means. An imaging device characterized by adding 付加された情報を第一の撮像手段で撮影した画像の再生時に使用することを特徴とした請求項1に記載の撮像装置。   2. The imaging apparatus according to claim 1, wherein the added information is used at the time of reproducing an image photographed by the first imaging means. 第二の撮像手段の撮影対象が、撮影者であることを特徴とする請求項1に記載の撮像装置。   The imaging apparatus according to claim 1, wherein an imaging target of the second imaging unit is a photographer. 付加する情報が、撮影者の表情を元にした情報であることを特徴とする、請求項3に記載の撮像装置。   The imaging apparatus according to claim 3, wherein the information to be added is information based on a photographer's facial expression.
JP2012006312A 2012-01-16 2012-01-16 Imaging apparatus Pending JP2013146025A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012006312A JP2013146025A (en) 2012-01-16 2012-01-16 Imaging apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012006312A JP2013146025A (en) 2012-01-16 2012-01-16 Imaging apparatus

Publications (1)

Publication Number Publication Date
JP2013146025A true JP2013146025A (en) 2013-07-25

Family

ID=49041604

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012006312A Pending JP2013146025A (en) 2012-01-16 2012-01-16 Imaging apparatus

Country Status (1)

Country Link
JP (1) JP2013146025A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20170098102A (en) * 2016-02-19 2017-08-29 삼성전자주식회사 Method, storage medium and electronic device for providing a plurality of images
US9774843B2 (en) 2014-05-02 2017-09-26 Samsung Electronics Co., Ltd. Method and apparatus for generating composite image in electronic device

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007110261A (en) * 2005-10-11 2007-04-26 Nikon Corp Digital camera
JP2010003201A (en) * 2008-06-23 2010-01-07 Olympus Imaging Corp Image processor, image processing method and program
JP2010187109A (en) * 2009-02-10 2010-08-26 Nikon Corp Electronic still camera
JP2011211349A (en) * 2010-03-29 2011-10-20 Canon Inc Information processing device and operating method thereof
JP2011211621A (en) * 2010-03-30 2011-10-20 Nikon Corp Image display processing apparatus, electronic camera and program

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007110261A (en) * 2005-10-11 2007-04-26 Nikon Corp Digital camera
JP2010003201A (en) * 2008-06-23 2010-01-07 Olympus Imaging Corp Image processor, image processing method and program
JP2010187109A (en) * 2009-02-10 2010-08-26 Nikon Corp Electronic still camera
JP2011211349A (en) * 2010-03-29 2011-10-20 Canon Inc Information processing device and operating method thereof
JP2011211621A (en) * 2010-03-30 2011-10-20 Nikon Corp Image display processing apparatus, electronic camera and program

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9774843B2 (en) 2014-05-02 2017-09-26 Samsung Electronics Co., Ltd. Method and apparatus for generating composite image in electronic device
KR20170098102A (en) * 2016-02-19 2017-08-29 삼성전자주식회사 Method, storage medium and electronic device for providing a plurality of images
US10141027B2 (en) 2016-02-19 2018-11-27 Samsung Electronics Co., Ltd. Method, storage medium, and electronic device for providing plurality of images
KR102424296B1 (en) 2016-02-19 2022-07-25 삼성전자주식회사 Method, storage medium and electronic device for providing a plurality of images

Similar Documents

Publication Publication Date Title
JP6324063B2 (en) Image reproducing apparatus and control method thereof
US8515237B2 (en) Imaging device and image processing apparatus
EP1347455A2 (en) Contents recording/playback apparatus and contents edit method
JP2013258510A (en) Imaging device, and method and program of controlling the same
US8666220B2 (en) Recording/reproducing apparatus and method of controlling the apparatus
JP5058780B2 (en) Image processing device
JP2005117369A (en) Moving image recorder, moving image reproducer and digital camera
JP2013146025A (en) Imaging apparatus
JP2019075638A (en) Image processing device
KR20110070809A (en) Information processing apparatus, method of controlling the same and camera
JP2011049653A (en) Image capturing apparatus
JP2009296504A (en) Image processing system, image processing method, and program
JP2019114847A (en) Image recording control apparatus, image recording method, image recording program, imaging apparatus, and image recording control system
JP6463967B2 (en) Imaging apparatus and control method thereof
JP2014168207A (en) Imaging apparatus, control method of the same, and program
JP2014120926A (en) Imaging apparatus
JP2009088686A (en) Scene switching point detector and method for detecting scene switching point
JP2016129313A (en) Stream recording device and control method for stream recording device
JP4714053B2 (en) camera
JP2009095047A (en) Recording and reproducing device
JP2016123136A (en) Image processing apparatus
JP2005117370A (en) Digital camera
JP6332963B2 (en) Image processing apparatus and image processing apparatus control method
JP6643081B2 (en) Album moving image generating apparatus, album moving image generating method, and program
JP2022187301A (en) Image capture apparatus, control method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150116

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20151021

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20151027

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20151224

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160119

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20160524