JP2013058921A - Imaging apparatus - Google Patents

Imaging apparatus Download PDF

Info

Publication number
JP2013058921A
JP2013058921A JP2011196257A JP2011196257A JP2013058921A JP 2013058921 A JP2013058921 A JP 2013058921A JP 2011196257 A JP2011196257 A JP 2011196257A JP 2011196257 A JP2011196257 A JP 2011196257A JP 2013058921 A JP2013058921 A JP 2013058921A
Authority
JP
Japan
Prior art keywords
image
unit
partial
control unit
images
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2011196257A
Other languages
Japanese (ja)
Other versions
JP5694097B2 (en
Inventor
Ryosuke Mochizuki
良祐 望月
Osamu Nonaka
修 野中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Imaging Corp
Original Assignee
Olympus Imaging Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Imaging Corp filed Critical Olympus Imaging Corp
Priority to JP2011196257A priority Critical patent/JP5694097B2/en
Priority to CN201210262811.XA priority patent/CN103002207B/en
Publication of JP2013058921A publication Critical patent/JP2013058921A/en
Application granted granted Critical
Publication of JP5694097B2 publication Critical patent/JP5694097B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To record an image desired by a user at all times even in a multi-frame mode.SOLUTION: An imaging apparatus comprises: an imaging unit for outputting imaged images obtained by imaging a subject; a first image acquisition unit for acquiring an image of a first field angle from the imaged images; a second image acquisition unit for acquiring from the imaged images one or more second images of a second field angle narrower than the first field angle; a recording controller for video recording one image among the one or more second images; and when the second image being currently recorded by the recording controller does not satisfy a first subject condition, a controller for allowing the recording controller to video record by switching to another second image satisfying a second subject condition among the one or more second images acquired by the second image acquisition unit.

Description

本発明は、マルチフレームモードを有する撮影機器に関する。   The present invention relates to a photographing apparatus having a multi-frame mode.

近年、デジタルカメラなどの撮影機能付き携帯機器(撮影機器)は、画像処理を駆使して、様々な撮影機能を備えている。例えば、特許文献1においては、全体の雰囲気を捉えるために広角側で撮影した画像と、迫力のある瞬間を捉えるために望遠側で撮影した画像とを合成記録して、1画面に2画像を表示する機能を有した撮影装置が開示されている。   2. Description of the Related Art In recent years, portable devices (photographing devices) with a photographing function such as digital cameras have various photographing functions by making full use of image processing. For example, in Patent Document 1, an image captured on the wide-angle side to capture the entire atmosphere and an image captured on the telephoto side to capture a powerful moment are combined and recorded, and two images are displayed on one screen. An imaging device having a display function is disclosed.

また、撮影機器においては、静止画のみならず、動画撮影機能を有するものが多い。例えば、動画撮影中に静止画を撮影する、所謂フォトインムービー機能を有する撮影機器が広く知られている。更に、シャッタボタンを押すことによって静止画とこの静止画の前後の動画を記録する、所謂回想フォト機能を有する撮影機器もある。また、動画として画面全体をリサイズした動画と画面の一部の動画の2種類の動画を記録する、所謂マルチフレーム機能を有する撮影機器もある。   In addition, many photographing devices have not only a still image but also a moving image photographing function. For example, a photographing device having a so-called photo-in movie function for photographing a still image during moving image photographing is widely known. Furthermore, there is a photographing device having a so-called recollection photo function that records a still image and a moving image before and after the still image by pressing a shutter button. There is also a photographing apparatus having a so-called multi-frame function that records two types of moving images, a moving image that is a resized entire screen and a moving image that is a part of the screen.

特開2010−268019号公報     JP 2010-268019 A

マルチフレームモードでは、画面の一部の動画、例えば、特定の人物の画像を追尾しながら記録を行う。しかしながら、このようなマルチフレームモードでは、追尾する画像が撮像範囲から外に出た場合や他の画像によって隠れた場合には、画面の一部の動画としてユーザが希望する画像を記録することができなくなるという問題があった。   In the multi-frame mode, recording is performed while tracking a part of the moving image on the screen, for example, an image of a specific person. However, in such a multi-frame mode, when the image to be tracked goes out of the imaging range or is hidden by another image, the image desired by the user may be recorded as a part of the video on the screen. There was a problem that it was impossible.

本発明は、マルチフレームモードにおいても、常にユーザが希望する画像を記録することができる撮影機器を提供することを目的とする。   An object of the present invention is to provide a photographing device capable of always recording an image desired by a user even in a multi-frame mode.

本発明に係る撮影機器は、被写体を撮像して得た撮像画像を出力する撮像部と、前記撮像画像から第1の画角の画像を取得する第1画像取得部と、前記第1の画角よりも狭い第2の画角の1つ以上の第2の画像を前記撮像画像から取得する第2画像取得部と、前記1つ以上の第2の画像のうちの1つの画像を動画記録する記録制御部と、前記記録制御部において記録中の前記第2の画像が第1の被写体条件を満足しなくなった場合には前記第2画像取得部が取得した1つ以上の第2の画像のうち第2の被写体条件を満足する他の第2の画像に切換えて前記記録制御部に動画記録させる制御部とを具備する。   An imaging device according to the present invention includes an imaging unit that outputs a captured image obtained by imaging a subject, a first image acquisition unit that acquires an image having a first angle of view from the captured image, and the first image. A second image acquisition unit that acquires from the captured image one or more second images having a second angle of view that is narrower than the angle, and records one of the one or more second images as a moving image. A recording control unit that performs recording, and one or more second images acquired by the second image acquisition unit when the second image being recorded by the recording control unit does not satisfy the first subject condition. A control unit that switches to another second image that satisfies the second subject condition and causes the recording control unit to record a moving image.

本発明によれば、マルチフレームモードにおいても、常にユーザが希望する画像を記録することができるという効果を有する。   According to the present invention, it is possible to always record an image desired by the user even in the multi-frame mode.

本発明の第1の実施の形態に係る撮影機器の回路構成を示すブロック図。1 is a block diagram showing a circuit configuration of a photographing apparatus according to a first embodiment of the present invention. フォトインムービーの動作を示す説明図。Explanatory drawing which shows operation | movement of a photo in movie. 回想フォトの動作を示す説明図。Explanatory drawing which shows operation | movement of a recollection photo. マルチフレームの動作を示す説明図。Explanatory drawing which shows operation | movement of a multi-frame. 入力画像及び部分画像の例を示す説明図。Explanatory drawing which shows the example of an input image and a partial image. カメラ撮影制御を示すフローチャート。The flowchart which shows camera imaging | photography control. 優先順位の指定を説明するための説明図。Explanatory drawing for demonstrating designation | designated of a priority. マルチフレームモードにおける画面表示を説明するための説明図。Explanatory drawing for demonstrating the screen display in multiframe mode. マルチフレームモードにおける全体画像を示す説明図。Explanatory drawing which shows the whole image in multi-frame mode. マルチフレームモードにおける部分画像を示す説明図。Explanatory drawing which shows the partial image in multiframe mode. 第2の実施の形態において採用される処理フローを示すフローチャート。The flowchart which shows the processing flow employ | adopted in 2nd Embodiment. 対象被写体の切換えを説明するための説明図。Explanatory drawing for demonstrating switching of a to-be-photographed object. 図11のステップS32の処理の一例を具体的に示すフローチャート。The flowchart which shows an example of a process of FIG.11 S32 concretely. ステップS32の処理の一例を具体的に示す説明図。Explanatory drawing which shows an example of a process of step S32 concretely. 図11のステップS33の処理の一例を具体的に示すフローチャート。The flowchart which shows an example of a process of FIG.11 S33 concretely. 図11のステップS33の処理の一例を具体的に示す説明図。Explanatory drawing which shows an example of a process of FIG.11 S33 concretely. 図11のステップS33の処理の一例を具体的に示すグラフ。The graph which shows an example of a process of FIG.11 S33 concretely.

以下、図面を参照して本発明の実施の形態について詳細に説明する。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.

(第1の実施の形態)
図1は本発明の第1の実施の形態に係る撮影機器の回路構成を示すブロック図である。
(First embodiment)
FIG. 1 is a block diagram showing a circuit configuration of the photographing apparatus according to the first embodiment of the present invention.

図1において、撮影機器10は、CCDやCMOSセンサ等の撮像素子によって構成された撮像部2を有している。撮像部2は、信号処理及び制御部1によって、絞り、ピント、ズーム等が制御可能に構成されており、様々な構図、被写体に対応した撮像が可能である。   In FIG. 1, an imaging device 10 has an imaging unit 2 constituted by an imaging element such as a CCD or a CMOS sensor. The imaging unit 2 is configured such that the aperture, focus, zoom, and the like can be controlled by the signal processing and control unit 1 and can capture images corresponding to various compositions and subjects.

撮像部2は、信号処理及び制御部1によって駆動制御されて、被写体を撮像し、撮像画像を出力する。信号処理及び制御部1は、撮像部2に撮像素子の駆動信号を出力すると共に、撮像部2からの撮像画像を読み出す。この撮像画像の取り込みは読取部1aによって行われる。読取部1aは撮像部2から読み出した撮像画像を分配用仮記録部3に与える。   The imaging unit 2 is driven and controlled by the signal processing and control unit 1 to image a subject and output a captured image. The signal processing and control unit 1 outputs a driving signal for the image sensor to the imaging unit 2 and reads a captured image from the imaging unit 2. The captured image is captured by the reading unit 1a. The reading unit 1 a gives the captured image read from the imaging unit 2 to the distribution temporary recording unit 3.

分配用仮記録部3は、撮像部2からの撮像画像を所定期間保存する容量を有し、撮像部2から読み出された撮像画像(動画及び静止画)を記憶保持する。   The distribution temporary recording unit 3 has a capacity for storing the captured image from the imaging unit 2 for a predetermined period, and stores and holds the captured image (moving image and still image) read from the imaging unit 2.

信号処理及び制御部1は、分配用仮記録部3に記録された撮像画像を読み出して画像処理する2系統の画像処理部1b,1cを有している。画像処理部1b,1cは、入力された画像に対して、所定の信号処理、例えば、色信号生成処理、マトリックス変換処理、その他各種の信号処理を行う。更に、画像処理部1b,1cは、入力画像をリサイズするリサイズ処理、入力画像の一部の領域の画像(以下、部分画像という)を生成する処理等の各種画像処理を行うことも可能に構成されている。なお、以後、入力画像の全領域の画像については、リサイズ処理の有無に拘わらず全体画像というものとする。即ち、全体画像に対して、部分画像は画角が狭い画像、即ち、アップ画像である。   The signal processing and control unit 1 includes two systems of image processing units 1b and 1c that read out the captured image recorded in the distribution temporary recording unit 3 and perform image processing. The image processing units 1b and 1c perform predetermined signal processing such as color signal generation processing, matrix conversion processing, and other various signal processing on the input image. Further, the image processing units 1b and 1c can perform various image processing such as resizing processing for resizing the input image and processing for generating an image of a partial area of the input image (hereinafter referred to as a partial image). Has been. Hereinafter, the entire area of the input image is referred to as an entire image regardless of whether or not resizing processing is performed. That is, the partial image is an image having a narrow angle of view, that is, an up image with respect to the entire image.

特徴判定部1dは、部分画像を生成するためにユーザによって入力画像の一部の領域(以下、部分指定領域という)を指定する操作(以下、部分指定操作という)が行われた場合、或いは、撮像画像に対する画像解析によって人物等の特定の被写体が含まれると判定された領域(以下、部分特定領域という)が検出された場合には、画像処理部1bから部分指定領域及び部分特定領域(以下、これらを部分領域という)の画像情報が与えられて、人物の顔等の対象被写体の特徴量を判定し、判定結果を部分領域中に検出された対象被写体の情報として追尾変化判定部1e1及び別候補決定部1e2に出力する。また、特徴判定部1dは、各被写体の特徴量の情報を部分画像特徴記憶部3aに与えて記憶させるようになっている。   The feature determination unit 1d performs an operation (hereinafter referred to as a partial designation operation) for designating a partial area (hereinafter referred to as a partial designation area) of the input image by the user in order to generate a partial image, or When an area determined to include a specific subject such as a person (hereinafter referred to as a “partial specific area”) is detected by image analysis on the captured image, the partial designated area and the partial specific area (hereinafter referred to as “partial specific area”) are detected. These are referred to as partial areas), and the feature amount of the target subject such as a person's face is determined, and the tracking change determination unit 1e1 and the determination result as information on the target subject detected in the partial area It outputs to another candidate determination part 1e2. In addition, the feature determination unit 1d gives the feature amount information of each subject to the partial image feature storage unit 3a for storage.

追尾変化判定部1e1は、部分画像特徴記憶部3aから対象被写体の特徴量を読み出し、順次入力される入力画像から対象被写体の特徴量と一致する特徴量を有する部分を含む領域を追尾し、追尾結果を画像処理部1cに出力する。こうして、画像処理部1cは、対象被写体を含む部分領域の画像部分を常に追尾しながら、この画像を部分画像として生成することができるようになっている。   The tracking change determination unit 1e1 reads the feature amount of the target subject from the partial image feature storage unit 3a, tracks an area including a portion having a feature amount that matches the feature amount of the target subject from sequentially input images, and tracks The result is output to the image processing unit 1c. In this way, the image processing unit 1c can generate this image as a partial image while always tracking the image portion of the partial region including the target subject.

更に、本実施の形態においては、特徴判定部1d及び追尾変化判定部1e1との間で情報を授受して、別候補を決定する別候補決定部1e2が設けられている。別候補決定部1e2は、部分領域の部分画像が追尾不能な場合に、他の1つ以上の部分領域中の被写体の情報が与えられて、いずれか1つの被写体を対象被写体として選択して選択結果を追尾変化判定部1e1に与える。この選択結果に基づいて、追尾変化判定部1e1は、新たな対象被写体の特徴量を部分画像特徴記憶部3aから読み出して追尾処理を行い、追尾結果を画像処理部1cに出力するようになっている。   Furthermore, in the present embodiment, another candidate determination unit 1e2 is provided that determines information by exchanging information between the feature determination unit 1d and the tracking change determination unit 1e1. When the partial image of the partial area cannot be tracked, the different candidate determining unit 1e2 is provided with information on the subject in one or more other partial regions, and selects and selects one of the subjects as the target subject. The result is given to the tracking change determination unit 1e1. Based on this selection result, the tracking change determination unit 1e1 reads the feature amount of the new target subject from the partial image feature storage unit 3a, performs tracking processing, and outputs the tracking result to the image processing unit 1c. Yes.

これにより、例えば、部分指定操作に基づく部分画像が追尾不能な場合でも、画像処理部1cにおいて、部分特定領域の部分画像を生成することが可能である。なお、本実施の形態においては、追尾変化判定部1e1の追尾処理が完全に行われている場合でも、部分領域において部分画像の大部分が消失している場合等においては、追尾不能であるものと判定する。   Thereby, for example, even when the partial image based on the partial designation operation cannot be tracked, the partial image of the partial specific region can be generated in the image processing unit 1c. In the present embodiment, even if the tracking process of the tracking change determination unit 1e1 is completely performed, tracking is impossible when most of the partial images have disappeared in the partial area. Is determined.

画像処理部1b,1cからの動画像及び静止画像は、画像選択部1fに与えられる。画像選択部1fは入力された動画像及び静止画像を選択して、表示制御部1gに与えると共に、S圧縮部1h、M圧縮部1i及びM圧縮部1jにも与える。   The moving images and still images from the image processing units 1b and 1c are given to the image selection unit 1f. The image selection unit 1f selects the input moving image and still image, gives them to the display control unit 1g, and also gives them to the S compression unit 1h, the M compression unit 1i, and the M compression unit 1j.

表示制御部1gは、入力された動画像及び静止画像を表示部5に与えて表示させるための表示処理を行う。表示部5はLCD等によって構成されており、表示制御部1gから与えられた動画像や静止画像を表示する。   The display control unit 1g performs display processing for providing the input moving image and still image to the display unit 5 for display. The display unit 5 is configured by an LCD or the like, and displays a moving image or a still image given from the display control unit 1g.

一方、S圧縮部1hは入力された静止画像を圧縮して記録制御部1kに与え、M圧縮部1i,1jは入力された動画像を圧縮して記録制御部1kに与える。記録制御部1kは、圧縮された圧縮動画像及び圧縮静止画像を記録部4に与えて記録させる。記録部4は、記録制御部1kに制御されて、入力された圧縮動画像及び圧縮静止画像を記録する。記録部4としては、例えばカードインターフェースを採用することができ、記録部4はメモリカード等の記録媒体に画像情報及び音声情報等を記録可能である。   On the other hand, the S compression unit 1h compresses the inputted still image and gives it to the recording control unit 1k, and the M compression units 1i and 1j compress the inputted moving image and give it to the recording control unit 1k. The recording control unit 1k gives the compressed compressed moving image and the compressed still image to the recording unit 4 for recording. The recording unit 4 is controlled by the recording control unit 1k to record the input compressed moving image and compressed still image. As the recording unit 4, for example, a card interface can be adopted, and the recording unit 4 can record image information, audio information, and the like on a recording medium such as a memory card.

また、撮影機器10には、操作部6も設けられている。操作部6は、撮影モード設定等の各種スイッチやボタンを有しており、ユーザ操作に基づく操作信号を発生して信号処理及び制御部1に供給する。例えば、図1では、操作部6の具体例として、動画撮影操作部6a及び静止画撮影操作部6bを示している。動画撮影操作部6aは動画撮影を指示するためのものであり、動画撮影操作部6aが操作されることで、動画撮影を開始するための操作信号が信号処理及び制御部1に供給されるようになっている。また、静止画撮影操作部6bは静止画撮影を指示するためのものであり、静止画撮影操作部6bが操作されることで、静止画撮影を開始するための操作信号が信号処理及び制御部1に供給されるようになっている。信号処理及び制御部1は、操作信号に基づいて、各部を制御する。   The photographing device 10 is also provided with an operation unit 6. The operation unit 6 includes various switches and buttons for setting a shooting mode, and generates an operation signal based on a user operation and supplies the operation signal to the signal processing and control unit 1. For example, FIG. 1 shows a moving image shooting operation unit 6 a and a still image shooting operation unit 6 b as specific examples of the operation unit 6. The moving image shooting operation unit 6a is for instructing moving image shooting. By operating the moving image shooting operation unit 6a, an operation signal for starting moving image shooting is supplied to the signal processing and control unit 1. It has become. The still image shooting operation unit 6b is for instructing still image shooting. When the still image shooting operation unit 6b is operated, an operation signal for starting still image shooting is transmitted to the signal processing and control unit. 1 is supplied. The signal processing and control unit 1 controls each unit based on the operation signal.

更に、操作部6としてはタッチパネルを採用することもできる。例えば、操作部6としてのタッチパネルを表示部5の表示画面上に設けることで、ユーザが指で指し示した表示画面上の位置に応じた操作信号を発生することができる。これにより、ユーザは、表示部5の表示画面上に表示された画像中の所定の領域を部分指定領域として指定する操作を簡単に行うことができる。   Further, a touch panel can be adopted as the operation unit 6. For example, by providing a touch panel as the operation unit 6 on the display screen of the display unit 5, it is possible to generate an operation signal corresponding to the position on the display screen pointed by the user with a finger. Thus, the user can easily perform an operation of designating a predetermined area in the image displayed on the display screen of the display unit 5 as a partial designation area.

信号処理及び制御部1は、各部を制御することで、ユーザ操作に基づく撮影モードを設定して、各撮影モードに応じた撮影機能を実現する。この場合において、信号処理及び制御部1は、動画撮影操作部6a及び静止画撮影操作部6bの操作のみによって、撮影モードを変更することができるようになっている。   The signal processing and control unit 1 controls each unit to set a shooting mode based on a user operation and realize a shooting function according to each shooting mode. In this case, the signal processing and control unit 1 can change the shooting mode only by operating the moving image shooting operation unit 6a and the still image shooting operation unit 6b.

本実施の形態においては、別候補決定部1e2は、操作部6によるユーザの部分指定操作によって、複数の対象被写体を予め登録し、優先順位を付すことが可能である。別候補決定部1e2は、各対象被写体の優先順位の情報を追尾変化判定部1e1に与えることで、追尾可能な場合にはより優先順位が高い被写体を追尾変化判定部1e1に追尾させることができるようになっている。   In the present embodiment, the different candidate determination unit 1e2 can register a plurality of target subjects in advance and assign priorities by the user's partial designation operation by the operation unit 6. The separate candidate determination unit 1e2 can cause the tracking change determination unit 1e1 to track a subject having a higher priority when tracking is possible by providing the tracking change determination unit 1e1 with priority order information of each target subject. It is like that.

次に、このように構成された実施の形態の動作について図2乃至図10を参照して説明する。   Next, the operation of the embodiment configured as described above will be described with reference to FIGS.

先ず、図2乃至図5を参照して、本実施の形態の撮影機器が有する撮影モードであるフォトインムービー、回想フォト及びマルチフレームについて説明する。図2乃至図4は夫々フォトインムービー、回想フォト及びマルチフレームの動作を示す説明図である。また、図5は入力画像及び部分画像の例を示す説明図である。図2乃至図4においては、連続した四角の枠によって、撮像部2からの画像を読み出す読取部1aの動画出力11aの各フレームを示している。   First, with reference to FIGS. 2 to 5, a photo-in movie, a reminiscence photo, and a multi-frame, which are shooting modes of the shooting device of the present embodiment, will be described. 2 to 4 are explanatory diagrams showing the operations of the photo-in-movie, the recollection photo, and the multi-frame, respectively. FIG. 5 is an explanatory diagram showing an example of an input image and a partial image. 2 to 4, each frame of the moving image output 11a of the reading unit 1a that reads an image from the imaging unit 2 is shown by a continuous rectangular frame.

図2に示すフォトインムービーにおいては、動画出力11aの各フレームを夫々リサイズして得た動画11cが、M圧縮部1i,1jに供給されることを示している。M圧縮部1i,1jは、入力された動画11cに対する圧縮処理を行い、圧縮動画像を得る。この圧縮動画像が、フォトインムービーにおける動画として記録される。   In the photo-in movie shown in FIG. 2, the moving image 11c obtained by resizing each frame of the moving image output 11a is supplied to the M compression units 1i and 1j. The M compression units 1i and 1j perform compression processing on the input moving image 11c to obtain a compressed moving image. This compressed moving image is recorded as a moving image in a photo-in movie.

また、フォトインムービーにおいては、動画撮影中に、ユーザによって静止画撮影操作部6bの操作が行われた場合には、動画出力11aの各フレームのうち静止画撮影操作に対応するフレームの静止画11bがS圧縮部1hに与えられる。S圧縮部1hは、入力された静止画11bに対する圧縮処理を行い、圧縮静止画像を得る。この圧縮静止画像が、フォトインムービーにおける静止画として記録される。   In the photo-in movie, when the user operates the still image shooting operation unit 6b during moving image shooting, the still image of the frame corresponding to the still image shooting operation among the frames of the moving image output 11a. 11b is given to the S compression unit 1h. The S compression unit 1h performs a compression process on the input still image 11b to obtain a compressed still image. This compressed still image is recorded as a still image in the photo-in movie.

図3に示す回想フォトにおいては、動画出力11aの各フレームは仮記録されている。回想フォトにおいては、動画撮影中に、ユーザによって静止画撮影操作部6bの操作が行われた場合には、動画出力11aの各フレームのうち静止画撮影操作に対応するフレームの静止画11bがS圧縮部1hに与えられる。S圧縮部1hは、入力された静止画11bに対する圧縮処理を行い、圧縮静止画像を得る。この圧縮静止画像が、回想フォトにおける静止画として記録される。   In the reminiscence photo shown in FIG. 3, each frame of the moving image output 11a is temporarily recorded. In the reminiscence photo, when the user operates the still image shooting operation unit 6b during moving image shooting, the still image 11b of the frame corresponding to the still image shooting operation among the frames of the moving image output 11a is S. It is given to the compression unit 1h. The S compression unit 1h performs a compression process on the input still image 11b to obtain a compressed still image. This compressed still image is recorded as a still image in the recollection photo.

一方、静止画11bの前後のフレームは、リサイズされた後、静止画11bに関連する回想動画11dとしてM圧縮部1i,1jに供給される。M圧縮部1i,1jは、入力された回想動画11dに対する圧縮処理を行い、圧縮動画像を得る。この圧縮動画像が、回想フォトにおける回想動画として記録される。   On the other hand, the frames before and after the still image 11b are resized and then supplied to the M compression units 1i and 1j as a recollection moving image 11d related to the still image 11b. The M compression units 1i and 1j perform a compression process on the input recollection video 11d to obtain a compressed moving image. This compressed moving image is recorded as a recollection moving image in the recollection photo.

図4に示すマルチフレームにおいては、動画出力11aの各フレームを夫々リサイズして得た全体動画11eが、M圧縮部1i,1jに供給されることを示している。M圧縮部1i,1jは、入力された全体動画11eに対する圧縮処理を行い、圧縮動画像を得る。この圧縮動画像が、マルチフレームにおける全体動画として記録される。   The multi-frame shown in FIG. 4 indicates that the entire moving image 11e obtained by resizing each frame of the moving image output 11a is supplied to the M compression units 1i and 1j. The M compression units 1i and 1j perform a compression process on the input whole moving image 11e to obtain a compressed moving image. This compressed moving image is recorded as an entire moving image in a multiframe.

図5(a)は入力画像を示している。図5の例では、入力画像には、A〜Cの3人の人物が撮像されている。マルチフレームにおいて、ユーザが図5(a)の破線領域に示すように人物Aの顔を含む部分指定領域を指定する部分指定操作を行うものとする。そうすると、図5(b)に示す部分指定領域の画像(部分画像)が入力画像から抽出される。更に、特徴判定部1d,追尾変化判定部1e1によって、入力画像中から部分画像が追尾され、以後、人物Aの部分画像が各フレームから抽出される。そして、動画出力11aの各フレームの部分画像からなる部分動画11fが、M圧縮部1i,1jに供給される。M圧縮部1i,1jは、入力された部分動画11fに対する圧縮処理を行い、圧縮動画像を得る。この圧縮動画像が、マルチフレームにおける部分動画として記録される。   FIG. 5A shows an input image. In the example of FIG. 5, three persons A to C are captured in the input image. In the multi-frame, it is assumed that the user performs a part designation operation for designating a part designation area including the face of the person A as indicated by a broken line area in FIG. Then, the image (partial image) of the partial designation area shown in FIG. 5B is extracted from the input image. Further, the partial image is tracked from the input image by the feature determination unit 1d and the tracking change determination unit 1e1, and thereafter, the partial image of the person A is extracted from each frame. Then, a partial moving image 11f including a partial image of each frame of the moving image output 11a is supplied to the M compression units 1i and 1j. The M compression units 1i and 1j perform a compression process on the input partial moving image 11f to obtain a compressed moving image. This compressed moving image is recorded as a partial moving image in a multiframe.

次に、図6のフローチャートを参照して、カメラ撮影制御について説明する。   Next, camera shooting control will be described with reference to the flowchart of FIG.

操作部6の操作によって撮影機器10に電源が投入されると、信号処理及び制御部1は、ステップS1においてスルー画の表示及び仮記録を開始する。即ち、信号処理及び制御部1は、撮像部2を駆動して被写体を撮影させる。読取部1aは、撮像部2からの撮像画像を読み出して、分配用仮記録部3に順次記録させる。分配用仮記録部3は、所定期間の撮像画像を順次記録する。   When the photographing apparatus 10 is turned on by operating the operation unit 6, the signal processing and control unit 1 starts displaying and temporarily recording a through image in step S1. That is, the signal processing and control unit 1 drives the imaging unit 2 to photograph the subject. The reading unit 1 a reads out the captured image from the imaging unit 2 and sequentially records it in the distribution temporary recording unit 3. The distribution temporary recording unit 3 sequentially records captured images for a predetermined period.

信号処理及び制御部1は、分配用仮記録部3に記録された撮像画像を順次読み出し、画像処理部1b又は1cに与える。画像処理部1b又は1cは、撮像画像に対して所定の画像信号処理を施した後、画像選択部1fを介して表示制御部1gに与える。表示制御部1gは、入力画像を表示部5に与えて表示させる。こうして、表示部5の表示画面上において、スルー画が表示される。   The signal processing and control unit 1 sequentially reads the captured images recorded in the distribution temporary recording unit 3 and gives them to the image processing unit 1b or 1c. The image processing unit 1b or 1c performs predetermined image signal processing on the captured image, and then gives it to the display control unit 1g via the image selection unit 1f. The display control unit 1g gives the input image to the display unit 5 for display. In this way, a through image is displayed on the display screen of the display unit 5.

本実施の形態においては、次のステップS19において、優先順位の指定が行われる。図7は優先順位の指定を説明するための説明図である。別候補決定部1e2は、動画撮影時、特にマルチフレームモード時において、部分画像として追尾する対象被写体について優先順位を決定する。別候補決定部1e2は、例えば、表示制御部1gを制御して、表示部5に対象被写体候補の表示を表示させる。図7(a)はこの表示を示しており、撮影機器10の本体21の背面には表示部5の表示画面5aが設けられ、前面には撮影レンズ22が設けられ、上面にはシャッタボタン23が設けられている。表示画面5a上の下側には、対象被写体候補者表示24が表示されている。図7(a)の例では対象被写体候補者として左から順に人物B,A,Cが並んで表示されている。   In the present embodiment, the priority order is specified in the next step S19. FIG. 7 is an explanatory diagram for explaining designation of priority. The separate candidate determination unit 1e2 determines the priority order of the target subject to be tracked as a partial image during moving image shooting, particularly in the multi-frame mode. For example, the separate candidate determination unit 1e2 controls the display control unit 1g to display the display of the target subject candidate on the display unit 5. FIG. 7A shows this display. A display screen 5a of the display unit 5 is provided on the rear surface of the main body 21 of the photographing apparatus 10, a photographing lens 22 is provided on the front surface, and a shutter button 23 is provided on the upper surface. Is provided. A target subject candidate display 24 is displayed on the lower side of the display screen 5a. In the example of FIG. 7A, persons B, A, and C are displayed side by side in order from the left as target subject candidates.

なお、対象被写体は、ユーザがスルー画表示されている撮像画像に対して、操作部6による部分指定操作を行って指定してもよく、特徴判定部1dが撮像画像から予め設定されている人物の顔等の特徴量に基づいて自動的に検出してもよい。   Note that the target subject may be specified by performing a partial specifying operation by the operation unit 6 on the captured image displayed by the user on the captured image, and a person whose feature determination unit 1d is preset from the captured image. It may be automatically detected based on the feature amount of the face or the like.

対象被写体候補表示24が表示されている状態で、ユーザは指25で対象被写体候補の画像部分をタッチする。図7(a)は人物Bの画像部分をタッチした状態を示している。タッチパネルを構成する操作部6は、ユーザが人物Bを指定したことを示す操作信号を別候補決定部1e2に出力する。この操作により、別候補決定部1e2は、人物Bの対象被写体候補表示24上に人物Bが選択されていることを示す選択表示26を表示させると共に、表示画面5a上の上側に、優先順位表示27を表示させる。図7(b)では“1”、“2”、“3”の優先順位が表示されていることを示している。この状態で、ユーザが指25によって優先順位“3”の優先順位表示27の画像部分をタッチする。この操作信号は別候補決定部1e2に供給され、別候補決定部1e2は人物Bの優先順位を3番目に設定する。以後、ユーザが対象被写体候補表示24の各人物の画像部分をタッチする操作及び優先順位表示27の各優先順位の数字の画像部分をタッチする操作を繰り返すことで、対象被写体候補について優先順位が設定される。   In a state where the target subject candidate display 24 is displayed, the user touches the image portion of the target subject candidate with the finger 25. FIG. 7A shows a state in which the image portion of the person B is touched. The operation unit 6 constituting the touch panel outputs an operation signal indicating that the user has designated the person B to the different candidate determination unit 1e2. By this operation, the separate candidate determination unit 1e2 displays the selection display 26 indicating that the person B is selected on the target subject candidate display 24 of the person B, and displays the priority order on the upper side of the display screen 5a. 27 is displayed. FIG. 7B shows that priority orders “1”, “2”, and “3” are displayed. In this state, the user touches the image portion of the priority display 27 with the priority “3” with the finger 25. This operation signal is supplied to another candidate determination unit 1e2, and the another candidate determination unit 1e2 sets the priority order of the person B to the third. Thereafter, the priority order is set for the target subject candidate by repeating the operation of the user touching the image portion of each person on the target subject candidate display 24 and the operation of touching the image portion of each priority order on the priority order display 27. Is done.

次に、信号処理及び制御部1は、ステップS2において、静止画撮影操作部6bが操作されたか否かを判定する。更に、信号処理及び制御部1は、ステップS5において、動画撮影操作部6aが操作されたか否かを判定する。   Next, the signal processing and control unit 1 determines whether or not the still image shooting operation unit 6b has been operated in step S2. Further, in step S5, the signal processing and control unit 1 determines whether or not the moving image shooting operation unit 6a has been operated.

信号処理及び制御部1は、ステップS2において静止画撮影操作部6bが操作されたと判断した場合には、回想フォトモードを設定し、ステップS5において動画撮影操作部6aが操作されたと判断した場合には、フォトインムービーモードを設定するようになっている。   When the signal processing and control unit 1 determines that the still image shooting operation unit 6b is operated in step S2, the signal processing and control unit 1 sets the recollection photo mode, and when it is determined that the moving image shooting operation unit 6a is operated in step S5. The photo-in movie mode is set.

ステップS2において静止画撮影操作部6bが操作されると、信号処理及び制御部1は、ステップS3において回想フォトにおける静止画撮影を行い、ステップS4において回想フォトにおける回想動画記録を行う。即ち、信号処理及び制御部1は、静止画撮影操作部6bの操作タイミングで読取部1aから取り込まれた撮像画像(静止画)を分配用仮記録部3から読み出して、画像処理部1b又は1cに与える。画像処理部1b又は1cは入力された静止画を画像処理し画像選択部1fを介してS圧縮部1hに供給する。S圧縮部1hは入力された静止画を圧縮し、記録制御部1kは圧縮された静止画像を記録部4に与えて記録させる(ステップS3)。   When the still image shooting operation unit 6b is operated in step S2, the signal processing and control unit 1 performs still image shooting in the recollection photo in step S3, and performs recollection video recording in the recollection photo in step S4. That is, the signal processing and control unit 1 reads the captured image (still image) captured from the reading unit 1a at the operation timing of the still image capturing operation unit 6b from the distribution temporary recording unit 3, and the image processing unit 1b or 1c. To give. The image processing unit 1b or 1c performs image processing on the input still image and supplies it to the S compression unit 1h via the image selection unit 1f. The S compression unit 1h compresses the input still image, and the recording control unit 1k gives the compressed still image to the recording unit 4 for recording (step S3).

また、信号処理及び制御部1は、分配用仮記録部3から読み出された静止画像の前後に記録されている動画像を読み出して画像処理部1b又は1cに与える。画像処理部1b又は1cは入力された動画像をリサイズし、回想動画を画像選択部1fを介してM圧縮部1i又は1jに供給する。M圧縮部1i又は1jは入力された回想動画を圧縮し、記録制御部1kは圧縮された回想動画を記録部4に与えて記録させる(ステップS4)。   Further, the signal processing and control unit 1 reads out the moving images recorded before and after the still image read out from the distribution temporary recording unit 3 and supplies the moving images to the image processing unit 1b or 1c. The image processing unit 1b or 1c resizes the input moving image and supplies the recollection moving image to the M compression unit 1i or 1j via the image selection unit 1f. The M compression unit 1i or 1j compresses the inputted recollection video, and the recording control unit 1k gives the compressed recollection video to the recording unit 4 for recording (step S4).

ステップS5において動画撮影操作部6aが操作されると、信号処理及び制御部1は、ステップS6においてフォトインムービーにおける動画撮影を行う。即ち、信号処理及び制御部1は、分配用仮記録部3に順次記録される動画像を読み出して画像処理部1b又は1cに与える。画像処理部1b又は1cは入力された動画像をリサイズし、画像選択部1fを介してM圧縮部1i又は1jに供給する。M圧縮部1i又は1jは入力されたフォトインムービーにおける動画を圧縮し、記録制御部1kは圧縮された動画像を記録部4に与えて記録させる(ステップS6)。   When the moving image shooting operation unit 6a is operated in step S5, the signal processing and control unit 1 performs moving image shooting in the photo-in movie in step S6. That is, the signal processing and control unit 1 reads out the moving images sequentially recorded in the temporary distribution recording unit 3 and gives them to the image processing unit 1b or 1c. The image processing unit 1b or 1c resizes the input moving image and supplies it to the M compression unit 1i or 1j via the image selection unit 1f. The M compression unit 1i or 1j compresses the moving image in the input photo-in movie, and the recording control unit 1k gives the compressed moving image to the recording unit 4 for recording (step S6).

このフォトインムービーモードにおいて、静止画撮影操作部6bの操作が行われると、信号処理及び制御部1は、ステップS7からステップS16を経由してステップS8に処理を移行し、静止画撮影を行う。即ち、信号処理及び制御部1は、静止画撮影操作部6bの操作タイミングで読取部1aから取り込まれた撮像画像(静止画)を分配用仮記録部3から読み出して、画像処理部1b又は1cに与える。画像処理部1b又は1cは入力された静止画を画像処理し画像選択部1fを介してS圧縮部1hに供給する。S圧縮部1hは入力された静止画を圧縮し、記録制御部1kは圧縮された静止画像を記録部4に与えて記録させる(ステップS8)。こうして、フォトインムービーにおける静止画記録が行われる。   In this photo-in movie mode, when the still image shooting operation unit 6b is operated, the signal processing and control unit 1 shifts the process from step S7 to step S16 through step S16, and performs still image shooting. . That is, the signal processing and control unit 1 reads the captured image (still image) captured from the reading unit 1a at the operation timing of the still image capturing operation unit 6b from the distribution temporary recording unit 3, and the image processing unit 1b or 1c. To give. The image processing unit 1b or 1c performs image processing on the input still image and supplies it to the S compression unit 1h via the image selection unit 1f. The S compression unit 1h compresses the input still image, and the recording control unit 1k gives the compressed still image to the recording unit 4 for recording (step S8). Thus, still image recording in the photo-in movie is performed.

また、信号処理及び制御部1は、フォトインムービーモードにおいて、ステップS7の静止画撮影操作部6bの操作が検出されなければ、ステップS9において終了操作が行われたか否かを判定し、行われていない場合には、処理をステップS10に移行して、部分指定操作の有無を判定する。   If the operation of the still image shooting operation unit 6b in step S7 is not detected in the photo-in movie mode, the signal processing and control unit 1 determines whether or not the end operation has been performed in step S9. If not, the process moves to step S10 to determine whether or not there is a partial designation operation.

本実施の形態においては、フォトインムービーモードにおいて、部分指定操作が発生した場合にはマルチフレームモードに移行し、発生しない場合にはフォトインムービーを継続するようになっている。即ち、信号処理及び制御部1は、フォトインムービーモード時に、ステップS10において部分指定操作の発生を検出しない場合には、ステップS11においてマルチフレームへの移行が行われていないものと判定して、処理をステップS6に戻してフォトインムービーを継続し、部分指定操作の発生を検出した場合には、処理をステップS12に移行してマルチフレームモードを設定する。   In the present embodiment, in the photo-in movie mode, when a partial designation operation occurs, the mode shifts to the multi-frame mode, and when it does not occur, the photo-in movie is continued. That is, in the photo-in-movie mode, the signal processing and control unit 1 determines that the transition to the multiframe is not performed in step S11 when the occurrence of the partial designation operation is not detected in step S10. When the process returns to step S6 to continue the photo-in movie and the occurrence of the partial designation operation is detected, the process proceeds to step S12 and the multi-frame mode is set.

マルチフレームモードにおいても、フォトインムービーモード時と同様に、入力画像をリサイズして得た全体画像を動画記録する。従って、信号処理及び制御部1は、マルチフレームモードに移行しても、分配用仮記録部3から動画像を読み出し、この動画像を画像処理部1bにおいてリサイズして全体画像を得、画像選択部1fを介してM圧縮部1i又は1jに与えて圧縮し、記録制御部1kにより記録部4において記録する。   Also in the multi-frame mode, the entire image obtained by resizing the input image is recorded as a moving image, as in the photo-in-movie mode. Therefore, even when the signal processing and control unit 1 shifts to the multi-frame mode, the moving image is read from the distribution temporary recording unit 3, and the moving image is resized in the image processing unit 1b to obtain the entire image, and the image selection is performed. The data is compressed by being supplied to the M compression unit 1i or 1j through the unit 1f, and is recorded in the recording unit 4 by the recording control unit 1k.

また、マルチフレームモード時には、信号処理及び制御部1は、分配用仮記録部3から読み出した画像を画像処理部1cに与えて、部分指定操作に応じた部分画像を切り出す。この場合には、画像処理部1cは、追尾変化判定部1e1によって追尾された部分画像を含む部分指定領域を切り出す。こうして、画像処理部1cからは部分画像からなる動画像が出力され、画像選択部1fを介してM圧縮部1i又は1jに供給されて圧縮され、記録制御部1kによって記録部4において記録される(ステップS13)。   In the multi-frame mode, the signal processing and control unit 1 supplies the image read from the distribution temporary recording unit 3 to the image processing unit 1c, and cuts out a partial image corresponding to the partial designation operation. In this case, the image processing unit 1c cuts out a partial designation region including the partial image tracked by the tracking change determination unit 1e1. Thus, a moving image composed of partial images is output from the image processing unit 1c, supplied to the M compression unit 1i or 1j via the image selection unit 1f, compressed, and recorded in the recording unit 4 by the recording control unit 1k. (Step S13).

更に、本実施の形態においては、マルチフレームモード時には、全体画像と部分画像とをピクチャインピクチャ表示することによって、利便性を向上させるようになっている。図8はマルチフレームモードにおける画面表示を説明するための説明図であり、図5と同一の入力画像が入力された場合の例を示している。   Furthermore, in this embodiment, in the multi-frame mode, the convenience is improved by displaying the entire image and the partial image in picture-in-picture. FIG. 8 is an explanatory diagram for explaining screen display in the multi-frame mode, and shows an example in which the same input image as that in FIG. 5 is input.

いま、図5(a)に示す入力画像が画像処理部1b,1cに入力されるものとする。図5(a)の例では、入力画像として、A〜Cの3人の人物が撮像されている。ユーザが図5(a)の破線領域に示すように人物Aの顔を含む部分指定領域を指定する部分指定操作を行うものとする。なお、この部分指定操作は、マルチフレームモードにおける部分画像を特定するための操作であり、ユーザはステップS19における優先順位が1番の対象被写体候補を含む画像部分を指定するものと考えられる。しかし、仮に、ステップS19において指定した優先順位が1番の対象被写体候補と異なる人物が含まれる部分指定領域を指定する部分指定操作が行われた場合には、この部分指定操作を単にマルチフレームモードへの移行操作として次のステップに移行してもよく、この部分指定操作に基づく対象被写体候補を優先順位の1番に設定して他の対象被写体候補の優先順位を再設定してもよく、また、再度ステップS19の優先順位の指定処理を実行して、優先順位を再設定してもよい。   Assume that the input image shown in FIG. 5A is input to the image processing units 1b and 1c. In the example of FIG. 5A, three persons A to C are captured as input images. It is assumed that the user performs a partial designation operation for designating a partial designation area including the face of the person A as shown by a broken line area in FIG. This partial designation operation is an operation for specifying a partial image in the multi-frame mode, and it is considered that the user designates an image portion including the target subject candidate having the first priority in step S19. However, if a partial designation operation that designates a partial designation region that includes a person different from the target subject candidate with the first priority designated in step S19 is performed, this partial designation operation is simply performed in the multiframe mode. The operation may proceed to the next step as a transition operation, or the target subject candidate based on this partial designation operation may be set to the first priority order to reset the priority order of other target subject candidates, Alternatively, the priority order designation process in step S19 may be executed again to reset the priority order.

いま、図5(a)の人物Aが優先順位1番の対象被写体候補であるものとする。この場合には、図5(a)の破線部の部分指定領域の画像(部分画像)が入力画像から抽出される。更に、特徴判定部1d,追尾変化判定部1e1によって、入力画像中から部分画像が追尾され、以後、人物Aの部分画像を含む領域が部分指定領域として画像処理部1cに指定される。   Now, it is assumed that the person A in FIG. 5A is the first priority subject candidate. In this case, the image (partial image) of the partial designation area of the broken line part in FIG. 5A is extracted from the input image. Further, the partial image is tracked from the input image by the feature determination unit 1d and the tracking change determination unit 1e1, and thereafter, the region including the partial image of the person A is designated as the partial designation region in the image processing unit 1c.

画像処理部1cは、追尾変化判定部1e1の指示に従って、部分画像を追尾しながら切り出す。画像処理部1cは図5(b)に示す部分画像をそのまま画像選択部1fを介してM圧縮1i又は1jに出力すると共に、部分画像と全体画像とを合成した後、画像選択部1fを介して表示制御部1gに出力する。   The image processing unit 1c cuts out the partial image while following the instruction from the tracking change determination unit 1e1. The image processing unit 1c outputs the partial image shown in FIG. 5 (b) as it is to the M compression 1i or 1j via the image selection unit 1f, combines the partial image and the whole image, and then passes through the image selection unit 1f. To the display control unit 1g.

即ち、画像処理部1cは、図8(a)に示すように、表示部5の表示画面5aの略全域のメイン表示領域5bに全体画像に基づくメイン画像を配置し、表示画面5aの一部領域(以下、サブ表示領域という)5cに部分画像をサブ画像として配置するように、全体画像と部分画像との合成を行う。即ち、この場合には、画像処理部1cは、部分画像をサブ画像化することになる(ステップS12)。   That is, as shown in FIG. 8A, the image processing unit 1c arranges the main image based on the entire image in the main display region 5b in the substantially entire area of the display screen 5a of the display unit 5, and a part of the display screen 5a. The entire image and the partial image are synthesized so that the partial image is arranged as a sub image in the region (hereinafter referred to as a sub display region) 5c. That is, in this case, the image processing unit 1c converts the partial image into a sub image (step S12).

信号処理及び制御部1は、マルチフレームモード時には、ステップS14において、ユーザーがサブ表示領域5cをタッチしたか否かを判定する。信号処理及び制御部1は、ユーザがサブ表示領域5cをタッチした場合には、ステップS15において、現在のサブ画像をメイン画像化し、現在のメイン画像をサブ画像化する。   In the multi-frame mode, the signal processing and control unit 1 determines whether or not the user has touched the sub display area 5c in step S14. When the user touches the sub display area 5c, the signal processing and control unit 1 converts the current sub image into a main image and converts the current main image into a sub image in step S15.

図8(b)はこの状態を示しており、図8(a)の状態においてサブ表示領域5cがタッチされると、サブ表示領域5cに表示されていたサブ画像である部分画像がメイン画像としてメイン表示領域5bに表示され、メイン表示領域5bに表示されていたメイン画像である全体画像がサブ画像としてサブ表示領域5cに表示される。なお、図8(b)の状態においてサブ表示領域5cがタッチされると、サブ表示領域5cに表示されていたサブ画像である全体画像がメイン画像としてメイン表示領域5bに表示され、メイン表示領域5bに表示されていたメイン画像である部分画像がサブ画像としてサブ表示領域5cに表示される。即ち、図8(a)の表示に戻る。   FIG. 8B shows this state. When the sub display area 5c is touched in the state of FIG. 8A, the partial image that is the sub image displayed in the sub display area 5c is used as the main image. The entire image that is the main image displayed in the main display area 5b and displayed in the main display area 5b is displayed as a sub image in the sub display area 5c. When the sub display area 5c is touched in the state of FIG. 8B, the entire image that is the sub image displayed in the sub display area 5c is displayed as the main image in the main display area 5b. The partial image that is the main image displayed in 5b is displayed as a sub image in the sub display area 5c. That is, the display returns to the display of FIG.

信号処理及び制御部1は、マルチフレームモード時において、ユーザが静止画撮影操作部6bを操作したことを、ステップS7において検出すると、フォトインムービーモードに移行する。この場合には、マルチフレームモードからフォトインムービーモードに移行する場合であるので、ステップS16からステップS17に処理が移行して、静止画撮影が行われる。   When the signal processing and control unit 1 detects in step S7 that the user has operated the still image shooting operation unit 6b in the multi-frame mode, the signal processing and control unit 1 shifts to the photo-in-movie mode. In this case, since the multi-frame mode is shifted to the photo-in-movie mode, the process shifts from step S16 to step S17, and still image shooting is performed.

ステップS17の静止画撮影の直前においては、図8(a),(b)に示すように、表示部5の表示画面5a上には、全体画像と部分画像とが合成表示されている。そこで、ステップS17のフォトインムービーにおける静止画撮影では、全体画像及び部分画像並びに全体画像と部分画像の合成画像の全ての静止画像を記録するようになっている。即ち、画像処理部1b,1cからの全体画像が画像選択部1fを介してS圧縮部1hに供給されて圧縮され、記録制御部1kによって記録部4において記録される。また、画像処理部1cは、部分画像を切り出しており、この部分画像は画像選択部1fを介してS圧縮部1hに供給されて圧縮され、記録制御部1kによって記録部4において記録される。また、画像処理部1cは、全体画像と部分画像との合成画像を生成している。即ち、部分画像がサブ画像化された合成画像と全体画像がサブ画像化された合成画像の2つの合成画像は、画像選択部1fを介してS圧縮部1hに供給されて圧縮され、記録制御部1kによって記録部4において記録される。こうして、マルチフレームモードから、静止画撮影操作部6bの操作によってフォトインムービーモードに移行した場合には、全体画像、部分画像、全体画像と部分画像との2枚の合成画像からなる4枚の静止画像が記録される。   Immediately before the still image shooting in step S17, the entire image and the partial image are combined and displayed on the display screen 5a of the display unit 5 as shown in FIGS. 8 (a) and 8 (b). Therefore, in the still image shooting in the photo-in movie in step S17, all still images of the whole image, the partial image, and the combined image of the whole image and the partial image are recorded. That is, the entire images from the image processing units 1b and 1c are supplied to the S compression unit 1h via the image selection unit 1f and compressed, and are recorded in the recording unit 4 by the recording control unit 1k. The image processing unit 1c cuts out a partial image. The partial image is supplied to the S compression unit 1h via the image selection unit 1f and compressed, and is recorded in the recording unit 4 by the recording control unit 1k. The image processing unit 1c generates a composite image of the entire image and the partial image. That is, two composite images, that is, a composite image in which a partial image is converted into a sub-image and a composite image in which an entire image is converted into a sub-image, are supplied to the S compression unit 1h via the image selection unit 1f, compressed, and recorded. Recording is performed in the recording unit 4 by the unit 1k. In this way, when the multi-frame mode is shifted to the photo-in-movie mode by the operation of the still image shooting operation unit 6b, the four images including the whole image, the partial image, and the two composite images of the whole image and the partial image. A still image is recorded.

図9及び図10は夫々マルチフレームモードにおける全体画像又は部分画像を示す説明図である。入力画像が図9(a)の状態から図9(b)の状態を経て図9(c)の状態に変化したことを示している。なお、図9は被写体として3人の人物A〜Cが撮影されたことを示しており、そのうちの人物Aが優先順位が1位の対象被写体であって、人物Aの顔を含む領域が部分領域として指定されていることを示している。また、図10は部分画像を示しており、図10(a)乃至(c)は、夫々図9(a)乃至 (c)の入力画像中の破線で示す部分領域における部分画像を示している。   FIG. 9 and FIG. 10 are explanatory diagrams showing an entire image or a partial image in the multi-frame mode, respectively. 9 shows that the input image has changed from the state of FIG. 9A to the state of FIG. 9C through the state of FIG. 9B. FIG. 9 shows that three persons A to C are photographed as subjects. Among them, the person A is the target subject with the highest priority, and an area including the face of the person A is partially Indicates that the area is designated. FIG. 10 shows partial images, and FIGS. 10A to 10C show partial images in partial areas indicated by broken lines in the input images of FIGS. 9A to 9C, respectively. .

マルチフレームモードにおいては、入力画像をリサイズして得た全体画像に基づく動画像と入力画像中の部分領域の部分画像による動画像とが記録される。いま、図9(a)に示す入力画像35aに対して、破線に示す部分領域36aが設定されるものとする。追尾変化判定部1e1は、入力画像35b,35cのように変化した場合でも追尾を行って、部分指定領域36b,36cを検出する。マルチフレームモードでは、入力画像35a乃至35cをリサイズして得た全体画像に基づく動画像と、部分指定領域36a〜36cに対応した部分画像37a〜37c(図10)とが記録される。   In the multi-frame mode, a moving image based on the entire image obtained by resizing the input image and a moving image based on a partial image of a partial area in the input image are recorded. Now, it is assumed that a partial area 36a indicated by a broken line is set for the input image 35a shown in FIG. The tracking change determination unit 1e1 performs tracking even when the input images 35b and 35c change, and detects the partial designation areas 36b and 36c. In the multi-frame mode, a moving image based on the entire image obtained by resizing the input images 35a to 35c and partial images 37a to 37c (FIG. 10) corresponding to the partial designation areas 36a to 36c are recorded.

このようなマルチモードによれば、ユーザが撮影を希望する対象被写体である人物Aの周囲の様子を全体画像によって記録することができるだけでなく、人物Aの表情等を部分画像によって記録することができる。図10(a)〜(c)では、各入力画像35a〜35cに対応した人物Aの顔38a〜38cが撮影され、口39a〜39c等の顔の表情まで記録することができる。これによって、ユーザーは、全体の動きや、注目する被写体の表情も、記録しておき、見たい方を鑑賞することが可能となる。   According to such a multi-mode, not only the state around the person A who is the target subject that the user wants to shoot can be recorded as a whole image, but also the facial expression of the person A can be recorded as a partial image. it can. 10A to 10C, the faces 38a to 38c of the person A corresponding to the input images 35a to 35c are photographed, and facial expressions such as the mouths 39a to 39c can be recorded. As a result, the user can record the overall movement and facial expression of the subject of interest, and can appreciate the person who wants to see it.

例えば、複数の人物が合唱しているシーンの撮影時等においては、各人物の動きが少なく、上述した有効な記録が可能である。しかし、複数の人物による徒競走等のシーンを撮影する場合のように、複数の人物の位置が比較的変化する場合には、追尾対象の対象被写体の画像が他の被写体等によって見えなくなることが考えられる。そこで、本実施の形態においては、部分画像として記録被写体を切り替えることで、常に有効な部分画像を記録することを可能にしている。   For example, when shooting a scene in which a plurality of people are singing, the movement of each person is small, and the above-described effective recording is possible. However, when the position of a plurality of persons changes relatively, such as when shooting a scene such as a race run by a plurality of persons, the image of the target subject to be tracked may not be visible by other subjects. It is done. Therefore, in the present embodiment, it is possible to always record an effective partial image by switching the recording subject as the partial image.

即ち、本実施の形態においては、追尾対象の対象被写体を、優先順位に従って切り替えるようになっている。追尾変化判定部1e1は、追尾対象の対象被写体について追尾不能になると、別候補決定部1e2に次の優先順位の対象被写体について問い合わせる。別候補決定部1e2は、現在の追尾対象の対象被写体を除き、複数の対象被写体候補のうち最も優先順位が高い対象被写体を、追尾変化判定部1e1に設定する。   That is, in the present embodiment, the target subject to be tracked is switched according to the priority order. When the tracking change determination unit 1e1 becomes unable to track the target subject to be tracked, the tracking change determination unit 1e1 inquires the candidate candidate determining unit 1e2 about the target subject with the next priority. The separate candidate determination unit 1e2 sets, in the tracking change determination unit 1e1, the target subject with the highest priority among the plurality of target subject candidates, excluding the current target subject to be tracked.

これにより、追尾変化判定部1e1は、設定された対象被写体を新たな追尾対象として、この対象被写体についての特徴量を部分画像特徴記憶部3aから読み出して追尾を行い、追尾結果を画像処理部1cに出力する。また、追尾変化判定部1e1は、新たに設定された対象被写体についても追尾不能の場合には、更に、別候補決定部1e2に次の優先順位の対象被写体についての問い合わせを行う。こうして、追尾変化判定部1e1は、追尾可能な対象被写体のうちより高い優先順位が付された対象被写体の追尾を行う。   As a result, the tracking change determination unit 1e1 uses the set target subject as a new tracking target, reads out the feature amount of the target subject from the partial image feature storage unit 3a, performs tracking, and tracks the tracking result as the image processing unit 1c. Output to. When the tracking change determination unit 1e1 cannot track the newly set target subject, the tracking change determination unit 1e1 further inquires the target candidate of the next priority order to the other candidate determination unit 1e2. In this way, the tracking change determination unit 1e1 performs tracking of a target subject with a higher priority among target subjects that can be tracked.

画像処理部1cは、追尾変化判定部1e1の追尾結果に従って、入力画像から部分画像を生成する。この部分画像は、追尾可能な対象被写体のうちより高い優先順位を有する対象被写体を含む画像であり、ユーザの希望する部分画像の記録が可能である。   The image processing unit 1c generates a partial image from the input image according to the tracking result of the tracking change determination unit 1e1. This partial image is an image including a target subject having a higher priority among target subjects that can be tracked, and a partial image desired by the user can be recorded.

このように本実施の形態においては、マルチフレームモードにおいて、複数の対象被写体についてユーザが設定した優先順位を付し、追尾可能な対象被写体のうちより優先順位が高い対象被写体を含む部分画像を記録するようになっている。これにより、第1位の優先順位を有する対象被写体を追尾不能となった場合でも、第2,第3,…の優先順位を有する対象被写体を追尾して部分画像を取得することができ、ユーザーの希望する撮像が可能である。例えば、自分の子供が参加する徒競走の撮影時において、第1位の優先順位を付した自分の子供の表情を部分画像によって記録するだけでなく、自分の子供の画像が他の子供の画像によって隠れてしまった場合には、その期間にユーザが設定した他の子供の表情を部分画像によって記録することができ、ユーザにとって有効な記録が可能である。   As described above, in the present embodiment, in the multi-frame mode, priorities set by the user are assigned to a plurality of target subjects, and partial images including target subjects with higher priorities among target subjects that can be tracked are recorded. It is supposed to be. As a result, even when the target subject having the first priority cannot be tracked, it is possible to track the target subject having the second, third,. Desired imaging is possible. For example, at the time of shooting an athlete race in which your child participates, not only the facial expression of your child with the first priority is recorded as a partial image, but also your child's image depends on the image of another child When hidden, the facial expressions of other children set by the user during that period can be recorded as a partial image, and effective recording for the user is possible.

(第2の実施の形態)
図11乃至図17は本発明の第2の実施の形態に係り、図11は第2の実施の形態において採用される処理フローを示すフローチャートである。本実施の形態のハードウェア構成は第1の実施の形態と同一であり、信号処理及び制御部1の処理フローが第1の実施の形態と異なるのみである。
(Second Embodiment)
FIG. 11 to FIG. 17 relate to the second embodiment of the present invention, and FIG. 11 is a flowchart showing a processing flow adopted in the second embodiment. The hardware configuration of the present embodiment is the same as that of the first embodiment, and only the signal processing and processing flow of the control unit 1 is different from that of the first embodiment.

第1の実施の形態においては、複数の対象被写体について優先順位を付し、追尾可能な対象被写体のうちより高い優先順位を付した対象被写体を追尾して部分画像を生成する例について説明した。これに対し、本実施の形態においては、別候補決定部1e2が、予め設定される条件に従って、特徴判定部1dの出力に基づいて1つ以上の対象被写体の候補から1つの対象被写体を選択して追尾変化判定部1e1に設定するようになっている。例えば、別候補決定部1e2は、追尾中の対象被写体との位置関係、動き、選択回数、選択時間等に基づいて1つの対象被写体を選択して、追尾変化判定部1e1に指定する。   In the first embodiment, an example has been described in which priorities are assigned to a plurality of target subjects, and partial images are generated by tracking the target subjects with higher priorities among the target subjects that can be tracked. On the other hand, in the present embodiment, another candidate determination unit 1e2 selects one target subject from one or more target subject candidates based on the output of the feature determination unit 1d according to a preset condition. The tracking change determination unit 1e1 is set. For example, the separate candidate determination unit 1e2 selects one target subject based on the positional relationship with the target subject being tracked, the movement, the number of selections, the selection time, and the like, and designates the target change determination unit 1e1.

なお、別候補決定部1e2は、第1の実施の形態と同様に複数の対象被写体について優先順位を付し、優先順位を付された対象被写体のうち追尾可能な対象被写体が存在しない場合に、予め設定された条件に従って、優先順位が付されていない対象被写体から1つの対象被写体を選択して追尾変化判定部1e1に設定するようにしてもよい。   The another candidate determination unit 1e2 assigns priorities to a plurality of target subjects in the same manner as in the first embodiment, and when there is no target subject that can be tracked among the target subjects with priorities, According to a preset condition, one target subject may be selected from the target subjects that are not given priority and set in the tracking change determination unit 1e1.

また、別候補決定部1e2は、表示制御部1gを制御して、スルー画中に各対象被写体候補を含む部分領域の範囲を示す表示を表示すると共に、追尾対象の対象被写体を示す表示をスルー画中に表示させるようにしてもよい。   Further, the separate candidate determination unit 1e2 controls the display control unit 1g to display a display indicating the range of the partial area including each target subject candidate in the through image and to display a display indicating the target subject to be tracked. It may be displayed in the screen.

図11は図6のステップS13のマルチフレーム動画撮影処理に対応した処理を示している。また、図12は対象被写体の切換えを説明するための説明図である。図12(a1)〜(a3)は、3人の人物A〜Cによる徒競走を撮影して得た時間的に前後する撮像画像に基づくスルー画の一例を示しており、全体画像をメイン画像とし、部分画像をサブ画像とした合成画像を示している。また、図12(b1),(b2)は図12(a1)に、図12(b3),(b4)は図12(a2)に、図12(b5),(b6)は図12(a3)に夫々対応したスルー画を示しており、全体画像をサブ画像とし、部分画像をメイン画像とした合成画像を示している。なお、図12は優先順位を付すことなく、人物Aを含む部分領域を指定する部分指定操作によってマルチフレームモードに移行した例を示している。   FIG. 11 shows a process corresponding to the multi-frame moving image shooting process in step S13 of FIG. FIG. 12 is an explanatory diagram for explaining switching of the subject. FIGS. 12 (a1) to (a3) show an example of a through image based on captured images that are obtained by shooting three athletes A to C and that are temporally mixed, and the entire image is a main image. The composite image which made the partial image the sub image is shown. 12 (b1) and (b2) are shown in FIG. 12 (a1), FIGS. 12 (b3) and (b4) are shown in FIG. 12 (a2), and FIGS. 12 (b5) and (b6) are shown in FIG. ) Show corresponding through images, and a composite image with the whole image as a sub-image and a partial image as a main image is shown. FIG. 12 shows an example in which the mode is shifted to the multi-frame mode by a partial designation operation for designating a partial area including the person A without giving priority.

入力画像が図12(a1)の状態から図12(a2)の状態を経て図12(a3)の状態に変化するものとする。図12(a1)〜(a3)に示す入力画像のスルー画41a〜41cには、夫々各対象被写体を含む部分領域を示す枠表示(破線)が表示されており、また、現在の追尾対象の対象被写体による部分画像を表示するサブ画像42a〜42cが表示されている。   Assume that the input image changes from the state of FIG. 12A1 to the state of FIG. 12A3 through the state of FIG. 12A2. In the through images 41a to 41c of the input images shown in FIGS. 12 (a1) to (a3), frame displays (broken lines) each indicating a partial region including each target subject are displayed, and the current tracking target is displayed. Sub-images 42a to 42c that display partial images of the subject are displayed.

ユーザが全体画像よりも部分画像(アップ画像)の方を見ながら撮影したいと考えることもある。この場合には、図12(a1)〜(a3)のサブ画像42a〜42cの画像部分をタッチすると、図12(b1)〜(b6)のように、部分画像をメイン画像化して表情を確認することを重視した撮影が可能となる。なお、マルチフレームモードにおいて撮影した画像から図12に示す形態で再生表示を行うようにしてもよい。   The user may want to take a picture while viewing the partial image (up image) rather than the entire image. In this case, when the image parts of the sub-images 42a to 42c in FIGS. 12A1 to 12A3 are touched, the partial images are converted into the main image as shown in FIGS. 12B1 to 12B6 and the facial expression is confirmed. This makes it possible to shoot with an emphasis on doing. Note that playback display may be performed in the form shown in FIG. 12 from an image taken in the multi-frame mode.

図11のステップS21において、信号処理及び制御部1は全体画像及び部分画像を夫々別々の動画として動画記録を開始する。特徴判定部1dは、入力される撮像画像中の各対象被写体について、例えば顔等の特徴量や画面上の位置の情報を取得して部分画像特徴記憶部3aに記録する(ステップS22)。これにより、撮像されている人物、その顔及び撮像時における位置等を、撮像画像毎に記録することができる。   In step S21 of FIG. 11, the signal processing and control unit 1 starts moving image recording with the entire image and the partial image as separate moving images. For each target subject in the input captured image, the feature determination unit 1d acquires, for example, feature information such as a face and information on the position on the screen, and records it in the partial image feature storage unit 3a (step S22). Thereby, the person being imaged, the face, the position at the time of imaging, and the like can be recorded for each captured image.

次のステップS23においては、別候補決定部1e2は、現在追尾中の部分領域の画像が、記録する部分画像として必要な条件を満足しているか否かを判定する。例えば、追尾不能となった場合や、追尾中の部分領域内の人物の顔の一部が隠されている場合や、追尾対象の対象被写体とする期間を超過した場合等においては、別候補決定部1e2は部分領域は必要な条件を満足していないと判定する。   In the next step S23, the separate candidate determination unit 1e2 determines whether or not the image of the partial area currently being tracked satisfies a condition necessary for the partial image to be recorded. For example, when tracking becomes impossible, when a part of a person's face in the partial area being tracked is hidden, or when the period of the subject subject to be tracked is exceeded, another candidate is determined. The part 1e2 determines that the partial area does not satisfy the necessary condition.

図12(a1)のスルー画41aでは、人物A〜Cの画像が含まれる部分領域は、殆ど重なっておらず、別候補決定部1e2は、引き続き人物Aの画像を含む部分領域を追尾変化判定部1e1に設定する。こうして、図12(b1),(b2)に示すように、スルー画43a1,43a2には、人物Aを含む部分領域の画像が部分画像44a1,44a2としてメイン画像化され、全体画像44がサブ画像化される。   In the through image 41a in FIG. 12 (a1), the partial areas including the images of the persons A to C hardly overlap each other, and the different candidate determining unit 1e2 continues to determine the tracking change of the partial area including the image of the person A. Set to part 1e1. Thus, as shown in FIGS. 12B1 and 12B2, in the through images 43a1 and 43a2, the images of the partial areas including the person A are converted into the main images as the partial images 44a1 and 44a2, and the entire image 44 is the sub image. It becomes.

即ち、図12(a1)のスルー画41aの状態では、別候補決定部1e2は、ステップS23において、部分領域中の画像が必要な条件を満足していると判定することになる。この場合には、信号処理及び制御部1は、ステップS24において追尾中の部分領域の動画撮影を継続し、ステップS25において動画を記録する。   That is, in the state of the through image 41a in FIG. 12A1, the different candidate determining unit 1e2 determines in step S23 that the image in the partial area satisfies the necessary condition. In this case, the signal processing and control unit 1 continues moving image shooting of the tracking partial area in step S24, and records the moving image in step S25.

次に、図12(a2)に示すスルー画41bが表示されるタイミングでは、追尾中の人物Aを含む部分領域が人物Cの画像で隠されてしまう。図12(a3)に示すスルー画41cが表示されるタイミングでも同様である。   Next, at the timing when the through image 41b shown in FIG. 12A2 is displayed, the partial area including the person A being tracked is hidden by the image of the person C. The same applies to the timing at which the through image 41c shown in FIG.

そこで、別候補決定部1e2は、処理をステップS31に移行して別候補が有るか否かを判定する。人物Aの対象被写体以外に優先順位が付されている対象被写体が存在する場合には、処理をステップS38に移行して、別候補決定部1e2は次の優先順位の対象被写体を追尾変化判定部1e1に設定する。追尾変化判定部1e1は、部分画像特徴記憶部3aの情報を読み出すことで、設定された対象被写体を追尾し、追尾した対象被写体を含む部分領域を画像処理部1cに設定する。これにより、新たな部分領域の部分画像が動画像として記録される(ステップS24,S25)
図12の例では、優先順位は設定されていないので、別候補決定部1e2は処理を次のステップS32に移行して、追尾中の対象被写体の部分領域を隠す対象被写体が存在するか否かを判定する。図12(a2)のスルー画41bでは、追尾中の人物Aの部分領域は人物Cの画像で隠されるので、別候補決定部1e2は、人物Cを対象被写体として、ステップS35の処理を行う。
Therefore, the different candidate determination unit 1e2 shifts the processing to step S31 and determines whether there is another candidate. If there is a target subject with a priority other than the subject subject of person A, the process proceeds to step S38, and the different candidate determination unit 1e2 selects the target subject with the next priority as a tracking change determination unit. Set to 1e1. The tracking change determination unit 1e1 reads the information in the partial image feature storage unit 3a, tracks the set target subject, and sets a partial region including the tracked target subject in the image processing unit 1c. Thereby, a partial image of a new partial area is recorded as a moving image (steps S24 and S25).
In the example of FIG. 12, since the priority order is not set, the separate candidate determination unit 1e2 proceeds to the next step S32 to determine whether or not there is a target subject that hides the partial region of the target subject being tracked. Determine. In the through image 41b of FIG. 12 (a2), the partial area of the person A being tracked is hidden by the image of the person C. Therefore, the different candidate determining unit 1e2 performs the process of step S35 with the person C as the target subject.

ステップS35においては、人物Cの対象被写体が過度に選択されていないかが判定される。例えば、自分の子供が参加する徒競走の撮影時には、ユーザは自分の子供のみを部分画像として記録したいと考えられる。しかし、徒競走では人物の動きが激しく、自分の子供の画像が他人の子供の画像に隠されてしまうことがある。この場合でも、自分の子供の画像を隠した他人の子供の画像を部分画像として撮像することで、自分の子供だけでなく、他人の子供の表情の変化等も記録することができ、多彩な映像表現が可能となる。この理由から、優先順位を付した対象被写体やユーザが指定した対象被写体以外の対象被写体についても部分画像の記録を行う。   In step S35, it is determined whether or not the subject subject of the person C is excessively selected. For example, at the time of shooting a student race in which his / her child participates, the user may want to record only his / her child as a partial image. However, there are cases in which the movement of a person is intense in an automatic race, and the image of his child is hidden in the image of another child. Even in this case, it is possible to record not only your own child but also other people's child's facial expressions, etc. by capturing the other child's child's image as a partial image. Video expression is possible. For this reason, partial images are also recorded for target subjects with priorities and target subjects other than the target subject specified by the user.

しかし、全体画像には自分の子供だけでなく他人の子供も記録されており、本来部分画像として記録したいのは他人の子供ではなく、自分の子供である。そこで、ユーザが指定した対象被写体以外の被写体を撮像する場合には、記録回数や頻度、記録時間等の制限を課す。ステップS35では、別候補決定部1e2は、新たに選択された対象被写体について、このような記録回数又は記録頻度の制限を超えたか否かを判定するのである。   However, not only your own children but also children of other people are recorded in the whole image, and it is not your own children but your own children that you want to record as a partial image. Therefore, when a subject other than the target subject designated by the user is imaged, restrictions are imposed on the number of recordings, frequency, recording time, and the like. In step S35, the separate candidate determination unit 1e2 determines whether or not the recording frequency or the recording frequency limit has been exceeded for the newly selected target subject.

ステップS32において選択された対象被写体が過度に選択されていない場合には、別候補決定部1e2は、次のステップS36において、選択された対象被写体を所定の時間(例えば数秒間)だけ追尾対象の対象被写体とする。別候補決定部1e2は、記録回数や頻度の情報を得るために、新たに設定する追尾対象の対象被写体に関する情報を図示しない記憶部に記憶する。次に、別候補決定部1e2は、新たな対象被写体を追尾変化判定部1e1に設定する(ステップS38)。   If the target subject selected in step S32 is not excessively selected, the different candidate determining unit 1e2 selects the target subject selected for tracking for a predetermined time (for example, several seconds) in the next step S36. Target subject. The separate candidate determination unit 1e2 stores information on a target object to be newly set in a storage unit (not shown) in order to obtain information on the number of times of recording and frequency. Next, the separate candidate determination unit 1e2 sets a new target subject in the tracking change determination unit 1e1 (step S38).

これにより、図12(b3)に示すように、スルー画43b1は、人物Cを含む部分領域の画像が部分画像44b1としてメイン画像化され、全体画像44がサブ画像化された合成画像となる。即ち、追尾変化判定部1e1は、所定期間だけ人物Cを追尾する対象被写体として追尾を行い、追尾結果を画像処理部1cに出力する。こうして、信号処理及び制御部1は、ステップS24において人物Cの部分画像による動画撮影を継続し、ステップS25において動画を記録する。   Thereby, as shown in FIG. 12B3, the through image 43b1 is a composite image in which the image of the partial area including the person C is converted into the main image as the partial image 44b1 and the entire image 44 is converted into the sub-image. That is, the tracking change determination unit 1e1 performs tracking as a target subject to track the person C for a predetermined period, and outputs the tracking result to the image processing unit 1c. Thus, the signal processing and control unit 1 continues moving image shooting with the partial image of the person C in step S24, and records the moving image in step S25.

図12(b4)のスルー画43b2は、図12(b3)と同様に、人物Cを含む部分領域の画像を部分画像44b2としてメイン画像化し、全体画像44をサブ画像化することを示している。なお、ステップS36で設定した所定期間が経過する前に、人物Cに隠れていた人物Aの部分領域が隠れなくなると、別候補決定部1e2は、ステップS23からステップS31を経てステップS38に移行して、人物Aを対象被写体に設定して、人物Aの部分領域の画像を部分画像とするようにしてもよい。   The through image 43b2 in FIG. 12 (b4) shows that the image of the partial area including the person C is converted into the main image as the partial image 44b2 and the entire image 44 is converted into the sub image, as in FIG. 12 (b3). . If the partial area of the person A that has been hidden by the person C is not hidden before the predetermined period set in step S36 has elapsed, the separate candidate determination unit 1e2 proceeds from step S23 to step S31 to step S38. Thus, the person A may be set as the target subject, and the partial area image of the person A may be used as the partial image.

次に、図12(a3)に示すスルー画41cが表示されるタイミングでは、ユーザが指定した人物Aを含む部分領域は他の人物B,Cの画像で隠されていないが、スルー画41b,41cの比較から明らかなように、人物Bの画像が大きく移動している。この場合には、別候補決定部1e2は、ステップS33において動きが所定の閾値よりも大きい対象被写体が存在するものと判定する。別候補決定部1e2は、動きが大きい人物Bが過度に選択されていないか判定する(ステップS35)。   Next, at the timing when the through image 41c shown in FIG. 12 (a3) is displayed, the partial area including the person A specified by the user is not hidden by the images of the other people B and C, but the through image 41b, As is clear from the comparison of 41c, the image of the person B has moved greatly. In this case, the separate candidate determination unit 1e2 determines in step S33 that there is a target subject whose movement is greater than a predetermined threshold. The separate candidate determination unit 1e2 determines whether or not the person B with large movement is excessively selected (step S35).

こうして、図12(b5)に示すように、スルー画43c1は、人物Bを含む部分領域の画像が部分画像44c1としてメイン画像化され、全体画像44がサブ画像化された合成画像となる。即ち、追尾変化判定部1e1は、所定期間だけ人物Bを追尾する対象被写体として追尾を行い、追尾結果を画像処理部1cに出力する。こうして、信号処理及び制御部1は、ステップS24において人物Bの部分画像による動画撮影を継続し、ステップS25において動画を記録する。   Thus, as shown in FIG. 12B5, the through image 43c1 is a composite image in which the image of the partial area including the person B is converted into the main image as the partial image 44c1 and the entire image 44 is converted into the sub-image. That is, the tracking change determination unit 1e1 performs tracking as a target subject to track the person B for a predetermined period, and outputs the tracking result to the image processing unit 1c. Thus, the signal processing and control unit 1 continues moving image shooting with the partial image of the person B in step S24, and records the moving image in step S25.

人物Bの追尾期間が終了すると、別候補決定部1e2は、ステップS31から処理をステップS32に移行する。別候補決定部1e2は、ステップS32,S33において対象被写体が存在しない場合には、ステップS34に移行し、未選択の被写体が有るか否かを判定する。別候補決定部1e2は、未選択の被写体が存在する場合には、その中から1つの対象被写体を選択して、ステップS36以降の処理を繰り返す。なお、未選択の被写体が存在しない場合には、別候補決定部1e2は、画像処理部1cに対して全体画像を部分画像として設定するよう指示を出す(ステップS39)。   When the tracking period of the person B ends, the different candidate determination unit 1e2 proceeds from step S31 to step S32. If the target subject does not exist in steps S32 and S33, the different candidate determination unit 1e2 proceeds to step S34 and determines whether there is an unselected subject. If there is an unselected subject, the separate candidate determination unit 1e2 selects one target subject from the subjects and repeats the processing from step S36 onward. When there is no unselected subject, the separate candidate determination unit 1e2 instructs the image processing unit 1c to set the entire image as a partial image (step S39).

なお、別候補決定部1e2は、優先順位が付されていない場合でも、ユーザが部分指定操作によって対象被写体を指定した場合には、この対象被写体を新たな追尾対象としてもよい。図12(b6)はこの状態を示しており、スルー画43c2は、人物Aを含む部分領域の画像を部分画像44c2としてメイン画像化し、全体画像44をサブ画像化した合成画像となる。   Note that the different candidate determination unit 1e2 may set this target subject as a new tracking target even when the priority order is not given, when the user specifies the target subject through the partial specifying operation. FIG. 12B6 shows this state, and the through image 43c2 is a composite image in which the image of the partial area including the person A is converted into a main image as the partial image 44c2 and the entire image 44 is converted into a sub-image.

このように、ユーザが指定した対象被写体を隠す被写体や、動きが大きい被写体等を部分画像とて選択することで、画面に変化が生じ、多彩な映像表現が可能となる。   In this way, by selecting a subject that hides the target subject specified by the user, a subject with large movement, or the like as a partial image, the screen changes, and various video expressions are possible.

図13は図11のステップS32の処理の一例を具体的に示すフローチャートであり、図14はステップS32の処理の一例を具体的に示す説明図である。   FIG. 13 is a flowchart specifically illustrating an example of the process of step S32 in FIG. 11, and FIG. 14 is an explanatory diagram illustrating specifically an example of the process of step S32.

図14(a)乃至(c)は撮像画像の変化を示しており、図14(a)に示す撮像画像51aが図14(b)に示す撮像画像51bに変化し、更に、図14(c)に示す撮像画像51cに変化するものとする。図14においては、撮像画像51a,51bに人物A〜Cが撮像されており、撮像画像51cに人物B,Cが撮像されていることを示している。また、撮像画像51aについては追尾対象の対象被写体が人物Aであるものとして説明する。   FIGS. 14A to 14C show changes in the captured image. The captured image 51a shown in FIG. 14A changes to the captured image 51b shown in FIG. 14B, and FIG. The captured image 51c shown in FIG. FIG. 14 shows that the persons A to C are captured in the captured images 51a and 51b, and the persons B and C are captured in the captured image 51c. The captured image 51a will be described on the assumption that the subject to be tracked is the person A.

別候補決定部1e2は、ステップS41において、追尾中の対象被写体を含む部分領域の周辺に存在する人物の顔を、予め設定されている顔特徴に基づいて判定する。例えば、図14(a)の撮像画像51aにおいては、別候補決定部1e2は、人物Aの部分領域52a(破線)の周辺から、人物Cの顔を検出する。なお、図14(a)では人物Cを含む部分領域53cを破線にて示してある。   In step S41, the different candidate determination unit 1e2 determines the face of a person existing around the partial area including the target subject being tracked based on preset facial features. For example, in the captured image 51a of FIG. 14A, the different candidate determination unit 1e2 detects the face of the person C from the periphery of the partial area 52a (broken line) of the person A. In FIG. 14A, the partial region 53c including the person C is indicated by a broken line.

次に、別候補決定部1e2は、追尾中の対象被写体を含む部分領域に、顔が接近したか否かを判定する。接近していない場合には、別候補決定部1e2は、図11のステップS32のNO分岐に移行する。   Next, the separate candidate determination unit 1e2 determines whether or not the face has approached the partial area including the target subject being tracked. When not approaching, another candidate determination part 1e2 transfers to NO branch of step S32 of FIG.

例えば、図14(b)の撮像画像51bのように、人物Aの部分領域52bに人物Cの顔が接近すると、別候補決定部1e2は、ステップS43に処理を移行して追尾中の部分領域内の顔の特徴が消失したか否かを判定する。撮像画像51bのように、人物Aの顔が人物Cで隠されると、撮像画像51bから得られる人物Aの顔の特徴量では、人物Aを特定することができなくなる。この場合には、別候補決定部1e2は、接近した顔、即ち、人物Cを対象被写体として(ステップS44)、ステップS32のYES分岐に進む。こうして、図14(c)に示すように、撮像画像51cでは、人物Cが追尾対象となり、人物Cを含む部分領域53cに基づいて部分画像が生成される。   For example, when the face of the person C approaches the partial area 52b of the person A as in the captured image 51b of FIG. 14B, the separate candidate determination unit 1e2 shifts the process to step S43 to perform the partial area being tracked It is determined whether or not the facial features have disappeared. If the face of the person A is hidden by the person C as in the captured image 51b, the person A cannot be identified by the feature amount of the face of the person A obtained from the captured image 51b. In this case, the different candidate determination unit 1e2 sets the approaching face, that is, the person C as the target subject (step S44), and proceeds to the YES branch of step S32. In this way, as shown in FIG. 14C, in the captured image 51c, the person C is a tracking target, and a partial image is generated based on the partial region 53c including the person C.

図15乃至図17は図11のステップS33の処理の一例を具体的に示すものであり、図15はフローチャート、図16は説明図、図17はグラフである。   FIGS. 15 to 17 specifically show an example of the processing in step S33 of FIG. 11, FIG. 15 is a flowchart, FIG. 16 is an explanatory diagram, and FIG. 17 is a graph.

図16(a),(b)は撮像画像の変化を示しており、図16(a)に示す撮像画像61が図16(b)に示す撮像画像62に変化するものとする。図16(a)においては、撮像画像61に人物A〜Cの顔63a〜63cが撮像されており、撮像画像62に人物A〜Dの顔64a〜64dが撮像されていることを示している。また、撮像画像61,62については追尾対象の対象被写体が人物Aであるものとして説明する。   FIGS. 16A and 16B show changes in the captured image, and it is assumed that the captured image 61 shown in FIG. 16A changes to the captured image 62 shown in FIG. In FIG. 16A, the faces 63 a to 63 c of the persons A to C are captured in the captured image 61, and the faces 64 a to 64 d of the persons A to D are captured in the captured image 62. . The captured images 61 and 62 will be described on the assumption that the subject to be tracked is the person A.

別候補決定部1e2は、ステップS51において、予め設定されている顔特徴に基づいて撮像画像中に顔画像が有るか否かを判定する。図16の撮像画像61,62には人物の顔が写されており、別候補決定部1e2は次のステップS52に処理を移行する。   In step S51, the different candidate determining unit 1e2 determines whether or not there is a face image in the captured image based on a preset facial feature. The captured images 61 and 62 of FIG. 16 show the face of a person, and the different candidate determination unit 1e2 moves the process to the next step S52.

ステップS52においては、別候補決定部1e2は、各顔の直前位置との変化を算出する。図17は横軸に時間をとり縦軸に画像上の横方向の位置をとって、各顔63a〜63c,64a〜64dの横方向の位置を示している。図17の時間T1は、撮像画像61の撮像タイミングに相当し、時間T2は撮像画像62の撮像タイミングに相当する。   In step S52, the different candidate determining unit 1e2 calculates a change from the immediately preceding position of each face. FIG. 17 shows the horizontal positions of the faces 63a to 63c and 64a to 64d, with time on the horizontal axis and the horizontal position on the image on the vertical axis. The time T1 in FIG. 17 corresponds to the imaging timing of the captured image 61, and the time T2 corresponds to the imaging timing of the captured image 62.

図17は画像の左側を基準に各顔の位置を示しており、時間T1では、顔Bの方が顔Cよりも右側に位置することを示している。また、時間T2では、顔D,C,Bの順で画像のより右側に位置する。別候補決定部1e2は、各顔毎に時間T1,T2の位置の差を求める。図16の例では、顔B,Cの位置変化には差があり、図17に示すように、顔Cの位置変化Δcよりも顔Bの位置変化Δbの方が大きい。   FIG. 17 shows the position of each face with reference to the left side of the image, and shows that face B is located on the right side of face C at time T1. At time T2, the faces D, C, and B are positioned on the right side of the image in the order. The separate candidate determination unit 1e2 obtains the difference between the positions of the times T1 and T2 for each face. In the example of FIG. 16, there is a difference in the position changes of the faces B and C, and the position change Δb of the face B is larger than the position change Δc of the face C as shown in FIG.

別候補決定部1e2は、ステップS53において、顔の位置変化に差異があるか否かを判定する。差異がない場合には、別候補決定部1e2は、図11のステップS32のNO分岐に移行する。図16の例では、別候補決定部1e2は、処理をステップS54に移行して、位置変化が大きい顔Bを追尾対象の対象被写体として(ステップS54)、ステップS32のYES分岐に進む。こうして、撮像画像61,62の例では、人物Bが追尾対象となり、人物Bを含む部分領域に基づいて部分画像が生成される。   In step S53, the different candidate determination unit 1e2 determines whether there is a difference in face position change. If there is no difference, the different candidate determination unit 1e2 proceeds to the NO branch in step S32 of FIG. In the example of FIG. 16, the separate candidate determination unit 1e2 shifts the processing to step S54, sets the face B having a large positional change as the target subject to be tracked (step S54), and proceeds to the YES branch of step S32. Thus, in the example of the captured images 61 and 62, the person B is a tracking target, and a partial image is generated based on the partial region including the person B.

このように本実施の形態においては、マルチフレームモード時には、設定される条件に従って、1つの対象被写体を選択して部分画像に設定する。これにより、多彩な映像表現が可能となり、ユーザが希望する画像を記録することができる。   Thus, in the present embodiment, in the multi-frame mode, one target subject is selected and set as a partial image according to the set conditions. As a result, various video expressions are possible, and an image desired by the user can be recorded.

1…信号処理及び制御部、1a…読取部、1b,1c…画像処理部、1d…特徴判定部、1e1…追尾変化判定部、1e2…別候補決定部、1f…画像選択部、1g…表示制御部、1h…S圧縮部、1i,1j…M圧縮部、1k…記録制御部、2…撮像部、3…分配用仮記録部、4…記録部、5…表示部、6…操作部、6a…動画撮影操作部、6b…静止画撮影操作部。     DESCRIPTION OF SYMBOLS 1 ... Signal processing and control part, 1a ... Reading part, 1b, 1c ... Image processing part, 1d ... Feature determination part, 1e1 ... Tracking change determination part, 1e2 ... Another candidate determination part, 1f ... Image selection part, 1g ... Display Control unit, 1h ... S compression unit, 1i, 1j ... M compression unit, 1k ... recording control unit, 2 ... imaging unit, 3 ... dispensing temporary recording unit, 4 ... recording unit, 5 ... display unit, 6 ... operation unit 6a, a moving image shooting operation unit, 6b, a still image shooting operation unit.

Claims (5)

被写体を撮像して得た撮像画像を出力する撮像部と、
前記撮像画像から第1の画角の画像を取得する第1画像取得部と、
前記第1の画角よりも狭い第2の画角の1つ以上の第2の画像を前記撮像画像から取得する第2画像取得部と、
前記1つ以上の第2の画像のうちの1つの画像を動画記録する記録制御部と、
前記記録制御部において記録中の前記第2の画像が第1の被写体条件を満足しなくなった場合には前記第2画像取得部が取得した1つ以上の第2の画像のうち第2の被写体条件を満足する他の第2の画像に切換えて前記記録制御部に動画記録させる制御部と
を具備したことを特徴とする撮影機器。
An imaging unit that outputs a captured image obtained by imaging a subject;
A first image acquisition unit that acquires an image of a first angle of view from the captured image;
A second image acquisition unit that acquires one or more second images having a second angle of view narrower than the first angle of view from the captured image;
A recording control unit that records one of the one or more second images as a moving image;
When the second image being recorded in the recording control unit no longer satisfies the first subject condition, the second subject among the one or more second images acquired by the second image acquisition unit A control unit that switches to another second image that satisfies the condition and causes the recording control unit to record a moving image.
前記制御部は、前記記録中の第2の画像を追尾可能であるか否か、前記記録中の第2の画像の一部が隠されているか否か及び前記記録中の第2の画像の記録期間が超過したか否かのうちの少なくとも1つを前記第1の被写体条件とする
ことを特徴とする請求項1に記載の撮影機器。
The control unit determines whether the second image being recorded can be tracked, whether a part of the second image being recorded is hidden, and whether the second image being recorded is The photographing apparatus according to claim 1, wherein at least one of whether or not a recording period is exceeded is the first subject condition.
前記制御部は、優先順位が付された画像であるか否か、前記記録中の第2の画像を隠す画像であるか否か、前記撮像画像中で所定の閾値よりも大きく動く画像であるか否か及び未選択の画像であるか否かのうちの少なくとも1つを前記第2の被写体条件とする
ことを特徴とする請求項1又は2に記載の撮影機器。
The control unit is an image that moves more than a predetermined threshold in the captured image, whether or not the image has a priority, whether or not the second image being recorded is hidden. The imaging device according to claim 1, wherein at least one of whether or not the image is an unselected image is set as the second subject condition.
前記制御部は、前記第2画像取得部が取得した1つ以上の第2の画像に優先順位を付し、前記第2の被写体条件を満足する前記他の第2の画像のうちより優先順位が高い第2の画像を選択して前記記録制御部に動画記録させる
ことを特徴とする請求項1に記載の撮影機器。
The control unit assigns priorities to the one or more second images acquired by the second image acquisition unit, and priorities among the other second images satisfying the second subject condition. The photographing apparatus according to claim 1, wherein a second image having a high value is selected and the recording control unit records a moving image.
前記制御部は、前記記録中の第2の画像が前記第1の被写体条件を満足しなくなった場合には、前記第2の画像に付した優先順位に従って次に記録する前記他の第2の画像を選択し、前記優先順位では次に記録する前記他の第2の画像を選択することができない場合には、前記記録中の第2の画像を隠す画像であるか否か、前記撮像画像中で所定の閾値よりも大きく動く画像であるか否か及び未選択の画像であるか否かのうちの少なくとも1つを前記第2の被写体条件として次に記録する前記他の第2の画像を選択する
ことを特徴とする請求項1に記載の撮影機器。
When the second image being recorded does not satisfy the first subject condition, the control unit is configured to record the second second image in accordance with the priority assigned to the second image. When an image is selected and the other second image to be recorded next cannot be selected in the priority order, whether the second image being recorded is an image to be hidden or not is determined. The other second image to be recorded next as at least one of whether or not the image moves more than a predetermined threshold and whether or not the image is an unselected image. The photographing apparatus according to claim 1, wherein the photographing device is selected.
JP2011196257A 2011-09-08 2011-09-08 Photography equipment Expired - Fee Related JP5694097B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2011196257A JP5694097B2 (en) 2011-09-08 2011-09-08 Photography equipment
CN201210262811.XA CN103002207B (en) 2011-09-08 2012-07-26 Photographic equipment

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011196257A JP5694097B2 (en) 2011-09-08 2011-09-08 Photography equipment

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2015020574A Division JP5942002B2 (en) 2015-02-04 2015-02-04 Imaging device and method for controlling imaging device

Publications (2)

Publication Number Publication Date
JP2013058921A true JP2013058921A (en) 2013-03-28
JP5694097B2 JP5694097B2 (en) 2015-04-01

Family

ID=47930304

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011196257A Expired - Fee Related JP5694097B2 (en) 2011-09-08 2011-09-08 Photography equipment

Country Status (2)

Country Link
JP (1) JP5694097B2 (en)
CN (1) CN103002207B (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014236405A (en) * 2013-06-04 2014-12-15 Necカシオモバイルコミュニケーションズ株式会社 Imaging control device, imaging control method, program therefor and electronic equipment
JP2020096262A (en) * 2018-12-11 2020-06-18 キヤノン株式会社 Tracking device and method
JP2022512715A (en) * 2018-10-15 2022-02-07 華為技術有限公司 Photography scenarios and methods for displaying images on electronic devices

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106454135B (en) * 2016-11-29 2019-11-01 维沃移动通信有限公司 One kind is taken pictures based reminding method and mobile terminal

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005117343A (en) * 2003-10-07 2005-04-28 Victor Co Of Japan Ltd Monitoring system
JP2006109119A (en) * 2004-10-06 2006-04-20 Omron Corp Moving image recorder and moving image reproducing apparatus
JP2009229586A (en) * 2008-03-19 2009-10-08 Fujinon Corp Autofocus system

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5047007B2 (en) * 2008-03-03 2012-10-10 三洋電機株式会社 Imaging device
EP2104337A3 (en) * 2008-03-19 2011-04-27 Fujinon Corporation Autofocus system
JP2010268019A (en) * 2009-05-12 2010-11-25 Nikon Corp Photographing apparatus
JP5227888B2 (en) * 2009-05-21 2013-07-03 富士フイルム株式会社 Person tracking method, person tracking apparatus, and person tracking program
JP2011166442A (en) * 2010-02-09 2011-08-25 Sanyo Electric Co Ltd Imaging device

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005117343A (en) * 2003-10-07 2005-04-28 Victor Co Of Japan Ltd Monitoring system
JP2006109119A (en) * 2004-10-06 2006-04-20 Omron Corp Moving image recorder and moving image reproducing apparatus
JP2009229586A (en) * 2008-03-19 2009-10-08 Fujinon Corp Autofocus system

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014236405A (en) * 2013-06-04 2014-12-15 Necカシオモバイルコミュニケーションズ株式会社 Imaging control device, imaging control method, program therefor and electronic equipment
JP2022512715A (en) * 2018-10-15 2022-02-07 華為技術有限公司 Photography scenarios and methods for displaying images on electronic devices
JP7238115B2 (en) 2018-10-15 2023-03-13 華為技術有限公司 Photography scenarios and methods for displaying images on electronic devices
JP2020096262A (en) * 2018-12-11 2020-06-18 キヤノン株式会社 Tracking device and method
JP7325180B2 (en) 2018-12-11 2023-08-14 キヤノン株式会社 Tracking device and method

Also Published As

Publication number Publication date
CN103002207A (en) 2013-03-27
JP5694097B2 (en) 2015-04-01
CN103002207B (en) 2016-04-27

Similar Documents

Publication Publication Date Title
KR102077967B1 (en) Electronic device
JP3962871B2 (en) Electronic camera and electronic zoom method
JP4924228B2 (en) Image processing apparatus, image processing method, and program
JP5694097B2 (en) Photography equipment
JP5054175B2 (en) Imaging apparatus and control method thereof, imaging control apparatus, and imaging control method
JP5785038B2 (en) Photography equipment
JP6460783B2 (en) Image processing apparatus and control method thereof
JP5876991B2 (en) Shooting equipment, shooting method and playback method
JP6460868B2 (en) Display control apparatus and control method thereof
JP6957131B2 (en) Information terminal device, image pickup device, image information processing system and image information processing method
JP5965037B2 (en) Photography equipment
JP5942002B2 (en) Imaging device and method for controlling imaging device
JP2016167767A (en) Imaging apparatus, synthetic imaging method and synthetic imaging program
JP2005073161A (en) Processing apparatus and image recording method
JP6205464B2 (en) Photography equipment
JP6952584B2 (en) Imaging device, imaging method and imaging program
JP2020061760A (en) Imaging apparatus
JP6569188B2 (en) Imaging device
JP5370577B2 (en) Composition selection device and program
JP2013012982A (en) Imaging apparatus and image reproduction apparatus
US11843854B2 (en) Display control device and display control method
JP5589615B2 (en) Imaging device
JP5901328B2 (en) Image composition method and image composition apparatus
JP2015061129A (en) Imaging equipment and imaging method
JP2006033611A (en) Processor and processing method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140710

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20140710

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140925

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20140925

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20141007

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20141208

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150106

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150204

R150 Certificate of patent or registration of utility model

Ref document number: 5694097

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees