JP2013162425A - Imaging apparatus, imaging method, and program - Google Patents
Imaging apparatus, imaging method, and program Download PDFInfo
- Publication number
- JP2013162425A JP2013162425A JP2012024558A JP2012024558A JP2013162425A JP 2013162425 A JP2013162425 A JP 2013162425A JP 2012024558 A JP2012024558 A JP 2012024558A JP 2012024558 A JP2012024558 A JP 2012024558A JP 2013162425 A JP2013162425 A JP 2013162425A
- Authority
- JP
- Japan
- Prior art keywords
- image
- unit
- moving image
- image data
- display
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000003384 imaging method Methods 0.000 title claims abstract description 162
- 238000012545 processing Methods 0.000 claims description 170
- 230000000694 effects Effects 0.000 claims description 12
- 230000014509 gene expression Effects 0.000 claims description 12
- 239000000203 mixture Substances 0.000 claims description 2
- 230000002194 synthesizing effect Effects 0.000 claims description 2
- 238000000034 method Methods 0.000 description 39
- 238000001514 detection method Methods 0.000 description 26
- 230000008569 process Effects 0.000 description 25
- 230000006835 compression Effects 0.000 description 24
- 238000007906 compression Methods 0.000 description 24
- 230000006837 decompression Effects 0.000 description 13
- 238000010586 diagram Methods 0.000 description 12
- 230000007704 transition Effects 0.000 description 12
- 238000006243 chemical reaction Methods 0.000 description 8
- 230000006870 function Effects 0.000 description 8
- 230000008859 change Effects 0.000 description 6
- 238000009966 trimming Methods 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 3
- 238000013461 design Methods 0.000 description 2
- 238000005401 electroluminescence Methods 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 238000013459 approach Methods 0.000 description 1
- 230000007175 bidirectional communication Effects 0.000 description 1
- 230000006854 communication Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 210000004709 eyebrow Anatomy 0.000 description 1
- 210000000887 face Anatomy 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 238000003825 pressing Methods 0.000 description 1
- 238000001454 recorded image Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 230000011514 reflex Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000007493 shaping process Methods 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/62—Control of parameters via user interfaces
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/61—Control of cameras or camera modules based on recognised objects
- H04N23/611—Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/667—Camera operation mode switching, e.g. between still and video, sport and normal or high- and low-resolution modes
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Human Computer Interaction (AREA)
- Studio Devices (AREA)
- Camera Bodies And Camera Details Or Accessories (AREA)
- Indication In Cameras, And Counting Of Exposures (AREA)
Abstract
Description
本発明は、被写体を撮像して該被写体の画像データを生成する撮像装置、撮像方法およびプログラムに関する。 The present invention relates to an imaging apparatus, an imaging method, and a program for imaging a subject and generating image data of the subject.
近年、デジタルカメラ等の撮像装置において、被写体を異なる2つの画角で撮像して生成した2つの画像データを合成して記録することができる技術が知られている(たとえば、特許文献1を参照)。この技術では、広角側で撮影した画像に、望遠側で撮影した画像を合成して合成画像を生成することにより、1画面分の画像データを記録する。 In recent years, there has been known a technique capable of combining and recording two image data generated by imaging a subject at two different angles of view in an imaging apparatus such as a digital camera (see, for example, Patent Document 1). ). In this technique, image data for one screen is recorded by generating a composite image by combining an image captured on the telephoto side with an image captured on the wide-angle side.
ところで、上述した従来技術は、異なる2つの画角で撮影した画像を合成しているだけであり、別々の画像として記憶しているわけではなかった。このため、たとえば動画を撮影する場合には、画角が異なる画像を別々に再生したり、途中で画角を変更しながら再生したりすることができず、変化に乏しい動画しか撮影することができなかった。 By the way, the above-described conventional technique only combines images taken at two different angles of view, and does not store them as separate images. For this reason, for example, when shooting a movie, it is not possible to play back images with different angles of view separately or while changing the angle of view in the middle. could not.
本発明は、上記に鑑みてなされたものであって、異なる画角で撮影した画像を用いて、より変化に富んだ動画の撮影を行うことができる撮像装置、撮像方法およびプログラムを提供することを目的とする。 The present invention has been made in view of the above, and provides an imaging apparatus, an imaging method, and a program capable of capturing a more varied moving image using images captured at different angles of view. With the goal.
上述した課題を解決し、目的を達成するために、本発明にかかる撮像装置は、画角および/または撮影位置が異なる第1画像および第2画像を撮影可能な撮像装置であって、前記第1画像および前記第2画像を時間的に連続して撮影することによって得られる第1動画データおよび第2動画データをそれぞれ記録する制御を行う記録制御部を備え、前記記録制御部は、前記第2画像を断続的に記録する場合、前記第2画像を記録していない期間を他の画像で補間することを特徴とする。 In order to solve the above-described problems and achieve the object, an imaging apparatus according to the present invention is an imaging apparatus capable of shooting a first image and a second image having different angles of view and / or shooting positions. A recording control unit that performs control to record the first moving image data and the second moving image data obtained by continuously capturing one image and the second image in time, and the recording control unit includes the first moving image data and the second moving image data. When two images are recorded intermittently, the period during which the second image is not recorded is interpolated with another image.
また、本発明にかかる撮像装置は、上記発明において、被写体を撮像して該被写体の画像データを連続的に生成する撮像部をさらに備え、前記第2画像は、前記撮像部が生成した前記画像データに対応する撮影画像を該撮影画像と異なる画角および/または撮影位置で切り出されたことを特徴とする。 The imaging apparatus according to the present invention further includes an imaging unit that images a subject and continuously generates image data of the subject in the above invention, and the second image is the image generated by the imaging unit. The photographed image corresponding to the data is cut out at a different angle of view and / or photographing position from the photographed image.
また、本発明にかかる撮像装置は、上記発明において、前記他の画像は、前記第1画像であることを特徴とする。 In the imaging device according to the present invention as set forth in the invention described above, the other image is the first image.
また、本発明にかかる撮像装置は、上記発明において、前記撮像部が生成した前記撮影画像に画像処理を順次行って前記第1動画データを生成する第1画像処理部と、前記撮像部が生成した前記撮影画像から該撮影画像と異なる画角の領域を順次切り出す画像処理を行って前記第2動画データを生成する第2画像処理部と、前記第1動画データおよび前記第2動画データを記録する記録部と、をさらに備え、前記記録制御部は、前記第1動画データおよび前記第2動画データを同期させて再生できるように前記記録部に記録することを特徴とする。 The imaging apparatus according to the present invention is the imaging apparatus according to the above invention, wherein the imaging unit generates a first moving image data by sequentially performing image processing on the captured image generated by the imaging unit. A second image processing unit that performs image processing for sequentially cutting out a region having a different angle of view from the captured image, and generating the second moving image data; and recording the first moving image data and the second moving image data And the recording control unit records the first moving image data and the second moving image data in the recording unit so that the first moving image data and the second moving image data can be reproduced in synchronization with each other.
また、本発明にかかる撮像装置は、上記発明において、動画撮影の開始を指示する動画開始信号および動画撮影の終了を指示する動画終了信号の入力を受け付ける第1の動画撮影操作部と、前記第2画像の撮影の開始を指示する開始信号および前記第2画像の撮影の終了を指示する終了信号の入力を受け付ける第2の動画撮影操作部と、前記第2画像処理部が前記撮影画像から切り出す領域を設定する領域設定部と、をさらに備え、前記記録制御部は、前記第2の動画撮影操作部から前記開始信号が入力された場合、前記領域設定部が前記第2画像処理部に設定する前記領域を前記第2画像に対応する領域に設定する一方、前記第2の動画撮影操作部から前記終了信号が入力された場合、前記領域設定部が前記第2画像処理部に設定する前記領域を前記第1画像に対応する領域に設定することを特徴とする。 In the image pickup apparatus according to the present invention, in the above invention, a first moving image shooting operation unit that receives input of a moving image start signal instructing the start of moving image shooting and a moving image end signal instructing the end of moving image shooting; A second moving image photographing operation unit that accepts an input of a start signal for instructing the start of photographing of two images and an end signal for instructing the end of photographing of the second image; and the second image processing unit cuts out from the photographed image An area setting unit for setting an area, and when the start signal is input from the second moving image shooting operation unit, the recording setting unit sets the area setting unit in the second image processing unit. The region to be set is set to a region corresponding to the second image, and when the end signal is input from the second moving image shooting operation unit, the region setting unit sets the second image processing unit. And sets the frequency in a region corresponding to the first image.
また、本発明にかかる撮像装置は、上記発明において、前記撮影画像を表示可能な表示部と、前記表示部の表示画面上に設けられ、外部からの物体のタッチを検出し、検出したタッチ位置に応じた位置信号を出力するタッチパネルと、をさらに備え、前記領域設定部は、前記タッチパネルから入力される位置信号に応じた位置に対応する前記撮影画像の領域を、前記第2画像処理部が前記撮影画像から切り出す領域に設定することを特徴とする。 The imaging device according to the present invention is the above-described invention, wherein the imaging unit according to the present invention is provided on the display unit capable of displaying the captured image and the display screen of the display unit, detects the touch of an object from the outside, and detects the touch position A touch panel that outputs a position signal corresponding to the position signal, and the region setting unit is configured to cause the second image processing unit to display a region of the captured image corresponding to the position corresponding to the position signal input from the touch panel. It is set to the area cut out from the photographed image.
また、本発明にかかる撮像装置は、上記発明において、前記第2画像を撮影している状態で、前記第2画像の撮影の終了を示す終了情報を前記表示部に表示させる表示制御部をさらに備え、前記終了信号は、前記タッチパネルから前記終了情報に対応する領域の前記位置信号であり、前記開始信号は、前記タッチパネルから入力される前記終了情報に対応する領域以外の前記位置信号であることを特徴とする。 The imaging apparatus according to the present invention may further include a display control unit that causes the display unit to display end information indicating the end of shooting of the second image in a state where the second image is shot. The end signal is the position signal of the area corresponding to the end information from the touch panel, and the start signal is the position signal other than the area corresponding to the end information input from the touch panel. It is characterized by.
また、本発明にかかる撮像装置は、上記発明において、前記タッチパネルから入力される位置信号に応じた位置を含む領域内に含まれる被写体の特徴を判定する特徴判定部と、前記特徴判定部が判定した判定結果に基づいて、隣接する前記撮影画像内で追尾する被写体を設定する追尾設定部と、をさらに備え、前記領域設定部は、前記追尾設定部が設定した被写体を含む領域を、前記第2画像処理部が前記撮影画像から切り出す領域に設定することを特徴とする。 In the imaging device according to the present invention, in the above invention, a feature determination unit that determines a feature of a subject included in an area including a position corresponding to a position signal input from the touch panel, and the feature determination unit determine A tracking setting unit configured to set a subject to be tracked in the adjacent captured image based on the determination result, wherein the region setting unit includes a region including the subject set by the tracking setting unit as the first setting. The two-image processing unit is set to an area cut out from the captured image.
また、本発明にかかる撮像装置は、上記発明において、前記記録制御部は、前記第1動画データおよび前記第2動画データに、前記タッチパネルが外部からの物体のタッチを検出したタッチ位置および/またはタッチを検出した時間情報を含むタッチ情報を対応付けて前記記録部に記録することを特徴とする。 In the imaging device according to the present invention, in the above invention, the recording control unit may detect a touch position at which the touch panel detects a touch of an object from the outside and / or the second moving image data and / or the second moving image data. Touch information including time information when a touch is detected is associated and recorded in the recording unit.
また、本発明にかかる撮像装置は、上記発明において、前記第2画像は、前記第1画像より画角が小さいことを特徴とする。 In the imaging device according to the present invention, the second image has a smaller angle of view than the first image.
また、本発明にかかる撮像装置は、上記発明において、前記表示制御部は、前記記録部に記録された前記第1動画データおよび前記第2動画データを前記表示部に表示させる場合、前記第1動画データおよび前記第2動画データを同期させて前記表示部に表示させることを特徴とする。 In the imaging device according to the present invention, in the above invention, when the display control unit displays the first moving image data and the second moving image data recorded in the recording unit on the display unit, The moving image data and the second moving image data are displayed in synchronization on the display unit.
また、本発明にかかる撮像装置は、上記発明において、前記表示制御部は、前記第1画像に、所定の表示領域に縮小した前記第2画像を重畳して前記表示部に表示させることを特徴とする。 In the imaging device according to the present invention as set forth in the invention described above, the display control unit superimposes the second image reduced in a predetermined display area on the first image and causes the display unit to display the image. And
また、本発明にかかる撮像装置は、上記発明において、前記表示制御部は、前記タッチ情報に基づいて、表現効果を伴って前記第1画像および前記第2画像それぞれの表示領域を切り替えることを特徴とする。 In the imaging device according to the present invention as set forth in the invention described above, the display control unit switches display areas of the first image and the second image with an expression effect based on the touch information. And
また、本発明にかかる撮像装置は、上記発明において、前記表示制御部は、前記第1画像および前記第2画像それぞれの表示領域を徐々に切り替える表現効果、または前記第1画像に前記第2画像を合成する合成比率を徐々に切り替える表現効果を行って前記表示部に表示させることを特徴とする。 In the imaging device according to the aspect of the invention, in the invention described above, the display control unit may express the effect of gradually switching display areas of the first image and the second image, or the second image may be changed to the first image. An expression effect of gradually switching the composition ratio for synthesizing the images is performed and displayed on the display unit.
また、本発明にかかる撮像方法は、画角および/または撮影位置が異なる第1画像および第2画像を撮影可能な撮像装置が実行する撮像方法であって、前記第1画像および前記第2画像を時間的に連続して撮影することによって得られる第1動画データおよび第2動画データをそれぞれ記録する制御を行う記録制御ステップを含み、前記記録制御ステップは、前記第2画像を断続的に記録する場合、前記第2画像を記録していない期間を、他の画像で補間することを特徴とする。 An imaging method according to the present invention is an imaging method executed by an imaging apparatus capable of capturing a first image and a second image having different angles of view and / or imaging positions, wherein the first image and the second image Including a recording control step for controlling the recording of each of the first moving image data and the second moving image data obtained by continuously shooting the image, wherein the recording control step records the second image intermittently. In this case, the period during which the second image is not recorded is interpolated with another image.
また、本発明にかかるプログラムは、画角および/または撮影位置が異なる第1画像および第2画像を撮影可能な撮像装置に実行させるプログラムであって、前記第1画像および前記第2画像を時間的に連続して撮影することによって得られる第1動画データおよび第2動画データをそれぞれ記録する制御を行う記録制御ステップを含み、前記記録制御ステップは、前記第2画像を断続的に記録する場合、前記第2画像を記録していない期間を、他の画像で補間することを特徴とする。 The program according to the present invention is a program for causing an imaging device capable of capturing a first image and a second image having different angles of view and / or photographing positions to execute the first image and the second image over time. Including a recording control step for controlling the recording of the first moving image data and the second moving image data obtained by continuous continuous shooting, wherein the recording control step records the second image intermittently. The period during which the second image is not recorded is interpolated with another image.
本発明によれば、異なる画角で撮影した画像を用いて、より変化に富んだ動画の再生を行うことができるという効果を奏する。 According to the present invention, there is an effect that it is possible to reproduce a moving image with more changes using images taken at different angles of view.
以下に、図面を参照して、本発明を実施するための形態(以下、「実施の形態」という)について説明する。なお、この実施の形態によって本発明が限定されるものではない。また、図面の記載において、同一の部分には同一の符号を付して説明する。 DESCRIPTION OF EMBODIMENTS Hereinafter, modes for carrying out the present invention (hereinafter referred to as “embodiments”) will be described with reference to the drawings. Note that the present invention is not limited to the embodiments. In the description of the drawings, the same portions are denoted by the same reference numerals for description.
図1は、本発明の一実施の形態にかかる撮像装置の構成を示すブロック図である。図1に示す撮像装置1は、レンズ部2と、レンズ駆動部3と、絞り4と、絞り駆動部5と、シャッタ6と、シャッタ駆動部7と、撮像素子8と、撮像素子駆動部9と、信号処理部10と、A/D変換部11と、第1画像処理部12と、特徴判定部13と、追尾設定部14と、第2画像処理部15と、AE処理部16と、AF処理部17と、画像圧縮展開部18と、入力部19と、表示部20と、表示駆動部21と、記録媒体22と、メモリI/F23と、SDRAM24と、Flashメモリ25と、バス26と、制御部27と、を備える。撮像装置1内部のデータの転送は、バス26を介して行われる。
FIG. 1 is a block diagram showing a configuration of an imaging apparatus according to an embodiment of the present invention. An
レンズ部2は、一または複数のレンズを用いて構成される。レンズ部2は、所定の視野領域から光を集光する。レンズ部2は、画角を変化させる光学ズーム機能および焦点を変化させるフォーカス機能を有する。レンズ駆動部3は、DCモータまたはステッピングモータ等を用いて構成され、制御部27から入力される指示信号に応じてレンズ部2のレンズを光軸L上で移動させることにより、レンズ部2のピント位置や画角等の変更を行う。
The
絞り4は、レンズ部2が集光した光の入射量を制限することにより露出の調整を行う。絞り駆動部5は、ステッピングモータ等を用いて構成され、制御部27から入力される指示信号に応じて絞り4を駆動する。
The
シャッタ6は、撮像素子8の状態を露光状態または遮光状態に設定する。シャッタ駆動部7は、ステッピングモータ等を用いて構成され、制御部27から入力される指示信号に応じてシャッタ6を駆動する。
The
撮像素子8は、レンズ部2が集光した光を受光して電気信号に変換するCCD(Charge Coupled Device)またはCMOS(Complementary Metal Oxide Semiconductor)等を用いて構成される。撮像素子駆動部9は、所定のタイミングで撮像素子8から画像データ(アナログ信号)を連続的に信号処理部10に出力させる。この意味で、撮像素子駆動部9は、電子シャッタとして機能する。なお、本実施の形態では、撮像素子8および撮像素子駆動部9が撮像部として機能する。
The
信号処理部10は、撮像素子8から入力されるアナログ信号に対して、アナログ処理を施してA/D変換部11に出力する。具体的には、信号処理部10は、画像データに対して、ノイズ低減処理およびゲインアップ処理等を行う。たとえば、信号処理部10は、アナログ信号に対して、リセットノイズ等を低減した上で波形整形を行い、さらに目的の明るさとなるようにゲインアップを行う。
The
A/D変換部11は、信号処理部10から入力されるアナログ信号に対してA/D変換を行うことによってデジタルの画像データ(撮影画像)を生成し、バス26を介してSDRAM24に出力する。
The A / D conversion unit 11 performs A / D conversion on the analog signal input from the
第1画像処理部12は、画像エンジン(画像コントローラ)を用いて構成される。第1画像処理部12は、バス26を介してSDRAM24から画像データを取得し、取得した画像データ(RAWデータ)に対して各種の画像処理を行って第1処理画像データ(第1画像データ)を生成する。具体的には、第1画像処理部12は、画像データに対して、少なくとも、オプティカルブラック減算処理、ホワイトバランス(WB)調整処理、撮像素子がベイヤー配列の場合には画像データの同時化処理、カラーマトリクス演算処理、ガンマ補正処理、リサイズ処理、トリミング処理、色再現処理およびエッジ強調処理等を含む画像処理を行う。第1画像処理部12が画像処理を行った第1処理画像データは、バス26を介してSDRAM24および特徴判定部13にそれぞれ出力する。第1画像処理部12は、バス26を介してSDRAM24から撮像素子8が連続的に生成した画像データを順次取得し、取得した画像データに対応する撮影画像に対して画像処理を行って第1動画データを構成する第1処理画像データを順次生成する。
The first
特徴判定部13は、第1画像処理部12から入力される第1処理画像データに基づいて、この第1処理画像データに対応する処理画像に含まれる主要被写体の特徴を判定する。具体的には、特徴判定部13は、後述する入力部19から入力される指示信号または制御部27から入力される指示信号に基づいて、第1処理画像データに対応する処理画像で指定された対象領域に含まれる主要被写体の特徴点を判定し、この判定結果を追尾設定部14に出力する。ここで、特徴点とは、輝度およびコントラストである。なお、特徴判定部13は、対象領域のカラーヒストグラムを用いて特徴点を判定してもよい。
Based on the first processed image data input from the first
追尾設定部14は、特徴判定部13から入力される特徴点と、SDRAM24に記録された処理画像データに対応する処理画像とに基づいて、主要被写体を追尾する追尾被写体として設定する。具体的には、追尾設定部14は、SDRAM24から時間的に連続する第1処理画像データを順次取得し、取得した第1処理画像データに対応する処理画像に含まれる特徴点を有する主要被写体を画像間で追尾する追尾被写体として設定する。
The
第2画像処理部15は、画像エンジン(画像コントローラ)を用いて構成される。第2画像処理部15は、バス26を介してSDRAM24から画像データを取得し、取得した画像データに対して、第1画像処理部12と同様の画像処理を行って第2処理画像データを生成する。また、第2画像処理部15は、バス26を介してSDRAM24から撮像素子8が連続的に生成した画像データを順次取得し、取得した画像データに対応する撮影画像に対して画像処理を行って第2の画角の第2動画を構成する第2処理画像データ(第2画像)を生成する。また、第2画像処理部15は、後述する制御部27から入力される信号または追尾設定部14から設定結果に基づいて、撮影画像から所定の領域を切り出す処理(トリミング処理)を行うことによって第2動画データを構成する第2処理画像データを順次生成する。具体的には、第2画像処理部15は、撮影画像から第1動画の画角より狭い第2の画角(望遠側)に対応する領域を切り出すことによって第2動画データを構成する第2処理画像データを生成する。
The second
AE処理部16は、SDRAM24に記録された画像データを取得し、取得した画像データに基づいて、静止画撮影または動画撮影を行う際の露出条件を設定する。具体的には、AE処理部16は、画像データから輝度を算出し、算出した輝度に基づいて、たとえば絞り値(F値)の設定値、シャッタ速度等を決定することで撮像装置1の自動露出を行う。
The
AF処理部17は、SDRAM24に記録された画像データを取得し、取得した画像データに基づいて、撮像装置1の自動焦点の調整を行う。たとえば、AF処理部17は、画像データから高周波成分の信号を取り出し、高周波成分の信号に対してAF(Auto Focus)演算処理(コントラストAF処理と呼ばれることもある)を行うことによって、撮像装置1の合焦評価を決定することで撮像装置1の自動焦点の調整を行う。
The
画像圧縮展開部18は、SDRAM24に記録された画像データを取得し、取得した画像データに対して所定の形式に従って圧縮し、この圧縮した画像データをSDRAM24に出力する。また、画像圧縮展開部18は、バス26を介してメモリI/F23を介して記録媒体22に記録された画像データ(圧縮画像データ)を取得し、取得した画像データを展開(伸長)してSDRAM24に出力する。画像圧縮展開部18は、静止画圧縮展開部181と、第1動画圧縮展開部182と、第2動画圧縮展開部183と、を有する。
The image compression /
静止画圧縮展開部181は、画像データに対してJPEG(Joint Photographic Experts Group)方式に従って、画像データを圧縮または展開してSDRAM24に出力する。
The still image compression / decompression unit 181 compresses or decompresses the image data according to the JPEG (Joint Photographic Experts Group) method and outputs the image data to the
第1動画圧縮展開部182は、第1動画データに対してMotionJPEG方式、MP4(H.264)方式およびAVI方式のいずれかに従って、動画データを圧縮または展開してSDRAM24に出力する。
The first moving image compression / decompression unit 182 compresses or expands the moving image data on the first moving image data according to any of the Motion JPEG method, the MP4 (H.264) method, and the AVI method, and outputs the compressed data to the
第2動画圧縮展開部183は、第2動画データに対してMotionJPEG方式、MP4(H.264)方式およびAVI方式のいずれかに従って、動画データを圧縮または展開してSDRAM24に出力する。
The second moving image compression /
入力部19は、静止画撮影の指示を与えるレリーズ信号を入力する静止画撮影操作部191と、動画撮影の指示信号を入力する動画撮影操作部192と、撮像装置1に設定された各種撮影モード切換の指示を与える切替信号を入力するモード切替操作部193と、撮像装置1の各種設定パラメータを設定する設定信号を入力するダイヤル式の設定操作部194と、表示部20の表示画面上に重ねて設けられ、外部からの接触位置に応じた信号の入力を受け付けるタッチパネル195と、を有する。静止画撮影操作部191は、外部からの押圧により進退可能である。静止画撮影操作部191が半押された場合、撮影順次動作を指示する1stレリーズ信号が入力される。これに対して、静止画撮影操作部191が全押しされた場合、静止画撮影を指示する2stレリーズ信号が入力される。なお、入力部19は、撮像装置1の各種設定を表示部20に表示される指示信号の入力を入力するメニュー操作部(図示せず)および記録媒体22が記録する画像データを表示部20に表示させる再生信号を入力する再生操作部(図示せず)を有する。
The
表示部20は、液晶または有機EL(Electro Luminescence)等からなる表示パネルを用いて構成される。表示駆動部21は、SDRAM24が記録する画像データまたは記録媒体22が記録する画像データを取得し、取得した画像データに対応する画像を表示部20に表示させる。ここで、画像の表示には、撮影直後の画像データを所定時間(例えば3秒間)だけ表示するレックビュー表示、記録媒体22に記録された画像データを再生する再生表示、および撮像素子8が連続的に生成する画像データに対応するライブビュー画像を時系列に沿って順次表示するライブビュー表示等が含まれる。また、表示部20は、撮像装置1の操作情報および撮影に関する情報を適宜表示する。表示部20は、画像データに対応する画像を表示する。表示部20は、撮像装置1の操作に関する操作情報や撮影に関する撮影情報を表示する。
The
記録媒体22は、撮像装置1の外部から装着されるメモリカード等を用いて構成される。記録媒体22は、メモリI/F23を介して撮像装置1に着脱自在に装着される。記録媒体22には、その種類に応じた図示しない読み書き装置によって第1画像処理部12、第2画像処理部15および画像圧縮展開部18のいずれかが処理を施した画像データまたは動画データが書き込まれ、または読み書き装置によって記録媒体22に記録された画像データまたは動画データが読み出される。また、記録媒体22は、制御部27の制御のもと、メモリI/F23およびバス26を介して撮像プログラムおよび各種情報それぞれをFlashメモリ25に出力してもよい。
The
SDRAM24は、揮発性メモリを用いて構成される。SDRAM24は、バス26を介してA/D変換部11から入力される画像データ、第1画像処理部12から入力される処理画像データ、第2画像処理部15から入力される処理画像データおよび撮像装置1の処理中の情報を一時的に記録する一次記録部としての機能を有する。SDRAM24は、第1動画仮記録部241と、第2動画仮記録部242と、静止画仮記録部243とを有する。
The
第1動画仮記録部241は、信号処理部10、A/D変換部11およびバス26を介して、撮像素子8が1フレーム毎に順次出力する画像データ(撮影画像)を一時的に記録する。また、第1動画仮記録部241は、撮像装置1が2つの画角の動画を撮影するマルチレコーディング撮影モードに設定されている場合、第1画像処理部12が画像処理を行った第1動画データを構成する第1処理画像データを一時的に記録する。
The first moving image
第2動画仮記録部242は、第2画像処理部15が画像処理を行った第2動画データを構成する第2処理画像データを一時的に記録する。
The second moving image temporary recording unit 242 temporarily records the second processed image data constituting the second moving image data that has been subjected to image processing by the second
静止画仮記録部243は、静止画撮影操作部191から2stレリーズ信号が入力された場合、信号処理部10、A/D変換部11およびバス26を介して、撮像素子8から入力される静止画画像データを一時的に記録する。
The still image temporary recording unit 243 receives a still image input from the
Flashメモリ25は、不揮発性メモリを用いて構成される。Flashメモリ25は、プログラム記録部251と、特徴情報記録部252と、を有する。
The
プログラム記録部251は、撮像装置1を動作させるための各種プログラム、撮像プログラムおよびプログラムの実行中に使用される各種データ、第1画像処理部12および第2画像処理部15による画像処理の動作に必要な各種パラメータ等を記録する。
The
特徴情報記録部252は、選択された候補域における特徴情報を記録する。この特徴情報は、たとえば候補域に人物の顔が含まれる場合には、その顔の特徴情報(目、口、鼻、眉毛の位置、大きさ等)である。また、候補域に人物の顔が含まれない場合には、その候補域に含まれる特徴的な色の情報や輝度等である。
The feature
制御部27は、CPU(Central Processing Unit)等を用いて構成される。制御部27は、バス26を介して撮像装置1を構成する各部に対して制御信号や各種データの転送を行うことにより、撮像装置1の動作を統括的に制御する。制御部27は、入力部19から撮影動作の開始信号が入力された場合、撮影動作を開始する制御を行う。ここで、撮影動作とは、シャッタ駆動部7および撮像素子駆動部9の駆動によって撮像素子8が出力した画像データに対し、信号処理部10、A/D変換部11および第1画像処理部12が所定の処理を施す動作をいう。このように処理が施された画像データは、制御部27の制御のもと、画像圧縮展開部18で所定の形式にしたがって圧縮され、バス26およびメモリI/F23を介して記録媒体22に記録される。なお、記録媒体22とは別に撮像装置1の内部に所定の記録領域を確保し、この記録領域に圧縮した画像データを記憶するようにしてもよい。
The
制御部27の詳細な構成について説明する。制御部27は、顔検出部271と、タッチ検出部272と、領域設定部273と、記録制御部274と、表示制御部275と、を有する。
A detailed configuration of the
顔検出部271は、画像データに対応する画像に含まれる人の顔をパターンマッチング等によって検出する。具体的には、顔検出部271は、パターンマッチングにより画像中の顔の位置を検出後、目や鼻、口等の顔の特徴点の位置を検出することによって、顔の位置、顔の大きさ(サイズ)、顔の向き、顔の角度(傾き)等を検出する。なお、顔検出部271は、人物の顔だけでなく、犬や猫等の顔を検出してもよい。さらに、顔検出部271は、パターンマッチング以外の周知技術を用いて人の顔を検出してもよい。
The
タッチ検出部272は、タッチパネル195から入力された位置信号に応じた表示部20上のタッチ位置を検出する。
The
領域設定部273は、第2画像処理部15が撮影画像から切り出す領域(トリミング領域)を設定する。具体的には、領域設定部273は、タッチ検出部272が検出した検出結果に基づいて、タッチ位置に対応する撮影画像の領域を、第2画像処理部15が撮影画像から切り出す領域に設定する。また、領域設定部273は、追尾設定部14が設定した主要被写体が含まれる領域を、第2画像処理部15が撮影画像から切り出す領域に設定する。さらに、顔検出部271が検出した顔の領域を、第2画像処理部15が撮影画像から切り出す領域に設定してもよい。また、領域設定部273は、撮像装置1が動画撮影中に別の箇所をタッチした場合、第2画像の切り出し領域を変更する。これにより、ユーザが別の箇所をタッチした違う箇所(領域)が第2動画として記録される。さらにまた、領域設定部273は、撮像装置1が動画撮影中に画面をタッチしたままタッチ箇所を移動させた場合、タッチの軌跡に応じて撮影画像から切り出す第2画像の領域を変更する。これにより、第2画像の切り出し位置がそれに伴って連続的に移動する。
The
記録制御部274は、第1画像および第2画像を時間的に連続して撮影することによって得られる第1動画データおよび第2動画データをそれぞれ記録媒体22に記録する制御を行う。具体的には、記録制御部274は、第1動画仮記録部241に記録された第1動画データを構成する時間的に連続する第1処理画像データ群および第2動画仮記録部242に記録された第2動画データを構成する時間的に連続する第2処理画像データ群を同期して再生できるように、たとえば撮影時の時間情報を一致させて記録媒体22の1つまたは複数のファイルに記録させる制御を行う。また、記録制御部274は、第2画像を断続的に記録する場合、第2動画データの中で第2画像を記録していない期間を、他の画像で補間して第2動画データを記録媒体22に記録する。具体的には、記録制御部274は、タッチパネル195から第2画像の撮影の開始を指示する開始信号が入力された場合、領域設定部273が第2画像処理部15に設定する領域を第2画像に対応する領域に設定する一方、タッチパネル195から第2画像の撮影を終了する終了信号が入力された場合、領域設定部273が第2画像処理部15に設定する領域を第1画像(広角側)に対応する領域に設定する。
The
表示制御部275は、画像データに対応する画像を表示部20に表示させる。表示制御部275は、撮像装置1の各種情報を表示部20に表示させる。また、表示制御部275は、撮像装置1が第1動画および第2動画の撮影を行っている場合、第2画角の動画撮影の終了の入力を受け付ける終了情報を表示部20に表示させる。さらに、表示制御部275は、第2画像処理部15が撮影画像から切り出す領域に対応する第2画像の撮影範囲に対応する情報(たとえば矩形の枠)を表示部20に表示させる。本実施の形態では、表示制御部275およびタッチパネル195が第2の動画撮影操作部として機能する。
The display control unit 275 causes the
以上の構成を有する撮像装置1に対して、電子ビューファインダ、音声入出力部、被写体に対して補助光(フラッシュ)を発光する補助光発光部、インターネットを介して外部の装置と双方向に通信を行う機能を有する通信部などをさらに設けてもよい。
Bi-directional communication with an external device via the Internet, an electronic viewfinder, an audio input / output unit, an auxiliary light emitting unit that emits auxiliary light (flash) to the subject, and the
図2は、上述した撮像装置1が実行するマルチレコーディング処理の概要を説明する図である。なお、図2において、撮像装置1は、同時刻の視野領域(被写体)に対して、2つの画角の動画の撮影時の時間情報を揃えたり、ファイルを関連づけたりして、これらを同期して再生できるように撮影するマルチレコーディング撮影モードが設定されている。さらに、図2において、表示部20にはライブビュー画像P0が表示されている。また、図2において、図2(a)が撮影時のユーザの操作を示し、図2(b)が第1動画の記録内容を示し、図2(c)が第2動画の記録内容を示す。なお、図2において、各画像の間には、複数の画像が存在する。
FIG. 2 is a diagram for explaining the outline of the multi-recording process executed by the
図2に示すように、時間t=t1において、ユーザが動作撮影操作部192を操作して動画撮影の開始信号が入力された場合、記録制御部274は、第1画像処理部12が生成した第1処理画像Qn(n=1、2、3、・・・自然数)および第2画像処理部15が生成した第2処理画像Rnそれぞれの記録を開始する。その後、記録制御部274は、時系列に沿って第1画像処理部12が順次生成した第1処理画像Qn+1および第2画像処理部15が順次生成した第2処理画像Rn+1を記録媒体22に記録する。
As shown in FIG. 2, when the user operates the motion shooting operation unit 192 and a moving image shooting start signal is input at time t = t 1 , the
続いて、時間t=t2において、ユーザがタッチパネル195を介してライブビュー画像Pn+2に写る被写体Aをタッチした場合、記録制御部274は、タッチ検出部272が検出したタッチ位置に基づいて、第2画像処理部15が生成する第2動画の画角を領域設定部273に設定させる。具体的には、領域設定部273は、第2画像処理部15が撮像素子8によって生成された画像データに対応する撮影画像から切り出す領域を、タッチ位置を含む所定の領域(たとえば撮像素子8における撮像面の1/4)に変更することで被写体Aが写る領域(第2の画角)を設定する。これにより、第2画像処理部15は、ユーザがタッチしたタッチ位置を含む領域を切り出して第2処理画像Rn+2を生成する。この際、記録制御部274は、第1画像処理部12が生成した第1処理画像Qn+2および第2画像処理部15が生成した第2処理画像Rn+2をそれぞれ記録媒体22に記録する。なお、図2においては、ユーザがタッチした点を中心とした所定の範囲を選択する方法の場合について説明するが、ユーザが選択したい範囲の対角の頂点を指定する方法であってもよい。
Subsequently, when the user touches the subject A shown in the live view image P n + 2 via the
その後、時間t=t3において、表示制御部275は、ライブビュー画像P上に第2の画角を示すMR領域K1(マルチレコーディング領域)および第2の画角の動画撮影の終了を指示する終了信号の入力を受け付ける閉じるアイコンZ1を表示部20に表示させる。これにより、ユーザは、ワイド側(広角側)の撮影を行いながら、第2画像の領域(望遠側)を直感的に把握することができる。この際、記録制御部274は、第1画像処理部12が生成した第1処理画像Qn+3および第2画像処理部15が生成した第2処理画像Rn+3をそれぞれ記録媒体22に記録する。
Thereafter, at time t = t 3 , the display control unit 275 instructs the MR region K1 (multi-recording region) indicating the second angle of view on the live view image P and the end of moving image shooting of the second angle of view. A close icon Z1 for receiving an input of an end signal is displayed on the
続いて、時間t=t4において、ユーザがタッチパネル195を介してライブビュー画像Pn+4上の閉じるアイコンZ1をタッチした場合、記録制御部274は、第2画像処理部15が生成する第2画像から第1動画の第1画像の領域に変更して領域設定部273に設定させる。具体的には、領域設定部273は、第2画像処理部15が撮像素子8によって生成された画像データに対応する撮影画像から切り出す領域を第1画像処理部12と同じ第1画像(第1の画角)に対応する領域(広角側)に設定する。これにより、記録制御部274は、第2画像を断続的に記録する場合、第2動画データの中で第2画像を記録していない期間を、第1画像で補間して第2動画データを記録することができる。この際、記録制御部274は、第1画像処理部12が生成した第1処理画像Qn+4および第2画像処理部15が生成した第2処理画像Rn+4をそれぞれ記録媒体22に記録する。
Subsequently, when the user touches the close icon Z1 on the live view image P n + 4 via the
その後、時間t=t5において、記録制御部274は、第1画像処理部12が生成した第1画像の第1処理画像Qn+5および第2画像処理部15が生成した第2画像の第2処理画像Rn+5を記録媒体22に記録する。
Thereafter, at time t = t 5 , the
続いて、時間t=t6において、ユーザがタッチパネル195を介してライブビュー画像Pn+6に写る被写体Bをタッチした場合、記録制御部274は、タッチ検出部272が検出したタッチ位置に基づいて、第2画像処理部15が生成する第2画像の領域を領域設定部273に設定させる。具体的には、領域設定部273は、タッチ検出部272が検出したタッチ位置に基づいて、第2画像処理部15が生成する第2画像の領域を設定する。たとえば、領域設定部273は、第2画像処理部15が撮像素子8によって生成された画像データに対応する撮影画像から切り出す領域を被写体Bが写る領域に変更することで第2画像の領域を設定する。これにより、第2画像処理部15は、ユーザがタッチしたタッチ位置を含む領域を切り出して第2処理画像Rn+6を生成する。この際、記録制御部274は、第1画像処理部12が生成した第1処理画像Qn+6および第2画像処理部15が生成した第2処理画像Rn+6をそれぞれ記録媒体22に記録する。
Subsequently, when the user touches the subject B shown in the live view image P n + 6 via the
その後、時間t=t7において、表示制御部275は、ライブビュー画像Pn+7上に第2の画角を示すMR領域K2および第2画像の撮影の終了を指示する信号の入力を受け付ける閉じるアイコンZ1を表示部20に表示させる。この際、記録制御部274は、第1画像処理部12が生成した第1処理画像Qn+3および第2画像処理部15が生成した第2処理画像Rn+3をそれぞれ記録媒体22に記録する。
Thereafter, at time t = t 7 , the display control unit 275 receives an input of a signal instructing the end of photographing of the MR region K2 indicating the second angle of view and the second image on the live view image P n + 7. The close icon Z1 is displayed on the
続いて、時間t=t8において、ユーザがタッチパネル195を介してライブビュー画像Pn+8に写る被写体Aをタッチした場合、記録制御部274は、タッチ検出部272が検出したタッチ位置に基づいて、第2画像処理部15が生成する第2画像の領域を領域設定部273に設定させる。具体的には、領域設定部273は、タッチ検出部272が検出したタッチ位置に基づいて、第2画像処理部15が撮像素子8によって生成された画像データに対応する撮影画像から切り出す領域を被写体Aが写る領域に変更することで第2画像の領域を設定する。これにより、第2画像処理部15は、ユーザがタッチしたタッチ位置を含む領域を切り出して第2画像の第2処理画像Rn+8を生成する。この際、記録制御部274は、第1画像処理部12が生成した第1処理画像Qn+8および第2画像処理部15が生成した第2処理画像Rn+8をそれぞれ記録媒体22に記録する。
Subsequently, when the user touches the subject A captured in the live view image P n + 8 via the
その後、記憶制御部274は、動画撮影操作部192から動画の撮影を終了する終了信号が入力されるまで、第1画像処理部12が生成する第1処理画像および第2画像処理部15が生成する第2画像処理を記録媒体22に記録し続ける。
Thereafter, the
このように、ユーザは、動画撮影を行っている際に画面内で拡大して見たい被写体や場所を指定しながら全体の撮影を同時に行うことができる。さらに、ユーザは、表示部20が表示するライブビュー画像を見ながら、タッチパネル195をタッチすることで所望の被写体を拡大して撮影することができる。さらにまた、ユーザは、異なる被写体や場所にタッチして指定するだけで、第2動画における第2画像の位置(望遠側の位置)を変更することができる。
In this way, the user can simultaneously shoot the entire image while designating a subject and a place to be enlarged and viewed on the screen during moving image shooting. Furthermore, the user can enlarge and photograph a desired subject by touching the
つぎに、撮像装置1が実行する処理の概要について説明する。図3は、撮像装置1が実行する処理の概要を示すフローチャートである。
Next, an outline of processing executed by the
図3に示すように、撮像装置1が撮影モードに設定されている場合(ステップS101:Yes)、撮像装置1は、撮影モードに応じて各種パラメータを制御しながら静止画撮影または動画撮影を行う撮影制御処理を実行する(ステップS102)。なお、撮影制御処理の詳細な内容について後述する。
As shown in FIG. 3, when the
続いて、撮像装置1の電源がオフされた場合(ステップS103:Yes)、撮像装置1は、本処理を終了する。これに対して、撮像装置1の電源がオフされていない場合(ステップS103:No)、撮像装置1は、ステップS101へ戻る。
Subsequently, when the power of the
ステップS101において、撮像装置1が撮影モードに設定されておらず(ステップS101:No)、再生モードに設定されている場合(ステップS104:Yes)、撮像装置1は、記録媒体22が記録する画像ファイル内の画像データや動画データを再生して表示する再生表示を実行する(ステップS105)。なお、再生表示処理の詳細な内容については後述する。ステップS105の後、撮像装置1は、ステップS103へ移行する。
In step S101, when the
つぎに、図3のステップS102で説明した撮影制御処理について説明する。図4は、撮影制御処理の概要を示すフローチャートである。 Next, the photographing control process described in step S102 of FIG. 3 will be described. FIG. 4 is a flowchart showing an outline of the imaging control process.
図4に示すように、表示制御部275は、撮像素子8が生成した画像データに対応するライブビュー画像を表示部20に表示させ(ステップS201)、記録制御部274は、撮像素子8が生成した画像データをSDRAM24の第1動画仮記録部241に仮記録する(ステップS202)。
As illustrated in FIG. 4, the display control unit 275 causes the
続いて、タッチパネル195を介して表示部20が表示するライブビュー画像に対し、第2の画角として撮影する部分指定があった場合(ステップS203:Yes)、撮像装置1は、第2動画の候補となる第2画角を示すMR領域を表示する第2動画候補枠表示処理を実行する(ステップS204)。
Subsequently, when there is a partial designation for shooting as the second angle of view for the live view image displayed on the
図5は、ステップS204の第2動画候補枠表示処理の概要を示すフローチャートである。 FIG. 5 is a flowchart showing an overview of the second moving image candidate frame display process in step S204.
図5に示すように、特徴判定部13は、タッチ検出部272が検出したタッチ位置に基づいて、タッチ位置に含まれる主要被写体の特徴を判定する(ステップS301)。
As shown in FIG. 5, the
続いて、追尾設定部14は、特徴判定部13が判定した特徴を有する被写体を連続する画像間で追尾する主要被写体を追尾被写体に設定する(ステップS302)。これにより、ユーザが所望する主要被写体を追尾することができる。なお、本実施の形態では、撮影前の撮像装置1の各種設定処理において、主要被写体を追尾する追尾モードを設定することができる。このため、撮像装置1の設定処理において、主要被写体を追尾する追尾モードが設定されていない場合、タッチ位置に含まれる被写体を追尾せず、この位置で待機させてもよい。
Subsequently, the
その後、設定操作部194から第2動画の位置(画角)を変更する変更信号が入力された場合(ステップS303:Yes)、領域設定部273は、第2画像処理部15が撮像素子8によって生成された画像データに対応する撮影画像から切り出す領域を1/9に設定する(ステップS304)。これに対して、設定操作部194から第2の動画の画角を変更する変更信号が入力されていない場合(ステップS303:No)、領域設定部273は、第2画像処理部15が撮像素子8によって生成された画像データに対応する撮影画像から切り出す領域を1/4に設定する(ステップS305)。
Thereafter, when a change signal for changing the position (angle of view) of the second moving image is input from the setting operation unit 194 (step S303: Yes), the
続いて、表示制御部275は、ライブビュー画像上に第2画像の領域を示すMR領域の枠K1を表示部20に表示させる(ステップS306)。その後、撮像装置1は、図4の撮影制御処理に戻る。
Subsequently, the display control unit 275 causes the
ステップS203において、タッチパネル195を介して表示部20が表示するライブビュー画像に対し、第2画像として撮影する部分指定がない場合(ステップS203:No)およびステップS204の後、撮像装置1は、ステップS205へ移行する。
In step S203, if there is no designation of a part to be captured as the second image for the live view image displayed on the
続いて、タッチパネル195を介して表示部20が表示するライブビュー画像に対し、第2画像として撮影する部分指定の解除があった場合(ステップS205:Yes)、領域設定部273は、第2画像処理部15が撮像素子8によって生成された画像データに対応する撮影画像から切り出す領域を、第1画像処理部12が生成する第1動画の第1画像に対応する領域に設定する(ステップS206)。具体的には、領域設定部273は、閉じるアイコンZ1がタッチされた場合、第2画像処理部15が撮像素子8によって生成された画像データに対応する撮影画像から切り出す領域を、第1画像処理部12が生成する第1動画の第1画像の領域に設定する。その後、撮像装置1は、ステップS207へ移行する。これに対して、タッチパネル195を介して表示部20が表示するライブビュー画像に対し、第2画像として撮影する部分指定の解除がなかった場合(ステップS205:No)、撮像装置1は、ステップS207へ移行する。
Subsequently, when the partial designation to be captured as the second image is canceled for the live view image displayed on the
その後、静止画撮影操作部191から2stレリーズ信号が入力されることにより、静止画撮影の指示があった場合(ステップS207:Yes)、撮像装置1は、静止画撮影を行う(ステップS208)。この場合において、記録制御部274は、第2画像の部分指定が設定されているとき、第1の画像処理部12が画像処理を行った第1画像の静止画データと、第2の画像処理部15が画像処理を行った第2画像の静止画データとをSDRAM24の静止画仮記録部243に記録する。
Thereafter, when a 2st release signal is input from the still image capturing
続いて、記録制御部274は、静止画データに、第1動画仮記録部241が記録する動画データ、たとえば静止画データを撮影した際の前後(たとえば3秒間)の動画データを対応付けて記録媒体22に記録する(ステップS209)。その後、撮像装置1は、図3のメインルーチンへ戻る。
Subsequently, the
ステップS207において、静止画撮影の指示がなく(ステップS207:No)、動画撮影操作部192から動画の開始を指示する開始信号が入力されることにより、動画撮影の指示があった場合(ステップS210:Yes)、撮像装置1は、第1動画および第2動画の記録を開始する(ステップS211)。この場合、記録制御部274は、第1画像処理部12が生成する第1動画の第1処理画像データ、第2画像処理部15が生成する第2動画の第2処理画像データを時系列に沿って同期できるように記録(前述のようにファイル関連付けや時間情報を揃える措置を差す。以下同様)するための動画ファイルを記録媒体22に生成し、この動画ファイルに第1処理画像データおよび第2画像処理データを同期させて記録を開始する。
In step S207, when there is no instruction to shoot a still image (step S207: No) and a start signal instructing the start of a moving image is input from the moving image shooting operation unit 192, a moving image shooting instruction is given (step S210). : Yes), the
続いて、静止画撮影操作部191から2stレリーズ信号が入力されることにより、静止画撮影の指示があった場合(ステップS212:Yes)、撮像装置1は、静止画撮影を行う(ステップS213)。この場合、記録制御部274は、第1画像と第2画像との画角が異なっている場合、第1画像の静止画データと、第2画像の静止画データとを動画ファイルに記録する。また、記録制御部274は、第1画像と第2画像との画角(トリミング領域)が同じ場合、第1画像の静止画データのみを動画ファイルに記録してもよい。これに対して、静止画撮影の指示がない場合(ステップS212:No)、撮像装置1は、ステップS214へ移行する。
Subsequently, when a 2st release signal is input from the still image capturing
その後、動画撮影操作部192から動画の終了を指示する終了信号が入力されることにより、撮像装置1が動画撮影を終了した場合(ステップS214:Yes)、記録制御部274は、画像圧縮展開部18に所定の形式に従って記録媒体22に記録された動画ファイルを圧縮させて記録媒体22に記録する(ステップS215)。その後、撮像装置1は、図3のメインルーチンへ戻る。
Thereafter, when the
ステップS214において、撮像装置1が動画撮影を終了しない場合(ステップS214:No)、撮像装置1は、ステップS216へ移行する。
In step S214, when the
続いて、タッチパネル195を介して表示部20が表示するライブビュー画像に対し、第2の画角として撮影する部分指定があった場合(ステップS216:Yes)、記録制御部274は、第2動画をタッチ位置に応じた画角で記録する(ステップS217)。この場合、領域設定部273は、検出部272が検出したタッチ位置に基づいて、第2画像処理部15が撮像素子8によって生成された画像データに対応する撮影画像から切り出す領域を設定する。これにより、タッチ位置を含む領域を拡大した第2の画角である第2動画を記録することができる。この際、記録制御部274は、タッチパネル195がタッチされたタッチ位置および時間情報(タッチタイミング)を含むタッチ情報を第1動画および第2動画に対応付けて記録媒体22に記録する。もちろん、第2動画の位置を変えない場合もあり、タッチ以外で変える場合もあって、時間情報だけでもよい。タッチ操作は、直感的であり、簡単に操作ができるので、撮影者の意志を尊重した操作が直感的にできる。また、この状況下で、撮像装置1に主要被写体を追尾する追尾モードが設定されている場合、特徴判定部13がタッチ位置に含まれる特徴を判定し、追尾設定部14が特徴判定部13によって判定された特徴を有する被写体を第2の画角で追尾し、領域設定部273が追尾設定部14の追尾結果に基づいて、第2画像処理部15が切り出す領域を連続する画像間で変更しながら追尾してもよい。このような特徴判定も、追尾以外のケースもあるので、必ずしも必要ではない。その後、撮像装置1はステップS218へ移行する。
Subsequently, when the live view image displayed on the
ステップS216において、タッチパネル195を介して表示部20が表示するライブビュー画像に対し、第2画像として撮影する部分指定がない場合(ステップS216:No)、撮像装置1は、ステップS218へ移行する。
In step S <b> 216, when there is no designation of a part to be captured as the second image for the live view image displayed on the
その後、タッチパネル195を介して表示部20が表示するライブビュー画像に対し、第2画像として撮影する部分指定の解除があった場合(ステップS218:Yes)、領域設定部273は、第2画像処理部15が撮像素子8によって生成された画像データに対応する撮影画像から切り出す領域を、第1画像処理部12が生成する第1動画の第1画角に設定し、記憶制御部274は、第2動画を第1動画の画角で記録する(ステップS219)。具体的には、記録制御部274は、第2画像処理部15が生成する第2動画の第2画像の領域から第1動画の第1画像の領域に変更して領域設定部273に設定させる。この場合、領域設定部273は、第2画像処理部15が撮像素子8によって生成された画像データに対応する撮影画像から切り出す領域を第1画像処理部12と同じ第1画像に対応する領域に設定する。その後、撮像装置1は、ステップS212へ戻る。
After that, when there is cancellation of the designation of a part to be captured as the second image for the live view image displayed on the
ステップS218において、タッチパネル195を介して表示部20が表示するライブビュー画像に対し、第2画像として撮影する部分指定の解除がなかった場合(ステップS218:No)、撮像装置1は、ステップS212へ戻る。
In step S218, when the live designation image displayed on the
ステップS210において、動画撮影の指示がなく(ステップS210:No)、撮影モードが終了の場合(ステップS220:Yes)、撮像装置1は、図3のメインルーチンへ戻る。これに対して、動画撮影の指示がなく(ステップS210:No)、撮影モードが終了していない場合(ステップS220:No)、撮像装置1は、ステップS201へ戻る。
In step S210, when there is no instruction for moving image shooting (step S210: No) and the shooting mode is ended (step S220: Yes), the
つぎに、図3のステップS105の再生表示処理について説明する。図6は、再生表示処理の概要を示すフローチャートである。 Next, the reproduction display process in step S105 of FIG. 3 will be described. FIG. 6 is a flowchart showing an outline of the reproduction display process.
図6に示すように、表示制御部275は、記録媒体22が記録するファイルの一覧を表示部20に表示する(ステップS401)。
As shown in FIG. 6, the display control unit 275 displays a list of files recorded on the
続いて、設定操作部194またはタッチパネル195を介してファイルが選択された場合(ステップS402:Yes)、制御部27は、選択されたファイルがマルチフレームであるか否かを判断する(ステップS403)。選択されたファイルがマルチフレームであると制御部27が判断した場合(ステップS403:Yes)、撮像装置1は、後述するステップS404へ移行する。これに対して、選択されたファイルがマルチフレームでないと制御部27が判断した場合(ステップS403:No)、撮像装置1は、後述するステップS413へ移行する。
Subsequently, when a file is selected via the setting operation unit 194 or the touch panel 195 (step S402: Yes), the
ステップS404において、制御部27は、第1動画圧縮展開部182および第2動画圧縮展開部183に記録媒体22が記録する圧縮された第1動画データおよび圧縮された第2動画データをSDRAM24で展開させ、この展開した第1動画データに対応する第1動画および第2動画データに対応する第2動画の再生を開始する。
In step S404, the
続いて、第2動画に第1動画の画角と異なる別の画角がある場合(ステップS405:Yes)、表示制御部275は、第1動画をメインで表示して、第2動画をサブで表示し(ステップS406)、サブで表示された動画がタッチされた場合(ステップS407:Yes)、表示制御部275は、第1動画と第2動画との表示領域を徐々に切り替えて表示部20に表示させる(ステップS408)。 Subsequently, when the second moving image has another angle of view different from the angle of view of the first moving image (step S405: Yes), the display control unit 275 displays the first moving image as a main and subtracts the second moving image. (Step S406), and when the moving image displayed in the sub is touched (step S407: Yes), the display control unit 275 gradually switches the display area between the first moving image and the second moving image and displays the display unit. 20 is displayed (step S408).
図7は、マルチフレームの動画を手動で切り替える際の動画の遷移を模式的に示す図である。図7に示すように、ユーザがタッチパネル195を介して表示部20がサブで表示する第2動画Rnを選択した場合(図7(a))、表示制御部275は、第1動画Qn+1と第2動画Rn+1との表示領域を徐々に切り替えて表示部20に表示させる(図7(b)→図7(c)→図7(d)→図7(e))。これにより、第1動画から第2動画に滑らかに表示領域が遷移するので、ユーザは、違和感なく画像を鑑賞することができる。さらに、ユーザは、同時刻で撮影した全体の雰囲気を楽しみながら、第2動画を拡大して確認することができる。なお、表示制御部275は、第2動画がメインで表示され、第1動画がサブで表示されている場合において、ユーザがタッチパネル195を介して第1動画を選択したとき、第1動画と第2動画との表示領域を徐々に切り替えながら表示部20に表示させる。この際、表示制御部275は、瞬時に第1動画と第2動画とを切り替えてもよい。ステップS408の後、撮像装置1は、ステップS409に移行する。
FIG. 7 is a diagram schematically illustrating transition of moving images when a multi-frame moving image is manually switched. As illustrated in FIG. 7, when the user selects the second moving image R n that the
ステップS409において、動画の再生が終了した場合(ステップS409:Yes)撮像装置1は、図3のメインルーチンへ戻る。これに対して、動画の再生が終了していない場合(ステップS409:No)、撮像装置1は、ステップS407へ戻る。
In step S409, when the reproduction of the moving image is completed (step S409: Yes), the
ステップS407において、サブで表示された動画がタッチされていない場合(ステップS407:No)、制御部27は、第2動画データに撮影時のタッチ情報が含まれているか否かを判断する(ステップS410)。撮影時のタッチ情報が含まれていると制御部27が判断した場合(ステップS410:Yes)、表示制御部275は、タッチ情報に基づいて、第1動画と第2動画との表示領域を徐々に切り替えて表示部20に表示させる(ステップS411)。
In step S407, when the moving image displayed in the sub is not touched (step S407: No), the
図8および図9は、マルチフレームの動画を自動で切り替える際の動画の遷移を模式的に示す図である。図8および図9において、表示制御部275は、第1動画をメインで表示し、第2動画をサブで表示する。さらに、表示制御部275は、マルチフレームにおける動画再生時間の全体の長さを示すタイムバーT1を表示部20に表示させる。さらにまた、表示制御部275は、選択されたファイルに記録された撮影時のタッチ情報に基づいて、タイムバーT1上にユーザが撮影時にタッチしたタッチの時間情報を示す指標I1および指標I2をタイムバーT1上に表示させる。指標I1は、第2動画を第1の画角で撮影している場合において、第2の画角に変更したときの時刻を示し、指標I2は、第2動画を第2の画角で撮影している場合において、異なる位置で第2の画角の第2動画を開始したときのタイミングを示す。また、表示制御部275は、現在の撮影時刻を示すアイコンD1をタイムバーT1上に表示させる。
FIG. 8 and FIG. 9 are diagrams schematically illustrating moving image transition when a multi-frame moving image is automatically switched. 8 and 9, the display control unit 275 displays the first moving image as a main and the second moving image as a sub. Further, the display control unit 275 causes the
図8に示すように、表示制御部275は、タッチ情報に基づいて、第1動画と第2動画との表示領域を徐々に切り替えて表示部20に表示させる(図8(a)→図8(b)→図8(c)→図8(d)→図8(e))。この際、表示制御部275は、撮影時刻(アイコンD1)がタイムバーT1上の指標I1に近づくにつれて、第2動画の表示領域を拡大する。これにより、第1動画から第2動画に滑らかに表示領域が遷移するので、ユーザは、違和感なく画像を鑑賞することができる。さらに、ユーザは、同時刻で撮影した全体の雰囲気を楽しみながら、第2動画を拡大して確認することができる。
As shown in FIG. 8, the display control unit 275 gradually switches the display area between the first moving image and the second moving image based on the touch information and causes the
また、図9に示すように、表示制御部275は、タッチ情報に基づいて、異なる画角の第2動画を切り替えて表示部20に表示させる場合、第2動画の遷移の途中で黒く塗り潰した画像O1(ブラックアウト)を連続する動画の中に挟みこむことで表示部20に表示させる(図9(a)→図9(b)→図9(c)→図9(d)→図9(e))。この際、表示制御部275は、撮影時刻(アイコンD1)がタイムバーT1上の指標I2に到達したときに、黒塗り画像O1を表示部20に表示させる。これにより、第2の画角から別の第2の画角に切り替わっても、違和感なく再生することができる。ステップS411の後、撮像装置1は、ステップS409へ移行する。
Further, as illustrated in FIG. 9, when the second moving image having a different angle of view is switched and displayed on the
ステップS410において、選択されたファイルに撮影時のタッチ情報がない場合(ステップS410:No)、撮像装置1は、ステップS409へ移行する。
In step S410, when there is no touch information at the time of shooting in the selected file (step S410: No), the
ステップS405において、第2動画に別な画角がない場合(ステップS405:No)、表示制御部275は、第2動画を非表示にする(ステップS412)。この場合、第2動画は、第1動画に同期して再生されている。その後、撮像装置1は、ステップS409へ移行する。
In step S405, when the second moving image does not have another angle of view (step S405: No), the display control unit 275 hides the second moving image (step S412). In this case, the second moving image is played back in synchronization with the first moving image. Thereafter, the
ステップS403において、選択されたファイルがマルチフレームでない場合(ステップS403:No)、表示制御部275は、選択されたファイルの画像データを再生する(ステップS413)。 In step S403, when the selected file is not a multiframe (step S403: No), the display control unit 275 reproduces the image data of the selected file (step S413).
続いて、画像データが終了した場合(ステップS414:Yes)、撮像装置1は、図3のメインルーチンへ戻る。これに対して、画像データが終了していない場合(ステップS414:No)、制御部27は、この判断を続ける。
Subsequently, when the image data is completed (step S414: Yes), the
ステップS402において、ファイルが選択されておらず(ステップS402:No)、再生モードが終了の場合(ステップS415:Yes)、撮像装置1は、図3のメインルーチンへ戻る。これに対して、再生モードが終了していない場合(ステップS415:No)、撮像装置1は、ステップS401へ戻る。
In step S402, when no file is selected (step S402: No) and the reproduction mode is ended (step S415: Yes), the
以上説明した本発明の一実施の形態によれば、記録制御部274が第2画像を断続的に記録する場合、第2動画データの中で第2画像を記録していない期間を、他の画像で補間して第2動画データを記録する。この結果、異なる画角で撮影した画像を用いて、より変化に富んだ動画の撮影を行うことができるという。
According to the embodiment of the present invention described above, when the
また、本発明の一実施の形態によれば、記録制御部274が第1動画データおよび第2動画データをそれぞれ記録媒体22に記録する。この結果、ユーザは、所望の被写体を拡大した第2動画データのみを再生することもできるし、全体を写した第1動画データのみを再生することもできる。
Further, according to the embodiment of the present invention, the
また、本発明の一実施の形態によれば、記録制御部274が第1動画データおよび第2動画データを同期させて再生できるように記録媒体22に記憶する。この結果、ユーザは、第1動画データおよび第2動画データを同時に再生する場合、第1動画データを構成する第1画像と、第2動画データを構成する第2画像との表示領域や表示を再生時に手動で切り替えながら鑑賞することができ、変化に富んだ動画を楽しむことができる。
In addition, according to the embodiment of the present invention, the
また、本発明の一実施の形態によれば、記録制御部274が第1動画データおよび第2動画データを同期させて再生できるように記録媒体22に記録すると、同時に第2画像の切り出し位置の変更や切り出しの終了の時間情報を付加している。この結果、ユーザは、第1動画データおよび第2動画データを同時に再生する場合、第1動画データを構成する第1画像と、第2動画データを構成する第2画像との表示領域や表示を自動的に切り替えながら鑑賞することができ、変化に富んだ動画を楽しむことができる。
According to one embodiment of the present invention, when the
また、本発明の一実施の形態によれば、領域設定部273がタッチパネル195から入力される位置信号に応じた位置に対応する撮影画像の領域を第2画像処理部15が第2画像として切り出す領域に設定する。この結果、ユーザは、直感的な操作で所望の領域を拡大した第2動画データの領域を設定することができる。これにより、ユーザの意志を直感的に反映することができる。
Further, according to the embodiment of the present invention, the second
また、本発明の一実施の形態によれば、ユーザがタッチパネル195を操作するだけで、第2動画データを構成する第2画像の領域を変化させることができるので、画角や撮影位置をユーザの意志で変化を付けた第2動画を撮影することができる。この結果、より変化に富んだ動画の撮影を行うことができるという。
In addition, according to the embodiment of the present invention, since the area of the second image constituting the second moving image data can be changed only by the user operating the
また、本実施の一実施の形態によれば、画像圧縮展開部18が所定の方式に従ってコマ間圧縮を行っているので、記録制御部274が第1動画データおよび第2動画データを同期させて記録媒体22に記録する。これにより、第1動画データおよび第2動画データを同時に再生した場合において、ユーザがサブに表示された一方の動画を選択したとき、選択した動画にコマ(フレーム)落ちが生じないため、滑らかに動画の遷移を行うことができる。なお、第1動画および第2動画を同期して記録しない場合、画像圧縮展開部18が所定の方式に従ってコマ間圧縮を行っているので、ユーザがサブに表示された一方の動画を選択したとき、この選択した動画にコマ落ちが生じるため、次のコマまで待機させる必要があり、動画の遷移が断続的になる。
Further, according to the embodiment of the present invention, since the image compression /
さらに、本実施の一実施の形態によれば、領域設定部273が追尾設定部14によって設定された追尾被写体に対応する領域を第2の画角として第2画像処理部15が撮影画像から切り出す領域に設定するので、ユーザが所望する主要被写体を拡大した動画を第2動画として撮影することができる。なお、追尾設定部14は、追尾被写体が撮像装置1の視野領域から消失した場合、追尾被写体が消失した位置で所定時間(たとえば3秒)待機後、追尾を解除してもよい。また、追尾設定部14は、所定時間内に追尾被写体が撮像装置1の視野領域内に写り込んだ場合、追尾被写体の追尾を継続してもよい。この際、追尾設定部14は、待機している位置から徐々(ヒステリシス数や係数を持たせる)に追尾被写体に移動させて、画角が急激に変わることを防止してもよい。さらに、領域設定部273は、追尾被写体の大きさが一定になるように、第2の画角として第2画像処理部15が撮影画像から切り出す領域を適宜調整してもよい。
Furthermore, according to the embodiment of the present invention, the second
なお、本実施の一実施の形態では、領域設定部273がタッチ位置に応じて第2画像処理部15が撮影画像から切り出す領域を設定していたが、デフォルト(初期設定)で第2画像処理部15が撮影画像から切り出す領域を撮影画像の中央を含む領域に設定してもよい。さらに、領域設定部273は、顔検出部271の検出結果に応じて、第2画像処理部15が撮影画像から切り出す領域を設定してもよい。
In the present embodiment, the
また、本実施の一実施の形態では、領域設定部273がタッチ位置に応じて第2画像処理部15が撮影画像から切り出す領域を設定していたが、ピンチ操作(ピンチインやピンチアウト)、タップ操作またはホールド操作に応じて第2画像処理部15が撮影画像から切り出す領域を設定してもよい。さらに、領域設定部273は、タッチの軌跡に応じて第2画像処理部15が撮影画像から切り出す領域を設定してもよい。
In the embodiment, the
また、本実施の一実施の形態では、記録制御部274は、第2動画データの中で第2画像を記録していない記録を第1動画で補間して第2動画を記録媒体22に記録していたが、他の動画、たとえば予め設定されているブラックアウト画像やホワイトアウト画像等によって補間した第2動画を記録媒体22に記録してもよい。
In one embodiment of the present invention, the
また、本実施の一実施の形態では、動画のアスペクト比を16:9で説明していたが、アスペクト比を、たとえば4:3や3:2に適宜設定することができる。 In the present embodiment, the aspect ratio of the moving image has been described as 16: 9. However, the aspect ratio can be appropriately set to 4: 3 or 3: 2, for example.
また、本実施の一実施の形態では、第1画像処理部12が撮影画像に対して画像処理を行って第1動画データを構成する第1処理画像データを生成したが、たとえば撮影画像(有効領域)から所定の領域を切り出し、この切り出した領域の画像に画像処理を行って第1動画データを構成する第1処理画像データを生成してもよい。
In the present embodiment, the first
また、本実施の一実施の形態では、第1画像が第2画像よりも画角が小さくてもよい。 In the embodiment, the first image may have a smaller angle of view than the second image.
また、本実施の一実施の形態では、記録制御部274は、第1動画データおよび第2動画データを同期させて再生できるように記録媒体22に記録していたが、第1動画データおよび第2動画データを同期させて表示することができればよく、第1動画データおよび第2動画データを時分割で記録媒体22に記録してもよい。
In the embodiment, the
また、本実施の一実施の形態では、再生時に第2動画から第1動画に切り替える場合、撮影時のタッチ情報に基づいて、第2動画が第1動画の中に吸い込まれるように表示領域を徐々に小さくしながら遷移させてもよい。具体的には、図10に示すように、表示制御部275は、撮影時のタッチ情報に基づいて、第2の画角に対応する第1動画の位置に第2動画の表示領域を徐々に縮小しつつ戻しながら、第1動画の表示領域を拡大する(図10(a)→図10(b)→図10(c)→図10(d)。その後、表示制御部275は、第2動画をサブ領域に表示させる(図10(e))。これにより、ユーザは、撮影時でタッチした位置を容易に把握することができる。 In the embodiment, when switching from the second video to the first video during playback, the display area is set so that the second video is sucked into the first video based on the touch information at the time of shooting. The transition may be made while gradually decreasing. Specifically, as illustrated in FIG. 10, the display control unit 275 gradually shifts the display area of the second moving image to the position of the first moving image corresponding to the second angle of view based on the touch information at the time of shooting. The display area of the first moving image is enlarged while being returned while being reduced (FIG. 10 (a) → FIG. 10 (b) → FIG. 10 (c) → FIG. 10 (d)). The moving image is displayed in the sub-region (FIG. 10E), so that the user can easily grasp the position touched at the time of shooting.
また、本実施の一実施の形態では、ユーザが撮影時にタッチパネル195を介してライブビュー画像にタッチした場合、表示制御部275が第2の画角の位置を示す領域をライブビュー画像上に重畳して表示していたが、タッチ位置を含む領域を切り出してライブビュー画像上の所定の位置に表示させてもよい。具体的には、図11に示すように、表示制御部275は、ユーザがタッチパネル195を介して表示部20が表示するライブビュー画像をタッチした場合、タッチ検出部272の検出結果に応じて、タッチ位置を含む領域を拡大してライブビュー画像上の左上に第2画角の第2動画A10を重畳させて表示させてもよい。これにより、タッチによって隠れる被写体を確認することができるとともに、より第2画像の内容を直感的に把握することができる。
In this embodiment, when the user touches the live view image via the
また、本実施の一実施の形態では、表示制御部275がタッチ情報に基づいて、表現効果を伴って第1画像および第2画像それぞれの表示領域を切り替えていたが、たとえば第1画像と第2画像とを合成(多重露出)し、この第1画像と第2画像とを合成する合成比率を徐々に切り替える表現効果を行って表示部20に表示させてもよい。さらに、表現効果として、第1画像および第2画像それぞれにフェードアウト、フェードイン、オーバラップおよびクロスフェード等の表現効果(映像効果)を用いて表示部20に表示させてもよい。
Further, in the embodiment of the present embodiment, the display control unit 275 switches the display areas of the first image and the second image with an expression effect based on the touch information. The two images may be combined (multiple exposure), and the
また、本実施の一実施の形態では、記録制御部274が第1動画および第2動画をそれぞれ記録媒体22に記録させていたが、図12に示すように、第1動画および第2動画を同期させながら合成することによって記録媒体22に記録させてもよい(期間(a),期間(c))。この場合、記録制御部274は、図12に示すように、同じ画角の記録期間の画像を削除して記録媒体に記録させてもよい(期間(b))。
In the embodiment, the
また、本実施の一実施の形態では、領域設定部273が顔検出部271によって検出された顔を含む領域を、第2画像処理部15が撮影画像から切り出す領域に設定してもよい。なお、領域設定部273は、顔検出部271が撮影画像から複数の顔を検出している場合、顔のサイズが最も大きい顔を含む領域を第2画像処理部15が撮影画像から切り出す領域に設定してもよい。さらに、領域設定部273は、顔検出部271が撮影画像から検出した顔が笑顔の場合のみ、この笑顔の顔を含む領域を第2画像処理部15が撮影画像から切り出す領域に設定してもよい。
In the embodiment, the
また、本実施の一実施の形態では、第1動画および第2動画のみであったが、第1動画および第2動画の画角と異なる第3動画を記録してもよい。さらに、複数の画角の動画を記録してもよい。さらにまた、第1動画の画角が広角側(第1の画角)でなく、望遠側(第2の画角)であってもよい。 In the embodiment, only the first moving image and the second moving image are used. However, a third moving image different from the angle of view of the first moving image and the second moving image may be recorded. Furthermore, moving images having a plurality of angles of view may be recorded. Furthermore, the angle of view of the first moving image may be on the telephoto side (second angle of view) instead of on the wide angle side (first angle of view).
また、本実施の一実施の形態では、第1画像、または第1画像と第2画像の両方は、撮影画像と異なる画角および/または撮影位置で切り出されてもよい。 In the embodiment of the present embodiment, the first image or both the first image and the second image may be cut out at a different angle of view and / or shooting position from the shot image.
また、本実施の一実施の形態では、第1動画がすでに、撮像素子8で取得できた元の画像(撮影画像)のうち、たとえば必要なアスペクト比で所定領域を切り取った動画であって、第2動画は、第1動画からではなく、元の画像から切り取ったものであってもよい。実際、カメラで撮影される静止画の画像のアスペクト比と、例えばテレビで再生する動画用のアスペクト比は異なる場合が多い。したがって、元の画像から、第1動画と第2動画をそれぞれ取り出すような仕様も容易に考えられるが、このような仕様にも、本発明が応用可能であることは言うまでもない。
In one embodiment of the present invention, the first moving image is a moving image obtained by cutting out a predetermined area with a required aspect ratio, for example, from the original image (captured image) already acquired by the
また、本実施の一実施の形態では、「動画データ」と表現して説明を単純化したが、厳密には、これらの中には、スルー画(ライブビュー)用にリサイズされた静止画の連続のものもあれば、記録されるためにコマ間圧縮されたものもある。再生時の動画データでも、所定のフォーマットでファイル化されていたりする。さらに、ユーザにとっては、いずれも同じような画像が表示されるので、これらの違いは認識されていない場合もあり、また、技術的にも、設計に応じて、記録時にコマ間圧縮しない場合もある。これらの事を鑑みて、撮像素子8の出力を画像処理したものを包括して「動画データ」という表現を行っている。
Further, in the embodiment of the present invention, the description is simplified by expressing it as “moving image data”, but strictly speaking, there is a still image resized for a through image (live view). Some are continuous, others are inter-frame compressed for recording. Even moving image data at the time of reproduction is filed in a predetermined format. Furthermore, since the same image is displayed for the user, these differences may not be recognized, and technically, depending on the design, inter-frame compression may not be performed during recording. is there. In view of the above, the expression “moving image data” is comprehensively including the output of the
なお、本発明においては、レンズ部2と撮像素子8が1つの筐体に設けられたデジタルカメラを例に説明したが、レンズ部2が着脱自在なレンズ装置と本体部とで構成されたデジタル一眼レフカメラであっても適用することができる。
In the present invention, a digital camera in which the
また、本発明に係る撮像装置は、デジタルカメラ以外にも、例えばアクセサリ等を装着可能なデジタルカメラ、デジタルビデオカメラおよび撮影機能を有する携帯電話やタブレット型携帯機器等の電子機器にも適用することができる。 In addition to the digital camera, the imaging device according to the present invention is also applicable to electronic devices such as a digital camera that can be equipped with accessories, a digital video camera, and a mobile phone or a tablet-type mobile device having a photographing function. Can do.
本明細書におけるフローチャートの説明では、「まず」、「その後」、「続いて」等の表現を用いてステップ間の処理の前後関係を明示していたが、本発明を実施するために必要な処理の順序は、それらの表現によって一意的に定められるわけではない。すなわち、本明細書で記載したフローチャートにおける処理の順序は、矛盾のない範囲で変更することができる。 In the description of the flowchart in the present specification, the context of processing between steps is clearly shown using expressions such as “first”, “subsequent”, and “follow”, but this is necessary for carrying out the present invention. The order of processing is not uniquely determined by their expression. That is, the order of processing in the flowcharts described in this specification can be changed within a consistent range.
このように、本発明は、ここでは記載していない様々な実施の形態を含みうるものであり、特許請求の範囲によって特定される技術的思想の範囲内で種々の設計変更等を行うことが可能である。 As described above, the present invention can include various embodiments not described herein, and various design changes and the like can be made within the scope of the technical idea specified by the claims. Is possible.
(付記1)
画角および/または撮影位置が異なる第1画像および第2画像を撮影可能な撮像装置であって、
被写体を撮像して該被写体の画像データを生成する撮像部と、
前記撮像部が生成した前記画像データに対応する撮影画像を表示可能な表示部と、
前記表示部の表示画面上に設けられ、外部からの物体のタッチを検出し、検出したタッチ位置に応じた位置信号を出力するタッチパネルと、
前記タッチパネルから入力される位置信号に応じた位置に対応する前記撮影画像の領域を、撮影画像から前記第2画像として切り出す領域として設定する領域設定部と、
前記領域設定部が設定した前記領域を前記撮影画像から順次切り出すことによって前記第2画像が時間的に連続する第2動画データを生成する画像処理部と、
前記第1画像を時間的に連続して撮影することによって得られる第1動画データおよび前記第2動画データをそれぞれ記録する制御を行う記録制御部と、
を備えたことを特徴とする撮像装置。
(Appendix 1)
An imaging apparatus capable of capturing a first image and a second image having different angles of view and / or shooting positions,
An imaging unit that images a subject and generates image data of the subject;
A display unit capable of displaying a captured image corresponding to the image data generated by the imaging unit;
A touch panel that is provided on the display screen of the display unit, detects a touch of an object from the outside, and outputs a position signal corresponding to the detected touch position;
An area setting unit that sets an area of the captured image corresponding to a position according to a position signal input from the touch panel as an area to be cut out as the second image from the captured image;
An image processing unit that generates second moving image data in which the second image is temporally continuous by sequentially cutting out the region set by the region setting unit from the captured image;
A recording control unit that performs control to record the first moving image data and the second moving image data obtained by continuously capturing the first image in time, and
An imaging apparatus comprising:
1 撮像装置
2 レンズ部
3 レンズ駆動部
4 絞り
5 絞り駆動部
6 シャッタ
7 シャッタ駆動部
8 撮像素子
9 撮像素子駆動部
10 信号処理部
11 A/D変換部
12 第1画像処理部
13 特徴判定部
14 追尾設定部
15 第2画像処理部
16 AE処理部
17 AF処理部
18 画像圧縮展開部
19 入力部
20 表示部
21 表示駆動部
22 記録媒体
23 メモリI/F
24 SDRAM
25 Flashメモリ
26 バス
27 制御部
181 静止画圧縮展開部
182 第1動画圧縮展開部
183 第2動画圧縮展開部
191 静止画撮影操作部
192 動画撮影操作部
193 モード切替操作部
194 設定操作部
195 タッチパネル
241 第1動画仮記録部
242 第2動画仮記録部
243 静止画仮記録部
251 プログラム記録部
252 特徴情報記録部
271 顔検出部
272 タッチ検出部
273 領域設定部
274 記録制御部
275 表示制御部
DESCRIPTION OF
24 SDRAM
25
Claims (16)
前記第1画像および前記第2画像を時間的に連続して撮影することによって得られる第1動画データおよび第2動画データをそれぞれ記録する制御を行う記録制御部を備え、
前記記録制御部は、
前記第2画像を断続的に記録する場合、前記第2画像を記録していない期間を他の画像で補間することを特徴とする撮像装置。 An imaging apparatus capable of capturing a first image and a second image having different angles of view and / or shooting positions,
A recording control unit that performs control to record the first moving image data and the second moving image data obtained by continuously capturing the first image and the second image in time,
The recording control unit
When the second image is intermittently recorded, an imaging apparatus that interpolates a period during which the second image is not recorded with another image.
前記第2画像は、前記撮像部が生成した前記画像データに対応する撮影画像を該撮影画像と異なる画角および/または撮影位置で切り出されたことを特徴とする請求項1に記載の撮像装置。 An imaging unit that captures an image of the subject and continuously generates image data of the subject;
The imaging apparatus according to claim 1, wherein the second image is obtained by cutting a captured image corresponding to the image data generated by the imaging unit at an angle of view and / or a shooting position different from the captured image. .
前記撮像部が生成した前記撮影画像から該撮影画像と異なる画角の領域を順次切り出す画像処理を行って前記第2動画データを生成する第2画像処理部と、
前記第1動画データおよび前記第2動画データを記録する記録部と、
をさらに備え、
前記記録制御部は、前記第1動画データおよび前記第2動画データを同期させて再生できるように前記記録部に記録することを特徴とする請求項3に記載の撮像装置。 A first image processing unit that sequentially performs image processing on the captured image generated by the imaging unit to generate the first moving image data;
A second image processing unit that performs image processing for sequentially cutting out regions of an angle of view different from the captured image from the captured image generated by the imaging unit, and generates the second moving image data;
A recording unit for recording the first moving image data and the second moving image data;
Further comprising
The imaging apparatus according to claim 3, wherein the recording control unit records the first moving image data and the second moving image data in the recording unit so that the first moving image data and the second moving image data can be reproduced in synchronization.
前記第2画像の撮影の開始を指示する開始信号および前記第2画像の撮影の終了を指示する終了信号の入力を受け付ける第2の動画撮影操作部と、
前記第2画像処理部が前記撮影画像から切り出す領域を設定する領域設定部と、
をさらに備え、
前記記録制御部は、前記第2の動画撮影操作部から前記開始信号が入力された場合、前記領域設定部が前記第2画像処理部に設定する前記領域を前記第2画像に対応する領域に設定する一方、前記第2の動画撮影操作部から前記終了信号が入力された場合、前記領域設定部が前記第2画像処理部に設定する前記領域を前記第1画像に対応する領域に設定することを特徴とする請求項4に記載の撮像装置。 A first moving image shooting operation unit that receives input of a moving image start signal instructing the start of moving image shooting and a moving image end signal instructing the end of moving image shooting;
A second moving image shooting operation unit for receiving input of a start signal for instructing start of shooting of the second image and an end signal for instructing end of shooting of the second image;
An area setting unit for setting an area to be cut out from the captured image by the second image processing unit;
Further comprising
When the start signal is input from the second moving image shooting operation unit, the recording control unit sets the region set by the region setting unit to the second image processing unit as a region corresponding to the second image. On the other hand, when the end signal is input from the second moving image shooting operation unit, the region setting unit sets the region set in the second image processing unit to a region corresponding to the first image. The imaging apparatus according to claim 4.
前記表示部の表示画面上に設けられ、外部からの物体のタッチを検出し、検出したタッチ位置に応じた位置信号を出力するタッチパネルと、
をさらに備え、
前記領域設定部は、前記タッチパネルから入力される位置信号に応じた位置に対応する前記撮影画像の領域を、前記第2画像処理部が前記撮影画像から切り出す領域に設定することを特徴とする請求項5に記載の撮像装置。 A display unit capable of displaying the captured image;
A touch panel that is provided on the display screen of the display unit, detects a touch of an object from the outside, and outputs a position signal corresponding to the detected touch position;
Further comprising
The area setting unit sets an area of the captured image corresponding to a position corresponding to a position signal input from the touch panel as an area cut out from the captured image by the second image processing unit. Item 6. The imaging device according to Item 5.
前記終了信号は、前記タッチパネルから前記終了情報に対応する領域の前記位置信号であり、
前記開始信号は、前記タッチパネルから入力される前記終了情報に対応する領域以外の前記位置信号であることを特徴とする請求項6に記載の撮像装置。 A display control unit for displaying end information indicating the end of shooting of the second image on the display unit in a state of shooting the second image;
The end signal is the position signal of an area corresponding to the end information from the touch panel,
The imaging apparatus according to claim 6, wherein the start signal is the position signal other than an area corresponding to the end information input from the touch panel.
前記特徴判定部が判定した判定結果に基づいて、隣接する前記撮影画像内で追尾する被写体を設定する追尾設定部と、
をさらに備え、
前記領域設定部は、前記追尾設定部が設定した被写体を含む領域を、前記第2画像処理部が前記撮影画像から切り出す領域に設定することを特徴とする請求項6または7に記載の撮像装置。 A feature determination unit that determines a feature of a subject included in an area including a position according to a position signal input from the touch panel;
A tracking setting unit that sets a subject to be tracked in the adjacent captured image based on the determination result determined by the feature determination unit;
Further comprising
The imaging device according to claim 6 or 7, wherein the region setting unit sets a region including the subject set by the tracking setting unit as a region cut out from the captured image by the second image processing unit. .
前記第1画像および前記第2画像を時間的に連続して撮影することによって得られる第1動画データおよび第2動画データをそれぞれ記録する制御を行う記録制御ステップを含み、
前記記録制御ステップは、
前記第2画像を断続的に記録する場合、前記第2画像を記録していない期間を、他の画像で補間することを特徴とする撮像方法。 An imaging method executed by an imaging apparatus capable of capturing a first image and a second image having different angles of view and / or shooting positions,
A recording control step for performing control to record the first moving image data and the second moving image data obtained by continuously capturing the first image and the second image in time,
The recording control step includes
When the second image is intermittently recorded, a period during which the second image is not recorded is interpolated with another image.
前記第1画像および前記第2画像を時間的に連続して撮影することによって得られる第1動画データおよび第2動画データをそれぞれ記録する制御を行う記録制御ステップを含み、
前記記録制御ステップは、
前記第2画像を断続的に記録する場合、前記第2画像を記録していない期間を、他の画像で補間することを特徴とするプログラム。 A program for causing an imaging device capable of capturing a first image and a second image having different angles of view and / or shooting positions to be executed,
A recording control step for performing control to record the first moving image data and the second moving image data obtained by continuously capturing the first image and the second image in time,
The recording control step includes
When the second image is intermittently recorded, a program in which a period during which the second image is not recorded is interpolated with another image.
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012024558A JP5806623B2 (en) | 2012-02-07 | 2012-02-07 | Imaging apparatus, imaging method, and program |
CN201611143425.3A CN106851088B (en) | 2012-02-07 | 2013-02-07 | Image pickup apparatus and image pickup method |
CN201310049275.XA CN103248815B (en) | 2012-02-07 | 2013-02-07 | Camera head, image capture method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012024558A JP5806623B2 (en) | 2012-02-07 | 2012-02-07 | Imaging apparatus, imaging method, and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2013162425A true JP2013162425A (en) | 2013-08-19 |
JP5806623B2 JP5806623B2 (en) | 2015-11-10 |
Family
ID=48928016
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012024558A Expired - Fee Related JP5806623B2 (en) | 2012-02-07 | 2012-02-07 | Imaging apparatus, imaging method, and program |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP5806623B2 (en) |
CN (2) | CN103248815B (en) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9609215B2 (en) | 2014-06-12 | 2017-03-28 | Olympus Corporation | Moving-image recording/reproduction apparatus |
WO2017164140A1 (en) * | 2016-03-22 | 2017-09-28 | キヤノン株式会社 | Electronic device and method for controlling same |
JP2017175606A (en) * | 2016-03-22 | 2017-09-28 | キヤノン株式会社 | Electronic device, control method of the same, and imaging apparatus |
JP2017208658A (en) * | 2016-05-17 | 2017-11-24 | キヤノン株式会社 | Image processing apparatus, image processing method and program |
WO2021182190A1 (en) * | 2020-03-11 | 2021-09-16 | ソニーセミコンダクタソリューションズ株式会社 | Imaging device, imaging system, and imaging method |
WO2021210807A1 (en) * | 2020-04-17 | 2021-10-21 | 삼성전자 주식회사 | Electronic device comprising multi-camera, and photographing method |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114143464A (en) * | 2016-05-20 | 2022-03-04 | 麦克赛尔株式会社 | Image pickup apparatus and setting screen thereof |
JP6911392B2 (en) * | 2017-03-07 | 2021-07-28 | カシオ計算機株式会社 | Image acquisition device, image acquisition method, program and image acquisition system |
WO2018179824A1 (en) | 2017-03-30 | 2018-10-04 | 富士フイルム株式会社 | Imaging device, imaging control method, and program |
JP7080103B2 (en) * | 2018-05-16 | 2022-06-03 | キヤノン株式会社 | Imaging device, its control method, and program |
CN112019735B (en) * | 2019-05-31 | 2023-01-17 | 中兴通讯股份有限公司 | Shooting method and device, storage medium and electronic device |
EP3829159A1 (en) * | 2019-11-29 | 2021-06-02 | Ricoh Company, Ltd. | Image capturing device, image communication system, and method for display control, and carrier means |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007259155A (en) * | 2006-03-23 | 2007-10-04 | Olympus Imaging Corp | Camera, determination method thereof, and control method thereof |
JP2010193476A (en) * | 2010-03-19 | 2010-09-02 | Sanyo Electric Co Ltd | Imaging device and image reproducing device |
JP2011091571A (en) * | 2009-10-21 | 2011-05-06 | Olympus Imaging Corp | Moving image creation device and moving image creation method |
JP2012009915A (en) * | 2010-06-22 | 2012-01-12 | Nikon Corp | Imaging device, reproduction device, and reproduction program |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101959021B (en) * | 2004-05-13 | 2015-02-11 | 索尼株式会社 | Image display apparatus and image display method |
JP4882989B2 (en) * | 2007-12-10 | 2012-02-22 | ソニー株式会社 | Electronic device, reproduction method and program |
CN102016909A (en) * | 2008-12-19 | 2011-04-13 | 松下电器产业株式会社 | Image search device and image search method |
JP5775659B2 (en) * | 2009-05-07 | 2015-09-09 | オリンパス株式会社 | Imaging apparatus and mode switching method in imaging apparatus |
JP2010268019A (en) * | 2009-05-12 | 2010-11-25 | Nikon Corp | Photographing apparatus |
JP5471124B2 (en) * | 2009-07-29 | 2014-04-16 | ソニー株式会社 | Image search apparatus, image search method, and image search program |
JP2010193475A (en) * | 2010-03-19 | 2010-09-02 | Sanyo Electric Co Ltd | Imaging device and image reproducing device |
-
2012
- 2012-02-07 JP JP2012024558A patent/JP5806623B2/en not_active Expired - Fee Related
-
2013
- 2013-02-07 CN CN201310049275.XA patent/CN103248815B/en not_active Expired - Fee Related
- 2013-02-07 CN CN201611143425.3A patent/CN106851088B/en not_active Expired - Fee Related
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007259155A (en) * | 2006-03-23 | 2007-10-04 | Olympus Imaging Corp | Camera, determination method thereof, and control method thereof |
JP2011091571A (en) * | 2009-10-21 | 2011-05-06 | Olympus Imaging Corp | Moving image creation device and moving image creation method |
JP2010193476A (en) * | 2010-03-19 | 2010-09-02 | Sanyo Electric Co Ltd | Imaging device and image reproducing device |
JP2012009915A (en) * | 2010-06-22 | 2012-01-12 | Nikon Corp | Imaging device, reproduction device, and reproduction program |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9609215B2 (en) | 2014-06-12 | 2017-03-28 | Olympus Corporation | Moving-image recording/reproduction apparatus |
WO2017164140A1 (en) * | 2016-03-22 | 2017-09-28 | キヤノン株式会社 | Electronic device and method for controlling same |
JP2017175606A (en) * | 2016-03-22 | 2017-09-28 | キヤノン株式会社 | Electronic device, control method of the same, and imaging apparatus |
US10649313B2 (en) | 2016-03-22 | 2020-05-12 | Canon Kabushiki Kaisha | Electronic apparatus and method for controlling same |
JP2017208658A (en) * | 2016-05-17 | 2017-11-24 | キヤノン株式会社 | Image processing apparatus, image processing method and program |
WO2021182190A1 (en) * | 2020-03-11 | 2021-09-16 | ソニーセミコンダクタソリューションズ株式会社 | Imaging device, imaging system, and imaging method |
WO2021210807A1 (en) * | 2020-04-17 | 2021-10-21 | 삼성전자 주식회사 | Electronic device comprising multi-camera, and photographing method |
US11956530B2 (en) * | 2020-04-17 | 2024-04-09 | Samsung Electronics Co., Ltd. | Electronic device comprising multi-camera, and photographing method |
Also Published As
Publication number | Publication date |
---|---|
CN106851088A (en) | 2017-06-13 |
JP5806623B2 (en) | 2015-11-10 |
CN103248815B (en) | 2017-03-01 |
CN103248815A (en) | 2013-08-14 |
CN106851088B (en) | 2020-01-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5806623B2 (en) | Imaging apparatus, imaging method, and program | |
US8525894B2 (en) | Camera and camera control method | |
US20110102621A1 (en) | Method and apparatus for guiding photographing | |
JP2012049651A (en) | Imaging apparatus and imaging method | |
JP5782813B2 (en) | Imaging apparatus and image display method | |
KR101739379B1 (en) | Digital photographing apparatus and control method thereof | |
JP2009268037A (en) | Imaging apparatus and imaging method | |
JP4639965B2 (en) | Imaging apparatus, image processing method, and program | |
JP2007124279A (en) | Image processor | |
JP6721084B2 (en) | Zoom control device, zoom control method, and program | |
KR101737086B1 (en) | Digital photographing apparatus and control method thereof | |
JP4957263B2 (en) | Imaging apparatus, imaging method, and program thereof | |
JP2006303961A (en) | Imaging apparatus | |
JP2017163191A (en) | Image processing apparatus, imaging apparatus, image processing method, and program | |
JP2007142702A (en) | Image processing apparatus | |
JP6056551B2 (en) | Image processing program and digital camera | |
JP6031670B2 (en) | Imaging device | |
US20130063621A1 (en) | Imaging device | |
JP6460783B2 (en) | Image processing apparatus and control method thereof | |
JP2009070374A (en) | Electronic device | |
JP5126392B2 (en) | REPRODUCTION CONTROL DEVICE, REPRODUCTION CONTROL METHOD, AND PROGRAM | |
JP2007124278A (en) | Imaging apparatus | |
JP2010273268A (en) | Image reproducing device, imaging apparatus, image reproducing method, and image reproducing program | |
JP2007124280A (en) | Imaging apparatus | |
KR101946574B1 (en) | Apparatus and method for reproducing image and computer-readable storage medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20140409 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20141217 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20150113 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20150310 |
|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A712 Effective date: 20150423 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20150818 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20150904 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 5806623 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
S531 | Written request for registration of change of domicile |
Free format text: JAPANESE INTERMEDIATE CODE: R313531 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |