JP5783445B2 - Imaging device - Google Patents

Imaging device Download PDF

Info

Publication number
JP5783445B2
JP5783445B2 JP2011060558A JP2011060558A JP5783445B2 JP 5783445 B2 JP5783445 B2 JP 5783445B2 JP 2011060558 A JP2011060558 A JP 2011060558A JP 2011060558 A JP2011060558 A JP 2011060558A JP 5783445 B2 JP5783445 B2 JP 5783445B2
Authority
JP
Japan
Prior art keywords
aberration
imaging
optical system
unit
lens
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2011060558A
Other languages
Japanese (ja)
Other versions
JP2012198273A (en
Inventor
政一 関口
政一 関口
壮基 原田
壮基 原田
佐藤 進
佐藤  進
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2011060558A priority Critical patent/JP5783445B2/en
Publication of JP2012198273A publication Critical patent/JP2012198273A/en
Application granted granted Critical
Publication of JP5783445B2 publication Critical patent/JP5783445B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、撮像装置に関する。   The present invention relates to an imaging apparatus.

フィルムカメラに代わってデジタルカメラが主流となり、撮影する機会が増えてきている。しかしながら、閃光撮影が禁止されるなどの条件付きでの撮影しか認められていない場所がある。このため、位置情報を取得して、この位置情報に応じた撮影の設定ができるカメラが提案されている(例えば、特許文献1参照)。   Digital cameras have become the mainstream instead of film cameras, and opportunities to shoot are increasing. However, there are places where only flash photography is permitted. For this reason, a camera capable of acquiring position information and setting shooting according to the position information has been proposed (see, for example, Patent Document 1).

特開2007−013829号公報JP 2007-013829 A

しなしながら、従来提案されているカメラは、位置情報に応じた撮影の設定の一部は可能であるものの、撮影場所や撮影条件などにより発生する収差の影響を適切に除去できず、所望の画像が得られないという課題があった。   However, the camera proposed in the past is capable of a part of the shooting setting according to the position information, but it cannot properly remove the influence of the aberration caused by the shooting location and shooting conditions, and the desired camera. There was a problem that images could not be obtained.

本発明はこのような課題に鑑みてなされたものであり、撮影しようとする画像に顔に相当する画像が含まれているか否かを判別して、収差補正をするか否かを決定することにより、撮影場所や撮影条件などにより発生する収差の影響を適切に除去するように構成された撮像装置を提供することを目的とする。   The present invention has been made in view of such a problem, and determines whether or not aberration correction is performed by determining whether or not an image corresponding to a face is included in an image to be photographed. Accordingly, an object of the present invention is to provide an imaging apparatus configured to appropriately remove the influence of aberration caused by the shooting location, shooting conditions, and the like.

前記課題を解決するために、本発明に係る撮像装置は、撮像光学系を用いて撮影を行う撮像部と、撮像光学系の収差を補正する収差補正部と、撮像部で撮影された画像に顔に相当する画像が含まれているか否かを判断する顔検出部と、顔検出部により画像に顔に相当する画像が含まれていないと判断したときに、収差補正部により撮像光学系の収差を補正する制御部と、を有することを特徴とする。   In order to solve the above problems, an imaging apparatus according to the present invention includes an imaging unit that performs imaging using an imaging optical system, an aberration correction unit that corrects aberration of the imaging optical system, and an image captured by the imaging unit. A face detection unit that determines whether or not an image corresponding to a face is included, and an aberration correction unit that determines whether the image corresponding to the face is not included in the image by the face detection unit. And a controller for correcting aberration.

また、このような撮像装置は、撮像部により撮影された画像から収差に関する情報を検出する収差検出部を有し、制御部は、収差検出部が検出した収差に関する情報に基づいて収差補正部により撮像光学系の収差を補正する。 In addition, such an imaging apparatus includes an aberration detection unit that detects information about aberration from an image captured by the imaging unit, and the control unit uses the aberration correction unit based on the information about aberration detected by the aberration detection unit. The aberration of the imaging optical system is corrected .

また、このような撮像装置において、制御部は、顔検出部の検出結果による撮像光学系の収差の補正を行った後、収差検出部の検出結果による撮像光学系の収差の補正を行う。 Further, in such an imaging device, the control unit, after the correction of the aberrations of the imaging optical system according to the detection result of the face detection unit, intends line correction of aberrations of the imaging optical system according to the detection result of the aberration detector.

このような撮像装置において、撮像光学系は、当該撮像光学系の焦点を調整するフォーカスレンズを有し、制御部は、フォーカスレンズの位置に基づいて収差補正部を制御することにより撮像光学系の収差を補正することが好ましい。   In such an imaging apparatus, the imaging optical system includes a focus lens that adjusts the focus of the imaging optical system, and the control unit controls the aberration correction unit based on the position of the focus lens, thereby controlling the imaging optical system. It is preferable to correct the aberration.

また、このような撮像装置は、撮像部により撮影を行う撮影場所に関する情報を検出する撮影場所検出部と、この撮影場所検出部により検出された撮影場所に関する情報に基づいて、撮像部に対する撮影条件を設定する設定部と、を有することが好ましい。   In addition, such an imaging apparatus includes a shooting location detection unit that detects information related to a shooting location where shooting is performed by the imaging unit, and shooting conditions for the imaging unit based on information related to the shooting location detected by the shooting location detection unit. It is preferable to have a setting unit for setting.

また、このような撮像装置において、撮影場所検出部は、水圧計を有することが好ましい。   Moreover, in such an imaging apparatus, it is preferable that the imaging location detector has a water pressure gauge.

また、このような撮像装置において、収差補正部は、撮像光学系に取り付け可能な収差補正光学系であることが好ましい。   In such an imaging apparatus, the aberration correction unit is preferably an aberration correction optical system that can be attached to the imaging optical system.

本発明に係る撮像装置よれば、撮影しようとする画像に顔に相当する画像が含まれているか否かを判別して収差補正をするか否かを決定することにより、撮影場所や撮影条件などにより発生する収差の影響を適切に除去することができる。   According to the imaging apparatus of the present invention, it is determined whether or not aberration correction is performed by determining whether or not an image corresponding to a face is included in an image to be captured, thereby determining a shooting location, a shooting condition, and the like. Thus, it is possible to appropriately remove the influence of the aberration generated by the above.

カメラシステムの要部断面図である。It is principal part sectional drawing of a camera system. 収差補正コンバータが装着された状態の撮影レンズ部分の拡大図である。It is an enlarged view of the photographic lens part in the state where the aberration correction converter is mounted. カメラシステムのブロック図である。It is a block diagram of a camera system. カメラシステムの動作を示すフローチャートであって、電源投入からレリーズSWが半押しされたときの処理までを示す。It is a flowchart which shows operation | movement of a camera system, Comprising: From power-on to the process when release SW is half-pressed is shown. カメラシステムの動作を示すフローチャートであって、レリーズSWが全押しされたとき以降の処理を示す。It is a flowchart which shows operation | movement of a camera system, Comprising: Processing after the release SW is fully pressed is shown. 撮影レンズ及び収差補正コンバータの光学系を示す断面図である。It is sectional drawing which shows the optical system of a photographic lens and an aberration correction converter. 撮像光学系のみで空気中の物体を撮影したときの諸収差図を示す。FIG. 5 shows various aberration diagrams when an object in the air is photographed only by the imaging optical system. 撮像光学系のみで水槽の窓を介して水中の物体を撮影したときの諸収差図を示す。FIG. 5 shows various aberration diagrams when an underwater object is photographed through an aquarium window with only the imaging optical system. 収差補正光学系を装着した撮像光学系で空気中の物体を撮影したときの諸収差図を示す。FIG. 5 shows various aberration diagrams when an object in the air is photographed by an imaging optical system equipped with an aberration correction optical system. 収差補正光学系を装着した撮像光学系で水中の物体を撮影したときの諸収差図を示す。FIG. 5 shows various aberration diagrams when an underwater object is photographed by an imaging optical system equipped with an aberration correction optical system.

以下、本発明の好ましい実施形態について図面を参照して説明する。まず、図1〜図3を用いて、本実施形態に係る撮像装置の一例として、カメラシステム1の構成について説明する。図1に示すように、カメラシステム1は、カメラ本体2と交換可能な撮影レンズ3とを組み合わせ、撮像部である撮像素子9で撮影を行う撮像装置として機能する、レンズ交換式一眼レフカメラである。   Hereinafter, preferred embodiments of the present invention will be described with reference to the drawings. First, the configuration of the camera system 1 will be described as an example of the imaging apparatus according to the present embodiment with reference to FIGS. As shown in FIG. 1, a camera system 1 is a lens-interchangeable single-lens reflex camera that functions as an imaging device that combines a camera body 2 and an interchangeable shooting lens 3 and performs imaging with an imaging device 9 that is an imaging unit. is there.

撮影レンズ3は、後述する撮像光学系SLを構成するフォーカスレンズ、ズームレンズおよび防振レンズを含むレンズ群4、絞り5、カメラシステム1の振れを検出する角速度センサ6、レンズ群4を駆動する不図示の駆動装置等を備える。角速度センサ6は、少なくとも光軸に直交する2軸周りの角速度を検出する。駆動装置は、例えば振動波モータ、VCMにより構成される複数のモータを有し、フォーカスレンズを光軸方向に駆動し、防振レンズを光軸方向とは異なる方向に駆動する。また、撮影レンズ3は、この撮影レンズ3の全体を制御すると共に、カメラ本体2と協働するレンズCPU7を有する。   The photographic lens 3 drives a focus lens, a lens group 4 including a zoom lens and an anti-vibration lens, an aperture 5, an angular velocity sensor 6 that detects a shake of the camera system 1, and the lens group 4 that constitute an imaging optical system SL described later. A drive device (not shown) is provided. The angular velocity sensor 6 detects an angular velocity around at least two axes orthogonal to the optical axis. The drive device has a plurality of motors composed of, for example, a vibration wave motor and a VCM, drives the focus lens in the optical axis direction, and drives the anti-vibration lens in a direction different from the optical axis direction. The taking lens 3 has a lens CPU 7 that controls the entire taking lens 3 and cooperates with the camera body 2.

また、撮影レンズ3の撮影距離、焦点距離、及びレンズ群4に応じた歪曲収差、像面湾曲、倍率色収差のデータは、収差テーブルとして撮影レンズ3の不図示の不揮発性メモリに記憶されている。   In addition, data on the photographing distance and focal length of the photographing lens 3 and distortion aberration, field curvature, and lateral chromatic aberration corresponding to the lens group 4 are stored in a non-illustrated nonvolatile memory of the photographing lens 3 as an aberration table. .

カメラ本体2は、撮影レンズ3からの光束を反射してファインダー光学系8に導く反射位置と、撮影レンズ3からの光束がCCDまたはCMOSなどから構成される撮像素子9に入射するように退避する退避位置とで揺動するメインミラー10を備える。このメインミラー10の一部の領域は半透過領域となっており、カメラ本体2は、この半透過領域を透過した光束を焦点検出センサ11へ反射するサブミラー12を備える。このサブミラー12は、メインミラー10に連動して揺動し、メインミラー10が退避位置をとるときには、サブミラー12も光束から退避する。なお、焦点検出センサ11は、位相差方式により入射する光束の焦点状態を検出する。   The camera body 2 retreats so that the light beam from the photographic lens 3 is reflected and guided to the finder optical system 8 and the light beam from the photographic lens 3 is incident on the image sensor 9 composed of a CCD or a CMOS. A main mirror 10 that swings with respect to the retracted position is provided. A partial region of the main mirror 10 is a semi-transmissive region, and the camera body 2 includes a sub mirror 12 that reflects the light beam transmitted through the semi-transmissive region to the focus detection sensor 11. The sub mirror 12 swings in conjunction with the main mirror 10, and when the main mirror 10 takes the retracted position, the sub mirror 12 also retracts from the light flux. The focus detection sensor 11 detects the focus state of the incident light beam by the phase difference method.

反射位置にあるメインミラー10で反射された光束は、焦点板13、ペンタプリズム14を介してファインダー光学系8へ導かれる。このファインダー光学系8は、複数のレンズから構成されており、ユーザはファインダー光学系8により被写界を確認することができる。   The light beam reflected by the main mirror 10 at the reflection position is guided to the finder optical system 8 through the focusing screen 13 and the pentaprism 14. The finder optical system 8 is composed of a plurality of lenses, and the user can confirm the object field by the finder optical system 8.

また、ペンタプリズム14を透過する光束の一部は測光センサ15に導かれる。測光センサ15は、撮影レンズ3へ入射する光束を複数の領域ごとに測光することにより、被写界の輝度分布を計測する。また、ペンタプリズム14の上方にはGPS(Global Positioning System:全地球測位システム)モジュール16を備えており、GPS衛星からの信号を受信して、カメラシステム1が存在している位置情報を取得する。さらに、カメラ本体2は、撮影レンズ3のマウント部近傍で撮影レンズ3と干渉しない位置に、被写界の音を取り込むマイク17と、ファインダー光学系8の近傍にビープ音などを発するスピーカ18を備える。   Further, a part of the light beam transmitted through the pentaprism 14 is guided to the photometric sensor 15. The photometric sensor 15 measures the luminance distribution of the object scene by measuring the light beam incident on the photographing lens 3 for each of a plurality of regions. Further, a GPS (Global Positioning System) module 16 is provided above the pentaprism 14 and receives a signal from a GPS satellite to acquire position information where the camera system 1 exists. . Furthermore, the camera body 2 includes a microphone 17 that captures the sound of the object scene at a position that does not interfere with the photographing lens 3 in the vicinity of the mount portion of the photographing lens 3 and a speaker 18 that emits a beep sound near the viewfinder optical system 8. Prepare.

メインミラー10が退避位置にあるときには、撮影レンズ3からの光束は、ローパスフィルター19を介して撮像素子9に入射する。撮像素子9の近傍には撮像基板20が設けられており、撮像基板20の後方には外部に面して背面モニタ21が設けられている。   When the main mirror 10 is in the retracted position, the light beam from the photographing lens 3 enters the image sensor 9 through the low-pass filter 19. An imaging board 20 is provided in the vicinity of the imaging device 9, and a rear monitor 21 is provided behind the imaging board 20 so as to face the outside.

撮影レンズ3の前部(被写体側)には、収差補正部である収差補正コンバータ40が取付可能であり、この収差補正コンバータ40を取り付けることにより、撮影レンズ3の収差補正を行うことができる。本実施形態においては、この収差補正コンバータ40により、曲率を有した透明部材(例えばガラスやアクリル)越しに撮影を行う場合に、この透明部材により発生する収差補正を行なったり、水中での撮影の際に発生する収差補正を行なったりする。   An aberration correction converter 40, which is an aberration correction unit, can be attached to the front part (subject side) of the photographing lens 3. By attaching this aberration correction converter 40, the aberration correction of the photographing lens 3 can be performed. In the present embodiment, the aberration correction converter 40 corrects aberrations generated by the transparent member when shooting through a transparent member (for example, glass or acrylic) having a curvature, or performs underwater shooting. Aberration correction that occurs at the time is performed.

図2に示すように、収差補正コンバータ40は、負レンズL1及び正レンズL2(後述する収差補正光学系CL)と、この負レンズL1及び正レンズL2を駆動するアクチュエータ41と、このアクチュエータ41に電源を供給する電源部(例えばリチウムイオン電池)42と、カメラ本体2の通信部50と通信を行う不図示の通信部とを有する。収差補正コンバータ40の通信部は、負レンズL1及び正レンズL2の位置をカメラ本体2に通信するとともに、カメラ本体2からの負レンズL1及び正レンズL2の移動量をアクチュエータ41に伝える。なお、負レンズL1及び正レンズL2の位置は、不図示のエンコーダにより検出される。この収差補正コンバータ40は、負レンズL1及び正レンズL2をアクチュエータ41により光軸方向に移動させて、撮影レンズ3の物体側のレンズと正レンズL2との空気間隔を調整することにより像面色収差及び像面歪曲補正を行うように構成されている。このため、収差補正コンバータ40は、透明部材(例えばガラスやアクリル)の材質や厚さに応じた負レンズL1及び正レンズL2を駆動する駆動量のデータを駆動テーブルとして不図示の不揮発性メモリに記憶している。   As shown in FIG. 2, the aberration correction converter 40 includes a negative lens L1 and a positive lens L2 (aberration correction optical system CL described later), an actuator 41 that drives the negative lens L1 and the positive lens L2, and an actuator 41 A power supply unit (for example, a lithium ion battery) 42 that supplies power and a communication unit (not shown) that communicates with the communication unit 50 of the camera body 2 are included. The communication unit of the aberration correction converter 40 communicates the positions of the negative lens L1 and the positive lens L2 to the camera body 2 and transmits the movement amounts of the negative lens L1 and the positive lens L2 from the camera body 2 to the actuator 41. The positions of the negative lens L1 and the positive lens L2 are detected by an encoder (not shown). The aberration correction converter 40 moves the negative lens L1 and the positive lens L2 in the direction of the optical axis by the actuator 41, and adjusts the air space between the object side lens of the photographing lens 3 and the positive lens L2, thereby correcting the field chromatic aberration. And image surface distortion correction. For this reason, the aberration correction converter 40 stores data of driving amounts for driving the negative lens L1 and the positive lens L2 according to the material and thickness of the transparent member (for example, glass or acrylic) as a driving table in a nonvolatile memory (not shown). I remember it.

なお、アクチュエータ41は、負レンズL1及び正レンズL2を光軸方向に移動させる振動波モータと、光軸方向位置を微調整するリニア型のピエゾアクチュエータとから構成することができる。また、負レンズL1及び正レンズL2は、光軸上をスライド移動する機構を備えた保持部材で保持するように構成することも可能である。   The actuator 41 can be composed of a vibration wave motor that moves the negative lens L1 and the positive lens L2 in the optical axis direction, and a linear piezoelectric actuator that finely adjusts the position in the optical axis direction. The negative lens L1 and the positive lens L2 can also be configured to be held by a holding member having a mechanism that slides on the optical axis.

なお、本実施形態では、収差補正コンバータ40に電源部42と通信部とを設けたが、例えば撮影レンズ3に収差補正コンバータ40に電源を供給するラインおよび収差補正コンバータ40と通信するラインを設け、これらのラインと収差補正コンバータ40とを接続するようにすれば、電源部42と通信部とを省略することができる。   In the present embodiment, the aberration correction converter 40 is provided with the power supply unit 42 and the communication unit. However, for example, a line that supplies power to the aberration correction converter 40 and a line that communicates with the aberration correction converter 40 are provided in the photographing lens 3. If these lines and the aberration correction converter 40 are connected, the power supply unit 42 and the communication unit can be omitted.

図3は、本実施形態に係るカメラシステム1のブロック図である。カメラ本体CPU27により、このカメラシステム1の全体の制御が行われる。また、撮像基板20は、撮像素子9を駆動する駆動回路23、撮像素子9の出力をデジタル信号に変換するA/D変換回路24、ASICで構成される画像処理制御回路25および撮像素子9からの信号の高周波成分を抽出するコントラストAF回路26などを有している。   FIG. 3 is a block diagram of the camera system 1 according to the present embodiment. The camera body CPU 27 controls the entire camera system 1. The imaging board 20 includes a drive circuit 23 that drives the imaging device 9, an A / D conversion circuit 24 that converts the output of the imaging device 9 into a digital signal, an image processing control circuit 25 including an ASIC, and the imaging device 9. A contrast AF circuit 26 for extracting a high-frequency component of the signal.

画像処理制御回路25は、デジタル信号に変換された画像信号に対してホワイトバランス調整、シャープネス調整、ガンマ補正、階調調整などの画像処理を施すと共に、JPEGなどの画像圧縮を行って画像ファイルを生成する。また、画像処理制御回路25は、画像信号から各種収差判定を行い、撮影した画像の収差に関する情報をカメラ本体CPU27に出力する。例えば、倍率色収差が発生している場合、R,G,Bのそれぞれのエッジの位置がずれてしまう。この色毎のエッジのずれ量を検出することにより、倍率色収差量を検出することができる。この画像処理制御回路25から得られる画像を用いた倍率色収差の補正方法の詳細については後述する。   The image processing control circuit 25 performs image processing such as white balance adjustment, sharpness adjustment, gamma correction, and gradation adjustment on the image signal converted into the digital signal, and also performs image compression such as JPEG to generate an image file. Generate. Further, the image processing control circuit 25 performs various aberration determinations from the image signal, and outputs information relating to the aberration of the captured image to the camera body CPU 27. For example, when chromatic aberration of magnification has occurred, the positions of the edges of R, G, and B are shifted. The amount of lateral chromatic aberration can be detected by detecting the amount of edge shift for each color. Details of a method for correcting lateral chromatic aberration using an image obtained from the image processing control circuit 25 will be described later.

画像処理制御回路25により生成された画像ファイルは、画像記録媒体37に記憶される。この画像記録媒体37は、カメラ本体2に対して着脱可能なフラッシュメモリなどの記録媒体であっても良いし、カメラ本体2に内蔵されるSSD(Solid State Drive)などの記録媒体であっても良い。   The image file generated by the image processing control circuit 25 is stored in the image recording medium 37. The image recording medium 37 may be a recording medium such as a flash memory that can be attached to and detached from the camera body 2, or may be a recording medium such as an SSD (Solid State Drive) built in the camera body 2. good.

画像処理を施された画像信号は、背面モニタ制御回路28の制御により、背面モニタ21に表示される。この背面モニタ21に撮影直後に撮影された画像信号を所定時間表示すれば、画像記録媒体37に記録された画像ファイルに対応する画像をユーザに視認させることができる。また、撮像素子9が連続的に光電変換する被写界像を、画像記録媒体37に記録することなく背面モニタ21に逐次表示すればライブビュー表示を実現できる。さらに、撮像素子9が連続的に光電変換する被写界像を、例えばMPEGなどの動画圧縮処理を画像処理制御回路25で施して画像記録媒体37に記録すれば、動画撮影を実現することができる。このとき、マイク17で収集した被写界の音声も圧縮処理して、動画データに同期させて記録する。生成される動画像のフレームレートは、例えば30fpsなど、複数のフレームレートから選択されて設定される。   The image signal subjected to the image processing is displayed on the rear monitor 21 under the control of the rear monitor control circuit 28. If an image signal taken immediately after photographing is displayed on the rear monitor 21 for a predetermined time, an image corresponding to the image file recorded on the image recording medium 37 can be viewed by the user. Further, live view display can be realized by sequentially displaying on the rear monitor 21 the field images that are continuously photoelectrically converted by the image sensor 9 without being recorded on the image recording medium 37. Further, moving image shooting can be realized by recording an object scene image, which is continuously photoelectrically converted by the image sensor 9, by performing a moving image compression process such as MPEG on the image processing control circuit 25 and recording it on the image recording medium 37. it can. At this time, the sound of the object scene collected by the microphone 17 is also compressed and recorded in synchronization with the moving image data. The frame rate of the generated moving image is selected and set from a plurality of frame rates such as 30 fps, for example.

コントラストAF回路26は、撮像素子9からの撮像信号の高周波成分を抽出してAF評価値信号を生成し、これが最大になるフォーカスレンズ位置を検出する。具体的には、画像処理制御回路25から入力される画像信号から、バンドパスフィルタを用いて所定の高周波成分を抽出し、ピークホールド、積分等の検波処理を行ってAF評価値信号を生成する。生成したAF評価値信号は、カメラ本体CPU27に出力する。   The contrast AF circuit 26 extracts a high-frequency component of the imaging signal from the imaging device 9 to generate an AF evaluation value signal, and detects a focus lens position where the AF evaluation value signal becomes maximum. Specifically, a predetermined high-frequency component is extracted from the image signal input from the image processing control circuit 25 using a bandpass filter, and detection processing such as peak hold and integration is performed to generate an AF evaluation value signal. . The generated AF evaluation value signal is output to the camera body CPU 27.

レンズCPU7は、角速度センサ6で検出した手振れをキャンセルするように、撮影レンズ3内の防振レンズを光軸方向とは異なる方向に駆動して光学式手振れ補正を実現している。手振れ補正はこのような光学式手振れ補正に限らず、撮像素子9に駆動機構を付与して、光軸方向とは異なる方向に駆動して手振れをキャンセルする撮像素子駆動式手振れ補正を採用することもできる。さらには、画像処理制御回路25から出力された複数枚の画像間の動きベクトルを算出し、算出した画像間の動きベクトルをキャンセルするように画像読み出し位置を制御して手振れをキャンセルする電子式手振れ補正を採用することもできる。光学式手振れ補正および撮像素子駆動式手振れ補正は特に静止画撮影に好適であり、動画撮影にも適用される。電子式手振れ補正は動画撮影に好適である。これらの方式は、選択的、追加的に採用され得る。   The lens CPU 7 drives the anti-vibration lens in the photographing lens 3 in a direction different from the optical axis direction so as to cancel the camera shake detected by the angular velocity sensor 6 to realize optical camera shake correction. The camera shake correction is not limited to such optical camera shake correction, but adopts an image sensor drive type camera shake correction in which a drive mechanism is added to the image sensor 9 to drive in a direction different from the optical axis direction and cancel the camera shake. You can also. Furthermore, an electronic camera shake that calculates a motion vector between a plurality of images output from the image processing control circuit 25 and controls image readout position so as to cancel the calculated motion vector between images and cancels camera shake. Corrections can also be employed. Optical camera shake correction and image sensor-driven camera shake correction are particularly suitable for still image shooting and are also applied to moving image shooting. Electronic camera shake correction is suitable for moving image shooting. These methods can be selectively and additionally employed.

また、カメラ本体CPU27は、レンズCPU7と連携し、焦点検出センサ11の出力に応じて撮影レンズ3を構成するフォーカスレンズの作動を制御することによりAF動作を行う。さらに、カメラ本体CPU27は、撮影レンズ3を構成するズームレンズの状態(焦点距離)や、この撮影レンズ3自体の情報(例えば、広角レンズ、望遠レンズ、マクロレンズ等のレンズ種別)をレンズCPU7を介して取得することができる。   Further, the camera body CPU 27 performs an AF operation by controlling the operation of the focus lens constituting the photographing lens 3 according to the output of the focus detection sensor 11 in cooperation with the lens CPU 7. Furthermore, the camera body CPU 27 stores the state (focal length) of the zoom lens constituting the photographing lens 3 and information on the photographing lens 3 itself (for example, lens types such as a wide-angle lens, a telephoto lens, a macro lens, etc.). Can be obtained through.

測光センサ15は、上述のように、撮影レンズ3へ入射する光束を複数の領域ごとに測光することにより被写界の輝度分布を計測するが、計測結果はカメラ本体CPU27に出力する。カメラ本体CPU27では、選択された測光モードに応じて露出値を算出する。測光モードとしては、明るい部分と暗い部分のバランスを取る分割測光モード、画面中央を適正露出とする中央重点測光モード、選択したフォーカスポイントの狭領域を適正露出とするスポット測光モードなどが選択され得る。   As described above, the photometric sensor 15 measures the luminance distribution of the object scene by measuring the luminous flux incident on the photographing lens 3 for each of a plurality of areas, and outputs the measurement result to the camera body CPU 27. The camera body CPU 27 calculates an exposure value according to the selected photometry mode. As a metering mode, a split metering mode that balances bright and dark parts, a center-weighted metering mode that properly exposes the center of the screen, a spot metering mode that properly exposes a narrow area of the selected focus point, and the like can be selected. .

カレンダー部38は、水晶発振子、計時用集積回路等を有しており、年月日時分秒といったカレンダー情報を保持する。カメラ本体CPU27は、カレンダー部38から時間に関する情報を適宜検出することができる。GPSモジュール16は、GPS衛星からの信号を受信してカメラ本体2が存在している緯度、経度、高度情報(位置に関する情報)を取得する位置検出部である。また、カメラ本体CPU27は、GPSモジュール16からカメラ本体2が存在している位置に関する情報を適宜検出することができる。   The calendar unit 38 includes a crystal oscillator, a timekeeping integrated circuit, and the like, and holds calendar information such as year / month / day / hour / minute / second. The camera body CPU 27 can appropriately detect information about time from the calendar unit 38. The GPS module 16 is a position detection unit that receives a signal from a GPS satellite and acquires latitude, longitude, and altitude information (information on the position) where the camera body 2 exists. The camera body CPU 27 can appropriately detect information related to the position where the camera body 2 exists from the GPS module 16.

フラッシュROM29は、EEPROM(登録商標)であり、カメラシステム1を動作させるプログラムのほか、各種調整値、設定値を記憶する記憶装置である。なお、フラッシュROM29に撮影レンズ3毎に過去の撮影場所における収差補正量のログを記憶させてもよい。また、フラッシュROM29は地図情報を記憶しており、カメラ本体CPU27は、GPSモジュール16の出力として得られる緯度、経度、高度情報と、フラッシュROM29に記憶されている地図情報とから現在の位置情報を取得することができる。すなわち、カメラ本端CPU27は、撮像部により撮影を行う撮影場所に関する情報を検出する撮影場所検出部として動作する。   The flash ROM 29 is an EEPROM (registered trademark) and is a storage device that stores various adjustment values and setting values in addition to a program for operating the camera system 1. It should be noted that a log of aberration correction amounts at past shooting locations may be stored in the flash ROM 29 for each shooting lens 3. The flash ROM 29 stores map information, and the camera body CPU 27 obtains current position information from latitude, longitude, altitude information obtained as an output of the GPS module 16 and map information stored in the flash ROM 29. Can be acquired. That is, the camera main-end CPU 27 operates as a shooting location detection unit that detects information regarding a shooting location where shooting is performed by the imaging unit.

RAM30は、フラッシュROM29に記憶されたプログラムが展開され、カメラ本体CPU27が高速にアクセスできるDRAMなどの高速RAMである。特に頻繁に参照される各種調整値、設定値などもフラッシュROM29からコピーされ、カメラ本体CPU27からのアクセスを容易にする。   The RAM 30 is a high-speed RAM such as a DRAM in which a program stored in the flash ROM 29 is expanded and the camera body CPU 27 can access at high speed. In particular, various adjustment values and setting values that are frequently referred to are also copied from the flash ROM 29 to facilitate access from the camera body CPU 27.

背面モニタ制御回路28は、上述のように画像処理された画像の他、フラッシュROM29から読み出したメニュー設定画面およびユーザガイド画面を背面モニタ21へ表示する表示制御を行う。また、背面モニタ21の表面にはタッチパネルセンサが積層されており、ユーザが背面モニタ21のメニュー項目等を視認しつつタッチパネルセンサを操作したときには、その座標とその座標に対応して表示されていたメニュー項目をカメラ本体CPU27へ出力する。   The rear monitor control circuit 28 performs display control for displaying the menu setting screen and the user guide screen read from the flash ROM 29 on the rear monitor 21 in addition to the image processed as described above. Further, a touch panel sensor is stacked on the surface of the rear monitor 21, and when the user operates the touch panel sensor while visually recognizing the menu items of the rear monitor 21, the coordinates and the coordinates are displayed. The menu item is output to the camera body CPU 27.

イベント情報取得部31は、ネットワークを介して特定の施設で開催されるイベント情報を検出して取得するイベント検出部である。このイベント情報取得部31は、図示しない無線LAN等のネットワーク接続部と、特定の施設におけるイベント情報をネットワーク上から取得するプログラムとから構成される。なお、イベント情報取得部31は、ネットワーク上で公開された情報にアクセスすることに限らず、ユーザが予め構築したイベント情報に関するデータベースにアクセスするように構成しても良い。また、イベント情報取得部31は、ネットワークに接続するのではなく、ユーザが例えばスケジュール情報としてフラッシュROM29に記憶させたデータベースにアクセスするように、内部的に構成することもできる。   The event information acquisition unit 31 is an event detection unit that detects and acquires event information held at a specific facility via a network. The event information acquisition unit 31 includes a network connection unit such as a wireless LAN (not shown) and a program that acquires event information in a specific facility from the network. Note that the event information acquisition unit 31 is not limited to accessing information published on the network, but may be configured to access a database related to event information constructed in advance by the user. Further, the event information acquisition unit 31 can be internally configured so that the user accesses a database stored in the flash ROM 29 as schedule information, for example, instead of being connected to a network.

レリーズSW32は、2段式のスイッチである。ユーザがレリーズSW32を半押しすると、オートフォーカス、測光などの撮影準備動作を行う。さらにユーザがレリーズSW32を全押しすると、カメラ本体CPU27は、静止画、動画の撮影動作を開始する。   The release SW 32 is a two-stage switch. When the user half-presses the release SW 32, shooting preparation operations such as autofocus and photometry are performed. Further, when the user fully presses the release SW 32, the camera body CPU 27 starts a still image / moving image shooting operation.

顔検出部33は、画像処理制御回路25により画像処理を施された画像信号を用いて、被写体の中に人物や動物などの顔が含まれているかどうかを検出するものであり、目,鼻,唇の各端点などの特徴点を画像から抽出し、これらの特徴点に基づいて顔領域か否かを判定するものである。   The face detection unit 33 detects whether a face such as a person or an animal is included in the subject using the image signal that has been subjected to image processing by the image processing control circuit 25. , Feature points such as the end points of the lips are extracted from the image, and based on these feature points, it is determined whether or not the face region.

水圧計34は、カメラ本体2にかかる水圧を検出するものであり、本実施形態では撮影場所検出部であるカメラ本体CPU27により、カメラシステム1が水中で使われているかどうかを検出するために用いられる。   The water pressure gauge 34 detects the water pressure applied to the camera body 2 and is used to detect whether or not the camera system 1 is used in water by the camera body CPU 27 which is a photographing location detection unit in this embodiment. It is done.

通信部50は、前述のように収差補正コンバータ40の通信部と通信するものである。   The communication unit 50 communicates with the communication unit of the aberration correction converter 40 as described above.

また、カメラ本体CPU27は、レンズCPU7および収差補正コンバータ40と協働してカメラシステム1の全体を制御する。   The camera body CPU 27 controls the entire camera system 1 in cooperation with the lens CPU 7 and the aberration correction converter 40.

以上のように構成された本カメラシステム1の撮影動作について、以下図4及び図5のフローチャートに沿って説明を行う。なお、本フローチャートは、不図示の電源がONされた状態でのものとする。また、本フローチャートは、上述のように、フラッシュROM29に記憶され、RAM30に展開されたプログラムにより、カメラ本体CPU27で実行されるものとする。すなわち、カメラ本体CPU27は、本フローチャートに基づいて、上述の撮影レンズ3の情報及びGPSモジュール16、カレンダー部38、顔検出部33、水圧計34等からなる環境検出部からの環境情報を用いて撮像の設定(撮影アシスト)を行う設定部としても動作する。   The shooting operation of the camera system 1 configured as described above will be described below with reference to the flowcharts of FIGS. This flowchart is assumed to be in a state where a power supply (not shown) is turned on. Further, as described above, this flowchart is executed by the camera body CPU 27 by a program stored in the flash ROM 29 and expanded in the RAM 30. That is, the camera body CPU 27 uses the information on the photographing lens 3 and the environment information from the environment detection unit including the GPS module 16, the calendar unit 38, the face detection unit 33, the water pressure gauge 34, and the like based on the flowchart. It also operates as a setting unit for setting imaging (shooting assist).

カメラ本体CPU27は、撮影レンズ3の情報を取得する(ステップS1)。本実施形態において、カメラ本体CPU27は、撮影レンズ3の焦点距離情報を取得する。例えば撮影レンズ3が、焦点距離が60mmのマクロレンズであり、曲率を有した透明部材(例えばガラス)越しに撮影を行う場合の収差補正を行う収差レンズを有してはいないことを確認する。なお、撮影レンズ3の情報は、撮影レンズ3がカメラ本体2に取り付けられたタイミングで取得すれば良い。   The camera body CPU 27 acquires information on the taking lens 3 (step S1). In the present embodiment, the camera body CPU 27 acquires focal length information of the photographic lens 3. For example, it is confirmed that the photographing lens 3 is a macro lens having a focal length of 60 mm, and does not have an aberration lens for correcting aberration when photographing through a transparent member (for example, glass) having a curvature. Note that information about the photographing lens 3 may be acquired at the timing when the photographing lens 3 is attached to the camera body 2.

カメラ本体CPU27は、撮影場所の情報を取得する(ステップS2)。本実施形態において、カメラ本体CPU27は、GPSモジュール16の出力として得られる緯度、経度、高度情報と、フラッシュROM29に記憶されている地図情報とから現在の位置情報を取得し、カレンダー部38から季節、月、時間などの日時情報を取得する。また、カメラ本体CPU27は、イベント情報取得部31から現在の位置およびその周辺のイベント情報(イベントの内容、イベント開始時刻、イベント終了時刻)を検出する。本実施の形態においては、水族館での撮影を行うものとして以下説明を続ける。なお、カメラ本体CPU27は、上述した全ての情報を取得する必要はなく、撮影アシストが可能な情報を適宜取得すればよい。   The camera body CPU 27 acquires information on the shooting location (step S2). In the present embodiment, the camera body CPU 27 acquires the current position information from the latitude, longitude, altitude information obtained as the output of the GPS module 16 and the map information stored in the flash ROM 29, and from the calendar unit 38 the season Get date and time information such as month, time. The camera main body CPU 27 detects event information (event content, event start time, event end time) at the current position and its surroundings from the event information acquisition unit 31. In the present embodiment, the following description will be continued on the assumption that shooting is performed in an aquarium. The camera body CPU 27 does not have to acquire all the information described above, and may acquire information that can be used for shooting assistance as appropriate.

カメラ本体CPU27は、ステップS2で取得した撮影場所の情報から、収差補正コンバータ40が必要か否かを判断する(ステップS3)。水族館で撮影を行うように、曲率を有した透明部材(例えばガラス)越しに撮影を行う場合に、撮影レンズ3自体に収差レンズを有していないときは、カメラ本体CPU27は、収差補正コンバータ40が必要であると判断する。そして、ステップS3で収差補正コンバータ40が必要ないと判断したときはステップS7に進み、反対に、収差補正コンバータ40が必要であると判断したときは、さらに収差補正コンバータ40が撮影レンズ3に装着されているか否かを判断し(ステップS4)、装着されていない場合は、スピーカ18からの音声や、背面モニタ21にメッセージを表示して収差補正コンバータ40の装着が必要なことを警告する(ステップS5)。そして、カメラ本体CPU27は、この警告に対して収差補正コンバータ40の装着の確認待ちを行い(ステップS6)、装着が確認されるとステップS7に進む。なお、装着の確認には、例えば、撮影者に背面モニタ21のタッチパネルを操作させる。この確認には、撮影者の判断で、収差補正コンバータ40を装着しない場合を含む。   The camera body CPU 27 determines whether or not the aberration correction converter 40 is necessary from the information on the shooting location acquired in step S2 (step S3). When photographing through a transparent member (for example, glass) having a curvature so as to photograph in an aquarium, if the photographing lens 3 itself does not have an aberration lens, the camera body CPU 27 performs aberration correction converter 40. Is determined to be necessary. When it is determined in step S3 that the aberration correction converter 40 is not necessary, the process proceeds to step S7. Conversely, when it is determined that the aberration correction converter 40 is necessary, the aberration correction converter 40 is further attached to the photographing lens 3. (Step S4), if not, a message from the speaker 18 or a message is displayed on the rear monitor 21 to warn that the aberration correction converter 40 needs to be attached (step S4). Step S5). Then, the camera body CPU 27 waits for confirmation of the mounting of the aberration correction converter 40 in response to this warning (step S6), and proceeds to step S7 when the mounting is confirmed. For confirmation of wearing, for example, the photographer is caused to operate the touch panel of the rear monitor 21. This confirmation includes the case where the aberration correction converter 40 is not attached at the judgment of the photographer.

次に、カメラ本体CPU27は、レリーズSW32が半押しされているか否かを判断し(ステップS7)、半押しされていれば次のステップS8に進み、半押しされていなければこのステップS7を繰り返す。なお、レリーズSW32の半押しの確認は、ステップS2の撮影場所の情報取得前に行ってもよい。また、レリーズSW32の半押し操作が所定時間確認されなければ本フローチャートを終了してもよい。   Next, the camera body CPU 27 determines whether or not the release SW 32 is half-pressed (step S7). If it is half-pressed, the process proceeds to the next step S8. If it is not half-pressed, this step S7 is repeated. . Note that the confirmation of half-pressing of the release SW 32 may be performed before acquisition of information on the shooting location in step S2. Further, if the half-pressing operation of the release SW 32 is not confirmed for a predetermined time, this flowchart may be ended.

カメラ本体CPU27は、撮影条件の設定を行う(ステップS8)。上述のように、ステップS1で撮影レンズ3がマクロレンズであり、かつ、ステップS2で現在の撮影場所が水族館であると判定したときは、カメラ本体CPU27は、水族館でのマクロ撮影のための撮影条件の設定を行う。例えば、水族館では閃光撮影が禁止されているため、カメラ本体CPU27は、閃光撮影を禁止して、ISO感度を800〜1600の間で設定するとともに、水の中の生物を撮影するためホワイトバランスを水中用(青の帯域補正を水中に特化させる)にする。また、カメラ本体CPU27は、水族館は一般的に暗いため、絞りを開放近傍に設定するとともに、位相差方式によりAFを行うために焦点検出センサ11の出力を用いてAF動作を行う。これに加え、カメラ本体CPU27は、動体の撮影が予想されるため、連続してAFを実行するコンティニュアスAFモードの設定を行う。   The camera body CPU 27 sets shooting conditions (step S8). As described above, when it is determined in step S1 that the photographing lens 3 is a macro lens and the current photographing location is an aquarium in step S2, the camera body CPU 27 performs photographing for macro photographing in the aquarium. Set the conditions. For example, since flash photography is prohibited in an aquarium, the camera body CPU 27 prohibits flash photography, sets the ISO sensitivity between 800 and 1600, and sets a white balance for photographing organisms in the water. For underwater use (specify blue band correction to underwater). In addition, since the aquarium is generally dark, the camera body CPU 27 sets the aperture in the vicinity of the full open and performs the AF operation using the output of the focus detection sensor 11 in order to perform AF by the phase difference method. In addition to this, the camera main body CPU 27 sets a continuous AF mode in which AF is continuously executed because shooting of moving objects is expected.

また、カメラ本体CPU27は、ユーザにより動画撮影が選択された場合に、取り付けられている撮影レンズ3がマクロレンズであるため絞り制御を行わないようにする。   In addition, when the user selects moving image shooting, the camera body CPU 27 does not perform aperture control because the attached shooting lens 3 is a macro lens.

更に、カメラ本体CPU27は、測光センサ15の出力から逆光状態(ユーザが水槽に囲まれているような状態)の場合にアクティブDライティングを実施する。アクティブDライティングは、測光センサ15の出力から算出された露出値を変更するとともに、得られた画像に階調補正を施すものである。   Furthermore, the camera main body CPU 27 performs active D lighting in the case of a backlight state (a state in which the user is surrounded by a water tank) from the output of the photometric sensor 15. Active D lighting changes the exposure value calculated from the output of the photometric sensor 15 and performs gradation correction on the obtained image.

次に、カメラ本体CPU27は、焦点検出センサ11による焦点検出を行い撮影レンズ3を構成するフォーカスレンズの焦点検出結果に応じて駆動するとともに、不図示のエンコーダによりフォーカスレンズの位置を検出する(ステップS9)。   Next, the camera body CPU 27 performs focus detection by the focus detection sensor 11 and drives it according to the focus detection result of the focus lens constituting the photographing lens 3, and detects the position of the focus lens by an encoder (not shown) (step). S9).

さらに、カメラ本体CPU27は、ステップS2で取得した撮影場所の情報に基づいて、撮影場所に起因する収差の発生の有無を判断する(ステップS10)。本実施形態においては、撮影場所が水族館のため、水槽を構成するガラスの曲率や、水槽の水による収差が発生する恐れがある。このため、カメラ本体CPU27は、ステップS10において収差が発生すると判断し、ステップS11に進む。なお、カメラ本体CPU27は、撮影場所に起因する収差の発生がないと判断した場合には、ステップS13に進む。   Furthermore, the camera main body CPU 27 determines whether or not aberration has occurred due to the shooting location based on the information of the shooting location acquired in step S2 (step S10). In the present embodiment, since the shooting location is an aquarium, there is a possibility that the curvature of the glass constituting the aquarium and aberration due to the water in the aquarium may occur. For this reason, the camera body CPU 27 determines that an aberration occurs in step S10, and proceeds to step S11. If the camera body CPU 27 determines that there is no aberration due to the shooting location, the process proceeds to step S13.

また、カメラ本体CPU27は、顔検出部33により、画像処理制御回路25により画像処理を施された画像信号を用いて、被写体に顔があるかどうかを検出する(ステップS11)。これは、水族館においても、人が主要被写体になり、水槽が背景になる場合があり、このような場合は、水槽を構成するガラスの曲率や、水槽の水により発生する収差を補正する必要がないからである。一方、顔が検出されなければ、水槽内の生物を撮影する可能性が高く、水槽を構成するガラスの曲率や、水槽の水により発生する収差を補正する必要が生じるからである。このため、カメラ本体CPU27は、顔検出部33により顔が検出された場合にはステップS13に進み、顔検出部33により顔が検出されなかった場合にはステップS12に進む。   Further, the camera body CPU 27 detects whether or not the subject has a face by using the image signal subjected to the image processing by the image processing control circuit 25 by the face detection unit 33 (step S11). This is because even in an aquarium, people may become the main subject and the aquarium may become the background.In such a case, it is necessary to correct the curvature of the glass constituting the aquarium and the aberration generated by the water in the aquarium. Because there is no. On the other hand, if a face is not detected, there is a high possibility that an organism in the aquarium will be photographed, and it will be necessary to correct the curvature of the glass constituting the aquarium and the aberration generated by the water in the aquarium. Therefore, the camera body CPU 27 proceeds to step S13 when a face is detected by the face detection unit 33, and proceeds to step S12 when a face is not detected by the face detection unit 33.

カメラ本体CPU27は、水槽を構成するガラスの曲率や、水槽の水により発生する収差の補正を行う(ステップS12)。カメラ本体CPU27は、撮影レンズ3の不図示の不揮発性メモリに記憶されている収差テーブルと、収差補正コンバータ40の不図示の不揮発性メモリに記憶されている駆動量及び収差補正コンバータ40の負レンズL1及び正レンズL2の位置とを確認し、ステップS9で取得したフォーカスレンズの位置に応じて、負レンズL1及び正レンズL2を光軸に沿って移動させることにより、正レンズL2と撮影レンズ3の物体側のレンズとの空気間隔を調節し、これにより、歪曲収差及び像面湾曲の補正を行う。なお、歪曲収差や倍率色収差は画像処理で補正することも可能である。   The camera body CPU 27 corrects the curvature of the glass constituting the water tank and the aberration generated by the water in the water tank (step S12). The camera body CPU 27 stores an aberration table stored in a nonvolatile memory (not shown) of the photographing lens 3, a driving amount stored in a nonvolatile memory (not shown) of the aberration correction converter 40, and a negative lens of the aberration correction converter 40. The positions of the L1 and the positive lens L2 are confirmed, and the positive lens L2 and the photographing lens 3 are moved by moving the negative lens L1 and the positive lens L2 along the optical axis according to the position of the focus lens acquired in step S9. The air gap from the object side lens is adjusted, thereby correcting distortion and curvature of field. Note that distortion and lateral chromatic aberration can be corrected by image processing.

ステップS12において収差補正を行うときに、カメラ本体CPU27は、ガラスの材質や厚さを把握していない。このため、本実施の形態において、カメラ本体CPU27は、駆動テーブルに記憶されている複数の駆動量の中から中間的な駆動量を用いて収差補正を行うものとする。なお、後述するように、倍率色収差は画像により収差の発生の程度が分かるため、カメラ本体CPU27は、中間的な駆動量を用いた画像から倍率色収差の程度を認識して、ガラスなどの透明部材の材質や厚さを類推し、この類推した透明部材の材質や厚さから収差補正コンバータ40の不図示の不揮発性メモリに記憶されている駆動量を読み出して、収差補正を再度行うことができる。   When aberration correction is performed in step S12, the camera body CPU 27 does not grasp the material and thickness of the glass. For this reason, in the present embodiment, the camera body CPU 27 performs aberration correction using an intermediate drive amount from among a plurality of drive amounts stored in the drive table. As will be described later, since the degree of occurrence of chromatic aberration of magnification is known from an image, the camera body CPU 27 recognizes the degree of chromatic aberration of magnification from an image using an intermediate driving amount, and is a transparent member such as glass. The drive amount stored in the non-volatile memory (not shown) of the aberration correction converter 40 can be read from the analog material and thickness of the transparent member, and the aberration correction can be performed again. .

ついでカメラ本体CPU27は、撮像素子9が撮影した画像信号が入力される画像処理制御回路25を用いて、画像の色にじみを画像コントラストとして検出することにより倍率色収差を検出する(ステップS13)。すなわち、カメラ本体CPU27は、撮像部により撮影された画像から収差に関する情報を検出する収差検出部としても動作する。そして、カメラ本体CPU27は、検出した倍率色収差に基づいて、前述したように透明部材の材質や厚さを推定して、再度、収差補正コンバータ40の負レンズL1及び正レンズL2の位置を微調整する(ステップS14)。さらに、カメラ本体CPU27は、収差補正コンバータ40の負レンズL1及び正レンズL2の位置を微調整した後の画像を画像処理制御回路25を用いて取得し、調整の前後の画像コントラスト(倍率色収差)を比較し、倍率色収差が所定の値以下に向上したか否かを確認する(ステップS16)。カメラ本体CPU27は、倍率色収差が所定の値以下になったと判断したときはステップS17に進み、倍率色収差が所定の値より大きいときはステップS14〜S16を繰り返す。このようにカメラ本体CPU27は、収差補正部である収差補正コンバータ40の作動を制御することにより撮像光学系SLの収差を補正する制御部としても動作する。   Next, the camera body CPU 27 detects the chromatic aberration of magnification by detecting the color blur of the image as the image contrast by using the image processing control circuit 25 to which the image signal captured by the image sensor 9 is input (step S13). That is, the camera body CPU 27 also operates as an aberration detection unit that detects information related to aberrations from an image captured by the imaging unit. Then, the camera body CPU 27 estimates the material and thickness of the transparent member as described above based on the detected lateral chromatic aberration, and finely adjusts the positions of the negative lens L1 and the positive lens L2 of the aberration correction converter 40 again. (Step S14). Further, the camera body CPU 27 acquires an image after finely adjusting the positions of the negative lens L1 and the positive lens L2 of the aberration correction converter 40 using the image processing control circuit 25, and image contrast before and after the adjustment (magnification chromatic aberration). Are compared to confirm whether the chromatic aberration of magnification has improved to a predetermined value or less (step S16). The camera body CPU 27 proceeds to step S17 when determining that the chromatic aberration of magnification has become a predetermined value or less, and repeats steps S14 to S16 when the chromatic aberration of magnification is greater than the predetermined value. Thus, the camera body CPU 27 also operates as a control unit that corrects the aberration of the imaging optical system SL by controlling the operation of the aberration correction converter 40 that is an aberration correction unit.

次に、カメラ本体CPU27は、レリーズSW32が全押しされているか否かを判断し(ステップS17)、全押しされている場合に撮影を実行する(ステップS18)。なお、カメラ本体CPU27は、レリーズSW32が全押しされていない場合にはステップS17を繰り返すが、所定時間レリーズSW32の全押しがなされない場合には本フローチャートを終了してもよい。   Next, the camera main body CPU 27 determines whether or not the release SW 32 is fully pressed (step S17), and performs shooting when it is fully pressed (step S18). The camera body CPU 27 repeats step S17 when the release SW 32 is not fully pressed, but may end this flowchart when the release SW 32 is not fully pressed for a predetermined time.

そして、ステップS18の撮影実行が終了すると、カメラ本体CPU27は、収差補正コンバータ40が未装着の状態で撮影が実施された否かを判断し(ステップS19)、装着されていた場合は本フローチャートを終了し、装着されていない場合は、画像から倍率色収差量を算出し、その収差量に応じて画像を補正して本フローチャートを終了する。   When the shooting execution in step S18 ends, the camera body CPU 27 determines whether or not shooting has been performed with the aberration correction converter 40 not attached (step S19). If the lens is not mounted, the magnification chromatic aberration amount is calculated from the image, the image is corrected according to the aberration amount, and this flowchart is ended.

なお、ステップS18の撮影が動画撮影の場合には、カメラ本体CPU27は、フォーカスレンズの位置の変化を検出し、この位置が変化したときに上述の方法で倍率色収差を算出し、画像のR,G,Bの各信号毎に画像処理として倍率色収差を補正することができる。   If the shooting in step S18 is moving image shooting, the camera body CPU 27 detects a change in the position of the focus lens, calculates the lateral chromatic aberration by the method described above when the position changes, and calculates the R, The magnification chromatic aberration can be corrected as image processing for each of the G and B signals.

また、ステップS12に示した歪曲収差及び像面湾曲の補正、及び、ステップS14で示した倍率色収差の補正は、収差補正コンバータ40が取り付けられたときの撮影レンズ3の収差情報を、例えば、フラッシュROM29に記憶しておき、この収差情報とフォーカスレンズの位置から収差量を求めるように構成することができる。   The correction of distortion and curvature of field shown in step S12 and the correction of chromatic aberration of magnification shown in step S14 include the aberration information of the photographing lens 3 when the aberration correction converter 40 is attached, for example, flash. It is possible to store in the ROM 29 and obtain the aberration amount from the aberration information and the position of the focus lens.

また、上述の収差補正コンバータ40を水中写真用のドームポートの窓近傍に配置することにより、このドームポートに撮影レンズ3を有するカメラシステム1を取り付けると、ドームポートの窓を介して撮影するときに発生する諸収差を補正することができる。   Further, when the camera system 1 having the photographing lens 3 is attached to the dome port by disposing the above-described aberration correction converter 40 in the vicinity of the dome port window for underwater photography, the image is taken through the dome port window. Can be corrected.

また、以上の説明では、ステップS2における撮影場所の情報取得結果から水族館での撮影を行うものとしたが、水圧計34の出力により、水中にいることがわかれば水中での撮影としてステップS3以降の処理を進めることもできる。   In the above description, it is assumed that the aquarium is photographed from the information acquisition result of the photographing location in step S2. However, if it is understood from the output of the water pressure gauge 34 that the subject is underwater, the photographing in the water is performed after step S3. It is also possible to proceed with the process.

また、上述の説明においては、レンズ交換式一眼レフカメラであるカメラシステム1を例として説明したが、メインミラー10やペンタプリズム14などを省略したミラーレス一眼カメラや、コンパクトデジタルカメラにも適用することはできる。   In the above description, the camera system 1 that is a lens interchangeable single-lens reflex camera has been described as an example. I can.

それでは、上述のように撮像レンズ3に収差補正コンバータ40を取り付けたときの光学性能について、以下に示す。図6は、撮像レンズ3を構成する撮像光学系SL(4)、及び、収差補正コンバータ40を構成する収差補正光学系CLを用いてアクリル製の水槽窓(以下、単に「窓W」と呼ぶ)を介して水中の被写体(不図示の物体)を撮影する場合を示している。図6に示してあるように、物体側から順に、窓W、収差補正光学系CL、及び、撮像光学系SLが順番に並んでいる。また、収差補正光学系CLは、物体側から順に、物体側に凸面を向けた負メニスカスレンズL1、及び、物体側に凸面を向けた正メニスカスレンズL2から構成されている。また、撮像光学系SLは、物体側から順に、物体側に凸面を向けた正メニスカスレンズL11、物体側に凸面を向けた正メニスカスレンズL12、物体側に凸面を向けた負メニスカスレンズL13、開口絞りS、物体側に凹面を向けた負メニスカスレンズL14と物体側に凹面を向けた正メニスカスレンズL15との接合レンズ、及び、両凸レンズL16から構成されている。なお、無限遠物点から近距離物点への合焦は、撮像光学系SL全体を物体側へ移動させることにより行われる。   The optical performance when the aberration correction converter 40 is attached to the imaging lens 3 as described above will be described below. FIG. 6 illustrates an acrylic water tank window (hereinafter simply referred to as “window W”) using the imaging optical system SL (4) constituting the imaging lens 3 and the aberration correction optical system CL constituting the aberration correction converter 40. ) Is used to photograph an underwater subject (an object not shown). As shown in FIG. 6, the window W, the aberration correction optical system CL, and the imaging optical system SL are arranged in order from the object side. In addition, the aberration correction optical system CL includes, in order from the object side, a negative meniscus lens L1 having a convex surface facing the object side, and a positive meniscus lens L2 having a convex surface facing the object side. The imaging optical system SL includes, in order from the object side, a positive meniscus lens L11 having a convex surface facing the object side, a positive meniscus lens L12 having a convex surface facing the object side, a negative meniscus lens L13 having a convex surface facing the object side, and an aperture. The aperture stop S includes a cemented lens of a negative meniscus lens L14 having a concave surface facing the object side and a positive meniscus lens L15 having a concave surface facing the object side, and a biconvex lens L16. Note that focusing from an infinite object point to a short-distance object point is performed by moving the entire imaging optical system SL to the object side.

このような構成の収差補正コンバータ40の収差補正光学系CLは、光軸上を移動して、最も像側のレンズ面(第6面)と撮像光学系SLの最も物体側のレンズ面(第7面)との光軸上の間隔d6を変化させることにより、撮像光学系SLにより像面Iに形成される像の倍率色収差や歪曲収差を補正するように構成されている。なお、収差補正光学系CLが光軸上を移動することにより、アクリル水槽の窓Wの像側の面(第2面)と収差補正光学系CLの最も物体側のレンズ面(第3面)との光軸上の間隔d2も変化する。   The aberration correction optical system CL of the aberration correction converter 40 having such a configuration moves on the optical axis, and is the most image side lens surface (sixth surface) and the most object side lens surface (first surface) of the imaging optical system SL. By changing the distance d6 on the optical axis with respect to the seventh surface), the chromatic aberration of magnification and distortion of the image formed on the image plane I by the imaging optical system SL are corrected. When the aberration correction optical system CL moves on the optical axis, the image side surface (second surface) of the window W of the acrylic water tank and the lens surface (third surface) closest to the object side of the aberration correction optical system CL. The distance d2 on the optical axis also changes.

以下の表1に、上記収差補正光学系CL及び撮像光学系SLの無限遠合焦時の諸元の値を掲げる。この表1において、第1欄mは、光線の進行する方向に沿った物体側からのレンズ面の順序(面番号)を、第2欄rは、各レンズ面の曲率半径を、第3欄dは、各光学面から次の光学面までの光軸上の間隔(面間隔)を、第4欄νd及び第5欄ndは、d線(λ=587.6nm)に対するアッベ数及び屈折率を示している。ここで、以下の全ての諸元値において掲載されている曲率半径r、面間隔d、その他長さの単位は一般に「mm」が使われるが、光学系は、比例拡大または比例縮小しても同等の光学性能が得られるので、これに限られるものではない。なお、曲率半径0.00は、レンズ面の場合は平面を示し、絞りの場合は開口を示す。また、空気の屈折率1.00000は省略してある。また、窓Wの物体側(第1面側)には、アッベ数が53.98で屈折率が1.333060の水が満たされているものとする。また、面番号1〜18は図6に示す番号1〜18に対応している。   Table 1 below lists the values of specifications of the aberration correction optical system CL and the imaging optical system SL when focusing on infinity. In Table 1, the first column m indicates the order (surface number) of the lens surfaces from the object side along the traveling direction of the light beam, the second column r indicates the curvature radius of each lens surface, and the third column. d is the distance (surface distance) on the optical axis from each optical surface to the next optical surface. The fourth column νd and the fifth column nd are the Abbe number and refractive index for the d-line (λ = 587.6 nm). Is shown. Here, the radius of curvature r, surface spacing d, and other length units listed in all the following specifications are generally “mm”, but the optical system may be proportionally enlarged or reduced. Since equivalent optical performance can be obtained, the present invention is not limited to this. A radius of curvature of 0.00 indicates a plane in the case of a lens surface, and an aperture in the case of a stop. Further, the refractive index of air of 1.0000 is omitted. Further, it is assumed that the object side (first surface side) of the window W is filled with water having an Abbe number of 53.98 and a refractive index of 1.333060. The surface numbers 1 to 18 correspond to the numbers 1 to 18 shown in FIG.

(表1)
m r d νd nd
1 0.0000 30.00 57.57 1.491080
2 0.0000 d2
3 6200.0000 3.00 29.37 1.950000
4 560.0000 1.00
5 266.1762 6.00 82.57 1.497820
6 1508.9513 d6
7 50.5480 3.50 46.76 1.766840
8 1728.4000 0.10
9 19.9960 4.15 45.42 1.796680
10 34.3520 1.30
11 69.6150 1.00 29.48 1.717360
12 16.1130 6.00
13 0.0000 5.45
14 -16.7700 1.00 33.77 1.648310
15 -218.5620 4.95 46.76 1.766840
16 -20.8720 0.10
17 392.1120 2.85 53.97 1.713000
18 -53.8430
(Table 1)
m r d νd nd
1 0.0000 30.00 57.57 1.491080
2 0.0000 d2
3 6200.0000 3.00 29.37 1.950000
4 560.0000 1.00
5 266.1762 6.00 82.57 1.497820
6 1508.9513 d6
7 50.5480 3.50 46.76 1.766840
8 1728.4000 0.10
9 19.9960 4.15 45.42 1.796680
10 34.3520 1.30
11 69.6150 1.00 29.48 1.717360
12 16.1130 6.00
13 0.0000 5.45
14 -16.7700 1.00 33.77 1.648310
15 -218.5620 4.95 46.76 1.766840
16 -20.8720 0.10
17 392.1120 2.85 53.97 1.713000
18 -53.8430

図7〜図10に、上述の光学系の無限遠合焦時及び近距離合焦時における、球面収差、非点収差、歪曲収差、倍率色収差及びコマ収差の諸収差図を示す。なお、図7は撮像光学系SLのみで空気中の物体を撮影したときの諸収差を示し、図8は、撮像光学系SLのみで窓Wを介して水中の物体を撮影したときの諸収差を示し、図9は、収差補正光学系CLを装着した撮像光学系SLで空気中の物体を撮影したときの諸収差を示し、図10は、収差補正光学系CLを装着した撮像光学系SLで水中の物体を撮影したときの諸収差を示す。このとき、撮影光学系SLの最も物体側のレンズ面(第7面)と窓Wの像側の面(第2面)との光軸上の距離を121.00mmとし、収差補正光学系CLは、空気中を撮影する場合は、d6が11.00mm(d2が100.00mm)の位置に配置され、水中を撮影する場合は、d6が81.00mm(d2が30.00mm)の位置に配置される場合を示している。また、近距離物点に合焦するときは、撮像光学系SLが光軸に沿って物体側に7.78642mm移動する。   FIGS. 7 to 10 are graphs showing various aberrations of spherical aberration, astigmatism, distortion aberration, lateral chromatic aberration, and coma aberration when the above-described optical system is focused at infinity and at close distance. 7 shows various aberrations when an object in the air is photographed only by the imaging optical system SL, and FIG. 8 shows various aberrations when an object in the water is photographed through the window W only by the imaging optical system SL. FIG. 9 shows various aberrations when an object in the air is photographed by the imaging optical system SL equipped with the aberration correction optical system CL, and FIG. 10 shows the imaging optical system SL equipped with the aberration correction optical system CL. Shows various aberrations when shooting an underwater object. At this time, the distance on the optical axis between the most object-side lens surface (seventh surface) of the photographing optical system SL and the image-side surface (second surface) of the window W is 121.00 mm, and the aberration correction optical system CL is When shooting in the air, d6 is placed at a position of 11.00 mm (d2 is 100.00 mm), and when shooting underwater, d6 is placed at a position of 81.00 mm (d2 is 30.00 mm). Show. When focusing on a short-distance object point, the imaging optical system SL moves 7.78642 mm along the optical axis toward the object side.

各収差図において、FNOはFナンバーを、NAは開口数を、Yは像高を、dはd線(λ=587.6nm)を、gはg線(λ=435.8nm)を、CはC線(λ=656.3nm)を、FはF線(λ=486.1nm)をそれぞれ示している。また、非点収差を示す収差図において実線はサジタル像面を示し、破線はメリディオナル像面を示している。   In each aberration diagram, FNO is the F number, NA is the numerical aperture, Y is the image height, d is the d-line (λ = 587.6 nm), g is the g-line (λ = 435.8 nm), and C is C The line (λ = 656.3 nm) and F the F line (λ = 486.1 nm), respectively. In the aberration diagrams showing astigmatism, the solid line shows the sagittal image plane, and the broken line shows the meridional image plane.

以上の諸収差図から明らかなように、本実施例に係る撮影光学系SLで水中の物体を撮影すると、空気中の場合に比べて諸収差(特に、歪曲収差と倍率色収差)が大きくなるが、収差補正コンバータ40(収差補正光学系CL)を装着することにより、これらの収差が補正され、良好な光学性能を得ることができる。   As is apparent from the above aberration diagrams, when an underwater object is photographed by the photographing optical system SL according to the present embodiment, various aberrations (particularly distortion aberration and lateral chromatic aberration) are larger than those in the air. By mounting the aberration correction converter 40 (aberration correction optical system CL), these aberrations are corrected and good optical performance can be obtained.

1 カメラシステム(撮像装置) 9 撮像素子(撮像部)
16 GPSモジュール(位置検出部)
27 カメラ本体CPU(制御部、収差検出部、撮影場所検出部)
40 収差補正コンバータ(収差補正部)
SL 撮影光学系 CL 収差補正光学系
1 Camera System (Imaging Device) 9 Image Sensor (Imaging Unit)
16 GPS module (position detector)
27 Camera body CPU (control unit, aberration detection unit, shooting location detection unit)
40 Aberration correction converter (aberration correction unit)
SL Photography optical system CL Aberration correction optical system

Claims (5)

撮像光学系を用いて撮影を行う撮像部と、
前記撮像光学系の収差を補正する収差補正部と、
前記撮像部で撮影された画像に顔に相当する画像が含まれているか否かを判断する顔検出部と、
前記顔検出部により前記画像に顔に相当する画像が含まれていないと判断したときに、前記収差補正部により前記撮像光学系の収差を補正する制御部と、
前記撮像部により撮影された前記画像から収差に関する情報を検出する収差検出部と、
を有し、
前記制御部は、前記顔検出部の検出結果による前記撮像光学系の収差の補正を行った後、前記収差検出部が検出した前記収差に関する情報に基づいて前記収差補正部により前記撮像光学系の収差の補正を行うことを特徴とする撮像装置。
An imaging unit that performs imaging using an imaging optical system;
An aberration correction unit for correcting the aberration of the imaging optical system;
A face detection unit that determines whether an image corresponding to a face is included in the image captured by the imaging unit;
A control unit that corrects the aberration of the imaging optical system by the aberration correction unit when the face detection unit determines that the image corresponding to the face is not included in the image;
An aberration detector that detects information about aberration from the image captured by the imaging unit;
I have a,
The control unit corrects the aberration of the imaging optical system based on the detection result of the face detection unit, and then, based on the information on the aberration detected by the aberration detection unit, the aberration correction unit performs the correction of the imaging optical system. An image pickup apparatus that corrects aberrations .
前記撮像光学系は、当該撮像光学系の焦点を調整するフォーカスレンズを有し、
前記制御部は、前記フォーカスレンズの位置に基づいて前記収差補正部を制御することにより前記撮像光学系の収差を補正することを特徴とする請求項1に記載の撮像装置。
The imaging optical system has a focus lens for adjusting the focus of the imaging optical system,
The imaging apparatus according to claim 1, wherein the control unit corrects the aberration of the imaging optical system by controlling the aberration correction unit based on a position of the focus lens.
前記撮像部により撮影を行う撮影場所に関する情報を検出する撮影場所検出部と、
前記撮影場所検出部により検出された前記撮影場所に関する情報に基づいて、前記撮像部に対する撮影条件を設定する設定部と、を有することを特徴とする請求項1または2に記載の撮像装置。
A shooting location detection unit for detecting information on a shooting location where shooting is performed by the imaging unit;
On the basis of the shooting location detector the shooting location information regarding detected by imaging apparatus according to claim 1 or 2, characterized in that it has a setting unit for setting an imaging condition for the imaging unit.
前記撮影場所検出部は、水圧計を有することを特徴とする請求項に記載の撮像装置。 The imaging device according to claim 3 , wherein the photographing location detection unit includes a water pressure gauge. 前記収差補正部は、前記撮像光学系に取り付け可能な収差補正光学系であることを特徴とする請求項1〜4のいずれか一項に記載の撮像装置。 The aberration correcting unit, an imaging apparatus according to any one of claims 1 to 4, characterized in that said an aberration correction optical system that is attachable to the imaging optical system.
JP2011060558A 2011-03-18 2011-03-18 Imaging device Active JP5783445B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011060558A JP5783445B2 (en) 2011-03-18 2011-03-18 Imaging device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011060558A JP5783445B2 (en) 2011-03-18 2011-03-18 Imaging device

Publications (2)

Publication Number Publication Date
JP2012198273A JP2012198273A (en) 2012-10-18
JP5783445B2 true JP5783445B2 (en) 2015-09-24

Family

ID=47180593

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011060558A Active JP5783445B2 (en) 2011-03-18 2011-03-18 Imaging device

Country Status (1)

Country Link
JP (1) JP5783445B2 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6351255B2 (en) * 2013-12-19 2018-07-04 キヤノン株式会社 Imaging apparatus, imaging method, program, and storage medium
JP6418894B2 (en) * 2014-10-22 2018-11-07 キヤノン株式会社 Optical system, imaging device, and optical apparatus
JP6464046B2 (en) * 2015-06-26 2019-02-06 京セラ株式会社 Electronic device, control method, and control program
CN109479095B (en) 2016-08-01 2021-03-09 索尼公司 Image processing apparatus, image processing method, and program

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3429540B2 (en) * 1993-12-09 2003-07-22 オリンパス光学工業株式会社 Optical system of amphibious camera
JP3783817B2 (en) * 1998-03-11 2006-06-07 富士写真フイルム株式会社 Image processing method and image processing apparatus
JP2002116491A (en) * 2000-10-05 2002-04-19 Inon:Kk Amphibian wide conversion lens attached/dedicated to waterproof camera housing
JP4609338B2 (en) * 2006-02-09 2011-01-12 セイコーエプソン株式会社 Setting of shooting parameter value
JP2007306461A (en) * 2006-05-15 2007-11-22 Sony Ericsson Mobilecommunications Japan Inc Mobile terminal with camera and photographing mode particularizing method thereof
JP4827193B2 (en) * 2007-03-23 2011-11-30 オリンパスイメージング株式会社 Electronic imaging device
JP2009151165A (en) * 2007-12-21 2009-07-09 Olympus Imaging Corp Air lens and air lens system
JP2009162974A (en) * 2008-01-07 2009-07-23 Olympus Corp Microscope system and its control method
JP5498087B2 (en) * 2008-09-29 2014-05-21 キヤノン株式会社 Imaging apparatus, imaging method, and program
JP2011043991A (en) * 2009-08-21 2011-03-03 Olympus Imaging Corp User interface device, portable apparatus and program
JP2011055068A (en) * 2009-08-31 2011-03-17 Panasonic Corp Imaging apparatus

Also Published As

Publication number Publication date
JP2012198273A (en) 2012-10-18

Similar Documents

Publication Publication Date Title
JP4829380B2 (en) Imaging device
US10205878B2 (en) Image processing apparatus, image-capturing apparatus, image processing method, and non-transitory computer-readable storage medium
JP2008199486A (en) Single lens reflex type electronic imaging device
JP2009151254A (en) Photographing device and focus detector
JP2006234892A (en) Zoom lens and imaging apparatus equipped with same
JP2011192075A (en) Electronic device
JP5783445B2 (en) Imaging device
JP6065902B2 (en) Correction optical system, attachment, waterproof lens port, waterproof camera case, and optical system
JP2009282180A (en) Viewing optical system and imaging apparatus using the same
JP2011097131A (en) Imaging apparatus and interchangeable lens, and camera body
JP4914121B2 (en) Eyepiece optical system and viewfinder optical system having the same
JP5700246B2 (en) Imaging device
JP6087890B2 (en) LENS DEVICE AND IMAGING DEVICE
JP2008141675A (en) Imaging device and control method therefor
JP2008306442A (en) Imaging apparatus
JP5499796B2 (en) Electronics
JP6222170B2 (en) Imaging device
JP2011193281A (en) Portable device
JP5633380B2 (en) Imaging device
JP5764907B2 (en) Imaging device
JP4900769B2 (en) Finder optical system and optical equipment equipped with the same
JP2008040084A (en) Optical device
JP2015213338A5 (en)
JP2001350087A (en) Automatic focusing device and camera system
JP4900770B2 (en) Finder optical system and optical equipment equipped with the same

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140310

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20141126

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20141202

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150129

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150626

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150709

R150 Certificate of patent or registration of utility model

Ref document number: 5783445

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250