JP2016054477A - Imaging device, control method and program thereof, and imaging element - Google Patents

Imaging device, control method and program thereof, and imaging element Download PDF

Info

Publication number
JP2016054477A
JP2016054477A JP2015126874A JP2015126874A JP2016054477A JP 2016054477 A JP2016054477 A JP 2016054477A JP 2015126874 A JP2015126874 A JP 2015126874A JP 2015126874 A JP2015126874 A JP 2015126874A JP 2016054477 A JP2016054477 A JP 2016054477A
Authority
JP
Japan
Prior art keywords
area
information
image data
image
pixel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015126874A
Other languages
Japanese (ja)
Other versions
JP2016054477A5 (en
JP6558976B2 (en
Inventor
前田 真一
Shinichi Maeda
真一 前田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to US14/837,778 priority Critical patent/US10009544B2/en
Priority to CN201510555819.9A priority patent/CN105391936B/en
Publication of JP2016054477A publication Critical patent/JP2016054477A/en
Publication of JP2016054477A5 publication Critical patent/JP2016054477A5/ja
Application granted granted Critical
Publication of JP6558976B2 publication Critical patent/JP6558976B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Studio Devices (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an imaging device capable of reducing load of processing image data, transmitted from an image sensor, at processing a region of a part of image data being imaged.SOLUTION: An imaging device includes imaging means for generating image data of a subject, and addition means for adding additional information, in which first region information for identifying a first pixel region of the image data and second region information for identifying a second pixel region contained in the first pixel region are included, to the image data. Furthermore, the imaging device includes transmission means for transmitting image data with added additional information, and image processing means for performing predetermined image processing by extracting the first pixel region and the second pixel region, identified by additional information obtained by receiving image data, from image data received through the transmission means.SELECTED DRAWING: Figure 3

Description

本発明は、撮像装置、その制御方法及びプログラム並びに撮像素子に関する。   The present invention relates to an imaging apparatus, a control method and program thereof, and an imaging element.

撮像センサの高画質化や高フレームレート化に伴い、撮像センサと、撮像センサにより撮像された画像データを処理するDSP(Digital Signal Processor)との間のインタフェースの伝送速度の向上が求められている。このような状況に対して、特許文献1には、撮像センサとDSPの間を接続する複数の伝送路に、画素データにヘッダ情報を付加したパケットを生成して画像データを送信し、画像データを効率的に伝送する技術が開示されている。   As the image quality of an image sensor increases and the frame rate increases, an improvement in the transmission speed of an interface between the image sensor and a DSP (Digital Signal Processor) that processes image data captured by the image sensor is required. . For such a situation, Patent Document 1 discloses that image data is transmitted by generating a packet in which header information is added to pixel data on a plurality of transmission paths connecting between an imaging sensor and a DSP. Has been disclosed.

特開2012−120158号公報JP 2012-120158 A

ところで、動画撮影時のライブビュー拡大表示等の特定の撮影モードでは、ユーザの操作に応じて撮影している画像データの一部を拡大して表示する場合がある。このように撮影している画像の表示領域を変化させるためには、撮像センサから伝送される画像データのうち記録や表示に利用する随時変動する領域(読み出し領域)の一部を取り出して拡大表示等の処理を行う必要がある。このため、DSPは、得られる読み出し領域に対して、拡大表示等を行う領域を求める演算を随時行う必要がある。従って、高画質化や高フレームレート化に伴って、読み出し領域の一部を処理するためのDSPの処理負担が増大することが想定される。また、特許文献1に開示された技術では、撮像センサからDSPに伝送されるヘッダ情報はフレームの開始・終了や画素データの属するライン番号を示す等の制御情報に限定されている。従って、読み出し領域の全部または一部の領域に対する処理については考慮されておらず、当該処理をDSPで行うためには、制御部からDSPに対する制御が別途必要となり、処理が複雑化することが想定される。   By the way, in a specific shooting mode such as live view enlarged display at the time of moving image shooting, a part of image data being shot may be enlarged and displayed in accordance with a user operation. In order to change the display area of the image being taken in this way, a part of the area (readout area) that changes as needed for recording and display is extracted from the image data transmitted from the image sensor and displayed in an enlarged manner. It is necessary to perform such processing. For this reason, the DSP needs to perform an operation for obtaining an area for performing enlarged display or the like as needed with respect to the obtained readout area. Therefore, it is assumed that the processing load of the DSP for processing a part of the read area increases as the image quality and the frame rate increase. In the technique disclosed in Patent Document 1, header information transmitted from the image sensor to the DSP is limited to control information such as the start / end of a frame and the line number to which pixel data belongs. Accordingly, the processing for all or a part of the reading area is not taken into consideration, and in order to perform the processing by the DSP, the control unit needs to separately control the DSP, and the processing is assumed to be complicated. Is done.

本発明は、上述の従来技術の問題点に鑑みてなされたものである。本発明は、撮影している画像データの一部の領域に対する処理を行う場合に、撮像センサから伝送された画像データに対する処理負担を軽減することが可能な撮像装置、その制御方法及びプログラム並びに撮像素子を提供することを目的とする。   The present invention has been made in view of the above-mentioned problems of the prior art. The present invention provides an imaging apparatus capable of reducing a processing burden on image data transmitted from an imaging sensor, a control method and program thereof, and imaging when processing is performed on a partial area of image data being captured. An object is to provide an element.

この課題を解決するため、例えば本発明の撮像装置は以下の構成を備える。すなわち、被写体の画像データを生成する撮像手段と、画像データの第1の画素領域を特定する第1の領域情報と、第1の画素領域に含まれる第2の画素領域を特定する第2の領域情報とを含む付加情報を、画像データに付加する付加手段と、付加情報が付加された画像データを伝送する伝送手段と、伝送手段を介して受信した画像データから、画像データを受信して得られる付加情報によって特定される第1の画素領域と第2の画素領域を抽出して、所定の画像処理を行う画像処理手段と、を有することを特徴とする。   In order to solve this problem, for example, an imaging apparatus of the present invention has the following configuration. That is, an imaging unit that generates image data of a subject, first area information that specifies a first pixel area of the image data, and a second area that specifies a second pixel area included in the first pixel area The image data is received from the addition means for adding the additional information including the area information to the image data, the transmission means for transmitting the image data to which the additional information is added, and the image data received through the transmission means. Image processing means for extracting a first pixel area and a second pixel area specified by the obtained additional information and performing predetermined image processing;

本発明によれば、撮影している画像データの一部の領域に対する処理を行う場合に、撮像センサから伝送された画像データに対する処理負担を軽減することが可能になる。   According to the present invention, it is possible to reduce the processing load on the image data transmitted from the image sensor when processing is performed on a part of the image data being captured.

本発明の実施形態に係る撮像装置の一例としてのデジタルカメラ100の機能構成例を示すブロック図1 is a block diagram illustrating a functional configuration example of a digital camera 100 as an example of an imaging apparatus according to an embodiment of the present invention. 本実施形態に係る撮像センサ102の画素領域を模式的に示す図The figure which shows typically the pixel area | region of the image sensor 102 which concerns on this embodiment. 本実施形態に係る伝送データのフレームフォーマットの一例を示す図The figure which shows an example of the frame format of the transmission data which concerns on this embodiment 本実施形態に係るヘッダ情報の内容および情報量を示すテーブルTable showing contents and amount of header information according to this embodiment 本実施形態に係る画像領域と読み出し領域の関係を示す図(a)および読み出し領域と表示領域の関係を示す図(b)The figure which shows the relationship between the image area which concerns on this embodiment, and a read-out area | region (a), The figure which shows the relationship between a read-out area | region and a display area (b) 実施形態1に係る撮像センサ102と信号処理部103の機能構成例を示すブロック図(a)および実施形態2に係る信号処理部103の機能構成例を示すブロック図(b)A block diagram (a) showing a functional configuration example of the imaging sensor 102 and the signal processing unit 103 according to the first embodiment and a block diagram (b) showing a functional configuration example of the signal processing unit 103 according to the second embodiment. 本実施形態に係る伝送および表示処理の一連の動作を示すフローチャートA flowchart showing a series of operations of transmission and display processing according to the present embodiment. 実施形態3に係る撮像装置500の機能構成を示すブロック図FIG. 9 is a block diagram illustrating a functional configuration of an imaging apparatus 500 according to the third embodiment. 実施形態3に係るAFE501の機能構成例を示すブロック図FIG. 9 is a block diagram illustrating an example of a functional configuration of an AFE 501 according to the third embodiment. 実施形態4に係る撮像装置600の機能構成を示すブロック図FIG. 9 is a block diagram illustrating a functional configuration of an imaging apparatus 600 according to the fourth embodiment. 実施形態4に係るDFE601と信号処理部602の機能構成例を示すブロック図FIG. 9 is a block diagram illustrating an example of functional configurations of a DFE 601 and a signal processing unit 602 according to a fourth embodiment. その他の実施形態に係る積層型の撮像センサの一例を示す図The figure which shows an example of the laminated type image sensor which concerns on other embodiment. その他の実施形態に係る撮像装置の一例としての携帯電話機の機能構成例を示すブロック図The block diagram which shows the function structural example of the mobile telephone as an example of the imaging device which concerns on other embodiment.

(実施形態1)
以下、本発明の例示的な実施形態について、図面を参照して詳細に説明する。なお、以下では撮像装置の一例として、撮影中の画像の一部の領域に対する処理が可能な任意のデジタルカメラに本発明を適用した例を説明する。しかし、本発明は、デジタルカメラに限らず、当該処理を行うことが可能な任意の機器にも適用可能である。これらの機器には、例えば携帯電話機、ゲーム機、タブレット端末、パーソナルコンピュータ、時計型や眼鏡型の情報端末などが含まれてよい。
(Embodiment 1)
Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the drawings. In the following, an example in which the present invention is applied to an arbitrary digital camera capable of processing a partial area of an image being captured will be described as an example of an imaging apparatus. However, the present invention is not limited to a digital camera and can be applied to any device capable of performing the processing. These devices may include, for example, a mobile phone, a game machine, a tablet terminal, a personal computer, a clock-type or glasses-type information terminal.

(1 デジタルカメラ100の構成)
図1は、本実施形態の撮像装置の一例としてデジタルカメラ100の機能構成例を示すブロック図である。なお、図1に示す機能ブロックの1つ以上は、ASICやプログラマブルロジックアレイ(PLA)などのハードウェアによって実現されてもよいし、CPUやMPU等のプログラマブルプロセッサがソフトウェアを実行することによって実現されてもよい。また、ソフトウェアとハードウェアの組み合わせによって実現されてもよい。従って、以下の説明において、異なる機能ブロックが動作主体として記載されている場合であっても、同じハードウェアが主体として実現されうる。
(1 Configuration of digital camera 100)
FIG. 1 is a block diagram illustrating a functional configuration example of a digital camera 100 as an example of an imaging apparatus according to the present embodiment. One or more of the functional blocks shown in FIG. 1 may be realized by hardware such as an ASIC or a programmable logic array (PLA), or may be realized by a programmable processor such as a CPU or MPU executing software. May be. Further, it may be realized by a combination of software and hardware. Therefore, in the following description, even when different functional blocks are described as the operation subject, the same hardware can be realized as the subject.

撮影レンズ101は、被写体からの光を撮像センサ102に結像させる撮影光学系である。撮像センサ102は、撮像素子を含み、光電変換素子を有する画素が複数、2次元的に配列された構成を有し、撮影レンズ101により結像された被写体像を各画素で光電変換する。撮像センサ102に特に限定はないが、例えば、CCD(Charge-Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)イメージセンサが使用される。撮像センサ102は内部にA/D変換部を有し、画素単位のアナログ信号をデジタル信号に変換して画像データを生成する。また、後述するように、撮像センサ102は画像データをヘッダ情報等の付加情報を付加したパケットデータにして、信号処理部103に伝送する。   The photographing lens 101 is a photographing optical system that forms an image of light from a subject on the image sensor 102. The imaging sensor 102 includes an imaging element and has a configuration in which a plurality of pixels each having a photoelectric conversion element are two-dimensionally arranged. The subject image formed by the photographing lens 101 is photoelectrically converted by each pixel. Although there is no limitation in particular in the imaging sensor 102, CCD (Charge-Coupled Device) and CMOS (Complementary Metal Oxide Semiconductor) image sensor are used, for example. The imaging sensor 102 has an A / D conversion unit inside, and converts image signals in pixel units into digital signals to generate image data. As will be described later, the imaging sensor 102 converts the image data into packet data to which additional information such as header information is added, and transmits the packet data to the signal processing unit 103.

信号処理部103は、DSPなどの専用回路からなり、撮像センサ102から入力した画像データに対して現像処理や階調補正等の各種画像処理や圧縮・伸張処理などを行う。信号処理部103は、撮像センサ102から画像データを入力すると、別途後述するように画像データに付加された付加情報を参照して、例えば拡大表示のために画像データ内の所定の領域を抽出する処理を行う。   The signal processing unit 103 includes a dedicated circuit such as a DSP, and performs various image processing such as development processing and gradation correction, compression / decompression processing, and the like on the image data input from the image sensor 102. When image data is input from the image sensor 102, the signal processing unit 103 refers to additional information added to the image data as will be described later, and extracts a predetermined region in the image data for enlarged display, for example. Process.

記録媒体104は、撮影された画像データを記録する半導体メモリや磁気ディスク等から構成される。   The recording medium 104 includes a semiconductor memory, a magnetic disk, or the like that records captured image data.

表示部105は、撮影した画像や各種メニュー画面などを表示し、液晶ディスプレイ(LCD)などが使用される。表示部105は、タッチパネルを備え、メニュー画面に対するユーザの操作を検出する不図示の操作部としても機能する。   The display unit 105 displays captured images and various menu screens, and a liquid crystal display (LCD) or the like is used. The display unit 105 includes a touch panel and functions as an operation unit (not illustrated) that detects a user operation on the menu screen.

制御部106は、例えばCPUあるいはMPUであり、不図示のROMに格納されたプログラムを不図示のメモリの作業エリアに展開し、実行することにより、デジタルカメラ100全体を制御する。RAM107は、画像データなどを一時記憶する記憶媒体であり、信号処理部103と接続されている。   The control unit 106 is, for example, a CPU or MPU, and controls the entire digital camera 100 by developing and executing a program stored in a ROM (not shown) in a work area of a memory (not shown). A RAM 107 is a storage medium that temporarily stores image data and the like, and is connected to the signal processing unit 103.

(2 画像データの伝送方法)
撮像センサ102における画素領域の一例について、図2を参照して説明する。有効画素領域201には、被写体からの光を光電変換して入射光量に応じた信号を出力する有効画素が配置されている。撮像センサ102には、有効画素のほか、被写体からの光を遮光されたオプティカルブラック画素(OB画素)が配置されており、このOB画素は有効画素の出力を補正するための基準となる信号を出力する。水平OB画素領域202および垂直OB画素領域203は、それぞれOB画素が配置されている領域である。水平OB画素領域202は、その垂直方向(列に沿った方向)の画素数が有効画素領域201の垂直方向の画素数と等しい領域であり、例えば有効画素領域201の水平方向(行に沿った方向)の端部(例えば左側)に隣接して配置されている。垂直OB画素領域203は、その水平方向の画素数が、有効画素領域201と水平OB画素領域202の水平方向の画素数の和と等しく、有効画素領域201の垂直方向の端部(例えば上側)に接して配置されている。そして、有効画素領域201、水平OB画素領域202、垂直OB画素領域203から画素領域200が構成される。
(2 Image data transmission method)
An example of a pixel region in the image sensor 102 will be described with reference to FIG. In the effective pixel area 201, effective pixels that photoelectrically convert light from a subject and output a signal corresponding to the amount of incident light are arranged. In addition to the effective pixels, the imaging sensor 102 includes an optical black pixel (OB pixel) that is shielded from light from the subject. The OB pixel receives a signal serving as a reference for correcting the output of the effective pixel. Output. The horizontal OB pixel area 202 and the vertical OB pixel area 203 are areas in which OB pixels are arranged. The horizontal OB pixel region 202 is a region in which the number of pixels in the vertical direction (direction along the column) is equal to the number of pixels in the vertical direction of the effective pixel region 201, for example, the horizontal direction of the effective pixel region 201 (along the row). (Direction) adjacent to the end (for example, the left side). The vertical OB pixel region 203 has the number of pixels in the horizontal direction equal to the sum of the number of pixels in the horizontal direction of the effective pixel region 201 and the horizontal OB pixel region 202, and the vertical end portion (for example, the upper side) of the effective pixel region 201. It is arranged in contact with. The effective pixel region 201, horizontal OB pixel region 202, and vertical OB pixel region 203 constitute a pixel region 200.

次に、撮像センサ102と信号処理部103の間で1フレームの画像データを伝送するために用いられるフォーマットの例について図3を参照して説明する。   Next, an example of a format used to transmit one frame of image data between the image sensor 102 and the signal processing unit 103 will be described with reference to FIG.

水平方向(行に沿った方向)の画素の並びをラインとすると、パケットには、有効画素およびOB画素を含む1ラインを構成する画素データが格納される。従って、1フレームの画像データ全体の伝送は、有効画素領域の垂直方向(列に沿った方向)の画素数以上の数のパケットを用いて行われる。   Assuming that the arrangement of pixels in the horizontal direction (the direction along the row) is a line, the packet stores pixel data constituting one line including effective pixels and OB pixels. Accordingly, transmission of the entire image data of one frame is performed using a number of packets equal to or greater than the number of pixels in the vertical direction (direction along the column) of the effective pixel area.

図3の上段および中段には、画素データをラインごとに伝送する際に付加されるヘッダ情報と、当該ヘッダ情報および1ライン分の画素データを含んだデータを1つのパケットとした場合のパケット構造を示している。また、図2で示した画素領域から出力された画素データとパケット構造との対応を模式的に示すと、図3の下段のようになる。   In the upper and middle stages of FIG. 3, a packet structure in which header information added when pixel data is transmitted line by line and data including the header information and pixel data for one line are made into one packet. Is shown. The correspondence between the pixel data output from the pixel area shown in FIG. 2 and the packet structure is schematically shown in the lower part of FIG.

画素データ303の前後にはヘッダ情報302およびフッタ情報304が付加される。さらにヘッダ情報302の前にはパケットの開始を示す開始コード301と、フッタ情報304の後ろにはパケットの終了を表す終了コード305などの制御コードが付加される。フッタ情報304が付加されない場合、画素データの後ろに終了コード305などの制御コードが付加され、終了コード305が付加されない場合、次フレームの開始コードが終了コードとして使用される。   Header information 302 and footer information 304 are added before and after the pixel data 303. Further, a control code such as a start code 301 indicating the start of the packet is added before the header information 302, and an end code 305 indicating the end of the packet is added after the footer information 304. When the footer information 304 is not added, a control code such as the end code 305 is added after the pixel data. When the end code 305 is not added, the start code of the next frame is used as the end code.

ヘッダ情報302には、フレーム情報310、ライン情報311、スキップ位置情報312、表示領域情報313などの各ラインの画素データに関する付加的な情報が含まれる。図4には、ヘッダ情報302に含まれる各情報の内容と情報量を示している。   The header information 302 includes additional information related to pixel data of each line such as frame information 310, line information 311, skip position information 312, and display area information 313. FIG. 4 shows the content and information amount of each information included in the header information 302.

フレーム情報310は、パケットに格納された画素データのフレームに関する情報であり、「フレーム開始」または「フレーム終了」を示す情報で構成される。「フレーム開始」は、フレームの先頭を表す1ビットの情報であり、画像データの1ライン目の画素データを含むパケットの「フレーム開始」には1の値が設定される。また、1ライン目以外のラインを含むパケットの「フレーム開始」には0の値が設定される。「フレーム終了」は、フレームの終端を表す1ビットの情報である。有効画素領域の終端ラインの画素データを含むパケットの「フレーム終了」には1の値が設定され、終端ライン以外のラインの画素データを含むパケットの「フレーム終了」には0の値が設定される。   The frame information 310 is information relating to the frame of the pixel data stored in the packet, and includes information indicating “frame start” or “frame end”. “Frame start” is 1-bit information indicating the head of the frame, and a value of 1 is set to “frame start” of a packet including pixel data of the first line of image data. In addition, a value of 0 is set in “frame start” of a packet including lines other than the first line. “Frame end” is 1-bit information indicating the end of the frame. The value “1” is set in the “frame end” of the packet including the pixel data of the terminal line of the effective pixel region, and the value “0” is set in the “frame end” of the packet including the pixel data of the line other than the terminal line. The

ライン情報311は、パケットに格納された画素データのラインに関する情報であり、「ライン有効」と「ライン番号」とから構成される。「ライン有効」は、パケットに格納されている画素データが有効画素領域のラインの画素データであるか否かを表す1ビットの情報である。有効画素領域のラインの画素データが格納されたパケットの「ライン有効」には1の値が設定され、有効画素領域のライン以外の画素データが格納されたパケットの「ライン有効」には0の値が設定される。「ライン番号」は、画素データにより構成されるラインのライン番号を表す13ビットの情報である。   The line information 311 is information related to the line of pixel data stored in the packet, and includes “line valid” and “line number”. “Line valid” is 1-bit information indicating whether or not the pixel data stored in the packet is pixel data of a line in the effective pixel area. A value of 1 is set in the “line valid” of the packet in which the pixel data of the line in the effective pixel area is stored, and 0 in the “line valid” of the packet in which the pixel data other than the line in the effective pixel area is stored. Value is set. The “line number” is 13-bit information indicating the line number of a line constituted by pixel data.

スキップ位置情報312は、信号処理部103に伝送された画像データから画素データを読み出すためのスキップ位置に関する情報であり、「垂直スキップ開始」、「垂直スキップ終了」、「水平スキップ開始」および「水平スキップ終了」から構成される。各情報は13ビットの情報であり、「垂直スキップ開始」はスキップ位置の垂直方向(列に沿った方向)の開始位置を、「垂直スキップ終了」はスキップ位置の垂直方向(列に沿った方向)の終了位置を表す。同様に、「水平スキップ開始」はスキップ位置の水平方向(行に沿った方向)の開始位置を、「水平スキップ終了」はスキップ位置の水平方向(行に沿った方向)の終了位置を表す。   The skip position information 312 is information relating to the skip position for reading out pixel data from the image data transmitted to the signal processing unit 103, and includes “vertical skip start”, “vertical skip end”, “horizontal skip start”, and “horizontal skip”. It consists of "Skip end". Each information is 13-bit information, “vertical skip start” is the start position of the skip position in the vertical direction (direction along the column), and “vertical skip end” is the vertical direction of the skip position (direction along the column) ) End position. Similarly, “horizontal skip start” represents the start position of the skip position in the horizontal direction (direction along the line), and “horizontal skip end” represents the end position of the skip position in the horizontal direction (direction along the line).

表示領域情報313は、表示領域に含まれる画素データを示す情報であり、「垂直表示開始」、「垂直表示終了」、「水平表示開始」および「水平表示終了」から構成される。表示領域情報の各情報は13ビットの情報であり、「垂直表示開始」は、表示領域の垂直方向(列に沿った方向)の開始位置を、「垂直表示終了」は、表示領域の垂直方向(列に沿った方向)の終了位置を表す。また、「水平表示開始」は、表示領域の水平方向(行に沿った方向)の開始位置を表し、「水平表示終了」は、表示領域の水平方向(行に沿った方向)の終了位置を表す。   The display area information 313 is information indicating pixel data included in the display area, and includes “vertical display start”, “vertical display end”, “horizontal display start”, and “horizontal display end”. Each information of the display area information is 13-bit information, “vertical display start” is the start position of the display area in the vertical direction (direction along the column), and “vertical display end” is the vertical direction of the display area. Indicates the end position (direction along the column). “Horizontal display start” indicates the start position of the display area in the horizontal direction (direction along the line), and “Horizontal display end” indicates the end position of the display area in the horizontal direction (direction along the line). Represent.

拡張情報314は、拡張用に設けられた32ビットの領域からなる「予約」で構成され、ヘッダ情報全体のデータ量は19バイトになる。   The extension information 314 is composed of a “reservation” consisting of a 32-bit area provided for extension, and the data amount of the entire header information is 19 bytes.

さらに、図2で示した画素領域に対応する画素データから、図3および図4で示したヘッダ情報に基づいて読み出し領域および表示領域を特定する方法について、図5を参照して説明する。図5(a)は、撮像センサの画素領域200と、ヘッダ情報302のスキップ位置情報312で特定される読み出し領域を示している。   Further, a method for specifying the readout region and the display region based on the header information shown in FIGS. 3 and 4 from the pixel data corresponding to the pixel region shown in FIG. 2 will be described with reference to FIG. FIG. 5A shows a readout area specified by the pixel area 200 of the image sensor and the skip position information 312 of the header information 302.

読み出し領域300は、記録媒体104に記録するために信号処理部103によって抽出される領域である。読み出し領域300のうちの有効読み出し領域204は、ヘッダ情報302のスキップ位置情報、即ち「垂直スキップ開始」、「垂直スキップ終了」、「水平スキップ開始」および「水平スキップ終了」のそれぞれが示す4点の位置で囲まれた領域として特定される。また、有効読み出し領域204に対応する垂直OB読み出し領域206は、垂直OB読み出し領域206aと垂直OB読み出し領域206bから構成される。垂直OB読み出し領域206aは、垂直OB画素領域のうち「水平スキップ開始」、「水平スキップ終了」のそれぞれの位置が示す水平方向の範囲によって特定される。また、垂直OB読み出し領域206bは、水平OB画素領域の上側に配置された、水平方向の画素数が水平OB画素領域の水平方向の画素数と等しい領域として特定される。水平OB読み出し領域205は、水平OB画素領域202のうち「垂直スキップ開始」、「垂直スキップ終了」のそれぞれの位置が示す垂直方向の範囲によって特定される。このようにして、読み出し領域300は、有効読み出し領域204、水平OB読み出し領域205および垂直OB読み出し領域206がそれぞれ特定されることにより抽出される。   The read area 300 is an area extracted by the signal processing unit 103 for recording on the recording medium 104. The effective read area 204 in the read area 300 has four points indicated by the skip position information of the header information 302, that is, “vertical skip start”, “vertical skip end”, “horizontal skip start”, and “horizontal skip end”. It is specified as a region surrounded by the position of. The vertical OB read area 206 corresponding to the effective read area 204 is composed of a vertical OB read area 206a and a vertical OB read area 206b. The vertical OB readout area 206a is specified by the horizontal range indicated by the positions of “horizontal skip start” and “horizontal skip end” in the vertical OB pixel area. Further, the vertical OB readout area 206b is specified as an area arranged on the upper side of the horizontal OB pixel area, the number of pixels in the horizontal direction being equal to the number of pixels in the horizontal direction of the horizontal OB pixel area. The horizontal OB readout area 205 is specified by the vertical range indicated by the positions of “vertical skip start” and “vertical skip end” in the horizontal OB pixel area 202. In this way, the reading area 300 is extracted by specifying the effective reading area 204, the horizontal OB reading area 205, and the vertical OB reading area 206, respectively.

次に、読み出し領域300と表示領域400の関係を、図5(b)を参照して説明する。表示領域400は、例えば動画撮影時のライブビュー拡大表示等の特定の撮影モードにおいて、読み出し領域300の一部を取り出して拡大表示する際に用いられる領域である。表示領域400は、読み出し領域300とヘッダ情報302の表示領域情報313とで特定される。表示領域400は、表示領域情報313の「垂直表示開始」、「垂直表示終了」、「水平表示開始」および「水平表示終了」のそれぞれが示す4点の位置で囲まれた領域として決定される。   Next, the relationship between the reading area 300 and the display area 400 will be described with reference to FIG. The display area 400 is an area used when a part of the readout area 300 is taken out and enlarged and displayed in a specific shooting mode such as live view enlarged display at the time of moving image shooting. The display area 400 is specified by the read area 300 and the display area information 313 of the header information 302. The display area 400 is determined as an area surrounded by four points indicated by “vertical display start”, “vertical display end”, “horizontal display start”, and “horizontal display end” of the display area information 313. .

(3 撮像センサ102の機能構成と画像データの送信)
上述した伝送方法により画像データを送信するための、撮像センサ102の機能構成例とパケットの生成処理について図6(a)を参照して説明する。
(3 Functional configuration of image sensor 102 and transmission of image data)
A functional configuration example of the imaging sensor 102 and packet generation processing for transmitting image data by the transmission method described above will be described with reference to FIG.

撮像部102aは、画素領域200に入射した被写体像を光電変換して画素単位のアナログ信号を出力する。A/D変換部102bは、得られたアナログ信号をデジタル信号に変換して出力し、画像データ生成部102cは、得られたデジタル信号を画素領域200に対応する画像データとして生成する。   The imaging unit 102a photoelectrically converts the subject image incident on the pixel region 200 and outputs an analog signal in units of pixels. The A / D conversion unit 102b converts the obtained analog signal into a digital signal and outputs the digital signal, and the image data generation unit 102c generates the obtained digital signal as image data corresponding to the pixel region 200.

ヘッダ生成部102dは、1ライン分の画素データにヘッダ情報として付加される、図4に示したスキップ位置情報等の各情報を、制御部106から通知される制御情報に基づいて生成する。制御部106から通知される制御情報は、例えば読み出し領域に関する制御情報や表示領域に関する制御情報がある。読み出し領域に関する制御情報には、例えば電子防振機能のための読み出し領域の制御情報であってよい。また、表示領域に関する制御情報には、例えばライブビュー拡大表示における表示倍率に関する制御情報があってよい。ヘッダ生成部102dは、例えば、電子防振機能のための読み出し領域に関する制御情報に基づいて、読み出し領域300を特定するスキップ位置情報を決定する。また、ライブビュー拡大表示における表示倍率を示す制御情報に基づいて表示領域400を特定する表示領域情報を決定する。   The header generation unit 102d generates each piece of information such as the skip position information shown in FIG. 4 that is added to the pixel data for one line as header information based on the control information notified from the control unit 106. The control information notified from the control unit 106 includes, for example, control information related to the reading area and control information related to the display area. The control information related to the read area may be, for example, read area control information for an electronic image stabilization function. The control information related to the display area may include control information related to display magnification in live view enlarged display, for example. For example, the header generation unit 102d determines skip position information for specifying the reading area 300 based on the control information regarding the reading area for the electronic image stabilization function. Further, display area information for specifying the display area 400 is determined based on control information indicating a display magnification in live view enlarged display.

パケット生成部102eは、ヘッダ生成部102dで生成されたヘッダ情報を1ライン分の画素データに付加したパケットを生成する。出力部102fは、パケット生成部102eにより生成されたパケットを信号処理部103に出力する。   The packet generation unit 102e generates a packet in which the header information generated by the header generation unit 102d is added to pixel data for one line. The output unit 102f outputs the packet generated by the packet generation unit 102e to the signal processing unit 103.

(4 信号処理部103の機能構成とパケットの処理)
次に、上述した伝送方法により画像データを受信するとともに信号処理を施すための、信号処理部103の機能構成例とパケットの処理について図6(a)を参照して説明する。
(4 Functional configuration of packet processing unit 103 and packet processing)
Next, a functional configuration example of the signal processing unit 103 and packet processing for receiving image data and performing signal processing by the transmission method described above will be described with reference to FIG.

入力部103aは、上述した伝送方式により伝送される1ライン分の画素データを含むパケットを受信する。ヘッダ抽出部103bは、入力部103aで受信したパケットからヘッダ情報を抽出して解析し、後の処理に必要なヘッダ情報および画素データを出力する。   The input unit 103a receives a packet including pixel data for one line transmitted by the transmission method described above. The header extraction unit 103b extracts and analyzes header information from the packet received by the input unit 103a, and outputs header information and pixel data necessary for subsequent processing.

読み出し領域抽出部103cは、ヘッダ情報のスキップ位置情報に基づいて読み出し領域の画素データを抽出する。また、読み出し領域抽出部103cは、抽出した画素データから読み出し領域に対応する画像データを生成して、表示領域抽出部103dおよび記録補正部103fに出力する。   The readout area extraction unit 103c extracts pixel data of the readout area based on the skip position information of the header information. Further, the readout area extraction unit 103c generates image data corresponding to the readout area from the extracted pixel data, and outputs the image data to the display area extraction unit 103d and the recording correction unit 103f.

表示領域抽出部103dは、読み出し領域抽出部103cにおいて抽出された読み出し領域のうち、ヘッダ情報302の表示領域情報に基づいて表示領域400を抽出する。このように、読み出し領域および表示領域を特定する情報を付加した画像データを撮像センサ102から送信することにより、信号処理部103において表示領域400を求める演算が不要となる。また、制御部106においては、読み出し領域300あるいは表示領域400を制御するための制御情報を信号処理部103に通知する必要が無くなる。従って、信号処理部103では、例えば制御部106による表示領域400に対する制御が不要となり制御が単純化される。   The display area extraction unit 103d extracts the display area 400 based on the display area information of the header information 302 out of the read areas extracted by the read area extraction unit 103c. As described above, by transmitting the image data to which the information for specifying the reading area and the display area is added from the imaging sensor 102, the signal processing unit 103 does not need to calculate the display area 400. Further, the control unit 106 does not need to notify the signal processing unit 103 of control information for controlling the reading area 300 or the display area 400. Therefore, in the signal processing unit 103, for example, the control on the display area 400 by the control unit 106 is unnecessary, and the control is simplified.

表示補正部103eは、表示領域抽出部103dにおいて抽出された表示領域の画素データに対して、例えば表示部105の表示特性に対応した補正処理を行って補正後の画像データを出力する。   The display correction unit 103e performs correction processing corresponding to the display characteristics of the display unit 105, for example, on the pixel data of the display region extracted by the display region extraction unit 103d, and outputs corrected image data.

記録補正部103fでは、読み出し領域抽出部103cにおいて抽出された読み出し領域データに対して、例えば、記録に適した補正処理を行って補正後の画像データを出力する。   The recording correction unit 103f performs correction processing suitable for recording on the read area data extracted by the read area extraction unit 103c, and outputs corrected image data.

このようにヘッダ情報に読み出し領域および表示領域を特定する情報を付加することにより、信号処理部103は、表示用の画像と記録用の画像とを容易に抽出可能になり、さらに記録用および表示用の個別の補正処理を容易に適用することが可能になる。   As described above, by adding the information for specifying the reading area and the display area to the header information, the signal processing unit 103 can easily extract the display image and the recording image, and further the recording and display. Therefore, it is possible to easily apply the individual correction process.

(画像データの伝送および表示処理に係る一連の動作)
次に、図7を参照して、画像データの伝送および表示処理に係る一連の動作を説明する。なお、デジタルカメラ100がライブビュー表示を行っている状態で、例えば不図示の操作部に対するユーザ操作が検出された場合に本処理が開始される。
(A series of operations related to image data transmission and display processing)
Next, a series of operations related to image data transmission and display processing will be described with reference to FIG. Note that, in the state where the digital camera 100 is performing live view display, for example, when a user operation on an operation unit (not shown) is detected, this processing is started.

S701において、制御部106は、ユーザ操作が表示部105に表示する表示領域を変更する指示であるかを判定する。制御部106は、操作部から通知された操作情報に基づいてユーザ操作が表示領域を変更する操作であるかを判定し、表示領域を変更する場合はS702に処理を進め、表示領域を変更しない場合はS703に処理を進める。   In step S <b> 701, the control unit 106 determines whether the user operation is an instruction to change the display area displayed on the display unit 105. The control unit 106 determines whether the user operation is an operation for changing the display area based on the operation information notified from the operation unit. When the display area is changed, the process proceeds to S702 and the display area is not changed. In the case, the process proceeds to S703.

S702において、制御部106は、表示領域を変更するための制御情報を撮像センサ102に通知する。表示領域を変更するための制御情報は、例えばライブビュー拡大表示における表示倍率に関する制御情報であり、例えばユーザ操作の指示に対応した表示倍率に更新する。そして、制御部106は、当該制御情報を撮像センサ102に通知する。なお、制御部106は、電子防振機能等のための読み出し領域300の変更を別途判定し、当該変更のための通知を撮像センサ102に別途通知している。   In step S <b> 702, the control unit 106 notifies the imaging sensor 102 of control information for changing the display area. The control information for changing the display area is, for example, control information related to the display magnification in live view enlarged display, and is updated to a display magnification corresponding to an instruction of a user operation, for example. Then, the control unit 106 notifies the image sensor 102 of the control information. Note that the control unit 106 separately determines a change in the readout area 300 for the electronic image stabilization function and the like, and separately notifies the imaging sensor 102 of the notification for the change.

S703において、撮像センサ102は、制御部106の指示に基づいて、撮像処理を行う。撮像センサ102は適切な時間間隔で被写体からの光を露光して画像データを生成する。   In step S <b> 703, the imaging sensor 102 performs imaging processing based on an instruction from the control unit 106. The image sensor 102 exposes light from the subject at appropriate time intervals to generate image data.

S704において、撮像センサ102は、読み出し領域300に対して表示領域400が変化したかを判定する。より具体的には、撮像センサ102のヘッダ生成部102dは、制御部106から取得した表示領域を変更するための制御情報に基づいて、表示領域400を特定する。ヘッダ生成部102dは、制御部106から別途通知された読み出し領域の制御情報に基づいて読み出し領域300も決定しているため、読み出し領域300に応じた表示領域400を特定することができる。ヘッダ生成部102dは、読み出し領域300と表示領域400のいずれかが変化している場合、読み出し領域300に対する表示領域400が変化していると判定し、S705に処理を進める。一方、当該領域が変化していないと判定した場合、S706に処理を進める。   In step S <b> 704, the imaging sensor 102 determines whether the display area 400 has changed with respect to the readout area 300. More specifically, the header generation unit 102d of the imaging sensor 102 specifies the display region 400 based on the control information for changing the display region acquired from the control unit 106. Since the header generation unit 102d also determines the readout area 300 based on the readout area control information separately notified from the control unit 106, the header generation unit 102d can specify the display area 400 corresponding to the readout area 300. If either the reading area 300 or the display area 400 has changed, the header generation unit 102d determines that the display area 400 for the reading area 300 has changed, and advances the process to S705. On the other hand, if it is determined that the area has not changed, the process proceeds to S706.

S705において、撮像センサ102は、ヘッダ情報302に格納するスキップ位置情報あるいは表示領域情報を更新する。   In step S <b> 705, the imaging sensor 102 updates skip position information or display area information stored in the header information 302.

S706において、撮像センサ102は、ヘッダ情報302および当該ヘッダ情報を含むパケットを生成する。ヘッダ生成部102dは、スキップ位置情報あるいは表示領域情報を格納したヘッダ情報302を生成する。また、ヘッダ生成部102dは、ライブビュー拡大表示等が行われないことにより、表示領域400と読み出し領域300が同一の場合には、表示領域情報が読み出し領域300と同一となる表示領域情報を格納したヘッダ情報302を生成する。その後、パケット生成部102eは、当該ヘッダ情報を含むパケットを生成する。   In step S706, the imaging sensor 102 generates header information 302 and a packet including the header information. The header generation unit 102d generates header information 302 that stores skip position information or display area information. The header generation unit 102d stores display area information in which the display area information is the same as the read area 300 when the display area 400 and the read area 300 are the same because live view enlargement display or the like is not performed. Header information 302 is generated. Thereafter, the packet generation unit 102e generates a packet including the header information.

S707において、撮像センサ102は、生成したパケットを信号処理部103に送信する。撮像センサ102は、所定のタイミングごとに例えば1ライン分のパケットの送信を1フレーム分の画像が送信されるまで繰り返す。   In step S <b> 707, the imaging sensor 102 transmits the generated packet to the signal processing unit 103. The imaging sensor 102 repeats transmission of, for example, one line of packets at predetermined timing until an image of one frame is transmitted.

S708において、信号処理部103は、撮像センサ102が送信したパケットを順次受信し、S709において、信号処理部103は、受信した各パケットから読み出し領域300の画素データを抽出する。より具体的には、信号処理部103の読み出し領域抽出部103cは、ヘッダ情報のスキップ位置情報に基づいて読み出し領域300の画素データを抽出する。   In S708, the signal processing unit 103 sequentially receives the packets transmitted by the imaging sensor 102. In S709, the signal processing unit 103 extracts the pixel data of the readout region 300 from each received packet. More specifically, the readout region extraction unit 103c of the signal processing unit 103 extracts the pixel data of the readout region 300 based on the skip position information of the header information.

S710において、信号処理部103の表示領域抽出部103dは、読み出し領域300からヘッダ情報で特定される表示領域400の画素データを抽出する。   In S710, the display area extraction unit 103d of the signal processing unit 103 extracts the pixel data of the display area 400 specified by the header information from the readout area 300.

S711において、信号処理部103の表示補正部103eは、抽出された表示領域の画素データから表示画像を生成して補正処理を行う。具体的には、抽出した画素データを基に表示画像の画素数に適合させるための補間処理や、表示画像に対する補正処理を行なう。   In step S711, the display correction unit 103e of the signal processing unit 103 generates a display image from the extracted pixel data of the display area and performs correction processing. Specifically, an interpolation process for adapting to the number of pixels of the display image and a correction process for the display image are performed based on the extracted pixel data.

S712において、信号処理部103の表示補正部103eは、表示のための補正処理を完了すると、表示画像を表示部105に出力する。そして、制御部106は、信号処理部103が表示画像を出力すると、一連の処理を終了する。   In step S <b> 712, when the display correction unit 103 e of the signal processing unit 103 completes the correction process for display, the display correction unit 103 e outputs a display image to the display unit 105. Then, when the signal processing unit 103 outputs the display image, the control unit 106 ends the series of processes.

なお、上述の一連の処理では、伝送された画像データを表示する処理について説明したが、伝送された画像データを記録する処理についても適用できる。即ち、S707において抽出された読み出し領域の画素データに対して、記録補正部103fが記録用の補正処理を行い、記録媒体104に出力すればよい。   In the series of processes described above, the process of displaying the transmitted image data has been described. However, the process can also be applied to the process of recording the transmitted image data. That is, the recording correction unit 103f may perform a correction process for recording on the pixel data in the readout area extracted in S707 and output it to the recording medium 104.

以上説明したように本実施形態では、撮影している画像データの表示領域400を変更する場合に、撮像センサ102は読み出し領域および表示領域を示す情報を画素データのヘッダ情報に格納して伝送するようにした。そして、信号処理部103は、受信した画素データのヘッダ情報に基づいて読み出し領域および表示領域を抽出するようにした。このようにすることで、撮影している画像データの一部の領域に対する処理を行う場合に、撮像センサから伝送された画像データに対する処理負担を軽減することが可能になる。即ち、信号処理部103において表示領域400を求める演算が不要となる。また、制御部106が表示領域を変更するための制御情報を撮像センサ102に通知するようにした。このようにすることで、制御部106による信号処理部103に対する制御が不要となり表示領域の制御を単純化することが可能になる。さらに、ヘッダ情報を参照して抽出した読み出し領域300と表示領域400に対して、別個の補正処理を適用するようにした。このことにより、ヘッダ情報を参照するだけで容易に異なる補正処理を適用できる。換言すれば、ヘッダ情報の示す領域に応じて補正パラメータを切り替えることができる。   As described above, in this embodiment, when changing the display area 400 of the image data being shot, the imaging sensor 102 stores information indicating the readout area and the display area in the header information of the pixel data and transmits the information. I did it. Then, the signal processing unit 103 extracts the reading area and the display area based on the header information of the received pixel data. By doing so, it is possible to reduce the processing load on the image data transmitted from the image sensor when processing is performed on a part of the image data being captured. That is, the calculation for obtaining the display area 400 in the signal processing unit 103 becomes unnecessary. In addition, the control unit 106 notifies the imaging sensor 102 of control information for changing the display area. In this way, control of the signal processing unit 103 by the control unit 106 becomes unnecessary, and it becomes possible to simplify the display area control. Further, separate correction processing is applied to the read area 300 and the display area 400 extracted with reference to the header information. This makes it possible to easily apply different correction processes simply by referring to the header information. In other words, the correction parameter can be switched according to the area indicated by the header information.

(実施形態2)
次に実施形態2について説明する。実施形態2に係るデジタルカメラ100は、信号処理部103内部の構成が実施形態1と異なる。即ち、実施形態1の補正部は、図6(a)で示した記録媒体104および表示部105のそれぞれに対応する補正部を備えるが、実施形態2では、図6(b)に示すように単一の補正部103gのみを備える。実施形態2に係るデジタルカメラは、補正部以外の構成は同一であるため、同一の構成については同一の符号を付して重複する説明は省略し、相違点について重点的に説明する。
(Embodiment 2)
Next, Embodiment 2 will be described. The digital camera 100 according to the second embodiment is different from the first embodiment in the configuration inside the signal processing unit 103. That is, the correction unit of the first embodiment includes correction units corresponding to the recording medium 104 and the display unit 105 shown in FIG. 6A, but in the second embodiment, as shown in FIG. Only a single correction unit 103g is provided. Since the configuration of the digital camera according to the second embodiment is the same except for the correction unit, the same components are denoted by the same reference numerals and redundant description is omitted, and differences will be mainly described.

図6(b)は、実施形態2に係る信号処理部103の機能構成を示すブロック図である。表示用の画像データと記録用の画像データに対して画像処理を切り替える必要がない場合、補正部103gで同一の画像処理が行われる。この場合、読み出し領域と表示領域が異なる場合においても、単一の補正部において、時分割で画像処理を行う構成としてもよい。このようにすることで、実施形態1と同様、撮影している画像データの一部の領域に対する処理を行う場合に、撮像センサから伝送された画像データに対する処理負担を軽減することが可能である。さらに、補正部を共通化し回路規模を削減することができる。   FIG. 6B is a block diagram illustrating a functional configuration of the signal processing unit 103 according to the second embodiment. When it is not necessary to switch the image processing between the display image data and the recording image data, the same image processing is performed by the correction unit 103g. In this case, even when the reading area and the display area are different, a single correction unit may perform image processing in a time division manner. In this way, as in the first embodiment, when processing is performed on a part of the image data being captured, it is possible to reduce the processing burden on the image data transmitted from the imaging sensor. . Furthermore, the correction unit can be shared and the circuit scale can be reduced.

(実施形態3)
次に実施形態3について説明する。実施形態3に係るデジタルカメラ500は、基本的な構成は、実施形態1と同様であるが、AFE(Analog Front End)501を備える点が実施形態1と異なる。
(Embodiment 3)
Next, Embodiment 3 will be described. The digital camera 500 according to the third embodiment has the same basic configuration as that of the first embodiment, but is different from the first embodiment in that the digital camera 500 includes an AFE (Analog Front End) 501.

図8は、デジタルカメラ500の全体構成を示した図であり、図9は、図8における撮像センサ502とAFE501の機能構成例を示すブロック図である。撮像センサ502は、撮像部502aのみを有し、この機能ブロックは実施形態1における撮像センサ102の撮像部102aに対応する。撮像センサ502は、光電変換した画素単位のアナログ信号を出力する。   FIG. 8 is a diagram illustrating an overall configuration of the digital camera 500, and FIG. 9 is a block diagram illustrating an example of functional configurations of the imaging sensor 502 and the AFE 501 in FIG. The imaging sensor 502 includes only the imaging unit 502a, and this functional block corresponds to the imaging unit 102a of the imaging sensor 102 in the first embodiment. The imaging sensor 502 outputs an analog signal in pixel units that has been subjected to photoelectric conversion.

AFE501は、A/D変換部501a、画像データ生成部501b、ヘッダ生成部501c、パケット生成部501d,出力部501eを備える。符号501a〜501eの各構成は、実施形態1において説明した符号102b〜102fの各構成とそれぞれ対応する。AFE501は、制御部106により制御され、撮像センサ502から受けた画素単位のアナログ信号をデジタル信号に変換する。そして、実施形態1における符号102b〜102fの各構成で行われる処理と同一の処理を行って、画像データを信号処理部103へ送信する。本実施形態によれば、実施形態1と同様、撮影している画像データの一部の領域に対する処理を行う場合に、撮像センサから伝送された画像データに対する処理負担を軽減することが可能である。さらに、A/D変換処理およびヘッダ生成処理を撮像センサ以外で行うことで、アナログ信号を出力する撮像センサを用いることができる。また、撮像センサの外部に画像データの伝送処理用の機能ブロックを備えることで、簡易な撮像センサに対して本発明の伝送処理および表示制御を適用することが可能になる。   The AFE 501 includes an A / D conversion unit 501a, an image data generation unit 501b, a header generation unit 501c, a packet generation unit 501d, and an output unit 501e. Each configuration of reference numerals 501a to 501e corresponds to each configuration of reference numerals 102b to 102f described in the first embodiment. The AFE 501 is controlled by the control unit 106 and converts an analog signal in pixel units received from the image sensor 502 into a digital signal. Then, the same processing as that performed in each configuration of the reference numerals 102 b to 102 f in the first embodiment is performed, and the image data is transmitted to the signal processing unit 103. According to the present embodiment, as in the first embodiment, when processing is performed on a part of the image data being captured, it is possible to reduce the processing burden on the image data transmitted from the imaging sensor. . Furthermore, an image sensor that outputs an analog signal can be used by performing A / D conversion processing and header generation processing other than the image sensor. Further, by providing a functional block for image data transmission processing outside the imaging sensor, it is possible to apply the transmission processing and display control of the present invention to a simple imaging sensor.

(実施形態4)
次に実施形態4について説明する。実施形態4に係るデジタルカメラ600は、基本的な構成は、実施形態1と同様であるが、DFE(Digital Front End)601を備える点が異なる。
(Embodiment 4)
Next, a fourth embodiment will be described. The digital camera 600 according to the fourth embodiment has the same basic configuration as that of the first embodiment, except that a digital front end (DFE) 601 is provided.

図10は、デジタルカメラ600の機能構成例を示している。撮像センサ102から伝送されたパケットはDFE601を用いて処理されたうえで信号処理部602による補正処理が行われる。DFE601の機能構成例を図11に示している。DFE601は、実施形態1で説明した信号処理部103の符号103a〜103dの各構成に対応する、入力部601a、ヘッダ抽出部601b、読み出し領域抽出部601c、表示領域抽出部601dを備える。表示領域抽出部601dで抽出された表示領域データは、まず第1補正部601eで表示特性に応じた階調補正等の補正処理が行われる。その後、DFE601から出力され、信号処理部602の第2補正部103hで、例えば表示画素数に合わせる拡大処理に伴う画像処理が行われる。また、読み出し領域抽出部601cで抽出された読み出し領域データは、まず第3補正部601fで記録特性に応じた階調補正等の画像処理が行われる。その後、DFE601から出力され、信号処理部602の第4補正部103iで、例えば記録媒体104の要件に合わせた所定の画像処理が行われる。なお、DFE601で行う処理の一部をDSPで行う構成としてもよい。   FIG. 10 shows a functional configuration example of the digital camera 600. The packet transmitted from the imaging sensor 102 is processed using the DFE 601 and then subjected to correction processing by the signal processing unit 602. An example of the functional configuration of the DFE 601 is shown in FIG. The DFE 601 includes an input unit 601a, a header extraction unit 601b, a readout region extraction unit 601c, and a display region extraction unit 601d corresponding to the components 103a to 103d of the signal processing unit 103 described in the first embodiment. The display area data extracted by the display area extraction unit 601d is first subjected to correction processing such as gradation correction according to display characteristics by the first correction unit 601e. After that, the image is output from the DFE 601 and is subjected to image processing accompanying enlargement processing that matches the number of display pixels, for example, in the second correction unit 103h of the signal processing unit 602. The read area data extracted by the read area extraction unit 601c is first subjected to image processing such as gradation correction according to recording characteristics by the third correction unit 601f. Thereafter, the image is output from the DFE 601 and is subjected to predetermined image processing in accordance with, for example, the requirements of the recording medium 104 by the fourth correction unit 103 i of the signal processing unit 602. A part of the processing performed by the DFE 601 may be performed by the DSP.

本実施形態によれば、実施形態1と同様、撮影している画像データの一部の領域に対する処理を行う場合に、撮像センサから伝送された画像データに対する処理負担を軽減することが可能である。さらに、複数の画像処理を組み合わせ可能な構成にすることで、画像データに対する複数の画像処理を補正内容やデータパスに応じて切り替えることが可能となり、画像処理の効率を向上できる。   According to the present embodiment, as in the first embodiment, when processing is performed on a part of the image data being captured, it is possible to reduce the processing burden on the image data transmitted from the imaging sensor. . Furthermore, by adopting a configuration in which a plurality of image processes can be combined, a plurality of image processes for image data can be switched according to correction contents and data paths, and the efficiency of the image processing can be improved.

(その他の実施形態)
また、本発明は、以下に示す他の実施形態に対しても適用可能である。例えば、図12に示す積層型の撮像センサ1200に対して本発明を適用できる。図12に示す様に、本実施形態の撮像センサ1200は、第1の半導体チップ1201と第2の半導体チップ1202がチップレベルで互いに積層されている。図12(a)は斜投影図、図12(b)は各チップの上面図を示している。第1の半導体チップ1201には、例えば実施形態1における撮像部102aの画素領域200に対応する画素部1203を含む領域が含まれ、高速ロジックプロセス用の第2の半導体チップ1202には、例えば実施形態1におけるA/D変換部102bに対応する列A/D変換回路や水平走査回路などデジタルデータを含む高速処理が可能な部分1204および1205が含まれる。上述の図1の構成において、例えば、撮像センサ102に含まれる撮像部102aが第1の半導体チップ1201に対応する。また、撮像センサ102に含まれるA/D変換部102b、画像データ生成部102c、ヘッダ生成部102d、パケット生成部102e、出力部102fの各機能ブロックが第2の半導体チップ1202に配置されるように構成すれば良い。なお、第1の半導体チップ1201と第2の半導体チップへの各機能ブロックの配置は、上記した構成に限定されるものではない。また、積層される半導体チップも2つに限らず、3つ以上の半導体チップを積層する構成でもかまわない。
(Other embodiments)
The present invention can also be applied to other embodiments described below. For example, the present invention can be applied to a multilayer imaging sensor 1200 shown in FIG. As shown in FIG. 12, in the imaging sensor 1200 of this embodiment, a first semiconductor chip 1201 and a second semiconductor chip 1202 are stacked on a chip level. 12A shows an oblique projection, and FIG. 12B shows a top view of each chip. The first semiconductor chip 1201 includes, for example, a region including a pixel unit 1203 corresponding to the pixel region 200 of the imaging unit 102a in the first embodiment, and the second semiconductor chip 1202 for the high-speed logic process includes, for example, implementation. Portions 1204 and 1205 capable of high-speed processing including digital data such as a column A / D conversion circuit and a horizontal scanning circuit corresponding to the A / D conversion unit 102b in the first mode are included. In the configuration of FIG. 1 described above, for example, the imaging unit 102 a included in the imaging sensor 102 corresponds to the first semiconductor chip 1201. Also, the functional blocks of the A / D conversion unit 102b, the image data generation unit 102c, the header generation unit 102d, the packet generation unit 102e, and the output unit 102f included in the imaging sensor 102 are arranged on the second semiconductor chip 1202. What is necessary is just to comprise. The arrangement of the functional blocks on the first semiconductor chip 1201 and the second semiconductor chip is not limited to the above-described configuration. Further, the number of stacked semiconductor chips is not limited to two, and a configuration in which three or more semiconductor chips are stacked may be used.

さらに、本発明は、撮像装置の一例としての図13に示す携帯電話機1300にも適用可能である。図13は、携帯電話機1300の機能構成を示すブロック図である。携帯電話機1300は、音声通話機能の他、電子メール機能や、インターネット接続機能、画像の撮影、再生機能等を有する。通信部1010は、ユーザが契約した通信キャリアに従う通信方式により他の電話機との間で音声データや画像データを通信する。音声処理部1020は、音声通話時において、マイクロフォン1030からの音声データを発信に適した形式に変換して通信部1010に送る。また、音声処理部1020は、通信部1010から送られた通話相手からの音声データを復号し、スピーカ1040に送る。撮像部1050は、被写体の画像を撮影し、画素データを出力する。撮像部1050は例えば実施形態1において上述した撮像センサ102を含む。ここで、撮像センサ102は、上述した積層型の撮像センサであっても良い。また、撮像部1050は上述したパケットを生成して画像処理部1060に送信する。画像処理部1060は、実施形態1で上述した信号処理部103を含み、画像の撮影時においては、撮像部1050から送信された画素データを処理し、表示および記録に適した画像をそれぞれ表示部1070およびメモリIF1110に出力する。また、画像処理部1060は、記録された画像の再生時には、再生された画像を処理して表示部1070に送る。表示部1070は、数インチ程度の液晶表示パネルを備え、制御部1090からの指示に応じて各種の画面を表示する。不揮発メモリ1080は、アドレス帳の情報や、電子メールのデータ、撮像部1050により撮影された画像データ等のデータを記憶する。   Furthermore, the present invention can also be applied to a mobile phone 1300 shown in FIG. 13 as an example of an imaging apparatus. FIG. 13 is a block diagram showing a functional configuration of the mobile phone 1300. The mobile phone 1300 has an electronic mail function, an Internet connection function, an image shooting / playback function, and the like in addition to a voice call function. The communication unit 1010 communicates audio data and image data with other telephones by a communication method according to a communication carrier contracted by the user. The voice processing unit 1020 converts voice data from the microphone 1030 into a format suitable for outgoing call and sends it to the communication unit 1010 during a voice call. Also, the voice processing unit 1020 decodes the voice data from the communication partner sent from the communication unit 1010 and sends it to the speaker 1040. The imaging unit 1050 captures an image of a subject and outputs pixel data. The imaging unit 1050 includes, for example, the imaging sensor 102 described above in the first embodiment. Here, the imaging sensor 102 may be the above-described stacked imaging sensor. Further, the imaging unit 1050 generates the above-described packet and transmits the packet to the image processing unit 1060. The image processing unit 1060 includes the signal processing unit 103 described above in the first embodiment, and processes the pixel data transmitted from the imaging unit 1050 at the time of capturing an image, and displays an image suitable for display and recording, respectively. 1070 and the memory IF 1110. In addition, when the recorded image is reproduced, the image processing unit 1060 processes the reproduced image and sends the processed image to the display unit 1070. The display unit 1070 includes a liquid crystal display panel of about several inches, and displays various screens according to instructions from the control unit 1090. The nonvolatile memory 1080 stores data such as address book information, e-mail data, and image data captured by the imaging unit 1050.

制御部1090はCPUやメモリ等を有し、不図示のメモリに記憶された制御プログラムに従って携帯電話機1300の各部を制御する。制御部1090は、各実施形態において上述した制御部106を含み、撮像部1050および画像処理部1060を制御する。操作部1100は、電源ボタンや番号キー、その他ユーザがデータを入力するための各種の操作キーを備え、例えばライブビュー表示の操作も行うことができる。メモリIF1110は、メモリカードなどの記録媒体1120に対して各種のデータを記録再生する。外部IF1130は、不揮発メモリ1080や記録媒体1120に記憶されたデータを外部機器に送信し、また、外部機器から送信されたデータを受信する。外部IF1130は、USB等の有線の通信方式や、無線通信など、公知の通信方式により通信を行う。   The control unit 1090 includes a CPU, a memory, and the like, and controls each unit of the mobile phone 1300 according to a control program stored in a memory (not shown). The control unit 1090 includes the control unit 106 described above in each embodiment, and controls the imaging unit 1050 and the image processing unit 1060. The operation unit 1100 includes a power button, number keys, and other various operation keys for a user to input data. For example, a live view display operation can be performed. The memory IF 1110 records and reproduces various data on a recording medium 1120 such as a memory card. The external IF 1130 transmits data stored in the nonvolatile memory 1080 and the recording medium 1120 to the external device, and receives data transmitted from the external device. The external IF 1130 performs communication by a known communication method such as a wired communication method such as USB or wireless communication.

次に、携帯電話機1300における音声通話機能を説明する。通話相手に対して電話をかける場合、ユーザが操作部1100の番号キーを操作して通話相手の番号を入力するか、不揮発メモリ1080に記憶されたアドレス帳を表示部1070に表示し、通話相手を選択し、発信を指示する。発信が指示されると、制御部1090は通信部1010に対し、通話相手に発信する。通話相手に着信すると、通信部1010は音声処理部1020に対して相手の音声データを出力すると共に、ユーザの音声データを相手に送信する。   Next, a voice call function in the mobile phone 1300 will be described. When making a call to the other party, the user operates the number key of the operation unit 1100 to input the number of the other party, or the address book stored in the nonvolatile memory 1080 is displayed on the display unit 1070, Select and instruct to make a call. When transmission is instructed, control unit 1090 transmits to communication party 1010 to communication unit 1010. When an incoming call is received, the communication unit 1010 outputs the other party's voice data to the voice processing unit 1020 and transmits the user's voice data to the other party.

また、電子メールを送信する場合、ユーザは、操作部1100を用いて、メール作成を指示する。メール作成が指示されると、制御部1090はメール作成用の画面を表示部1070に表示する。ユーザは操作部1100を用いて送信先アドレスや本文を入力し、送信を指示する。制御部1090はメール送信が指示されると、通信部1010に対しアドレスの情報とメール本文のデータを送る。通信部1010は、メールのデータを通信に適した形式に変換し、送信先に送る。また、通信部1010は、電子メールを受信すると、受信したメールのデータを表示に適した形式に変換し、表示部1070に表示する。   When transmitting an e-mail, the user uses the operation unit 1100 to instruct mail creation. When mail creation is instructed, control unit 1090 displays a screen for creating mail on display unit 1070. The user inputs a transmission destination address and text using the operation unit 1100 and instructs transmission. When the mail transmission is instructed, control unit 1090 sends address information and mail body data to communication unit 1010. The communication unit 1010 converts mail data into a format suitable for communication and sends it to a transmission destination. In addition, when receiving the electronic mail, the communication unit 1010 converts the received mail data into a format suitable for display and displays the data on the display unit 1070.

次に、携帯電話機1300における撮影機能について説明する。ユーザが操作部1100を操作して撮影モードを設定した後、静止画或いは動画の撮影を指示すると、撮像部1050は静止画データ或いは動画データを撮影して画像処理部1060に送る。画像処理部1060は撮影された静止画データや動画データを処理し、不揮発メモリ1080に記憶する。また、画像処理部1060は、撮影された静止画データや動画データをメモリIF1110に送る。メモリIF1110は静止画や動画データを記録媒体1120に記憶する。   Next, a photographing function in the mobile phone 1300 will be described. When the user operates the operation unit 1100 to set the shooting mode and then instructs to shoot a still image or a moving image, the imaging unit 1050 shoots the still image data or the moving image data and sends it to the image processing unit 1060. The image processing unit 1060 processes captured still image data and moving image data and stores them in the nonvolatile memory 1080. Further, the image processing unit 1060 sends the captured still image data and moving image data to the memory IF 1110. The memory IF 1110 stores still images and moving image data in the recording medium 1120.

また、携帯電話機1300は、この様に撮影された静止画や動画データを含むファイルを、電子メールの添付ファイルとして送信することができる。具体的には、電子メールを送信する際に、不揮発メモリ1080や記録媒体1120に記憶された画像ファイルを選択し、添付ファイルとして送信を指示する。   In addition, the mobile phone 1300 can transmit a file including still images and moving image data shot in this way as an attached file of an e-mail. Specifically, when an e-mail is transmitted, an image file stored in the nonvolatile memory 1080 or the recording medium 1120 is selected, and transmission is instructed as an attached file.

また、携帯電話機1300は、撮影された静止画や動画データを含むファイルを、外部IF1130によりPCや他の電話機等の外部機器に送信することもできる。ユーザは、操作部1100を操作して、不揮発メモリ1080や記録媒体1120に記憶された画像ファイルを選択し、送信を指示する。制御部1090は、選択された画像ファイルを不揮発メモリ1080或いは記録媒体1120から読み出し、外部機器に送信するよう、外部IF1130を制御する。   In addition, the mobile phone 1300 can transmit a file including a captured still image or moving image data to an external device such as a PC or another telephone using the external IF 1130. The user operates the operation unit 1100 to select an image file stored in the nonvolatile memory 1080 or the recording medium 1120 and instruct transmission. The control unit 1090 controls the external IF 1130 to read the selected image file from the nonvolatile memory 1080 or the recording medium 1120 and transmit it to the external device.

また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。   The present invention can also be realized by executing the following processing. That is, software (program) that realizes the functions of the above-described embodiments is supplied to a system or apparatus via a network or various storage media, and a computer (or CPU, MPU, or the like) of the system or apparatus reads the program. It is a process to be executed.

102…撮像センサ、103…信号処理部、104…記録媒体、105…表示部、106…制御部 DESCRIPTION OF SYMBOLS 102 ... Imaging sensor, 103 ... Signal processing part, 104 ... Recording medium, 105 ... Display part, 106 ... Control part

Claims (15)

被写体の画像データを生成する撮像手段と、
前記画像データの第1の画素領域を特定する第1の領域情報と、前記第1の画素領域に含まれる第2の画素領域を特定する第2の領域情報とを含む付加情報を、前記画像データに付加する付加手段と、
前記付加情報が付加された画像データを伝送する伝送手段と、
前記伝送手段を介して受信した前記画像データから、前記画像データを受信して得られる前記付加情報によって特定される前記第1の画素領域と前記第2の画素領域を抽出して、所定の画像処理を行う画像処理手段と、を有することを特徴とする撮像装置。
Imaging means for generating image data of a subject;
The additional information including the first area information specifying the first pixel area of the image data and the second area information specifying the second pixel area included in the first pixel area is the image information. Additional means for adding to the data;
Transmission means for transmitting the image data to which the additional information is added;
The first pixel area and the second pixel area specified by the additional information obtained by receiving the image data are extracted from the image data received via the transmission means, and a predetermined image is obtained. And an image processing means for performing processing.
前記画像処理手段は、前記抽出した前記第1の画素領域と前記第2の画素領域に対して補正処理を行う補正手段をさらに有し、
前記補正手段は、前記第1の画素領域と前記第2の画素領域に対して異なる補正処理を適用することを特徴とする請求項1に記載の撮像装置。
The image processing means further includes correction means for performing correction processing on the extracted first pixel area and the second pixel area,
The imaging apparatus according to claim 1, wherein the correction unit applies different correction processing to the first pixel region and the second pixel region.
前記付加手段は、前記第1の画素領域および前記第2の画素領域を求めるための制御情報を取得し、
前記取得した制御情報に基づいて、前記第1の領域情報と前記第2の領域情報を付加することを特徴とする請求項1または2に記載の撮像装置。
The adding means acquires control information for obtaining the first pixel region and the second pixel region,
The imaging apparatus according to claim 1, wherein the first area information and the second area information are added based on the acquired control information.
前記第1の画素領域と前記第2の画素領域の少なくともいずれかに対して領域を変更する指示を入力する入力手段をさらに有し、
前記付加手段は、前記領域を変更する指示に基づく制御情報を取得し、該制御情報に基づいて、前記第1の領域情報または前記第2の領域情報を付加することを特徴とする請求項3に記載の撮像装置。
An input unit for inputting an instruction to change the region to at least one of the first pixel region and the second pixel region;
4. The adding means acquires control information based on an instruction to change the area, and adds the first area information or the second area information based on the control information. The imaging device described in 1.
前記入力手段は、前記第2の画素領域に対する前記領域を変更する指示となるユーザ操作を入力し、
前記付加手段は、前記ユーザ操作に基づく制御情報を取得し、該制御情報に基づいて前記第2の領域情報を付加することを特徴とする請求項4に記載の撮像装置。
The input means inputs a user operation serving as an instruction to change the region with respect to the second pixel region;
The imaging apparatus according to claim 4, wherein the adding unit acquires control information based on the user operation and adds the second region information based on the control information.
前記補正手段は、前記第1の画素領域に対して記録手段に対応する補正処理を行うとともに、前記第2の画素領域に対して表示手段に対応する補正処理を行い、
前記画像処理手段は、前記第1の画素領域を前記記録手段に対して出力し、前記第2の画素領域を前記表示手段に対して出力する出力手段をさらに有する、ことを特徴とする請求項2に記載の撮像装置。
The correction unit performs a correction process corresponding to the recording unit on the first pixel area, and performs a correction process corresponding to the display unit on the second pixel area,
The image processing means further comprises output means for outputting the first pixel area to the recording means and outputting the second pixel area to the display means. 2. The imaging device according to 2.
前記補正手段は、前記記録手段に対応する補正処理と、前記表示手段に対応する補正処理とを単一の回路を用いて行うことを特徴とする請求項6に記載の撮像装置。   The imaging apparatus according to claim 6, wherein the correction unit performs a correction process corresponding to the recording unit and a correction process corresponding to the display unit using a single circuit. 前記第2の領域情報は、列に沿った方向の開始位置、列に沿った方向の終了位置、行に沿った方向の開始位置、行に沿った方向の終了位置の少なくともいずれかを示す情報により、前記第1の画素領域に対して特定されることを特徴とする請求項1ないし7のいずれか1項に記載の撮像装置。   The second area information is information indicating at least one of a start position in the direction along the column, an end position in the direction along the column, a start position in the direction along the row, and an end position in the direction along the row. The imaging device according to claim 1, wherein the imaging device is specified for the first pixel region. 前記ユーザ操作は、ライブビューにおける拡大表示に関する操作を含むことを特徴とする請求項5に記載の撮像装置。   The imaging apparatus according to claim 5, wherein the user operation includes an operation related to an enlarged display in a live view. 被写体の画像データを生成する撮像手段と、
前記画像データの第1の画素領域を特定する第1の領域情報と、前記第1の画素領域に含まれる第2の画素領域を特定する第2の領域情報とを含む付加情報を、前記画像データに付加する付加手段と、
前記付加情報が付加された画像データを伝送する伝送手段と、を有することを特徴とする撮像素子。
Imaging means for generating image data of a subject;
The additional information including the first area information specifying the first pixel area of the image data and the second area information specifying the second pixel area included in the first pixel area is the image information. Additional means for adding to the data;
An image sensor comprising: transmission means for transmitting image data to which the additional information is added.
前記付加手段は、前記第1の画素領域および前記第2の画素領域を求めるための制御情報を取得し、取得した制御情報に基づいて、前記第1の領域情報と前記第2の領域情報を付加する、ことを特徴とする請求項10に記載の撮像素子。   The adding means acquires control information for obtaining the first pixel area and the second pixel area, and based on the acquired control information, the first area information and the second area information are obtained. The imaging device according to claim 10, wherein the imaging device is added. 前記第2の領域情報は、列に沿った方向の開始位置、列に沿った方向の終了位置、行に沿った方向の開始位置、行に沿った方向の終了位置の少なくともいずれかを示す情報により、前記第1の画素領域に対して特定される、ことを特徴とする請求項10または11に記載の撮像素子。   The second area information is information indicating at least one of a start position in the direction along the column, an end position in the direction along the column, a start position in the direction along the row, and an end position in the direction along the row. The imaging device according to claim 10, wherein the imaging element is specified for the first pixel region. 前記撮像素子は、複数の半導体チップが互いに積層された積層型の撮像素子である、ことを特徴とする請求項10ないし12のいずれか1項に記載の撮像素子。   The image pickup device according to claim 10, wherein the image pickup device is a stacked image pickup device in which a plurality of semiconductor chips are stacked on each other. 撮像手段が、被写体の画像データを生成する撮像工程と、
付加手段が、前記画像データの第1の画素領域を特定する第1の領域情報と、前記第1の画素領域に含まれる第2の画素領域を特定する第2の領域情報とを含む付加情報を、前記画像データに付加する付加工程と、
伝送手段が、前記付加情報が付加された画像データを伝送する伝送工程と、
画像処理手段が、前記伝送手段を介して受信した前記画像データから、前記画像データを受信して得られる前記付加情報によって特定される前記第1の画素領域と前記第2の画素領域を抽出して、所定の画像処理を行う画像処理工程と、を有することを特徴とする撮像装置の制御方法。
An imaging step in which the imaging means generates image data of the subject;
The additional information includes the first area information for specifying the first pixel area of the image data and the second area information for specifying the second pixel area included in the first pixel area. Is added to the image data;
A transmission step for transmitting image data to which the additional information is added; and
An image processing means extracts the first pixel area and the second pixel area specified by the additional information obtained by receiving the image data from the image data received via the transmission means. And an image processing step for performing predetermined image processing.
コンピュータを、請求項1乃至9のいずれか1項に記載の撮像装置の各手段として機能させるためのプログラム。   The program for functioning a computer as each means of the imaging device of any one of Claims 1 thru | or 9.
JP2015126874A 2014-09-02 2015-06-24 Imaging apparatus, control method and program thereof, and imaging element Active JP6558976B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
US14/837,778 US10009544B2 (en) 2014-09-02 2015-08-27 Image capturing apparatus, control method of the same and image sensor
CN201510555819.9A CN105391936B (en) 2014-09-02 2015-09-02 Picture pick-up device and its control method and imaging sensor

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2014178507 2014-09-02
JP2014178507 2014-09-02

Publications (3)

Publication Number Publication Date
JP2016054477A true JP2016054477A (en) 2016-04-14
JP2016054477A5 JP2016054477A5 (en) 2018-08-02
JP6558976B2 JP6558976B2 (en) 2019-08-14

Family

ID=55745433

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015126874A Active JP6558976B2 (en) 2014-09-02 2015-06-24 Imaging apparatus, control method and program thereof, and imaging element

Country Status (1)

Country Link
JP (1) JP6558976B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018121160A (en) * 2017-01-24 2018-08-02 京セラ株式会社 Image processing apparatus, image pickup apparatus, and mobile body
JP2019091967A (en) * 2017-11-10 2019-06-13 ソニーセミコンダクタソリューションズ株式会社 Transmission apparatus
WO2020116213A1 (en) * 2018-12-06 2020-06-11 ソニーセミコンダクタソリューションズ株式会社 Reception device and transmission device

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018121160A (en) * 2017-01-24 2018-08-02 京セラ株式会社 Image processing apparatus, image pickup apparatus, and mobile body
JP2019091967A (en) * 2017-11-10 2019-06-13 ソニーセミコンダクタソリューションズ株式会社 Transmission apparatus
JP7007160B2 (en) 2017-11-10 2022-01-24 ソニーセミコンダクタソリューションズ株式会社 Transmitter
WO2020116213A1 (en) * 2018-12-06 2020-06-11 ソニーセミコンダクタソリューションズ株式会社 Reception device and transmission device
US11606500B2 (en) 2018-12-06 2023-03-14 Sony Semiconductor Solutions Corporation Reception apparatus and transmission apparatus
JP7414733B2 (en) 2018-12-06 2024-01-16 ソニーセミコンダクタソリューションズ株式会社 Receiving device and transmitting device
US11924546B2 (en) 2018-12-06 2024-03-05 Sony Semiconductor Solutions Corporation Reception apparatus and transmission apparatus

Also Published As

Publication number Publication date
JP6558976B2 (en) 2019-08-14

Similar Documents

Publication Publication Date Title
JP6320272B2 (en) Imaging device, imaging device, and mobile phone
US10009544B2 (en) Image capturing apparatus, control method of the same and image sensor
JP6278881B2 (en) Imaging device, imaging device, and mobile phone
JP6530658B2 (en) Imaging device, control method therefor, program, and recording medium
JP6558976B2 (en) Imaging apparatus, control method and program thereof, and imaging element
JP6418839B2 (en) Imaging apparatus, control method therefor, program, and storage medium
JP4608436B2 (en) Image shooting device
US11622175B2 (en) Electronic apparatus and control method thereof
US9906749B2 (en) Image capturing apparatus capable of generating and adding pixel region information to image data, method of controlling the same, and image sensor
JP2011223146A (en) Electronic camera
JP6702792B2 (en) Image processing apparatus and control method thereof
US11523052B2 (en) Electronic apparatus, control method of electronic apparatus, and non-transitory computer readable medium
JP6494263B2 (en) Image sensor and electronic device
JP2018110300A (en) Imaging device, control method therefor, program, and recording medium
JP6467455B2 (en) IMAGING DEVICE, ITS CONTROL METHOD, PROGRAM, AND RECORDING MEDIUM
JP6363889B2 (en) Image pickup device, image pickup apparatus, and control method thereof
KR20110109886A (en) Transmission apparatus, method, and program
JP2016054479A (en) Imaging device, control method and program thereof, and imaging element
JP6282136B2 (en) Imaging apparatus and control method thereof
JP6703784B2 (en) Imaging device, control method thereof, and imaging device
JP2013074555A (en) Imaging apparatus and program
JP6458114B2 (en) Imaging device, imaging device, and mobile phone
JP6280402B2 (en) Image recording apparatus, image recording method, program, and storage medium
JP2021118394A (en) Image processing device, control method of the same, program, and storage medium
JP4713430B2 (en) Imaging apparatus and image composition method

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180622

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180622

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190520

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190618

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190716

R151 Written notification of patent or utility model registration

Ref document number: 6558976

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151