JP2018207428A - Imaging apparatus - Google Patents

Imaging apparatus Download PDF

Info

Publication number
JP2018207428A
JP2018207428A JP2017113889A JP2017113889A JP2018207428A JP 2018207428 A JP2018207428 A JP 2018207428A JP 2017113889 A JP2017113889 A JP 2017113889A JP 2017113889 A JP2017113889 A JP 2017113889A JP 2018207428 A JP2018207428 A JP 2018207428A
Authority
JP
Japan
Prior art keywords
sensor
image
live video
image quality
developing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017113889A
Other languages
Japanese (ja)
Inventor
淳 ▲高▼木
淳 ▲高▼木
Atsushi Takagi
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2017113889A priority Critical patent/JP2018207428A/en
Publication of JP2018207428A publication Critical patent/JP2018207428A/en
Pending legal-status Critical Current

Links

Landscapes

  • Studio Devices (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

To provide an imaging apparatus that can suppress power consumption when a long time remote live view is continued, and that can mitigate temperature rise of a camera body.SOLUTION: An imaging apparatus that is used in a remote control system comprising an external instrument which displays live video transmitted, that comprises a first sensor and a second sensor, and that provides the live video to a user comprises: sensor switching means that switches between the sensors which receive subject light, according to an instruction of the user or a state of the imaging apparatus; live video developing means that develops the subject light received by the sensor to make the live video; and live video transmitting means that transmits the live video to the external instrument.SELECTED DRAWING: Figure 2

Description

本発明は、カメラからのライブ映像を外部機器に表示させるリモートライブビュー機能に関し、長時間リモートライブビューをし続ける場合の撮像装置の電力消費を抑える技術に関する。   The present invention relates to a remote live view function for displaying a live video from a camera on an external device, and relates to a technique for suppressing power consumption of an imaging apparatus when a remote live view is continued for a long time.

PCやスマートフォン等の外部機器とカメラを無線等で接続し、カメラからのライブ映像を外部機器に表示させるリモートライブビュー機能がある。一眼レフカメラでこの機能を使うには、ミラーアップによるライブビューモードを使う必要があった。   There is a remote live view function in which an external device such as a PC or a smartphone is connected to a camera wirelessly or the like, and a live video from the camera is displayed on the external device. To use this function with a single-lens reflex camera, it was necessary to use a live view mode with mirror up.

この機能により、物理的に離れた場所から一眼レフカメラを遠隔制御することが可能となるが、長時間リモートライブビューを継続する場合、電力の消費が激しく、カメラ本体の温度が上昇してしまう。このため、いざ撮影する時に画質が低下してしまうという問題があった。   This function makes it possible to remotely control a single-lens reflex camera from a physically distant place, but when continuing a remote live view for a long time, power consumption is intense and the temperature of the camera body rises. . For this reason, there has been a problem that the image quality deteriorates when shooting.

特許文献1では、撮像素子で得られる映像をライブビュー画像とする撮像装置と、撮像装置からライブビュー画像を受信して表示する外部機器とを備えた遠隔制御システムであって、撮像装置の所定の操作及び外部機器の所定の操作が規定の時間検出されなかった場合、撮像装置から外部機器に転送するライブビュー画像のデータ量を減らす。そして、外部機器と撮像装置との間の操作が一定時間無かった場合、ライブビュー画面をウェイト状態にすることで通信量を削減し、省電力を図るという技術が提案されている。   Patent Document 1 discloses a remote control system including an imaging device that uses a video obtained by an imaging device as a live view image and an external device that receives and displays the live view image from the imaging device. When the predetermined operation of the external device and the predetermined operation of the external device are not detected for a specified time, the data amount of the live view image transferred from the imaging device to the external device is reduced. A technique has been proposed in which when there is no operation between the external device and the imaging apparatus for a certain period of time, the live view screen is put into a wait state to reduce the communication amount and save power.

特開2014−27338号公報JP 2014-27338 A

しかしながら、外部機器とカメラ本体との間でユーザ操作が頻繁に行われ、ライブビュー画面をウェイト状態にすることが出来なかった場合、長時間連続動作により電力を激しく消費し、カメラ本体の発熱により画質が低下してしまっていた。そのため、通信をウェイト状態にする方法以外の、省電力を図る技術が求められていた。   However, when user operations are frequently performed between the external device and the camera body and the live view screen cannot be put into the wait state, power is consumed intensively due to continuous operation for a long time, and the camera body generates heat. The image quality has deteriorated. For this reason, there has been a demand for a technique for saving power other than a method for putting communication in a wait state.

本発明の目的は、長時間のリモートライブビューをし続ける場合の電力消費を抑え、カメラ本体の温度上昇を軽減することができる撮像装置を提供することにある。   An object of the present invention is to provide an imaging apparatus capable of suppressing power consumption when continuing a long-time remote live view and reducing a temperature rise of a camera body.

上記の目的を達成するため、本発明に係る撮像装置は、
送信されたライブ映像を表示する外部機器を備えた遠隔制御システムに用いられ、第1、第2のセンサを有し、ユーザにライブ映像を提供する撮像装置であって、ユーザの指示、もしくは前記撮像装置の状態に応じて、被写体光を受信するセンサを切り替えるセンサ切替手段と、前記センサが受信した被写体光を現像してライブ映像にするライブ映像現像手段と、前記ライブ映像を前記外部機器に送信するライブ映像送信手段と、を備えることを特徴とする。
In order to achieve the above object, an imaging apparatus according to the present invention includes:
An imaging apparatus that is used in a remote control system including an external device that displays a transmitted live video, has first and second sensors, and provides the user with live video, the user's instructions, or the Sensor switching means for switching a sensor for receiving subject light in accordance with the state of the imaging device, live video developing means for developing the subject light received by the sensor into a live video, and sending the live video to the external device Live video transmission means for transmission.

本発明に係る撮像装置によれば、長時間のリモートライブビューをし続ける場合の撮像装置の電力消費を抑え、カメラ本体の温度上昇を軽減することができる。   According to the imaging apparatus of the present invention, it is possible to suppress power consumption of the imaging apparatus when continuing a long-time remote live view, and to reduce the temperature rise of the camera body.

本発明の実施形態に係る撮像装置の一例の構成を示すブロック図である。It is a block diagram which shows the structure of an example of the imaging device which concerns on embodiment of this invention. 撮像装置で動作するライブ映像(以下ライブビュー)の動作を説明するためのフローチャートである。It is a flowchart for demonstrating operation | movement of the live image | video (henceforth live view) which operate | moves with an imaging device. 携帯端末でリモートライブ映像を表示するための説明図である。It is explanatory drawing for displaying a remote live image | video with a portable terminal. 通常LVモードと簡易LVモードの動作を説明するためのブロック図である。It is a block diagram for demonstrating operation | movement of normal LV mode and simple LV mode. 通常LVモードと簡易LVモードで表示された画像の一例を示す図である。It is a figure which shows an example of the image displayed by normal LV mode and simple LV mode.

以下、本発明を実施するための形態について、図面を参照しながら説明する。   Hereinafter, embodiments for carrying out the present invention will be described with reference to the drawings.

(遠隔制御システム)
以下に説明する本発明の実施形態に係る撮像装置で取得されるライブ映像は、撮像装置より送信されて外部機器に表示される。このような遠隔制御システムに用いられる撮像装置は、第1、第2のセンサを有し、ユーザにライブ映像を提供する。そして、撮像装置としては、デジタルスチルカメラやデジタルムービーカメラ等の電子カメラが用いられる。また、このような電子カメラに接続される外部機器としては、例えば、パーソナルコンピュータ、携帯端末等が用いられる。以下では、本発明の好適な適用例として撮像装置を電子カメラ、ライブ映像を表示する外部機器を携帯端末に適用した例を説明する。
(Remote control system)
Live video acquired by the imaging apparatus according to the embodiment of the present invention described below is transmitted from the imaging apparatus and displayed on an external device. An imaging apparatus used in such a remote control system has first and second sensors and provides a live video to the user. An electronic camera such as a digital still camera or a digital movie camera is used as the imaging device. Moreover, as an external device connected to such an electronic camera, for example, a personal computer, a portable terminal, or the like is used. In the following, an example in which an imaging apparatus is applied to an electronic camera and an external device that displays live video is applied to a portable terminal will be described as a preferred application example of the present invention.

(撮像装置)
図1は、本発明の実施形態に係る撮像装置の一例について、その構成を示すブロック図である。
(Imaging device)
FIG. 1 is a block diagram showing the configuration of an example of an imaging apparatus according to an embodiment of the present invention.

図示の撮像装置は、例えば、デジタルカメラ(以下単にカメラと呼ぶ)であり、カメラ本体100およびレンズユニット200を有している。そして、レンズユニット200は、カメラ本体100に着脱可能、つまり、交換可能である。   The illustrated imaging apparatus is, for example, a digital camera (hereinafter simply referred to as a camera), and includes a camera body 100 and a lens unit 200. The lens unit 200 can be attached to and detached from the camera body 100, that is, can be exchanged.

レンズユニット200は、レンズ201(撮像光学系)を備えている。レンズ201は、例えば、複数枚のレンズで構成されるが、ここでは、簡略のため一枚のレンズが示されている。通信端子206はレンズユニット200がカメラ本体100と通信を行うための端子である。   The lens unit 200 includes a lens 201 (imaging optical system). The lens 201 is composed of, for example, a plurality of lenses. Here, a single lens is shown for simplicity. The communication terminal 206 is a terminal for the lens unit 200 to communicate with the camera body 100.

通信端子206は、レンズユニット200がカメラ本体100に装着された際、カメラ本体100に備えられた通信端子118と接続される。つまり、レンズユニット200は、通信端子206および118を介してカメラ本体100に備えられたカメラ制御部105と通信を行う。   The communication terminal 206 is connected to the communication terminal 118 provided in the camera body 100 when the lens unit 200 is attached to the camera body 100. That is, the lens unit 200 communicates with the camera control unit 105 provided in the camera body 100 via the communication terminals 206 and 118.

レンズユニット200は、レンズシステム制御回路205を有しており、レンズシステム制御回路205は絞り駆動部204を介して絞り202を駆動制御する。さらに、レンズシステム制御回路205はフォーカス駆動部203を介して、レンズ201を光軸に沿って移動させてその位置を変位させることによって焦点を合わせる。   The lens unit 200 includes a lens system control circuit 205, and the lens system control circuit 205 drives and controls the diaphragm 202 via the diaphragm driving unit 204. Further, the lens system control circuit 205 moves the lens 201 along the optical axis via the focus driving unit 203 to displace the position thereof, thereby focusing.

カメラ本体100において、レンズユニット200の光軸(撮影光路ともいう)上には主ミラー101が配置されている。この主ミラー101は、カメラの動作状態に応じて回動可能であり、被写体をファインダで観測する際には撮影光路(図中破線で示す)に対して斜めに位置づけられる。これによって、レンズユニット200から入射した光学像(被写体像)が後述するファインダ光学系に導かれる。   In the camera body 100, a main mirror 101 is disposed on the optical axis (also referred to as a photographing optical path) of the lens unit 200. The main mirror 101 can be rotated in accordance with the operating state of the camera, and is positioned obliquely with respect to the photographing optical path (indicated by a broken line in the drawing) when the subject is observed with the viewfinder. As a result, an optical image (subject image) incident from the lens unit 200 is guided to a finder optical system described later.

撮影の際およびライブ映像(以下ライブビュー)表示の際には、主ミラー101は撮影光路から退避する。これによって、レンズユニット200から入射した光学像は後述する撮像センサ103に導かれる。なお、図1において、主ミラーが撮影光路上に位置づけられた際の位置を実線ブロック101で示し、主ミラーが撮影光路から退避した際の位置を破線ブロック101’で示す。   The main mirror 101 is retracted from the photographing optical path when photographing and when displaying a live video (hereinafter, live view). As a result, the optical image incident from the lens unit 200 is guided to the image sensor 103 described later. In FIG. 1, the position when the main mirror is positioned on the photographing optical path is indicated by a solid block 101, and the position when the main mirror is retracted from the photographing optical path is indicated by a broken line block 101 '.

主ミラー101の後段にはシャッタ102が配置されており、シャッタ102は、レンズユニット200から入射した光学像の撮像センサ103への入射を制御する。シャッタ102は撮影の際およびライブビューの際に開いた状態になる。なお、シャッタ102は、カメラ制御部105の制御下でシャッタ制御部115によって駆動制御される。   A shutter 102 is disposed following the main mirror 101, and the shutter 102 controls the incidence of the optical image incident from the lens unit 200 on the imaging sensor 103. The shutter 102 is opened during shooting and live view. The shutter 102 is driven and controlled by the shutter control unit 115 under the control of the camera control unit 105.

シャッタ102の後段には撮像センサ103が配置されており、撮像センサ103として、例えば、CMOSセンサ又はCCDセンサが用いられる。撮像センサ103は最終的な静止画像、動画像を得るもので、タイミングジェネレータ116から出力されるタイミング信号に基づいて駆動されて、光学像に応じた電気信号(アナログ信号)を出力する。なお、タイミングジェネレータ116は、カメラ制御部105の制御下で、所謂電子シャッタを制御するタイミング信号を撮像センサ103に送る。   An imaging sensor 103 is arranged at the subsequent stage of the shutter 102, and for example, a CMOS sensor or a CCD sensor is used as the imaging sensor 103. The imaging sensor 103 obtains a final still image and moving image, is driven based on a timing signal output from the timing generator 116, and outputs an electrical signal (analog signal) corresponding to the optical image. Note that the timing generator 116 sends a timing signal for controlling a so-called electronic shutter to the imaging sensor 103 under the control of the camera control unit 105.

アナログ信号処理部104は、撮像センサ103の出力であるアナログ信号をサンプルホールドしてアナログゲインを付加した後、A/D変換によってデジタル信号に変換する。カメラ制御部105は、アナログ信号処理部104の出力であるデジタル信号に対して後述するデジタル信号処理を施して画像データを生成し、メモリ制御部120を介してメモリ121に保存する。図示のように、カメラ制御部105は、デジタルゲイン部106、画像処理部107、測光処理部113、およびAE(自動露出)センサ処理部124を有している。   The analog signal processing unit 104 samples and holds an analog signal that is an output of the image sensor 103, adds an analog gain, and then converts the analog signal into a digital signal by A / D conversion. The camera control unit 105 performs digital signal processing, which will be described later, on the digital signal output from the analog signal processing unit 104 to generate image data, and stores the image data in the memory 121 via the memory control unit 120. As illustrated, the camera control unit 105 includes a digital gain unit 106, an image processing unit 107, a photometric processing unit 113, and an AE (automatic exposure) sensor processing unit 124.

デジタルゲイン部106は、アナログ信号処理部104の出力であるデジタル信号にデジタルゲインを付加する。そして、デジタルゲイン部106をデジタルゲインが付加されたデジタル信号を画像処理部107に出力する。   The digital gain unit 106 adds a digital gain to the digital signal that is the output of the analog signal processing unit 104. Then, the digital gain unit 106 outputs a digital signal to which the digital gain is added to the image processing unit 107.

画像処理部107は、デジタルゲイン部106の出力であるデジタル信号に対して所定のデジタル信号処理を施す。例えば、画像処理部107は、画素補間処理、色変換処理、撮像面AF(コントラストAF)評価値の算出、および測光値の算出を行う。請求項8に記載される通常画質現像手段は、画像処理部107に含まれる。   The image processing unit 107 performs predetermined digital signal processing on the digital signal output from the digital gain unit 106. For example, the image processing unit 107 performs pixel interpolation processing, color conversion processing, imaging surface AF (contrast AF) evaluation value calculation, and photometric value calculation. The normal image quality developing means described in claim 8 is included in the image processing unit 107.

画像表示部119は、画像および撮影に関する情報を表示する、LCD(液晶表示装置)などの画像表示装置である。そして、画像表示部119には画像処理部107の出力である画像データに応じた画像が表示される。なお、ライブビュー動作の際には、画像表示部119には所謂スルー画像が逐次表示される。   The image display unit 119 is an image display device such as an LCD (liquid crystal display device) that displays information related to images and photographing. The image display unit 119 displays an image corresponding to the image data output from the image processing unit 107. In the live view operation, so-called through images are sequentially displayed on the image display unit 119.

操作部122は、ユーザからの操作を受け付ける入力部である。操作部122には、シャッタ秒時などを設定する操作ダイヤル、撮影指示ボタン、ライブビュー切り替えボタン、および各種操作ボタンが備えられ、操作部122はユーザによる入力操作をカメラ制御部105に送る。   The operation unit 122 is an input unit that receives an operation from a user. The operation unit 122 includes an operation dial for setting the shutter speed, a shooting instruction button, a live view switching button, and various operation buttons. The operation unit 122 sends an input operation by the user to the camera control unit 105.

主ミラー101の上方には、ピント板109が配置されている。ピント板109は、レンズユニット200の一次結像面に配置され、その入射面にはフレネルレンズ(集光レンズ)を有し、射出面に被写体の光学像(ファインダ像)を結像する。   A focus plate 109 is disposed above the main mirror 101. The focus plate 109 is disposed on the primary image forming surface of the lens unit 200, has a Fresnel lens (condenser lens) on its entrance surface, and forms an optical image (finder image) of the subject on the exit surface.

ペンタプリズム110はファインダ光路を変更するものであり、ピント板109の射出面に結像した被写体像を正立正像に補正する。接眼レンズ111は、ユーザがファインダを覗いた際、ユーザの眼に合わせて視度を調節することができる。ここで、ピント板109、ペンタプリズム110、および接眼レンズ111によって構成される光学系はファインダ光学系と呼ばれる。   The pentaprism 110 changes the finder optical path, and corrects the subject image formed on the exit surface of the focus plate 109 to an erect image. The eyepiece 111 can adjust the diopter according to the user's eyes when the user looks into the viewfinder. Here, an optical system constituted by the focus plate 109, the pentaprism 110, and the eyepiece lens 111 is called a finder optical system.

ペンタプリズム110の近傍には測光センサ112が配置され、測光センサ112は撮像領域を分割した複数の領域を有し、これら領域に対応する複数のフォトダイオードを備える。そして、測光センサ112はピント板109の射出面に結像した被写体像の輝度を検出して測光処理部113に送る。   A photometric sensor 112 is disposed in the vicinity of the pentaprism 110, and the photometric sensor 112 has a plurality of regions obtained by dividing an imaging region, and includes a plurality of photodiodes corresponding to these regions. The photometric sensor 112 detects the luminance of the subject image formed on the exit surface of the focusing plate 109 and sends it to the photometric processing unit 113.

ペンタプリズム110の近傍にはAE(自動露出)センサ123が配置され、ミラーダウンした状態で、主ミラー101から反射した被写体像を受光する。AEセンサ123は測光/合焦のための2次元配列のセンサであり、被写体像から輝度情報を検出してデジタルゲイン部106で自動露出補正と、撮像面位相差AFによる合焦処理を行う。   An AE (automatic exposure) sensor 123 is disposed in the vicinity of the pentaprism 110, and receives the subject image reflected from the main mirror 101 in a mirror-down state. The AE sensor 123 is a two-dimensional array sensor for photometry / focusing. The AE sensor 123 detects luminance information from the subject image, and performs automatic exposure correction by the digital gain unit 106 and focusing processing by imaging plane phase difference AF.

簡易ライブビューモード(以下簡易LVモード)では、第2のセンサであるAEセンサ123で受光し、各種画像処理をパスしてAEセンサ処理部124で簡易現像し、携帯端末300の画面表示部301に表示される(リモートライブビュー)。簡易現像はAEセンサ処理部124に含まれる簡易画質現像手段で行われる。簡易LVモードは、画素数の少ないAEセンサ123を用いること、およびAFセンサ117を動作させないことから、通常ライブビューモード(以下通常LVモード)に比べて大幅に消費電力を減らすことができる。   In the simple live view mode (hereinafter referred to as simple LV mode), light is received by the AE sensor 123 as the second sensor, passes through various image processing, is simply developed by the AE sensor processing unit 124, and is displayed on the screen display unit 301 of the mobile terminal 300. (Remote Live View). The simple development is performed by a simple image quality developing unit included in the AE sensor processing unit 124. In the simple LV mode, since the AE sensor 123 having a small number of pixels is used and the AF sensor 117 is not operated, the power consumption can be greatly reduced as compared with the normal live view mode (hereinafter referred to as the normal LV mode).

なお、簡易LVモードにおいて、色情報を省略し輝度信号だけで簡易現像して白黒画像に変更したり、輝度信号や色信号に対してノイズ低減処理やデジタルゲイン処理を省略するなど、さらに簡素化して簡易現像すると、よりいっそう消費電力を減らすことが出来る。   In the simplified LV mode, the color information is omitted and the image is simply developed using only the luminance signal to change to a black and white image, or noise reduction processing and digital gain processing are omitted for the luminance signal and color signal. Simple development can further reduce power consumption.

AEセンサ123から取り込んだ画像データは、AEセンサ処理部124で処理し、外部出力126に送って携帯端末300の画像表示部301に表示する。   The image data captured from the AE sensor 123 is processed by the AE sensor processing unit 124, sent to the external output 126, and displayed on the image display unit 301 of the mobile terminal 300.

測光処理部113は、測光センサ112に対して所定の間隔(つまり、測光タイミング)で蓄積駆動および読み出し駆動を行って、測光値(つまり、光量)の時系列変化を測定する。   The photometric processing unit 113 performs accumulation driving and reading driving at a predetermined interval (that is, photometric timing) with respect to the photometric sensor 112, and measures a time-series change of the photometric value (that is, light amount).

AFセンサ117は、撮像面位相差AFによって一対の像のずれ量に応じたデフォーカス量をカメラ制御部105に出力する。カメラ制御部105は、画像処理部107によって得られた撮像面AF評価値又はAFセンサ117で得られたデフォーカス量に基づいてレンズ駆動量および駆動方向を決定する。   The AF sensor 117 outputs a defocus amount corresponding to the shift amount of the pair of images to the camera control unit 105 by the imaging surface phase difference AF. The camera control unit 105 determines the lens driving amount and the driving direction based on the imaging surface AF evaluation value obtained by the image processing unit 107 or the defocus amount obtained by the AF sensor 117.

カメラ制御部105は、通信端子118および206を介してレンズシステム制御回路205にレンズ駆動量および駆動方向を送る。レンズシステム制御回路205は、フォーカス駆動部203によって当該レンズ駆動量および駆動方向に応じてレンズ201を光軸に駆動する。なお、カメラ制御部105は、CPU、ROM、およびRAMからなるマイクロコンピュータであって、ROMに保存されたプログラムを実行してカメラ全体を制御する。   The camera control unit 105 sends the lens driving amount and driving direction to the lens system control circuit 205 via the communication terminals 118 and 206. The lens system control circuit 205 drives the lens 201 to the optical axis by the focus driving unit 203 according to the lens driving amount and the driving direction. The camera control unit 105 is a microcomputer composed of a CPU, a ROM, and a RAM, and controls the entire camera by executing a program stored in the ROM.

図2は、撮像装置で動作するライブ映像(以下ライブビュー)の動作を説明するためのフローチャートである。   FIG. 2 is a flowchart for explaining the operation of a live video (hereinafter referred to as a live view) operating on the imaging apparatus.

レンズユニット200を通して入射した被写体画像を、撮像センサ103で受光するため、主ミラーをミラーアップする101’(ステップS201)。   In order to receive the subject image incident through the lens unit 200 with the imaging sensor 103, the main mirror is mirrored 101 '(step S201).

続いて、撮像センサ103から受光した被写体画像に対して、通常画質現像手段により、通常LV現像を行う(ステップS202)。   Subsequently, normal LV development is performed on the subject image received from the image sensor 103 by the normal image quality developing means (step S202).

前記通常画質現像手段で現像した通常LV表示用の静止画像を、外部出力126に送付して、携帯端末300の画像表示部301に表示する(ステップS203)。   The normal LV display still image developed by the normal image quality developing means is sent to the external output 126 and displayed on the image display unit 301 of the portable terminal 300 (step S203).

次に、撮像センサ103が通常通り動作するかどうかを、警告状態フラグを用いて判定する(ステップS204)。警告状態フラグは、撮像センサ103からの画像読み出しで画質が低下する場合にYes、低下しない場合にNoとなる。   Next, it is determined using the warning state flag whether the image sensor 103 operates normally (step S204). The warning state flag is Yes when the image quality is deteriorated by image reading from the image sensor 103, and is No when the image quality is not lowered.

警告状態フラグがYesになる第一の例として、撮像センサ103が一定の温度を超える場合がある。温度センサ125を用いて撮像センサ103をモニタし、撮像センサ103が温度上昇して一定の温度を超えた時、警告状態フラグをYesにする。撮像センサ103の温度が上昇すると、撮像センサ103から出力される色信号や輝度信号に熱由来のノイズが増えるため、ユーザが静止画を撮影した時に画質が低下してしまう。前記画質の低下を避けるため、ライブ映像の動作モードを簡易LVモードに切り替え、撮像センサ103を休ませて撮像センサ103の温度を下げることにより、省電力を実現しつつ、静止画撮影時の画質劣化を避けることができる。   As a first example in which the warning state flag is Yes, the imaging sensor 103 may exceed a certain temperature. The image sensor 103 is monitored using the temperature sensor 125. When the image sensor 103 rises in temperature and exceeds a certain temperature, the warning state flag is set to Yes. When the temperature of the image sensor 103 rises, heat-derived noise increases in the color signal and luminance signal output from the image sensor 103, so that the image quality deteriorates when the user takes a still image. In order to avoid the deterioration of the image quality, the live image operation mode is switched to the simple LV mode, the image sensor 103 is rested and the temperature of the image sensor 103 is lowered, thereby realizing power saving and image quality during still image shooting. Degradation can be avoided.

警告状態フラグがYesになる第二の例として、通常LVモードで連続表示した時間が一定時間を超える場合がある。通常LVモードを一定時間以上連続表示した場合、警告状態フラグをYesにする。なお、連続表示の時間だけで判断する場合、温度センサ125を省略しても構わない。   As a second example in which the warning state flag becomes Yes, there is a case where the time continuously displayed in the normal LV mode exceeds a certain time. When the normal LV mode is continuously displayed for a predetermined time or longer, the warning state flag is set to Yes. Note that the temperature sensor 125 may be omitted when the determination is based only on the continuous display time.

次に、警告状態フラグがNoであればステップS202に戻り、次のシャッタ秒時に受光した被写体画像に対し、通常画質現像手段により通常LV現像を行う。警告状態フラグがYesであれば、主ミラーをミラーダウンして101、受光するセンサを変更する(ステップS205)。   Next, if the warning state flag is No, the process returns to step S202, and normal LV development is performed by the normal image quality developing means on the subject image received during the next shutter speed. If the warning state flag is Yes, the main mirror is mirrored down 101, and the sensor for receiving light is changed (step S205).

ミラーダウン後、レンズユニット200を通して入射した被写体画像は、主ミラー101で反射して、AEセンサ123で受光するAEセンサ123で。受光した被写体画像は、簡易現像手段により簡易LV現像して(ステップS206)、外部出力126に送信し、携帯端末300の表示画面301に簡易LV表示する(ステップS207)。   The subject image incident through the lens unit 200 after being mirrored down is reflected by the main mirror 101 and received by the AE sensor 123. The received subject image is subjected to simple LV development by the simple developing means (step S206), transmitted to the external output 126, and displayed on the display screen 301 of the portable terminal 300 (step S207).

続いて、警告状態フラグを判定し(ステップS208)、警告状態フラグがYesであれば簡易LV現像を継続し、警告状態フラグがNoであればステップS201に戻って、通常LV現像に切り替える。   Subsequently, the warning state flag is determined (step S208). If the warning state flag is Yes, the simple LV development is continued. If the warning state flag is No, the process returns to step S201 to switch to the normal LV development.

前記警告状態フラグは、撮像センサ103の温度が下がったことを検知したり、簡易LV現像モードを開始してから一定時間経過したことを検知した時に、Noに戻しても良い。   The warning status flag may be returned to No when it is detected that the temperature of the image sensor 103 has decreased, or when a certain period of time has elapsed since the start of the simple LV development mode.

図3は、携帯端末300の画像表示部301でリモートライブ映像を表示する時の説明図である。   FIG. 3 is an explanatory diagram when a remote live video is displayed on the image display unit 301 of the mobile terminal 300.

ユーザは、携帯端末300でリモートライブ映像を表示するアプリを起動し、前記アプリの操作画面で、通常LVモードと簡易LVモードを切り替える。切り替え操作は、前記アプリが用意する操作メニューに依存し、タッチパネルもしくは携帯端末300のボタン部302を用いる。なお、携帯端末300とカメラ本体100は、無線LANを介して、携帯端末300の外部出力303とカメラ本体100の外部出力126が接続される。   The user activates an application that displays a remote live video on the mobile terminal 300, and switches between the normal LV mode and the simple LV mode on the operation screen of the application. The switching operation depends on an operation menu prepared by the application, and uses the touch panel or the button unit 302 of the mobile terminal 300. The mobile terminal 300 and the camera body 100 are connected to the external output 303 of the mobile terminal 300 and the external output 126 of the camera body 100 via a wireless LAN.

図4は、通常LVモードと簡易LVモードの動作を説明するためのブロック図である。   FIG. 4 is a block diagram for explaining operations in the normal LV mode and the simple LV mode.

通常LVモードでは、主ミラーがミラーアップ101’の状態で被写体401を撮影する。前記被写体401から得られた被写体光は、レンズユニット200を通って、撮像センサ103で受光する。撮影データは、無線ネットワークを介して携帯端末300に転送され、携帯端末300の画面表示部301に表示される。   In the normal LV mode, the subject 401 is photographed with the main mirror in the mirror up 101 'state. Subject light obtained from the subject 401 passes through the lens unit 200 and is received by the imaging sensor 103. The shooting data is transferred to the mobile terminal 300 via the wireless network and displayed on the screen display unit 301 of the mobile terminal 300.

これに対し、簡易LVモードでは、主ミラーがミラーダウン101の状態で被写体401を撮影する。撮影した被写体光は、カメラ本体100に装着されたレンズユニット200を通り、主ミラー101で反射され、AEセンサ123で受光する。撮影データは無線ネットワークを介して携帯端末300に転送され、携帯端末300の画面表示部301に表示される。   On the other hand, in the simple LV mode, the subject 401 is photographed with the main mirror in the mirror down 101 state. The photographed subject light passes through the lens unit 200 attached to the camera body 100, is reflected by the main mirror 101, and is received by the AE sensor 123. The shooting data is transferred to the mobile terminal 300 via the wireless network and displayed on the screen display unit 301 of the mobile terminal 300.

図5は、通常LVモードと簡易LVモードで表示された画像の一例を示す。   FIG. 5 shows an example of images displayed in the normal LV mode and the simple LV mode.

通常LVモードの画像は、撮像センサ103で受光された画像を、通常画像現像手段で通常現像した後に、外部出力126に送られて携帯端末300の表示画面301に表示されるもので、静止画を撮影した時と同等レベルの高品質な画像となる。簡易LVモードの画像は、AEセンサ123で受光された画像を、簡易画像現像手段で簡易現像した後に、外部出力126に送られて携帯端末300の表示画面301に表示されるもので、画像処理をスルーしている。露出補正、周辺光量補正などの画像補正処理がかかっていないため、厳密には静止画を撮影した時の画像と一致しないが、リモートライブビュー画像を通常LVモードと同じタイミングで表示し続けることで、ユーザがシャッターチャンスを逃さないようにする。   An image in the normal LV mode is an image received by the image sensor 103, which is normally developed by a normal image developing unit and then sent to the external output 126 and displayed on the display screen 301 of the portable terminal 300. A high-quality image equivalent to when shooting The image in the simple LV mode is an image received by the AE sensor 123, simply developed by the simple image developing means, sent to the external output 126, and displayed on the display screen 301 of the portable terminal 300. Through. Since image correction processing such as exposure correction and peripheral light amount correction is not applied, it does not exactly match the image when the still image was taken, but the remote live view image can be displayed at the same timing as the normal LV mode. , So that the user does not miss a photo opportunity.

リモートライブ映像の更新タイミングについて説明する。   The update timing of the remote live video will be described.

通常LVモードでは、撮像センサ103からフレームレート(fps)に沿って60fps、50fps、30fps、25fps、24fpsのように1秒間に複数枚の静止画を取り込んで、現像するため、高品質で滑らかで動画を表示することができる。   In the normal LV mode, a plurality of still images are captured from the image sensor 103 at a frame rate (fps) of 60 fps, 50 fps, 30 fps, 25 fps, 24 fps per second, and developed, so that the quality is smooth. A video can be displayed.

一方、簡易LVモードでは、画素数の少ないAEセンサ123から静止画を取り込み、画像補正処理を一部もしくは全部省略して現像するため、画像の品質は通常LVモードには劣るが、撮像センサ103を休ませつつ、滑らかな動画を表示することが出来る。   On the other hand, in the simple LV mode, a still image is captured from the AE sensor 123 having a small number of pixels, and development is performed by omitting part or all of the image correction processing. Smooth videos can be displayed while resting.

本実施形態では、リモートライブビューの動作モードについて詳しく説明した。静止画像を撮影する場合は、表示画面301に表示されたライブ映像を確認しながら、操作ボタン302を操作して撮影を開始する。静止画撮影のシーケンスについては、説明を割愛する。   In the present embodiment, the operation mode of the remote live view has been described in detail. In the case of shooting a still image, shooting is started by operating the operation button 302 while checking the live video displayed on the display screen 301. The description of the still image shooting sequence is omitted.

本本実施形態では、リモートライブビューについて詳しく説明したが、撮像装置本体100の画像表示部119に適用することも可能である。画像表示部119に表示する場合は、通常LV表示および簡易LV表示の送信先を、画像表示部119に変更するだけで良い。   Although the remote live view has been described in detail in the present embodiment, it can also be applied to the image display unit 119 of the imaging apparatus main body 100. When displaying on the image display unit 119, it is only necessary to change the transmission destination of the normal LV display and the simple LV display to the image display unit 119.

以上、本発明について実施の形態に基づいて説明したが、本発明は、これらの実施の形態に限定されるものではなく、この発明の要旨を逸脱しない範囲の様々な形態も本発明に含まれる。例えば、本発明による撮像装置および遠隔制御システムにおいて、ライブ映像送信手段は無線ネットワークを前提に説明したが、有線ネットワークであっても構わない。   As mentioned above, although this invention was demonstrated based on embodiment, this invention is not limited to these embodiment, Various forms of the range which does not deviate from the summary of this invention are also contained in this invention. . For example, in the imaging device and the remote control system according to the present invention, the live video transmission unit has been described on the assumption of a wireless network, but may be a wired network.

100 カメラ本体、101 主ミラー、102 シャッタ、103 撮像センサ、
104 アナログ信号処理部、105 カメラ制御部、106 デジタルゲイン部、
107 画像処理部、109 ピント板、110 ペンタプリズム、
112 測光センサ、113 測光処理部、118 通信端子、119 画像表示部、
120 メモリ制御部、121 メモリ、122 操作部、200 レンズユニット、
123 AEセンサ、124 AEセンサ処理部、125 温度センサ、
126 外部出力、300 携帯端末、301 携帯端末の画面表示部、
401 被写体
100 camera body, 101 main mirror, 102 shutter, 103 image sensor,
104 analog signal processing unit, 105 camera control unit, 106 digital gain unit,
107 image processing unit, 109 focusing plate, 110 penta prism,
112 photometric sensors, 113 photometric processing units, 118 communication terminals, 119 image display units,
120 memory control unit, 121 memory, 122 operation unit, 200 lens unit,
123 AE sensor, 124 AE sensor processing unit, 125 temperature sensor,
126 external output, 300 mobile terminal, 301 screen display unit of mobile terminal,
401 Subject

Claims (11)

送信されたライブ映像を表示する外部機器を備えた遠隔制御システムに用いられ、第1、第2のセンサを有し、ユーザにライブ映像を提供する撮像装置であって、
ユーザの指示、もしくは前記撮像装置の状態に応じて、被写体光を受信するセンサを切り替えるセンサ切替手段と、
前記センサが受信した被写体光を現像してライブ映像にするライブ映像現像手段と、
前記ライブ映像を前記外部機器に送信するライブ映像送信手段と、
を備えることを特徴とする撮像装置。
An imaging apparatus that is used in a remote control system including an external device that displays a transmitted live video, has first and second sensors, and provides a live video to a user,
Sensor switching means for switching a sensor for receiving subject light in accordance with a user instruction or the state of the imaging device;
Live video development means for developing subject light received by the sensor into a live video,
Live video transmission means for transmitting the live video to the external device;
An imaging apparatus comprising:
前記第1のセンサは最終的な静止画像、動画像を得るもので、前記第2のセンサは測光もしくは合焦のための2次元配列のセンサであることを特徴とする請求項1に記載の撮像装置。   2. The first sensor according to claim 1, wherein the first sensor obtains a final still image and a moving image, and the second sensor is a two-dimensional array sensor for photometry or focusing. Imaging device. 前記ライブ映像現像手段は、前記センサで受信した被写体光を、リアルタイムにライブ映像へと現像するものであることを特徴とする請求項1に記載の撮像装置。   The imaging apparatus according to claim 1, wherein the live video developing unit develops subject light received by the sensor into a live video in real time. 前記センサ切替手段は、被写体光を受信するセンサを切り替えるもので、ミラーアップの状態では前記第1のセンサ、ミラーダウンの状態では前記第2のセンサ、に切り替えることを特徴とする請求項1に記載の撮像装置。   2. The sensor switching means for switching a sensor for receiving subject light, wherein the sensor is switched to the first sensor in a mirror-up state and the second sensor in a mirror-down state. The imaging device described. 前記第1のセンサの温度を検出する温度検出手段を有し、検出された温度情報に応じて、前記第1、第2のセンサを切り替えることを特徴とする請求項1に記載の撮像装置。   The imaging apparatus according to claim 1, further comprising a temperature detection unit configured to detect a temperature of the first sensor, wherein the first sensor and the second sensor are switched in accordance with the detected temperature information. ユーザの指示に応じて、前記第1、第2のセンサを切り替えることを特徴とする請求項1に記載の撮像装置。   The imaging apparatus according to claim 1, wherein the first and second sensors are switched according to a user instruction. ライブ映像の連続表示時間を判定し、前記第1、第2のセンサを切り替えることを特徴とする請求項1に記載の撮像装置。   The imaging apparatus according to claim 1, wherein a continuous display time of a live video is determined and the first and second sensors are switched. 前記ライブ映像現像手段は、最終的な動画を得るための通常画質現像手段と、前記高画質現像手段より低電力な簡易現像手段を有し、前記第2のセンサで得たライブ映像は前記簡易現像手段を用いることを特徴とする請求項1に記載の撮像装置。   The live image developing means includes a normal image quality developing means for obtaining a final moving image and a simple developing means having lower power than the high image quality developing means, and the live image obtained by the second sensor is the simplified image. The image pickup apparatus according to claim 1, wherein a developing unit is used. 前記第1のセンサの温度を検出する温度検出手段を有し、検出された温度情報に応じて、前記ライブ映像の画質が、前記第1のセンサを前記通常画質現像手段により現像した通常画質もしくは前記第2のセンサを前記簡易画質現像手段により現像した簡易画質のどちらかを切り替えることを特徴とする請求項8に記載の撮像装置。   Temperature detection means for detecting the temperature of the first sensor, and according to the detected temperature information, the image quality of the live image is the normal image quality developed by the normal image quality development means or the first sensor. 9. The image pickup apparatus according to claim 8, wherein the second sensor switches between simple image quality developed by the simple image quality developing means. 前記ユーザの指示に応じて、前記ライブ映像の画質が、前記第1のセンサを前記通常画質現像手段により現像した通常画質もしくは前記第2のセンサを前記簡易画質現像手段により現像した簡易画質のどちらかを切り替えることを特徴とする請求項8に記載の撮像装置。   In accordance with an instruction from the user, the image quality of the live video is either normal image quality obtained by developing the first sensor by the normal image quality developing means or simple image quality obtained by developing the second sensor by the simple image quality developing means. The image pickup apparatus according to claim 8, wherein the image pickup device is switched. ライブ映像の連続表示時間を判定し、前記ライブ映像の画質が、前記第1のセンサを前記通常画質現像手段により現像した通常画質もしくは前記第2のセンサを前記簡易画質現像手段により現像した簡易画質のどちらかを切り替えることを特徴とする請求項8に記載の撮像装置。   The continuous display time of the live video is determined, and the image quality of the live video is the normal image quality obtained by developing the first sensor by the normal image quality developing means or the simple image quality obtained by developing the second sensor by the simple image quality developing means. The imaging apparatus according to claim 8, wherein one of the two is switched.
JP2017113889A 2017-06-09 2017-06-09 Imaging apparatus Pending JP2018207428A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017113889A JP2018207428A (en) 2017-06-09 2017-06-09 Imaging apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017113889A JP2018207428A (en) 2017-06-09 2017-06-09 Imaging apparatus

Publications (1)

Publication Number Publication Date
JP2018207428A true JP2018207428A (en) 2018-12-27

Family

ID=64958465

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017113889A Pending JP2018207428A (en) 2017-06-09 2017-06-09 Imaging apparatus

Country Status (1)

Country Link
JP (1) JP2018207428A (en)

Similar Documents

Publication Publication Date Title
JP4884417B2 (en) Portable electronic device and control method thereof
JP5725988B2 (en) Imaging apparatus and control method thereof
US10708503B2 (en) Image capture system, image capturing apparatus, lens unit, control methods therefor, and storage medium
JP2012217100A (en) Imaging device and imaging device control method and program
JP6614853B2 (en) Imaging device, control method thereof, and control program
US8660418B2 (en) Apparatus and method of adjusting automatic focus
JP6377286B2 (en) Imaging apparatus, control method therefor, and operation program
JP6758950B2 (en) Imaging device, its control method and program
JP6032967B2 (en) IMAGING DEVICE, LENS DEVICE, AND IMAGING DEVICE CONTROL METHOD
JP2011082901A (en) Image processing apparatus and method, and program
JP6924089B2 (en) Imaging device and its control method
JP2015159447A (en) Imaging device and control method of the same
JP2018207428A (en) Imaging apparatus
JP2010282107A (en) Imaging apparatus and control method therefor
US20200112667A1 (en) Imaging device and control method thereof
JP5414412B2 (en) Imaging apparatus and control method thereof
JP2015167308A (en) Photometry method suitable for face detection autofocus control
JP2016080742A (en) Imaging device
JP2018155904A (en) Display control device and method for controlling the same
JP7254555B2 (en) IMAGING DEVICE AND METHOD OF CONTROLLING IMAGING DEVICE
JP2016218187A (en) Imaging device and accessory
JP2011035718A (en) Imaging apparatus and method for controlling the same
JP2018006888A (en) Imaging apparatus, control method therefor, and control program
JP2015232665A (en) Imaging device
JP2016212352A (en) Lens unit, method for controlling the same, imaging apparatus, and camera system

Legal Events

Date Code Title Description
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20191125