JP2017135735A - Electronic apparatus, driving method, and program - Google Patents

Electronic apparatus, driving method, and program Download PDF

Info

Publication number
JP2017135735A
JP2017135735A JP2017049033A JP2017049033A JP2017135735A JP 2017135735 A JP2017135735 A JP 2017135735A JP 2017049033 A JP2017049033 A JP 2017049033A JP 2017049033 A JP2017049033 A JP 2017049033A JP 2017135735 A JP2017135735 A JP 2017135735A
Authority
JP
Japan
Prior art keywords
touch
unit
display
electronic device
mark
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017049033A
Other languages
Japanese (ja)
Other versions
JP6279120B2 (en
Inventor
健世 伊藤
Takeyo Ito
健世 伊藤
佐藤 和宏
Kazuhiro Sato
和宏 佐藤
真梨子 牛尾
Mariko Ushio
真梨子 牛尾
尚樹 藤井
Naoki Fujii
尚樹 藤井
野中 修
Osamu Nonaka
修 野中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Corp filed Critical Olympus Corp
Priority to JP2017049033A priority Critical patent/JP6279120B2/en
Publication of JP2017135735A publication Critical patent/JP2017135735A/en
Application granted granted Critical
Publication of JP6279120B2 publication Critical patent/JP6279120B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

PROBLEM TO BE SOLVED: To provide an electronic apparatus which can be quickly operated without providing restrictions on specifications of a touch panel, and to provide a driving method and a program.SOLUTION: An imaging device 1 includes: a display unit 214 for displaying an image corresponding to image data and operation information in which a plurality of operation contents of the imaging device 1 are arranged at predetermined intervals; a touch panel 215 which detects contact from the outside and receives input of a position signal corresponding to the contact position; a display control unit 223c which causes the display unit 214 to display a mark at a display position of the operation information, into which the contact position has been converted, while periodically moving the mark on the display position of the operation information, in accordance with a change in the position signal received by the touch panel 215; and a photographing control unit 223d for controlling the operation of the imaging device 1 in accordance with a display position of the mark on the operation information.SELECTED DRAWING: Figure 3

Description

本発明は、タッチパネルを備えた電子機器、電子機器の駆動方法およびプログラムに関する。   The present invention relates to an electronic device including a touch panel, a driving method of the electronic device, and a program.

近年、デジタルカメラ等の撮像装置において、画像を表示する表示部の表示画面上に設けたタッチパネルにより、撮影に関する操作入力を受け付ける技術が知られている(特許文献1参照)。この技術では、撮像装置を右手で把持するグリップ側のタッチパネルの右領域にタッチ操作をガイドする凹形状のガイド部を設ける。これにより、ユーザがファインダに対して接眼した状態で表示部を確認することができなくとも、タッチ操作によって撮影に関する操作を行うことができる。   2. Description of the Related Art In recent years, in an imaging apparatus such as a digital camera, a technique for receiving an operation input related to shooting using a touch panel provided on a display screen of a display unit that displays an image is known (see Patent Document 1). In this technique, a concave guide portion that guides a touch operation is provided in the right region of the touch panel on the grip side that holds the imaging device with the right hand. As a result, even if the user cannot check the display unit while keeping his eye on the viewfinder, an operation related to shooting can be performed by a touch operation.

特開2010−232911号公報JP 2010-232911 A

しかしながら、上述した特許文献1では、タッチパネル上にガイド部を設けているので、タッチパネルの仕様に制約が生じていた。   However, in patent document 1 mentioned above, since the guide part was provided on the touch panel, restrictions had arisen in the specification of the touch panel.

また、上述した特許文献1では、ユーザがガイド部の感触を頼りに操作するため、敏速な操作を行うことができないという問題点があった。   Moreover, in patent document 1 mentioned above, since the user operated relying on the touch of a guide part, there existed a problem that a quick operation could not be performed.

本発明は、上記に鑑みてなされたものであって、タッチパネルの仕様に制約を設けることなく、敏速な操作を行うことができる電子機器、駆動方法およびプログラムを提供することを目的とする。   The present invention has been made in view of the above, and an object of the present invention is to provide an electronic device, a driving method, and a program that can perform a prompt operation without restricting the specifications of the touch panel.

上述した課題を解決し、目的を達成するために、本発明にかかる電子機器は、入力される操作信号に応じた動作を行うことが可能な電子機器であって、画面内で周回し、この周回する経路上の位置に応じて当該電子機器の動作が対応付けられる周回経路を表示可能な表示部と、外部からの接触を検出し、この接触位置に応じた位置信号の入力を受け付けるタッチパネルと、前記タッチパネルが入力を受け付けた前記位置信号に対応する前記接触位置を前記周回経路上の位置に変換し、この変換した位置にマークを表示させる表示制御部と、前記周回経路上における前記マークの表示位置に応じて、当該電子機器の動作を制御する動作制御部と、を備えたことを特徴とする。   In order to solve the above-described problems and achieve the object, an electronic device according to the present invention is an electronic device capable of performing an operation in accordance with an input operation signal. A display unit capable of displaying a circuit route associated with the operation of the electronic device according to a position on the circuit route, a touch panel that detects an external contact and receives an input of a position signal corresponding to the contact position; , The touch position corresponding to the position signal received by the touch panel is converted into a position on the circuit path, and a display control unit for displaying a mark at the converted position; and the mark on the circuit path And an operation control unit that controls the operation of the electronic device in accordance with the display position.

また、本発明にかかる電子機器は、上記発明において、当該電子機器の動作を決定する決定信号の入力を受け付ける操作入力部をさらに備え、前記動作制御部は、前記操作入力部から前記決定信号が入力された時点の前記マークの表示位置に対応する当該電子機器の動作を実行することを特徴とする。   The electronic device according to the present invention further includes an operation input unit that receives an input of a determination signal for determining an operation of the electronic device in the above invention, and the operation control unit receives the determination signal from the operation input unit. The operation of the electronic device corresponding to the display position of the mark at the time of input is executed.

また、本発明にかかる電子機器は、上記発明において、前記周回経路は、円環状をなすことを特徴とする。   Moreover, the electronic device according to the present invention is characterized in that, in the above invention, the circuit path has an annular shape.

また、本発明にかかる電子機器は、上記発明において、前記表示制御部は、前記タッチパネルが前記位置信号の入力を受け付けた際に、前記マークを前記周回経路上における所定位置に表示させることを特徴とする。   In the electronic device according to the present invention, in the above invention, the display control unit displays the mark at a predetermined position on the circuit path when the touch panel receives the input of the position signal. And

また、本発明にかかる電子機器は、上記発明において、前記表示部は、接眼式ファインダであることを特徴とする。   In the electronic device according to the present invention, the display unit is an eyepiece finder.

また、本発明にかかる電子機器は、上記発明において、当該電子機器の背面に設けられ、前記画像を表示可能な背面表示部をさらに備え、前記タッチパネルは、前記背面表示部の表示画面上に重畳して設けられていることを特徴とする。   In the electronic device according to the present invention, the electronic device further includes a rear display unit provided on a rear surface of the electronic device and capable of displaying the image, and the touch panel is superimposed on a display screen of the rear display unit. It is characterized by being provided.

また、本発明にかかる電子機器は、上記発明において、前記表示制御部は、前記マークを90度毎に移動させながら前記表示部に表示させることを特徴とする。   In the electronic device according to the present invention as set forth in the invention described above, the display control unit displays the mark on the display unit while moving the mark every 90 degrees.

また、本発明にかかる電子機器は、上記発明において、被写体を撮像し、該被写体の画像データを生成する撮像部をさらに備え、前記表示部は、前記撮像部が生成した前記画像データに対応する画像を表示することを特徴とする。   The electronic device according to the present invention further includes an imaging unit that captures an image of the subject and generates image data of the subject in the above invention, and the display unit corresponds to the image data generated by the imaging unit. An image is displayed.

また、本発明にかかる電子機器は、上記発明において、複数の光学素子を内部に保持し、所定の視野領域から光を集光するレンズ部をさらに備え、前記レンズ部は、当該電子機器の操作に関する指示信号の入力を受け付けるレンズ操作部を有し、前記表示制御部は、前記レンズ操作から前記指示信号が入力された場合、前記周回経路上における前記マークの表示位置を移動させることを特徴とする。   The electronic device according to the present invention further includes a lens unit that holds a plurality of optical elements inside and collects light from a predetermined field of view in the above invention, and the lens unit operates the electronic device. The display control unit moves a display position of the mark on the circuit path when the instruction signal is input from the lens operation. To do.

また、本発明にかかる電子機器は、上記発明において、前記当該電子機器の動作は、撮影に関する撮影パラメータであることを特徴とする。   In the electronic device according to the present invention, the operation of the electronic device is a shooting parameter related to shooting.

また、本発明にかかる電子機器は、上記発明において、前記画像データに対して画像処理を施す画像処理部をさらに備え、前記撮影パラメータは、露出情報、明るさ情報、ズーム倍率情報、焦点位置情報、ISO感度情報、絞り情報、シャッタスピード情報、前記画像処理部による画像処理の処理情報および撮影モードに関する撮影モード情報を含むことを特徴とする。   The electronic device according to the present invention further includes an image processing unit that performs image processing on the image data, and the shooting parameters include exposure information, brightness information, zoom magnification information, and focus position information. , ISO sensitivity information, aperture information, shutter speed information, processing information of image processing by the image processing unit, and shooting mode information regarding a shooting mode.

また、本発明にかかる駆動方法は、外部からの接触を検出し、この接触位置に応じた位置信号の入力を受け付けるタッチパネルを備え、入力される操作信号に応じた動作を行うことが可能な電子機器が実行する駆動方法であって、画面内で周回し、この周回する経路上の位置に応じて当該電子機器の動作が対応付けられる周回経路の表示を開始する表示開始ステップと、前記タッチパネルが入力を受け付けた前記位置信号に対応する前記接触位置を前記周回経路上の位置に変換し、この変換した位置にマークを表示させるマーク表示ステップと、前記マークの表示位置を決定する決定信号が入力された場合、前記周回経路上における前記マークの表示位置に応じて、当該電子機器の動作を制御する動作制御ステップと、を実行することを特徴とする。   In addition, the driving method according to the present invention is an electronic device that includes a touch panel that detects an external contact and receives an input of a position signal according to the contact position, and can perform an operation according to the input operation signal. A driving method executed by the device, wherein the touch panel includes a display start step of starting display of a circuit route that circulates in the screen and is associated with an operation of the electronic device according to a position on the circuit route; A mark display step for converting the contact position corresponding to the position signal received input into a position on the circuit path and displaying a mark at the converted position, and a determination signal for determining the display position of the mark are input. And an operation control step of controlling an operation of the electronic device according to a display position of the mark on the circuit route. To.

また、本発明にかかるプログラムは、外部からの接触を検出し、この接触位置に応じた位置信号の入力を受け付けるタッチパネルを備え、入力される操作信号に応じた動作を行うことが可能な電子機器に実行させるプログラムであって、画面内で周回し、この周回する経路上の位置に応じて当該電子機器の動作が対応付けられる周回経路の表示を開始する表示開始ステップと、前記タッチパネルが入力を受け付けた前記位置信号に対応する前記接触位置を前記周回経路上の位置に変換し、この変換した位置にマークを表示させるマーク表示ステップと、前記マークの表示位置を決定する決定信号が入力された場合、前記周回経路上における前記マークの表示位置に応じて、当該電子機器の動作を制御する動作制御ステップと、を含むことを特徴とする。   Further, the program according to the present invention includes an electronic device that includes a touch panel that detects an external contact and receives an input of a position signal corresponding to the contact position, and can perform an operation corresponding to the input operation signal. A display start step for starting a display of a circuit route that circulates within the screen and is associated with an operation of the electronic device according to a position on the circuit route, and the touch panel performs input. A mark display step for converting the contact position corresponding to the received position signal to a position on the circuit path and displaying a mark at the converted position, and a determination signal for determining the display position of the mark are input. An operation control step for controlling the operation of the electronic device in accordance with the display position of the mark on the circuit route. To.

本発明によれば、表示制御部がタッチパネルによって入力が受け付けられた位置信号の変化に応じて、接触位置を周回経路の表示位置に変換したマークを表示部に表示させ、動作制御部が周回経路上におけるマークの表示位置に応じて、電子機器の動作を制御する。この結果、タッチパネルの仕様に制約を設けることなく、敏速に操作することができるという効果を奏する。   According to the present invention, the display control unit displays the mark obtained by converting the contact position into the display position of the circulation path in accordance with the change in the position signal received by the touch panel, and the operation control unit displays the rotation path. The operation of the electronic device is controlled according to the mark display position on the top. As a result, there is an effect that it is possible to operate quickly without restricting the specifications of the touch panel.

図1は、本発明の実施の形態1にかかる撮像装置の被写体に面する側の構成を示す図である。FIG. 1 is a diagram illustrating a configuration of a side facing a subject of the imaging apparatus according to the first embodiment of the present invention. 図2は、本発明の実施の形態1にかかる撮像装置のユーザに面する側の構成を示す図である。FIG. 2 is a diagram illustrating a configuration on the side facing the user of the imaging apparatus according to the first embodiment of the present invention. 図3は、本発明の実施の形態1にかかる撮像装置の機能構成を示すブロック図である。FIG. 3 is a block diagram illustrating a functional configuration of the imaging apparatus according to the first embodiment of the present invention. 図4は、本発明の実施の形態1にかかる撮像装置が実行する処理の概要を示すフローチャートである。FIG. 4 is a flowchart illustrating an outline of processing executed by the imaging apparatus according to the first embodiment of the present invention. 図5は、本発明の実施の形態1にかかる撮像装置に対してユーザが接眼表示部でライブビュー画像を確認しながら撮影する際の状況を示す図である。FIG. 5 is a diagram illustrating a situation when the user captures images while confirming the live view image on the eyepiece display unit with respect to the imaging apparatus according to the first embodiment of the present invention. 図6は、本発明の実施の形態1にかかる撮像装置に対してユーザが表示部でライブビュー画像を確認しながら撮影する際の状況を示す図である。FIG. 6 is a diagram illustrating a situation when the user takes a picture while confirming the live view image on the display unit with respect to the imaging apparatus according to the first embodiment of the present invention. 図7は、図4のタッチ円環変換表示処理の概要を示すフローチャートである。FIG. 7 is a flowchart showing an outline of the touch ring conversion display process of FIG. 図8は、本発明の実施の形態1にかかる撮像装置のタッチパネル上におけるタッチ位置を模式的に示す図である。FIG. 8 is a diagram schematically illustrating a touch position on the touch panel of the imaging apparatus according to the first embodiment of the present invention. 図9は、本発明の実施の形態1にかかる撮像装置の接眼表示部が表示する動作情報を模式的に示す図である。FIG. 9 is a diagram schematically illustrating operation information displayed by the eyepiece display unit of the imaging apparatus according to the first embodiment of the present invention. 図10は、円環の表示領域を模式的に示す図である。FIG. 10 is a diagram schematically showing a display area of a ring. 図11は、本発明の実施の形態1にかかる撮像装置の接眼表示部の画面遷移を模式的に示す図である。FIG. 11 is a diagram schematically illustrating screen transition of the eyepiece display unit of the imaging apparatus according to the first embodiment of the present invention. 図12は、本発明の実施の形態1にかかる撮像装置の接眼表示部の別の画面遷移を模式的に示す図である。FIG. 12 is a diagram schematically illustrating another screen transition of the eyepiece display unit of the imaging apparatus according to the first embodiment of the present invention. 図13は、本発明の実施の形態2にかかるタッチ円環変換表示処理の概要を示すフローチャートである。FIG. 13 is a flowchart showing an outline of the touch ring conversion display process according to the second embodiment of the present invention. 図14は、本発明の実施の形態2にかかる撮像装置の接眼表示部の画面遷移を模式的に示す図である。FIG. 14 is a diagram schematically illustrating screen transition of the eyepiece display unit of the imaging apparatus according to the second embodiment of the present invention. 図15は、本発明の実施の形態3にかかるタッチ円環変換表示処理の概要を示すフローチャートである。FIG. 15: is a flowchart which shows the outline | summary of the touch ring conversion display process concerning Embodiment 3 of this invention. 図16は、本発明の実施の形態3にかかる撮像装置の接眼表示部の画面遷移を模式的に示す図である。FIG. 16 is a diagram schematically illustrating screen transition of the eyepiece display unit of the imaging apparatus according to the third embodiment of the present invention. 図17は、本発明の実施の形態3の変形例にかかる撮像装置の表示部の画面遷移を模式的に示す図である。FIG. 17 is a diagram schematically illustrating screen transition of the display unit of the imaging apparatus according to the modification of the third embodiment of the present invention. 図18は、本発明の別の実施の形態にかかる撮像装置の表示部の画面遷移を模式的に示す図である。FIG. 18 is a diagram schematically illustrating screen transition of the display unit of the imaging apparatus according to another embodiment of the present invention.

以下、図面を参照して、本発明にかかる電子機器の好適な実施の形態(以下、「実施の形態」という)として、撮像装置を例に詳細に説明する。また、以下においては、同一の部分には同一の符号を付して説明する。なお、この実施の形態によって本発明が限定されるものではない。   Hereinafter, an imaging apparatus will be described in detail as a preferred embodiment (hereinafter referred to as “embodiment”) of an electronic apparatus according to the present invention with reference to the drawings. In the following description, the same portions are denoted by the same reference numerals. Note that the present invention is not limited to the embodiments.

(実施の形態1)
図1は、本発明の実施の形態1にかかる撮像装置の被写体に面する側(前面側)の構成を示す図である。図2は、本発明の実施の形態1にかかる撮像装置のユーザに面する側(背面側)の構成を示す図である。図3は、本発明の実施の形態1にかかる撮像装置の機能構成を示すブロック図である。
(Embodiment 1)
FIG. 1 is a diagram illustrating a configuration of a side facing the subject (front side) of the imaging apparatus according to the first embodiment of the present invention. FIG. 2 is a diagram illustrating a configuration on the side (back side) facing the user of the imaging apparatus according to the first embodiment of the present invention. FIG. 3 is a block diagram illustrating a functional configuration of the imaging apparatus according to the first embodiment of the present invention.

図1〜3に示す撮像装置1は、本体部2と、本体部2に着脱自在であり、所定の視野領域から光を集光するとともに、光学ズームが可能なレンズ部3と、を備える。   An imaging apparatus 1 shown in FIGS. 1 to 3 includes a main body unit 2 and a lens unit 3 that can be attached to and detached from the main body unit 2 and collects light from a predetermined visual field region and enables optical zooming.

まず、本体部2について説明する。本体部2は、シャッタ201と、シャッタ駆動部202と、撮像素子203と、撮像素子駆動部204と、信号処理部205と、A/D変換部206と、画像処理部207と、AE処理部208と、AF処理部209と、画像圧縮展開部210と、操作入力部211と、接眼表示部212と、アイセンサ213と、表示部214と、タッチパネル215と、メモリI/F216と、記録媒体217と、時計218と、SDRAM(Synchronous Dynamic Random Access Memory)219と、Flashメモリ220と、本体通信部221と、バス222と、本体制御部223と、を備える。   First, the main body 2 will be described. The main body 2 includes a shutter 201, a shutter driving unit 202, an image sensor 203, an image sensor driving unit 204, a signal processing unit 205, an A / D conversion unit 206, an image processing unit 207, and an AE processing unit. 208, an AF processing unit 209, an image compression / decompression unit 210, an operation input unit 211, an eyepiece display unit 212, an eye sensor 213, a display unit 214, a touch panel 215, a memory I / F 216, and a recording medium 217. A clock 218, an SDRAM (Synchronous Dynamic Random Access Memory) 219, a flash memory 220, a main body communication unit 221, a bus 222, and a main body control unit 223.

シャッタ201は、撮像素子203の状態を露光状態または遮光状態に設定する。シャッタ駆動部202は、ステッピングモータやDCモータ等を用いて構成され、本体制御部223から入力される指示信号に応じてシャッタ201を駆動する。   The shutter 201 sets the state of the image sensor 203 to an exposure state or a light shielding state. The shutter drive unit 202 is configured using a stepping motor, a DC motor, or the like, and drives the shutter 201 in accordance with an instruction signal input from the main body control unit 223.

撮像素子203は、レンズ部3が集光した光を受光して電気信号に変換するCCD(Charge Coupled Device)またはCMOS(Complementary Metal Oxide Semiconductor)等を用いて構成され、被写体の画像データを生成する。撮像素子駆動部204は、所定のタイミングで撮像素子203から画像データ(アナログ信号)を信号処理部205へ出力させる。この意味で、撮像素子駆動部204は、電子シャッタとして機能する。   The image sensor 203 is configured using a CCD (Charge Coupled Device) or a CMOS (Complementary Metal Oxide Semiconductor) that receives the light collected by the lens unit 3 and converts it into an electrical signal, and generates image data of the subject. . The image sensor driving unit 204 outputs image data (analog signal) from the image sensor 203 to the signal processing unit 205 at a predetermined timing. In this sense, the image sensor driving unit 204 functions as an electronic shutter.

信号処理部205は、撮像素子203から入力される画像データに対して、アナログ処理を施してA/D変換部206へ出力する。たとえば、信号処理部205は、画像データに対して、リセットノイズ等を低減した上で波形整形後、目的の明るさとなるようにゲインアップを行う。   The signal processing unit 205 performs analog processing on the image data input from the image sensor 203 and outputs the result to the A / D conversion unit 206. For example, the signal processing unit 205 increases the gain of the image data after reducing the reset noise and the like, shaping the waveform, and achieving the target brightness.

A/D変換部206は、信号処理部205から入力されるアナログの画像データに対してA/D変換を行うことによってデジタルの画像データ(RAWデータ)を生成し、バス222を介してSDRAM219へ出力する。   The A / D conversion unit 206 generates digital image data (RAW data) by performing A / D conversion on the analog image data input from the signal processing unit 205, and sends the digital image data (RAW data) to the SDRAM 219 via the bus 222. Output.

画像処理部207は、バス222を介してSDRAM219から画像データ(RAWデータ)を取得し、取得した画像データに対して各種の画像処理を行った画像データを生成する。具体的には、画像処理部207は、画像データに対して、予め設定された各画像処理のパラメータに基づいて、オプティカルブラック減算処理、ホワイトバランス(WB)調整処理、カラーマトリクス演算処理、ガンマ補正処理、色再現処理およびエッジ強調処理等を含む基本の画像処理を行う。なお、画像処理部207は、撮像素子203がベイヤー配列の場合には画像データの同時化処理を行う。ここで、各画像処理のパラメータとは、コントラスト、シャープネス、彩度、ホワイトバランスおよび階調の値である。また、画像処理部207は、バス222を介して画像処理を施した画像データを接眼表示部212、表示部214およびSDRAM219のいずれかへ出力する。また、画像処理部207は、特殊効果処理部207aを有する。   The image processing unit 207 acquires image data (RAW data) from the SDRAM 219 via the bus 222, and generates image data obtained by performing various types of image processing on the acquired image data. Specifically, the image processing unit 207 performs optical black subtraction processing, white balance (WB) adjustment processing, color matrix calculation processing, gamma correction on image data based on preset image processing parameters. Basic image processing including processing, color reproduction processing, edge enhancement processing, and the like is performed. Note that the image processing unit 207 performs image data synchronization processing when the image sensor 203 is a Bayer array. Here, the parameters of each image processing are values of contrast, sharpness, saturation, white balance, and gradation. Further, the image processing unit 207 outputs the image data subjected to image processing via the bus 222 to any one of the eyepiece display unit 212, the display unit 214, and the SDRAM 219. Further, the image processing unit 207 includes a special effect processing unit 207a.

特殊効果処理部207aは、1つの画像データに対して複数の画像処理を組み合わせることにより、視覚的な効果を生じさせる特殊効果画像処理を行って処理画像データを生成する。具体的には、特殊効果処理部207aは、1つの画像データに対して、トーンカーブ処理、ぼかし処理、アルファブレンド処理および画像合成処理、彩度強調処理、コントラスト強調処理、シェーディング処理、ホワイトエッジ処理、ローパスフィルタ処理、ホワイトバランス処理、色相変換処理、エッジ強調処理、レベル補正最適化処理、ノイズパターン重畳処理、合成処理等の画像処理を組み合わせることによって、処理画像データを生成する。   The special effect processing unit 207a generates processed image data by performing special effect image processing that causes a visual effect by combining a plurality of image processes with respect to one image data. Specifically, the special effect processing unit 207a performs tone curve processing, blurring processing, alpha blending processing and image composition processing, saturation enhancement processing, contrast enhancement processing, shading processing, white edge processing for one image data. Then, processed image data is generated by combining image processing such as low-pass filter processing, white balance processing, hue conversion processing, edge enhancement processing, level correction optimization processing, noise pattern superimposition processing, and synthesis processing.

AE処理部208は、バス222を介してSDRAM219に記録された画像データを取得し、取得した画像データに基づいて、撮像装置1が静止画撮影または動画撮影を行う際の露出条件を設定する。具体的には、AE処理部208は、画像データから輝度を算出し、算出した輝度に基づいて、たとえば絞り値、シャッタ速度、ISO感度等を決定することで撮像装置1の自動露出を行う。   The AE processing unit 208 acquires image data recorded in the SDRAM 219 via the bus 222, and sets an exposure condition when the imaging apparatus 1 performs still image shooting or moving image shooting based on the acquired image data. Specifically, the AE processing unit 208 calculates the luminance from the image data, and performs automatic exposure of the imaging device 1 by determining, for example, an aperture value, a shutter speed, ISO sensitivity, and the like based on the calculated luminance.

AF処理部209は、バス222を介してSDRAM219に記録された画像データを取得し、取得した画像データに基づいて、撮像装置1の自動焦点の調整を行う。たとえば、AF処理部209は、画像データから高周波成分の信号を取り出し、高周波成分の信号に対してAF(Automatic Focus)演算処理を行うことによって、撮像装置1の合焦評価を決定することで撮像装置1の自動焦点の調整を行う。なお、AF処理部209は、瞳分割位相差法を用いて撮像装置1の自動焦点の調整を行ってもよい。   The AF processing unit 209 acquires the image data recorded in the SDRAM 219 via the bus 222, and adjusts the automatic focus of the imaging apparatus 1 based on the acquired image data. For example, the AF processing unit 209 extracts a high-frequency component signal from the image data, performs AF (Automatic Focus) calculation processing on the high-frequency component signal, and determines the focus evaluation of the imaging apparatus 1 to perform imaging. The automatic focus of the apparatus 1 is adjusted. Note that the AF processing unit 209 may adjust the automatic focus of the imaging apparatus 1 using the pupil division phase difference method.

画像圧縮展開部210は、バス222を介してSDRAM219から画像データや処理画像データを取得し、取得した画像データに対して所定の形式に従って圧縮し、この圧縮した画像データをメモリI/F216を介して記録媒体217へ出力する。ここで、所定の形式としては、JPEG(Joint Photographic Experts Group)方式、MotionJPEG方式およびMP4(H.264)方式等である。また、画像圧縮展開部210は、バス222およびメモリI/F216を介して記録媒体217に記録された画像データ(圧縮画像データ)を取得し、取得した画像データを展開(伸長)してSDRAM219へ出力する。   The image compression / decompression unit 210 acquires image data and processed image data from the SDRAM 219 via the bus 222, compresses the acquired image data according to a predetermined format, and compresses the compressed image data via the memory I / F 216. To the recording medium 217. Here, the predetermined format includes a JPEG (Joint Photographic Experts Group) system, a Motion JPEG system, and an MP4 (H.264) system. In addition, the image compression / decompression unit 210 acquires image data (compressed image data) recorded on the recording medium 217 via the bus 222 and the memory I / F 216, expands (decompresses) the acquired image data, and transfers it to the SDRAM 219. Output.

操作入力部211は、静止画撮影の指示を与えるレリーズ信号の入力を受け付けるレリーズボタン211aと、動画撮影の指示を与える動画レリーズ信号の入力を受け付ける動画ボタン211bと、撮像装置1のモードの切り替えを指示する指示信号の入力を受け付けるモード切替ボタン211cと、撮像装置1の各種設定を切り替えるメニューボタン211dと、記録媒体217に記録された画像データを再生する指示信号の入力を受け付ける再生ボタン211eと、撮像装置1の電源状態をオン状態またはオフ状態に切り替える電源ボタン211fと、を有する。レリーズボタン211aは、外部からの押圧による身体可能であり、半押しされた場合に撮影準備動作を指示するファーストレリーズ信号の入力を受け付ける一方、全押しされた場合に静止画撮影を指示するセカンドレリーズ信号の入力を受け付ける。   The operation input unit 211 switches the mode of the imaging apparatus 1, a release button 211 a that receives an input of a release signal that gives an instruction to shoot a still image, a movie button 211 b that receives an input of a movie release signal that gives an instruction to shoot a movie. A mode switching button 211c that receives an input of an instruction signal to instruct; a menu button 211d that switches various settings of the imaging apparatus 1; a playback button 211e that receives an input of an instruction signal for playing back image data recorded on the recording medium 217; A power button 211f for switching the power state of the imaging apparatus 1 to an on state or an off state. The release button 211a is physically capable of being pressed by an external force, and accepts an input of a first release signal instructing a shooting preparation operation when half-pressed, and a second release instructing still image shooting when fully pressed. Accepts signal input.

接眼表示部212は、本体制御部223の制御のもと、バス222を介してSDRAM219に記録された画像データまたは処理画像データに対応する画像または記録媒体217に記録された画像データに対応する画像を表示する。この意味で、接眼表示部212は、接眼式の電子ビューファインダ(EVF)として機能する。接眼表示部212は、液晶または有機EL(Electro Luminescence)からなる表示パネルおよび駆動ドライバ等を用いて構成される。また、接眼表示部212は、画面内で周回し、この周回する経路上の位置に応じて撮像装置1の動作が対応付けられる周回経路を表示する。周回経路は、円環状をなし、撮像装置1の動作として撮影に関する撮影パラメータが対応付けられている。ここで、撮影パラメータとは、撮影に関する露出情報、明るさ情報、ズーム倍率情報、焦点位置情報、ISO感度情報、絞り情報、シャッタスピード情報、画像処理部207による画像処理の処理情報および撮影モードに関する撮影モード情報である。また、撮影モード情報とは、絞り優先モード、シャッタ優先モード、特殊効果撮影モード、マニュアル撮影モードおよびオート撮影モードである。   The eyepiece display unit 212 is controlled by the main body control unit 223, and the image corresponding to the image data recorded on the SDRAM 219 or the processed image data via the bus 222 or the image data recorded on the recording medium 217. Is displayed. In this sense, the eyepiece display unit 212 functions as an eyepiece type electronic viewfinder (EVF). The eyepiece display unit 212 is configured using a display panel made of liquid crystal or organic EL (Electro Luminescence), a drive driver, and the like. Further, the eyepiece display unit 212 circulates within the screen, and displays an orbital route to which the operation of the imaging device 1 is associated according to the position on the orbiting route. The circulation path has an annular shape, and imaging parameters relating to imaging are associated with the operation of the imaging apparatus 1. Here, the shooting parameters relate to exposure information, brightness information, zoom magnification information, focus position information, ISO sensitivity information, aperture information, shutter speed information, processing information of image processing by the image processing unit 207, and shooting mode. This is shooting mode information. The shooting mode information includes an aperture priority mode, a shutter priority mode, a special effect shooting mode, a manual shooting mode, and an auto shooting mode.

アイセンサ213は、接眼表示部212の近傍に設けられ(図2を参照)、人の目が接眼表示部212の近くになるか否かを検出する。具体的には、アイセンサ213は、ユーザが接眼表示部212で画像を確認しているか否かを検出し、この検出結果を本体制御部223へ出力する。   The eye sensor 213 is provided in the vicinity of the eyepiece display unit 212 (see FIG. 2), and detects whether or not the human eye is close to the eyepiece display unit 212. Specifically, the eye sensor 213 detects whether or not the user confirms an image on the eyepiece display unit 212, and outputs the detection result to the main body control unit 223.

表示部214は、液晶または有機ELからなる表示パネルおよび駆動ドライバ等を用いて構成され、本体制御部223の制御のもと、バス222を介してSDRAM219に記録された画像データに対応する画像または記録媒体217に記録された画像データに対応する画像を表示する。ここで、画像の表示には、撮影直後の画像データを所定時間(たとえば3秒)だけ表示するレックビュー表示、記録媒体217に記録された画像データを再生する再生表示、および撮像素子203が連続的に生成する画像データに対応するライブビュー画像を時系列に沿って順次表示するライブビュー表示等が含まれる。また、表示部214は、撮像装置1の動作情報および撮影に関する情報を適宜表示する。なお、本実施の形態1では、表示部214が背面表示部として機能する。   The display unit 214 is configured using a display panel made of liquid crystal or organic EL, a drive driver, and the like, and is controlled by the main body control unit 223 to display an image or image corresponding to image data recorded in the SDRAM 219 via the bus 222. An image corresponding to the image data recorded on the recording medium 217 is displayed. Here, for image display, a rec view display that displays image data immediately after shooting for a predetermined time (for example, 3 seconds), a playback display that plays back image data recorded on the recording medium 217, and an image sensor 203 are continuously displayed. Live view display that sequentially displays live view images corresponding to image data to be generated in time series. In addition, the display unit 214 appropriately displays operation information of the imaging apparatus 1 and information related to shooting. In the first embodiment, the display unit 214 functions as a rear display unit.

タッチパネル215は、表示部214の表示画面上に重畳して設けられる。タッチパネル215は、外部からの物体のタッチを検出し、この検出したタッチ位置に応じた位置信号を本体制御部223へ出力する。また、タッチパネル215は、ユーザが表示部214で表示される情報、たとえばアイコン画像やサムネイル画像に基づいてタッチした位置を検出し、この検出したタッチ位置に応じて撮像装置1が行う動作を指示する指示信号や画像を選択する選択信号の入力を受け付けてもよい。一般に、タッチパネル215としては、抵抗膜方式、静電容量方式および光学方式等がある。本実施の形態1では、いずれの方式のタッチパネルであっても適用可能である。   The touch panel 215 is provided so as to be superimposed on the display screen of the display unit 214. The touch panel 215 detects an external object touch and outputs a position signal corresponding to the detected touch position to the main body control unit 223. The touch panel 215 detects a position touched based on information displayed on the display unit 214 by the user, for example, an icon image or a thumbnail image, and instructs an operation to be performed by the imaging apparatus 1 according to the detected touch position. An instruction signal or a selection signal for selecting an image may be received. In general, the touch panel 215 includes a resistance film method, a capacitance method, an optical method, and the like. In the first embodiment, any type of touch panel is applicable.

記録媒体217は、撮像装置1の外部から装着されるメモリカード等を用いて構成される。記録媒体217は、メモリI/F216を撮像装置1に着脱自在に装着される。記録媒体217には、画像処理部207または画像圧縮展開部210が処理を施した画像データが書き込まれる。   The recording medium 217 is configured using a memory card or the like mounted from the outside of the imaging device 1. The recording medium 217 has a memory I / F 216 attached to the imaging apparatus 1 in a detachable manner. In the recording medium 217, image data processed by the image processing unit 207 or the image compression / decompression unit 210 is written.

時計218は、計時機能および撮影日時の判定機能を有する。時計218は、撮像素子203によって生成された画像データに日時データを付加するため、日時データを本体制御部223へ出力する。   The clock 218 has a clocking function and a shooting date / time determination function. The clock 218 outputs the date / time data to the main body control unit 223 in order to add the date / time data to the image data generated by the image sensor 203.

SDRAM219は、揮発性メモリを用いて構成され、バス222を介してA/D変換部206から入力される画像データ、画像処理部207から入力される画像データおよび撮像装置1の処理中の情報を一時的に記録する。たとえば、SDRAM219は、信号処理部205、A/D変換部206およびバス222を介して撮像素子203が1フレーム毎に順次出力する画像データを一時的に記録する。   The SDRAM 219 is configured using a volatile memory, and stores image data input from the A / D conversion unit 206 via the bus 222, image data input from the image processing unit 207, and information being processed by the imaging apparatus 1. Record temporarily. For example, the SDRAM 219 temporarily records image data that the image sensor 203 sequentially outputs for each frame via the signal processing unit 205, the A / D conversion unit 206, and the bus 222.

Flashメモリ220は、プログラム記録部220aを有する。プログラム記録部220aは、撮像装置1を動作させるための各種プログラムおよびプログラムの実行中に使用される各種データおよび画像処理部207による画像処理の動作に必要な各画像処理のパラメータ等を記録する。Flashメモリ220は、不揮発性メモリを用いて構成される。   The flash memory 220 includes a program recording unit 220a. The program recording unit 220a records various programs for operating the imaging apparatus 1, various data used during the execution of the programs, parameters of each image processing necessary for the image processing operation by the image processing unit 207, and the like. The flash memory 220 is configured using a nonvolatile memory.

本体通信部221は、本体部2に接続されるレンズ部3との通信を行うための通信インターフェースである。   The main body communication unit 221 is a communication interface for performing communication with the lens unit 3 connected to the main body unit 2.

バス222は、撮像装置1の各構成部を接続する伝送路等を用いて構成される。バス222は、撮像装置1の内部で発生した各種データを撮像装置1の各構成部に転送する。   The bus 222 is configured using a transmission path or the like that connects each component of the imaging device 1. The bus 222 transfers various data generated inside the imaging apparatus 1 to each component of the imaging apparatus 1.

本体制御部223は、CPU(Central Processing Unit)等を用いて構成され、操作入力部211からの指示信号またはタッチパネル215からの位置信号に応じて撮像装置1を構成する各部に対応する指示やデータの転送等を行って撮像装置1の動作を統括的に制御する。   The main body control unit 223 is configured using a CPU (Central Processing Unit) or the like, and instructions and data corresponding to each unit configuring the imaging apparatus 1 in accordance with an instruction signal from the operation input unit 211 or a position signal from the touch panel 215. And the like.

本体制御部223の詳細な構成について説明する。本体制御部223は、タッチ検出部223aと、タッチ変換部223bと、表示制御部223cと、撮影制御部223dと、を有する。   A detailed configuration of the main body control unit 223 will be described. The main body control unit 223 includes a touch detection unit 223a, a touch conversion unit 223b, a display control unit 223c, and a shooting control unit 223d.

タッチ検出部223aは、タッチパネル215から入力される位置信号に応じて、ユーザがタッチパネル215に対してタッチしたタッチパネル215上におけるタッチ位置を検出する。   The touch detection unit 223a detects a touch position on the touch panel 215 where the user touches the touch panel 215 according to a position signal input from the touch panel 215.

タッチ変換部223bは、タッチ検出部223aが検出したタッチ位置を接眼表示部212が表示するライブビュー画像上における周回経路の位置に変換する。   The touch conversion unit 223b converts the touch position detected by the touch detection unit 223a into the position of the circulation path on the live view image displayed by the eyepiece display unit 212.

表示制御部223cは、タッチパネル215が入力を受け付けた位置信号に対応する接触位置を接眼表示部212または表示部214が表示する周回経路の位置に変換し、この変換した位置にマークを表示させる。具体的には、表示制御部223cは、タッチ変換部223bが変換した周回経路の表示位置にマークを表示部214または接眼表示部212に表示させる。また、表示制御部223cは、タッチパネル215が位置信号の入力を受け付けた際に、マークを周回経路上における所定位置に表示させる。   The display control unit 223c converts the contact position corresponding to the position signal received by the touch panel 215 into the position of the circulation path displayed by the eyepiece display unit 212 or the display unit 214, and displays a mark at the converted position. Specifically, the display control unit 223c causes the display unit 214 or the eyepiece display unit 212 to display a mark at the display position of the circulation path converted by the touch conversion unit 223b. In addition, when the touch panel 215 receives an input of a position signal, the display control unit 223c displays the mark at a predetermined position on the circuit route.

撮影制御部223dは、操作入力部211から入力される指示信号またはタッチパネル215から入力される位置信号に基づいて、撮像装置1の駆動を制御する。撮影制御部223dは、レリーズボタン211aから2ndレリーズ信号が入力された場合、撮像装置1における静止画撮影動作を開始する制御を行う。ここで、撮像装置1における静止画撮影動作とは、シャッタ駆動部202および撮像素子駆動部204の駆動によって撮像素子203が出力した画像データに対して、信号処理部205および画像処理部207が所定の処理を施す動作をいう。このように処理が施された画像データは、画像圧縮展開部210で所定の形式に従って圧縮され、バス222およびメモリI/F216を介して記録媒体217に記録される。また、撮影制御部223dは、接眼表示部212または表示部214が表示する周回経路上におけるマークの表示位置に応じて、撮像装置1の動作を制御する。具体的には、撮影制御部223dは、操作入力部211から撮像装置1の動作を決定する決定信号が入力された時点の周回経路上におけるマークの表示位置に対応する撮像装置1の動作、たとえば露出値の値で撮影を実行させる。なお、本実施の形態1では、撮影制御部223dが動作制御部として機能する。   The imaging control unit 223d controls driving of the imaging device 1 based on an instruction signal input from the operation input unit 211 or a position signal input from the touch panel 215. When the 2nd release signal is input from the release button 211a, the shooting control unit 223d performs control to start a still image shooting operation in the imaging device 1. Here, the still image shooting operation in the image pickup apparatus 1 means that the signal processing unit 205 and the image processing unit 207 perform predetermined processing on image data output from the image pickup device 203 by driving the shutter drive unit 202 and the image pickup device drive unit 204. This is the operation to perform the process. The image data thus processed is compressed by the image compression / decompression unit 210 according to a predetermined format, and is recorded on the recording medium 217 via the bus 222 and the memory I / F 216. In addition, the imaging control unit 223d controls the operation of the imaging apparatus 1 according to the mark display position on the circuit route displayed by the eyepiece display unit 212 or the display unit 214. Specifically, the imaging control unit 223d operates the imaging device 1 corresponding to the mark display position on the circuit path when the determination signal for determining the operation of the imaging device 1 is input from the operation input unit 211, for example, Shooting with the exposure value. In the first embodiment, the imaging control unit 223d functions as an operation control unit.

以上の構成を有する本体部2に対して、音声入出部、被写体に対して補助光(フラッシュ)を発光する補助光発光部、インターネットを介して外部の装置と双方向に送信を行う機能を有する通信部等をさらに設けてもよい。   The main body 2 having the above-described configuration has a sound input / output unit, an auxiliary light emitting unit that emits auxiliary light (flash) to the subject, and a function of bidirectional transmission with an external device via the Internet. A communication unit or the like may be further provided.

つぎに、レンズ部3の構成について説明する。レンズ部3は、光学系301と、レンズ駆動部302と、絞り303と、絞り駆動部304と、レンズ操作部305と、レンズFlashメモリ306と、レンズ通信部307と、レンズ制御部308と、を備える。   Next, the configuration of the lens unit 3 will be described. The lens unit 3 includes an optical system 301, a lens driving unit 302, a diaphragm 303, a diaphragm driving unit 304, a lens operation unit 305, a lens flash memory 306, a lens communication unit 307, a lens control unit 308, Is provided.

光学系301は、所定の視野領域から光りを集光する。光学系301は、複数のレンズを用いて構成される。光学系301は、焦点距離を変化させる光学ズーム機能および焦点を変化させるフォーカス機能を有する。レンズ駆動部302は、光学系301を光軸L上に沿って移動させることにより、光学系301のピント位置や焦点距離等の変更を行う。レンズ駆動部302は、DCモータやステッピングモータ等を用いて構成される。   The optical system 301 collects light from a predetermined visual field region. The optical system 301 is configured using a plurality of lenses. The optical system 301 has an optical zoom function for changing the focal length and a focus function for changing the focus. The lens driving unit 302 changes the focus position, the focal length, and the like of the optical system 301 by moving the optical system 301 along the optical axis L. The lens driving unit 302 is configured using a DC motor, a stepping motor, or the like.

絞り303は、光学系301が集光した光の入射量を制限することにより露出の調整を行う。絞り駆動部304は、ステッピングモータ等を用いて構成され、絞り303を駆動する。   The diaphragm 303 adjusts exposure by limiting the amount of incident light collected by the optical system 301. The aperture driving unit 304 is configured using a stepping motor or the like, and drives the aperture 303.

レンズ操作部305は、レンズ部3のレンズ鏡筒の周囲に設けられるリングであり、レンズ部3における光学ズームの操作を開始する指示信号の入力、またはレンズ部3におけるピント位置の調整または焦点距離の変更を指示する指示信号の入力を受け付ける。なお、レンズ操作部305は、プッシュ式のボタン、またはオン・オフを切り替え可能なレバー式のボタン等であってもよい。   The lens operation unit 305 is a ring provided around the lens barrel of the lens unit 3. The lens operation unit 305 is used to input an instruction signal for starting the optical zoom operation in the lens unit 3, or to adjust the focal position or the focal length in the lens unit 3. An input of an instruction signal for instructing the change of the input is accepted. The lens operation unit 305 may be a push-type button or a lever-type button that can be switched on / off.

レンズFlashメモリ306は、光学系301の位置および動きをそれぞれ決定するための制御用プログラム、光学系301のレンズ特性および各種パラメータ等を記録する。   The lens flash memory 306 records a control program for determining the position and movement of the optical system 301, the lens characteristics of the optical system 301, various parameters, and the like.

レンズ通信部307は、レンズ部3が本体部2に装着されたときに、本体部2の本体通信部221と通信を行うための通信インターフェースである。   The lens communication unit 307 is a communication interface for communicating with the main body communication unit 221 of the main body unit 2 when the lens unit 3 is attached to the main body unit 2.

レンズ制御部308、CPU等を用いて構成され、レンズ操作部305から入力される指示信号または本体部2から入力される指示信号に応じてレンズ部3の動作を制御する。具体的には、レンズ制御部308は、本体制御部223から入力された指示信号に応じて、レンズ駆動部302を駆動させてレンズ部3のピント合わせを行う。さらに、レンズ制御部308は、レンズ操作部305から入力される指示信号に応じて、絞り駆動部304を駆動させて絞り303の絞り値の変更を行う。また、レンズ制御部308は、レンズ部3が本体部2に装着された際に、レンズ通信部307および本体通信部221を介してレンズ部3に関するピント位置情報、焦点距離情報、明るさ情報(f値)、レンズ部3を識別する固有情報を本体部2へ送信する。   The lens control unit 308 is configured using a CPU and the like, and controls the operation of the lens unit 3 in accordance with an instruction signal input from the lens operation unit 305 or an instruction signal input from the main body unit 2. Specifically, the lens control unit 308 drives the lens driving unit 302 in accordance with an instruction signal input from the main body control unit 223 to focus the lens unit 3. Further, the lens control unit 308 changes the aperture value of the aperture 303 by driving the aperture drive unit 304 in accordance with an instruction signal input from the lens operation unit 305. In addition, the lens control unit 308, when the lens unit 3 is attached to the main body unit 2, uses the lens communication unit 307 and the main body communication unit 221 for focus position information, focal length information, and brightness information ( f value), unique information for identifying the lens unit 3 is transmitted to the main unit 2.

以上のように構成された撮像装置1が行う処理の概要について説明する。図4は、撮像装置1が実行する処理の概要を示すフローチャートである。   An outline of processing performed by the imaging apparatus 1 configured as described above will be described. FIG. 4 is a flowchart illustrating an outline of processing executed by the imaging apparatus 1.

図4に示すように、撮像装置1が撮影モードに設定されている場合(ステップS101:Yes)、表示制御部223cは、撮像素子203が連続的に生成する画像データに対応するライブビュー画像を表示部214または接眼表示部212に表示させる(ステップS102)。この場合、ユーザは、接眼表示部212または表示部214で表示されるライブビュー画像を見ながら撮影を行う。   As illustrated in FIG. 4, when the imaging apparatus 1 is set to the shooting mode (step S101: Yes), the display control unit 223c displays a live view image corresponding to image data continuously generated by the imaging element 203. It is displayed on the display unit 214 or the eyepiece display unit 212 (step S102). In this case, the user takes a picture while viewing the live view image displayed on the eyepiece display unit 212 or the display unit 214.

図5は、ユーザが接眼表示部212でライブビュー画像を確認しながら撮影する際の状況を示す図である。図6は、ユーザが表示部214でライブビュー画像を確認しながら撮影する際の状況を示す図である。   FIG. 5 is a diagram illustrating a situation when the user takes a picture while confirming the live view image on the eyepiece display unit 212. FIG. 6 is a diagram illustrating a situation when the user takes a picture while confirming the live view image on the display unit 214.

図5に示すように、ユーザは、接眼表示部212が表示するライブビュー画像を確認しながら撮影を行う場合、表示部214を見ることができない。このため、ユーザは、タッチパネル215を介して撮像装置1の撮影パラメータの変更を行うことができないが、指をタッチパネル215上で相対的に上下左右方向に滑らかに円を描くように動かすことができる。これに対して、図6に示すように、ユーザは、表示部214が表示するライブビュー画像を確認しながら撮影を行う場合、タッチパネル215を介して撮像装置1の撮影パラメータ、所望の被写体の選択、撮影モードの選択および画像処理部207による画像処理の設定を容易に行うことができるが、外光の影響により表示部214が表示するライブビュー画像で被写体の正確な色やピント状態の確認を行うことが難しい。さらに、図6において、レンズ部3の焦点距離が長くなることで、レンズ部3のレンズ鏡筒が長くなる場合、ユーザは、片手で撮像装置1を把持することが困難になる。   As shown in FIG. 5, the user cannot view the display unit 214 when shooting while confirming the live view image displayed by the eyepiece display unit 212. For this reason, the user cannot change the shooting parameters of the imaging device 1 via the touch panel 215, but can move the finger so as to smoothly draw a circle in the vertical and horizontal directions on the touch panel 215. . On the other hand, as shown in FIG. 6, when shooting while confirming the live view image displayed on the display unit 214, the user selects shooting parameters of the imaging apparatus 1 and a desired subject via the touch panel 215. It is possible to easily select the shooting mode and set the image processing by the image processing unit 207, but it is possible to check the accurate color and focus state of the subject in the live view image displayed on the display unit 214 due to the influence of external light. Difficult to do. Further, in FIG. 6, when the lens barrel of the lens unit 3 becomes longer due to the longer focal length of the lens unit 3, it becomes difficult for the user to hold the imaging device 1 with one hand.

ステップS102の後、撮像装置1は、ユーザが接眼表示部212で撮影を行っている場合において、タッチパネル215を介して撮像装置1の撮影パラメータを変更する際に接眼表示部212が表示するライブビュー画像上に撮像装置1の動作が対応付けられた周回経路としての円環を重畳して表示し、タッチパネル215に対するタッチ操作に応じて撮影パラメータを変更するタッチ円環変換表示処理を実行する。   After step S <b> 102, the imaging device 1 displays a live view displayed by the eyepiece display unit 212 when changing the shooting parameters of the imaging device 1 via the touch panel 215 when the user is shooting with the eyepiece display unit 212. A circular ring as a circular path associated with the operation of the imaging device 1 is displayed on the image so as to be superimposed, and a touch circular conversion display process is performed in which the shooting parameters are changed according to a touch operation on the touch panel 215.

図7は、ステップS103のタッチ円環変換表示処理の概要を示すフローチャートである。   FIG. 7 is a flowchart showing an overview of the touch ring conversion display process in step S103.

図7に示すように、タッチパネル215に対してタッチが開始された場合(ステップS201:Yes)、表示制御部223cは、接眼表示部212が表示するライブビュー画像上に撮像装置1の複数の動作内容をそれぞれ所定の間隔毎に配置した周回経路としての円環を重畳して表示させる(ステップS202)。   As illustrated in FIG. 7, when a touch is started on the touch panel 215 (step S201: Yes), the display control unit 223c performs a plurality of operations of the imaging device 1 on the live view image displayed by the eyepiece display unit 212. Annulus as a circular route in which the contents are arranged at predetermined intervals is superimposed and displayed (step S202).

続いて、タッチ変換部223bは、タッチ検出部223aがタッチパネル215から入力される位置信号に応じて検出したタッチパネル215上におけるタッチ位置Xt1,Yt1を、接眼表示部212がライブビュー画像上に重畳して表示する円環の起点Xf1,Yf1に変換する(ステップS203)。   Subsequently, the touch conversion unit 223b superimposes the touch positions Xt1 and Yt1 on the touch panel 215 detected by the touch detection unit 223a according to the position signal input from the touch panel 215 on the live view image. Are converted to the starting points Xf1 and Yf1 of the ring to be displayed (step S203).

図8は、タッチパネル215上におけるタッチ位置を模式的に示す図である。図9は、接眼表示部212が表示する集計経路としての円環を模式的に示す図である。なお、図8および図9においては、横方向をXとし、縦方向をYとする。   FIG. 8 is a diagram schematically showing a touch position on the touch panel 215. FIG. 9 is a diagram schematically showing an annulus as a totaling route displayed by the eyepiece display unit 212. 8 and 9, the horizontal direction is X and the vertical direction is Y.

図8および図9に示すように、タッチ変換部223bは、タッチ検出部223aがタッチパネル215から入力される位置信号に応じて検出したタッチパネル215上におけるタッチ位置Xt1,Yt1を、接眼表示部212がライブビュー画像W上に重畳して表示する周回経路としての円環B1の所定位置、たとえば、右端の起点Xf1,Yf1を円環B1の初期位置として変換する。表示制御部223cは、タッチ変換部223bが変換した初期位置にマークを接眼表示部212に表示させる。この際、表示制御部223cは、円環B1の表示領域を接眼表示部212の表示領域の略1/4になるように接眼表示部212に表示させる。具体的には、表示制御部223cは、接眼表示部212の表示画面の横方向の長さR1に対して、円環B1の直径r1の大きさが略1/4になるように表示させる。また、図9においては、右端をタッチ位置の起点にしているが、左端、上端または下端であってもよく、タッチパネル215上におけるタッチ位置に応じて、マークM1の起点を変更してもよい。さらに、周回経路として円環の必要はなく、たとえば三角や四角等の多角形であってもよい。 As shown in FIGS. 8 and 9, the touch conversion unit 223 b is configured such that the eyepiece display unit 212 displays the touch positions Xt <b> 1 and Yt <b> 1 on the touch panel 215 detected by the touch detection unit 223 a according to the position signal input from the touch panel 215. predetermined position of the annular B1 as circular path to be displayed superimposed on the live view image W 0, for example, converts the right edge of the origin Xf1, yf1 as the initial position of the annular B1. The display control unit 223c causes the eyepiece display unit 212 to display a mark at the initial position converted by the touch conversion unit 223b. At this time, the display control unit 223c causes the eyepiece display unit 212 to display the display area of the ring B1 so as to be approximately ¼ of the display area of the eyepiece display unit 212. Specifically, the display control unit 223c displays the size of the diameter r1 of the ring B1 so as to be approximately 1/4 with respect to the horizontal length R1 of the display screen of the eyepiece display unit 212. In FIG. 9, the right end is the starting point of the touch position, but the left end, the upper end, or the lower end may be used, and the starting point of the mark M <b> 1 may be changed according to the touch position on the touch panel 215. Furthermore, there is no need for a circular ring as the circulation path, and it may be a polygon such as a triangle or a square.

その後、表示制御部223cは、タッチ変換部223bが変換した円環B1の起点Xf1,Yf1にマークM1を重畳させて接眼表示部212に表示させる(ステップS204)。   Thereafter, the display control unit 223c causes the eyepiece display unit 212 to display the mark M1 superimposed on the starting points Xf1 and Yf1 of the ring B1 converted by the touch conversion unit 223b (step S204).

続いて、タッチ検出部223aが検出したタッチパネル215上におけるタッチ位置をSDRAM219に記録する(ステップS205)。ステップS205の後、撮像装置1は、図4のメインルーチンへ戻る。   Subsequently, the touch position on the touch panel 215 detected by the touch detection unit 223a is recorded in the SDRAM 219 (step S205). After step S205, the imaging apparatus 1 returns to the main routine in FIG.

ステップS201において、タッチパネル215に対してタッチ開始でなく(ステップS201:No)、表示部214の画面外からのスライド操作で停止した場合(ステップS206:Yes)、撮像装置1は、ステップS202へ移行する。これに対して、タッチパネル215に対してタッチ開始でなく(ステップS201:No)、表示部214の画面外からのスライド操作で停止していない場合(ステップS206:No)、撮像装置1は、ステップS207へ移行する。   In step S201, when the touch on the touch panel 215 is not started (step S201: No), but stopped by a slide operation from outside the screen of the display unit 214 (step S206: Yes), the imaging device 1 proceeds to step S202. To do. On the other hand, when the touch on the touch panel 215 is not started (step S201: No), and the slide operation from the outside of the screen of the display unit 214 is not stopped (step S206: No), the imaging device 1 performs the step The process proceeds to S207.

ステップS207において、ユーザがタッチパネル215に対してタッチ継続中である場合(ステップS207:Yes)において、タッチ位置が変化したとき(ステップS208:Yes)、タッチ検出部223aは、タッチパネル215から入力される位置信号に基づいて、X方向の変化ΔXおよびY方向の変化ΔYをそれぞれ検出する(ステップS209)。具体的には、タッチ検出部223aは、SDRAM219に記録されたタッチパネル215上における最新のタッチ位置と現在のタッチ位置とに基づいて、X方向の変化ΔXおよびY方向のΔYを検出する。   In step S207, when the user is continuously touching the touch panel 215 (step S207: Yes), when the touch position is changed (step S208: Yes), the touch detection unit 223a is input from the touch panel 215. Based on the position signal, a change ΔX in the X direction and a change ΔY in the Y direction are detected (step S209). Specifically, the touch detection unit 223a detects the change ΔX in the X direction and ΔY in the Y direction based on the latest touch position and the current touch position on the touch panel 215 recorded in the SDRAM 219.

続いて、本体制御部223は、X方向の変化ΔXの絶対値がY方向の変化ΔYの絶対値より大きいか否かを判断する(ステップS210)。本体制御部223がX方向の変化ΔXの絶対値がY方向の変化ΔYの絶対値より大きいと判断した場合(ステップS210:Yes)、撮像装置1は、後述するステップS211へ移行する。これに対して、本体制御部223がX方向の変化ΔXの絶対値がY方向の変化ΔYより大きくないと判断した場合(ステップS210:No)、撮像装置1は、後述するステップS216へ移行する。   Subsequently, the main body control unit 223 determines whether or not the absolute value of the change ΔX in the X direction is larger than the absolute value of the change ΔY in the Y direction (step S210). When the main body control unit 223 determines that the absolute value of the change ΔX in the X direction is larger than the absolute value of the change ΔY in the Y direction (step S210: Yes), the imaging device 1 proceeds to step S211 described later. On the other hand, when the main body control unit 223 determines that the absolute value of the change ΔX in the X direction is not larger than the change ΔY in the Y direction (step S210: No), the imaging device 1 proceeds to step S216 described later. .

ステップS211において、X方向の変化ΔX>0である場合(ステップS211:Yes)において、マークM1の表示位置が円環B1の領域A2または領域A4であるとき(ステップS212:Yes)、表示制御部223cは、円環B1の円弧に沿ってマークM1を右方向へ移動させて接眼表示部212に表示させる(ステップS213)。具体的には、図10に示すように、表示制御部223cは、マークM1の表示位置が円環B1の領域A2またはA4であるとき、円環B1の円弧に沿ってマークM1を右方向へ移動させて接眼表示部212に表示させる。たとえば、図11に示すように、表示制御部223cは、接眼表示部212がライブビュー画像W1を表示している場合において(図11(a))、ユーザがタッチパネル215に対して斜め下方向にスライド操作を行ったとき(図11(b)→図11(c))、マークM1を領域A2から領域A1へ移動させて接眼表示部212へ表示させる。この際、表示制御部223cは、マークM1の表示位置を90度毎に移動させながら接眼表示部212に表示させてもよい。 In step S211, when the change in X direction ΔX> 0 (step S211: Yes), when the display position of the mark M1 is the region A2 or the region A4 of the ring B1 (step S212: Yes), the display control unit 223c moves the mark M1 to the right along the arc of the ring B1 and displays it on the eyepiece display unit 212 (step S213). Specifically, as shown in FIG. 10, when the display position of the mark M1 is the region A2 or A4 of the ring B1, the display control unit 223c moves the mark M1 rightward along the arc of the ring B1. It is moved and displayed on the eyepiece display unit 212. For example, as illustrated in FIG. 11, when the eyepiece display unit 212 displays the live view image W 1 (FIG. 11A), the display control unit 223 c is inclined downward with respect to the touch panel 215. When the slide operation is performed (FIG. 11 (b) → FIG. 11 (c)), the mark M1 is moved from the region A2 to the region A1 and displayed on the eyepiece display unit 212. At this time, the display control unit 223c may display the mark M1 on the eyepiece display unit 212 while moving the display position by 90 degrees.

このように、ユーザは、接眼表示部212に対して接眼した状態で撮影パラメータを表示部214で確認することができないうえ、指でマークM1に接触させながら円環B1に沿って正確に動かせなくても、タッチパネル215上におけるスライド操作で円を描くように移動させることによって、仮想的に円環B1のマークM1を操作することができるので、タッチパネル215上におけるタッチ位置に関わらず、直感的な操作で所望の撮影パラメータの変更を敏速に行うことができる。さらに、ユーザは、接眼表示部212に接眼した状態で、撮像装置1をしっかりとホールディングし、かつ自由になる右手親指の大まかな操作で、撮影パラメータの微調整を行うことができる。なお、図11においては、撮影パラメータとして、特殊効果処理部207aの特殊効果の項目アイコンA1〜A3(Art1〜Art3)を例に表すが、スライド操作の操作量に応じて、撮影パラメータに関するアイコンの項目、内容および位置を変更してもよい。さらに、図11のライブビュー画像W2においては、特殊効果処理としてシェーディング処理が施された状態をハッチングで示す。ステップS213の後、撮像装置1は、図4のメインルーチンへ戻る。 As described above, the user cannot check the shooting parameters on the display unit 214 while the eyepiece is in contact with the eyepiece display unit 212, and cannot move accurately along the ring B1 while touching the mark M1 with a finger. However, since the mark M1 of the ring B1 can be virtually operated by moving it so as to draw a circle by a slide operation on the touch panel 215, it is intuitive regardless of the touch position on the touch panel 215. The desired shooting parameter can be changed quickly by operation. Further, the user can finely adjust the shooting parameter by performing a rough operation of the right thumb that is firmly held while the eyepiece display unit 212 is in contact with the eyepiece display unit 212 and is free. In FIG. 11, the special effect item icons A1 to A3 (Art1 to Art3) of the special effect processing unit 207a are illustrated as examples of the shooting parameters. However, according to the operation amount of the slide operation, icons of shooting parameters are displayed. Items, content and position may be changed. Further, in the live view image W 2 in FIG. 11 shows a state in which the shading process has been performed as a special effect processing by the hatching. After step S213, the imaging apparatus 1 returns to the main routine in FIG.

ステップS212において、マークM1の表示位置が円環B1の領域A2または領域A4でない場合(ステップS212:No)、撮像装置1は、図4のメインルーチンへ戻る。   In step S212, when the display position of the mark M1 is not the area A2 or the area A4 of the ring B1 (step S212: No), the imaging device 1 returns to the main routine of FIG.

ステップS211において、X方向の変化ΔX>0でない場合(ステップS211:No)において、マークM1の表示位置が円環B1の領域A2またはA4であるとき(ステップS214:Yes)、表示制御部223cは、円環B1の円弧に沿ってマークM1を左方向へ移動させて接眼表示部212に表示させる(ステップS215)。ステップS215の後、撮像装置1は、図4のメインルーチンへ戻る。   In step S211, when the change in the X direction ΔX> 0 is not satisfied (step S211: No), when the display position of the mark M1 is the region A2 or A4 of the ring B1 (step S214: Yes), the display control unit 223c Then, the mark M1 is moved leftward along the arc of the ring B1 and displayed on the eyepiece display unit 212 (step S215). After step S215, the imaging apparatus 1 returns to the main routine in FIG.

ステップS214において、マークM1の表示位置が円環B1の領域A2または領域A4でないとき(ステップS214:No)、撮像装置1は、図4のメインルーチンへ戻る。   In step S214, when the display position of the mark M1 is not the area A2 or the area A4 of the ring B1 (step S214: No), the imaging device 1 returns to the main routine of FIG.

ステップS216において、Y方向の変化ΔY>0である場合(ステップS216:Yes)において、マークM1の表示位置が円環B1の領域A1または領域A3であるとき(ステップS217:Yes)、表示制御部223cは、円環B1の円弧に沿ってマークM1を上方向へ移動させて接眼表示部212に表示させる(ステップS218)。ステップS218の後、撮像装置1は、図4のメインルーチンへ戻る。   In step S216, when the change in Y direction ΔY> 0 (step S216: Yes), when the display position of the mark M1 is the area A1 or the area A3 of the ring B1 (step S217: Yes), the display control unit 223c moves the mark M1 upward along the arc of the ring B1 and displays it on the eyepiece display unit 212 (step S218). After step S218, the imaging apparatus 1 returns to the main routine in FIG.

ステップS217において、マークM1の表示位置が円環B1の領域A1または領域A3でない場合(ステップS217:No)、撮像装置1は、図4のメインルーチンへ戻る。   In step S217, when the display position of the mark M1 is not the area A1 or the area A3 of the ring B1 (step S217: No), the imaging device 1 returns to the main routine of FIG.

ステップS216において、Y方向の変化ΔY>0でない場合(ステップS216:No)において、マークM1の表示位置が円環B1の領域A1または領域A3であるとき(ステップS219:Yes)、表示制御部223cは、円環B1の円弧に沿ってマークM1を下方向へ移動させて接眼表示部212に表示させる(ステップS220)。ステップS220の後、撮像装置1は、図4のメインルーチンへ戻る。   In step S216, when the change in Y direction ΔY> 0 is not satisfied (step S216: No), when the display position of the mark M1 is the region A1 or the region A3 of the ring B1 (step S219: Yes), the display control unit 223c. Moves the mark M1 downward along the arc of the ring B1 and displays it on the eyepiece display unit 212 (step S220). After step S220, the imaging apparatus 1 returns to the main routine in FIG.

ステップS219において、マークM1の表示位置が円環B1の領域A1または領域A3でない場合(ステップS219:No)、撮像装置1は、図4のメインルーチンへ戻る。   In step S219, when the display position of the mark M1 is not the region A1 or the region A3 of the ring B1 (step S219: No), the imaging device 1 returns to the main routine of FIG.

ステップS207において、ユーザがタッチパネル215に対してタッチ継続中である場合(ステップS207:Yes)において、タッチ位置が変化していないとき(ステップS208:No)、撮像装置1は、図4のメインルーチンへ戻る。   In step S207, when the user is continuously touching the touch panel 215 (step S207: Yes), when the touch position is not changed (step S208: No), the imaging apparatus 1 performs the main routine of FIG. Return to.

ステップS207において、タッチパネル215に対してタッチ継続中でない場合(ステップS207:No)、本体制御部223は、SDRAM219に記録されたタッチ位置に関する位置情報をリセットするタッチ位置初期化を行う(ステップS221)。   In step S207, when the touch on the touch panel 215 is not continuing (step S207: No), the main body control unit 223 performs touch position initialization that resets position information related to the touch position recorded in the SDRAM 219 (step S221). .

続いて、表示制御部223cは、接眼表示部212が表示するライブビュー画像上における円環B1とマークM1の表示を終了する(ステップS222)。ステップS222の後、撮像装置1は、図4のメインルーチンへ戻る。   Subsequently, the display control unit 223c ends the display of the ring B1 and the mark M1 on the live view image displayed by the eyepiece display unit 212 (step S222). After step S222, the imaging apparatus 1 returns to the main routine of FIG.

図4に戻り、ステップS104以降の説明を続ける。ステップS104において、撮影パラメータの項目が選択されている場合(ステップS104:Yes)、表示制御部223cは、マークM1位置相当の項目を候補として接眼表示部212にハイライト表示させる(ステップS105)。具体的には、図11(c)に示すように、表示制御部223cは、マークM1位置相当のArt3アイコンA3を接眼表示部212にハイライト表示させる。これにより、ユーザは、選択した撮影パラメータの項目を直感的に把握することができる。これに対して、撮影パラメータの項目が選択されていない場合(ステップS104:No)、撮像装置1は、ステップS106へ移行する。   Returning to FIG. 4, the description of step S104 and subsequent steps will be continued. If the shooting parameter item is selected in Step S104 (Step S104: Yes), the display control unit 223c highlights the item corresponding to the mark M1 position on the eyepiece display unit 212 as a candidate (Step S105). Specifically, as illustrated in FIG. 11C, the display control unit 223c highlights the Art3 icon A3 corresponding to the mark M1 position on the eyepiece display unit 212. Thus, the user can intuitively grasp the selected shooting parameter item. On the other hand, when the shooting parameter item is not selected (step S104: No), the imaging apparatus 1 proceeds to step S106.

続いて、選択された撮影パラメータの数値が変化した場合(ステップS106:Yes)、撮影制御部223dは、マーク位置相当の数値を候補に設定する(ステップS107)。具体的には、図12に示すように、撮影制御部223dは、複数の撮影パラメータの項目、たとえばZoomアイコンA11、FocusアイコンA12、露出アイコンA13の中から露出が設定され(図12(a))、接眼表示部212がライブビュー画像W1上に露出アイコンA13を表示している場合において、タッチ操作に応じて露出のパラメータの数値が変化したとき(たとえば−2アイコンA14)、現在のマーク位置相当の数値を候補として設定する。これに対して、選択された撮影パラメータの数値が変化していない場合(ステップS106:No)、撮像装置1は、ステップS108へ移行する。   Subsequently, when the numerical value of the selected shooting parameter changes (step S106: Yes), the shooting control unit 223d sets a numerical value corresponding to the mark position as a candidate (step S107). Specifically, as shown in FIG. 12, the shooting control unit 223d sets exposure from a plurality of shooting parameter items, for example, a Zoom icon A11, a Focus icon A12, and an exposure icon A13 (FIG. 12A). ) When the eyepiece display unit 212 displays the exposure icon A13 on the live view image W1, when the numerical value of the exposure parameter changes according to the touch operation (for example, the -2 icon A14), the current mark position Appropriate numerical values are set as candidates. On the other hand, when the numerical value of the selected shooting parameter has not changed (step S106: No), the imaging apparatus 1 proceeds to step S108.

その後、撮影パラメータの項目・数値が決定された場合(ステップS108:Yes)、撮影制御部223dは、選択された撮影パラメータの項目・数値を決定して制御を反映する(ステップS109)。具体的には、レリーズボタン211aからファーストレリーズ信号が入力された場合、またはタッチパネル215を介して決定アイコン(図示せず)が選択された場合、撮影制御部223dは、選択された現在の撮影パラメータの項目・数値を決定して撮像装置1の制御に反映する。たとえば、撮影制御部223dは、選択された撮影パラメータの項目が露出の場合において、数値が−2のとき、撮影する画像データの露出値を−2に設定する。これにより、図12(b)に示すように、接眼表示部212が表示するライブビュー画像W3が露出アンダーになる。これに対して、撮影パラメータの項目・数値が決定されていない場合(ステップS108:No)、撮像装置1は、ステップS110へ移行する。 Thereafter, when the shooting parameter item / value is determined (step S108: Yes), the shooting control unit 223d determines the selected shooting parameter item / value and reflects the control (step S109). Specifically, when a first release signal is input from the release button 211a or when a determination icon (not shown) is selected via the touch panel 215, the shooting control unit 223d selects the current shooting parameter selected. Are determined and reflected in the control of the image pickup apparatus 1. For example, when the selected shooting parameter item is exposure, the shooting control unit 223d sets the exposure value of the image data to be shot to −2 when the numerical value is −2. Thus, as shown in FIG. 12 (b), the live view image W 3 of the eyepiece display unit 212 displays is underexposed. On the other hand, when the shooting parameter item / numerical value has not been determined (step S108: No), the imaging apparatus 1 proceeds to step S110.

続いて、レリーズボタン211aからセカンドレリーズ信号が入力され、静止画撮影を行う場合(ステップS110:Yes)、撮影制御部223dは、シャッタ駆動部202を駆動することにより、メカシャッタによる静止画撮影を行う(ステップS111)。ステップS111の後、撮像装置1は、ステップS112へ移行する。これに対して、レリーズボタン211aからセカンドレリーズ信号の入力がなく、静止画撮影を行わない場合(ステップS110:No)、撮像装置1は、ステップS112へ移行する。   Subsequently, when a second release signal is input from the release button 211a and still image shooting is performed (step S110: Yes), the shooting control unit 223d drives the shutter driving unit 202 to perform still image shooting using a mechanical shutter. (Step S111). After step S111, the imaging apparatus 1 proceeds to step S112. On the other hand, when the second release signal is not input from the release button 211a and the still image shooting is not performed (step S110: No), the imaging device 1 proceeds to step S112.

その後、動画ボタン211bが操作された場合(ステップS112:Yes)、撮影制御部223dは、撮像素子203が連続的に生成する画像データを時系列に沿って記録媒体217に記録する動画撮影を開始する(ステップS113)。ステップS113の後、撮像装置1は、ステップS114へ移行する。これに対して、動画ボタン211bが操作されていない場合(ステップS112:No)、撮像装置1は、ステップS114へ移行する。   Thereafter, when the moving image button 211b is operated (step S112: Yes), the shooting control unit 223d starts moving image shooting in which the image data continuously generated by the image sensor 203 is recorded on the recording medium 217 in time series. (Step S113). After step S113, the imaging apparatus 1 proceeds to step S114. On the other hand, when the moving image button 211b is not operated (step S112: No), the imaging device 1 proceeds to step S114.

続いて、動画ボタン211bが操作され、動画撮影を終了する指示信号が入力された場合(ステップS114:Yes)、撮影制御部223dは、動画撮影を終了する(ステップS115)。ステップS115の後、撮像装置1は、ステップS116へ移行する。これに対して、動画撮影を終了する指示信号が入力されていない場合(ステップS114:No)、撮像装置1は、ステップS116へ移行する。   Subsequently, when the moving image button 211b is operated and an instruction signal for ending moving image shooting is input (step S114: Yes), the shooting control unit 223d ends moving image shooting (step S115). After step S115, the imaging apparatus 1 proceeds to step S116. On the other hand, when the instruction signal for ending the moving image shooting is not input (step S114: No), the imaging device 1 proceeds to step S116.

その後、電源ボタン211fが操作され、撮像装置1の電源がオフになった場合(ステップS116:Yes)、撮像装置1は、本処理を終了する。これに対して、撮像装置1の電源がオフになっていない場合(ステップS116:No)、撮像装置1は、ステップS101へ移行する。   Thereafter, when the power button 211f is operated and the power of the imaging apparatus 1 is turned off (step S116: Yes), the imaging apparatus 1 ends this process. On the other hand, when the power of the imaging device 1 is not turned off (step S116: No), the imaging device 1 proceeds to step S101.

ステップS101において、撮像装置1が撮影モードでなく(ステップS101:No)、再生モードに設定されている場合(ステップS117:Yes)、表示制御部223cは、記録媒体217に記録された画像データのファイル一覧を表示部214に表示させる(ステップS118)。   In step S101, when the imaging apparatus 1 is not in the shooting mode (step S101: No) and is set to the playback mode (step S117: Yes), the display control unit 223c performs the processing of the image data recorded on the recording medium 217. A file list is displayed on the display unit 214 (step S118).

続いて、タッチパネル215を介して表示部214が表示するファイル一覧からファイルが選択された場合(ステップS119:Yes)、表示制御部223cは、選択されたファイルを表示部214に再生させる(ステップS120)。   Subsequently, when a file is selected from the file list displayed on the display unit 214 via the touch panel 215 (step S119: Yes), the display control unit 223c causes the display unit 214 to reproduce the selected file (step S120). ).

その後、操作入力部211からファイルの再生を終了する指示信号が入力された場合(ステップS121:Yes)、撮像装置1は、ステップS118へ戻る。これに対して、操作入力部211からファイルの再生を終了する指示信号が入力されていない場合(ステップS121:No)、撮像装置1は、ステップS120へ戻る。   Thereafter, when an instruction signal for ending the reproduction of the file is input from the operation input unit 211 (step S121: Yes), the imaging device 1 returns to step S118. On the other hand, when the instruction signal for ending the file reproduction is not input from the operation input unit 211 (step S121: No), the imaging apparatus 1 returns to step S120.

ステップS119において、タッチパネル215を介して表示部214が表示するファイル一覧からファイルが選択されていない場合(ステップS119:No)、撮像装置1は、ステップS122へ移行する。   In step S119, when no file is selected from the file list displayed on the display unit 214 via the touch panel 215 (step S119: No), the imaging apparatus 1 proceeds to step S122.

続いて、操作入力部211から再生モードの終了を指示する指示信号が入力された場合(ステップS122:Yes)、撮像装置1は、ステップS116へ移行する。これに対して、操作入力部211から再生モードの終了を指示する指示信号が入力されていない場合(ステップS122:No)、撮像装置1は、ステップS118へ戻る。   Subsequently, when an instruction signal for instructing the end of the reproduction mode is input from the operation input unit 211 (step S122: Yes), the imaging device 1 proceeds to step S116. On the other hand, when the instruction signal for instructing the end of the reproduction mode is not input from the operation input unit 211 (step S122: No), the imaging apparatus 1 returns to step S118.

ステップS117において、撮像装置1が再生モードに設定されていない場合(ステップS117:No)、撮像装置1は、ステップS116へ移行する。   In step S117, when the imaging device 1 is not set to the reproduction mode (step S117: No), the imaging device 1 proceeds to step S116.

以上説明した本発明の実施の形態1によれば、接眼表示部212に対して接眼して指でマークM1に接触させながら円環B1に沿って正確に動かせなくても、タッチパネル215上におけるスライド操作の左右上下方向の位置を移動させることによって、仮想的に円環B1のマークM1を移動させることができるので、直感的な操作で所望の撮影パラメータの変更を敏速に行うことができる。   According to the first embodiment of the present invention described above, the slide on the touch panel 215 is possible even if the eyepiece display unit 212 is in contact with the mark M1 with the finger and cannot be moved accurately along the ring B1. By moving the position in the left / right / up / down direction of the operation, the mark M1 of the ring B1 can be virtually moved, so that a desired shooting parameter can be quickly changed by an intuitive operation.

(実施の形態2)
つぎに、本発明の実施の形態2について説明する。本実施の形態2にかかる撮像装置は、上述した実施の形態1にかかる撮像装置と同一の構成を有し、タッチ円環変換表示処理が異なる。このため、以下においては、本実施の形態2にかかる撮像装置が実行するタッチ円環変換表示処理について説明する。なお、上述した実施の形態1にかかる撮像装置と同一の構成には同一の符号を付して説明する。
(Embodiment 2)
Next, a second embodiment of the present invention will be described. The imaging apparatus according to the second embodiment has the same configuration as the imaging apparatus according to the first embodiment described above, and the touch ring conversion display process is different. Therefore, in the following, a touch ring conversion display process executed by the imaging apparatus according to the second embodiment will be described. Note that the same components as those in the imaging apparatus according to the first embodiment described above are denoted by the same reference numerals and described.

図13は、本実施の形態2にかかる撮像装置1が実行するタッチ円環変換表示処理の概要を示すフローチャートである。   FIG. 13 is a flowchart illustrating an outline of the touch ring conversion display process executed by the imaging apparatus 1 according to the second embodiment.

図13に示すように、タッチパネル215に対してタッチが開始された場合(ステップS301:Yes)において、撮像装置1の撮影パラメータの項目が未決定のとき(ステップS302:Yes)、本体制御部223は、撮影パラメータの項目のアイコンの何れかに対して、画面内側にスライド操作が行われたか否かを判断する(ステップS303)。具体的には、図14に示すように、本体制御部223は、表示部214が表示するZoomアイコンA21、FocusアイコンA22および露出アイコンA23の中から露出アイコンA23の表示領域に対して、画面内側にスライド操作が行われたか否かを判断する(図14(a)→図14(b)→図14(c))。本体制御部223が撮影パラメータの項目のアイコンの何れかに対して、画面内側にスライド操作が行われたと判断した場合(ステップS303:Yes)、撮像装置1は、ステップS304へ移行する。これに対して、本体制御部223が撮影パラメータの項目アイコンの何れにも、画面内側にスライド操作が行われていないと判断した場合(ステップS303:No)、撮像装置1は、図4のメインルーチンへ戻る。   As illustrated in FIG. 13, when the touch on the touch panel 215 is started (step S301: Yes), when the shooting parameter item of the imaging apparatus 1 is not determined (step S302: Yes), the main body control unit 223. Determines whether or not a slide operation has been performed on the inner side of the screen for any of the imaging parameter item icons (step S303). Specifically, as shown in FIG. 14, the main body control unit 223 displays the inside of the screen with respect to the display area of the exposure icon A23 from among the Zoom icon A21, the Focus icon A22, and the exposure icon A23 displayed by the display unit 214. It is determined whether or not a slide operation has been performed (FIG. 14 (a) → FIG. 14 (b) → FIG. 14 (c)). When the main body control unit 223 determines that a slide operation has been performed on the inner side of the screen for any of the imaging parameter item icons (step S303: Yes), the imaging apparatus 1 proceeds to step S304. On the other hand, when the main body control unit 223 determines that no slide operation is performed on the inner side of the screen for any of the shooting parameter item icons (step S303: No), the imaging apparatus 1 displays the main icon in FIG. Return to the routine.

ステップS304において、撮影制御部223dは、スライド操作が行われたアイコンに対応する項目を、撮影パラメータを変更する項目に決定する。たとえば、図14に示すように、本体制御部223は、露出アイコンA21にスライド操作が行われた場合、撮影パラメータとして露出値の変更に決定する(図14(c)→図14(d))。   In step S304, the imaging control unit 223d determines an item corresponding to the icon on which the slide operation has been performed as an item for changing the imaging parameter. For example, as shown in FIG. 14, when a slide operation is performed on the exposure icon A21, the main body control unit 223 determines to change the exposure value as a shooting parameter (FIG. 14 (c) → FIG. 14 (d)). .

ステップS305〜ステップS308は、図7のステップS202〜ステップS205にそれぞれ対応する。ステップS307の後、撮像装置1は、図4のメインルーチンへ戻る。   Steps S305 to S308 correspond to steps S202 to S205 in FIG. 7, respectively. After step S307, the imaging apparatus 1 returns to the main routine of FIG.

ステップS301において、タッチパネル215に対して、タッチが開始されておらず(ステップS301:No)、タッチ検出部223aが表示部214の画面外からのスライド操作を検出した場合(ステップS309:Yes)、撮像装置1は、ステップS309へ移行する。   In step S301, when touch on the touch panel 215 is not started (step S301: No), and the touch detection unit 223a detects a slide operation from outside the screen of the display unit 214 (step S309: Yes), The imaging device 1 proceeds to step S309.

続いて、撮影パラメータの項目のアイコン上でスライド操作が停止した場合(ステップS310:Yes)、表示制御部223cは、表示部214にスライド操作が停止したアイコンをハイライト表示させる(ステップS311)。ステップS311の後、撮像装置1は、図4のメインルーチンへ戻る。   Subsequently, when the slide operation is stopped on the icon of the shooting parameter item (step S310: Yes), the display control unit 223c highlights the icon for which the slide operation has been stopped on the display unit 214 (step S311). After step S311, the imaging apparatus 1 returns to the main routine of FIG.

ステップS310において、撮影パラメータの項目のアイコン上でスライド操作が停止していない場合(ステップS310:No)、撮像装置1は、図4のメインルーチンへ戻る。   In step S310, when the slide operation is not stopped on the icon of the shooting parameter item (step S310: No), the imaging apparatus 1 returns to the main routine of FIG.

ステップS301において、タッチパネル215に対して、タッチが開始されておらず(ステップS301:No)、タッチ検出部223aが表示部214の画面外からのスライド操作を検出していない場合(ステップS309:No)、撮像装置1は、ステップS302へ移行する。   In step S301, the touch on the touch panel 215 has not been started (step S301: No), and the touch detection unit 223a has not detected a slide operation from outside the screen of the display unit 214 (step S309: No). ), The imaging apparatus 1 proceeds to step S302.

ステップS302において、撮影パラメータの項目が決定されている場合(ステップS302:Yes)、撮像装置1は、ステップS312へ移行する。   If the shooting parameter item has been determined in step S302 (step S302: Yes), the imaging apparatus 1 proceeds to step S312.

ステップS312〜ステップS327は、図4のステップS206〜ステップS221にそれぞれ対応する。この際、図14(d)に示すように、撮影パラメータの項目として露出が設定された場合、撮影制御部223dは、タッチ操作に応じて、露出値を変更する。   Steps S312 to S327 correspond to steps S206 to S221 of FIG. 4, respectively. At this time, as shown in FIG. 14D, when exposure is set as an item of the shooting parameter, the shooting control unit 223d changes the exposure value according to the touch operation.

以上説明した本発明の実施の形態2によれば、表示部214が表示する撮影パラメータの項目を選択した後に、この選択した項目の撮影パラメータの内容や数値を接眼表示部212に接眼しながらタッチブランドで変更することができる。   According to the second embodiment of the present invention described above, after selecting an imaging parameter item to be displayed on the display unit 214, the user touches the eyepiece display unit 212 while touching the contents and numerical values of the imaging parameter of the selected item. Can change with brand.

(実施の形態3)
つぎに、本発明の実施の形態3について説明する。本実施の形態3にかかる撮像装置は、上述した実施の形態1にかかる撮像装置と同一の構成を有し、タッチ円環変換表示処理が異なる。このため、以下においては、本実施の形態3にかかる撮像装置が実行するタッチ円環変換表示処理について説明する。なお、上述した実施の形態1にかかる撮像装置1と同一の構成には同一の符号を付して説明する。
(Embodiment 3)
Next, a third embodiment of the present invention will be described. The imaging apparatus according to the third embodiment has the same configuration as the imaging apparatus according to the first embodiment described above, and the touch ring conversion display process is different. Therefore, in the following, a touch ring conversion display process executed by the imaging apparatus according to the third embodiment will be described. In addition, the same code | symbol is attached | subjected and demonstrated to the structure same as the imaging device 1 concerning Embodiment 1 mentioned above.

図15は、本実施の形態3にかかる撮像装置1が実行するタッチ円環変換表示処理の概要を示すフローチャートである。   FIG. 15 is a flowchart illustrating an outline of the touch ring conversion display process executed by the imaging apparatus 1 according to the third embodiment.

図15に示すように、本体制御部223は、撮影パラメータの項目が決定済みであるか否かを判断する(ステップS401)。本体制御部223が撮影パラメータの項目が決定済みであると判断した場合(ステップS401:Yes)、撮像装置1は、後述するステップS402へ移行する。これに対して、本体制御部223が撮影パラメータの項目が決定済みでないと判断した場合(ステップS401:No)、撮像装置1は、後述するステップS411へ移行する。   As shown in FIG. 15, the main body control unit 223 determines whether or not the shooting parameter item has been determined (step S401). When the main body control unit 223 determines that the shooting parameter item has been determined (step S401: Yes), the imaging apparatus 1 proceeds to step S402 to be described later. On the other hand, when the main body control unit 223 determines that the shooting parameter item has not been determined (step S401: No), the imaging apparatus 1 proceeds to step S411 described later.

ステップS402において、表示部214が撮像装置1の複数の動作内容を所定の間隔毎に配置した動作情報としての円環を表示済みである場合(ステップS402:Yes)において、円環の中心方向にスライド操作があったとき(ステップS403:Yes)、撮影制御部223dは、表示部214が表示している現在の撮影パラメータの項目の数値を撮像装置1の撮影パラメータとして決定する(ステップS404)。具体的には、図16に示すように、撮影制御部223dは、接眼表示部212がライブビュー画像W4上に円環B2を表示している場合において、円環B2の中心方向にスライド操作があったとき、表示部214が表示している現在のパラメータ、たとえば露出値+1/3を決定する(図16(a)→図16(b))。   In step S402, when the display unit 214 has already displayed a ring as operation information in which a plurality of operation contents of the imaging device 1 are arranged at predetermined intervals (step S402: Yes), the display unit 214 moves toward the center of the ring. When there is a slide operation (step S403: Yes), the imaging control unit 223d determines the numerical value of the current imaging parameter item displayed on the display unit 214 as the imaging parameter of the imaging device 1 (step S404). Specifically, as illustrated in FIG. 16, when the eyepiece display unit 212 displays the ring B2 on the live view image W4, the imaging control unit 223d performs a slide operation toward the center of the ring B2. If there is, the current parameter displayed on the display unit 214, for example, the exposure value + 1/3 is determined (FIG. 16 (a) → FIG. 16 (b)).

続いて、撮影制御部223dは、SDRAM219が記録するタッチ位置情報を初期化する(ステップS405)。   Subsequently, the imaging control unit 223d initializes touch position information recorded by the SDRAM 219 (step S405).

その後、表示制御部223cは、表示部214に円環B2と円環B2上のマークM2の表示を終了させる(ステップS406)。ステップS406の後、撮像装置1は、図4のメインルーチンへ戻る。   Thereafter, the display control unit 223c ends the display of the ring B2 and the mark M2 on the ring B2 on the display unit 214 (step S406). After step S406, the imaging apparatus 1 returns to the main routine in FIG.

ステップS402において、表示部214が円環B2を表示済みでない場合(ステップS402)、表示制御部223cは、表示部214に画面中央に円環B2とマークM2を表示させる(ステップS407)。   In step S402, when the display unit 214 has not displayed the ring B2 (step S402), the display control unit 223c causes the display unit 214 to display the ring B2 and the mark M2 at the center of the screen (step S407).

続いて、円環B2に対して回転スライド操作またはレンズ操作部305の操作リング305aが回動された場合(ステップS408:Yes)、撮影制御部223dは、操作内容に従って、撮影パラメータを変更する(ステップS409)。   Subsequently, when the rotary slide operation or the operation ring 305a of the lens operation unit 305 is rotated with respect to the ring B2 (step S408: Yes), the imaging control unit 223d changes the imaging parameter according to the operation content ( Step S409).

その後、撮影制御部223dは、タッチ検出部223aが判定したタッチ位置をSDRAM219に記録する(ステップS410)。ステップS410の後、撮像装置1は、図4のメインルーチンへ戻る。   Thereafter, the imaging control unit 223d records the touch position determined by the touch detection unit 223a in the SDRAM 219 (step S410). After step S410, the imaging apparatus 1 returns to the main routine of FIG.

ステップS403にいて、円環B2の中心方向にスライド操作がない場合(ステップS403:No)、撮像装置1は、ステップS408へ移行する。   In step S403, when there is no slide operation in the center direction of the ring B2 (step S403: No), the imaging device 1 proceeds to step S408.

ステップS408において、円環B2に対して回転スライド操作またはレンズ操作部305の操作リング305aが回動されていない場合(ステップS408:No)、撮像装置1は、図4のメインルーチンへ戻る。   In step S408, when the rotation slide operation or the operation ring 305a of the lens operation unit 305 is not rotated with respect to the ring B2 (step S408: No), the imaging device 1 returns to the main routine of FIG.

ステップS401において、撮影パラメータの項目が決定済みでない場合(ステップS401:No)、撮像装置1は、図4のメインルーチンへ戻る。   If the shooting parameter item has not been determined in step S401 (step S401: No), the imaging apparatus 1 returns to the main routine of FIG.

以上説明した本発明の実施の形態3によれば、接眼表示部212に対して接眼した状態でレンズ操作部305の操作リング305aまたはタッチパネル215を介して撮像装置1の撮影パラメータを決定または変更することができるので、直感的な操作で撮影パラメータを敏速に変更することができる。   According to the third embodiment of the present invention described above, the shooting parameters of the imaging apparatus 1 are determined or changed via the operation ring 305a or the touch panel 215 of the lens operation unit 305 while the eyepiece display unit 212 is in contact with the eyepiece. Therefore, it is possible to change the shooting parameter quickly with an intuitive operation.

また、本発明の実施の形態3では、レンズ操作部305に一つの撮影パラメータ、たとえば露出のパラメータを割り当て、タッチパネル215に複数の撮影パラメータの項目を割り当ててもよい。この場合、ユーザは、接眼表示部212に接眼した状態で2つの撮影パラメータを同時に変更または設定を容易に行うことができる。   In the third embodiment of the present invention, one shooting parameter, for example, an exposure parameter may be assigned to the lens operation unit 305, and a plurality of shooting parameter items may be assigned to the touch panel 215. In this case, the user can easily change or set two shooting parameters at the same time with the eyepiece display unit 212 in contact with the eyepiece.

また、本発明の実施の形態3では、表示部214がライブビュー画像上に表示する撮影パラメータの項目に対してタッチまたはスライド操作を行うことによって、撮影パラメータの変更を行うことも可能である。   In the third embodiment of the present invention, the shooting parameter can be changed by touching or sliding on the shooting parameter item displayed on the live view image by the display unit 214.

図17は、表示部214がライブビュー画像上に表示する撮影パラメータの項目に対してスライド操作によって撮影パラメータを変更する概要を模式的に示す図である。図17に示すように、表示部214がライブビュー画像W10上に撮影パラメータに関する複数のアイコンA61〜65を表示している場合において(図17(a))、ユーザがタッチパネル215を介して所望のアイコン、たとえばアイコンA61に対して画面の右側から左側へスライド操作を行ったとき(図17(a)→図17(b))、表示制御部223cは、アイコンA71に対応する撮影パラメータの数値を変更する円環B3を表示部214に表示させる(図17(c))。 FIG. 17 is a diagram schematically showing an outline of changing the shooting parameter by the slide operation for the shooting parameter item displayed on the live view image by the display unit 214. As shown in FIG. 17, when the display unit 214 displays a plurality of icons A <b> 61 to 65 related to shooting parameters on the live view image W <b> 10 (FIG. 17A), the user desires via the touch panel 215. When, for example, the icon A61 is slid from the right side to the left side of the screen (FIG. 17 (a) → FIG. 17 (b)), the display control unit 223c displays the numerical value of the shooting parameter corresponding to the icon A71. Is displayed on the display unit 214 (FIG. 17C).

その後、ユーザは、タッチパネル215を介して円環B3に対してタッチしながら円を描くようにタッチパネル215上を周期的に移動させることで、撮影パラメータの数値を変更する。この際、表示制御部223cは、タッチパネル215から入力される位置信号の周期的な変化(軌跡)に応じて、アイコンA71の撮影パラメータの数値を示すアイコンA66を表示部214に表示させる。これにより、ユーザは、直感的な操作によって、所望の撮影パラメータの項目の数値を敏速に変更することができる。   Thereafter, the user periodically moves the touch panel 215 to draw a circle while touching the ring B3 via the touch panel 215, thereby changing the numerical value of the shooting parameter. At this time, the display control unit 223c causes the display unit 214 to display the icon A66 indicating the numerical value of the imaging parameter of the icon A71 in accordance with the periodic change (trajectory) of the position signal input from the touch panel 215. Thereby, the user can change the numerical value of the item of a desired imaging | photography parameter quickly by intuitive operation.

(その他の実施の形態)
ここまで、本発明を実施するための形態を説明してきたが、本発明は上述した3つの実施の形態に限定されるべきものではない。たとえば、本発明において、図18に示すように、接眼表示部212がなくても適用することができる。この場合、ZoomアイコンA21、ForecastアイコンA22および露出アイコンA23のいずれか、たとえば露出アイコンA23に対して右側から左側にスライド操作を行った場合(図18(a)→図18(b))、表示制御部223cは、露出のパラメータを変更する円環B4をライブビュー画像W1上に重畳して表示部214に表示させる。その後、ユーザがタッチパネル215上で円を描くように周期的にスライド操作させた場合(図18(c))、撮影制御部223dは、タッチパネル215から入力される位置信号の軌跡に応じて、露出のパラメータの値を変更する。これにより、ユーザは、円環B3上でタッチ操作することなく、撮影パラメータの数値や項目の変更を直感的な操作で敏速に行うことができる。
(Other embodiments)
So far, the embodiment for carrying out the present invention has been described, but the present invention should not be limited to the above-described three embodiments. For example, the present invention can be applied without the eyepiece display unit 212 as shown in FIG. In this case, when any of the Zoom icon A21, the Forecast icon A22, and the exposure icon A23, for example, the exposure icon A23 is slid from the right side to the left side (FIG. 18 (a) → FIG. 18 (b)), the display is performed. control unit 223c superimposes and displays on the display unit 214 an annular B4 to change the parameters of the exposure on the live view image W 1. Thereafter, when the user periodically performs a sliding operation so as to draw a circle on the touch panel 215 (FIG. 18C), the imaging control unit 223 d performs exposure according to the locus of the position signal input from the touch panel 215. Change the value of the parameter. Thus, the user can quickly change the numerical value and the item of the shooting parameter by an intuitive operation without performing a touch operation on the ring B3.

また、本発明において、接眼表示部が本体部に一体的に形成されていたが、本体部に対して着脱自在であってもよい。   In the present invention, the eyepiece display unit is integrally formed with the main body, but it may be detachable from the main body.

また、本発明において、接眼表示部が電子ビューファインダであったが、光学ビューファインダと電子ビューファインダとによって構成されたハイブリットビューファインダであっても適用することができる。   In the present invention, the eyepiece display unit is an electronic viewfinder. However, the present invention can also be applied to a hybrid viewfinder that includes an optical viewfinder and an electronic viewfinder.

また、本発明において、光学ビューファインダ内に設けられた液晶や有機EL等の表示パネルであっても適用することができる。この場合、表示パネル上で周回経路を表示すればよい。   In the present invention, the present invention can also be applied to a display panel such as a liquid crystal or an organic EL provided in an optical viewfinder. In this case, the circuit route may be displayed on the display panel.

また、本発明において、本体部とレンズ部とが一体的に形成されてもよい。   In the present invention, the main body portion and the lens portion may be integrally formed.

また、本発明において、タッチパネル215が本体部に一体的に形成されていたが、本体部に対して着脱自在なアクセサリとして設けてもよい。   In the present invention, the touch panel 215 is formed integrally with the main body, but may be provided as an accessory that is detachable from the main body.

また、本発明にかかる電子機器は、デジタル一眼レフカメラ等の撮像装置以外にも、たとえばアクセサリ等を装着可能なデジタルカメラ、デジタルビデオカメラおよび撮影機能を有する携帯電話やタブレット型携帯機器等の電子機器にも適用することができる。   The electronic apparatus according to the present invention is not limited to an imaging apparatus such as a digital single-lens reflex camera. It can also be applied to equipment.

また、本発明にかかる電子機器は、医療装置にも適用することができる。たとえば、遠隔操作によって被検体の手術を行う医療ロボット等の医療装置において、術者が表示モニタで被検体の患部を見ながら手術を行っている場合において、医療装置の操作パラメータ、たとえば医療装置の照明による明るさ調整を行うことができないとき、表示モニタと異なる位置に設けられたタッチパネル上で円を描くようにスライド操作を行うことで、操作パラメータを変更してもよい。   The electronic device according to the present invention can also be applied to a medical device. For example, in a medical device such as a medical robot that performs a surgical operation on a subject by remote operation, when an operator is performing an operation while looking at an affected part of the subject on a display monitor, an operation parameter of the medical device, for example, a medical device When the brightness cannot be adjusted by illumination, the operation parameter may be changed by performing a slide operation so as to draw a circle on a touch panel provided at a position different from the display monitor.

なお、本明細書におけるフローチャートの説明では、「まず」、「その後」、「続いて」等の表現を用いてステップ間の処理の前後関係を明示していたが、本発明を実施するために必要な処理の順序は、それらの表現によって一意的に定められるわけではない。すなわち、本明細書で記載したフローチャートにおける処理の順序は、矛盾のない範囲で変更することができる。   In the description of the flowchart in the present specification, the context of the processing between steps is clearly indicated using expressions such as “first”, “after”, “follow”, etc., in order to implement the present invention. The order of processing required is not uniquely determined by their representation. That is, the order of processing in the flowcharts described in this specification can be changed within a consistent range.

このように、本発明は、ここでは記載していない様々な実施の形態を含みうるものであり、特許請求の範囲によって特定される技術的思想の範囲内で種々の設計変更等を行うことが可能である。   As described above, the present invention can include various embodiments not described herein, and various design changes and the like can be made within the scope of the technical idea specified by the claims. Is possible.

1 撮像装置
2 本体部
3 レンズ部
201 シャッタ
202 シャッタ駆動部
203 撮像素子
204 撮像素子駆動部
205 信号処理部
206 A/D変換部
207 画像処理部
207a 特殊効果処理部
208 AE処理部
209 AF処理部
210 画像圧縮展開部
211 操作入力部
212 接眼表示部
213 アイセンサ
214 表示部
215 タッチパネル
216 メモリI/F
217 記録媒体
218 時計
219 SDRAM
220 Flashメモリ
220a プログラム記録部
221 本体通信部
222 バス
223 本体制御部
223a タッチ検出部
223b タッチ変換部
223c 表示制御部
223d 撮影制御部
301 光学系
302 レンズ駆動部
303 絞り
304 絞り駆動部
305 レンズ操作部
305a 操作リング
306 レンズFlashメモリ
307 レンズ通信部
308 レンズ制御部
DESCRIPTION OF SYMBOLS 1 Imaging device 2 Main body part 3 Lens part 201 Shutter 202 Shutter drive part 203 Image pick-up element 204 Image pick-up element drive part 205 Signal processing part 206 A / D conversion part 207 Image processing part 207a Special effect processing part 208 AE processing part 209 AF processing part 210 Image compression / decompression unit 211 Operation input unit 212 Eyepiece display unit 213 Eye sensor 214 Display unit 215 Touch panel 216 Memory I / F
217 Recording medium 218 Clock 219 SDRAM
220 Flash memory 220a Program recording unit 221 Main unit communication unit 222 Bus 223 Main unit control unit 223a Touch detection unit 223b Touch conversion unit 223c Display control unit 223d Imaging control unit 301 Optical system 302 Lens drive unit 303 Diaphragm 304 Diaphragm drive unit 305 Lens operation unit 305a Operation ring 306 Lens flash memory 307 Lens communication unit 308 Lens control unit

Claims (11)

入力される操作信号に応じた動作を行うことが可能な電子機器であって、
多角形をなす周回経路であって、経路上の位置に応じて当該電子機器の動作が対応付けられた周回経路を表示可能な表示部と、
外部からのタッチを検出し、このタッチ位置に応じた位置信号の入力を受け付ける矩形状のタッチパネルと、
前記タッチパネルが最初に入力を受け付けた前記位置信号に対応する前記タッチ位置を前記周回経路上の位置に変換し、この変換した位置に前記周回経路上を移動するマークを表示させる表示制御部と、
前記タッチパネルに対して前記タッチが継続中である場合において、前記タッチ位置が変化したとき、現在のタッチ位置に対応する前記位置信号と直前のタッチ位置に対応する前記位置信号とに基づいて、前記タッチパネル上における短手方向および長手方向の各々のタッチ位置の変化量を検出するタッチ検出部と、
前記周回経路上における前記マークの表示位置に応じて、当該電子機器の動作を制御する動作制御部と、
を備え、
前記表示制御部は、前記タッチ検出部が検出した前記短手方向のタッチ位置の変化量と前記長手方向のタッチ位置の変化量とを比較した結果に基づいて、前記周回経路上における前記マークの表示位置を制御することを特徴とする電子機器。
An electronic device capable of performing an operation according to an input operation signal,
A display unit capable of displaying a circular route that is a polygonal circular route and the operation of the electronic device is associated according to a position on the route;
A rectangular touch panel that detects an external touch and receives an input of a position signal corresponding to the touch position;
A display control unit that converts the touch position corresponding to the position signal that the touch panel first received an input into a position on the circuit path, and displays a mark that moves on the circuit path at the converted position;
When the touch on the touch panel is ongoing, when the touch position changes, based on the position signal corresponding to the current touch position and the position signal corresponding to the previous touch position, A touch detection unit for detecting a change amount of each touch position in the short side direction and the long side direction on the touch panel;
An operation control unit for controlling the operation of the electronic device according to the display position of the mark on the circuit path;
With
The display control unit, based on a result of comparing the change amount of the touch position in the short direction detected by the touch detection unit and the change amount of the touch position in the longitudinal direction, An electronic device characterized by controlling a display position.
当該電子機器の動作を決定する決定信号の入力を受け付ける操作入力部をさらに備え、
前記動作制御部は、前記操作入力部から前記決定信号が入力された時点の前記マークの表示位置に対応する当該電子機器の動作を実行することを特徴とする請求項1に記載の電子機器。
An operation input unit that receives an input of a determination signal that determines the operation of the electronic device;
The electronic device according to claim 1, wherein the operation control unit executes an operation of the electronic device corresponding to a display position of the mark when the determination signal is input from the operation input unit.
前記表示部は、接眼式ファインダであることを特徴とする請求項1または2に記載の電子機器。   The electronic apparatus according to claim 1, wherein the display unit is an eyepiece finder. 当該電子機器の背面に設けられ、画像を表示可能な背面表示部をさらに備え、
前記タッチパネルは、前記背面表示部の表示画面上に重畳して設けられていることを特徴とする請求項1〜3のいずれか一つに記載の電子機器。
Provided on the back surface of the electronic device, further comprising a back display unit capable of displaying an image,
The electronic device according to claim 1, wherein the touch panel is provided so as to be superimposed on a display screen of the rear display unit.
前記表示制御部は、前記マークを90度毎に移動させながら前記表示部に表示させることを特徴とする請求項1〜4のいずれか一つに記載の電子機器。   The electronic device according to claim 1, wherein the display control unit displays the mark on the display unit while moving the mark every 90 degrees. 被写体を撮像し、該被写体の画像データを生成する撮像部をさらに備え、
前記表示部は、前記撮像部が生成した前記画像データに対応する画像を表示することを特徴とする請求項1〜5のいずれか一つに記載の電子機器。
An imaging unit that images the subject and generates image data of the subject;
The electronic device according to claim 1, wherein the display unit displays an image corresponding to the image data generated by the imaging unit.
複数の光学素子を内部に保持し、所定の視野領域から光を集光するレンズ部をさらに備え、
前記レンズ部は、当該電子機器の操作に関する指示信号の入力を受け付けるレンズ操作部を有し、
前記表示制御部は、前記レンズ操作部から前記指示信号が入力された場合、前記周回経路上における前記マークの表示位置を移動させることを特徴とする請求項1〜6のいずれか一つに記載の電子機器。
It further includes a lens unit that holds a plurality of optical elements inside and collects light from a predetermined field of view,
The lens unit has a lens operation unit that receives an input of an instruction signal related to the operation of the electronic device,
The said display control part moves the display position of the said mark on the said circumference path | route, when the said instruction | indication signal is input from the said lens operation part. Electronic equipment.
当該電子機器の動作は、撮影に関する撮影パラメータであることを特徴とする請求項6に記載の電子機器。   The electronic device according to claim 6, wherein the operation of the electronic device is a shooting parameter related to shooting. 前記画像データに対して画像処理を施す画像処理部をさらに備え、
前記撮影パラメータは、露出情報、明るさ情報、ズーム倍率情報、焦点位置情報、ISO感度情報、絞り情報、シャッタスピード情報、前記画像処理部による画像処理の処理情報および撮影モードに関する撮影モード情報を含むことを特徴とする請求項8に記載の電子機器。
An image processing unit that performs image processing on the image data;
The shooting parameters include exposure information, brightness information, zoom magnification information, focus position information, ISO sensitivity information, aperture information, shutter speed information, processing information of image processing by the image processing unit, and shooting mode information regarding a shooting mode. 9. The electronic apparatus according to claim 8, wherein
表示部と、外部からのタッチを検出し、このタッチ位置に応じた位置信号の入力を受け付ける矩形状のタッチパネルを備え、入力される操作信号に応じた動作を行うことが可能な電子機器が実行する駆動方法であって、
多角形をなす周回経路であって、経路上の位置に応じて当該電子機器の動作が対応付けられた周回経路の表示を前記表示部に開始させる開始ステップと、
前記タッチパネルが最初に入力を受け付けた前記位置信号に対応する前記タッチ位置を前記周回経路上の位置に変換し、この変換した位置に前記周回経路上を移動するマークを表示させる表示制御ステップと、
前記タッチパネルに対して前記タッチが継続中である場合において、前記タッチ位置が変化したとき、現在のタッチ位置に対応する前記位置信号と直前のタッチ位置に対応する前記位置信号とに基づいて、前記タッチパネル上における短手方向および長手方向の各々のタッチ位置の変化量を検出するタッチ検出ステップと、
前記マークの表示位置を決定する決定信号が入力された場合、前記周回経路上における前記マークの表示位置に応じて、当該電子機器の動作を制御する動作制御ステップと、
を含み、
前記表示制御ステップは、
前記タッチ検出ステップにおいて検出した前記短手方向のタッチ位置の変化量と前記長手方向のタッチ位置の変化量とを比較した結果に基づいて、前記周回経路上における前記マークの表示位置を制御することを特徴とする駆動方法。
An electronic device that includes a display unit and a rectangular touch panel that detects an external touch and receives an input of a position signal according to the touch position, and can perform an operation according to an input operation signal is executed. A driving method for
A starting step of causing the display unit to start displaying a circular path that is a polygonal circular path and is associated with an operation of the electronic device according to a position on the path;
A display control step of converting the touch position corresponding to the position signal that the touch panel first received an input into a position on the circuit path, and displaying a mark that moves on the circuit path at the converted position;
When the touch on the touch panel is ongoing, when the touch position changes, based on the position signal corresponding to the current touch position and the position signal corresponding to the previous touch position, A touch detection step of detecting a change amount of each touch position in the short side direction and the long side direction on the touch panel;
When a determination signal for determining the display position of the mark is input, an operation control step for controlling the operation of the electronic device according to the display position of the mark on the circuit path;
Including
The display control step includes:
Controlling the display position of the mark on the circuit path based on a result of comparing the amount of change in the short-side touch position detected in the touch detection step with the amount of change in the touch direction in the longitudinal direction. A driving method characterized by the above.
表示部と、外部からのタッチを検出し、このタッチ位置に応じた位置信号の入力を受け付ける矩形状のタッチパネルを備え、入力される操作信号に応じた動作を行うことが可能な電子機器に実行させるプログラムであって、
多角形をなす周回経路であって、経路上の位置に応じて当該電子機器の動作が対応付けられた周回経路の表示を前記表示部に開始させる開始ステップと、
前記タッチパネルが最初に入力を受け付けた前記位置信号に対応する前記タッチ位置を前記周回経路上の位置に変換し、この変換した位置に前記周回経路上を移動するマークを表示させる表示制御ステップと、
前記タッチパネルに対して前記タッチが継続中である場合において、前記タッチ位置が変化したとき、直前のタッチ位置に対応する前記位置信号と現在のタッチ位置に対応する前記位置信号とに基づいて、前記タッチパネル上における短手方向および長手方向の各々のタッチ位置の変化量を検出するタッチ検出ステップと、
前記マークの表示位置を決定する決定信号が入力された場合、前記周回経路上における前記マークの表示位置に応じて、当該電子機器の動作を制御する動作制御ステップと、
を実行させ、
前記タッチ検出ステップにおいて検出した前記短手方向の変化量と前記長手方向の変化量との大きさを比較した結果に基づいて、前記周回経路上における前記マークの表示位置を制御することを特徴とするプログラム。
A display unit and a rectangular touch panel that detects an external touch and accepts a position signal input according to the touch position, and is executed on an electronic device that can perform an operation according to an input operation signal. A program to
A starting step of causing the display unit to start displaying a circular path that is a polygonal circular path and is associated with an operation of the electronic device according to a position on the path;
A display control step of converting the touch position corresponding to the position signal that the touch panel first received an input into a position on the circuit path, and displaying a mark that moves on the circuit path at the converted position;
When the touch is ongoing on the touch panel, when the touch position changes, based on the position signal corresponding to the previous touch position and the position signal corresponding to the current touch position, A touch detection step of detecting a change amount of each touch position in the short side direction and the long side direction on the touch panel;
When a determination signal for determining the display position of the mark is input, an operation control step for controlling the operation of the electronic device according to the display position of the mark on the circuit path;
And execute
The display position of the mark on the circuit path is controlled based on the result of comparing the change amount in the short direction and the change amount in the longitudinal direction detected in the touch detection step. Program to do.
JP2017049033A 2017-03-14 2017-03-14 Electronic device, driving method and program Active JP6279120B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017049033A JP6279120B2 (en) 2017-03-14 2017-03-14 Electronic device, driving method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017049033A JP6279120B2 (en) 2017-03-14 2017-03-14 Electronic device, driving method and program

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2012225399A Division JP6112819B2 (en) 2012-10-10 2012-10-10 Electronic device, driving method and program

Publications (2)

Publication Number Publication Date
JP2017135735A true JP2017135735A (en) 2017-08-03
JP6279120B2 JP6279120B2 (en) 2018-02-14

Family

ID=59504521

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017049033A Active JP6279120B2 (en) 2017-03-14 2017-03-14 Electronic device, driving method and program

Country Status (1)

Country Link
JP (1) JP6279120B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020005208A (en) * 2018-06-29 2020-01-09 キヤノン株式会社 Electronic apparatus, method of controlling electronic apparatus, program, and storage medium

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000283782A (en) * 1999-03-30 2000-10-13 Matsushita Electric Ind Co Ltd Car navigation system and selected screen displaying method therefor
JP2004165934A (en) * 2002-11-12 2004-06-10 Canon Inc Image pickup device
JP2004326189A (en) * 2003-04-21 2004-11-18 Sony Corp Display method and display device
JP2006067439A (en) * 2004-08-30 2006-03-09 Olympus Corp Reproducing apparatus, camera and method for selecting and reproducing image data
JP2009532770A (en) * 2006-03-30 2009-09-10 サーク・コーポレーション Circular scrolling touchpad functionality determined by the starting point of the pointing object on the touchpad surface
JP2011028345A (en) * 2009-07-22 2011-02-10 Olympus Imaging Corp Condition change device, camera, mobile apparatus and program
JP2011160275A (en) * 2010-02-02 2011-08-18 Olympus Imaging Corp Camera

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000283782A (en) * 1999-03-30 2000-10-13 Matsushita Electric Ind Co Ltd Car navigation system and selected screen displaying method therefor
JP2004165934A (en) * 2002-11-12 2004-06-10 Canon Inc Image pickup device
JP2004326189A (en) * 2003-04-21 2004-11-18 Sony Corp Display method and display device
JP2006067439A (en) * 2004-08-30 2006-03-09 Olympus Corp Reproducing apparatus, camera and method for selecting and reproducing image data
JP2009532770A (en) * 2006-03-30 2009-09-10 サーク・コーポレーション Circular scrolling touchpad functionality determined by the starting point of the pointing object on the touchpad surface
JP2011028345A (en) * 2009-07-22 2011-02-10 Olympus Imaging Corp Condition change device, camera, mobile apparatus and program
JP2011160275A (en) * 2010-02-02 2011-08-18 Olympus Imaging Corp Camera

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020005208A (en) * 2018-06-29 2020-01-09 キヤノン株式会社 Electronic apparatus, method of controlling electronic apparatus, program, and storage medium
JP7187190B2 (en) 2018-06-29 2022-12-12 キヤノン株式会社 Electronic device, electronic device control method, program, storage medium

Also Published As

Publication number Publication date
JP6279120B2 (en) 2018-02-14

Similar Documents

Publication Publication Date Title
JP6112819B2 (en) Electronic device, driving method and program
US9560261B2 (en) Display control for a camera
US9977217B2 (en) Imaging device
KR101594295B1 (en) Photographing apparatus and photographing method
JP4288612B2 (en) Image processing apparatus and method, and program
JP6099528B2 (en) Imaging apparatus, imaging method, and program
US9374520B2 (en) Digital image processing apparatus and method of controlling the same
US9641751B2 (en) Imaging apparatus, imaging method thereof, and computer readable recording medium
JP6006024B2 (en) Imaging apparatus, imaging method, and program
JP2011030008A (en) Imaging apparatus
CN113364945A (en) Electronic apparatus, control method, and computer-readable medium
JP7423248B2 (en) Electronic devices, control methods for electronic devices, programs and storage media
US20170264819A1 (en) Imaging device
JP6279120B2 (en) Electronic device, driving method and program
JP6834988B2 (en) Control device
JP5539820B2 (en) Imaging apparatus, imaging method, and imaging program
US11962888B2 (en) Imaging apparatus with focus operation display information
JP7446913B2 (en) Electronic devices, control methods for electronic devices, and programs
JP7071197B2 (en) Imaging device and its control method
JP4077683B2 (en) Camera and display control method
JP5820903B2 (en) Imaging apparatus, imaging method, and imaging program
JP2021117376A (en) Imaging control device and its control method
JP2014093732A (en) Imaging device, display method and program

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20171211

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20171219

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180116

R151 Written notification of patent or utility model registration

Ref document number: 6279120

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250