JP5976174B2 - Image processing apparatus, control method therefor, and program - Google Patents

Image processing apparatus, control method therefor, and program Download PDF

Info

Publication number
JP5976174B2
JP5976174B2 JP2015139553A JP2015139553A JP5976174B2 JP 5976174 B2 JP5976174 B2 JP 5976174B2 JP 2015139553 A JP2015139553 A JP 2015139553A JP 2015139553 A JP2015139553 A JP 2015139553A JP 5976174 B2 JP5976174 B2 JP 5976174B2
Authority
JP
Japan
Prior art keywords
display
image
unit
operator
item
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2015139553A
Other languages
Japanese (ja)
Other versions
JP2015181065A (en
Inventor
小出 裕司
裕司 小出
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2015139553A priority Critical patent/JP5976174B2/en
Publication of JP2015181065A publication Critical patent/JP2015181065A/en
Application granted granted Critical
Publication of JP5976174B2 publication Critical patent/JP5976174B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • User Interface Of Digital Computer (AREA)

Description

本発明は、画像処理装置及びその制御方法、並びにプログラムに関し、特に、操作用の表示アイテムを表示する画像処理装置及びその制御方法、並びにプログラムに関する。   The present invention relates to an image processing apparatus, a control method therefor, and a program, and more particularly, to an image processing apparatus that displays a display item for operation, a control method therefor, and a program.

タッチパネルを備えたデジタルカメラが知られている。タッチパネルでは、操作用の表示アイテムを画面に表示することで、操作部品の削減と操作性の向上を図っている。例えばデジタルカメラでは、表示部に画像を表示した状態で、ユーザがタッチパネル上で画像が表示されている領域でフリック操作をすると、画像送りをする機能が実現されている。また、操作用の表示アイテムを立体表示してタッチパネルの操作性の向上を図る方法も開示されている(例えば、特許文献1、特許文献2参照)。   A digital camera equipped with a touch panel is known. In the touch panel, display items for operation are displayed on the screen, thereby reducing operation parts and improving operability. For example, in a digital camera, when a user performs a flick operation in a region where an image is displayed on a touch panel in a state where an image is displayed on a display unit, a function of feeding an image is realized. In addition, a method for improving the operability of the touch panel by stereoscopically displaying display items for operation is also disclosed (see, for example, Patent Document 1 and Patent Document 2).

特許文献1では操作用の表示アイテムを立体的に表示し、表示アイテムに対してユーザの操作が行われた場合には、状態を立体的に変化させている。これにより、ユーザは操作が確実に行われたことを認識することが可能である。   In patent document 1, the display item for operation is displayed in three dimensions, and when a user operation is performed on the display item, the state is changed in three dimensions. As a result, the user can recognize that the operation has been performed reliably.

特許文献2では、ユーザがタッチパネルに触れる以前にタッチパネルへの接近を検知するセンサを設け、センサの検知に応じて表示部に表示させる操作用の表示アイテムを立体表示から2次元表示に切り替えている。これによって操作性の向上を図っている。   In Patent Document 2, a sensor for detecting the approach to the touch panel is provided before the user touches the touch panel, and the display item for operation displayed on the display unit is switched from the stereoscopic display to the two-dimensional display according to the detection of the sensor. . This improves operability.

特開平10−105735号公報Japanese Patent Laid-Open No. 10-105735 特開2004−280496号公報Japanese Patent Application Laid-Open No. 2004-280496

しかし、特許文献1や特許文献2による方法では、画面上に立体表示した表示アイテムを平面的なタッチパネルを介して操作するため、ユーザにとって違和感なく操作可能な表示アイテムがボタンなど一部に限定される。   However, in the methods according to Patent Document 1 and Patent Document 2, since display items displayed in a three-dimensional manner on a screen are operated via a flat touch panel, display items that can be operated without a sense of incongruity for the user are limited to a part such as buttons. The

また、立体表示した表示アイテムをタッチパネルで操作した場合、従来のように、さらに画像送りもタッチパネルで操作すると、立体表示した表示アイテムと、表示画像のような2次元表示した表示アイテムの両方をタッチパネルで操作することになる。このような操作方法は、ユーザにとって分かりにくい。   In addition, when a display item displayed in 3D is operated on the touch panel, if the image feed is further operated on the touch panel as in the past, both the display item displayed in 3D and the display item displayed in 2D such as a display image are displayed on the touch panel. Will be operated. Such an operation method is difficult for the user to understand.

本発明の目的は、立体表示した操作用の表示アイテムに対する操作と、2次元表示した操作用の表示アイテムに対する操作の操作性を向上させる画像処理装置及びその制御方法、並びにプログラムを提供することにある。   An object of the present invention is to provide an image processing apparatus, a control method thereof, and a program for improving the operability of an operation for a display item for operation displayed three-dimensionally, and an operation display item for two-dimensional display. is there.

上記目的を達成するために、請求項1記載の画像処理装置は、画像処理装置であって、画像をタッチパネルの表示部に平面表示し、前記画像に対する操作を入力するための3次元表示アイテムを前記画像に重ねて前記タッチパネルの前記表示部に立体表示するように制御する表示制御手段と、前記画像を操作するための操作子と前記タッチパネルとの距離を算出する算出手段と、前記算出手段により算出された距離が第2の閾値より大きい場合、前記画像に対する前記操作子の指示の入力を無効にするよう制御し、前記算出手段により算出された距離が前記第2の閾値より小さい場合、前記画像に対する前記操作子の指示の入力を有効にするよう制御する入力制御手段を備え、前記表示制御手段は、前記算出手段により算出された距離に関わらず、前記画像を前記タッチパネルの前記表示部に表示し、前記算出手段により算出された距離が第1の閾値より小さい場合、前記3次元表示アイテムを表示するように制御し、前記算出手段により算出された距離が前記第2の閾値より小さい場合、前記3次元表示アイテムを表示しないように制御し、前記入力制御手段は、前記算出手段により算出された距離が前記第1の閾値より小さい場合、前記3次元表示アイテムに対する前記操作子の指示の入力を有効にするよう制御し、前記第1の閾値は前記第2の閾値よりも大きいことを特徴とする。 In order to achieve the above object, an image processing apparatus comprising an image processing apparatus, image plan view of the display unit of the touch panel, a three-dimensional display item for inputting an operation on the image A display control unit that controls to display the image on the display unit of the touch panel so as to be superimposed on the image; a calculation unit that calculates a distance between an operator for operating the image and the touch panel; and When the calculated distance is greater than a second threshold value, control is performed to invalidate the input of the operator's instruction to the image , and when the distance calculated by the calculation unit is smaller than the second threshold value, an input control means for controlling so as to enable input of an instruction of the operator for the image, wherein the display control unit, involved in the distance calculated by the calculating means Not the displayed image on the display unit of the touch panel, when the distance calculated by the calculating means is smaller than a first threshold value, and controls to display the 3-dimensional display items, calculated by said calculation means When the calculated distance is smaller than the second threshold, the control is performed so that the three-dimensional display item is not displayed, and the input control unit is configured so that the distance calculated by the calculation unit is smaller than the first threshold. Control is performed so as to validate the input of an instruction from the operator for the three-dimensional display item, and the first threshold value is larger than the second threshold value.

本発明によれば、立体表示した操作用の表示アイテムに対する操作と、2次元表示した操作用の表示アイテムに対する操作の操作性を向上させる画像処理装置及びその制御方法、並びにプログラムを提供することができる。   According to the present invention, it is possible to provide an image processing apparatus, a control method thereof, and a program for improving the operability of an operation on a stereoscopic display operation item and an operation on a two-dimensional operation display item. it can.

本発明の実施の形態に係る画像処理装置の一例としてのデジタルカメラの外観図を示す図である。1 is an external view of a digital camera as an example of an image processing apparatus according to an embodiment of the present invention. 図1におけるデジタルカメラの構成例を示すブロック図である。It is a block diagram which shows the structural example of the digital camera in FIG. 表示部から指までの距離と、表示部102の表示画面の領域に対する指の位置を検出する原理を説明するための図である。6 is a diagram for explaining the principle of detecting the distance from the display unit to the finger and the position of the finger with respect to the display screen area of the display unit 102. FIG. 図4(A)は、視差バリア方式における構成を示し、(B)は、レンチキュラー方式における構成を示す図である。4A shows a configuration in the parallax barrier method, and FIG. 4B shows a configuration in the lenticular method. 表示部を視差分割方式を利用して実現した場合の、図2の表示画像生成部の構成の一例を示した図である。It is the figure which showed an example of the structure of the display image generation part of FIG. 2 at the time of implement | achieving a display part using a parallax division | segmentation system. 図2における非接触操作検出部が、連続的に取得した複数の操作子画像データから、操作子である操作者の指の動きを検出する方法について説明するための図である。It is a figure for demonstrating the method in which the non-contact operation detection part in FIG. 2 detects a motion of the operator's finger | toe as an operation element from the several acquired operation element image data. 図2におけるシステム制御部が、記録媒体に保存されている画像データを操作者の指示にしたがって表示部に閲覧の目的で表示する再生モードにおいて、表示部に表示する画面内容を示した図である。FIG. 3 is a diagram showing screen contents displayed on a display unit in a playback mode in which the system control unit in FIG. 2 displays image data stored in a recording medium on a display unit for viewing purposes in accordance with an operator's instruction. . デジタルカメラを表示部の側から斜め方向から俯瞰した図である。It is the figure which looked down at the digital camera from the diagonal direction from the display part side. 第1の実施の形態において図2におけるシステム制御部により実行される切り替え処理の手順を示すフローチャートである。It is a flowchart which shows the procedure of the switching process performed by the system control part in FIG. 2 in 1st Embodiment. 表示部を2次元表示のみ可能な液晶ディスプレイで実現した場合の、図2における表示画像生成部の構成の一例を示す図である。It is a figure which shows an example of a structure of the display image generation part in FIG. 2 at the time of implement | achieving a display part with the liquid crystal display in which only two-dimensional display is possible. 立体表示アイテムの表現方法を示す図であり、(A)〜(C)のいずれも直方体の表現方法を示す図である。It is a figure which shows the expression method of a three-dimensional display item, and (A)-(C) are all figures which show the expression method of a rectangular parallelepiped. 第2の実施の形態において図2におけるシステム制御部により実行される切り替え処理の手順を示すフローチャートである。It is a flowchart which shows the procedure of the switching process performed by the system control part in FIG. 2 in 2nd Embodiment. (A)は、立体表示アイテムの輪郭を画像表示データの表示にオーバーラップ表示した図を示し、(B)は、立体表示アイテムの影を画像表示データの表示に上書きして表示した図を示す図である。(A) shows the figure which displayed the outline of the 3D display item overlapped with the display of image display data, and (B) shows the figure which displayed the shadow of the 3D display item overwriting the display of image display data. FIG.

以下、本発明の実施の形態について図面を参照しながら詳述する。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.

[第1の実施の形態]
図1は、本発明の実施の形態に係る画像処理装置の一例としてのデジタルカメラ100の外観図を示す図である。
[First Embodiment]
FIG. 1 is an external view of a digital camera 100 as an example of an image processing apparatus according to an embodiment of the present invention.

図1において、表示部102は画像や各種情報を表示する表示部(表示手段)であり、指である操作子により操作される表示アイテムを表示する。この表示アイテムの詳細については後述する。シャッターボタン103は、撮影指示を行うための操作部である。電源スイッチ104は、撮影モードでの電源オン、再生モードでの電源オン、電源オフを切り替える。操作入力用撮像部L、及び操作入力用撮像部Rは、デジタルカメラ100を操作する指の位置、動作等を撮影するための撮像部である。そして、操作入力用撮像部L、及び操作入力用撮像部Rは、表示部102の上部に一定の間隔を空けて配置されている。記録媒体107はメモリカードやハードディスク等の記録媒体であり、デジタルカメラ100の本体から着脱可能な構成となっている。   In FIG. 1, a display unit 102 is a display unit (display unit) that displays images and various types of information, and displays display items that are operated by an operator that is a finger. Details of this display item will be described later. The shutter button 103 is an operation unit for issuing a shooting instruction. The power switch 104 switches between power-on in the shooting mode, power-on in the playback mode, and power-off. The operation input imaging unit L and the operation input imaging unit R are imaging units for imaging the position and operation of a finger operating the digital camera 100. The operation input imaging unit L and the operation input imaging unit R are arranged at a certain interval above the display unit 102. The recording medium 107 is a recording medium such as a memory card or a hard disk and is configured to be detachable from the main body of the digital camera 100.

図2は、図1におけるデジタルカメラ100の構成例を示すブロック図である。   FIG. 2 is a block diagram illustrating a configuration example of the digital camera 100 in FIG.

図2において、撮影レンズ209はフォーカスレンズを含む。シャッター210は絞り機能を備える。撮像部211は光学像を電気信号に変換するCCDやCMOS素子等で構成される。A/D変換器212は、アナログ信号をデジタル信号に変換する。また、A/D変換器212は、撮像部211から出力されるアナログ信号をデジタル信号に変換するために用いられる。バリア208は、デジタルカメラ100の撮影レンズ209を含む撮像部を覆うことにより、撮影レンズ209、シャッター210、撮像部211を含む撮像系の汚れや破損を防止する。   In FIG. 2, the photographing lens 209 includes a focus lens. The shutter 210 has an aperture function. The imaging unit 211 is configured by a CCD, a CMOS element, or the like that converts an optical image into an electrical signal. The A / D converter 212 converts an analog signal into a digital signal. The A / D converter 212 is used to convert an analog signal output from the imaging unit 211 into a digital signal. The barrier 208 covers the imaging unit including the imaging lens 209 of the digital camera 100, thereby preventing the imaging system including the imaging lens 209, the shutter 210, and the imaging unit 211 from being dirty or damaged.

画像処理部213は、A/D変換器212からのデータ、又は、メモリ制御部215からのデータに対し所定の画素補間、縮小といったリサイズ処理や色変換処理を行う。また、画像処理部213では、撮像した画像データを用いて所定の演算処理が行われ、得られた演算結果に基づいてシステム制御部221が露光制御、測距制御を行う。   The image processing unit 213 performs resize processing such as predetermined pixel interpolation and reduction and color conversion processing on the data from the A / D converter 212 or the data from the memory control unit 215. The image processing unit 213 performs predetermined calculation processing using the captured image data, and the system control unit 221 performs exposure control and distance measurement control based on the obtained calculation result.

これにより、TTL(スルー・ザ・レンズ)方式のAF(オートフォーカス)処理、AE(自動露出)処理、EF(フラッシュプリ発光)処理が行われる。画像処理部213では更に、撮像した画像データを用いて所定の演算処理を行い、得られた演算結果に基づいてTTL方式のAWB(オートホワイトバランス)処理も行っている。   Thereby, AF (autofocus) processing, AE (automatic exposure) processing, and EF (flash pre-emission) processing of the TTL (through-the-lens) method are performed. The image processing unit 213 further performs predetermined arithmetic processing using the captured image data, and also performs TTL AWB (auto white balance) processing based on the obtained arithmetic result.

A/D変換器212からの出力データは、画像処理部213及びメモリ制御部215を介して、或いは、メモリ制御部215を介してメモリ219に直接書き込まれる。メモリ219は、撮像部211によって得られA/D変換器212によりデジタルデータに変換された画像データや、表示部102に表示するための画像データを格納する。   Output data from the A / D converter 212 is directly written into the memory 219 via the image processing unit 213 and the memory control unit 215 or via the memory control unit 215. The memory 219 stores image data obtained by the imaging unit 211 and converted into digital data by the A / D converter 212 and image data to be displayed on the display unit 102.

メモリ219は、所定枚数の静止画像や所定時間の動画像および音声を格納するのに十分な記憶容量を備えている。   The memory 219 has a storage capacity sufficient to store a predetermined number of still images, a moving image and sound for a predetermined time.

また、メモリ219は画像表示用のメモリ(ビデオメモリ)を兼ねている。D/A変換器218は、メモリ219に格納されている画像表示用のデータをアナログ信号に変換して表示部102に供給する。   The memory 219 also serves as an image display memory (video memory). The D / A converter 218 converts the image display data stored in the memory 219 into an analog signal and supplies it to the display unit 102.

こうして、メモリ219に書き込まれた表示用の画像データはD/A変換器218を介して表示部102により表示される。表示部102は、LCD等の表示器上に、D/A変換器218からのアナログ信号に応じた表示を行う。   Thus, the display image data written in the memory 219 is displayed on the display unit 102 via the D / A converter 218. The display unit 102 performs display according to the analog signal from the D / A converter 218 on a display such as an LCD.

不揮発性メモリ226は、電気的に消去・記録可能なメモリであり、例えばEEPROM等が用いられる。不揮発性メモリ226には、システム制御部221の動作用の定数、プログラム等が記憶される。ここでいう、プログラムとは、本実施の形態にて後述する各種フローチャートを実行するためのプログラムのことである。   The nonvolatile memory 226 is an electrically erasable / recordable memory, and for example, an EEPROM or the like is used. The nonvolatile memory 226 stores constants, programs, and the like for operating the system control unit 221. Here, the program is a program for executing various flowcharts described later in the present embodiment.

システム制御部221は、デジタルカメラ100全体を制御する。前述した不揮発性メモリ226に記録されたプログラムを実行することで、後述する本実施の形態の各処理を実現する。   The system control unit 221 controls the entire digital camera 100. By executing the program recorded in the non-volatile memory 226 described above, each process of the present embodiment to be described later is realized.

システムメモリ227は、本実施の形態ではRAMが用いられている。システムメモリ227には、システム制御部221の動作用の定数、変数、不揮発性メモリ226から読み出したプログラム等を展開する。また、システム制御部はメモリ219、D/A変換器218、表示部102等を制御することにより表示制御も行う。   As the system memory 227, a RAM is used in this embodiment. In the system memory 227, constants and variables for operation of the system control unit 221 and programs read from the nonvolatile memory 226 are expanded. The system control unit also performs display control by controlling the memory 219, the D / A converter 218, the display unit 102, and the like.

シャッターボタン103は、第1シャッタースイッチ、第2シャッタースイッチを備えており、システム制御部221に各種の動作指示を入力するための操作手段である。   The shutter button 103 includes a first shutter switch and a second shutter switch, and is an operation means for inputting various operation instructions to the system control unit 221.

第1シャッタースイッチは、デジタルカメラ100に設けられたシャッターボタン103の操作途中、いわゆる半押し(撮影準備指示)でONとなり第1シャッタースイッチ信号SW1を発生する。第1シャッタースイッチ信号SW1により、AF(オートフォーカス)処理、AE(自動露出)処理、AWB(オートホワイトバランス)処理、EF(フラッシュプリ発光)処理等の動作を開始する。   The first shutter switch is turned on when the shutter button 103 provided in the digital camera 100 is being operated, so-called half-press (shooting preparation instruction), and the first shutter switch signal SW1 is generated. In response to the first shutter switch signal SW1, operations such as AF (autofocus) processing, AE (automatic exposure) processing, AWB (auto white balance) processing, and EF (flash pre-emission) processing are started.

第2シャッタースイッチは、シャッターボタン103の操作完了、いわゆる全押し(撮影指示)でONとなり、第2シャッタースイッチ信号SW2を発生する。システム制御部221は、第2シャッタースイッチ信号SW2により、撮像部211からの信号読み出しから記録媒体107に画像データを書き込むまでの一連の撮影処理の動作を開始する。   The second shutter switch is turned on when the operation of the shutter button 103 is completed, that is, when it is fully pressed (shooting instruction), and a second shutter switch signal SW2 is generated. In response to the second shutter switch signal SW2, the system control unit 221 starts a series of shooting processing operations from reading a signal from the imaging unit 211 to writing image data on the recording medium 107.

電源制御部224は、電池検出回路、DC−DCコンバータ、通電するブロックを切り替えるスイッチ回路等により構成され、電池の装着の有無、電池の種類、電池残量の検出を行う。また、電源制御部224は、その検出結果及びシステム制御部221の指示に基づいてDC−DCコンバータを制御し、必要な電圧を必要な期間、記録媒体107を含む各部へ供給する。   The power control unit 224 includes a battery detection circuit, a DC-DC converter, a switch circuit that switches a block to be energized, and the like, and detects whether or not a battery is attached, the type of battery, and the remaining battery level. Further, the power control unit 224 controls the DC-DC converter based on the detection result and an instruction from the system control unit 221 and supplies a necessary voltage to each unit including the recording medium 107 for a necessary period.

電源部225は、アルカリ電池やリチウム電池等の一次電池やNiCd電池やNiMH電池、Li電池等の二次電池、ACアダプター等からなる。I/F220(以下、インターフェースという)はメモリカードやハードディスク等の記録媒体107とのインターフェースである。記録媒体107は、メモリカード等の記録媒体であり、半導体メモリや磁気ディスク等から構成される。   The power supply unit 225 includes a primary battery such as an alkaline battery or a lithium battery, a secondary battery such as a NiCd battery, a NiMH battery, or a Li battery, an AC adapter, or the like. An I / F 220 (hereinafter referred to as an interface) is an interface with a recording medium 107 such as a memory card or a hard disk. The recording medium 107 is a recording medium such as a memory card, and includes a semiconductor memory, a magnetic disk, or the like.

その他の操作部として、表示部102に対する接触を検知可能なタッチパネル223を有する。タッチパネル223は表示部102と一体化して形成されている。タッチパネル制御部222は、指が表示部102(タッチパネル223)に接触することにより操作した操作内容を認識する第2認識手段に対応し、具体的にはタッチパネル223への以下の操作を検出できる。タッチパネルを指やペンで触れたこと(以下、タッチダウンという)。タッチパネルを指やペンで触れている状態であること(以下、タッチオンという)。タッチパネルを指やペンで触れたまま移動していること(以下、ムーブという)。タッチパネルへ触れていた指やペンを離したこと(以下、タッチアップという)。   As another operation unit, a touch panel 223 capable of detecting contact with the display unit 102 is provided. The touch panel 223 is formed integrally with the display unit 102. The touch panel control unit 222 corresponds to second recognition means for recognizing the operation content operated by the finger touching the display unit 102 (touch panel 223). Specifically, the touch panel control unit 222 can detect the following operation on the touch panel 223. Touching the touch panel with a finger or pen (hereinafter referred to as touchdown). The touch panel is touched with a finger or pen (hereinafter referred to as touch-on). Moving while touching the touch panel with a finger or pen (hereinafter referred to as “move”). The finger or pen that was touching the touch panel is released (hereinafter referred to as touch-up).

タッチパネルに何も触れていない状態(以下、タッチオフという)。これらの操作や、タッチパネル上に指やペンが触れている位置座標はタッチパネル制御部222からシステム制御部221に通知され、システム制御部221は通知された情報に基づいてタッチパネル上にどのような操作が行なわれたかを判定する。   A state where nothing touches the touch panel (hereinafter referred to as touch-off). The touch panel control unit 222 notifies the system control unit 221 of these operations and the position coordinates where the finger or pen touches the touch panel, and the system control unit 221 performs any operation on the touch panel based on the notified information. It is determined whether or not.

ムーブについてはタッチパネル上で移動する指やペンの移動方向についても、位置座標の変化に基づいて、タッチパネル上の垂直成分・水平成分毎に判定できる。またタッチパネル上をタッチダウンから一定のムーブを経てタッチアップをしたとき、ストロークを描いたこととする。素早くストロークを描く操作をフリックと呼ぶ。   Regarding the move, the moving direction of the finger or pen moving on the touch panel can also be determined for each vertical component / horizontal component on the touch panel based on the change of the position coordinates. It is also assumed that a stroke is drawn when touch-up is performed on the touch panel through a certain move from touch-down. The operation of drawing a stroke quickly is called a flick.

フリックは、タッチパネル上に指を触れたままある程度の距離だけ素早く動かして、そのまま離すといった操作であり、言い換えればタッチパネル上を指ではじくように素早くなぞる操作である。所定距離以上を、所定速度以上でムーブしたことが検出され、そのままタッチアップが検出されるとフリックが行なわれたと判定できる。   A flick is an operation of quickly moving a certain distance while touching a finger on the touch panel and then releasing it, in other words, an operation of quickly tracing a finger on the touch panel. If it is detected that the moving is performed at a predetermined speed or more over a predetermined distance, and a touch-up is detected as it is, it can be determined that a flick has been performed.

また、所定距離以上を、所定速度未満でムーブしたことが検出された場合はドラッグが行なわれたと判定するものとする。   In addition, when it is detected that the movement is performed at a predetermined distance or more and less than a predetermined speed, it is determined that the drag has been performed.

操作入力用撮像部L、及び操作入力用撮像部は、操作者の指などの操作子を撮像するためのものである。操作入力用撮像部Lと操作入力用撮像部Rとで撮像された操作子画像データは画像処理部213及びメモリ制御部215を介して、或いは、メモリ制御部215を介してメモリ219に直接書き込まれる。   The operation input imaging unit L and the operation input imaging unit are for imaging an operator such as an operator's finger. The operator image data captured by the operation input imaging unit L and the operation input imaging unit R is directly written into the memory 219 via the image processing unit 213 and the memory control unit 215 or via the memory control unit 215. It is.

距離・位置検出部216は、指と表示部102との距離を導出する導出手段である。この距離・位置検出部216は、操作子画像データから操作子である操作者の指を検出し、表示部102から指までの距離と、表示部102の表示画面の領域に対する指の位置を検出してシステム制御部221に通知する。システム制御部221は、表示部102から指までの距離や表示部102の領域に対する指の位置に応じて、表示部102に表示する形態を変えるよう制御している。   The distance / position detection unit 216 is a derivation unit that derives the distance between the finger and the display unit 102. The distance / position detection unit 216 detects the operator's finger as the operation unit from the operation unit image data, and detects the distance from the display unit 102 to the finger and the position of the finger with respect to the display screen area of the display unit 102. Then, the system control unit 221 is notified. The system control unit 221 controls to change the display form on the display unit 102 according to the distance from the display unit 102 to the finger and the position of the finger with respect to the area of the display unit 102.

非接触操作検出部217は連続的に取得した複数の操作子画像データから、操作子である操作者の指の位置の一定間隔ごとの変化量を演算することによって、指の動きを検出してシステム制御部221に通知する。従って、非接触操作検出部217は、指が表示部102に接触することなく操作した操作内容を認識する第1認識手段に対応する。   The non-contact operation detection unit 217 detects the movement of the finger by calculating the amount of change of the position of the operator's finger, which is the operator, at regular intervals from a plurality of continuously obtained operation element image data. Notify the system controller 221. Accordingly, the non-contact operation detection unit 217 corresponds to a first recognition unit that recognizes the operation content operated without the finger touching the display unit 102.

システム制御部221は、操作者の指が表示部102に触れていない状態での、指の動きの軌跡を基にしてデジタルカメラ100に対する操作指示を認識して、認識した操作指示に基づいてデジタルカメラ100全体を制御している。   The system control unit 221 recognizes an operation instruction with respect to the digital camera 100 based on the movement trajectory of the finger when the operator's finger is not touching the display unit 102, and performs digital processing based on the recognized operation instruction. The entire camera 100 is controlled.

表示画像生成部214は、表示部102に表示する表示データを生成する。システム制御部221が距離・位置検出部216を制御することによって、操作入力用撮像部Lと操作入力用撮像部Rとで撮像された操作子画像データから操作子である操作者の指を検出する。   The display image generation unit 214 generates display data to be displayed on the display unit 102. The system controller 221 controls the distance / position detector 216 to detect the operator's finger as an operator from the operator image data captured by the operation input imaging unit L and the operation input imaging unit R. To do.

図3は、表示部102から指までの距離と、表示部102の表示画面の領域に対する指の位置を検出する原理を説明するための図である。   FIG. 3 is a diagram for explaining the principle of detecting the distance from the display unit 102 to the finger and the position of the finger with respect to the area of the display screen of the display unit 102.

図3において、xyz空間を想定したときに、操作入力用撮像部Lと操作入力用撮像部Rの仮想的な視点位置となる中心位置P、Pがいずれもxz平面上にあるものとする。また、操作入力用撮像部Lと操作入力用撮像部RのCCD等の撮像面301、302が、いずれもxy平面上にあるものとする。 In FIG. 3, when the xyz space is assumed, the center positions P L and PR that are virtual viewpoint positions of the operation input imaging unit L and the operation input imaging unit R are both on the xz plane. To do. In addition, it is assumed that the imaging surfaces 301 and 302 such as the CCDs of the operation input imaging unit L and the operation input imaging unit R are on the xy plane.

操作者の指がPの位置にあるときの、操作入力用撮像部Lと操作入力用撮像部Rの仮想的な視点位置P、PとPを結ぶ直線と、撮像面との交点の3次元座標をそれぞれQ、Qとする。この交点の撮像面上の2次元座標を、それぞれ(x,y)、(x,y)、操作入力用撮像部Lと6の操作入力用撮像部Rの視点位置間の距離を2w、視点位置P、Pから撮像面までの距離をdとする。 Operator's finger when in the position of P, the virtual viewpoint position P L of the operation input imaging section L an operation input for the imaging unit R, the straight line connecting the P R and P, the intersection of the imaging surface Let the three-dimensional coordinates be Q L and QR, respectively. The two-dimensional coordinates on the imaging surface of this intersection point are respectively (x L , y L ), (x R , y R ), the distance between the viewpoint positions of the operation input imaging units L and 6 and the operation input imaging unit R. the 2w, viewpoint position P L, the distance from P R to the imaging surface to as d.

また、x軸方向の単位ベクトルをi、y軸方向の単位ベクトルをj、z軸方向の単位ベクトルをkとする。この場合、次の式が成立する。
=−wi−dk
=wi−dk
=(x−w)i+y
=(x+w)i+y
とQを結ぶ直線と、PとQを結ぶ直線は、Pで交差するため、次式が成立する。
P=P+m(Q−P)=P+n(Q−P
この式をm,nに関して解くと、次式が得られる。
m=n=2w/(x−x
その結果、xy平面上での指の位置Pxyは、次式により求めることができる。
Pxy=(mx−w)i+my
また、表示部102から指までの距離Pzは、次式により求めることができる。
Pz=(m−1)d
本実施の形態では、上記式より表示部102から指までの距離を求めるようになっている。
The unit vector in the x-axis direction is i, the unit vector in the y-axis direction is j, and the unit vector in the z-axis direction is k. In this case, the following formula is established.
P L = −wi−dk
P R = wi-dk
Q L = (x L −w) i + y L j
Q R = (x R + w) i + y R j
A straight line connecting the P L and Q L, the straight line connecting the P R and Q R, in order to intersect at P, the following equation holds.
P = P L + m (Q L −P L ) = P R + n (Q R −P R )
Solving this equation for m and n yields:
m = n = 2w / (x L -x R )
As a result, the finger position Pxy on the xy plane can be obtained by the following equation.
Pxy = (mx L −w) i + my L j
Further, the distance Pz from the display unit 102 to the finger can be obtained by the following equation.
Pz = (m−1) d
In the present embodiment, the distance from the display unit 102 to the finger is obtained from the above formula.

次いで表示部102について説明する。表示部102は、裸眼立体視が可能な液晶ディスプレイにより構成される。裸眼立体視が可能な表示部102は、例えばパララックスバリア(視差バリア)方式、レンチキュラー方式など、視線の視差分割方式を利用して実現してもよいし、DFD(Depth Focus 3D)方式を利用して実現してもよい。   Next, the display unit 102 will be described. The display unit 102 is configured by a liquid crystal display capable of autostereoscopic viewing. The display unit 102 capable of autostereoscopic viewing may be realized using a parallax dividing method such as a parallax barrier (parallax barrier) method or a lenticular method, or may use a DFD (Depth Focus 3D) method. May be realized.

図4(A)は、視差バリア方式における構成を示し、(B)は、レンチキュラー方式における構成を示す図である。   4A shows a configuration in the parallax barrier method, and FIG. 4B shows a configuration in the lenticular method.

図4(A)において、視差バリア方式の場合、表示部102は、TFT液晶で構成された画素列の横方向に交互に左眼用画素領域401Lおよび、右眼用画素領域401Rが設定される。この図において、観測者の右眼404、観測者の左眼403とする。画素列の前面に設置され、縦方向のスリットで構成された視差バリア402により、左眼用画素領域401Lからの光が左眼403だけに到達する。そしてかつ右眼用画素領域401Rからの光が右眼404だけに到達するように構成される。   4A, in the case of the parallax barrier method, in the display unit 102, a left-eye pixel region 401L and a right-eye pixel region 401R are alternately set in the horizontal direction of a pixel row formed of TFT liquid crystal. . In this figure, an observer's right eye 404 and an observer's left eye 403 are assumed. The light from the left-eye pixel region 401L reaches only the left eye 403 by the parallax barrier 402 that is installed in front of the pixel row and includes vertical slits. And it is comprised so that the light from the pixel region 401R for right eyes may reach only the right eye 404. FIG.

視差バリア402は、電子制御可能なスイッチ液晶により構成されてもよい。また視差バリア402は、画素列の背後でかつ光源の手前側に設定されてもよい。   The parallax barrier 402 may be configured by a switch liquid crystal that can be electronically controlled. Further, the parallax barrier 402 may be set behind the pixel row and in front of the light source.

図4(B)において、レンチキュラー方式の場合には、表示部102は、画面の横方向に交互に左眼用画素領域405Lおよび右眼用画素領域405Rが設定される。そして、かまぼこ状のレンチキュラーレンズ406により左眼用画素領域405Lからの光が左眼だけに到達し、かつ右眼用画素領域405Rからの光が右眼だけに到達するように構成される。このように視差分割方式では、人間の左右の目にそれぞれ異なる画像を映すことにより奥行き感を出すことができる。   In FIG. 4B, in the case of the lenticular method, the left-eye pixel area 405L and the right-eye pixel area 405R are alternately set in the display unit 102 in the horizontal direction of the screen. Then, it is configured such that the light from the left eye pixel region 405L reaches only the left eye and the light from the right eye pixel region 405R reaches only the right eye by the semi-cylindrical lenticular lens 406. Thus, in the parallax division method, it is possible to give a sense of depth by projecting different images to the left and right eyes of a human.

また、DFD方式の場合、表示部102は2枚のTFT液晶を適当な間隔を空けて前後に配置し、2枚のTFT液晶に遠近に対応した明るさの割合の画像を表示する。具体的には、近くにある物体ほど、前部におかれたTFT液晶に表示する対応する画像部分の輝度を高くする。これにより前後のTFT液晶の間に連続的な奥行き感を出すことができる。   Further, in the case of the DFD method, the display unit 102 arranges two TFT liquid crystals in front and back with an appropriate interval, and displays an image of a brightness ratio corresponding to the distance on the two TFT liquid crystals. Specifically, the closer the object is, the higher the luminance of the corresponding image portion displayed on the TFT liquid crystal placed in the front portion. Thereby, a continuous depth feeling can be produced between the front and rear TFT liquid crystals.

図5は、表示部102を視差分割方式を利用して実現した場合の、図2の表示画像生成部214の構成の一例を示した図である。   FIG. 5 is a diagram illustrating an example of the configuration of the display image generation unit 214 in FIG. 2 when the display unit 102 is realized using a parallax division method.

表示画像生成部214は、背景画像生成部501、右目用表示アイテム生成部502、左目用表示アイテム生成部503、2次元表示アイテム生成部504、立体視画像生成部505を含む。   The display image generation unit 214 includes a background image generation unit 501, a right-eye display item generation unit 502, a left-eye display item generation unit 503, a two-dimensional display item generation unit 504, and a stereoscopic image generation unit 505.

背景画像生成部501は、メモリ制御部215を介してメモリ219から画像データを読み出して画像表示データを生成し、立体視画像生成部505に出力する。   The background image generation unit 501 reads out image data from the memory 219 via the memory control unit 215, generates image display data, and outputs the image display data to the stereoscopic image generation unit 505.

右目用表示アイテム生成部502は、メモリ制御部215を介してメモリ219から立体視対応表示アイテムの右目用ビットマップデータを読み出して右目用表示データを生成し、立体視画像生成部505に出力する。   The right-eye display item generation unit 502 reads the right-eye bitmap data of the stereoscopic-compatible display item from the memory 219 via the memory control unit 215, generates right-eye display data, and outputs the right-eye display data to the stereoscopic image generation unit 505. .

左目用表示アイテム生成部503は、メモリ制御部215を介してメモリ219から立体視対応表示アイテムの左目用ビットマップデータを読み出して左目用表示データを生成し、立体視画像生成部505に出力する。   The left-eye display item generation unit 503 reads the left-eye bitmap data of the stereoscopic corresponding display item from the memory 219 via the memory control unit 215, generates left-eye display data, and outputs the left-eye display data to the stereoscopic image generation unit 505. .

ここで立体視対応表示アイテムとは、裸眼立体視が可能な液晶ディスプレイで表示したときに、奥行き感を出すよう構成された表示イメージである。例えば操作用のスイッチやボタン、ダイヤルやアイコンを、表示部102の表示領域から一定距離離れた空間上に仮想的に表現したものである。   Here, the stereoscopic display compatible display item is a display image configured to give a sense of depth when displayed on a liquid crystal display capable of autostereoscopic viewing. For example, operation switches, buttons, dials, and icons are virtually expressed in a space that is a predetermined distance away from the display area of the display unit 102.

本実施の形態のデジタルカメラ100では、操作者の指がタッチパネル223に非接触の状態での指の動きを認識して、この立体視対応表示アイテムに対する操作指示におきかえることでデジタルカメラ100を操作することができる。   In the digital camera 100 according to the present embodiment, the operator's finger recognizes the movement of the finger in a non-contact state with the touch panel 223, and operates the digital camera 100 by replacing the operation instruction with respect to the stereoscopic display display item. can do.

2次元表示アイテム生成部504は、メモリ制御部215を介してメモリ219から2次元表示アイテム用のビットマップデータを読み出して2次元表示アイテム用表示データを生成し、立体視画像生成部505に出力する。   The two-dimensional display item generation unit 504 reads the bitmap data for the two-dimensional display item from the memory 219 via the memory control unit 215, generates the two-dimensional display item display data, and outputs it to the stereoscopic image generation unit 505. To do.

2次元表示アイテムとは、裸眼立体視が可能な液晶ディスプレイで表示したときに、奥行き感が出ないように構成された表示イメージである。または、奥行き感が立体視対応表示アイテムと比べて明らかに少なくなるように構成された表示イメージでもよい。   The two-dimensional display item is a display image configured to prevent a sense of depth when displayed on a liquid crystal display capable of autostereoscopic viewing. Or the display image comprised so that a feeling of depth may be clearly reduced compared with the display item corresponding to a stereoscopic vision may be sufficient.

本実施の形態のデジタルカメラ100では、操作者が指を表示部102に表示された2次元表示アイテムに対して、タッチパネル223上でフリック操作したり、タッチダウン操作したりすることで操作指示を入力することができる。   In the digital camera 100 according to the present embodiment, the operator performs an operation instruction by performing a flick operation or a touch-down operation on the touch panel 223 with respect to the two-dimensional display item displayed on the display unit 102 by the operator. Can be entered.

立体視画像生成部505は、画像表示データ、右目用表示データ、左目用表示データ、2次元表示アイテム用表示データから立体視画像を生成して、メモリ制御部215を介してメモリ219に書き出す。   The stereoscopic image generation unit 505 generates a stereoscopic image from the image display data, right-eye display data, left-eye display data, and two-dimensional display item display data, and writes the stereoscopic image to the memory 219 via the memory control unit 215.

具体的には、画像表示データに、右目用表示データ、及び2次元表示アイテム用表示データを重ね合わせ、右目用立体視画像を生成する。また、画像表示データに、左目用表示データ、及び2次元表示アイテム用表示データを重ね合わせ、左目用立体視画像を生成する。   Specifically, right-eye display data and 2-dimensional display item display data are superimposed on the image display data to generate a right-eye stereoscopic image. In addition, the left-eye display data and the two-dimensional display item display data are superimposed on the image display data to generate a left-eye stereoscopic image.

そして、立体視画像生成部505は、右目用立体視画像と左目用立体視画像を画面の縦方向に短冊領域に分割し、分割した右目用立体視画像と左目用立体視画像を画面の横方向に交互に配列して生成する。   Then, the stereoscopic image generation unit 505 divides the right-eye stereoscopic image and the left-eye stereoscopic image into strip regions in the vertical direction of the screen, and the divided right-eye stereoscopic image and left-eye stereoscopic image are It is generated by alternately arranging in the direction.

このとき、画像データに対する右目用立体視画像と左目用立体視画像は、同一のものが生成され、この状態では操作者には平面表示された平面的な画像として見える。   At this time, the same right-eye stereoscopic image and left-eye stereoscopic image for the image data are generated, and in this state, the operator sees the planar image as a planar display.

2次元表示アイテムに対する右目用立体視画像と左目用立体視画像は、同一のものが生成され、この状態では操作者には平面的な表示アイテムとして見える。   The right-eye stereoscopic image and the left-eye stereoscopic image for the two-dimensional display item are generated in the same way, and in this state, it appears as a planar display item to the operator.

また、立体視対応表示アイテムに対する右目用立体視画像と左目用立体視画像は視差を持っているため、操作者には立体的な表示アイテムとして見える。   In addition, the right-eye stereoscopic image and the left-eye stereoscopic image with respect to the stereoscopic-compatible display item have parallax, and thus appear to the operator as a stereoscopic display item.

本実施の形態のデジタルカメラ100では、画像データと、2次元表示アイテムと、立体視対応表示アイテムを表示するか、又は表示しないかを、それぞれ独立して制御することができる。   In the digital camera 100 of the present embodiment, it is possible to independently control whether to display image data, a two-dimensional display item, and a stereoscopic vision display item or not.

図6は、図2における非接触操作検出部217が、連続的に取得した複数の操作子画像データから、操作子である操作者の指の動きを検出する方法について説明するための図である。   FIG. 6 is a diagram for explaining a method in which the non-contact operation detection unit 217 in FIG. 2 detects the movement of the operator's finger as the operator from a plurality of continuously acquired operator image data. .

図6において、(A)は、連続的に取得した複数の操作子画像データから操作子である操作者の指を検出して、その軌跡を算出する方法を説明したものである。図6(B)〜(E)は不揮発性メモリ226に記録された軌跡パターンを示している。   6A illustrates a method of detecting the operator's finger as the operator from a plurality of continuously acquired operator image data and calculating the locus thereof. 6B to 6E show trajectory patterns recorded in the nonvolatile memory 226. FIG.

図6(A)において、非接触操作検出部は連続する2フレームの操作子画像データにおける画面上の小さな画素ブロック間での相関値を算出して、操作者の指の動きベクトルを算出する。   In FIG. 6A, the non-contact operation detection unit calculates a correlation value between small pixel blocks on the screen in two consecutive frames of operator image data, and calculates a motion vector of the operator's finger.

図6(A)では、一定時間間隔で算出した動きベクトルをV(t)、V(t+1)、V(t+2)、・・・、V(t+7)で示している。システム制御部221は、連続する複数のベクトルの集合を操作者の指の軌跡と認識する。   In FIG. 6A, motion vectors calculated at regular time intervals are indicated by V (t), V (t + 1), V (t + 2),..., V (t + 7). The system control unit 221 recognizes a set of continuous vectors as a trajectory of the operator's finger.

また、図6(B)〜(E)における軌跡パターン601〜604は不揮発性メモリ226に記録された軌跡パターンを示している。各々の軌跡パターン601〜604は立体対応表示アイテムに対する操作指示と対応づけられている。   Further, locus patterns 601 to 604 in FIGS. 6B to 6E indicate locus patterns recorded in the nonvolatile memory 226. Each of the trajectory patterns 601 to 604 is associated with an operation instruction for the stereoscopic display item.

例えばシステム制御部221は、V(t)〜V(t+3)のベクトルの集合を軌跡パターン601〜604とマッチングした結果、軌跡パターン601と一致すると判断する。その結果、システム制御部221は、軌跡パターン601に対応付けられた操作指示を実行する。   For example, the system control unit 221 determines that the set of vectors V (t) to V (t + 3) matches the locus pattern 601 as a result of matching with the locus patterns 601 to 604. As a result, the system control unit 221 executes an operation instruction associated with the trajectory pattern 601.

同様に、システム制御部221は、V(t+4)〜V(t+6)のベクトルの集合を軌跡パターン604と一致すると判断して、軌跡パターン604に対応付けられた操作指示を実行する。   Similarly, the system control unit 221 determines that the set of vectors V (t + 4) to V (t + 6) matches the trajectory pattern 604, and executes an operation instruction associated with the trajectory pattern 604.

図7は、図2におけるシステム制御部221が、記録媒体107に保存されている画像データを操作者の指示にしたがって表示部102に閲覧の目的で表示する再生モードにおいて、表示部102に表示する画面内容を示した図である。   7 is displayed on the display unit 102 in a reproduction mode in which the system control unit 221 in FIG. 2 displays the image data stored in the recording medium 107 on the display unit 102 for the purpose of browsing in accordance with an instruction from the operator. It is the figure which showed the screen content.

図7(A)は、表示部102に、画像データから生成した画像表示データを表示した内容を示す表示702が表示された様子を示している。図7(B)は、立体視対応表示アイテムの輪郭704を画像表示データの表示702にオーバーラップ表示した様子を示している。図7(C)は、立体視対応表示アイテム705を画像表示データの表示702に上書きして表示した様子を示している。図7(D)は、操作指示を入力するための2次元表示アイテムを表示した様子を示している。   FIG. 7A shows a state where a display 702 indicating the content of displaying image display data generated from image data is displayed on the display unit 102. FIG. 7B shows a state in which the outline 704 of the stereoscopic view display item is displayed in an overlapping manner on the display 702 of the image display data. FIG. 7C shows a state in which the stereoscopic display display item 705 is displayed by being overwritten on the display 702 of the image display data. FIG. 7D shows a state in which a two-dimensional display item for inputting an operation instruction is displayed.

図7(A)において、操作者が指703をタッチパネル223上でフリック操作することで、操作指示を入力することができる。   In FIG. 7A, the operator can input an operation instruction by flicking the finger 703 on the touch panel 223.

操作者が表示702に対してフリックすると、システム制御部221は画像送りの操作指示が操作者によって指示されたと判断して、表示702を現在表示している画像データに対して撮影時刻がひとつ前、あるいはひとつ後の画像データの表示に更新する。   When the operator flicks the display 702, the system control unit 221 determines that the image feed operation instruction is instructed by the operator, and the shooting time is one before the image data currently displayed on the display 702. Or, update to the display of the next image data.

図7(B)において、立体視対応表示アイテムの輪郭704のみを表示するため、画像表示データの表示702を遮る領域を小さくすることができ、操作者による画像データの閲覧行為に対する妨げを軽減することができる。輪郭704は操作者には立体的な表示アイテムとして見える。   In FIG. 7B, since only the outline 704 of the display item corresponding to stereoscopic vision is displayed, the area that blocks the display 702 of the image display data can be reduced, and the hindrance to the browsing action of the image data by the operator is reduced. be able to. The contour 704 appears to the operator as a three-dimensional display item.

図7(C)において、立体視対応表示アイテム705は操作者には立体的な表示アイテムとして見える。撮影年月日708は立体視対応表示アイテム705の表示の一部で、表示する画像データの撮影年月日を示した表示である。矢印706,707は立体視対応表示アイテム705の表示の一部で、立体視対応表示アイテム705を操作者が操作するためのガイダンスを示す矢印の表示である。   In FIG. 7C, the stereoscopic display corresponding item 705 appears to the operator as a stereoscopic display item. The shooting date 708 is a part of the display of the stereoscopic view display item 705 and is a display showing the shooting date of the image data to be displayed. Arrows 706 and 707 are a part of the display of the stereoscopic corresponding display item 705, and are arrows indicating guidance for the operator to operate the stereoscopic corresponding display item 705.

操作者の指703が矢印706、又は707の方向に動いたことをシステム制御部221が認識して、図6の軌跡パターン601〜604と一致すると判断すると、日付を指定しての画像送りの操作指示が操作者によって指示されたと判断する。そして、画像データの撮影年月日を示した撮影年月日708の内容を、現在表示されている撮影年月日の以前の撮影日、あるいは以降の撮影日に変えるとともに、表示702を次の撮影年月日に対応する画像データの表示に更新する。   When the system control unit 221 recognizes that the operator's finger 703 has moved in the direction of the arrow 706 or 707 and determines that the operator's finger 703 matches the trajectory patterns 601 to 604 of FIG. It is determined that the operation instruction is instructed by the operator. Then, the content of the shooting date 708 indicating the shooting date of the image data is changed to the shooting date before or after the currently displayed shooting date, and the display 702 is changed to the following. Update to display the image data corresponding to the shooting date.

図7(D)において、操作者が2次元表示アイテム709をタッチダウンすると、システム制御部221は拡大指示が入力されたと判断して、表示702を画像データの一部分の領域を拡大したものとする。また、操作者が2次元表示アイテム710をタッチダウンすると、システム制御部221は表示702が示す画像データの削除指示が入力されたと判断する。   In FIG. 7D, when the operator touches down the two-dimensional display item 709, the system control unit 221 determines that an enlargement instruction is input, and the display 702 is obtained by enlarging a partial area of the image data. . When the operator touches down the two-dimensional display item 710, the system control unit 221 determines that an instruction to delete image data indicated by the display 702 has been input.

前述したとおり、本実施の形態のデジタルカメラ100のシステム制御部221は、表示部102から指までの距離に応じて、表示部102に表示する形態を変えるよう制御する。   As described above, the system control unit 221 of the digital camera 100 according to the present embodiment controls to change the display form on the display unit 102 according to the distance from the display unit 102 to the finger.

図8は、デジタルカメラ100を表示部102の側から斜め方向から俯瞰した図である。   FIG. 8 is a view of the digital camera 100 viewed from an oblique direction from the display unit 102 side.

図8において、表示部102と操作者の指703までの距離に応じて表示をどのように制御するかを説明する。   In FIG. 8, how the display is controlled according to the distance from the display unit 102 to the operator's finger 703 will be described.

表示部102と操作者の指703の距離をdxで表す。まず、システム制御部221は、dxがある決められた閾値であるd1(第1閾値)以下となったと判断すると、立体視対応表示アイテムを表示する。   The distance between the display unit 102 and the operator's finger 703 is represented by dx. First, when the system control unit 221 determines that dx is less than or equal to a predetermined threshold value d1 (first threshold value), the system control unit 221 displays a stereoscopic view display item.

このときさらに、操作者の指703が立体視対応表示アイテムに近接していると判断した場合、非接触での操作指示の入力を有効にする。すなわち、システム制御部221は、非接触操作検出部217が検出した操作者の指703の動きのデータの軌跡を基にしてデジタルカメラ100に対する操作指示を認識する。このとき、誤動作を防ぐためにタッチパネルの操作による操作指示の入力を無効にするよう制御する。   At this time, if it is determined that the operator's finger 703 is in close proximity to the stereoscopic display item, non-contact operation instruction input is validated. In other words, the system control unit 221 recognizes an operation instruction to the digital camera 100 based on the locus of movement data of the operator's finger 703 detected by the non-contact operation detection unit 217. At this time, in order to prevent malfunction, control is performed so as to invalidate the input of operation instructions by operating the touch panel.

さらにdxが、d1より小さい閾値であるd2(第2閾値)以下となったと判断すると、システム制御部221は、立体視対応表示アイテムを消去して、2次元表示アイテムを表示する。すなわち、表示アイテムの表示態様を切り替える。また、このとき、システム制御部221は、非接触での操作指示の入力を無効にする。また、タッチパネルの操作による操作指示の入力を有効にするよう制御する。   Further, when it is determined that dx is equal to or less than d2 (second threshold), which is a threshold smaller than d1, the system control unit 221 deletes the stereoscopic display corresponding item and displays a two-dimensional display item. That is, the display mode of the display item is switched. At this time, the system control unit 221 disables non-contact operation instruction input. In addition, control is performed so as to enable input of operation instructions by operating the touch panel.

図9は、第1の実施の形態において図2におけるシステム制御部221により実行される切り替え処理の手順を示すフローチャートである。   FIG. 9 is a flowchart illustrating a procedure of switching processing executed by the system control unit 221 in FIG. 2 in the first embodiment.

図9のフローチャートに示す処理は、システム制御部221により、システムメモリ227に読み出されたプログラムに基づいて実行される。操作者が電源スイッチ104を再生モードでの電源オンに切り替えることで、図9のフローチャートが開始される。   The processing shown in the flowchart of FIG. 9 is executed by the system control unit 221 based on the program read into the system memory 227. When the operator switches the power switch 104 to power-on in the reproduction mode, the flowchart of FIG. 9 is started.

図9において、記録媒体107に保存されている画像データを読み出して、メモリ219に展開し、図7(A)に示すように、画像データから生成した画像表示データを表示部102に表示する(ステップS901)。   In FIG. 9, the image data stored in the recording medium 107 is read out and expanded in the memory 219, and the image display data generated from the image data is displayed on the display unit 102 as shown in FIG. Step S901).

また、操作入力用撮像部Lと操作入力用撮像部Rを起動制御し、これらが撮影した操作子画像データに基づいて、距離・位置検出部216で検出される操作者の指と表示部102までの距離と、表示部102の領域に対する指の位置の検出動作を開始する。   Further, the operation input imaging unit L and the operation input imaging unit R are activated and controlled, and the operator's finger detected by the distance / position detection unit 216 and the display unit 102 on the basis of the operation element image data captured by these. And the detection operation of the finger position with respect to the area of the display unit 102 are started.

次いで、操作者の指703と表示部102の距離がd1以下か否かを判別する(ステップS902)。ステップS902の判別の結果、指703が検知できないか、又は検知できても距離がd1以下と判別されたとき(ステップS902でNO)、ステップS903を繰り返す。   Next, it is determined whether or not the distance between the operator's finger 703 and the display unit 102 is equal to or less than d1 (step S902). As a result of the determination in step S902, when the finger 703 cannot be detected, or even if it can be detected, the distance is determined to be d1 or less (NO in step S902), step S903 is repeated.

一方、距離がd1以下のとき(ステップS902でYES)、図7(B)に示すように、立体視対応表示アイテムの輪郭704を画像表示データの表示702にオーバーラップ表示する(ステップS903)。   On the other hand, when the distance is equal to or less than d1 (YES in step S902), as shown in FIG. 7B, the contour 704 of the stereoscopic display display item is displayed in an overlapping manner on the display 702 of the image display data (step S903).

立体視対応表示アイテムが輪郭で表示されている状態では、操作者はその立体視対応表示アイテムに対して操作指示を入力することはできない。しかし、操作者は、さらに指を近づけると立体視対応表示アイテムが操作可能になることを理解できる。また、どの位置に立体視対応表示アイテムが配置されるかを認識できるので、立体視対応表示アイテムを使って操作指示を入力する場合には、指703をどの位置に移動すればよいかが把握できる。   In the state in which the stereoscopic view display item is displayed with an outline, the operator cannot input an operation instruction to the stereoscopic view display item. However, the operator can understand that the stereoscopic view display item can be operated when the finger is brought closer. In addition, since it is possible to recognize at which position the display item corresponding to the stereoscopic view is arranged, when inputting an operation instruction using the display item corresponding to the stereoscopic view, it is possible to grasp which position the finger 703 should be moved to. .

次いで、操作者の指703と表示部102の距離がd2以下か、又は操作者の指703が表示部102(タッチパネル223)に接触したかを判別する(ステップS904)。   Next, it is determined whether the distance between the operator's finger 703 and the display unit 102 is d2 or less, or whether the operator's finger 703 is in contact with the display unit 102 (touch panel 223) (step S904).

ステップS904の判別の結果、否定判別したとき(ステップS904でNO)、指703と表示部102の距離がd1以上か否か判別する(ステップS906)。d1以上と判別されたとき(ステップS906でYES)、立体視対応表示アイテムの輪郭704の表示を消去して(ステップS907)、ステップS902に戻る。   If the result of determination in step S904 is negative (NO in step S904), it is determined whether or not the distance between the finger 703 and the display unit 102 is equal to or greater than d1 (step S906). When it is determined that it is greater than or equal to d1 (YES in step S906), the display of the outline 704 of the stereoscopic view display item is deleted (step S907), and the process returns to step S902.

一方、ステップS906の判別の結果、距離がd1未満と判別されたとき(ステップS906でNO)、指703が立体視対応表示アイテムの輪郭704に近接したか否かを判別する(ステップS908)。これは、距離・位置検出部216での表示部102の領域に対する指の位置の検出結果と立体視対応表示アイテムの表示位置の関係から判別できる。   On the other hand, as a result of the determination in step S906, when the distance is determined to be less than d1 (NO in step S906), it is determined whether or not the finger 703 is close to the contour 704 of the stereoscopic display-compatible display item (step S908). This can be determined from the relationship between the detection result of the finger position with respect to the area of the display unit 102 in the distance / position detection unit 216 and the display position of the stereoscopic display display item.

ステップS908の判別の結果、指703が立体視対応表示アイテムの輪郭704に近接したと判別したとき(ステップS908でNO)、ステップS904に戻る。   As a result of the determination in step S908, when it is determined that the finger 703 has approached the contour 704 of the stereoscopic view display item (NO in step S908), the process returns to step S904.

一方、ステップS908の判別の結果、輪郭704に近接したとき(ステップS908でYES)、図7(C)に示すように、立体視対応表示アイテム705を画像表示データの表示702に上書きして表示する(ステップS909)。   On the other hand, as a result of the determination in step S908, when close to the contour 704 (YES in step S908), as shown in FIG. 7C, the stereoscopic display display item 705 is displayed by overwriting the display 702 of the image display data. (Step S909).

この立体視対応表示アイテム705は操作者には立体的な表示アイテムとして見える。また、同時に、立体視対応表示アイテム705の表示の一部である、画像データの撮影年月日を示した撮影年月日708と、立体視対応表示アイテム705の操作のための矢印706,707を表示する。   The stereoscopic view corresponding display item 705 appears to the operator as a stereoscopic display item. At the same time, the shooting date 708 indicating the shooting date of the image data, which is a part of the display of the stereoscopic display item 705, and arrows 706 and 707 for operating the stereoscopic display item 705 are displayed. Is displayed.

その後、システム制御部221は非接触での操作指示の入力を有効にして、非接触操作検出部217での指の動きの検出動作を開始する。このとき、誤動作を防ぐためにタッチパネルの操作による操作指示の入力を無効にするよう制御する。立体視対応表示アイテム705を画像表示データの表示702の前面に表示することで、立体視対応表示アイテムを操作することによる非接触での操作指示の入力が有効であることを認識可能な表示を実現している。   Thereafter, the system control unit 221 validates the input of an operation instruction in a non-contact manner, and starts a finger movement detection operation in the non-contact operation detection unit 217. At this time, in order to prevent malfunction, control is performed so as to invalidate the input of operation instructions by operating the touch panel. By displaying the stereoscopic display item 705 in front of the display 702 of the image display data, a display capable of recognizing that the input of the non-contact operation instruction by operating the stereoscopic display item is valid. Realized.

上記ステップS909で、図7(B)の立体視対応表示アイテムの輪郭704をオーバーラップ表示した位置と同じ場所に、立体視対応表示アイテム705を表示することで、操作者はそのまま指703の位置をずらすことなく操作指示の入力が可能となる。   In step S909, the stereoscopic corresponding display item 705 is displayed at the same position as the position where the outline 704 of the stereoscopic corresponding display item in FIG. An operation instruction can be input without shifting.

次いで、指703の動きの軌跡を基にして、立体視対応表示アイテム705に対する操作指示の入力の認識動作を行い、立体視対応表示アイテム705に対する操作があったか否かを判別する(ステップS913)。   Next, based on the movement trajectory of the finger 703, an operation instruction input recognition operation is performed on the stereoscopic display item 705, and it is determined whether or not there is an operation on the stereoscopic display item 705 (step S913).

ステップS913の判別の結果、立体視対応表示アイテムに対する操作があったとき(ステップS913でYES)、操作に従った処理を実行し(ステップS914)、ステップS913に戻る。   As a result of the determination in step S913, when an operation is performed on the stereoscopic view display item (YES in step S913), processing according to the operation is executed (step S914), and the process returns to step S913.

上記操作とは、上述したように、操作者の指703が矢印706、又は907の方向にある決められた軌跡で動いたことなどの操作である。その操作をシステム制御部221が認識すると、日付を指定しての画像送りの操作があったと判別する。   The operation is an operation such as the operator's finger 703 moving along a predetermined locus in the direction of the arrow 706 or 907 as described above. When the system control unit 221 recognizes the operation, it is determined that there has been an image feed operation by designating a date.

より具体的には、図7(C)の表示状態では、撮影年月日708を、現在表示されている撮影年月日の以前の撮影日、あるいは以降の撮影日に変えるとともに、表示702を次の撮影年月日に対応する画像データの表示に更新する。   More specifically, in the display state of FIG. 7C, the shooting date 708 is changed to the shooting date before or after the currently displayed shooting date, and the display 702 is changed. The display is updated to display image data corresponding to the next shooting date.

一方、ステップS913の判別の結果、操作がなかったとき(ステップS913でNO)、指703と立体視対応表示アイテム705との近接が解除されたか否かを判別する(ステップS915)。これは、距離・位置検出部216での表示部102の領域に対する指の位置の検出結果と立体視対応表示アイテムの表示位置の関係から判別することができる。   On the other hand, if there is no operation as a result of the determination in step S913 (NO in step S913), it is determined whether or not the proximity between the finger 703 and the stereoscopic display item 705 has been released (step S915). This can be determined from the relationship between the detection result of the finger position with respect to the area of the display unit 102 in the distance / position detection unit 216 and the display position of the stereoscopic display display item.

ステップS915の判別の結果、近接が解除されていないとき(ステップS915でNO)、ステップS913に戻る。一方、近接が解除されたとき(ステップS915でYES)、立体視対応表示アイテム705を消去する。そして図7(B)に示すように、立体視対応表示アイテムの輪郭704を画像表示データの表示702にオーバーラップ表示して(ステップS916)、ステップS904に戻る。さらにこのとき、非接触での入力を無効にして、非接触操作検出部217での指の検出動作を停止する。また、ステップS909でタッチパネルの操作による操作指示の入力を無効にしていた場合、再び有効に戻すよう制御してもよい。   As a result of the determination in step S915, when the proximity is not released (NO in step S915), the process returns to step S913. On the other hand, when the proximity is canceled (YES in step S915), the stereoscopic corresponding display item 705 is deleted. Then, as shown in FIG. 7B, the contour 704 of the stereoscopic view display item is displayed in an overlapping manner on the display 702 of the image display data (step S916), and the process returns to step S904. Further, at this time, the non-contact input is invalidated, and the finger detection operation in the non-contact operation detection unit 217 is stopped. In addition, when the input of the operation instruction by the operation of the touch panel is invalidated in step S909, the control may be performed so as to re-enable it.

上記ステップS904の判別の結果、肯定判別したとき(ステップS904でYES)、輪郭704、又は立体視対応表示アイテム705の表示を消去して、2次元表示アイテム709,710を表示し(ステップS905)、図7(D)の表示に切り替る。   If the result of the determination in step S904 is affirmative (YES in step S904), the display of the outline 704 or the stereoscopic display corresponding item 705 is deleted and the two-dimensional display items 709 and 710 are displayed (step S905). The display is switched to the display of FIG.

次いで、操作者によるタッチパネル操作を認識し、操作があったか否かを判別する(ステップS910)。ステップS910の判別の結果、タッチパネル操作があったとき(ステップS910でYES)、タッチパネルの操作に従って、画像データ、あるいは2次元表示アイテムに対する操作を実行する。より具体的には、操作者が表示702に対してフリックすると、システム制御部221は画像送りの操作指示が操作者によって指示されたと判断する。そして表示702を現在表示している画像データに対して撮影時刻がひとつ前、又はひとつ後の画像データの表示に更新する。或いは、操作者が2次元表示アイテム709、又は2次元表示アイテム710をタッチダウンすると、システム制御部221は、それぞれ拡大表示、削除の操作を実行する。   Next, the touch panel operation by the operator is recognized, and it is determined whether or not there is an operation (step S910). As a result of the determination in step S910, when there is a touch panel operation (YES in step S910), an operation for image data or a two-dimensional display item is executed according to the operation of the touch panel. More specifically, when the operator flicks the display 702, the system control unit 221 determines that an operation instruction for image forwarding is instructed by the operator. Then, the display 702 is updated to display the image data whose shooting time is one before or one after the currently displayed image data. Alternatively, when the operator touches down the two-dimensional display item 709 or the two-dimensional display item 710, the system control unit 221 executes enlargement display and deletion operations, respectively.

一方、ステップS910の判別の結果、タッチパネル操作がないとき(ステップS910でNO)、指703と表示部102の距離がd1以上か否か判別し、d1未満のとき(ステップS912でNO)、ステップS910に戻る。d1以上のとき(ステップS912でYES)、ステップS902に戻る。   On the other hand, if the result of determination in step S910 is that there is no touch panel operation (NO in step S910), it is determined whether the distance between the finger 703 and the display unit 102 is greater than or equal to d1, and if it is less than d1 (NO in step S912), step Return to S910. When it is equal to or greater than d1 (YES in step S912), the process returns to step S902.

上述した処理において、ステップS903,909が、表示部102に指703が接触することなく操作可能な表示アイテムを3次元表示するように表示部102を制御する第1表示制御手段に対応する。また、ステップS905が、表示部102に指703が接触することで操作可能な表示アイテムを2次元表示するように表示部102を制御する第2表示制御手段に対応する。また、ステップS903,909では、表示アイテムの視差像を生成することにより、表示アイテムを3次元表示するように表示部102を制御することには、図5で説明した通りである。   In the processing described above, steps S903 and 909 correspond to first display control means for controlling the display unit 102 so as to three-dimensionally display display items that can be operated without the finger 703 touching the display unit 102. Step S905 corresponds to a second display control unit that controls the display unit 102 so as to two-dimensionally display a display item that can be operated when the finger 703 contacts the display unit 102. In steps S903 and 909, the display unit 102 is controlled to display the display item three-dimensionally by generating a parallax image of the display item, as described with reference to FIG.

以上説明したように、本実施の形態によれば、操作者は立体視対応表示アイテムについては、指をタッチパネル223に接触させることなく、指の動きを認識させることで操作可能である。また、2次元表示アイテムについては、表示部102と一体化したタッチパネルに接触して操作可能なので、直感的な操作方法を実現できる。   As described above, according to the present embodiment, the operator can operate the stereoscopic display display item by recognizing the movement of the finger without bringing the finger into contact with the touch panel 223. In addition, since the 2D display item can be operated by touching a touch panel integrated with the display unit 102, an intuitive operation method can be realized.

また、操作者の指の位置に応じて、立体視対応表示アイテムを使っての操作と、2次元表示アイテムを使っての操作を切り替えるため、操作者にとって分かりやすい操作方法を実現できる。   In addition, since the operation using the stereoscopic view display item and the operation using the two-dimensional display item are switched according to the position of the operator's finger, an operation method easy to understand for the operator can be realized.

さらに、操作子である操作者の指が表示部102からd1の距離以下に近づくと、立体視対応表示アイテムの輪郭を画像表示データの表示にオーバーラップして表示する。これにより操作者は、さらに指を近づけると立体視対応表示アイテムが操作可能になることを理解できるとともに、どの位置に立体視対応表示アイテムが配置されるかを認識できる。その結果、立体視対応表示アイテムを使って操作指示を入力する場合には、指をどの位置に移動すればよいかが把握できる。   Further, when the operator's finger as an operator approaches the distance d1 or less from the display unit 102, the outline of the stereoscopic display display item is displayed overlapping the display of the image display data. Accordingly, the operator can understand that the stereoscopic display display item can be operated when the finger is brought closer, and can recognize where the stereoscopic display display item is arranged. As a result, when an operation instruction is input using the stereoscopic view compatible display item, it is possible to grasp to which position the finger should be moved.

また、指が立体視対応表示アイテムに近接すると、立体視対応表示アイテムを画像表示データの表示の前面に表示することで、立体視対応表示アイテムに対する操作指示の入力が有効であることを、操作者が認識可能に表示することができる。   In addition, when the finger is close to the stereoscopic display display item, the stereoscopic display display item is displayed in front of the display of the image display data, so that the operation instruction input to the stereoscopic display item is valid. Can be displayed in a recognizable manner.

さらに、操作子である操作者の指がさらに近接して、表示部102からd2の距離以下に近づくと、立体視対応表示アイテムを消去するので、2次元表示アイテムに対する操作や、表示している画像データに対する操作がしやすくなる。   Further, when the operator's finger as an operator is further approached and approaches the distance d2 or less from the display unit 102, the stereoscopic display display item is deleted, so that the operation on the 2D display item is displayed. It becomes easy to operate on image data.

上述した図9の処理によれば、表示部102に指703が接触することなく操作可能な表示アイテムを3次元表示するように表示部102を制御する(ステップS903,909)。そして、表示部102に指703が接触することで操作可能な表示アイテムを2次元表示するように表示部102を制御する。次いで指703が表示部102に接触することなく操作した操作内容を認識する(ステップS910)。また指703が表示部102に接触することにより操作した操作内容を認識する。この結果、立体表示した操作用の表示アイテムに対する操作と、2次元表示した操作用の表示アイテムに対する操作との違いが明確になるので、操作性を向上させることができる。   According to the processing of FIG. 9 described above, the display unit 102 is controlled so as to display the display items that can be operated without the finger 703 touching the display unit 102 (steps S903 and 909). Then, the display unit 102 is controlled so that a display item that can be operated by touching the display unit 102 with the finger 703 is two-dimensionally displayed. Next, the operation content operated without the finger 703 touching the display unit 102 is recognized (step S910). Further, the operation content operated by the finger 703 touching the display unit 102 is recognized. As a result, the difference between the operation on the display item for operation displayed in three dimensions and the operation on the display item for operation displayed in two dimensions becomes clear, so that the operability can be improved.

さらに、図9の処理によれば、指703と表示部102との距離が予め定められたd1以下(第1閾値以下)と導出されたときに、表示アイテムを3次元表示するように表示部102を制御する。また、距離がd1よりも小さいd2以下(第2閾値以下)と導出されたときに、3次元表示している表示アイテムを消去するように表示部102を制御する。これにより、立体表示した操作用の表示アイテムに対する操作と、2次元表示した操作用の表示アイテムに対する操作の操作性を向上させることができる。   Furthermore, according to the processing of FIG. 9, when the distance between the finger 703 and the display unit 102 is derived to be d1 or less (first threshold value or less) determined in advance, the display unit is displayed in a three-dimensional manner. 102 is controlled. Further, when the distance is derived to be d2 or less (second threshold or less) smaller than d1, the display unit 102 is controlled so as to delete the display item displayed in three dimensions. Thereby, the operativity of operation with respect to the display item for operation displayed in three dimensions and operation with respect to the display item for operation displayed in two dimensions can be improved.

なお、本実施の形態の説明では、操作入力用撮像部Lと操作入力用撮像部Rの2つの撮像部で撮像された操作子画像データから操作子である操作者の指を検出する。そして表示部102から指までの距離と、表示部102の表示画面の領域に対する指の位置を検出することとしている。しかし、どちらか一方の操作入力用撮像部で撮像された操作子画像データから操作者の指を検出して、その指の大きさの情報を基に、表示部102から指までの距離を算出するようにしてもよい。この場合、操作入力用撮像部を1つにすることができる。   In the description of the present embodiment, the operator's finger, which is an operator, is detected from the operator image data captured by the two imaging units of the operation input imaging unit L and the operation input imaging unit R. The distance from the display unit 102 to the finger and the position of the finger with respect to the display screen area of the display unit 102 are detected. However, the operator's finger is detected from the operator image data captured by one of the operation input imaging units, and the distance from the display unit 102 to the finger is calculated based on the information on the size of the finger. You may make it do. In this case, a single operation input imaging unit can be provided.

また、本実施の形態の説明では、距離・位置検出部216が、操作入力用撮像部Lと操作入力用撮像部Rで撮像された操作子画像データから操作子である操作者の指を検出している。そして、表示部102から指までの距離と、表示部102の表示画面の領域に対する指の位置を検出することとしている。   In the description of the present embodiment, the distance / position detection unit 216 detects the operator's finger that is an operation unit from the operation unit image data captured by the operation input imaging unit L and the operation input imaging unit R. doing. Then, the distance from the display unit 102 to the finger and the position of the finger with respect to the display screen area of the display unit 102 are detected.

しかし、特開2009−258903号公報に記載されているような、タッチパネル装置を使用して、複数電極結合を行って信号検出を行うようにしてもよい。これにより、操作者の指が表示部102に近接していることを検出し、さらに近接状態において表示部102の表示画面の領域に対する指の位置を検出するようにすることも可能である。   However, a touch panel device as described in Japanese Patent Application Laid-Open No. 2009-258903 may be used to perform signal detection by performing multi-electrode coupling. Thus, it is possible to detect that the operator's finger is close to the display unit 102 and to detect the position of the finger with respect to the area of the display screen of the display unit 102 in the close state.

また指の位置を連続的に検出することによって指の動きを検出して、その軌跡を基にして、立体視対応表示アイテムに対する操作指示を認識することも可能である。この場合、操作入力用撮像部Lと操作入力用撮像部Rを不要とすることができる。   It is also possible to detect the movement of the finger by continuously detecting the position of the finger, and to recognize an operation instruction for the stereoscopic display corresponding item based on the locus. In this case, the operation input imaging unit L and the operation input imaging unit R can be omitted.

なお、図9のフローチャートでは、2次元表示アイテム709,710を、操作者の指703が表示部102からd2の距離以下に近づいたタイミングで表示している。しかし、ステップS901で画像表示データを表示部102に表示するタイミングで同時に表示してもよい。この場合、操作者が指を近づける動作をしなくても、操作者がタッチパネル操作で可能な操作を認識することができる。   In the flowchart of FIG. 9, the two-dimensional display items 709 and 710 are displayed at a timing when the operator's finger 703 approaches the distance d2 or less from the display unit 102. However, the image display data may be displayed at the same time as it is displayed on the display unit 102 in step S901. In this case, even if the operator does not move the finger, the operator can recognize an operation that can be performed by the touch panel operation.

また、図9のフローチャートでは、ステップS904で、システム制御部221は操作者の指703と表示部102の距離がd2以下に近接したか、又は操作者の指703がタッチパネル223に接触したか否かを判別する。そして肯定判別したとき、ステップS905に進み、システム制御部221は立体視対応表示アイテムの輪郭704、又は立体視対応表示アイテム705の表示を消去している。しかし、消去せずに、2次元表示アイテムや画像データに対する操作が優先的であることが識別可能な程度に、立体視対応表示アイテムを縮小して表示するなどしてもよい。この場合、タッチパネルに接触して操作が可能な状態であっても、非接触状態で操作可能な内容を操作者が認識することができる。   In the flowchart of FIG. 9, in step S904, the system control unit 221 determines whether the distance between the operator's finger 703 and the display unit 102 is close to d2 or less, or whether the operator's finger 703 has touched the touch panel 223. Is determined. When the determination is affirmative, the process proceeds to step S905, where the system control unit 221 erases the display of the outline 704 of the stereoscopic corresponding display item or the stereoscopic corresponding display item 705. However, the stereoscopic display display item may be displayed in a reduced size so that it can be identified that the operation on the two-dimensional display item or the image data is preferential without being deleted. In this case, the operator can recognize the contents that can be operated in a non-contact state even when the operation is possible by touching the touch panel.

[第2の実施の形態]
第2の実施の形態では、表示部102は裸眼立体視が不可能で、2次元表示のみ可能な液晶ディスプレイで構成する場合について述べる。また、以下の説明では、第1の実施の形態と異なる構成のみを説明する。
[Second Embodiment]
In the second embodiment, a case will be described in which the display unit 102 is configured by a liquid crystal display that cannot perform autostereoscopic viewing and can only perform two-dimensional display. In the following description, only the configuration different from the first embodiment will be described.

図10は、表示部102を2次元表示のみ可能な液晶ディスプレイで実現した場合の、図2における表示画像生成部214の構成の一例を示す図である。   FIG. 10 is a diagram illustrating an example of the configuration of the display image generation unit 214 in FIG. 2 when the display unit 102 is realized by a liquid crystal display capable of only two-dimensional display.

図10において、表示画像生成部214は、背景画像生成部1001、立体表示アイテム生成部1002、2次元表示アイテム生成部1003、表示画像合成部1004を含む。   In FIG. 10, the display image generation unit 214 includes a background image generation unit 1001, a stereoscopic display item generation unit 1002, a 2D display item generation unit 1003, and a display image synthesis unit 1004.

背景画像生成部1001は、メモリ制御部215を介してメモリ219から画像データを読み出して画像表示データを生成し、表示画像合成部1004に出力する。   The background image generation unit 1001 reads image data from the memory 219 via the memory control unit 215, generates image display data, and outputs the image display data to the display image synthesis unit 1004.

立体表示アイテム生成部1002は、メモリ制御部215を介してメモリ219から立体表示アイテム用のビットマップデータを読み出して立体表示アイテム用表示データを生成し、表示画像合成部1004に出力する。   The stereoscopic display item generation unit 1002 reads out stereoscopic display item bitmap data from the memory 219 via the memory control unit 215, generates stereoscopic display item display data, and outputs the generated display data to the display image synthesis unit 1004.

ここで立体表示アイテムとは、立体物であると操作者が認識するように、2次元表示の液晶ディスプレイ上に表現された表示イメージであり、例えば操作用のスイッチやボタン、ダイヤルやアイコンを立体表示アイテムで表現する。   Here, the stereoscopic display item is a display image expressed on a two-dimensional liquid crystal display so that the operator recognizes that it is a three-dimensional object. For example, a switch, button, dial, or icon for operation is displayed in three dimensions. Express with display items.

図11は、立体表示アイテムの表現方法を示す図であり、(A)〜(C)のいずれも直方体の表現方法を示す図である。   FIG. 11 is a diagram illustrating a method of expressing a stereoscopic display item, and any of (A) to (C) is a diagram illustrating a method of expressing a rectangular parallelepiped.

図11(A)は、直方体1101を表示したもので、直方体1101の稜線のうち、一方向から観測可能な線のみを表示することで、立体物として操作者が認識できる。   FIG. 11A shows a rectangular parallelepiped 1101. By displaying only lines observable from one direction among the ridge lines of the rectangular parallelepiped 1101, the operator can recognize the solid object.

図11(B)は、ある光源のもとで直方体1102を観察したことを想定して、直方体1102の面の向きと光の照射方向に合わせて面に陰影を加える方法で表現したものである。稜線のみの表現より写実性が増すため、図11(A)の場合と比べて、より立体物として操作者が認識できる。   FIG. 11B represents a method of adding a shadow to the surface in accordance with the direction of the surface of the cuboid 1102 and the light irradiation direction, assuming that the cuboid 1102 is observed under a certain light source. . Since the realism is higher than the expression of only the ridge line, the operator can recognize the object as a three-dimensional object more than in the case of FIG.

図11(C)は、図11(B)の立体物に陰影をつける方法に加えて、光源からの直射光が直方体1103により当たらない部分に生じる影1104をつける方法で表現したものである。写実性がさらに増すため、図11(B)の場合と比べて、より立体物として操作者が認識できる。   FIG. 11C shows a method of adding a shadow 1104 generated in a portion where the direct light from the light source does not hit the rectangular parallelepiped 1103 in addition to the method of applying a shadow to the three-dimensional object of FIG. Since the realism further increases, the operator can recognize the object as a three-dimensional object more than in the case of FIG.

本実施の形態のデジタルカメラ100では、操作者の指の動きを認識させてこの立体表示アイテムを操作することで、操作指示を入力することができる。   In the digital camera 100 of the present embodiment, an operation instruction can be input by recognizing the movement of the operator's finger and operating this stereoscopic display item.

図10の説明に戻り、2次元表示アイテム生成部1003は、メモリ制御部215を介してメモリ219から2次元表示アイテム用のビットマップデータを読み出して2次元表示アイテム用表示データを生成し、表示画像合成部1004に出力する。   Returning to the description of FIG. 10, the two-dimensional display item generation unit 1003 reads the bitmap data for the two-dimensional display item from the memory 219 via the memory control unit 215, generates the two-dimensional display item display data, and displays the display data. The image is output to the image composition unit 1004.

2次元表示アイテムとは、2次元表示の液晶ディスプレイで表示したときに、奥行き感や立体感が出ないように構成された表示イメージである。或いは、奥行き感や立体感が、立体表示アイテムと比べて明らかに少なくなるように構成された表示イメージでもよい。   The two-dimensional display item is a display image configured to prevent a sense of depth or a three-dimensional effect when displayed on a two-dimensional display liquid crystal display. Or the display image comprised so that a feeling of depth and a three-dimensional effect may become apparently few compared with a three-dimensional display item may be sufficient.

本実施の形態のデジタルカメラ100では、操作者が指703を表示部102に表示された2次元表示アイテムに対して、タッチパネル223上でフリック操作したり、タッチダウン操作したりすることで操作指示を入力することができる。   In the digital camera 100 of this embodiment, the operator performs an operation instruction by performing a flick operation or a touchdown operation on the touch panel 223 with respect to the two-dimensional display item displayed on the display unit 102 with the finger 703. Can be entered.

表示画像合成部1004は、画像表示データに、立体表示アイテム用表示データ、および2次元表示アイテム用表示データを重畳して、メモリ制御部215を介してメモリ219に書き出す。このとき、画像データと、2次元表示アイテムと、立体表示アイテムを表示するか否かを、それぞれ独立して制御できる。   The display image composition unit 1004 superimposes the display data for 3D display items and the display data for 2D display items on the image display data, and writes them to the memory 219 via the memory control unit 215. At this time, whether or not to display the image data, the two-dimensional display item, and the stereoscopic display item can be controlled independently.

図12は、第2の実施の形態において図2におけるシステム制御部221により実行される切り替え処理の手順を示すフローチャートである。   FIG. 12 is a flowchart illustrating a procedure of switching processing executed by the system control unit 221 in FIG. 2 in the second embodiment.

なお、図12のフローチャートは、図9で示したフローチャートで立体視対応表示アイテムを表示する代わりに、立体表示アイテムを表示する点以外は同様の処理であるため、その部分については説明を省略する。   Note that the flowchart of FIG. 12 is the same processing except that the stereoscopic display item is displayed instead of displaying the stereoscopic display item in the flowchart shown in FIG. .

図12において、ステップS1201、S1202は、図9のステップS901、S902と同様である。   In FIG. 12, steps S1201 and S1202 are the same as steps S901 and S902 of FIG.

図12において、操作者の指703と表示部102の距離がd1以下か否かを判別する(ステップS1202)。ステップS1202の判別の結果、指703が検知できないか、又は検知できても距離がd1以下と判別されたとき(ステップS1202でNO)、ステップS1203を繰り返す。   In FIG. 12, it is determined whether or not the distance between the operator's finger 703 and the display unit 102 is equal to or less than d1 (step S1202). As a result of the determination in step S1202, if the finger 703 cannot be detected or if the distance is determined to be d1 or less even if it can be detected (NO in step S1202), step S1203 is repeated.

一方、距離がd1以下のとき(ステップS1202でYES)、図13(A)に示すように、立体表示アイテムの輪郭1301を画像表示データの表示702にオーバーラップ表示する(ステップS1203)。   On the other hand, when the distance is equal to or less than d1 (YES in step S1202), as shown in FIG. 13A, the outline 1301 of the stereoscopic display item is displayed in an overlapping manner on the display 702 of the image display data (step S1203).

図12のステップS1204〜S1208は、図9のステップS904〜S908と同様である。   Steps S1204 to S1208 in FIG. 12 are the same as steps S904 to S908 in FIG.

ステップS1208の判別の結果、指703が輪郭1301に近接したとき(ステップS1208でYES)、図13(B)に示すように、立体表示アイテムの影1303を画像表示データの表示702に上書きして表示する(ステップS1209)。なお、ステップS1208では、距離・位置検出部216での表示部102の領域に対する指の位置の検出結果と輪郭の表示位置の関係から判別できる。   As a result of the determination in step S1208, when the finger 703 approaches the contour 1301 (YES in step S1208), the shadow 1303 of the stereoscopic display item is overwritten on the display 702 of the image display data as shown in FIG. It is displayed (step S1209). In step S1208, the distance / position detection unit 216 can determine the relationship between the detection result of the finger position with respect to the area of the display unit 102 and the display position of the contour.

図12のステップS1210〜S1216は、図9のステップS910〜S916と同様である。   Steps S1210 to S1216 in FIG. 12 are the same as steps S910 to S916 in FIG.

以上、表示部102が裸眼立体視が不可能で、2次元表示のみ可能な液晶ディスプレイで構成されていた場合でも、操作者は立体表示アイテムを表示部102に非接触で操作できる。さらに2次元表示アイテムは表示部102と一体化したタッチパネルに接触して操作するので、直感的な操作方法を実現できる。立体表示アイテムと、2次元表示アイテムの両方を使って操作可能な画像処理装置を実現できる。   As described above, even when the display unit 102 is configured with a liquid crystal display that cannot perform autostereoscopic viewing and can only perform two-dimensional display, the operator can operate the stereoscopic display item on the display unit 102 without contact. Further, since the two-dimensional display item is operated by touching a touch panel integrated with the display unit 102, an intuitive operation method can be realized. An image processing apparatus that can be operated using both a stereoscopic display item and a two-dimensional display item can be realized.

また、操作者の指の位置に応じて、立体表示アイテムを使っての操作と、2次元表示アイテムを使っての操作を切り替えるため、操作者にとって分かりやすい操作方法を実現できる。   In addition, since the operation using the stereoscopic display item and the operation using the two-dimensional display item are switched according to the position of the operator's finger, an operation method that is easy to understand for the operator can be realized.

以上説明したように、本実施の形態によれば、立体表示した操作用の表示アイテムは表示部に非接触で操作し、2次元表示した操作用の表示アイテムは表示部に接触して操作するので、直感的に操作が可能になり操作性が向上する。   As described above, according to the present embodiment, the display item for operation displayed in 3D is operated without contact with the display unit, and the display item for operation displayed in 2D is operated with contact with the display unit. Therefore, the operation can be performed intuitively and the operability is improved.

また、操作子の位置に応じて、立体表示された表示アイテムに対する操作と、2次元表示された表示アイテムに対する操作を切り替えるため、操作者にとって分かりやすい操作方法を実現できる。   In addition, an operation method easy to understand for the operator can be realized because the operation for the display item displayed in three dimensions and the operation for the display item displayed in two dimensions are switched according to the position of the operator.

さらに、操作子である操作者の指が画面に近づくと、立体表示された表示アイテムの表示を抑制しつつ、画像表示データの表示にオーバーラップして表示する。これによって操作者は、さらに指を近づけると立体表示された表示アイテムが操作可能になることを理解できる。また、どの位置に立体表示の表示アイテムが配置されるかを認識できるので、立体表示された表示アイテムを使って操作指示を入力する場合には、指をどの位置に移動すればよいかが把握できる。   Further, when the operator's finger as an operator approaches the screen, the display of the display item displayed in a three-dimensional manner is suppressed, and the display is overlapped with the display of the image display data. Thereby, the operator can understand that the display item displayed in three dimensions becomes operable when the finger is brought closer. In addition, since it is possible to recognize at which position the display item of stereoscopic display is arranged, when inputting an operation instruction using the display item displayed stereoscopically, it is possible to grasp to which position the finger should be moved. .

また、指が立体表示された表示アイテムに近接すると、立体表示された表示アイテムを画像表示データの前面に表示することで、立体表示した表示アイテムに対する操作指示の入力が有効であることを、操作者が認識可能に表示することができる。   In addition, when the finger is in close proximity to the display item displayed in 3D, the display item displayed in 3D is displayed in front of the image display data. Can be displayed in a recognizable manner.

さらに、操作子である操作者の指がさらに近接すると、立体表示した表示アイテムを消去するので、2次元表示アイテムに対する操作や、表示している画像データに対する操作がしやすくなる。   Further, when the operator's finger as an operator is further approached, the display item displayed in 3D is erased, so that the operation on the two-dimensional display item and the operation on the displayed image data are facilitated.

なお、上述した実施の形態の処理は、各機能を具現化したソフトウェアのプログラムコードを記録した記憶媒体をシステム或いは装置に提供してもよい。そして、そのシステム或いは装置のコンピュータ(又はCPUやMPU)が記憶媒体に格納されたプログラムコードを読み出し実行することによって、前述した実施形態の機能を実現することができる。この場合、記憶媒体から読み出されたプログラムコード自体が前述した実施形態の機能を実現することになり、そのプログラムコードを記憶した記憶媒体は本発明を構成することになる。このようなプログラムコードを供給するための記憶媒体としては、例えば、フレキシブルディスク、ハードディスク、光ディスク、光磁気ディスクなどを用いることができる。或いは、CD−ROM、CD−R、磁気テープ、不揮発性のメモリカード、ROMなどを用いることもできる。   Note that the processing of the above-described embodiment may provide a system or apparatus with a storage medium that records software program codes that embody each function. The functions of the above-described embodiments can be realized by the computer (or CPU or MPU) of the system or apparatus reading out and executing the program code stored in the storage medium. In this case, the program code itself read from the storage medium realizes the functions of the above-described embodiments, and the storage medium storing the program code constitutes the present invention. As a storage medium for supplying such a program code, for example, a flexible disk, a hard disk, an optical disk, a magneto-optical disk, or the like can be used. Alternatively, a CD-ROM, CD-R, magnetic tape, nonvolatile memory card, ROM, or the like can be used.

また、コンピュータが読み出したプログラムコードを実行することにより、前述した各実施の形態の機能が実現されるだけではない。そのプログラムコードの指示に基づき、コンピュータ上で稼動しているOS(オペレーティングシステム)などが実際の処理の一部又は全部を行い、その処理によって前述した各実施例の機能が実現される場合も含まれている。   The functions of the above-described embodiments are not only realized by executing the program code read by the computer. Including the case where the OS (operating system) running on the computer performs part or all of the actual processing based on the instruction of the program code, and the functions of the above-described embodiments are realized by the processing. It is.

さらに、記憶媒体から読み出されたプログラムコードが、コンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに書きこまれてもよい。その後、そのプログラムコードの指示に基づき、その機能拡張ボードや機能拡張ユニットに備わるCPUなどが実際の処理の一部又は全部を行い、その処理によって前述した各実施の形態の機能が実現される場合も含むものである。   Further, the program code read from the storage medium may be written in a memory provided in a function expansion board inserted into the computer or a function expansion unit connected to the computer. After that, the CPU of the function expansion board or function expansion unit performs part or all of the actual processing based on the instruction of the program code, and the functions of the above-described embodiments are realized by the processing. Is also included.

100 デジタルカメラ
102 表示部
213 画像処理部
214 表示画像生成部
215 メモリ制御部
216 距離・位置検出部
217 非接触操作検出部
221 システム制御部
222 タッチパネル制御部
223 タッチパネル
501,1001 背景画像生成部
502 右目用表示アイテム生成部
503 右目用表示アイテム生成部
504 2次元表示アイテム生成部
505 立体視画像生成部
703 指
704 輪郭
705 立体視対応表示アイテム
706,707 矢印
709,710 2次元表示アイテム
1002 立体表示アイテム生成部
1003 2次元表示アイテム生成部
1004 表示画像合成部
L,R 操作入力用撮像部
100 Digital camera 102 Display unit 213 Image processing unit 214 Display image generation unit 215 Memory control unit 216 Distance / position detection unit 217 Non-contact operation detection unit 221 System control unit 222 Touch panel control unit 223 Touch panel 501, 1001 Background image generation unit 502 Right eye Display item generation unit 503 Right-eye display item generation unit 504 Two-dimensional display item generation unit 505 Stereoscopic image generation unit 703 Finger 704 Outline 705 Stereoscopic display item 706, 707 Arrows 709, 710 Two-dimensional display item 1002 Stereoscopic display item Generation unit 1003 Two-dimensional display item generation unit 1004 Display image composition unit L, R Operation input imaging unit

Claims (5)

画像処理装置であって、
画像をタッチパネルの表示部に平面表示し、前記画像に対する操作を入力するための3次元表示アイテムを前記画像に重ねて前記タッチパネルの前記表示部に立体表示するように制御する表示制御手段と、
前記画像を操作するための操作子と前記タッチパネルとの距離を算出する算出手段と、
前記算出手段により算出された距離が第2の閾値より大きい場合、前記画像に対する前記操作子の指示の入力を無効にするよう制御し、前記算出手段により算出された距離が前記第2の閾値より小さい場合、前記画像に対する前記操作子の指示の入力を有効にするよう制御する入力制御手段を備え、
前記表示制御手段は、前記算出手段により算出された距離に関わらず、前記画像を前記タッチパネルの前記表示部に表示し、前記算出手段により算出された距離が第1の閾値より小さい場合、前記3次元表示アイテムを表示するように制御し、前記算出手段により算出された距離が前記第2の閾値より小さい場合、前記3次元表示アイテムを表示しないように制御し、
前記入力制御手段は、前記算出手段により算出された距離が前記第1の閾値より小さい場合、前記3次元表示アイテムに対する前記操作子の指示の入力を有効にするよう制御し、
前記第1の閾値は前記第2の閾値よりも大きいことを特徴とする画像処理装置。
An image processing apparatus,
Display control means for controlling an image to be displayed in a plane on the display unit of the touch panel, and to display a three-dimensional display item for inputting an operation on the image in a three-dimensional manner on the display unit of the touch panel .
A calculating means for calculating a distance between an operator for operating the image and the touch panel;
When the distance calculated by the calculating means is larger than a second threshold value, control is performed so as to invalidate the input of the operator's instruction to the image , and the distance calculated by the calculating means is greater than the second threshold value. If small, comprising input control means for controlling to enable the input of instructions of the operator for the image ,
The display control means displays the image on the display unit of the touch panel regardless of the distance calculated by the calculation means, and when the distance calculated by the calculation means is smaller than a first threshold, the 3 Control to display a three-dimensional display item, and control to not display the three-dimensional display item when the distance calculated by the calculation means is smaller than the second threshold,
The input control means, when the distance calculated by the calculation means is smaller than the first threshold, to control to enable the input of the instruction of the operator for the three-dimensional display item,
The image processing apparatus according to claim 1, wherein the first threshold value is larger than the second threshold value.
前記3次元表示アイテムまたは前記画像はそれぞれ異なる処理が対応付けられ、前記3次元表示アイテムまたは前記画像に対する操作があったと判別されれば、前記操作された3次元表示アイテムまたは前記画像に対応付けられた処理を実行する処理手段を備えることを特徴とする請求項1記載の画像処理装置。 The three-dimensional display items or the image processing different from each associated, if it is determined that an operation for the three-dimensional display item or the image, corresponding to the three-dimensional display items or the image the engineered The image processing apparatus according to claim 1, further comprising processing means for executing the processing. 前記表示制御手段は、前記3次元表示アイテムの視差像を生成することにより、前記3次元表示アイテムを前記タッチパネルの表示部に立体表示するように制御することを特徴とする請求項1または2記載の画像処理装置。 Wherein the display control unit by generating a disparity image of the three-dimensional display items, according to claim 1, wherein the controller controls the three-dimensional display items to stereoscopic display on a display unit of the touch panel Image processing apparatus. 画像処理装置の制御方法であって、
画像をタッチパネルの表示部に平面表示し、前記画像に対する操作を入力するための3次元表示アイテムを前記画像に重ねて前記タッチパネルの表示部に立体表示するように制御する表示制御ステップと、
前記画像を操作するための操作子と前記タッチパネルとの距離を算出する算出ステップと、
前記算出ステップにより算出された距離が第2の閾値より大きい場合、前記画像に対する前記操作子の指示の入力を無効にするよう制御し、前記算出ステップにより算出された距離が前記第2の閾値より小さい場合、前記画像に対する前記操作子の指示の入力を有効にするよう制御する入力制御ステップを備え、
前記表示制御ステップでは、前記算出ステップにより算出された距離に関わらず、前記画像を前記タッチパネルの前記表示部に表示し、前記算出ステップで算出された距離が第1の閾値より小さい場合、前記3次元表示アイテムを表示するように制御し、前記算出ステップで算出された距離が前記第2の閾値より小さい場合、前記3次元表示アイテムを表示しないように制御し、
前記入力制御ステップでは、前記算出ステップにより算出された距離が前記第1の閾値より小さい場合、前記3次元表示アイテムに対する前記操作子の指示の入力を有効にするよう制御し、
前記第1の閾値は前記第2の閾値よりも大きいことを特徴とする画像処理装置の制御方法。
A control method for an image processing apparatus, comprising:
Image plan view of the display unit of the touch panel, and a display control step of controlling to so that showing the stereoscopic Table 3D shows the item for inputting an operation on the image on the display unit of the touch panel superimposed on the image,
A calculation step of calculating a distance between an operator for operating the image and the touch panel;
When the distance calculated by the calculation step is larger than a second threshold value, control is performed so as to invalidate the input of the operator's instruction to the image , and the distance calculated by the calculation step is greater than the second threshold value. If it is smaller, the input control step for controlling to enable the input of instructions of the operator for the image ,
In the display control step, regardless of the distance calculated in the calculation step, the image is displayed on the display unit of the touch panel, and when the distance calculated in the calculation step is smaller than a first threshold, the 3 Control to display a three-dimensional display item, and control to not display the three-dimensional display item when the distance calculated in the calculation step is smaller than the second threshold,
In the input control step, when the distance calculated in the calculation step is smaller than the first threshold, control is performed so as to enable the input of the instruction of the operator for the three-dimensional display item,
The method of controlling an image processing apparatus, wherein the first threshold is larger than the second threshold.
コンピュータを請求項1乃至3のいずれか1項に記載の画像処理装置の各手段として機能させるプログラム。The program which makes a computer function as each means of the image processing apparatus of any one of Claims 1 thru | or 3.
JP2015139553A 2015-07-13 2015-07-13 Image processing apparatus, control method therefor, and program Expired - Fee Related JP5976174B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015139553A JP5976174B2 (en) 2015-07-13 2015-07-13 Image processing apparatus, control method therefor, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015139553A JP5976174B2 (en) 2015-07-13 2015-07-13 Image processing apparatus, control method therefor, and program

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2011058048A Division JP2012194760A (en) 2011-03-16 2011-03-16 Image processing apparatus and method of controlling the same, and program

Publications (2)

Publication Number Publication Date
JP2015181065A JP2015181065A (en) 2015-10-15
JP5976174B2 true JP5976174B2 (en) 2016-08-23

Family

ID=54329254

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015139553A Expired - Fee Related JP5976174B2 (en) 2015-07-13 2015-07-13 Image processing apparatus, control method therefor, and program

Country Status (1)

Country Link
JP (1) JP5976174B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10316922B2 (en) 2015-09-14 2019-06-11 Hitachi Automotive Systems, Ltd. Shock absorber
JP7540190B2 (en) * 2020-05-08 2024-08-27 ブラザー工業株式会社 Editing Program
JP7561597B2 (en) 2020-12-14 2024-10-04 Eneos株式会社 Operation mechanism

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4649932B2 (en) * 2004-09-30 2011-03-16 マツダ株式会社 Vehicle information display device
JP5563250B2 (en) * 2009-06-30 2014-07-30 株式会社ジャパンディスプレイ Stereoscopic image display device
US9323398B2 (en) * 2009-07-10 2016-04-26 Apple Inc. Touch and hover sensing

Also Published As

Publication number Publication date
JP2015181065A (en) 2015-10-15

Similar Documents

Publication Publication Date Title
US8947352B2 (en) Image processing apparatus capable of displaying operation item, method of controlling the same, image pickup apparatus, and storage medium
US10591729B2 (en) Wearable device
JP5300825B2 (en) Instruction receiving device, instruction receiving method, computer program, and recording medium
US9456203B2 (en) Information processing apparatus, stereoscopic display method, and program
US9182827B2 (en) Information processing apparatus, image display apparatus, and information processing method
JP5638896B2 (en) Display control program, display control device, display control system, and display control method
US20110083106A1 (en) Image input system
JP5868044B2 (en) Information processing apparatus, control method therefor, program, and computer-readable program storage medium
US9432652B2 (en) Information processing apparatus, stereoscopic display method, and program
US10222950B2 (en) Image processing apparatus and method
US10185462B2 (en) Image processing apparatus and method
US8988500B2 (en) Information processing apparatus, stereoscopic display method, and program
JP2013016018A (en) Display control apparatus, control method, and program
JP5976174B2 (en) Image processing apparatus, control method therefor, and program
CN111161396A (en) Virtual content control method and device, terminal equipment and storage medium
JP2012247838A (en) Display device, display control method, and program
JP2021033539A (en) Electronic apparatus, control method thereof, program, and storage medium
JP6456551B1 (en) OPTICAL DEVICE CONTROL DEVICE, OPTICAL DEVICE CONTROL METHOD, AND OPTICAL DEVICE CONTROL PROGRAM
JP2012194760A (en) Image processing apparatus and method of controlling the same, and program
CN104378621A (en) Processing method and device for three-dimensional scene
JP2011180690A (en) Display control apparatus, display control method, and display control program
US20120256913A1 (en) Display control apparatus and display control method
US11308670B2 (en) Image processing apparatus and method
JP6525753B2 (en) Display control device, control method thereof, and program
JP6976707B2 (en) Electronic devices and their control methods

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150713

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160412

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160530

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160621

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160719

R151 Written notification of patent or utility model registration

Ref document number: 5976174

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees