JP6362110B2 - Display control device, control method therefor, program, and recording medium - Google Patents

Display control device, control method therefor, program, and recording medium Download PDF

Info

Publication number
JP6362110B2
JP6362110B2 JP2014211990A JP2014211990A JP6362110B2 JP 6362110 B2 JP6362110 B2 JP 6362110B2 JP 2014211990 A JP2014211990 A JP 2014211990A JP 2014211990 A JP2014211990 A JP 2014211990A JP 6362110 B2 JP6362110 B2 JP 6362110B2
Authority
JP
Japan
Prior art keywords
image
display control
display
mode
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014211990A
Other languages
Japanese (ja)
Other versions
JP2016081302A5 (en
JP2016081302A (en
Inventor
鳥居 信之介
信之介 鳥居
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2014211990A priority Critical patent/JP6362110B2/en
Publication of JP2016081302A publication Critical patent/JP2016081302A/en
Publication of JP2016081302A5 publication Critical patent/JP2016081302A5/ja
Application granted granted Critical
Publication of JP6362110B2 publication Critical patent/JP6362110B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、表示制御装置、その制御方法、プログラム、及び記録媒体に関する。   The present invention relates to a display control apparatus, a control method therefor, a program, and a recording medium.

近年、直感的な操作を可能にするタッチパネルを搭載した情報端末が普及しており、タッチパネルを活用した機能も増加している。例えば、フリーハンド入力によって、所望の絵をLCDパネル上に描くことができる手描き入力も、タッチパネルを活用した機能の1つである。   In recent years, information terminals equipped with touch panels that enable intuitive operations have become widespread, and functions using touch panels have also increased. For example, hand-drawn input that allows a desired picture to be drawn on the LCD panel by freehand input is one of the functions that utilize the touch panel.

近年のデジタルビデオカメラやデジタルカメラ、携帯電話等に搭載されるタッチパネルには、大別して、抵抗膜方式と静電容量方式の2つの方式が存在する。一般的に、これら2つの方式のタッチパネルにおいては、図1に示すように位置検出が可能な領域(位置検出領域)の外周に沿って額縁領域が必要となる。   In recent years, a touch panel mounted on a digital video camera, a digital camera, a mobile phone, or the like is roughly classified into two types, a resistive film type and a capacitance type. Generally, in these two types of touch panels, a frame area is required along the outer periphery of an area (position detection area) where position detection is possible as shown in FIG.

タッチパネルの位置検出領域に指やスタイラスなどのオブジェクトがタッチすると、タッチされた位置が検出される。しかしながら、位置検出領域内であっても、周辺領域(図1参照)においては、中央領域よりも位置検出精度が低下する。周辺領域における位置検出精度の低下は、抵抗膜方式及び静電容量方式のいずれの方式においても生じるものである。従って、特に手描き入力を行う場合に、ユーザがタッチパネルの周辺領域に所望の絵を正確に描くことは容易ではない。   When an object such as a finger or a stylus touches the position detection area of the touch panel, the touched position is detected. However, even within the position detection area, the position detection accuracy is lower in the peripheral area (see FIG. 1) than in the central area. A decrease in position detection accuracy in the peripheral region occurs in both the resistive film type and the electrostatic capacity type. Therefore, it is not easy for the user to accurately draw a desired picture in the peripheral area of the touch panel, particularly when handwritten input is performed.

タッチパネルの周辺領域における位置検出精度の低下に対処する技術として、特許文献1が知られている。特許文献1は、背景技術として、アイテムやボタン類を周辺部分に配置しないようにアプリケーションを設計することを開示している。また、特許文献1は、タッチが検出された位置(座標)がタッチパネルの周辺部分であった場合に、検出された座標をタッチパネルの外側に向かってずらすように補正する情報入力装置を開示している。このような補正により、周辺部分にアイテムやボタン類が配置されている場合であっても、ユーザが意識してタッチパネルの周辺部分をタッチしないように仕向けることができる。   Patent Document 1 is known as a technique for coping with a decrease in position detection accuracy in a peripheral area of a touch panel. Patent Document 1 discloses designing an application so that items and buttons are not arranged in a peripheral portion as background art. Patent Document 1 discloses an information input device that corrects the detected coordinates so as to be shifted toward the outside of the touch panel when the position (coordinates) where the touch is detected is a peripheral portion of the touch panel. Yes. By such correction, even when items and buttons are arranged in the peripheral portion, the user can be conscious of not touching the peripheral portion of the touch panel.

特開平9−237160号公報Japanese Patent Laid-Open No. 9-237160

特許文献1が背景技術として開示するようにアイテムやボタン類を周辺部分に配置しないということは、ディスプレイの表示領域を位置検出領域よりも狭くするということと実質的に同じことである。表示領域が狭くなると、視認性が低下したり、表示可能な情報量が少なくなったりするなどの問題が生じる。他方、特許文献1の情報入力装置のように検出された座標をタッチパネルの外側に向かってずらすように補正する場合、そのような問題は生じないが、ユーザが手描き入力により絵を描くような場合に、周辺領域における直感的な描画が困難になる。   Not disposing items and buttons in the peripheral portion as disclosed in Patent Document 1 is substantially the same as making the display area of the display narrower than the position detection area. When the display area is narrowed, problems such as reduced visibility and a reduced amount of information that can be displayed arise. On the other hand, when the detected coordinates are corrected so as to be shifted toward the outside of the touch panel as in the information input device of Patent Document 1, such a problem does not occur, but the user draws a picture by hand-drawn input. In addition, intuitive drawing in the peripheral area becomes difficult.

また、周辺領域において正確で直感的な描画が困難になるという問題は、タッチパネルに限らず、他の種類のポインティングデバイスにより手描き入力を行う場合にも生じ得る。例えば、マウスや空間ジェスチャ検出装置などのポインティングデバイスにより手描き入力を行う場合にも、周辺領域においては中央付近よりも操作性が悪く、描画が困難である。   In addition, the problem that accurate and intuitive drawing becomes difficult in the peripheral area is not limited to the touch panel, and may occur when hand-drawn input is performed using other types of pointing devices. For example, even when hand-drawn input is performed with a pointing device such as a mouse or a space gesture detection device, the operability is worse in the peripheral area than in the vicinity of the center, and drawing is difficult.

本発明はこのような状況に鑑みてなされたものであり、ユーザが表示装置の表示領域に容易に描画できるようにする技術を提供することを目的とする。   The present invention has been made in view of such a situation, and an object thereof is to provide a technique that allows a user to easily draw in a display area of a display device.

上記課題を解決するために、本発明は、表示制御装置であって、表示装置の中央領域及び周辺領域を含む表示領域に第1の画像を表示する表示制御手段と、前記表示制御装置の動作モードを描画モードと他のモードとの間で切り替える切替手段と、前記表示領域上の位置を入力する位置入力指示を検出する検出手段と、を備え、前記動作モードが前記他のモードから前記描画モードに切り替えられると、前記表示制御手段は、前記第1の画像の代わりに前記第1の画像の縮小画像を前記中央領域に収まるように表示し、前記動作モードが前記描画モードである間に前記位置入力指示が検出されると、前記表示制御手段は、当該位置入力指示に対応する位置に第2の画像を表示することを特徴とする表示制御装置を提供する。 In order to solve the above-described problems, the present invention is a display control device, which is a display control means for displaying a first image in a display region including a central region and a peripheral region of the display device, and an operation of the display control device. Switching means for switching a mode between a drawing mode and another mode, and a detecting means for detecting a position input instruction for inputting a position on the display area, wherein the operation mode is changed from the other mode to the drawing mode. during the Ru is switched to the mode, the display control means, wherein a reduced image of the first image is displayed to fit in the central region in place of the first image, the operation mode is the drawing mode wherein the position input instruction is discovered in, the display control means provides a display control apparatus and displaying the second image at a position corresponding to the position input instruction.

なお、その他の本発明の特徴は、添付図面及び以下の発明を実施するための形態における記載によって更に明らかになるものである。   Other features of the present invention will become more apparent from the accompanying drawings and the following description of the preferred embodiments.

本発明によれば、ユーザが表示装置の表示領域に容易に描画することが可能となる。   According to the present invention, the user can easily draw in the display area of the display device.

タッチパネルの位置検出領域及び額縁領域を示す概念図。The conceptual diagram which shows the position detection area and frame area of a touch panel. 撮像装置100の機能ブロック図。FIG. 2 is a functional block diagram of the imaging apparatus 100. 撮像装置100の上面側から見た外観を示す斜視図。FIG. 3 is a perspective view illustrating an appearance of the imaging apparatus 100 as viewed from the upper surface side. 撮像装置100の動作を示すフローチャート。6 is a flowchart showing the operation of the imaging apparatus 100. お絵描きモード処理(図4のS410)の詳細を示すフローチャート。5 is a flowchart showing details of a drawing mode process (S410 in FIG. 4). 画像データ及びOSDデータの配置例を示す図。The figure which shows the example of arrangement | positioning of image data and OSD data. お絵描き画像が重畳された画像データを示す図。The figure which shows the image data on which the drawing image was superimposed. 画像データの縮小時に生じる中央領域の空き領域を示す図。The figure which shows the empty area | region of the center area | region which arises at the time of reduction of image data. 図6(b)の変形例を示す図。The figure which shows the modification of FIG.6 (b).

以下、添付図面を参照して、本発明の実施形態を説明する。なお、本発明の技術的範囲は、特許請求の範囲によって確定されるのであって、以下の個別の実施形態によって限定されるわけではない。また、実施形態の中で説明されている特徴の組み合わせすべてが、本発明に必須とは限らない。   Embodiments of the present invention will be described below with reference to the accompanying drawings. The technical scope of the present invention is determined by the claims, and is not limited by the following individual embodiments. In addition, not all combinations of features described in the embodiments are essential to the present invention.

[第1の実施形態]
本発明の表示制御装置をデジタルビデオカメラのような撮像装置に適用した実施形態について説明する。図2は、撮像装置100の機能ブロック図であり、図3は、撮像装置100の上面側から見た外観を示す斜視図である。特に、図3(a)はレンズの光軸先端側から見た斜視図、図3(b)は背面側から見た斜視図、図3(c)は後述する表示部113を本体部114に対して反転収納した状態を示す斜視図である。
[First Embodiment]
An embodiment in which the display control apparatus of the present invention is applied to an imaging apparatus such as a digital video camera will be described. FIG. 2 is a functional block diagram of the imaging apparatus 100, and FIG. 3 is a perspective view showing an appearance of the imaging apparatus 100 as viewed from the upper surface side. 3A is a perspective view as seen from the front side of the optical axis of the lens, FIG. 3B is a perspective view as seen from the back side, and FIG. It is a perspective view which shows the state reversely accommodated with respect to it.

図2において、CPU109は、プログラム・データ記憶部110からプログラムを読み込み、これに従って撮像装置100全体の動作を制御する演算処理装置である。読み込まれたプログラムは、CPU109に複数のタスクを並列に実行させるための機能を備えており、CPU109の制御によってモード制御タスク、カメラ制御タスク、レコーダ制御タスク、及び、表示制御タスクが動作する。表示制御タスクを実行するCPU109が、表示制御手段としての機能を果たす。また、一次記憶部103の一部は、CPU109のワークエリアとして機能し、後述の動画用フレームバッファ及びOSD(On Screen Display)用フレームバッファを提供する。   In FIG. 2, a CPU 109 is an arithmetic processing unit that reads a program from a program / data storage unit 110 and controls the operation of the entire imaging apparatus 100 according to the program. The read program has a function for causing the CPU 109 to execute a plurality of tasks in parallel, and a mode control task, a camera control task, a recorder control task, and a display control task operate under the control of the CPU 109. The CPU 109 that executes the display control task serves as a display control unit. A part of the primary storage unit 103 functions as a work area of the CPU 109, and provides a moving image frame buffer and an OSD (On Screen Display) frame buffer, which will be described later.

カメラ部101は、被写体像を光電変換することによりアナログ映像信号を生成する。よって、カメラ部101は、被写体光を結像させるための撮影レンズ、撮影レンズによって結像された被写体像を光電変換する撮像素子、及び、撮像素子を駆動する回路などを備える。映像処理部102は、カメラ部101から出力されるアナログ映像信号をデジタル信号に変換し、所定の信号処理を施して動画データを生成する。カメラ部101及び映像処理部102の動作は、CPU109が実行する上記カメラ制御タスクによって制御される。   The camera unit 101 generates an analog video signal by photoelectrically converting a subject image. Therefore, the camera unit 101 includes a photographic lens for forming an image of subject light, an image sensor that photoelectrically converts a subject image formed by the photographic lens, a circuit that drives the image sensor, and the like. The video processing unit 102 converts the analog video signal output from the camera unit 101 into a digital signal, and performs predetermined signal processing to generate moving image data. The operations of the camera unit 101 and the video processing unit 102 are controlled by the camera control task executed by the CPU 109.

エンコーダ・デコーダ部104は、映像処理部102からの動画データを符号化する。エンコーダ・デコーダ部104によって符号化された動画データは、一次記憶部103に一旦記憶された後、付随する管理データと共に動画記憶部105に記憶される。動画記憶部105は、ハードディスクやフラッシュメモリなどの内蔵メモリや、メモリーカードなどの着脱可能な記録媒体からなる。   The encoder / decoder unit 104 encodes the moving image data from the video processing unit 102. The moving image data encoded by the encoder / decoder unit 104 is temporarily stored in the primary storage unit 103 and then stored in the moving image storage unit 105 together with accompanying management data. The moving image storage unit 105 includes a built-in memory such as a hard disk and a flash memory, and a removable recording medium such as a memory card.

動画再生時は、動画記憶部105から読み出された符号化された動画データ(以下、画像データと呼ぶ)が一次記憶部103を介してエンコーダ・デコーダ部104で復号化され、再び一次記憶部103内の動画用フレームバッファに展開される。エンコーダ・デコーダ部104及び動画記憶部105の制御は、CPU109が実行する上記レコーダ制御タスクによって制御される。   At the time of moving image reproduction, encoded moving image data (hereinafter referred to as image data) read out from the moving image storage unit 105 is decoded by the encoder / decoder unit 104 via the primary storage unit 103, and again the primary storage unit. 103 is expanded in the moving image frame buffer 103. Control of the encoder / decoder unit 104 and the moving image storage unit 105 is controlled by the recorder control task executed by the CPU 109.

動画記憶部105から読み出された管理データは、OSDデータ、即ち、撮影画像もしくは再生画像に重畳して表示される文字やGUI(Graphical User Interface)の生成に利用される。そして、生成されたOSDデータは、一次記憶部103内のOSD用フレームバッファに描画される。   The management data read out from the moving image storage unit 105 is used to generate OSD data, that is, characters or GUI (Graphical User Interface) that are displayed superimposed on a captured image or a reproduced image. The generated OSD data is drawn in the OSD frame buffer in the primary storage unit 103.

動画用フレームバッファ及びOSD用フレームバッファの各内容は、表示制御部111で撮影画像や再生画像に重畳されて、タッチパネル式のLCDパネル112に表示される。また、OSDデータに関する制御及び表示制御部111とLCDパネル112の制御は、CPU109が実行する上記表示制御制御タスクによって制御される。   The contents of the moving image frame buffer and the OSD frame buffer are superimposed on the captured image and the reproduced image by the display control unit 111 and displayed on the touch panel LCD panel 112. Control relating to OSD data and control of the display control unit 111 and the LCD panel 112 are controlled by the display control control task executed by the CPU 109.

パネル状態検出部106は、タッチパネル108及びLCDパネル112を前面に持つバリアングルLCD部(図3に示す表示部113)の状態を検出する。図3(b)に示すように、パネル状態検出部106は、表示部113が本体部114に対して矢印A方向へ開閉する動作と、表示部113が本体部114に対して矢印B方向へ回転する動作とを検出し、検出結果をCPU109に通知する。本体部114に設けられた操作キー107や、表示部113に含まれるタッチパネル108は、いずれもユーザによる操作指示を受け付けるための操作部である。   The panel state detection unit 106 detects the state of a vari-angle LCD unit (the display unit 113 shown in FIG. 3) having the touch panel 108 and the LCD panel 112 on the front. As shown in FIG. 3B, the panel state detection unit 106 operates such that the display unit 113 opens and closes in the arrow A direction with respect to the main body 114, and the display unit 113 moves in the arrow B direction with respect to the main body 114. The rotating operation is detected, and the detection result is notified to the CPU 109. The operation keys 107 provided on the main body 114 and the touch panel 108 included in the display unit 113 are both operation units for receiving operation instructions from the user.

図3(b)及び図3(c)に示すように、撮像装置100は、カメラ部101を有する本体部114と、ヒンジ部120によって本体部114に回動可能に取り付けられた(接続された)表示部113とを有する。図3(c)に示すように、ヒンジ部120によって、表示部113は本体部114に対して反転して収納することも可能である。   As shown in FIGS. 3B and 3C, the imaging apparatus 100 is rotatably attached to (connected to) the main body 114 by the main body 114 having the camera 101 and the hinge 120. ) Display portion 113. As shown in FIG. 3C, the display unit 113 can be inverted and stored with respect to the main body unit 114 by the hinge unit 120.

LCDパネル112とタッチパネル108とは一体的に構成され、表示部113に内蔵される。タッチパネル108は、例えば、光の透過率がLCDパネル112の表示を妨げないように構成され、LCDパネル112の表示面の上層に取り付けられる。そして、タッチパネル108における入力座標と、LCDパネル112上の表示座標とが対応付けられる。これにより、あたかもユーザがLCDパネル112上に表示された画面を直接的に操作できるかのようなGUIが構成される。   The LCD panel 112 and the touch panel 108 are integrally formed and are built in the display unit 113. For example, the touch panel 108 is configured such that the light transmittance does not hinder the display of the LCD panel 112, and is attached to the upper layer of the display surface of the LCD panel 112. Then, input coordinates on the touch panel 108 and display coordinates on the LCD panel 112 are associated with each other. Thus, a GUI is configured as if the user can directly operate the screen displayed on the LCD panel 112.

また、CPU109は、タッチパネル108に対する以下の操作を検出できる。
・タッチパネル108を指やペンで触れたこと(以下、タッチダウン)
・タッチパネル108を指やペンで触れている状態であること(以下、タッチオン)
・タッチパネル108を指やペンで触れたまま移動していること(以下、ムーブ)
・タッチパネル108へ触れていた指やペンを離したこと(以下、タッチオフ)
これらの操作や、タッチパネル108上に指やペンが触れている位置座標は、CPU109に通知される。CPU109は、通知された情報に基づいて、タッチパネル108上にどのような操作が行われたかを判定する。
Further, the CPU 109 can detect the following operations on the touch panel 108.
-Touching the touch panel 108 with a finger or pen (hereinafter, touchdown)
-Touching the touch panel 108 with a finger or pen (hereinafter, touch-on)
-The touch panel 108 is moved while being touched with a finger or a pen (hereinafter referred to as a move).
-The finger or pen that was touching the touch panel 108 was released (hereinafter, touch-off).
The CPU 109 is notified of these operations and the position coordinates where the finger or pen touches the touch panel 108. The CPU 109 determines what operation has been performed on the touch panel 108 based on the notified information.

ムーブについては、タッチパネル108上で移動する指やペンの移動方向についても、位置座標の変化に基づいて、タッチパネル108上の垂直成分・水平成分毎に判定される。また、タッチパネル108上をタッチダウンから一定のムーブを経てタッチアップをしたとき、ストロークを描いたこととして判定される。すばやくストロークを描く操作をフリックと呼ぶ。フリックは、タッチパネル108上に指を触れたままある程度の距離だけすばやく動かして、そのまま離すといった操作であり、言い換えればタッチパネル108上を指ではじくように素早くなぞる操作である。所定距離以上を、所定速度以上でムーブしたことが検出され、そのままタッチアップが検出されるとフリックが行われたと判定される。また、所定距離以上を、所定速度未満でムーブしたことが検出された場合は、ドラッグが行われたと判定される。   Regarding the move, the moving direction of the finger or pen moving on the touch panel 108 is also determined for each vertical component / horizontal component on the touch panel 108 based on the change in position coordinates. When touch-up is performed on the touch panel 108 through a certain move from touch-down, it is determined that a stroke has been drawn. The operation of drawing a stroke quickly is called a flick. The flick is an operation of quickly moving a certain distance while touching the finger on the touch panel 108 and releasing it, in other words, an operation of quickly tracing the touch panel 108 with a finger. When it is detected that a movement has been performed at a predetermined speed or more over a predetermined distance and a touch-up is detected as it is, it is determined that a flick has been performed. Further, when it is detected that the movement has been performed at a predetermined distance or more at a speed lower than the predetermined speed, it is determined that the drag has been performed.

CPU109によって実行される上記モード制御タスクは、次のように動作する。即ち、操作部(操作キー107やタッチパネル108)からの指示、他タスクからの要求、又はモード制御タスク自身が管理する内部状態の変化に従って、撮像装置100の動作モードを切り替え、各タスクイベントを通知する。   The mode control task executed by the CPU 109 operates as follows. That is, the operation mode of the imaging apparatus 100 is switched according to an instruction from the operation unit (operation key 107 or touch panel 108), a request from another task, or a change in an internal state managed by the mode control task itself, and notification of each task event To do.

本実施形態の撮像装置100は、動作モードの1つとして「お絵描きモード(描画モード)」を備える。「お絵描きモード」は、ユーザが撮影画像や再生画像に重畳して任意の絵を描くことができる動作モードである。「お絵描きモード」では、タッチオンした位置に対して任意の太さ・色のペンや任意の形をしたスタンプによる描画を行うための、手描き入力が可能である。また、「お絵描きモード」では、タッチオンした位置に対して星や音符などの形をしたパーティクルのアニメーションを重畳するための、手描き入力(タッチアニメーション入力)が可能である。   The imaging apparatus 100 according to the present embodiment includes a “drawing mode (drawing mode)” as one of operation modes. The “drawing mode” is an operation mode in which the user can draw an arbitrary picture by superimposing it on a photographed image or a reproduced image. In the “drawing mode”, hand-drawn input is possible for drawing with a pen of an arbitrary thickness and color or a stamp having an arbitrary shape at the touch-on position. In the “drawing mode”, hand-drawn input (touch animation input) for superimposing a particle animation such as a star or a note on the touch-on position is possible.

次に、図4及び図5を参照して、CPU109が表示制御タスクとして実行する表示制御処理の動作とモード制御タスクとして実行するモード切替処理について説明する。なお、図4及び図5のフローチャートの各ステップの処理は、特に断らない限り、CPU109がプログラム・データ記憶部110からプログラムを読み出して一次記憶部103に展開し、展開したプログラムを実行することによって実現される。   Next, with reference to FIGS. 4 and 5, the operation of the display control process executed by the CPU 109 as the display control task and the mode switching process executed as the mode control task will be described. 4 and FIG. 5, unless otherwise specified, the CPU 109 reads the program from the program / data storage unit 110, expands it in the primary storage unit 103, and executes the expanded program. Realized.

ユーザが撮像装置100を起動して動作モードを動画撮影モードに設定すると、撮像装置100は撮影スタンバイ状態となり、図4の撮影スタンバイ処理を開始する。まず、S401で、CPU109は初期設定を行い、モード制御タスクが、初期の動作モードが通常撮影モードとなるように制御する。   When the user activates the imaging device 100 and sets the operation mode to the moving image shooting mode, the imaging device 100 enters a shooting standby state and starts the shooting standby process of FIG. First, in step S401, the CPU 109 performs initial settings, and the mode control task controls the initial operation mode to be the normal shooting mode.

S402で、表示制御部111が、LCDパネル112の表示領域の全領域に画像データを表示(以下、「全画面表示」ともいう)する。なお、本実施形態では、LCDパネル112の表示領域とタッチパネル108の位置検出領域は略一致しているものとする。   In step S <b> 402, the display control unit 111 displays image data in the entire display area of the LCD panel 112 (hereinafter also referred to as “full screen display”). In the present embodiment, it is assumed that the display area of the LCD panel 112 and the position detection area of the touch panel 108 are substantially the same.

S403で、表示制御部111が、動作モードに応じた表示画面の更新を行う。通常撮影モードならば、図6(a)に示すように、LCDパネル112には、画像データとしては、カメラ部101で撮像された画像をリアルタイムに表示するスルー表示画像(第1の画像)(ライブビュー画像)が表示される。また、OSDデータとしては、メニューボタンや、バッテリの残量表示といった各種アイコンが、重畳されて表示される。   In step S403, the display control unit 111 updates the display screen according to the operation mode. In the normal shooting mode, as shown in FIG. 6A, the LCD panel 112 displays a through display image (first image) (first image) (displayed in real time as an image captured by the camera unit 101). Live view image) is displayed. As OSD data, various icons such as a menu button and a battery remaining amount display are superimposed and displayed.

S404で、CPU109は、お絵描きモード(描画モード)への切替指示が入力されたか否かを判定する。お絵描きモードへの切替指示は、通常撮影モード時に表示されるメニューボタンから表示されるメニュー項目からユーザがお絵描きモードの項目を選択することで行える。お絵描きモードへの切替指示が入力された場合、処理はS409へ進み、そうでない場合、処理はS405へ進む。   In step S404, the CPU 109 determines whether an instruction to switch to a drawing mode (drawing mode) has been input. The instruction to switch to the drawing mode can be made by the user selecting the item of the drawing mode from the menu items displayed from the menu button displayed in the normal shooting mode. If an instruction to switch to the drawing mode is input, the process proceeds to S409, and if not, the process proceeds to S405.

S405で、CPU109は、プログラム・データ記憶部110に記憶された設定内容に基づき、表示部113の反転収納時(図3(c)参照)にお絵描きモードを自動起動するという設定(お絵描きモード自動起動設定)がONであるか否かを判定する。本実施形態では、撮像装置100は、お絵描きモード自動起動設定を、ユーザの指示に応じて予め設定しておくことができる。この設定は、上述したメニューボタンのメニュー項目にて選択することが可能である。設定内容は、プログラム・データ記憶部110に記憶される。S405においてお絵描きモード自動起動設定がONになっていると判定された場合は、処理はS406へ進み、そうでない場合、処理はS403に戻る。   In S <b> 405, the CPU 109 sets the drawing mode to be automatically activated when the display unit 113 is inverted and stored (see FIG. 3C) based on the setting content stored in the program / data storage unit 110 (drawing mode). It is determined whether or not (automatic start setting) is ON. In the present embodiment, the imaging apparatus 100 can set the drawing mode automatic activation setting in advance according to a user instruction. This setting can be selected by the menu item of the menu button described above. The setting contents are stored in the program / data storage unit 110. If it is determined in S405 that the drawing mode automatic activation setting is ON, the process proceeds to S406, and if not, the process returns to S403.

S406で、CPU109は、パネル状態検出部106から、表示部113の状態(本体部114に対する表示部113の向きや位置)を取得する。   In step S <b> 406, the CPU 109 acquires the state of the display unit 113 (the orientation and position of the display unit 113 with respect to the main body unit 114) from the panel state detection unit 106.

S407で、CPU109は、S406において取得した表示部113の状態に基づき、状態変化があるか否かを判定する。状態変化がある場合は、処理はS408に進み、状態変化がない場合、処理はS403に戻る。   In step S407, the CPU 109 determines whether there is a state change based on the state of the display unit 113 acquired in step S406. If there is a state change, the process proceeds to S408, and if there is no state change, the process returns to S403.

S408で、CPU109は、S406において取得した表示部113の状態に基づき、表示部113が反転収納状態であるか否かを判定する。表示部113が反転収納状態である場合、処理はS409に進み、そうでない場合、処理はS403に戻る。   In step S408, the CPU 109 determines whether or not the display unit 113 is in the reverse storage state based on the state of the display unit 113 acquired in step S406. If the display unit 113 is in the reverse storage state, the process proceeds to S409, and if not, the process returns to S403.

S409の処理は、S404においてお絵描きモードへの切替指示が入力された場合と判定された場合、又は、S408において表示部113が反転収納状態であると判定された場合に実行される。S409で、CPU109が実行するモード制御タスクが、動作モードがお絵描きモードとなるように制御を行う。   The process of S409 is executed when it is determined in S404 that an instruction to switch to the drawing mode is input, or when it is determined in S408 that the display unit 113 is in the reverse storage state. In step S409, the mode control task executed by the CPU 109 performs control so that the operation mode becomes the drawing mode.

S410で、CPU109は、お絵描きモード処理を行う。お絵描きモード処理の詳細は、図5を用いて後述する。お絵描きモード処理が終了すると、処理はS411へ進む。   In step S410, the CPU 109 performs a drawing mode process. Details of the drawing mode process will be described later with reference to FIG. When the drawing mode process ends, the process proceeds to S411.

S411で、CPU109が実行するモード制御タスクが、動作モードが通常撮影モードとなるように制御を行う。また、表示制御部111が、LCDパネル112の表示領域の全領域に画像データ(スルー表示画像)を表示する。S410のお絵描きモード処理においてお絵描き画像が描画された場合は、S411において表示される画像データは、拡大されたお絵描き画像を含む(詳細は、図5のS513において説明する)。その後、処理はS403に戻る。   In step S411, the mode control task executed by the CPU 109 performs control so that the operation mode becomes the normal shooting mode. Further, the display control unit 111 displays image data (through display image) in the entire display area of the LCD panel 112. When a drawing image is drawn in the drawing mode process of S410, the image data displayed in S411 includes an enlarged drawing image (details will be described in S513 of FIG. 5). Thereafter, the process returns to S403.

なお、S409において動作モードがお絵描きモードに切り替わっても、S401において開始した通常撮影モードの撮影スタンバイ状態は継続する。従って、S409における切り替え後の動作モードは、厳密には「通常撮影及びお絵描きのモード」とでも言うべきものであるが、簡略化のため、単に「お絵描きモード」と呼ぶことにする。   Even if the operation mode is switched to the drawing mode in S409, the shooting standby state in the normal shooting mode started in S401 is continued. Therefore, although the operation mode after switching in S409 should be strictly referred to as “normal shooting and drawing mode”, it is simply referred to as “drawing mode” for the sake of simplicity.

また、図4においては、CPU109は、動作モードを通常撮影モードとお絵描きモードとの間で切り替える(S409及びS411)。しかしながら、CPU109は、動作モードを、通常撮影モード以外のモード、例えば再生モードとお絵描きモードとの間で動作モードを切り替えてもよい。この場合、動作モードが再生モードからお絵描きモードに切り替わっても、画像の再生は継続する。従って、ここでの「お絵描きモード」は、厳密には「再生及びお絵描きのモード」とでも言うべきものである。しかし、「通常撮影及びお絵描きのモード」であれ、「再生及びお絵描きのモード」であれ、ユーザがお絵描きを行えるモード(描画モード)には違いない。従って、本実施形態では、特に区別が必要な場合を除き、いずれのモードも単に「お絵描きモード」と呼ぶことにする。   In FIG. 4, the CPU 109 switches the operation mode between the normal shooting mode and the drawing mode (S409 and S411). However, the CPU 109 may switch the operation mode between modes other than the normal shooting mode, for example, a reproduction mode and a drawing mode. In this case, even if the operation mode is switched from the reproduction mode to the drawing mode, the image reproduction is continued. Therefore, the “drawing mode” here should be strictly called “reproduction and drawing mode”. However, the “normal shooting and drawing mode” or the “reproduction and drawing mode” must be a mode (drawing mode) in which the user can draw. Therefore, in the present embodiment, all modes are simply referred to as “drawing modes” unless particularly required to be distinguished.

続いて、図5を参照して、図4のS410におけるお絵描きモード処理の詳細を説明する。まず、S501で、CPU109が実行するモード制御タスクが、LCDパネル112の表示画面がお絵描きモードのメイン画面となるような制御を行う。その結果、表示制御部111が、LCDパネル112の中央領域(図1参照)に収まるように(周辺領域に重ならないように)、画像データ(スルー表示画像)を縮小表示する。一例として、図6(b)に示すように、表示制御部111は、画像データ(スルー表示画像)を縮小した縮小画像を、LCDパネル112の中央領域の左端に寄せて表示する。また、表示制御部111は、タッチにより選択可能なタッチボタンのOSDデータ(第3の画像)を、図示したように縮小した画像データ(縮小画像)の右隣に表示する。本実施形態では、図6(b)に示すOSDデータのタッチボタンは、上から順に、「お絵描きモード終了ボタン」、「ツール選択ボタン」、「タッチアニメーションボタン」、「カメラ画像フリーズボタン」である。「ツール選択ボタン」は、線画、スタンプ、消しゴムツール等の、ツール選択のために用いられると共に、選択されたツールを示す。「タッチアニメーションボタン」は、ユーザが選択した表示オブジェクトをアニメーションさせるために用いられる。「カメラ画像フリーズボタン」は、カメラ画像を一時的に停止し、その状態を動画として記録するために用いられる。なお、画像データとOSDデータの表示位置に関する詳細な内容は後述する。   Next, details of the drawing mode process in S410 of FIG. 4 will be described with reference to FIG. First, in S501, the mode control task executed by the CPU 109 performs control such that the display screen of the LCD panel 112 becomes the main screen in the drawing mode. As a result, the display control unit 111 reduces and displays the image data (through display image) so as to fit in the central area (see FIG. 1) of the LCD panel 112 (so as not to overlap the peripheral area). As an example, as illustrated in FIG. 6B, the display control unit 111 displays a reduced image obtained by reducing the image data (through display image) near the left end of the central region of the LCD panel 112. Further, the display control unit 111 displays the OSD data (third image) of the touch buttons that can be selected by touching on the right side of the image data (reduced image) reduced as illustrated. In the present embodiment, the OSD data touch buttons shown in FIG. 6B are “drawing mode end button”, “tool selection button”, “touch animation button”, and “camera image freeze button” in order from the top. is there. The “tool selection button” is used for selecting a tool such as a line drawing, a stamp, and an eraser tool, and indicates the selected tool. The “touch animation button” is used to animate the display object selected by the user. The “camera image freeze button” is used to temporarily stop the camera image and record the state as a moving image. Detailed contents regarding the display positions of the image data and the OSD data will be described later.

S502で、CPU109は、タッチ検出があるか否かを判定する。タッチ検出がある場合、処理はS503に進み、タッチ検出がない場合、タッチが検出されるまで、S502の判定が繰り返される。   In step S502, the CPU 109 determines whether there is touch detection. If there is touch detection, the process proceeds to S503. If there is no touch detection, the determination in S502 is repeated until a touch is detected.

S503で、CPU109は、S502においてタッチ検出した位置(座標)が、図6(b)に示す縮小表示された画像データの領域内であるか否かを判定する。タッチ位置が画像データの領域内である場合、処理はS508に進み、そうでない場合、処理はS504に進む。   In step S503, the CPU 109 determines whether or not the position (coordinates) detected in touch in step S502 is within the reduced image data area shown in FIG. If the touch position is within the image data area, the process proceeds to S508; otherwise, the process proceeds to S504.

S504で、CPU109は、S502において検出されたタッチ位置が、図6(b)に示すいずれかのタッチボタンのタッチ領域内か否かを判定する。タッチ位置がタッチボタンのタッチ領域内である場合、処理はS505に進み、そうでない場合、処理はS502に戻る。   In step S504, the CPU 109 determines whether or not the touch position detected in step S502 is within the touch area of any one of the touch buttons illustrated in FIG. If the touch position is within the touch area of the touch button, the process proceeds to S505, and if not, the process returns to S502.

S505で、CPU109は、S502において検出されたタッチ位置のボタンが、「お絵描きモード終了ボタン」であるか否かを判定する。タッチ位置のボタンが「お絵描きモード終了ボタン」である場合、CPU109は、お絵描きモードを終了し、処理を図4のS411へ進める。タッチ位置のボタンが「お絵描きモード終了ボタン」でない場合、処理はS506に進む。   In step S505, the CPU 109 determines whether or not the button at the touch position detected in step S502 is a “drawing mode end button”. When the button at the touch position is the “drawing mode end button”, the CPU 109 ends the drawing mode and advances the process to step S411 in FIG. If the button at the touch position is not the “drawing mode end button”, the process proceeds to S506.

S506で、CPU109は、タッチ位置のボタンに応じた画面遷移を行う。例えば「ツール選択ボタン」がタッチされた場合は、図6(c)に示すように、ツール選択に関係したメニューが表示される。図6(c)の例では、上から順に、「戻るボタン」、「線画ボタン」、「スタンプボタン」、「消しゴムボタン」が表示されている。「戻るボタン」は、ひとつ前のメニュー(この場合、図6(b)に示すお絵描きモードのメイン画面)に戻るためのボタンである。「線画ボタン」は、ユーザのタッチした位置に線を描画するツールを選択するためのボタンである、「スタンプボタン」は、ユーザが事前に選んだ形状データ(例えばハート型)をタッチした位置に配置するツールを選択するためのボタンである。「消しゴムボタン」は、手描き入力した描画データを削除するツールを選択するためのボタンである。   In step S506, the CPU 109 performs screen transition according to the button at the touch position. For example, when a “tool selection button” is touched, a menu related to tool selection is displayed as shown in FIG. In the example of FIG. 6C, “return button”, “line drawing button”, “stamp button”, and “eraser button” are displayed in order from the top. The “return button” is a button for returning to the previous menu (in this case, the main screen of the drawing mode shown in FIG. 6B). The “line drawing button” is a button for selecting a tool for drawing a line at a position touched by the user. The “stamp button” is a position touched by the user in advance of shape data (for example, a heart shape) selected by the user. This button is used to select a tool to be placed. The “eraser button” is a button for selecting a tool for deleting drawing data input by handwriting.

なお、本実施形態では図示しないが、ユーザが各々のボタンを選択した後に、表示制御部111は更に、例えば線の太さや色、スタンプの色、消しゴムの消す領域の大きさなどを選択するためのサブメニューを表示するものとする。また、本実施形態に示していない他の機能を有したボタンを配置することも可能である。更に、例えば色選択といった一部の選択メニューにおいては、画像データにも重畳して各種ボタンを表示することも可能である。   Although not shown in the present embodiment, after the user selects each button, the display control unit 111 further selects, for example, the thickness and color of the line, the color of the stamp, the size of the erased area of the eraser, and the like. The submenu of is displayed. It is also possible to arrange buttons having other functions not shown in this embodiment. Further, in some selection menus such as color selection, various buttons can be displayed superimposed on the image data.

S507で、CPU109は、図6(c)に示した画面にて、図6(b)に示すお絵描きモードのメイン画面に戻るための「戻るボタン」がタッチされたか否かを判定する。「戻るボタン」がタッチされた場合、処理はS502に戻る。「戻るボタン」がタッチされない場合、「戻るボタン」がタッチされるまで、S507の判定が繰り返される。また、S507の判定と並行して、CPU109は、現在の画面で受け付け・実行可能な各種処理を行う。   In step S507, the CPU 109 determines whether or not the “return button” for returning to the main screen of the drawing mode shown in FIG. 6B has been touched on the screen shown in FIG. If the “return button” is touched, the process returns to S502. If the “return button” is not touched, the determination in S507 is repeated until the “return button” is touched. In parallel with the determination in S507, the CPU 109 performs various processes that can be received and executed on the current screen.

一方、S503においてタッチ位置が画像データの領域内であると判定された場合、S508の処理が行われる。S508で、CPU109は、選択されているお絵描き入力状態が、手描き入力状態であるか、タッチアニメーション状態であるかを取得し、また、各入力状態に応じた設定も取得する。例えば、図6(b)の「ツール選択ボタン」が選択されている場合、選択されているお絵描き入力状態は手描き入力状態である。この場合、CPU109は、S506の説明において例示した「線画ボタン」、「スタンプボタン」、又は「消しゴムボタン」のタッチにより選択されたツールの種類や、線の太さや色などに関する情報も取得する。   On the other hand, if it is determined in S503 that the touch position is within the image data area, the process of S508 is performed. In step S <b> 508, the CPU 109 acquires whether the selected drawing input state is a hand-drawn input state or a touch animation state, and also acquires settings corresponding to each input state. For example, when the “tool selection button” in FIG. 6B is selected, the selected drawing input state is a hand-drawn input state. In this case, the CPU 109 also acquires information on the type of tool selected by touching the “line drawing button”, “stamp button”, or “eraser button” exemplified in the description of S506, the thickness and color of the line, and the like.

S509で、CPU109は、ユーザによってタッチされた位置情報(タッチ位置)を取得する。   In step S509, the CPU 109 acquires position information (touch position) touched by the user.

S510で、CPU109は、S509において取得したタッチ位置に対して、S508において取得したお絵描き入力状態に応じたお絵描き画像(第2の画像)(描画画像)を表示する。一例として、図7(a)に示すようなお絵描き画像が表示される。なお、お絵描き画像の表示は、ユーザの描画した絵を、縮小された画像データ上にOSDにより重畳して表示する処理により行われる。   In S510, the CPU 109 displays a drawing image (second image) (drawing image) corresponding to the drawing input state acquired in S508 at the touch position acquired in S509. As an example, a drawing image as shown in FIG. 7A is displayed. Note that the drawing image is displayed by a process of superimposing and displaying the picture drawn by the user on the reduced image data using the OSD.

S511で、CPU109は、S509において取得したタッチ位置に基づき、図6(a)で示した縮小前の元画像に対応した補正タッチ位置を算出する。   In S511, the CPU 109 calculates a corrected touch position corresponding to the original image before reduction shown in FIG. 6A based on the touch position acquired in S509.

S512で、CPU109は、S511において算出した補正タッチ位置に対応するお絵描き画像(拡大されたお絵描き画像)を生成する。ここで生成される拡大されたお絵描き画像は、一次記憶部103に格納されるが、この段階ではLCDパネル112には表示されない。なお、拡大されたお絵描き画像の生成は、補正タッチ位置に基づいて行う代わりに、S510において表示されたお絵描き画像(図7(a)参照)を拡大することにより行ってもよい。この場合、CPU109は、図7(a)に示すお絵描き画像を、S501における画像データの縮小率の逆数で拡大する。補正タッチ位置に基づいてお絵描き画像を生成する場合であれ、図7(a)に示すお絵描き画像を拡大する場合であれ、縮小画像の縮小率に対応して拡大されたお絵描き画像が得られる。   In S512, the CPU 109 generates a drawing image (enlarged drawing image) corresponding to the corrected touch position calculated in S511. The enlarged drawing image generated here is stored in the primary storage unit 103, but is not displayed on the LCD panel 112 at this stage. Note that generation of the enlarged drawing image may be performed by enlarging the drawing image (see FIG. 7A) displayed in S510 instead of performing based on the corrected touch position. In this case, the CPU 109 enlarges the drawing image shown in FIG. 7A by the reciprocal of the reduction rate of the image data in S501. Whether the drawing image is generated based on the corrected touch position or the drawing image shown in FIG. 7A is enlarged, an enlarged drawing image corresponding to the reduction ratio of the reduced image is obtained. It is done.

S513で、CPU109は、S512において生成された拡大されたお絵描き画像を元画像(本実施例ではスルー表示画像・ライブビュー画像。再生時の処理であれば再生画像となる)に重畳する。拡大されたお絵描き画像が重畳された元画像は、一次記憶部103に格納されるが、この段階ではLCDパネル112には表示されない。拡大されたお絵描き画像が重畳された元画像の表示は、お絵描きモードが終了して表示画像が全画面表示に戻った後(図4のS411参照)で行われる。図7(b)は、拡大されたお絵描き画像が重畳された元画像を示す。図7(a)との比較から理解できる通り、拡大されたお絵描き画像のピクセル数は、元画像のサイズに応じて増加している。なお、図7(b)は簡略化された図であり、横方向にのみピクセル数が増加する様子が示されているが、実際には、必要に応じて縦方向のピクセルも増加する。   In step S513, the CPU 109 superimposes the enlarged drawing image generated in step S512 on the original image (through display image / live view image in the present embodiment, which is a reproduction image if processing at the time of reproduction). The original image on which the enlarged drawing image is superimposed is stored in the primary storage unit 103, but is not displayed on the LCD panel 112 at this stage. The display of the original image on which the enlarged drawing image is superimposed is performed after the drawing mode ends and the display image returns to the full screen display (see S411 in FIG. 4). FIG. 7B shows an original image on which an enlarged drawing image is superimposed. As can be understood from the comparison with FIG. 7A, the number of pixels of the enlarged drawing image increases in accordance with the size of the original image. FIG. 7B is a simplified diagram showing how the number of pixels increases only in the horizontal direction, but in actuality, the number of pixels in the vertical direction also increases as necessary.

なお、S511乃至S513の処理は、図5に示すタイミングとは異なるタイミングで行われてもよい。例えば、CPU109は、お絵描きモードの終了後に図4のS411において表示画像が全画面表示に戻るタイミングで、S511乃至S513の処理を行ってもよい。   Note that the processing of S511 to S513 may be performed at a timing different from the timing illustrated in FIG. For example, the CPU 109 may perform the processes of S511 to S513 at the timing when the display image returns to the full screen display in S411 of FIG. 4 after the drawing mode ends.

次に、S514で、CPU109は、タッチアップの検出があるか否かを判定する。タッチアップの検出がない場合、処理はS509に戻り、次のタッチ位置について同様の処理が繰り返される。即ち、図7(a)に示すような直線のお絵描き画像は、ユーザがタッチパネル108をタッチしたままタッチ位置を移動させ、その間にCPU109がS509乃至S514の処理を繰り返すことにより、描画される。S514においてタッチアップの検出がある場合、処理はS515に進む。   Next, in S514, the CPU 109 determines whether there is a touch-up detection. If no touch-up is detected, the process returns to S509, and the same process is repeated for the next touch position. That is, a straight line drawing image as shown in FIG. 7A is drawn by moving the touch position while the user touches the touch panel 108, and the CPU 109 repeats the processing of S509 to S514 during that time. If touch-up is detected in S514, the process proceeds to S515.

S515で、CPU109は、タッチ検出があるか否かを判定する。タッチ検出がある場合、処理はS509に戻り、タッチ検出がない場合、処理はS516に進む。S516で、CPU109は、S514でタッチアップの検出がされてから一定時間経過したか否かを判定する。本実施形態における一定時間は、例えば1秒である。一定時間経過していない場合、処理はS515に戻り、一定時間経過した場合、処理はS502に戻る。S515及びS516の処理が行われることにより、例えばユーザの指がタッチパネル108から一瞬離れただけの場合には、実質的にタッチアップがなかったものと見なされる。   In step S515, the CPU 109 determines whether there is touch detection. If there is touch detection, the process returns to S509. If there is no touch detection, the process proceeds to S516. In S516, the CPU 109 determines whether or not a predetermined time has elapsed since the touch-up was detected in S514. The fixed time in this embodiment is, for example, 1 second. If the fixed time has not elapsed, the process returns to S515, and if the fixed time has elapsed, the process returns to S502. By performing the processing of S515 and S516, for example, when the user's finger is only momentarily separated from the touch panel 108, it is considered that there has been substantially no touch-up.

以上の処理により、例えば図7(a)に示すようなお絵描き画像がLCDパネル112の表示領域に描画される。そして、「お絵描きモード終了ボタン」がタッチされると(S505参照)、動作モードがお絵描きモードから通常撮影モードへ切り替えられ、LCDパネル112の表示が全画面表示に戻る(図4のS411参照)。これに伴い、S513で生成された、拡大されたお絵描き画像が重畳された画像データ(図7(b)参照)の表示が開始する。なお、図7(b)にはOSDデータは示されていないが、図4のS411において、CPU109は、OSDデータの重畳表示を行ってもよい。   Through the above processing, for example, a drawing image as shown in FIG. 7A is drawn in the display area of the LCD panel 112. When the “drawing mode end button” is touched (see S505), the operation mode is switched from the drawing mode to the normal shooting mode, and the display on the LCD panel 112 returns to the full screen display (see S411 in FIG. 4). ). Accordingly, the display of the image data (see FIG. 7B) generated by superimposing the enlarged drawing image generated in S513 is started. Although OSD data is not shown in FIG. 7B, the CPU 109 may perform superimposing display of the OSD data in S411 of FIG.

ところで、図4及び図5の説明においては、撮像装置100が撮影スタンバイ状態であるものとした。しかしながら、ユーザは、図4及び図5の処理の途中の任意のタイミングで、操作キー107に含まれる動画記録開始ボタンを押下することにより、撮像装置100に対して動画の記録開始を指示してもよい。動画の記録開始の指示が行われると、CPU109は、カメラ部101で撮影される動画の記録を開始する。動画記録を開始した時点でお絵描きモードでの手描きによる描画が行われていた場合には、撮影されたカメラ画像(被写体像)に、描画されたお絵描き画像(線、スタンプ等)が重畳された映像が動画として動画記憶部105に記録される。換言すると、動画記録中は、S513において生成される画像(図7(b)参照)が、表示はされないが、動画記憶部105に記録される。   Incidentally, in the description of FIGS. 4 and 5, it is assumed that the imaging apparatus 100 is in the shooting standby state. However, the user instructs the imaging apparatus 100 to start recording a moving image by pressing a moving image recording start button included in the operation key 107 at an arbitrary timing during the processing of FIGS. 4 and 5. Also good. When an instruction to start recording a moving image is issued, the CPU 109 starts recording a moving image shot by the camera unit 101. If hand-drawn drawing has been performed in the drawing mode at the start of video recording, the drawn drawing image (line, stamp, etc.) is superimposed on the captured camera image (subject image). The recorded video is recorded in the moving image storage unit 105 as a moving image. In other words, during moving image recording, the image generated in S513 (see FIG. 7B) is not displayed but is recorded in the moving image storage unit 105.

続いて、S501において表示されるお絵描きモードのメイン画面(図6(b)参照)における、画像データ及びOSDデータの配置について詳細に説明する。本実施形態では、図8に示すように、タッチパネル108において手描き線などを入力するために十分な位置検出精度を得られる領域(中央領域)が、位置検出領域の端部から距離X内側の領域であるものとする。距離Xは、例えば、2mmである。なお、図8において、位置検出領域の端部を破線で、中央領域の端部を二点鎖線で示す。   Next, the arrangement of image data and OSD data on the main screen (see FIG. 6B) in the drawing mode displayed in S501 will be described in detail. In the present embodiment, as shown in FIG. 8, an area (center area) where sufficient position detection accuracy can be obtained for inputting a hand-drawn line or the like on the touch panel 108 is an area inside the distance X from the end of the position detection area. Suppose that The distance X is 2 mm, for example. In FIG. 8, the end of the position detection area is indicated by a broken line, and the end of the center area is indicated by a two-dot chain line.

一般的に、画像データの縦横の長さ比は、撮影する機器に応じて定まる一定の値である。この値は、例えば16:9であり、一般的に、縦横の長さは同一ではない。従って、画像データの縦横比を維持したまま縮小すると、長手方向の長さの減少量は、短手方向の長さの減少量よりも大きくなる。例えば、図8に示すように、画像データが中央領域に収まる範囲でできるだけ大きくなるように縮小した場合、短手方向については長さが「2X」減少するのに対し、長手方向については長さが「X+C」(C>X)減少する。一方、位置検出領域の端部から中央領域の端部までの距離Xは、一般的に、縦横いずれの方向においても同じ値である。従って、縮小後の画像データを中央領域の左端に寄せて表示すると、中央領域の右端には、幅「C−X」の空き領域が生じる。この空き領域は、中央領域に含まれるため、位置検出精度が周辺領域よりも高い。従って、図6(b)に示すように、この空き領域にタッチボタンのOSDデータを配置することにより、位置検出精度が高い中央領域を有効活用することができる。   In general, the vertical / horizontal length ratio of image data is a constant value determined according to the device to be photographed. This value is, for example, 16: 9, and generally the vertical and horizontal lengths are not the same. Therefore, if the image data is reduced while maintaining the aspect ratio, the length reduction in the longitudinal direction becomes larger than the length reduction in the short direction. For example, as shown in FIG. 8, when the image data is reduced so as to be as large as possible within the central area, the length decreases in the short direction by “2X”, whereas the length in the longitudinal direction decreases. Decreases by “X + C” (C> X). On the other hand, the distance X from the end of the position detection region to the end of the central region is generally the same value in both the vertical and horizontal directions. Accordingly, when the reduced image data is displayed near the left end of the central area, an empty area with a width “C−X” is generated at the right end of the central area. Since this empty area is included in the central area, the position detection accuracy is higher than that of the peripheral area. Therefore, as shown in FIG. 6B, by arranging the OSD data of the touch button in this empty area, the central area with high position detection accuracy can be effectively used.

なお、縮小後の画像データを中央領域の端まで完全に寄せる必要はない。一般化すると、縮小後の画像データを中央領域の中心から長手方向に所定の距離ずらせば、ずらした距離に応じた広さの空き領域が得られる。また、そもそも、縮小後の画像データを長手方向にずらすことは、必須ではない。縮小後の画像データをずらさない場合でも空き領域は生じるので、そこにOSDデータを配置することが可能である。   It is not necessary to bring the reduced image data completely to the end of the central area. Generally speaking, if the reduced image data is shifted from the center of the central area by a predetermined distance in the longitudinal direction, an empty area having a width corresponding to the shifted distance can be obtained. In the first place, it is not essential to shift the reduced image data in the longitudinal direction. Even if the image data after reduction is not shifted, a free area is generated, so that OSD data can be arranged there.

また、例えば図9に示すように、タッチが不要なOSDデータや、タッチが必要であってもそれほど高い位置検出精度を必要としないOSDデータであれば、周辺領域に表示してもよい。これにより、図6(b)に示す例よりも表示領域全体を有効活用することもできる。図9においては、タッチが必要であってもそれほど高い位置検出精度を必要としないOSDデータとして、タッチボタンが中央領域の空き領域よりも大きく(即ち、空き領域から周辺領域へはみ出すサイズで)表示されている。これにより、タッチボタンの視認性が向上する。タッチボタンの一部の領域は位置検出精度が低い周辺領域に含まれるが、各ボタンは十分な大きさ及び間隔で表示されているので、ボタン選択の正確性はそれほど損なわれない。また、図9においては、タッチが不要なOSDデータとして、撮影時間情報及びバッテリ情報が表示されている。   For example, as shown in FIG. 9, OSD data that does not require touching or OSD data that does not require so high position detection accuracy even when touching may be displayed in the peripheral area. Thereby, the entire display area can be used more effectively than the example shown in FIG. In FIG. 9, as OSD data that does not require so high position detection accuracy even if a touch is required, the touch button is displayed larger than the free area in the central area (that is, with a size that protrudes from the free area to the peripheral area). Has been. Thereby, the visibility of the touch button is improved. Although some areas of the touch button are included in the peripheral area where the position detection accuracy is low, since each button is displayed with a sufficient size and interval, the accuracy of the button selection is not so much impaired. In FIG. 9, shooting time information and battery information are displayed as OSD data that does not require touching.

また、本実施形態では、表示制御部111は、LCDパネル112の表示領域のうち画像データが表示されない領域には、黒色の背景を配置し、タッチが不要なOSDデータは白色で表示するものとする。これにより、タッチが不要なOSDデータの視認性が向上する。   In the present embodiment, the display control unit 111 arranges a black background in the display area of the LCD panel 112 where no image data is displayed, and displays OSD data that does not require touching in white. To do. This improves the visibility of OSD data that does not require touching.

以上説明したように、第1の実施形態によれば、撮像装置100は、LCDパネル112の表示領域に画像データを表示し、動作モードがお絵描きモードに切り替えられたことに応じて、中央領域に収まるように画像データを縮小表示する。これにより、お絵描きモードにおいてユーザが表示領域に容易に描画することが可能になると共に、他のモードにおいては画像データが周辺領域も含む広い領域に表示されるので画像データの視認性が向上する。特に、画像の端部にまでユーザーに意図通りに正確な描画が可能になる。   As described above, according to the first embodiment, the imaging apparatus 100 displays image data in the display area of the LCD panel 112, and the central area is changed according to the operation mode being switched to the drawing mode. The image data is reduced and displayed so as to fit in the image. As a result, the user can easily draw in the display area in the drawing mode, and the image data is displayed in a wide area including the peripheral area in other modes, so that the visibility of the image data is improved. . In particular, accurate drawing can be performed as intended by the user up to the end of the image.

<変形例>
上の説明においては、ユーザは、お絵描きモードにおいてタッチパネル108を用いて手描き入力を行うものとした。しかしながら、本発明は、マウスや空間ジェスチャ検出装置(例えば、3次元の位置座標を検出して撮像装置100へ送信するワンド)などのような、他の種類のポインティングデバイス(位置入力指示を検出するデバイス)に対しても適用可能である。例えば、ポインティングデバイスとしてマウスを用いる場合、タッチパネルのような周辺領域における位置検出精度低下の問題は生じない。しかしながら、周辺領域においては、位置検出精度は低下しなくても、例えば、LCDパネル112の視野角の制約により画像データの視認性が低下したり、ユーザにとってポインティングデバイスの操作性が悪化したりする可能性がある。このような場合、ユーザにとって、周辺領域においては中央領域よりも描画が困難である。従って、タッチパネルとは異なる種類のポインティングデバイスに対して本発明を適用した場合にも、タッチパネルの場合と同様、お絵描きモードにおけるユーザによる描画が容易になるという効果が得られる。
<Modification>
In the above description, it is assumed that the user performs hand-drawn input using the touch panel 108 in the drawing mode. However, the present invention detects other types of pointing devices (position input instructions) such as a mouse or a space gesture detection device (for example, a wand that detects a three-dimensional position coordinate and transmits it to the imaging device 100). It can also be applied to devices. For example, when a mouse is used as a pointing device, there is no problem of a decrease in position detection accuracy in a peripheral area such as a touch panel. However, in the peripheral area, even if the position detection accuracy does not decrease, for example, the visibility of the image data decreases due to the restriction of the viewing angle of the LCD panel 112, and the operability of the pointing device deteriorates for the user. there is a possibility. In such a case, it is more difficult for the user to draw in the peripheral area than in the central area. Therefore, even when the present invention is applied to a pointing device of a different type from the touch panel, the effect that the user can easily draw in the drawing mode can be obtained as in the case of the touch panel.

なお、タッチパネルの場合、タッチという1つの操作によって位置の指定及び入力の両方が行われる。従って、ユーザがタッチパネル108の所望の位置をタッチすると、タッチした位置(表示領域上の位置)を入力する位置入力指示がCPU109によって検出され、描画が行われる。他方、例えばマウスの場合、位置の指定はマウスを移動する操作により行われ、位置の入力はマウスのボタン(例えば、左ボタン)をクリックする操作によって行われる。従って、ユーザがマウスを移動するだけでは位置入力指示は発生せず、ボタンをクリックしたタイミングで、マウスカーソルに対応する位置を入力する位置入力指示が検出され、描画が行われる。   In the case of a touch panel, both designation and input of a position are performed by one operation called touch. Accordingly, when the user touches a desired position on the touch panel 108, a position input instruction for inputting the touched position (position on the display area) is detected by the CPU 109, and drawing is performed. On the other hand, in the case of a mouse, for example, the position is specified by an operation of moving the mouse, and the position is input by an operation of clicking a mouse button (for example, a left button). Accordingly, a position input instruction is not generated when the user simply moves the mouse, and a position input instruction for inputting a position corresponding to the mouse cursor is detected and drawn at the timing when the button is clicked.

また、図6(b)の例では、画像データが左側に、タッチボタンが右側に配置されているが、この配置は逆でもよい。また、お絵描きモードの種類(「通常撮影及びお絵描きのモード」であるか「再生及びお絵描きのモード」であるか)に応じて、画像データ及びOSDデータの配置を変更してもよい。例えば、「通常撮影及びお絵描きのモード」の場合、表示制御部111は、ヒンジ部120の側(第1の端部の方向)に画像データを配置し、ヒンジ部120の反対側(第2の端部の方向)にタッチボタンを配置する。図3(b)の例では、タッチボタンが左側に配置される。この場合、ユーザは、画像データを手で覆わずにタッチボタンをタッチすることができるので、撮影中の画像を確認する妨げとならない。他方、「再生及びお絵描きのモード」の場合、表示制御部111は、ヒンジ部120の側(第1の端部の方向)にOSDデータを配置し、ヒンジ部120の反対側(第2の端部の方向)に画像データを配置する。図3(b)の例では、画像データが左側に配置される。この場合、画像データがヒンジ部120から遠い位置に配置されるので、画像データの視認性が向上すると共に、ユーザが画像データの上で手描き入力を行うことが容易になる。   In the example of FIG. 6B, the image data is arranged on the left side and the touch buttons are arranged on the right side, but this arrangement may be reversed. Further, the arrangement of the image data and the OSD data may be changed according to the type of the drawing mode (“normal shooting and drawing mode” or “reproduction and drawing mode”). For example, in the case of the “normal shooting and drawing mode”, the display control unit 111 arranges image data on the hinge unit 120 side (the direction of the first end), and the opposite side (second image) of the hinge unit 120. Place the touch button in the direction of the edge of In the example of FIG. 3B, the touch button is arranged on the left side. In this case, since the user can touch the touch button without covering the image data with his / her hand, the user is not prevented from confirming the image being shot. On the other hand, in the “reproduction and drawing mode”, the display control unit 111 arranges the OSD data on the hinge unit 120 side (the direction of the first end), and the opposite side (second display) of the hinge unit 120. Image data is arranged in the direction of the edge. In the example of FIG. 3B, the image data is arranged on the left side. In this case, since the image data is arranged at a position far from the hinge portion 120, the visibility of the image data is improved and the user can easily perform hand-drawn input on the image data.

また、撮像装置100は、表示する画像データの縦横比に応じて、OSDデータの配置を変更してもよい。例えば、携帯電話のような縦長の表示部と画像データを有した電子機器の場合は、OSDデータと縮小された画像データとを縦に並べて配置する。   The imaging apparatus 100 may change the arrangement of the OSD data according to the aspect ratio of the image data to be displayed. For example, in the case of an electronic device having a vertically long display unit and image data such as a mobile phone, OSD data and reduced image data are arranged vertically.

なお、CPU109の制御は、1つのハードウェアが行ってもよいし、複数のハードウェアが処理を分担することで、装置全体の制御を行ってもよい。   Note that the control of the CPU 109 may be performed by one piece of hardware, or the entire apparatus may be controlled by a plurality of pieces of hardware sharing the processing.

また、本発明をその好適な実施形態に基づいて詳述してきたが、本発明はこれら特定の実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の様々な形態も本発明に含まれる。さらに、上述した各実施形態は本発明の一実施形態を示すものにすぎず、各実施形態を適宜組み合わせることも可能である。   Although the present invention has been described in detail based on the preferred embodiments thereof, the present invention is not limited to these specific embodiments, and various forms without departing from the gist of the present invention are also included in the present invention. included. Furthermore, each embodiment mentioned above shows only one embodiment of this invention, and it is also possible to combine each embodiment suitably.

また、上述した実施形態においては、本発明を撮像装置に適用した場合を例にして説明したが、これはこの例に限定されず、ポインティングデバイスを用いた手描き入力を受け付ける表示制御装置であれば適用可能である。すなわち、本発明は、パーソナルコンピュータやPDA、携帯電話端末や携帯型の画像ビューワ、ディスプレイを備えるプリンタ装置、デジタルフォトフレーム、音楽プレーヤー、ゲーム機、電子ブックリーダーなどに適用可能である。   In the above-described embodiment, the case where the present invention is applied to an imaging apparatus has been described as an example. However, this is not limited to this example, and any display control apparatus that accepts hand-drawn input using a pointing device. Applicable. That is, the present invention can be applied to a personal computer, a PDA, a mobile phone terminal, a portable image viewer, a printer device including a display, a digital photo frame, a music player, a game machine, an electronic book reader, and the like.

[その他の実施形態]
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(又はCPUやMPU等)がプログラムを読み出して実行する処理である。
[Other Embodiments]
The present invention can also be realized by executing the following processing. That is, software (program) that realizes the functions of the above-described embodiments is supplied to a system or apparatus via a network or various storage media, and a computer (or CPU, MPU, etc.) of the system or apparatus reads the program. It is a process to be executed.

100…撮像装置、101…カメラ部、102…映像処理部、103…一次記憶部、104…エンコーダ・デコーダ部、105…動画記憶部、106…パネル状態検出部、107…操作キー、108…タッチパネル、109…CPU、110…プログラム・データ記憶部、111…表示制御部、112…LCDパネル   DESCRIPTION OF SYMBOLS 100 ... Imaging device 101 ... Camera part 102 ... Video processing part 103 ... Primary storage part 104 ... Encoder / decoder part 105 ... Movie storage part 106 ... Panel state detection part 107 ... Operation key 108 ... Touch panel 109 ... CPU 110 ... program / data storage unit 111 ... display control unit 112 ... LCD panel

Claims (13)

表示制御装置であって、
表示装置の中央領域及び周辺領域を含む表示領域に第1の画像を表示する表示制御手段と、
前記表示制御装置の動作モードを描画モードと他のモードとの間で切り替える切替手段と、
前記表示領域上の位置を入力する位置入力指示を検出する検出手段と、
を備え、
前記動作モードが前記他のモードから前記描画モードに切り替えられると、前記表示制御手段は、前記第1の画像の代わりに前記第1の画像の縮小画像を前記中央領域に収まるように表示し、
前記動作モードが前記描画モードである間に前記位置入力指示が検出されると、前記表示制御手段は、当該位置入力指示に対応する位置に第2の画像を表示する
ことを特徴とする表示制御装置。
A display control device,
Display control means for displaying a first image in a display area including a central area and a peripheral area of the display device;
Switching means for switching the operation mode of the display control device between the drawing mode and another mode;
Detecting means for detecting a position input instruction for inputting a position on the display area;
With
When the operation mode is Ru is switched from the other mode to the drawing mode, the display control means, a reduced image of the first image displayed to fit in the central region, instead of the first image ,
When the operation mode is the position input instruction is discovered while in the drawing mode, the display control means, display control and displaying a second image at a position corresponding to the position input instruction apparatus.
前記動作モードが前記描画モードから前記他のモードに切り替えられると、前記表示制御手段は、前記縮小画像の代わりに前記第1の画像を前記表示領域に表示し、前記縮小画像における前記第2の画像の位置に対応する、前記第1の画像における位置に、前記第2の画像を前記描画モードにおける表示倍率よりも拡大して表示する
ことを特徴とする請求項1に記載の表示制御装置。
When the operation mode is Ru is switched from the drawing mode to the other mode, the display control means, the first image displayed in the display area in place of the reduced image, the second in the reduced image corresponding to the position of the image, the position in the first image, the display control according to prior Symbol second image to claim 1, characterized in that the enlarged and displayed than the display magnification in the drawing mode apparatus.
前記動作モードが前記他のモードから前記描画モードに切り替えられると、前記表示制御手段は、前記中央領域のうち前記縮小画像が表示されない空き領域に、第3の画像を表示する
ことを特徴とする請求項1又は2に記載の表示制御装置。
When the operation mode is Ru is switched from the other mode to the drawing mode, the display control unit, a free area where the reduced image is not displayed within the central region, and the display means displays a third image The display control apparatus according to claim 1 or 2.
前記第3の画像は、前記位置入力指示を通じて選択可能なアイコンを含み、
前記表示制御手段は、前記空き領域から前記周辺領域へはみ出すサイズで前記第3の画像を表示する
ことを特徴とする請求項3に記載の表示制御装置。
The third image includes an icon that can be selected through the position input instruction,
The display control apparatus according to claim 3, wherein the display control unit displays the third image with a size that protrudes from the empty area to the peripheral area.
前記表示制御手段は、前記中央領域の中心から前記中央領域の長手方向に所定の距離ずれた位置に、前記縮小画像を表示する
ことを特徴とする請求項3又は4に記載の表示制御装置。
5. The display control device according to claim 3, wherein the display control unit displays the reduced image at a position shifted from the center of the central region by a predetermined distance in the longitudinal direction of the central region.
動画を前記第1の画像として撮影する撮影手段と、
前記動画を記録する記録手段と、
を更に備え、
前記記録手段は、前記表示制御手段が前記縮小画像及び前記第2の画像を表示している間に撮影された動画を記録する場合、前記縮小画像における前記第2の画像の位置に対応する、前記動画における位置に前記第2の画像を重畳して記録する
ことを特徴とする請求項1又は2に記載の表示制御装置。
Photographing means for photographing a moving image as the first image;
Recording means for recording the moving image;
Further comprising
The recording unit corresponds to a position of the second image in the reduced image when the moving image taken while the display control unit displays the reduced image and the second image is recorded. the display control device according to claim 1 or 2, characterized in that the recording by superimposing pre Symbol second image at a position in the video.
前記表示領域の長手方向に対応する前記表示装置の第1の端部及び第2の端部のうちの前記第1の端部に、前記表示制御装置が接続されており、
前記動作モードが前記描画モードであって前記撮影手段が動画を撮影している場合、前記表示制御手段は、前記中央領域の中心から前記第1の端部の方向に所定の距離ずれた位置に、前記縮小画像の中心の位置が位置するように前記縮小画像を表示し、前記第2の端部の方向に生じる、前記中央領域のうち前記縮小画像が表示されない空き領域に、第3の画像を表示する
ことを特徴とする請求項6に記載の表示制御装置。
The display control device is connected to the first end of the first end and the second end of the display device corresponding to the longitudinal direction of the display area,
When the operation mode is the drawing mode and the photographing means is photographing a moving image, the display control means is at a position shifted from the center of the central region by a predetermined distance in the direction of the first end. The reduced image is displayed so that the position of the center of the reduced image is positioned , and the third image is formed in an empty area where the reduced image is not displayed in the central area, which is generated in the direction of the second end. The display control apparatus according to claim 6, wherein:
前記記録手段により記録された動画を前記第1の画像として再生する再生手段を更に備え、
前記動作モードが前記描画モードであって前記再生手段が動画を再生している場合、前記表示制御手段は、前記中央領域の中心から前記第2の端部の方向に所定の距離ずれた位置に、前記縮小画像の中心の位置が位置するように前記縮小画像を表示し、前記第1の端部の方向に生じる、前記中央領域のうち前記縮小画像が表示されない空き領域に、第3の画像を表示する
ことを特徴とする請求項7に記載の表示制御装置。
Reproducing means for reproducing the moving picture recorded by the recording means as the first image,
When the operation mode is the drawing mode and the playback means is playing back a moving image, the display control means is at a position shifted from the center of the central region by a predetermined distance in the direction of the second end. The reduced image is displayed so that the center position of the reduced image is positioned , and the third image is formed in an empty area where the reduced image is not displayed in the central area, which is generated in the direction of the first end portion. The display control apparatus according to claim 7, wherein:
前記第3の画像は、前記位置入力指示を通じて選択可能なアイコンを含み、
前記表示制御手段は、前記空き領域から前記周辺領域へはみ出すサイズで前記第3の画像を表示する
ことを特徴とする請求項7又は8に記載の表示制御装置。
The third image includes an icon that can be selected through the position input instruction,
9. The display control apparatus according to claim 7, wherein the display control unit displays the third image with a size that protrudes from the empty area to the peripheral area.
前記検出手段は、タッチパネル、マウス、及び空間ジェスチャ検出装置のうちの少なくともいずれかを含む
ことを特徴とする請求項1乃至9のいずれか1項に記載の表示制御装置。
The display control device according to claim 1, wherein the detection unit includes at least one of a touch panel, a mouse, and a space gesture detection device.
表示制御装置の制御方法であって、
前記表示制御装置の表示制御手段が、表示装置の中央領域及び周辺領域を含む表示領域に第1の画像を表示する表示制御工程と、
前記表示制御装置の切替手段が、前記表示制御装置の動作モードを描画モードと他のモードとの間で切り替える切替工程と、
前記表示制御装置の検出手段が、前記表示領域上の位置を入力する位置入力指示を検出する検出工程と、
を備え、
前記動作モードが前記他のモードから前記描画モードに切り替えられると、前記表示制御工程では、前記第1の画像の代わりに前記第1の画像の縮小画像を前記中央領域に収まるように表示し、
前記動作モードが前記描画モードである間に前記位置入力指示が検出されると、前記表示制御工程では、当該位置入力指示に対応する位置に第2の画像を表示する
ことを特徴とする制御方法。
A control method for a display control device, comprising:
A display control step in which the display control means of the display control device displays the first image in a display region including a central region and a peripheral region of the display device;
A switching step in which the switching means of the display control device switches the operation mode of the display control device between the drawing mode and another mode;
A detection step in which the detection means of the display control device detects a position input instruction for inputting a position on the display area;
With
When the operation mode is Ru is switched from the other mode to the drawing mode, wherein in the display control step, a reduced image of the first image displayed to fit in the central region, instead of the first image ,
When the operation mode is the position input instruction is discovered while in the drawing mode, and in the display control step, the control method characterized by displaying a second image at a position corresponding to the position input instruction .
コンピュータを、請求項1乃至10のいずれか1項に記載の表示制御装置の検出手段を除く各手段として機能させるためのプログラム。 The program for functioning a computer as each means except the detection means of the display control apparatus of any one of Claims 1 thru | or 10. コンピュータを、請求項1乃至10のいずれか1項に記載の表示制御装置の検出手段を除く各手段として機能させるためのプログラムを記録したコンピュータが読み取り可能な記録媒体。 A computer-readable recording medium storing a program for causing a computer to function as each means other than the detection means of the display control device according to any one of claims 1 to 10.
JP2014211990A 2014-10-16 2014-10-16 Display control device, control method therefor, program, and recording medium Active JP6362110B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014211990A JP6362110B2 (en) 2014-10-16 2014-10-16 Display control device, control method therefor, program, and recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014211990A JP6362110B2 (en) 2014-10-16 2014-10-16 Display control device, control method therefor, program, and recording medium

Publications (3)

Publication Number Publication Date
JP2016081302A JP2016081302A (en) 2016-05-16
JP2016081302A5 JP2016081302A5 (en) 2017-11-16
JP6362110B2 true JP6362110B2 (en) 2018-07-25

Family

ID=55958755

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014211990A Active JP6362110B2 (en) 2014-10-16 2014-10-16 Display control device, control method therefor, program, and recording medium

Country Status (1)

Country Link
JP (1) JP6362110B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7151525B2 (en) * 2019-02-07 2022-10-12 株式会社リコー Display device, display method and program

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4939959B2 (en) * 2007-02-02 2012-05-30 ペンタックスリコーイメージング株式会社 Portable device
JP4500845B2 (en) * 2007-11-13 2010-07-14 シャープ株式会社 Information display device, information display method, program, and recording medium
JP5972082B2 (en) * 2012-07-11 2016-08-17 シャープ株式会社 Information processing apparatus, display method, and program

Also Published As

Publication number Publication date
JP2016081302A (en) 2016-05-16

Similar Documents

Publication Publication Date Title
US8830184B2 (en) Image displaying device, image displaying method, and program for displaying images
JP4720879B2 (en) Information processing apparatus and information processing method
US11550420B2 (en) Quick review of captured image data
JP5658552B2 (en) Display control apparatus, control method therefor, program, and recording medium
KR101132872B1 (en) Portable electronic device for photo management
US9179090B2 (en) Moving image recording device, control method therefor, and non-transitory computer readable storage medium
US9313406B2 (en) Display control apparatus having touch panel function, display control method, and storage medium
JP5645626B2 (en) Display control apparatus, display control method, program, and storage medium
JP2015508211A (en) Method and apparatus for controlling a screen by tracking a user&#39;s head through a camera module and computer-readable recording medium thereof
JP5893456B2 (en) Display control apparatus, control method therefor, program, and storage medium
JP2016143349A (en) Electronic device and control method therefor
JP6150652B2 (en) IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD, PROGRAM, AND RECORDING MEDIUM
US20120284668A1 (en) Systems and methods for interface management
JP6120699B2 (en) Electronic device, control method and program thereof, and storage medium
JP5441748B2 (en) Display control apparatus, control method therefor, program, and storage medium
JP2011145881A (en) Device and method for controlling display
EP2746922A2 (en) Touch control method and handheld device utilizing the same
JP6362110B2 (en) Display control device, control method therefor, program, and recording medium
US20200257396A1 (en) Electronic device and control method therefor
JP2014127185A (en) Electronic apparatus and control method therefor
US10212382B2 (en) Image processing device, method for controlling image processing device, and computer-readable storage medium storing program
JP6779778B2 (en) Display control device and its control method
JP5762502B2 (en) Display control apparatus and display control method
JPWO2015045645A1 (en) Imaging apparatus, imaging method, and program
JP2021099643A (en) Electronic device and method for controlling the same

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171005

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20171005

TRDD Decision of grant or rejection written
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180427

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180521

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180619

R151 Written notification of patent or utility model registration

Ref document number: 6362110

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151