JP5220157B2 - The information processing apparatus and a control method thereof, a program, and storage medium - Google Patents

The information processing apparatus and a control method thereof, a program, and storage medium Download PDF

Info

Publication number
JP5220157B2
JP5220157B2 JP2011082187A JP2011082187A JP5220157B2 JP 5220157 B2 JP5220157 B2 JP 5220157B2 JP 2011082187 A JP2011082187 A JP 2011082187A JP 2011082187 A JP2011082187 A JP 2011082187A JP 5220157 B2 JP5220157 B2 JP 5220157B2
Authority
JP
Grant status
Grant
Patent type
Prior art keywords
display
means
object
face
touch
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2011082187A
Other languages
Japanese (ja)
Other versions
JP2012217101A (en )
Inventor
知宏 太田
Original Assignee
キヤノン株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Grant date

Links

Images

Description

本発明は、入力された座標の位置に応じた表示オブジェクトを選択可能に表示する表示制御技術に関するものである。 The present invention relates to a display control technique that selectably displays the display object corresponding to the position of the input coordinate.

タッチパネルを備えた表示装置にボタンを表示させ、当該ボタンに対する操作をタッチパネルで検出して制御する機器が広く使われている。 Display apparatus with a touch panel button and display, the apparatus for controlling the operation on the button is detected by the touch panel is widely used. また、特許文献1においては、撮像した人物の顔に枠を表示し、この枠をタッチパネルで選択すると、非選択の枠と異なる態様で表示させることが記載されている。 Further, in Patent Document 1, and displays a frame to a person's face captured, selecting the frame with the touch panel, it is described that display in the non-selected frame mode different.

特開2008−085737号公報 JP 2008-085737 JP

上記特許文献1では、撮像した顔の枠内を正確にタッチしなければ顔を選択することができないため、特に人物が画面内を移動している場合などでは、その顔を狙ってタッチするときに注意が必要である。 In Patent Document 1, it is not possible to select a face to be accurately touch the inside frame of the imaging face, especially in a case where a person is moving around the screen, when the touch aiming his face it is necessary to pay attention to. 顔の枠を大きく表示することで選択は容易になるが、画面表示が煩雑になるだけでなく、顔から離れた位置のタッチを受け付けることにより誤ったタッチ操作の可能性が増すことも想定される。 Although selection is facilitated by increasing displays the frame of the face, not only the screen display is complicated, also contemplated to increase the possibility of touch operation mistake by accepting a touch location remote from the face that.

本発明は、上記課題に鑑みてなされ、その目的は、画面表示を煩雑にせずに、また、誤った操作の可能性をできるだけ増すことなく、動くオブジェクトを選択しやすくなる表示制御技術を実現することである。 The present invention has been made in view of the above problems, without complicated screen display, and without increasing as much as possible the possibility of erroneous operation, to realize a display control technique that easily select moving objects it is.

上記課題を解決し、目的を達成するために、本発明の情報処理装置は、表示手段に表示オブジェクトを表示するように制御する表示制御手段と、前記表示手段に対するタッチ入力を検出するタッチ検出手段と、前記表示制御手段によって画面上に表示された表示オブジェクト毎に、前記画面上での表示オブジェクトの移動速度が速い場合のほうが遅い場合よりも、当該表示オブジェクトに対する選択を受け付けるためのタッチ入力の反応領域を広く設定する設定手段と、前記タッチ検出手段によって検出されたタッチ入力の位置が前記反応領域内である場合に、当該反応領域に対応する表示オブジェクトを選択する選択手段と、を有し、前記タッチ検出手段によって検出されたタッチ入力の位置が、前記設定手段によって広く設定される移動 To solve the above problems and to achieve the object, the information processing apparatus of the present invention, a display control means for controlling to display the display object on the display unit, a touch detecting means for detecting a touch input to said display means when the display control each display object displayed on the screen by means, than if more is slow when the moving speed of the display object in the screen is fast, the touch input for accepting a selection for the display object a setting means for setting a reaction area wider, when the position of the detected touch input by the touch detection means is the reaction zone, and selection means for selecting a display object corresponding to the reaction region, the , moving said position of the touch detecting means detected touch input by is set wider by the setting means る表示オブジェクトの反応領域と、静止している他の表示オブジェクトの反応領域とが重なる位置であった場合には、前記表示制御手段は、他の表示オブジェクトを選択するように前記選択手段を制御する A reaction area of the display object that, when the reaction area of the other display object is stationary is at a position overlapping, the display control means controls said selection means to select the other display objects to.

本発明によれば、画面表示を煩雑にせずに、また、誤った操作の可能性をできるだけ増すことなく、動くオブジェクトを選択しやすくなる。 According to the present invention, without complicated screen display, and without increasing as much as possible the possibility of erroneous operation, it becomes easy to select the moving object.

本発明に係る実施形態の情報処理装置のブロック図。 Block diagram of an information processing apparatus according to an embodiment of the present invention. 実施形態1に係る画面表示例。 Screen display example according to the first embodiment. 実施形態1に係る表示制御処理のフローチャートおよび反応領域のアフィン変換式。 Affine transformation equations of flow and reaction area of ​​the display control process according to the first embodiment. 実施形態2に係る画面表示例。 Screen display example according to the second embodiment. 実施形態2に係る表示制御処理のフローチャート。 Flowchart of display control processing according to the second embodiment.

以下に、本発明を実施するための最良の形態について詳細に説明する。 The following describes in detail the best mode for carrying out the present invention. 尚、以下に説明する実施の形態は、本発明を実現するための一例であり、本発明が適用される装置の構成や各種条件によって適宜修正又は変更されるべきものであり、本発明は以下の実施の形態に限定されるものではない。 Note that the embodiments to be described hereinafter are examples for realizing the present invention and should be properly modified or changed depending on various conditions and the structure of the apparatus to which the present invention is applied, the present invention is less It is not limited to the embodiment. また、後述する各実施形態の一部を適宜組み合わせて構成しても良い。 Further, it may be properly combined parts of the embodiments to be described later.

[実施形態1] [Embodiment 1]
本実施形態では、本発明の情報処理装置をタッチパネル式のディスプレイを備えるデジタルビデオカメラ(以下、カメラ)に適用した実施形態について説明する。 In the present embodiment, the information processing apparatus of the present invention a digital video camera with a touch panel type display (hereinafter, camera) is described applied embodiment in.

<カメラの構成>図1を参照して、本実施形態のカメラの構成について説明する。 <Configuration of Camera> Referring to FIG. 1, will be described camera of the configuration of the present embodiment.

図1において、光学系101は、ズームレンズやフォーカスレンズなどの撮影レンズを含む。 In Figure 1, optical system 101 includes a photographing lens such as a zoom lens and a focus lens. 撮像部102は、CCDやCMOSなどのイメージセンサを備え、光学系101を通して撮像面に結像された被写体像を光電変換してアナログ映像信号を生成する。 Imaging unit 102 includes an image sensor such as a CCD and a CMOS, and generates an analog video signal by photoelectrically converting an object image formed on the imaging surface through the optical system 101.

映像処理部103は、撮像部102から出力されるアナログ信号をデジタル映像信号に変換し、所定の信号処理を施して映像データを生成する。 Video processing unit 103, an analog signal output from the imaging unit 102 into a digital video signal, generates video data by performing predetermined signal processing. また、映像処理部103は、映像データの生成過程において映像に含まれる人物の顔を検出する顔検出処理を実行する。 Further, the video processing unit 103 performs a face detection process for detecting a face of a person included in the image in the process generating the video data.

CPU104は、カメラ全体の動作を統括して制御する中央演算処理装置である。 CPU104 is a central processing unit which generally controls the operation of the entire camera. CPU104は、タッチパネル111や録画ボタン112などのユーザ操作を受け付け、映像処理部103の顔検出処理により検出された顔情報とタッチパネル111の座標情報とを比較し、表示制御部109への画面表示を指示する。 CPU104 receives a user operation such as a touch panel 111 and record button 112, compares the coordinate information of the image processing section 103 of the face detection process is detected by the face information and the touch panel 111, the screen display of the display control unit 109 It instructs.

エンコーダ・デコーダ部105は、映像処理部103からの映像データを符号化する。 Encoder-decoder unit 105 encodes the video data from the video processing unit 103. エンコーダ・デコーダ部105によって符号化された映像データは、一時記憶部107に一旦記憶されたのち、付随する管理データと共に動画記憶部106に記憶される。 Video data encoded by encoder-decoder 105, after being temporarily stored in the temporary storage unit 107, are stored in the moving picture storage unit 106 together with the accompanying management data. 動画記憶部106は、ハードディスクやフラッシュメモリなどの内蔵メモリや、メモリーカードなどの着脱可能な記録媒体からなる。 Moving image storage unit 106, and internal memory such as a hard disk or a flash memory, consists of a removable recording medium such as a memory card.

動画再生時は、動画記憶部106から読み出された符号化された映像データが一時記憶部107を介してエンコーダ・デコーダ部105で復号化され、再び一時記憶部107の動画用フレームバッファに展開される。 Video playback is decoded by the encoder-decoder 105 through the encoded image data temporary storage unit 107 are read from the moving image storage unit 106, expansion to the moving frame buffer again the temporary storage unit 107 It is.

一時記憶部107は、映像処理部103やCPU104、表示制御部109のワーク領域として利用される。 Temporary storage unit 107, the video processing unit 103 and the CPU 104, is used as a work area of ​​the display control unit 109.

プログラム・データ記憶部108は、CPU104の扱うプログラムやデータが記憶される。 Program data storage unit 108 stores a program and data handled by the CPU104 is stored.

表示制御部109は、映像処理部103もしくはエンコーダ・デコーダ部105からの出力映像に顔枠やその他のオブジェクトを合成して、LCDパネル110に表示する映像信号を生成する。 The display control unit 109 synthesizes the face frame or other objects into the output image from the image processing unit 103 or encoder-decoder unit 105, and generates a video signal to be displayed on the LCD panel 110.

LCDパネル110は、表示制御部109から出力された映像信号を表示する。 LCD panel 110 displays a video signal output from the display control unit 109.

タッチパネル111は、LCDパネル110に貼り付けられ、CPU104からの問い合わせに対してタッチされた座標を返すドライバ部を含んでいる。 The touch panel 111 is attached to the LCD panel 110 includes a driver unit that returns the touched coordinates to the inquiry from the CPU 104.

CPU104は上記ドライバ部を介してタッチパネル111への以下の操作を検出できる。 CPU104 can detect the following operations on the touch panel 111 via the driver unit. タッチパネル111を指やペンで触れたこと(以下、タッチダウン)。 That touched the touch panel 111 with a finger or a pen (hereinafter, touchdown). タッチパネル111を指やペンで触れている状態であること(以下、タッチオン)。 It the touch panel 111 is in a state of touching with a finger or a pen (hereinafter, touch). タッチパネル111を指やペンで触れたまま移動していること(以下、ムーブ)。 It has a touch panel 111 moves while touching a finger or a pen (hereinafter, move). タッチパネル111へ触れていた指やペンを離したこと(以下、タッチアップ)。 That you release your finger or a pen that had been touched to the touch panel 111 (hereinafter referred to as touch-up). タッチパネル111に何も触れていない状態(以下、タッチオフ)。 State that does not touch anything on the touch panel 111 (hereinafter referred to as touch-off). これらの操作や、タッチパネル111上に指やペンが触れている位置座標は内部バスを通じてCPU104に通知され、CPU104は通知された情報に基づいてタッチパネル111上にどのような操作が行なわれたかを判定する。 These operations and the position coordinates touching a finger or a pen on the touch panel 111 notifies the CPU 104 through the internal bus, CPU 104 will determine what operation is performed on the touch panel 111 based on the notified information to. ムーブについてはタッチパネル111上で移動する指やペンの移動方向についても、位置座標の変化に基づいて、タッチパネル111上の垂直成分・水平成分毎に判定できる。 The move regard to the moving direction of the finger or pen moving on the touch panel 111, based on a change in the position coordinates can be determined for each vertical component and horizontal component on the touch panel 111. またタッチパネル111上をタッチダウンから一定のムーブを経てタッチアップをしたとき、ストロークを描いたこととする。 Also when the touch-up through a certain move on the touch panel 111 from the touch-down, and that drew the stroke. 素早くストロークを描く操作をフリックと呼ぶ。 It is referred to as a flick operation that quickly drawing a stroke. フリックは、タッチパネル111上に指を触れたままある程度の距離だけ素早く動かして、そのまま離すといった操作であり、言い換えればタッチパネル111上を指ではじくように素早くなぞる操作である。 Flick, moving as quickly a certain distance while touching a finger on the touch panel 111, an operation such as releasing as a quick tracing operation to repel the touch panel 111 in other words with a finger. 所定距離以上を、所定速度以上でムーブしたことが検出され、そのままタッチアップが検出されるとフリックが行なわれたと判定できる。 Predetermined distance or more, it is detected that the move at a predetermined speed or more, it can be determined that the flick was performed Continued touch-up is detected. また、所定距離以上を、所定速度未満でムーブしたことが検出された場合はドラッグが行なわれたと判定するものとする。 Further, the predetermined distance or more, if it is detected that move less than the predetermined speed shall be determined that a drag is performed. タッチパネルは、抵抗膜方式や静電容量方式、表面弾性波方式、赤外線方式、電磁誘導方式、画像認識方式、光センサ方式等、様々な方式のタッチパネルのうちいずれの方式のものを用いても良い。 The touch panel is a resistive film type, capacitance type, a surface acoustic wave type, an infrared type, electromagnetic induction type, an image recognition system, an optical sensor system or the like, may be used any of those methods of a variety of schemes of the touch panel .

<表示制御処理>次に、図2を参照して、本実施形態のカメラによる撮影モードでの表示制御処理について説明する。 <Display Control Processing> Next, with reference to FIG. 2, the display control process in the photographing mode by the camera of the present embodiment.

図2において、破線205a、205b、206は説明の便宜のために示したもので、実際にはLCDパネル110に表示されなくてもよい。 2, broken lines 205a, 205b, 206 than those shown for convenience of explanation, actually may not be displayed on the LCD panel 110.

被写体201、202は映像処理部103での顔検出処理により検出された人物の顔である。 Object 201 and 202 is a face of the person detected by the face detection processing in the image processing unit 103. 被写体201は画面上の右方向に移動しており、被写体202は静止している。 Subject 201 is moved rightward on the screen, the object 202 is stationary.

顔枠203、204は、表示制御部109により顔201、202のそれぞれに対して合成(重畳)された枠(表示オブジェクト)である。 Face frame 203 and 204 are synthesized for each of the display control unit 109 faces 201 and 202 (overlapped) is a frame (display object). 顔枠203はやや太く表示されており、顔201が選択された状態を表している。 Face frame 203 is displayed slightly thicker, it represents a state in which the face 201 is selected. 顔枠204はやや細く表示されており、顔202が選択されていない状態を表している。 Face frame 204 is slightly thinner display represents a state in which the face 202 is not selected.

破線205a、206は、顔201、202に対応するタッチパネル111上のタッチダウンまたはタッチオン(以下、タッチ操作)を受け付ける反応領域を示している。 Dashed 205a, 206 is a touchdown or touch on the touch panel 111 corresponding to the face 201 (hereinafter, a touch operation) shows a reaction region for accepting. 顔201が画面上の右方向に移動しているため、反応領域205aは顔枠203の動きベクトルの反対方向、すなわち左方向に領域が拡大している。 Since the face 201 is moved to the right direction on the screen, opposite the direction of the motion vector in the reaction region 205a is the face frame 203, i.e., a region in the left direction is enlarged. 一方、顔202は静止しているため、反応領域206は顔枠204とほぼ同じ大きさとなっている。 On the other hand, the face 202 for stationary, reaction zone 206 is substantially the same size as the face frame 204.

このように、動くオブジェクトの後方に反応領域を拡大することで、ユーザのタッチ操作がオブジェクトの動きにうまく合わせられずに遅れてしまった場合でも、所望のオブジェクトを選択できることになる。 Thus, by enlarging the reaction area in the rear of the moving object, even if the touch operation of the user was delayed without being fit well to the movement of the object, it will be able to select the desired object. また、反応領域はオブジェクトの内容にかかわらずに設定できるため、画面表示が煩雑になることがない。 Also, the reaction zone since that can be set regardless of the content of the object, never screen becomes complicated. さらに、動くオブジェクトに対してのみ反応領域の面積を拡大するので、誤ったタッチ操作の可能性が不必要に増すこともない。 Additionally, moving only the enlarged area of ​​the reaction region for the object, incorrect potential touch operation nor increase unnecessarily.

領域207はタッチパネル111を操作しているユーザの指を表している。 Region 207 represents the user's finger operating the touch panel 111. 図2ではタッチ操作が顔201の動きに対して遅れているが、反応領域205が顔201の動きベクトルの後方に拡大されるため、遅れたタッチ操作であっても顔201を選択できるようになる。 Although the touch operation in FIG. 2 is delayed with respect to movement of the face 201, because the reaction area 205 is enlarged to the rear of the motion vector of the face 201, so that the face 201 be a touch operation delay can be selected Become.

208、209は顔に関連しない表示要素を表しており、それぞれタイムコード、バッテリー残量表示である。 208, 209 represents the display element which is not related to the face, the time code respectively, a battery residual quantity display. これら以外にもカメラの設定や動作状態を表す様々なアイコンや数値が表示されることがある。 Sometimes various icons and numerical values ​​representing the settings and operation state of the camera in addition it is displayed.

なお、反応領域205aは、図2(b)に示すように動きベクトルの方向、すなわち右方向に拡大してもよい。 Incidentally, the reaction region 205a, the direction of the motion vector as shown in FIG. 2 (b), i.e., may be expanded in the right direction. この場合、指207が顔201の動きの前方をタッチしたとしても、このタッチで顔201を選択することができる。 In this case, even if the finger 207 touches the front of the movement of the face 201, it is possible to select a face 201 at the touch.

図2(b)の破線205bは、動く顔201の反応領域を反応領域205aとは異なる形態で拡張した例である。 Dashed line 205b in FIG. 2 (b) is an example of expansion in different forms from the reaction zone reaction region 205a of the moving face 201. このように、顔の動きベクトルを計算せず、単純に顔の移動速度に応じて反応領域の面積を拡大するだけでも、顔のタッチしやすさを改善することができる。 Thus, without calculating the motion vector of the face, simply alone to increase the area of ​​the reaction zone according to the moving speed of the face, it is possible to improve the touch ease face. このように、動くオブジェクトに対して広い面積の反応領域を設定することができるため、オブジェクトがよりタッチしやすくなる。 Thus, it is possible to set a reaction area having a large area with respect to moving object, the object is easier to touch. 例えば、動いているオブジェクトの移動方向から移動位置を予測して早めにタッチした場合などにも所望のオブジェクトを選択することができる。 For example, it is also possible, for example, when the user touches early and has a direction of movement of the object by predicting the movement position of movement to select the desired object.

また、反応領域はオブジェクトの表示内容(表示範囲)とは独立して設定できるため、画面表示が煩雑になることがない。 Also, the reaction zone since that can be set independently of the display contents of the object (display range), never screen becomes complicated. さらに、反応領域を変更するのは動いているオブジェクトだけであるので、反応領域の面積を拡大したとしても誤ったタッチ操作の可能性が不必要に増すことはない。 Further, since to change the reaction zone is only moving objects, the possibility of also erroneous touch operation as to increase the area of ​​the reaction zone is not to increase unnecessarily. ただし、反応領域205bは顔201をタッチしようとするときには触れないと想定される領域まで拡大している分、誤ったタッチ操作の可能性は反応領域205bよりも反応領域205aの方が若干低いと考えられる。 However, amount that the reaction region 205b has expanded to a region that is assumed to not touch when trying to touch the face 201, false the possibility of touching the slightly lower reaction zone 205a than the reaction region 205b Conceivable.

次に図3を参照して、図2の画面表示を実現するCPU104による表示制御処理について説明する。 Referring now to FIG. 3, the display control process will be described by CPU104 for implementing the screen display of FIG.

なお、図3の処理を行うためのプログラムはプログラム・データ記憶部108に収められており、CPU104が適宜読み出して実行する。 A program for performing the processing in FIG. 3 is housed in the program data storage unit 108, CPU 104 reads and executes appropriate. プログラムの実行時は一時記憶部107はワークメモリとして利用される。 During the execution of the program temporary storage unit 107 is used as a work memory.

図3(a)において、ステップ301では、CPU104は表示制御部109を通じて、タイムコード208およびバッテリー残量209の表示を更新する。 3 (a), the step 301, CPU 104, through the display control unit 109 updates the display of the time code 208 and the remaining battery level 209.

ステップS302では、CPU104は、映像処理部103から顔検出処理結果を取得し、映像中に顔が存在するか判定する。 In step S302, CPU 104 determines whether to acquire the face detection processing result from the image processing unit 103, there is a face in the video. 顔が存在しないときはステップS301に戻る。 If a face can not exist returns to step S301. 顔検出方法については、例えば特開2005−318554号公報に詳述されているが、本発明は顔検出方法には依存しない。 The face detection method, for example, are described in detail in JP 2005-318554, the present invention does not depend on the face detection method.

ステップS302にて、顔が存在しないと判定された場合にはステップS301に戻り、顔が存在すると判定された場合には、ステップS303に移行する。 In step S302, it returns to step S301 when it is determined that no face exists, if it is determined that a face exists, the process proceeds to step S303.

ステップS303では、CPU104は、映像処理部103により検出された顔ごとに移動速度または動きベクトルを算出する。 In step S303, CPU 104 calculates the moving speed or the motion vector for each face detected by the image processing unit 103. 移動速度または動きベクトルのいずれも、現在の顔の位置座標と直前の顔の位置座標との差、すなわち変化方向と距離の時間変化から計算することができる。 Any of the moving speed or motion vectors may be calculated difference, that is, from the time variation of the change direction and distance between the position coordinates of the position coordinates and the previous face current face.

ステップS304では、CPU104は、ステップS303で算出した顔の移動速度または動きベクトルに応じて、それぞれの顔の反応領域を設定する。 In step S304, CPU 104, in accordance with the moving speed or the motion vector of the calculated face in step S303, sets the reaction region of each face. ここで反応領域の拡大・移動はアフィン変換によって実現することができる。 Here expansion and movement of the reaction zone can be achieved by affine transformation. 図2の例では、反応領域は矩形であるので、対角の2点の座標によって表すことができる。 In the example of FIG. 2, the reaction zone since it is rectangular, can be represented by two points coordinates of the diagonal. ある2つの頂点(x1,y1)(x2,y2)のアフィン写像(x1a,y1a)(x2a,y2a)は、図3(c)の式で表される。 There two vertices (x1, y1) affine transformation of (x2, y2) (x1a, y1a) (x2a, y2a) is expressed by the FIG. 3 (c). ただし、本発明は矩形の反応領域に限定されるものではなく、多角形や円形の反応領域であってもよい。 However, the present invention is not limited to the rectangular reaction area, it may be polygonal or circular reaction area.

ステップS305では、CPU104は、タッチパネル111に対するユーザのタッチ操作による顔の選択を受け付ける処理を行う。 In step S305, CPU 104 performs a process of accepting a selection of a face by touching the user on the touch panel 111. この顔選択処理の詳細は図3(b)で後述する。 Details of the face selection process will be described later in FIG. 3 (b).

ステップS306では、CPU104は、ステップS305もしくはそれ以前の処理によって顔が選択されているか判定する。 In step S306, CPU 104 determines whether a face has been selected at step S305 or before processing. ステップS306で顔が選択されていた場合には、ステップS307に移行し、CPU104は、表示制御部109を通じて、選択された顔に線の太い主顔枠を、その他の選択されていない顔に線の細い非主顔枠をそれぞれ表示する。 If the face has been selected at step S306, the process proceeds to step S307, CPU 104, through the display control unit 109, a thick main face frame of linear to the selected face, a line on the face that is not other selection to display thin non-main face frame, respectively.

ステップS308では、CPU104は映像処理部103を通じて、選択された顔が最適な撮影結果になるように、フォーカス、露出、ホワイトバランス、およびズームなどを制御する。 In step S308, CPU 104, through the video processing unit 103, so that the selected face becomes optimum shooting results, focus, exposure, and controls the white balance, and zoom.

一方、ステップS306で顔が選択されていない場合には、ステップS309に移行し、CPU104は表示制御部109を通じて、すべての顔に線の細い非主顔枠をそれそれ表示する。 On the other hand, if the face is not selected in step S306, the process proceeds to step S309, CPU 104, through the display control unit 109, all faces in the narrow end of the line non-main face frame to which it displays.

<顔選択処理(S305)>続いて、図3(b)を参照して、図3(a)のステップS305における顔選択処理について説明する。 <Face selection process (S305)> Next, with reference to FIG. 3 (b), illustrating the face selection process at step S305 of FIG. 3 (a).

図3(b)において、ステップS311では、CPU104は、タッチパネル111への入力を判定し、タッチされていない場合には本処理を終了し、タッチされた場合には、ステップS312に移行し、タッチ位置の座標情報を取得する。 3 (b), the step S311, the CPU 104, determines the input to the touch panel 111, and ends this processing if not touched, when it is touched, the process proceeds to step S312, the touch acquires coordinate information of the position.

ステップS313では、CPU104は、ステップS312で取得したタッチ位置が顔の反応領域内であるか判定し、反応領域外の場合には本処理を終了し、顔の反応領域内である場合には、ステップS314に移行する。 In step S313, CPU 104, when the touch position acquired in step S312, it is determined whether the reaction zone of the face, when the outside of the reaction region may terminate this process, a reaction area of ​​the face, the process proceeds to step S314.

ステップS314では、CPU104は表示制御部109を通じて、タッチされた顔を選択状態に設定し、その他の顔を非選択状態に設定する。 In step S314, CPU 104, through the display control unit 109 sets the touched face selected, set other face to a non-selected state.

なお、タッチ位置が複数の顔の反応領域に合致する場合には、予め決められた所定の規則にしたがって優先的に選択する顔を設定する。 In the case where the touch position matches the reaction zone of the plurality of faces, it sets a face to be preferentially selected according to a predetermined given rule. 例えば、顔の移動によって拡大した反応領域と、別の静止した顔の反応領域とが重なっている領域がタッチされた場合は、本来の反応領域である後者の顔を選択状態に設定する。 For example, if the reaction zone is enlarged by the movement of the face, the region where the reaction zone overlaps another stationary face is touched, setting the latter faces is an original reaction region selected. 相対的に速い速度で移動している顔と遅い速度で移動している顔の、本来の反応領域同士が重なっている場合は、速度の速い顔を優先して選択状態に設定する。 Face moving at face and slow speed moving at a relatively fast rate, when overlapping the inherent reaction between regions, setting the fast face speeds in the selected state with priority. ただし、本発明は上記所定の規則の例に限られず、別の規則にしたがって反応領域の優先順位を決定してもよい。 However, the present invention is not limited to the above-mentioned predetermined rule may determine the priority of the reaction zone in accordance with another rule.

[実施形態2]次に、実施形態2について説明する。 [Embodiment 2] Next, Embodiment 2 will be described.

実施形態1は、カメラが撮影モードのときの動作であったのに対して、実施形態2は、カメラが再生モードのときの動作について説明する。 Embodiment 1 is that the camera is an operation when the photography mode, the second embodiment, the camera will be described operation when the playback mode. ただし、本実施形態では撮影機能は使用しないため、携帯電話やPC、あるいはポータブルメディアプレーヤなどの画像再生機器にも同様に本発明を適用可能である。 However, in the present embodiment for capturing function is not used, it can be applied to mobile phones and PC or the invention as well to an image reproducing device such as a portable media player.

なお、本実施形態のカメラの構成は、図1と同様であるので説明は省略する。 The camera structure of the present embodiment, description is similar to FIG. 1 will be omitted.

以下、本実施形態のカメラによる再生モードでの表示制御処理について説明する。 Hereinafter, a description will be given of a display control process in the playback mode according to the camera of this embodiment.

図4(a)は、カメラの再生モード時にLCDパネル110に表示される画面を例示している。 FIGS. 4 (a) illustrates a screen displayed on the LCD panel 110 to the playback mode of the camera. なお、破線404、405、406および矢印407は説明の便宜のために示したもので、実際にはLCDパネル110に表示されなくてもよい。 The broken line 404, 405, 406 and arrows 407 than that shown for convenience of explanation, actually may not be displayed on the LCD panel 110.

図4(a)において、画像401、402、403はいずれも動画記憶部106に記憶されているシーンのサムネイル画像データである。 4 (a), the image 401 is a thumbnail image data of the scene stored in the moving picture storage unit 106 either. これらは画面上の横方向に並べて表示されており、ユーザが画面上で右から左あるいは左から右へフリック操作することにより、サムネイル画像を滑らかにスクロールさせて順次切り替えることができる。 These are displayed side by side in the horizontal direction on the screen, when the user flicks from the left or from right to left on the screen to the right, can be switched sequentially by smooth scrolling the thumbnail images. 本実施形態ではサムネイル画像は動画シーンを表しているが、静止画を表すものであったり、動画もしくは静止画を表すサムネイル画像が混在している状態であってもよい。 Thumbnail image in the present embodiment represents a moving scene, but or a representative of a still image may be a state in which a thumbnail image representing the moving image or still image are mixed.

破線404、405、406はそれぞれサムネイル画像401、402、403に対してタッチパネル111のタッチによる選択を受け付ける反応領域を示している。 Dashed line 404, 405 and 406 indicates a reaction zone for receiving a selection by touching the touch panel 111 with respect to the thumbnail images 401, 402 and 403, respectively. 反応領域内がタッチされると、該当するサムネイル画像のシーンが再生される。 When the reaction area is touched, the scene of the corresponding thumbnail image is reproduced.

図4(b)は、図4(a)の状態から矢印407の方向へフリックしたときの画面を例示している。 FIG. 4 (b) illustrate the screen when the flick from the state shown in FIG. 4 (a) in the direction of arrow 407. サムネイル画像401、402、403はそれぞれ指の移動方向に合わせて画面が左から右へスクロール表示される。 Thumbnail image 401, 402, 403 is according to the movement direction of the finger screens are respectively scrolled from left to right.

このとき、反応領域404、405、406はそれぞれの対応するサムネイル画像の動きにぴったり追従した状態で移動するのではなく、サムネイル画像の動きに対して少し遅れて移動する。 At this time, the reaction region 404, 405 and 406 instead of moving in a state of perfect follow the movement of the respective corresponding thumbnail image, moves with a slight delay to the movement of the thumbnail images. このようにすることで、スクロール表示中にユーザが再生しようとするサムネイル画像をタッチする際に、タッチ操作がサムネイル画像のスクロールの動きに遅れていたとしても、所望のシーンのサムネイル画像を選択して再生を行うことができる。 In this way, when the user during scrolling display touches a thumbnail image to be reproduced, even as a touch operation has been delayed to the movement of the scroll of the thumbnail images, and select a thumbnail image of the desired scene it is possible to reproduce Te.

次に図5を参照して、図4の画面表示を実現するCPU104による表示制御処理について説明する。 Referring now to FIG. 5, the display control process will be described by CPU104 to realize screen display in FIG.

なお、図5の処理を行うためのプログラムはプログラム・データ記憶部108に収められており、CPU104が適宜読み出して実行する。 A program for performing the process of FIG. 5 is housed in the program data storage unit 108, CPU 104 reads and executes appropriate. プログラムの実行時は一時記憶部107はワークメモリとして利用される。 During the execution of the program temporary storage unit 107 is used as a work memory.

図5において、ステップS501では、CPU104は映像処理部103を通じて、ユーザのフリック操作に応じて画面上に表示されるサムネイル画像を更新する。 5, in step S501, CPU 104, through the video processing unit 103, and updates the thumbnail images displayed on the screen according to the user's flick operation. サムネイル画像データは動画記憶部106から直接読み出しできる形式でもよいし、動画記憶部106から読み出し、エンコーダ・デコーダ部105でデコードした映像データから生成したものであってもよい。 Thumbnail image data may be in a format that can be read directly from the moving picture storage unit 106, it reads from the moving picture storage unit 106, or may be generated from the video data decoded by encoder-decoder 105. サムネイル画像は更新ごとに生成してもよいが、生成したサムネイル画像を一時記憶部107にバッファリングして利用する方が処理負荷を軽減できる。 Thumbnail image may be generated for each update, but better to use generated by buffering in the temporary storage unit 107 the thumbnail image processing load can be reduced.

ステップS502では、CPU104は、サムネイル画像の動きベクトルを算出する。 In step S502, CPU 104 calculates the motion vector of the thumbnail images. 動きベクトルは、現在のサムネイル画像の位置座標と直前のサムネイル画像の位置座標との差、すなわち変化方向と距離の時間変化から計算することができる。 Motion vector can be calculated the difference between the position coordinates of the position coordinates and the previous thumbnail image of the current thumbnail image, i.e. from the time variation of the change direction and distance. ところで、図4の画面ではサムネイル画像が横方向にのみスクロールすることは自明なので、単純に移動速度のみを計算して動きベクトルに代えることも可能である。 Incidentally, since the screen of FIG. 4 is a self-evident to scroll the thumbnail images only in the horizontal direction, it is possible to replace simply only the moving speed calculated in the motion vector.

ステップS503では、CPU104は、ステップS502で算出したサムネイル画像の動きベクトルに応じて、サムネイル画像ごとの反応領域を設定する。 In step S503, CPU 104, in response to the motion vector of the calculated thumbnail image in step S502, sets the reaction region of each thumbnail image. 反応領域の移動は実施形態1と同様のアフィン変換で実現できる。 Movement of the reaction zone can be realized in the same affine transformation to the first embodiment.

ステップ304では、CPU104は、ユーザのタッチ操作によってシーンを選択する処理を行う。 In step 304, CPU 104 performs a process of selecting a scene by a touch operation of the user. ここでの処理は実施形態1のステップS305および図3(b)の顔選択処理と同様である。 This process is the same as the face selection processing in step S305 and Figure 3 embodiments 1 (b).

ステップS505では、CPU104は、ステップS504にてシーンが選択されたか判定し、シーンが選択された場合には、ステップS506に移行する。 In step S505, CPU 104 determines whether the scene has been selected at step S504, if the scene has been selected, the process proceeds to step S506.

ステップS506では、CPU104は、選択されたシーンの再生処理を開始する。 In step S506, CPU 104 starts reproduction processing of the selected scene. この再生処理では、動画記憶部106から読み出した映像データをエンコーダ・デコーダ部105でデコードし、必要に応じて映像処理部103で加工した上で表示制御部109に順次出力することによって、LCDパネル110に動画として表示される。 In this reproduction process, by the image data read out from the moving picture storage unit 106 and decoded by the encoder-decoder unit 105, and sequentially outputs to the display control unit 109 on which is processed by the video processing unit 103 as needed, LCD panel 110 is displayed as a moving image on.

一方、ステップS505でシーンが選択されない場合には、ステップS507に移行し、CPU104はフリック判定を行い、次のサムネイル画像の位置座標が計算される。 Meanwhile, the scene in step S505 is if not selected, the process proceeds to step S507, CPU 104 performs a flick determination, the position coordinates of the next thumbnail image is calculated. フリック判定方法については、例えば特開2006−85703号公報に記載されている。 For flick determination method is described in, for example, JP 2006-85703.

なお、CPU104の制御は1つのハードウェアが行ってもよいし、複数のハードウェアが処理を分担することで、装置全体の制御を行ってもよい。 Incidentally, the control of the CPU104 may be performed by one hardware, by a plurality of hardware sharing the processing, it may control the entire apparatus.

また、上述した各実施形態においては、本発明をデジタルビデオカメラに適用した例を説明したが、これは一例にすぎず、オブジェクトに対応する位置座標を指定することにより選択可能な情報処理装置であれば適用可能である。 Further, in the embodiments described above, the present invention has been described an example of application to a digital video camera, this is but one example, the selected information processing apparatus capable by specifying the position coordinates corresponding to the object It can be applied, if any. すなわち、本発明はパーソナルコンピュータやPDA、携帯電話端末や携帯型の画像ビューワ、ディスプレイを備えるプリンタ装置、デジタルフォトフレーム、音楽プレーヤー、ゲーム機、電子ブックリーダーなどに適用可能である。 That is, the present invention is a personal computer, a PDA, a mobile phone terminal, a portable image viewer, a printer apparatus including a display, a digital photo frame, a music player, a game machine, it is applicable, such as an electronic book reader. 例えば、ゲーム機において表示されたキャラクタ(オブジェクト)が移動している場合に、これをタッチ操作や他のポインティング操作(マウスによるクリックや、ポインタによるポインタ操作)によって選択する場合にも、本発明を適用できる。 For example, if it is displayed in the game machine character (object) is moving, which (click or by mouse, pointer operation by the pointer) touch operation or other pointing operation even in the case of selecting by the present invention It can be applied.

[他の実施形態]本発明は、以下の処理を実行することによっても実現される。 Other Embodiments The present invention can also be realized by a computer of a system or apparatus. 即ち、上記実施形態の機能を実現するソフトウェア(プログラム)をネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(又はCPUやMPU等)がプログラムコードを読み出して実行する処理である。 That is, software that realizes the functions of the above embodiments (program) via a network or various storage medium to a system or an apparatus, a computer of the system or apparatus (or CPU or MPU) reads the program code execution it is a process for. この場合、そのプログラム、及び該プログラムを記憶した記憶媒体は本発明を構成することになる。 In this case, the program and the storage medium storing the program constitutes the present invention.

Claims (11)

  1. 表示手段に表示オブジェクトを表示するように制御する表示制御手段と、 Display control means for controlling to display the display object on the display means,
    前記表示手段に対するタッチ入力を検出するタッチ検出手段と、 And touch detection means for detecting a touch input to said display means,
    前記表示制御手段によって画面上に表示された表示オブジェクト毎に、前記画面上での表示オブジェクトの移動速度が速い場合のほうが遅い場合よりも、当該表示オブジェクトに対する選択を受け付けるためのタッチ入力の反応領域を広く設定する設定手段と、 Wherein the display control each display object displayed on the screen by means, than if more is slow when the moving speed of the display object in the screen is high, the reaction area of ​​the touch input for accepting a selection for the display object and widely setting means for setting a,
    前記タッチ検出手段によって検出されたタッチ入力の位置が前記反応領域内である場合に、当該反応領域に対応する表示オブジェクトを選択する選択手段と、を有し、 If the detected position of the touch input by the touch detecting means is within the reaction region comprises a selection means for selecting a display object corresponding to the reaction regions, and
    前記タッチ検出手段によって検出されたタッチ入力の位置が、前記設定手段によって広く設定される移動する表示オブジェクトの反応領域と、静止している他の表示オブジェクトの反応領域とが重なる位置であった場合には、前記表示制御手段は、他の表示オブジェクトを選択するように前記選択手段を制御することを特徴とする情報処理装置。 If the position of the touch detecting means detected by the touch input is a reaction area of the display object to be moved is set to be wide by the setting means, and a position where the reaction region overlaps the other display objects that are stationary , said display control means, the information processing apparatus, characterized by controlling said selection means to select another display object.
  2. 表示手段に表示オブジェクトを表示するように制御する表示制御手段と、 Display control means for controlling to display the display object on the display means,
    前記表示手段に対するタッチ入力を検出するタッチ検出手段と、 And touch detection means for detecting a touch input to said display means,
    前記表示制御手段によって画面上に表示された表示オブジェクト毎に、前記画面上での表示オブジェクトの移動速度が速い場合のほうが遅い場合よりも、当該表示オブジェクトに対する選択を受け付けるためのタッチ入力の反応領域を広く設定する設定手段と、 Wherein the display control each display object displayed on the screen by means, than if more is slow when the moving speed of the display object in the screen is high, the reaction area of the touch input for accepting a selection for the display object and widely setting means for setting a,
    前記タッチ検出手段によって検出されたタッチ入力の位置が前記反応領域内である場合に、当該反応領域に対応する表示オブジェクトを選択する選択手段と、を有し、 If the detected position of the touch input by the touch detecting means is within the reaction region comprises a selection means for selecting a display object corresponding to the reaction regions, and
    前記タッチ検出手段によって検出されたタッチ入力の位置が、移動する第1の表示オブジェクトに対する前記設定手段による拡張前の反応領域と、前記第1の表示オブジェクトよりも遅く移動する第2の表示オブジェクトに対する前記設定手段による拡張前の反応領域とが重なる位置であった場合には、前記表示制御手段は、前記第1の表示オブジェクトを選択するように前記選択手段を制御することを特徴とする情報処理装置。 The detected position of the touch input by the touch detection means, for the first and the reaction area before expansion by said setting means with respect to the display object, a second display object moving slower than the first display object moving information wherein when the reaction area before extension by setting means is a position overlapping, the display control means, characterized by controlling said selection means to select the first display object apparatus.
  3. 前記設定手段は、前記画面上での表示オブジェクトの移動速度が速い場合のほうが遅い場合よりも、前記反応領域を前記表示オブジェクトの移動方向と逆側に広げて設定することを特徴とする請求項1 または2に記載の情報処理装置。 The setting means, the claims should of when the moving speed of the display object in the screen is faster than if slow, and sets the reaction region spread in a direction of movement opposite side of said display object the information processing apparatus according to 1 or 2.
  4. 被写体像を撮像する撮像手段と、 Imaging means for imaging an object image,
    前記撮像手段により撮像された画像から特定の被写体を検出する被写体検出手段とを更に有し、 Further comprising a subject detecting means for detecting a specific object from an image captured by the imaging means,
    前記表示オブジェクトは、前記撮像手段で撮像された画像に重畳して表示される、前記被写体検出手段で検出された被写体の位置を示す表示オブジェクトであることを特徴とする請求項1 乃至3のいずれか1項に記載の情報処理装置。 The display object, the are displayed superimposed on the image captured by the image pickup means, any of claims 1 to 3, wherein the a display object indicating a position of the detected object by the object detecting means or information processing apparatus according to (1).
  5. 前記特定の被写体は人物の顔であり、前記被写体の位置を示す表示オブジェクトは前記被写体検出手段で検出された顔の位置を示す枠であることを特徴とする請求項に記載の情報処理装置。 The specific subject is a person's face, the display object indicating a position of the subject information processing apparatus according to claim 4, characterized in that the frame indicating the position of said detected by the object detection unit face .
  6. 前記表示制御手段は、複数の表示オブジェクトのうち選択された表示オブジェクトを、選択されていない表示オブジェクトに比べて太く表示するように制御することを特徴とする請求項1乃至のいずれか1項に記載の情報処理装置。 It said display control means, a display object selected among the plurality of display objects, any one of claims 1 to 5, wherein the controller controls so thick display than the display objects that are not selected the information processing apparatus according to.
  7. 記録手段に記録された複数の画像をスクロール表示するように制御するスクロール表示手段を更に有し、 A plurality of images recorded in the recording means further comprises a scrolling display means for controlling so as to scroll a
    前記表示オブジェクトは、前記スクロール表示される複数の画像のそれぞれであることを特徴とする請求項1乃至のいずれか1項に記載の情報処理装置。 The display object, the information processing apparatus according to any one of claims 1 to 6, characterized in that a plurality of images that are the scroll display.
  8. 表示手段に表示オブジェクトを表示するように制御する表示制御手段と、前記表示手段に対するタッチ入力を検出するタッチ検出手段とを有する情報処理装置の制御方法であって、 A method for controlling an information processing apparatus having a display control means for controlling to display the display object on the display unit, and a touch detection means for detecting a touch input to said display means,
    前記表示制御手段によって画面上に表示された表示オブジェクト毎に、前記画面上での表示オブジェクトの移動速度が速い場合のほうが遅い場合よりも、当該表示オブジェクトに対する選択を受け付けるためのタッチ入力の反応領域を広く設定する設定工程と、 Wherein the display control each display object displayed on the screen by means, than if more is slow when the moving speed of the display object in the screen is high, the reaction area of ​​the touch input for accepting a selection for the display object a setting step of the wide setting,
    前記タッチ検出手段によって検出されたタッチ入力の位置が前記反応領域内である場合に、当該反応領域に対応する表示オブジェクトを選択する選択工程と、を有し、 If the detected position of the touch input by the touch detecting means is within the reaction region includes a selection step of selecting a display object corresponding to the reaction regions, and
    前記タッチ検出手段によって検出されたタッチ入力の位置が、前記設定工程によって広く設定される移動する表示オブジェクトの反応領域と、静止している他の表示オブジェクトの反応領域とが重なる位置であった場合には、前記表示制御手段は、前記選択工程において他の表示オブジェクトを選択するように制御することを特徴とする制御方法。 If the position of the touch detecting means detected by the touch input is a reaction area of the display object to be moved is set to be wide by the setting step, a position where the reaction region overlaps the other display objects that are stationary , said display control means, control method and controls to select the other display objects in the selection step.
  9. 表示手段に表示オブジェクトを表示するように制御する表示制御手段と、前記表示手段に対するタッチ入力を検出するタッチ検出手段とを有する情報処理装置の制御方法であって、 A method for controlling an information processing apparatus having a display control means for controlling to display the display object on the display unit, and a touch detection means for detecting a touch input to said display means,
    前記表示制御手段によって画面上に表示された表示オブジェクト毎に、前記画面上での表示オブジェクトの移動速度が速い場合のほうが遅い場合よりも、当該表示オブジェクトに対する選択を受け付けるためのタッチ入力の反応領域を広く設定する設定工程と、 Wherein the display control each display object displayed on the screen by means, than if more is slow when the moving speed of the display object in the screen is high, the reaction area of the touch input for accepting a selection for the display object a setting step of the wide setting,
    前記タッチ検出手段によって検出されたタッチ入力の位置が前記反応領域内である場合に、当該反応領域に対応する表示オブジェクトを選択する選択工程と、を有し、 If the detected position of the touch input by the touch detecting means is within the reaction region includes a selection step of selecting a display object corresponding to the reaction regions, and
    前記タッチ検出手段によって検出されたタッチ入力の位置が、移動する第1の表示オブジェクトに対する前記設定工程による拡張前の反応領域と、前記第1の表示オブジェクトよりも遅く移動する第2の表示オブジェクトに対する前記設定工程による拡張前の反応領域とが重なる位置であった場合には、前記表示制御手段は、前記選択工程において前記第1の表示オブジェクトを選択するように制御することを特徴とする制御方法。 The detected position of the touch input by the touch detection means, for the first and the reaction area before expansion by said setting step with respect to the display object, a second display object moving slower than the first display object moving the method wherein when the reaction area before extension by setting step is at a position overlapping, the display control means, characterized in that the control to select the first display object in said selection step .
  10. コンピュータを、請求項1乃至のいずれか1項に記載の情報処理装置の各手段として機能させるためのプログラム。 Program for causing a computer to function as each unit of the information processing apparatus according to any one of claims 1 to 7.
  11. コンピュータを、請求項1乃至のいずれか1項に記載の情報処理装置の各手段として機能させるためのプログラムを記憶したコンピュータによる読み取りが可能な記憶媒体。 Computer, claims 1 to 7 any one to read a storage medium according to the stored computer program to function as each unit of the information processing apparatus according to.
JP2011082187A 2011-04-01 2011-04-01 The information processing apparatus and a control method thereof, a program, and storage medium Active JP5220157B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011082187A JP5220157B2 (en) 2011-04-01 2011-04-01 The information processing apparatus and a control method thereof, a program, and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011082187A JP5220157B2 (en) 2011-04-01 2011-04-01 The information processing apparatus and a control method thereof, a program, and storage medium

Publications (2)

Publication Number Publication Date
JP2012217101A true JP2012217101A (en) 2012-11-08
JP5220157B2 true JP5220157B2 (en) 2013-06-26

Family

ID=47269443

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011082187A Active JP5220157B2 (en) 2011-04-01 2011-04-01 The information processing apparatus and a control method thereof, a program, and storage medium

Country Status (1)

Country Link
JP (1) JP5220157B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6244712B2 (en) * 2013-07-23 2017-12-13 富士通株式会社 Image processing apparatus, image processing method and image processing program
JP2016126383A (en) * 2014-12-26 2016-07-11 三菱電機株式会社 Touch area setting method and a touch area setting device

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4873729B2 (en) * 2007-04-06 2012-02-08 キヤノン株式会社 Optical instruments
JP4453721B2 (en) * 2007-06-13 2010-04-21 ソニー株式会社 Image capturing apparatus and an image capturing method, and computer program
US8134597B2 (en) * 2008-12-05 2012-03-13 Sony Ericsson Mobile Communications Ab Camera system with touch focus and method
JP5581628B2 (en) * 2009-08-05 2014-09-03 ソニー株式会社 Display control device, display control method and a display control program

Also Published As

Publication number Publication date Type
JP2012217101A (en) 2012-11-08 application

Similar Documents

Publication Publication Date Title
US20100188352A1 (en) Information processing apparatus, information processing method, and program
US20120281129A1 (en) Camera control
US20090073132A1 (en) Method for providing gui and multimedia device using the same
US20090146968A1 (en) Input device, display device, input method, display method, and program
US20150172534A1 (en) Electronic camera, image display device, and storage medium storing image display program
US20130038726A1 (en) Electronic apparatus and method for providing stereo sound
US8068121B2 (en) Manipulation of graphical objects on a display or a proxy device
US20110154249A1 (en) Mobile device and related control method for external output depending on user interaction based on image sensing module
US20110148789A1 (en) Mobile device having projector module and method for operating the same
JP2010271774A (en) Information processing apparatus, image magnification/reduction method, and program thereof
KR20090106755A (en) Method, Terminal for providing memo recording function and computer readable record-medium on which program for executing method thereof
JP2012123564A (en) Information processing program, information processor, information processing system and information processing method
US20120176401A1 (en) Gesture Mapping for Image Filter Input Parameters
US20110013049A1 (en) Using a touch sensitive display to control magnification and capture of digital images by an electronic device
US20110063491A1 (en) Digital photographing apparatus and method of controlling the same
US20090066730A1 (en) Image display control apparatus and image display control method
US20100058254A1 (en) Information Processing Apparatus and Information Processing Method
JP2007264808A (en) Display input device and imaging apparatus
US20110019239A1 (en) Image Reproducing Apparatus And Image Sensing Apparatus
US20120105484A1 (en) Responding to the receipt of zoom commands
CN101626429A (en) Mobile terminal and method of controlling a mobile terminal
US20090303373A1 (en) Image processing apparatus and image processing method
US20110157047A1 (en) Information processing apparatus and control method therefor
US20100026719A1 (en) Information processing apparatus, method, and program
US20140226052A1 (en) Method and mobile terminal apparatus for displaying specialized visual guides for photography

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20121130

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130115

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130204

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130305

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160315

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160315

Year of fee payment: 3