JP6139068B2 - Apparatus and method - Google Patents

Apparatus and method Download PDF

Info

Publication number
JP6139068B2
JP6139068B2 JP2012143134A JP2012143134A JP6139068B2 JP 6139068 B2 JP6139068 B2 JP 6139068B2 JP 2012143134 A JP2012143134 A JP 2012143134A JP 2012143134 A JP2012143134 A JP 2012143134A JP 6139068 B2 JP6139068 B2 JP 6139068B2
Authority
JP
Japan
Prior art keywords
controller
touch screen
screen display
gesture
smartphone
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2012143134A
Other languages
Japanese (ja)
Other versions
JP2014006800A (en
Inventor
文男 大上
文男 大上
次郎 木原
次郎 木原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kyocera Corp
Original Assignee
Kyocera Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kyocera Corp filed Critical Kyocera Corp
Priority to JP2012143134A priority Critical patent/JP6139068B2/en
Publication of JP2014006800A publication Critical patent/JP2014006800A/en
Application granted granted Critical
Publication of JP6139068B2 publication Critical patent/JP6139068B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、装置、方法及びプログラムに関する。特に、本発明は、タッチスクリーンディスプレイを有する装置及びその装置を制御する方法に関する。   The present invention relates to an apparatus, a method, and a program. In particular, the present invention relates to a device having a touch screen display and a method for controlling the device.

タッチスクリーンディスプレイを備える装置が知られている。タッチスクリーンディスプレイを備える装置には、例えば、スマートフォン及びタブレットが含まれる。タッチスクリーンディスプレイを備える装置は、タッチスクリーンディスプレイを介して指又はスタイラスペンのジェスチャを検出する。そして、タッチスクリーンディスプレイを備える装置は、検出したジェスチャに従って動作する。検出したジェスチャに従った動作の例は、例えば、特許文献1に記載されている。   Devices with touch screen displays are known. Devices that include a touch screen display include, for example, smartphones and tablets. A device with a touch screen display detects a finger or stylus pen gesture via the touch screen display. The device including the touch screen display operates according to the detected gesture. An example of the operation according to the detected gesture is described in Patent Document 1, for example.

タッチスクリーンディスプレイを備える装置の基本的な動作は、装置に搭載されるAndroid(登録商標)、BlackBerry(登録商標) OS、Symbian(登録商標) OS、iOS、Windows(登録商標) Phone等のOS(Operating System)によって実現される。   A basic operation of a device including a touch screen display is based on an OS (such as Android (registered trademark), BlackBerry (registered trademark) OS, Symbian (registered trademark) OS, iOS, Windows (registered trademark) Phone installed in the device. (Operating System).

国際公開第2008/086302号International Publication No. 2008/086302

ところで、この装置は、カメラを備えており、タッチスクリーンディスプレイをタッチするジェスチャを検出すると撮像を行う。ユーザは、撮像を行う場合に装置の側面を把持する。これに対して、撮像時には、タッチスクリーンディスプレイをタッチスクリーンディスプレイに対して垂直方向に押し込むことでタッチをするため、装置がタッチスクリーンディスプレイに対して垂直方向にブレやすくなる。その結果、撮像された画像がブレの影響を受けるおそれがある。   By the way, this apparatus is provided with a camera, and performs imaging when a gesture for touching a touch screen display is detected. The user grips the side surface of the apparatus when taking an image. On the other hand, at the time of imaging, since the touch is made by pushing the touch screen display in the vertical direction with respect to the touch screen display, the device is easily shaken in the vertical direction with respect to the touch screen display. As a result, the captured image may be affected by blurring.

本発明は、撮像する際のブレの発生を低減することができる装置及び方法を提供することを目的とする。   An object of the present invention is to provide an apparatus and a method that can reduce the occurrence of blurring during imaging.

本発明に係る装置は、撮像部と、タッチスクリーンディスプレイと、前記タッチスクリーンディスプレイに対して接触物が接触したままで移動するジェスチャを検出すると、前記撮像部に撮像を行わせるコントローラと、を備える。   An apparatus according to the present invention includes an imaging unit, a touch screen display, and a controller that causes the imaging unit to perform imaging when a gesture that moves while a contact object is in contact with the touch screen display is detected. .

また、本発明に係る装置では、前記コントローラは、前記タッチスクリーンディスプレイに対して前記接触物が接触したままで所定量移動するジェスチャを検出すると、前記撮像部に撮像を行わせることが好ましい。   In the apparatus according to the present invention, it is preferable that the controller causes the imaging unit to perform imaging when detecting a gesture that moves a predetermined amount while the contact object is in contact with the touch screen display.

また、本発明に係る装置では、前記コントローラは、前記タッチスクリーンディスプレイに対して前記接触物が接触したままで移動するジェスチャを検出すると、前記撮像部に連続的に撮像を行わせることが好ましい。   In the apparatus according to the present invention, it is preferable that the controller causes the imaging unit to continuously perform imaging when detecting a gesture that moves while the contact object is in contact with the touch screen display.

また、本発明に係る装置では、前記コントローラは、前記撮像部により連続的に撮像が行われている場合に、前記タッチスクリーンディスプレイに対する前記接触物の接触を検出しなくなったとき、前記連続的な撮像を終了させることが好ましい。   In the apparatus according to the present invention, the controller may detect the continuous contact when the contact of the contact object with the touch screen display is not detected when the imaging unit continuously performs imaging. It is preferable to end the imaging.

また、本発明に係る装置では、前記コントローラは、前記撮像部による連続的な撮像が終了すると、当該連続的な撮像のうち、最初の撮像によって取得された画像データを記憶することが好ましい。   In the apparatus according to the present invention, it is preferable that the controller stores the image data acquired by the first imaging among the continuous imaging when the continuous imaging by the imaging unit is completed.

また、本発明に係る装置では前記コントローラは、前記撮像部による連続的な撮像によって取得された画像データを記憶し、前記タッチスクリーンディスプレイに対する前記接触物が接触したままで所定量移動するジェスチャを検出することなく、前記タッチスクリーンディスプレイに対する前記接触物の接触を検出しなくなったとき、前記撮像部による連続的な撮像によって記憶された前記画像データを消去することが好ましい。   In the apparatus according to the present invention, the controller stores image data acquired by continuous imaging by the imaging unit, and detects a gesture that moves a predetermined amount while the contact object is in contact with the touch screen display. Without this, when the contact of the contact object with the touch screen display is no longer detected, it is preferable to delete the image data stored by continuous imaging by the imaging unit.

また、本発明に係る装置は、前記タッチスクリーンディスプレイは略長方形であり、前記コントローラは、前記タッチスクリーンディスプレイに対して前記接触物が接触したままで移動するジェスチャのうち、前記タッチスクリーンディスプレイの長手方向又は短手方向に沿って前記接触物が移動するジェスチャ、若しくは、前記接触物が弧を描くジェスチャを検出すると、前記撮像部に撮像を行わせることが好ましい。   In the apparatus according to the present invention, the touch screen display has a substantially rectangular shape, and the controller has a length of the touch screen display among gestures that move while the contact object is in contact with the touch screen display. When the gesture in which the contact object moves in the direction or the short direction or the gesture in which the contact object draws an arc is detected, it is preferable to cause the imaging unit to perform imaging.

また、本発明に係る装置は、前記タッチスクリーンディスプレイは略長方形であり、前記コントローラは、前記タッチスクリーンディスプレイの4辺の少なくともいずれかの辺に沿うようにガイドを表示させ、前記ガイドに対応する前記タッチスクリーンディスプレイ上の領域を前記接触物が接触しながら移動するジェスチャを検出すると、前記撮像部に撮像を行わせることが好ましい。   In the device according to the present invention, the touch screen display is substantially rectangular, and the controller displays a guide along at least one of the four sides of the touch screen display, and corresponds to the guide. It is preferable that when the gesture that moves while the contact object is in contact with the area on the touch screen display is detected, the imaging unit performs imaging.

本発明に係る方法は、撮像部と、タッチスクリーンディスプレイとを備えた装置が行う方法であって、前記タッチスクリーンディスプレイに対して接触物が接触したままで移動するジェスチャを検出するステップと、前記検出するステップにおいて前記接触物が接触したままで移動するジェスチャを検出すると、前記撮像部に撮像を行わせるステップと、を含む。   The method according to the present invention is a method performed by an apparatus including an imaging unit and a touch screen display, the step of detecting a gesture that moves while a contact object is in contact with the touch screen display, And detecting the gesture that moves while the contacted object is in contact in the detecting step.

本発明に係る装置は、撮像部と、タッチスクリーンディスプレイと、を備え、タッチスクリーンディスプレイ上でスワイプを検出すると、前記撮像部により撮像する。   An apparatus according to the present invention includes an imaging unit and a touch screen display. When a swipe is detected on the touch screen display, the imaging unit captures an image.

本発明に係る方法は、タッチスクリーンディスプレイ上でスワイプを検出すると、撮像する。   The method according to the present invention images when a swipe is detected on a touch screen display.

本発明によれば、撮像する際のブレの発生を低減することができる。   According to the present invention, it is possible to reduce the occurrence of blurring during imaging.

図1は、実施形態に係るスマートフォンの外観を示す斜視図である。FIG. 1 is a perspective view illustrating an appearance of a smartphone according to the embodiment. 図2は、実施形態に係るスマートフォンの外観を示す正面図である。FIG. 2 is a front view illustrating an appearance of the smartphone according to the embodiment. 図3は、実施形態に係るスマートフォンの外観を示す背面図である。FIG. 3 is a rear view illustrating an appearance of the smartphone according to the embodiment. 図4は、ホーム画面の一例を示す図である。FIG. 4 is a diagram illustrating an example of the home screen. 図5は、実施形態に係るスマートフォンの機能を示すブロック図である。FIG. 5 is a block diagram illustrating functions of the smartphone according to the embodiment. 図6は、実施形態に係るタッチスクリーンディスプレイに対して行われるジェスチャを説明する図である。FIG. 6 is a diagram illustrating a gesture performed on the touch screen display according to the embodiment. 図7は、実施形態に係るタッチスクリーンディスプレイにガイドが表示された状態を示す図である。FIG. 7 is a diagram illustrating a state in which a guide is displayed on the touch screen display according to the embodiment. 図8は、実施形態に係るスマートフォンによる連続的な撮像の処理の流れを示すフローチャートである。FIG. 8 is a flowchart illustrating a flow of continuous imaging processing by the smartphone according to the embodiment.

本発明を実施するための実施形態を、図面を参照しつつ詳細に説明する。以下では、タッチスクリーンディスプレイを備える装置の一例として、スマートフォンについて説明する。   Embodiments for carrying out the present invention will be described in detail with reference to the drawings. Below, a smart phone is demonstrated as an example of an apparatus provided with a touch screen display.

(実施形態)
図1から図3を参照しながら、実施形態に係るスマートフォン1の外観について説明する。図1から図3に示すように、スマートフォン1は、ハウジング20を有する。ハウジング20は、フロントフェイス1Aと、バックフェイス1Bと、サイドフェイス1C1〜1C4とを有する。フロントフェイス1Aは、ハウジング20の正面である。バックフェイス1Bは、ハウジング20の背面である。サイドフェイス1C1〜1C4は、フロントフェイス1Aとバックフェイス1Bとを接続する側面である。以下では、サイドフェイス1C1〜1C4を、どの面であるかを特定することなく、サイドフェイス1Cと総称することがある。
(Embodiment)
The external appearance of the smartphone 1 according to the embodiment will be described with reference to FIGS. 1 to 3. As shown in FIGS. 1 to 3, the smartphone 1 has a housing 20. The housing 20 includes a front face 1A, a back face 1B, and side faces 1C1 to 1C4. The front face 1 </ b> A is the front of the housing 20. The back face 1 </ b> B is the back surface of the housing 20. The side faces 1C1 to 1C4 are side surfaces that connect the front face 1A and the back face 1B. Hereinafter, the side faces 1C1 to 1C4 may be collectively referred to as the side face 1C without specifying which face.

スマートフォン1は、タッチスクリーンディスプレイ2と、ボタン3A〜3Cと、照度センサ4と、近接センサ5と、レシーバ7と、マイク8と、撮像部としてのカメラ12とをフロントフェイス1Aに有する。スマートフォン1は、カメラ13をバックフェイス1Bに有する。スマートフォン1は、ボタン3D〜3Fと、外部インターフェイス14とをサイドフェイス1Cに有する。以下では、ボタン3A〜3Fを、どのボタンであるかを特定することなく、ボタン3と総称することがある。   The smartphone 1 includes a touch screen display 2, buttons 3A to 3C, an illuminance sensor 4, a proximity sensor 5, a receiver 7, a microphone 8, and a camera 12 as an imaging unit on the front face 1A. The smartphone 1 has a camera 13 on the back face 1B. The smartphone 1 has buttons 3D to 3F and an external interface 14 on the side face 1C. Hereinafter, the buttons 3A to 3F may be collectively referred to as the button 3 without specifying which button.

タッチスクリーンディスプレイ2は、ディスプレイ2Aと、タッチスクリーン2Bとを有する。ディスプレイ2Aは、液晶ディスプレイ(Liquid Crystal Display)、有機ELパネル(Organic Electro−Luminescence panel)、又は無機ELパネル(Inorganic Electro−Luminescence panel)等の表示デバイスを備える。ディスプレイ2Aは、略長方形であり、文字、画像、記号又は図形等を表示する。   The touch screen display 2 includes a display 2A and a touch screen 2B. The display 2A includes a display device such as a liquid crystal display (Liquid Crystal Display), an organic EL panel (Organic Electro-Luminescence panel), or an inorganic EL panel (Inorganic Electro-Luminescence panel). The display 2A has a substantially rectangular shape and displays characters, images, symbols, graphics, and the like.

タッチスクリーン2Bは、タッチスクリーンディスプレイ2に対する指、又はスタイラスペン等のオブジェクトの接触を検出する。タッチスクリーン2Bは、複数の指、又はスタイラスペン等がタッチスクリーンディスプレイ2に接触した位置を検出することができる。   The touch screen 2B detects contact of an object such as a finger or a stylus pen with respect to the touch screen display 2. The touch screen 2B can detect a position where a plurality of fingers, a stylus pen, or the like is in contact with the touch screen display 2.

タッチスクリーン2Bの検出方式は、静電容量方式、抵抗膜方式、表面弾性波方式(又は超音波方式)、赤外線方式、電磁誘導方式、及び荷重検出方式等の任意の方式でよい。以下では、説明を簡単にするため、タッチスクリーン2Bがタッチスクリーンディスプレイ2に対する接触を検出する指、又はスタイラスペン等を単に「指」ということがある。   The detection method of the touch screen 2B may be any method such as a capacitance method, a resistive film method, a surface acoustic wave method (or an ultrasonic method), an infrared method, an electromagnetic induction method, and a load detection method. Hereinafter, for the sake of simplicity of explanation, a finger that the touch screen 2B detects contact with the touch screen display 2 or a stylus pen or the like may be simply referred to as a “finger”.

スマートフォン1は、タッチスクリーン2Bにより検出された接触、接触位置、接触時間又は接触回数に基づいてジェスチャの種別を判別する。ジェスチャは、タッチスクリーンディスプレイ2に対して行われる操作である。スマートフォン1によって判別されるジェスチャには、タッチ、ロングタッチ、リリース、スワイプ、タップ、ダブルタップ、ロングタップ、ドラッグ、フリック、ピンチイン、ピンチアウト等が含まれる。   The smartphone 1 determines the type of gesture based on the contact, contact position, contact time, or number of contacts detected by the touch screen 2B. The gesture is an operation performed on the touch screen display 2. The gesture discriminated by the smartphone 1 includes touch, long touch, release, swipe, tap, double tap, long tap, drag, flick, pinch in, pinch out, and the like.

タッチは、一の接触によるジェスチャである。すなわち、タッチは、タッチスクリーンディスプレイ2(例えば、表面)に指が接触するジェスチャである。スマートフォン1は、タッチスクリーンディスプレイ2に指が接触するジェスチャをタッチとして判別する。ロングタッチとは、タッチスクリーンディスプレイ2に指が一定時間以上接触するジェスチャである。スマートフォン1は、タッチスクリーンディスプレイ2に指が一定時間以上接触するジェスチャをロングタッチとして判別する。   A touch is a gesture by a single contact. That is, the touch is a gesture in which a finger contacts the touch screen display 2 (for example, the surface). The smartphone 1 determines a gesture in which a finger contacts the touch screen display 2 as a touch. The long touch is a gesture in which a finger contacts the touch screen display 2 for a predetermined time or more. The smartphone 1 determines a gesture in which a finger contacts the touch screen display 2 for a predetermined time or more as a long touch.

リリースは、指がタッチスクリーンディスプレイ2から離れるジェスチャである。スマートフォン1は、指がタッチスクリーンディスプレイ2から離れるジェスチャをリリースとして判別する。スワイプは、指がタッチスクリーンディスプレイ2上に接触したままで移動するジェスチャである。スマートフォン1は、指がタッチスクリーンディスプレイ2上に接触したままで移動するジェスチャをスワイプとして判別する。   A release is a gesture in which a finger leaves the touch screen display 2. The smartphone 1 determines a gesture in which a finger leaves the touch screen display 2 as a release. The swipe is a gesture that moves while the finger is in contact with the touch screen display 2. The smartphone 1 determines a gesture that moves while the finger is in contact with the touch screen display 2 as a swipe.

タップは、タッチに続いてリリースをするジェスチャである。スマートフォン1は、タッチに続いてリリースをするジェスチャをタップとして判別する。ダブルタップは、タッチに続いてリリースをするジェスチャが2回連続するジェスチャである。スマートフォン1は、タッチに続いてリリースをするジェスチャが2回連続するジェスチャをダブルタップとして判別する。   A tap is a gesture for releasing following a touch. The smartphone 1 determines a gesture for releasing following a touch as a tap. The double tap is a gesture in which a gesture for releasing following a touch is continued twice. The smartphone 1 determines a gesture in which a gesture for releasing following a touch is continued twice as a double tap.

ロングタップは、ロングタッチに続いてリリースをするジェスチャである。スマートフォン1は、ロングタッチに続いてリリースをするジェスチャをロングタップとして判別する。ドラッグは、移動可能なオブジェクトが表示されている領域を始点としてスワイプをするジェスチャである。スマートフォン1は、移動可能なオブジェクトが表示されている領域を始点としてスワイプをするジェスチャをドラッグとして判別する。   A long tap is a gesture for releasing following a long touch. The smartphone 1 determines a gesture for releasing following a long touch as a long tap. The drag is a gesture for performing a swipe from an area where a movable object is displayed. The smartphone 1 determines, as a drag, a gesture for performing a swipe starting from an area where a movable object is displayed.

フリックは、タッチに続いて指が一方方向へ高速で移動しながらリリースするジェスチャである。スマートフォン1は、タッチに続いて指が一方方向へ高速で移動しながらリリースするジェスチャをフリックとして判別する。フリックは、指が画面の上方向へ移動する上フリック、指が画面の下方向へ移動する下フリック、指が画面の右方向へ移動する右フリック、指が画面の左方向へ移動する左フリック等を含む。   The flick is a gesture that is released while the finger moves at high speed in one direction following the touch. The smartphone 1 determines, as a flick, a gesture that is released while the finger moves in one direction at high speed following the touch. Flick: Up flick that moves your finger up the screen, Down flick that moves your finger down the screen, Right flick that moves your finger right in the screen, Left flick that moves your finger left in the screen Etc.

ピンチインは、複数の指が互いに近付く方向にスワイプするジェスチャである。スマートフォン1は、複数の指が互いに近付く方向にスワイプするジェスチャをピンチインとして判別する。ピンチアウトは、複数の指が互いに遠ざかる方向にスワイプするジェスチャである。スマートフォン1は、複数の指が互いに遠ざかる方向にスワイプするジェスチャをピンチアウトとして判別する。   Pinch-in is a gesture that swipes in a direction in which a plurality of fingers approach each other. The smartphone 1 determines, as a pinch-in, a gesture that swipes in a direction in which a plurality of fingers approach each other. Pinch-out is a gesture that swipes a plurality of fingers away from each other. The smartphone 1 determines a gesture of swiping in a direction in which a plurality of fingers move away from each other as a pinch out.

スマートフォン1は、タッチスクリーン2Bを介して判別するこれらのジェスチャに従って動作を行う。したがって、利用者にとって直感的で使いやすい操作性が実現される。判別されるジェスチャに従ってスマートフォン1が行う動作は、タッチスクリーンディスプレイ2に表示されている画面に応じて異なる。   The smartphone 1 operates according to these gestures that are determined via the touch screen 2B. Therefore, operability that is intuitive and easy to use for the user is realized. The operation performed by the smartphone 1 according to the determined gesture differs depending on the screen displayed on the touch screen display 2.

図4を参照しながら、ディスプレイ2Aに表示される画面の例について説明する。図4は、ホーム画面の一例を示している。ホーム画面は、デスクトップ、又は待受画面と呼ばれることもある。ホーム画面は、ディスプレイ2Aに表示される。ホーム画面は、スマートフォン1にインストールされているアプリケーションのうち、どのアプリケーションを実行するかを利用者に選択させる画面である。スマートフォン1は、ホーム画面で選択されたアプリケーションをフォアグランドで実行する。フォアグランドで実行されるアプリケーションの画面は、ディスプレイ2Aに表示される。   An example of a screen displayed on the display 2A will be described with reference to FIG. FIG. 4 shows an example of the home screen. The home screen may be called a desktop or a standby screen. The home screen is displayed on the display 2A. The home screen is a screen that allows the user to select which application to execute from among the applications installed in the smartphone 1. The smartphone 1 executes the application selected on the home screen in the foreground. The screen of the application executed in the foreground is displayed on the display 2A.

スマートフォン1は、ホーム画面にアイコンを配置することができる。図4に示すホーム画面40には、複数のアイコン50が配置されている。それぞれのアイコン50は、スマートフォン1にインストールされているアプリケーションと予め対応付けられている。スマートフォン1は、アイコン50に対するジェスチャを検出すると、そのアイコン50に対応付けられているアプリケーションを実行する。例えば、スマートフォン1は、メールアプリケーションに対応付けられたアイコン50に対するタップを検出すると、メールアプリケーションを実行する。ここで、スマートフォン1は、例えば、タッチスクリーンディスプレイ2に対するアイコン50の表示位置(領域)に対応する位置(領域)へのジェスチャを、アイコン50に対応付けられたアプリケーションの実行命令であると解釈する。   The smartphone 1 can place an icon on the home screen. A plurality of icons 50 are arranged on the home screen 40 shown in FIG. Each icon 50 is associated with an application installed in the smartphone 1 in advance. When the smartphone 1 detects a gesture for the icon 50, the smartphone 1 executes an application associated with the icon 50. For example, when the smartphone 1 detects a tap on the icon 50 associated with the mail application, the smartphone 1 executes the mail application. Here, for example, the smartphone 1 interprets a gesture to a position (area) corresponding to the display position (area) of the icon 50 on the touch screen display 2 as an execution instruction of an application associated with the icon 50. .

アイコン50は、画像と文字列を含む。アイコン50は、画像に代えて、記号又は図形を含んでもよい。アイコン50は、画像又は文字列のいずれか一方を含まなくてもよい。アイコン50は、所定の規則に従って配置される。アイコン50の背後には、壁紙41が表示される。壁紙は、フォトスクリーン又はバックスクリーンと呼ばれることもある。スマートフォン1は、任意の画像を壁紙41として用いることができる。画像は、例えば、利用者の設定に従って任意の画像が壁紙41として決定される。   The icon 50 includes an image and a character string. The icon 50 may include a symbol or a graphic instead of the image. The icon 50 may not include either an image or a character string. The icons 50 are arranged according to a predetermined rule. A wallpaper 41 is displayed behind the icon 50. The wallpaper is sometimes called a photo screen or a back screen. The smartphone 1 can use any image as the wallpaper 41. For example, an arbitrary image is determined as the wallpaper 41 according to the setting of the user.

スマートフォン1は、ホーム画面の数を増減することができる。スマートフォン1は、例えば、ホーム画面の数を利用者による設定に従って決定する。スマートフォン1は、ホーム画面を表示する場合、ホーム画面の数が複数であっても、それらのうちから選択された1つをディスプレイ2Aに表示する。   The smartphone 1 can increase or decrease the number of home screens. For example, the smartphone 1 determines the number of home screens according to the setting by the user. When the smartphone 1 displays the home screen, even if there are a plurality of home screens, the smartphone 1 displays one selected from them on the display 2A.

スマートフォン1は、ホーム画面上に、1つ又は複数のロケータを表示する。ロケータの数は、ホーム画面の数と一致する。ロケータは、現在表示されているホーム画面の位置を示す。現在表示されているホーム画面に対応するロケータは、他のロケータと異なる態様で表示される。   The smartphone 1 displays one or more locators on the home screen. The number of locators matches the number of home screens. The locator indicates the position of the currently displayed home screen. The locator corresponding to the currently displayed home screen is displayed in a manner different from other locators.

図4に示す例では、4つのロケータ51が表示されている。これは、ホーム画面40の数が4つであることを示す。また、図4に示す例では、左から2番目のシンボルが他のシンボルと異なる態様で表示されている。これは、左から2番目のホーム画面が現在表示されていることを示している。   In the example shown in FIG. 4, four locators 51 are displayed. This indicates that the number of home screens 40 is four. In the example shown in FIG. 4, the second symbol from the left is displayed in a manner different from other symbols. This indicates that the second home screen from the left is currently displayed.

スマートフォン1は、ホーム画面を表示中に特定のジェスチャを検出すると、ディスプレイ2Aに表示するホーム画面を切り替える。例えば、スマートフォン1は、右フリックを検出すると、ディスプレイ2Aに表示するホーム画面を1つ左のホーム画面に切り替える。また、スマートフォン1は、左フリックを検出すると、ディスプレイ2Aに表示するホーム画面を1つ右のホーム画面に切り替える。   When the smartphone 1 detects a specific gesture while displaying the home screen, the smartphone 1 switches the home screen displayed on the display 2A. For example, when detecting a right flick, the smartphone 1 switches the home screen displayed on the display 2A to the left home screen. Further, when the smartphone 1 detects a left flick, the smartphone 1 switches the home screen displayed on the display 2A to the right home screen.

ディスプレイ2Aの上端には、領域42が設けられている。領域42には、充電池の残量を示す残量マーク43、及び通信用の電波の電界強度を示す電波レベルマーク44が表示される。スマートフォン1は、領域42に、現在時刻、天気の情報、実行中のアプリケーション、通信システムの種別、電話のステータス、装置のモード、装置に生じたイベント等を表示してもよい。このように、領域42は、利用者に対して各種の通知を行うために用いられる。領域42は、ホーム画面40とは別の画面でも設けられることがある。領域42が設けられる位置は、ディスプレイ2Aの上端に限られない。   A region 42 is provided at the upper end of the display 2A. In the area 42, a remaining amount mark 43 indicating the remaining amount of the rechargeable battery and a radio wave level mark 44 indicating the electric field strength of the communication radio wave are displayed. The smartphone 1 may display the current time, weather information, the application being executed, the type of the communication system, the status of the phone, the mode of the device, the event that has occurred in the device, and the like in the area 42. As described above, the area 42 is used for various notifications to the user. The area 42 may be provided on a screen different from the home screen 40. The position where the region 42 is provided is not limited to the upper end of the display 2A.

なお、図4に示したホーム画面40は、一例であり、各種の要素の形態、各種の要素の配置、ホーム画面40の数、及びホーム画面40での各種の操作の仕方等は上記の説明の通りでなくてもよい。   Note that the home screen 40 shown in FIG. 4 is an example, and the form of various elements, the arrangement of various elements, the number of home screens 40, the manner of various operations on the home screen 40, and the like are described above. It does not have to be street.

図5は、スマートフォン1の構成を示すブロック図である。スマートフォン1は、タッチスクリーンディスプレイ2と、ボタン3と、照度センサ4と、近接センサ5と、通信ユニット6と、レシーバ7と、マイク8と、ストレージ9と、コントローラ10と、カメラ12及び13と、外部インターフェイス14と、加速度センサ15と、方位センサ16と、回転検出センサ17とを有する。   FIG. 5 is a block diagram illustrating the configuration of the smartphone 1. The smartphone 1 includes a touch screen display 2, a button 3, an illuminance sensor 4, a proximity sensor 5, a communication unit 6, a receiver 7, a microphone 8, a storage 9, a controller 10, and cameras 12 and 13. , An external interface 14, an acceleration sensor 15, an orientation sensor 16, and a rotation detection sensor 17.

タッチスクリーンディスプレイ2は、上述したように、ディスプレイ2Aと、タッチスクリーン2Bとを有する。ディスプレイ2Aは、文字、画像、記号、又は図形等を表示する。タッチスクリーン2Bは、ジェスチャを検出する。   As described above, the touch screen display 2 includes the display 2A and the touch screen 2B. The display 2A displays characters, images, symbols, graphics, or the like. The touch screen 2B detects a gesture.

ボタン3は、利用者によって操作される。ボタン3は、ボタン3A〜ボタン3Fを有する。コントローラ10はボタン3と協働することによってボタンに対する操作を検出する。ボタンに対する操作は、例えば、クリック、ダブルクリック、プッシュ、及びマルチプッシュである。   The button 3 is operated by the user. The button 3 includes buttons 3A to 3F. The controller 10 detects an operation on the button by cooperating with the button 3. The operation on the button is, for example, click, double click, push, and multi-push.

例えば、ボタン3A〜3Cは、ホームボタン、バックボタン又はメニューボタンである。例えば、ボタン3Dは、スマートフォン1のパワーオン/オフボタンである。ボタン3Dは、スリープ/スリープ解除ボタンを兼ねてもよい。例えば、ボタン3E及び3Fは、音量ボタンである。   For example, the buttons 3A to 3C are a home button, a back button, or a menu button. For example, the button 3D is a power on / off button of the smartphone 1. The button 3D may also serve as a sleep / sleep release button. For example, the buttons 3E and 3F are volume buttons.

照度センサ4は、照度を検出する。例えば、照度とは、光の強さ、明るさ、輝度等である。照度センサ4は、例えば、ディスプレイ2Aの輝度の調整に用いられる。   The illuminance sensor 4 detects illuminance. For example, the illuminance is light intensity, brightness, luminance, or the like. The illuminance sensor 4 is used for adjusting the luminance of the display 2A, for example.

近接センサ5は、近隣の物体の存在を非接触で検出する。近接センサ5は、例えば、タッチスクリーンディスプレイ2が顔に近付けられたことを検出する。   The proximity sensor 5 detects the presence of a nearby object without contact. The proximity sensor 5 detects that the touch screen display 2 is brought close to the face, for example.

通信ユニット6は、無線により通信する。通信ユニット6によって行われる通信方式は、無線通信規格である。例えば、無線通信規格として、2G、3G、4G等のセルラーフォンの通信規格がある。例えば、セルラーフォンの通信規格としては、LTE(Long Term Evolution)、W−CDMA、CDMA2000、PDC、GSM(登録商標)、PHS(Personal Handy−phone System)等がある。例えば、無線通信規格として、WiMAX(Worldwide Interoperability for Microwave Access)(登録商標)、IEEE802.11、Bluetooth(登録商標)、IrDA、NFC(Near Field Communication)等がある。通信ユニット6は、上述した通信規格の1つ又は複数をサポートしていてもよい。   The communication unit 6 communicates wirelessly. The communication method performed by the communication unit 6 is a wireless communication standard. For example, wireless communication standards include cellular phone communication standards such as 2G, 3G, and 4G. For example, communication standards for cellular phones include LTE (Long Term Evolution), W-CDMA, CDMA2000, PDC, GSM (registered trademark), PHS (Personal Handy-phone System), and the like. Examples of wireless communication standards include WiMAX (Worldwide Interoperability for Microwave Access) (registered trademark), IEEE 802.11, Bluetooth (registered trademark), IrDA, NFC (Near Field Communication), and the like. The communication unit 6 may support one or more of the communication standards described above.

レシーバ7は、コントローラ10から送信される音声信号を音声として出力する。マイク8は、利用者等の音声を音声信号へ変換してコントローラ10へ送信する。なお、スマートフォン1は、レシーバ7に加えて、スピーカをさらに有してもよい。スマートフォン1は、レシーバ7に代えて、スピーカをさらに有してもよい。   The receiver 7 outputs the audio signal transmitted from the controller 10 as audio. The microphone 8 converts the voice of the user or the like into a voice signal and transmits it to the controller 10. The smartphone 1 may further include a speaker in addition to the receiver 7. The smartphone 1 may further include a speaker instead of the receiver 7.

ストレージ9は、プログラム及びデータを記憶する。また、ストレージ9は、コントローラ10の処理結果を一時的に記憶する作業領域としても利用される。ストレージ9は、半導体記憶デバイス、及び磁気記憶デバイス等の任意の記憶デバイスを含んでよい。また、ストレージ9は、複数の種類の記憶デバイスを含んでよい。また、ストレージ9は、メモリカード等の可搬の記憶媒体と、記憶媒体の読み取り装置との組み合わせを含んでよい。   The storage 9 stores programs and data. The storage 9 is also used as a work area for temporarily storing the processing result of the controller 10. The storage 9 may include any storage device such as a semiconductor storage device and a magnetic storage device. The storage 9 may include a plurality of types of storage devices. The storage 9 may include a combination of a portable storage medium such as a memory card and a storage medium reading device.

ストレージ9に記憶されるプログラムには、フォアグランド又はバックグランドで実行されるアプリケーションと、アプリケーションの動作を支援する制御プログラムとが含まれる。アプリケーションは、例えば、ディスプレイ2Aに所定の画面を表示させ、タッチスクリーン2Bによって検出されるジェスチャに応じた処理をコントローラ10に実行させる。制御プログラムは、例えば、OSである。アプリケーション及び制御プログラムは、通信ユニット6による無線通信又は記憶媒体を介してストレージ9にインストールされてもよい。   The programs stored in the storage 9 include an application executed in the foreground or the background and a control program that supports the operation of the application. For example, the application displays a predetermined screen on the display 2A, and causes the controller 10 to execute processing according to the gesture detected by the touch screen 2B. The control program is, for example, an OS. The application and the control program may be installed in the storage 9 via wireless communication by the communication unit 6 or a storage medium.

ストレージ9は、例えば、制御プログラム9A、メールアプリケーション9B、ブラウザアプリケーション9C、設定データ9Zを記憶する。メールアプリケーション9Bは、電子メールの作成、送信、受信、及び表示等のための電子メール機能を提供する。ブラウザアプリケーション9Cは、WEBページを表示するためのWEBブラウジング機能を提供する。テーブル9Dは、キーアサインテーブル等の各種テーブルが格納されている。配置パターンデータベース9Eは、ディスプレイ2Aに表示されるアイコン等の配置パターンが格納されている。設定データ9Zは、スマートフォン1の動作に関する各種の設定機能を提供する。   The storage 9 stores, for example, a control program 9A, a mail application 9B, a browser application 9C, and setting data 9Z. The mail application 9B provides an electronic mail function for creating, transmitting, receiving, and displaying an electronic mail. The browser application 9C provides a WEB browsing function for displaying a WEB page. The table 9D stores various tables such as a key assignment table. The arrangement pattern database 9E stores arrangement patterns such as icons displayed on the display 2A. The setting data 9Z provides various setting functions related to the operation of the smartphone 1.

制御プログラム9Aは、スマートフォン1を稼働させるための各種制御に関する機能を提供する。制御プログラム9Aは、例えば、通信ユニット6、レシーバ7、及びマイク8等を制御することによって、通話を実現させる。制御プログラム9Aが提供する機能には、タッチスクリーン2Bを介して検出されたジェスチャに応じて、ディスプレイ2Aに表示されている情報を変更する等の各種制御を行う機能が含まれる。なお、制御プログラム9Aが提供する機能は、メールアプリケーション9B等の他のプログラムが提供する機能と組み合わせて利用されることがある。   The control program 9A provides functions related to various controls for operating the smartphone 1. The control program 9A realizes a call by controlling the communication unit 6, the receiver 7, the microphone 8, and the like, for example. The function provided by the control program 9A includes a function of performing various controls such as changing information displayed on the display 2A according to a gesture detected via the touch screen 2B. Note that the functions provided by the control program 9A may be used in combination with functions provided by other programs such as the mail application 9B.

コントローラ10は、例えば、CPU(Central Processing Unit)である。コントローラ10は、通信ユニット6等の他の構成要素が統合されたSoC(System−on−a−chip)等の集積回路であってもよい。コントローラ10は、スマートフォン1の動作を統括的に制御して各種の機能を実現する。   The controller 10 is, for example, a CPU (Central Processing Unit). The controller 10 may be an integrated circuit such as a SoC (System-on-a-chip) in which other components such as the communication unit 6 are integrated. The controller 10 controls various operations of the smartphone 1 to realize various functions.

具体的には、コントローラ10は、ストレージ9に記憶されているデータを必要に応じて参照しつつ、ストレージ9に記憶されているプログラムに含まれる命令を実行して、ディスプレイ2A及び通信ユニット6等を制御することによって各種機能を実現する。コントローラ10は、タッチスクリーン2B、ボタン3、加速度センサ15等の各種検出部の検出結果に応じて、制御を変更することもある。   Specifically, the controller 10 executes instructions included in the program stored in the storage 9 while referring to the data stored in the storage 9 as necessary, and the display 2A, the communication unit 6 and the like. Various functions are realized by controlling. The controller 10 may change the control according to detection results of various detection units such as the touch screen 2B, the button 3, and the acceleration sensor 15.

コントローラ10は、例えば、制御プログラム9Aを実行することにより、タッチスクリーン2Bを介して検出されたジェスチャに応じて、ディスプレイ2Aに表示されている情報を変更する等の各種制御を実行する。   For example, by executing the control program 9A, the controller 10 executes various controls such as changing information displayed on the display 2A according to a gesture detected via the touch screen 2B.

カメラ12は、フロントフェイス1Aに面している物体を撮影するインカメラである。カメラ13は、バックフェイス1Bに面している物体を撮影するアウトカメラである。   The camera 12 is an in-camera that captures an object facing the front face 1A. The camera 13 is an out camera that captures an object facing the back face 1B.

外部インターフェイス14は、他の装置が接続される端子である。外部インターフェイス14は、USB(Universal Serial Bus)、HDMI(High−Definition Multimedia Interface)、ライトピーク(サンダーボルト)、イヤホンマイクコネクタのような汎用的な端子であってもよい。外部インターフェイス14は、Dockコネクタのような専用に設計された端子でもよい。外部インターフェイス14に接続される装置には、例えば、外部ストレージ、スピーカ、通信装置が含まれる。   The external interface 14 is a terminal to which another device is connected. The external interface 14 may be a general-purpose terminal such as a universal serial bus (USB), a high-definition multimedia interface (HDMI), a light peak (thunderbolt), and an earphone microphone connector. The external interface 14 may be a dedicated terminal such as a dock connector. Devices connected to the external interface 14 include, for example, an external storage, a speaker, and a communication device.

加速度センサ15は、スマートフォン1に働く加速度の方向及び大きさを検出する。方位センサ16は、地磁気の向きを検出する。回転検出センサ17は、スマートフォン1の回転を検出する。加速度センサ15、方位センサ16及び回転検出センサ17の検出結果は、スマートフォン1の位置及び姿勢の変化を検出するために、組み合わせて利用される。   The acceleration sensor 15 detects the direction and magnitude of acceleration acting on the smartphone 1. The direction sensor 16 detects the direction of geomagnetism. The rotation detection sensor 17 detects the rotation of the smartphone 1. The detection results of the acceleration sensor 15, the orientation sensor 16, and the rotation detection sensor 17 are used in combination in order to detect changes in the position and orientation of the smartphone 1.

このように構成されるスマートフォン1は、撮像する際のブレの発生を低減することができる。以下に、具体的な構成について説明する。   The smartphone 1 configured in this way can reduce the occurrence of blurring when taking an image. A specific configuration will be described below.

コントローラ10は、ホーム画面で、撮影を行うためのカメラアプリケーションが選択されたことに応じて、カメラアプリケーションをフォアグランドで実行する。これにより、スマートフォン1は、カメラ12による撮像が可能な状態に遷移する。この状態を撮像可能状態という。撮像可能状態とは、コントローラ10が、カメラ12に撮像を行わせるとともに、撮像された画像データをタッチスクリーンディスプレイ2に表示させる状態をいう。撮像可能状態では、ボタン3又はタッチスクリーンディスプレイ2に対する操作が行われない限り、撮像された画像データがストレージ9に記憶されない。   The controller 10 executes the camera application in the foreground in response to selection of a camera application for shooting on the home screen. As a result, the smartphone 1 transitions to a state in which imaging by the camera 12 is possible. This state is referred to as an imageable state. The imaging enabled state refers to a state in which the controller 10 causes the camera 12 to perform imaging and displays the captured image data on the touch screen display 2. In the imaging enabled state, the captured image data is not stored in the storage 9 unless an operation is performed on the button 3 or the touch screen display 2.

コントローラ10は、スマートフォン1が撮像可能状態である場合に、タッチスクリーンディスプレイ2に対して指(接触物)が接触したままで移動するジェスチャ、すなわち、スワイプするジェスチャが行われたことを検出すると、カメラ12に撮像を行わせ、撮像された画像データをストレージ9に記憶させる。   When the controller 10 detects that the gesture of moving while the finger (contact object) is in contact with the touch screen display 2 when the smartphone 1 is in an imageable state, that is, the gesture of swiping is performed, The camera 12 is caused to take an image, and the taken image data is stored in the storage 9.

具体的には、コントローラ10は、タッチスクリーンディスプレイ2に対して、指が接触したままで所定量移動するジェスチャを検出すると、カメラ12に撮像を行わせる。   Specifically, when the controller 10 detects a gesture that moves a predetermined amount while the finger is in contact with the touch screen display 2, the controller 10 causes the camera 12 to capture an image.

このようにすることで、ユーザは、タッチスクリーンディスプレイ2を垂直方向に押し込むことなく撮像することができる。よって、スマートフォン1では、タッチスクリーンディスプレイ2を垂直方向に押し込む動作により撮像する場合に比べて、撮像する際のブレの発生を低減することができる。また、スマートフォン1は、指が接触したままで所定量移動するジェスチャを検出すると撮像を行うので、手の震え等により接触位置が微小距離だけ移動した場合における撮像を防止して、誤操作による撮像を防止することができる。   In this way, the user can take an image without pushing the touch screen display 2 in the vertical direction. Therefore, in the smartphone 1, it is possible to reduce the occurrence of blurring at the time of imaging as compared to the case of imaging by the operation of pushing the touch screen display 2 in the vertical direction. In addition, since the smartphone 1 performs imaging when detecting a gesture that moves a predetermined amount while the finger is in contact, it prevents imaging when the contact position is moved by a minute distance due to hand tremors and the like, and performs imaging due to an erroneous operation. Can be prevented.

また、コントローラ10の処理は、上述した説明に限らず、他の処理を行うようにしてもよい。すなわち、コントローラ10は、タッチスクリーンディスプレイ2に対してスワイプするジェスチャを検出すると、カメラ12に所定間隔で連続的に撮像を行わせる。そして、コントローラ10は、カメラ12により撮像された画像データをストレージ9に記憶させる。   Further, the processing of the controller 10 is not limited to the above description, and other processing may be performed. That is, when the controller 10 detects a gesture for swiping the touch screen display 2, the controller 10 causes the camera 12 to continuously capture images at a predetermined interval. Then, the controller 10 stores the image data captured by the camera 12 in the storage 9.

コントローラ10は、スワイプするジェスチャが行われている間、カメラ12による連続的な撮像を継続する。すなわち、コントローラ10は、カメラ12により連続的に撮像が行われている場合に、タッチスクリーンディスプレイ2に対する指の接触を検出しなくなったとき、カメラ12による連続的な撮像を終了させる。   The controller 10 continues the continuous imaging by the camera 12 while the swipe gesture is performed. That is, the controller 10 ends the continuous imaging by the camera 12 when the camera 12 is continuously capturing images and no longer detects finger contact with the touch screen display 2.

そして、コントローラ10は、カメラ12による連続的な撮像が終了すると、連続的に撮像され、ストレージ9に記憶された複数の画像データについて、空間周波数を計算し、計算された結果に基づいてブレが少ない画像データを選択する。コントローラ10は、選択された画像データを撮像された画像データに決定する。この場合、コントローラ10は。選択された画像データをタッチスクリーンディスプレイ2に表示させるようにしてもよい。また、コントローラ10は、複数の画像データのうち、選択されなかった画像データをストレージ9から削除するようにしてもよい。   Then, when the continuous imaging by the camera 12 is completed, the controller 10 calculates a spatial frequency for a plurality of image data that are continuously captured and stored in the storage 9, and blur is generated based on the calculated result. Select less image data. The controller 10 determines the selected image data as captured image data. In this case, the controller 10. The selected image data may be displayed on the touch screen display 2. Further, the controller 10 may delete image data that has not been selected from the plurality of image data from the storage 9.

このように、スマートフォン1は、複数の画像データからブレが少ない画像データを選択するので、一の画像データを撮像する場合に比べて、撮像する際のブレの発生をさらに低減することができる。   As described above, since the smartphone 1 selects image data with less blur from a plurality of image data, it is possible to further reduce the occurrence of blur at the time of imaging compared to the case of imaging one image data.

なお、コントローラ10は、スワイプするジェスチャが行われた後、カメラ12により連続的に撮像が行われている場合に、タッチスクリーンディスプレイ2に対する指の接触を検出しなくなったとき、カメラ12による連続的な撮像を終了することとしたが、これに限らない。例えば、コントローラ10は、スワイプするジェスチャが行われた後、接触位置が所定時間移動しなかった場合に、カメラ12による連続的な撮像を終了するようにしてもよい。また、コントローラ10は、指が接触したままで移動した場合、移動速度を算出し、算出された移動速度に基づいて単位時間に撮像される画像データの数を変更するようにしてもよい。例えば、コントローラ10は、移動速度が大きい場合には、移動速度が小さい場合に比べて、単位時間に撮像される画像データの数を多くするようにしてもよい。   The controller 10 continuously detects the touch of the finger on the touch screen display 2 when the camera 12 continuously captures an image after the swipe gesture is performed. However, the present invention is not limited to this. For example, the controller 10 may end the continuous imaging by the camera 12 when the contact position does not move for a predetermined time after the swipe gesture is performed. Further, the controller 10 may calculate a moving speed when the finger moves while touching, and may change the number of image data captured per unit time based on the calculated moving speed. For example, the controller 10 may increase the number of image data captured per unit time when the moving speed is high compared to when the moving speed is low.

また、コントローラ10は、カメラ12によって撮像された複数の画像データから一の画像データを選択する際に、最初に撮像された画像データを撮像された画像データとしてストレージ9に記憶させ、他の画像データを削除するようにしてもよい。そして、コントローラ10は、この最初に撮像された画像データをタッチスクリーンディスプレイ2に表示させるようにしてもよい。このようにすることで、スマートフォン1は、簡易的に一の画像データを選択し、処理を軽減することができる。   Further, when the controller 10 selects one image data from a plurality of image data captured by the camera 12, the controller 10 stores the first captured image data in the storage 9 as the captured image data, and other images. Data may be deleted. Then, the controller 10 may display the first imaged image data on the touch screen display 2. By doing in this way, the smart phone 1 can select one image data simply, and can reduce a process.

また、コントローラ10は、複数の画像データをタッチスクリーンディスプレイ2に表示させ、ユーザから一又は複数の画像データの選択を受け付けるようにしてもよい。   The controller 10 may display a plurality of image data on the touch screen display 2 and accept selection of one or more image data from the user.

また、コントローラ10は、タッチスクリーンディスプレイ2に対するスワイプが行われた場合に、指が接触したままで所定量移動するジェスチャを検出することなく、タッチスクリーンディスプレイ2に対する接触を検出しなくなったとき、カメラ12による連続的な撮像によってストレージ9に記憶された画像データを消去するようにしてもよい。   When the controller 10 no longer detects a touch on the touch screen display 2 without detecting a gesture that moves a predetermined amount while the finger is in contact with the touch screen display 2, The image data stored in the storage 9 may be erased by the continuous imaging by the image 12.

指が所定量移動しなかった場合、誤操作である可能性が高い。スマートフォン1は、ストレージ9に記憶された画像データを消去するので、誤操作に起因してストレージ9の記憶可能容量が減少することを防止できる。   If the finger does not move by a predetermined amount, there is a high possibility of an erroneous operation. Since the smartphone 1 erases the image data stored in the storage 9, it is possible to prevent the storage capacity of the storage 9 from being reduced due to an erroneous operation.

また、コントローラ10は、タッチスクリーンディスプレイ2に対してスワイプするジェスチャのうち特定のジェスチャが行われた場合に、カメラ12に撮像を行わせるようにしてもよい。コントローラ10は、例えば、図6(a)から(c)に示されている矢印のように、タッチスクリーンディスプレイ2の長手方向又は短手方向に沿って移動するジェスチャ、若しくは、弧を描くジェスチャを検出すると、カメラ12に撮像を行わせるようにしてもよい。   Further, the controller 10 may cause the camera 12 to take an image when a specific gesture is performed among the gestures for swiping the touch screen display 2. The controller 10 performs, for example, a gesture that moves along the longitudinal direction or the lateral direction of the touch screen display 2 or an arc-drawing gesture as indicated by arrows shown in FIGS. When detected, the camera 12 may be caused to take an image.

タッチスクリーンディスプレイ2の長手方向又は短手方向に沿って移動するジェスチャ、若しくは、弧を描くジェスチャは、他のジェスチャに比べてユーザにとって操作しやすいジェスチャである。よって、スマートフォン1のユーザは、簡易的な操作で撮影を行うことができる。   A gesture that moves along the longitudinal direction or the short side direction of the touch screen display 2 or a gesture that draws an arc is a gesture that is easier for the user to operate than other gestures. Therefore, the user of the smartphone 1 can perform shooting with a simple operation.

また、コントローラ10は、撮像可能状態において、図7(a)に示すように、タッチスクリーンディスプレイ2の4辺のうち、少なくともいずれかに対して、辺に沿ったガイドGを表示させる。そして、コントローラ10は、このガイドGに対応するタッチスクリーンディスプレイ2上の領域を接触しながら所定量移動するジェスチャが行われると、カメラ12に撮像を行わせるようにしてもよい。
このように撮像操作に係るガイド表示を行うことで、スマートフォン1は、ユーザビリティを向上させることができる。
Further, the controller 10 causes the guide G along the side to be displayed on at least one of the four sides of the touch screen display 2 as shown in FIG. Then, the controller 10 may cause the camera 12 to take an image when a gesture of moving a predetermined amount while making contact with an area on the touch screen display 2 corresponding to the guide G is performed.
Thus, the smartphone 1 can improve usability by performing the guide display related to the imaging operation.

また、コントローラ10は、撮影可能状態において、図7(b)に示すように、4辺の少なくともいずれかに対して、辺に沿ったガイドGと、オブジェクトOを表示させて、指の接触位置に対応させてオブジェクトOをガイドGに沿って移動するように表示させるものとする。この場合において、コントローラ10は、撮像可能状態において、例えば、オブジェクトOをガイドGの一端に表示させておき、指の接触位置に伴い、オブジェクトOが他端に移動した場合にカメラ12に撮像を行わせるようにしてもよい。なお、コントローラ10は、図7(b)のようにガイドGを表示させずに、オブジェクトOのみを表示させるようにしてもよい。このような構成において、コントローラ10は、指の接触位置に対応させてオブジェクトOを、辺に沿って移動表示させる。そして、コントローラ10は、オブジェクトOが所定量移動した場合にカメラ12に撮影を行わせる。   Further, in the photographing enabled state, the controller 10 displays the guide G and the object O along the side with respect to at least one of the four sides as shown in FIG. It is assumed that the object O is displayed so as to move along the guide G in correspondence with. In this case, the controller 10 displays the object O on one end of the guide G in the imageable state, for example, and the camera 12 captures an image when the object O moves to the other end in accordance with the finger contact position. You may make it perform. Note that the controller 10 may display only the object O without displaying the guide G as shown in FIG. In such a configuration, the controller 10 moves and displays the object O along the side in accordance with the contact position of the finger. Then, the controller 10 causes the camera 12 to take a picture when the object O moves a predetermined amount.

つぎに、スマートフォン1による、連続的な撮像の処理の流れについて、図8に示すフローチャートを参照しながら説明する。なお、図8に示される処理は、撮像可能状態において行われるものとする。   Next, the flow of continuous imaging processing by the smartphone 1 will be described with reference to the flowchart shown in FIG. It is assumed that the process shown in FIG. 8 is performed in an imageable state.

ステップS1において、コントローラ10は、タッチスクリーンディスプレイ2においてスワイプするジェスチャが行われたか否かを判定する。コントローラ10は、この判定がYESの場合、ステップS2に処理を移し、この判定がNOの場合、ステップS1の処理を再実行する。
ステップS2において、コントローラ10は、カメラ12に連続的な撮像を行わせる。コントローラ10は、撮像された画像データをストレージ9に記憶させる。
In step S <b> 1, the controller 10 determines whether or not a swipe gesture has been performed on the touch screen display 2. If this determination is YES, the controller 10 moves the process to step S2, and if this determination is NO, the controller 10 re-executes the process of step S1.
In step S2, the controller 10 causes the camera 12 to perform continuous imaging. The controller 10 stores the captured image data in the storage 9.

ステップS3において、コントローラ10は、スワイプするジェスチャが終了したか否かを判定する。コントローラ10は、この判定がYESの場合、ステップS4に処理を移し、この判定がNOの場合、ステップS3を再実行する。なお、コントローラ10は、スワイプが一定時間(例えば3秒)行われた場合にステップS4に処理を移すようにしてもよい。
ステップS4において、コントローラ10は、カメラ12による撮像を終了する。
In step S3, the controller 10 determines whether or not the swipe gesture has ended. If this determination is YES, the controller 10 moves the process to step S4, and if this determination is NO, the controller 10 re-executes step S3. Note that the controller 10 may move the process to step S4 when the swipe is performed for a predetermined time (for example, 3 seconds).
In step S4, the controller 10 ends the imaging by the camera 12.

ステップS5において、コントローラ10は、カメラ12による撮像開始から所定時間経過したか否かを判定する。コントローラ10は、この判定がYESの場合、ステップS6に処理を移し、この判定がNOの場合、ステップS7に処理を移す。   In step S <b> 5, the controller 10 determines whether or not a predetermined time has elapsed since the start of imaging by the camera 12. If this determination is YES, the controller 10 proceeds to step S6, and if this determination is NO, the controller 10 proceeds to step S7.

ステップS6において、コントローラ10は、連続撮像によりストレージ9に記憶された画像データから、位置の画像データを選択する。
ステップS7において、コントローラ10は、連続撮像されてストレージ9に記憶された画像データを、ストレージ9から消去する。
In step S <b> 6, the controller 10 selects position image data from image data stored in the storage 9 by continuous imaging.
In step S <b> 7, the controller 10 deletes the image data continuously captured and stored in the storage 9 from the storage 9.

ステップS8において、コントローラ10は、ボタン3又はタッチスクリーンディスプレイ2において所定の操作が受け付けられたことによって、撮像を終了する操作が行われたか否かを判定する。コントローラ10は、この判定がYESの場合、本フローチャートに係る処理を終了し、この判定がNOの場合、ステップS1に処理を移す。   In step S <b> 8, the controller 10 determines whether or not an operation for ending imaging has been performed when a predetermined operation is received on the button 3 or the touch screen display 2. When this determination is YES, the controller 10 ends the process according to this flowchart, and when this determination is NO, the controller 10 moves the process to step S1.

以上、本実施形態によれば、コントローラ10は、スマートフォン1が撮像可能状態である場合に、スワイプするジェスチャが行われたことを検出すると、カメラ12に撮像を行わせ、撮像された画像データをストレージ9に記憶させる。
このようにすることで、ユーザは、タッチスクリーンディスプレイ2を垂直方向に押し込むことなく撮像することができる。よって、スマートフォン1では、タッチスクリーンディスプレイ2を垂直方向に押し込む動作により撮像する場合に比べて、撮像する際のブレの発生を低減することができる。
As described above, according to the present embodiment, when the controller 10 detects that a gesture for swiping has been performed when the smartphone 1 is in an imageable state, the controller 10 causes the camera 12 to perform imaging, and captures the captured image data. Store in the storage 9.
In this way, the user can take an image without pushing the touch screen display 2 in the vertical direction. Therefore, in the smartphone 1, it is possible to reduce the occurrence of blurring at the time of imaging as compared to the case of imaging by the operation of pushing the touch screen display 2 in the vertical direction.

以上、本発明の実施形態について説明したが、本発明は前述した実施形態に限るものではない。また、本発明の実施形態に記載された効果は、本発明から生じる最も好適な効果を列挙したに過ぎず、本発明による効果は、前述の実施形態に記載されたものに限定されるものではない。   As mentioned above, although embodiment of this invention was described, this invention is not restricted to embodiment mentioned above. Further, the effects described in the embodiments of the present invention only list the most preferable effects resulting from the present invention, and the effects of the present invention are not limited to those described in the above-described embodiments. Absent.

図4及び図5に示したスマートフォン1の構成は一例であり、本発明の要旨を損なわない範囲において適宜変更してよい。
また、本実施形態では、コントローラ10が、カメラ12による撮像を行わせる処理に説明を進めたが、カメラ13を用いることとしてもよい。
The configuration of the smartphone 1 shown in FIGS. 4 and 5 is an example, and may be changed as appropriate within a range that does not impair the gist of the present invention.
Further, in the present embodiment, the description has been made on the process in which the controller 10 causes the camera 12 to perform imaging, but the camera 13 may be used.

なお、図5においてストレージ9が記憶することとしたプログラムの一部又は全部は、通信ユニット6による無線通信で他の装置からダウンロードされてもよい。また、図5においてストレージ9が記憶することとしたプログラムの一部又は全部は、ストレージ9に含まれる読み取り装置が読み取り可能な記憶媒体に記憶されていてもよい。また、図5においてストレージ9が記憶することとしたプログラムの一部又は全部は、外部インターフェイス14に接続される読み取り装置が読み取り可能なCD、DVD、又はBlu−ray等の記憶媒体に記憶されていてもよい。   5 may be downloaded from another apparatus by wireless communication by the communication unit 6. 5 may be stored in a storage medium that can be read by a reading device included in the storage 9. 5 is stored in a storage medium such as a CD, DVD, or Blu-ray that can be read by a reader connected to the external interface 14. May be.

また、図5に示したスマートフォン1の構成は一例であり、本発明の要旨を損なわない範囲において適宜変更してよい。例えば、ボタン3の数と種類は図5の例に限定されない。例えば、スマートフォン1は、画面に関する操作のためのボタンとして、ボタン3A〜3Cに代えて、テンキー配列又はQWERTY配列等のボタンを備えていてもよい。また、スマートフォン1は、画面に関する操作のために、ボタンを1つだけ備えてよいし、ボタンを備えなくてもよい。また、図5に示した例では、スマートフォン1が2つのカメラを備えることとしたが、スマートフォン1は、1つのカメラのみを備えてもよいし、カメラを備えなくてもよい。また、図5に示した例では、スマートフォン1が位置及び姿勢を検出するために3種類のセンサを備えることとしたが、スマートフォン1は、このうちいくつかのセンサを備えなくてもよいし、位置及び姿勢を検出するための他の種類のセンサを備えてもよい。また、照度センサ4と近接センサ5は、別体ではなく、単一のセンサにより構成されてもよい。   Moreover, the structure of the smart phone 1 shown in FIG. 5 is an example, and you may change suitably in the range which does not impair the summary of this invention. For example, the number and type of buttons 3 are not limited to the example of FIG. For example, the smartphone 1 may include buttons such as a numeric keypad layout or a QWERTY layout instead of the buttons 3A to 3C as buttons for operations related to the screen. The smartphone 1 may include only one button or may not include a button for operations related to the screen. Further, in the example illustrated in FIG. 5, the smartphone 1 includes two cameras, but the smartphone 1 may include only one camera or may not include a camera. Moreover, in the example shown in FIG. 5, although the smart phone 1 was provided with three types of sensors in order to detect a position and an attitude | position, the smart phone 1 does not need to be provided with some sensors among these, Other types of sensors for detecting position and orientation may be provided. Further, the illuminance sensor 4 and the proximity sensor 5 may be configured as a single sensor, not as separate bodies.

本発明を完全かつ明瞭に開示するために特徴的な実施例に関し記載してきた。しかし、添付の請求項に係る発明は、上記実施例に限定されるべきものでなく、本明細書に示した基礎的事項の範囲内で当該技術分野の当業者が創作しうるすべての変形例及び代替可能な構成を具現化するように構成されるべきである。   The exemplary embodiments have been described in order to fully and clearly disclose the present invention. However, the invention according to the appended claims should not be limited to the above-described embodiments, but all modifications that can be created by those skilled in the art within the scope of the basic matters shown in the present specification. And should be configured to embody alternative configurations.

例えば、図5に示した各プログラムは、複数のモジュールに分割されていてもよいし、他のプログラムと結合されていてもよい。   For example, each program shown in FIG. 5 may be divided into a plurality of modules, or may be combined with other programs.

また、上記の実施形態では、タッチスクリーンディスプレイを備える装置の一例として、スマートフォンについて説明したが、添付の請求項に係る装置は、スマートフォンに限定されない。例えば、添付の請求項に係る装置は、モバイルフォン、携帯型パソコン、デジタルカメラ、メディアプレイヤ、電子書籍リーダ、ナビゲータ、又はゲーム機等の携帯電子機器であってもよい。また、添付の請求項に係る装置は、デスクトップパソコン、テレビ受像器等の据え置き型の電子機器であってもよい。   Moreover, although said embodiment demonstrated the smart phone as an example of an apparatus provided with a touch screen display, the apparatus which concerns on an attached claim is not limited to a smart phone. For example, the device according to the appended claims may be a mobile electronic device such as a mobile phone, a portable personal computer, a digital camera, a media player, an electronic book reader, a navigator, or a game machine. The apparatus according to the appended claims may be a stationary electronic device such as a desktop personal computer or a television receiver.

1 スマートフォン
2 タッチスクリーンディスプレイ
9 ストレージ
10 コントローラ
1 Smartphone 2 Touch screen display 9 Storage 10 Controller

Claims (6)

撮像部と、
タッチスクリーンディスプレイと、
前記タッチスクリーンディスプレイに対して接触物が接触したままで移動するジェスチャを検出すると、前記撮像部に連続的に撮像を行わせ、撮像された画像データを記憶するコントローラと、を備え、
前記コントローラは、前記接触物が所定量移動したことを検知することなく前記タッチスクリーンディスプレイに対する接触を検知しなくなったら、前記記憶された画像データを消去する装置。
An imaging unit;
Touch screen display,
When the contact product detects a gesture to move it remains in contact against the touch screen display, to perform the continuous imaging on the imaging unit, and a controller you store the image data captured, the,
The controller deletes the stored image data when the controller does not detect contact with the touch screen display without detecting that the contact object has moved a predetermined amount .
前記コントローラは、前記タッチスクリーンディスプレイに対する接触を検出しなくなったら、前記連続的な撮像を終了させる、When the controller no longer detects contact with the touch screen display, the controller ends the continuous imaging.
請求項1に記載の装置。The apparatus of claim 1.
前記コントローラは、前記記憶された画像データの空間周波数に基づいて、ブレの少ない画像データを選択する、The controller selects image data with less blur based on a spatial frequency of the stored image data;
請求項2に記載の装置。The apparatus of claim 2.
前記コントローラは、前記ブレの少ない画像データをディスプレイに表示する、The controller displays the image data with less blur on a display;
請求項3に記載の装置。The apparatus of claim 3.
前記コントローラは、選択されなかった画像データを消去する、The controller erases unselected image data.
請求項3又は4に記載の装置。The apparatus according to claim 3 or 4.
撮像部と、タッチスクリーンディスプレイとを備えた装置が行う方法であって、
前記タッチスクリーンディスプレイに対して接触物が接触したままで移動するジェスチャを検出するステップと、
記ジェスチャを検出すると、前記撮像部に連続的に撮像を行わせ、撮像された画像データを記憶するステップと、
前記接触物が所定量移動したことを検知することなく前記タッチスクリーンディスプレイに対する接触を検知しなくなったら、前記記憶された画像データを消去するステップと、を含む方法。
A method performed by an apparatus including an imaging unit and a touch screen display,
Detecting a gesture to move while contacted object contacts to the touchscreen display,
Upon detection of the front article Esucha, to perform the continuous imaging on the imaging unit, the steps it stores the image data captured,
Erasing the stored image data when no contact with the touch screen display is detected without detecting that the contact has moved a predetermined amount .
JP2012143134A 2012-06-26 2012-06-26 Apparatus and method Expired - Fee Related JP6139068B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012143134A JP6139068B2 (en) 2012-06-26 2012-06-26 Apparatus and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012143134A JP6139068B2 (en) 2012-06-26 2012-06-26 Apparatus and method

Publications (2)

Publication Number Publication Date
JP2014006800A JP2014006800A (en) 2014-01-16
JP6139068B2 true JP6139068B2 (en) 2017-05-31

Family

ID=50104438

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012143134A Expired - Fee Related JP6139068B2 (en) 2012-06-26 2012-06-26 Apparatus and method

Country Status (1)

Country Link
JP (1) JP6139068B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3182692B1 (en) * 2014-08-12 2023-12-20 Sony Group Corporation Information processing device, program, and information processing method
CN105072336A (en) * 2015-07-31 2015-11-18 小米科技有限责任公司 Control method, apparatus and device for adjusting photographing function
TWI714888B (en) * 2018-09-28 2021-01-01 圓展科技股份有限公司 Operating method of interactive touch display system

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005031913A (en) * 2003-07-10 2005-02-03 Casio Comput Co Ltd Information terminal
JP5040753B2 (en) * 2008-03-18 2012-10-03 パナソニック株式会社 Imaging device
JP2010226319A (en) * 2009-03-23 2010-10-07 Fujifilm Corp Imaging apparatus and imaging method
JP5502584B2 (en) * 2010-04-26 2014-05-28 ローム株式会社 Digital camera
JP2012010061A (en) * 2010-06-24 2012-01-12 Nikon Corp Imaging apparatus
JP2012049872A (en) * 2010-08-27 2012-03-08 Kyocera Corp Portable terminal, lock release program and lock release method

Also Published As

Publication number Publication date
JP2014006800A (en) 2014-01-16

Similar Documents

Publication Publication Date Title
JP5850736B2 (en) Apparatus, method, and program
JP6017891B2 (en) Apparatus, method, and program
JP5762944B2 (en) Apparatus, method, and program
JP5715042B2 (en) Apparatus, method, and program
JP5840045B2 (en) Apparatus, method, and program
JP6091829B2 (en) Apparatus, method, and program
US20130167090A1 (en) Device, method, and storage medium storing program
JP5827109B2 (en) Apparatus, method, and program
JP2013047919A (en) Device, method, and program
JP6058790B2 (en) Apparatus, method, and program
JP2013080345A (en) Device, method, and program
JP5805685B2 (en) Electronic device, control method, and control program
JP5779063B2 (en) Apparatus, method, and program
JP5753475B2 (en) Apparatus, method, and program
JP6139068B2 (en) Apparatus and method
JP5762885B2 (en) Apparatus, method, and program
JP5859932B2 (en) Apparatus, method, and program
JP2013065290A (en) Device, method, and program
JP2013080353A (en) Device, method, and program
JP5959372B2 (en) Apparatus, method, and program
JP6080355B2 (en) Apparatus, method, and program
JP6169815B2 (en) Apparatus, method, and program
JP2013101547A (en) Device, method, and program
JP5848971B2 (en) Apparatus, method, and program
JP5740366B2 (en) Apparatus, method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150113

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20151130

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20151201

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160128

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20160329

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160628

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20160706

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20160805

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170217

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170427

R150 Certificate of patent or registration of utility model

Ref document number: 6139068

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees