JP2017027563A - Electronic apparatus - Google Patents

Electronic apparatus Download PDF

Info

Publication number
JP2017027563A
JP2017027563A JP2015148815A JP2015148815A JP2017027563A JP 2017027563 A JP2017027563 A JP 2017027563A JP 2015148815 A JP2015148815 A JP 2015148815A JP 2015148815 A JP2015148815 A JP 2015148815A JP 2017027563 A JP2017027563 A JP 2017027563A
Authority
JP
Japan
Prior art keywords
thumbnail
displayed
display
display screen
application
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015148815A
Other languages
Japanese (ja)
Other versions
JP6514061B2 (en
Inventor
佳奈 政木
Kana MASAKI
佳奈 政木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kyocera Corp
Original Assignee
Kyocera Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kyocera Corp filed Critical Kyocera Corp
Priority to JP2015148815A priority Critical patent/JP6514061B2/en
Priority to US15/215,429 priority patent/US20170031580A1/en
Publication of JP2017027563A publication Critical patent/JP2017027563A/en
Application granted granted Critical
Publication of JP6514061B2 publication Critical patent/JP6514061B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04847Interaction techniques to control parameter settings, e.g. interaction with sliders or dials
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/414Specialised client platforms, e.g. receiver in car or embedded in a mobile appliance
    • H04N21/41407Specialised client platforms, e.g. receiver in car or embedded in a mobile appliance embedded in a portable device, e.g. video client on a mobile phone, PDA, laptop
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/431Generation of visual interfaces for content selection or interaction; Content or additional data rendering
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/472End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
    • H04N21/47205End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content for manipulating displayed content, e.g. interacting with MPEG-4 objects, editing locally
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04803Split screen, i.e. subdividing the display area or the window area into separate subareas
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04808Several contacts: gestures triggering a specific function, e.g. scrolling, zooming, right-click, when the user establishes several contacts with the surface simultaneously; e.g. using several fingers or a combination of fingers and pen

Abstract

PROBLEM TO BE SOLVED: To provide an electronic apparatus capable of executing specific processing through simple operation with respect to an object.SOLUTION: The electronic apparatus, in a first state in which a first object and a second object are displayed on the display screen, in the case where a first operation for selecting the first object and the second object is detected and then a second operation for separating the position of the first object and the position of the second object is detected, changes display of the display screen into a second state in which the first object and the second object, the positions of which are separated from each other compared with the first state, are displayed and a third object is displayed between the first object and the second object.SELECTED DRAWING: Figure 4

Description

本開示の複数の実施態様は、電子機器に関する。   Embodiments of the present disclosure relate to an electronic device.

近年、パーソナルコンピュータ、携帯端末(携帯電話機、タブレット端末、携帯ゲーム機など)などの電子機器は、例えば、サムネイル、アイコン、アプリケーション、画像などのオブジェクトを表示する機能を備えている。   In recent years, electronic devices such as personal computers and mobile terminals (cell phones, tablet terminals, mobile game machines, etc.) have a function of displaying objects such as thumbnails, icons, applications, images, and the like.

例えば、特許文献1には、画像をタッチ操作により拡大操作可能である電子機器が記載されている。   For example, Patent Document 1 describes an electronic device that can enlarge an image by a touch operation.

特開2013−114558公報JP2013-114558A

オブジェクトを表示できる電子機器には、さらなる操作性の改善が要求されている。本開示は、表示されたオブジェクトに対して簡易な操作により特定の処理を実行可能な電子機器を提供することを目的とする。   Electronic devices that can display objects are required to be further improved in operability. An object of this indication is to provide the electronic device which can perform a specific process with respect to the displayed object by simple operation.

本開示の一実施形態にかかる電子機器は、表示画面と、制御部と、を有する。前記表示画面は、第一のオブジェクトと第二のオブジェクトとを表示できる。制御部は、前記第一のオブジェクトと前記第二のオブジェクトと、前記表示画面に表示させる制御部と、を有する。前記制御部は、前記表示画面に前記第一のオブジェクトと前記第二のオブジェクトが表示された第一の状態において、前記第一のオブジェクトと前記第二のオブジェクトとを選択する第一の操作が検出された後、前記第一のオブジェクトの位置と前記第二のオブジェクトの位置とを離すための第二の操作が検出された場合、前記第一の状態よりも互いに位置が離れた前記第一のオブジェクトと前記第二のオブジェクトとを表示するとともに、前記第一のオブジェクトと前記第二のオブジェクトとの間に第三のオブジェクトが表示された第二の状態に、前記表示画面の表示を変化させる。   An electronic device according to an embodiment of the present disclosure includes a display screen and a control unit. The display screen can display a first object and a second object. The control unit includes the first object, the second object, and a control unit that is displayed on the display screen. In the first state where the first object and the second object are displayed on the display screen, the control unit performs a first operation to select the first object and the second object. After the detection, when a second operation for separating the position of the first object and the position of the second object is detected, the positions of the first objects separated from each other than the first state are detected. And the second object are displayed, and the display screen is changed to a second state in which a third object is displayed between the first object and the second object. Let

本開示の電子機器は、第一のオブジェクトおよび第二のオブジェクトに対して簡易な操作を行うことにより第三のオブジェクトを表示することが可能となる。   The electronic apparatus of the present disclosure can display the third object by performing a simple operation on the first object and the second object.

図1は、本開示の一実施形態を示す携帯電話機100の外観斜視図である。FIG. 1 is an external perspective view of a mobile phone 100 showing an embodiment of the present disclosure. 図2は、携帯電話機100のブロック構成図である。FIG. 2 is a block configuration diagram of the mobile phone 100. 図3は、携帯電話機100の表示画面102の一例を示す図である。FIG. 3 is a diagram illustrating an example of the display screen 102 of the mobile phone 100. 図4(a)〜(d)は、携帯電話機100の表示画面102の画面遷移を示す図である。4A to 4D are diagrams illustrating screen transitions of the display screen 102 of the mobile phone 100. FIG. 図5(a)〜(d)は、図4の画面遷移後の表示画面102における画面遷移図である。5A to 5D are screen transition diagrams on the display screen 102 after the screen transition of FIG. 図6(a)〜(b)は、図5の画面遷移後の表示画面102における画面遷移図である。6A and 6B are screen transition diagrams on the display screen 102 after the screen transition of FIG. 図7(a)〜(b)は、携帯電話機100の表示画面102の画面遷移図である。7A and 7B are screen transition diagrams of the display screen 102 of the mobile phone 100. FIG. 図8(a)〜(b)は、携帯電話機100の表示画面102の画面遷移図である。8A and 8B are screen transition diagrams of the display screen 102 of the mobile phone 100. FIG. 図9は、携帯電話機100におけるプログラムのフローチャートの一部である。FIG. 9 is a part of a flowchart of a program in the mobile phone 100. 図10は、携帯電話機100の表示画面102を示す図である。FIG. 10 is a diagram showing a display screen 102 of the mobile phone 100. 図11(a)〜(d)は、図4〜図8における表示画面102とは異なる表示画面102に関する画面遷移図である。FIGS. 11A to 11D are screen transition diagrams relating to the display screen 102 different from the display screen 102 in FIGS. 4 to 8.

本開示の一実施形態にかかる電子機器を説明する。   An electronic apparatus according to an embodiment of the present disclosure will be described.

〔構成〕
本開示の一実施態様にかかる電子機器としては、パーソナルコンピュータ、携帯端末(携帯電話、タブレット端末、携帯ゲーム機、ウェアラブルデバイス(時計、メガネ、ベルト、服などであって表示画面を有するデバイス))などが挙げられる。
〔Constitution〕
As an electronic apparatus according to an embodiment of the present disclosure, a personal computer, a portable terminal (a mobile phone, a tablet terminal, a portable game machine, a wearable device (a device such as a watch, glasses, a belt, clothes, etc. having a display screen)) Etc.

以下に、電子機器として携帯電話機を具体例として挙げるが、本開示の電子機器は携帯電話機に限定されない。   Hereinafter, a mobile phone is given as a specific example of the electronic device, but the electronic device of the present disclosure is not limited to the mobile phone.

以下に、電子機器の一例である携帯電話機を用いて本開示を説明する。   The present disclosure will be described below using a mobile phone that is an example of an electronic device.

図1は、携帯電話機100の外観斜視図である。なお、図1においては一例としてタッチ操作が可能なストレートタイプの携帯電話機100を示す。   FIG. 1 is an external perspective view of the mobile phone 100. FIG. 1 shows a straight-type mobile phone 100 capable of touch operation as an example.

なお、携帯電話機の具体例として、前述のようにストレートタイプの携帯電話機100を示しているが、他に、折り畳み型、スライド型などの携帯電話機であってもかまわない。   As a specific example of the mobile phone, the straight type mobile phone 100 is shown as described above, but other types of mobile phones such as a folding type and a slide type may be used.

図1に示す携帯電話機100の外観には、ランプ101、表示画面102、光センサ103、スピーカ(レシーバー)104、マイク105、ボタン部106、カメラ窓107が備えられている。   A mobile phone 100 shown in FIG. 1 includes a lamp 101, a display screen 102, an optical sensor 103, a speaker (receiver) 104, a microphone 105, a button unit 106, and a camera window 107.

ランプ101は、電話の着信中であること、不在着信が存在することなどの電話の着信情報、または、新着メールを受信したこと、未読メールが存在することなどのメールの受信情報を、外部に対して発光することによりユーザへ報知することができる。また、ランプ101は他に、アラーム日時到来などをユーザへ報知することもできる。ランプ101は、LEDなどの発光素子により構成されている。ランプ101としては、例えば、LEDランプなどが挙げられる。ランプ101は、点灯、点滅など光を発してユーザに報知する。   The lamp 101 externally receives incoming call information such as that a call is being received or a missed call exists, or incoming mail information such as that a new mail has been received or an unread mail exists. The user can be notified by emitting light. In addition, the lamp 101 can also notify the user of the arrival of an alarm date and time. The lamp 101 is composed of a light emitting element such as an LED. Examples of the lamp 101 include an LED lamp. The lamp 101 emits light such as lighting and blinking to notify the user.

表示画面102は、各種情報を表示できる。各種情報としては、例えば、アプリケーションを示すアイコン、起動中のアプリケーション、電波状態表示、電池残量、日付表示、時刻表示などが挙げられる。表示画面102は、透明なカバーパネルと、その裏面側に設けられた表示部120と、を含む。表示部120は例えば、液晶表示部、有機EL(ELECTRO LUMINESCENCE)表示部、プラズマ表示部、電子ペーパーなどが挙げられる。表示部120が液晶表示部の場合、表示部120のバックライトを発光して各種情報を表示画面102に表示する。また、表示部120が有機EL表示部の場合、表示部120の発光体を発光して各種情報を表示画面102に表示する。   The display screen 102 can display various information. Examples of the various information include an icon indicating an application, a running application, a radio wave state display, a remaining battery level, a date display, and a time display. The display screen 102 includes a transparent cover panel and a display unit 120 provided on the back side thereof. Examples of the display unit 120 include a liquid crystal display unit, an organic EL (ELECTRO LUMINESENCE) display unit, a plasma display unit, and electronic paper. When the display unit 120 is a liquid crystal display unit, the backlight of the display unit 120 is emitted to display various information on the display screen 102. When the display unit 120 is an organic EL display unit, the light emitter of the display unit 120 emits light and various information is displayed on the display screen 102.

ユーザからの操作を受け付ける操作部の具体例として、例えば、タッチ操作部114が挙げられる。タッチ操作部114としては、タッチパネルなどが挙げられる。タッチパネルには、例えば、静電容量方式、抵抗膜方式、光学式、超音波表面弾性波方式、赤外線遮光方式、電磁誘導方式、画像認識方式など種々の方式がある。なお、前記操作部としては、タッチ操作部114の代わりに、近接を検出すると操作が可能な近接操作部であってもよい。近接操作部としては、近接センサなどにより、例えば、手の動きなどを検出して、操作するものが挙げられる。ほかに、操作部としては、例えば、カメラなどによりユーザの動きを検知して、ユーザからの操作を受け付けてもよい。   As a specific example of the operation unit that receives an operation from the user, for example, the touch operation unit 114 can be cited. Examples of the touch operation unit 114 include a touch panel. There are various types of touch panels such as a capacitance method, a resistance film method, an optical method, an ultrasonic surface acoustic wave method, an infrared light shielding method, an electromagnetic induction method, and an image recognition method. The operation unit may be a proximity operation unit that can be operated when proximity is detected instead of the touch operation unit 114. An example of the proximity operation unit is one that detects and operates a hand movement or the like using a proximity sensor or the like. In addition, as the operation unit, for example, a user's movement may be detected by a camera or the like, and an operation from the user may be received.

図1に示す具体例における表示画面102は、表示画面102を正面視したときに、カバーパネルと表示部120とタッチ操作部114とが重なっており、表示画面102に表示されたオブジェクトに対して、ユーザがカバーパネル上にてタッチ操作することで、前記オブジェクトに対して操作をすることができる。   The display screen 102 in the specific example shown in FIG. 1 has a cover panel, a display unit 120, and a touch operation unit 114 that overlap each other when the display screen 102 is viewed from the front. When the user performs a touch operation on the cover panel, the object can be operated.

光センサ103は、周囲の明るさを検出する明るさ検出部として機能する。光センサ103は、図1においては携帯電話機100の前面に設けられているが、その設置場所は限定されず、周囲の環境を精度よく検出される場所であればかまわない。光センサ103としては、フォトトランジスタ,フォトダイオードなどを適用したものが挙げられる。   The optical sensor 103 functions as a brightness detection unit that detects ambient brightness. Although the optical sensor 103 is provided on the front surface of the mobile phone 100 in FIG. 1, the installation location is not limited and may be any location where the surrounding environment can be accurately detected. Examples of the optical sensor 103 include those using a phototransistor, a photodiode, or the like.

スピーカ104は、後述する制御部108からの制御信号によって外部に音を出力する機能を有する。スピーカの位置は特に限定されず、例えば、携帯電話機100の表面、側面または裏面に設けられる。スピーカ104は例えば、通話相手からの音声の出力、メロディ、呼び出し音などの出力ができる。   The speaker 104 has a function of outputting sound to the outside by a control signal from the control unit 108 described later. The position of the speaker is not particularly limited. For example, the speaker is provided on the front surface, the side surface, or the back surface of the mobile phone 100. For example, the speaker 104 can output a voice from a call partner, a melody, a ringing tone, or the like.

マイク105は、集音した音声を音声信号に変換して後述する音声エンコーダ117へ出力する。   The microphone 105 converts the collected sound into a sound signal and outputs the sound signal to a sound encoder 117 described later.

ボタン部106は、ユーザからの操作入力を受け付けるボタン状のハードキーである。ボタン部106が受け付けたユーザからの操作は、信号として制御部108に入力される。図1の場合、ボタン部106が押圧されることで操作がなされる。ボタン部106としては、例えば、電源キー、ボリュームキー、ホームキーなどが挙げられる。   The button unit 106 is a button-like hard key that receives an operation input from the user. The operation from the user accepted by the button unit 106 is input to the control unit 108 as a signal. In the case of FIG. 1, the operation is performed by pressing the button unit 106. Examples of the button unit 106 include a power key, a volume key, and a home key.

カメラ窓107は、携帯電話機100の前面または背面に設けられる。カメラ窓107には透明なパネルまたはレンズが設けられており、被写体像を後述するカメラモジュール116に送る。   The camera window 107 is provided on the front surface or the back surface of the mobile phone 100. The camera window 107 is provided with a transparent panel or lens, and sends the subject image to the camera module 116 described later.

図2は、携帯電話機100のブロック構成図である。   FIG. 2 is a block configuration diagram of the mobile phone 100.

制御部108は、携帯電話機100に備えられたソフトウェアおよびハードウェアを制御する。例えば、制御部108は、タッチ操作部114、ボタン部106、など、ユーザにより受け付けた入力操作を検知して、携帯電話機100に備えられた各種機能を実行する。また、制御部108は、ROM110またはRAM111と協働して携帯電話機100に記憶されたプログラムを実行する。制御部108としては、例えば、制御用CPUなどが挙げられる。   The control unit 108 controls software and hardware provided in the mobile phone 100. For example, the control unit 108 detects input operations received by the user, such as the touch operation unit 114 and the button unit 106, and executes various functions provided in the mobile phone 100. The control unit 108 executes a program stored in the mobile phone 100 in cooperation with the ROM 110 or the RAM 111. An example of the control unit 108 is a control CPU.

振動部109は、制御部108からの制御信号によって機械的振動を生じる。振動部109は、例えば、モーターなどから構成され、電話の着信情報、メールの受信情報、アラーム日時到来などを機械的振動としてユーザへ報知する。   The vibration unit 109 generates mechanical vibration in response to a control signal from the control unit 108. The vibration unit 109 includes, for example, a motor, and notifies the user of incoming call information, incoming mail information, arrival of alarm date and time, etc. as mechanical vibrations to the user.

ROM(READ ONLY MEMORY)110は、携帯電話機100に備えられた各種処理を実行するためのプログラムやデータなどを記憶する。   A ROM (READ ONLY MEMORY) 110 stores programs, data, and the like for executing various processes provided in the mobile phone 100.

RAM(RANDOM ACCESS MEMORY)111は、制御部108からアクセス可能であり、制御部108が各種処理を実行するための一時記憶領域(バッファ領域とも呼ぶ)として利用される。RAM111は、他に、アドレス帳データ、メールデータ等、電話モードにて使用するデータ、カメラモードにて撮影された画像データ、動画データ等、機器内で生成される各種データを記憶することができる。RAM111に保存される画像には、静止画および動画がある。動画は複数のフレームで構成され、各フレームは静止画からなる。静止画は、アイコン、ボタン、写真、サムネイル画像およびテキストレイアウト領域を含む。テキストレイアウト領域は、テキスト情報が表示された領域である。また、後述する動画と動画のサムネイル画像とは、動画の識別情報により関連づけられてRAM111に記憶される。   A RAM (RANDOM ACCESS MEMORY) 111 is accessible from the control unit 108 and is used as a temporary storage area (also referred to as a buffer area) for the control unit 108 to execute various processes. In addition, the RAM 111 can store various data generated in the device such as address book data, mail data, data used in the telephone mode, image data photographed in the camera mode, moving image data, and the like. . The images stored in the RAM 111 include still images and moving images. A moving image is composed of a plurality of frames, and each frame is composed of a still image. The still image includes an icon, a button, a photo, a thumbnail image, and a text layout area. The text layout area is an area where text information is displayed. A moving image and a thumbnail image of the moving image, which will be described later, are stored in the RAM 111 in association with the moving image identification information.

無線回路112は、アンテナ113から入力された所定の高周波信号に復調処理及び復号処理を施してデジタルの音声信号へと変換する。また、制御部108から入力されたデジタルの音声信号には符号化処理及び変調処理を施して、高周波信号に変換する。そして、無線回路112は高周波信号をアンテナ113へ出力する。   The radio circuit 112 performs demodulation processing and decoding processing on a predetermined high-frequency signal input from the antenna 113 to convert it into a digital audio signal. The digital audio signal input from the control unit 108 is subjected to encoding processing and modulation processing to be converted into a high frequency signal. Then, the radio circuit 112 outputs a high frequency signal to the antenna 113.

アンテナ113は、所定の周波数帯域を受信して高周波信号として無線回路112に出力する。また無線回路112より出力された高周波信号を所定の周波数帯域の信号として出力する。   The antenna 113 receives a predetermined frequency band and outputs it to the radio circuit 112 as a high frequency signal. The high-frequency signal output from the wireless circuit 112 is output as a signal in a predetermined frequency band.

カメラモジュール116はCCD等の撮像素子を有する。カメラモジュール116は、撮像素子から出力された撮像信号をデジタル化し、その撮像信号にガンマ補正等の各種補正を施して映像エンコーダ115へ出力する。映像エンコーダ115は、カメラモジュール116からの撮像信号にエンコード処理を施して制御部108へ出力する。このカメラモジュール116は、カメラ窓107を通して被写体像を取り込む。   The camera module 116 has an image sensor such as a CCD. The camera module 116 digitizes the image signal output from the image sensor, performs various corrections such as gamma correction on the image signal, and outputs the image signal to the video encoder 115. The video encoder 115 encodes the imaging signal from the camera module 116 and outputs the encoded signal to the control unit 108. The camera module 116 captures a subject image through the camera window 107.

音声エンコーダ117は、マイク105からのアナログの音声信号をデジタルの音声信号に変換するとともに、デジタルの音声信号にエンコード処理を施して制御部108へ出力する。   The audio encoder 117 converts an analog audio signal from the microphone 105 into a digital audio signal, encodes the digital audio signal, and outputs it to the control unit 108.

映像デコーダ119は、制御部108からの画像情報を表示部120で表示できる画像信号に変換し、これらを表示部120に出力する。表示部120は、画像信号に応じた画像をその表示面に表示する。   The video decoder 119 converts the image information from the control unit 108 into an image signal that can be displayed on the display unit 120, and outputs these to the display unit 120. The display unit 120 displays an image corresponding to the image signal on the display surface.

音声デコーダ118は、CPU100からの音声信号と、着信音やアラーム音等の各種報知音の音信号とにデコード処理を施し、さらにアナログの音声信号に変換してスピーカ104に出力する。   The audio decoder 118 performs a decoding process on the audio signal from the CPU 100 and the sound signals of various notification sounds such as a ring tone and an alarm sound, converts the decoded signal into an analog audio signal, and outputs the analog audio signal to the speaker 104.

クロック121は、時間を計測し、計測した時間を応じた信号を制御部108へ出力する。   The clock 121 measures time and outputs a signal corresponding to the measured time to the control unit 108.

〔動作処理〕
以下に、本開示の一実施態様である携帯電話機100の動作処理を示す。
[Operation processing]
Hereinafter, an operation process of the mobile phone 100 according to an embodiment of the present disclosure will be described.

図3は、携帯電話機100の表示画面102の一例を示す図である。図3には、動画編集画面が示されている。具体的に、表示画面102には、1つの動画を時間毎に分割したパート(図3の場合、5分毎に動画を分割)を示すサムネイル11a〜11c、動画のプ
レビュー画面10、動画の現在の進捗を示す進捗バー12が示されている(図3の場合、プレビュー画面10に表示されている動画の進捗は、8分57秒であることを示す)。サムネイル11a〜11cの下には、動画の時間(たとえば、5:00は5分0秒を示す)が表示されている。なお、図3に示す表示画面102の状態が、請求項における「第一の状態」に該当する。
FIG. 3 is a diagram illustrating an example of the display screen 102 of the mobile phone 100. FIG. 3 shows a moving image editing screen. Specifically, on the display screen 102, thumbnails 11a to 11c indicating a part obtained by dividing one moving image by time (in the case of FIG. 3, the moving image is divided every 5 minutes), a moving image preview screen 10, and the current moving image. A progress bar 12 is shown (in the case of FIG. 3, the progress of the moving image displayed on the preview screen 10 is 8 minutes 57 seconds). Below the thumbnails 11a to 11c, the time of the moving image (for example, 5:00 indicates 5 minutes and 0 seconds) is displayed. The state of the display screen 102 shown in FIG. 3 corresponds to the “first state” in the claims.

なお、動画は、携帯電話機100が有するカメラにより撮影されてもよいし、インターネットにおけるサイトなどからダウンロードされてもよい。   Note that the moving image may be taken by a camera included in the mobile phone 100 or downloaded from a site on the Internet.

図4〜図6には、一連の画面遷移が表示されている。   A series of screen transitions are displayed in FIGS.

図4(a)では、表示画面102において、サムネイル11a(請求項における「第一のオブジェクト」に該当)にユーザの指F1がタッチし、隣接するサムネイル11b(請求項における「第二のオブジェクト」に該当)にユーザの指F2がタッチすることで、サムネイル11aおよびサムネイル11bが選択されている(請求項における「第一の操作」に該当)。図4(a)の状態から、図4(b)に示すように、指F1と指F2をサムネイル11aおよびサムネイル11bにタッチさせたままそれらの指を広げると(請求項における「第二の操作」に該当)、サムネイル11aとサムネイル11bとが指F1と指F2の移動に併せて移動して表示され、移動後のサムネイル11aと11bとの間に、操作メニュー13(請求項における「第三のオブジェクト」に該当)が表示される(請求項における「第二の状態」に該当)。図4(b)の場合、操作メニュー13には、コピー(copy)、貼り付け(paste)、切り取り(cut)が表示されているが、本開示はこれに限定されない。   4A, on the display screen 102, the user's finger F1 touches the thumbnail 11a (corresponding to “first object” in the claims), and the adjacent thumbnail 11b (“second object” in the claims). The thumbnail 11a and the thumbnail 11b are selected (corresponding to "first operation" in the claims). When the fingers F1 and F2 are spread out while touching the thumbnails 11a and 11b with the fingers F1 and F2 as shown in FIG. 4B from the state of FIG. The thumbnail 11a and the thumbnail 11b are moved and displayed in accordance with the movement of the finger F1 and the finger F2, and the operation menu 13 is displayed between the moved thumbnails 11a and 11b. (Corresponding to “second state” in the claims). In the case of FIG. 4B, the operation menu 13 displays copy, paste, and cut, but the present disclosure is not limited to this.

図4(c)に示すように、指F1と指F2がサムネイル11aおよびサムネイル11bから離れた後、操作メニュー13の項目のうち「コピー」を選択するように指F1が操作メニュー13にタッチされる。そのあと、図4(d)に示すように、コピーしたいサムネイル(この場合はサムネイル11b)を選択するように指F1がサムネイル11bにタッチされる。   As shown in FIG. 4C, after the finger F1 and the finger F2 are separated from the thumbnail 11a and the thumbnail 11b, the finger F1 is touched on the operation menu 13 so as to select “Copy” from the items of the operation menu 13. The Thereafter, as shown in FIG. 4D, the finger F1 is touched on the thumbnail 11b so as to select a thumbnail to be copied (in this case, the thumbnail 11b).

図5および図6では、コピーしたいサムネイルのコピー先を選択し、コピーを実行する際の表示画面102の画面遷移を示す。   5 and 6 show screen transitions of the display screen 102 when a copy destination of a thumbnail to be copied is selected and copy is executed.

図4(d)の後、図5(a)に示すように、サムネイル11bの右側から左向き(図5(a)におけるD方向)に指F1をスライドさせる。指F1をスライドさせることで、図5(b)に示すように、サムネイル11bよりも後ろに位置するサムネイル11c〜11eが表示される。   After FIG. 4D, as shown in FIG. 5A, the finger F1 is slid from the right side of the thumbnail 11b to the left (D direction in FIG. 5A). By sliding the finger F1, the thumbnails 11c to 11e positioned behind the thumbnail 11b are displayed as shown in FIG. 5B.

図5(c)に示すように、コピーしたサムネイル11bの貼り付け先を選択する。図5(c)の場合、ユーザは、サムネイル11dとサムネイルeとの間にサムネイル11bを貼り付けようとしている。図5(d)に示すように、指F1と指F2をサムネイル11dおよびサムネイル11eにタッチさせたままそれらの指を広げると、移動したサムネイル11dとサムネイル11eとの間に「貼り付けますか?」という表示14が示される。次に、図6(a)に示すように、「貼り付けますか?」の表示14を指F1でタッチすると、図6(b)に示すように、サムネイル11dおよびサムネイル11eとの間にサムネイル11bが貼り付けられる。これらの操作により、動画において、サムネイル11dで表される動画パートとサムネイル11eで表される動画パートの間に、サムネイル11bで表される動画パートが位置させることができた。   As shown in FIG. 5C, the paste destination of the copied thumbnail 11b is selected. In the case of FIG. 5C, the user intends to paste the thumbnail 11b between the thumbnail 11d and the thumbnail e. As shown in FIG. 5D, when the fingers F1 and F2 are touched on the thumbnails 11d and 11e and the fingers are spread out, the message “Do you want to paste?” Between the moved thumbnails 11d and 11e. "Is displayed. Next, as shown in FIG. 6A, when the display 14 “Do you want to paste?” Is touched with the finger F1, as shown in FIG. 6B, a thumbnail is placed between the thumbnail 11d and the thumbnail 11e. 11b is pasted. By these operations, in the moving image, the moving image part represented by the thumbnail 11b can be positioned between the moving image part represented by the thumbnail 11d and the moving image part represented by the thumbnail 11e.

以上のように、図4から図6に示す操作を行うことにより、2つのオブジェクト(この
場合、オブジェクトは1つの動画をそれぞれ形成する複数のパートに関連するサムネイルに該当)の位置を離すために2つのオブジェクトを移動させたことにより、それらのオブジェクトの間から、別の表示(この場合、操作メニュー13)を表示させることができる。よって、通常時の表示画面(この場合、動画編集の際の通常時の表示画面)において、操作メニューなどの表示領域を別途設けずとも、操作メニューなどの表示を簡易な操作により呼び出すことができる。とくに電子機器が表示画面の小さい電子機器(特に携帯電話などの携帯通信端末装置)の場合に有用である。
As described above, by performing the operations shown in FIGS. 4 to 6, in order to release the positions of two objects (in this case, the objects correspond to thumbnails related to a plurality of parts that form one moving image). By moving the two objects, another display (in this case, the operation menu 13) can be displayed from between the objects. Therefore, on the normal display screen (in this case, the normal display screen when editing a movie), the operation menu display can be called by a simple operation without providing a separate display area for the operation menu. . This is particularly useful when the electronic device is an electronic device with a small display screen (particularly, a mobile communication terminal device such as a mobile phone).

なお、図5(c)および図5(d)に示したように、コピーしたいサムネイル11bの貼り付け先を選択する際に、サムネイル11dとサムネイル11eとが離れるように、指F1と指F2とをスワイプさせて貼り付け先を選択したが、本開示はこの内容に限定されない。例えば、図7(a)に示すように、サムネイル11dと11eとの間を指F1でタップすることで、図7(b)に示すように、サムネイル11dおよびサムネイル11eとの間に貼り付けたいサムネイル(この場合はサムネイル11b)が貼り付けられてもよい。   As shown in FIGS. 5C and 5D, when the paste destination of the thumbnail 11b to be copied is selected, the finger F1 and the finger F2 are separated so that the thumbnail 11d and the thumbnail 11e are separated from each other. However, the present disclosure is not limited to this content. For example, as shown in FIG. 7A, by tapping between the thumbnails 11d and 11e with the finger F1, the user wants to paste between the thumbnail 11d and the thumbnail 11e as shown in FIG. 7B. A thumbnail (in this case, thumbnail 11b) may be pasted.

図8では、図4(a)から図4(b)の後の操作の一例を示す。例えば、図4(b)に示すような表示画面102に操作メニュー13を表示させたが、操作メニュー13の表示をキャンセルさせたい場合、指F1および指F2を、サムネイル11aおよびサムネイル11bにタッチさせたまま、サムネイル11aおよびサムネイル11bを近づけるような方向(図8(a)における方向D1および方向D2)に移動させると、図8(b)に示すように、操作メニュー13の表示が消え、サムネイル11aおよびサムネイル11bが元の表示に戻る。なお、図8の例では、指F1と指F2が、サムネイル11aおよびサムネイル11bにタッチさせた状態で指F1と指F2を閉じる操作を示したが、本開示はこれに限定されない。例えば、図4(b)の表示画面の状態から、指F1および指F2を一旦離れた後に、再度、指F1および指F2がサムネイル11aおよびサムネイル11bに触れてから、図8(a)に示すように、サムネイル11aおよびサムネイル11bを指F1および指F2で閉じるように操作してもよい。   FIG. 8 shows an example of the operation after FIG. 4 (a) to FIG. 4 (b). For example, when the operation menu 13 is displayed on the display screen 102 as shown in FIG. 4B, but the display of the operation menu 13 is to be canceled, the finger F1 and the finger F2 are touched on the thumbnail 11a and the thumbnail 11b. If the thumbnail 11a and the thumbnail 11b are moved in such a direction as to approach (direction D1 and direction D2 in FIG. 8A), the operation menu 13 disappears as shown in FIG. 11a and thumbnail 11b return to the original display. In the example of FIG. 8, the operation of closing the finger F1 and the finger F2 with the finger F1 and the finger F2 touching the thumbnail 11a and the thumbnail 11b is shown, but the present disclosure is not limited to this. For example, after the finger F1 and the finger F2 are once removed from the state of the display screen in FIG. 4B, the finger F1 and the finger F2 touch the thumbnail 11a and the thumbnail 11b again, and then the state shown in FIG. In this manner, the thumbnail 11a and the thumbnail 11b may be operated so as to be closed with the finger F1 and the finger F2.

以上、図3から図8にもとづいて、本開示の一実施形態である、携帯電話機での動画編集について説明してきたが、請求項の内容は図3から図8の具体例に限定されない。   As mentioned above, based on FIGS. 3 to 8, the moving image editing on the mobile phone, which is an embodiment of the present disclosure, has been described, but the content of the claims is not limited to the specific examples of FIGS. 3 to 8.

次に、本開示の一実施形態を実行するプログラムについて図9を用いて説明する。なお、図3から図8にもとづいた例を示す。   Next, a program that executes an embodiment of the present disclosure will be described with reference to FIG. An example based on FIGS. 3 to 8 is shown.

ステップS01にて、2つのサムネイルに接触があったかを検出する。具体的には、図4(a)に示すように、サムネイル11aとサムネイル11bに対してタッチされたかどうかを検出する。タッチが検出されなかった場合(ステップS01:NO)、再びステップS01に戻る。タッチが検出された場合(ステップS01:YES)、2つのサムネイルの位置を離す操作があったかどうかを検出する(ステップS02)。具体的には、図4(b)に示すように、サムネイル11aとサムネイル11bに指等がタッチした状態から、タッチ位置が離れる移動があったかどうかを検出する。2つのサムネイルを離す操作がなかった場合(ステップS02:NO)、ステップS01に戻る。2つのサムネイルを離す操作があった場合(ステップS02:YES)、2つのサムネイルの位置を離し、操作メニューを表示させる(ステップS03)。具体的には図4(b)に示すように、サムネイル11aとサムネイル11bは、表示位置が離れるように移動し、移動後のサムネイル11aと11bとの間に、操作メニュー13が表示される。   In step S01, it is detected whether or not there is contact between the two thumbnails. Specifically, as shown in FIG. 4A, it is detected whether the thumbnail 11a and the thumbnail 11b are touched. If no touch is detected (step S01: NO), the process returns to step S01 again. When a touch is detected (step S01: YES), it is detected whether there has been an operation of releasing the positions of the two thumbnails (step S02). Specifically, as shown in FIG. 4B, it is detected whether or not the touch position has moved away from the state in which the finger or the like has touched the thumbnails 11a and 11b. If there is no operation to release the two thumbnails (step S02: NO), the process returns to step S01. When there is an operation for releasing two thumbnails (step S02: YES), the positions of the two thumbnails are released and an operation menu is displayed (step S03). Specifically, as shown in FIG. 4B, the thumbnail 11a and the thumbnail 11b move so that their display positions are separated from each other, and the operation menu 13 is displayed between the thumbnails 11a and 11b after the movement.

2つのサムネイルに対して接触が解除されたか、つまり、検出されていたタッチが検出されなくなったかどうかを検出する(ステップS04)。2つのサムネイルへの接触が解
除されなかった場合(ステップS04:NO)、つまり、2つのサムネイルへの接触が維持されている場合は、後述するステップS08にフローを移行する。2つのサムネイルへの接触が解除された場合(ステップS04:YES)、操作メニューへの選択操作があったかどうかを検出する(ステップS05)。具体的には、図4(c)に示すように、操作メニュー13に記載の項目(COPY、PASTE、CUT)のいずれかの表示に対して選択のためにタッチが検出されたかどうか検出される。メニューへの選択操作がなかった場合(ステップS05:NO)、フローは後述するステップS09にフローを移行する。メニューへの選択操作があった場合(ステップS05:YES)、サムネイルが選択されたかどうかを検出する(ステップS06)。具体的には、図4(d)に示すように、メニュー13のうち選択されたコピーに関し、コピーしたいサムネイルが選択されたかどうかが検出される。サムネイルが選択されない場合(ステップS06:NO)、フローはステップS06に戻る。サムネイルが選択された場合(ステップS06:YES)、メニューが実行される(ステップS07)。具体的には、図6(b)に示すように、コピーされたサムネイル11bが、サムネイル11dとサムネイル11eとの間に貼り付けられ、フローを終了する。
It is detected whether contact has been released with respect to the two thumbnails, that is, whether the detected touch is no longer detected (step S04). When the contact with the two thumbnails is not released (step S04: NO), that is, when the contact with the two thumbnails is maintained, the flow proceeds to step S08 described later. When the contact with the two thumbnails is released (step S04: YES), it is detected whether or not there has been a selection operation on the operation menu (step S05). Specifically, as shown in FIG. 4C, it is detected whether a touch is detected for selection with respect to any of the items (COPY, PASTE, CUT) described in the operation menu 13. . If there is no menu selection operation (step S05: NO), the flow proceeds to step S09 described later. If there is a selection operation on the menu (step S05: YES), it is detected whether a thumbnail has been selected (step S06). Specifically, as shown in FIG. 4D, regarding the copy selected in the menu 13, it is detected whether a thumbnail to be copied has been selected. If no thumbnail is selected (step S06: NO), the flow returns to step S06. When a thumbnail is selected (step S06: YES), a menu is executed (step S07). Specifically, as shown in FIG. 6B, the copied thumbnail 11b is pasted between the thumbnail 11d and the thumbnail 11e, and the flow ends.

ステップS04において2つのサムネイルの接触が解除されなかった場合(ステップS04:NO)、2つのサムネイルの位置を近づける操作があったかどうかを検出する(ステップS08)。具体的には、図8(a)に示すように、操作メニュー13を介して離れて表示されたサムネイル11aとサムネイル11bに対して指等がタッチした状態から、タッチ位置を近づける移動があったかどうかを検出する(ステップS08)。2つのサムネイルの位置を近づける操作がなかった場合(ステップS08:NO)、フローはステップS04に戻る。2つのサムネイルの位置を近づける操作があった場合(ステップS08:YES)、操作メニューの表示を消し、2つのサムネイルの表示位置を元に戻す(ステップS10)。   If the contact between the two thumbnails is not released in step S04 (step S04: NO), it is detected whether or not there is an operation for bringing the positions of the two thumbnails closer (step S08). Specifically, as shown in FIG. 8A, whether or not there has been a movement to bring the touch position closer from a state in which a finger or the like has touched the thumbnail 11a and the thumbnail 11b displayed separately via the operation menu 13 Is detected (step S08). If there is no operation for bringing the positions of the two thumbnails closer (step S08: NO), the flow returns to step S04. When there is an operation for bringing the positions of the two thumbnails closer (step S08: YES), the display of the operation menu is erased and the display positions of the two thumbnails are restored (step S10).

ステップS05においてメニューの選択がなされなかった場合(ステップS05:NO)、所定時間が経過したかどうかを検出する(ステップS09)。所定時間が経過していなければ(ステップS09:NO)、フローはステップS05に戻る。所定時間が経過していれば(ステップS09:YES)、操作メニューの表示を消し、2つのサムネイルの表示位置を元に戻す(ステップS10)。   If no menu is selected in step S05 (step S05: NO), it is detected whether a predetermined time has passed (step S09). If the predetermined time has not elapsed (step S09: NO), the flow returns to step S05. If the predetermined time has elapsed (step S09: YES), the display of the operation menu is erased, and the display positions of the two thumbnails are restored (step S10).

図3〜図9において、電子機器(この場合携帯電話機)における、動画の編集時のサムネイルへのタッチ操作について説明してきたが、請求項は動画編集時のサムネイルへの操作に限定されない。たとえば、複数の異なる動画が表示画面にそれぞれサムネイル表示されている場合、2つのサムネイルが選択された後にそれらの表示位置が離れるように操作されることで、2つのサムネイルとは別の表示(例えば、図4に記載の操作メニュー)な
どを表示させてもよい。
3 to 9, the touch operation on the thumbnail at the time of editing the moving image in the electronic apparatus (in this case, the mobile phone) has been described, but the claims are not limited to the operation on the thumbnail at the time of moving image editing. For example, when a plurality of different videos are displayed as thumbnails on the display screen, the two thumbnails are selected and then operated so that their display positions are separated from each other. , The operation menu described in FIG. 4, and the like may be displayed.

図10および図11には、図3〜図9とは異なる実施形態として、2つのアプリケーションを起動中において、それらアプリケーションの表示に対するタッチ操作について示している。   FIGS. 10 and 11 show a touch operation for displaying two applications while two applications are activated as an embodiment different from FIGS. 3 to 9.

図10において、携帯電話機100の表示画面102には、2つのアプリケーションが起動されている。1つのアプリケーションはアプリケーションAであり、他方のアプリケーションはアプリケーションBである。これらのアプリケーションは、表示画面102において、並んで表示されている。なお、携帯電話機100は、図3〜図8の場合、縦向き表示であったのに対して、図10および図11では横向き表示にしているが、表示の向きはいずれでもよい。なお、図10に示す表示画面102の状態が、請求項における「第一の状態」に該当する。   In FIG. 10, two applications are activated on the display screen 102 of the mobile phone 100. One application is application A and the other application is application B. These applications are displayed side by side on the display screen 102. 3 to 8, the cellular phone 100 is displayed in the portrait orientation, whereas in FIGS. 10 and 11, it is displayed in the landscape orientation. However, the orientation of the display may be any. The state of the display screen 102 shown in FIG. 10 corresponds to the “first state” in the claims.

図11(a)に示すように、アプリケーションAとアプリケーションBが表示された表示画面102において、アプリケーションAに指F1がタッチし、隣接するアプリケーションBに指F2がタッチしている。図11(a)から、図11(b)に示すように、指F1と指F2をアプリケーションAおよびアプリケーションBにタッチさせたままそれらの指を広げると、アプリケーションAとアプリケーションBとが指F1と指F2の移動に併せて移動して表示される。そして、移動後のアプリケーションAとアプリケーションBとの間に、アプリケーションCの少なくとも一部が表示される。図11に表示されるアプリケーションCは、起動はしているが図11(a)の表示画面102には表示されていないアプリケーションを示している。図11(b)においては、ある程度までアプリケーションAとアプリケーションBとが離れて表示された状態を示しているが、アプリケーションAとアプリケーションBとが図11(b)に示した場合よりも離れていない状態でアプリケーションCの少なくとも一部が表示されていてもよい。このような表示を行うことにより、ユーザは、指F1と指F2をアプリケーションAおよびアプリケーションBに接触させてからそれらの指を少し広げるという簡単な操作をするだけで、表示されてはいないが起動中のアプリケーションCの存在を確認することが可能となる。確認が終わった後は、例えば、前の具体例で記載した図8の操作を適用して、アプリケーションAとアプリケーションBに指F1および指F2をそれぞれタッチさせ、アプリケーションAとアプリケーションBを近づけるような方向に移動させることで、アプリケーションCの表示を消し、図10に示すように、アプリケーションAとアプリケーションBを元の位置に戻しても良い。   As shown in FIG. 11A, the finger F1 touches the application A and the finger F2 touches the adjacent application B on the display screen 102 on which the application A and the application B are displayed. From FIG. 11A, as shown in FIG. 11B, when the fingers F1 and F2 are spread on the application A and the application B while the fingers A1 and F2 are spread, the application A and the application B are connected to the finger F1. It is moved and displayed in accordance with the movement of the finger F2. Then, at least a part of the application C is displayed between the application A and the application B after movement. The application C displayed in FIG. 11 indicates an application that is activated but not displayed on the display screen 102 in FIG. FIG. 11B shows a state in which the application A and the application B are displayed apart to some extent, but the application A and the application B are not separated from the case shown in FIG. 11B. In the state, at least a part of the application C may be displayed. By performing such a display, the user can perform a simple operation of bringing the fingers F1 and F2 into contact with the application A and the application B and then widening the fingers a little, but they are not displayed but are activated. It is possible to confirm the presence of the application C inside. After the confirmation is completed, for example, by applying the operation of FIG. 8 described in the previous specific example, the application A and the application B are touched with the fingers F1 and F2, respectively, and the application A and the application B are brought close to each other. By moving in the direction, the display of the application C may be erased, and the applications A and B may be returned to their original positions as shown in FIG.

図11(b)においては、アプリケーションAとアプリケーションBとの後ろ側にアプリケーションCが位置するように表示されているが、アプリケーションCの表示はこれに限定されない。   In FIG. 11B, the application C is displayed so as to be positioned behind the application A and the application B, but the display of the application C is not limited to this.

図11(c)では、図11(b)において指F1と指F2をアプリケーションAおよびアプリケーションBにタッチさせたままそれらの指を広げて指F1と指F2とを表示画面102から離した後、アプリケーションAとアプリケーションBの間に表示されたアプリケーションCをアプリケーションBの代わりに表示させようとしている。具体的には、アプリケーションCに指F1をタッチしてから、図11(c)に示すように左から右の方向(方向D)に沿って指を移動させて指F1をアプリケーションBに位置させている。これにより、アプリケーションCの表示がアプリケーションBの上側に位置するように移動している。   In FIG. 11C, after the fingers F1 and F2 are spread from the display screen 102 with the fingers F1 and F2 touching the applications A and B in FIG. 11B, the fingers F1 and F2 are separated from the display screen 102. Application C displayed between application A and application B is displayed instead of application B. Specifically, after the finger F1 is touched on the application C, the finger F1 is positioned on the application B by moving the finger along the direction from left to right (direction D) as shown in FIG. ing. Thereby, the display of the application C is moved so as to be positioned above the application B.

図11(d)に示すように、図11(a)から図11(c)における操作を経ることで、アプリケーションBからアプリケーションCに、表示画面102の右側の領域の表示を変更することができる。なお、図11(d)において、表示されなくなったアプリケーションBは起動している。   As shown in FIG. 11D, the display in the right region of the display screen 102 can be changed from the application B to the application C through the operations in FIG. 11A to FIG. 11C. . In FIG. 11D, the application B that is no longer displayed is activated.

図10および図11の具体例では、請求項における第一のオブジェクトおよび第二のオブジェクトとして、起動中であり表示中のアプリケーション表示を示しており、第三のオブジェクトとして、起動中であるが表示されていなかったアプリケーション表示を示している。   In the specific examples of FIGS. 10 and 11, the first object and the second object in the claims show the application display being activated and being displayed, and the third object is being activated but is being displayed. It shows the application display that was not done.

以上のように、図面を用いて本開示を説明したが、本開示は図面に記載された具体例に限定されない。図3〜図11においては、第一のオブジェクトと第二のオブジェクトは、図3および図10に示す第一の状態では隙間なく隣接していたが、第一の状態において第一のオブジェクトと第二のオブジェクトとの間に隙間を有していてもよいし、第一のオブジェクトと第二のオブジェクトとの間に別のオブジェクトが位置していてもよい。   As described above, the present disclosure has been described using the drawings, but the present disclosure is not limited to the specific examples described in the drawings. 3 to 11, the first object and the second object are adjacent to each other without a gap in the first state shown in FIGS. 3 and 10, but in the first state, the first object and the second object are adjacent to each other. There may be a gap between the two objects, or another object may be located between the first object and the second object.

図面に記載された具体例において、請求項におけるオブジェクト(第一のオブジェクト、第二のオブジェクト、第三のオブジェクトを含む)としては、サムネイル、アプリケーション表示が示されたが、それらに限定されない。たとえば、オブジェクトとしては、アイコン(アプリケーションを示すアイコン、通知を示すアイコン)、文字、ソフトキーボードにおけるソフトキーなどが挙げられる。   In the specific examples described in the drawings, thumbnails and application displays are shown as the objects (including the first object, the second object, and the third object) in the claims, but are not limited thereto. For example, the object includes an icon (an icon indicating an application, an icon indicating a notification), a character, a soft key on a soft keyboard, and the like.

図面に示された具体例において、タッチ操作による操作を示したが、本開示はこれに限定されない。たとえば、表示画面102に接触させずとも、近接させることで前記オブジェクトを操作できてもよいし、例えば、1m以上などユーザと電子機器との距離が離れていても前記オブジェクトを操作できてもよい。   In the specific example shown in the drawings, the operation by the touch operation is shown, but the present disclosure is not limited to this. For example, the object may be operated by bringing them close to each other without touching the display screen 102, or the object may be operated even if the distance between the user and the electronic device is 1 m or more, for example. .

また、ユーザによる操作は指による操作に限られず、視線による操作、声による操作、ジェスチャによる操作、スタイラスなどの操作器具を用いた操作であってもよい。   Further, the operation by the user is not limited to the operation by the finger, and may be an operation using a line of sight, an operation using a voice, an operation using a gesture, or an operation using an operation tool such as a stylus.

10 プレビュー画面
11 サムネイル
12 進捗バー
13 操作メニュー
14 貼り付け表示
100 携帯電話機
101 ランプ
102 表示部
103 光センサ
104 スピーカ
105 マイク
106 ボタン部
108 制御部
109 振動部
110 ROM
111 RAM
112 無線回路
113 アンテナ
F1,F2 指
D 方向
DESCRIPTION OF SYMBOLS 10 Preview screen 11 Thumbnail 12 Progress bar 13 Operation menu 14 Paste display 100 Mobile phone 101 Lamp 102 Display part 103 Optical sensor 104 Speaker 105 Microphone 106 Button part 108 Control part 109 Vibration part 110 ROM
111 RAM
112 Radio circuit 113 Antenna F1, F2 Finger D direction

Claims (5)

第一のオブジェクトと第二のオブジェクトとを表示できる、表示画面と、
前記第一のオブジェクトと前記第二のオブジェクトとを、前記表示画面に表示させる制御部と、
を有する電子機器であって、
前記制御部は、
前記表示画面に前記第一のオブジェクトと前記第二のオブジェクトが表示された第一の状態において、前記第一のオブジェクトと前記第二のオブジェクトとを選択する第一の操作が検出された後、前記第一のオブジェクトの位置と前記第二のオブジェクトの位置とを離すための第二の操作が検出された場合、
前記第一の状態よりも互いに位置が離れた前記第一のオブジェクトと前記第二のオブジェクトとが表示され且つ前記第一のオブジェクトと前記第二のオブジェクトとの間に第三のオブジェクトが表示された第二の状態に、前記表示画面の表示を変化させる、
電子機器。
A display screen capable of displaying a first object and a second object;
A control unit for displaying the first object and the second object on the display screen;
An electronic device having
The controller is
In the first state where the first object and the second object are displayed on the display screen, after the first operation for selecting the first object and the second object is detected, When a second operation for separating the position of the first object and the position of the second object is detected,
The first object and the second object that are separated from each other than the first state are displayed, and a third object is displayed between the first object and the second object. Changing the display on the display screen to the second state,
Electronics.
前記第一の操作および前記第二の操作は、タッチ操作である、請求項1記載の電子機器。   The electronic device according to claim 1, wherein the first operation and the second operation are touch operations. 前記第一のオブジェクトおよび前記第二のオブジェクトは、動画に関するサムネイルであって、
前記第三のオブジェクトは、前記動画に関する操作メニューである、請求項1または2記載の電子機器。
The first object and the second object are thumbnails related to a video,
The electronic device according to claim 1, wherein the third object is an operation menu related to the moving image.
前記第一のオブジェクトと前記第二のオブジェクトは、起動中のアプリケーションであって、
前記第三のオブジェクトは、前記第一の状態において表示されていない起動中のアプリケーションである、請求項1または2記載の電子機器。
The first object and the second object are active applications,
The electronic device according to claim 1, wherein the third object is a running application that is not displayed in the first state.
前記第二の状態時に、前記第一のオブジェクトの位置と前記第二のオブジェクトの位置を前記第一の状態に戻す操作が行われると、前記第三のオブジェクトの表示を消す、請求項1乃至4のいずれか記載の電子機器。
The display of the third object is erased when an operation for returning the position of the first object and the position of the second object to the first state is performed in the second state. 5. The electronic device according to any one of
JP2015148815A 2015-07-28 2015-07-28 Electronics Active JP6514061B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2015148815A JP6514061B2 (en) 2015-07-28 2015-07-28 Electronics
US15/215,429 US20170031580A1 (en) 2015-07-28 2016-07-20 Electronic apparatus, non-transitory computer-readable recording medium, and display control method of electronic apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015148815A JP6514061B2 (en) 2015-07-28 2015-07-28 Electronics

Publications (2)

Publication Number Publication Date
JP2017027563A true JP2017027563A (en) 2017-02-02
JP6514061B2 JP6514061B2 (en) 2019-05-15

Family

ID=57883380

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015148815A Active JP6514061B2 (en) 2015-07-28 2015-07-28 Electronics

Country Status (2)

Country Link
US (1) US20170031580A1 (en)
JP (1) JP6514061B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108024073A (en) * 2017-11-30 2018-05-11 广州市百果园信息技术有限公司 Video editing method, device and intelligent mobile terminal

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109327760B (en) * 2018-08-13 2019-12-31 北京中科睿芯科技有限公司 Intelligent sound box and playing control method thereof
CN110175836B (en) * 2019-05-10 2022-08-16 维沃移动通信有限公司 Display control method of payment interface and mobile terminal
US11741995B1 (en) * 2021-09-29 2023-08-29 Gopro, Inc. Systems and methods for switching between video views

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010277183A (en) * 2009-05-26 2010-12-09 Sony Corp Editing device, editing method and editing program
JP2013033329A (en) * 2011-08-01 2013-02-14 Sony Corp Information processing device, information processing method, and program

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20080090218A (en) * 2007-04-04 2008-10-08 엔에이치엔(주) Method for uploading an edited file automatically and apparatus thereof
JP5770408B2 (en) * 2007-10-24 2015-08-26 日立マクセル株式会社 Video content viewing terminal
KR101586627B1 (en) * 2008-10-06 2016-01-19 삼성전자주식회사 A method for controlling of list with multi touch and apparatus thereof
US20100162179A1 (en) * 2008-12-19 2010-06-24 Nokia Corporation Method and Apparatus for Adding or Deleting at Least One Item Based at Least in Part on a Movement
JP5463739B2 (en) * 2009-06-03 2014-04-09 ソニー株式会社 Imaging apparatus, image processing method, and program
KR101730422B1 (en) * 2010-11-15 2017-04-26 엘지전자 주식회사 Image display apparatus and method for operating the same
JP2013033330A (en) * 2011-08-01 2013-02-14 Sony Corp Information processing device, information processing method, and program
KR102005315B1 (en) * 2012-07-23 2019-07-30 삼성전자 주식회사 Support System And Method For Cloud Service
KR101978216B1 (en) * 2013-01-04 2019-05-14 엘지전자 주식회사 Mobile terminal and method for controlling thereof
JP6098435B2 (en) * 2013-08-22 2017-03-22 ソニー株式会社 Information processing apparatus, storage medium, and control method

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010277183A (en) * 2009-05-26 2010-12-09 Sony Corp Editing device, editing method and editing program
JP2013033329A (en) * 2011-08-01 2013-02-14 Sony Corp Information processing device, information processing method, and program

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108024073A (en) * 2017-11-30 2018-05-11 广州市百果园信息技术有限公司 Video editing method, device and intelligent mobile terminal
CN108024073B (en) * 2017-11-30 2020-09-04 广州市百果园信息技术有限公司 Video editing method and device and intelligent mobile terminal
US11935564B2 (en) 2017-11-30 2024-03-19 Bigo Technology Pte. Ltd. Video editing method and intelligent mobile terminal

Also Published As

Publication number Publication date
US20170031580A1 (en) 2017-02-02
JP6514061B2 (en) 2019-05-15

Similar Documents

Publication Publication Date Title
US9600163B2 (en) Mobile terminal device, method for controlling mobile terminal device, and program
JP5869316B2 (en) Portable electronic devices
JP5722642B2 (en) Mobile terminal device
US9380433B2 (en) Mobile terminal and control method thereof
US9001151B2 (en) Mobile terminal for displaying a plurality of images during a video call and control method thereof
US20170308353A1 (en) Method and apparatus for triggering execution of operation instruction
JP2011237945A (en) Portable electronic device
JP2014099071A (en) Portable terminal, lock state control program and lock state control method
JP2014089522A (en) Electronic apparatus and control program, and operation method of electronic apparatus
JP2013228953A (en) Device, method, and program
JP6514061B2 (en) Electronics
JP2012203349A (en) Portable terminal device, program and display method
JP6223740B2 (en) Electronic device, program, and control method of electronic device
JP6078375B2 (en) Electronic device, control program, and operation method of electronic device
JP5923395B2 (en) Electronics
JP5306430B2 (en) Mobile terminal device
WO2014192878A1 (en) Portable apparatus and method for controlling portable apparatus
JP2007202124A (en) Input unit and mobile terminal device using input unit, and content data browsing method in mobile terminal device
JP2011166630A (en) Portable electronic device
KR20130134782A (en) Terminal having user interface using grip and touch and control method thereof
JP6538785B2 (en) Electronic device, control method of electronic device, and program
JP2015088837A (en) Display device and display method
JP6047066B2 (en) Portable device, control program, and control method in portable device
JP5993802B2 (en) Portable device, control program, and control method in portable device
JP2014106769A (en) Electronic apparatus and control program and display control method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180316

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181204

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20181130

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181227

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190312

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190411

R150 Certificate of patent or registration of utility model

Ref document number: 6514061

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150