JP6189607B2 - Portable electronic device, image editing method and image editing program - Google Patents

Portable electronic device, image editing method and image editing program Download PDF

Info

Publication number
JP6189607B2
JP6189607B2 JP2013039561A JP2013039561A JP6189607B2 JP 6189607 B2 JP6189607 B2 JP 6189607B2 JP 2013039561 A JP2013039561 A JP 2013039561A JP 2013039561 A JP2013039561 A JP 2013039561A JP 6189607 B2 JP6189607 B2 JP 6189607B2
Authority
JP
Japan
Prior art keywords
data
image
image data
memo
mobile phone
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2013039561A
Other languages
Japanese (ja)
Other versions
JP2014168174A (en
Inventor
須藤 智浩
智浩 須藤
裕之 番場
裕之 番場
政輝 冨士
政輝 冨士
裕太 坂本
裕太 坂本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kyocera Corp
Original Assignee
Kyocera Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kyocera Corp filed Critical Kyocera Corp
Priority to JP2013039561A priority Critical patent/JP6189607B2/en
Publication of JP2014168174A publication Critical patent/JP2014168174A/en
Application granted granted Critical
Publication of JP6189607B2 publication Critical patent/JP6189607B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Television Signal Processing For Recording (AREA)
  • Studio Devices (AREA)
  • User Interface Of Digital Computer (AREA)
  • Telephone Function (AREA)

Description

本出願は、携帯電子機器、画像編集方法及び画像編集プログラムに関する。   The present application relates to a portable electronic device, an image editing method, and an image editing program.

携帯電話又はスマートフォンなどの携帯電子機器には、カメラを搭載するものがある(例えば、特許文献1参照)。カメラが搭載される携帯電子機器では、撮影画像に対する編集が可能となっており、例えば、撮影した画像に対して、タイトルおよびコメントなどを付けて保存することも一般的となっている。ブログなどのソーシャルネットワークサービスでは、カメラが搭載される携帯電子機器から、撮影画像と併せて、撮影画像に関するコメントなどをアップロードして利用することも可能となっている。   Some portable electronic devices such as a mobile phone or a smartphone are equipped with a camera (see, for example, Patent Document 1). A portable electronic device equipped with a camera can edit a captured image. For example, it is common to store a captured image with a title, a comment, and the like. In social network services such as blogs, it is also possible to upload and use comments about photographed images together with photographed images from portable electronic devices equipped with cameras.

特開2002−271671号公報JP 2002-271671 A

カメラを搭載する携帯電子機器では、撮影画像に対する編集を行う場合に、利用者の利便性が低い場合がある。   In a portable electronic device equipped with a camera, user convenience may be low when editing a captured image.

このようなことから、撮影画像の編集を行う際の利便性を向上させることができる携帯電子機器、画像編集方法及び画像編集プログラムに対する必要性がある。   For these reasons, there is a need for a portable electronic device, an image editing method, and an image editing program that can improve convenience when editing a captured image.

1つの態様に係る携帯電子機器は、画像データを取得するカメラと、前記カメラにより取得された画像データに紐付けるデータを生成する処理を実行する制御部とを有する。   A portable electronic device according to one aspect includes a camera that acquires image data, and a control unit that executes a process of generating data associated with the image data acquired by the camera.

1つの態様に係る画像編集方法は、画像データを取得するカメラを有する携帯電子機器によって実行される画像編集方法であって、前記画像データを取得するステップと、取得された前記画像データに紐付けるデータを生成する処理を実行するステップとを含む。   An image editing method according to one aspect is an image editing method executed by a portable electronic device having a camera that acquires image data, the step of acquiring the image data, and the association with the acquired image data Executing a process of generating data.

1つの態様に係る画像編集プログラムは、画像データを取得するカメラを有する携帯電子機器に、前記画像データを取得するステップと、取得された前記画像データに紐付けるデータを生成する処理を実行するステップとを実行させる。   An image editing program according to one aspect includes a step of acquiring the image data and a process of generating data associated with the acquired image data in a portable electronic device having a camera that acquires the image data. And execute.

図1は、実施形態に係る携帯電話の外観を示す正面図である。FIG. 1 is a front view illustrating an appearance of a mobile phone according to an embodiment. 図2は、実施形態1に係る携帯電話の機能構成を示すブロック図である。FIG. 2 is a block diagram illustrating a functional configuration of the mobile phone according to the first embodiment. 図3は、画像管理データのデータ構成の一例を示す図である。FIG. 3 is a diagram illustrating an example of the data configuration of the image management data. 図4は、レイアウトの一例を示す図である。FIG. 4 is a diagram illustrating an example of a layout. 図5は、画像データにメモデータを紐付けて保存する制御の一例を示す図である。FIG. 5 is a diagram illustrating an example of control for storing image data in association with memo data. 図6は、携帯電話に保存された画像および画像に紐付けられたメモを利用者に閲覧させる際の制御の一例を示す図である。FIG. 6 is a diagram illustrating an example of control when a user browses an image stored in a mobile phone and a memo associated with the image. 図7は、携帯電話に保存された画像および画像に紐付けられたメモの検索を行う際の制御の一例を示す図である。FIG. 7 is a diagram illustrating an example of control when searching for an image stored in a mobile phone and a memo associated with the image. 図8は、実施形態1に係る携帯電話による制御の流れを示すフローチャートである。FIG. 8 is a flowchart showing a flow of control by the mobile phone according to the first embodiment. 図9は、実施形態2に係る携帯電話1の機能構成を示すブロック図である。FIG. 9 is a block diagram illustrating a functional configuration of the mobile phone 1 according to the second embodiment. 図10は、画像データに音声メモデータを紐付けて保存する制御の一例を示す図である。FIG. 10 is a diagram illustrating an example of control for storing voice memo data in association with image data. 図11は、携帯電話に保存された画像および画像に紐付けられた音声メモを利用者に閲覧させる際の制御の一例を示す図である。FIG. 11 is a diagram illustrating an example of control when a user browses an image stored in a mobile phone and a voice memo associated with the image. 図12は、実施形態2に係る携帯電話による制御の流れを示すフローチャートである。FIG. 12 is a flowchart illustrating a flow of control by the mobile phone according to the second embodiment. 図13は、実施形態3に係る携帯電話の機能構成を示すブロック図である。FIG. 13 is a block diagram illustrating a functional configuration of the mobile phone according to the third embodiment. 図14は、画像データに紐付けて保存するデータとして、メモデータ及び音声メモデータのいずれかを選択させる制御の一例を示す図である。FIG. 14 is a diagram illustrating an example of control for selecting either memo data or voice memo data as data to be stored in association with image data.

本発明を実施するための実施形態を、図面を参照しつつ詳細に説明する。以下では、本発明に係る携帯電子機器の一例として、携帯電話について説明する。   Embodiments for carrying out the present invention will be described in detail with reference to the drawings. Hereinafter, a mobile phone will be described as an example of the mobile electronic device according to the present invention.

(実施形態1)
図1は、実施形態に係る携帯電話の外観を示す正面図である。図1に示す携帯電話1は、筐体1Cが開閉可能に構成された、いわゆる折り畳み式の携帯電話である。
(Embodiment 1)
FIG. 1 is a front view illustrating an appearance of a mobile phone according to an embodiment. A mobile phone 1 shown in FIG. 1 is a so-called foldable mobile phone in which a housing 1C is configured to be openable and closable.

筐体1Cは、第1筐体1CAと第2筐体1CBとで構成される。第1筐体1CAと第2筐体1CBとは、ヒンジ18で連結されている。第1筐体1CA及び第2筐体1CBは、ヒンジ18を中心として、互いに遠ざかる方向、あるいは互いに接近する方向に回動する。第1筐体1CAと第2筐体1CBとが互いに遠ざかる方向に回動する場合、図1に示すように、携帯電話1は開いた状態となる。一方、第1筐体1CAと第2筐体1CBとが互いに接近する方向に回動する場合、携帯電話1は閉じた状態となる。   The housing 1C includes a first housing 1CA and a second housing 1CB. The first housing 1CA and the second housing 1CB are connected by a hinge 18. The first casing 1CA and the second casing 1CB rotate around the hinge 18 in a direction away from each other or a direction approaching each other. When the first housing 1CA and the second housing 1CB rotate in a direction away from each other, the mobile phone 1 is in an open state as shown in FIG. On the other hand, when 1st housing | casing 1CA and 2nd housing | casing 1CB rotate in the direction which mutually approaches, the mobile telephone 1 will be in the closed state.

図1に示すように、第1筐体1CAには、ディスプレイ2Mが設けられる。ディスプレイ2Mは、いわゆる待受画面40を表示したり、携帯電話1の操作を補助するために用いられるメニュー画面を表示したりする。待受画面40とは、電話の発着信を待ち受けている状態の画面、またはアプリケーションの起動を待ち受けている状態の画面などである。   As shown in FIG. 1, the first housing 1CA is provided with a display 2M. The display 2M displays a so-called standby screen 40 or a menu screen used to assist the operation of the mobile phone 1. The standby screen 40 is a screen waiting for an incoming / outgoing call or a screen waiting for an application to start.

図1に示すように、第1筐体1CAには、ディスプレイ2Mのヒンジ18側に、第1ワンタッチキー4a、第2ワンタッチキー4b及び第3ワンタッチキー4cの3つのワンタッチキー4が、第1筐体1CAの幅方向(短手方向)に並べて設けられている。第1ワンタッチキー4a、第2ワンタッチキー4b及び第3ワンタッチキー4cには、それぞれ、「1」、「2」、「3」の番号が付されている。ディスプレイ2Mには、第1ワンタッチキー4a、第2ワンタッチキー4b及び第3ワンタッチキー4cに、それぞれ割り当てられている機能に対応するアイコンなどを表示するための表示領域10a、10bおよび10cが設けられる。図1に示すワンタッチキー4の数、及びワンタッチキー4に付される数字は一例であり、図1に示す場合には限定されない。第1筐体1CAには、必ずしも、ワンタッチキー4が備えられていなくてもよい。   As shown in FIG. 1, the first casing 1CA has three one-touch keys 4 including a first one-touch key 4a, a second one-touch key 4b, and a third one-touch key 4c on the hinge 18 side of the display 2M. It is provided side by side in the width direction (short direction) of the housing 1CA. The first one-touch key 4a, the second one-touch key 4b, and the third one-touch key 4c are numbered “1”, “2”, and “3”, respectively. The display 2M is provided with display areas 10a, 10b, and 10c for displaying icons corresponding to functions assigned to the first one-touch key 4a, the second one-touch key 4b, and the third one-touch key 4c, respectively. . The number of one-touch keys 4 shown in FIG. 1 and the numbers attached to the one-touch keys 4 are examples, and are not limited to the case shown in FIG. The first housing 1CA is not necessarily provided with the one-touch key 4.

ディスプレイ2Mとヒンジ18との間に設けられた3つのワンタッチキー4は、ユーザによるワンタッチ操作で、携帯電話1に搭載されている各種機能(アプリケーション)を簡単に実行させるものである。ワンタッチキー4に割り当てられた各種アプリケーション機能は、ワンタッチキー4に対するワンタッチ操作により実行される。ワンタッチキー4に割り当てられるアプリケーションには、例えば、通話(発信)、メール、カメラ、カレンダー、目覚まし時計、赤外線通信、電卓、メモ帳、音声認識、漢字チェックなどが含まれる。   Three one-touch keys 4 provided between the display 2M and the hinge 18 are used to easily execute various functions (applications) mounted on the mobile phone 1 by a one-touch operation by the user. Various application functions assigned to the one-touch key 4 are executed by a one-touch operation on the one-touch key 4. Applications assigned to the one-touch key 4 include, for example, telephone calls (calling), mail, camera, calendar, alarm clock, infrared communication, calculator, memo pad, voice recognition, kanji check, and the like.

図1に示すように、第1筐体1CAには、通話時に、相手の音声を出力するレシーバ6が設けられる。レシーバ6は、音声処理部30から送り出された音信号を音として出力する。   As shown in FIG. 1, the first housing 1CA is provided with a receiver 6 that outputs the other party's voice during a call. The receiver 6 outputs the sound signal sent out from the sound processing unit 30 as sound.

一方、図1に示すように、第2筐体1CBには、利用者が文字および数字などの入力を行うための複数のテンキーで構成されるダイヤルキー3aが設けられる。第2筐体1CBには、ディスプレイ2Mに表示されるメニューの選択、及びカーソルの移動方向などを入力するためのカーソルキー3bが設けられる。第2筐体1CBには、決定操作を入力するための決定キー3cが設けられる。第2筐体1CBには、アプリケーションの起動操作を入力するための機能キー3dが設けられる。本実施形態では、カーソルキー3bの一部が、機能キー3dの役割も兼ねている。ダイヤルキー3a、カーソルキー3b、決定キー3c、機能キー3d及びワンタッチキー4は、後述するように、携帯電話1の操作部28(図2参照)を構成する。   On the other hand, as shown in FIG. 1, the second casing 1CB is provided with a dial key 3a including a plurality of numeric keys for the user to input characters and numbers. The second casing 1CB is provided with a cursor key 3b for selecting a menu displayed on the display 2M and inputting a moving direction of the cursor. The second casing 1CB is provided with a determination key 3c for inputting a determination operation. The second casing 1CB is provided with a function key 3d for inputting an application activation operation. In the present embodiment, a part of the cursor key 3b also serves as the function key 3d. The dial key 3a, the cursor key 3b, the enter key 3c, the function key 3d, and the one-touch key 4 constitute an operation unit 28 (see FIG. 2) of the mobile phone 1 as will be described later.

図1に示すように、第2筐体1CBには、通話時などに、利用者の声などを入力するマイク5が設けられる。マイク5は、入力する利用者の声等を音信号へ変換して音声処理部30に送り出す。   As shown in FIG. 1, the second casing 1CB is provided with a microphone 5 for inputting a user's voice or the like during a call. The microphone 5 converts the input user's voice or the like into a sound signal and sends it to the sound processing unit 30.

次に、携帯電話1の機能構成の一例を説明する。図2は、実施形態1に係る携帯電話1の機能構成を示すブロック図である。図2に示すように携帯電話1は、記憶部22と、制御部24と、通信部26と、操作部28と、音声処理部30と、表示部32と、表示制御部34と、カメラ36とを有する。   Next, an example of a functional configuration of the mobile phone 1 will be described. FIG. 2 is a block diagram illustrating a functional configuration of the mobile phone 1 according to the first embodiment. As shown in FIG. 2, the mobile phone 1 includes a storage unit 22, a control unit 24, a communication unit 26, an operation unit 28, an audio processing unit 30, a display unit 32, a display control unit 34, and a camera 36. And have.

記憶部22は、プログラム及びデータを記憶する。記憶部22は、制御部24の処理結果を一時的に記憶する作業領域(バッファ)としても利用される。記憶部22は、半導体記憶媒体、及び磁気記憶媒体等の任意の非一過的(non−transitory)な記憶媒体を含んでよい。記憶部22は、複数の種類の記憶媒体を含んでよい。記憶部22は、メモリカード、光ディスク、又は光磁気ディスク等の可搬の記憶媒体と、記憶媒体の読み取り装置との組み合わせを含んでよい。記憶部22は、RAM(Random Access Memory)等の一時的な記憶領域として利用される記憶デバイスを含んでよい。   The storage unit 22 stores programs and data. The storage unit 22 is also used as a work area (buffer) that temporarily stores the processing result of the control unit 24. The storage unit 22 may include any non-transitory storage medium such as a semiconductor storage medium and a magnetic storage medium. The storage unit 22 may include a plurality of types of storage media. The storage unit 22 may include a combination of a portable storage medium such as a memory card, an optical disk, or a magneto-optical disk and a storage medium reader. The storage unit 22 may include a storage device used as a temporary storage area such as a RAM (Random Access Memory).

実施形態1において、記憶部22は、図2に示すように、画像編集プログラム22a、アルバムアプリケーション22b、カメラアプリケーション22c、メモアプリケーション22d、画像管理データ22f、画像データ22g、メモデータ22h、及びレイアウトデータ22zなどを記憶する。   In the first embodiment, as shown in FIG. 2, the storage unit 22 includes an image editing program 22a, an album application 22b, a camera application 22c, a memo application 22d, image management data 22f, image data 22g, memo data 22h, and layout data. 22z and the like are stored.

画像編集プログラム22aは、カメラ36により取得された画像データに紐付けるデータを生成する処理を実行するための機能を提供する。アルバムアプリケーション22bは、携帯電話1に保存された画像データの一覧をアルバムとして利用者に閲覧させるための機能を提供する。カメラアプリケーション22cは、カメラ36の動作を制御して画像データを取得するための機能を提供する。カメラアプリケーション22cにより取得される画像データには、動画および静止画のデータが含まれる。メモアプリケーション22dは、カメラ36により撮影された画像データに紐付けるテキスト形式のデータ(以下、メモデータ)を生成するための機能を提供する。画像編集プログラム22aにより提供される機能は、カメラ36により取得された画像データに紐付けるデータを生成する処理を実行する場合、メモアプリケーション22dなど、記憶部22に記憶される他のプログラムなどが提供する機能と組み合わせて利用されることがある。   The image editing program 22 a provides a function for executing processing for generating data associated with image data acquired by the camera 36. The album application 22b provides a function for allowing the user to view a list of image data stored in the mobile phone 1 as an album. The camera application 22c provides a function for controlling the operation of the camera 36 and acquiring image data. The image data acquired by the camera application 22c includes moving image and still image data. The memo application 22d provides a function for generating text format data (hereinafter referred to as memo data) associated with image data captured by the camera 36. The functions provided by the image editing program 22a are provided by other programs stored in the storage unit 22, such as the memo application 22d, when executing processing for generating data associated with the image data acquired by the camera 36. It may be used in combination with the function to do.

画像管理データ22fは、画像データと、メモデータとの対応関係を管理するためのデータである。画像管理データ22fは、例えば、記憶部22の画像管理データ保存領域に保存される。図3は、画像管理データ22fのデータ構成の一例を示す図である。図3に示すように、画像管理データ22fでは、画像管理IDと、参照画像IDと、参照メモIDと、参照レイアウトIDとが対応付けられた状態で構成される。   The image management data 22f is data for managing the correspondence between image data and memo data. For example, the image management data 22 f is stored in an image management data storage area of the storage unit 22. FIG. 3 is a diagram illustrating an example of a data configuration of the image management data 22f. As shown in FIG. 3, the image management data 22f is configured in a state in which an image management ID, a reference image ID, a reference memo ID, and a reference layout ID are associated with each other.

画像管理IDは、画像データと、メモデータとの組合せごとに一意に付与される識別情報(例えば、001)である。参照画像IDは、カメラ36により撮影された画像データごとに一意に付与される識別情報(例えば、P0011)である。参照メモIDは、メモアプリケーション22dにより生成されたメモデータごとに一意に付与される識別情報(例えば、M0125)である。参照レイアウトIDは、携帯電話1に保存された画像データの一覧を利用者に閲覧させる際に、アルバムアプリケーション22bにより参照されるレイアウトを一意に特定するための情報(例えば、R001)である。レイアウトは、後述するレイアウトデータ22Zに基づいて決定される。   The image management ID is identification information (for example, 001) that is uniquely assigned to each combination of image data and memo data. The reference image ID is identification information (for example, P0011) that is uniquely given for each image data photographed by the camera 36. The reference memo ID is identification information (for example, M0125) that is uniquely assigned to each memo data generated by the memo application 22d. The reference layout ID is information (for example, R001) for uniquely specifying the layout referred to by the album application 22b when the user browses the list of image data stored in the mobile phone 1. The layout is determined based on layout data 22Z described later.

画像データ22gは、記憶部22の画像保存領域に保存される画像データである。メモデータ22hは、記憶部22のメモ保存領域に保存されるメモデータである。レイアウトデータ22zは、記憶部22のレイアウト保存領域に保存されるレイアウトパターンのデータである。図4は、レイアウトの一例を示す図である。図4に示すように、レイアウト(例えば、参照レイアウトID:R001)は、携帯電話1に保存された画像データの一覧を利用者に閲覧させる際に、ディスプレイ2Mに表示するアルバム画面の画像表示領域およびメモ表示領域のレイアウト(位置関係)を決定するためのデータである。レイアウトデータ22Zには、現在設定されているレイアウトパターン(例えば、R001)、その他の設定可能なレイアウトパターン(例えば、R002)などのデータが含まれる。   The image data 22 g is image data stored in the image storage area of the storage unit 22. The memo data 22h is memo data stored in the memo storage area of the storage unit 22. The layout data 22z is layout pattern data stored in the layout storage area of the storage unit 22. FIG. 4 is a diagram illustrating an example of a layout. As shown in FIG. 4, the layout (for example, reference layout ID: R001) is an image display area of an album screen displayed on the display 2M when the user browses a list of image data stored in the mobile phone 1. And data for determining the layout (positional relationship) of the memo display area. The layout data 22Z includes data such as the currently set layout pattern (for example, R001) and other settable layout patterns (for example, R002).

制御部24は、演算処理装置である。演算処理装置は、例えば、CPU(Central Processing Unit)、SoC(System−on−a−chip)、MCU(Micro Control Unit)、及びFPGA(Field−Programmable Gate Array)を含むが、これらに限定されない。制御部24は、携帯電話1の動作を統括的に制御して各種の機能を実現する。   The control unit 24 is an arithmetic processing device. The arithmetic processing unit includes, for example, a CPU (Central Processing Unit), an SoC (System-on-a-chip), an MCU (Micro Control Unit), and an FPGA (Field-Programmable Gate Array), but is not limited thereto. The control unit 24 controls various operations of the mobile phone 1 to realize various functions.

具体的には、制御部24は、記憶部22に記憶されているデータを必要に応じて参照しつつ、記憶部22に記憶されているプログラム(又はアプリケーション)に含まれる命令を実行する。そして、制御部24は、データ及び命令に応じて機能部を制御し、それによって各種機能を実現する。機能部は、例えば、マイク5、レシーバ6、通信部26、音声処理部30、表示部32、表示制御部34を含むが、これらに限定されない。制御部24は、検出部の検出結果に応じて、制御を変更することがある。検出部は、例えば、マイク5、通信部26及び操作部28を含むが、これらに限定されない。   Specifically, the control unit 24 executes instructions included in a program (or application) stored in the storage unit 22 while referring to data stored in the storage unit 22 as necessary. And the control part 24 controls a function part according to data and a command, and implement | achieves various functions by it. The functional units include, for example, the microphone 5, the receiver 6, the communication unit 26, the audio processing unit 30, the display unit 32, and the display control unit 34, but are not limited to these. The control unit 24 may change the control according to the detection result of the detection unit. Although a detection part contains the microphone 5, the communication part 26, and the operation part 28, for example, it is not limited to these.

実施形態1において、制御部24は、上記画像編集プログラム22aを記憶部22から読込んで実行することにより、カメラ36により取得された画像データに紐付けるデータを生成する処理を実行する。制御部24により実行される処理を具体的に説明すると、制御部24は、カメラ36により画像データが取得されると、続けて、メモデータの入力を受け付ける。そして、制御部24は、メモデータの入力が完了すると、画像データとメモデータとを紐付ける画像管理データを生成する。続いて、制御部24は、画像管理データ、画像データ、及びメモデータを、記憶部22に設けられる保存領域へ保存する。   In the first embodiment, the control unit 24 reads the image editing program 22a from the storage unit 22 and executes it, thereby executing processing for generating data associated with the image data acquired by the camera 36. The processing executed by the control unit 24 will be specifically described. When the image data is acquired by the camera 36, the control unit 24 continues to accept input of memo data. Then, when the input of the memo data is completed, the control unit 24 generates image management data that associates the image data with the memo data. Subsequently, the control unit 24 stores the image management data, the image data, and the memo data in a storage area provided in the storage unit 22.

本実施形態において、制御部24がプログラム(又はアプリケーション)を実行する場合には、プログラムを起動する場合と、中断中のプログラムを再開する場合と、起動済のプログラムの処理を継続する場合とが含まれる。本実施形態において、制御部24がプログラム(又は、アプリケーション)を起動する場合には、記憶部22に記憶されているプログラムを新たに読み出してその処理を開始する場合と、既に読み出されているプログラムの処理を新たに開始する場合とが含まれる。   In the present embodiment, when the control unit 24 executes a program (or application), there are a case where the program is started, a case where the suspended program is resumed, and a case where processing of the started program is continued. included. In the present embodiment, when the control unit 24 activates a program (or application), a case where the program stored in the storage unit 22 is newly read out and the process is started is already read out. And a case of newly starting the processing of the program.

通信部26は、公衆回線ネットワークなどのネットワークを通じて、データの送受信、通話などの通信を行うことができるように構成されている。通信部26がサポートする通信規格には、例えば、2G、3G、4G等のセルラーフォンの通信規格がある。セルラーフォンの通信規格としては、例えば、LTE(Long Term Evolution)、W−CDMA(Wideband Code Division Multiple Access)、WiMAX(Worldwide Interoperability for Microwave Access)、CDMA2000、PDC(Personal Digital Cellular)、GSM(登録商標)(Global System for Mobile Communications)、PHS(Personal Handy−phone System)等がある。通信部26は、上述した通信規格の1つ又は複数をサポートしていてもよい。   The communication unit 26 is configured to be able to perform communication such as data transmission / reception and a telephone call through a network such as a public line network. Examples of communication standards supported by the communication unit 26 include cellular phone communication standards such as 2G, 3G, and 4G. Cellular phone communication standards include, for example, LTE (Long Term Evolution), W-CDMA (Wideband Code Division Multiple Access), WiMAX (Worldwide PDA), WiMAX (Worldwide Interoperability Pc), WiMAX (Worldwide PDA). ) (Global System for Mobile Communications), PHS (Personal Handy-phone System), and the like. The communication unit 26 may support one or more of the communication standards described above.

操作部28は、上述したように、ダイヤルキー3a、カーソルキー3b、決定キー3c、機能キー3d、及びワンタッチキー4とで構成される。操作部28は、ユーザの操作によりキーの入力を受け付けると、入力された操作内容に対応する信号を発生させる。発生した信号は、制御部24に入力される。操作部28は、ダイヤルキー3aに含まれるテンキーのいずれかに、制御部24により実行される画像データに紐付けるデータを生成する処理を割り当ててもよい。   As described above, the operation unit 28 includes the dial key 3a, the cursor key 3b, the enter key 3c, the function key 3d, and the one-touch key 4. When the operation unit 28 receives a key input by a user operation, the operation unit 28 generates a signal corresponding to the input operation content. The generated signal is input to the control unit 24. The operation unit 28 may assign a process of generating data associated with the image data executed by the control unit 24 to any of the numeric keys included in the dial key 3a.

音声処理部30は、マイク5に入力される音声信号やレシーバ6から出力される音声信号の処理を実行する。音声処理部30は、マイク5から送られる音信号を処理し、制御部24に送る。音声処理部30は、制御部24から送り出される音信号を処理し、レシーバ6へ送る。   The audio processing unit 30 executes processing of an audio signal input to the microphone 5 and an audio signal output from the receiver 6. The sound processing unit 30 processes the sound signal sent from the microphone 5 and sends it to the control unit 24. The sound processing unit 30 processes the sound signal sent out from the control unit 24 and sends it to the receiver 6.

表示部32は、制御部24から表示制御部34を介して供給されるコンテンツデータ(動画像、静止画像など)に応じた画像を上記ディスプレイ2Mに表示させる。ディスプレイ2Mは、液晶ディスプレイ(Liquid Crystal Display)、有機EL(Organic Electro−Luminescence)などで構成される。   The display unit 32 causes the display 2M to display an image corresponding to content data (moving image, still image, etc.) supplied from the control unit 24 via the display control unit 34. The display 2M includes a liquid crystal display (Liquid Crystal Display), an organic EL (Organic Electro-Luminescence), and the like.

カメラ36は、撮影した画像を電気信号へ変換する。カメラ36には、例えば、ディスプレイ2Mに面している物体を撮影するインカメラ、ディスプレイ2Mの反対側の面に面している物体を撮影するアウトカメラが含まれる。   The camera 36 converts the captured image into an electrical signal. The camera 36 includes, for example, an in-camera that captures an object facing the display 2M and an out-camera that captures an object facing the surface on the opposite side of the display 2M.

続いて、図5〜図7を用いて、実施形態1に係る携帯電話1により実行される制御の一例について説明する。   Next, an example of control executed by the mobile phone 1 according to the first embodiment will be described with reference to FIGS.

図5は、画像データにメモデータを紐付けて保存する制御の一例を示す図である。図5に示すように、携帯電話1は、利用者の操作に応じてカメラ36を起動し、カメラモードに遷移する。そして、携帯電話1は、カメラ36により捕捉される被写体の画像(イメージ)を映し出すカメラモードの画面40をディスプレイ2Mに表示する(ステップS11)。カメラモードとは、カメラ36により補足される被写体のイメージをリアルタイムにディスプレイ2Mに表示するとともに、静止画および動画の撮影が可能なモードである。   FIG. 5 is a diagram illustrating an example of control for storing image data in association with memo data. As shown in FIG. 5, the mobile phone 1 activates the camera 36 in accordance with the user's operation and transitions to the camera mode. Then, the cellular phone 1 displays a camera mode screen 40 that displays an image of the subject captured by the camera 36 on the display 2M (step S11). The camera mode is a mode in which an image of a subject captured by the camera 36 is displayed on the display 2M in real time and still images and moving images can be taken.

続いて、携帯電話1は、画面40において、利用者の操作に応じて、カメラ36により補足されている被写体の画像データを取得する(ステップS12)。画像取得後、携帯電話1は、取得した画像を確認する確認画面を表示する。携帯電話1は、取得画像の確認画面に、例えば、ダイヤルキー3aに含まれるテンキーの「*キー」を操作することにより、メモデータの添付が可能であることを画面40に表示する。さらに、ステップS12において、携帯電話1は、第1ワンタッチキー4a、第2ワンタッチキー4b及び第3ワンタッチキー4cに、特定のメールアドレスに対する電子メール送信の機能を割り当てておくことにより、ワンタッチキー4に対する操作で、取得した画像データを添付した電子メールの送信を行うこともできる。   Subsequently, the mobile phone 1 acquires image data of the subject captured by the camera 36 on the screen 40 in accordance with a user operation (step S12). After the image acquisition, the mobile phone 1 displays a confirmation screen for confirming the acquired image. The cellular phone 1 displays on the screen 40 that the memo data can be attached by operating the “* key” of the numeric keypad included in the dial key 3a on the confirmation screen of the acquired image, for example. Furthermore, in step S12, the mobile phone 1 assigns an e-mail transmission function to a specific e-mail address to the first one-touch key 4a, the second one-touch key 4b, and the third one-touch key 4c. By the operation for, an e-mail attached with the acquired image data can also be transmitted.

「*キー」の操作を検出すると、携帯電話1は、メモの入力画面41をディスプレイ2Mに表示する(ステップS13)。   When the operation of the “* key” is detected, the mobile phone 1 displays a memo input screen 41 on the display 2M (step S13).

メモの入力が行われた入力画面41において、メモの入力完了の操作(OK)を検出すると(ステップS14)、携帯電話1は、撮影された画像および入力されたメモが所定のレイアウトで配置されたレイアウト画面42をディスプレイ2Mに表示する(ステップS15)。撮影された画像および入力されたメモのレイアウトは、事前に設定されているものとする。レイアウトは、利用者が適宜変更可能であるものとする。   When a memo input completion operation (OK) is detected on the input screen 41 on which the memo is input (step S14), the mobile phone 1 arranges the photographed image and the input memo in a predetermined layout. The displayed layout screen 42 is displayed on the display 2M (step S15). It is assumed that the layout of the photographed image and the input memo is set in advance. The layout can be changed as appropriate by the user.

レイアウト画面42において、利用者による入力の確定操作(完了)を検出すると、携帯電話1は、画像データおよびメモデータの登録完了のメッセージをディスプレイ2Mに表示し(ステップS16)、画像データとメモデータとを紐付けて保存する。   When detecting the input confirmation operation (completion) by the user on the layout screen 42, the mobile phone 1 displays a message indicating the completion of registration of image data and memo data on the display 2M (step S16), and the image data and memo data. And save it.

図6は、携帯電話1に保存された画像および画像に紐付けられたメモを利用者に閲覧させる際の制御の一例を示す図である。図6に示すように、携帯電話1は、利用者の操作に応じて、アルバム画面43をディスプレイ2Mに表示する(ステップS21)。アルバム画面43には、携帯電話1に保存されている画像の見出し43aが含まれる。見出し43aには、画像のサムネイルSN1が含まれる。   FIG. 6 is a diagram illustrating an example of control when the user browses an image stored in the mobile phone 1 and a memo associated with the image. As shown in FIG. 6, the mobile phone 1 displays an album screen 43 on the display 2M in accordance with the user's operation (step S21). The album screen 43 includes a headline 43a of an image stored in the mobile phone 1. The header 43a includes a thumbnail SN1 of the image.

携帯電話1は、アルバム画面43において、画像の見出し43aの選択を検出すると、見出し43aに対応する画像データおよびメモデータが所定のレイアウトで配置された画面44aをディスプレイ2Mに表示する(ステップS22)。   When the mobile phone 1 detects the selection of the image header 43a on the album screen 43, the mobile phone 1 displays a screen 44a on which image data and memo data corresponding to the header 43a are arranged in a predetermined layout on the display 2M (step S22). .

携帯電話1は、画面44aにおいて、メモを読み上げる操作(再生)を検出すると、メモの読み上げ中であることを示す画面44bをディスプレイ2Mに表示するとともに、メモ内容に対応する読み上げ音声を再生(レシーバ6から出力)する(ステップS23)。読み上げ音声の再生が終了すると、携帯電話1は、ステップS22に戻り、画面44aをディスプレイ2Mに表示する。   When the mobile phone 1 detects an operation (playback) for reading out a memo on the screen 44a, the mobile phone 1 displays a screen 44b indicating that the memo is being read out on the display 2M and plays back a read-out voice corresponding to the memo content (receiver). 6) (step S23). When the reproduction of the reading voice is finished, the mobile phone 1 returns to step S22 and displays the screen 44a on the display 2M.

図7は、携帯電話1に保存された画像および画像に紐付けられたメモの検索を行う際の制御の一例を示す図である。図7に示すように、携帯電話1は、アルバム画面43をディスプレイ2Mに表示する(ステップS31)。携帯電話1は、アルバム画面43において、メニュー画面を表示させる操作を検出すると、サブメニュー43cをディスプレイ2Mに表示する(ステップS32)。 Figure 7 is a diagram showing an example of control when searching the menu tied mode to the stored image and the image to the mobile phone 1. As shown in FIG. 7, the mobile phone 1 displays the album screen 43 on the display 2M (step S31). When the mobile phone 1 detects an operation for displaying the menu screen on the album screen 43, the mobile phone 1 displays the submenu 43c on the display 2M (step S32).

携帯電話1は、サブメニュー43cに含まれるキーワード検索を選択する操作を検出すると、検索対象となるキーワードの入力画面45をディスプレイ2Mに表示する(ステップS33)。キーワードの入力が行われた入力画面45において、キーワードの入力完了の操作(OK)を検出すると(ステップS34)、携帯電話1は、入力されたキーワードを含む見出しの検索を行う。そして、携帯電話は、キーワードを含む見出しのみが表示されるアルバム画面43をディスプレイに表示する(ステップS35)。   When the mobile phone 1 detects an operation for selecting a keyword search included in the submenu 43c, the mobile phone 1 displays the keyword input screen 45 to be searched on the display 2M (step S33). When a keyword input completion operation (OK) is detected on the input screen 45 where the keyword has been input (step S34), the mobile phone 1 searches for a headline including the input keyword. Then, the mobile phone displays on the display the album screen 43 on which only the headline including the keyword is displayed (step S35).

続いて、図8を用いて、実施形態1に係る携帯電話1により実行される制御の流れを説明する。図8は、実施形態1に係る携帯電話1による制御の流れを示すフローチャートである。図8に示す制御は、制御部24が、画像編集プログラム22aなどを記憶部22から読込んで実行することにより実現される。図8に示す制御は、カメラモードである間、繰り返し実行される。図8は、画像データにメモデータを紐付けて保存するときの制御の流れを示す。   Next, the flow of control executed by the mobile phone 1 according to the first embodiment will be described with reference to FIG. FIG. 8 is a flowchart showing a flow of control by the mobile phone 1 according to the first embodiment. The control shown in FIG. 8 is realized by the control unit 24 reading the image editing program 22a and the like from the storage unit 22 and executing them. The control shown in FIG. 8 is repeatedly executed while in the camera mode. FIG. 8 shows a control flow when memo data is linked to image data and stored.

図8に示すように、制御部24は、利用者の操作に応じて、記憶部22からカメラアプリケーション22cを読込んで実行することによりカメラ36を起動し(ステップS101)、カメラモードへ遷移する(ステップS102)。カメラモードとは、カメラ36により補足される被写体のイメージをリアルタイムにディスプレイ2Mに表示するとともに、静止画および動画の撮影が可能なモードである。   As shown in FIG. 8, the control unit 24 starts up the camera 36 by reading and executing the camera application 22c from the storage unit 22 in accordance with a user operation (step S101), and transitions to the camera mode ( Step S102). The camera mode is a mode in which an image of a subject captured by the camera 36 is displayed on the display 2M in real time and still images and moving images can be taken.

続いて、制御部24は、利用者の撮影操作に応じてシャッターを駆動し(ステップS103)、撮影画像のデータをバッファへ退避する(ステップS104)。続いて、制御部24は、画像編集プログラム22aを記憶部22から読込んで起動する(ステップS105)。ステップS105で画像編集プログラム22aが起動されることにより、後述するように、画像データにメモデータを紐付けて保存するための各種制御が実現される。各種制御の中には、例えば、ダイヤルキー3aに含まれるテンキーの「*キー」を操作によりメモアプリケーション22dを起動したり、各種画面を表示したり、画像管理データを生成したりする制御などが含まれる。   Subsequently, the control unit 24 drives the shutter according to the user's photographing operation (step S103), and saves the captured image data to the buffer (step S104). Subsequently, the control unit 24 reads the image editing program 22a from the storage unit 22 and starts it (step S105). By starting the image editing program 22a in step S105, various controls for associating and storing memo data with image data are realized, as will be described later. The various controls include, for example, a control for starting the memo application 22d by operating the “* key” of the numeric keypad included in the dial key 3a, displaying various screens, and generating image management data. included.

続いて、制御部24は、メモの添付を実行する操作が検出されたかを判定する(ステップS106)。制御部24は、例えば、ダイヤルキー3aに含まれるテンキーの「*キー」の入力が行われたかを判定する。   Subsequently, the control unit 24 determines whether an operation for attaching a memo is detected (step S106). For example, the control unit 24 determines whether the “* key” of the numeric keypad included in the dial key 3a has been input.

制御部24は、判定の結果、メモの添付を実行する操作が検出された場合には(ステップS106、Yes)、記憶部22からメモアプリケーション22dを読込んで起動し、メモの入力画面(図5参照)をディスプレイ2Mに表示する(ステップS107)。   As a result of the determination, when an operation for attaching a memo is detected as a result of the determination (step S106, Yes), the control unit 24 reads and starts the memo application 22d from the storage unit 22, and enters a memo input screen (FIG. 5). Is displayed on the display 2M (step S107).

続いて、制御部24は、メモの入力完了の操作を検出すると(ステップS108)、ステップS104でバッファに退避しておいた撮影画像と、入力されたメモとを含むレイアウト画面(図5参照)をディスプレイ2Mに表示する(ステップS109)。   Subsequently, when the control unit 24 detects a memo input completion operation (step S108), a layout screen including the captured image saved in the buffer in step S104 and the input memo (see FIG. 5). Is displayed on the display 2M (step S109).

続いて、制御部24は、入力の確定操作を検出すると(ステップS110)、画像管理データを生成する(ステップS111)。具体的には、制御部24は、画像管理IDを生成し、ステップS104でバッファに退避しておいた撮影画像のデータに参照画像IDを付与し、ステップS108で入力が完了したメモデータに参照メモIDを付与し、ステップS109で用いたレイアウトに対応する参照レイアウトIDをレイアウトデータ22zから取得する。そして、制御部24は、画像管理IDと、参照画像IDと、参照メモIDと、参照レイアウトIDとを紐付けた画像管理データを生成する。   Subsequently, when detecting the input confirmation operation (step S110), the control unit 24 generates image management data (step S111). Specifically, the control unit 24 generates an image management ID, assigns a reference image ID to the captured image data saved in the buffer in step S104, and refers to the memo data that has been input in step S108. A memo ID is assigned, and a reference layout ID corresponding to the layout used in step S109 is acquired from the layout data 22z. Then, the control unit 24 generates image management data in which the image management ID, the reference image ID, the reference memo ID, and the reference layout ID are associated with each other.

続いて、制御部24は、記憶部22の画像保存領域へ、バッファに退避しておいた撮影画像のデータを保存する(ステップS112)。続いて、制御部24は、記憶部22のメモ保存領域へメモデータを保存する(ステップS113)。続いて、制御部24は、画像管理データの保存領域へ画像管理データを保存し(ステップS114)、ステップS102に戻る。   Subsequently, the control unit 24 stores the captured image data saved in the buffer in the image storage area of the storage unit 22 (step S112). Subsequently, the control unit 24 stores the memo data in the memo storage area of the storage unit 22 (step S113). Subsequently, the control unit 24 stores the image management data in the image management data storage area (step S114), and returns to step S102.

ステップS106において、制御部24は、判定の結果、メモの添付を実行する操作が検出されなかった場合には(ステップS106、No)、撮影画像の破棄操作を検出したかを判定する(ステップS115)。   In step S106, if the result of determination is that an operation for attaching a memo has not been detected (No in step S106), the control unit 24 determines whether a discard operation for the captured image has been detected (step S115). ).

制御部24は、判定の結果、撮影画像の破棄操作を検出しなかった場合には(ステップS115、No)、バッファに退避しておいた撮影画像のデータを、記憶部22の画像保存領域へ保存し(ステップS116)、ステップS102に戻る。   As a result of the determination, if the control unit 24 does not detect the discard operation of the captured image (No at Step S115), the captured image data saved in the buffer is stored in the image storage area of the storage unit 22. Save (step S116), and return to step S102.

一方、制御部24は、判定の結果、撮影画像の破棄操作を検出した場合には(ステップS115、Yes)、バッファに退避しておいた撮影画像のデータを破棄して(ステップS117)、ステップS102に戻る。   On the other hand, when the control unit 24 detects the discard operation of the captured image as a result of the determination (step S115, Yes), the controller 24 discards the captured image data saved in the buffer (step S117). Return to S102.

上述してきたように、実施形態1では、携帯電話1は、カメラ36により画像データが取得されると、続けて、メモデータの入力を受け付ける。そして、携帯電話1は、メモデータの入力が完了すると、画像データとメモデータとを紐付ける画像管理データを生成する。続いて、制御部24は、画像管理データ、画像データ、及びメモデータを、記憶部22に設けられる保存領域へ保存する。このようなことから、実施形態1によれば、画像データに紐付けてメモデータを保存する際の利用者の利便性を向上させることができる。   As described above, in the first embodiment, when image data is acquired by the camera 36, the mobile phone 1 continues to accept input of memo data. Then, when the input of the memo data is completed, the mobile phone 1 generates image management data that associates the image data with the memo data. Subsequently, the control unit 24 stores the image management data, the image data, and the memo data in a storage area provided in the storage unit 22. For this reason, according to the first embodiment, it is possible to improve user convenience when storing memo data in association with image data.

上記実施形態1において、携帯電話1は、画像データにテキスト形式のメモデータを紐付ける場合、画像のメタデータなどを格納するための領域(タグ)にメモデータを保存してもよい。   In the first embodiment, when the text data memo data is associated with the image data, the mobile phone 1 may store the memo data in an area (tag) for storing image metadata or the like.

上記実施形態1において、携帯電話1は、メモの入力が完了し、画像データおよびメモデータの保存が完了した後、カメラモードに戻る際には、メモを入力するためのレイアウトを表示したままでもよい。シャッターの連続駆動が検出された場合には、表示しているレイアウトを消去してもよい。   In the first embodiment, when the mobile phone 1 returns to the camera mode after the input of the memo is completed and the storage of the image data and the memo data is completed, the layout for inputting the memo is still displayed. Good. If continuous driving of the shutter is detected, the displayed layout may be deleted.

(実施形態2)
携帯電話1は、画像データに紐付けて、所定のファイル形式の音声データ(以下、音声メモデータ)を保存するようにしてもよい。以下の実施形態2では、画像データに紐付けて音声メモデータを保存する制御について説明する。
(Embodiment 2)
The mobile phone 1 may store audio data in a predetermined file format (hereinafter referred to as audio memo data) in association with the image data. In the second embodiment below, control for storing voice memo data in association with image data will be described.

図9は、実施形態2に係る携帯電話1の機能構成を示すブロック図である。実施形態2に係る携帯電話の機能構成は、以下に説明する点が実施形態1とは異なる。   FIG. 9 is a block diagram illustrating a functional configuration of the mobile phone 1 according to the second embodiment. The functional configuration of the mobile phone according to the second embodiment is different from that of the first embodiment in the points described below.

実施形態2において、記憶部22は、画像編集プログラム22a、アルバムアプリケーション22b、カメラアプリケーション22c、音声メモアプリケーション22e、画像管理データ22f、画像データ22g、音声メモデータ22i及びレイアウトデータ22zを記憶する。   In the second embodiment, the storage unit 22 stores an image editing program 22a, an album application 22b, a camera application 22c, a voice memo application 22e, image management data 22f, image data 22g, voice memo data 22i, and layout data 22z.

音声メモアプリケーション22eは、カメラ36により取得された画像データに紐付ける音声メモデータを生成するための機能を提供する。音声メモデータのファイル形式は、MP3(MPEG Audio Layer−3)、AAC(Advanced Audio Coding)、HE−AAC(High−Efficiency Advanced Audio Coding)などの任意の圧縮符号化方式に対応する形式を採用できる。   The voice memo application 22e provides a function for generating voice memo data associated with image data acquired by the camera 36. The file format of the voice memo data can adopt a format corresponding to an arbitrary compression encoding method such as MP3 (MPEG Audio Layer-3), AAC (Advanced Audio Coding), HE-AAC (High-Efficiency Advanced Audio Coding), and the like. .

画像管理データ22fは、画像データと、音声メモデータとの対応関係を管理するためのデータである。画像管理データ22fは、例えば、記憶部22の画像管理データ保存領域に保存される。画像管理データ22fのデータ構成は、実施形態1と同様である(図3参照)。例えば、実施形態2において、参照メモIDは、音声メモアプリケーション22eにより生成される音声メモデータごとに一意に付与される識別情報である。   The image management data 22f is data for managing the correspondence between image data and voice memo data. For example, the image management data 22 f is stored in an image management data storage area of the storage unit 22. The data configuration of the image management data 22f is the same as that of the first embodiment (see FIG. 3). For example, in the second embodiment, the reference memo ID is identification information uniquely assigned to each voice memo data generated by the voice memo application 22e.

音声メモデータ22iは、記憶部22の音声メモ保存領域に保存される音声メモデータである。   The voice memo data 22 i is voice memo data stored in the voice memo storage area of the storage unit 22.

実施形態2において、制御部24は、カメラ36により画像データが取得されると、続けて、音声メモデータの入力を受け付ける。そして、制御部24は、音声メモデータの入力が完了すると、画像データと音声メモデータとを紐付ける画像管理データを生成する。続いて、制御部24は、画像管理データ、画像データ、及び音声メモデータを、記憶部22に設けられる保存領域へ保存する。音声メモデータは、マイク5および音声処理部30を介して、制御部24に送られる。   In the second embodiment, when the image data is acquired by the camera 36, the control unit 24 continuously receives input of voice memo data. Then, when the input of the voice memo data is completed, the control unit 24 generates image management data that links the image data and the voice memo data. Subsequently, the control unit 24 stores the image management data, the image data, and the voice memo data in a storage area provided in the storage unit 22. The voice memo data is sent to the control unit 24 via the microphone 5 and the voice processing unit 30.

図10及び図11を用いて、実施形態2に係る携帯電話1により実行される制御の一例について説明する。   An example of control executed by the mobile phone 1 according to the second embodiment will be described with reference to FIGS. 10 and 11.

図10は、画像データに音声メモデータを紐付けて保存する制御の一例を示す図である。図10に示すように、携帯電話1は、利用者の操作に応じてカメラ36を起動し、カメラモードに遷移する。そして、携帯電話1は、カメラ36により捕捉される被写体の画像(イメージ)を映し出すカメラモードの画面40をディスプレイ2Mに表示する(ステップS41)。   FIG. 10 is a diagram illustrating an example of control for storing voice memo data in association with image data. As shown in FIG. 10, the mobile phone 1 activates the camera 36 in accordance with a user operation and transitions to the camera mode. Then, the cellular phone 1 displays a camera mode screen 40 that displays an image of the subject captured by the camera 36 on the display 2M (step S41).

続いて、携帯電話1は、画面40において、利用者の操作に応じて、カメラ36により補足されている被写体の画像データを取得する(ステップS42)。画像取得後、取得した画像を確認する確認画面を表示する。携帯電話1は、取得画像の確認画面に、携帯電話1は、例えば、ダイヤルキー3aに含まれるテンキーの「*キー」を操作することにより、音声メモデータの添付が可能であることを画面40に表示する。   Subsequently, the mobile phone 1 acquires image data of the subject captured by the camera 36 on the screen 40 in accordance with the user's operation (step S42). After the image is acquired, a confirmation screen for confirming the acquired image is displayed. The mobile phone 1 displays on the confirmation screen of the acquired image, and the mobile phone 1 displays that the voice memo data can be attached by, for example, operating the “* key” of the numeric keypad included in the dial key 3a. To display.

「*キー」の操作を検出すると、携帯電話1は、音声メモの録音画面46をディスプレイ2Mに表示する(ステップS43)。録音画面46には、音声メモの録音を開始するための操作方法が表示される。録音画面46には、撮影された画像のカテゴリ46bが表示される。携帯電話1は、例えば、撮影された画像の含まれる顔を認識して、記憶部22に保存されている画像との照合を行い、自動的にカテゴリを判定して表示する。ここで、カテゴリは、例えば、画像データの一覧をアルバムとして閲覧する際に、利用者が画像ごとに登録するアイコン、画像、グループ名などの識別情報、または優先度情報などであってよい。   When the operation of the “* key” is detected, the mobile phone 1 displays a voice memo recording screen 46 on the display 2M (step S43). On the recording screen 46, an operation method for starting recording of a voice memo is displayed. On the recording screen 46, a category 46b of the photographed image is displayed. For example, the mobile phone 1 recognizes a face including a photographed image, compares it with an image stored in the storage unit 22, and automatically determines and displays a category. Here, the category may be, for example, identification information such as an icon, an image, and a group name registered by the user for each image when browsing a list of image data as an album, or priority information.

音声メモの録音完了の操作(OK)を検出すると(ステップS44)、携帯電話1は、撮影された画像および録音された音声メモが所定のレイアウトで配置されたレイアウト画面47をディスプレイ2Mに表示する(ステップS45)。撮影された画像および録音された音声メモのレイアウトは、事前に設定されているものとする。レイアウトは、利用者が適宜変更可能であるものとする。   When an operation (OK) to complete the recording of the voice memo is detected (step S44), the mobile phone 1 displays a layout screen 47 in which the photographed image and the recorded voice memo are arranged in a predetermined layout on the display 2M. (Step S45). It is assumed that the layout of the photographed image and the recorded voice memo is set in advance. The layout can be changed as appropriate by the user.

レイアウト画面47において、利用者による入力の確定操作(完了)を検出すると、携帯電話1は、画像データおよび音声メモデータの登録完了のメッセージをディスプレイ2Mに表示し(ステップS46)、画像データと音声メモデータとを紐付けて保存する。   When detecting the input confirmation operation (completion) by the user on the layout screen 47, the mobile phone 1 displays a message indicating the completion of registration of the image data and the voice memo data on the display 2M (step S46), and the image data and the voice are displayed. Save memo data in association.

図11は、携帯電話1に保存された画像および画像に紐付けられた音声メモを利用者に閲覧させる際の制御の一例を示す図である。図11に示すように、携帯電話1は、利用者の操作に応じて、アルバム画面43をディスプレイ2Mに表示する(ステップS51)。   FIG. 11 is a diagram illustrating an example of control when the user browses an image stored in the mobile phone 1 and a voice memo associated with the image. As shown in FIG. 11, the mobile phone 1 displays an album screen 43 on the display 2M in accordance with a user operation (step S51).

携帯電話1は、アルバム画面43において、画像の見出し43bの選択を検出すると、見出し43bに対応する画像データおよび音声メモデータが所定のレイアウトで配置された画面48aをディスプレイ2Mに表示する(ステップS52)。   When the mobile phone 1 detects the selection of the image header 43b on the album screen 43, the mobile phone 1 displays a screen 48a on which image data and voice memo data corresponding to the header 43b are arranged in a predetermined layout on the display 2M (step S52). ).

携帯電話1は、画面48aにおいて、録音された音声メモを読み上げる操作(再生)を検出すると、音声メモの読み上げ中であることを示す画面48bをディスプレイ2Mに表示するとともに、録音された音声メモの音声を再生(レシーバ6から出力)する(ステップS53)。音声メモの再生が終了すると、携帯電話1は、ステップS52に戻り、画面48aをディスプレイ2Mに表示する。   When the cellular phone 1 detects an operation (playback) for reading out the recorded voice memo on the screen 48a, the mobile phone 1 displays a screen 48b indicating that the voice memo is being read out on the display 2M and also displays the recorded voice memo. Audio is reproduced (output from the receiver 6) (step S53). When the reproduction of the voice memo is completed, the mobile phone 1 returns to step S52 and displays the screen 48a on the display 2M.

続いて、図12を用いて、実施形態2に係る携帯電話1により実行される制御の流れを説明する。図12は、実施形態2に係る携帯電話1による制御の流れを示すフローチャートである。図12に示す制御は、制御部24が、画像編集プログラム22aなどを記憶部22から読込んで実行することにより実現される。図12に示す制御は、カメラモードである間、繰り返し実行される。図12は、画像データに音声メモデータを紐付けて保存するときの制御の流れを示す。   Subsequently, a flow of control executed by the mobile phone 1 according to the second embodiment will be described with reference to FIG. FIG. 12 is a flowchart showing a flow of control by the mobile phone 1 according to the second embodiment. The control shown in FIG. 12 is realized by the control unit 24 reading the image editing program 22a and the like from the storage unit 22 and executing them. The control shown in FIG. 12 is repeatedly executed while in the camera mode. FIG. 12 shows the flow of control when voice memo data is stored in association with image data.

図12に示すように、制御部24は、利用者の操作に応じて、記憶部22からカメラアプリケーション22cを読込んで実行することによりカメラ36を起動し(ステップS201)、カメラモードへ遷移する(ステップS202)。   As shown in FIG. 12, the control unit 24 starts up the camera 36 by reading and executing the camera application 22c from the storage unit 22 in accordance with a user's operation (step S201), and transitions to the camera mode ( Step S202).

続いて、制御部24は、利用者の撮影操作に応じてシャッターを駆動し(ステップS203)、撮影画像のデータをバッファへ退避する(ステップS204)。続いて、制御部24は、画像編集プログラム22aを記憶部22から読込んで起動する(ステップS205)。ステップS205で画像編集プログラム22aが起動されることにより、画像データに音声メモデータを紐付けて保存するための各種制御が実現される。各種制御の中には、例えば、ダイヤルキー3aに含まれるテンキーの「*キー」を操作により音声メモアプリケーション22eを起動したり、各種画面を表示したり、画像管理データを生成したりする制御などが含まれる。   Subsequently, the control unit 24 drives the shutter according to the user's photographing operation (step S203), and saves the data of the photographed image to the buffer (step S204). Subsequently, the control unit 24 reads the image editing program 22a from the storage unit 22 and starts it (step S205). By starting the image editing program 22a in step S205, various controls for associating and storing voice memo data with image data are realized. The various controls include, for example, a control for starting the voice memo application 22e by operating the “* key” of the numeric keypad included in the dial key 3a, displaying various screens, and generating image management data. Is included.

続いて、制御部24は、音声メモの添付を実行する操作が検出されたかを判定する(ステップS206)。制御部24は、例えば、ダイヤルキー3aに含まれるテンキーの「*キー」の入力が行われたかを判定する。   Subsequently, the control unit 24 determines whether an operation for attaching a voice memo is detected (step S206). For example, the control unit 24 determines whether the “* key” of the numeric keypad included in the dial key 3a has been input.

制御部24は、判定の結果、音声メモの添付を実行する操作が検出された場合には(ステップS206、Yes)、記憶部22から音声メモアプリケーション22eを読込んで起動し、音声メモの録音画面(図10参照)をディスプレイ2Mに表示する(ステップS207)。   As a result of the determination, when an operation for attaching a voice memo is detected (Yes in step S206), the control unit 24 reads and starts the voice memo application 22e from the storage unit 22, and records the voice memo recording screen. (See FIG. 10) is displayed on the display 2M (step S207).

続いて、制御部24は、音声メモの録音完了の操作を検出すると(ステップS208)、ステップS204でバッファに退避しておいた撮影画像と、録音された音声メモとを含むレイアウト画面(図10参照)をディスプレイ2Mに表示する(ステップS209)。   Subsequently, when the control unit 24 detects a voice memo recording completion operation (step S208), a layout screen (FIG. 10) including the captured image saved in the buffer in step S204 and the recorded voice memo. Is displayed on the display 2M (step S209).

続いて、制御部24は、入力の確定操作を検出すると(ステップS210)、画像管理データを生成する(ステップS211)。具体的には、制御部24は、画像管理IDを生成し、ステップS204でバッファに退避しておいた撮影画像のデータに参照画像IDを付与し、ステップS208で録音が完了した音声メモデータに参照メモIDを付与し、ステップS209で用いたレイアウトに対応する参照レイアウトIDをレイアウトデータ22zから取得する。そして、制御部24は、画像管理IDと、参照画像IDと、参照メモIDと、参照レイアウトIDとを紐付けた画像管理データを生成する。   Subsequently, when detecting the input confirmation operation (step S210), the control unit 24 generates image management data (step S211). Specifically, the control unit 24 generates an image management ID, assigns a reference image ID to the captured image data saved in the buffer in step S204, and adds the reference image ID to the voice memo data that has been recorded in step S208. A reference memo ID is assigned, and a reference layout ID corresponding to the layout used in step S209 is acquired from the layout data 22z. Then, the control unit 24 generates image management data in which the image management ID, the reference image ID, the reference memo ID, and the reference layout ID are associated with each other.

続いて、制御部24は、記憶部22の画像保存領域へ、バッファに退避しておいた撮影画像のデータを保存する(ステップS212)。続いて、制御部24は、記憶部22の音声メモ保存領域へ音声メモデータを保存する(ステップS213)。続いて、制御部24は、画像管理データの保存領域へ画像管理データを保存し(ステップS214)、ステップS202に戻る。   Subsequently, the control unit 24 stores the captured image data saved in the buffer in the image storage area of the storage unit 22 (step S212). Subsequently, the control unit 24 stores the voice memo data in the voice memo storage area of the storage unit 22 (step S213). Subsequently, the control unit 24 stores the image management data in the image management data storage area (step S214), and returns to step S202.

ステップS206において、制御部24は、判定の結果、音声メモの添付を実行する操作が検出されなかった場合には(ステップS206、No)、撮影画像の破棄操作を検出したかを判定する(ステップS215)。   In step S206, if the result of determination is that an operation for executing attachment of a voice memo has not been detected (No in step S206), the control unit 24 determines whether or not a captured image discarding operation has been detected (step S206). S215).

制御部24は、判定の結果、撮影画像の破棄操作を検出しなかった場合には(ステップS215、No)、バッファに退避しておいた撮影画像のデータを、記憶部22の画像保存領域へ保存し(ステップS216)、ステップS202に戻る。   As a result of the determination, if the control unit 24 does not detect the operation of discarding the captured image (No in step S215), the captured image data saved in the buffer is stored in the image storage area of the storage unit 22. Save (step S216), and return to step S202.

一方、制御部24は、判定の結果、撮影画像の破棄操作を検出した場合には(ステップS215、Yes)、バッファに退避しておいた撮影画像のデータを破棄して(ステップS217)、ステップS202に戻る。   On the other hand, when the control unit 24 detects the discard operation of the captured image as a result of the determination (step S215, Yes), the controller 24 discards the captured image data saved in the buffer (step S217), and the step Return to S202.

上述してきたように、実施形態2では、携帯電話1は、カメラ36により画像データが取得されると、続けて、音声メモの録音を受け付ける。そして、携帯電話1は、音声メモの録音が完了すると、画像データと音声メモデータとを紐付ける画像管理データを生成する。続いて、制御部24は、画像管理データ、画像データ、及びメモデータを、記憶部22に設けられる保存領域へ保存する。このようなことから、実施形態2によれば、画像データに紐付けて音声メモデータを保存する際の利用者の利便性を向上させることができる。   As described above, in the second embodiment, when the image data is acquired by the camera 36, the mobile phone 1 continues to accept recording of a voice memo. When the recording of the voice memo is completed, the mobile phone 1 generates image management data that links the image data and the voice memo data. Subsequently, the control unit 24 stores the image management data, the image data, and the memo data in a storage area provided in the storage unit 22. For this reason, according to the second embodiment, it is possible to improve user convenience when storing voice memo data in association with image data.

(実施形態3)
携帯電話1は、画像データに紐付けて保存するデータとして、メモデータ及び音声メモデータのいずれかを選択させるようにしてもよい。以下の実施形態3では、画像データに紐付けて保存するデータとして、メモデータ及び音声メモデータのいずれかを選択させる制御について説明する。
(Embodiment 3)
The mobile phone 1 may select either memo data or voice memo data as data to be stored in association with image data. In the following third embodiment, control for selecting either memo data or voice memo data as data to be stored in association with image data will be described.

図13は、実施形態3に係る携帯電話1の機能構成を示すブロック図である。実施形態3に係る携帯電話の機能構成は、以下に説明する点が実施形態1及び実施形態2とは異なる。   FIG. 13 is a block diagram illustrating a functional configuration of the mobile phone 1 according to the third embodiment. The functional configuration of the mobile phone according to the third embodiment is different from the first and second embodiments in the points described below.

実施形態1において、記憶部22は、図13に示すように、画像編集プログラム22a、アルバムアプリケーション22b、カメラアプリケーション22c、メモアプリケーション22d、音声メモアプリケーション22e、画像管理データ22f、画像データ22g、メモデータ22h、音声メモデータ22i及びレイアウトデータ22zなどを記憶する。   In the first embodiment, as shown in FIG. 13, the storage unit 22 includes an image editing program 22a, an album application 22b, a camera application 22c, a memo application 22d, a voice memo application 22e, image management data 22f, image data 22g, and memo data. 22h, voice memo data 22i, layout data 22z, and the like are stored.

画像管理データ22fは、画像データと、メモデータ又は音声メモデータとの対応関係を管理するためのデータである。画像管理データ22fは、例えば、記憶部22の画像管理データ保存領域に保存される。画像管理データ22fのデータ構成は、実施形態1及び実施形態2と同様である(図3参照)。   The image management data 22f is data for managing the correspondence between image data and memo data or voice memo data. For example, the image management data 22 f is stored in an image management data storage area of the storage unit 22. The data configuration of the image management data 22f is the same as in the first and second embodiments (see FIG. 3).

実施形態3において、制御部24は、カメラ36により画像データが取得されると、続けて、画像データに紐付けて保存するデータとして、メモデータ及び音声メモデータのいずれかを選択できるようにする。そして、制御部24は、メモデータあるいは音声メモデータの入力が完了すると、画像データと、メモデータあるいは音声メモデータとを紐付ける画像管理データを生成する。続いて、制御部24は、画像管理データ、画像データ、メモデータ、あるいは音声メモデータを、記憶部22に設けられる保存領域へ保存する。   In the third embodiment, when the image data is acquired by the camera 36, the control unit 24 allows the user to select either memo data or voice memo data as data to be stored in association with the image data. . Then, when the input of the memo data or voice memo data is completed, the control unit 24 generates image management data that associates the image data with the memo data or voice memo data. Subsequently, the control unit 24 stores image management data, image data, memo data, or voice memo data in a storage area provided in the storage unit 22.

図14を用いて、実施形態3に係る携帯電話1により実行される制御の一例について説明する。図14は、画像データに紐付けて保存するデータとして、メモデータ及び音声メモデータのいずれかを選択させる制御の一例を示す図である。   An example of control executed by the mobile phone 1 according to the third embodiment will be described with reference to FIG. FIG. 14 is a diagram illustrating an example of control for selecting either memo data or voice memo data as data to be stored in association with image data.

図14に示すように、携帯電話1は、利用者の操作に応じてカメラ36を起動し、カメラモードに遷移する。そして、携帯電話1は、カメラ36により捕捉される被写体の画像(イメージ)を映し出すカメラモードの画面40をディスプレイ2Mに表示する(ステップS61)。   As shown in FIG. 14, the mobile phone 1 activates the camera 36 in accordance with a user operation and transitions to the camera mode. Then, the cellular phone 1 displays the camera mode screen 40 on which the subject image captured by the camera 36 is displayed on the display 2M (step S61).

続いて、携帯電話1は、画面40において、利用者の操作に応じて、カメラ36により補足されている被写体の画像データを取得する(ステップS62)。画像取得後、取得した画像を確認する確認画面を表示する。携帯電話1は、取得画像の確認画面に、携帯電話1は、例えば、ダイヤルキー3aに含まれるテンキーの「#キー」を操作した場合には、メモデータの添付が可能であり、ダイヤルキー3aに含まれるテンキーの「*キー」を操作した場合には、音声メモデータの添付が可能であることを画面40に表示する。   Subsequently, the mobile phone 1 obtains image data of the subject captured by the camera 36 on the screen 40 in accordance with the user's operation (step S62). After the image is acquired, a confirmation screen for confirming the acquired image is displayed. When the cellular phone 1 operates the “# key” of the numeric keypad included in the dial key 3a, for example, the memo data can be attached to the confirmation screen of the acquired image, and the dial key 3a When the “* key” of the numeric keypad included in the keypad is operated, it is displayed on the screen 40 that voice memo data can be attached.

「#キー」の操作を検出すると、携帯電話1は、メモの入力画面41をディスプレイ2Mに表示する(ステップS63)。以降、携帯電話1は、上記実施形態1で説明したように、画像データにメモデータを紐付けて保存する制御(図5、あるいは図8参照)を実行する。   When the operation of the “# key” is detected, the mobile phone 1 displays a memo input screen 41 on the display 2M (step S63). Thereafter, as described in the first embodiment, the mobile phone 1 executes control (see FIG. 5 or FIG. 8) for storing memo data in association with image data.

一方、「*キー」の操作を検出すると、携帯電話1は、音声メモの録音画面46をディスプレイ2Mに表示する(ステップS64)。以降、携帯電話1は、上記実施形態2で説明したように、画像データに音声メモデータを紐付けて保存する制御(図10、あるいは図12参照)を実行する。   On the other hand, when the operation of the “* key” is detected, the mobile phone 1 displays the voice memo recording screen 46 on the display 2M (step S64). Thereafter, as described in the second embodiment, the mobile phone 1 executes control (see FIG. 10 or FIG. 12) for storing the voice memo data in association with the image data.

実施形態3では、携帯電話1が、画像データに紐付けて保存するデータとして、メモデータ及び音声メモデータのいずれかを選択させることができる。このため、実施形態3によれば、画像データに紐付けて、メモデータあるいは音声メモデータなどのデータを保存する際の利用者の利便性をさらに向上させることができる。   In the third embodiment, the mobile phone 1 can select either memo data or voice memo data as data to be stored in association with image data. Therefore, according to the third embodiment, it is possible to further improve the convenience for the user when storing data such as memo data or voice memo data in association with image data.

上記実施形態3において、画像データに紐付けて保存するデータとして、メモデータ及び音声メモデータのいずれかを選択させる場合、携帯電話1が、利用者により操作されるキーの種類により判別する例を説明したが、これには限定されない。例えば、携帯電話1は、画像データの取得後(画像撮影後)、自動的にマイク5を起動し、一定時間、音声の入力を受け付けるようにして、音声の入力があれば、画像データに紐付けて音声メモデータを保存するような制御を実行してもよい。あるいは、携帯電話1は、画像データの取得後(画像撮影後)、自動的にマイク5を起動し、一定時間、音声が入力されるのを待機している間に、音声ではなく、キーの入力を検出した場合には、自動的にメモの入力を受け付けて、画像データに紐付けてメモデータを保存するような制御を実行してもよい。   In the third embodiment, when selecting either memo data or voice memo data as data to be stored in association with image data, an example in which the mobile phone 1 determines based on the type of key operated by the user Although described, it is not limited to this. For example, the mobile phone 1 automatically activates the microphone 5 after obtaining image data (after taking an image) and accepts voice input for a certain period of time. In addition, control such as saving voice memo data may be executed. Alternatively, the mobile phone 1 automatically activates the microphone 5 after acquiring the image data (after taking the image), and waits for the voice to be input for a certain period of time. When an input is detected, a control for automatically accepting a memo input and saving the memo data in association with the image data may be executed.

上記の実施形態では、添付の請求項に係る装置の例として、携帯電話について説明したが、添付の請求項に係る装置は、携帯電話に限定されない。添付の請求項に係る装置は、携帯電話以外の携帯電子機器であってもよい。携帯電子機器は、例えば、スマートフォン、タブレット、携帯型パソコン、デジタルカメラ、メディアプレイヤ、電子書籍リーダ、ナビゲータ、及びゲーム機を含むが、これらに限定されない。   In the above embodiment, a mobile phone has been described as an example of a device according to the appended claims. However, the device according to the appended claims is not limited to a mobile phone. The device according to the appended claims may be a mobile electronic device other than a mobile phone. Examples of the portable electronic device include, but are not limited to, a smartphone, a tablet, a portable personal computer, a digital camera, a media player, an electronic book reader, a navigator, and a game machine.

添付の請求項に係る技術を完全かつ明瞭に開示するために特徴的な実施形態に関し記載してきた。しかし、添付の請求項は、上記実施形態に限定されるべきものでなく、本明細書に示した基礎的事項の範囲内で当該技術分野の当業者が創作しうるすべての変形例及び代替可能な構成により具現化されるべきである。   The characterizing embodiments have been described in order to fully and clearly disclose the technology according to the appended claims. However, the appended claims should not be limited to the above-described embodiments, but all modifications and alternatives that can be created by those skilled in the art within the scope of the basic matters shown in this specification. Should be embodied by a simple configuration.

1 携帯電話
2M ディスプレイ
3a ダイヤルキー
3b カーソルキー
3c 決定キー
3d 機能キー
4 ワンタッチキー
4a 第1ワンタッチキー
4b 第2ワンタッチキー
4c 第3ワンタッチキー
5 マイク
6 レシーバ
22 記憶部
24 制御部
26 通信部
28 操作部
30 音声処理部
32 表示部
34 表示制御部
36 カメラ
DESCRIPTION OF SYMBOLS 1 Mobile phone 2M Display 3a Dial key 3b Cursor key 3c Determination key 3d Function key 4 One-touch key 4a 1st one-touch key 4b 2nd one-touch key 4c 3rd one-touch key 5 Microphone 6 Receiver 22 Memory | storage part 24 Control part 26 Communication part 28 Operation Unit 30 Audio processing unit 32 Display unit 34 Display control unit 36 Camera

Claims (6)

画像データを取得するカメラと、
前記カメラにより画像データが取得されると、該取得された画像データ上に該取得された画像データにデータを紐付けるための操作方法及び該取得された画像データを添付して電子メールを送信するための操作方法を表示し、該取得された画像データに紐付けるデータを生成する処理を実行する制御部と
を有する携帯電子機器。
A camera that acquires image data;
When the image data is acquired by the camera, an operation method for associating the acquired image data with the acquired image data and an e-mail attached with the acquired image data are transmitted on the acquired image data And a control unit that executes a process of generating data associated with the acquired image data.
前記制御部は、前記画像データに紐付けるテキストデータまたは音声データを生成する請求項1に記載の携帯電子機器。   The portable electronic device according to claim 1, wherein the control unit generates text data or audio data associated with the image data. 前記制御部は、前記画像データに紐付けるデータを生成する場合に、前記テキストデータおよび前記音声データのいずれか一方を選択させる請求項2に記載の携帯電子機器。   The portable electronic device according to claim 2, wherein the control unit selects one of the text data and the audio data when generating data associated with the image data. 前記制御部は、前記画像データに紐付けるデータを生成する場合に、アプリケーションを起動させる請求項1から請求項3のいずれか一つに記載の携帯電子機器。   The portable electronic device according to any one of claims 1 to 3, wherein the control unit activates an application when generating data associated with the image data. 画像データを取得するカメラを有する携帯電子機器によって実行される画像編集方法であって、
前記画像データを取得するステップと、
該取得された画像データ上に該取得された画像データにデータを紐付けるための操作方法及び該取得された画像データを添付して電子メールを送信するための操作方法を表示するステップと、
該取得された前記画像データに紐付けるデータを生成する処理を実行するステップと
を含む画像編集方法。
An image editing method executed by a portable electronic device having a camera for acquiring image data,
Obtaining the image data;
Displaying an operation method for associating data with the acquired image data on the acquired image data and an operation method for sending an e-mail with the acquired image data attached ;
An image editing method comprising: a process of generating data associated with the acquired image data.
画像データを取得するカメラを有する携帯電子機器に、
前記画像データを取得するステップと、
該取得された画像データ上に該取得された画像データにデータを紐付けるための操作方法及び該取得された画像データを添付して電子メールを送信するための操作方法を表示するステップと、
該取得された前記画像データに紐付けるデータを生成する処理を実行するステップと
を実行させる画像編集プログラム。
In a portable electronic device having a camera that acquires image data,
Obtaining the image data;
Displaying an operation method for associating data with the acquired image data on the acquired image data and an operation method for sending an e-mail with the acquired image data attached ;
And a step of executing a process of generating data associated with the acquired image data.
JP2013039561A 2013-02-28 2013-02-28 Portable electronic device, image editing method and image editing program Active JP6189607B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013039561A JP6189607B2 (en) 2013-02-28 2013-02-28 Portable electronic device, image editing method and image editing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013039561A JP6189607B2 (en) 2013-02-28 2013-02-28 Portable electronic device, image editing method and image editing program

Publications (2)

Publication Number Publication Date
JP2014168174A JP2014168174A (en) 2014-09-11
JP6189607B2 true JP6189607B2 (en) 2017-08-30

Family

ID=51617659

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013039561A Active JP6189607B2 (en) 2013-02-28 2013-02-28 Portable electronic device, image editing method and image editing program

Country Status (1)

Country Link
JP (1) JP6189607B2 (en)

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000115638A (en) * 1998-10-05 2000-04-21 Sharp Corp Digital camera device, and image data photographing and recording method
JP2004312525A (en) * 2003-04-09 2004-11-04 Sharp Corp Cellular phone
JP2008206137A (en) * 2007-01-22 2008-09-04 Hoya Corp Photographing apparatus
JP4359688B1 (en) * 2008-06-18 2009-11-04 ピットメディア・マーケティングス株式会社 Mosaic image providing apparatus, method and program
JP5238671B2 (en) * 2009-10-28 2013-07-17 京セラ株式会社 Portable electronic device and method for controlling portable electronic device
JP5739131B2 (en) * 2010-10-15 2015-06-24 京セラ株式会社 Portable electronic device, control method and program for portable electronic device

Also Published As

Publication number Publication date
JP2014168174A (en) 2014-09-11

Similar Documents

Publication Publication Date Title
US8375283B2 (en) System, device, method, and computer program product for annotating media files
US9001983B2 (en) Digital photo frame with dial-a-tag functionality
US20040102225A1 (en) Portable communication terminal and image display method
JP2015038753A (en) System and method of predicting user input to mobile terminal
KR20060110206A (en) Portable communication apparatus
CA2690630A1 (en) Method, apparatus and computer program product for providing association of objects using metadata
KR101419010B1 (en) Apparatus and method for providing phonebook using image in portable terminal
JP5152045B2 (en) Telephone device, image display method, and image display processing program
KR20140132427A (en) Method and apparatus for providing call log in electronic device
WO2011019467A1 (en) Methods and devices for adding sound annotation to picture and for highlighting on photos and mobile terminal including the devices
JP2007018166A (en) Information search device, information search system, information search method, and information search program
JP2007068234A (en) Cellular phone terminal
CN106844717A (en) Webpage search display methods and device
JP2015513142A (en) Method and terminal for editing information in social network service application
JP2002232555A (en) Phone, and retrieval method
KR100566230B1 (en) Method for performing specific function concerning phone number
JP6189607B2 (en) Portable electronic device, image editing method and image editing program
JP2008176367A (en) Input processing apparatus, input processing method, input processing program, and mobile terminal device
KR20070107888A (en) Cellular phone and data searching method the same
JP2013186804A (en) Data storage device, data storage method and program
WO2014050882A1 (en) Electronic device, control method, and control program
JP4842860B2 (en) Portable information terminal, image management method and program
KR100691243B1 (en) Mobile communication terminal and method for saving and managing synthetically basic and extension information linked with corresponding name information
KR20060024962A (en) Picture management method of mobile terminal
CN107566594A (en) Display methods, display device and the readable storage medium storing program for executing of associated person information

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20151215

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20161021

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20161025

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161220

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170131

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170327

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20170411

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170705

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20170713

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170801

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170803

R150 Certificate of patent or registration of utility model

Ref document number: 6189607

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150