JP5749115B2 - Portable terminal device, program, and electronic document creation method - Google Patents

Portable terminal device, program, and electronic document creation method Download PDF

Info

Publication number
JP5749115B2
JP5749115B2 JP2011176771A JP2011176771A JP5749115B2 JP 5749115 B2 JP5749115 B2 JP 5749115B2 JP 2011176771 A JP2011176771 A JP 2011176771A JP 2011176771 A JP2011176771 A JP 2011176771A JP 5749115 B2 JP5749115 B2 JP 5749115B2
Authority
JP
Japan
Prior art keywords
image
input
display area
area
electronic document
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2011176771A
Other languages
Japanese (ja)
Other versions
JP2013042274A (en
Inventor
恵祐 長田
恵祐 長田
慶子 三上
慶子 三上
光国 野宗
光国 野宗
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kyocera Corp
Original Assignee
Kyocera Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kyocera Corp filed Critical Kyocera Corp
Priority to JP2011176771A priority Critical patent/JP5749115B2/en
Publication of JP2013042274A publication Critical patent/JP2013042274A/en
Application granted granted Critical
Publication of JP5749115B2 publication Critical patent/JP5749115B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、携帯電話機やPDA(Personal Digital Assistant)、タブレットPC(TabletPC)、電子書籍端末、携帯ゲーム機等の携帯端末装置に関するものである。   The present invention relates to a portable terminal device such as a mobile phone, a PDA (Personal Digital Assistant), a tablet PC (Tablet PC), an electronic book terminal, and a portable game machine.

従来、2つの表示面を有する携帯端末装置が知られている。このような携帯端末装置では、一方の表示面にライブビュー画像が表示され、他方の表示面に撮影補助画像が表示され得る(たとえば、特許文献1参照)。   Conventionally, a portable terminal device having two display surfaces is known. In such a portable terminal device, a live view image can be displayed on one display surface, and an imaging auxiliary image can be displayed on the other display surface (see, for example, Patent Document 1).

たとえば、ユーザが写真をウェブページや名刺などに使用したい場合、ユーザは、ライブビュー画像を見ながら、所望の被写体を撮影して、写真をメモリに保存する。また、ユーザは、ウェブページや名刺などのテンプレートを表示する。そして、ユーザは、写真をメモリから読み出して、写真をテンプレートに貼り付け、電子文書を作成し保存する。   For example, when a user wants to use a photograph for a web page or a business card, the user captures a desired subject while viewing a live view image, and stores the photograph in a memory. The user also displays templates such as web pages and business cards. Then, the user reads the photo from the memory, pastes the photo on the template, creates and saves an electronic document.

特開2005−86283号公報JP 2005-86283 A

このように、従来技術では、写真の撮影と電子文書の作成とが別々に行われる。このため、写真の保存および電子文書の保存など、重複した作業が必要となり、手間がかかる。   As described above, in the prior art, photography and electronic document creation are performed separately. For this reason, duplicate operations such as storing pictures and storing electronic documents are required, which is troublesome.

本発明は、かかる課題に鑑みてなされたものであり、撮影画像を用いた電子文書を簡単に作成することができる携帯端末装置を提供することを目的とする。   The present invention has been made in view of such a problem, and an object thereof is to provide a mobile terminal device that can easily create an electronic document using a captured image.

本発明の第1態様に係る携帯端末装置は、第1表示領域と、第2表示領域と、前記第1表示領域に対する入力および前記第2表示領域に対する入力を検出する検出部と、外部から受光した光により画像信号を生成する撮像部と、画像入力領域を含む電子文書のテンプレートを記憶する記憶部と、制御部とを備える。ここで、前記制御部は、前記画像信号に基づくプレビュー画像を前記第1表示領域に表示し、前記記憶部から読み出された前記テンプレートを前記第2表示領域に表示する。また、前記制御部は、前記検出部により前記画像入力領域を選択する入力が検出されると、選択された前記画像入力領域に対応するトリミング枠を前記プレビュー画像上に表示し、前記検出部により前記画像入力領域を選択する入力が検出されなくなると、前記プレビュー画像のうち前記トリミング枠内に含まれる画像を取得し、取得した画像を前記画像入力領域に合成した前記電子文書を生成する。
本発明の第2態様に係る携帯端末装置は、第1表示領域と、第2表示領域と、前記第1表示領域に対する入力および前記第2表示領域に対する入力を検出する検出部と、外部から受光した光により画像信号を生成する撮像部と、画像入力領域を含む電子文書のテンプレートを記憶する記憶部と、制御部とを備える。ここで、前記制御部は、前記画像信号に基づくプレビュー画像を前記第1表示領域に表示し、前記記憶部から読み出された前記テンプレートを前記第2表示領域に表示する。また、前記制御部は、前記検出部により、前記画像入力領域を選択する入力が検出された後、さらに前記入力の位置を前記第2表示領域から前記第1表示領域へ移動させる操作が検出されると、選択された前記画像入力領域に対応するトリミング枠を前記第1表示領域に対する前記入力の位置に表示し、前記検出部により前記第1表示領域に対する前記入力が検出されなくなると、前記プレビュー画像のうち前記トリミング枠内に含まれる画像を取得し、取得した画像を前記画像入力領域に合成した前記電子文書を生成する。
A mobile terminal device according to a first aspect of the present invention includes a first display area , a second display area , a detection unit that detects an input to the first display area and an input to the second display area , and receives light from outside. An image pickup unit that generates an image signal using the light, a storage unit that stores a template of an electronic document including an image input area, and a control unit. Here, the control unit displays a preview image based on the image signal in the first display area, and displays the template read from the storage unit in the second display area . In addition, when the input for selecting the image input area is detected by the detection unit , the control unit displays a trimming frame corresponding to the selected image input area on the preview image, and the detection unit When no input for selecting the image input area is detected, an image included in the trimming frame is acquired from the preview image, and the electronic document is generated by combining the acquired image with the image input area.
A mobile terminal device according to a second aspect of the present invention includes a first display area, a second display area, a detection unit that detects an input to the first display area and an input to the second display area, and receives light from outside. An image pickup unit that generates an image signal using the light, a storage unit that stores a template of an electronic document including an image input area, and a control unit. Here, the control unit displays a preview image based on the image signal in the first display area, and displays the template read from the storage unit in the second display area. In the control unit, after the input for selecting the image input area is detected by the detection unit, an operation for further moving the position of the input from the second display area to the first display area is detected. Then, a trimming frame corresponding to the selected image input area is displayed at the position of the input with respect to the first display area, and when the input to the first display area is not detected by the detection unit, the preview is displayed. An image included in the trimming frame is acquired from the images, and the electronic document is generated by combining the acquired image with the image input area.

本発明に係る携帯端末装置において、前記制御部は、前記プレビュー画像を、前記第1表示領域と、前記第2表示領域に表示された前記テンプレートの前記画像入力領域とに表示するよう構成され得る。 In the mobile terminal device according to the present invention, the control unit may be configured to display the preview image in the first display area and the image input area of the template displayed in the second display area. .

本発明に係る携帯端末装置において、前記制御部は、前記検出部により、前記第1表示領域に対する入力が検出されてから前記画像入力領域を選択する入力が検出されると、前記画像信号に基づく撮影画像を取得するよう構成され得る。そして、前記制御部は、前記第1表示領域に対する前記入力の位置に対応する前記撮影画像の位置が前記画像入力領域の中心になり、かつ前記撮影画像のうち選択された前記画像入力領域内に収まる画像を抽出し、抽出した画像を前記画像入力領域に合成した前記電子文書を生成する。
本発明の第2の態様に係るプログラムは、第1表示領域と、第2表示領域と、前記第1表示領域に対する入力および前記第2表示領域に対する入力を検出する検出部と、外部から受光した光により画像信号を生成する撮像部と、画像入力領域を含む電子文書のテンプレートを記憶する記憶部とを備える携帯端末装置のコンピュータに、前記画像信号に基づくプレビュー画像を前記第1表示領域に表示し、前記記憶部から読み出された前記テンプレートを前記第2表示領域に表示し、前記検出部により前記画像入力領域を選択する入力が検出されると、選択された前記画像入力領域に対応するトリミング枠を前記プレビュー画像上に表示し、前記検出部により前記画像入力領域を選択する入力が検出されなくなると、前記プレビュー画像のうち前記トリミング枠内に含まれる画像を取得し、取得した画像を前記画像入力領域に合成した前記電子文書を生成する機能を実行させる。
本発明の第3の態様は、第1表示領域と、第2表示領域と、前記第1表示領域に対する入力および前記第2表示領域に対する入力を検出する検出部と、外部から受光した光により画像信号を生成する撮像部と、画像入力領域を含む電子文書のテンプレートを記憶する記憶部とを備える携帯端末装置の電子文書作成方法に関する。本態様に係る電子文書作成方法は、前記画像信号に基づくプレビュー画像を前記第1表示領域に表示するステップと、前記記憶部から読み出された前記テンプレートを前記第2表示領域に表示するステップと、前記検出部により前記画像入力領域を選択する入力が検出されると、選択された前記画像入力領域に対応するトリミング枠を前記プレビュー画像上に表示するステップと、前記検出部により前記画像入力領域を選択する入力が検出されなくなると、前記プレビュー画像のうち前記トリミング枠内に含まれる画像を取得し、取得した画像を前記画像入力領域に合成した前記電子文書を生成するステップと、を含む。
In the mobile terminal device according to the present invention, the control unit, by the detecting unit, an input the input to the first display region to select a has been either et before Symbol image input area detection is detected, the image signal Can be configured to acquire a captured image based on the . The control unit is configured such that the position of the captured image corresponding to the position of the input with respect to the first display area is the center of the image input area, and is within the image input area selected from the captured images. The stored image is extracted, and the electronic document is generated by combining the extracted image with the image input area.
A program according to a second aspect of the present invention receives a first display area, a second display area, an input to the first display area and a detection unit for detecting an input to the second display area, and light received from the outside A preview image based on the image signal is displayed in the first display area on a computer of a portable terminal device including an imaging unit that generates an image signal by light and a storage unit that stores a template of an electronic document including an image input area. The template read from the storage unit is displayed in the second display area, and when an input for selecting the image input area is detected by the detection unit, the template corresponds to the selected image input area. When a trimming frame is displayed on the preview image and an input for selecting the image input area is not detected by the detection unit, Acquires an image included in the serial trimming frame, to perform the function of generating the electronic document obtained by combining the image acquired in the image input area.
According to a third aspect of the present invention, there is provided a first display area, a second display area, a detection unit for detecting an input to the first display area and an input to the second display area, and an image by light received from outside. The present invention relates to a method for creating an electronic document for a mobile terminal device including an imaging unit that generates a signal and a storage unit that stores a template of an electronic document including an image input area. The electronic document creation method according to this aspect includes a step of displaying a preview image based on the image signal in the first display area, and a step of displaying the template read from the storage unit in the second display area. When the input for selecting the image input area is detected by the detection unit, a step of displaying a trimming frame corresponding to the selected image input area on the preview image; and the image input area by the detection unit When an input for selecting is no longer detected, an image included in the trimming frame is acquired from the preview image, and the electronic document is generated by combining the acquired image with the image input area.

本発明の第5の態様に係るプログラムは、第1表示領域と、第2表示領域と、前記第1表示領域に対する入力および前記第2表示領域に対する入力を検出する検出部と、外部から受光した光により画像信号を生成する撮像部と、画像入力領域を含む電子文書のテンプレートを記憶する記憶部とを備える携帯端末装置のコンピュータに、前記画像信号に基づくプレビュー画像を前記第1表示領域に表示し、前記記憶部から読み出された前記テンプレートを前記第2表示領域に表示し、前記検出部により、前記画像入力領域を選択する入力が検出された後、さらに前記入力の位置を前記第2表示領域から前記第1表示領域へ移動させる操作が検出されると、選択された前記画像入力領域に対応するトリミング枠を前記第1表示領域に対する前記入力の位置に表示し、前記検出部により前記第1表示領域に対する前記入力が検出されなくなると、前記プレビュー画像のうち前記トリミング枠内に含まれる画像を取得し、取得した画像を前記画像入力領域に合成した前記電子文書を生成する機能を実行させるA program according to a fifth aspect of the present invention includes a first display area, a second display region, a detection unit for detecting an input to the input and the second display region with respect to the first display area, and received from the outside A preview image based on the image signal is displayed in the first display area on a computer of a portable terminal device including an imaging unit that generates an image signal by light and a storage unit that stores a template of an electronic document including an image input area. The template read from the storage unit is displayed in the second display area, and after the input for selecting the image input area is detected by the detection unit, the position of the input is further changed to the second display area . When an operation of moving from the display area to the first display area is detected, a trimming frame corresponding to the selected image input area is input to the first display area. Displays position, if the input to the first display area by the detection unit is not detected, the acquired images included in the trimming frame of the preview image, the acquired image to the image input area A function of generating the synthesized electronic document is executed .

本発明の第6の態様は、第1表示領域と、第2表示領域と、前記第1表示領域に対する入力および前記第2表示領域に対する入力を検出する検出部と、外部から受光した光により画像信号を生成する撮像部と、画像入力領域を含む電子文書のテンプレートを記憶する記憶部とを備える携帯端末装置の電子文書作成方法に関する。本態様に係る電子文書作成方法は、前記画像信号に基づくプレビュー画像を前記第1表示領域に表示するステップと、前記記憶部から読み出された前記テンプレートを前記第2表示領域に表示するステップと、前記検出部により、前記画像入力領域を選択する入力が検出された後、さらに前記入力の位置を前記第2表示領域から前記第1表示領域へ移動させる操作が検出されると、選択された前記画像入力領域に対応するトリミング枠を前記第1表示領域に対する前記入力の位置に表示するステップと、前記検出部により前記第1表示領域に対する前記入力が検出されなくなると、前記プレビュー画像のうち前記トリミング枠内に含まれる画像を取得し、取得した画像を前記画像入力領域に合成した前記電子文書を生成するステップと、を含む。 The sixth state like the present invention includes a first display area, a second display region, a detection unit for detecting an input to the input and the second display region with respect to the first display region, the light received from the outside The present invention relates to an electronic document creation method for a portable terminal device including an imaging unit that generates an image signal and a storage unit that stores a template of an electronic document including an image input area . The electronic document creation method according to this aspect includes a step of displaying a preview image based on the image signal in the first display area, and a step of displaying the template read from the storage unit in the second display area. When the operation for moving the position of the input from the second display area to the first display area is detected after the input for selecting the image input area is detected by the detection unit, Displaying a trimming frame corresponding to the image input area at the position of the input with respect to the first display area; and when the input to the first display area is not detected by the detection unit, a step of acquiring the image included in the trimming frame, to generate the electronic document obtained by combining the acquired image to the image input area, the free .

本発明によれば、撮影画像を用いた電子文書を簡単に作成することができる携帯端末装置を提供することができる。   ADVANTAGE OF THE INVENTION According to this invention, the portable terminal device which can produce the electronic document using a picked-up image easily can be provided.

本発明の効果ないし意義は、以下に示す実施の形態の説明により更に明らかとなろう。ただし、以下の実施の形態は、あくまでも、本発明を実施化する際の一つの例示であって、本発明は、以下の実施の形態に記載されたものに何ら制限されるものではない。   The effects and significance of the present invention will become more apparent from the following description of embodiments. However, the following embodiment is merely an example when the present invention is implemented, and the present invention is not limited to what is described in the following embodiment.

実施の形態に係る、閉状態および開状態の携帯電話機の外観構成および断面構成を示す図である。It is a figure which shows the external appearance structure and cross-sectional structure of the mobile phone of a closed state and an open state based on Embodiment. 実施の形態に係る、チルト状態の携帯電話機の外観構成を示す図である。It is a figure which shows the external appearance structure of the mobile phone of the tilt state based on Embodiment. 実施の形態に係る、携帯電話機の、閉状態から開状態へ変形される様子を説明する図である。It is a figure explaining a mode that a cellular phone concerning an embodiment is changed from a closed state to an open state. 実施の形態に係る、携帯電話機の全体構成を説明するブロック図である。It is a block diagram explaining the whole structure of the mobile telephone based on Embodiment. 実施例1に係る、名刺を作成する制御処理を示すフローチャートである。6 is a flowchart illustrating a control process for creating a business card according to the first embodiment. 実施例1に係る、テンプレートのメニューを第1表示面に表示した図である。It is the figure which displayed the menu of the template based on Example 1 on the 1st display surface. 実施例1に係る、第1表示面にプレビュー画像を表示し、第2表示面に名刺のテンプレートを表示した図である。FIG. 6 is a diagram in which a preview image is displayed on the first display surface and a business card template is displayed on the second display surface according to the first embodiment. 実施例2に係る、名刺を作成する制御処理を示すフローチャートである。10 is a flowchart illustrating a control process for creating a business card according to a second embodiment. 実施例2に係る、第1表示面にプレビュー画像を表示し、第2表示面に名刺のテンプレートを表示した図である。FIG. 10 is a diagram in which a preview image is displayed on the first display surface and a business card template is displayed on the second display surface according to the second embodiment. 実施例3に係る、第1表示面にプレビュー画像を表示し、第2表示面にアルバムのテンプレートを表示した図である。FIG. 10 is a diagram in which a preview image is displayed on the first display surface and an album template is displayed on the second display surface according to the third embodiment. 実施例3に係る、第1表示面にプレビュー画像を表示し、第2表示面にアルバムのテンプレートを表示した図である。FIG. 10 is a diagram in which a preview image is displayed on the first display surface and an album template is displayed on the second display surface according to the third embodiment. 実施例4に係る、第1表示面にプレビュー画像を表示し、第2表示面にアルバムのテンプレートを表示した図である。FIG. 10 is a diagram showing a preview image displayed on the first display surface and an album template displayed on the second display surface according to Example 4; 実施例4に係る、第1表示面にプレビュー画像を表示し、第2表示面にアルバムのテンプレートを表示した図である。FIG. 10 is a diagram showing a preview image displayed on the first display surface and an album template displayed on the second display surface according to Example 4; 実施例5に係る、第1表示面にプレビュー画像を表示し、第2表示面にアルバムのテンプレートを表示した図である。FIG. 10 is a diagram in which a preview image is displayed on the first display surface and an album template is displayed on the second display surface according to the fifth embodiment. 実施例5に係る、第1表示面にプレビュー画像を表示し、第2表示面にアルバムのテンプレートを表示した図である。FIG. 10 is a diagram in which a preview image is displayed on the first display surface and an album template is displayed on the second display surface according to the fifth embodiment.

以下、本発明の実施の形態に係る携帯電話機について説明する。   Hereinafter, a mobile phone according to an embodiment of the present invention will be described.

<携帯電話機の構成>
図1(a)〜(d)、図2(a)および(b)は、本実施の形態に係る携帯電話機1の構成を示す図である。図1(a)は、閉状態の携帯電話機1の構成を示す斜視図、図1(b)は、開状態の携帯電話機1の構成を示す斜視図である。図1(c)は、図1(a)の携帯電話機1を右側から見たときの内部透視図、図1(d)は、図1(b)の携帯電話機1を右側から見たときの内部透視図である。図2(a)は、チルト状態の携帯電話機1を、第1キャビネット10の手前側から見た斜視図、図2(b)は、チルト状態の携帯電話機1を、第1キャビネット10の奥側から見た斜視図である。
<Configuration of mobile phone>
1 (a) to 1 (d), 2 (a) and 2 (b) are diagrams showing the configuration of the mobile phone 1 according to the present embodiment. FIG. 1A is a perspective view showing the configuration of the mobile phone 1 in the closed state, and FIG. 1B is a perspective view showing the configuration of the mobile phone 1 in the open state. 1C is an internal perspective view of the mobile phone 1 of FIG. 1A viewed from the right side, and FIG. 1D is a view of the mobile phone 1 of FIG. 1B viewed from the right side. FIG. 2A is a perspective view of the cellular phone 1 in the tilted state as viewed from the front side of the first cabinet 10, and FIG. 2B is a perspective view of the cellular phone 1 in the tilted state on the back side of the first cabinet 10. It is the perspective view seen from.

図1を参照して、携帯電話機1は、第1キャビネット10と、第2キャビネット20と、これら第1および第2キャビネット10、20を連結する連結部30とで構成されている。   With reference to FIG. 1, the mobile phone 1 includes a first cabinet 10, a second cabinet 20, and a connecting portion 30 that connects the first and second cabinets 10 and 20.

以下、携帯電話機1に対する「右」、「左」、「上」、「下」、「手前」および「奥」の方向は、図1(a)および(b)に示すように設定される。X軸、Y軸およびZ軸の正方向は、それぞれ、上、左および手前方向に対応する。第1および第2キャビネット10、20の「前面」は、それぞれ第1および第2キャビネット10、20の手前側の面である。第1および第2キャビネット10、20の「背面」は、それぞれ第1および第2キャビネット10、20の奥側の面である。   Hereinafter, the directions of “right”, “left”, “up”, “down”, “front”, and “back” with respect to the mobile phone 1 are set as shown in FIGS. The positive directions of the X axis, the Y axis, and the Z axis correspond to the up, left, and front directions, respectively. The “front surface” of the first and second cabinets 10 and 20 is the front surface of the first and second cabinets 10 and 20, respectively. The “rear surfaces” of the first and second cabinets 10 and 20 are the back surfaces of the first and second cabinets 10 and 20, respectively.

なお、閉状態は、第1キャビネット10が、第2キャビネット20の前面に重ねられて配された状態である。開状態は、第1キャビネット10が、第2キャビネット20の上側
に並べられた状態である。
The closed state is a state in which the first cabinet 10 is arranged so as to overlap the front surface of the second cabinet 20. The open state is a state in which the first cabinets 10 are arranged on the upper side of the second cabinet 20.

第1キャビネット10は、左右方向に長い平坦な直方体形状を有する。第1キャビネット10の前面には、第1タッチパネル11が配されている。第1タッチパネル11は、第1ディスプレイ12および第1タッチセンサ13を含む。   The first cabinet 10 has a flat rectangular parallelepiped shape that is long in the left-right direction. A first touch panel 11 is disposed on the front surface of the first cabinet 10. The first touch panel 11 includes a first display 12 and a first touch sensor 13.

第1ディスプレイ12は、液晶ディスプレイであり、液晶パネルおよびバックライトを備える。液晶パネルの背面側にバックライトが配され。液晶パネルの前面側に第1タッチセンサ13が配される。   The first display 12 is a liquid crystal display and includes a liquid crystal panel and a backlight. A backlight is placed on the back side of the LCD panel. The first touch sensor 13 is disposed on the front side of the liquid crystal panel.

第1タッチセンサ13は、長方形状の透明なシートであり、第1ディスプレイ12の上に重ねられて配されている。第1タッチパネル11の外面である第1表示面14がユーザによりタッチされることにより、第1表示面14に対する位置が入力され、第1タッチセンサ13は第1表示面14にタッチされた位置を入力位置として検出する。第1タッチセンサ13は、検出した入力位置に応じた位置信号を出力する。   The first touch sensor 13 is a rectangular transparent sheet, and is placed on the first display 12 so as to overlap. When the user touches the first display surface 14 that is the outer surface of the first touch panel 11, a position with respect to the first display surface 14 is input, and the first touch sensor 13 indicates the position touched on the first display surface 14. Detect as input position. The first touch sensor 13 outputs a position signal corresponding to the detected input position.

第1キャビネット10の、背面部の左側には、動画および静止画の撮像のためのレンズ窓15(図2(b)参照)が配される。   A lens window 15 (see FIG. 2B) for capturing moving images and still images is disposed on the left side of the back surface of the first cabinet 10.

第1キャビネット10の前面には、キー群16が配される。キー群16は、ホーム画面を第1表示面14に表示させるためのホームキー16H、アプリケーションの実行の際に第1表示面14に表示される画面をひとつ戻すためのバックキー16B、アプリケーションの起動のためのアイコンを含むアプリケーション起動画面(ランチャ画面)を第1表示面14に表示させるためのランチャキー16R等を含む。   A key group 16 is arranged on the front surface of the first cabinet 10. The key group 16 includes a home key 16H for displaying the home screen on the first display surface 14, a back key 16B for returning the screen displayed on the first display surface 14 when the application is executed, and activation of the application. Including a launcher key 16R for displaying an application start screen (launcher screen) including an icon for the first display surface 14 and the like.

ホームキー16H、バックキー16Bおよびランチャキー16Rは、タッチキーである。指等により、ホームキー16H、バックキー16Bおよびランチャキー16Rのいずれかがタッチされると、キー入力回路(後述)が備えるタッチセンサ(図示せず)がこのタッチの操作を検出し、タッチされたキーに応じた信号を出力する。   Home key 16H, back key 16B, and launcher key 16R are touch keys. When any of the home key 16H, the back key 16B, and the launcher key 16R is touched with a finger or the like, a touch sensor (not shown) provided in a key input circuit (described later) detects the touch operation and is touched. A signal corresponding to the key is output.

第2キャビネット20は、左右方向に長い平坦な直方体形状を有する。第2キャビネット20の前面には、第2タッチパネル21が配されている。第2タッチパネル21は、第2ディスプレイ22および第2タッチセンサ23を含む。   The second cabinet 20 has a flat rectangular parallelepiped shape that is long in the left-right direction. A second touch panel 21 is disposed on the front surface of the second cabinet 20. The second touch panel 21 includes a second display 22 and a second touch sensor 23.

第2ディスプレイ22は、液晶ディスプレイであり、液晶パネルおよびバックライトを備える。液晶パネルの前面が第2表示面24となり、液晶パネルの背面側にバックライトが配される。   The second display 22 is a liquid crystal display and includes a liquid crystal panel and a backlight. The front surface of the liquid crystal panel is the second display surface 24, and a backlight is disposed on the back side of the liquid crystal panel.

第2タッチセンサ23は、長方形状の透明なシートであり、第2ディスプレイ22の上に重ねられて配されている。第2タッチパネル21の外面である第2表示面24がユーザによりタッチされることにより、第2表示面24に対する位置が入力され、第2タッチセンサ23は第2表示面24にタッチされた位置を入力位置として検出する。第2タッチセンサ23は、検出した入力位置に応じた位置信号を出力する。   The second touch sensor 23 is a rectangular transparent sheet, and is placed on the second display 22 so as to overlap. When the user touches the second display surface 24 that is the outer surface of the second touch panel 21, a position with respect to the second display surface 24 is input, and the second touch sensor 23 indicates the position touched on the second display surface 24. Detect as input position. The second touch sensor 23 outputs a position signal corresponding to the detected input position.

なお、ユーザが各表示面14、24を「タッチ」するとは、ユーザが指やペンなどの接触部材によって各表示面14、24に触れることである。ユーザが接触部材によって各表示面14、24を押したり、撫でたり、各表示面14、24に図形や文字を描いたりする場合に「タッチ」が行われる。「タップ」するとは、ユーザが接触部材や指を各表示面14、24にタッチさせた後、短時間のうちにリリースさせる動作を言う。ユーザが各表示面14、24を「スライド」するとは、ユーザが接触部材や指を、各表示面14、24に
接触したまま移動させる動作を言う。
Note that the user “touching” the display surfaces 14 and 24 means that the user touches the display surfaces 14 and 24 with a contact member such as a finger or a pen. “Touch” is performed when the user presses or strokes each display surface 14, 24 with a contact member, or draws a graphic or a character on each display surface 14, 24. “Tapping” refers to an operation in which a user touches each display surface 14, 24 with a contact member or a finger and then releases it in a short time. “Sliding” the display surfaces 14 and 24 by the user means an operation in which the user moves a contact member or a finger while keeping contact with the display surfaces 14 or 24.

第2キャビネット20の前面および側面には、キー群26が配される。キー群26は、ホーム画面を第2表示面24に表示させるためのホームキー26H、アプリケーションの実行の際に第2表示面24に表示される画面をひとつ戻すためのバックキー26B、アプリケーション起動画面を第2表示面24に表示させるためのランチャキー26R等を含む。ホームキー26H、バックキー26Bおよびランチャキー26Rは、タッチキーである。指等により、ホームキー26H、バックキー26Bおよびランチャキー26Rのいずれかがタッチされると、キー入力回路(図4参照)が備えるタッチセンサ(図示せず)がこのタッチの操作を検出し、タッチされたキーに応じた位置信号を出力する。   A key group 26 is arranged on the front and side surfaces of the second cabinet 20. The key group 26 includes a home key 26H for displaying the home screen on the second display surface 24, a back key 26B for returning one screen displayed on the second display surface 24 when the application is executed, and an application start screen. Including a launcher key 26R and the like for displaying on the second display surface 24. Home key 26H, back key 26B, and launcher key 26R are touch keys. When any of the home key 26H, the back key 26B, and the launcher key 26R is touched with a finger or the like, a touch sensor (not shown) included in the key input circuit (see FIG. 4) detects the touch operation, A position signal corresponding to the touched key is output.

キー群26は、第2キャビネット20の下側側面部に配された機能キー26F1、26F2、26F3をさらに含む。機能キー26F1、26F2、26F3は、所定アプリケーションの起動、またはアプリケーションの実行時における音量調節その他の各種の機能のためのキーである。機能キー26F1、26F2、26F3が押下されると、キー入力回路(図4参照)がこの押下を検出し、押下されたキーに応じた信号を出力する。   The key group 26 further includes function keys 26F1, 26F2, and 26F3 arranged on the lower side surface portion of the second cabinet 20. The function keys 26F1, 26F2, and 26F3 are keys for various functions such as activation of a predetermined application or volume adjustment during execution of the application. When the function keys 26F1, 26F2, and 26F3 are pressed, the key input circuit (see FIG. 4) detects the pressing and outputs a signal corresponding to the pressed key.

図1(c)を参照して、閉状態において、第1および第2表示面14、24のうち第1表示面14が外部を臨む。第2表示面24は、第1キャビネット10の背後に配され、外部を臨まない。図1(d)を参照して、開状態において、第1および第2表示面14、24は、携帯電話機1の前面側から外部を臨む。   Referring to FIG. 1C, in the closed state, the first display surface 14 of the first and second display surfaces 14 and 24 faces the outside. The second display surface 24 is disposed behind the first cabinet 10 and does not face the outside. With reference to FIG. 1 (d), in the open state, the first and second display surfaces 14, 24 face the outside from the front side of the mobile phone 1.

なお、開状態において、第1表示面14の下側の境界は、第1キャビネット10の下側側面に近い位置(数ミリメートル)に位置する。同様に、第2表示面24の上側の境界は、第2キャビネット20の上側側面に近い位置(数ミリメートル)に位置する。このように、開状態において、第1表示面14と第2表示面24との間の隙間は小さいため、ユーザは、第1表示面14と第2表示面24とを、一体化された一つの表示面として、認識できる。   In the open state, the lower boundary of the first display surface 14 is located at a position (several millimeters) close to the lower side surface of the first cabinet 10. Similarly, the upper boundary of the second display surface 24 is located at a position (several millimeters) close to the upper side surface of the second cabinet 20. Thus, in the open state, since the gap between the first display surface 14 and the second display surface 24 is small, the user can integrate the first display surface 14 and the second display surface 24 into an integrated one. It can be recognized as one display surface.

図2(a)および(b)に示されるチルト状態において、第1キャビネット10が、第2キャビネット20の上側に並べられて配される。チルト状態での第1および第2キャビネット10、20の各前面は、図2(a)および(b)に示される如く、所定の鈍角(たとえば百数十度)を有するよう配されている。   In the tilted state shown in FIGS. 2A and 2B, the first cabinet 10 is arranged side by side above the second cabinet 20. The front surfaces of the first and second cabinets 10 and 20 in the tilted state are arranged to have a predetermined obtuse angle (for example, a few hundred degrees) as shown in FIGS. 2 (a) and 2 (b).

連結部30は、中央フレーム31、第1右フレーム32、第1左フレーム33、第2右フレーム34および第2左フレーム35を有する。中央フレーム31は、左右に延びる形状を有する。中央フレーム31の右端は、第1右フレーム32の一端および第2右フレーム34の一端に接続する。中央フレーム31の左端は、第1左フレーム33の一端および第2左フレーム35の一端に接続する。   The connecting portion 30 includes a central frame 31, a first right frame 32, a first left frame 33, a second right frame 34, and a second left frame 35. The center frame 31 has a shape extending left and right. The right end of the center frame 31 is connected to one end of the first right frame 32 and one end of the second right frame 34. The left end of the center frame 31 is connected to one end of the first left frame 33 and one end of the second left frame 35.

第1右フレーム32および第1左フレーム33の他端には、それぞれ左右方向に延びる軸(図示せず)が配される。この軸が、第1キャビネット10の左右の側面部に配された溝部17により挟まれる。なお、図2(b)において、左側側面部の溝部17のみが描かれる。これらの軸が、溝部17に沿ってスライド移動可能に第1キャビネット10に保持されることにより、第1キャビネット10が、軸を中心に回転可能、且つ溝部17に沿って上下方向にスライド可能に、第1右フレーム32および第1左フレーム33により保持される。   The other ends of the first right frame 32 and the first left frame 33 are each provided with a shaft (not shown) extending in the left-right direction. This shaft is sandwiched between the groove portions 17 arranged on the left and right side portions of the first cabinet 10. In FIG. 2B, only the groove portion 17 on the left side surface portion is drawn. These shafts are held in the first cabinet 10 so as to be slidable along the groove portion 17, so that the first cabinet 10 can rotate around the shaft and can slide along the groove portion 17 in the vertical direction. The first right frame 32 and the first left frame 33 are held.

第2右フレーム34および第2左フレーム35は、第2キャビネット20を、左右方向を軸として回転可能に保持する。   The second right frame 34 and the second left frame 35 hold the second cabinet 20 so as to be rotatable about the horizontal direction.

連結部30は、図3(a)〜(f)を用いて以下に説明するように、チルト状態を介して開状態と閉状態とを切り替え可能に、第1および第2キャビネット10、20を保持する。ユーザは、手動で、携帯電話機1の使用状態を遷移させることができる。   As will be described below with reference to FIGS. 3A to 3F, the connecting unit 30 connects the first and second cabinets 10 and 20 so that they can be switched between an open state and a closed state via a tilt state. Hold. The user can manually change the usage state of the mobile phone 1.

図3(a)〜(f)は、携帯電話機1の画面状態が閉状態(図3(a))から、チルト状態(図3(d))を介して開状態(図3(f))へ遷移される過程を、携帯電話機1の右側から見て説明する図である。   3 (a) to 3 (f), the screen state of the mobile phone 1 is changed from the closed state (FIG. 3 (a)) to the open state (FIG. 3 (f)) through the tilt state (FIG. 3 (d)). FIG. 4 is a diagram for explaining a process of transition to the mobile phone 1 as viewed from the right side.

携帯電話機1が図3(a)のように閉状態にあるとき、第1キャビネット10が手前方向(図3(a)の破線矢印)へ移動されると、図3(b)に示す如く、第1キャビネット10の背面が、第2キャビネット20の前面から離れる。このとき、第1キャビネット10の移動に応じて、連結部30は、時計回りの方向へ回転(実線矢印)される。   When the mobile phone 1 is in the closed state as shown in FIG. 3A, when the first cabinet 10 is moved in the forward direction (broken line arrow in FIG. 3A), as shown in FIG. The back surface of the first cabinet 10 is separated from the front surface of the second cabinet 20. At this time, according to the movement of the first cabinet 10, the connecting portion 30 is rotated in the clockwise direction (solid arrow).

図3(b)に示される状態において、第1キャビネット10がさらに手前方向へ移動され、且つ第1表示面14が下側を向くように回転されると(破線矢印)、携帯電話機1の状態は、図3(c)の配置状態を介して、図3(d)のチルト状態に至る。チルト状態において、第1キャビネット10の背面の下側は、連結部30に当接する。   In the state shown in FIG. 3B, when the first cabinet 10 is moved further forward and the first display surface 14 is rotated so as to face downward (broken line arrow), the state of the mobile phone 1 3 reaches the tilt state of FIG. 3D through the arrangement state of FIG. In the tilted state, the lower side of the back surface of the first cabinet 10 abuts on the connecting portion 30.

第1キャビネット10の背面の下側が連結部30に当接した状態が保たれたまま、連結部30がさらに時計回りの方向(図3(d)の破線矢印)へ回転されると、携帯電話機1は、図3(e)に示される、第1表示面14と第2表示面24とが略一面状態になる状態に至る。   When the connecting portion 30 is further rotated in the clockwise direction (broken arrow in FIG. 3D) while the lower side of the back surface of the first cabinet 10 is kept in contact with the connecting portion 30, the mobile phone 1 reaches a state where the first display surface 14 and the second display surface 24 are substantially in a single state as shown in FIG.

図3(e)において、第1キャビネット10および第2キャビネット20との間には、間隙(数ミリメートル)が存在する。第1キャビネット10を、第2キャビネット20に対して下方向(一点鎖線矢印)へスライドさせると、図3(f)のように、携帯電話機1は開状態へと至る。このとき、第1キャビネット10の下側側面と、第2キャビネット20の上側側面とが、互いに接した状態となる。   In FIG. 3E, a gap (several millimeters) exists between the first cabinet 10 and the second cabinet 20. When the first cabinet 10 is slid downward with respect to the second cabinet 20 (a dashed-dotted arrow), the mobile phone 1 is brought into an open state as shown in FIG. At this time, the lower side surface of the first cabinet 10 and the upper side surface of the second cabinet 20 are in contact with each other.

なお、携帯電話機1が図3(d)で示されるチルト状態にあるとき、すなわち第1右フレーム32および第1左フレーム33と第2キャビネット20とが所定の鈍角をなす状態にあるとき、連結部30は、連結部30の回転を弱く係止するための構造を有する。回転が弱く係止されるため、ユーザは、チルト状態を保ったまま携帯電話機1を使用することが可能であり、且つ、使用状態をチルト状態から開状態または閉状態へ、容易に変化させることができる。   When the mobile phone 1 is in the tilted state shown in FIG. 3D, that is, when the first right frame 32, the first left frame 33, and the second cabinet 20 form a predetermined obtuse angle, The portion 30 has a structure for locking the rotation of the connecting portion 30 weakly. Since the rotation is weakly locked, the user can use the mobile phone 1 while maintaining the tilt state, and can easily change the use state from the tilt state to the open state or the closed state. Can do.

図4は、携帯電話機1の全体構成を示すブロック図である。本実施の形態の携帯電話機1は、上述した各構成要素の他、CPU300、メモリ310、カメラモジュール301、マイク302、音声エンコーダ303、キー入力回路304、通信モジュール305、第1駆動回路306、第2駆動回路307、音声デコーダ308、スピーカ309および開閉センサ320を備えている。   FIG. 4 is a block diagram showing the overall configuration of the mobile phone 1. The mobile phone 1 according to the present embodiment includes a CPU 300, a memory 310, a camera module 301, a microphone 302, a voice encoder 303, a key input circuit 304, a communication module 305, a first driving circuit 306, a 2 driving circuit 307, audio decoder 308, speaker 309, and open / close sensor 320.

カメラモジュール301は、第1キャビネット10に配されている。カメラモジュール301は、CCDなどの撮像素子、およびA/D変換器を有し、外部の撮像領域から受光した光により画像信号を生成する。レンズ窓15を通った光は、撮像素子上で結像し、撮像素子で電気信号に変換される。撮像素子から出力された電気信号は、A/D変換器でアナログ信号出力からデジタル信号に変換され、デジタル信号(以下、「画像信号」と言う。)がCPU300へ出力される。   The camera module 301 is disposed in the first cabinet 10. The camera module 301 includes an image pickup device such as a CCD and an A / D converter, and generates an image signal using light received from an external image pickup region. The light passing through the lens window 15 forms an image on the image sensor and is converted into an electric signal by the image sensor. The electrical signal output from the image sensor is converted from an analog signal output to a digital signal by an A / D converter, and a digital signal (hereinafter referred to as “image signal”) is output to the CPU 300.

マイク302は、第1キャビネット10に配される。マイク302は、集音した音声を音声信号に変換して音声エンコーダ303へ出力する。音声エンコーダ303は、マイク302からのアナログの音声信号をデジタルの音声信号に変換し、変換されたデジタルの音声信号をCPU300へ出力する。   The microphone 302 is disposed in the first cabinet 10. The microphone 302 converts the collected sound into a sound signal and outputs the sound signal to the sound encoder 303. The audio encoder 303 converts an analog audio signal from the microphone 302 into a digital audio signal, and outputs the converted digital audio signal to the CPU 300.

キー入力回路304は、キー群16、26の各キーが押下されたときに、押下されたキーに応じた信号をCPU300へ出力する。   The key input circuit 304 outputs a signal corresponding to the pressed key to the CPU 300 when each key of the key groups 16 and 26 is pressed.

通信モジュール305は、通話や通信のための電波を送受信するアンテナ(図示せず)を備える。通信モジュール305は、CPU300から入力される信号を無線信号に変換し、変換された無線信号を、アンテナを介して、基地局や他の通信装置等の通信先へ送信する。また、通信モジュール305は、アンテナを介して受信した無線信号をCPU300が利用できる形式の信号へ変換し、変換された信号をCPU300へ出力する。   The communication module 305 includes an antenna (not shown) that transmits and receives radio waves for calls and communications. The communication module 305 converts a signal input from the CPU 300 into a radio signal, and transmits the converted radio signal to a communication destination such as a base station or another communication device via an antenna. Further, the communication module 305 converts the radio signal received via the antenna into a signal in a format that can be used by the CPU 300, and outputs the converted signal to the CPU 300.

第1駆動回路306は、CPU300からの制御信号に応じて、第1ディスプレイ12の液晶パネルおよびバックライトを駆動する。これにより、液晶パネルが画像を描画し、バックライトが点灯して、画像が第1表示面14に映し出される。   The first drive circuit 306 drives the liquid crystal panel and the backlight of the first display 12 according to a control signal from the CPU 300. Thereby, the liquid crystal panel draws an image, the backlight is turned on, and the image is displayed on the first display surface 14.

第2駆動回路307は、CPU300からの制御信号に応じて、第2ディスプレイ22の液晶パネルおよびバックライトを駆動する。これにより、液晶パネルが画像を描画し、バックライトが点灯して、画像が第2表示面24に映し出される。   The second drive circuit 307 drives the liquid crystal panel and the backlight of the second display 22 according to a control signal from the CPU 300. Thereby, the liquid crystal panel draws an image, the backlight is turned on, and the image is displayed on the second display surface 24.

音声デコーダ308は、CPU300からの音信号にデコード処理およびD/A変換を施し、変換された信号をスピーカ309に出力する。スピーカ309は、音声デコーダ308から入力する信号に基づき、音を出力する。   The audio decoder 308 performs decoding processing and D / A conversion on the sound signal from the CPU 300, and outputs the converted signal to the speaker 309. The speaker 309 outputs sound based on the signal input from the audio decoder 308.

開閉センサ320は、画面状態を検出し、画面状態に応じたデジタル信号をCPU300へ出力する。開閉センサ320は、1画面状態(閉状態)と2画面状態(開状態、チルト状態)とにおける連結部30の第2キャビネット20に対する角度の変化を検出するための磁気センサ(図示せず)を内蔵する。磁気センサは、第2キャビネット20と連結部30とを接続する軸部の回転を検出するよう配されている。CPU300は、開閉センサ320からの信号に基づき、現在の画面状態が1画面状態と2画面状態の何れであるかを検出する処理を実行する。   The open / close sensor 320 detects a screen state and outputs a digital signal corresponding to the screen state to the CPU 300. The open / close sensor 320 is a magnetic sensor (not shown) for detecting a change in the angle of the connecting portion 30 with respect to the second cabinet 20 in the one-screen state (closed state) and the two-screen state (open state, tilt state). Built in. The magnetic sensor is arranged to detect rotation of a shaft portion that connects the second cabinet 20 and the connecting portion 30. Based on the signal from the open / close sensor 320, the CPU 300 executes processing for detecting whether the current screen state is the one screen state or the two screen state.

なお、開閉センサ320は、磁気センサのかわりに、上記軸部の回転の角度を検出する角度センサを備えてもよい。   The opening / closing sensor 320 may include an angle sensor that detects the rotation angle of the shaft portion instead of the magnetic sensor.

メモリ310はROMおよびRAMを含み、RAMは第1VRAM311および第2VRAM312を含む。   The memory 310 includes a ROM and a RAM, and the RAM includes a first VRAM 311 and a second VRAM 312.

メモリ310には、CPU300に制御機能を付与するための制御プログラム、各種アプリケーション、第1および第2タッチセンサ13、23により入力された情報、電子文書のテンプレート等が保存されている。   The memory 310 stores a control program for giving a control function to the CPU 300, various applications, information input by the first and second touch sensors 13 and 23, an electronic document template, and the like.

電子文書のテンプレートは、電子文書の雛形であって、画像入力領域を含む。電子文書には、たとえば、ブログなどのウェブページ、プロフィール、名刺、レシピなどが挙げられる。電子文書は、所定のデータであってもよいし、ユーザが作成したデータであってもよい。画像入力領域は、カメラモジュール301で撮影された画像(以下、「撮影画像」)が貼り付けられる範囲である。この画像入力領域に撮影画像が取り込まれることにより、電子文書が作成される。なお、テンプレートは、文字入力領域を含んでもいてもよい。
文字入力領域には、文字が予め入力されていてもよいし、任意のタイミングでユーザにより文字が入力されてもよい。
The template of the electronic document is a template of the electronic document and includes an image input area. Examples of electronic documents include web pages such as blogs, profiles, business cards, and recipes. The electronic document may be predetermined data or data created by a user. The image input area is a range in which an image captured by the camera module 301 (hereinafter referred to as “captured image”) is pasted. An electronic document is created by capturing a captured image in the image input area. The template may include a character input area.
In the character input area, characters may be input in advance, or characters may be input by the user at an arbitrary timing.

CPU300は、制御プログラムに従って、カメラモジュール301、マイク302、通信モジュール305、第1および第2ディスプレイ12、22、スピーカ309等を制御する。このCPU300からの制御信号に基づいて、通話、カメラ、電子メール、ウェブブラウザ、地図、音楽プレーヤおよび電子文書作成などの各種機能を実現するアプリケーションが実行される。   The CPU 300 controls the camera module 301, the microphone 302, the communication module 305, the first and second displays 12, 22 and the speaker 309 according to the control program. Based on the control signal from the CPU 300, an application for realizing various functions such as a call, a camera, an e-mail, a web browser, a map, a music player, and electronic document creation is executed.

CPU300は、カメラモジュール301の画像信号に基づくプレビュー画像を第1ディスプレイ12に表示するとともに、メモリ310から読み出されたテンプレートを第2ディスプレイ22に表示する。また、キー群16、26や各タッチセンサ13、23などの検出部により撮影操作が検出されると、CPU300は、カメラモジュール301の画像信号に基づく撮影画像を取得し、撮影画像をテンプレートの画像入力領域に合成して、電子文書を生成する。   The CPU 300 displays a preview image based on the image signal of the camera module 301 on the first display 12 and displays a template read from the memory 310 on the second display 22. When a photographing operation is detected by the detection unit such as the key groups 16 and 26 and the touch sensors 13 and 23, the CPU 300 acquires a photographed image based on the image signal of the camera module 301, and uses the photographed image as a template image. An electronic document is generated by combining with the input area.

<実施例1>
図5は、名刺を作成するためのCPU300における制御処理を示すフローチャートである。図6は、テンプレートのメニュー画面を示す図である。図7(a)および図7(b)は、名刺の作成を説明する図である。
<Example 1>
FIG. 5 is a flowchart showing a control process in CPU 300 for creating a business card. FIG. 6 is a diagram showing a template menu screen. FIG. 7A and FIG. 7B are diagrams for explaining the creation of a business card.

たとえば、アイコンが並ぶ操作メニュー画面(図示せず)が各表示面14、24に表示されている。操作メニュー画面において電子文書作成機能のアイコンがユーザの指によりタッチされると、電子文書作成機能のアプリケーションが実行される(S101:YES)。   For example, an operation menu screen (not shown) in which icons are arranged is displayed on each display surface 14, 24. When the electronic document creation function icon is touched by the user's finger on the operation menu screen, the electronic document creation function application is executed (S101: YES).

次に、CPU300は、携帯電話機1の画面状態が2画面状態であるか否かを開閉センサ320からの信号に基づき判断する(S102)。   Next, CPU 300 determines whether or not the screen state of mobile phone 1 is the two-screen state based on the signal from open / close sensor 320 (S102).

画面状態が1画面状態であれば(S102:NO)、プレビュー画像103およびテンプレートが第1および第2表示面14、24に同時に表示されない。このため、1画面状態から2画面状態へ遷移するようにユーザに促すメッセージが第1表示面14に表示される(S103)。   If the screen state is the single screen state (S102: NO), the preview image 103 and the template are not displayed on the first and second display surfaces 14 and 24 simultaneously. For this reason, a message prompting the user to transition from the one-screen state to the two-screen state is displayed on the first display surface 14 (S103).

画面状態が2画面状態であれば(S102:YES)、図6に示すように、テンプレートのメニュー画面が第2表示面24に表示される(S104)。テンプレートのメニュー画面では、テンプレートの内容を表わすアイコンが表示される。   If the screen state is a two-screen state (S102: YES), a template menu screen is displayed on the second display surface 24 as shown in FIG. 6 (S104). On the template menu screen, an icon representing the contents of the template is displayed.

テンプレートのメニュー画面において、たとえば、名刺のアイコンがユーザの指でタッチされると、名刺のテンプレートが選択される(S105:YES)。これにより、CPU300がテンプレートのデータをメモリ310から読み出して第2VRAM312に格納すると、図7(a)に示すように、名刺のテンプレート205が第2表示面24に表示される(S106)。このテンプレートでは、会社名、部門、氏名、連絡先などの文字入力領域に予め文字が入力されているが、画像入力領域210には何も表示されていない。   For example, when a business card icon is touched with a user's finger on the template menu screen, a business card template is selected (S105: YES). Thus, when the CPU 300 reads the template data from the memory 310 and stores it in the second VRAM 312, the business card template 205 is displayed on the second display surface 24 as shown in FIG. 7A (S106). In this template, characters are input in advance in the character input areas such as the company name, department, name, and contact information, but nothing is displayed in the image input area 210.

次に、CPU300は、カメラモジュール301からの画像信号に画素補間処理や色変換処理などの各種画像処理を施して、画像データを第1VRAM311に順次格納する。1フレームを構成する画像データ(以下、「フレーム画像データ」と言う。)が第1VRAM311に蓄積される度に、フレーム画像データに基づく制御信号が第1ディスプレイ12のドライバ回路へ出力される。これにより、図7(a)に示すように、フレーム画像
データに基づく静止画像(以下、「プレビュー画像」と言う。)が第1表示面14に表示される(S107)。プレビュー画像103は連続して表示されるため、撮像素子でとらえられた像がリアルタイムに第1表示面14に表示され、第1表示面14はファインダーとして利用される。
Next, the CPU 300 performs various image processing such as pixel interpolation processing and color conversion processing on the image signal from the camera module 301 and sequentially stores the image data in the first VRAM 311. Each time image data constituting one frame (hereinafter referred to as “frame image data”) is accumulated in the first VRAM 311, a control signal based on the frame image data is output to the driver circuit of the first display 12. Thereby, as shown in FIG. 7A, a still image (hereinafter referred to as “preview image”) based on the frame image data is displayed on the first display surface 14 (S107). Since the preview image 103 is continuously displayed, an image captured by the image sensor is displayed on the first display surface 14 in real time, and the first display surface 14 is used as a viewfinder.

なお、フレーム画像データは、このフレーム画像データに基づくプレビュー画像103が第1表示面14に表示されている間、第1VRAM311に保持される。このため、たとえば、第nフレーム画像データが第1VRAM311に保持され、第nフレーム画像データに基づく第nプレビュー画像103が第1表示面14に表示されている。この状態で後述するシャッターボタン102が操作されると、第nフレーム画像データが第1VRAM311から読み出されてメモリ310に保存される。これにより、撮影操作時に第1表示面14に表示されている第nプレビュー画像103が撮影画像として記録される。   The frame image data is held in the first VRAM 311 while the preview image 103 based on the frame image data is displayed on the first display surface 14. For this reason, for example, the nth frame image data is held in the first VRAM 311, and the nth preview image 103 based on the nth frame image data is displayed on the first display surface 14. In this state, when a shutter button 102 described later is operated, the nth frame image data is read from the first VRAM 311 and stored in the memory 310. As a result, the n-th preview image 103 displayed on the first display surface 14 during the shooting operation is recorded as a shot image.

CPU300は、名刺のテンプレート205から画像入力領域210を抽出し、画像入力領域210のサイズおよび位置を求め、画像入力領域210のサイズに応じたトリミング枠101を第1表示面14に表示する(S108)。トリミング枠101のサイズの縦横比率は画像入力領域210のサイズの縦横比率と同じであるが、トリミング枠101のサイズは画像入力領域210のサイズと異なっていてもよい。たとえば、トリミング枠101が画像入力領域210より大きく設定されると、後述する第1表示面14に表示されるプレビュー画像103における被写体のサイズが大きく表示されるため、ユーザは被写体を詳細に見ることができる。   The CPU 300 extracts the image input area 210 from the business card template 205, obtains the size and position of the image input area 210, and displays the trimming frame 101 corresponding to the size of the image input area 210 on the first display surface 14 (S108). ). The aspect ratio of the size of the trimming frame 101 is the same as the aspect ratio of the size of the image input area 210, but the size of the trimming frame 101 may be different from the size of the image input area 210. For example, when the trimming frame 101 is set to be larger than the image input area 210, the size of the subject in the preview image 103 displayed on the first display surface 14 described later is displayed, so that the user can see the subject in detail. Can do.

CPU300は、プレビュー画像103上にトリミング枠101およびシャッターボタン102を表示する。このとき、トリミング枠101の中心が第1表示面14の中心に配置されるように、第1表示面14に対するトリミング枠101の位置が決められるプレビュー画像103の中でトリミング枠101内に収まる画像がテンプレート205の画像入力領域210に用いられる。このため、ユーザは、携帯電話機1を移動させて、トリミング枠101を基準として被写体のサイズや位置などを調整する。たとえば、ユーザがトリミング枠101に対して所望の被写体を右側に移動させたければ、ユーザは携帯電話機1のレンズ窓15を左側に向ける。また、ユーザがトリミング枠101のサイズに対して被写体のサイズを大きくしたければ、ユーザはレンズ窓15を被写体に近づける。なお、携帯電話機1がズーム機能を有している場合、ユーザは、ズーム機能を使用して、第1表示面14に表示される被写体のサイズを大きくすることもできる。   The CPU 300 displays the trimming frame 101 and the shutter button 102 on the preview image 103. At this time, an image that fits within the trimming frame 101 in the preview image 103 in which the position of the trimming frame 101 with respect to the first display surface 14 is determined so that the center of the trimming frame 101 is arranged at the center of the first display surface 14. Is used for the image input area 210 of the template 205. Therefore, the user moves the mobile phone 1 and adjusts the size and position of the subject with reference to the trimming frame 101. For example, if the user wants to move a desired subject to the right with respect to the trimming frame 101, the user turns the lens window 15 of the mobile phone 1 to the left. If the user wants to increase the size of the subject relative to the size of the trimming frame 101, the user brings the lens window 15 closer to the subject. When the mobile phone 1 has a zoom function, the user can increase the size of the subject displayed on the first display surface 14 using the zoom function.

トリミング枠101の中に被写体が納まり、シャッターボタン102がタッチされると、CPU300は、撮影操作がなされたと判断する(S109:YES)。CPU300は、第1表示面14におけるトリミング枠101の位置および大きさに基づいて、第1VRAM311に蓄積されているフレーム画像データの中から、トリミング枠101内の撮影画像204の画像データを抽出する。抽出された撮影画像204は、画像入力領域210のサイズに合わせて縮小され、画像入力領域210の位置に割り当てられるように、撮影画像204の画像データとテンプレート205のデータとが合成される。合成データが第2VRAM312に格納された後、合成データに従った制御信号が第2ディスプレイ22のドライバ回路へ出力される。図7(b)に示すように、合成データに基づき撮影画像204が画像入力領域210に貼り付けられた名刺201が第2表示面24に表示される(
S110)。また、合成データが第2VRAM312からメモリ310に取り込まれて保
存され、撮影画像204が画像入力領域210に貼り付けられた電子文書201が作成される(S111)。
When the subject is placed in the trimming frame 101 and the shutter button 102 is touched, the CPU 300 determines that a shooting operation has been performed (S109: YES). Based on the position and size of the trimming frame 101 on the first display surface 14, the CPU 300 extracts the image data of the captured image 204 in the trimming frame 101 from the frame image data stored in the first VRAM 311. The extracted captured image 204 is reduced in accordance with the size of the image input area 210, and the image data of the captured image 204 and the data of the template 205 are combined so as to be assigned to the position of the image input area 210. After the synthesized data is stored in the second VRAM 312, a control signal according to the synthesized data is output to the driver circuit of the second display 22. As shown in FIG. 7B, a business card 201 in which the captured image 204 is pasted on the image input area 210 based on the composite data is displayed on the second display surface 24 (see FIG. 7B).
S110). Also, the composite data is captured and stored from the second VRAM 312 into the memory 310, and the electronic document 201 in which the captured image 204 is pasted in the image input area 210 is created (S111).

以上、本実施例によれば、ユーザがシャッターボタン102をタッチすると、プレビュー画像103の中からトリミング枠101内の撮影画像204が抽出され、撮影画像20
4がテンプレート205の画像入力領域210に転写され、電子文書201が生成される。このため、ユーザは、一旦撮影画像204を撮影してメモリ310に保存した上で、メモリ310から撮影画像204を読み出してテンプレート205に貼り付ける作業を行う必要がない。しかも、プレビュー画像103からトリミング枠101内の必要な部分が取り出されるため、撮影画像204のサイズを調整する作業も必要ない。よって、ユーザは、撮影操作をするだけで、電子文書201を簡単に作成することができる。
As described above, according to the present embodiment, when the user touches the shutter button 102, the photographed image 204 in the trimming frame 101 is extracted from the preview image 103, and the photographed image 20
4 is transferred to the image input area 210 of the template 205, and the electronic document 201 is generated. This eliminates the need for the user to take a photographed image 204 once and save it in the memory 310, then read the photographed image 204 from the memory 310 and paste it on the template 205. In addition, since a necessary portion in the trimming frame 101 is extracted from the preview image 103, an operation for adjusting the size of the captured image 204 is not necessary. Therefore, the user can easily create the electronic document 201 simply by performing a shooting operation.

また、本実施例によれば、プレビュー画像103およびテンプレート205が並行して表示されるため、ユーザは、テンプレート205における文書の内容、大きさ、配置などとのバランスを考慮し、トリミング枠101に対する被写体の大きさや配置などを決めることができる。これにより、ユーザは、電子文書201に適した撮影画像204を取得することができる。   Further, according to the present embodiment, since the preview image 103 and the template 205 are displayed in parallel, the user considers the balance with the content, size, arrangement, etc. of the document in the template 205 and the trimming frame 101 is displayed. The size and arrangement of the subject can be determined. Thereby, the user can acquire the captured image 204 suitable for the electronic document 201.

さらに、本実施例によれば、プレビュー画像103上のトリミング枠101を基準として、被写体の配置および大きさなどを調整することができ、電子文書201に適した構図の撮影画像204が取得され得る。   Furthermore, according to the present embodiment, the arrangement and size of the subject can be adjusted with reference to the trimming frame 101 on the preview image 103, and the captured image 204 having a composition suitable for the electronic document 201 can be acquired. .

<実施例2>
上記実施例1では、第1表示面14にプレビュー画像103が表示されたが、第2表示面24に表示されているテンプレートの画像入力領域210にはプレビュー画像103は表示されなかった。これに対し、実施例2では、第1表示面14に加えて、第2表示面24におけるテンプレートの画像入力領域210にもプレビュー画像203が表示される。
<Example 2>
In the first embodiment, the preview image 103 is displayed on the first display surface 14, but the preview image 103 is not displayed in the image input area 210 of the template displayed on the second display surface 24. On the other hand, in the second embodiment, the preview image 203 is displayed not only on the first display surface 14 but also on the template image input area 210 on the second display surface 24.

このため、CPU300はプレビュー画像を、第1ディスプレイ12と、前記第2ディスプレイ22に表示されたテンプレートの画像入力領域210とに表示する。   Therefore, the CPU 300 displays the preview image on the first display 12 and the template image input area 210 displayed on the second display 22.

図8は、名刺を作成するためのCPU300における制御処理を示すフローチャートである。図9(a)および図9(b)は、名刺の作成を説明する図である。なお、図8におけるS201〜S206の処理は、図5におけるS101〜S106の処理と同様であるため、説明は省略する。   FIG. 8 is a flowchart showing a control process in CPU 300 for creating a business card. FIG. 9A and FIG. 9B are diagrams for explaining the creation of a business card. Note that the processing of S201 to S206 in FIG. 8 is the same as the processing of S101 to S106 in FIG.

CPU300は、カメラモジュール301からの画像信号に各種画像処理を施し、画像データを第1VRAM311に順次格納する。   The CPU 300 performs various image processes on the image signal from the camera module 301 and sequentially stores the image data in the first VRAM 311.

また、フレーム画像データが第1VRAM311に蓄積されている間または蓄積された後、CPU300は、第1表示面14に対するトリミング枠101の位置および大きさに基づいて、トリミング枠101内の画像データを第1VRAM311から抽出する。抽出された画像データとテンプレートのデータとが合成され、合成データが第2VRAM312に格納される。   Further, after the frame image data is accumulated in the first VRAM 311 or after accumulation, the CPU 300 converts the image data in the trimming frame 101 into the first image based on the position and size of the trimming frame 101 with respect to the first display surface 14. 1VRAM 311 is extracted. The extracted image data and template data are combined, and the combined data is stored in the second VRAM 312.

合成データが第2VRAM312に蓄えられると、第1VRAM311のフレーム画像データに基づく制御信号が第1ディスプレイ12のドライバ回路へ出力されると同時に、第2VRAM312の合成データに基づく制御信号が第2ディスプレイ22のドライバ回路へ出力される。これにより、図9(a)に示すように、第1表示面14にプレビュー画像103およびトリミング枠101が表示されると共に(S207)、第2表示面24の画像入力領域210にトリミング枠内のプレビュー画像203が表示される(S208)。   When the composite data is stored in the second VRAM 312, a control signal based on the frame image data of the first VRAM 311 is output to the driver circuit of the first display 12, and at the same time, a control signal based on the composite data of the second VRAM 312 is output from the second display 22. Output to the driver circuit. As a result, as shown in FIG. 9A, the preview image 103 and the trimming frame 101 are displayed on the first display surface 14 (S207), and the image input area 210 on the second display surface 24 is within the trimming frame. A preview image 203 is displayed (S208).

そして、第1表示面14のプレビュー画像103上には、トリミング枠101とともにシャッターボタン102が表示される。トリミング枠101が画像入力領域210より拡大されている場合、第1表示面14のプレビュー画像103が第2表示面24のプレビュ
ー画像203より大きく表示される。このため、ユーザは、第1表示面14のプレビュー画像103を見ながら、ピントや被写体の表情などを詳細に確認することができる。また、第2表示面24には、画像入力領域210にプレビュー画像203が表示されているため、ユーザは、テンプレート205の全体を見て、画像の構図を検討することができる。
A shutter button 102 is displayed on the preview image 103 on the first display surface 14 together with the trimming frame 101. When the trimming frame 101 is enlarged from the image input area 210, the preview image 103 on the first display surface 14 is displayed larger than the preview image 203 on the second display surface 24. For this reason, the user can check the focus and the facial expression of the subject in detail while viewing the preview image 103 on the first display surface 14. Since the preview image 203 is displayed in the image input area 210 on the second display surface 24, the user can examine the composition of the image by looking at the entire template 205.

画像の構図が決定され、シャッターボタン102がタッチされると、CPU300は、撮影操作がなされたと判断する(S209:YES)。撮影操作時に第2表示面24に表示されている画像のデータが第2VRAM312からメモリ310に取り込まれて保存される。これにより、撮影画像204が画像入力領域210に貼り付けられた名刺201が作成される(S211)。   When the composition of the image is determined and the shutter button 102 is touched, the CPU 300 determines that a shooting operation has been performed (S209: YES). Data of the image displayed on the second display surface 24 at the time of the photographing operation is taken from the second VRAM 312 into the memory 310 and stored. As a result, a business card 201 in which the captured image 204 is pasted on the image input area 210 is created (S211).

以上、本実施例によればプレビュー画像103、203が第1表示面14およびテンプレート205上に表示される。このため、ユーザは、プレビュー画像103、203の被写体を確認しながら、撮影することができる。特に、トリミング枠101が画像入力領域210より拡大されている場合、ユーザは、第1表示面14のプレビュー画像103に基づいて被写体を細かく確認し、所望の撮影画像204を取得することができる。また、ユーザは、テンプレート205上のプレビュー画像203に基づいて、文字やレイアウトなどを含むテンプレート205全体のとのバランスを調整し、名刺201などの電子文書の仕上がりを考慮して、撮影画像204を取得することができる。   As described above, according to the present embodiment, the preview images 103 and 203 are displayed on the first display surface 14 and the template 205. For this reason, the user can shoot while confirming the subject of the preview images 103 and 203. In particular, when the trimming frame 101 is enlarged from the image input area 210, the user can check the subject in detail based on the preview image 103 on the first display surface 14 and obtain a desired captured image 204. In addition, the user adjusts the balance with the entire template 205 including characters and layout based on the preview image 203 on the template 205, and considers the finish of the electronic document such as the business card 201 to display the captured image 204. Can be acquired.

<実施例3>
上記実施例1および2では、シャッターボタン102が第1表示面14のプレビュー画像103上に表示され、シャッターボタン102により撮影操作がなされていた。これに対し、実施例3では、第1表示面14および第2表示面24に対する操作により、撮影操作がなされる。
<Example 3>
In the first and second embodiments, the shutter button 102 is displayed on the preview image 103 on the first display surface 14, and a shooting operation is performed by the shutter button 102. On the other hand, in the third embodiment, a photographing operation is performed by an operation on the first display surface 14 and the second display surface 24.

このため、第2タッチセンサ13により画像入力領域210を選択する入力が検出されると、CPU300は、選択された画像入力領域210に対応するトリミング枠101をプレビュー画像103上に表示する。そして、第2タッチセンサ13により画像入力領域210を選択する入力が検出されなくなると、CPU300は、プレビュー画像103のうちトリミング枠101内に含まれる画像を撮影画像204として取得する。これにより、撮影画像204が画像入力領域210に合成された電子文書202が生成される。   Therefore, when an input for selecting the image input area 210 is detected by the second touch sensor 13, the CPU 300 displays the trimming frame 101 corresponding to the selected image input area 210 on the preview image 103. When the input for selecting the image input area 210 is no longer detected by the second touch sensor 13, the CPU 300 acquires an image included in the trimming frame 101 in the preview image 103 as the captured image 204. As a result, an electronic document 202 in which the captured image 204 is combined with the image input area 210 is generated.

図10(a)〜図11(b)は、アルバムの作成を説明するための図である。図10(a)〜図11(b)には、第1表示面14にプレビュー画像103が表示され、第2表示面24にアルバムのテンプレート206が表示されている。   FIG. 10A to FIG. 11B are diagrams for explaining creation of an album. 10A to 11B, the preview image 103 is displayed on the first display surface 14, and the album template 206 is displayed on the second display surface 24.

図10(a)に示すように、カメラモジュール301で取り込まれたプレビュー画像103が第1表示面14に表示されている。また、アルバムのテンプレート206が、メモリ310から読み出されて、第2表示面24に表示されている。たとえば、アルバムのテンプレート206には、複数の画像入力領域210、この実施例では、5つの第1〜第5画像入力領域211〜215が設けられている。これらの第1〜第5画画像入力領域211〜215の形や大きさはさまざまである。   As shown in FIG. 10A, the preview image 103 captured by the camera module 301 is displayed on the first display surface 14. Also, the album template 206 is read from the memory 310 and displayed on the second display surface 24. For example, the album template 206 is provided with a plurality of image input areas 210, in this embodiment, five first to fifth image input areas 211 to 215. The shapes and sizes of these first to fifth image input areas 211 to 215 are various.

図10(b)に示すように、テンプレート206において第3画像入力領域213がユーザの指によりタッチされ、第3画像入力領域213が選択される。第3画像入力領域213のサイズが求められ、第3画像入力領域213のサイズに応じたサイズのトリミング枠101が設定される。ここでは、トリミング枠101の縦横比率は画像入力領域210の縦横比率と等しく、かつトリミング枠101のサイズは第3画像入力領域213と同じサイズに設定される。   As shown in FIG. 10B, the third image input area 213 is touched by the user's finger on the template 206, and the third image input area 213 is selected. The size of the third image input area 213 is obtained, and the trimming frame 101 having a size corresponding to the size of the third image input area 213 is set. Here, the aspect ratio of the trimming frame 101 is equal to the aspect ratio of the image input area 210, and the size of the trimming frame 101 is set to the same size as the third image input area 213.

また、トリミング枠101の中心が第1表示面14の中心と一致するように、トリミング枠101の位置が設定される。このトリミング枠101のサイズおよび位置に応じて、トリミング枠101が第1表示面14に表示される。このとき、トリミング枠101内の範囲にプレビュー画像103が表示され、トリミング枠101の周りは黒くなるように画像処理される。これによりプレビュー画像103の中で、第3画像入力領域213に納まる範囲の画像を明確に把握することができる。   Further, the position of the trimming frame 101 is set so that the center of the trimming frame 101 coincides with the center of the first display surface 14. The trimming frame 101 is displayed on the first display surface 14 in accordance with the size and position of the trimming frame 101. At this time, the preview image 103 is displayed in a range within the trimming frame 101, and image processing is performed so that the periphery of the trimming frame 101 is black. Thereby, in the preview image 103, it is possible to clearly grasp the image within the range that fits in the third image input area 213.

第3画像入力領域213からユーザの指がリリースされると、CPU300は、撮影操作がなされたと判断する(図5のステップS109)。これにより、第1表示面14に対するトリミング枠101の位置およびサイズに基づいて、第1VRAM311に蓄積された画像データの中からトリミング枠101内の画像データが抽出され、撮影画像204が取得される。抽出された画像データがテンプレート206のデータと合成され、合成されたデータが第2VRAM312に蓄積される。これにより、図11(a)に示すように、抽出された画像データに基づく撮影画像204が第3画像入力領域213に表示される。   When the user's finger is released from the third image input area 213, the CPU 300 determines that a photographing operation has been performed (step S109 in FIG. 5). Thus, based on the position and size of the trimming frame 101 with respect to the first display surface 14, the image data in the trimming frame 101 is extracted from the image data stored in the first VRAM 311, and the captured image 204 is acquired. The extracted image data is combined with the data of the template 206, and the combined data is stored in the second VRAM 312. Thereby, as shown in FIG. 11A, the captured image 204 based on the extracted image data is displayed in the third image input area 213.

ここでは、テンプレート206の全ての画像入力領域210に撮影画像204が合成されていないが、第3画像入力領域213に撮影画像204を貼り付けたアルバム202として電子文書が作成され、メモリ310に保存される。   Here, although the captured image 204 is not combined with all the image input areas 210 of the template 206, an electronic document is created as an album 202 with the captured image 204 pasted in the third image input area 213 and stored in the memory 310. Is done.

また、ユーザの指が第3画像入力領域213からリリースされることにより、第1表示面14に表示されていたトリミング枠101が消え、第1表示面14の全体にプレビュー画像103が表示される。   Further, when the user's finger is released from the third image input area 213, the trimming frame 101 displayed on the first display surface 14 disappears, and the preview image 103 is displayed on the entire first display surface 14. .

次に、図11(b)に示すように、ユーザが第5画像入力領域215を指でタッチすると、第5画像入力領域215に応じたトリミング枠101が第1表示面14に表示される。第5画像入力領域215からタッチした指がリリースされると、トリミング枠101内の撮影画像204が抽出され、撮影画像204が第5画像入力領域215に貼り付けられる。そして、第3および第5画像入力領域213、215のそれぞれに撮影画像204が貼り付けられたアルバム202が作成され、このアルバム202のデータが先に保存された電子文書のデータに上書きされる。   Next, as illustrated in FIG. 11B, when the user touches the fifth image input area 215 with a finger, the trimming frame 101 corresponding to the fifth image input area 215 is displayed on the first display surface 14. When the touched finger is released from the fifth image input area 215, the captured image 204 in the trimming frame 101 is extracted, and the captured image 204 is pasted on the fifth image input area 215. Then, an album 202 in which the photographed image 204 is pasted in each of the third and fifth image input areas 213 and 215 is created, and the data of the album 202 is overwritten on the data of the electronic document previously stored.

なお、たとえば、ユーザは、第5画像入力領域215に指をタッチし、リリースせずに指をスライドさせて、第1画像入力領域211に指を移動させる。これにより、第5画像入力領域215に対応した撮影画像204が取得される。また、第1表示面14に表示されていた第5画像入力領域215に対応したトリミング枠101に代えて第1画像入力領域211に対応するトリミング枠101が表示される。   For example, the user touches the fifth image input area 215 with a finger, slides the finger without releasing it, and moves the finger to the first image input area 211. Thereby, the captured image 204 corresponding to the fifth image input area 215 is acquired. Further, the trimming frame 101 corresponding to the first image input area 211 is displayed instead of the trimming frame 101 corresponding to the fifth image input area 215 displayed on the first display surface 14.

以上、本実施例によれば、ユーザは撮影操作を行うだけで電子文書を簡単に作成することができる。特に、テンプレート206に複数の画像入力領域210が存在する場合、ユーザは画像入力領域210をタッチおよびリリースするだけで、画像を入力する画像入力領域210を選択し、かつ選択した画像入力領域210に撮影画像204を納めることができ、簡便である。   As described above, according to this embodiment, the user can easily create an electronic document simply by performing a photographing operation. In particular, when there are a plurality of image input areas 210 in the template 206, the user selects the image input area 210 for inputting an image by simply touching and releasing the image input area 210. The captured image 204 can be stored, which is convenient.

また、本実施例によれば、ユーザが画像入力領域210をタッチすると、タッチした画像入力領域210に合わせたトリミング枠101が表示される。このため、ユーザは、被写体とトリミング枠101とのバランスを考えて、撮影画像204を貼り付ける画像入力領域210を選択することができる。   According to the present embodiment, when the user touches the image input area 210, the trimming frame 101 that matches the touched image input area 210 is displayed. Therefore, the user can select the image input area 210 to which the captured image 204 is pasted in consideration of the balance between the subject and the trimming frame 101.

さらに、本実施例によれば、複数の画像入力領域210のサイズがそれぞれ異なる場合
、ユーザが選択する画像入力領域210を変えると、トリミング枠101のサイズが変化する。これにより、被写体とトリミング枠101とのサイズのバランスを簡単に調整することができる。
Further, according to the present embodiment, when the sizes of the plurality of image input areas 210 are different, the size of the trimming frame 101 changes when the image input area 210 selected by the user is changed. Thereby, the balance of the size of the subject and the trimming frame 101 can be easily adjusted.

<実施例4>
実施例3では、第2表示面24の画像入力領域210がタッチされることにより、撮影操作がなされた。これに対し、実施例4では、第1表示面14にタッチした指が第2表示面24の画像入力領域210までスライドされると、撮影操作がなされる。
<Example 4>
In Example 3, a shooting operation was performed by touching the image input area 210 of the second display surface 24. On the other hand, in the fourth embodiment, when the finger touching the first display surface 14 is slid to the image input area 210 on the second display surface 24, a photographing operation is performed.

このため、第2タッチセンサ23により画像入力領域210を選択する入力が検出されてから、各タッチセンサ13、23により入力の位置を第2表示面24から第1表示面14へ移動させる操作が検出されると、CPU300は、選択された画像入力領域210に対応するトリミング枠101を第1表示面14における入力の位置に表示する。また、第1タッチセンサ13により第1表示面14に対する入力が検出されなくなると、CPU300はプレビュー画像103のうちトリミング枠内101に含まれる画像を撮影画像204として取得する。これにより、撮影画像204が画像入力領域210に合成された電子文書202が生成される。   For this reason, after an input for selecting the image input area 210 is detected by the second touch sensor 23, an operation of moving the input position from the second display surface 24 to the first display surface 14 by each touch sensor 13, 23 is performed. When detected, the CPU 300 displays the trimming frame 101 corresponding to the selected image input area 210 at the input position on the first display surface 14. When the input to the first display surface 14 is no longer detected by the first touch sensor 13, the CPU 300 acquires an image included in the trimming frame 101 in the preview image 103 as the captured image 204. As a result, an electronic document 202 in which the captured image 204 is combined with the image input area 210 is generated.

図12(a)〜図13(b)は、アルバム202の作成を説明するための図である。図12(a)〜図13(b)では、第1表示面14にプレビュー画像103が表示され、第2表示面24にアルバム202のテンプレート206が表示されている。   FIG. 12A to FIG. 13B are diagrams for explaining the creation of the album 202. In FIG. 12A to FIG. 13B, the preview image 103 is displayed on the first display surface 14 and the template 206 of the album 202 is displayed on the second display surface 24.

図12(a)に示すように、カメラモジュール301で取り込まれた像に基づくプレビュー画像103が第1表示面14に表示されている。また、アルバム202のテンプレート206が、メモリ310から読み出されて、第2表示面24に表示されている。ユーザが第1表示面14をタッチすると、撮影画像204の中心として設定される。   As shown in FIG. 12A, a preview image 103 based on the image captured by the camera module 301 is displayed on the first display surface 14. Further, the template 206 of the album 202 is read from the memory 310 and displayed on the second display surface 24. When the user touches the first display surface 14, the center of the captured image 204 is set.

図12(b)に示すように、ユーザが、第1表示面14にタッチした指をリリースさせずに第2表示面24の第4画像入力領域214までスライドさせる。これにより、第4画像入力領域214に対応するトリミング枠101が第1表示面14のプレビュー画像103上に表示される。トリミング枠101の形およびサイズは第4画像入力領域214の形およびサイズと同じで、トリミング枠101の中心が第1表示面14のタッチ位置に一致するように位置づけられる。   As shown in FIG. 12B, the user slides the finger touching the first display surface 14 to the fourth image input area 214 on the second display surface 24 without releasing it. As a result, the trimming frame 101 corresponding to the fourth image input area 214 is displayed on the preview image 103 on the first display surface 14. The shape and size of the trimming frame 101 are the same as the shape and size of the fourth image input area 214, and the center of the trimming frame 101 is positioned so as to coincide with the touch position on the first display surface 14.

ユーザは、トリミング枠101内のプレビュー画像103を見て、他の画像入力領域210に対応するトリミング枠101を表示したい場合、指を第2表示面24からリリースさせずに他の画像入力領域210に移動させる。   If the user looks at the preview image 103 in the trimming frame 101 and wants to display the trimming frame 101 corresponding to the other image input area 210, the user does not release the finger from the second display surface 24 and does not release the finger. Move to.

図13(a)に示すように、ユーザの指が第5画像入力領域215に達すると、第1表示面14に第5画像入力領域215に対応するトリミング枠101が表示される。なお、第1表示面14のタッチ位置にトリミング枠101の中心が合わせられると、トリミング枠101が第1表示面14の表示範囲外となるため、第1表示面14に表示されているトリミング枠101の形は第5画像入力領域215の形に一致しない。   As illustrated in FIG. 13A, when the user's finger reaches the fifth image input area 215, the trimming frame 101 corresponding to the fifth image input area 215 is displayed on the first display surface 14. When the center of the trimming frame 101 is aligned with the touch position on the first display surface 14, the trimming frame 101 is outside the display range of the first display surface 14, and therefore the trimming frame displayed on the first display surface 14 is displayed. The shape of 101 does not match the shape of the fifth image input area 215.

図13(b)に示すように、第5画像入力領域215から指がリリースされると、CPU300により、撮影操作がなされたと判断される(図5のステップS109)。これにより、第5画像入力領域215に対応するトリミング枠101のサイズおよび位置に基づいて、第1VRAM311からトリミング枠101内の画像データが抽出され、撮影画像204が取得される。撮影画像204が第5画像入力領域215に配置されるように、画像データとテンプレート206のデータとが合成される。合成データは第2VRAM31
2に蓄積されて、撮影画像204が第5画像入力領域215に貼り付けられた電子文書が第2表示面24に表示される。また、合成データがメモリ310に保存され、撮影画像204が第5画像入力領域215に貼り付けられた電子文書が作成される。
As shown in FIG. 13B, when the finger is released from the fifth image input area 215, the CPU 300 determines that a photographing operation has been performed (step S109 in FIG. 5). As a result, the image data in the trimming frame 101 is extracted from the first VRAM 311 based on the size and position of the trimming frame 101 corresponding to the fifth image input area 215, and the captured image 204 is acquired. The image data and the data of the template 206 are combined so that the captured image 204 is arranged in the fifth image input area 215. The composite data is the second VRAM 31.
2, the electronic document in which the captured image 204 is pasted in the fifth image input area 215 is displayed on the second display surface 24. Also, the composite data is stored in the memory 310, and an electronic document in which the captured image 204 is pasted in the fifth image input area 215 is created.

以上、本実施例によれば、第1表示面14におけるタッチ位置がトリミング枠101の中心に設定されるため、ユーザは撮影画像204の中心を自由に定めることができる。   As described above, according to the present embodiment, since the touch position on the first display surface 14 is set at the center of the trimming frame 101, the user can freely determine the center of the captured image 204.

また、本実施例によれば、ユーザがタッチした画像入力領域210に合わせたトリミング枠101が表示されるため、ユーザは、被写体とトリミング枠101とのバランスを考えて、撮影画像204を貼り付ける画像入力領域210を選択することができる。   Also, according to the present embodiment, the trimming frame 101 that matches the image input area 210 touched by the user is displayed, so the user pastes the captured image 204 in consideration of the balance between the subject and the trimming frame 101. An image input area 210 can be selected.

さらに、本実施例によれば、ユーザは撮影操作するだけで電子文書を簡単に作成することができる。   Furthermore, according to the present embodiment, the user can easily create an electronic document simply by photographing.

<実施例5>
実施例4では、第1表示面14にタッチした指が第2表示面24の画像入力領域210までスライドされると、撮影操作がなされた。これに対し、実施例5では、第2表示面24の画像入力領域210にタッチした指が第1表示面14までスライドされると、撮影操作がなされる。
<Example 5>
In Example 4, when the finger touching the first display surface 14 was slid to the image input area 210 of the second display surface 24, the photographing operation was performed. On the other hand, in the fifth embodiment, when a finger touching the image input area 210 on the second display surface 24 is slid to the first display surface 14, a photographing operation is performed.

このため、第1タッチセンサ13により第1表示面14に対する入力が検出されてから、第2タッチセンサ23により画像入力領域210を選択する入力が検出されると、CPU300は、撮影画像を取得する。そして、CPU300は、第1表示面14に対する入力の位置に対応する撮影画像の位置が画像入力領域210の中心になり、かつ撮影画像のうち選択された画像入力領域210内に収まる撮影画像204を抽出する。これにより、撮影画像204が画像入力領域210に合成された電子文書202が生成される。   For this reason, if the input which selects the image input area 210 is detected by the 2nd touch sensor 23 after the input with respect to the 1st display surface 14 is detected by the 1st touch sensor 13, CPU300 will acquire a picked-up image. . Then, the CPU 300 captures the captured image 204 that falls within the selected image input area 210 of the captured image, with the position of the captured image corresponding to the input position on the first display surface 14 being the center of the image input area 210. Extract. As a result, an electronic document 202 in which the captured image 204 is combined with the image input area 210 is generated.

図14(a)〜図15(b)は、アルバム202の作成を説明するための図である。図14(a)〜図15(b)では、第1表示面14にプレビュー画像103が表示され、第2表示面24にアルバム202のテンプレート206が表示されている。   FIG. 14A to FIG. 15B are diagrams for explaining creation of the album 202. 14A to 15B, the preview image 103 is displayed on the first display surface 14, and the template 206 of the album 202 is displayed on the second display surface 24.

図14(a)に示すように、カメラモジュール301で取り込まれた像に基づくプレビュー画像103が第1表示面14に表示され、アルバム202のテンプレート206が第2表示面24に表示されている。ここで、ユーザが、第5画像入力領域215を指でタッチすると、第5画像入力領域215のサイズが求められ、第5画像入力領域215のサイズに応じたサイズのトリミング枠101が設定される。ここでは、トリミング枠101の形およびサイズが第5画像入力領域215の形およびサイズと等しく設定される。   As shown in FIG. 14A, the preview image 103 based on the image captured by the camera module 301 is displayed on the first display surface 14, and the template 206 of the album 202 is displayed on the second display surface 24. Here, when the user touches the fifth image input area 215 with a finger, the size of the fifth image input area 215 is obtained, and the trimming frame 101 having a size corresponding to the size of the fifth image input area 215 is set. . Here, the shape and size of the trimming frame 101 are set equal to the shape and size of the fifth image input area 215.

図14(b)に示すように、ユーザが、第2表示面24にタッチした指をリリースさせずに第1表示面14にスライドさせると、第5画像入力領域215に対応するトリミング枠101が第1表示面14のプレビュー画像103上に表示される。   As shown in FIG. 14B, when the user slides the finger touching the second display surface 24 onto the first display surface 14 without releasing it, the trimming frame 101 corresponding to the fifth image input area 215 is displayed. It is displayed on the preview image 103 on the first display surface 14.

図15(a)に示すように、このトリミング枠101は第1表示面14においてタッチ位置に伴って移動する。このため、ユーザは、トリミング枠101の中に被写体が納まるように、タッチ位置を調整する。なお、このトリミング枠101の配置では、トリミング枠101が第1表示面14の表示範囲からはみ出るため、第1表示面14に表示されているトリミング枠101の形は第5画像入力領域215の形に一致しない。   As shown in FIG. 15A, the trimming frame 101 moves on the first display surface 14 with the touch position. Therefore, the user adjusts the touch position so that the subject is within the trimming frame 101. In this arrangement of the trimming frame 101, the trimming frame 101 protrudes from the display range of the first display surface 14, and therefore the shape of the trimming frame 101 displayed on the first display surface 14 is the shape of the fifth image input area 215. Does not match.

図15(b)に示すように、第1表示面14から指がリリースされると、CPU300により、撮影操作がなされたと判断される(図5のステップS109)。これにより、第
5画像入力領域215に対応するトリミング枠101のサイズおよび位置に基づいて、第1VRAM311からトリミング枠101内の画像データが抽出され、撮影画像204が取得される。撮影画像204が第5画像入力領域215に配置されるように、画像データとテンプレート206のデータとが合成される。合成データは第2VRAM312に蓄積されて、撮影画像204が第5画像入力領域215に貼り付けられた電子文書が第2表示面24に表示される。また、合成データがメモリ310に保存され、撮影画像204が第5画像入力領域215に貼り付けられた電子文書が作成される。
As shown in FIG. 15B, when the finger is released from the first display surface 14, the CPU 300 determines that a photographing operation has been performed (step S109 in FIG. 5). As a result, the image data in the trimming frame 101 is extracted from the first VRAM 311 based on the size and position of the trimming frame 101 corresponding to the fifth image input area 215, and the captured image 204 is acquired. The image data and the data of the template 206 are combined so that the captured image 204 is arranged in the fifth image input area 215. The composite data is stored in the second VRAM 312 and an electronic document in which the captured image 204 is pasted on the fifth image input area 215 is displayed on the second display surface 24. Also, the composite data is stored in the memory 310, and an electronic document in which the captured image 204 is pasted in the fifth image input area 215 is created.

以上、本実施例によれば、ユーザのタッチ位置に応じてトリミング枠101が移動するため、ユーザは、被写体に合わせてトリミング枠101の位置を定めることができる。   As described above, according to the present embodiment, the trimming frame 101 moves according to the touch position of the user, so that the user can determine the position of the trimming frame 101 according to the subject.

また、本実施例によれば、ユーザは撮影操作するだけで電子文書を簡単に作成することができる。   Further, according to the present embodiment, the user can easily create an electronic document simply by performing a photographing operation.

<その他>
上記実施例1および2では、トリミング枠101のサイズが画像入力領域210のサイズより大きく設定されたが、これに限定されない。たとえば、トリミング枠101のサイズが画像入力領域210のサイズと同じまたは小さく設定されてもよい。
<Others>
In the first and second embodiments, the size of the trimming frame 101 is set larger than the size of the image input area 210, but the present invention is not limited to this. For example, the size of the trimming frame 101 may be set to be the same as or smaller than the size of the image input area 210.

一方、上記実施例3〜5では、トリミング枠101のサイズは選択された画像入力領域210と同じサイズに設定されたが、これに限定されない。トリミング枠101のサイズが、選択された画像入力領域210と同じまたは大きく設定されてもよい。   On the other hand, in the third to fifth embodiments, the size of the trimming frame 101 is set to the same size as the selected image input area 210, but the present invention is not limited to this. The size of the trimming frame 101 may be set to be the same as or larger than the selected image input area 210.

さらに、上記実施例1および2では、第1表示面14全体にプレビュー画像103が表示され、プレビュー画像103上にトリミング枠101が表示された。これに対し、上記実施例3〜5と同様に、トリミング枠101内の範囲にプレビュー画像103が表示され、トリミング枠101の周りは黒くなるように表示されてもよい。   Further, in the first and second embodiments, the preview image 103 is displayed on the entire first display surface 14, and the trimming frame 101 is displayed on the preview image 103. On the other hand, as in the third to fifth embodiments, the preview image 103 may be displayed in a range within the trimming frame 101 and displayed around the trimming frame 101 so as to be black.

一方、上記実施例3〜5では、トリミング枠101内の範囲にプレビュー画像103が表示され、トリミング枠101の周りは黒くなるように画像処理された。これに対し、実施例1および2と同様に、第1表示面14全体にプレビュー画像103が表示され、プレビュー画像103上にトリミング枠101が表示されてもよい。   On the other hand, in the third to fifth embodiments, the preview image 103 is displayed in the range within the trimming frame 101, and image processing is performed so that the periphery of the trimming frame 101 is black. On the other hand, as in the first and second embodiments, the preview image 103 may be displayed on the entire first display surface 14, and the trimming frame 101 may be displayed on the preview image 103.

また、上記実施例1〜3では、トリミング枠101の中心が第1表示面14の中心に配置されたが、トリミング枠101は所定または任意に配置されてもよい。   In the first to third embodiments, the center of the trimming frame 101 is arranged at the center of the first display surface 14, but the trimming frame 101 may be arranged in a predetermined or arbitrary manner.

さらに、上記実施例1および2では、プレビュー画像103上に表示されたシャッターボタン102により撮影操作がなされたが、シャッターボタン102はこれに限定されない。たとえば、キー群26、16などのハードキーのいずれかがシャッターボタン102と設定されてもよい。   Furthermore, in the first and second embodiments, the shooting operation is performed by the shutter button 102 displayed on the preview image 103, but the shutter button 102 is not limited to this. For example, any of the hard keys such as the key groups 26 and 16 may be set as the shutter button 102.

また、上記実施例1および2では、シャッターボタン102が第1表示面14に表示されたが、第2表示面24に表示されてもよい。   In the first and second embodiments, the shutter button 102 is displayed on the first display surface 14, but may be displayed on the second display surface 24.

また、上記実施例1および2では、第1VRAM311から抽出された画像データとテンプレート205のデータとが合成され、合成データが第2VRAM312に格納されて、合成データに基づく電子文書が第2表示面24に表示された。これに対し、第2VRAM312に格納されているテンプレート205のデータの中で、画像入力領域210の範囲に撮影画像204の画像データが補完されてもよい。   In the first and second embodiments, the image data extracted from the first VRAM 311 and the data of the template 205 are combined, the combined data is stored in the second VRAM 312, and an electronic document based on the combined data is displayed on the second display surface 24. Displayed. On the other hand, in the data of the template 205 stored in the second VRAM 312, the image data of the captured image 204 may be supplemented in the range of the image input area 210.

さらに、上記全実施例では、撮影操作により画像入力領域210に撮影画像204が取り込まれた電子文書201、202が自動的にメモリに保存された。これに対して、各表示面14、24上に電子文書201、202を保存するためのソフトボタンが表示されてもよい、または、キー群16、26に電子文書201、202を保存するための機能が割り当てられてもよい。これらのボタンやキー群16、26が操作されることにより、電子文書201、202がメモリに保存される。このとき、保存される電子文書201、202に名前を付ける事ができるようにしてもよい。また、保存する前に電子文書201、202を削除できるようにしてもよい。   Further, in all the embodiments described above, the electronic documents 201 and 202 in which the photographed image 204 is captured in the image input area 210 by the photographing operation are automatically stored in the memory. On the other hand, a soft button for saving the electronic documents 201 and 202 may be displayed on each of the display surfaces 14 and 24, or for storing the electronic documents 201 and 202 in the key groups 16 and 26. A function may be assigned. By operating these buttons and key groups 16 and 26, the electronic documents 201 and 202 are stored in the memory. At this time, the stored electronic documents 201 and 202 may be named. The electronic documents 201 and 202 may be deleted before saving.

また、上記実施例3および4では、タッチされた画像入力領域210からユーザの指がリリースされると、撮影操作がなされた。これに対して、画像入力領域210がタッチされたときに、撮影操作がなされてもよい。   In Examples 3 and 4, when the user's finger is released from the touched image input area 210, a shooting operation is performed. On the other hand, a shooting operation may be performed when the image input area 210 is touched.

また、上記実施例3〜5では、各画像入力領域210に撮影画像204が貼り付けられるたびに、アルバム202が作成されたが、これに限定されない。たとえば、全ての画像入力領域210にそれぞれ撮影画像204が貼り付けられた段階で、アルバム202が作成されてもよい。   In the third to fifth embodiments, the album 202 is created each time the captured image 204 is pasted on each image input area 210. However, the present invention is not limited to this. For example, the album 202 may be created when the captured image 204 is pasted on all the image input areas 210.

さらに、上記実施例3〜5では、各画像入力領域210に撮影画像204が貼り付けられるたびに、アルバム202のデータが上書きされたが、それぞれ別のアルバム202として名前が付けられて保存されてもよい。   Further, in each of the third to fifth embodiments, the data of the album 202 is overwritten each time the photographed image 204 is pasted in each image input area 210. However, each album 202 is named and saved as a separate album 202. Also good.

また、上記実施例4では、第1表示面14にタッチした指が第4画像入力領域214までスライドされると、トリミング枠101が第1表示面14に表示された。これに対して、第1表示面14にタッチした指が第4画像入力領域214までスライドされると、トリミング枠101が表示されずに、撮影画像204が第4画像入力領域214に貼り付けられてもよい。   In the fourth embodiment, when the finger touching the first display surface 14 is slid to the fourth image input area 214, the trimming frame 101 is displayed on the first display surface 14. On the other hand, when the finger touching the first display surface 14 is slid to the fourth image input area 214, the trimming frame 101 is not displayed and the captured image 204 is pasted on the fourth image input area 214. May be.

また、上記全実施例では、第1表示面14にプレビュー画像103が表示され、第2表示面24にテンプレートや電子文書が表示された。これに反対に、第2表示面24にプレビュー画像が表示され、第1表示面14にテンプレートや電子文書が表示されてもよい。   In all the embodiments described above, the preview image 103 is displayed on the first display surface 14, and the template and the electronic document are displayed on the second display surface 24. On the contrary, a preview image may be displayed on the second display surface 24 and a template or electronic document may be displayed on the first display surface 14.

さらに、上記実施例では、携帯電話機1を用いたが、PDAやタブレットPC、電子書籍端末、携帯ゲーム機などの携帯端末装置を用いることもできる。   Furthermore, although the mobile phone 1 is used in the above embodiment, a mobile terminal device such as a PDA, a tablet PC, an electronic book terminal, or a mobile game machine can also be used.

また、上記全実施例において、第1表示面14に表示されたトリミング枠101のサイズがユーザによる拡大あるいは縮小操作(ピンチイン、ピンチアウト)などにより変更されてもよい。これにより、画像入力領域210に納まる撮影画像204の大きさを任意に変えることができる。   In all the embodiments described above, the size of the trimming frame 101 displayed on the first display surface 14 may be changed by an enlargement or reduction operation (pinch-in, pinch-out) by the user. As a result, the size of the captured image 204 that fits in the image input area 210 can be arbitrarily changed.

さらに、上記全実施例において、図7(a)に示すように、名刺のテンプレート205が表示された第2表示面24上でユーザが指を左右のいずれかの方向にスライドする。これにより、図6に示すように、名刺のテンプレート205に代えてテンプレートのメニュー画面が第2表示面24に表示されてもよい。このような操作によりユーザはテンプレートを直感的に選択することができる。   Furthermore, in all the embodiments described above, as shown in FIG. 7A, the user slides his / her finger in either the left or right direction on the second display surface 24 on which the business card template 205 is displayed. Thereby, as shown in FIG. 6, a template menu screen may be displayed on the second display surface 24 instead of the business card template 205. With such an operation, the user can intuitively select a template.

この他、本発明の実施の形態は、特許請求の範囲に示された技術的思想の範囲内において、適宜、種々の変更が可能である。たとえば、上記実施形態の一部または全部を組み合わせることができる。   In addition, the embodiment of the present invention can be variously modified as appropriate within the scope of the technical idea shown in the claims. For example, some or all of the above embodiments can be combined.

1 携帯電話機 (携帯端末装置)
12 第1ディスプレイ(第1表示部、第2表示部)
13 第1タッチセンサ (検出部、第1入力検出部、第2入力検出部)
16 キー群 (検出部)
22 第2ディスプレイ(第1表示部、第2表示部)
23 第2タッチセンサ (検出部、第1入力検出部、第2入力検出部)
26 キー群 (検出部)
300 CPU (制御部)
301 カメラモジュール (撮像部)
310 メモリ (記憶部)
1 Mobile phone (mobile terminal device)
12 1st display (1st display part, 2nd display part)
13 1st touch sensor (detection part, 1st input detection part, 2nd input detection part)
16 keys (detection unit)
22 2nd display (1st display part, 2nd display part)
23 second touch sensor (detection unit, first input detection unit, second input detection unit)
26 key group (detector)
300 CPU (control unit)
301 Camera module (imaging part)
310 memory (storage unit)

Claims (8)

第1表示領域と、
第2表示領域と、
前記第1表示領域に対する入力および前記第2表示領域に対する入力を検出する検出部と、
外部から受光した光により画像信号を生成する撮像部と、
画像入力領域を含む電子文書のテンプレートを記憶する記憶部と、
制御部とを備え、
前記制御部は、
前記画像信号に基づくプレビュー画像を前記第1表示領域に表示し、
前記記憶部から読み出された前記テンプレートを前記第2表示領域に表示し、
前記検出部により前記画像入力領域を選択する入力が検出されると、選択された前記画像入力領域に対応するトリミング枠を前記プレビュー画像上に表示し、
前記検出部により前記画像入力領域を選択する入力が検出されなくなると、前記プレビュー画像のうち前記トリミング枠内に含まれる画像を取得し、取得した画像を前記画像入力領域に合成した前記電子文書を生成する、
ことを特徴とする携帯端末装置。
A first display area ;
A second display area ;
A detection unit for detecting an input to the first display area and an input to the second display area ;
An imaging unit that generates an image signal by light received from the outside;
A storage unit for storing a template of an electronic document including an image input area;
A control unit,
The controller is
Displaying a preview image based on the image signal in the first display area ;
Displaying the template read from the storage unit in the second display area ;
When an input for selecting the image input area is detected by the detection unit, a trimming frame corresponding to the selected image input area is displayed on the preview image,
When the input for selecting the image input area is not detected by the detection unit, the electronic document obtained by acquiring an image included in the trimming frame from the preview image and combining the acquired image with the image input area is obtained. Generate,
The portable terminal device characterized by the above-mentioned.
第1表示領域と、
第2表示領域と、
前記第1表示領域に対する入力および前記第2表示領域に対する入力を検出する検出部と、
外部から受光した光により画像信号を生成する撮像部と、
画像入力領域を含む電子文書のテンプレートを記憶する記憶部と、
制御部とを備え、
前記制御部は、
前記画像信号に基づくプレビュー画像を前記第1表示領域に表示し、
前記記憶部から読み出された前記テンプレートを前記第2表示領域に表示し、
前記検出部により、前記画像入力領域を選択する入力が検出された後、さらに前記入力の位置を前記第2表示領域から前記第1表示領域へ移動させる操作が検出されると、選択された前記画像入力領域に対応するトリミング枠を前記第1表示領域に対する前記入力の位置に表示し、
前記検出部により前記第1表示領域に対する前記入力が検出されなくなると、前記プレビュー画像のうち前記トリミング枠内に含まれる画像を取得し、取得した画像を前記画像入力領域に合成した前記電子文書を生成する、
ことを特徴とする携帯端末装置。
A first display area;
A second display area;
A detection unit for detecting an input to the first display area and an input to the second display area;
An imaging unit that generates an image signal by light received from the outside;
A storage unit for storing a template of an electronic document including an image input area;
A control unit,
The controller is
Displaying a preview image based on the image signal in the first display area;
Displaying the template read from the storage unit in the second display area;
When an operation for moving the position of the input from the second display area to the first display area is detected after the input for selecting the image input area is detected by the detection unit, the selected Displaying a trimming frame corresponding to the image input area at the input position with respect to the first display area;
When the input to the first display area is no longer detected by the detection unit, the electronic document obtained by acquiring an image included in the trimming frame from the preview image and combining the acquired image with the image input area Generate,
The portable terminal device characterized by the above-mentioned.
請求項1または2に記載の携帯端末装置において、
前記制御部は、前記プレビュー画像を、前記第1表示領域と、前記第2表示領域に表示された前記テンプレートの前記画像入力領域とに表示する、
ことを特徴とする携帯端末装置。
The mobile terminal device according to claim 1 or 2,
The control unit displays the preview image in the first display area and the image input area of the template displayed in the second display area.
The portable terminal device characterized by the above-mentioned.
請求項1ないし3の何れか一項に記載の携帯端末装置において、
前記制御部は、
前記検出部により、前記第1表示領域に対する入力が検出されてから前記画像入力領域を選択する入力が検出されると、前記画像信号に基づく撮影画像を取得し、前記第1表示領域に対する前記入力の位置に対応する前記撮影画像の位置が前記画像入力領域の中心になり、かつ前記撮影画像のうち選択された前記画像入力領域内に収まる画像を抽出し、抽出した画像を前記画像入力領域に合成した前記電子文書を生成する、
ことを特徴とする携帯端末装置。
In the portable terminal device according to any one of claims 1 to 3 ,
The controller is
When an input for selecting the image input area is detected after an input to the first display area is detected by the detection unit, a captured image based on the image signal is acquired, and the input to the first display area is acquired. The position of the captured image corresponding to the position of the image is the center of the image input area, and an image that falls within the selected image input area is extracted from the captured image, and the extracted image is used as the image input area. Generating the synthesized electronic document;
The portable terminal device characterized by the above-mentioned.
第1表示領域と、第2表示領域と、前記第1表示領域に対する入力および前記第2表示領域に対する入力を検出する検出部と、外部から受光した光により画像信号を生成する撮像部と、画像入力領域を含む電子文書のテンプレートを記憶する記憶部とを備える携帯端末装置のコンピュータに、A first display area; a second display area; a detection section for detecting an input to the first display area and an input to the second display area; an imaging section for generating an image signal by light received from the outside; A computer of a portable terminal device including a storage unit that stores a template of an electronic document including an input area,
前記画像信号に基づくプレビュー画像を前記第1表示領域に表示し、Displaying a preview image based on the image signal in the first display area;
前記記憶部から読み出された前記テンプレートを前記第2表示領域に表示し、Displaying the template read from the storage unit in the second display area;
前記検出部により前記画像入力領域を選択する入力が検出されると、選択された前記画像入力領域に対応するトリミング枠を前記プレビュー画像上に表示し、When an input for selecting the image input area is detected by the detection unit, a trimming frame corresponding to the selected image input area is displayed on the preview image,
前記検出部により前記画像入力領域を選択する入力が検出されなくなると、前記プレビュー画像のうち前記トリミング枠内に含まれる画像を取得し、取得した画像を前記画像入力領域に合成した前記電子文書を生成する機能を実行させるプログラム。When the input for selecting the image input area is not detected by the detection unit, the electronic document obtained by acquiring an image included in the trimming frame from the preview image and combining the acquired image with the image input area is obtained. A program that executes the function to be generated.
第1表示領域と、第2表示領域と、前記第1表示領域に対する入力および前記第2表示領域に対する入力を検出する検出部と、外部から受光した光により画像信号を生成する撮像部と、画像入力領域を含む電子文書のテンプレートを記憶する記憶部とを備える携帯端末装置の電子文書作成方法において、A first display area; a second display area; a detection section for detecting an input to the first display area and an input to the second display area; an imaging section for generating an image signal by light received from the outside; In an electronic document creation method of a mobile terminal device comprising a storage unit for storing a template of an electronic document including an input area,
前記画像信号に基づくプレビュー画像を前記第1表示領域に表示するステップと、Displaying a preview image based on the image signal in the first display area;
前記記憶部から読み出された前記テンプレートを前記第2表示領域に表示するステップと、Displaying the template read from the storage unit in the second display area;
前記検出部により前記画像入力領域を選択する入力が検出されると、選択された前記画像入力領域に対応するトリミング枠を前記プレビュー画像上に表示するステップと、When an input for selecting the image input area is detected by the detection unit, a step of displaying a trimming frame corresponding to the selected image input area on the preview image;
前記検出部により前記画像入力領域を選択する入力が検出されなくなると、前記プレビュー画像のうち前記トリミング枠内に含まれる画像を取得し、取得した画像を前記画像入力領域に合成した前記電子文書を生成するステップと、When the input for selecting the image input area is not detected by the detection unit, the electronic document obtained by acquiring an image included in the trimming frame from the preview image and combining the acquired image with the image input area is obtained. Generating step;
を含むことを特徴とする電子文書作成方法。An electronic document creation method characterized by comprising:
第1表示領域と、第2表示領域と、前記第1表示領域に対する入力および前記第2表示領域に対する入力を検出する検出部と、外部から受光した光により画像信号を生成する撮像部と、画像入力領域を含む電子文書のテンプレートを記憶する記憶部とを備える携帯端末装置のコンピュータに、
前記画像信号に基づくプレビュー画像を前記第1表示領域に表示し、
前記記憶部から読み出された前記テンプレートを前記第2表示領域に表示し、
前記検出部により、前記画像入力領域を選択する入力が検出された後、さらに前記入力の位置を前記第2表示領域から前記第1表示領域へ移動させる操作が検出されると、選択された前記画像入力領域に対応するトリミング枠を前記第1表示領域に対する前記入力の位置に表示し、
前記検出部により前記第1表示領域に対する前記入力が検出されなくなると、前記プレビュー画像のうち前記トリミング枠内に含まれる画像を取得し、取得した画像を前記画像入力領域に合成した前記電子文書を生成する機能を実行させるプログラム。
A first display area ; a second display area ; a detection section for detecting an input to the first display area and an input to the second display area; an imaging section for generating an image signal by light received from the outside; A computer of a portable terminal device including a storage unit that stores a template of an electronic document including an input area,
Displaying a preview image based on the image signal in the first display area ;
Displaying the template read from the storage unit in the second display area ;
When an operation for moving the position of the input from the second display area to the first display area is detected after the input for selecting the image input area is detected by the detection unit, the selected Displaying a trimming frame corresponding to the image input area at the input position with respect to the first display area;
When the input to the first display area is no longer detected by the detection unit, the electronic document obtained by acquiring an image included in the trimming frame from the preview image and combining the acquired image with the image input area A program that executes the function to be generated.
第1表示領域と、第2表示領域と、前記第1表示領域に対する入力および前記第2表示領域に対する入力を検出する検出部と、外部から受光した光により画像信号を生成する撮像部と、画像入力領域を含む電子文書のテンプレートを記憶する記憶部とを備える携帯端末装置の電子文書作成方法において、
前記画像信号に基づくプレビュー画像を前記第1表示領域に表示するステップと、
前記記憶部から読み出された前記テンプレートを前記第2表示領域に表示するステップと、
前記検出部により、前記画像入力領域を選択する入力が検出された後、さらに前記入力の位置を前記第2表示領域から前記第1表示領域へ移動させる操作が検出されると、選択された前記画像入力領域に対応するトリミング枠を前記第1表示領域に対する前記入力の位置に表示するステップと、
前記検出部により前記第1表示領域に対する前記入力が検出されなくなると、前記プレビュー画像のうち前記トリミング枠内に含まれる画像を取得し、取得した画像を前記画像入力領域に合成した前記電子文書を生成するステップと、
を含むことを特徴とする電子文書作成方法。
A first display area ; a second display area ; a detection section for detecting an input to the first display area and an input to the second display area; an imaging section for generating an image signal by light received from the outside; In an electronic document creation method of a mobile terminal device comprising a storage unit for storing a template of an electronic document including an input area,
Displaying a preview image based on the image signal in the first display area ;
Displaying the template read from the storage unit in the second display area ;
When an operation for moving the position of the input from the second display area to the first display area is detected after the input for selecting the image input area is detected by the detection unit, the selected Displaying a trimming frame corresponding to the image input area at the input position with respect to the first display area;
When the input to the first display area is no longer detected by the detection unit, the electronic document obtained by acquiring an image included in the trimming frame from the preview image and combining the acquired image with the image input area Generating step;
An electronic document creation method characterized by comprising:
JP2011176771A 2011-08-12 2011-08-12 Portable terminal device, program, and electronic document creation method Expired - Fee Related JP5749115B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011176771A JP5749115B2 (en) 2011-08-12 2011-08-12 Portable terminal device, program, and electronic document creation method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011176771A JP5749115B2 (en) 2011-08-12 2011-08-12 Portable terminal device, program, and electronic document creation method

Publications (2)

Publication Number Publication Date
JP2013042274A JP2013042274A (en) 2013-02-28
JP5749115B2 true JP5749115B2 (en) 2015-07-15

Family

ID=47890290

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011176771A Expired - Fee Related JP5749115B2 (en) 2011-08-12 2011-08-12 Portable terminal device, program, and electronic document creation method

Country Status (1)

Country Link
JP (1) JP5749115B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10536569B2 (en) 2015-12-17 2020-01-14 Microsoft Technology Licensing, Llc Contact-note application and services
JP7097843B2 (en) 2019-03-28 2022-07-08 富士フイルム株式会社 Collage image creation system, method and program
CN113824878A (en) * 2021-08-20 2021-12-21 荣耀终端有限公司 Shooting control method based on foldable screen and electronic equipment

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5349168B2 (en) * 2009-06-26 2013-11-20 株式会社バンダイナムコゲームス Imaging apparatus, program, information storage medium, and imaging method
JP5476868B2 (en) * 2009-08-31 2014-04-23 フリュー株式会社 Image editing apparatus, image editing method, and program
JP5478999B2 (en) * 2009-09-02 2014-04-23 キヤノン株式会社 Imaging device

Also Published As

Publication number Publication date
JP2013042274A (en) 2013-02-28

Similar Documents

Publication Publication Date Title
JP4740971B2 (en) Terminal device with display function
US20190289279A1 (en) Camera device
JP5108747B2 (en) Information display apparatus, method and program
CN111479054B (en) Apparatus and method for processing image in device
KR101433157B1 (en) Mobile terminal and method for transmitting image thereof
US20090060490A1 (en) Imaging apparatus
US20180227489A1 (en) Electronic apparatus, electronic apparatus operating method, and non-transitory computer readable recording medium
KR20140106779A (en) Apparatus and method for processing a image in device
US20080231741A1 (en) Camera with multiple displays
KR20140106333A (en) Image display positioning using image sensor location
EP2127362A1 (en) Camera with multiple displays
JP2008507227A (en) Portable electronic devices with picture-in-picture capabilities
JP5563108B2 (en) Imaging apparatus, imaging method, and program
US20140096070A1 (en) Display control apparatus and method, image display apparatus, and non-transitory computer readable medium
JP5629180B2 (en) Mobile terminal device
JP5749115B2 (en) Portable terminal device, program, and electronic document creation method
JP5980154B2 (en) Imaging device, program, and control method of imaging device
JP5467064B2 (en) Mobile terminal device
JP2015141327A (en) learning support system and learning support program
JP2010004571A (en) Monitor-attached camera
KR101631436B1 (en) Mobile Terminal and operating method thereof
JP2014220819A (en) Self-imaging device, self-imaging method, and program
JP5249371B2 (en) Terminal device with display function
JP2005012459A (en) Portable image synthesizing device
KR101324809B1 (en) Mobile terminal and controlling method thereof

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140210

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20141120

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20141216

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150213

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150414

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150513

R150 Certificate of patent or registration of utility model

Ref document number: 5749115

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees