JP2013041348A - Portable terminal, auxiliary information display program, and auxiliary information display method - Google Patents

Portable terminal, auxiliary information display program, and auxiliary information display method Download PDF

Info

Publication number
JP2013041348A
JP2013041348A JP2011176483A JP2011176483A JP2013041348A JP 2013041348 A JP2013041348 A JP 2013041348A JP 2011176483 A JP2011176483 A JP 2011176483A JP 2011176483 A JP2011176483 A JP 2011176483A JP 2013041348 A JP2013041348 A JP 2013041348A
Authority
JP
Japan
Prior art keywords
display
auxiliary information
area
touch operation
touch
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2011176483A
Other languages
Japanese (ja)
Inventor
Kazuto Masuda
一人 益田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kyocera Corp
Original Assignee
Kyocera Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kyocera Corp filed Critical Kyocera Corp
Priority to JP2011176483A priority Critical patent/JP2013041348A/en
Publication of JP2013041348A publication Critical patent/JP2013041348A/en
Pending legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To improve operability of a touch operation, even when a display becomes invisible by a hand performing the touch operation, since auxiliary display of the invisible part is appropriately performed.SOLUTION: A cellular phone 10 includes a display 30 provided with a touch panel 38, and the like. When a touch operation is performed, a hand and a finger performing the touch operation is photographed and the touch position is acquired. A processor 24 specifies, on the display 30, a shielded area shielded by the hand and the finger performing the touch operation, on the basis of the photographed image and the touch position. Auxiliary information is extracted from the display content of the specified shielded area, and a display area where the auxiliary information can be displayed is determined. The auxiliary information is thus displayed on the display area determined in this way.

Description

この発明は、携帯端末、補助情報表示プログラムおよび補助情報表示方法に関し、特にタッチパネルを有する、携帯端末、補助情報表示プログラムおよび補助情報表示方法に関する。   The present invention relates to a mobile terminal, an auxiliary information display program, and an auxiliary information display method, and more particularly to a mobile terminal, an auxiliary information display program, and an auxiliary information display method having a touch panel.

タッチパネルを有する、携帯端末の一例が特許文献1に開示されている。特許文献1のPDA(Personal Digital Assistant)の上面にはタッチパネルが設けられており、入力装置に仮想キーボードが表示される。また、仮想キーボードにおいて任意のキーにタップされると、任意のキーおよび隣接キーが拡大表示される。
特開2005−182487号公報[G06F 3/033, G06F 3/00, G06F 3/023, H03M 11/04]
An example of a portable terminal having a touch panel is disclosed in Patent Document 1. A touch panel is provided on the upper surface of a PDA (Personal Digital Assistant) of Patent Document 1, and a virtual keyboard is displayed on the input device. Further, when an arbitrary key is tapped on the virtual keyboard, the arbitrary key and the adjacent key are enlarged and displayed.
JP 2005-182487 [G06F 3/033, G06F 3/00, G06F 3/023, H03M 11/04]

ところが、特許文献1のPDAでは、拡大表示したとしてもタップする指やタップする位置によっては、指や手によって表示内容が隠れてしまう。   However, in the PDA of Patent Document 1, even if the display is enlarged, the display content is hidden by the finger or the hand depending on the finger to be tapped or the tapping position.

それゆえに、この発明の主たる目的は、新規な、携帯端末、補助情報表示プログラムおよび補助情報表示方法を提供することである。   Therefore, a main object of the present invention is to provide a novel portable terminal, auxiliary information display program, and auxiliary information display method.

この発明の他の目的は、タッチ操作の操作性をより向上させることができる、携帯端末、補助情報表示プログラムおよび補助情報表示方法を提供することである。   Another object of the present invention is to provide a portable terminal, an auxiliary information display program, and an auxiliary information display method that can further improve the operability of the touch operation.

この発明は、上記の課題を解決するために、以下の構成を採用した。なお、括弧内の参照符号および補足説明等は、この発明の理解を助けるために記述する実施形態との対応関係を示したものであって、この発明を何ら限定するものではない。   The present invention employs the following configuration in order to solve the above problems. The reference numerals in parentheses, supplementary explanations, and the like indicate the corresponding relationship with the embodiments described in order to help understanding of the present invention, and do not limit the present invention.

第1の発明は、タッチパネル、タッチパネルに対するタッチ操作を検出する検出部およびタッチパネルが設けられる表示装置を有する、携帯端末であって、検出部によってタッチ操作が検出されているとき、検出されたタッチ操作によって表示装置が遮蔽されている遮蔽領域を特定する特定部、特定部によって特定された遮蔽領域に基づいて、表示装置の表示内容から補助情報を抽出する抽出部、特定部によって特定された遮蔽領域に基づいて、補助情報を表示する表示領域を決定する決定部、および決定部によって決定された表示領域に、抽出された補助情報を表示する表示部を備える、携帯端末である。   1st invention is a portable terminal which has a display apparatus provided with the touch panel, the detection part which detects the touch operation with respect to a touch panel, and a touch panel, Comprising: Touch operation detected when the touch operation is detected by the detection part The identifying unit that identifies the shielding area in which the display device is shielded by, the extraction unit that extracts auxiliary information from the display content of the display device based on the shielding region identified by the identifying unit, and the shielding region identified by the identifying unit The mobile terminal includes a determination unit that determines a display area for displaying auxiliary information, and a display unit that displays the extracted auxiliary information in the display area determined by the determination unit.

第1の発明では、携帯端末(10:実施例において対応する部分を例示する参照符号。以下、同じ。)では、表示装置(30)にタッチパネルが設けられ、そのタッチパネルに対するタッチ操作は検出部(36)によって検出される。特定部(24,S11−S15)は、タッチパネルに対するタッチ操作が検出されると、たとえばタッチ操作を行う手や指によって表示装置が遮蔽されている遮蔽領域を特定する。抽出部(24,S17)は、たとえば、遮蔽領域に表示される文字列などが、補助情報として抽出される。決定部(24,S21)は、抽出された補助情報の内容と遮蔽領域ではない領域(表示可能領域)とから、表示領域を決定する。表示部(24,S23)は、決定された表示領域に、補助情報を表示する。   In the first invention, in the portable terminal (10: reference numeral exemplifying a corresponding part in the embodiment, the same applies hereinafter), the display device (30) is provided with a touch panel, and a touch operation on the touch panel is detected by a detection unit ( 36). When a touch operation on the touch panel is detected, the specifying unit (24, S11-S15) specifies a shielding area where the display device is shielded by a hand or a finger performing the touch operation, for example. The extraction unit (24, S17) extracts, for example, a character string displayed in the shielding area as auxiliary information. The determination unit (24, S21) determines a display area from the extracted content of the auxiliary information and an area (displayable area) that is not a shielding area. The display unit (24, S23) displays auxiliary information in the determined display area.

第1の発明によれば、タッチ操作によって表示が見えなくなっても、見えない部分が適切に補助表示されるため、タッチ操作の操作性をより向上させることができる。   According to the first invention, even if the display becomes invisible by the touch operation, the invisible part is appropriately auxiliary displayed, so that the operability of the touch operation can be further improved.

第2の発明は、第1の発明に従属し、画像を出力するカメラモジュールをさらに備え、特定部は、カメラモジュールが出力する画像に基づいて、検出されたタッチ操作によって表示装置が遮蔽されている遮蔽領域を特定する。   A second invention is according to the first invention, further comprising a camera module that outputs an image, wherein the specifying unit is configured to shield the display device by the detected touch operation based on the image output by the camera module. Identify the shielded area.

第2の発明では、カメラモジュール(40−44)は、画角が広く設定されているイメージセンサやフォーカスレンズを含む。また、カメラモジュールに通じる開口(OP3)は、タッチ操作を行う指を撮影できるように設けられる。そして、特定部は、出力された画像に基づいて、タッチ操作による遮蔽領域を特定する。   In the second invention, the camera module (40-44) includes an image sensor and a focus lens having a wide angle of view. An opening (OP3) leading to the camera module is provided so that a finger performing a touch operation can be photographed. And a specific part specifies the shielding area | region by touch operation based on the output image.

第2の発明によれば、撮影画像だけで遮蔽領域を特定すれば、遮蔽領域を特定するまでの処理を単純にすることができる。   According to the second invention, if the shielding area is specified only by the captured image, the processing until the shielding area is specified can be simplified.

第3の発明は、第2の発明に従属し、特定部は、検出部によって検出されたタッチ操作およびカメラモジュールが出力する画像に基づいて、検出されたタッチ操作によって表示装置が遮蔽されている遮蔽領域を特定する。   A third invention is dependent on the second invention, and the specifying unit has the display device shielded by the detected touch operation based on the touch operation detected by the detection unit and the image output by the camera module. Identify the occluded area.

第3の発明では、カメラモジュールから出力された画像に基づいてタッチ操作を行う手の左右を判定して、タッチ操作におけるタッチ位置を取得することで、遮蔽領域を特定する。   In the third aspect of the invention, the left and right hands performing the touch operation are determined based on the image output from the camera module, and the touch position in the touch operation is acquired to identify the shielding area.

第3の発明によれば、特定部は、画像とタッチ操作とを利用することで、遮蔽領域を精度よく特定することができる。   According to the third invention, the specifying unit can specify the shielding area with high accuracy by using the image and the touch operation.

第4の発明は、タッチパネル(38)、タッチパネルに対するタッチ操作を検出する検出部(36)およびタッチパネルが設けられる表示装置(30)を有する、携帯端末(10)のプロセッサ(24)を、検出部によってタッチ操作が検出されているとき、検出されたタッチ操作によって表示装置が遮蔽されている遮蔽領域を特定する特定部(S11−S15)、特定部によって特定された遮蔽領域に基づいて、表示装置の表示内容から補助情報を抽出する抽出部(S17)、特定部によって特定された遮蔽領域に基づいて、補助情報を表示する表示領域を決定する決定部(S21)、および決定部によって決定された表示領域に、抽出された補助情報を表示する表示部(S23)として機能させる、補助情報表示プログラムである。   According to a fourth aspect of the present invention, there is provided a processor (24) of a portable terminal (10) having a touch panel (38), a detection unit (36) for detecting a touch operation on the touch panel, and a display device (30) provided with the touch panel. When the touch operation is detected by the identification unit (S11-S15) for identifying the shielding area where the display device is shielded by the detected touch operation, the display device based on the shielding area identified by the identification unit The extraction unit (S17) for extracting auxiliary information from the display content of the display, the determination unit (S21) for determining the display area for displaying auxiliary information based on the shielding area specified by the specifying unit, and the determination unit The auxiliary information display program causes the display area to function as a display unit (S23) that displays the extracted auxiliary information.

第4の発明でも、第1の発明と同様、タッチ操作によって表示が見えなくなっても、見えない部分が適切に補助表示されるため、タッチ操作の操作性をより向上させることができる。   In the fourth invention as well, as in the first invention, even if the display becomes invisible by the touch operation, the invisible part is appropriately auxiliary displayed, so that the operability of the touch operation can be further improved.

第5の発明は、タッチパネル(38)、タッチパネルに対するタッチ操作を検出する検出部(36)およびタッチパネルが設けられる表示装置(30)を有する、携帯端末(10)の補助情報表示方法であって、検出部によってタッチ操作が検出されているとき、検出されたタッチ操作によって表示装置が遮蔽されている遮蔽領域を特定し(S11−S15)、特定された遮蔽領域に基づいて、表示装置の表示内容から補助情報を抽出し(S17)、特定された遮蔽領域に基づいて、補助情報を表示する表示領域を決定し(S21)、そして決定された表示領域に、抽出された補助情報を表示する(S23)、補助情報表示方法である。   5th invention is a supplementary information display method of a portable terminal (10) which has a touchscreen (38), the detection part (36) which detects the touch operation with respect to a touchscreen, and the display apparatus (30) provided with a touchscreen, When a touch operation is detected by the detection unit, a shielding area where the display device is shielded by the detected touch operation is identified (S11-S15), and the display content of the display device is based on the identified shielding area. The auxiliary information is extracted from (S17), the display area for displaying the auxiliary information is determined based on the specified shielding area (S21), and the extracted auxiliary information is displayed in the determined display area (S21). S23) is an auxiliary information display method.

第5の発明でも、第1の発明と同様、タッチ操作によって表示が見えなくなっても、見えない部分が適切に補助表示されるため、タッチ操作の操作性をより向上させることができる。   In the fifth invention as well, similar to the first invention, even if the display becomes invisible by the touch operation, the invisible portion is appropriately auxiliary displayed, so that the operability of the touch operation can be further improved.

この発明によれば、タッチ操作によって表示が見えなくなっても、見えない部分が適切に補助表示されるため、タッチ操作の操作性をより向上させることができる。   According to the present invention, even if the display becomes invisible by the touch operation, the invisible portion is appropriately auxiliary displayed, so that the operability of the touch operation can be further improved.

この発明の上述の目的、その他の目的、特徴および利点は、図面を参照して行う以下の実施例の詳細な説明から一層明らかとなろう。   The above object, other objects, features, and advantages of the present invention will become more apparent from the following detailed description of embodiments with reference to the drawings.

図1はこの発明の一実施例の携帯電話機の電気的な構成を示す図解図である。FIG. 1 is an illustrative view showing an electrical configuration of a mobile phone according to an embodiment of the present invention. 図2は図1に示す携帯電話機の外観の一例を示す図解図である。FIG. 2 is an illustrative view showing one example of an appearance of the mobile phone shown in FIG. 図3は図2に示すディスプレイに設けられる複数の領域の一例を示す図解図である。FIG. 3 is an illustrative view showing one example of a plurality of regions provided in the display shown in FIG. 図4は図3に示す複数の領域に対して行われるタッチ操作の一例を示す図解図である。4 is an illustrative view showing one example of a touch operation performed on a plurality of regions shown in FIG. 図5は図1に示すRAMに記憶されるタッチ操作テーブルの構成の一例を示す図解図である。FIG. 5 is an illustrative view showing one example of a configuration of a touch operation table stored in the RAM shown in FIG. 図6は図3に示す複数の領域に対して行われるタッチ操作の他の一例を示す図解図である。6 is an illustrative view showing another example of a touch operation performed on a plurality of areas shown in FIG. 図7は図1に示すRAMに記憶されるタッチ操作テーブルの構成の他の一例を示す図解図である。FIG. 7 is an illustrative view showing another example of the configuration of the touch operation table stored in the RAM shown in FIG. 図8は図1に示すディスプレイに補助情報が表示される様子の一例を示す図解図である。FIG. 8 is an illustrative view showing one example of how auxiliary information is displayed on the display shown in FIG. 1. 図9は図1に示すディスプレイ表示される補助情報の一例を示す図解図である。FIG. 9 is an illustrative view showing one example of auxiliary information displayed on the display shown in FIG. 図10は図1に示すディスプレイに補助情報が表示される様子の他の一例を示す図解図である。FIG. 10 is an illustrative view showing another example of how auxiliary information is displayed on the display shown in FIG. 図11は図1に示すRAMのメモリマップの一例を示す図解図である。FIG. 11 is an illustrative view showing one example of a memory map of the RAM shown in FIG. 図12は図1に示すプロセッサの補助情報表示処理の一例を示すフロー図である。FIG. 12 is a flowchart showing an example of auxiliary information display processing of the processor shown in FIG.

図1を参照して、本実施例の携帯電話機10は、携帯端末の一種であり、コンピュータまたはCPUと呼ばれるプロセッサ24を含む。また、プロセッサ24には、無線通信回路14、A/D変換器16、D/A変換器20、キー入力装置26、表示ドライバ28、フラッシュメモリ32、RAM34、タッチパネル制御回路36、カメラ制御回路40、照度センサ46および近接センサ48が接続される。無線通信回路14にはアンテナ12が接続され、A/D変換器16にはマイク18が接続され、D/A変換器20にはスピーカ22が接続される。また、表示ドライバ28には、ディスプレイ30が接続される。さらに、タッチパネル制御回路36にはタッチパネル38が接続される。そして、カメラ制御回路40にはイメージセンサ42およびフォーカスレンズ44が接続される。   Referring to FIG. 1, a mobile phone 10 of this embodiment is a kind of mobile terminal, and includes a processor 24 called a computer or CPU. The processor 24 includes a wireless communication circuit 14, an A / D converter 16, a D / A converter 20, a key input device 26, a display driver 28, a flash memory 32, a RAM 34, a touch panel control circuit 36, and a camera control circuit 40. The illuminance sensor 46 and the proximity sensor 48 are connected. An antenna 12 is connected to the wireless communication circuit 14, a microphone 18 is connected to the A / D converter 16, and a speaker 22 is connected to the D / A converter 20. A display 30 is connected to the display driver 28. Further, a touch panel 38 is connected to the touch panel control circuit 36. An image sensor 42 and a focus lens 44 are connected to the camera control circuit 40.

プロセッサ24は携帯電話機10の全体制御を司る。RAM34は、プロセッサ24の作業領域(描画領域を含む)ないしバッファ領域として用いられる。フラッシュメモリ32には、携帯電話機10の文字、画像、音声、音および映像のようなコンテンツのデータが記録される。   The processor 24 manages the overall control of the mobile phone 10. The RAM 34 is used as a work area (including a drawing area) or a buffer area of the processor 24. Content data such as characters, images, sounds, sounds and videos of the mobile phone 10 is recorded in the flash memory 32.

A/D変換器16は、マイク18を通して入力される音声ないし音についてのアナログ音声信号を、デジタル音声信号に変換する。D/A変換器20は、デジタル音声信号をアナログ音声信号に変換(復号)して、図示しないアンプを介してスピーカ22に与える。したがって、アナログ音声信号に対応する音声ないし音がスピーカ22から出力される。なお、プロセッサ24は、アンプの増幅率を制御することで、スピーカ22から出力される音声の音量を調整することができる。   The A / D converter 16 converts an analog audio signal for audio or sound input through the microphone 18 into a digital audio signal. The D / A converter 20 converts (decodes) the digital audio signal into an analog audio signal, and supplies the analog audio signal to the speaker 22 via an amplifier (not shown). Therefore, sound or sound corresponding to the analog sound signal is output from the speaker 22. The processor 24 can adjust the volume of the sound output from the speaker 22 by controlling the amplification factor of the amplifier.

キー入力装置26は、メニューキー、通話キーおよび終話キーなどを含む。そして、使用者が操作したキーの情報(キーデータ)はプロセッサ24に入力される。また、キー入力装置26に含まれる各キーが操作されると、クリック音が鳴る。したがって、使用者は、クリック音を聞くことで、キー操作に対する操作感を得ることができる。   The key input device 26 includes a menu key, a call key, a call end key, and the like. Then, information (key data) on the keys operated by the user is input to the processor 24. Further, when each key included in the key input device 26 is operated, a click sound is generated. Therefore, the user can obtain an operational feeling for the key operation by listening to the click sound.

表示ドライバ28は、プロセッサ24の指示の下、表示装置の一種であるディスプレイ30の表示を制御する。また、表示ドライバ28は表示する画像データを一時的に記憶するビデオメモリ(図示せず)を含む。   The display driver 28 controls display on the display 30 which is a kind of display device under the instruction of the processor 24. The display driver 28 also includes a video memory (not shown) that temporarily stores image data to be displayed.

また、ディスプレイ30には、LEDを光源とするバックライトが設けられている。そして、プロセッサ24は、照度センサ46の出力に基づいて、バックライトを調光する。なお、照度センサ46は、アレイ状に集積されたフォトダイオードなどを含み、携帯電話機10の周囲の照度を検出する。   The display 30 is provided with a backlight using LEDs as light sources. Then, the processor 24 adjusts the backlight based on the output of the illuminance sensor 46. The illuminance sensor 46 includes photodiodes and the like integrated in an array, and detects the illuminance around the mobile phone 10.

タッチパネル38は、指などの物体が表面に接近して生じた電極間の静電容量の変化を検出する静電容量方式で、たとえば1本または複数本の指がタッチパネル38に触れたことを検出する。また、タッチパネル38は、ディスプレイ30の上に設けられ、その画面内で、任意の位置を指示するためのポインティングデバイスである。検出部として機能するタッチパネル制御回路36は、タッチパネル38のタッチ有効範囲内で、押したり、撫でたり、触られたりするタッチ操作を検出し、そのタッチ操作の位置を示す座標のデータをプロセッサ24に出力する。つまり、使用者は、タッチパネル38の表面を指で、押したり、撫でたり、触れたりすることによって、操作の方向や図形などを携帯電話機10に入力することができる。   The touch panel 38 is a capacitance method that detects a change in capacitance between electrodes caused by an object such as a finger approaching the surface. For example, it detects that one or more fingers touch the touch panel 38. To do. The touch panel 38 is provided on the display 30 and is a pointing device for instructing an arbitrary position within the screen. The touch panel control circuit 36 that functions as a detection unit detects a touch operation that is pressed, stroked, or touched within the effective touch range of the touch panel 38, and sends coordinate data indicating the position of the touch operation to the processor 24. Output. That is, the user can input an operation direction, a figure, or the like to the mobile phone 10 by pressing, stroking, or touching the surface of the touch panel 38 with a finger.

ここで、使用者がタッチパネル38の上面を指で触れる操作を「タッチ」と言う。一方、タッチパネル38から指を離す操作を「リリース」と言う。そして、使用者がタッチパネル38の上面をタッチして、続けてリリースする操作を「タッチアンドリリース」と言う。   Here, an operation in which the user touches the upper surface of the touch panel 38 with a finger is referred to as “touch”. On the other hand, an operation of releasing a finger from the touch panel 38 is referred to as “release”. Then, an operation in which the user touches the upper surface of the touch panel 38 and continuously releases is referred to as “touch and release”.

また、タッチパネル38の表面を撫でる操作を「スライド」と言い、タッチした後にスライドし、リリースする操作を「タッチスライド」と言う。さらに、2回連続してタッチアンドリリースを行う操作を「ダブルタップ」と言い、2か所に略同時にタッチする操作を「マルチタッチ」と言う。そして、「タッチ操作」には、上記したタッチ、リリース、タッチアンドリリース、スライド、タッチスライド、ダブルタップおよびマルチタッチなどのタッチパネル38に対して行う操作が含まれる。   Further, an operation of stroking the surface of the touch panel 38 is referred to as “slide”, and an operation of sliding after touching and releasing is referred to as “touch slide”. Furthermore, the operation of performing touch and release twice in succession is referred to as “double tap”, and the operation of touching two locations substantially simultaneously is referred to as “multi-touch”. The “touch operation” includes operations performed on the touch panel 38 such as touch, release, touch and release, slide, touch slide, double tap, and multi-touch.

また、タッチによって示された座標を「タッチ点」(タッチ開始位置)と言い、リリースによって示された座標を「リリース点」(タッチ終了位置)と言う。   The coordinates indicated by the touch are referred to as “touch points” (touch start positions), and the coordinates indicated by the releases are referred to as “release points” (touch end positions).

なお、タッチ操作は指だけに限らず、導電体が先端に取り付けられたタッチペンなどによって行われてもよい。また、タッチパネル38の検出方式には、表面型の静電容量方式が採用されてもよいし、抵抗膜方式、超音波方式、赤外線方式および電磁誘導方式などであってもよい。   Note that the touch operation is not limited to a finger, and may be performed with a touch pen with a conductor attached to the tip. Further, as a detection method of the touch panel 38, a surface-type capacitance method may be employed, or a resistance film method, an ultrasonic method, an infrared method, an electromagnetic induction method, or the like may be used.

カメラ制御回路40は、携帯電話機10で静止画像または動画像を撮影するための回路である。たとえば、キー入力装置26に対してカメラ機能を実行する操作が行われると、プロセッサ24はカメラ機能を実行して、カメラ制御回路40を起動する。なお、カメラ制御回路40、イメージセンサ42およびフォーカスレンズ44は、まとめてカメラモジュールとして機能する。   The camera control circuit 40 is a circuit for taking a still image or a moving image with the mobile phone 10. For example, when an operation for executing a camera function is performed on the key input device 26, the processor 24 executes the camera function and activates the camera control circuit 40. The camera control circuit 40, the image sensor 42, and the focus lens 44 collectively function as a camera module.

イメージセンサ42の撮像エリアには、QVGA(320×240画素)に対応する受光素子が表示されている。そのため、被写体の光学像がイメージセンサ42に照射されると、撮像エリアでは光電変換によって被写体の光学像に対応する電荷、つまりQVGAの生画像信号が生成される。   In the imaging area of the image sensor 42, a light receiving element corresponding to QVGA (320 × 240 pixels) is displayed. For this reason, when the image sensor 42 is irradiated with the optical image of the subject, a charge corresponding to the optical image of the subject, that is, a QVGA raw image signal is generated by photoelectric conversion in the imaging area.

カメラ機能が実行されると、被写体のリアルタイム動画像つまりスルー画像(プレビュー画像)をディスプレイ30に表示するべく、プロセッサ24は、カメラ制御回路40に内蔵されるイメージセンサドライバを起動させ、露光動作および指定された読み出し領域に対応する電荷読み出し動作を、イメージセンサドライバに命令する。   When the camera function is executed, the processor 24 activates an image sensor driver built in the camera control circuit 40 in order to display a real-time moving image of the subject, that is, a through image (preview image) on the display 30, and performs an exposure operation and The image sensor driver is instructed to perform a charge readout operation corresponding to the designated readout region.

イメージセンサドライバは、イメージセンサ42の撮像面の露光と、当該露光によって生成された電荷の読み出しとを実行する。この結果、生画像信号が、イメージセンサ42から出力される。また、出力された生画像信号はカメラ制御回路40に入力され、カメラ制御回路40は入力された生画像信号に対して、色分離、白バランス調整、YUV変換などの処理を施し、YUV形式の画像データを生成する。そして、YUV形式の画像データはプロセッサ24に入力される。   The image sensor driver performs exposure of the imaging surface of the image sensor 42 and reading of the charges generated by the exposure. As a result, a raw image signal is output from the image sensor 42. The output raw image signal is input to the camera control circuit 40. The camera control circuit 40 performs processes such as color separation, white balance adjustment, and YUV conversion on the input raw image signal, and outputs the YUV format. Generate image data. Then, the YUV format image data is input to the processor 24.

また、プロセッサ24に入力されたYUV形式の画像データは、プロセッサ24によってRAM34に格納(一時記憶)される。さらに、格納されたYUV形式の画像データは、プロセッサ24でRGB形式の画像データに変換された後に、RAM34から表示ドライバ28に与えられる。そして、RGB形式の画像データがディスプレイ30に出力される。これによって、被写体を表すQVGAのスルー画像がディスプレイ30に表示される。   The YUV format image data input to the processor 24 is stored (temporarily stored) in the RAM 34 by the processor 24. Further, the stored YUV format image data is converted into RGB format image data by the processor 24, and then supplied from the RAM 34 to the display driver 28. Then, RGB format image data is output to the display 30. As a result, a through image of QVGA representing the subject is displayed on the display 30.

さらに、カメラ制御回路40は生画像信号からフォーカス評価値を算出し、そのフォーカス評価値をプロセッサ24に出力する。プロセッサ24は、カメラ制御回路40から出力されたフォーカス評価値に基づいて、AF(Autofocus)処理を実行する。AF処理が実行されると、カメラ制御回路40はプロセッサ24の指示の下、フォーカスレンズ44のレンズ位置を調整する。その結果、被写体にピントが合わせられたスルー画像がディスプレイ30に表示される。   Further, the camera control circuit 40 calculates a focus evaluation value from the raw image signal and outputs the focus evaluation value to the processor 24. The processor 24 executes AF (Autofocus) processing based on the focus evaluation value output from the camera control circuit 40. When the AF process is executed, the camera control circuit 40 adjusts the lens position of the focus lens 44 under the instruction of the processor 24. As a result, a through image in which the subject is in focus is displayed on the display 30.

ここで、キー入力装置26に対して静止画像の撮影操作が行われると、プロセッサ24は、静止画像の本撮影処理を実行する。つまり、プロセッサ24は、イメージセンサ42から出力されるQVGAの生画像信号に信号処理を施して、RAM34に一旦格納し、フラッシュメモリ32に対する記録処理を実行する。記録処理が実行されると、プロセッサ24を通してRAM34から画像データが読み出される。そして、プロセッサ24は、読み出した画像データにメタ情報を関連付けて、1つの画像ファイルとしてフラッシュメモリ32に保存する。さらに、プロセッサ24は、図示しないスピーカから、本撮影処理が実行されていること通知する音を出力させる。   Here, when a still image shooting operation is performed on the key input device 26, the processor 24 executes a still image main shooting process. That is, the processor 24 performs signal processing on the QVGA raw image signal output from the image sensor 42, temporarily stores it in the RAM 34, and executes recording processing on the flash memory 32. When the recording process is executed, image data is read from the RAM 34 through the processor 24. Then, the processor 24 associates the meta information with the read image data and stores it in the flash memory 32 as one image file. Further, the processor 24 outputs a sound for notifying that the main photographing process is being executed from a speaker (not shown).

なお、メタ情報には、時刻情報、画像サイズおよび携帯電話機10の機種名(型番)などが含まれる。また、携帯電話機10にメモリカードが接続できる場合、画像ファイルはメモリカードに保存されてもよい。また、画像データに関連付けられるメタ情報はExif形式で保存される。   The meta information includes time information, image size, and model name (model number) of the mobile phone 10. When a memory card can be connected to the mobile phone 10, the image file may be stored in the memory card. Also, meta information associated with image data is stored in Exif format.

また、カメラモジュールは、後述するテレビ電話機能が実行されるときにも利用される。そして、テレビ電話機能でカメラモジュールを利用できるように、カメラモジュールに通じる開口OP3(図2参照)は、ディスプレイ30と同じ面に設けられる。そのため、カメラモジュールはインカメラと呼ばれることもある。   The camera module is also used when a videophone function described later is executed. An opening OP3 (see FIG. 2) leading to the camera module is provided on the same surface as the display 30 so that the camera module can be used for the videophone function. Therefore, the camera module is sometimes called an in-camera.

近接センサ48は、図示は省略するが、発光素子である赤外LEDと受光素子であるフォトダイオードとを含む。プロセッサ24は、フォトダイオードの出力の変化から、近接センサ48(当該携帯電話機10)に近接する物体(たとえば、使用者の顔など)の距離を算出する。具体的には、赤外LEDは、赤外線を発光し、フォトダイオードは、顔などで反射した赤外線を受光する。たとえば、フォトダイオードが使用者の顔から遠い場合には、赤外LEDが発光した赤外線はフォトダイオードによって受光されないが、近接センサ48に使用者の顔が近接すると、赤外LEDが発光した赤外線は顔に反射してフォトダイオードによって受光される。このように、フォトダイオードは近接センサ48が使用者の顔に近接している場合とそうでない場合とで赤外線の受光量が変化するため、プロセッサ24は、その受光量に基づいて、近接センサ48から対象までの距離を算出することができる。   Although not shown, the proximity sensor 48 includes an infrared LED as a light emitting element and a photodiode as a light receiving element. The processor 24 calculates the distance of an object (for example, a user's face) close to the proximity sensor 48 (the mobile phone 10) from the change in the output of the photodiode. Specifically, the infrared LED emits infrared rays, and the photodiode receives infrared rays reflected from a face or the like. For example, when the photodiode is far from the user's face, the infrared light emitted by the infrared LED is not received by the photodiode, but when the user's face comes close to the proximity sensor 48, the infrared light emitted by the infrared LED is Reflected on the face and received by the photodiode. As described above, since the amount of received infrared light varies depending on whether the proximity sensor 48 is close to the user's face or not, the processor 24 uses the proximity sensor 48 based on the received light amount. The distance from the object to the object can be calculated.

無線通信回路14は、CDMA方式での無線通信を行うための回路である。たとえば、使用者がキー入力装置26を用いて電話発信(発呼)を指示すると、無線通信回路14は、プロセッサ24の指示の下、電話発信処理を実行し、アンテナ12を介して電話発信信号を出力する。電話発信信号は、基地局および通信網(図示せず)を経て相手の電話機に送信される。そして、相手の電話機において着信処理が行われると、通信可能状態が確立され、プロセッサ24は通話処理を実行する。   The wireless communication circuit 14 is a circuit for performing wireless communication by the CDMA method. For example, when the user instructs a telephone call (calling) using the key input device 26, the wireless communication circuit 14 executes a telephone call process under the instruction of the processor 24, and sends a telephone call signal via the antenna 12. Is output. The telephone call signal is transmitted to the other party's telephone through a base station and a communication network (not shown). Then, when an incoming call process is performed at the other party's telephone, a communicable state is established, and the processor 24 executes a call process.

通常の通話処理について具体的に説明すると、相手の電話機から送られてきた変調音声信号はアンテナ12によって受信される。受信された変調音声信号には、無線通信回路14によって復調処理および復号処理が施される。そして、これらの処理によって得られた受話音声信号は、D/A変換器20によってアナログ音声信号に変換された後、スピーカ22から出力される。一方、マイク18を通して取り込まれた送話音声信号は、A/D変換器16によってデジタル音声信号に変換された後、プロセッサ24に与えられる。デジタル音声信号に変換された送話信号には、プロセッサ24の指示の下、無線通信回路14によって符号化処理および変調処理が施され、アンテナ12を介して出力される。したがって、変調音声信号は、基地局および通信網を介して相手の電話機に送信される。   The normal call processing will be described in detail. The modulated audio signal transmitted from the other party's telephone is received by the antenna 12. The received modulated audio signal is demodulated and decoded by the wireless communication circuit 14. The received voice signal obtained by these processes is converted into an analog voice signal by the D / A converter 20 and then output from the speaker 22. On the other hand, the transmission voice signal captured through the microphone 18 is converted into a digital voice signal by the A / D converter 16 and then given to the processor 24. The transmission signal converted into the digital audio signal is subjected to encoding processing and modulation processing by the wireless communication circuit 14 under the instruction of the processor 24, and is output via the antenna 12. Therefore, the modulated voice signal is transmitted to the other party's telephone through the base station and the communication network.

また、相手の電話機からの電話発信信号がアンテナ12によって受信されると、無線通信回路14は、電話着信(着呼)をプロセッサ24に通知する。これに応じて、プロセッサ24は、表示ドライバ28を制御して、着信通知に記述された発信元情報(電話番号など)をディスプレイ30に表示する。また、これとほぼ同時に、プロセッサ24は、図示しないスピーカから着信音(着信メロディ、着信音声と言うこともある。)を出力させる。   When a telephone call signal from the other party's telephone is received by the antenna 12, the radio communication circuit 14 notifies the processor 24 of an incoming call (incoming call). In response to this, the processor 24 controls the display driver 28 to display caller information (such as a telephone number) described in the incoming call notification on the display 30. At substantially the same time, the processor 24 outputs a ring tone (sometimes called a ringing melody or a ringing voice) from a speaker (not shown).

そして、使用者が通話キーを用いて応答操作を行うと、無線通信回路14は、プロセッサ24の指示の下、電話着信処理を実行する。さらに、通信可能状態が確立され、プロセッサ24は上述した通常の通話処理を実行する。   When the user performs a response operation using the call key, the wireless communication circuit 14 executes a telephone call incoming process under the instruction of the processor 24. Further, the communicable state is established, and the processor 24 executes the normal call process described above.

また、通話可能状態に移行した後に終話キーによって通話終了操作が行われると、プロセッサ24は、無線通信回路14を制御して、通話相手に通話終了信号を送信する。そして、通話終了信号の送信後、プロセッサ24は通話処理を終了する。また、先に通話相手から通話終了信号を受信した場合も、プロセッサ24は通話処理を終了する。さらに、通話相手によらず、移動通信網から通話終了信号を受信した場合も、プロセッサ24は通話処理を終了する。   Further, when a call end operation is performed with the call end key after shifting to the call ready state, the processor 24 controls the wireless communication circuit 14 to transmit a call end signal to the other party. Then, after transmitting the call end signal, the processor 24 ends the call process. The processor 24 also ends the call process when a call end signal is received from the other party first. Furthermore, the processor 24 also ends the call process when a call end signal is received from the mobile communication network regardless of the call partner.

また、本実施例では、ハンズフリー通話を行うこともできる。そして、上述したように、インカメラおよびハンズフリー通話を利用して、テレビ電話機能を実行することもできる。   In this embodiment, a hands-free call can also be performed. As described above, the videophone function can be executed by using the in-camera and the hands-free call.

なお、携帯電話機10は、図示しないネットワークとの通信を確立することで、ブラウザ機能を実行することができる。また、携帯電話機10は、文書を作成および編集するためのメモ帳機能を実行することもできる。さらに、これらの機能では、QWERTY配列の仮想キーボード66(図8(A)参照)を利用して、文字を入力することができる。   Note that the mobile phone 10 can execute the browser function by establishing communication with a network (not shown). The mobile phone 10 can also execute a memo pad function for creating and editing a document. Furthermore, with these functions, characters can be input using the virtual keyboard 66 (see FIG. 8A) having a QWERTY layout.

図2は、携帯電話機10の表面の外観を示す外観図である。図2を参照して、携帯電話機10は、ストレート型の形状をしており、平面矩形の筐体Cを有する。図示しないマイク18は、筐体Cに内蔵され、内蔵されたマイク18に通じる開口OP2は筐体Cの縦方向一方の表面に設けられる。同じく、図示しないスピーカ22は、筐体Cに内蔵され、内蔵されたスピーカ22に通じる開口OP1は、筐体Cの縦方向他方の表面に設けられる。   FIG. 2 is an external view showing the external appearance of the surface of the mobile phone 10. Referring to FIG. 2, the mobile phone 10 has a straight shape and has a flat rectangular casing C. A microphone 18 (not shown) is built in the housing C, and an opening OP2 leading to the built-in microphone 18 is provided on one surface in the longitudinal direction of the housing C. Similarly, the speaker 22 (not shown) is built in the housing C, and the opening OP1 leading to the built-in speaker 22 is provided on the other surface in the longitudinal direction of the housing C.

キー入力装置26に含まれる各キーは筐体Cの表面に設けられる。ディスプレイ30は、表示面(モニタ画面)が筐体Cの表面から見えるように取り付けられる。また、ディスプレイ30の表示面の上にはタッチパネル38が設けられる。   Each key included in the key input device 26 is provided on the surface of the casing C. The display 30 is attached so that the display surface (monitor screen) can be seen from the surface of the housing C. A touch panel 38 is provided on the display surface of the display 30.

さらに、カメラモジュールは筐体Cに内蔵され、内蔵されたカメラモジュールのイメージセンサ42に通じる開口OP3は筐体Cの表面の左上に設けられる。照度センサ44および近接センサ46は、センサ面が露出するように、筐体Cの表面の右上角に設けられる。なお、本実施例では、照度センサ44と近接センサ46とは隣り合うように設けられる。   Further, the camera module is built in the housing C, and the opening OP3 leading to the image sensor 42 of the built-in camera module is provided on the upper left of the surface of the housing C. The illuminance sensor 44 and the proximity sensor 46 are provided at the upper right corner of the surface of the housing C so that the sensor surface is exposed. In the present embodiment, the illuminance sensor 44 and the proximity sensor 46 are provided adjacent to each other.

たとえば、使用者は、ディスプレイ30に表示されたダイヤルキーに対して、タッチ操作を行うことで電話番号を入力し、通話キーによって音声発信操作を行う。そして、使用者は、通話が終了すると、終話キーによって通話終了操作を行う。また、使用者はテレビ電話機能を実行する場合、筐体Cの表面、つまりディスプレイ30および開口OP3を見ながらハンズフリー通話を行う。   For example, the user inputs a telephone number by performing a touch operation on a dial key displayed on the display 30, and performs a voice call operation using the call key. When the user ends the call, the user performs a call end operation using the end call key. Further, when the user performs the videophone function, the user performs a hands-free call while looking at the surface of the housing C, that is, the display 30 and the opening OP3.

また、使用者は、メニューキーを操作することで、ディスプレイ30にメニュー画面を表示する。さらに、使用者は、ディスプレイ30に表示されたソフトキーおよびメニューに対してタッチ操作を行うことで、メニューの選択や確定を行う。   Further, the user operates the menu key to display a menu screen on the display 30. Further, the user performs menu selection and confirmation by touching the soft keys and menus displayed on the display 30.

なお、カメラモジュールは、テレビ電話機能が実行されているときに、使用者の顔が画角に収まるようにするために、筐体Cの中心側(タッチパネル側)に対して画角が広く設定されている。   The camera module has a wide angle of view with respect to the center side (touch panel side) of the housing C so that the user's face is within the angle of view when the videophone function is executed. Has been.

また、アンテナ12、無線通信回路14、A/D16、D/A20、プロセッサ24、表示ドライバ28、フラッシュメモリ32、RAM34、タッチパネル制御回路36、カメラ制御回路40、イメージセンサ42およびフォーカスレンズ44は筐体Cに内蔵されているため、図2では図示されない。   The antenna 12, wireless communication circuit 14, A / D 16, D / A 20, processor 24, display driver 28, flash memory 32, RAM 34, touch panel control circuit 36, camera control circuit 40, image sensor 42, and focus lens 44 are provided in a housing. Since it is built in the body C, it is not shown in FIG.

ここで、本実施例では、タッチ操作がされたときに、タッチ操作によってディスプレイ30の表示が遮蔽される領域(遮蔽領域)を特定し、遮蔽領域に含まれる表示内容(文字列など)が補助情報として抽出される。そして、抽出された補助情報は、遮蔽領域に基づいて決められる表示領域に表示される。以下、具体的な処理を説明する。   Here, in the present embodiment, when a touch operation is performed, an area (shielded area) where the display of the display 30 is shielded by the touch operation is specified, and display contents (such as a character string) included in the shielded area are assisted. Extracted as information. The extracted auxiliary information is displayed in a display area determined based on the shielding area. Specific processing will be described below.

まず、図3を参照して、ディスプレイ30の表示範囲において、左上が第1領域、右上が第2領域、左下が第3領域、右下が第4領域として設定される。そして、本実施例では、これらの領域に対するタッチ操作に基づいて、遮蔽領域を特定し、補助情報を表示する表示領域を決定する。   First, referring to FIG. 3, in the display range of display 30, upper left is set as the first area, upper right is set as the second area, lower left is set as the third area, and lower right is set as the fourth area. In the present embodiment, the shielding area is specified based on the touch operation on these areas, and the display area for displaying the auxiliary information is determined.

次に、タッチ操作がされると、タッチ操作を行った手(左手、右手)と、タッチ操作におけるタッチ点を含む領域とに基づいて遮蔽領域が特定される。そして、本実施例では、タッチ操作を行った手は、パターンマッチング処理および肌色領域の抽出処理を利用して判定される。   Next, when a touch operation is performed, the shielding area is specified based on the hand (left hand, right hand) that performed the touch operation and the area including the touch point in the touch operation. In this embodiment, the hand that has performed the touch operation is determined using pattern matching processing and skin color region extraction processing.

上述したように、カメラモジュールに通じる開口OP3は筐体Cの表面の左上に設けられ、カメラモジュールはタッチパネル側に対して画角が広く設定されている。つまり、タッチ操作を行う指や手はカメラモジュールによって撮影することができる。そのため、左手と右手とをそれぞれ認識可能なパターンマッチング処理を利用することで、タッチ操作を行う右手と左手とを判定することができる。   As described above, the opening OP3 leading to the camera module is provided at the upper left of the surface of the housing C, and the camera module has a wide angle of view with respect to the touch panel side. That is, a finger or hand performing a touch operation can be photographed by the camera module. Therefore, it is possible to determine the right hand and the left hand that perform the touch operation by using the pattern matching process capable of recognizing the left hand and the right hand.

また、開口OP3の取り付け位置が筐体Cの中心からずれているため、タッチパネル38をタッチする指や手は、右手と左手とで画像への写り込み方が異なる。つまり、タッチ操作を行う指を撮影した場合、手や指が写り込む量が異なる。そのため、撮影された画像における肌色領域の大きさ(量)に基づいて、タッチ操作を行う右手と左手とを判定することもできる。   Further, since the attachment position of the opening OP3 is deviated from the center of the housing C, a finger or a hand touching the touch panel 38 is reflected in an image differently between the right hand and the left hand. That is, when a finger performing a touch operation is photographed, the amount of the hand and the finger appearing is different. Therefore, it is also possible to determine the right hand and the left hand that perform the touch operation based on the size (amount) of the skin color area in the photographed image.

そして、本実施例では、パターンマッチング処理の判定結果と、肌色領域の大きさに基づく判定結果を組み合わせて、タッチ操作を行う手を判定する。具体的に、ターンマッチング処理では、左手パターンと一致する割合(一致率)と、右手パターンと一致する割合とをそれぞれ算出する。このとき、一致率の差が閾値以上であれば、一致率に基づいて左右の手が判定される。一方、一致率の差が閾値未満であれば、肌色領域の大きさに基づいて左右の手が判定される。なお、他の実施例では、肌色領域の判定がパターンマッチングの判定よりも優先されてもよい。   In this embodiment, the determination result of the pattern matching process and the determination result based on the size of the skin color area are combined to determine the hand performing the touch operation. Specifically, in the turn matching process, a ratio (matching rate) that matches the left-hand pattern and a ratio that matches the right-hand pattern are calculated. At this time, if the difference between the match rates is equal to or greater than the threshold, the left and right hands are determined based on the match rate. On the other hand, if the difference in the match rate is less than the threshold value, the left and right hands are determined based on the size of the skin color area. In other embodiments, the determination of the skin color area may be given priority over the determination of pattern matching.

次に、タッチ操作を行う手の左右が判定されると、タッチ位置とタッチ操作テーブルとに基づいて、遮蔽領域が特定される。また、タッチ操作テーブルとは、タッチ位置を含む領域に対して、遮蔽領域と表示可能領域とが予め登録されているテーブルである。   Next, when the right and left sides of the hand performing the touch operation are determined, the shielding area is specified based on the touch position and the touch operation table. The touch operation table is a table in which a shielding area and a displayable area are registered in advance for an area including a touch position.

たとえば、図4(A)のように、左手で第1領域にタッチされた場合、図5に示す左手用の第1タッチ操作テーブルに従い、第1領域および第3領域がタッチ操作を行う手によって遮蔽される遮蔽領域として特定され、第2領域および第4領域が補助情報を表示できる表示可能領域として特定される。また、図4(B)のように、左手で第2領域にタッチされた場合、図5の第1タッチ操作テーブルに従い、第2領域、第3領域および第4領域が遮蔽領域として特定され、第1領域が表示可能領域として特定される。また、図4(C)のように、左手で第3領域にタッチされた場合、図5の第1タッチ操作テーブルに従い、第3領域が遮蔽領域として特定され、第1領域、第2領域および第4領域が表示可能領域として特定される。そして、図4(D)のように、左手で第4領域にタッチされた場合、図5の第1タッチ操作テーブルに従い、第3領域および第4領域が遮蔽領域として特定され、第1領域および第2領域が表示可能領域として特定される。   For example, as shown in FIG. 4A, when the first area is touched with the left hand, the first area and the third area are touched by the hand performing the touch operation according to the first touch operation table for the left hand shown in FIG. It is specified as a shielding area to be shielded, and the second area and the fourth area are specified as displayable areas in which auxiliary information can be displayed. Further, as shown in FIG. 4B, when the second area is touched with the left hand, the second area, the third area, and the fourth area are specified as the shielding areas according to the first touch operation table of FIG. The first area is specified as the displayable area. Further, as shown in FIG. 4C, when the third area is touched with the left hand, the third area is specified as the shielding area according to the first touch operation table of FIG. 5, and the first area, the second area, and The fourth area is specified as the displayable area. Then, as shown in FIG. 4D, when the fourth area is touched with the left hand, the third area and the fourth area are specified as the shielding area according to the first touch operation table of FIG. The second area is specified as the displayable area.

一方、図6(A)のように、右手で第1領域にタッチされた場合、図7に示す右手用の第2タッチ操作テーブルに従い、第1領域、第3領域および第4領域が遮蔽領域として特定され、第2領域が表示可能領域として特定される。また、図6(B)のように、右手で第2領域にタッチされた場合、第2タッチ操作テーブルに従い、第2領域および第4領域が遮蔽領域として特定され、第1領域および第3領域が表示可能領域として特定される。また、図6(C)のように、右手で第3領域にタッチされた場合、第3領域および第4領域が遮蔽領域として特定され、第1領域および第2領域が表示可能領域として特定される。そして、図6(D)のように、右手で第4領域にタッチされた場合、第4領域が遮蔽領域として特定され、第1領域、第2領域および第3領域が表示可能領域として特定される。   On the other hand, when the first area is touched with the right hand as shown in FIG. 6A, the first area, the third area, and the fourth area are occluded according to the second touch operation table for the right hand shown in FIG. And the second area is specified as the displayable area. Further, as shown in FIG. 6B, when the second area is touched with the right hand, the second area and the fourth area are specified as the shielding areas according to the second touch operation table, and the first area and the third area are specified. Is specified as a displayable area. Further, as shown in FIG. 6C, when the third area is touched with the right hand, the third area and the fourth area are specified as shielding areas, and the first area and the second area are specified as displayable areas. The Then, as shown in FIG. 6D, when the fourth area is touched with the right hand, the fourth area is specified as a shielding area, and the first area, the second area, and the third area are specified as displayable areas. The

そして、遮蔽領域の表示内容(たとえば、文字列)が補助情報として抽出され、その情報量から表示領域が決められる。たとえば、補助情報が文字列であり、その文字数が1つの表示可能領域に収まるのであれば、特定された表示可能領域のうち、最も番号が小さい表示可能領域が表示領域として決定される。また、文字数が1つの表示可能領域に収まらなければ、特定された表示可能領域のうち、最も番号が小さい表示可能領域とその次に番号が小さい表示可能領域が表示領域として決定される。ただし、2つ以上の表示可能領域が特定されていない場合は、1つの表示可能領域に収まるように、文字の大きさ(フォントサイズ)が変更される。   And the display content (for example, character string) of a shielding area is extracted as auxiliary information, and a display area is determined from the information amount. For example, if the auxiliary information is a character string and the number of characters fits in one displayable area, the displayable area with the smallest number is determined as the display area among the specified displayable areas. If the number of characters does not fit in one displayable area, among the specified displayable areas, the displayable area with the smallest number and the displayable area with the next smallest number are determined as display areas. However, when two or more displayable areas are not specified, the character size (font size) is changed so as to fit in one displayable area.

次に、補助情報の表示について具体例を挙げて説明する。たとえば、ブラウザ機能において、或る検索サイトで検索文字列を入力する場合、ディスプレイ30には仮想キーボードが表示される。図8(A)を参照して、ブラウザ機能が実行された状態のディスプレイ30の表示範囲は、状態表示領域60および機能表示領域62を含む。状態表示領域60には、アンテナ12による電波受信状態を示すアイコン(ピクトと言うこともある。)、二次電池の残電池容量を示すアイコンおよび日時が表示される。   Next, display of auxiliary information will be described with a specific example. For example, in the browser function, when a search character string is input at a certain search site, a virtual keyboard is displayed on the display 30. Referring to FIG. 8A, the display range of display 30 in a state where the browser function is executed includes a state display area 60 and a function display area 62. In the status display area 60, an icon (sometimes referred to as a pictograph) indicating the radio wave reception status by the antenna 12, an icon indicating the remaining battery capacity of the secondary battery, and the date and time are displayed.

また、機能表示領域62は、サーバから得たデータが表示される。さらに、文字入力可能な入力領域に対してタッチ操作がされると、QWERTY配列のソフトキー66を含むソフトキー表示領域64が表示されると共に、現在の入力位置(編集位置)を示すカーソルCUが入力領域に表示される。   The function display area 62 displays data obtained from the server. Further, when a touch operation is performed on an input area where characters can be input, a soft key display area 64 including a soft key 66 having a QWERTY layout is displayed, and a cursor CU indicating a current input position (editing position) is displayed. Displayed in the input area.

この状態で、図8(B)に示すように、第3領域の文字キー(E)が右手でタッチされると、仮想キーボード66を含む第3領域、第4領域が遮蔽領域として特定される。また、仮想キーボード66に含まれる各文字キー対応する文字が補助情報として抽出される。そして、このように抽出された複数の文字(補助情報)は、1つの表示可能領域に収まるため、第1領域が表示領域として決定される。その結果、第1領域には、仮想キーボード66の文字キーを示す文字列が表示される。さらに、図8(B)に示す補助表示において、タッチされている文字キー対応する文字(E)は、強調表示される。   In this state, as shown in FIG. 8B, when the character key (E) in the third area is touched with the right hand, the third area and the fourth area including the virtual keyboard 66 are specified as the shielding area. . In addition, characters corresponding to each character key included in the virtual keyboard 66 are extracted as auxiliary information. Since the plurality of characters (auxiliary information) extracted in this way fit in one displayable area, the first area is determined as the display area. As a result, a character string indicating character keys of the virtual keyboard 66 is displayed in the first area. Further, in the auxiliary display shown in FIG. 8B, the character (E) corresponding to the touched character key is highlighted.

なお、図9に示すように、従来ではタッチ位置によっては、補助表示によって入力中の文字列が隠れてしまうことがあった。ところが、本実施例のように、タッチ位置とは異なる位置に補助表示した場合、表示可能領域に補助情報が表示されるため、入力中の文字列が補助表示によって隠されないようになる。そのため、他の実施例では、補助表示によって入力領域が隠されるかをさらに判定してから、表示領域を決めるようにしてもよい。   As shown in FIG. 9, conventionally, depending on the touch position, the character string being input may be hidden by the auxiliary display. However, when auxiliary display is performed at a position different from the touch position as in the present embodiment, auxiliary information is displayed in the displayable area, so that the character string being input is not hidden by the auxiliary display. Therefore, in another embodiment, the display area may be determined after further determining whether the input area is hidden by the auxiliary display.

また、その他の実施例では、タッチ操作がされた文字キーを示す文字(E)だけが補助表示されてもよい。   In other embodiments, only the character (E) indicating the character key on which the touch operation is performed may be auxiliary displayed.

次に、図10(A)に示すように、メモ帳機能において文書から文字列を検索する場合、ディスプレイ30には、検索対象となる文章(文字列)と、検索する文字列(検索文字)を入力するための入力領域と、検索処理を実行するための検索キーとが表示される。この場合、検索文字(「QWERTY」)を入力した後に、検索キーに対してタッチ操作がされると、文章において該当する文字列が強調表示される。ところが、検索キーに左手でタッチ操作されると、図10(B)に示すように、遮蔽領域(第3領域および第4領域)に含まれる文章が左手で隠されてしまう。そのため、検索結果を含む文字列(文章)が補助情報として抽出される。また、補助情報として抽出された文章は、1つの表示可能領域に収まらないため、第1領域および第2領域が表示領域として決められる。その結果、第1領域および第2領域対して抽出された文章が補助表示される。さらに、補助表示において、検索結果である「QWERTY」の文字列は強調表示される。   Next, as shown in FIG. 10A, when searching for a character string from a document in the memo pad function, the display 30 has a sentence (character string) to be searched and a character string to be searched (searched character). An input area for inputting, and a search key for executing search processing are displayed. In this case, when a search character (“QWERTY”) is input and then the search key is touched, the corresponding character string is highlighted in the sentence. However, when the search key is touched with the left hand, as shown in FIG. 10B, the text included in the shielding area (the third area and the fourth area) is hidden with the left hand. Therefore, a character string (sentence) including the search result is extracted as auxiliary information. Further, since the text extracted as auxiliary information does not fit in one displayable area, the first area and the second area are determined as display areas. As a result, the text extracted for the first area and the second area is auxiliary displayed. Further, in the auxiliary display, the character string “QWERTY” as the search result is highlighted.

このように、タッチ操作によって表示が見えなくなっても、見えない部分が適切に補助表示されるため、タッチ操作の操作性をより向上させることができる。また、本実施例では、撮影された画像とタッチ操作とを利用することで、遮蔽領域を精度よく特定することができる。   Thus, even if the display becomes invisible by the touch operation, the invisible portion is appropriately auxiliary displayed, so that the operability of the touch operation can be further improved. Further, in this embodiment, the shielding area can be specified with high accuracy by using the captured image and the touch operation.

ただし、他の実施例では、カメラモジュールの画角を調整することで、撮影された画像だけで遮蔽領域を特定できるようにしてもよい。この場合、撮影画像だけで遮蔽領域を特定できるため、遮蔽領域を特定するまでの処理を単純にすることができる。   However, in another embodiment, the shielding area may be specified only by the captured image by adjusting the angle of view of the camera module. In this case, since the shielding area can be specified only by the captured image, the process until the shielding area is specified can be simplified.

図11はRAM34のメモリマップを示す図である。RAM34には、プログラム記憶領域302およびデータ記憶領域304が含まれる。また、プログラムおよびデータの一部は、フラッシュメモリ32から一度に全部または必要に応じて部分的かつ順次的に読み出され、RAM34に記憶される。   FIG. 11 is a diagram showing a memory map of the RAM 34. The RAM 34 includes a program storage area 302 and a data storage area 304. A part of the program and data is read from the flash memory 32 all at once or partially and sequentially as necessary and stored in the RAM 34.

プログラム記憶領域302には、携帯電話機10を動作させるためのプログラムが記憶されている。たとえば、携帯電話機10を動作させるためのプログラムは、補助情報表示プログラム310が含まれる。この補助情報表示プログラム310は、タッチ操作による遮蔽領域に応じて、補助情報を表示する位置を決めるためのプログラムである。   The program storage area 302 stores a program for operating the mobile phone 10. For example, a program for operating the mobile phone 10 includes an auxiliary information display program 310. The auxiliary information display program 310 is a program for determining a position for displaying auxiliary information in accordance with a shielding area by a touch operation.

なお、図示は省略するが、携帯電話機10を動作させるためのプログラムには、放送波を探索するためのプログラムなどが含まれる。   Although not shown, the program for operating the mobile phone 10 includes a program for searching for broadcast waves.

続いて、データ記憶領域304には、タッチバッファ330、画像バッファ332、補助情報バッファ334、表示バッファ336および表示座標バッファ338が設けられると共に、タッチ操作テーブルデータ340、タッチ座標マップデータ342、GUIデータ344、テキストデータ346が記憶される。さらに、データ記憶領域304には、タッチフラグ348および左右フラグ350も設けられる。   Subsequently, the data storage area 304 is provided with a touch buffer 330, an image buffer 332, an auxiliary information buffer 334, a display buffer 336, and a display coordinate buffer 338, and touch operation table data 340, touch coordinate map data 342, GUI data. 344 and text data 346 are stored. Further, the data storage area 304 is also provided with a touch flag 348 and a left / right flag 350.

タッチバッファ330には、タッチパネル制御回路36から出力される、タッチ点、タッチ位置、リリース点の座標が一時的に記憶される。画像バッファ332には、カメラモジュールから出力された画像が一時的に記憶される。補助情報バッファ334には、抽出された補助情報が一時的に記憶される。表示バッファ336には、ディスプレイ30に表示される文字列や、画像などが一時的に記憶される。表示座標バッファ338には、表示バッファ336に記憶されている文字列や画像などの表示座標が一時的に記憶される。   The touch buffer 330 temporarily stores the coordinates of the touch point, touch position, and release point output from the touch panel control circuit 36. The image buffer 332 temporarily stores an image output from the camera module. The auxiliary information buffer 334 temporarily stores the extracted auxiliary information. The display buffer 336 temporarily stores character strings and images displayed on the display 30. Display coordinates buffer 338 temporarily stores display coordinates such as character strings and images stored in display buffer 336.

タッチ座標マップデータ340は、タッチ操作におけるタッチ座標と、ディスプレイ30の表示座標とを対応付けるためのデータである。つまり、プロセッサ24は、タッチ座標マップデータ340に基づいて、タッチパネル38に対して行われたタッチ操作の結果を、ディスプレイ30の表示に対応付ける。   The touch coordinate map data 340 is data for associating the touch coordinates in the touch operation with the display coordinates of the display 30. That is, the processor 24 associates the result of the touch operation performed on the touch panel 38 with the display on the display 30 based on the touch coordinate map data 340.

タッチ操作テーブルデータ342は、図5に示す左手用の第1タッチ操作テーブルおよび図7に示す右手用の第2タッチ操作テーブルを含むデータである。GUIデータ344は、たとえば図8(A)に示す仮想キーボード66などのGUIを表示するためのデータである。また、テキストデータ346は、たとえば、図10(A)に示す文章に対応するデータである。そして、仮想キーボード66や文章が表示される場合、GUIデータ344またはテキストデータ346が表示バッファ336に記憶される。   The touch operation table data 342 is data including a first touch operation table for the left hand shown in FIG. 5 and a second touch operation table for the right hand shown in FIG. The GUI data 344 is data for displaying a GUI such as the virtual keyboard 66 shown in FIG. Further, the text data 346 is data corresponding to the text shown in FIG. When the virtual keyboard 66 or text is displayed, GUI data 344 or text data 346 is stored in the display buffer 336.

タッチフラグ348は、タッチパネル38に対してタッチ操作がされているか否かを判断するためのフラグである。たとえば、タッチフラグ348は、1ビットのレジスタで構成される。タッチフラグ348がオン(成立)されると、レジスタにはデータ値「1」が設定される。一方、タッチフラグ348がオフ(不成立)されると、レジスタにはデータ値「0」が設定される。   The touch flag 348 is a flag for determining whether or not a touch operation is performed on the touch panel 38. For example, the touch flag 348 is composed of a 1-bit register. When the touch flag 348 is turned on (established), a data value “1” is set in the register. On the other hand, when the touch flag 348 is turned off (not established), a data value “0” is set in the register.

左右フラグ350は、タッチ操作を行う手が左手であるか、右手であるかを示すフラグである。なお、左右フラグ350は、左手と判定された場合にオンとなり、右手と判定された場合にオフとなる。   The left / right flag 350 is a flag indicating whether the hand performing the touch operation is the left hand or the right hand. The left / right flag 350 is turned on when the left hand is determined, and is turned off when the right hand is determined.

なお、図示は省略するが、データ記憶領域304には、待機状態で表示される画像データや、文字列のデータなどが記憶されると共に、携帯電話機10の動作に必要なカウンタや、フラグも設けられる。   Although not shown, the data storage area 304 stores image data displayed in a standby state, character string data, and the like, and is provided with counters and flags necessary for the operation of the mobile phone 10. It is done.

プロセッサ24は、Android(登録商標)およびREXなどのLinux(登録商標)ベースのOSや、その他のOSの制御下で、図12に示す補助情報表示処理などを含む、複数のタスクを並列的に処理する。   The processor 24 performs a plurality of tasks in parallel under the control of the Linux (registered trademark) such as Android (registered trademark) and REX, and the auxiliary information display processing shown in FIG. 12 under the control of the other OS. Process.

図12は補助情報表示処理のフロー図である。たとえば、携帯電話機10で文書や画像を表示する機能(アプリケーション)が実行されると、補助情報表示処理が実行される。そして、プロセッサ24はステップS1で、タッチされたか否かを判断する。つまり、タッチフラグ348がオンになったかが判断される。ステップS1で“NO”であれば、つまりタッチされていなければ、ステップS3で終了操作か否かを判断する。たとえば、実行中の機能を終了するために、終話キーが操作されたかかが判断される。ステップS3で“YES”であれば、つまり実行中の機能を終了させる操作がされると、補助情報表示処理を終了する。一方、ステップS3で“NO”であれば、つまり終了操作がされていなければ、ステップS1に戻る。   FIG. 12 is a flowchart of the auxiliary information display process. For example, when a function (application) for displaying a document or an image is executed on the mobile phone 10, an auxiliary information display process is executed. Then, in step S1, the processor 24 determines whether or not it has been touched. That is, it is determined whether the touch flag 348 is turned on. If “NO” in the step S1, that is, if it is not touched, it is determined whether or not an end operation is performed in a step S3. For example, it is determined whether or not the end call key has been operated to end the function being executed. If “YES” in the step S3, that is, if an operation for ending the function being executed is performed, the auxiliary information display process is ended. On the other hand, if “NO” in the step S3, that is, if the ending operation is not performed, the process returns to the step S1.

また、ステップS1で“YES”であれば、たとえば使用者がタッチパネルに対してタッチを行えば、ステップS5で画像を撮影する。つまり、カメラモジュールに撮影命令を出す。また、プロセッサ24は、撮影された画像を、画像バッファ332に記憶する。続いて、ステップS7では、画像解析処理を実行する。たとえば、画像バッファ332に記憶される撮影画像に対して、パターンマッチング処理および肌色領域の抽出処理を施す。続いて、ステップS9では、手や指が含まれるか否かを判断する。つまり、パターンマッチングの結果および肌色領域の量から、撮影画像に手が写りこんでいるかが判断される。   If “YES” in the step S1, for example, if the user touches the touch panel, an image is taken in a step S5. That is, a shooting command is issued to the camera module. Further, the processor 24 stores the captured image in the image buffer 332. Subsequently, in step S7, image analysis processing is executed. For example, pattern matching processing and skin color region extraction processing are performed on the captured image stored in the image buffer 332. Subsequently, in step S9, it is determined whether or not a hand or a finger is included. That is, it is determined from the pattern matching result and the amount of the skin color area whether the hand is reflected in the photographed image.

ステップS9で“NO”であれば、たとえばタッチペンなどによってタッチ操作が行われたため、手や指が写っていなければ、ステップS17に進む。また、ステップS9で“YES”であれば、たとえば撮影画像にタッチ操作を行う指などが写っていれば、ステップS11で左右判定処理を行う。つまり、パターンマッチングの結果および肌色領域の量から、撮影画像に写っている手が左手または右手かが判断される。たとえば、パターンマッチングの結果として、左手のパターンとの一致率と右手のパターンとの一致率とにおいて差が閾値上であれば、一致率が高い方の結果が採用される。ただし、その差が閾値未満であれば、肌色領域の量に基づいて左右が判定される。そして、左右の判定結果に基づいて、左右フラグ350のオン/オフが切り替えられる。   If “NO” in the step S9, the touch operation is performed with a touch pen, for example, and if the hand or the finger is not photographed, the process proceeds to the step S17. If “YES” in the step S9, for example, if a finger performing a touch operation is reflected on the photographed image, a left / right determination process is performed in a step S11. That is, it is determined whether the hand in the captured image is the left hand or the right hand from the pattern matching result and the amount of the skin color area. For example, as a result of pattern matching, if the difference between the matching rate with the left hand pattern and the matching rate with the right hand pattern is above a threshold value, the result with the higher matching rate is adopted. However, if the difference is less than the threshold value, right and left are determined based on the amount of the skin color area. Then, on / off of the left / right flag 350 is switched based on the left / right determination result.

続いて、ステップS13では、タッチ位置が取得される。つまりタッチバッファ330からタッチ位置が読み出される。続いて、ステップS15では、遮蔽領域を特定する。たとえば、左右フラグ350がオン(左手)であり、タッチバッファ330から取得されたタッチ位置が第4領域に含まれていれば、タッチ操作テーブルデータ342(ここでは、図5)に基づいて、遮蔽領域が第3領域および第4領域として特定される。なお、ステップS11−S15の処理を実行するプロセッサ24は、特定部として機能する。   Subsequently, in step S13, the touch position is acquired. That is, the touch position is read from the touch buffer 330. Subsequently, in step S15, a shielding area is specified. For example, if the left / right flag 350 is on (left hand) and the touch position acquired from the touch buffer 330 is included in the fourth area, the shielding is performed based on the touch operation table data 342 (here, FIG. 5). Regions are identified as the third region and the fourth region. The processor 24 that executes the processes of steps S11 to S15 functions as a specifying unit.

続いて、ステップS17では、補助情報を抽出する。つまり、表示バッファ336に記憶される文字列や、画像のうち、表示座標バッファ338に基づいて遮蔽領域に含まるデータが、補助情報として読み出される。たとえば、図8(B)のように、遮蔽領域に仮想キーボード66のGUIが含まれていれば、仮想キーボード66に含まれる文字キーを示す文字列が、表示バッファ336から補助情報として抽出される。また、図10(B)のように、遮蔽領域に文章が表示されていれば、表示バッファ336から、その文章に対応する文字列が補助情報として抽出される。そして、抽出された補助情報は補助情報バッファ334に記憶される。ただし、遮蔽領域に文字列や、画像などが表示されていなければ、ステップS17で、補助情報は抽出されない。なお、ステップS17の処理を実行するプロセッサ24は抽出部として機能する。   Subsequently, in step S17, auxiliary information is extracted. That is, of the character string stored in the display buffer 336 and the image, data included in the shielding area based on the display coordinate buffer 338 is read as auxiliary information. For example, as shown in FIG. 8B, if the GUI of the virtual keyboard 66 is included in the shielding area, a character string indicating the character key included in the virtual keyboard 66 is extracted from the display buffer 336 as auxiliary information. . As shown in FIG. 10B, if a sentence is displayed in the shielding area, a character string corresponding to the sentence is extracted from the display buffer 336 as auxiliary information. The extracted auxiliary information is stored in the auxiliary information buffer 334. However, if no character string, image, or the like is displayed in the shielding area, auxiliary information is not extracted in step S17. The processor 24 that executes the process of step S17 functions as an extraction unit.

続いて、ステップS19では、補助情報が抽出されたか否かが判断される。つまり、ステップS17の処理で補助情報が抽出する処理が実行された結果、補助情報バッファ334に補助情報が記憶されたかが判断される。ステップS19で“NO”であれば、つまり補助情報が抽出されていなければ、ステップS1に戻る。一方、ステップS19で“YES”であれば、つまり補助情報が抽出されていれば、ステップS21で表示領域を決定する。つまり、記憶された補助情報を表示するために必要な表示可能領域が判断され、表示領域が決められる。たとえば、図10(B)に示すように、第3領域および第4領域が遮蔽領域として特定され、その遮蔽領域に表示される文章が補助情報として抽出されている場合、第1領域および第2領域が表示領域として決められる。そして、ステップS23では、補助情報を表示して、ステップS1に戻る。つまり、このようにして、決められた表示領域に、補助情報バッファ334に記憶される補助情報が表示される。   Subsequently, in step S19, it is determined whether or not auxiliary information has been extracted. That is, it is determined whether or not auxiliary information is stored in the auxiliary information buffer 334 as a result of executing the process of extracting auxiliary information in the process of step S17. If “NO” in the step S19, that is, if the auxiliary information is not extracted, the process returns to the step S1. On the other hand, if “YES” in the step S19, that is, if auxiliary information is extracted, the display area is determined in a step S21. That is, a displayable area necessary for displaying the stored auxiliary information is determined, and the display area is determined. For example, as shown in FIG. 10B, when the third area and the fourth area are specified as the shielding area and the text displayed in the shielding area is extracted as the auxiliary information, the first area and the second area An area is determined as a display area. In step S23, auxiliary information is displayed, and the process returns to step S1. That is, the auxiliary information stored in the auxiliary information buffer 334 is displayed in the display area thus determined.

なお、ステップS21の処理を実行するプロセッサ24は決定部として機能し、ステップS23の処理を実行するプロセッサ24は表示部として機能する。   The processor 24 that executes the process of step S21 functions as a determination unit, and the processor 24 that executes the process of step S23 functions as a display unit.

また、画像だけで遮蔽領域を特定する場合、補助情報表示処理では、ステップS11,S13の処理が省略される。   Further, when the shielding area is specified only by the image, the processes of steps S11 and S13 are omitted in the auxiliary information display process.

また、表示される補助情報は文字列だけでなく、画像などであってもよい。また、補助情報を表示する際には、拡大したうえで補助表示されてもよい。また、補助情報が表示される機能は、ブラウザ機能およびメモ帳機能だけに限らず、メール機能、アドレス帳機能などの他の機能であってもよい。   Further, the auxiliary information to be displayed may be not only a character string but also an image or the like. Further, when displaying the auxiliary information, the auxiliary information may be enlarged and displayed. The function for displaying the auxiliary information is not limited to the browser function and the memo pad function, but may be other functions such as a mail function and an address book function.

また、他の実施例では、肌色領域の量を抽出しやすくするために、インカメラに通じる開口OP3が筐体Cの右下側や、左下側に設けられてもよい。   In another embodiment, the opening OP3 leading to the in-camera may be provided on the lower right side or the lower left side of the housing C in order to facilitate the extraction of the amount of the skin color area.

また、タッチ操作を行う左右の手の違いによって照度センサ46または近接センサ48の出力結果が異なる場合、タッチ操作を行う手や指の左右判定に、照度センサ46および近接センサ48によるセンシング結果が利用されてもよい。   In addition, when the output result of the illuminance sensor 46 or the proximity sensor 48 varies depending on the difference between the left and right hands performing the touch operation, the sensing results of the illuminance sensor 46 and the proximity sensor 48 are used for the left / right determination of the hand or finger performing the touch operation. May be.

また、その他の実施例では、ディスプレイ30の表示範囲が分けられる数は、図3のように4つに限らず、5つ以上であってもよい。また、手や指によって遮蔽される遮蔽領域を高精度に特定できる場合、遮蔽領域の形状は手や指のような形となってもよい。   In other embodiments, the number of display ranges on the display 30 is not limited to four as shown in FIG. 3, but may be five or more. Moreover, when the shielding area shielded by the hand or the finger can be specified with high accuracy, the shape of the shielding area may be a shape like a hand or a finger.

また、携帯電話機10の通信方式はCDMA方式であるが、LTE(Long Term Evolution)方式、W−CDMA方式、GSM方式、TDMA方式、FDMA方式およびPHS方式などが採用されてもよい。   The communication system of the mobile phone 10 is a CDMA system, but an LTE (Long Term Evolution) system, a W-CDMA system, a GSM system, a TDMA system, an FDMA system, a PHS system, and the like may be employed.

また、本実施例で用いられた複数のプログラムは、データ配信用のサーバのHDDに記憶され、ネットワークを介して携帯電話機10に配信されてもよい。また、CD,DVD,BD(Blu−ray Disc)などの光学ディスク、USBメモリおよびメモリカードなどの記憶媒体に複数のプログラムを記憶させた状態で、その記憶媒体が販売または配布されてもよい。そして、上記したサーバや記憶媒体などを通じてダウンロードされた、複数のプログラムが本実施例と同等の構成の携帯電話機にインストールされた場合、本実施例と同等の効果が得られる。   Further, the plurality of programs used in this embodiment may be stored in the HDD of the data distribution server and distributed to the mobile phone 10 via the network. Further, the storage medium may be sold or distributed in a state where a plurality of programs are stored in a storage medium such as an optical disk such as a CD, DVD, or BD (Blu-ray Disc), a USB memory, or a memory card. When a plurality of programs downloaded through the above-described server or storage medium are installed in a mobile phone having the same configuration as that of this embodiment, the same effect as that of this embodiment can be obtained.

さらに、本実施例は、携帯電話機10のみに限らず、いわゆるスマートフォンや、タブレットPCおよびPDAなどに適用されてもよい。   Further, the present embodiment is not limited to the mobile phone 10 but may be applied to so-called smartphones, tablet PCs, PDAs, and the like.

そして、本明細書中で挙げた、画素などの具体的な数値は、いずれも単なる一例であり、製品の仕様変更などに応じて適宜変更可能である。   The specific numerical values such as pixels mentioned in this specification are merely examples, and can be appropriately changed according to a change in product specifications.

10 … 携帯電話機
12 … アンテナ
14 … 無線通信回路
24 … プロセッサ
26 … キー入力装置
30 … ディスプレイ
34 … RAM
36 … タッチパネル制御回路
38 … タッチパネル
40 … カメラ制御回路
42 … イメージセンサ
44 … フォーカスレンズ
46 … 照度センサ
48 … 近接センサ
DESCRIPTION OF SYMBOLS 10 ... Mobile phone 12 ... Antenna 14 ... Wireless communication circuit 24 ... Processor 26 ... Key input device 30 ... Display 34 ... RAM
36 ... Touch panel control circuit 38 ... Touch panel 40 ... Camera control circuit 42 ... Image sensor 44 ... Focus lens 46 ... Illuminance sensor 48 ... Proximity sensor

Claims (5)

タッチパネル、前記タッチパネルに対するタッチ操作を検出する検出部および前記タッチパネルが設けられる表示装置を有する、携帯端末であって、
前記検出部によってタッチ操作が検出されているとき、検出されたタッチ操作によって前記表示装置が遮蔽されている遮蔽領域を特定する特定部、
前記特定部によって特定された遮蔽領域に基づいて、前記表示装置の表示内容から補助情報を抽出する抽出部、
前記特定部によって特定された遮蔽領域に基づいて、前記補助情報を表示する表示領域を決定する決定部、および
前記前記決定部によって決定された表示領域に、抽出された補助情報を表示する表示部を備える、携帯端末。
A mobile terminal having a touch panel, a detection unit for detecting a touch operation on the touch panel, and a display device provided with the touch panel,
When a touch operation is detected by the detection unit, a specifying unit that specifies a shielding area where the display device is shielded by the detected touch operation;
An extraction unit for extracting auxiliary information from the display content of the display device based on the shielding area specified by the specification unit;
A determining unit that determines a display region for displaying the auxiliary information based on the shielding region specified by the specifying unit, and a display unit that displays the extracted auxiliary information in the display region determined by the determining unit A portable terminal.
画像を出力するカメラモジュールをさらに備え、
前記特定部は、前記カメラモジュールが出力する画像に基づいて、検出されたタッチ操作によって前記表示装置が遮蔽されている遮蔽領域を特定する、請求項1記載の携帯端末。
A camera module for outputting images;
The mobile terminal according to claim 1, wherein the specifying unit specifies a shielding area where the display device is shielded by a detected touch operation based on an image output from the camera module.
前記特定部は、前記検出部によって検出されたタッチ操作および前記カメラモジュールが出力する画像に基づいて、検出されたタッチ操作によって前記表示装置が遮蔽されている遮蔽領域を特定する、請求項2記載の携帯端末。   The said specific | specification part specifies the shielding area | region where the said display apparatus is shielded by the detected touch operation based on the touch operation detected by the said detection part, and the image which the said camera module outputs. Mobile devices. タッチパネル、前記タッチパネルに対するタッチ操作を検出する検出部および前記タッチパネルが設けられる表示装置を有する、携帯端末のプロセッサを、
前記検出部によってタッチ操作が検出されているとき、検出されたタッチ操作によって前記表示装置が遮蔽されている遮蔽領域を特定する特定部、
前記特定部によって特定された遮蔽領域に基づいて、前記表示装置の表示内容から補助情報を抽出する抽出部、
前記特定部によって特定された遮蔽領域に基づいて、前記補助情報を表示する表示領域を決定する決定部、および
前記前記決定部によって決定された表示領域に、抽出された補助情報を表示する表示部として機能させる、補助情報表示プログラム。
A processor of a portable terminal having a touch panel, a detection unit that detects a touch operation on the touch panel, and a display device provided with the touch panel.
When a touch operation is detected by the detection unit, a specifying unit that specifies a shielding area where the display device is shielded by the detected touch operation;
An extraction unit for extracting auxiliary information from the display content of the display device based on the shielding area specified by the specification unit;
A determining unit that determines a display region for displaying the auxiliary information based on the shielding region specified by the specifying unit, and a display unit that displays the extracted auxiliary information in the display region determined by the determining unit An auxiliary information display program that functions as
タッチパネル、前記タッチパネルに対するタッチ操作を検出する検出部および前記タッチパネルが設けられる表示装置を有する、携帯端末の補助情報表示方法であって、
前記検出部によってタッチ操作が検出されているとき、検出されたタッチ操作によって前記表示装置が遮蔽されている遮蔽領域を特定し、
特定された遮蔽領域に基づいて、前記表示装置の表示内容から補助情報を抽出し、
特定された遮蔽領域に基づいて、前記補助情報を表示する表示領域を決定し、そして
決定された表示領域に、抽出された補助情報を表示する、補助情報表示方法。
An auxiliary information display method for a mobile terminal, comprising: a touch panel, a detection unit that detects a touch operation on the touch panel, and a display device provided with the touch panel.
When a touch operation is detected by the detection unit, a shielding area where the display device is shielded by the detected touch operation is specified,
Extracting auxiliary information from the display content of the display device based on the identified shielding area,
An auxiliary information display method for determining a display area for displaying the auxiliary information based on the identified shielding area, and displaying the extracted auxiliary information in the determined display area.
JP2011176483A 2011-08-12 2011-08-12 Portable terminal, auxiliary information display program, and auxiliary information display method Pending JP2013041348A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011176483A JP2013041348A (en) 2011-08-12 2011-08-12 Portable terminal, auxiliary information display program, and auxiliary information display method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011176483A JP2013041348A (en) 2011-08-12 2011-08-12 Portable terminal, auxiliary information display program, and auxiliary information display method

Publications (1)

Publication Number Publication Date
JP2013041348A true JP2013041348A (en) 2013-02-28

Family

ID=47889711

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011176483A Pending JP2013041348A (en) 2011-08-12 2011-08-12 Portable terminal, auxiliary information display program, and auxiliary information display method

Country Status (1)

Country Link
JP (1) JP2013041348A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016024657A (en) * 2014-07-22 2016-02-08 日本電信電話株式会社 Mobile terminal with multi touch screen and operation method thereof
JP2017054378A (en) * 2015-09-10 2017-03-16 レノボ・シンガポール・プライベート・リミテッド Information processing apparatus, display method thereof, and computer-executable program

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006520024A (en) * 2002-11-29 2006-08-31 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ User interface using moved representation of contact area
JP2009169452A (en) * 2008-01-10 2009-07-30 Panasonic Corp Display controller, electronic apparatus, display control method, and program
JP2009276926A (en) * 2008-05-13 2009-11-26 Ntt Docomo Inc Information processor and display information editing method thereof
WO2010038822A1 (en) * 2008-10-01 2010-04-08 株式会社ソニー・コンピュータエンタテインメント Information processing apparatus, information processing method, information recording medium, and program
JP2010181940A (en) * 2009-02-03 2010-08-19 Zenrin Datacom Co Ltd Apparatus and method for processing image
JP2010287032A (en) * 2009-06-11 2010-12-24 Mitsubishi Electric Corp Input device
WO2011004612A1 (en) * 2009-07-10 2011-01-13 パナソニック株式会社 Marker display control device, integrated circuit, and marker display control method
JP2011134111A (en) * 2009-12-24 2011-07-07 Sony Corp Touch panel device, touch panel control method, program, and storage medium
JP2012048359A (en) * 2010-08-25 2012-03-08 Sony Corp Information processing device, information processing method, and program

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006520024A (en) * 2002-11-29 2006-08-31 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ User interface using moved representation of contact area
JP2009169452A (en) * 2008-01-10 2009-07-30 Panasonic Corp Display controller, electronic apparatus, display control method, and program
JP2009276926A (en) * 2008-05-13 2009-11-26 Ntt Docomo Inc Information processor and display information editing method thereof
WO2010038822A1 (en) * 2008-10-01 2010-04-08 株式会社ソニー・コンピュータエンタテインメント Information processing apparatus, information processing method, information recording medium, and program
JP2010181940A (en) * 2009-02-03 2010-08-19 Zenrin Datacom Co Ltd Apparatus and method for processing image
JP2010287032A (en) * 2009-06-11 2010-12-24 Mitsubishi Electric Corp Input device
WO2011004612A1 (en) * 2009-07-10 2011-01-13 パナソニック株式会社 Marker display control device, integrated circuit, and marker display control method
JP2011134111A (en) * 2009-12-24 2011-07-07 Sony Corp Touch panel device, touch panel control method, program, and storage medium
JP2012048359A (en) * 2010-08-25 2012-03-08 Sony Corp Information processing device, information processing method, and program

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016024657A (en) * 2014-07-22 2016-02-08 日本電信電話株式会社 Mobile terminal with multi touch screen and operation method thereof
JP2017054378A (en) * 2015-09-10 2017-03-16 レノボ・シンガポール・プライベート・リミテッド Information processing apparatus, display method thereof, and computer-executable program

Similar Documents

Publication Publication Date Title
US20220035995A1 (en) Comment Addition Method and Electronic Device
WO2014208665A1 (en) Portable telephone device, portable terminal, and voice operation method
JP5848932B2 (en) Mobile terminal, folder management program, and folder management method
JP5743679B2 (en) Portable terminal, invalid area setting program, and invalid area setting method
JP5743847B2 (en) Mobile terminal and low sensitivity area setting program
US20150301595A1 (en) Electronic apparatus and eye-gaze input method
CN111371949A (en) Application program switching method and device, storage medium and touch terminal
JP2010147527A (en) Communication terminal, and program for identifying information transmission source
KR20140003875A (en) Method and apparatus for processing multiple inputs
CN109068008B (en) Ringtone setting method, device, terminal and storage medium
WO2020159299A1 (en) Electronic device and method for mapping function of electronic device to operation of stylus pen
WO2014188990A1 (en) Portable terminal and display control method
JP6403368B2 (en) Mobile terminal, image search program, and image search method
CN111147660B (en) Control operation method and electronic equipment
KR102187236B1 (en) Preview method of picture taken in camera and electronic device implementing the same
CN110806831A (en) Touch screen response method and electronic equipment
CN112578981A (en) Control method of electronic equipment with flexible screen and electronic equipment
KR102038424B1 (en) Method for providing contents title based on context awareness and device thereof
JP2013041348A (en) Portable terminal, auxiliary information display program, and auxiliary information display method
CN111666076A (en) Layer adding method, device, terminal and storage medium
JP5973619B2 (en) Portable terminal, invalid area setting program, and invalid area setting method
CN112230910B (en) Page generation method, device and equipment of embedded program and storage medium
CN114282494A (en) Information display method and device, electronic equipment and storage medium
WO2017161550A1 (en) Character input method, apparatus, and terminal
JP6010376B2 (en) Electronic device, selection program and method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140210

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20141022

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20141111

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150107

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20150217