JP2013041348A - Portable terminal, auxiliary information display program, and auxiliary information display method - Google Patents
Portable terminal, auxiliary information display program, and auxiliary information display method Download PDFInfo
- Publication number
- JP2013041348A JP2013041348A JP2011176483A JP2011176483A JP2013041348A JP 2013041348 A JP2013041348 A JP 2013041348A JP 2011176483 A JP2011176483 A JP 2011176483A JP 2011176483 A JP2011176483 A JP 2011176483A JP 2013041348 A JP2013041348 A JP 2013041348A
- Authority
- JP
- Japan
- Prior art keywords
- display
- auxiliary information
- area
- touch operation
- touch
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
Description
この発明は、携帯端末、補助情報表示プログラムおよび補助情報表示方法に関し、特にタッチパネルを有する、携帯端末、補助情報表示プログラムおよび補助情報表示方法に関する。 The present invention relates to a mobile terminal, an auxiliary information display program, and an auxiliary information display method, and more particularly to a mobile terminal, an auxiliary information display program, and an auxiliary information display method having a touch panel.
タッチパネルを有する、携帯端末の一例が特許文献1に開示されている。特許文献1のPDA(Personal Digital Assistant)の上面にはタッチパネルが設けられており、入力装置に仮想キーボードが表示される。また、仮想キーボードにおいて任意のキーにタップされると、任意のキーおよび隣接キーが拡大表示される。
ところが、特許文献1のPDAでは、拡大表示したとしてもタップする指やタップする位置によっては、指や手によって表示内容が隠れてしまう。
However, in the PDA of
それゆえに、この発明の主たる目的は、新規な、携帯端末、補助情報表示プログラムおよび補助情報表示方法を提供することである。 Therefore, a main object of the present invention is to provide a novel portable terminal, auxiliary information display program, and auxiliary information display method.
この発明の他の目的は、タッチ操作の操作性をより向上させることができる、携帯端末、補助情報表示プログラムおよび補助情報表示方法を提供することである。 Another object of the present invention is to provide a portable terminal, an auxiliary information display program, and an auxiliary information display method that can further improve the operability of the touch operation.
この発明は、上記の課題を解決するために、以下の構成を採用した。なお、括弧内の参照符号および補足説明等は、この発明の理解を助けるために記述する実施形態との対応関係を示したものであって、この発明を何ら限定するものではない。 The present invention employs the following configuration in order to solve the above problems. The reference numerals in parentheses, supplementary explanations, and the like indicate the corresponding relationship with the embodiments described in order to help understanding of the present invention, and do not limit the present invention.
第1の発明は、タッチパネル、タッチパネルに対するタッチ操作を検出する検出部およびタッチパネルが設けられる表示装置を有する、携帯端末であって、検出部によってタッチ操作が検出されているとき、検出されたタッチ操作によって表示装置が遮蔽されている遮蔽領域を特定する特定部、特定部によって特定された遮蔽領域に基づいて、表示装置の表示内容から補助情報を抽出する抽出部、特定部によって特定された遮蔽領域に基づいて、補助情報を表示する表示領域を決定する決定部、および決定部によって決定された表示領域に、抽出された補助情報を表示する表示部を備える、携帯端末である。 1st invention is a portable terminal which has a display apparatus provided with the touch panel, the detection part which detects the touch operation with respect to a touch panel, and a touch panel, Comprising: Touch operation detected when the touch operation is detected by the detection part The identifying unit that identifies the shielding area in which the display device is shielded by, the extraction unit that extracts auxiliary information from the display content of the display device based on the shielding region identified by the identifying unit, and the shielding region identified by the identifying unit The mobile terminal includes a determination unit that determines a display area for displaying auxiliary information, and a display unit that displays the extracted auxiliary information in the display area determined by the determination unit.
第1の発明では、携帯端末(10:実施例において対応する部分を例示する参照符号。以下、同じ。)では、表示装置(30)にタッチパネルが設けられ、そのタッチパネルに対するタッチ操作は検出部(36)によって検出される。特定部(24,S11−S15)は、タッチパネルに対するタッチ操作が検出されると、たとえばタッチ操作を行う手や指によって表示装置が遮蔽されている遮蔽領域を特定する。抽出部(24,S17)は、たとえば、遮蔽領域に表示される文字列などが、補助情報として抽出される。決定部(24,S21)は、抽出された補助情報の内容と遮蔽領域ではない領域(表示可能領域)とから、表示領域を決定する。表示部(24,S23)は、決定された表示領域に、補助情報を表示する。 In the first invention, in the portable terminal (10: reference numeral exemplifying a corresponding part in the embodiment, the same applies hereinafter), the display device (30) is provided with a touch panel, and a touch operation on the touch panel is detected by a detection unit ( 36). When a touch operation on the touch panel is detected, the specifying unit (24, S11-S15) specifies a shielding area where the display device is shielded by a hand or a finger performing the touch operation, for example. The extraction unit (24, S17) extracts, for example, a character string displayed in the shielding area as auxiliary information. The determination unit (24, S21) determines a display area from the extracted content of the auxiliary information and an area (displayable area) that is not a shielding area. The display unit (24, S23) displays auxiliary information in the determined display area.
第1の発明によれば、タッチ操作によって表示が見えなくなっても、見えない部分が適切に補助表示されるため、タッチ操作の操作性をより向上させることができる。 According to the first invention, even if the display becomes invisible by the touch operation, the invisible part is appropriately auxiliary displayed, so that the operability of the touch operation can be further improved.
第2の発明は、第1の発明に従属し、画像を出力するカメラモジュールをさらに備え、特定部は、カメラモジュールが出力する画像に基づいて、検出されたタッチ操作によって表示装置が遮蔽されている遮蔽領域を特定する。 A second invention is according to the first invention, further comprising a camera module that outputs an image, wherein the specifying unit is configured to shield the display device by the detected touch operation based on the image output by the camera module. Identify the shielded area.
第2の発明では、カメラモジュール(40−44)は、画角が広く設定されているイメージセンサやフォーカスレンズを含む。また、カメラモジュールに通じる開口(OP3)は、タッチ操作を行う指を撮影できるように設けられる。そして、特定部は、出力された画像に基づいて、タッチ操作による遮蔽領域を特定する。 In the second invention, the camera module (40-44) includes an image sensor and a focus lens having a wide angle of view. An opening (OP3) leading to the camera module is provided so that a finger performing a touch operation can be photographed. And a specific part specifies the shielding area | region by touch operation based on the output image.
第2の発明によれば、撮影画像だけで遮蔽領域を特定すれば、遮蔽領域を特定するまでの処理を単純にすることができる。 According to the second invention, if the shielding area is specified only by the captured image, the processing until the shielding area is specified can be simplified.
第3の発明は、第2の発明に従属し、特定部は、検出部によって検出されたタッチ操作およびカメラモジュールが出力する画像に基づいて、検出されたタッチ操作によって表示装置が遮蔽されている遮蔽領域を特定する。 A third invention is dependent on the second invention, and the specifying unit has the display device shielded by the detected touch operation based on the touch operation detected by the detection unit and the image output by the camera module. Identify the occluded area.
第3の発明では、カメラモジュールから出力された画像に基づいてタッチ操作を行う手の左右を判定して、タッチ操作におけるタッチ位置を取得することで、遮蔽領域を特定する。 In the third aspect of the invention, the left and right hands performing the touch operation are determined based on the image output from the camera module, and the touch position in the touch operation is acquired to identify the shielding area.
第3の発明によれば、特定部は、画像とタッチ操作とを利用することで、遮蔽領域を精度よく特定することができる。 According to the third invention, the specifying unit can specify the shielding area with high accuracy by using the image and the touch operation.
第4の発明は、タッチパネル(38)、タッチパネルに対するタッチ操作を検出する検出部(36)およびタッチパネルが設けられる表示装置(30)を有する、携帯端末(10)のプロセッサ(24)を、検出部によってタッチ操作が検出されているとき、検出されたタッチ操作によって表示装置が遮蔽されている遮蔽領域を特定する特定部(S11−S15)、特定部によって特定された遮蔽領域に基づいて、表示装置の表示内容から補助情報を抽出する抽出部(S17)、特定部によって特定された遮蔽領域に基づいて、補助情報を表示する表示領域を決定する決定部(S21)、および決定部によって決定された表示領域に、抽出された補助情報を表示する表示部(S23)として機能させる、補助情報表示プログラムである。 According to a fourth aspect of the present invention, there is provided a processor (24) of a portable terminal (10) having a touch panel (38), a detection unit (36) for detecting a touch operation on the touch panel, and a display device (30) provided with the touch panel. When the touch operation is detected by the identification unit (S11-S15) for identifying the shielding area where the display device is shielded by the detected touch operation, the display device based on the shielding area identified by the identification unit The extraction unit (S17) for extracting auxiliary information from the display content of the display, the determination unit (S21) for determining the display area for displaying auxiliary information based on the shielding area specified by the specifying unit, and the determination unit The auxiliary information display program causes the display area to function as a display unit (S23) that displays the extracted auxiliary information.
第4の発明でも、第1の発明と同様、タッチ操作によって表示が見えなくなっても、見えない部分が適切に補助表示されるため、タッチ操作の操作性をより向上させることができる。 In the fourth invention as well, as in the first invention, even if the display becomes invisible by the touch operation, the invisible part is appropriately auxiliary displayed, so that the operability of the touch operation can be further improved.
第5の発明は、タッチパネル(38)、タッチパネルに対するタッチ操作を検出する検出部(36)およびタッチパネルが設けられる表示装置(30)を有する、携帯端末(10)の補助情報表示方法であって、検出部によってタッチ操作が検出されているとき、検出されたタッチ操作によって表示装置が遮蔽されている遮蔽領域を特定し(S11−S15)、特定された遮蔽領域に基づいて、表示装置の表示内容から補助情報を抽出し(S17)、特定された遮蔽領域に基づいて、補助情報を表示する表示領域を決定し(S21)、そして決定された表示領域に、抽出された補助情報を表示する(S23)、補助情報表示方法である。 5th invention is a supplementary information display method of a portable terminal (10) which has a touchscreen (38), the detection part (36) which detects the touch operation with respect to a touchscreen, and the display apparatus (30) provided with a touchscreen, When a touch operation is detected by the detection unit, a shielding area where the display device is shielded by the detected touch operation is identified (S11-S15), and the display content of the display device is based on the identified shielding area. The auxiliary information is extracted from (S17), the display area for displaying the auxiliary information is determined based on the specified shielding area (S21), and the extracted auxiliary information is displayed in the determined display area (S21). S23) is an auxiliary information display method.
第5の発明でも、第1の発明と同様、タッチ操作によって表示が見えなくなっても、見えない部分が適切に補助表示されるため、タッチ操作の操作性をより向上させることができる。 In the fifth invention as well, similar to the first invention, even if the display becomes invisible by the touch operation, the invisible portion is appropriately auxiliary displayed, so that the operability of the touch operation can be further improved.
この発明によれば、タッチ操作によって表示が見えなくなっても、見えない部分が適切に補助表示されるため、タッチ操作の操作性をより向上させることができる。 According to the present invention, even if the display becomes invisible by the touch operation, the invisible portion is appropriately auxiliary displayed, so that the operability of the touch operation can be further improved.
この発明の上述の目的、その他の目的、特徴および利点は、図面を参照して行う以下の実施例の詳細な説明から一層明らかとなろう。 The above object, other objects, features, and advantages of the present invention will become more apparent from the following detailed description of embodiments with reference to the drawings.
図1を参照して、本実施例の携帯電話機10は、携帯端末の一種であり、コンピュータまたはCPUと呼ばれるプロセッサ24を含む。また、プロセッサ24には、無線通信回路14、A/D変換器16、D/A変換器20、キー入力装置26、表示ドライバ28、フラッシュメモリ32、RAM34、タッチパネル制御回路36、カメラ制御回路40、照度センサ46および近接センサ48が接続される。無線通信回路14にはアンテナ12が接続され、A/D変換器16にはマイク18が接続され、D/A変換器20にはスピーカ22が接続される。また、表示ドライバ28には、ディスプレイ30が接続される。さらに、タッチパネル制御回路36にはタッチパネル38が接続される。そして、カメラ制御回路40にはイメージセンサ42およびフォーカスレンズ44が接続される。
Referring to FIG. 1, a
プロセッサ24は携帯電話機10の全体制御を司る。RAM34は、プロセッサ24の作業領域(描画領域を含む)ないしバッファ領域として用いられる。フラッシュメモリ32には、携帯電話機10の文字、画像、音声、音および映像のようなコンテンツのデータが記録される。
The
A/D変換器16は、マイク18を通して入力される音声ないし音についてのアナログ音声信号を、デジタル音声信号に変換する。D/A変換器20は、デジタル音声信号をアナログ音声信号に変換(復号)して、図示しないアンプを介してスピーカ22に与える。したがって、アナログ音声信号に対応する音声ないし音がスピーカ22から出力される。なお、プロセッサ24は、アンプの増幅率を制御することで、スピーカ22から出力される音声の音量を調整することができる。
The A /
キー入力装置26は、メニューキー、通話キーおよび終話キーなどを含む。そして、使用者が操作したキーの情報(キーデータ)はプロセッサ24に入力される。また、キー入力装置26に含まれる各キーが操作されると、クリック音が鳴る。したがって、使用者は、クリック音を聞くことで、キー操作に対する操作感を得ることができる。
The
表示ドライバ28は、プロセッサ24の指示の下、表示装置の一種であるディスプレイ30の表示を制御する。また、表示ドライバ28は表示する画像データを一時的に記憶するビデオメモリ(図示せず)を含む。
The
また、ディスプレイ30には、LEDを光源とするバックライトが設けられている。そして、プロセッサ24は、照度センサ46の出力に基づいて、バックライトを調光する。なお、照度センサ46は、アレイ状に集積されたフォトダイオードなどを含み、携帯電話機10の周囲の照度を検出する。
The
タッチパネル38は、指などの物体が表面に接近して生じた電極間の静電容量の変化を検出する静電容量方式で、たとえば1本または複数本の指がタッチパネル38に触れたことを検出する。また、タッチパネル38は、ディスプレイ30の上に設けられ、その画面内で、任意の位置を指示するためのポインティングデバイスである。検出部として機能するタッチパネル制御回路36は、タッチパネル38のタッチ有効範囲内で、押したり、撫でたり、触られたりするタッチ操作を検出し、そのタッチ操作の位置を示す座標のデータをプロセッサ24に出力する。つまり、使用者は、タッチパネル38の表面を指で、押したり、撫でたり、触れたりすることによって、操作の方向や図形などを携帯電話機10に入力することができる。
The
ここで、使用者がタッチパネル38の上面を指で触れる操作を「タッチ」と言う。一方、タッチパネル38から指を離す操作を「リリース」と言う。そして、使用者がタッチパネル38の上面をタッチして、続けてリリースする操作を「タッチアンドリリース」と言う。
Here, an operation in which the user touches the upper surface of the
また、タッチパネル38の表面を撫でる操作を「スライド」と言い、タッチした後にスライドし、リリースする操作を「タッチスライド」と言う。さらに、2回連続してタッチアンドリリースを行う操作を「ダブルタップ」と言い、2か所に略同時にタッチする操作を「マルチタッチ」と言う。そして、「タッチ操作」には、上記したタッチ、リリース、タッチアンドリリース、スライド、タッチスライド、ダブルタップおよびマルチタッチなどのタッチパネル38に対して行う操作が含まれる。
Further, an operation of stroking the surface of the
また、タッチによって示された座標を「タッチ点」(タッチ開始位置)と言い、リリースによって示された座標を「リリース点」(タッチ終了位置)と言う。 The coordinates indicated by the touch are referred to as “touch points” (touch start positions), and the coordinates indicated by the releases are referred to as “release points” (touch end positions).
なお、タッチ操作は指だけに限らず、導電体が先端に取り付けられたタッチペンなどによって行われてもよい。また、タッチパネル38の検出方式には、表面型の静電容量方式が採用されてもよいし、抵抗膜方式、超音波方式、赤外線方式および電磁誘導方式などであってもよい。
Note that the touch operation is not limited to a finger, and may be performed with a touch pen with a conductor attached to the tip. Further, as a detection method of the
カメラ制御回路40は、携帯電話機10で静止画像または動画像を撮影するための回路である。たとえば、キー入力装置26に対してカメラ機能を実行する操作が行われると、プロセッサ24はカメラ機能を実行して、カメラ制御回路40を起動する。なお、カメラ制御回路40、イメージセンサ42およびフォーカスレンズ44は、まとめてカメラモジュールとして機能する。
The
イメージセンサ42の撮像エリアには、QVGA(320×240画素)に対応する受光素子が表示されている。そのため、被写体の光学像がイメージセンサ42に照射されると、撮像エリアでは光電変換によって被写体の光学像に対応する電荷、つまりQVGAの生画像信号が生成される。
In the imaging area of the
カメラ機能が実行されると、被写体のリアルタイム動画像つまりスルー画像(プレビュー画像)をディスプレイ30に表示するべく、プロセッサ24は、カメラ制御回路40に内蔵されるイメージセンサドライバを起動させ、露光動作および指定された読み出し領域に対応する電荷読み出し動作を、イメージセンサドライバに命令する。
When the camera function is executed, the
イメージセンサドライバは、イメージセンサ42の撮像面の露光と、当該露光によって生成された電荷の読み出しとを実行する。この結果、生画像信号が、イメージセンサ42から出力される。また、出力された生画像信号はカメラ制御回路40に入力され、カメラ制御回路40は入力された生画像信号に対して、色分離、白バランス調整、YUV変換などの処理を施し、YUV形式の画像データを生成する。そして、YUV形式の画像データはプロセッサ24に入力される。
The image sensor driver performs exposure of the imaging surface of the
また、プロセッサ24に入力されたYUV形式の画像データは、プロセッサ24によってRAM34に格納(一時記憶)される。さらに、格納されたYUV形式の画像データは、プロセッサ24でRGB形式の画像データに変換された後に、RAM34から表示ドライバ28に与えられる。そして、RGB形式の画像データがディスプレイ30に出力される。これによって、被写体を表すQVGAのスルー画像がディスプレイ30に表示される。
The YUV format image data input to the
さらに、カメラ制御回路40は生画像信号からフォーカス評価値を算出し、そのフォーカス評価値をプロセッサ24に出力する。プロセッサ24は、カメラ制御回路40から出力されたフォーカス評価値に基づいて、AF(Autofocus)処理を実行する。AF処理が実行されると、カメラ制御回路40はプロセッサ24の指示の下、フォーカスレンズ44のレンズ位置を調整する。その結果、被写体にピントが合わせられたスルー画像がディスプレイ30に表示される。
Further, the
ここで、キー入力装置26に対して静止画像の撮影操作が行われると、プロセッサ24は、静止画像の本撮影処理を実行する。つまり、プロセッサ24は、イメージセンサ42から出力されるQVGAの生画像信号に信号処理を施して、RAM34に一旦格納し、フラッシュメモリ32に対する記録処理を実行する。記録処理が実行されると、プロセッサ24を通してRAM34から画像データが読み出される。そして、プロセッサ24は、読み出した画像データにメタ情報を関連付けて、1つの画像ファイルとしてフラッシュメモリ32に保存する。さらに、プロセッサ24は、図示しないスピーカから、本撮影処理が実行されていること通知する音を出力させる。
Here, when a still image shooting operation is performed on the
なお、メタ情報には、時刻情報、画像サイズおよび携帯電話機10の機種名(型番)などが含まれる。また、携帯電話機10にメモリカードが接続できる場合、画像ファイルはメモリカードに保存されてもよい。また、画像データに関連付けられるメタ情報はExif形式で保存される。
The meta information includes time information, image size, and model name (model number) of the
また、カメラモジュールは、後述するテレビ電話機能が実行されるときにも利用される。そして、テレビ電話機能でカメラモジュールを利用できるように、カメラモジュールに通じる開口OP3(図2参照)は、ディスプレイ30と同じ面に設けられる。そのため、カメラモジュールはインカメラと呼ばれることもある。
The camera module is also used when a videophone function described later is executed. An opening OP3 (see FIG. 2) leading to the camera module is provided on the same surface as the
近接センサ48は、図示は省略するが、発光素子である赤外LEDと受光素子であるフォトダイオードとを含む。プロセッサ24は、フォトダイオードの出力の変化から、近接センサ48(当該携帯電話機10)に近接する物体(たとえば、使用者の顔など)の距離を算出する。具体的には、赤外LEDは、赤外線を発光し、フォトダイオードは、顔などで反射した赤外線を受光する。たとえば、フォトダイオードが使用者の顔から遠い場合には、赤外LEDが発光した赤外線はフォトダイオードによって受光されないが、近接センサ48に使用者の顔が近接すると、赤外LEDが発光した赤外線は顔に反射してフォトダイオードによって受光される。このように、フォトダイオードは近接センサ48が使用者の顔に近接している場合とそうでない場合とで赤外線の受光量が変化するため、プロセッサ24は、その受光量に基づいて、近接センサ48から対象までの距離を算出することができる。
Although not shown, the
無線通信回路14は、CDMA方式での無線通信を行うための回路である。たとえば、使用者がキー入力装置26を用いて電話発信(発呼)を指示すると、無線通信回路14は、プロセッサ24の指示の下、電話発信処理を実行し、アンテナ12を介して電話発信信号を出力する。電話発信信号は、基地局および通信網(図示せず)を経て相手の電話機に送信される。そして、相手の電話機において着信処理が行われると、通信可能状態が確立され、プロセッサ24は通話処理を実行する。
The
通常の通話処理について具体的に説明すると、相手の電話機から送られてきた変調音声信号はアンテナ12によって受信される。受信された変調音声信号には、無線通信回路14によって復調処理および復号処理が施される。そして、これらの処理によって得られた受話音声信号は、D/A変換器20によってアナログ音声信号に変換された後、スピーカ22から出力される。一方、マイク18を通して取り込まれた送話音声信号は、A/D変換器16によってデジタル音声信号に変換された後、プロセッサ24に与えられる。デジタル音声信号に変換された送話信号には、プロセッサ24の指示の下、無線通信回路14によって符号化処理および変調処理が施され、アンテナ12を介して出力される。したがって、変調音声信号は、基地局および通信網を介して相手の電話機に送信される。
The normal call processing will be described in detail. The modulated audio signal transmitted from the other party's telephone is received by the
また、相手の電話機からの電話発信信号がアンテナ12によって受信されると、無線通信回路14は、電話着信(着呼)をプロセッサ24に通知する。これに応じて、プロセッサ24は、表示ドライバ28を制御して、着信通知に記述された発信元情報(電話番号など)をディスプレイ30に表示する。また、これとほぼ同時に、プロセッサ24は、図示しないスピーカから着信音(着信メロディ、着信音声と言うこともある。)を出力させる。
When a telephone call signal from the other party's telephone is received by the
そして、使用者が通話キーを用いて応答操作を行うと、無線通信回路14は、プロセッサ24の指示の下、電話着信処理を実行する。さらに、通信可能状態が確立され、プロセッサ24は上述した通常の通話処理を実行する。
When the user performs a response operation using the call key, the
また、通話可能状態に移行した後に終話キーによって通話終了操作が行われると、プロセッサ24は、無線通信回路14を制御して、通話相手に通話終了信号を送信する。そして、通話終了信号の送信後、プロセッサ24は通話処理を終了する。また、先に通話相手から通話終了信号を受信した場合も、プロセッサ24は通話処理を終了する。さらに、通話相手によらず、移動通信網から通話終了信号を受信した場合も、プロセッサ24は通話処理を終了する。
Further, when a call end operation is performed with the call end key after shifting to the call ready state, the
また、本実施例では、ハンズフリー通話を行うこともできる。そして、上述したように、インカメラおよびハンズフリー通話を利用して、テレビ電話機能を実行することもできる。 In this embodiment, a hands-free call can also be performed. As described above, the videophone function can be executed by using the in-camera and the hands-free call.
なお、携帯電話機10は、図示しないネットワークとの通信を確立することで、ブラウザ機能を実行することができる。また、携帯電話機10は、文書を作成および編集するためのメモ帳機能を実行することもできる。さらに、これらの機能では、QWERTY配列の仮想キーボード66(図8(A)参照)を利用して、文字を入力することができる。
Note that the
図2は、携帯電話機10の表面の外観を示す外観図である。図2を参照して、携帯電話機10は、ストレート型の形状をしており、平面矩形の筐体Cを有する。図示しないマイク18は、筐体Cに内蔵され、内蔵されたマイク18に通じる開口OP2は筐体Cの縦方向一方の表面に設けられる。同じく、図示しないスピーカ22は、筐体Cに内蔵され、内蔵されたスピーカ22に通じる開口OP1は、筐体Cの縦方向他方の表面に設けられる。
FIG. 2 is an external view showing the external appearance of the surface of the
キー入力装置26に含まれる各キーは筐体Cの表面に設けられる。ディスプレイ30は、表示面(モニタ画面)が筐体Cの表面から見えるように取り付けられる。また、ディスプレイ30の表示面の上にはタッチパネル38が設けられる。
Each key included in the
さらに、カメラモジュールは筐体Cに内蔵され、内蔵されたカメラモジュールのイメージセンサ42に通じる開口OP3は筐体Cの表面の左上に設けられる。照度センサ44および近接センサ46は、センサ面が露出するように、筐体Cの表面の右上角に設けられる。なお、本実施例では、照度センサ44と近接センサ46とは隣り合うように設けられる。
Further, the camera module is built in the housing C, and the opening OP3 leading to the
たとえば、使用者は、ディスプレイ30に表示されたダイヤルキーに対して、タッチ操作を行うことで電話番号を入力し、通話キーによって音声発信操作を行う。そして、使用者は、通話が終了すると、終話キーによって通話終了操作を行う。また、使用者はテレビ電話機能を実行する場合、筐体Cの表面、つまりディスプレイ30および開口OP3を見ながらハンズフリー通話を行う。
For example, the user inputs a telephone number by performing a touch operation on a dial key displayed on the
また、使用者は、メニューキーを操作することで、ディスプレイ30にメニュー画面を表示する。さらに、使用者は、ディスプレイ30に表示されたソフトキーおよびメニューに対してタッチ操作を行うことで、メニューの選択や確定を行う。
Further, the user operates the menu key to display a menu screen on the
なお、カメラモジュールは、テレビ電話機能が実行されているときに、使用者の顔が画角に収まるようにするために、筐体Cの中心側(タッチパネル側)に対して画角が広く設定されている。 The camera module has a wide angle of view with respect to the center side (touch panel side) of the housing C so that the user's face is within the angle of view when the videophone function is executed. Has been.
また、アンテナ12、無線通信回路14、A/D16、D/A20、プロセッサ24、表示ドライバ28、フラッシュメモリ32、RAM34、タッチパネル制御回路36、カメラ制御回路40、イメージセンサ42およびフォーカスレンズ44は筐体Cに内蔵されているため、図2では図示されない。
The
ここで、本実施例では、タッチ操作がされたときに、タッチ操作によってディスプレイ30の表示が遮蔽される領域(遮蔽領域)を特定し、遮蔽領域に含まれる表示内容(文字列など)が補助情報として抽出される。そして、抽出された補助情報は、遮蔽領域に基づいて決められる表示領域に表示される。以下、具体的な処理を説明する。
Here, in the present embodiment, when a touch operation is performed, an area (shielded area) where the display of the
まず、図3を参照して、ディスプレイ30の表示範囲において、左上が第1領域、右上が第2領域、左下が第3領域、右下が第4領域として設定される。そして、本実施例では、これらの領域に対するタッチ操作に基づいて、遮蔽領域を特定し、補助情報を表示する表示領域を決定する。
First, referring to FIG. 3, in the display range of
次に、タッチ操作がされると、タッチ操作を行った手(左手、右手)と、タッチ操作におけるタッチ点を含む領域とに基づいて遮蔽領域が特定される。そして、本実施例では、タッチ操作を行った手は、パターンマッチング処理および肌色領域の抽出処理を利用して判定される。 Next, when a touch operation is performed, the shielding area is specified based on the hand (left hand, right hand) that performed the touch operation and the area including the touch point in the touch operation. In this embodiment, the hand that has performed the touch operation is determined using pattern matching processing and skin color region extraction processing.
上述したように、カメラモジュールに通じる開口OP3は筐体Cの表面の左上に設けられ、カメラモジュールはタッチパネル側に対して画角が広く設定されている。つまり、タッチ操作を行う指や手はカメラモジュールによって撮影することができる。そのため、左手と右手とをそれぞれ認識可能なパターンマッチング処理を利用することで、タッチ操作を行う右手と左手とを判定することができる。 As described above, the opening OP3 leading to the camera module is provided at the upper left of the surface of the housing C, and the camera module has a wide angle of view with respect to the touch panel side. That is, a finger or hand performing a touch operation can be photographed by the camera module. Therefore, it is possible to determine the right hand and the left hand that perform the touch operation by using the pattern matching process capable of recognizing the left hand and the right hand.
また、開口OP3の取り付け位置が筐体Cの中心からずれているため、タッチパネル38をタッチする指や手は、右手と左手とで画像への写り込み方が異なる。つまり、タッチ操作を行う指を撮影した場合、手や指が写り込む量が異なる。そのため、撮影された画像における肌色領域の大きさ(量)に基づいて、タッチ操作を行う右手と左手とを判定することもできる。
Further, since the attachment position of the opening OP3 is deviated from the center of the housing C, a finger or a hand touching the
そして、本実施例では、パターンマッチング処理の判定結果と、肌色領域の大きさに基づく判定結果を組み合わせて、タッチ操作を行う手を判定する。具体的に、ターンマッチング処理では、左手パターンと一致する割合(一致率)と、右手パターンと一致する割合とをそれぞれ算出する。このとき、一致率の差が閾値以上であれば、一致率に基づいて左右の手が判定される。一方、一致率の差が閾値未満であれば、肌色領域の大きさに基づいて左右の手が判定される。なお、他の実施例では、肌色領域の判定がパターンマッチングの判定よりも優先されてもよい。 In this embodiment, the determination result of the pattern matching process and the determination result based on the size of the skin color area are combined to determine the hand performing the touch operation. Specifically, in the turn matching process, a ratio (matching rate) that matches the left-hand pattern and a ratio that matches the right-hand pattern are calculated. At this time, if the difference between the match rates is equal to or greater than the threshold, the left and right hands are determined based on the match rate. On the other hand, if the difference in the match rate is less than the threshold value, the left and right hands are determined based on the size of the skin color area. In other embodiments, the determination of the skin color area may be given priority over the determination of pattern matching.
次に、タッチ操作を行う手の左右が判定されると、タッチ位置とタッチ操作テーブルとに基づいて、遮蔽領域が特定される。また、タッチ操作テーブルとは、タッチ位置を含む領域に対して、遮蔽領域と表示可能領域とが予め登録されているテーブルである。 Next, when the right and left sides of the hand performing the touch operation are determined, the shielding area is specified based on the touch position and the touch operation table. The touch operation table is a table in which a shielding area and a displayable area are registered in advance for an area including a touch position.
たとえば、図4(A)のように、左手で第1領域にタッチされた場合、図5に示す左手用の第1タッチ操作テーブルに従い、第1領域および第3領域がタッチ操作を行う手によって遮蔽される遮蔽領域として特定され、第2領域および第4領域が補助情報を表示できる表示可能領域として特定される。また、図4(B)のように、左手で第2領域にタッチされた場合、図5の第1タッチ操作テーブルに従い、第2領域、第3領域および第4領域が遮蔽領域として特定され、第1領域が表示可能領域として特定される。また、図4(C)のように、左手で第3領域にタッチされた場合、図5の第1タッチ操作テーブルに従い、第3領域が遮蔽領域として特定され、第1領域、第2領域および第4領域が表示可能領域として特定される。そして、図4(D)のように、左手で第4領域にタッチされた場合、図5の第1タッチ操作テーブルに従い、第3領域および第4領域が遮蔽領域として特定され、第1領域および第2領域が表示可能領域として特定される。 For example, as shown in FIG. 4A, when the first area is touched with the left hand, the first area and the third area are touched by the hand performing the touch operation according to the first touch operation table for the left hand shown in FIG. It is specified as a shielding area to be shielded, and the second area and the fourth area are specified as displayable areas in which auxiliary information can be displayed. Further, as shown in FIG. 4B, when the second area is touched with the left hand, the second area, the third area, and the fourth area are specified as the shielding areas according to the first touch operation table of FIG. The first area is specified as the displayable area. Further, as shown in FIG. 4C, when the third area is touched with the left hand, the third area is specified as the shielding area according to the first touch operation table of FIG. 5, and the first area, the second area, and The fourth area is specified as the displayable area. Then, as shown in FIG. 4D, when the fourth area is touched with the left hand, the third area and the fourth area are specified as the shielding area according to the first touch operation table of FIG. The second area is specified as the displayable area.
一方、図6(A)のように、右手で第1領域にタッチされた場合、図7に示す右手用の第2タッチ操作テーブルに従い、第1領域、第3領域および第4領域が遮蔽領域として特定され、第2領域が表示可能領域として特定される。また、図6(B)のように、右手で第2領域にタッチされた場合、第2タッチ操作テーブルに従い、第2領域および第4領域が遮蔽領域として特定され、第1領域および第3領域が表示可能領域として特定される。また、図6(C)のように、右手で第3領域にタッチされた場合、第3領域および第4領域が遮蔽領域として特定され、第1領域および第2領域が表示可能領域として特定される。そして、図6(D)のように、右手で第4領域にタッチされた場合、第4領域が遮蔽領域として特定され、第1領域、第2領域および第3領域が表示可能領域として特定される。 On the other hand, when the first area is touched with the right hand as shown in FIG. 6A, the first area, the third area, and the fourth area are occluded according to the second touch operation table for the right hand shown in FIG. And the second area is specified as the displayable area. Further, as shown in FIG. 6B, when the second area is touched with the right hand, the second area and the fourth area are specified as the shielding areas according to the second touch operation table, and the first area and the third area are specified. Is specified as a displayable area. Further, as shown in FIG. 6C, when the third area is touched with the right hand, the third area and the fourth area are specified as shielding areas, and the first area and the second area are specified as displayable areas. The Then, as shown in FIG. 6D, when the fourth area is touched with the right hand, the fourth area is specified as a shielding area, and the first area, the second area, and the third area are specified as displayable areas. The
そして、遮蔽領域の表示内容(たとえば、文字列)が補助情報として抽出され、その情報量から表示領域が決められる。たとえば、補助情報が文字列であり、その文字数が1つの表示可能領域に収まるのであれば、特定された表示可能領域のうち、最も番号が小さい表示可能領域が表示領域として決定される。また、文字数が1つの表示可能領域に収まらなければ、特定された表示可能領域のうち、最も番号が小さい表示可能領域とその次に番号が小さい表示可能領域が表示領域として決定される。ただし、2つ以上の表示可能領域が特定されていない場合は、1つの表示可能領域に収まるように、文字の大きさ(フォントサイズ)が変更される。 And the display content (for example, character string) of a shielding area is extracted as auxiliary information, and a display area is determined from the information amount. For example, if the auxiliary information is a character string and the number of characters fits in one displayable area, the displayable area with the smallest number is determined as the display area among the specified displayable areas. If the number of characters does not fit in one displayable area, among the specified displayable areas, the displayable area with the smallest number and the displayable area with the next smallest number are determined as display areas. However, when two or more displayable areas are not specified, the character size (font size) is changed so as to fit in one displayable area.
次に、補助情報の表示について具体例を挙げて説明する。たとえば、ブラウザ機能において、或る検索サイトで検索文字列を入力する場合、ディスプレイ30には仮想キーボードが表示される。図8(A)を参照して、ブラウザ機能が実行された状態のディスプレイ30の表示範囲は、状態表示領域60および機能表示領域62を含む。状態表示領域60には、アンテナ12による電波受信状態を示すアイコン(ピクトと言うこともある。)、二次電池の残電池容量を示すアイコンおよび日時が表示される。
Next, display of auxiliary information will be described with a specific example. For example, in the browser function, when a search character string is input at a certain search site, a virtual keyboard is displayed on the
また、機能表示領域62は、サーバから得たデータが表示される。さらに、文字入力可能な入力領域に対してタッチ操作がされると、QWERTY配列のソフトキー66を含むソフトキー表示領域64が表示されると共に、現在の入力位置(編集位置)を示すカーソルCUが入力領域に表示される。
The
この状態で、図8(B)に示すように、第3領域の文字キー(E)が右手でタッチされると、仮想キーボード66を含む第3領域、第4領域が遮蔽領域として特定される。また、仮想キーボード66に含まれる各文字キー対応する文字が補助情報として抽出される。そして、このように抽出された複数の文字(補助情報)は、1つの表示可能領域に収まるため、第1領域が表示領域として決定される。その結果、第1領域には、仮想キーボード66の文字キーを示す文字列が表示される。さらに、図8(B)に示す補助表示において、タッチされている文字キー対応する文字(E)は、強調表示される。
In this state, as shown in FIG. 8B, when the character key (E) in the third area is touched with the right hand, the third area and the fourth area including the
なお、図9に示すように、従来ではタッチ位置によっては、補助表示によって入力中の文字列が隠れてしまうことがあった。ところが、本実施例のように、タッチ位置とは異なる位置に補助表示した場合、表示可能領域に補助情報が表示されるため、入力中の文字列が補助表示によって隠されないようになる。そのため、他の実施例では、補助表示によって入力領域が隠されるかをさらに判定してから、表示領域を決めるようにしてもよい。 As shown in FIG. 9, conventionally, depending on the touch position, the character string being input may be hidden by the auxiliary display. However, when auxiliary display is performed at a position different from the touch position as in the present embodiment, auxiliary information is displayed in the displayable area, so that the character string being input is not hidden by the auxiliary display. Therefore, in another embodiment, the display area may be determined after further determining whether the input area is hidden by the auxiliary display.
また、その他の実施例では、タッチ操作がされた文字キーを示す文字(E)だけが補助表示されてもよい。 In other embodiments, only the character (E) indicating the character key on which the touch operation is performed may be auxiliary displayed.
次に、図10(A)に示すように、メモ帳機能において文書から文字列を検索する場合、ディスプレイ30には、検索対象となる文章(文字列)と、検索する文字列(検索文字)を入力するための入力領域と、検索処理を実行するための検索キーとが表示される。この場合、検索文字(「QWERTY」)を入力した後に、検索キーに対してタッチ操作がされると、文章において該当する文字列が強調表示される。ところが、検索キーに左手でタッチ操作されると、図10(B)に示すように、遮蔽領域(第3領域および第4領域)に含まれる文章が左手で隠されてしまう。そのため、検索結果を含む文字列(文章)が補助情報として抽出される。また、補助情報として抽出された文章は、1つの表示可能領域に収まらないため、第1領域および第2領域が表示領域として決められる。その結果、第1領域および第2領域対して抽出された文章が補助表示される。さらに、補助表示において、検索結果である「QWERTY」の文字列は強調表示される。
Next, as shown in FIG. 10A, when searching for a character string from a document in the memo pad function, the
このように、タッチ操作によって表示が見えなくなっても、見えない部分が適切に補助表示されるため、タッチ操作の操作性をより向上させることができる。また、本実施例では、撮影された画像とタッチ操作とを利用することで、遮蔽領域を精度よく特定することができる。 Thus, even if the display becomes invisible by the touch operation, the invisible portion is appropriately auxiliary displayed, so that the operability of the touch operation can be further improved. Further, in this embodiment, the shielding area can be specified with high accuracy by using the captured image and the touch operation.
ただし、他の実施例では、カメラモジュールの画角を調整することで、撮影された画像だけで遮蔽領域を特定できるようにしてもよい。この場合、撮影画像だけで遮蔽領域を特定できるため、遮蔽領域を特定するまでの処理を単純にすることができる。 However, in another embodiment, the shielding area may be specified only by the captured image by adjusting the angle of view of the camera module. In this case, since the shielding area can be specified only by the captured image, the process until the shielding area is specified can be simplified.
図11はRAM34のメモリマップを示す図である。RAM34には、プログラム記憶領域302およびデータ記憶領域304が含まれる。また、プログラムおよびデータの一部は、フラッシュメモリ32から一度に全部または必要に応じて部分的かつ順次的に読み出され、RAM34に記憶される。
FIG. 11 is a diagram showing a memory map of the
プログラム記憶領域302には、携帯電話機10を動作させるためのプログラムが記憶されている。たとえば、携帯電話機10を動作させるためのプログラムは、補助情報表示プログラム310が含まれる。この補助情報表示プログラム310は、タッチ操作による遮蔽領域に応じて、補助情報を表示する位置を決めるためのプログラムである。
The
なお、図示は省略するが、携帯電話機10を動作させるためのプログラムには、放送波を探索するためのプログラムなどが含まれる。
Although not shown, the program for operating the
続いて、データ記憶領域304には、タッチバッファ330、画像バッファ332、補助情報バッファ334、表示バッファ336および表示座標バッファ338が設けられると共に、タッチ操作テーブルデータ340、タッチ座標マップデータ342、GUIデータ344、テキストデータ346が記憶される。さらに、データ記憶領域304には、タッチフラグ348および左右フラグ350も設けられる。
Subsequently, the
タッチバッファ330には、タッチパネル制御回路36から出力される、タッチ点、タッチ位置、リリース点の座標が一時的に記憶される。画像バッファ332には、カメラモジュールから出力された画像が一時的に記憶される。補助情報バッファ334には、抽出された補助情報が一時的に記憶される。表示バッファ336には、ディスプレイ30に表示される文字列や、画像などが一時的に記憶される。表示座標バッファ338には、表示バッファ336に記憶されている文字列や画像などの表示座標が一時的に記憶される。
The
タッチ座標マップデータ340は、タッチ操作におけるタッチ座標と、ディスプレイ30の表示座標とを対応付けるためのデータである。つまり、プロセッサ24は、タッチ座標マップデータ340に基づいて、タッチパネル38に対して行われたタッチ操作の結果を、ディスプレイ30の表示に対応付ける。
The touch coordinate
タッチ操作テーブルデータ342は、図5に示す左手用の第1タッチ操作テーブルおよび図7に示す右手用の第2タッチ操作テーブルを含むデータである。GUIデータ344は、たとえば図8(A)に示す仮想キーボード66などのGUIを表示するためのデータである。また、テキストデータ346は、たとえば、図10(A)に示す文章に対応するデータである。そして、仮想キーボード66や文章が表示される場合、GUIデータ344またはテキストデータ346が表示バッファ336に記憶される。
The touch
タッチフラグ348は、タッチパネル38に対してタッチ操作がされているか否かを判断するためのフラグである。たとえば、タッチフラグ348は、1ビットのレジスタで構成される。タッチフラグ348がオン(成立)されると、レジスタにはデータ値「1」が設定される。一方、タッチフラグ348がオフ(不成立)されると、レジスタにはデータ値「0」が設定される。
The
左右フラグ350は、タッチ操作を行う手が左手であるか、右手であるかを示すフラグである。なお、左右フラグ350は、左手と判定された場合にオンとなり、右手と判定された場合にオフとなる。
The left /
なお、図示は省略するが、データ記憶領域304には、待機状態で表示される画像データや、文字列のデータなどが記憶されると共に、携帯電話機10の動作に必要なカウンタや、フラグも設けられる。
Although not shown, the
プロセッサ24は、Android(登録商標)およびREXなどのLinux(登録商標)ベースのOSや、その他のOSの制御下で、図12に示す補助情報表示処理などを含む、複数のタスクを並列的に処理する。
The
図12は補助情報表示処理のフロー図である。たとえば、携帯電話機10で文書や画像を表示する機能(アプリケーション)が実行されると、補助情報表示処理が実行される。そして、プロセッサ24はステップS1で、タッチされたか否かを判断する。つまり、タッチフラグ348がオンになったかが判断される。ステップS1で“NO”であれば、つまりタッチされていなければ、ステップS3で終了操作か否かを判断する。たとえば、実行中の機能を終了するために、終話キーが操作されたかかが判断される。ステップS3で“YES”であれば、つまり実行中の機能を終了させる操作がされると、補助情報表示処理を終了する。一方、ステップS3で“NO”であれば、つまり終了操作がされていなければ、ステップS1に戻る。
FIG. 12 is a flowchart of the auxiliary information display process. For example, when a function (application) for displaying a document or an image is executed on the
また、ステップS1で“YES”であれば、たとえば使用者がタッチパネルに対してタッチを行えば、ステップS5で画像を撮影する。つまり、カメラモジュールに撮影命令を出す。また、プロセッサ24は、撮影された画像を、画像バッファ332に記憶する。続いて、ステップS7では、画像解析処理を実行する。たとえば、画像バッファ332に記憶される撮影画像に対して、パターンマッチング処理および肌色領域の抽出処理を施す。続いて、ステップS9では、手や指が含まれるか否かを判断する。つまり、パターンマッチングの結果および肌色領域の量から、撮影画像に手が写りこんでいるかが判断される。
If “YES” in the step S1, for example, if the user touches the touch panel, an image is taken in a step S5. That is, a shooting command is issued to the camera module. Further, the
ステップS9で“NO”であれば、たとえばタッチペンなどによってタッチ操作が行われたため、手や指が写っていなければ、ステップS17に進む。また、ステップS9で“YES”であれば、たとえば撮影画像にタッチ操作を行う指などが写っていれば、ステップS11で左右判定処理を行う。つまり、パターンマッチングの結果および肌色領域の量から、撮影画像に写っている手が左手または右手かが判断される。たとえば、パターンマッチングの結果として、左手のパターンとの一致率と右手のパターンとの一致率とにおいて差が閾値上であれば、一致率が高い方の結果が採用される。ただし、その差が閾値未満であれば、肌色領域の量に基づいて左右が判定される。そして、左右の判定結果に基づいて、左右フラグ350のオン/オフが切り替えられる。
If “NO” in the step S9, the touch operation is performed with a touch pen, for example, and if the hand or the finger is not photographed, the process proceeds to the step S17. If “YES” in the step S9, for example, if a finger performing a touch operation is reflected on the photographed image, a left / right determination process is performed in a step S11. That is, it is determined whether the hand in the captured image is the left hand or the right hand from the pattern matching result and the amount of the skin color area. For example, as a result of pattern matching, if the difference between the matching rate with the left hand pattern and the matching rate with the right hand pattern is above a threshold value, the result with the higher matching rate is adopted. However, if the difference is less than the threshold value, right and left are determined based on the amount of the skin color area. Then, on / off of the left /
続いて、ステップS13では、タッチ位置が取得される。つまりタッチバッファ330からタッチ位置が読み出される。続いて、ステップS15では、遮蔽領域を特定する。たとえば、左右フラグ350がオン(左手)であり、タッチバッファ330から取得されたタッチ位置が第4領域に含まれていれば、タッチ操作テーブルデータ342(ここでは、図5)に基づいて、遮蔽領域が第3領域および第4領域として特定される。なお、ステップS11−S15の処理を実行するプロセッサ24は、特定部として機能する。
Subsequently, in step S13, the touch position is acquired. That is, the touch position is read from the
続いて、ステップS17では、補助情報を抽出する。つまり、表示バッファ336に記憶される文字列や、画像のうち、表示座標バッファ338に基づいて遮蔽領域に含まるデータが、補助情報として読み出される。たとえば、図8(B)のように、遮蔽領域に仮想キーボード66のGUIが含まれていれば、仮想キーボード66に含まれる文字キーを示す文字列が、表示バッファ336から補助情報として抽出される。また、図10(B)のように、遮蔽領域に文章が表示されていれば、表示バッファ336から、その文章に対応する文字列が補助情報として抽出される。そして、抽出された補助情報は補助情報バッファ334に記憶される。ただし、遮蔽領域に文字列や、画像などが表示されていなければ、ステップS17で、補助情報は抽出されない。なお、ステップS17の処理を実行するプロセッサ24は抽出部として機能する。
Subsequently, in step S17, auxiliary information is extracted. That is, of the character string stored in the
続いて、ステップS19では、補助情報が抽出されたか否かが判断される。つまり、ステップS17の処理で補助情報が抽出する処理が実行された結果、補助情報バッファ334に補助情報が記憶されたかが判断される。ステップS19で“NO”であれば、つまり補助情報が抽出されていなければ、ステップS1に戻る。一方、ステップS19で“YES”であれば、つまり補助情報が抽出されていれば、ステップS21で表示領域を決定する。つまり、記憶された補助情報を表示するために必要な表示可能領域が判断され、表示領域が決められる。たとえば、図10(B)に示すように、第3領域および第4領域が遮蔽領域として特定され、その遮蔽領域に表示される文章が補助情報として抽出されている場合、第1領域および第2領域が表示領域として決められる。そして、ステップS23では、補助情報を表示して、ステップS1に戻る。つまり、このようにして、決められた表示領域に、補助情報バッファ334に記憶される補助情報が表示される。
Subsequently, in step S19, it is determined whether or not auxiliary information has been extracted. That is, it is determined whether or not auxiliary information is stored in the
なお、ステップS21の処理を実行するプロセッサ24は決定部として機能し、ステップS23の処理を実行するプロセッサ24は表示部として機能する。
The
また、画像だけで遮蔽領域を特定する場合、補助情報表示処理では、ステップS11,S13の処理が省略される。 Further, when the shielding area is specified only by the image, the processes of steps S11 and S13 are omitted in the auxiliary information display process.
また、表示される補助情報は文字列だけでなく、画像などであってもよい。また、補助情報を表示する際には、拡大したうえで補助表示されてもよい。また、補助情報が表示される機能は、ブラウザ機能およびメモ帳機能だけに限らず、メール機能、アドレス帳機能などの他の機能であってもよい。 Further, the auxiliary information to be displayed may be not only a character string but also an image or the like. Further, when displaying the auxiliary information, the auxiliary information may be enlarged and displayed. The function for displaying the auxiliary information is not limited to the browser function and the memo pad function, but may be other functions such as a mail function and an address book function.
また、他の実施例では、肌色領域の量を抽出しやすくするために、インカメラに通じる開口OP3が筐体Cの右下側や、左下側に設けられてもよい。 In another embodiment, the opening OP3 leading to the in-camera may be provided on the lower right side or the lower left side of the housing C in order to facilitate the extraction of the amount of the skin color area.
また、タッチ操作を行う左右の手の違いによって照度センサ46または近接センサ48の出力結果が異なる場合、タッチ操作を行う手や指の左右判定に、照度センサ46および近接センサ48によるセンシング結果が利用されてもよい。
In addition, when the output result of the
また、その他の実施例では、ディスプレイ30の表示範囲が分けられる数は、図3のように4つに限らず、5つ以上であってもよい。また、手や指によって遮蔽される遮蔽領域を高精度に特定できる場合、遮蔽領域の形状は手や指のような形となってもよい。
In other embodiments, the number of display ranges on the
また、携帯電話機10の通信方式はCDMA方式であるが、LTE(Long Term Evolution)方式、W−CDMA方式、GSM方式、TDMA方式、FDMA方式およびPHS方式などが採用されてもよい。
The communication system of the
また、本実施例で用いられた複数のプログラムは、データ配信用のサーバのHDDに記憶され、ネットワークを介して携帯電話機10に配信されてもよい。また、CD,DVD,BD(Blu−ray Disc)などの光学ディスク、USBメモリおよびメモリカードなどの記憶媒体に複数のプログラムを記憶させた状態で、その記憶媒体が販売または配布されてもよい。そして、上記したサーバや記憶媒体などを通じてダウンロードされた、複数のプログラムが本実施例と同等の構成の携帯電話機にインストールされた場合、本実施例と同等の効果が得られる。
Further, the plurality of programs used in this embodiment may be stored in the HDD of the data distribution server and distributed to the
さらに、本実施例は、携帯電話機10のみに限らず、いわゆるスマートフォンや、タブレットPCおよびPDAなどに適用されてもよい。
Further, the present embodiment is not limited to the
そして、本明細書中で挙げた、画素などの具体的な数値は、いずれも単なる一例であり、製品の仕様変更などに応じて適宜変更可能である。 The specific numerical values such as pixels mentioned in this specification are merely examples, and can be appropriately changed according to a change in product specifications.
10 … 携帯電話機
12 … アンテナ
14 … 無線通信回路
24 … プロセッサ
26 … キー入力装置
30 … ディスプレイ
34 … RAM
36 … タッチパネル制御回路
38 … タッチパネル
40 … カメラ制御回路
42 … イメージセンサ
44 … フォーカスレンズ
46 … 照度センサ
48 … 近接センサ
DESCRIPTION OF
36 ... Touch
Claims (5)
前記検出部によってタッチ操作が検出されているとき、検出されたタッチ操作によって前記表示装置が遮蔽されている遮蔽領域を特定する特定部、
前記特定部によって特定された遮蔽領域に基づいて、前記表示装置の表示内容から補助情報を抽出する抽出部、
前記特定部によって特定された遮蔽領域に基づいて、前記補助情報を表示する表示領域を決定する決定部、および
前記前記決定部によって決定された表示領域に、抽出された補助情報を表示する表示部を備える、携帯端末。 A mobile terminal having a touch panel, a detection unit for detecting a touch operation on the touch panel, and a display device provided with the touch panel,
When a touch operation is detected by the detection unit, a specifying unit that specifies a shielding area where the display device is shielded by the detected touch operation;
An extraction unit for extracting auxiliary information from the display content of the display device based on the shielding area specified by the specification unit;
A determining unit that determines a display region for displaying the auxiliary information based on the shielding region specified by the specifying unit, and a display unit that displays the extracted auxiliary information in the display region determined by the determining unit A portable terminal.
前記特定部は、前記カメラモジュールが出力する画像に基づいて、検出されたタッチ操作によって前記表示装置が遮蔽されている遮蔽領域を特定する、請求項1記載の携帯端末。 A camera module for outputting images;
The mobile terminal according to claim 1, wherein the specifying unit specifies a shielding area where the display device is shielded by a detected touch operation based on an image output from the camera module.
前記検出部によってタッチ操作が検出されているとき、検出されたタッチ操作によって前記表示装置が遮蔽されている遮蔽領域を特定する特定部、
前記特定部によって特定された遮蔽領域に基づいて、前記表示装置の表示内容から補助情報を抽出する抽出部、
前記特定部によって特定された遮蔽領域に基づいて、前記補助情報を表示する表示領域を決定する決定部、および
前記前記決定部によって決定された表示領域に、抽出された補助情報を表示する表示部として機能させる、補助情報表示プログラム。 A processor of a portable terminal having a touch panel, a detection unit that detects a touch operation on the touch panel, and a display device provided with the touch panel.
When a touch operation is detected by the detection unit, a specifying unit that specifies a shielding area where the display device is shielded by the detected touch operation;
An extraction unit for extracting auxiliary information from the display content of the display device based on the shielding area specified by the specification unit;
A determining unit that determines a display region for displaying the auxiliary information based on the shielding region specified by the specifying unit, and a display unit that displays the extracted auxiliary information in the display region determined by the determining unit An auxiliary information display program that functions as
前記検出部によってタッチ操作が検出されているとき、検出されたタッチ操作によって前記表示装置が遮蔽されている遮蔽領域を特定し、
特定された遮蔽領域に基づいて、前記表示装置の表示内容から補助情報を抽出し、
特定された遮蔽領域に基づいて、前記補助情報を表示する表示領域を決定し、そして
決定された表示領域に、抽出された補助情報を表示する、補助情報表示方法。 An auxiliary information display method for a mobile terminal, comprising: a touch panel, a detection unit that detects a touch operation on the touch panel, and a display device provided with the touch panel.
When a touch operation is detected by the detection unit, a shielding area where the display device is shielded by the detected touch operation is specified,
Extracting auxiliary information from the display content of the display device based on the identified shielding area,
An auxiliary information display method for determining a display area for displaying the auxiliary information based on the identified shielding area, and displaying the extracted auxiliary information in the determined display area.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011176483A JP2013041348A (en) | 2011-08-12 | 2011-08-12 | Portable terminal, auxiliary information display program, and auxiliary information display method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011176483A JP2013041348A (en) | 2011-08-12 | 2011-08-12 | Portable terminal, auxiliary information display program, and auxiliary information display method |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2013041348A true JP2013041348A (en) | 2013-02-28 |
Family
ID=47889711
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011176483A Pending JP2013041348A (en) | 2011-08-12 | 2011-08-12 | Portable terminal, auxiliary information display program, and auxiliary information display method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2013041348A (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016024657A (en) * | 2014-07-22 | 2016-02-08 | 日本電信電話株式会社 | Mobile terminal with multi touch screen and operation method thereof |
JP2017054378A (en) * | 2015-09-10 | 2017-03-16 | レノボ・シンガポール・プライベート・リミテッド | Information processing apparatus, display method thereof, and computer-executable program |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006520024A (en) * | 2002-11-29 | 2006-08-31 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | User interface using moved representation of contact area |
JP2009169452A (en) * | 2008-01-10 | 2009-07-30 | Panasonic Corp | Display controller, electronic apparatus, display control method, and program |
JP2009276926A (en) * | 2008-05-13 | 2009-11-26 | Ntt Docomo Inc | Information processor and display information editing method thereof |
WO2010038822A1 (en) * | 2008-10-01 | 2010-04-08 | 株式会社ソニー・コンピュータエンタテインメント | Information processing apparatus, information processing method, information recording medium, and program |
JP2010181940A (en) * | 2009-02-03 | 2010-08-19 | Zenrin Datacom Co Ltd | Apparatus and method for processing image |
JP2010287032A (en) * | 2009-06-11 | 2010-12-24 | Mitsubishi Electric Corp | Input device |
WO2011004612A1 (en) * | 2009-07-10 | 2011-01-13 | パナソニック株式会社 | Marker display control device, integrated circuit, and marker display control method |
JP2011134111A (en) * | 2009-12-24 | 2011-07-07 | Sony Corp | Touch panel device, touch panel control method, program, and storage medium |
JP2012048359A (en) * | 2010-08-25 | 2012-03-08 | Sony Corp | Information processing device, information processing method, and program |
-
2011
- 2011-08-12 JP JP2011176483A patent/JP2013041348A/en active Pending
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006520024A (en) * | 2002-11-29 | 2006-08-31 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | User interface using moved representation of contact area |
JP2009169452A (en) * | 2008-01-10 | 2009-07-30 | Panasonic Corp | Display controller, electronic apparatus, display control method, and program |
JP2009276926A (en) * | 2008-05-13 | 2009-11-26 | Ntt Docomo Inc | Information processor and display information editing method thereof |
WO2010038822A1 (en) * | 2008-10-01 | 2010-04-08 | 株式会社ソニー・コンピュータエンタテインメント | Information processing apparatus, information processing method, information recording medium, and program |
JP2010181940A (en) * | 2009-02-03 | 2010-08-19 | Zenrin Datacom Co Ltd | Apparatus and method for processing image |
JP2010287032A (en) * | 2009-06-11 | 2010-12-24 | Mitsubishi Electric Corp | Input device |
WO2011004612A1 (en) * | 2009-07-10 | 2011-01-13 | パナソニック株式会社 | Marker display control device, integrated circuit, and marker display control method |
JP2011134111A (en) * | 2009-12-24 | 2011-07-07 | Sony Corp | Touch panel device, touch panel control method, program, and storage medium |
JP2012048359A (en) * | 2010-08-25 | 2012-03-08 | Sony Corp | Information processing device, information processing method, and program |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016024657A (en) * | 2014-07-22 | 2016-02-08 | 日本電信電話株式会社 | Mobile terminal with multi touch screen and operation method thereof |
JP2017054378A (en) * | 2015-09-10 | 2017-03-16 | レノボ・シンガポール・プライベート・リミテッド | Information processing apparatus, display method thereof, and computer-executable program |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20220035995A1 (en) | Comment Addition Method and Electronic Device | |
WO2014208665A1 (en) | Portable telephone device, portable terminal, and voice operation method | |
JP5848932B2 (en) | Mobile terminal, folder management program, and folder management method | |
JP5743679B2 (en) | Portable terminal, invalid area setting program, and invalid area setting method | |
JP5743847B2 (en) | Mobile terminal and low sensitivity area setting program | |
US20150301595A1 (en) | Electronic apparatus and eye-gaze input method | |
CN111371949A (en) | Application program switching method and device, storage medium and touch terminal | |
JP2010147527A (en) | Communication terminal, and program for identifying information transmission source | |
KR20140003875A (en) | Method and apparatus for processing multiple inputs | |
CN109068008B (en) | Ringtone setting method, device, terminal and storage medium | |
WO2020159299A1 (en) | Electronic device and method for mapping function of electronic device to operation of stylus pen | |
WO2014188990A1 (en) | Portable terminal and display control method | |
JP6403368B2 (en) | Mobile terminal, image search program, and image search method | |
CN111147660B (en) | Control operation method and electronic equipment | |
KR102187236B1 (en) | Preview method of picture taken in camera and electronic device implementing the same | |
CN110806831A (en) | Touch screen response method and electronic equipment | |
CN112578981A (en) | Control method of electronic equipment with flexible screen and electronic equipment | |
KR102038424B1 (en) | Method for providing contents title based on context awareness and device thereof | |
JP2013041348A (en) | Portable terminal, auxiliary information display program, and auxiliary information display method | |
CN111666076A (en) | Layer adding method, device, terminal and storage medium | |
JP5973619B2 (en) | Portable terminal, invalid area setting program, and invalid area setting method | |
CN112230910B (en) | Page generation method, device and equipment of embedded program and storage medium | |
CN114282494A (en) | Information display method and device, electronic equipment and storage medium | |
WO2017161550A1 (en) | Character input method, apparatus, and terminal | |
JP6010376B2 (en) | Electronic device, selection program and method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20140210 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20141022 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20141111 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20150107 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20150217 |