JP2014071505A - Electronic apparatus, control method of electronic apparatus, and computer program - Google Patents

Electronic apparatus, control method of electronic apparatus, and computer program Download PDF

Info

Publication number
JP2014071505A
JP2014071505A JP2012215016A JP2012215016A JP2014071505A JP 2014071505 A JP2014071505 A JP 2014071505A JP 2012215016 A JP2012215016 A JP 2012215016A JP 2012215016 A JP2012215016 A JP 2012215016A JP 2014071505 A JP2014071505 A JP 2014071505A
Authority
JP
Japan
Prior art keywords
user
touch
communication terminal
electronic device
detected
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2012215016A
Other languages
Japanese (ja)
Inventor
Kazuteru Yamanaka
一輝 山中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Aisin AW Co Ltd
Original Assignee
Aisin AW Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Aisin AW Co Ltd filed Critical Aisin AW Co Ltd
Priority to JP2012215016A priority Critical patent/JP2014071505A/en
Publication of JP2014071505A publication Critical patent/JP2014071505A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Position Input By Displaying (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an electronic apparatus, a control method of the electronic apparatus, and a computer program that prevent reduction of the operability of a user and enable accurate detection of a touch operation using an imaging device.SOLUTION: In a state in which a communication terminal 1 is disposed in a terminal case 3, the operation mode of a touch operation to an operation plate 6 by a user is imaged by a camera 5 built in the communication terminal 1. On the basis of the imaged picked-up image, the width of the outline of a fingertip of the user is detected. On the basis of the detected width of the outline of the fingertip of the user, the touch operation to the operation plate 6 by the user is further detected. On the basis of the detected touch operation to the operation plate 6 by the user, a user operation to the communication terminal 1 is performed.

Description

本発明は、各種画像を表示する為の表示画面を備えた電子機器、電子機器の制御方法及びコンピュータプログラムに関する。   The present invention relates to an electronic device having a display screen for displaying various images, a method for controlling the electronic device, and a computer program.

従来より、スマートフォンや携帯電話機やタブレット型端末等の表示画面を備えた携帯型の電子機器では、各種のアプリケーションプログラムをインストールし、インストールされたアプリケーションプログラムを起動させることによって、表示画面を用いた様々な機能を実行することが可能である。このようなアプリケーションプログラムとしては、例えば、ウェブブラウザやメールソフト以外に、ナビゲーションアプリ等も存在する。ここで、ナビゲーションアプリを起動させることとすれば、電子機器において様々なナビゲーション機能を実行することが可能である。実行されるナビゲーション機能としては、例えば、表示画面に対して現在位置周辺の地図画像を表示したり、任意に設定した出発地から目的地までの案内経路を表示したり、案内経路に沿った目的地までの移動案内を行うこと等が可能となっている。   Conventionally, in a portable electronic device having a display screen such as a smartphone, a mobile phone, or a tablet terminal, various application programs are installed by installing various application programs and starting the installed application programs. It is possible to perform various functions. As such an application program, for example, a navigation application and the like exist in addition to a web browser and mail software. Here, if the navigation application is activated, various navigation functions can be executed in the electronic device. As a navigation function to be executed, for example, a map image around the current position is displayed on the display screen, a guide route from an arbitrarily set departure point to a destination is displayed, or a destination along the guide route is displayed. It is possible to provide travel guidance to the ground.

しかしながら、上記携帯型の電子機器は、ユーザに携帯されることを前提としているので、筐体サイズを大きくすることができず、画像を表示する為の表示画面についてもサイズに上限が生じていた。その結果、例えば表示画面からユーザが離れた状態で表示画面を視認する必要がある状況では、表示画面に表示された表示内容が、ユーザにとって見辛くなる問題があった。そこで、例えば特開2003−143282号公報には、携帯電話機に装着することによって、携帯電話機の表示画面を拡大して表示することが可能な表示拡大装置について提案されている。   However, since the portable electronic device is assumed to be carried by the user, the casing size cannot be increased, and the display screen for displaying an image has an upper limit on the size. . As a result, for example, in a situation where it is necessary to view the display screen while the user is away from the display screen, there is a problem that the display content displayed on the display screen is difficult for the user to see. Thus, for example, Japanese Patent Application Laid-Open No. 2003-143282 proposes a display enlarging device that can be displayed on an enlarged display screen of a mobile phone by being attached to the mobile phone.

特開2003−143282号公報(第3−4頁、図1、図2)JP 2003-143282 A (page 3-4, FIGS. 1 and 2)

ここで、上記電子機器において上記アプリケーションプログラムの起動や起動されたアプリケーションプログラム中の操作を行う際には、ユーザはタッチパネルやボタン等の電子機器に設けられた操作手段を操作し、文字や数値を入力したり、選択を行うように構成されている。しかしながら、特許文献1に記載の技術のように、電子機器に対して表示画面を拡大する為の機器を装着することとすると、これらの操作手段の操作が装着された機器によって阻害されてしまう問題が有った。   Here, when starting the application program or performing an operation in the activated application program in the electronic device, the user operates an operation means provided in the electronic device such as a touch panel or a button to input characters and numerical values. It is configured to enter or make selections. However, when a device for enlarging a display screen is attached to an electronic device as in the technique described in Patent Document 1, the operation of these operation means is hindered by the attached device. There was.

本発明は前記従来における問題点を解消するためになされたものであり、電子機器の周囲に電子機器に対するユーザの操作を阻害する障害物が置かれた場合であっても、表示画面の前方にある操作板へのタッチ操作に基づいて電子機器を操作することによってユーザの操作性を低下させることなく、且つ撮像装置を用いた正確なタッチ操作の検出を可能にした電子機器、電子機器の制御方法及びコンピュータプログラムを提供することを目的とする。   The present invention has been made to solve the above-described conventional problems, and even when an obstacle that hinders the user's operation on the electronic device is placed around the electronic device, the display screen is in front of the display screen. Control of electronic devices and electronic devices that enable accurate touch operation detection using an imaging device without degrading user operability by operating electronic devices based on touch operations on a certain operation panel It is an object to provide a method and a computer program.

前記目的を達成するため本願の請求項1に係るコンピュータプログラムは、表示画面(4)と撮像装置(5)とを備えた電子機器(1)の表示画面の前方に配置された操作板(6)に対するタッチ操作に基づいて前記電子機器を操作するコンピュータプログラムにおいて、前記電子機器の撮像装置によって撮像された前記表示画面前方の撮像画像に基づいて、操作板をタッチ操作するユーザの手の指先部分の輪郭の幅を検出する輪郭幅検出機能と、前記輪郭幅検出機能によって検出された前記ユーザの手の指先部分の輪郭の幅に基づいて、前記操作板に対する前記ユーザのタッチ操作を検出するタッチ操作検出機能と、前記タッチ操作検出機能によって検出された前記操作板に対する前記ユーザのタッチ操作に基づいて、前記電子機器へのユーザ操作を行う操作機能と、を前記電子機器に実行させることを特徴とする。
尚、「操作板に対するタッチ操作」は、操作板に対する押し込み、操作板に対するなぞり、操作板に対するフリック操作等の操作板を触って操作する概念をいう。
また、「電子機器へのユーザ操作」は、電子機器にユーザが直接的に接触せずに、操作板に対する上記タッチ操作に基づいて行われる電子機器の操作(例えば、表示画面に表示されたアイコンの選択操作、電源のオン、オフの切り換え操作、ホーム画面への移行操作等)をいう。
In order to achieve the above object, a computer program according to claim 1 of the present application provides an operation panel (6) disposed in front of a display screen of an electronic device (1) including a display screen (4) and an imaging device (5). ) In the computer program for operating the electronic device based on the touch operation on the fingertip portion of the user's hand who touch-operates the operation plate based on the captured image in front of the display screen captured by the imaging device of the electronic device. A contour width detection function for detecting the width of the contour of the user, and a touch for detecting the touch operation of the user on the operation plate based on the width of the contour of the fingertip portion of the user's hand detected by the contour width detection function Based on the operation detection function and the user's touch operation on the operation plate detected by the touch operation detection function, the user can access the electronic device. An operation function of performing The operation, the characterized in that to be executed by the electronic device.
The “touch operation with respect to the operation plate” means a concept of touching and operating the operation plate such as pushing the operation plate, tracing with respect to the operation plate, and flicking with respect to the operation plate.
The “user operation on the electronic device” is an electronic device operation (for example, an icon displayed on the display screen) that is performed based on the touch operation on the operation panel without the user directly contacting the electronic device. Selection operation, power on / off switching operation, home screen transition operation, etc.).

また、請求項2に係るコンピュータプログラムは、請求項1に記載のコンピュータプログラムであって、前記撮像装置(5)の焦点距離は、前記撮像装置から前記操作板(6)までの距離に設定され、前記タッチ操作検出機能は、前記輪郭幅検出機能によって検出された前記ユーザの手の指先部分の輪郭の幅が閾値以下である場合に、該閾値以下の幅の輪郭からなる指先部分を、前記操作板に対して前記ユーザがタッチしたタッチ地点として特定することを特徴とする。   A computer program according to claim 2 is the computer program according to claim 1, wherein a focal length of the imaging device (5) is set to a distance from the imaging device to the operation plate (6). The touch operation detection function, when the contour width of the fingertip portion of the user's hand detected by the contour width detection function is equal to or less than a threshold value, The touch point touched by the user on the operation plate is specified.

また、請求項3に係るコンピュータプログラムは、請求項2に記載のコンピュータプログラムであって、前記閾値は、手の指先部分が前記操作板(6)に接触した状態で前記撮像装置(5)により撮像された撮像画像中に含まれる該指先部分が示す輪郭の幅とすることを特徴とする。   The computer program according to claim 3 is the computer program according to claim 2, wherein the threshold value is determined by the imaging device (5) in a state where a fingertip portion of the hand is in contact with the operation plate (6). It is characterized by the width of the contour indicated by the fingertip part included in the captured image.

また、請求項4に係るコンピュータプログラムは、請求項2又は請求項3に記載のコンピュータプログラムであって、前記タッチ操作検出機能は、前記輪郭幅検出機能によって検出された前記ユーザの手の指先部分の輪郭の幅が前記閾値より太い状態から前記閾値以下へと変化したタイミングで、前記操作板(6)に対して前記ユーザがタッチオンしたと検出し、前記輪郭幅検出機能によって検出された前記ユーザの手の指先部分の輪郭の幅が前記閾値以下から前記閾値より太い状態へと変化したタイミングで、前記操作板に対して前記ユーザがタッチオフしたと検出することを特徴とする。   The computer program according to claim 4 is the computer program according to claim 2 or claim 3, wherein the touch operation detection function is a fingertip portion of the user's hand detected by the contour width detection function. The user detected that the user touched on the operation panel (6) at a timing when the contour width of the user changed from a state thicker than the threshold value to the threshold value or less, and detected by the contour width detection function. It is detected that the user touches off the operation plate at a timing when the width of the contour of the fingertip portion of the hand changes from the threshold value or less to a state thicker than the threshold value.

また、請求項5に係るコンピュータプログラムは、請求項2乃至請求項4のいずれかに記載のコンピュータプログラムであって、前記タッチ操作検出機能によって特定された前記タッチ地点の履歴に基づいて、前記操作板(6)に対する前記ユーザのタッチ操作の操作種別を検出する操作種別検出機能を、前記電子機器(1)に実行させ、前記操作機能は、前記操作種別検出機能によって検出された前記ユーザのタッチ操作の操作種別に基づいて、前記電子機器へのユーザ操作を行うことを特徴とする。
尚、「タッチ操作の操作種別」としては、ドラッグ操作、フリック操作、ピンチ操作等が有る。
A computer program according to claim 5 is the computer program according to any one of claims 2 to 4, wherein the operation is performed based on a history of the touch point specified by the touch operation detection function. The electronic device (1) is caused to execute an operation type detection function for detecting an operation type of the user's touch operation on the board (6), and the operation function is detected by the operation type detection function. A user operation to the electronic device is performed based on an operation type of operation.
Note that “operation type of touch operation” includes a drag operation, a flick operation, a pinch operation, and the like.

また、請求項6に係るコンピュータプログラムは、請求項1乃至請求項5のいずれかに記載のコンピュータプログラムであって、前記電子機器(1)は前記表示画面(4)の前面にタッチパネル(18)が配置され、前記操作機能は、前記操作板(6)に対する前記ユーザのタッチ操作を、前記タッチパネルに対するタッチ操作に置き換えて、該置き換えた操作による前記電子機器へのユーザ操作を行う機能であることを特徴とする。   The computer program according to claim 6 is the computer program according to any one of claims 1 to 5, wherein the electronic device (1) has a touch panel (18) on a front surface of the display screen (4). And the operation function is a function of replacing the touch operation of the user on the operation plate (6) with a touch operation on the touch panel and performing a user operation on the electronic device by the replaced operation. It is characterized by.

また、請求項7に係るコンピュータプログラムは、請求項6に記載のコンピュータプログラムであって、前記タッチ操作検出機能は、前記操作板(6)に対して前記ユーザがタッチしたタッチ地点を前記操作板上の座標系で特定し、前記操作機能は、前記操作板上の座標系で特定されたタッチ地点を前記表示画面(4)上の座標系に変換し、前記操作板に対する前記ユーザのタッチ操作を、前記表示画面上の座標系に変換されたタッチ地点を前記タッチパネル(18)でタッチする操作に置き換えることを特徴とする。   The computer program according to claim 7 is the computer program according to claim 6, wherein the touch operation detection function is configured such that the touch point touched by the user with respect to the operation plate (6) is the operation plate. The operation function is specified by the upper coordinate system, and the operation function converts the touch point specified by the coordinate system on the operation board into a coordinate system on the display screen (4), and the user's touch operation on the operation board. Is replaced with an operation of touching the touch point converted into the coordinate system on the display screen with the touch panel (18).

また、請求項8に係るコンピュータプログラムは、請求項7に記載のコンピュータプログラムであって、前記タッチパネル(18)によって操作対象となる操作対象物(26、27、28、30、32、33、34)を前記表示画面(4)に表示させる表示機能を、前記電子機器(1)に実行させ、前記操作機能は、前記電子機器へのユーザ操作として、前記表示画面上の座標系に変換されたタッチ地点に対応する前記操作対象物の操作を行う機能であることを特徴とする。   The computer program according to claim 8 is the computer program according to claim 7, wherein the operation object (26, 27, 28, 30, 32, 33, 34) to be operated by the touch panel (18). ) Is displayed on the display screen (4) by the electronic device (1), and the operation function is converted into a coordinate system on the display screen as a user operation on the electronic device. It is a function which operates the said operation target object corresponding to a touch point, It is characterized by the above-mentioned.

また、請求項9に係るコンピュータプログラムは、請求項7又は請求項8に記載のコンピュータプログラムであって、前記操作機能は、前記ユーザが前記操作板(6)を介して視認できる前記表示画面(4)と変換前のタッチ地点との位置関係が、前記電子機器(1)の前記表示画面と変換後のタッチ地点との位置関係に対応するように、前記操作板上の座標系で特定されたタッチ地点を前記表示画面上の座標系に変換することを特徴とする。   The computer program according to claim 9 is the computer program according to claim 7 or claim 8, wherein the operation function is displayed on the display screen (the display screen (6) visible to the user via the operation plate (6)). 4) and the positional relationship between the touch points before conversion are specified in the coordinate system on the operation panel so as to correspond to the positional relationship between the display screen of the electronic device (1) and the touch points after conversion. The touch point is converted into a coordinate system on the display screen.

また、請求項10に係るコンピュータプログラムは、請求項1乃至請求項9のいずれかに記載のコンピュータプログラムであって、前記操作板(6)には、拡大鏡が形成され、前記表示画面(4)の表示内容は前記操作板を介して拡大して表示されることを特徴とする。
尚、「拡大鏡」としては、フレネルレンズや凸レンズ等が有る。
A computer program according to claim 10 is the computer program according to any one of claims 1 to 9, wherein a magnifying glass is formed on the operation plate (6), and the display screen (4) is provided. ) Is displayed enlarged through the operation panel.
Note that “magnifying glass” includes a Fresnel lens and a convex lens.

また、請求項11に係る電子機器の制御方法は、表示画面(4)と撮像装置(5)とを備えた電子機器(1)の表示画面の前方に配置された操作板(6)に対するタッチ操作に基づいて前記電子機器を操作する電子機器の制御方法であって、前記電子機器の撮像装置によって撮像された前記表示画面前方の撮像画像に基づいて、操作板をタッチ操作するユーザの手の指先部分の輪郭の幅を検出する輪郭幅検出ステップと、前記輪郭幅検出ステップによって検出された前記ユーザの手の指先部分の輪郭の幅に基づいて、前記操作板に対する前記ユーザのタッチ操作を検出するタッチ操作検出ステップと、前記タッチ操作検出ステップによって検出された前記操作板に対する前記ユーザのタッチ操作に基づいて、前記電子機器へのユーザ操作を行う操作ステップと、を有することを特徴とする。   According to the eleventh aspect of the present invention, there is provided a method for controlling an electronic device, wherein a touch on an operation panel (6) disposed in front of a display screen of an electronic device (1) including a display screen (4) and an imaging device (5). A method of controlling an electronic device that operates the electronic device based on an operation, wherein the user's hand touch-operates an operation plate based on a captured image in front of the display screen captured by an imaging device of the electronic device. A contour width detecting step for detecting a contour width of a fingertip portion, and detecting a user's touch operation on the operation plate based on a contour width of a fingertip portion of the user's hand detected by the contour width detecting step. And a user operation to the electronic device is performed based on the touch operation of the user with respect to the operation plate detected by the touch operation detection step. Operations and steps, and having a.

更に、請求項12に係る電子機器は、表示画面(4)と撮像装置(5)とを備え、前記表示画面の前方に配置された操作板(6)に対するタッチ操作に基づいて操作される電子機器(1)であって、前記電子機器の撮像装置によって撮像された前記表示画面前方の撮像画像に基づいて、操作板をタッチ操作するユーザの手の指先部分の輪郭の幅を検出する輪郭幅検出手段(11)と、前記輪郭幅検出手段によって検出された前記ユーザの手の指先部分の輪郭の幅に基づいて、前記操作板に対する前記ユーザのタッチ操作を検出するタッチ操作検出手段(11)と、前記タッチ操作検出手段によって検出された前記操作板に対する前記ユーザのタッチ操作に基づいて、前記電子機器へのユーザ操作を行う操作手段(11)と、を有することを特徴とする。   Furthermore, an electronic device according to a twelfth aspect includes an electronic device that includes a display screen (4) and an imaging device (5), and is operated based on a touch operation on an operation panel (6) disposed in front of the display screen. Contour width for detecting the width of the contour of the fingertip portion of the user's hand touch-operating the operation plate based on the captured image in front of the display screen captured by the imaging device of the electronic device. Detection means (11) and touch operation detection means (11) for detecting the user's touch operation on the operation plate based on the width of the contour of the fingertip portion of the user's hand detected by the contour width detection means. And an operation means (11) for performing a user operation on the electronic device based on the user's touch operation on the operation plate detected by the touch operation detection means. To.

前記構成を有する請求項1に記載のコンピュータプログラムによれば、電子機器の周囲に電子機器に対するユーザの操作を阻害する障害物が置かれた場合であっても、表示画面の前方に配置された操作板へのユーザのタッチ操作に基づいて電子機器の操作を行わせるので、表示画面への視認性を確保しつつ、ユーザの操作性が低下することについても防止することが可能となる。また、ユーザの手の指先部分の色に基づいてタッチ操作を検出させるので、タッチパネルを用いなくとも撮像装置を用いて正確なタッチ操作の検出が可能となる。また、ユーザの肌の色などの個人差や周囲の明るさ等の外部環境の影響に左右されず、安定してユーザのタッチ操作を検出することが可能となる。   According to the computer program according to claim 1 having the above-described configuration, even when an obstacle that hinders the user's operation on the electronic device is placed around the electronic device, the computer program is arranged in front of the display screen. Since the electronic device is operated based on the user's touch operation on the operation panel, it is possible to prevent the user's operability from being lowered while ensuring the visibility on the display screen. In addition, since the touch operation is detected based on the color of the fingertip portion of the user's hand, it is possible to accurately detect the touch operation using the imaging device without using the touch panel. In addition, it is possible to stably detect a user's touch operation without being influenced by individual differences such as the user's skin color or the influence of the external environment such as ambient brightness.

また、請求項2に記載のコンピュータプログラムによれば、撮像画像中に含まれるユーザの指先部分の輪郭の幅が閾値以下である場合に、該閾値以下の幅の輪郭からなる指先部分を、操作板に対してユーザがタッチしたタッチ地点として特定するので、撮像装置を用いて正確なタッチ地点の特定が可能となる。   According to the computer program of claim 2, when the contour width of the user's fingertip portion included in the captured image is equal to or smaller than a threshold value, the fingertip portion including the contour having a width equal to or smaller than the threshold value is manipulated. Since the touch point specified by the user touching the board is specified, an accurate touch point can be specified using the imaging device.

また、請求項3に記載のコンピュータプログラムによれば、撮像画像中に含まれるユーザの指先部分の輪郭の幅が、操作板に接触した状態で示す輪郭の幅以下である場合に、該幅以下の指先部分を、操作板に対してユーザがタッチしたタッチ地点として特定するので、撮像装置を用いて正確なタッチ地点の特定が可能となる。   According to the computer program according to claim 3, when the width of the contour of the fingertip portion of the user included in the captured image is equal to or smaller than the width of the contour shown in contact with the operation plate, Since the fingertip portion is specified as the touch point touched by the user with respect to the operation plate, the accurate touch point can be specified using the imaging device.

また、請求項4に記載のコンピュータプログラムによれば、ユーザの指先部分の輪郭の幅が閾値より太い状態から閾値以下へと変化したタイミングでユーザがタッチオンしたと検出し、ユーザの指先部分の輪郭の幅が閾値以下から閾値より太い状態へと変化したタイミングでユーザがタッチオフしたと検出するので、撮像装置を用いて正確なタッチオン及びタッチオフのタイミングの検出が可能となる。   According to the computer program of claim 4, it is detected that the user has touched on at a timing when the width of the contour of the user's fingertip portion changes from a state thicker than the threshold value to a threshold value or less, and the contour of the user's fingertip portion is detected. Since it is detected that the user has touched off at a timing when the width of the touch panel changes from a threshold value or less to a state thicker than the threshold value, it is possible to accurately detect the touch-on and touch-off timing using the imaging device.

また、請求項5に記載のコンピュータプログラムによれば、ユーザの操作板へのタッチ操作の操作種別を検出し、検出された操作種別に基づいて電子機器へのユーザ操作を行うので、ドラッグ操作やフリック操作やピンチ操作等の特殊なタッチ操作に基づいて電子機器へのユーザ操作を行わせることが可能となる。従って、タッチパネルの操作と同等の操作感覚で操作板による電子機器へのユーザ操作を行わせることが可能となる。   According to the computer program of the fifth aspect, the operation type of the touch operation on the operation panel of the user is detected, and the user operation to the electronic device is performed based on the detected operation type. Based on a special touch operation such as a flick operation or a pinch operation, a user operation on the electronic device can be performed. Therefore, it is possible to cause a user operation to the electronic device using the operation panel with an operation feeling equivalent to the operation of the touch panel.

また、請求項6に記載のコンピュータプログラムによれば、操作板に対するユーザのタッチ操作を、タッチパネルに対する操作に置き換えて、電子機器へのユーザ操作を行うので、タッチパネルにユーザが直接タッチしなくとも、操作板へのタッチ操作によってタッチパネルの操作を実現することが可能となる。従って、タッチパネルに直接操作を行う場合と比較しても操作性が低下することが無い。   According to the computer program of claim 6, since the user's touch operation on the operation plate is replaced with the operation on the touch panel and the user operation on the electronic device is performed, even if the user does not touch the touch panel directly, The touch panel can be operated by touching the operation plate. Therefore, the operability does not deteriorate even when compared with the case of directly operating the touch panel.

また、請求項7に記載のコンピュータプログラムによれば、操作板に対するユーザのタッチ操作を、表示画面上の座標系に変換されたタッチ地点をタッチパネルでタッチするタッチ操作に置き換えるので、タッチパネルにユーザが直接タッチしなくとも、操作板へのタッチ操作によってタッチパネルの任意の地点にタッチするユーザ操作を実現することが可能となる。また、操作板へのタッチ地点を変更すれば、置き換えられるタッチパネルのタッチ地点も変化するので、ユーザの意図に沿った容易な操作が実現可能となる。   According to the computer program of the seventh aspect, the user's touch operation on the operation panel is replaced with a touch operation in which the touch point converted into the coordinate system on the display screen is touched with the touch panel. Even without direct touching, it is possible to realize a user operation for touching an arbitrary point on the touch panel by a touch operation on the operation panel. Further, if the touch point on the operation panel is changed, the touch point on the touch panel to be replaced is also changed, so that an easy operation according to the user's intention can be realized.

また、請求項8に記載のコンピュータプログラムによれば、操作板に対するユーザのタッチ操作を、表示画面上の操作対象物をタッチパネルでタッチする操作に置き換えるので、タッチパネルにユーザが直接タッチしなくとも、操作板へのタッチ操作によって表示画面に表示された操作対象物をタッチするユーザ操作を実現することが可能となる。   According to the computer program of claim 8, since the user's touch operation on the operation panel is replaced with an operation of touching the operation target on the display screen with the touch panel, even if the user does not directly touch the touch panel, It is possible to realize a user operation to touch an operation target displayed on the display screen by a touch operation on the operation plate.

また、請求項9に記載のコンピュータプログラムによれば、ユーザが操作板を介して視認できる表示画面と変換前のタッチ地点との位置関係が、電子機器の表示画面と変換後のタッチ地点との位置関係に対応するように、操作板上の座標系で特定されたタッチ地点を表示画面上の座標系に変換するので、ユーザが操作板を介して視認できる表示画面にタッチパネルが配置されているのと同等の電子機器に対するユーザ操作を実現することが可能となる。   According to the computer program of the ninth aspect, the positional relationship between the display screen that can be visually recognized by the user via the operation panel and the touch point before the conversion is determined between the display screen of the electronic device and the touch point after the conversion. Since the touch point specified by the coordinate system on the operation panel is converted to the coordinate system on the display screen so as to correspond to the positional relationship, the touch panel is arranged on the display screen that the user can visually recognize via the operation panel. It is possible to realize a user operation for an electronic device equivalent to the above.

また、請求項10に記載のコンピュータプログラムによれば、操作板を介して表示画面の表示内容を拡大して表示するので、例えば表示画面からユーザが離れた状態で表示画面を視認する必要がある状況であっても、ユーザに表示内容を詳細に示すことが可能となる。   Further, according to the computer program of the tenth aspect, since the display content of the display screen is enlarged and displayed via the operation panel, it is necessary to visually recognize the display screen in a state where the user is away from the display screen, for example. Even in the situation, the display contents can be shown to the user in detail.

また、請求項11に記載の電子機器の制御方法によれば、電子機器の周囲に電子機器に対するユーザの操作を阻害する障害物が置かれた場合であっても、表示画面の前方に配置された操作板へのユーザのタッチ操作に基づいて電子機器の操作を行うので、表示画面への視認性を確保しつつ、ユーザの操作性が低下することについても防止することが可能となる。また、ユーザの手の指先部分の色に基づいてタッチ操作を検出するので、タッチパネルを用いなくとも撮像装置を用いて正確なタッチ操作の検出が可能となる。また、ユーザの肌の色などの個人差や周囲の明るさ等の外部環境の影響に左右されず、安定してユーザのタッチ操作を検出することが可能となる。   According to the electronic device control method of the eleventh aspect, even when an obstacle that hinders the user's operation on the electronic device is placed around the electronic device, the electronic device is disposed in front of the display screen. Since the electronic device is operated based on the user's touch operation on the operation panel, it is possible to prevent the user's operability from being lowered while ensuring the visibility on the display screen. Further, since the touch operation is detected based on the color of the fingertip portion of the user's hand, it is possible to accurately detect the touch operation using the imaging device without using the touch panel. In addition, it is possible to stably detect a user's touch operation without being influenced by individual differences such as the user's skin color or the influence of the external environment such as ambient brightness.

更に、請求項12に記載の電子機器によれば、電子機器の周囲に電子機器に対するユーザの操作を阻害する障害物が置かれた場合であっても、表示画面の前方に配置された操作板へのユーザのタッチ操作に基づいて電子機器の操作を行うので、表示画面への視認性を確保しつつ、ユーザの操作性が低下することについても防止することが可能となる。また、ユーザの手の指先部分の色に基づいてタッチ操作を検出するので、タッチパネルを用いなくとも撮像装置を用いて正確なタッチ操作の検出が可能となる。また、ユーザの肌の色などの個人差や周囲の明るさ等の外部環境の影響に左右されず、安定してユーザのタッチ操作を検出することが可能となる。   Furthermore, according to the electronic device according to claim 12, even when an obstacle that hinders the user's operation on the electronic device is placed around the electronic device, the operation plate disposed in front of the display screen Since the electronic device is operated based on the user's touch operation, it is possible to prevent the user's operability from being lowered while ensuring the visibility on the display screen. Further, since the touch operation is detected based on the color of the fingertip portion of the user's hand, it is possible to accurately detect the touch operation using the imaging device without using the touch panel. In addition, it is possible to stably detect a user's touch operation without being influenced by individual differences such as the user's skin color or the influence of the external environment such as ambient brightness.

第1実施形態に係る端末操作システムを示した概略構成図である。It is a schematic structure figure showing a terminal operation system concerning a 1st embodiment. 端末ケースを開放した状態を示した図である。It is the figure which showed the state which open | released the terminal case. フレネルレンズによって拡大される通信端末のディスプレイの表示内容を示した図である。It is the figure which showed the display content of the display of the communication terminal expanded by a Fresnel lens. 第1実施形態に係る通信端末の制御系を模式的に示すブロック図である。It is a block diagram which shows typically the control system of the communication terminal which concerns on 1st Embodiment. 通信端末のディスプレイに表示されるトップ画面を示した図である。It is the figure which showed the top screen displayed on the display of a communication terminal. 通信端末のディスプレイに表示されるナビゲーション画面を示した図である。It is the figure which showed the navigation screen displayed on the display of a communication terminal. 第1実施形態に係る端末操作処理プログラムのフローチャートである。It is a flowchart of the terminal operation processing program which concerns on 1st Embodiment. 通信端末に内蔵されたカメラによる周辺の撮像態様を示した図である。It is the figure which showed the imaging aspect of the periphery with the camera incorporated in the communication terminal. 第1実施形態に係る初期設定処理のサブ処理プログラムのフローチャートである。It is a flowchart of the sub process program of the initial setting process which concerns on 1st Embodiment. 第1実施形態に係る画像補正処理のサブ処理プログラムのフローチャートである。It is a flowchart of the sub-processing program of the image correction process which concerns on 1st Embodiment. 第1実施形態に係る画像補正処理のサブ処理プログラムのフローチャートである。It is a flowchart of the sub-processing program of the image correction process which concerns on 1st Embodiment. 第1実施形態に係る操作板を示した上面図である。It is the top view which showed the operation board which concerns on 1st Embodiment. 通信端末の設置位置と撮像される撮像画像の関係を示した図である。It is the figure which showed the relationship between the installation position of a communication terminal, and the captured image imaged. 通信端末の設置位置と撮像される撮像画像の関係を示した図である。It is the figure which showed the relationship between the installation position of a communication terminal, and the captured image imaged. 通信端末の設置位置と撮像される撮像画像の関係を示した図である。It is the figure which showed the relationship between the installation position of a communication terminal, and the captured image imaged. ステップ52の画像出力の補正処理を行う前と行った後のディスプレイの表示内容を示した図である。It is the figure which showed the display content of the display before performing the correction process of the image output of step 52, and after performing it. ステップ52の画像出力の補正処理を行う前と行った後の操作板を介してユーザが視認できるディスプレイの表示内容を示した図である。It is the figure which showed the display content of the display which a user can visually recognize via the operation board before performing the correction process of the image output of step 52, and after performing. 第1実施形態に係る補正値計算処理のサブ処理プログラムのフローチャートである。It is a flowchart of the sub process program of the correction value calculation process which concerns on 1st Embodiment. 第1実施形態に係る補正値計算処理のサブ処理プログラムのフローチャートである。It is a flowchart of the sub process program of the correction value calculation process which concerns on 1st Embodiment. 補正値計算処理における補正値算出の手順について説明した図である。It is a figure explaining the procedure of the correction value calculation in a correction value calculation process. 補正値計算処理における補正値算出の手順について説明した図である。It is a figure explaining the procedure of the correction value calculation in a correction value calculation process. 補正値計算処理における補正値算出の手順について説明した図である。It is a figure explaining the procedure of the correction value calculation in a correction value calculation process. 補正値計算処理における補正値算出の手順について説明した図である。It is a figure explaining the procedure of the correction value calculation in a correction value calculation process. 補正値計算処理における補正値算出の手順について説明した図である。It is a figure explaining the procedure of the correction value calculation in a correction value calculation process. 補正値計算処理における補正値算出の手順について説明した図である。It is a figure explaining the procedure of the correction value calculation in a correction value calculation process. 第1実施形態に係るタッチ検出処理のサブ処理プログラムのフローチャートである。It is a flowchart of the sub process program of the touch detection process which concerns on 1st Embodiment. 第1実施形態に係るタッチ検出処理のサブ処理プログラムのフローチャートである。It is a flowchart of the sub process program of the touch detection process which concerns on 1st Embodiment. 指先端部の色に基づくタッチ座標の検出方法について説明した図である。It is a figure explaining the detection method of the touch coordinate based on the color of a finger tip part. タッチ座標の変換方法について説明した図である。It is a figure explaining the conversion method of touch coordinates. ハードキーの仮想操作領域について説明した図である。It is a figure explaining the virtual operation area | region of a hard key. ハードキーの仮想操作領域について説明した図である。It is a figure explaining the virtual operation area | region of a hard key. 第1実施形態に係るカメラ感度調整処理のサブ処理プログラムのフローチャートである。It is a flowchart of the sub process program of the camera sensitivity adjustment process which concerns on 1st Embodiment. 第1実施形態に係る画面輝度調整処理のサブ処理プログラムのフローチャートである。It is a flowchart of the sub process program of the screen brightness adjustment process which concerns on 1st Embodiment. 第2実施形態に係るタッチ検出処理のサブ処理プログラムのフローチャートである。It is a flowchart of the sub process program of the touch detection process which concerns on 2nd Embodiment. 第2実施形態に係るタッチ検出処理のサブ処理プログラムのフローチャートである。It is a flowchart of the sub process program of the touch detection process which concerns on 2nd Embodiment. 指先端部の輪郭の幅に基づくタッチ座標の検出方法について説明した図である。It is a figure explaining the detection method of the touch coordinate based on the width | variety of the outline of a finger tip part. 第3実施形態に係るハードキー操作処理プログラムのフローチャートである。It is a flowchart of the hard key operation processing program which concerns on 3rd Embodiment. 振動パターンとハードキーの操作内容とを対応付けた対応情報の一例を示した図である。It is the figure which showed an example of the corresponding information which matched the vibration pattern and the operation content of the hard key.

以下、本発明に係る電子機器について携帯型の通信端末に具体化した第1実施形態乃至第3実施形態について、図面を参照しつつ詳細に説明する。   Hereinafter, a first embodiment to a third embodiment in which an electronic device according to the present invention is embodied in a portable communication terminal will be described in detail with reference to the drawings.

[第1実施形態]
先ず、第1実施形態に係る通信端末1を含む端末操作システム2の概略構成について図1を用いて説明する。図1は第1実施形態に係る端末操作システム2を示した概略構成図である。
[First Embodiment]
First, a schematic configuration of a terminal operation system 2 including a communication terminal 1 according to the first embodiment will be described with reference to FIG. FIG. 1 is a schematic configuration diagram showing a terminal operation system 2 according to the first embodiment.

図1に示すように、第1実施形態に係る端末操作システム2は、携帯型の通信端末1と通信端末1が内部に配置される端末ケース3から基本的に構成されている。尚、通信端末1としては例えばスマートフォン、携帯電話機、PDA、タブレット型端末等があるが、以下に示す例ではスマートフォンを用いて説明することとする。   As shown in FIG. 1, the terminal operation system 2 according to the first embodiment basically includes a portable communication terminal 1 and a terminal case 3 in which the communication terminal 1 is disposed. In addition, although there exist a smart phone, a mobile telephone, PDA, a tablet-type terminal etc. as the communication terminal 1, suppose that it demonstrates using a smart phone in the example shown below.

ここで、通信端末1は、各種画像を表示する為のディスプレイ4と、周囲を撮像する為のカメラ5が内蔵された携帯型の情報通信端末が用いられる。また、通信端末1にはウェブブラウザ、メールソフト、ナビゲーションアプリ等を含めた複数のアプリケーションプログラムがインストールされている。ここで、インストールされた各種アプリケーションプログラムは、後述するようにトップ画面(図5参照)において起動アイコンが選択された場合に起動され、ユーザ(操作者)の操作に基づいて通信端末1において各種機能を実行させる。例えば、ナビゲーションアプリでは、サーバから取得したりメモリに格納された地図情報や交通情報に基づいて通信端末1の現在位置周辺の地図画像や交通情報を表示したり、表示された地図画像中において通信端末1の現在位置を表示したり、設定された出発地から目的地までの経路の探索及び案内をする機能等がある。また、通信端末1は、後述の送受信回路部(RF)13を介して通信ネットワーク網に接続され、通信端末間や外部センタと双方向通信可能に構成されている。尚、通信端末1の詳細については後述する。   Here, the communication terminal 1 is a portable information communication terminal in which a display 4 for displaying various images and a camera 5 for imaging the surroundings are incorporated. In addition, a plurality of application programs including a web browser, mail software, a navigation application, and the like are installed in the communication terminal 1. Here, the installed various application programs are activated when an activation icon is selected on the top screen (see FIG. 5) as described later, and various functions are performed in the communication terminal 1 based on the operation of the user (operator). Is executed. For example, a navigation application displays a map image and traffic information around the current position of the communication terminal 1 based on map information and traffic information acquired from a server or stored in a memory, or communicates in a displayed map image. There are functions such as displaying the current position of the terminal 1 and searching and guiding a route from the set departure point to the destination. The communication terminal 1 is connected to a communication network via a transmission / reception circuit unit (RF) 13 described later, and is configured to be capable of bidirectional communication between communication terminals and an external center. Details of the communication terminal 1 will be described later.

一方、端末ケース3は、アクリル板等の透過性の高い無色透明の板状部材によって形成された箱型形状を有し、内部に通信端末1を配置可能に構成されている。但し、端末ケース3を形成する各板状部材の内、内部に配置された通信端末1のディスプレイ4と対向する板状部材(以下、操作板6という)については後述のようにフレネルレンズが形成されている。また、操作板6は一端が回動可能に支持されており、端末ケース3の蓋の役目を有する。そして、図2に示すように操作板6を上側方向に回動することによって、通信端末1の端末ケース3内に対する配置及び取り出しが可能に構成されている。   On the other hand, the terminal case 3 has a box shape formed by a highly transparent colorless and transparent plate member such as an acrylic plate, and is configured so that the communication terminal 1 can be disposed therein. However, among the plate-like members forming the terminal case 3, a Fresnel lens is formed as will be described later for the plate-like member (hereinafter referred to as the operation plate 6) facing the display 4 of the communication terminal 1 disposed inside. Has been. Further, one end of the operation plate 6 is rotatably supported and serves as a lid for the terminal case 3. Then, as shown in FIG. 2, the operation plate 6 is rotated upward so that the communication terminal 1 can be arranged and removed from the terminal case 3.

また、端末ケース3を構成する各板状部材の内、操作板6と対向する板状部材(以下、底板7という)の中心付近には、通信端末1を端末ケース3に対して固定する為の固定部8が設けられている。尚、通信端末1に内蔵されたカメラ5で操作板6を撮像する目的から、特に通信端末1が端末ケース3に固定された場合に、カメラ5のレンズ位置が底板7の中心付近となるように固定部8の位置を調整することが望ましい。そして、第1実施形態に係る端末操作システム2では、後述のように固定部8に対して通信端末1を固定し、操作板6を閉鎖した図1に示す状態であっても、操作板6へのタッチ操作により通信端末1に対する操作を行うことが可能に構成されている。尚、端末ケース3は、例えば車両内のインストルメントパネル等に設置される。   In addition, in order to fix the communication terminal 1 to the terminal case 3 in the vicinity of the center of the plate-like member (hereinafter referred to as the bottom plate 7) facing the operation plate 6 among the plate-like members constituting the terminal case 3. The fixed part 8 is provided. For the purpose of imaging the operation panel 6 with the camera 5 built in the communication terminal 1, the lens position of the camera 5 is near the center of the bottom plate 7, particularly when the communication terminal 1 is fixed to the terminal case 3. It is desirable to adjust the position of the fixing portion 8. And in the terminal operation system 2 which concerns on 1st Embodiment, even if it is the state shown in FIG. 1 which fixed the communication terminal 1 with respect to the fixing | fixed part 8 and closed the operation plate 6 as mentioned later, the operation plate 6 The communication terminal 1 can be operated by a touch operation. The terminal case 3 is installed, for example, on an instrument panel in the vehicle.

ここで、前記したように操作板6にはフレネルレンズが形成されているので、端末ケース3内に通信端末1が配置された状態では、図3に示すように端末ケース3の正面から操作板6を介してユーザが通信端末1を視認すると、端末ケース3の内部に配置された通信端末1が拡大されて視認されることとなる。その拡大率は、通信端末1から操作板6までの離間距離Lやフレネルレンズの焦点距離を調整することによって適宜変更可能であるが、例えば、通信端末1のディスプレイ4の全体が操作板6の全領域の所定割合(例えば80%)で視認することが可能に構成する。その結果、ユーザから通信端末1までの距離が離れている場合であっても、通信端末1のディスプレイ4に表示される表示内容をユーザに明確に示すことが可能となる。   Here, since the Fresnel lens is formed on the operation plate 6 as described above, when the communication terminal 1 is disposed in the terminal case 3, the operation plate is viewed from the front of the terminal case 3 as shown in FIG. When the user visually recognizes the communication terminal 1 via 6, the communication terminal 1 arranged inside the terminal case 3 is enlarged and visually recognized. The enlargement ratio can be changed as appropriate by adjusting the separation distance L from the communication terminal 1 to the operation panel 6 or the focal length of the Fresnel lens. For example, the entire display 4 of the communication terminal 1 can be It is configured to be visible at a predetermined ratio (for example, 80%) of the entire area. As a result, even when the distance from the user to the communication terminal 1 is long, the display content displayed on the display 4 of the communication terminal 1 can be clearly shown to the user.

尚、図1及び図2に示す端末ケース3は一例であり、端末ケース3の形状は直方体以外の形状をしていても良い。また、端末ケース3については少なくとも操作板6を構成する板状部材が透過性の高い材質で形成されていれば、他の板状部材については不透過な材質により形成されていても良い。また、通信端末1を内部に配置する際には操作板6以外の部分を開閉可能としても良く、通信端末1の端末ケース3に対する固定方法は、ゴム製バンドを用いたり、金具を用いて固定することも可能である。   In addition, the terminal case 3 shown in FIG.1 and FIG.2 is an example, and the shape of the terminal case 3 may have shapes other than a rectangular parallelepiped. As for the terminal case 3, as long as at least the plate-like member constituting the operation plate 6 is made of a highly permeable material, the other plate-like members may be made of an impermeable material. In addition, when the communication terminal 1 is arranged inside, the part other than the operation panel 6 may be opened and closed, and the method of fixing the communication terminal 1 to the terminal case 3 is fixed using a rubber band or a metal fitting. It is also possible to do.

次に、ユーザの有する通信端末1の概略構成について図4を用いて説明する。図4は第1実施形態に係る通信端末1の制御系を模式的に示すブロック図である。   Next, a schematic configuration of the communication terminal 1 possessed by the user will be described with reference to FIG. FIG. 4 is a block diagram schematically showing a control system of the communication terminal 1 according to the first embodiment.

図4に示すように通信端末1はデータバスBUSに、CPU11と、通信端末1を所持するユーザに関するユーザ情報やアプリケーションプログラム等が記憶されたメモリ12と、通信ネットワーク網の基地局との間で信号の送受信を行う送受信回路部(RF)13と、送受信回路部13において受信したRF(Radio Frequency)信号をベースバンド信号に変換するとともにベースバンド信号をRF信号に変換するベースバンド処理部14と、マイクロホン15及びスピーカ16等とのインターフェイスである入出力部17と、ディスプレイ4と、カメラ5と、ユーザの操作を受け付けるタッチパネル18と、ダイヤルやボタン等のハードウェアの操作部であるハードキー19と、加速度センサ20や照度センサ21等の各種センサとが接続されることにより構成されている。   As shown in FIG. 4, the communication terminal 1 is connected to the data bus BUS between the CPU 11, the memory 12 storing user information and application programs related to the user who owns the communication terminal 1, and the base station of the communication network. A transmission / reception circuit unit (RF) 13 for transmitting and receiving signals, a baseband processing unit 14 for converting an RF (Radio Frequency) signal received by the transmission / reception circuit unit 13 into a baseband signal and converting the baseband signal into an RF signal; The input / output unit 17 that is an interface with the microphone 15 and the speaker 16, the display 4, the camera 5, the touch panel 18 that receives user operations, and the hardware keys 19 that are hardware operation units such as dials and buttons. And various sensors such as the acceleration sensor 20 and the illuminance sensor 21 are connected. It is constructed by.

ここで、通信端末1に内蔵されるCPU11は、メモリ12に格納されている動作プログラムに従って種々の動作を実行する通信端末1の制御手段であり、メモリ12とともに通信端末ECU22を構成する。また、通信端末ECU22の各種処理内容は必要に応じてディスプレイ4に表示される。尚、通信端末ECU22は、処理アルゴリズムとしての各種手段を構成する。例えば、輪郭幅検出手段は、カメラ5によって撮像されたディスプレイ4前方の撮像画像に基づいて、操作板6をタッチ操作するユーザの手の指先部分の輪郭の幅を検出する。タッチ操作検出手段は、輪郭幅検出手段によって検出されたユーザの手の指先部分の輪郭の幅に基づいて、操作板6に対するユーザのタッチ操作を検出する。操作手段は、タッチ操作検出手段によって検出された操作板6に対するユーザのタッチ操作に基づいて、通信端末1へのユーザ操作を行う。   Here, the CPU 11 built in the communication terminal 1 is a control unit of the communication terminal 1 that executes various operations according to the operation program stored in the memory 12, and constitutes the communication terminal ECU 22 together with the memory 12. Various processing contents of the communication terminal ECU 22 are displayed on the display 4 as necessary. The communication terminal ECU 22 constitutes various means as processing algorithms. For example, the contour width detection means detects the width of the contour of the fingertip portion of the user's hand who touches the operation panel 6 based on the captured image in front of the display 4 captured by the camera 5. The touch operation detection means detects the user's touch operation on the operation plate 6 based on the outline width of the fingertip portion of the user's hand detected by the outline width detection means. The operation unit performs a user operation on the communication terminal 1 based on the user's touch operation on the operation plate 6 detected by the touch operation detection unit.

また、メモリ12は通信端末1を所持するユーザに関するユーザ情報やカメラ5で撮像された撮像画像やインストールされたアプリケーションプログラムの他、後述の端末操作処理プログラム(図7参照)等が記憶された記憶媒体である。また、メモリ12は、ハードディスク、メモリーカード、CDやDVD等の光ディスク等により構成しても良い。   The memory 12 stores user information related to the user who owns the communication terminal 1, a captured image captured by the camera 5, an installed application program, a terminal operation processing program (see FIG. 7) described later, and the like. It is a medium. The memory 12 may be configured by a hard disk, a memory card, an optical disk such as a CD or a DVD, and the like.

また、ディスプレイ4は、筐体の一面に配設されており、液晶ディスプレイや有機ELディスプレイ等によって構成される。そして、通信端末1にインストールされている各種アプリケーションを実行する為のトップ画面や、実行されたアプリケーションに係る画面(インターネット画面、メール画面、ナビゲーション画面等)や、画像、動画等の各種情報が表示される。   The display 4 is disposed on one surface of the housing, and is configured by a liquid crystal display, an organic EL display, or the like. Then, a top screen for executing various applications installed in the communication terminal 1, screens related to the executed applications (Internet screen, mail screen, navigation screen, etc.), and various information such as images and videos are displayed. Is done.

ここで、図5は特にディスプレイ4に表示されるトップ画面25の一例について示した図である。トップ画面25は通信端末1の電源をONした後にディスプレイ4に表示され、通信端末1にインストールされている各種アプリケーションを実行する為の操作を受け付ける基本操作画面であり、ホーム画面やデスクトップ等が相当する。
図5に示すように、トップ画面25には、複数の起動アイコン26〜28が配置されている。起動アイコン26〜28は、通信端末1にインストールされているアプリケーションを起動させる為に操作される操作対象物であり、ユーザによって起動アイコン26〜28が操作される(例えばタッチパネルによりタッチされる)と、操作された起動アイコン26〜28に対応したアプリケーションの起動が開始される。例えば、図5に示す例では、通信端末1に対してナビゲーションアプリとインターネットブラウザアプリとメールアプリがインストールされている場合のトップ画面25を示す。そして、起動アイコン26が操作されると、ナビゲーションアプリが起動される。また、起動アイコン27が操作されると、インターネットブラウザアプリが起動される。また、起動アイコン28が操作されると、メールアプリが起動される。
Here, FIG. 5 is a diagram showing an example of the top screen 25 displayed on the display 4 in particular. The top screen 25 is a basic operation screen that is displayed on the display 4 after the communication terminal 1 is turned on and receives operations for executing various applications installed in the communication terminal 1, and corresponds to a home screen, a desktop, or the like. To do.
As shown in FIG. 5, a plurality of activation icons 26 to 28 are arranged on the top screen 25. The start icons 26 to 28 are operation objects that are operated to start an application installed in the communication terminal 1. When the start icons 26 to 28 are operated by the user (for example, touched by a touch panel). Then, the activation of the application corresponding to the operated activation icons 26 to 28 is started. For example, the example shown in FIG. 5 shows the top screen 25 when a navigation application, an Internet browser application, and a mail application are installed in the communication terminal 1. When the activation icon 26 is operated, the navigation application is activated. Further, when the activation icon 27 is operated, the Internet browser application is activated. Further, when the activation icon 28 is operated, the mail application is activated.

また、図6はトップ画面25において特にナビゲーションアプリを起動させる為の起動アイコン26が操作された場合に、ディスプレイ4に表示されるナビゲーション画面29の一例について示した図である。
図6に示すように、ナビゲーション画面29には、通信端末1周辺の地図画像30と、通信端末1(即ちユーザ)の地図上に特定された現在位置を示す現在位置マーク31が表示される。また、地点登録や経路探索を行う際等に操作される操作対象物として各種操作ボタン32〜34についても表示される。また、現在位置周辺の渋滞情報や交通規制等の交通情報(例えば、図6に示す例では工事による通行規制を示すマーク35)についても表示される。更に、通信端末1において目的地までの案内経路が設定された場合には、地図画像上で案内経路に沿って描かれた案内経路線や、目的地の位置を示す目的地マークについても表示される。そして、ユーザはディスプレイ4に表示されたナビゲーション画面29を参照することによって、ユーザ周辺の道路形状や交通状況、目的地までの経路等を把握することが可能となる。更に、地図画像30に対してドラッグ操作やフリック操作を行った場合には、地図画像30のスクロール表示を行うことも可能である。
FIG. 6 is a diagram showing an example of the navigation screen 29 displayed on the display 4 when the start icon 26 for starting the navigation application is operated on the top screen 25 in particular.
As shown in FIG. 6, the navigation screen 29 displays a map image 30 around the communication terminal 1 and a current position mark 31 indicating the current position specified on the map of the communication terminal 1 (that is, the user). Further, various operation buttons 32 to 34 are also displayed as operation objects to be operated when performing point registration or route search. Also, traffic information such as traffic jam information around the current position and traffic information (for example, a mark 35 indicating traffic regulation due to construction in the example shown in FIG. 6) is also displayed. Further, when a guide route to the destination is set in the communication terminal 1, a guide route line drawn along the guide route on the map image and a destination mark indicating the position of the destination are also displayed. The Then, by referring to the navigation screen 29 displayed on the display 4, the user can grasp the road shape and traffic conditions around the user, the route to the destination, and the like. Furthermore, when a drag operation or a flick operation is performed on the map image 30, the map image 30 can be scrolled.

また、カメラ5は、小型のCCDカメラであり、通信端末1に内蔵される。また、レンズは通信端末1の筐体前面であってディスプレイ4と重複しない位置に配置される。そして、カメラ5の撮像方向がディスプレイ4の向きと同方向(即ち、ディスプレイ4から照射される光の光軸方向が撮像方向)となるように構成される。また、カメラ5は焦点距離や感度を任意に調整可能に構成されている。尚、カメラ5は、基本的にユーザによる通信端末1の操作に基づいて撮像を行うが、特に第1実施形態では、通信端末1が端末ケース3内に配置された場合に、ディスプレイ4の前方に対向して配置される操作板6をケース内側から撮像する。   The camera 5 is a small CCD camera and is built in the communication terminal 1. Further, the lens is disposed on the front surface of the housing of the communication terminal 1 and at a position that does not overlap with the display 4. And it is comprised so that the imaging direction of the camera 5 may become the same direction as the direction of the display 4 (namely, the optical axis direction of the light irradiated from the display 4 is an imaging direction). Further, the camera 5 is configured such that the focal length and sensitivity can be arbitrarily adjusted. The camera 5 basically performs imaging based on the operation of the communication terminal 1 by the user. In particular, in the first embodiment, when the communication terminal 1 is disposed in the terminal case 3, the front of the display 4 is displayed. An image of the operation plate 6 disposed opposite to is taken from the inside of the case.

また、タッチパネル18は、ディスプレイ4の表示領域の前面に配置され、ディスプレイ4に表示されたアイコンやボタン等の操作対象物を操作する為の操作手段である。そして、通信端末ECU22は、タッチパネル18の押下等により出力される電気信号に基づき、対応する各種の動作を実行すべく制御を行う。特に第1実施形態に係る通信端末1では、上述したトップ画面25における起動アイコン26〜28の操作や、起動されたアプリケーションでの各種選択及び入力操作等に用いられる。更に、後述のように端末ケース3内に通信端末1が配置された状態においては、操作板6へのタッチ操作をタッチパネル18の操作に置き換えて通信端末1の操作を行うことも可能である。   The touch panel 18 is an operation means that is disposed in front of the display area of the display 4 and operates operation objects such as icons and buttons displayed on the display 4. Then, the communication terminal ECU 22 performs control to perform various corresponding operations based on an electrical signal output by pressing the touch panel 18 or the like. In particular, the communication terminal 1 according to the first embodiment is used for the operation of the activation icons 26 to 28 on the top screen 25 described above, various selections and input operations in the activated application, and the like. Furthermore, in the state where the communication terminal 1 is arranged in the terminal case 3 as described later, the operation of the communication terminal 1 can be performed by replacing the touch operation on the operation panel 6 with the operation of the touch panel 18.

一方、ハードキー19は、ディスプレイ4上ではなく通信端末1の筐体表面に形成されたハードウェアの操作手段である。例えば、ハードキー19としては、トップ画面25に戻る際に操作されるホームボタン、各種機能が割り当てられるサイドボタン、音量を調整する為のダイヤルキー、カーソルを動かすカーソルキー、文字や数字を入力する為のテンキー、電源のオン、オフを切り替える電源ボタン等がある。そして、通信端末ECU22は、ハードキー19の操作により出力される電気信号に基づき、対応する各種の動作を実行すべく制御を行う。特に第1実施形態に係る通信端末1では、後述のように端末ケース3内に通信端末1が配置された状態においては、操作板6へのタッチ操作をハードキー19の操作に置き換えて通信端末1の操作を行うことも可能である。   On the other hand, the hard key 19 is a hardware operation unit formed not on the display 4 but on the housing surface of the communication terminal 1. For example, as the hard key 19, a home button operated when returning to the top screen 25, a side button to which various functions are assigned, a dial key for adjusting the volume, a cursor key for moving the cursor, a character or a number is input. For example, a numeric keypad, a power button for switching the power on and off, and the like. Then, the communication terminal ECU 22 performs control to execute various corresponding operations based on the electrical signal output by operating the hard key 19. In particular, in the communication terminal 1 according to the first embodiment, in a state where the communication terminal 1 is arranged in the terminal case 3 as described later, the touch operation on the operation panel 6 is replaced with the operation of the hard key 19, and the communication terminal 1 is replaced. It is also possible to perform operation 1.

また、加速度センサ20は、通信端末1に内蔵され、通信端末1に対して生じる3軸方向の加速度を検出する為のセンサである。そして、通信端末ECU22は、加速度センサ20の検出結果に基づいて通信端末1に生じる振動を検出することが可能となる。更に、振動の有無に加えて振動の振幅(振動の大きさ)や振動の周波数についても検出することが可能である。尚、加速度センサ20の替わりにジャイロセンサを用いても良い。更に加速度センサ20とジャイロセンサを両方備える構成としても良い。   The acceleration sensor 20 is a sensor that is built in the communication terminal 1 and detects accelerations in the three-axis directions generated with respect to the communication terminal 1. And communication terminal ECU22 becomes possible [detecting the vibration which arises in communication terminal 1 based on the detection result of acceleration sensor 20]. Furthermore, in addition to the presence or absence of vibration, it is also possible to detect the vibration amplitude (vibration magnitude) and vibration frequency. A gyro sensor may be used instead of the acceleration sensor 20. Furthermore, it is good also as a structure provided with both the acceleration sensor 20 and a gyro sensor.

また、照度センサ21は、通信端末1に内蔵され、通信端末1の周囲の照度を検出する為のセンサである。   The illuminance sensor 21 is a sensor that is built in the communication terminal 1 and detects the illuminance around the communication terminal 1.

続いて、前記構成を有する通信端末1においてCPU11が実行する端末操作処理プログラムについて図7に基づき説明する。図7は第1実施形態に係る端末操作処理プログラムのフローチャートである。ここで、端末操作処理プログラムは、通信端末1においてユーザによる所定の操作を受け付けた場合に実行され、操作板6へのユーザのタッチ操作に基づいて、端末ケース3内に配置された通信端末1へのユーザ操作を行うプログラムである。また、以下の図7、図9〜図11、図18、図19、図26、図27、図32及び図33にフローチャートで示されるプログラムは、通信端末1が備えるメモリ12等に記憶されており、CPU11により実行される。   Next, a terminal operation processing program executed by the CPU 11 in the communication terminal 1 having the above configuration will be described with reference to FIG. FIG. 7 is a flowchart of the terminal operation processing program according to the first embodiment. Here, the terminal operation processing program is executed when a predetermined operation by the user is received in the communication terminal 1, and the communication terminal 1 arranged in the terminal case 3 based on the user's touch operation on the operation panel 6. Is a program for performing user operations on The programs shown in the flowcharts of FIGS. 7, 9 to 11, 18, 19, 26, 27, 32, and 33 below are stored in the memory 12 provided in the communication terminal 1. And is executed by the CPU 11.

先ず、端末操作処理プログラムではステップ(以下、Sと略記する)1において、CPU11は、当該端末操作処理プログラムに対応するアプリケーションプログラム(以下、端末操作アプリという)を起動する。即ち、当該端末操作処理プログラムは、ディスプレイ4にトップ画面25(図5)が表示されている状態において、端末操作アプリの起動アイコンが選択操作(タッチパネル18によりタッチ)された場合に、実行されることとなる。尚、端末操作アプリは、事前にインストールプログラムをネットワーク等を介して取得し、通信端末1に対してインストールする必要がある。   First, in step (hereinafter abbreviated as S) 1 in the terminal operation processing program, the CPU 11 activates an application program (hereinafter referred to as a terminal operation application) corresponding to the terminal operation processing program. That is, the terminal operation processing program is executed when the start icon of the terminal operation application is selected (touched by the touch panel 18) while the top screen 25 (FIG. 5) is displayed on the display 4. It will be. The terminal operation application needs to obtain an installation program in advance via a network or the like and install it on the communication terminal 1.

次に、S2においてCPU11は、通信端末1の現在の設定をメモリ12等に保存する。尚、前記S2で保存される設定内容は、特に後述のステップにおいて設定が変更されるディスプレイ4やカメラ5に関する設定であり、例えばディスプレイ4の輝度、カメラ5の感度や焦点距離等が有る。   Next, in S2, the CPU 11 stores the current setting of the communication terminal 1 in the memory 12 or the like. The setting contents stored in S2 are settings related to the display 4 and the camera 5 whose settings are changed in the steps described below, and include, for example, the brightness of the display 4, the sensitivity and the focal length of the camera 5, and the like.

続いて、S3においてCPU11は、タッチパネル18による操作を無効とする。従って、S3以降では、後述するS19でタッチパネル18による操作が再び有効となるまで、タッチパネル18による通信端末1の操作が出来ない状態となる。   Subsequently, in S <b> 3, the CPU 11 invalidates the operation using the touch panel 18. Therefore, after S3, the operation of the communication terminal 1 using the touch panel 18 cannot be performed until the operation using the touch panel 18 becomes valid again in S19 described later.

その後、S4においてCPU11は、端末ケース3内に通信端末1を配置することを促す案内を行う。例えば、「スマートフォンをケース内部にセットして下さい。」との文章をディスプレイ4に表示する。また、同内容の音声を出力する構成としても良い。   After that, in S <b> 4, the CPU 11 performs guidance for urging to place the communication terminal 1 in the terminal case 3. For example, a text “Please set your smartphone inside the case.” Is displayed on the display 4. Moreover, it is good also as a structure which outputs the audio | voice of the same content.

次に、S5においてCPU11は、通信端末1に内蔵されたカメラ5を起動し、カメラ5による周囲の撮像を開始する。ここで、カメラ5は、前記したように撮像方向がディスプレイ4の向きと同方向となるように構成されており、ディスプレイ4の前方を撮像する。従って、端末ケース3に通信端末1が配置された状態では、図8に示すように端末ケース3の操作板6をケース内側から撮像する。そして、特にユーザが操作板6に対するタッチ操作を行っている場合には、ユーザのタッチ操作の操作態様(操作板6のどの位置をどのようにタッチしているのか)を撮像することとなる。尚、カメラ5によって撮像された撮像画像はメモリ12等に記憶される。   Next, in S <b> 5, the CPU 11 activates the camera 5 built in the communication terminal 1 and starts imaging the surroundings with the camera 5. Here, the camera 5 is configured so that the imaging direction is the same as the direction of the display 4 as described above, and images the front of the display 4. Therefore, in a state where the communication terminal 1 is arranged in the terminal case 3, the operation plate 6 of the terminal case 3 is imaged from the inside of the case as shown in FIG. In particular, when the user is performing a touch operation on the operation panel 6, an operation mode of the user's touch operation (which position on the operation panel 6 is touched and how) is imaged. A captured image captured by the camera 5 is stored in the memory 12 or the like.

その後、S6においてCPU11は、後述の初期設定処理(図9)を行う。尚、初期設定処理は、操作板6に対するユーザのタッチ操作を適切に検出する為に、ディスプレイ4やカメラ5の設定を行う処理である。   Thereafter, in S6, the CPU 11 performs an initial setting process (FIG. 9) described later. The initial setting process is a process for setting the display 4 and the camera 5 in order to appropriately detect the user's touch operation on the operation panel 6.

続いて、S7においてCPU11は、後述の画像補正処理(図10、図11)を行う。尚、画像補正処理は、端末ケース3に対する通信端末1の位置ズレを検出し、操作板6を介して適切なディスプレイ4の表示画像がユーザから視認できるようにディスプレイ4の画像出力を補正する処理である。   Subsequently, in S7, the CPU 11 performs image correction processing (FIGS. 10 and 11) described later. Note that the image correction process is a process of detecting a positional shift of the communication terminal 1 with respect to the terminal case 3 and correcting the image output of the display 4 so that the user can visually recognize an appropriate display image on the display 4 via the operation panel 6. It is.

更に、S8においてCPU11は、後述のタッチ検出処理(図26、図27)を行う。尚、タッチ検出処理は、カメラ5の撮像画像に基づいて操作板6に対するユーザのタッチ操作を検出し、更に、検出された操作板6に対するユーザのタッチ操作を、タッチパネル18に対する操作やハードキーの操作に置き換える処理である。尚、前記S8の処理で操作板6に対するユーザのタッチ操作がタッチパネル18に対する操作に置き換えられた場合には、ディスプレイ4上の座標系におけるタッチ地点の座標(以下、タッチ座標という)やタッチ操作の操作種別(フリック操作、ドラック操作、ピンチ操作)がユーザのタッチ操作を置き換えた操作として検出される。また、前記S8の処理で操作板6に対するユーザのタッチ操作がハードキー19のハードウェア上の操作に置き換えられた場合には、操作対象となるハードキー19の種類や操作種別(例えばホームボタンの押下)がユーザのタッチ操作を置き換えた操作として検出される。   Further, in S8, the CPU 11 performs a touch detection process (FIGS. 26 and 27) described later. In the touch detection process, a user's touch operation on the operation panel 6 is detected based on a captured image of the camera 5, and the user's touch operation on the detected operation panel 6 is detected based on an operation on the touch panel 18 or a hard key. It is a process that replaces the operation. When the user's touch operation on the operation panel 6 is replaced with an operation on the touch panel 18 in the process of S8, the coordinates of the touch point in the coordinate system on the display 4 (hereinafter referred to as touch coordinates) and the touch operation are displayed. The operation type (flick operation, drag operation, pinch operation) is detected as an operation replacing the user's touch operation. When the touch operation of the user on the operation panel 6 is replaced with the hardware operation of the hard key 19 in the process of S8, the type and operation type of the hard key 19 to be operated (for example, the home button ) Is detected as an operation that replaces the user's touch operation.

次に、S9においてCPU11は、ユーザの操作に伴うその他の処理を実行する。   Next, in S <b> 9, the CPU 11 executes other processing associated with the user operation.

その後、S10においてCPU11は、通信端末1の筐体に配置されたハードキー19の一つであるホームボタンがユーザによって直接操作されたか否かを判定する。尚、ユーザがホームボタンを直接操作する為には、端末ケース3から通信端末1を取り出す必要がある。   Thereafter, in S10, the CPU 11 determines whether or not a home button, which is one of the hard keys 19 arranged on the housing of the communication terminal 1, has been directly operated by the user. Note that in order for the user to directly operate the home button, it is necessary to take out the communication terminal 1 from the terminal case 3.

そして、ホームボタンがユーザによって直接操作されたと判定された場合(S10:YES)には、S18へと移行する。それに対して、ホームボタンがユーザによって直接操作されていないと判定された場合(S10:NO)には、S11へと移行する。   And when it determines with the home button having been operated directly by the user (S10: YES), it transfers to S18. On the other hand, when it is determined that the home button is not directly operated by the user (S10: NO), the process proceeds to S11.

S11においてCPU11は、前記S8のタッチ検出処理においてユーザのタッチ操作を最後に検出してから一定時間(例えば30sec)以上経過したか否かを判定する。尚、前記S11において判定基準となる一定時間は、ユーザによって任意に設定することも可能であり、メモリ12等に記憶される。   In S11, the CPU 11 determines whether or not a predetermined time (for example, 30 sec) has elapsed since the user's touch operation was last detected in the touch detection process in S8. It should be noted that the fixed time serving as the determination criterion in S11 can be arbitrarily set by the user and is stored in the memory 12 or the like.

そして、ユーザのタッチ操作を最後に検出してから一定時間以上経過したと判定された場合(S11:YES)には、S12へと移行する。それに対して、ユーザのタッチ操作を最後に検出した時点から一定時間以上経過していないと判定された場合(S11:NO)にはS7へと戻り、タッチ操作の検出を継続して行う。   And when it determines with more than fixed time having passed since the user's touch operation was detected last (S11: YES), it transfers to S12. On the other hand, when it is determined that the predetermined time or more has not elapsed since the last time when the user's touch operation was detected (S11: NO), the process returns to S7 and the touch operation is continuously detected.

S12においてCPU11は、ディスプレイ4の電源をオフする。   In S12, the CPU 11 turns off the power of the display 4.

次に、S13においてCPU11は、通信端末1を待機モードに移行させる。尚、待機モードでは、操作板6に対するユーザのタッチ操作を検出する機能以外の機能を一時的に休止状態とする。   Next, in S13, the CPU 11 shifts the communication terminal 1 to the standby mode. In the standby mode, the functions other than the function for detecting the user's touch operation on the operation panel 6 are temporarily set in a pause state.

続いて、S14においてCPU11は、後述のタッチ検出処理(図26、図27)を行う。尚、詳細は前記S8と同様であるので説明は省略する。   Subsequently, in S14, the CPU 11 performs touch detection processing (FIGS. 26 and 27) described later. The details are the same as in S8, and a description thereof will be omitted.

その後、S15においてCPU11は、前記S14のタッチ検出処理において少なくとも操作板6上のいずれかの地点をユーザがタッチするタッチ操作が行われたか否かを判定する。   Thereafter, in S15, the CPU 11 determines whether or not a touch operation in which the user touches at least any point on the operation plate 6 in the touch detection process in S14 has been performed.

そして、操作板6上のいずれかの地点をユーザがタッチするタッチ操作が行われたと判定された場合(S15:YES)には、S16へと移行する。それに対して、操作板6上をユーザがタッチするタッチ操作が行われていないと判定された場合(S15:NO)にはS14へと戻り、タッチ操作の検出を継続して行う。   And when it determines with the touch operation which a user touches any point on the operation board 6 having been performed (S15: YES), it transfers to S16. On the other hand, when it is determined that the touch operation that the user touches on the operation panel 6 is not performed (S15: NO), the process returns to S14 and the detection of the touch operation is continuously performed.

S16においてCPU11は、通信端末1を待機モードから復帰させる。   In S16, the CPU 11 returns the communication terminal 1 from the standby mode.

その後、S17においてCPU11は、ディスプレイ4の電源をオンする。その後、S7へと戻り、タッチ操作の検出を継続して行う。   Thereafter, in S17, the CPU 11 turns on the power of the display 4. Thereafter, the process returns to S7, and the touch operation is continuously detected.

一方、前記S10でホームボタンがユーザによって直接操作されたと判定された場合に実行されるS18では、CPU11は、通信端末1に内蔵されたカメラ5の起動を停止し、カメラ5による周囲の撮像を終了する。   On the other hand, in S <b> 18 that is executed when it is determined in S <b> 10 that the home button has been directly operated by the user, the CPU 11 stops the activation of the camera 5 built in the communication terminal 1, and images the surroundings by the camera 5. finish.

続いて、S19においてCPU11は、タッチパネル18による操作を有効とする。その結果、S19以降では、タッチパネル18による通信端末1の操作が可能となる。   Subsequently, in S <b> 19, the CPU 11 validates the operation using the touch panel 18. As a result, after S19, the operation of the communication terminal 1 by the touch panel 18 becomes possible.

次に、S20においてCPU11は、前記S2で保存した通信端末1の設定を読み出し、通信端末1の現在の設定を読み出した設定へと変更する。その結果、後述のように当該端末操作処理プログラム中に通信端末1の各種設定(例えば、ディスプレイ4の輝度、カメラ5の感度や焦点距離等)が変更された場合であっても、端末操作処理プログラムを実行する直前の設定状態に通信端末1を復帰させることが可能となる。   Next, in S20, the CPU 11 reads the setting of the communication terminal 1 saved in S2, and changes the current setting of the communication terminal 1 to the read setting. As a result, even if various settings of the communication terminal 1 (for example, the brightness of the display 4, the sensitivity of the camera 5, and the focal length) are changed during the terminal operation processing program as described later, the terminal operation processing is performed. It becomes possible to return the communication terminal 1 to the setting state immediately before executing the program.

その後、S21においてCPU11は、前記S1で起動された端末操作アプリを終了する。   Thereafter, in S21, the CPU 11 ends the terminal operation application activated in S1.

次に、前記S6において実行される初期設定処理のサブ処理について図9に基づき説明する。図9は初期設定処理のサブ処理プログラムのフローチャートである。   Next, a sub-process of the initial setting process executed in S6 will be described with reference to FIG. FIG. 9 is a flowchart of a sub-processing program for the initial setting process.

先ず、S31においてCPU11は、通信端末1に内蔵された加速度センサ20を用いて通信端末1に対して生じる振動を検出する。   First, in S <b> 31, the CPU 11 detects vibration generated in the communication terminal 1 using the acceleration sensor 20 built in the communication terminal 1.

次に、S32においてCPU11は、通信端末1が振動したことを最後に検出してから一定時間(例えば10sec)以上経過したか否かを判定する。尚、前記S32において判定基準となる一定時間は、ユーザによって任意に設定することも可能であり、メモリ12等に記憶される。また、CPU11は、加速度センサ20によって振動を検出した場合であっても、検出した振動の振幅や周波数が所定の閾値未満である場合にはノイズとみなし、前記S32の判定対象から除くことが望ましい。   Next, in S <b> 32, the CPU 11 determines whether or not a certain time (for example, 10 sec) has elapsed since the communication terminal 1 was last detected to vibrate. It should be noted that the fixed time serving as the determination criterion in S32 can be arbitrarily set by the user and is stored in the memory 12 or the like. Further, even when the vibration is detected by the acceleration sensor 20, the CPU 11 considers it as noise when the detected vibration amplitude or frequency is less than a predetermined threshold value, and desirably removes it from the determination target in S32. .

そして、通信端末1が振動したことを検出してから一定時間以上経過したと判定された場合(S32:YES)には、通信端末1の設置作業中でないと推定し、S33へと移行する。それに対して、通信端末1の振動を最後に検出した時点から一定時間以上経過していないと判定された場合(S32:NO)には、通信端末1の設置作業中であると推定し、S31へと戻り、通信端末1の振動を検出する処理を継続して実行する。   Then, when it is determined that a certain time or more has elapsed since it was detected that the communication terminal 1 vibrated (S32: YES), it is estimated that the communication terminal 1 is not being installed, and the process proceeds to S33. On the other hand, when it is determined that the predetermined time or more has not elapsed since the vibration was detected last (S32: NO), it is estimated that the communication terminal 1 is being installed, and S31 The process of detecting the vibration of the communication terminal 1 is continuously executed.

S33においてCPU11は、直近の所定時間(例えば5sec)内においてカメラ5で撮像された撮像画像をメモリ12から読み出す。   In S <b> 33, the CPU 11 reads out a captured image captured by the camera 5 from the memory 12 within the latest predetermined time (for example, 5 seconds).

次に、S34においてCPU11は、前記S33で読み出された撮像画像が大きく変化したか否かを判定する。ここで、カメラ5は、前記したように撮像方向がディスプレイ4の向きと同方向となるように構成されており、端末ケース3内に通信端末1が配置された状態では、図8に示すように端末ケース3の操作板6をケース内側から撮像することとなる。そして、操作板6は前記したようにフレネルレンズが形成されており、フレネルレンズを介して周囲を撮像した撮像画像とフレネルレンズを介さずに周囲を撮像した撮像画像とは、仮に同位置から同方向を撮像した場合であってもその画像の内容は全く異なるものとなる。即ち、端末ケース3内に通信端末1が配置されていない図2に示す状態から、端末ケース3内に通信端末1が配置されている図1に示す状態に移行すると、カメラ5によって撮像された撮像画像が、フレネルレンズを含まない画像(即ちフレネルレンズを透過しない画像)からフレネルレンズを含む画像(即ちフレネルレンズを透過した画像)へと大きく変化することとなる。従って、前記S34の判定処理を行うことによって、端末ケース3内に通信端末1が配置されたか否か(ディスプレイ4の前方に操作板6が配置されたか否か)について判定することが可能となる。   Next, in S34, the CPU 11 determines whether or not the captured image read in S33 has changed significantly. Here, the camera 5 is configured so that the imaging direction is the same as the direction of the display 4 as described above, and the communication terminal 1 is arranged in the terminal case 3 as shown in FIG. In addition, the operation plate 6 of the terminal case 3 is imaged from the inside of the case. The operation panel 6 is formed with a Fresnel lens as described above, and the captured image obtained by imaging the surroundings through the Fresnel lens and the captured image obtained by imaging the surroundings without using the Fresnel lens are assumed to be the same from the same position. Even when the direction is imaged, the contents of the image are completely different. That is, when a transition is made from the state shown in FIG. 2 where the communication terminal 1 is not arranged in the terminal case 3 to the state shown in FIG. 1 where the communication terminal 1 is arranged in the terminal case 3, the image is taken by the camera 5. The captured image greatly changes from an image that does not include the Fresnel lens (that is, an image that does not pass through the Fresnel lens) to an image that includes the Fresnel lens (that is, an image that passes through the Fresnel lens). Therefore, it is possible to determine whether or not the communication terminal 1 is disposed in the terminal case 3 (whether or not the operation panel 6 is disposed in front of the display 4) by performing the determination process of S34. .

そして、前記S33で読み出された撮像画像が大きく変化した(即ち、操作板6を含まない撮像画像から操作板6を含む撮像画像へと変化した)と判定された場合(S33:YES)には、ディスプレイ4の前方に操作板6が配置されている、即ち端末ケース3内に通信端末1が配置されていると認定し、S36へと移行する。それに対して、前記S33で読み出された撮像画像が大きく変化していない(即ち、操作板6を含まない撮像画像が継続して撮像されている)と判定された場合(S33:NO)には、ディスプレイ4の前方に操作板6が配置されていない、即ち端末ケース3内に通信端末1が配置されていないと認定し、S35へと移行する。   When it is determined that the captured image read in S33 has changed significantly (that is, the captured image not including the operation panel 6 has changed to the captured image including the operation panel 6) (S33: YES). Recognizes that the operation panel 6 is disposed in front of the display 4, that is, the communication terminal 1 is disposed in the terminal case 3, and the process proceeds to S36. On the other hand, when it is determined that the captured image read in S33 has not changed significantly (that is, the captured image not including the operation panel 6 is continuously captured) (S33: NO). Recognizes that the operation panel 6 is not disposed in front of the display 4, that is, the communication terminal 1 is not disposed in the terminal case 3, and proceeds to S35.

S35においてCPU11は、通信端末1が振動したことを最後に検出してから更に所定時間(例えば20sec)以上経過したか否かを判定する。尚、前記S35において判定基準となる所定時間は、ユーザによって任意に設定することも可能であり、メモリ12等に記憶される。   In S <b> 35, the CPU 11 determines whether or not a predetermined time (for example, 20 sec) has elapsed since the last detection of the vibration of the communication terminal 1. It should be noted that the predetermined time serving as the determination criterion in S35 can be arbitrarily set by the user and is stored in the memory 12 or the like.

そして、通信端末1が振動したことを最後に検出してから更に所定時間以上経過したと判定された場合(S35:YES)には、通信端末1が端末ケース3内に既に配置されたにもかかわらず、何らかの原因により撮像画像の変化からは通信端末1が端末ケース3内に配置されたことを検出できなかったと推定し、S36へと移行する。一方、通信端末1の振動を最後に検出した時点から所定時間以上経過していないと判定された場合(S35:NO)にはS33へと戻り、通信端末1の振動を検出する処理を継続して実行する。   If it is determined that a predetermined time or more has elapsed since the last detection of the vibration of the communication terminal 1 (S35: YES), the communication terminal 1 is already placed in the terminal case 3. Regardless, it is presumed that the communication terminal 1 cannot be detected from the change in the captured image for some reason, and the process proceeds to S36. On the other hand, when it is determined that the predetermined time or more has not elapsed since the last time when the vibration of the communication terminal 1 was detected (S35: NO), the process returns to S33 and the process of detecting the vibration of the communication terminal 1 is continued. And execute.

S36においてCPU11は、ディスプレイ4の輝度を所定割合(例えば20%)上昇させる。例えば、ディスプレイ4が液晶ディスプレイである場合には、バックライトの強度を上げることによって輝度を上昇させる。それによって、後述のように焦点距離を短くした場合であっても、ディスプレイ4から放出される光を用いて適切な明るさの撮像画像を撮像することが可能となる。   In S36, the CPU 11 increases the luminance of the display 4 by a predetermined ratio (for example, 20%). For example, when the display 4 is a liquid crystal display, the luminance is increased by increasing the intensity of the backlight. Thereby, even when the focal length is shortened as will be described later, it is possible to capture a captured image with appropriate brightness using light emitted from the display 4.

次に、S37においてCPU11は、カメラ5の焦点距離をカメラ5から操作板6までの距離L(図3)に設定する。それによって、後述のタッチ検出処理(S8)において、操作板6をタッチするユーザの手を鮮明に撮像することが可能となる。尚、カメラ5から操作板6までの距離Lは、予めメモリ12に記憶させる構成としても良いし、カメラ5によって操作板6を撮像した撮像画像に基づいてCPU11が算出する構成としても良い。   Next, in S <b> 37, the CPU 11 sets the focal length of the camera 5 to the distance L (FIG. 3) from the camera 5 to the operation plate 6. Thereby, in the touch detection process (S8) described later, it is possible to clearly capture the user's hand touching the operation panel 6. The distance L from the camera 5 to the operation plate 6 may be stored in the memory 12 in advance, or may be calculated by the CPU 11 based on a captured image obtained by capturing the operation plate 6 with the camera 5.

次に、前記S7において実行される画像補正処理のサブ処理について図10及び図11に基づき説明する。図10及び図11は画像補正処理のサブ処理プログラムのフローチャートである。   Next, the sub process of the image correction process executed in S7 will be described with reference to FIGS. 10 and 11 are flowcharts of a sub-processing program for image correction processing.

先ず、S41においてCPU11は、カメラ5のハード的な要因に基づいて必要となる撮像画像の補正に用いる補正値Aを取得する。ここで、ハード的な要因に基づいて必要となる補正とは、撮像画像が湾曲して撮像される場合に、湾曲する撮像画像を湾曲しない撮像画像へと修正する補正等が有る。尚、補正値Aはカメラ固有の値であり、メモリ12等に予め記憶される。   First, in S <b> 41, the CPU 11 acquires a correction value A used for correcting a captured image that is necessary based on hardware factors of the camera 5. Here, the correction required based on hardware factors includes correction for correcting a curved captured image to a non-curved captured image when the captured image is curved and captured. The correction value A is a value unique to the camera and is stored in advance in the memory 12 or the like.

次に、S42においてCPU11は、直近にカメラ5で撮像された撮像画像をメモリ12から読み出す。   Next, in S <b> 42, the CPU 11 reads from the memory 12 a captured image most recently captured by the camera 5.

続いて、S43においてCPU11は、前記S42で読み出した撮像画像を前記S41で取得された補正値Aに基づいて補正する。その結果、前記S42で読み出した撮像画像が湾曲していた場合であっても、その湾曲を修正することが可能となる。   Subsequently, in S43, the CPU 11 corrects the captured image read in S42 based on the correction value A acquired in S41. As a result, even if the captured image read in S42 is curved, the curvature can be corrected.

その後、S44においてCPU11は、前記S42で読み出した撮像画像から操作板6に配置された検出マークを検出する処理を行う。ここで、図12は端末ケース3の操作板6を示した上面図である。   Thereafter, in S44, the CPU 11 performs a process of detecting a detection mark arranged on the operation panel 6 from the captured image read in S42. Here, FIG. 12 is a top view showing the operation plate 6 of the terminal case 3.

図12に示すように、第1実施形態に係る操作板6は、面上の計4箇所の角部に対して、それぞれ検出マーク41〜44が配置されている。尚、検出マーク41〜44は操作板6に対して直接印字されていても良いし、粘着剤等を介して操作板6に貼付する構成としても良い。また、検出マーク41〜44の内、左上に位置する検出マーク41は四角形状を有し、他の検出マーク42〜44については三角形状を有する。尚、マークの形状については四角形状や三角形状以外の形状としても良いが、4箇所の内、少なくとも1箇所を他と異なる形状のマークとすることが望ましい。   As illustrated in FIG. 12, the operation plate 6 according to the first embodiment has detection marks 41 to 44 arranged at four corners on the surface, respectively. The detection marks 41 to 44 may be directly printed on the operation plate 6 or may be configured to be affixed to the operation plate 6 via an adhesive or the like. Of the detection marks 41 to 44, the detection mark 41 located at the upper left has a quadrangular shape, and the other detection marks 42 to 44 have a triangular shape. Note that the shape of the mark may be a shape other than a quadrangular shape or a triangular shape, but at least one of the four locations is preferably a mark having a different shape.

また、検出マーク41〜44は四隅以外の場所に配置しても良いが、少なくとも操作板6の面上の複数箇所に対して配置することが望ましい。また、検出マーク41〜44は、端末ケース3に対して通信端末1が正しい位置に配置された場合に、いずれもカメラ5の撮像範囲に含まれる位置に配置する。   Further, the detection marks 41 to 44 may be arranged at locations other than the four corners, but it is desirable to arrange them at least at a plurality of locations on the surface of the operation plate 6. Further, the detection marks 41 to 44 are arranged at positions included in the imaging range of the camera 5 when the communication terminal 1 is arranged at a correct position with respect to the terminal case 3.

次に、S45においてCPU11は、撮像画像から操作板6に配置された全ての検出マーク(図12に示す例では検出マーク41〜44の4個)が検出できたか否か判定する。
ここで、図13に示すように端末ケース3に対して通信端末1が正しい位置に配置されていれば、カメラ5で撮像した撮像画像中に操作板6に配置された検出マーク41〜44が全て含まれることとなる。尚、カメラ5は操作板6をケース内側から撮像するので、図12に示す操作板6の上面図と撮像画像中とでは検出マーク41〜44の配置は左右反転する。
一方、図14に示すように端末ケース3に対して通信端末1が正しい位置に配置されていなければ、カメラ5で撮像した撮像画像中に操作板6に配置された検出マーク41〜44が全て含まれない場合がある。例えば、図14に示す例では、通信端末1が正しい配置よりも上側にずれて配置されたことによって、検出マーク41〜44の内、検出マーク41と検出マーク42のみが撮像画像に含まれることとなる。
Next, in S45, the CPU 11 determines whether or not all detection marks (four detection marks 41 to 44 in the example shown in FIG. 12) arranged on the operation panel 6 have been detected from the captured image.
Here, as shown in FIG. 13, if the communication terminal 1 is arranged at a correct position with respect to the terminal case 3, the detection marks 41 to 44 arranged on the operation panel 6 in the captured image captured by the camera 5 are displayed. All will be included. Since the camera 5 images the operation plate 6 from the inside of the case, the arrangement of the detection marks 41 to 44 is reversed left and right in the top view of the operation plate 6 shown in FIG.
On the other hand, as shown in FIG. 14, if the communication terminal 1 is not arranged at the correct position with respect to the terminal case 3, all the detection marks 41 to 44 arranged on the operation panel 6 in the captured image taken by the camera 5 are all. May not be included. For example, in the example illustrated in FIG. 14, only the detection mark 41 and the detection mark 42 among the detection marks 41 to 44 are included in the captured image because the communication terminal 1 is arranged to be shifted above the correct arrangement. It becomes.

そして、前記S45の判定の結果、撮像画像から操作板6に配置された全ての検出マークが検出できたと判定された場合(S45:YES)には、S47へと移行する。それに対して、撮像画像から操作板6に配置された全ての検出マークが検出できなかったと判定された場合(S45:NO)には、S46へと移行する。   If it is determined as a result of the determination in S45 that all the detection marks arranged on the operation panel 6 have been detected from the captured image (S45: YES), the process proceeds to S47. On the other hand, when it is determined that all the detection marks arranged on the operation panel 6 cannot be detected from the captured image (S45: NO), the process proceeds to S46.

S46においてCPU11は、通信端末1が端末ケース3の正しい位置に配置されていないと認定し、通信端末1を端末ケース3の正しい位置に配置することを促す案内を行う。例えば、「スマートフォンをケースの正しい位置にセットして下さい。」との文章をディスプレイ4に表示する。また、同内容の音声を出力する構成としても良い。   In S <b> 46, the CPU 11 determines that the communication terminal 1 is not arranged at the correct position of the terminal case 3, and performs guidance for prompting the communication terminal 1 to be arranged at the correct position of the terminal case 3. For example, a sentence “Please set the smartphone in the correct position of the case” is displayed on the display 4. Moreover, it is good also as a structure which outputs the audio | voice of the same content.

一方、S47においてCPU11は、前記S44で検出された全ての検出マークについて、各検出マークが検出された座標を、検出マークの形状に対応付けて算出する。尚、検出マークの座標は、撮像画像の左右方向をx軸、上下方向をy軸とした座標系で特定することとする。例えば、図12に示す操作板6を撮像した場合には、四角形状の検出マークが1つと、三角形状の検出マークが3つ検出されるので、四角形状の検出マークが検出された1箇所の地点の座標と、三角形状の検出マークが検出された3箇所の地点の座標とがそれぞれ算出されることとなる。   On the other hand, in S47, the CPU 11 calculates, for all detection marks detected in S44, the coordinates at which each detection mark is detected in association with the shape of the detection mark. The coordinates of the detection mark are specified by a coordinate system in which the left and right direction of the captured image is the x axis and the vertical direction is the y axis. For example, when the operation panel 6 shown in FIG. 12 is imaged, one square detection mark and three triangle detection marks are detected, and therefore, at one location where the square detection mark is detected. The coordinates of the points and the coordinates of the three points where the triangular detection mark is detected are respectively calculated.

次に、S48においてCPU11は、前記S47で算出された検出マークの座標に基づいて、前記S44で検出された各検出マーク間の配置関係が正しい関係にあるか否か判定する。
ここで、前記S48の判定基準である“検出マーク間の配置関係が正しい関係”は、操作板6に対してどのように検出マークが配置されているかによって異なる。例えば、図12に示すように検出マーク41〜44が配置されている場合には、四角形状の検出マークのX座標が2以上の三角形状の検出マークのX座標よりも大きく、且つ四角形状の検出マークのY座標が2以上の三角形状の検出マークのY座標よりも大きいことを、“検出マーク間の配置関係が正しい関係”とする。
Next, in S48, the CPU 11 determines whether or not the arrangement relationship between the detection marks detected in S44 is correct based on the coordinates of the detection marks calculated in S47.
Here, the “relationship between the detection marks is correct”, which is the determination criterion of S 48, depends on how the detection marks are arranged on the operation plate 6. For example, when the detection marks 41 to 44 are arranged as shown in FIG. 12, the X coordinate of the quadrangular detection mark is larger than the X coordinate of two or more triangular detection marks, and the quadrangular The fact that the Y coordinate of the detection mark is larger than the Y coordinate of two or more triangular detection marks is defined as “the correct relationship between the detection marks”.

そして、図13に示すように端末ケース3に対して通信端末1が正しい方向に配置されていれば、カメラ5で撮像した撮像画像中において、四角形状の検出マーク41は他の検出マーク42〜44と相対的な位置関係で右上に位置することとなる。従って、四角形状の検出マークのX座標が2以上の三角形状の検出マークのX座標よりも大きく、且つ四角形状の検出マークのY座標が2以上の三角形状の検出マークのY座標よりも大きい条件を満たすこととなる。その結果、検出マーク間の配置関係が正しい関係にある(即ち、端末ケース3に対して通信端末1が正しい方向で配置されている)と判定される。
一方、図15に示すように端末ケース3に対して通信端末1が正しい方向に配置されていなければ、カメラ5で撮像した撮像画像中において、四角形状の検出マーク41は他の検出マーク42〜44と相対的な位置関係で右上以外に位置することとなる。例えば、図15に示す例では通信端末1を上下逆方向に配置したことにより、四角形状の検出マーク41は他の検出マーク42〜44と相対的な位置関係で左下に位置することとなる。従って、四角形状の検出マークのX座標が2以上の三角形状の検出マークのX座標よりも大きく、四角形状の検出マークのY座標が2以上の三角形状の検出マークのY座標よりも大きいという条件は満たさない。その結果、検出マーク間の配置関係が正しい関係にない(即ち、端末ケース3に対して通信端末1が誤った方向で配置されている)と判定される。
And if the communication terminal 1 is arrange | positioned in the correct direction with respect to the terminal case 3 as shown in FIG. 13, in the picked-up image imaged with the camera 5, the square-shaped detection mark 41 will be the other detection marks 42-. 44 and is located at the upper right in a relative positional relationship. Accordingly, the X coordinate of the quadrangular detection mark is larger than the X coordinate of two or more triangular detection marks, and the Y coordinate of the quadrangular detection mark is larger than the Y coordinate of two or more triangular detection marks. The condition will be met. As a result, it is determined that the arrangement relationship between the detection marks is correct (that is, the communication terminal 1 is arranged in the correct direction with respect to the terminal case 3).
On the other hand, if the communication terminal 1 is not arranged in the correct direction with respect to the terminal case 3 as shown in FIG. 44 and is positioned other than the upper right in a relative positional relationship. For example, in the example shown in FIG. 15, the communication terminal 1 is arranged in the upside down direction, so that the quadrangular detection mark 41 is positioned on the lower left side relative to the other detection marks 42 to 44. Therefore, the X coordinate of the quadrangular detection mark is larger than the X coordinate of the two or more triangular detection marks, and the Y coordinate of the quadrangular detection mark is larger than the Y coordinate of the two or more triangular detection marks. The condition is not met. As a result, it is determined that the arrangement relationship between the detection marks is not correct (that is, the communication terminal 1 is arranged in the wrong direction with respect to the terminal case 3).

そして、前記S48の判定の結果、前記S44で検出された各検出マーク間の配置関係が正しい関係にあると判定された場合(S48:YES)には、S50へと移行する。それに対して、前記S44で検出された各検出マーク間の配置関係が正しい関係にないと判定された場合(S48:NO)には、S49へと移行する。   If it is determined as a result of the determination in S48 that the positional relationship between the detected marks detected in S44 is correct (S48: YES), the process proceeds to S50. On the other hand, when it is determined that the positional relationship between the detected marks detected in S44 is not correct (S48: NO), the process proceeds to S49.

S49においてCPU11は、通信端末1が端末ケース3に対して正しい方向に配置されていないと認定し、通信端末1を端末ケース3に対して正しい方向に配置することを促す案内を行う。例えば、「スマートフォンをケースに対して正しい方向にセットして下さい。」との文章をディスプレイ4に表示する。また、同内容の音声を出力する構成としても良い。   In S <b> 49, the CPU 11 determines that the communication terminal 1 is not arranged in the correct direction with respect to the terminal case 3, and performs guidance for prompting the communication terminal 1 to be arranged in the correct direction with respect to the terminal case 3. For example, a sentence “Please set the smartphone in the correct direction with respect to the case” is displayed on the display 4. Moreover, it is good also as a structure which outputs the audio | voice of the same content.

また、S50に対してCPU11は、後述の補正値算出処理(図18、図19)を実行する。尚、補正値算出処理は、端末ケース3に対して通信端末1を設置する正しい設置位置、設置角度、設置方向等からズレが生じていることを考慮し、適切な画像出力やタッチ操作検出を行う為の補正値を算出する処理である。   For S50, the CPU 11 executes a correction value calculation process (FIGS. 18 and 19) described later. Note that the correction value calculation process performs appropriate image output and touch operation detection in consideration of deviations from the correct installation position, installation angle, installation direction, and the like where the communication terminal 1 is installed with respect to the terminal case 3. This is a process of calculating a correction value for performing.

次に、S51においてCPU11は、前記S50の補正値算出処理において算出された補正値Cが、補正できる範囲の補正値であるか否かを判定する。ここで、補正値Cは、後述のように前記S44で検出された複数の検出マーク間の位置関係と、予め規定された所定の位置関係(より具体的には仮に通信端末1が端末ケース3に対して正しい設置位置、設置角度及び設置方向に配置されていた場合に撮像される撮像画像中の検出マーク間の位置関係)とを比較することによって算出される。そして、CPU11は、補正値Cに基づいて画像出力を補正する(より具体的にはディスプレイ4に対して表示画像を表示する領域を補正する)ことにより、ユーザが操作板6を介して視認できるディスプレイ4の表示画像を、通信端末1が端末ケース3に対して正しい設置位置、設置角度及び設置方向に配置されていた場合に視認できる表示画像と同等の画像とする。しかしながら、画像出力の補正には限界があるので、例えば、通信端末1が大きく傾いて配置されている等の理由で補正値Cが限界値よりも大きくなった場合には、補正することができない。従って、前記S51では前記S50の補正値算出処理において算出された補正値Cが、画像出力の補正ができる限界値を超えていないか否かを判定する。   Next, in S51, the CPU 11 determines whether or not the correction value C calculated in the correction value calculation process in S50 is a correction value within a correctable range. Here, as will be described later, the correction value C is determined based on the positional relationship between the plurality of detection marks detected in S44 and a predetermined positional relationship defined in advance (more specifically, if the communication terminal 1 is connected to the terminal case 3). For the correct installation position, installation angle, and installation direction, the positional relationship between the detection marks in the captured image captured) is compared. Then, the CPU 11 corrects the image output based on the correction value C (more specifically, corrects the area where the display image is displayed on the display 4), so that the user can visually recognize the image via the operation panel 6. The display image on the display 4 is an image equivalent to a display image that can be visually recognized when the communication terminal 1 is arranged in the correct installation position, installation angle, and installation direction with respect to the terminal case 3. However, since there is a limit to the correction of the image output, for example, when the correction value C is larger than the limit value due to the communication terminal 1 being arranged with a large inclination, it cannot be corrected. . Therefore, in S51, it is determined whether or not the correction value C calculated in the correction value calculation process in S50 exceeds a limit value that can correct the image output.

そして、前記S50の補正値算出処理において算出された補正値Cが、補正できる範囲の補正値であると判定された場合(S51:YES)、即ち、画像出力の補正ができる範囲を超えていないと判定された場合には、S52へと移行する。一方、前記S50の補正値算出処理において算出された補正値Cが、補正できる範囲の補正値でないと判定された場合(S51:NO)、即ち、画像出力の補正ができる範囲を超えていると判定された場合には、S53へと移行する。   When it is determined that the correction value C calculated in the correction value calculation process of S50 is a correction value within a correctable range (S51: YES), that is, does not exceed the range where the image output can be corrected. If it is determined, the process proceeds to S52. On the other hand, when it is determined that the correction value C calculated in the correction value calculation process of S50 is not a correction value within the correctable range (S51: NO), that is, when it exceeds the range where the image output can be corrected. If it is determined, the process proceeds to S53.

S52においてCPU11は、前記S50の補正値算出処理において算出された補正値Cを用いて、ディスプレイ4の画像出力を補正する。具体的には、ディスプレイ4に対して表示画像を表示する領域(以下、表示対象領域という)を補正する。尚、補正値Cは後述のように回転量(−θx、−θy、−θz)、拡大縮小率(1/S)、移動量(−Xa、−Xb)等からなり、その補正量Cに応じて表示対象領域を回転、拡大、縮小、或いは移動させることによって表示対象領域を変更する。
図16は、前記S52における表示対象領域の変更前後の通信端末1に表示されるトップ画面25を示した図である。図16に示す例では、補正前のトップ画面25の表示対象領域51は、ディスプレイ4の形状と略同形状である。しかし、補正後のトップ画面25の表示対象領域52は、補正前の表示対象領域51を補正値Cに応じて移動、拡大、縮小又は回転された形状となる。
In S52, the CPU 11 corrects the image output of the display 4 using the correction value C calculated in the correction value calculation process in S50. Specifically, an area for displaying a display image on the display 4 (hereinafter referred to as a display target area) is corrected. The correction value C is composed of a rotation amount (−θx, −θy, −θz), an enlargement / reduction ratio (1 / S), a movement amount (−Xa, −Xb), and the like. Accordingly, the display target area is changed by rotating, enlarging, reducing, or moving the display target area.
FIG. 16 is a diagram showing the top screen 25 displayed on the communication terminal 1 before and after the change of the display target area in S52. In the example shown in FIG. 16, the display target area 51 of the top screen 25 before correction is substantially the same shape as the shape of the display 4. However, the display target area 52 of the corrected top screen 25 has a shape obtained by moving, enlarging, reducing, or rotating the display target area 51 before correction according to the correction value C.

そして、前記S52においてディスプレイ4の画像出力を補正することによって、通信端末1の端末ケース3に対する配置にズレが生じていた場合であっても、ユーザは通信端末1が端末ケース3に対して正しい設置位置、設置角度及び設置方向に配置されていた場合と同等のディスプレイ4の表示画像を操作板6を介して視認することが可能となる。即ち、ユーザが操作板6を介して視認できるディスプレイ4の表示画像と操作板6との位置関係が、前記S53による画像出力補正を行わない状態(即ち、図16の左図の状態)での通信端末1のディスプレイ4に表示される表示画像とディスプレイ4との位置関係に対応させることが可能となる。
図17は、前記S52における表示対象領域の変更前後のユーザが操作板6を介して視認できるディスプレイ4に表示されたトップ画面25を示した図である。図17に示す例では、補正前に操作板6を介して視認できるトップ画面25は、操作板6に対して歪んだ状態である。しかし、補正後に操作板6を介して視認できるトップ画面25は、通常時に通信端末1に表示されるトップ画面25と同等となる。即ち、操作板6にディスプレイが配置されているのと同等の視認性を実現することが可能となる。
Then, by correcting the image output of the display 4 in S52, even if the communication terminal 1 is misaligned with respect to the terminal case 3, the user can confirm that the communication terminal 1 is correct with respect to the terminal case 3. The display image on the display 4 equivalent to the case where it is arranged in the installation position, installation angle, and installation direction can be viewed through the operation panel 6. That is, the positional relationship between the display image of the display 4 that can be visually recognized by the user via the operation panel 6 and the operation panel 6 is the state in which the image output correction by S53 is not performed (that is, the state in the left diagram of FIG. 16). It is possible to correspond to the positional relationship between the display image displayed on the display 4 of the communication terminal 1 and the display 4.
FIG. 17 is a diagram showing the top screen 25 displayed on the display 4 that can be visually recognized via the operation panel 6 by the user before and after the change of the display target area in S52. In the example illustrated in FIG. 17, the top screen 25 that can be visually recognized through the operation plate 6 before correction is in a state of being distorted with respect to the operation plate 6. However, the top screen 25 that can be visually recognized through the operation panel 6 after the correction is equivalent to the top screen 25 displayed on the communication terminal 1 at the normal time. In other words, it is possible to realize the same visibility as when the display is arranged on the operation plate 6.

一方、S53においてCPU11は、通信端末1が端末ケース3に対して正しい角度に配置されていないと認定し、通信端末1を端末ケース3に対して正しい角度に配置することを促す案内を行う。例えば、「スマートフォンをケースに対してセットし直して下さい。」との文章をディスプレイ4に表示する。また、同内容の音声を出力する構成としても良い。   On the other hand, in S <b> 53, the CPU 11 determines that the communication terminal 1 is not disposed at the correct angle with respect to the terminal case 3, and performs guidance for prompting the communication terminal 1 to be disposed at the correct angle with respect to the terminal case 3. For example, a text “Please reset the smartphone to the case.” Is displayed on the display 4. Moreover, it is good also as a structure which outputs the audio | voice of the same content.

その後、S54においてCPU11は、通信端末1に内蔵された加速度センサ20を用いて通信端末1に対して生じる振動を検出する。   Thereafter, in S <b> 54, the CPU 11 detects vibration generated in the communication terminal 1 using the acceleration sensor 20 built in the communication terminal 1.

次に、S55においてCPU11は、通信端末1が振動していることを検出したか否かを判定する。また、CPU11は、加速度センサ20によって振動を検出した場合であっても、検出した振動の振幅や周波数が所定の閾値未満である場合にはノイズとみなし、前記S55の判定対象から除くことが望ましい。   Next, in S55, the CPU 11 determines whether or not it is detected that the communication terminal 1 is vibrating. Further, even when the vibration is detected by the acceleration sensor 20, the CPU 11 regards the detected vibration as an amplitude or frequency that is less than a predetermined threshold value as noise, and preferably removes it from the determination target in S55. .

そして、通信端末1が振動していることを検出したと判定された場合(S55:YES)には、ユーザが通信端末1の配置の修正を行っていると認定し、S61へと移行する。それに対して、通信端末1が振動していることを検出しないと判定された場合(S55:NO)には、ユーザが通信端末1の配置の修正を行っていないと認定し、S56へと移行する。   And when it determines with having detected that the communication terminal 1 is vibrating (S55: YES), it recognizes that the user is correcting arrangement | positioning of the communication terminal 1, and transfers to S61. On the other hand, when it is determined not to detect that the communication terminal 1 is vibrating (S55: NO), it is determined that the user has not corrected the arrangement of the communication terminal 1, and the process proceeds to S56. To do.

S56においてCPU11は、前記S54で振動の検出を開始してから一定時間(例えば20sec)以上経過しても振動を検出しないか否かを判定する。尚、前記S56において判定基準となる一定時間は、ユーザによって任意に設定することも可能であり、メモリ12等に記憶される。また、CPU11は、加速度センサ20によって振動を検出した場合であっても、検出した振動の振幅や周波数が所定の閾値未満である場合にはノイズとみなし、前記S56の判定対象から除くことが望ましい。   In S <b> 56, the CPU 11 determines whether or not vibration is not detected even after a predetermined time (for example, 20 sec) has elapsed since the start of vibration detection in S <b> 54. It should be noted that the fixed time serving as the determination criterion in S56 can be arbitrarily set by the user and is stored in the memory 12 or the like. Further, even when the vibration is detected by the acceleration sensor 20, the CPU 11 considers that the detected vibration amplitude or frequency is less than a predetermined threshold value as noise and removes it from the determination target in S56. .

そして、前記S54で振動の検出を開始してから一定時間以上経過しても振動を検出しないと判定された場合(S56:YES)には、ユーザが通信端末1の配置を修正する意思がないと認定し、S57へと移行する。それに対して、前記S54で振動の検出を開始してから一定時間以上経過していないと判定された場合(S56:NO)にはS54へと戻り、通信端末1の振動を検出する処理を継続して実行する。   If it is determined that vibration is not detected even after a predetermined time has elapsed since the start of vibration detection in S54 (S56: YES), the user does not intend to correct the arrangement of the communication terminal 1. And the process proceeds to S57. On the other hand, when it is determined that a predetermined time or more has not elapsed since the start of vibration detection in S54 (S56: NO), the process returns to S54, and the process of detecting the vibration of the communication terminal 1 is continued. And run.

S57においてCPU11は、通信端末1に内蔵されたカメラ5の起動を停止し、カメラ5による周囲の撮像を終了する。   In S <b> 57, the CPU 11 stops the activation of the camera 5 built in the communication terminal 1, and ends the surrounding imaging by the camera 5.

続いて、S58においてCPU11は、タッチパネル18による操作を有効とする。その結果、S58以降では、タッチパネル18による通信端末1の操作が可能となる。   Subsequently, in S <b> 58, the CPU 11 validates the operation using the touch panel 18. As a result, after S58, the operation of the communication terminal 1 by the touch panel 18 becomes possible.

次に、S59においてCPU11は、前記S2で保存した通信端末1の設定を読み出し、通信端末1の現在の設定を読み出した設定へと変更する。その結果、当該端末操作処理プログラム中に通信端末1の各種設定(例えば、ディスプレイ4の輝度、カメラ5の感度や焦点距離等)が変更された場合であっても、端末操作処理プログラムを実行する直前の設定状態に通信端末1を復帰させることが可能となる。   Next, in S59, the CPU 11 reads the setting of the communication terminal 1 stored in S2, and changes the current setting of the communication terminal 1 to the read setting. As a result, even if various settings of the communication terminal 1 (for example, the brightness of the display 4, the sensitivity of the camera 5, the focal length, etc.) are changed during the terminal operation processing program, the terminal operation processing program is executed. It is possible to return the communication terminal 1 to the previous setting state.

その後、S60においてCPU11は、前記S1で起動された端末操作アプリを終了する。   Thereafter, in S60, the CPU 11 ends the terminal operation application activated in S1.

一方、S61においてCPU11は、通信端末1に内蔵された加速度センサ20を用いて通信端末1に対して生じる振動を検出する。   On the other hand, in S <b> 61, the CPU 11 detects vibration generated in the communication terminal 1 using the acceleration sensor 20 built in the communication terminal 1.

その後、S62においてCPU11は、通信端末1が振動していることを検出したか否かを判定する。また、CPU11は、加速度センサ20によって振動を検出した場合であっても、検出した振動の振幅や周波数が所定の閾値未満である場合にはノイズとみなし、前記S62の判定対象から除くことが望ましい。   Thereafter, in S62, the CPU 11 determines whether or not it is detected that the communication terminal 1 is vibrating. Further, even when the vibration is detected by the acceleration sensor 20, the CPU 11 considers that the detected vibration amplitude or frequency is less than a predetermined threshold value as noise and removes it from the determination target in S62. .

そして、通信端末1が振動していることを検出しないと判定された場合(S62:YES)には、ユーザによる通信端末1の配置の修正が完了したと認定し、S42へと戻る。そして、CPU11は、修正後の通信端末1の配置に基づいて、S42以降の処理を再度実行する。それに対して、通信端末1が振動していることを検出したと判定された場合(S62:NO)には、ユーザが通信端末1の配置の修正を継続して行っていると認定し、S61へと戻る。   And when it determines with not detecting that the communication terminal 1 is vibrating (S62: YES), it determines with the correction | amendment of arrangement | positioning of the communication terminal 1 by a user having been completed, and returns to S42. And CPU11 performs again the process after S42 based on arrangement | positioning of the communication terminal 1 after correction | amendment. On the other hand, if it is determined that the communication terminal 1 has been vibrated (S62: NO), it is determined that the user continues to modify the arrangement of the communication terminal 1, and S61. Return to.

次に、前記S50において実行される補正値算出処理のサブ処理について図18及び図19に基づき説明する。図18及び図19は補正値算出処理のサブ処理プログラムのフローチャートである。   Next, the sub-process of the correction value calculation process executed in S50 will be described with reference to FIGS. 18 and 19 are flowcharts of a sub-processing program for the correction value calculation process.

先ず、S71においてCPU11は、前記S42で読み出された撮像画像に対して3D空間を定義する。例えば、図20に示す撮像画像55が撮像された場合には、撮像画像の左右方向をx軸、上下方向をy軸、撮像画像に対して垂直に交差する方向をz軸とした座標系により3D空間を定義する。   First, in S71, the CPU 11 defines a 3D space for the captured image read in S42. For example, when the captured image 55 shown in FIG. 20 is captured, the coordinate system has the x-axis as the horizontal direction of the captured image, the y-axis as the vertical direction, and the z-axis as the direction perpendicular to the captured image. Define a 3D space.

次に、S72においてCPU11は、仮に通信端末1が端末ケース3に対して正しい設置位置、設置角度及び設置方向に配置(以下、正配置状態という)されていた場合に撮像される撮像画像中の検出マークの位置(以下、正位置という)の座標を、前記S71で定義した3D空間の座標系で取得する。尚、正位置の検出マークの座標については予めメモリ12等に記憶される。   Next, in S <b> 72, the CPU 11, in the captured image captured when the communication terminal 1 is arranged in the correct installation position, installation angle, and installation direction with respect to the terminal case 3 (hereinafter referred to as a normal arrangement state). The coordinates of the position of the detection mark (hereinafter referred to as the normal position) are acquired in the 3D space coordinate system defined in S71. Note that the coordinates of the detection mark at the normal position are stored in advance in the memory 12 or the like.

続いて、S73においてCPU11は、前記S44で検出された全ての検出マークについて、各検出マークが検出された座標を、前記S71で定義した3D空間の座標系で算出する。   Subsequently, in S73, the CPU 11 calculates the coordinates at which each detection mark is detected for all the detection marks detected in S44 in the coordinate system of the 3D space defined in S71.

その後、S74においてCPU11は、前記S44で検出された全ての検出マークを頂点として形成される多角形領域(以下、検出領域という)を定義する。尚、第1実施形態では、検出マークは操作板6の四隅に対してそれぞれ配置されるので、検出領域は四角形状を有することとなる。例えば、図21は図20に示す撮像画像55が撮像された場合に定義される検出領域60を示す。   Thereafter, in S74, the CPU 11 defines a polygonal region (hereinafter referred to as a detection region) formed with all the detection marks detected in S44 as vertices. In the first embodiment, since the detection marks are respectively arranged with respect to the four corners of the operation plate 6, the detection area has a quadrangular shape. For example, FIG. 21 shows a detection region 60 defined when the captured image 55 shown in FIG. 20 is captured.

次に、S75においてCPU11は、前記S74で定義された検出領域の上辺と下辺の平均線を算出する。例えば、図22は図20に示す撮像画像55が撮像された場合に定義される検出領域60と、検出領域60を構成する上辺61と下辺62の平均線63を示す。   Next, in S75, the CPU 11 calculates an average line of the upper side and the lower side of the detection area defined in S74. For example, FIG. 22 illustrates a detection area 60 defined when the captured image 55 illustrated in FIG. 20 is captured, and an average line 63 of the upper side 61 and the lower side 62 that configure the detection area 60.

続いて、S76においてCPU11は、前記S75で算出された平均線が前記S71で定義された3D空間において右下がり(即ち、x座標が大きくなるほどy座標が小さくなる平均線)であるか否か判定する。   Subsequently, in S76, the CPU 11 determines whether or not the average line calculated in S75 is lower right in the 3D space defined in S71 (that is, an average line in which the y coordinate becomes smaller as the x coordinate becomes larger). To do.

そして、前記S75で算出された平均線が右下がりであると判定された場合(S76:YES)には、S77へと移行する。それに対して、前記S75で算出された平均線が右下がりでないと判定された場合(S76:NO)には、S78へと移行する。   Then, when it is determined that the average line calculated in S75 is lower right (S76: YES), the process proceeds to S77. On the other hand, when it is determined that the average line calculated in S75 is not right-down (S76: NO), the process proceeds to S78.

S77においてCPU11は、前記S75で算出された平均線が前記S71で定義された3D空間においてx軸と平行となるように、検出領域をz軸中心に反時計回転させる。一方、S78においてCPU11は、前記S75で算出された平均線が前記S71で定義された3D空間においてx軸と平行となるように、検出領域をz軸中心に時計回転させる。
例えば、図23の左図に示す平均線63が算出された場合には、平均線63は右下がりとなるので、検出領域60はz軸中心に反時計回転される。その結果、図23の右図に示すように平均線63はx軸と平行となる。
In S77, the CPU 11 rotates the detection region counterclockwise about the z axis so that the average line calculated in S75 is parallel to the x axis in the 3D space defined in S71. On the other hand, in S78, the CPU 11 rotates the detection region clockwise around the z axis so that the average line calculated in S75 is parallel to the x axis in the 3D space defined in S71.
For example, when the average line 63 shown in the left diagram of FIG. 23 is calculated, the average line 63 falls to the right, so that the detection region 60 is rotated counterclockwise about the z axis. As a result, the average line 63 is parallel to the x-axis as shown in the right diagram of FIG.

その後、S79においてCPU11は、前記S77又はS78において検出領域を回転させた回転角をθzとして特定し、メモリ12等に記憶する。尚、前記S77及び前記S78の回転処理を行う前に既に平均線がx軸に対して平行である場合には、S77及びS78の処理は実行せず、且つθzとして「0」を記憶する。   Thereafter, in S79, the CPU 11 specifies the rotation angle obtained by rotating the detection area in S77 or S78 as θz and stores it in the memory 12 or the like. If the average line is already parallel to the x-axis before performing the rotation processing of S77 and S78, the processing of S77 and S78 is not executed and “0” is stored as θz.

次に、S80においてCPU11は、前記S77及びS78で回転処理された後の検出領域について、上辺と下辺の長さをそれぞれ算出する。   Next, in S80, the CPU 11 calculates the lengths of the upper side and the lower side of the detection area after the rotation processing in S77 and S78, respectively.

続いて、S81においてCPU11は、前記S80で算出された上辺の長さが下辺の長さよりも長いか否か判定する。   Subsequently, in S81, the CPU 11 determines whether or not the length of the upper side calculated in S80 is longer than the length of the lower side.

そして、前記S80で算出された上辺の長さが下辺の長さよりも長いと判定された場合(S81:YES)には、S82へと移行する。それに対して、前記S80で算出された上辺の長さが下辺の長さよりも短いと判定された場合(S81:NO)には、S83へと移行する。   And when it determines with the length of the upper side calculated by said S80 being longer than the length of a lower side (S81: YES), it transfers to S82. On the other hand, if it is determined that the length of the upper side calculated in S80 is shorter than the length of the lower side (S81: NO), the process proceeds to S83.

S82においてCPU11は、前記S80で算出された検出領域の上辺と下辺の長さが同じ長さとなるように、検出領域をx軸中心に上辺を奥方向に回転させる。一方、S83においてCPU11は、前記S80で算出された検出領域の上辺と下辺の長さが同じ長さとなるように、検出領域をx軸中心に上辺を手前方向に回転させる。
例えば、前記S77及びS78で回転処理された後の検出領域が、図24の左図に示す検出領域60である場合には、検出領域60の上辺61の長さは下辺62の長さよりも短いので、検出領域60はx軸中心に上辺61を手前方向に回転される。その結果、図24の右図に示すように上辺61の長さと下辺62の長さは同じ長さとなる。
In S82, the CPU 11 rotates the upper side in the back direction about the x-axis center so that the upper side and the lower side of the detection region calculated in S80 have the same length. On the other hand, in S83, the CPU 11 rotates the upper side toward the near side about the x-axis center so that the upper and lower sides of the detection area calculated in S80 have the same length.
For example, when the detection area after the rotation processing in S77 and S78 is the detection area 60 shown in the left diagram of FIG. 24, the length of the upper side 61 of the detection area 60 is shorter than the length of the lower side 62. Therefore, the detection area 60 is rotated in the forward direction with the upper side 61 about the x-axis center. As a result, as shown in the right diagram of FIG. 24, the length of the upper side 61 and the length of the lower side 62 are the same.

その後、S84においてCPU11は、前記S82又はS83において検出領域を回転させた回転角をθxとして特定し、メモリ12等に記憶する。尚、前記S82及び前記S83の回転処理を行う前に既に検出領域の上辺と下辺の長さが同じ長さである場合には、S82及びS83の処理は実行せず、且つθxとして「0」を記憶する。   Thereafter, in S84, the CPU 11 specifies the rotation angle obtained by rotating the detection area in S82 or S83 as θx, and stores it in the memory 12 or the like. If the lengths of the upper and lower sides of the detection area are the same before the rotation processing of S82 and S83, the processing of S82 and S83 is not executed and θx is “0”. Remember.

次に、S85においてCPU11は、前記S77及びS78で回転処理された後の検出領域について、右辺と左辺の長さをそれぞれ算出する。   Next, in S85, the CPU 11 calculates the length of the right side and the left side of the detection area after the rotation processing in S77 and S78, respectively.

続いて、S86においてCPU11は、前記S85で算出された左辺の長さが右辺の長さよりも長いか否か判定する。   Subsequently, in S86, the CPU 11 determines whether or not the length of the left side calculated in S85 is longer than the length of the right side.

そして、前記S85で算出された左辺の長さが右辺の長さよりも長いと判定された場合(S86:YES)には、S87へと移行する。それに対して、前記S85で算出された左辺の長さが右辺の長さよりも短いと判定された場合(S86:NO)には、S88へと移行する。   If it is determined that the length of the left side calculated in S85 is longer than the length of the right side (S86: YES), the process proceeds to S87. On the other hand, when it is determined that the length of the left side calculated in S85 is shorter than the length of the right side (S86: NO), the process proceeds to S88.

S87においてCPU11は、前記S85で算出された検出領域の左辺と右辺の長さが同じ長さとなるように、検出領域をy軸中心に左辺を奥方向に回転させる。一方、S88においてCPU11は、前記S85で算出された検出領域の左辺と右辺の長さが同じ長さとなるように、検出領域をy軸中心に左辺を手前方向に回転させる。
例えば、前記S82及びS83で回転処理された後の検出領域が、図25の左図に示す検出領域60である場合には、検出領域60の左辺65の長さは右辺66の長さよりも短いので、検出領域60はy軸中心に左辺65を手前方向に回転される。その結果、図25の右図に示すように左辺65の長さと右辺66の長さは同じ長さとなる。
In S <b> 87, the CPU 11 rotates the left side in the back direction about the y-axis center so that the lengths of the left side and the right side of the detection area calculated in S <b> 85 are the same. On the other hand, in S88, the CPU 11 rotates the left side toward the front with the detection area as the center of the y-axis so that the lengths of the left side and the right side of the detection area calculated in S85 are the same.
For example, when the detection area after the rotation processing in S82 and S83 is the detection area 60 shown in the left diagram of FIG. 25, the length of the left side 65 of the detection area 60 is shorter than the length of the right side 66. Therefore, the detection area 60 is rotated in the forward direction with the left side 65 about the y-axis center. As a result, as shown in the right diagram of FIG. 25, the length of the left side 65 and the length of the right side 66 are the same length.

その後、S89においてCPU11は、前記S87又はS88において検出領域を回転させた回転角をθyとして特定し、メモリ12等に記憶する。尚、前記S87及び前記S88の回転処理を行う前に既に検出領域の左辺と右辺の長さが同じ長さである場合には、S87及びS88の処理は実行せず、且つθyとして「0」を記憶する。   Thereafter, in S89, the CPU 11 specifies the rotation angle obtained by rotating the detection area in S87 or S88 as θy and stores it in the memory 12 or the like. If the lengths of the left side and the right side of the detection area are already the same before the rotation processing of S87 and S88, the processing of S87 and S88 is not executed and θy is “0”. Remember.

次に、S90においてCPU11は、前記S87及びS88で回転処理された後の検出領域について、上辺と下辺の長さを再度算出する。   Next, in S90, the CPU 11 calculates the lengths of the upper side and the lower side again for the detection area after the rotation processing in S87 and S88.

続いて、S91においてCPU11は、前記S90で算出された上辺の長さと下辺の長さが同じか否か判定する。   Subsequently, in S91, the CPU 11 determines whether or not the length of the upper side and the length of the lower side calculated in S90 are the same.

そして、前記S90で算出された上辺の長さと下辺の長さが同じ長さであると判定された場合(S90:YES)には、S92へと移行する。それに対して、前記S90で算出された上辺の長さと下辺の長さが同じ長さで無いと判定された場合(S90:NO)にはS73へと戻り、再度回転角θx、θy、θzの検出を行う。   When it is determined that the length of the upper side and the length of the lower side calculated in S90 are the same length (S90: YES), the process proceeds to S92. On the other hand, when it is determined that the length of the upper side and the length of the lower side calculated in S90 are not the same length (S90: NO), the process returns to S73, and the rotation angles θx, θy, θz are again set. Perform detection.

S92においてCPU11は、前記S87及びS88で回転処理された後の検出領域の面積と、正位置の検出マークを頂点として形成される多角形領域(以下、正位置検出領域という)の面積とを比較し、検出領域の面積に対する正位置検出領域の面積比率Sを算出する。例えば、検出領域の面積が100であり、正位置検出領域の面積が120である場合には、面積比率Sは“1.2”と算出される。   In S92, the CPU 11 compares the area of the detection area after the rotation processing in S87 and S88 with the area of a polygonal area (hereinafter referred to as the normal position detection area) formed with the normal position detection mark as a vertex. Then, the area ratio S of the normal position detection region to the area of the detection region is calculated. For example, when the area of the detection region is 100 and the area of the normal position detection region is 120, the area ratio S is calculated as “1.2”.

その後、S93においてCPU11は、前記S87及びS88で回転処理された後の検出領域の各頂点に位置する検出マークの位置座標の原点Dと、正位置の検出マークの位置座標の原点Dのずれを算出する。尚、原点は例えば最も左下に位置する検出マーク(例えば図25に示す例では検出マーク44)の位置とする。そして、原点のずれは、x軸方向のずれはXa、y軸方向のずれはXbでそれぞれ特定する。 Then, CPU 11 at S93 is the origin D 0 position coordinates of the detected mark positioned on each vertex of the detection region after being rotated processed in the S87 and S88, the position coordinates of the detection mark a positive position of the origin D 1 Calculate the deviation. Note that the origin is, for example, the position of the detection mark located at the bottom left (for example, the detection mark 44 in the example shown in FIG. 25). The deviation of the origin is specified by Xa for the deviation in the x-axis direction and Xb for the deviation in the y-axis direction.

次に、S94においてCPU11は、θx、θy、θz、S、Xa、Xbを補正値Bとして特定し、メモリ12等に記憶する。尚、補正値Bは後述するように操作板6へのタッチ位置を検出する際に補正値として用いられる。尚、補正値Bは、前記S44で検出された検出マーク間の位置関係を、正位置の検出マーク間の位置関係と一致させる為に撮像画像を補正する補正値(即ち、正配置状態にない通信端末1によって撮像される撮像画像を、正配置状態にある通信端末1によって撮像される撮像画像に補正する為の補正値)に相当する。   Next, in S94, the CPU 11 specifies θx, θy, θz, S, Xa, and Xb as correction values B and stores them in the memory 12 or the like. The correction value B is used as a correction value when detecting a touch position on the operation panel 6 as described later. The correction value B is a correction value for correcting the captured image so that the positional relationship between the detected marks detected in S44 matches the positional relationship between the detected marks at the normal position (that is, not in the normal arrangement state). This corresponds to a correction value for correcting a captured image captured by the communication terminal 1 into a captured image captured by the communication terminal 1 in the normal arrangement state.

更に、S95においてCPU11は、−θx、−θy、−θz、1/S、−Xa、−Xbを補正値Cとして特定し、メモリ12等に記憶する。尚、補正値Cは前記したように、ディスプレイ4の画像出力を補正する際に補正値として用いられる。尚、補正値Cは、正位置の検出マーク間の位置関係を、前記S44で検出された検出マーク間の位置関係と一致させる為に撮像画像を補正する補正値(即ち、通信端末1が正配置状態にない場合であっても、正配置状態の通信端末1と同じ態様で操作板6を介してディスプレイ4を視認できるようにディスプレイ4の画像表示領域を変更する為の補正値)に相当する。   Further, in S95, the CPU 11 specifies -θx, -θy, -θz, 1 / S, -Xa, and -Xb as correction values C and stores them in the memory 12 or the like. The correction value C is used as a correction value when correcting the image output of the display 4 as described above. The correction value C is a correction value for correcting a captured image so that the positional relationship between the detection marks at the normal position matches the positional relationship between the detection marks detected at S44 (that is, the communication terminal 1 is correct). Corresponding to a correction value for changing the image display area of the display 4 so that the display 4 can be viewed through the operation panel 6 in the same manner as the communication terminal 1 in the normal arrangement state even in the case of not being in the arrangement state. To do.

次に、前記S8及びS14において実行されるタッチ検出処理のサブ処理について図26及び図27に基づき説明する。図26及び図27はタッチ検出処理のサブ処理プログラムのフローチャートである。   Next, the sub-process of the touch detection process executed in S8 and S14 will be described with reference to FIGS. 26 and 27 are flowcharts of a sub-processing program for touch detection processing.

先ず、S101においてCPU11は、前記S50の補正値計算処理(図18、図19)によって算出された補正値Bを読み出す。尚、補正値Bは前記したように回転量(θx、θy、θz)、拡大縮小率(S)、移動量(Xa、Xb)等からなる。   First, in S101, the CPU 11 reads the correction value B calculated by the correction value calculation process (FIGS. 18 and 19) in S50. As described above, the correction value B includes the rotation amount (θx, θy, θz), the enlargement / reduction ratio (S), the movement amount (Xa, Xb), and the like.

次に、S102においてCPU11は、後述のS117で保存されるタッチ履歴をメモリ12等から読み出す。尚、前記S102で読み出されるタッチ履歴は、直近の所定時間(例えば5sec)内において検出されたタッチ地点の座標(タッチ座標)等からなる。   Next, in S102, the CPU 11 reads the touch history stored in S117 described later from the memory 12 or the like. Note that the touch history read in S102 includes the coordinates (touch coordinates) of touch points detected within the latest predetermined time (for example, 5 seconds).

続いて、S103においてCPU11は、直近にカメラ5で撮像された撮像画像をメモリ12から読み出す。   Subsequently, in S <b> 103, the CPU 11 reads from the memory 12 a captured image most recently captured by the camera 5.

更に、S104においてCPU11は、前記S103で読み出した撮像画像を前記S101で取得された補正値Bに基づいて補正する。尚、補正値Bは前述のように回転量(θx、θy、θz)、拡大縮小率(S)、移動量(Xa、Xb)等からなり、その補正量Bに応じて撮像画像を回転、拡大縮小、或いは移動させることによって撮像画像を補正する。それによって、前記S103で読み出した撮像画像を、正配置状態にある通信端末1によって撮像される撮像画像へと補正することが可能となる。即ち、通信端末1の配置が正しい位置や方向からずれていたことにより、撮像画像が正しい範囲や角度で撮像されていなかったとしても、撮像画像を補正することによって後述の処理で撮像画像に基づく正確なタッチ地点の検出が可能となる(S112〜S115)。   Further, in S104, the CPU 11 corrects the captured image read in S103 based on the correction value B acquired in S101. The correction value B includes the rotation amount (θx, θy, θz), the enlargement / reduction ratio (S), the movement amount (Xa, Xb), etc. as described above, and the captured image is rotated according to the correction amount B. The captured image is corrected by enlarging, reducing, or moving. Thereby, the captured image read in S103 can be corrected to a captured image captured by the communication terminal 1 in the normal arrangement state. That is, even if the captured image is not captured in the correct range or angle because the arrangement of the communication terminal 1 is deviated from the correct position or direction, the captured image is corrected and corrected based on the captured image in the process described later. An accurate touch point can be detected (S112 to S115).

次に、S105においてCPU11は、前記S104で補正された撮像画像内に含むユーザの手を検出する。尚、前記S105の検出は、例えばパターンマッチングを用いて検出する。   Next, in S105, the CPU 11 detects the user's hand included in the captured image corrected in S104. The detection in S105 is performed using, for example, pattern matching.

その後、S106においてCPU11は、前記S105の検出結果に基づいて、前記S104で補正された撮像画像内にユーザの手を検出したか否かを判定する。尚、ユーザの手の全体が検出されない場合であっても、手の一部(但し、少なくともユーザの指先部分は含む)が検出されていれば、前記S106でユーザの手を検出したと判定しても良い。   Thereafter, in S106, the CPU 11 determines whether or not the user's hand has been detected in the captured image corrected in S104, based on the detection result in S105. Even if the entire user's hand is not detected, if a part of the hand (however, including at least the fingertip portion of the user) is detected, it is determined in S106 that the user's hand has been detected. May be.

そして、撮像画像内にユーザの手を検出したと判定された場合(S106:YES)には、S108へと移行する。それに対して、撮像画像内にユーザの手を検出しないと判定された場合(S106:NO)には、S107へと移行する。   And when it determines with having detected the user's hand in the captured image (S106: YES), it transfers to S108. On the other hand, when it is determined that the user's hand is not detected in the captured image (S106: NO), the process proceeds to S107.

S107においてCPU11は、操作板6に対してユーザがタッチ操作を行っていないと判定する。その後、S117へと移行する。   In S <b> 107, the CPU 11 determines that the user has not performed a touch operation on the operation plate 6. Thereafter, the process proceeds to S117.

一方、S108においてCPU11は、後述のカメラ感度調整処理(図32)を実行する。尚、カメラ感度調整処理は、操作板6をタッチするユーザの指をカメラ5で撮像した撮像画像に基づいて検出する際に、より検出精度を向上させる為に、カメラ5の感度を調整する処理である。   On the other hand, in S108, the CPU 11 executes a later-described camera sensitivity adjustment process (FIG. 32). The camera sensitivity adjustment process is a process for adjusting the sensitivity of the camera 5 in order to improve detection accuracy when detecting a user's finger touching the operation panel 6 based on a captured image captured by the camera 5. It is.

また、S109においてCPU11は、後述の画面輝度調整処理(図33)を実行する。尚、画面輝度調整処理は、操作板6をタッチするユーザの指をカメラ5で撮像した撮像画像に基づいて検出する際に、より検出精度を向上させる為に、ディスプレイ4の輝度を調整する処理である。   In S109, the CPU 11 executes a screen brightness adjustment process (FIG. 33) described later. The screen brightness adjustment process is a process for adjusting the brightness of the display 4 in order to improve the detection accuracy when detecting the finger of the user who touches the operation panel 6 based on the captured image captured by the camera 5. It is.

その後、S110においてCPU11は、前記S108やS109でカメラ5の感度やディスプレイ4の輝度が調整された後に、カメラ5によって新たに撮像された撮像画像をメモリ12から読み出す。尚、読み出した撮像画像はS104と同様に補正値Bに基づく補正を行う。   Thereafter, in S110, after the sensitivity of the camera 5 and the brightness of the display 4 are adjusted in S108 and S109, the CPU 11 reads out a captured image newly captured by the camera 5 from the memory 12. Note that the read captured image is corrected based on the correction value B as in S104.

次に、S111においてCPU11は、前記S108やS109で設定を変更したカメラ5の感度やディスプレイ4の輝度等を、変更前の設定へと戻す。   Next, in S111, the CPU 11 returns the sensitivity of the camera 5 and the brightness of the display 4 whose settings have been changed in S108 and S109 to the settings before the change.

続いて、S112においてCPU11は、前記S105で検出したユーザの手から、ユーザの指先端部を特定し、更に指先端部の色を解析する。尚、指先端部が複数特定された場合には、各指先端部の色をそれぞれ解析する。   Subsequently, in S112, the CPU 11 specifies the finger tip of the user from the user's hand detected in S105, and further analyzes the color of the finger tip. When a plurality of finger tip portions are specified, the color of each finger tip portion is analyzed.

その後、S113においてCPU11は、前記S112の解析結果に基づいて、少なくとも一以上の指先端部の色が所定の色の範囲にあるか否かを判定する。ここで、所定の色の範囲は、一般的にユーザの指先端部が操作板6に接触した状態にある場合に該指先端部が示す色の範囲であり、より具体的には白色系の色の範囲とする。また、指先端部の色と所定の色の範囲は、例えばRGB値によりそれぞれ規定する。従って、前記S113では、指先端部の色を示すRGB値が白色系と認定される数値範囲(例えばR>240、且つG>240、且つB>240)にあるか否かを判定することとなる。   Thereafter, in S113, the CPU 11 determines whether or not the color of at least one finger tip is within a predetermined color range based on the analysis result of S112. Here, the predetermined color range is generally a color range indicated by the finger tip when the user's finger tip is in contact with the operation plate 6, and more specifically, a white-colored range. The color range. Further, the color of the finger tip and the predetermined color range are respectively defined by RGB values, for example. Therefore, in S113, it is determined whether or not the RGB value indicating the color of the finger tip is within a numerical range that is recognized as white (for example, R> 240, G> 240, and B> 240). Become.

そして、少なくとも一以上の指先端部の色が所定の色の範囲にあると判定された場合(S113:YES)には、ユーザの指先端部が操作板6に接触した状態にあると推定し、S114へと移行する。それに対して、指先端部の色が所定の色の範囲にないと判定された場合(S113:NO)には、ユーザの指先端部が操作板6に接触した状態にないと推定し、操作板6に対してユーザがタッチ操作を行っていないと判定する(S107)。   If it is determined that the color of at least one finger tip is within the predetermined color range (S113: YES), it is estimated that the finger tip of the user is in contact with the operation plate 6. , The process proceeds to S114. On the other hand, when it is determined that the color of the finger tip is not within the predetermined color range (S113: NO), it is estimated that the finger tip of the user is not in contact with the operation plate 6, and the operation is performed. It is determined that the user has not performed a touch operation on the plate 6 (S107).

また、前記S113では、色の絶対値ではなく相対値によって指先端部が操作板6に接触した状態にあるか否かを判定しても良い。例えば、指先端部以外の手の部分の色を解析してRGB値を特定し、指先端部と指先端部以外のRGB値の差分が所定値以上である場合に、ユーザの指先端部が操作板6に接触した状態にあると判定しても良い。   In S113, it may be determined whether or not the finger tip is in contact with the operation plate 6 based on a relative value, not an absolute value of the color. For example, by analyzing the color of the hand part other than the finger tip part and specifying the RGB value, and the difference between the RGB values other than the finger tip part and the finger tip part is a predetermined value or more, the user finger tip part is It may be determined that the operation plate 6 is in contact.

そして、S114においてCPU11は、操作板6に対してユーザがタッチ操作を行っていると判定する。   In S <b> 114, the CPU 11 determines that the user is performing a touch operation on the operation plate 6.

次に、S115においてCPU11は、操作板6上の座標系によってユーザがタッチしたタッチ地点の座標を特定する。具体的には、図28に示すように、先ずCPU11は、指先端部71の内、前記S112の解析によって色が所定の範囲にあると認定された範囲72を特定する。そして、特定された範囲72の中心位置をタッチ地点P1とし、タッチ地点P1の座標を操作板6上の座標系によって特定する。尚、タッチ地点が2点以上有る場合には、それぞれのタッチ地点について座標を特定する。   Next, in S <b> 115, the CPU 11 specifies the coordinates of the touch point touched by the user using the coordinate system on the operation panel 6. Specifically, as shown in FIG. 28, first, the CPU 11 specifies a range 72 in which the color is recognized as being within a predetermined range by the analysis of S112 among the finger tips 71. Then, the center position of the specified range 72 is set as the touch point P1, and the coordinates of the touch point P1 are specified by the coordinate system on the operation panel 6. In addition, when there are two or more touch points, the coordinates are specified for each touch point.

その後、S116においてCPU11は、前記S115において操作板上の座標系で特定されたタッチ地点の座標をディスプレイ4上の座標系の座標に変換する。具体的には、図29に示すように、ユーザが操作板6を介して視認できるディスプレイ4と変換前のタッチ地点P1との位置関係が、通信端末1のディスプレイ4と変換後のタッチ地点P2との位置関係に対応するように変換する。その結果、操作板6に対するユーザのタッチ操作を、ディスプレイ4上の座標系に変換されたタッチ地点をタッチパネル18でタッチする操作に置き換えることが可能となる。   Thereafter, in S116, the CPU 11 converts the coordinates of the touch point specified in the coordinate system on the operation panel in S115 into coordinates in the coordinate system on the display 4. Specifically, as shown in FIG. 29, the positional relationship between the display 4 that can be visually recognized by the user via the operation panel 6 and the touch point P1 before the conversion is the same as the display 4 of the communication terminal 1 and the touch point P2 after the conversion. To correspond to the positional relationship between As a result, the user's touch operation on the operation panel 6 can be replaced with an operation of touching the touch point converted to the coordinate system on the display 4 with the touch panel 18.

その後、S117においてCPU11は、前記S112〜S116の検出結果に基づいてタッチ履歴を新たに保存する。尚、タッチ履歴としては、操作板6に対してユーザがタッチ操作を行っているか否かの判定結果、及び操作板6に対してユーザがタッチ操作を行っていると判定された場合には、前記S116で変換された(ディスプレイ4上の座標系で特定された)タッチ地点の座標(タッチ座標)が保存される。   Thereafter, in S117, the CPU 11 newly saves the touch history based on the detection results in S112 to S116. In addition, as a touch history, when it is determined that the user is performing a touch operation on the operation plate 6 and when it is determined that the user is performing a touch operation on the operation plate 6, The coordinates (touch coordinates) of the touch point (specified in the coordinate system on the display 4) converted in S116 are stored.

次に、S118においてCPU11は、前記S102において読み出された過去のタッチ履歴と、前記S117で新たに保存されたタッチ履歴とに基づいて、タッチ座標の変位を算出する。具体的には、直近の所定時間以内(例えば5sec内)のタッチのオン・オフの変化、タッチ座標が変位しているか否か、変位している場合にはどのような方向にどの程度の速度で変位しているかを算出する。尚、タッチオン及びタッチオフの算出では、ユーザの手の指先部分の色が所定の色の範囲外から範囲内へと変化したタイミングで、操作板6に対してユーザがタッチオンしたと算出し、その後、ユーザの手の指先部分の色が所定の色の範囲内から範囲外へと変化したタイミングで、操作板6に対してユーザがタッチオフしたと算出する。   Next, in S118, the CPU 11 calculates the displacement of the touch coordinates based on the past touch history read in S102 and the touch history newly stored in S117. Specifically, changes in touch on / off within the most recent predetermined time (for example, within 5 seconds), whether or not the touch coordinates are displaced, and if so, in what direction and what speed It is calculated whether it is displaced by. In the calculation of touch-on and touch-off, it is calculated that the user touched on the operation panel 6 at the timing when the color of the fingertip portion of the user's hand changes from outside the predetermined color range to within the range, and thereafter It is calculated that the user touches off the operation panel 6 at the timing when the color of the fingertip portion of the user's hand changes from the predetermined color range to the outside of the range.

続いて、S119においてCPU11は、前記S118で算出されたタッチ座標の変位に基づいて、タッチ操作の操作種別を検出する。尚、タッチ操作には、通常の一点をタッチするタッチ操作以外に、タッチした状態でタッチ地点を変位させるドラッグ操作、タッチアウトしつつタッチ地点を変位させるフリック操作、2点のタッチ地点を互いに接近又は遠ざけるように変位させるピンチ操作等が有る。   Subsequently, in S119, the CPU 11 detects the operation type of the touch operation based on the displacement of the touch coordinates calculated in S118. In addition to the normal touch operation that touches one point, the touch operation includes a drag operation that displaces the touch point while touching, a flick operation that displaces the touch point while touching out, and the two touch points approach each other. Or there is a pinch operation etc. to displace it away.

次に、S120においてCPU11は、前記S119で検出されたタッチ操作の操作種別に基づいて、ドラッグ操作、フリック操作、ピンチ操作等の特殊なタッチ操作が行われたか否かを判定する。   Next, in S120, the CPU 11 determines whether a special touch operation such as a drag operation, a flick operation, or a pinch operation has been performed based on the operation type of the touch operation detected in S119.

そして、ドラッグ操作、フリック操作、ピンチ操作等の特殊なタッチ操作が行われたと判定された場合(S120:YES)には、S121へと移行する。それに対して、通常のタッチ操作が行われたと判定された場合(S120:NO)には、S122へと移行する。   When it is determined that a special touch operation such as a drag operation, a flick operation, or a pinch operation has been performed (S120: YES), the process proceeds to S121. On the other hand, when it is determined that a normal touch operation has been performed (S120: NO), the process proceeds to S122.

S121においてCPU11は、タッチ履歴に基づいて特定された操作種別(ドラッグ操作、フリック操作、ピンチ操作等)に加えて、前記S116で変換された(ディスプレイ4上の座標系で特定された)タッチ地点の座標を、ユーザの操作板6へのタッチ操作を置き換えた操作として出力する。その後、通信端末1は、出力されたタッチ地点に対して同じく出力された操作種別(フリック操作、ドラック操作、ピンチ操作等)によるタッチパネル18の操作が行われたとして、通信端末1へのユーザ操作を行う。具体的には、上述したトップ画面25におけるタッチ地点に対応する起動アイコン26〜28の操作や、起動された他のアプリケーションでの各種選択及び入力操作等を行う。例えば、ナビゲーションアプリが起動された状態では、ナビゲーション画面29(図6)における地図画像のスクロール処理、縮尺変更処理等が行われる。   In S121, in addition to the operation type (drag operation, flick operation, pinch operation, etc.) specified based on the touch history, the CPU 11 converts the touch point (specified in the coordinate system on the display 4) in S116. Are output as operations in which the user's touch operation on the operation panel 6 is replaced. Thereafter, the communication terminal 1 assumes that the operation of the touch panel 18 has been performed according to the operation type (flick operation, drag operation, pinch operation, etc.) that is also output to the output touch point. I do. Specifically, the operation of the activation icons 26 to 28 corresponding to the touch point on the top screen 25 described above, various selections and input operations with other activated applications, and the like are performed. For example, when the navigation application is activated, a map image scroll process, a scale change process, and the like on the navigation screen 29 (FIG. 6) are performed.

一方、S122においてCPU11は、前記S118で算出されたタッチ座標の変位に基づいて、現時点でユーザがタッチオンした状態にあるか否かを判定する。   On the other hand, in S122, based on the displacement of the touch coordinates calculated in S118, the CPU 11 determines whether or not the user is currently in a touch-on state.

そして、現時点でユーザがタッチオンした状態にあると判定された場合(S122:YES)には、S123へと移行する。それに対して、現時点でユーザがタッチオンした状態にないと判定された場合(S122:NO)には、S9へと移行する。   When it is determined that the user is in a touch-on state at this time (S122: YES), the process proceeds to S123. On the other hand, when it is determined that the user is not in a touch-on state at the present time (S122: NO), the process proceeds to S9.

また、S123においてCPU11は、前記S118で算出されたタッチ座標の変位に基づいて、現時点でユーザがタッチするタッチ地点が、ハードキー19の仮想操作領域に含まれるか否かを判定する。尚、ハードキー19の仮想操作領域は、操作板6上に設定され、その範囲は座標等を用いてメモリ12に記憶される。従って、前記S123では、前記S116の変換後のタッチ地点ではなくS115で検出された操作板上の座標系におけるタッチ地点に基づいて判定を行う。   In S123, the CPU 11 determines whether or not the touch point touched by the user at the present time is included in the virtual operation area of the hard key 19 based on the displacement of the touch coordinates calculated in S118. The virtual operation area of the hard key 19 is set on the operation panel 6 and the range is stored in the memory 12 using coordinates or the like. Therefore, in S123, the determination is made based on the touch point in the coordinate system on the operation panel detected in S115, not the touch point after the conversion in S116.

また、操作板6上に設定された仮想操作領域をユーザに把握させる為に、仮想操作領域と他の領域とを識別する情報(以下、領域区分情報という)を、操作板6上で前記ユーザに視認させる。具体的には、領域区分情報を操作板6上に印字又は貼付する構成としても良いし、ディスプレイ4に表示させ、操作板6を介してユーザから視認させる構成としても良い。但し、上記いずれの構成を採用するに際しても、ユーザが操作板6を介して視認できる操作対象物(アイコン、ボタン等)の画像と仮想操作領域とが重複しないように仮想操作領域を設定することが望ましい。また、仮に操作対象物の画像と仮想操作領域とが重複する場合であって、該重複する領域がユーザによってタッチ操作された場合には、タッチパネル18の操作よりもハードキー19の操作を優先して行うように設定することが望ましい。更に、実際に筐体上に配置されるハードキー19と対応する位置(例えばホームボタンであればディスプレイ4の下方)に該ハードキー19の仮想操作領域を設定することが望ましい。それによって、ユーザに違和感を与えることなく操作板6へのタッチ操作に基づくハードキー19の操作を行わせることが可能となる。   In addition, in order for the user to grasp the virtual operation area set on the operation panel 6, information for identifying the virtual operation area and other areas (hereinafter referred to as area classification information) is displayed on the operation panel 6 with the user. Make it visible. Specifically, the area classification information may be printed or pasted on the operation plate 6 or may be displayed on the display 4 and viewed from the user via the operation plate 6. However, when adopting any of the above configurations, the virtual operation area is set so that the image of the operation target (icon, button, etc.) that can be visually recognized by the user via the operation panel 6 does not overlap with the virtual operation area. Is desirable. Further, if the image of the operation target object and the virtual operation area overlap, and the overlap area is touched by the user, the operation of the hard key 19 has priority over the operation of the touch panel 18. It is desirable to set to Furthermore, it is desirable to set the virtual operation area of the hard key 19 at a position corresponding to the hard key 19 actually arranged on the housing (for example, below the display 4 if it is a home button). As a result, the hard key 19 can be operated based on the touch operation on the operation panel 6 without causing the user to feel uncomfortable.

ここで、図30は操作板6上にハードキー19の仮想操作領域を識別する領域区分情報を印字した例について示す。尚、図30に示す例では、特にハードキー19としてホームボタンの仮想操作領域75を設定する。そして、図30に示す例では、ホームボタンのボタン形状と該ボタンがホームボタンであることを示す文字がそれぞれ印字される。それによって、ユーザは仮想操作領域75をタッチすることによって通信端末1のホームボタンを操作できることを把握可能となる。また、仮想操作領域75をディスプレイ4と重複する可能性の低い位置(例えば操作板6の外縁付近)に設定することによって、アイコン等の操作対象物の画像と仮想操作領域75とが重複する虞を減少させることが可能となる。
一方、図31はディスプレイ4にハードキー19の仮想操作領域を識別する領域区分情報を表示した例について示す。尚、図31に示す例では、特にハードキー19としてホームボタンの仮想操作領域76を設定する。そして、図31に示す例では、ホームボタンのボタン形状と該ボタンがホームボタンであることを示す文字がそれぞれディスプレイ4に表示され、操作板6を介してユーザが視認可能となる。それによって、ユーザは仮想操作領域76をタッチすることによって通信端末1のホームボタンを操作できることを把握可能となる。また、仮想操作領域76は、ディスプレイ4においてアイコン等の操作対象物の画像が表示されていない空白領域に対して表示する。尚、空白領域が無い場合には、既に表示されている操作対象物の配置を変更することによって、空白領域を形成し、形成された空白領域に対して仮想操作領域76を表示する。
Here, FIG. 30 shows an example in which area classification information for identifying the virtual operation area of the hard key 19 is printed on the operation panel 6. In the example shown in FIG. 30, the home button virtual operation area 75 is set as the hard key 19 in particular. In the example shown in FIG. 30, the button shape of the home button and characters indicating that the button is the home button are printed. Thereby, the user can grasp that the home button of the communication terminal 1 can be operated by touching the virtual operation area 75. In addition, by setting the virtual operation area 75 at a position that is unlikely to overlap with the display 4 (for example, near the outer edge of the operation panel 6), the image of the operation target such as an icon and the virtual operation area 75 may overlap. Can be reduced.
On the other hand, FIG. 31 shows an example in which area division information for identifying the virtual operation area of the hard key 19 is displayed on the display 4. In the example shown in FIG. 31, the virtual operation area 76 of the home button is set as the hard key 19 in particular. In the example shown in FIG. 31, the button shape of the home button and the characters indicating that the button is the home button are displayed on the display 4, and can be visually recognized by the user via the operation panel 6. Thereby, the user can grasp that the home button of the communication terminal 1 can be operated by touching the virtual operation area 76. The virtual operation area 76 is displayed on a blank area where an image of an operation target such as an icon is not displayed on the display 4. If there is no blank area, the layout of the operation object already displayed is changed to form a blank area, and the virtual operation area 76 is displayed for the formed blank area.

そして、現時点でユーザがタッチするタッチ地点が、ハードキー19の仮想操作領域に含まれると判定された場合(S123:YES)には、S125へと移行する。それに対して、現時点でユーザがタッチするタッチ地点が、ハードキー19の仮想操作領域に含まれないと判定された場合(S123:NO)には、S124へと移行する。   If it is determined that the touch point touched by the user at this time is included in the virtual operation area of the hard key 19 (S123: YES), the process proceeds to S125. On the other hand, when it is determined that the touch point touched by the user at this time is not included in the virtual operation area of the hard key 19 (S123: NO), the process proceeds to S124.

S124においてCPU11は、通常の一点を選択するタッチ操作が行われたと認定し、前記S116で変換された(ディスプレイ4上の座標系で特定された)タッチ地点の座標を、ユーザの操作板6へのタッチ操作を置き換えた操作として出力する。その後、通信端末1は、出力されたタッチ地点をタッチパネル18によりタッチする通常のタッチパネルの操作が行われたとして、通信端末1へのユーザ操作を行う。具体的には、上述したトップ画面25におけるタッチ地点に対応する起動アイコン26〜28の操作や、起動された他のアプリケーションでの各種選択及び入力操作等を行う。   In S124, the CPU 11 determines that a normal touch operation for selecting one point has been performed, and the coordinates of the touch point (specified in the coordinate system on the display 4) converted in S116 are displayed on the operation panel 6 of the user. Is output as an operation that replaces the touch operation. Thereafter, the communication terminal 1 performs a user operation on the communication terminal 1 assuming that a normal touch panel operation of touching the output touch point with the touch panel 18 is performed. Specifically, the operation of the activation icons 26 to 28 corresponding to the touch point on the top screen 25 described above, various selections and input operations with other activated applications, and the like are performed.

一方、S125においてCPU11は、前記S2で読み出したタッチ履歴に基づいて、一つ前のタッチ履歴におけるタッチ地点も、ハードキー19の仮想操作領域に含まれるか否かを判定する。   On the other hand, in S125, the CPU 11 determines whether or not the touch point in the previous touch history is also included in the virtual operation area of the hard key 19 based on the touch history read in S2.

そして、一つ前のタッチ履歴におけるタッチ地点についても、ハードキー19の仮想操作領域に含まれると判定された場合(S125:YES)には、既に対応するハードキーの操作を行っていると認定し、S9へと移行する。それに対して、一つ前のタッチ履歴におけるタッチ地点は、ハードキー19の仮想操作領域に含まれないと判定された場合(S125:NO)には、S126へと移行する。   If it is determined that the touch point in the previous touch history is also included in the virtual operation area of the hard key 19 (S125: YES), it is determined that the corresponding hard key has already been operated. Then, the process proceeds to S9. On the other hand, when it is determined that the touch point in the previous touch history is not included in the virtual operation area of the hard key 19 (S125: NO), the process proceeds to S126.

S126においてCPU11は、タッチ地点を含む仮想操作領域と対応するハードキー19のハードウェア上の操作の為のタッチ操作が行われたと認定し、該対応するハードキー19の種別を、ユーザの操作板6へのタッチ操作を置き換えた操作として出力する。その後、通信端末1は、出力された種別のハードキー19の操作が行われたとして、通信端末1へのユーザ操作を行う。具体的には、トップ画面25(図5)への移行、音量の調整、文字の入力、電源のオン、オフ等が行われる。
尚、タッチ地点がハードキー19の仮想操作領域に含まれる場合には、S124の処理よりもS126の処理が優先されることとなるので、例えば操作対象物(起動アイコンやボタン等)の画像と仮想操作領域とが重複する場合であって、該重複する領域がユーザによってタッチ操作された場合には、タッチパネル18の操作よりもハードキー19の操作が優先して行われることとなる。
In S126, the CPU 11 recognizes that a touch operation for hardware operation of the hard key 19 corresponding to the virtual operation area including the touch point has been performed, and sets the type of the corresponding hard key 19 to the user operation board. 6 is output as an operation in which the touch operation to 6 is replaced. Thereafter, the communication terminal 1 performs a user operation on the communication terminal 1 on the assumption that the operation of the output type hard key 19 has been performed. Specifically, transition to the top screen 25 (FIG. 5), volume adjustment, character input, power on / off, and the like are performed.
When the touch point is included in the virtual operation area of the hard key 19, the process of S126 is prioritized over the process of S124. For example, an image of an operation target (a start icon, a button, etc.) When the virtual operation area overlaps and the overlap area is touched by the user, the operation of the hard key 19 is performed with priority over the operation of the touch panel 18.

次に、前記S108において実行されるカメラ感度調整処理のサブ処理について図32に基づき説明する。図32はカメラ感度調整処理のサブ処理プログラムのフローチャートである。   Next, the sub process of the camera sensitivity adjustment process executed in S108 will be described with reference to FIG. FIG. 32 is a flowchart of a sub-processing program for camera sensitivity adjustment processing.

先ず、S131においてCPU11は、通信端末1に内蔵された照度センサ21を用いて通信端末1の周囲の明るさを検出する。尚、照度センサ21の代わりに前記S103で読み出した撮像画像を解析することによって通信端末1の周囲の明るさを検出しても良い。   First, in S <b> 131, the CPU 11 detects the ambient brightness of the communication terminal 1 using the illuminance sensor 21 built in the communication terminal 1. Note that the brightness around the communication terminal 1 may be detected by analyzing the captured image read in S103 instead of the illuminance sensor 21.

続いて、S132においてCPU11は、前記S131で検出した通信端末1の周囲の明るさの内、特に前記S105で検出した操作板6を操作するユーザの手の明るさ(即ち、撮像画像中に含まれるユーザの手の明るさ)を検出する。尚、操作板6に対する操作を行う対象物がユーザの手以外である場合には、該対象物の明るさを検出する。また、ユーザの手自体の明るさではなく、ユーザの手の周辺エリアの明るさを検出することとしても良い。更に、特定エリアに対する照度を検出できない場合には、S131の検出値を前記S132の検出値として用いても良い。   Subsequently, in S132, the CPU 11 determines the brightness of the user's hand operating the operation panel 6 detected in S105, in particular, the brightness around the communication terminal 1 detected in S131 (that is, included in the captured image). Brightness of the user's hand). In addition, when the target object which operates with respect to the operation board 6 is other than a user's hand, the brightness of this target object is detected. Moreover, it is good also as detecting the brightness of the surrounding area of a user's hand instead of the brightness of a user's hand itself. Furthermore, when the illuminance for the specific area cannot be detected, the detection value of S131 may be used as the detection value of S132.

その後、S133においてCPU11は、前記S132で検出されたユーザの手の明るさが下限値未満であるか否かを判定する。尚、下限値は所定の閾値であり、予めメモリ12等に記憶される。   Thereafter, in S133, the CPU 11 determines whether or not the brightness of the user's hand detected in S132 is less than the lower limit value. The lower limit value is a predetermined threshold value and is stored in advance in the memory 12 or the like.

そして、ユーザの手の明るさが下限値未満であると判定された場合(S133:YES)には、S134へと移行する。それに対して、ユーザの手の明るさが下限値未満でないと判定された場合(S133:NO)には、S135へと移行する。   And when it determines with the brightness of a user's hand being less than a lower limit (S133: YES), it transfers to S134. On the other hand, when it is determined that the brightness of the user's hand is not less than the lower limit (S133: NO), the process proceeds to S135.

S134においてCPU11は、通信端末1に内蔵されたカメラ5の感度を上昇させる(例えばISO感度を1.5倍にする)。それによって、検出対象となるユーザの手が暗い場合であっても、その後のS112において撮像画像から指先端部の色を適切に検出することが可能となる。   In S134, the CPU 11 increases the sensitivity of the camera 5 built in the communication terminal 1 (for example, the ISO sensitivity is increased by 1.5 times). Thereby, even when the user's hand to be detected is dark, it is possible to appropriately detect the color of the finger tip from the captured image in subsequent S112.

一方、S135においてCPU11は、前記S132で検出されたユーザの手の明るさが上限値以上であるか否かを判定する。尚、上限値は所定の閾値であり、予めメモリ12等に記憶される。   On the other hand, in S135, the CPU 11 determines whether the brightness of the user's hand detected in S132 is equal to or higher than the upper limit value. The upper limit value is a predetermined threshold value and is stored in advance in the memory 12 or the like.

そして、ユーザの手の明るさが上限値以上であると判定された場合(S135:YES)には、S136へと移行する。それに対して、ユーザの手の明るさが上限値以上でもないと判定された場合(S135:NO)には、S137へと移行する。   And when it determines with the brightness of a user's hand being more than an upper limit (S135: YES), it transfers to S136. On the other hand, when it is determined that the brightness of the user's hand is not equal to or higher than the upper limit (S135: NO), the process proceeds to S137.

S136においてCPU11は、通信端末1に内蔵されたカメラ5の感度を下げる(例えばISO感度を2/3にする)。それによって、検出対象となるユーザの手が明るすぎる場合であっても、その後のS112において撮像画像から指先端部の色を適切に検出することが可能となる。   In S136, the CPU 11 lowers the sensitivity of the camera 5 built in the communication terminal 1 (for example, the ISO sensitivity is set to 2/3). Thereby, even if the user's hand to be detected is too bright, the color of the finger tip can be appropriately detected from the captured image in subsequent S112.

S137においてCPU11は、前記S131で読み出した撮像画像に基づいて操作板6に形成されたフレネルレンズの溝部分の位置を特定する。尚、溝部分の位置は予めメモリ12に記憶させる構成としても良い。   In S137, the CPU 11 identifies the position of the groove portion of the Fresnel lens formed on the operation plate 6 based on the captured image read in S131. The position of the groove portion may be stored in the memory 12 in advance.

次に、S138においてCPU11は、前記S137で特定されたフレネルレンズの溝部分が明るくなるように、今後撮像された撮像画像を加工する(特定エリアの明度を上昇させる)ように設定する。それによって、フレネルレンズの溝部分に影が生じてユーザの手が正しく検出できない状況となっても、撮像画像の明度を調整することによって、その後のS112において撮像画像から指先端部の色を適切に検出することが可能となる。尚、前記S138の設定は、S111において解除されるまで継続する。   Next, in S138, the CPU 11 sets so as to process the captured image captured in the future (increase the brightness of the specific area) so that the groove portion of the Fresnel lens specified in S137 becomes brighter. As a result, even if a shadow is generated in the groove portion of the Fresnel lens and the user's hand cannot be detected correctly, by adjusting the brightness of the captured image, the color of the finger tip is appropriately adjusted from the captured image in subsequent S112. Can be detected. The setting in S138 continues until it is canceled in S111.

次に、前記S109において実行される画面輝度調整処理のサブ処理について図33に基づき説明する。図33は画面輝度調整処理のサブ処理プログラムのフローチャートである。   Next, the sub-process of the screen brightness adjustment process executed in S109 will be described with reference to FIG. FIG. 33 is a flowchart of a sub-processing program for screen brightness adjustment processing.

先ず、S141においてCPU11は、通信端末1に内蔵された照度センサ21を用いて通信端末1の周囲の明るさを検出する。尚、照度センサ21の代わりに前記S102で読み出した撮像画像を解析することによって通信端末1の周囲の明るさを検出しても良い。   First, in S <b> 141, the CPU 11 detects the brightness around the communication terminal 1 using the illuminance sensor 21 built in the communication terminal 1. The brightness around the communication terminal 1 may be detected by analyzing the captured image read in S102 instead of the illuminance sensor 21.

続いて、S142においてCPU11は、前記S141で検出した通信端末1の周囲の明るさの内、特に前記S105で検出した操作板6を操作するユーザの手の明るさ(即ち、撮像画像中に含まれるユーザの手の明るさ)を検出する。尚、操作板6に対する操作を行う対象物がユーザの手以外である場合には、該対象物の明るさを検出する。また、ユーザの手自体の明るさではなく、ユーザの手の周辺エリアの明るさを検出することとしても良い。   Subsequently, in S142, the CPU 11 determines the brightness of the user's hand operating the operation panel 6 detected in S105, in particular, the brightness around the communication terminal 1 detected in S141 (that is, included in the captured image). Brightness of the user's hand). In addition, when the target object which operates with respect to the operation board 6 is other than a user's hand, the brightness of this target object is detected. Moreover, it is good also as detecting the brightness of the surrounding area of a user's hand instead of the brightness of a user's hand itself.

その後、S143においてCPU11は、前記S142で検出されたユーザの手の明るさと、ユーザの手以外のエリアの明るさとを比較し、ユーザの手以外のエリアよりもユーザの手が暗いか否かを判定する。   Thereafter, in S143, the CPU 11 compares the brightness of the user's hand detected in S142 with the brightness of the area other than the user's hand, and determines whether the user's hand is darker than the area other than the user's hand. judge.

そして、ユーザの手以外のエリアよりもユーザの手が暗いと判定された場合(S143:YES)には、S144へと移行する。それに対して、ユーザの手以外のエリアよりもユーザの手が明るいと判定された場合(S143:NO)には、S145へと移行する。   When it is determined that the user's hand is darker than the area other than the user's hand (S143: YES), the process proceeds to S144. On the other hand, when it is determined that the user's hand is brighter than the area other than the user's hand (S143: NO), the process proceeds to S145.

S144においてCPU11は、通信端末1のディスプレイ4の輝度を上昇させる。例えば、ディスプレイ4が液晶ディスプレイである場合には、バックライトの強度を上げることによって輝度を上昇させる。それによって、検出対象となるユーザの手が周囲に比べて暗い場合であっても、ディスプレイ4から照射される光によってユーザの手を明るく照らし、ユーザの手の明るさを周囲の明るさに合わせて適度な明るさへと調整し、その後のS112において撮像画像から指先端部の色を適切に検出することが可能となる。   In S144, the CPU 11 increases the luminance of the display 4 of the communication terminal 1. For example, when the display 4 is a liquid crystal display, the luminance is increased by increasing the intensity of the backlight. Thereby, even when the user's hand to be detected is darker than the surroundings, the user's hand is brightly illuminated by the light emitted from the display 4, and the brightness of the user's hand is adjusted to the ambient brightness. It is possible to appropriately detect the color of the finger tip from the captured image in subsequent S112.

一方、S145においてCPU11は、通信端末1のディスプレイ4の輝度を下げる。例えば、ディスプレイ4が液晶ディスプレイである場合には、バックライトの強度を下げることによって輝度を下降させる。それによって、検出対象となるユーザの手が周囲に比べて明るい場合であっても、ディスプレイ4から照射される光を弱くすることによってユーザの手の明るさを周囲の明るさに合わせて適度な明るさへと調整し、その後のS112において撮像画像から指先端部の色を適切に検出することが可能となる。   On the other hand, in S145, the CPU 11 decreases the luminance of the display 4 of the communication terminal 1. For example, when the display 4 is a liquid crystal display, the brightness is lowered by reducing the intensity of the backlight. Thereby, even when the user's hand to be detected is brighter than the surroundings, the brightness of the user's hand is adjusted to the ambient brightness by weakening the light emitted from the display 4. It is possible to appropriately adjust the color of the finger tip from the captured image in S112 after the adjustment to brightness.

次に、S146においてCPU11は、前記S103で読み出した撮像画像に基づいて、前記S105で検出したユーザの手の色を解析する。尚、前記S146では、ユーザの手の色は、例えばRGB値により特定される。   Next, in S146, the CPU 11 analyzes the color of the user's hand detected in S105 based on the captured image read in S103. In S146, the color of the user's hand is specified by RGB values, for example.

続いて、S147においてCPU11は、ユーザの手の適切な色味基準をメモリ12等から取得する。尚、前記S147で取得されるユーザの手の適切な色味基準は、例えばRGB値により特定する。   Subsequently, in S147, the CPU 11 acquires an appropriate color standard of the user's hand from the memory 12 or the like. Note that the appropriate color standard of the user's hand acquired in S147 is specified by RGB values, for example.

その後、S148においてCPU11は、前記S146の解析結果と前記S147で取得した色味基準に基づいて、ユーザの手の色が適切な色味基準と適合するか否かを判定する。具体的には、前記S146で特定されたユーザの手の色のRGB値と、前記S147で取得された適切な色味基準のRGB値との差分が所定値以内(例えばΔR>50、且つΔG>50、且つΔB>50)である場合に、ユーザの手の色が適切な色味基準と適合すると判定する。   Thereafter, in S148, the CPU 11 determines whether or not the color of the user's hand matches the appropriate color standard based on the analysis result in S146 and the color standard acquired in S147. Specifically, the difference between the RGB value of the color of the user's hand specified in S146 and the RGB value of the appropriate tint standard acquired in S147 is within a predetermined value (for example, ΔR> 50 and ΔG If> 50 and ΔB> 50), it is determined that the color of the user's hand matches the appropriate color standard.

そして、ユーザの手の色が適切な色味基準と適合すると判定された場合(S148:YES)には、S110へと移行する。一方、ユーザの手の色が適切な色味基準と適合しないと判定された場合(S148:NO)には、S149へと移行する。   If it is determined that the color of the user's hand matches an appropriate color standard (S148: YES), the process proceeds to S110. On the other hand, when it is determined that the color of the user's hand does not match the appropriate color standard (S148: NO), the process proceeds to S149.

S149においてCPU11は、前記S146で特定されたユーザの手の色のRGB値と、前記S147で取得された適切な色味基準のRGB値との差分を算出する。   In S149, the CPU 11 calculates a difference between the RGB value of the color of the user's hand specified in S146 and the RGB value of the appropriate color standard acquired in S147.

その後、S150においてCPU11は、前記S149で算出されたRGB値の差分が解消されるように、今後撮像された撮像画像を加工する(前記S149で算出されたRGB値の差分を加算する)ように設定する。それによって、撮像画像中のユーザの手の色が実際の手の色と大きく異なる状況となっても、撮像画像のRGB値を調整することによって、その後のS112において撮像画像から指先端部の色を適切に検出することが可能となる。尚、前記S150の設定は、S111において解除されるまで継続する。   Thereafter, in S150, the CPU 11 processes the captured image captured in the future so as to eliminate the RGB value difference calculated in S149 (adds the RGB value difference calculated in S149). Set. As a result, even if the color of the user's hand in the captured image is significantly different from the actual hand color, the color of the finger tip from the captured image is adjusted in subsequent S112 by adjusting the RGB value of the captured image. Can be detected appropriately. The setting in S150 is continued until it is canceled in S111.

以上詳細に説明した通り、第1実施形態に係る通信端末1、通信端末1の制御方法及び通信端末1において実行されるコンピュータプログラムでは、端末ケース3内に通信端末1が配置された状態で、操作板6へのユーザのタッチ操作の操作態様を、通信端末1に内蔵されたカメラ5によって撮像し(S5)、撮像された撮像画像に基づいて、操作板6に対するユーザのタッチ操作を検出し(S8)、検出された操作板6に対するユーザのタッチ操作に基づいて通信端末1へのユーザ操作を行うので、通信端末1の周囲に通信端末1に対するユーザの操作を阻害する端末ケース3のような障害物が置かれた場合であっても、操作板6へのユーザのタッチ操作に基づいて通信端末1の操作を行わせるので、操作板6によってディスプレイ4への視認性を確保しつつ、ユーザの操作性が低下することについても防止することが可能となる。
また、操作板6に対するユーザのタッチ操作を、タッチパネル18に対する操作に置き換えて、通信端末1へのユーザ操作を行うので、タッチパネル18にユーザが直接タッチしなくとも、操作板6へのタッチ操作によってタッチパネル18の操作を実現することが可能となる。従って、タッチパネル18に直接操作を行う場合と比較しても操作性が低下することが無い。
また、操作板6に対するユーザのタッチ操作を、表示画面上の座標系に変換されたタッチ地点をタッチパネル18でタッチする操作に置き換えるので、タッチパネル18にユーザが直接タッチしなくとも、操作板6へのタッチ操作によってタッチパネル18の任意の地点にタッチするユーザ操作を実現することが可能となる。また、操作板6へのタッチ地点を変更すれば、置き換えられるタッチパネル18のタッチ地点も変化するので、ユーザの意図に沿った容易なタッチ操作が実現可能となる。
また、操作板6に対するユーザのタッチ操作を、ディスプレイ4上の操作対象物(例えばアイコン等)をタッチパネル18でタッチする操作に置き換えるので、タッチパネル18にユーザが直接タッチしなくとも、操作板6へのタッチ操作によってディスプレイ4に表示された操作対象物をタッチするユーザ操作を実現することが可能となる。
また、ユーザが操作板6を介して視認できるディスプレイ4と変換前のタッチ地点との位置関係が、通信端末1のディスプレイ4と変換後のタッチ地点との位置関係に対応するように、操作板上の座標系で特定されたタッチ地点をディスプレイ上の座標系に変換するので、ユーザが操作板6を介して視認できるディスプレイ4にタッチパネルが配置されているのと同等の電子機器に対するユーザ操作を実現することが可能となる。
また、ユーザの操作板6へのタッチ操作の操作種別を検出し、検出された操作種別に基づいて通信端末1へのユーザ操作を行うので、ドラッグ操作やフリック操作やピンチ操作等の特殊なタッチ操作に基づいて通信端末1へのユーザ操作を行わせることが可能となる。従って、タッチパネル18の操作と同等の操作感覚で操作板による電子機器へのユーザ操作を行わせることが可能となる。
また、操作板6に対するユーザのタッチ操作を、ハードキー19に対する操作に置き換えて、通信端末1へのユーザ操作を行うので、ハードキー19にユーザが直接触れなくとも、操作板6へのタッチ操作によってハードキー19の操作を実現することが可能となる。そして、筐体表面に配置されたハードキー19に対するユーザの操作性が低下することについて防止することが可能となる。
また、操作板6にフレネルレンズを形成することによって、操作板6を介してディスプレイ4の表示内容を拡大して表示するので、例えばディスプレイ4からユーザが離れた状態でディスプレイ4を視認する必要がある状況であっても、ユーザに表示内容を詳細に示すことが可能となる。
As explained in detail above, in the communication terminal 1 according to the first embodiment, the control method of the communication terminal 1 and the computer program executed in the communication terminal 1, the communication terminal 1 is arranged in the terminal case 3, The operation mode of the user's touch operation on the operation panel 6 is imaged by the camera 5 built in the communication terminal 1 (S5), and the user's touch operation on the operation panel 6 is detected based on the captured image. (S8) Since the user operation to the communication terminal 1 is performed based on the detected touch operation of the user on the operation panel 6, the terminal case 3 that obstructs the user's operation on the communication terminal 1 around the communication terminal 1 Even when an obstacle is placed, the operation terminal 6 causes the operation of the communication terminal 1 based on the user's touch operation on the operation panel 6. While ensuring 認性, operability of the user can be also prevented the decrease.
In addition, since the user's touch operation on the operation panel 6 is replaced with an operation on the touch panel 18 and the user operation on the communication terminal 1 is performed, the user can directly touch the operation panel 6 without touching the touch panel 18. Operation of the touch panel 18 can be realized. Therefore, the operability does not deteriorate even when compared with the case where the touch panel 18 is directly operated.
Further, the user's touch operation on the operation panel 6 is replaced with an operation of touching the touch point converted into the coordinate system on the display screen with the touch panel 18, so that the user can directly touch the operation panel 6 without touching the touch panel 18. It becomes possible to realize a user operation to touch an arbitrary point on the touch panel 18 by the touch operation. Further, if the touch point on the operation panel 6 is changed, the touch point on the touch panel 18 to be replaced also changes, so that an easy touch operation in accordance with the user's intention can be realized.
Further, since the user's touch operation on the operation panel 6 is replaced with an operation of touching an operation target (for example, an icon or the like) on the display 4 with the touch panel 18, the operation panel 6 can be accessed without the user touching the touch panel 18 directly. It is possible to realize a user operation for touching the operation target displayed on the display 4 by the touch operation.
Further, the operation board is arranged so that the positional relationship between the display 4 that can be visually recognized by the user via the operation panel 6 and the touch point before conversion corresponds to the positional relationship between the display 4 of the communication terminal 1 and the touch point after conversion. Since the touch point specified in the upper coordinate system is converted to the coordinate system on the display, a user operation on an electronic device equivalent to the touch panel being arranged on the display 4 that the user can visually recognize via the operation panel 6 is performed. It can be realized.
In addition, since the operation type of the user's touch operation on the operation panel 6 is detected and the user operation is performed on the communication terminal 1 based on the detected operation type, a special touch such as a drag operation, a flick operation, or a pinch operation is performed. It becomes possible to perform user operation to the communication terminal 1 based on the operation. Accordingly, it is possible to cause a user operation to the electronic device using the operation panel with an operation feeling equivalent to the operation of the touch panel 18.
Further, since the user's touch operation on the operation panel 6 is replaced with an operation on the hard key 19 and the user operation on the communication terminal 1 is performed, the touch operation on the operation panel 6 can be performed without the user touching the hard key 19 directly. Thus, the operation of the hard key 19 can be realized. And it becomes possible to prevent that a user's operativity with respect to the hard key 19 arrange | positioned on the housing | casing surface falls.
Moreover, since the display content of the display 4 is enlarged and displayed via the operation plate 6 by forming a Fresnel lens on the operation plate 6, it is necessary to visually recognize the display 4 in a state where the user is away from the display 4, for example. Even in a certain situation, the display contents can be shown in detail to the user.

[第2実施形態]
次に、第2実施形態に係る通信端末を含む端末操作システムについて図34乃至図36に基づいて説明する。尚、以下の説明において上記図1乃至図33の第1実施形態に係る端末操作システム2の構成と同一符号は、前記第1実施形態に係る端末操作システム2等の構成と同一あるいは相当部分を示すものである。
[Second Embodiment]
Next, a terminal operation system including a communication terminal according to the second embodiment will be described with reference to FIGS. In the following description, the same reference numerals as those of the terminal operation system 2 according to the first embodiment in FIGS. 1 to 33 denote the same or corresponding parts as those of the terminal operation system 2 according to the first embodiment. It is shown.

この第2実施形態に係る端末操作システムの概略構成は、第1実施形態に係る端末操作システム2とほぼ同じ構成である。また、各種制御処理も第1実施形態に係る端末操作システム2とほぼ同じ制御処理である。
ただし、第1実施形態に係る端末操作システム2が、カメラ5で撮像した撮像画像からユーザ(操作者)の指先端部の色を特定し、特定した指先端部の色から操作板6を操作するユーザのタッチ地点を検出するのに対し、第2実施形態に係る端末操作システムは、カメラ5で撮像した撮像画像からユーザの指先端部の輪郭の幅を特定し、特定した輪郭の幅から操作板6を操作するユーザのタッチ地点を検出する点で第1実施形態に係る端末操作システム2と異なっている。
The schematic configuration of the terminal operation system according to the second embodiment is substantially the same as that of the terminal operation system 2 according to the first embodiment. Various control processes are also substantially the same as the terminal operation system 2 according to the first embodiment.
However, the terminal operation system 2 according to the first embodiment specifies the color of the finger tip of the user (operator) from the captured image captured by the camera 5, and operates the operation plate 6 from the specified color of the finger tip. The terminal operation system according to the second embodiment identifies the width of the contour of the user's finger tip from the captured image captured by the camera 5, and detects the user's touch point. This is different from the terminal operation system 2 according to the first embodiment in that a touch point of a user who operates the operation panel 6 is detected.

以下に、第2実施形態に係る通信端末において実行するタッチ検出処理のサブ処理について図34及び図35に基づき説明する。図34及び図35は第2実施形態に係るタッチ検出処理のサブ処理プログラムのフローチャートである。   Below, the sub process of the touch detection process performed in the communication terminal which concerns on 2nd Embodiment is demonstrated based on FIG.34 and FIG.35. 34 and 35 are flowcharts of a sub-processing program for touch detection processing according to the second embodiment.

尚、S201〜S211の処理は、第1実施形態に係るタッチ検出処理プログラム(図26、図27)のS101〜S111の処理と同様の処理であるので説明は省略する。   Note that the processing of S201 to S211 is the same as the processing of S101 to S111 of the touch detection processing program (FIGS. 26 and 27) according to the first embodiment, and thus description thereof is omitted.

そして、S212においてCPU11は、前記S205で検出したユーザの手から、ユーザの指先端部を特定し、更に指先端部の輪郭の幅を検出する。尚、指先端部が複数特定された場合には、各指先端部の輪郭の幅をそれぞれ検出する。   In S212, the CPU 11 specifies the finger tip of the user from the user's hand detected in S205, and further detects the width of the contour of the finger tip. When a plurality of finger tip portions are specified, the contour width of each finger tip portion is detected.

次に、S213においてCPU11は、前記S212において検出された指先端部の輪郭の幅に基づいて、少なくとも一以上の指先端部の輪郭の幅が閾値(例えば1mm)以下であるか否かを判定する。ここで、前記したようにカメラ5の焦点距離は、カメラ5から操作板6までの距離に設定されている(S37)。従って、操作板6に近ければ近い物体ほど、撮像画像中の輪郭は細くなり、逆に操作板6から遠ざかる物体ほど、撮像画像中の輪郭は太くなる。従って、前記S213において判定基準となる閾値を、指先部分(必ずしも指先部分でなくても良い)が操作板6に接触した状態でカメラ5により撮像された撮像画像中に含まれる該指先部分が示す輪郭の幅(検出誤差を考慮して20%程度の余裕を持たせても良い)とすることによって、操作板6に対してユーザの指先部分が接しているか否かを判定することが可能となる。   Next, in S213, the CPU 11 determines whether or not the width of the contour of at least one finger tip is less than or equal to a threshold (for example, 1 mm) based on the width of the contour of the finger tip detected in S212. To do. Here, as described above, the focal length of the camera 5 is set to the distance from the camera 5 to the operation panel 6 (S37). Accordingly, the closer the object is to the operation plate 6, the thinner the contour in the captured image, and conversely, the closer the object is to the operation plate 6, the thicker the contour in the captured image. Therefore, the threshold value used as the determination criterion in S213 is indicated by the fingertip portion included in the captured image captured by the camera 5 in a state where the fingertip portion (not necessarily the fingertip portion) is in contact with the operation plate 6. It is possible to determine whether or not the fingertip portion of the user is in contact with the operation plate 6 by setting the width of the contour (which may have a margin of about 20% in consideration of detection errors). Become.

例えば、撮像画像中に図36に示すユーザの指先端部81、82がそれぞれ含まれる場合について例を上げて説明する。図36に示す例では、指先端部81については他の部分と比べて明らかに輪郭が細くなっており、操作板6に対してユーザの指先部分が接している、即ち操作板6に対してユーザがタッチ操作を行っていると判定できる。一方、指先端部82については輪郭が細くなっておらず、操作板6に対してユーザの指先端部82が接していない、即ち操作板6に対してユーザがタッチ操作を行っていないと判定できる。   For example, the case where the user's finger tip portions 81 and 82 shown in FIG. 36 are included in the captured image will be described with an example. In the example shown in FIG. 36, the contour of the finger tip portion 81 is clearly narrower than other portions, and the fingertip portion of the user is in contact with the operation plate 6, that is, with respect to the operation plate 6. It can be determined that the user is performing a touch operation. On the other hand, the contour of the finger tip 82 is not thin, and it is determined that the user's finger tip 82 is not in contact with the operation plate 6, that is, the user is not performing a touch operation on the operation plate 6. it can.

そして、前記S213の判定の結果、少なくとも一以上の指先端部の輪郭の幅が閾値以下であると判定された場合(S213:YES)には、ユーザの指先端部が操作板6に接触した状態にあると推定し、S214へと移行する。それに対して、指先端部の輪郭の幅が閾値以下でないと判定された場合(S213:NO)には、ユーザの指先端部が操作板6に接触した状態にないと推定し、操作板6に対してユーザがタッチ操作を行っていないと判定する(S207)。   Then, as a result of the determination in S213, when it is determined that the outline width of at least one finger tip portion is equal to or less than the threshold value (S213: YES), the user's finger tip portion contacts the operation plate 6. It is presumed that it is in a state, and the process proceeds to S214. On the other hand, when it is determined that the contour width of the finger tip portion is not equal to or less than the threshold (S213: NO), it is estimated that the finger tip portion of the user is not in contact with the operation plate 6, and the operation plate 6 It is determined that the user has not performed a touch operation (S207).

また、前記S213では、輪郭の幅の絶対値ではなく相対値によって指先端部が操作板6に接触した状態にあるか否かを判定しても良い。例えば、指先端部以外の手の部分の輪郭の幅を特定し、指先端部と指先端部以外の輪郭の幅の差分が所定値以上である場合に、ユーザの指先端部が操作板6に接触した状態にあると判定しても良い。   In S213, it may be determined whether or not the finger tip is in contact with the operation plate 6 based on a relative value rather than an absolute value of the width of the contour. For example, when the width of the contour of the hand other than the finger tip is specified, and the difference in the width of the contour other than the finger tip and the finger tip is equal to or greater than a predetermined value, the user's finger tip is the operation plate 6. You may determine with being in the state which touched.

そして、S214においてCPU11は、操作板6に対してユーザがタッチ操作を行っていると判定する。   In S <b> 214, the CPU 11 determines that the user is performing a touch operation on the operation plate 6.

次に、S215においてCPU11は、操作板6上の座標系によってユーザがタッチしたタッチ地点の座標を特定する。具体的には、図36に示すように、輪郭の細くなった指先端部81の先端位置をタッチ地点P1とし、タッチ地点P1の座標を操作板6上の座標系によって特定する。尚、タッチ地点が2点以上有る場合には、それぞれのタッチ地点について座標を特定する。   Next, in S <b> 215, the CPU 11 specifies the coordinates of the touch point touched by the user using the coordinate system on the operation panel 6. Specifically, as shown in FIG. 36, the tip position of the finger tip portion 81 having a thin outline is set as the touch point P1, and the coordinates of the touch point P1 are specified by the coordinate system on the operation panel 6. In addition, when there are two or more touch points, the coordinates are specified for each touch point.

その後、S216においてCPU11は、前記S215において操作板上の座標系で特定されたタッチ地点の座標をディスプレイ4上の座標系の座標に変換する。   Thereafter, in S216, the CPU 11 converts the coordinates of the touch point specified in the coordinate system on the operation panel in S215 to the coordinates of the coordinate system on the display 4.

その後、S217においてCPU11は、前記S212〜S216の検出結果に基づいてタッチ履歴を新たに保存する。   Thereafter, in S217, the CPU 11 newly saves the touch history based on the detection results of S212 to S216.

次に、S218においてCPU11は、前記S202において読み出された過去のタッチ履歴と、前記S217で新たに保存されたタッチ履歴とに基づいて、タッチ座標の変位を算出する。具体的には、直近の所定時間以内(例えば5sec内)のタッチのオン・オフの変化、タッチ座標が変位しているか否か、変位している場合にはどのような方向にどの程度の速度で変位しているかを算出する。尚、タッチオン及びタッチオフの算出では、ユーザの手の指先部分の輪郭の幅が閾値より太い状態から閾値以下へと変化したタイミングで、操作板6に対してユーザがタッチオンしたと算出し、その後、ユーザの手の指先部分の輪郭の幅が閾値以下から閾値より太い状態となったタイミングで、操作板6に対してユーザがタッチオフしたと算出する。尚、以降のS219〜S226の処理は、第1実施形態に係るタッチ検出処理プログラム(図26、図27)のS119〜S126の処理と同様の処理であるので説明は省略する。   Next, in S218, the CPU 11 calculates the displacement of the touch coordinates based on the past touch history read in S202 and the touch history newly stored in S217. Specifically, changes in touch on / off within the most recent predetermined time (for example, within 5 seconds), whether or not the touch coordinates are displaced, and if so, in what direction and what speed It is calculated whether it is displaced by. In the calculation of touch-on and touch-off, it is calculated that the user touches on the operation panel 6 at a timing when the width of the contour of the fingertip portion of the user's hand changes from a state thicker than the threshold value to the threshold value or less. It is calculated that the user touches off the operation panel 6 at the timing when the width of the contour of the fingertip portion of the user's hand becomes thicker than the threshold value from the threshold value or less. Note that the subsequent processing of S219 to S226 is the same as the processing of S119 to S126 of the touch detection processing program (FIGS. 26 and 27) according to the first embodiment, and a description thereof will be omitted.

以上詳細に説明した通り、第2実施形態に係る通信端末、通信端末の制御方法及び通信端末において実行されるコンピュータプログラムでは、カメラ5で撮像された撮像画像に含まれるユーザの指先端部の輪郭の幅に基づいてタッチ操作を検出するので、撮像画像に基づいて操作板6に対するユーザのタッチ操作を正確に特定することが可能となる。
また、指先の色に基づいて検出を行う第1実施形態と比較すると、周囲の明るさ等の外部環境の影響を比較的受けることなく、ユーザのタッチ操作を検出することが可能となる。また、肌の色の個人差を考慮する必要も無い。
As described in detail above, in the communication terminal, the communication terminal control method, and the computer program executed in the communication terminal according to the second embodiment, the contour of the finger tip of the user included in the captured image captured by the camera 5 Since the touch operation is detected based on the width of the user, it is possible to accurately specify the user's touch operation on the operation plate 6 based on the captured image.
Further, as compared with the first embodiment in which detection is performed based on the color of the fingertip, it is possible to detect a user's touch operation without being relatively affected by an external environment such as ambient brightness. Moreover, it is not necessary to consider individual differences in skin color.

[第3実施形態]
次に、第3実施形態に係る通信端末を含む端末操作システムについて図37及び図38に基づいて説明する。尚、以下の説明において上記図1乃至図33の第1実施形態に係る端末操作システム2の構成と同一符号は、前記第1実施形態に係る端末操作システム2等の構成と同一あるいは相当部分を示すものである。
[Third Embodiment]
Next, a terminal operation system including a communication terminal according to the third embodiment will be described with reference to FIGS. In the following description, the same reference numerals as those of the terminal operation system 2 according to the first embodiment in FIGS. 1 to 33 denote the same or corresponding parts as those of the terminal operation system 2 according to the first embodiment. It is shown.

この第3実施形態に係る端末操作システムの概略構成は、第1実施形態に係る端末操作システム2とほぼ同じ構成である。また、各種制御処理も第1実施形態に係る端末操作システム2とほぼ同じ制御処理である。
ただし、第1実施形態に係る端末操作システム2が、操作板6に仮想操作領域75を設け、仮想操作領域75へのタッチ操作をハードキー19の操作に置き換えてハードキー19の操作を実行するのに対し、第3実施形態に係る端末操作システムは、操作板6に付与された振動をハードキー19の操作に置き換えてハードキー19の操作を実行する点で第1実施形態に係る端末操作システム2と異なっている。
The schematic configuration of the terminal operation system according to the third embodiment is substantially the same as that of the terminal operation system 2 according to the first embodiment. Various control processes are also substantially the same as the terminal operation system 2 according to the first embodiment.
However, the terminal operation system 2 according to the first embodiment provides the virtual operation area 75 on the operation panel 6 and replaces the touch operation on the virtual operation area 75 with the operation of the hard key 19 to execute the operation of the hard key 19. In contrast, the terminal operation system according to the third embodiment replaces the vibration applied to the operation plate 6 with the operation of the hard key 19 and executes the operation of the hard key 19. Different from system 2.

以下に、第3実施形態に係る通信端末において実行するハードキー操作処理プログラムについて図37に基づき説明する。図37は第3実施形態に係るハードキー操作処理プログラムのフローチャートである。   Hereinafter, a hard key operation processing program executed in the communication terminal according to the third embodiment will be described with reference to FIG. FIG. 37 is a flowchart of a hard key operation processing program according to the third embodiment.

尚、第3実施形態に係るハードキー操作処理プログラムは、例えば、端末操作処理プログラム(図7)のS8の処理の後に実行させることが望ましい。   The hard key operation processing program according to the third embodiment is desirably executed after the process of S8 of the terminal operation processing program (FIG. 7), for example.

先ず、S301においてCPU11は、振動パターンとハードキー19の操作内容を対応付けた対応情報を取得する。ここで、図38は、前記S301で取得される対応情報の一例を示した図である。図38に示す対応情報では、所定時間以内(3sec)以内に振動が2回ある振動パターンをホームボタンの操作に対応付けている。また、所定時間以内(3sec)以内に振動が3回ある振動パターンをサイドボタンの操作に対応付けている。更に、所定時間以内(3sec)以内に振動が4回ある振動パターンを電源ボタンの操作に対応付けている。   First, in S301, the CPU 11 acquires correspondence information in which the vibration pattern and the operation content of the hard key 19 are associated with each other. Here, FIG. 38 is a diagram showing an example of correspondence information acquired in S301. In the correspondence information shown in FIG. 38, a vibration pattern having two vibrations within a predetermined time (3 sec) is associated with the operation of the home button. Further, a vibration pattern having three vibrations within a predetermined time (3 sec) is associated with the operation of the side button. Furthermore, a vibration pattern having four vibrations within a predetermined time (3 sec) is associated with the operation of the power button.

次に、S302においてCPU11は、メモリ12に記憶された通信端末1の振動履歴を読み出す。尚、第3実施形態に係る通信端末1では、通信端末1に内蔵された加速度センサ20を用いて通信端末1に対して生じる振動を検出し、過去所定時間分(例えば30sec)の振動履歴をメモリ12に記憶する。尚、通信端末1と端末ケース3は固定されているので、前記S302で読み出される通信端末1の振動履歴は操作板6の振動履歴にも相当する。   Next, in S <b> 302, the CPU 11 reads the vibration history of the communication terminal 1 stored in the memory 12. In the communication terminal 1 according to the third embodiment, the vibration generated in the communication terminal 1 is detected by using the acceleration sensor 20 built in the communication terminal 1, and the vibration history for the past predetermined time (for example, 30 seconds) is recorded. Store in memory 12. Since the communication terminal 1 and the terminal case 3 are fixed, the vibration history of the communication terminal 1 read in S302 corresponds to the vibration history of the operation panel 6.

続いて、S303においてCPU11は、通信端末1に内蔵された加速度センサ20を用いて通信端末1に対して生じる振動(操作板6の振動にも相当する)を検出する。   Subsequently, in S <b> 303, the CPU 11 detects vibration (corresponding to vibration of the operation plate 6) generated in the communication terminal 1 using the acceleration sensor 20 built in the communication terminal 1.

その後、S304においてCPU11は、前記S303で検出した振動の内、振幅と周波数がそれぞれ所定の閾値以上である振動を抽出し、抽出された振動以外の振動(即ち、振幅や周波数が所定の閾値未満である振動)については、ユーザ(操作者)が意図的に与えた振動ではなくノイズとみなして除外する。そして、前記S304で除外された振動については、後述のS305において振動履歴の記憶対象からも除かれる。また、前記S304では、振動の振幅と周波数を両方考慮する構成としているが、振動の振幅のみを考慮して、振幅が所定の閾値未満である振動のみを除外する構成としても良い。同様に、振動の周波数のみを考慮して、周波数が所定の閾値未満である振動のみを除外する構成としても良い。更に、振幅が所定の閾値未満で且つ周波数が所定の閾値未満である振動のみを除外する構成としても良い。   Thereafter, in S304, the CPU 11 extracts vibrations whose amplitude and frequency are each equal to or larger than a predetermined threshold from among the vibrations detected in S303, and vibrations other than the extracted vibration (that is, the amplitude and frequency are less than the predetermined threshold). (Vibrations) that are not considered as vibrations intentionally given by the user (operator) but as noise. The vibrations excluded in S304 are also excluded from the vibration history storage target in S305 described later. In S304, both the vibration amplitude and the frequency are considered. However, only the vibration whose amplitude is less than a predetermined threshold may be excluded in consideration of only the vibration amplitude. Similarly, only the vibration frequency may be considered, and only the vibration whose frequency is less than a predetermined threshold may be excluded. Furthermore, it may be configured to exclude only vibrations whose amplitude is less than a predetermined threshold and whose frequency is less than a predetermined threshold.

その後、S305においてCPU11は、前記S303で検出した振動に基づいて、前記S302においてメモリ12から読み出した振動履歴を更新する。但し、前記したように前記S304において除外された振動については振動履歴に含まないように更新する。   Thereafter, in S305, the CPU 11 updates the vibration history read from the memory 12 in S302 based on the vibration detected in S303. However, as described above, the vibrations excluded in S304 are updated so as not to be included in the vibration history.

次に、S306においてCPU11は、前記S301で読み出した対応情報(図38)と、前記S305で更新された振動履歴とに基づいて、振動履歴に記憶された振動パターンが対応情報に含まれるいずれかの振動パターンに該当するか否か判定する。   Next, in S306, based on the correspondence information read in S301 (FIG. 38) and the vibration history updated in S305, the CPU 11 includes any one of the correspondence information including the vibration pattern stored in the vibration history. It is determined whether or not the vibration pattern is met.

そして、振動履歴に記憶された振動パターンが対応情報に含まれるいずれかの振動パターンに該当すると判定された場合(S306:YES)には、S307へと移行する。それに対して、振動履歴に記憶された振動パターンが対応情報に含まれるいずれかの振動パターンにも該当しないと判定された場合又は振動を検出していない場合(S306:NO)には、S308へと移行する。   When it is determined that the vibration pattern stored in the vibration history corresponds to any vibration pattern included in the correspondence information (S306: YES), the process proceeds to S307. On the other hand, if it is determined that the vibration pattern stored in the vibration history does not correspond to any vibration pattern included in the correspondence information or if no vibration is detected (S306: NO), the process proceeds to S308. And migrate.

S307においてCPU11は、該当すると判定された振動パターンと対応するハードキー19の操作が行われたと判定し、該対応するハードキー19の種別を、ユーザのタッチ操作として出力する。その後、通信端末1は、出力された種別のハードキー19の操作を行ったとして、通信端末1へのユーザ操作を行う。具体的には、トップ画面25(図5)への移行、音量の調整、文字の入力、電源のオン、オフ等が行われる。   In S307, the CPU 11 determines that the operation of the hard key 19 corresponding to the vibration pattern determined to be applicable has been performed, and outputs the type of the corresponding hard key 19 as the user's touch operation. Thereafter, the communication terminal 1 performs a user operation on the communication terminal 1 on the assumption that the operation of the output type hard key 19 has been performed. Specifically, transition to the top screen 25 (FIG. 5), volume adjustment, character input, power on / off, and the like are performed.

一方、S308においてCPU11は、ハードキー19の操作が行われないと判定し、当該ハードキー操作処理プログラムを終了する。   On the other hand, in S308, the CPU 11 determines that the hard key 19 is not operated, and ends the hard key operation processing program.

以上詳細に説明した通り、第3実施形態に係る通信端末、通信端末の制御方法及び通信端末において実行されるコンピュータプログラムでは、操作板6に対してユーザが振動を付与する操作を、ハードキー19に対する操作に置き換えて、通信端末1の操作を行うので、ハードキー19にユーザが直接触れなくとも、操作板6を振動させることによってハードキー19の操作を実現することが可能となる。そして、筐体表面に配置されたハードキー19に対するユーザの操作性が低下することについて防止することが可能となる。また、操作板6を振動させるという容易な操作内容で、ハードキー19の操作が実現可能となる。
また、操作板6の振動状態を通信端末1の振動状態を介して検出するので、通信端末1が備えるセンサ等によって操作板6の振動状態を容易に検出することが可能となる。
また、操作板6の振動パターンとハードキー19の操作内容が対応付けられた対応情報があって、操作板6が振動状態にあることを検出した場合に、検出された操作板6の振動パターンに対応するハードキー19の操作内容で通信端末1を操作するので、操作板6を振動させるという単純な操作によって、様々な種類のハードキー19の操作が実現可能となる。
振幅や周波数が閾値未満である振動を除去した操作板6の振動状態を、ハードキー19の操作に置き換えるので、ノイズ等を除去してユーザの操作に基づく操作板6の振動状態を正確に検出することが可能となる。その結果、ユーザの意図に沿ったハードウェア上の操作を正確に行わせることが可能となる。
As described in detail above, in the communication terminal according to the third embodiment, the control method of the communication terminal, and the computer program executed in the communication terminal, the hard key 19 Therefore, the operation of the hard key 19 can be realized by vibrating the operation panel 6 without the user touching the hard key 19 directly. And it becomes possible to prevent that a user's operativity with respect to the hard key 19 arrange | positioned on the housing | casing surface falls. Further, the operation of the hard key 19 can be realized with an easy operation content of vibrating the operation plate 6.
Further, since the vibration state of the operation panel 6 is detected via the vibration state of the communication terminal 1, the vibration state of the operation panel 6 can be easily detected by a sensor or the like provided in the communication terminal 1.
Further, when there is correspondence information in which the vibration pattern of the operation panel 6 and the operation content of the hard key 19 are associated with each other, and it is detected that the operation panel 6 is in a vibration state, the detected vibration pattern of the operation panel 6 Since the communication terminal 1 is operated with the operation content of the hard key 19 corresponding to the above, various types of operation of the hard key 19 can be realized by a simple operation of vibrating the operation panel 6.
Since the vibration state of the operation panel 6 from which the vibration whose amplitude or frequency is less than the threshold is removed is replaced with the operation of the hard key 19, the vibration state of the operation panel 6 based on the user's operation is accurately detected by removing noise and the like. It becomes possible to do. As a result, it is possible to accurately perform hardware operations in accordance with the user's intention.

尚、本発明は前記実施形態に限定されるものではなく、本発明の要旨を逸脱しない範囲内で種々の改良、変形が可能であることは勿論である。
例えば、第1乃至第3実施形態では端末操作処理プログラム(図7参照)の各処理を通信端末1が実行する構成としているが、通信端末1と双方向通信可能に接続されたセンタが一部または全部の処理を実行する構成としても良い。
Note that the present invention is not limited to the above-described embodiment, and various improvements and modifications can be made without departing from the scope of the present invention.
For example, in the first to third embodiments, the communication terminal 1 is configured to execute each process of the terminal operation processing program (see FIG. 7), but some centers are connected to the communication terminal 1 so as to be capable of bidirectional communication. Or it is good also as a structure which performs all the processes.

また、第1乃至第3実施形態では、操作板6をユーザ(操作者)が手でタッチ操作することを想定してタッチ操作を検出する構成としているが、タッチペン等の道具を介してタッチする場合についても適用することが可能である。特に第3実施形態では、輪郭線の幅に基づいてタッチ操作を検出するので、指以外の様々な物(例えば、タッチした状態で色が変化しない物)によってタッチされる場合であってもタッチ操作を検出することが可能となる。   In the first to third embodiments, the operation panel 6 is configured to detect a touch operation on the assumption that the user (operator) performs a touch operation by hand. However, the operation plate 6 is touched via a tool such as a touch pen. It can also be applied to cases. In particular, in the third embodiment, since the touch operation is detected based on the width of the contour line, even when touched by various objects other than the finger (for example, an object whose color does not change when touched), the touch is performed. An operation can be detected.

また、第1乃至第3実施形態では、操作板6に拡大鏡としてフレネルレンズを形成する構成としているが、フレネルレンズ以外の拡大鏡(例えば凸レンズ等)を形成することとしても良い。また、操作板6の全領域ではなく一部にのみ拡大鏡を形成することとしても良い。   In the first to third embodiments, a Fresnel lens is formed on the operation plate 6 as a magnifying mirror. However, a magnifying mirror other than the Fresnel lens (for example, a convex lens) may be formed. Further, the magnifying glass may be formed only on a part of the operation plate 6 instead of the entire region.

また、第1実施形態では、指先端部の色に基づいてタッチ操作を検出する構成としているが、時刻に対する指先端部の色の変化に基づいてタッチ操作を検出する構成としても良い。例えば、指先端部の色が異なる色に変化した場合に、異なる色に変化した部分で操作板6をユーザがタッチするタッチ操作を行ったと検出しても良い。   In the first embodiment, the touch operation is detected based on the color of the finger tip, but the touch operation may be detected based on a change in the color of the finger tip with respect to time. For example, when the color of the finger tip changes to a different color, it may be detected that the user has performed a touch operation in which the user touches the operation plate 6 with the changed color.

また、第2実施形態では、指先端部の輪郭線の幅に基づいてタッチ操作を検出する構成としているが、時刻に対する指先端部の輪郭線の幅の変化に基づいてタッチ操作を検出する構成としても良い。例えば、指先端部の輪郭線の幅が閾値以下へと変化した場合に、閾値以下に変化した部分で操作板6をユーザがタッチするタッチ操作を行ったと検出しても良い。   In the second embodiment, the touch operation is detected based on the width of the outline of the finger tip. However, the touch operation is detected based on the change in the width of the outline of the finger tip with respect to time. It is also good. For example, when the width of the contour line of the finger tip changes to a threshold value or less, it may be detected that the user has performed a touch operation that touches the operation plate 6 at a portion that has changed to a threshold value or less.

また、第3実施形態では、対応情報(図38)においてハードキー19の操作内容に対応付ける操作板6の振動パターンとして、所定時間内に複数回の振動がある振動パターンを対応付けているが、他の振動パターンを対応付けても良い。例えば、所定値未満の小さい振幅の振動からなる振動パターンをサイドボタンの操作に対応付け、所定値以上の大きい振幅の振動を含む振動パターンをホームボタンの操作に対応付けても良い。   In the third embodiment, as the vibration pattern of the operation plate 6 associated with the operation content of the hard key 19 in the correspondence information (FIG. 38), a vibration pattern having a plurality of vibrations within a predetermined time is associated. Other vibration patterns may be associated. For example, a vibration pattern composed of small amplitude vibrations less than a predetermined value may be associated with side button operations, and a vibration pattern including large amplitude vibrations greater than or equal to a predetermined value may be associated with home button operations.

1 通信端末
2 端末操作システム
3 端末ケース
4 ディスプレイ
5 カメラ
6 操作板
11 CPU
12 メモリ
18 タッチパネル
19 ハードキー
22 通信端末ECU
26〜28 起動アイコン
41〜44 検出マーク
75、76 仮想操作領域
DESCRIPTION OF SYMBOLS 1 Communication terminal 2 Terminal operation system 3 Terminal case 4 Display 5 Camera 6 Operation board 11 CPU
12 Memory 18 Touch Panel 19 Hard Key 22 Communication Terminal ECU
26-28 Startup icon 41-44 Detection mark 75, 76 Virtual operation area

Claims (12)

表示画面と撮像装置とを備えた電子機器の前記表示画面前方に配置された操作板に対するタッチ操作に基づいて前記電子機器を操作するコンピュータプログラムにおいて、
前記電子機器の撮像装置によって撮像された前記表示画面前方の撮像画像に基づいて、操作板をタッチ操作するユーザの手の指先部分の輪郭の幅を検出する輪郭幅検出機能と、
前記輪郭幅検出機能によって検出された前記ユーザの手の指先部分の輪郭の幅に基づいて、前記操作板に対する前記ユーザのタッチ操作を検出するタッチ操作検出機能と、
前記タッチ操作検出機能によって検出された前記操作板に対する前記ユーザのタッチ操作に基づいて、前記電子機器へのユーザ操作を行う操作機能と、
を前記電子機器に実行させることを特徴とするコンピュータプログラム。
In a computer program for operating the electronic device based on a touch operation on an operation plate disposed in front of the display screen of an electronic device including a display screen and an imaging device,
A contour width detection function for detecting a width of a contour of a fingertip portion of a user's hand that touch-operates the operation plate based on a captured image in front of the display screen captured by the imaging device of the electronic device;
A touch operation detection function for detecting a touch operation of the user on the operation plate based on a width of a contour of a fingertip portion of the user's hand detected by the contour width detection function;
An operation function for performing a user operation on the electronic device based on the user's touch operation on the operation plate detected by the touch operation detection function;
A computer program that causes the electronic device to execute.
前記撮像装置の焦点距離は、前記撮像装置から前記操作板までの距離に設定され、
前記タッチ操作検出機能は、前記輪郭幅検出機能によって検出された前記ユーザの手の指先部分の輪郭の幅が閾値以下である場合に、該閾値以下の幅の輪郭からなる指先部分を、前記操作板に対して前記ユーザがタッチしたタッチ地点として特定することを特徴とする請求項1に記載のコンピュータプログラム。
The focal length of the imaging device is set to the distance from the imaging device to the operation plate,
When the width of the contour of the fingertip portion of the user's hand detected by the contour width detection function is less than or equal to a threshold value, the touch operation detection function may The computer program according to claim 1, wherein the computer program is specified as a touch point where the user touches a board.
前記閾値は、手の指先部分が前記操作板に接触した状態で前記撮像装置により撮像された撮像画像中に含まれる該指先部分が示す輪郭の幅とすることを特徴とする請求項2に記載のコンピュータプログラム。   The threshold value is a width of a contour indicated by the fingertip portion included in a captured image captured by the imaging device in a state in which the fingertip portion of the hand is in contact with the operation plate. Computer program. 前記タッチ操作検出機能は、
前記輪郭幅検出機能によって検出された前記ユーザの手の指先部分の輪郭の幅が前記閾値より太い状態から前記閾値以下へと変化したタイミングで、前記操作板に対して前記ユーザがタッチオンしたと検出し、
前記輪郭幅検出機能によって検出された前記ユーザの手の指先部分の輪郭の幅が前記閾値以下から前記閾値より太い状態へと変化したタイミングで、前記操作板に対して前記ユーザがタッチオフしたと検出することを特徴とする請求項2又は請求項3に記載のコンピュータプログラム。
The touch operation detection function is
It is detected that the user touches on the operation plate at a timing when the width of the contour of the fingertip portion of the user's hand detected by the contour width detection function changes from a state thicker than the threshold value to the threshold value or less. And
It is detected that the user has touched off the operation plate at a timing when the contour width of the fingertip portion of the user's hand detected by the contour width detection function has changed from the threshold value or less to a state thicker than the threshold value. The computer program according to claim 2 or 3, characterized by:
前記タッチ操作検出機能によって特定された前記タッチ地点の履歴に基づいて、前記操作板に対する前記ユーザのタッチ操作の操作種別を検出する操作種別検出機能を、前記電子機器に実行させ、
前記操作機能は、前記操作種別検出機能によって検出された前記ユーザのタッチ操作の操作種別に基づいて、前記電子機器へのユーザ操作を行うことを特徴とする請求項2乃至請求項4のいずれかに記載のコンピュータプログラム。
Based on the history of the touch point specified by the touch operation detection function, the electronic device is caused to execute an operation type detection function for detecting an operation type of the user's touch operation on the operation plate,
5. The operation according to claim 2, wherein the operation function performs a user operation on the electronic device based on an operation type of the user's touch operation detected by the operation type detection function. A computer program described in 1.
前記電子機器は前記表示画面の前面にタッチパネルが配置され、
前記操作機能は、前記操作板に対する前記ユーザのタッチ操作を、前記タッチパネルに対する操作に置き換えて、該置き換えた操作による前記電子機器へのユーザ操作を行うことを特徴とする請求項1乃至請求項5のいずれかに記載のコンピュータプログラム。
The electronic device has a touch panel disposed in front of the display screen,
The operation function replaces the touch operation of the user with respect to the operation panel with an operation with respect to the touch panel, and performs a user operation on the electronic device by the replaced operation. A computer program according to any one of the above.
前記タッチ操作検出機能は、前記操作板に対して前記ユーザがタッチしたタッチ地点を前記操作板上の座標系で特定し、
前記操作機能は、
前記操作板上の座標系で特定されたタッチ地点を前記表示画面上の座標系に変換し、
前記操作板に対する前記ユーザのタッチ操作を、前記表示画面上の座標系に変換されたタッチ地点を前記タッチパネルでタッチする操作に置き換えることを特徴とする請求項6に記載のコンピュータプログラム。
The touch operation detection function specifies a touch point touched by the user on the operation plate in a coordinate system on the operation plate,
The operation function is
The touch point specified in the coordinate system on the operation panel is converted into the coordinate system on the display screen,
The computer program according to claim 6, wherein the touch operation of the user on the operation panel is replaced with an operation of touching a touch point converted into a coordinate system on the display screen with the touch panel.
前記タッチパネルによって操作対象となる操作対象物を前記表示画面に表示させる表示機能を、前記電子機器に実行させ、
前記操作機能は、前記電子機器へのユーザ操作として、前記表示画面上の座標系に変換されたタッチ地点に対応する前記操作対象物の操作を行うことを特徴とする請求項7に記載のコンピュータプログラム。
Causing the electronic device to execute a display function for displaying an operation target object to be operated by the touch panel on the display screen;
The computer according to claim 7, wherein the operation function performs an operation on the operation target corresponding to a touch point converted into a coordinate system on the display screen as a user operation on the electronic device. program.
前記操作機能は、前記ユーザが前記操作板を介して視認できる前記表示画面と変換前のタッチ地点との位置関係が、前記電子機器の前記表示画面と変換後のタッチ地点との位置関係に対応するように、前記操作板上の座標系で特定されたタッチ地点を前記表示画面上の座標系に変換することを特徴とする請求項7又は請求項8に記載のコンピュータプログラム。   In the operation function, the positional relationship between the display screen that the user can visually recognize via the operation panel and the touch point before conversion corresponds to the positional relationship between the display screen of the electronic device and the touch point after conversion. The computer program according to claim 7 or 8, wherein a touch point specified by a coordinate system on the operation panel is converted to a coordinate system on the display screen. 前記操作板には、拡大鏡が形成され、
前記表示画面の表示内容は前記操作板を介して拡大して表示されることを特徴とする請求項1乃至請求項9のいずれかに記載のコンピュータプログラム。
The operation plate is formed with a magnifying glass,
The computer program according to any one of claims 1 to 9, wherein the display content of the display screen is enlarged and displayed via the operation panel.
表示画面と撮像装置とを備えた電子機器の前記表示画面前方に配置された操作板に対するタッチ操作に基づいて前記電子機器を操作する電子機器の制御方法であって、
前記電子機器の撮像装置によって撮像された前記表示画面前方の撮像画像に基づいて、操作板をタッチ操作するユーザの手の指先部分の輪郭の幅を検出する輪郭幅検出ステップと、
前記輪郭幅検出ステップによって検出された前記ユーザの手の指先部分の輪郭の幅に基づいて、前記操作板に対する前記ユーザのタッチ操作を検出するタッチ操作検出ステップと、
前記タッチ操作検出ステップによって検出された前記操作板に対する前記ユーザのタッチ操作に基づいて、前記電子機器へのユーザ操作を行う操作ステップと、を有することを特徴とする電子機器の制御方法。
A control method of an electronic device that operates the electronic device based on a touch operation on an operation plate arranged in front of the display screen of an electronic device including a display screen and an imaging device,
A contour width detection step for detecting a width of a contour of a fingertip portion of a user's hand that performs a touch operation on the operation panel based on a captured image in front of the display screen captured by the imaging device of the electronic device;
A touch operation detecting step of detecting a touch operation of the user on the operation plate based on a width of a contour of a fingertip portion of the user's hand detected by the contour width detecting step;
An electronic device control method comprising: an operation step of performing a user operation on the electronic device based on the user's touch operation on the operation plate detected by the touch operation detection step.
表示画面と撮像装置とを備え、前記表示画面前方に配置された操作板に対するタッチ操作に基づいて操作される電子機器であって、
前記電子機器の撮像装置によって撮像された前記表示画面前方の撮像画像に基づいて、操作板をタッチ操作するユーザの手の指先部分の輪郭の幅を検出する輪郭幅検出手段と、
前記輪郭幅検出手段によって検出された前記ユーザの手の指先部分の輪郭の幅に基づいて、前記操作板に対する前記ユーザのタッチ操作を検出するタッチ操作検出手段と、
前記タッチ操作検出手段によって検出された前記操作板に対する前記ユーザのタッチ操作に基づいて、前記電子機器へのユーザ操作を行う操作手段と、を有することを特徴とする電子機器。
An electronic device comprising a display screen and an imaging device and operated based on a touch operation on an operation plate disposed in front of the display screen,
A contour width detecting means for detecting a width of a contour of a fingertip portion of a user's hand that touch-operates the operation plate based on a captured image in front of the display screen captured by the imaging device of the electronic device;
Touch operation detecting means for detecting a touch operation of the user on the operation plate based on a width of a contour of a fingertip portion of the user's hand detected by the contour width detecting means;
An electronic device comprising: an operation unit that performs a user operation on the electronic device based on the user's touch operation on the operation plate detected by the touch operation detection unit.
JP2012215016A 2012-09-27 2012-09-27 Electronic apparatus, control method of electronic apparatus, and computer program Pending JP2014071505A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012215016A JP2014071505A (en) 2012-09-27 2012-09-27 Electronic apparatus, control method of electronic apparatus, and computer program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012215016A JP2014071505A (en) 2012-09-27 2012-09-27 Electronic apparatus, control method of electronic apparatus, and computer program

Publications (1)

Publication Number Publication Date
JP2014071505A true JP2014071505A (en) 2014-04-21

Family

ID=50746683

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012215016A Pending JP2014071505A (en) 2012-09-27 2012-09-27 Electronic apparatus, control method of electronic apparatus, and computer program

Country Status (1)

Country Link
JP (1) JP2014071505A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016017096A1 (en) * 2014-07-30 2016-02-04 ソニー株式会社 Information processing device, information processing method and program
CN106662923A (en) * 2014-07-30 2017-05-10 索尼公司 Information processing device, information processing method and program

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016017096A1 (en) * 2014-07-30 2016-02-04 ソニー株式会社 Information processing device, information processing method and program
CN106575184A (en) * 2014-07-30 2017-04-19 索尼公司 Information processing device, information processing method and program
JPWO2016017096A1 (en) * 2014-07-30 2017-04-27 ソニー株式会社 Information processing apparatus, information processing method, and program
CN106662923A (en) * 2014-07-30 2017-05-10 索尼公司 Information processing device, information processing method and program
US20170139545A1 (en) * 2014-07-30 2017-05-18 Sony Corporation Information processing apparatus, information processing method, and program
US10175825B2 (en) * 2014-07-30 2019-01-08 Sony Corporation Information processing apparatus, information processing method, and program for determining contact on the basis of a change in color of an image
CN106575184B (en) * 2014-07-30 2020-05-19 索尼公司 Information processing apparatus, information processing method, and computer readable medium

Similar Documents

Publication Publication Date Title
US8570290B2 (en) Image display device
CN108984067B (en) Display control method and terminal
US10852858B2 (en) Cover device, and electronic device and method for identifying cover device
CN110321126B (en) Method and device for generating page code
EP3260964B1 (en) Mobile terminal and method for controlling the same
JP2012173904A (en) Electronic apparatus, content display method, and content display program
EP3933545A1 (en) Method and apparatus for detecting orientation of electronic device, and storage medium
US20240184403A1 (en) Personal digital assistant
KR101646779B1 (en) Method and apparatus for setting font size of portable terminal having touch screen
JP2014071507A (en) Electronic apparatus, control method of electronic apparatus, and computer program
US20040036699A1 (en) Method of identifying symbols, and portable electronic device
JP2014071505A (en) Electronic apparatus, control method of electronic apparatus, and computer program
JP2014071504A (en) Electronic apparatus, control method of electronic apparatus, and computer program
JP2014071513A (en) Electronic apparatus, control method of electronic apparatus, and computer program
KR101641250B1 (en) Mobile terminal and control method thereof
JP2014071822A (en) Electronic apparatus, control method of electronic apparatus, and computer program
JP2014071510A (en) Electronic apparatus, control method of electronic apparatus, and computer program
JP5174626B2 (en) MAP DISPLAY DEVICE, MAP DISPLAY METHOD, AND COMPUTER PROGRAM
KR20210045891A (en) Electronic device and method for controlling and operating of screen capture
KR20130006154A (en) Method for screen orientation determination and mobile terminal using this method
US20140015859A1 (en) Mobile terminal and control method thereof
JP2014071508A (en) Electronic apparatus, control method of electronic apparatus, and computer program
JP2014071503A (en) Electronic apparatus, control method of electronic apparatus, and computer program
JP2014071506A (en) Electronic apparatus, control method of electronic apparatus, and computer program
JP2014071511A (en) Electronic apparatus, control method of electronic apparatus, and computer program