JP2012226480A - Communication terminal, server, tactile sensation feedback generation means, and communication system - Google Patents

Communication terminal, server, tactile sensation feedback generation means, and communication system Download PDF

Info

Publication number
JP2012226480A
JP2012226480A JP2011092076A JP2011092076A JP2012226480A JP 2012226480 A JP2012226480 A JP 2012226480A JP 2011092076 A JP2011092076 A JP 2011092076A JP 2011092076 A JP2011092076 A JP 2011092076A JP 2012226480 A JP2012226480 A JP 2012226480A
Authority
JP
Japan
Prior art keywords
information
image
communication terminal
tactile
image information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2011092076A
Other languages
Japanese (ja)
Other versions
JP5697525B2 (en
Inventor
Kugo Morita
空悟 守田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kyocera Corp
Original Assignee
Kyocera Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kyocera Corp filed Critical Kyocera Corp
Priority to JP2011092076A priority Critical patent/JP5697525B2/en
Publication of JP2012226480A publication Critical patent/JP2012226480A/en
Application granted granted Critical
Publication of JP5697525B2 publication Critical patent/JP5697525B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Information Transfer Between Computers (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a communication terminal capable of displaying an image having a button area and tactile sensation information tied up by an analysis server even for image information in which a button area and tactile sensation information are not made to correspond to each other.SOLUTION: A communication terminal includes a display part 104, a touch sensor 106, a tactile sensation feedback generation part 110, a communication part 112, a control part 102, and an image constitution part 114 which displays image information with tactile sensation information at the display part 104 based upon image information with tactile sensation information received from the server through the communication part 112 and having the tactile sensation information given to the image information. The control part 102 controls the tactile sensation feedback generation part 110 so that the communication terminal 1 generate tactile sensation feedback once detecting input to a touch surface of the touch sensor 106 corresponding to the area to which the tactile sensation information is given in image information with tactile sensation information while the display part 104 displays the image information with the tactile sensation information.

Description

本発明は、通信端末、サーバ、触覚フィードバック生成方法および通信システムに関するものである。   The present invention relates to a communication terminal, a server, a haptic feedback generation method, and a communication system.

近年、携帯電話やゲーム機等の通信端末において、ユーザによる入力のインターフェースとしてタッチセンサを採用するものが増えてきている。タッチセンサを利用したインターフェースは、ユーザが直感的に操作することができるという利点がある。   In recent years, an increasing number of communication terminals such as mobile phones and game machines adopt a touch sensor as an interface for input by a user. The interface using the touch sensor has an advantage that the user can operate intuitively.

タッチセンサを利用したインターフェースにおいては、ユーザは画面上に表示されるボタン等を触って通信端末を操作する。しかし、このようなタッチ操作は触覚フィードバックを生じないため、触った領域がボタン領域であるか否かの判断が困難である。   In an interface using a touch sensor, a user operates a communication terminal by touching a button or the like displayed on the screen. However, since such a touch operation does not cause tactile feedback, it is difficult to determine whether or not the touched area is a button area.

また、操作中の指にボタン領域が隠れてしまい、ボタン領域に書かれている文字列が見えなくなる場合がある。このような場合、複数のボタン領域が近接していると、ユーザの意図と異なるボタンを誤って押下してしまうことがある。これにより、例えば誤って押したボタンが契約に関するボタンであった場合などはユーザが大きな不利益を受ける危険性がある。   In addition, the button area may be hidden by the finger being operated, and the character string written in the button area may not be visible. In such a case, if a plurality of button areas are close to each other, a button different from the user's intention may be erroneously pressed. Thereby, for example, when the button pressed by mistake is a button related to a contract, there is a risk that the user will receive a large disadvantage.

ユーザに触覚フィードバックを与えるため、例えば、タッチセンサが入力を受け付けるとユーザの指にクリック感のような触感を与える装置が提案されている(例えば、特許文献1参照)   In order to give tactile feedback to a user, for example, a device that gives a tactile sensation such as a click feeling to a user's finger when a touch sensor receives an input has been proposed (for example, see Patent Document 1).

特許第4633183号公報Japanese Patent No. 4633183

上記特許文献1の装置によれば、タッチセンサを利用したインターフェースに表示されるボタンに対するタッチ操作を受け付けた際に、ユーザの指などに振動を与えることができる。これにより、ユーザはクリック感のような感覚を得ることができ、ボタン領域を認識することも可能となる。   According to the device disclosed in Patent Literature 1, when a touch operation on a button displayed on an interface using a touch sensor is received, vibration can be applied to a user's finger or the like. Accordingly, the user can obtain a feeling like a click feeling and can recognize the button area.

上記のような振動を提供するためには、通信端末上に表示されている画像情報内の操作ボタン等とユーザに提供される振動とが対応付けられている必要がある。しかしながら、例えば、画像情報としてWebページを表示する場合、全てのWebページの全ての操作ボタンに振動情報が対応付けられていることを期待することは現実的ではない。したがって、Webページ内における振動情報が対応付けられていない操作ボタンを触った場合、ユーザは触覚フィードバックを得ることができない。なお、ここでは画像情報の一例としてWebページを例に挙げたが、「画像情報」との用語はこれに限定されるものではなく、通信端末に表示され得るあらゆる画像の情報を意味するものとする。   In order to provide the vibration as described above, it is necessary to associate the operation button or the like in the image information displayed on the communication terminal with the vibration provided to the user. However, for example, when displaying a Web page as image information, it is not realistic to expect that vibration information is associated with all operation buttons of all Web pages. Therefore, when a user touches an operation button that is not associated with vibration information in the Web page, the user cannot obtain tactile feedback. In addition, although the Web page was mentioned as an example here as an example of the image information, the term “image information” is not limited to this, and means any information of an image that can be displayed on the communication terminal. To do.

したがって、かかる点に鑑みてなされた本発明の目的は、ボタン領域と触覚情報とが対応付けられていない画像情報に対しても、ボタン領域と触覚情報を結びつけた画像を表示することができる通信端末、サーバ、触覚フィードバック生成方法および通信システムを提供することにある。   Therefore, an object of the present invention made in view of such a point is communication that can display an image in which a button area and tactile information are linked to image information in which the button area and tactile information are not associated with each other. The object is to provide a terminal, a server, a haptic feedback generation method, and a communication system.

上記目的を達成する第1の観点に係る通信端末の発明は、
表示部と、
前記表示部上に配置されたタッチセンサと、
触覚フィードバックを生成する触覚フィードバック生成部と、
サーバと通信する通信部と、
前記表示部に表示する画像情報を前記サーバに送信するように前記通信部を制御する制御部と、
前記通信部を介して前記サーバから受け取った、前記画像情報に触覚情報が付与された触覚情報付き画像情報に基づいて、前記表示部に当該触覚情報付き画像情報を表示する画像構成部と
を備え、
前記制御部は、前記表示部が前記触覚情報付き画像情報を表示中に、前記触覚情報付き画像情報において触覚情報を付与された領域に対応する前記タッチセンサのタッチ面への入力を検知すると、当該通信端末に触覚フィードバックを生成するように前記触覚フィードバック生成部を制御する
ことを特徴とする。
The invention of the communication terminal according to the first aspect to achieve the above object is as follows:
A display unit;
A touch sensor disposed on the display unit;
A haptic feedback generator for generating haptic feedback;
A communication unit communicating with the server;
A control unit that controls the communication unit to transmit image information to be displayed on the display unit to the server;
An image configuration unit configured to display the image information with tactile information on the display unit based on the image information with tactile information added to the image information received from the server via the communication unit. ,
The control unit detects an input to the touch surface of the touch sensor corresponding to a region to which tactile information is given in the image information with tactile information while the display unit displays the image information with tactile information. The haptic feedback generation unit is controlled to generate haptic feedback for the communication terminal.

第2の観点に係る発明は、第1の観点に係る通信端末において、
前記制御部は、前記画像情報に併せて前記表示部の画像設定情報を前記サーバに送信するように前記通信部を制御し、
前記画像構成部は、前記画像情報および前記画像設定情報に基づいて前記画像情報に触覚情報が付与された触覚情報付き画像情報に基づいて、前記表示部に当該触覚情報付き画像情報を表示する
ことを特徴とする。
The invention according to the second aspect is the communication terminal according to the first aspect,
The control unit controls the communication unit to transmit image setting information of the display unit to the server together with the image information,
The image configuration unit displays the image information with tactile information on the display unit based on image information with tactile information obtained by adding tactile information to the image information based on the image information and the image setting information. It is characterized by.

上記目的を達成する第3の観点に係るサーバの発明は、
通信端末と通信するサーバであって、
前記通信端末と通信する通信部と、
前記通信端末から受け取った画像情報に基づいて、当該画像情報に触覚情報を対応付けて触覚情報付き画像情報を生成する画像解析部と、
前記触覚情報付き画像情報を前記通信端末に送信するように前記通信部を制御する制御部と
を備えることを特徴とする。
The invention of the server according to the third aspect to achieve the above object is as follows:
A server that communicates with a communication terminal,
A communication unit communicating with the communication terminal;
Based on image information received from the communication terminal, an image analysis unit that generates image information with tactile information by associating tactile information with the image information;
And a control unit that controls the communication unit so as to transmit the image information with tactile information to the communication terminal.

第4の観点に係る発明は、第3の観点に係るサーバにおいて、
前記画像解析部は、前記通信端末から受け取った前記画像情報および画像設定情報に基づいて、当該画像情報に触覚情報を対応付けて触覚情報付き画像情報を生成する
ことを特徴とする。
The invention according to a fourth aspect is the server according to the third aspect,
The image analysis unit generates image information with tactile information by associating the tactile information with the image information based on the image information and the image setting information received from the communication terminal.

第5の観点に係る発明は、第3または第4のいずれかの観点に係るサーバにおいて、さらに、オブジェクトの種類に対応する触覚情報を記憶する記憶部を備え、
前記画像解析部は、前記オブジェクトの種類に対応する触覚情報に基づいて、前記触覚情報付き画像情報を生成する
ことを特徴とする。
The invention according to a fifth aspect further includes a storage unit that stores tactile information corresponding to the type of the object in the server according to any one of the third and fourth aspects,
The image analysis unit generates the image information with tactile information based on tactile information corresponding to the type of the object.

第6の観点に係る発明は、第5の観点に係るサーバにおいて、前記オブジェクトの種類に対応する触覚情報が前記記憶部に記憶されていない場合は、前記制御部は、Webサーバから当該オブジェクトの種類に対応する触覚情報を入手するように前記通信部を制御することを特徴とする。   The invention according to a sixth aspect is that, in the server according to the fifth aspect, when tactile information corresponding to the type of the object is not stored in the storage unit, the control unit receives the object from the Web server. The communication unit is controlled to obtain tactile information corresponding to the type.

第7の観点に係る発明は、第3〜第6のいずれかの観点に係るサーバにおいて、
前記画像解析部は、前記画像情報のうち前記通信端末の表示領域のみについて前記触覚付き画像情報を生成した段階で、当該触覚情報付き画像情報を前記通信端末に送信するように前記通信部を制御し、
その後、前記画像情報の残りの領域についての触覚付き画像触覚情報を生成する
ことを特徴とする。
The invention according to a seventh aspect is the server according to any one of the third to sixth aspects,
The image analysis unit controls the communication unit to transmit the image information with tactile information to the communication terminal when the image information with tactile information is generated only for the display area of the communication terminal in the image information. And
Thereafter, image-tactile information with a tactile sensation for the remaining area of the image information is generated.

上述したように本発明の解決手段を装置として説明してきたが、本発明はこれらに実質的に相当する方法、プログラム、プログラムを記録した記憶媒体としても実現し得るものであり、本発明の範囲にはこれらも包含されるものと理解されたい。   As described above, the solution of the present invention has been described as an apparatus. However, the present invention can be realized as a method, a program, and a storage medium storing the program, which are substantially equivalent to these. It should be understood that these are also included.

例えば、本発明を方法として実現させた第8の観点に係る触覚フィードバック生成方法の発明は、
第1または第2の観点に係る通信端末と第3〜第7のいずれかの観点に係るサーバとを含む通信システムにおける触覚フィードバック生成方法であって、
前記通信端末が、画像情報を前記サーバに送信するステップと、
前記サーバが、前記画像情報に基づいて、当該画像情報に触覚情報を対応付けて触覚情報付き画像情報を生成するステップと、
前記サーバが、前記触覚情報付き画像情報を前記通信端末に送信するステップと、
前記通信端末が、前記触覚情報付き画像情報において触覚情報を付与された領域に対応する当該通信端末への入力を検知すると、当該通信端末に触覚フィードバックを生成するステップと
を含むことを特徴とする。
For example, the invention of the haptic feedback generation method according to the eighth aspect of realizing the present invention as a method is as follows:
A tactile feedback generation method in a communication system including the communication terminal according to the first or second aspect and the server according to any one of the third to seventh aspects,
The communication terminal transmitting image information to the server;
The server generates image information with tactile information by associating tactile information with the image information based on the image information;
The server transmitting the image information with tactile information to the communication terminal;
Generating a haptic feedback to the communication terminal when the communication terminal detects an input to the communication terminal corresponding to a region to which the haptic information is given in the image information with the haptic information. .

また、本発明を通信システムとして実現させた第9の観点に係る通信システムの発明は、
第1または第2の観点に係る通信端末と、第3〜第7のいずれかの観点に係るサーバとを備える通信システムであって、
前記通信端末は、画像情報を前記サーバに送信し、
前記サーバは、前記画像情報に基づいて、当該画像情報に触覚情報を対応付けて触覚情報付き画像情報を生成し、
前記サーバは、前記触覚情報付き画像情報を前記通信端末に送信し、
前記通信端末は、前記触覚情報付き画像情報において触覚情報を付与された領域に対応する当該通信端末への入力を検知すると、当該通信端末に触覚フィードバックを生成する
ことを特徴とする。
Further, the invention of the communication system according to the ninth aspect, in which the present invention is realized as a communication system,
A communication system comprising a communication terminal according to the first or second aspect and a server according to any of the third to seventh aspects,
The communication terminal transmits image information to the server,
The server generates image information with tactile information by associating tactile information with the image information based on the image information,
The server transmits the image information with tactile information to the communication terminal,
When the communication terminal detects an input to the communication terminal corresponding to a region to which tactile information is given in the image information with tactile information, the communication terminal generates tactile feedback to the communication terminal.

本発明によれば、ボタン領域と触覚情報とが対応付けられていない画像情報に対しても、ボタン領域と触覚情報を結びつけた画像を表示することができる。   According to the present invention, it is possible to display an image in which a button region and tactile information are linked to image information in which the button region and tactile information are not associated with each other.

本発明の一実施形態に係る通信システムの概略構成図である。1 is a schematic configuration diagram of a communication system according to an embodiment of the present invention. 図1に示した通信端末の概略構成を示す機能ブロック図である。It is a functional block diagram which shows schematic structure of the communication terminal shown in FIG. 図2に示した通信端末の実装構造の一部を示す概略構成図である。It is a schematic block diagram which shows a part of mounting structure of the communication terminal shown in FIG. 図1に示した解析サーバの概略構成を示す機能ブロック図である。It is a functional block diagram which shows schematic structure of the analysis server shown in FIG. 図1に示した通信システムの動作を示すシーケンス図である。It is a sequence diagram which shows operation | movement of the communication system shown in FIG. 図1に示した通信端末が表示するWebページの一例を示す図である。It is a figure which shows an example of the web page which the communication terminal shown in FIG. 1 displays. 図1に示した通信端末が表示するWebページの他の例の一部領域を示す図である。It is a figure which shows the partial area | region of the other example of the web page which the communication terminal shown in FIG. 1 displays. 図1に示した通信端末が表示領域をスライド操作する様子を示す図である。It is a figure which shows a mode that the communication terminal shown in FIG. 1 slide-operates a display area. 図1に示した通信端末の画像情報を段階的に解析する様子を示す図である。It is a figure which shows a mode that the image information of the communication terminal shown in FIG. 1 is analyzed in steps. 図1に示した解析サーバの動作を示すフローチャートである。It is a flowchart which shows operation | movement of the analysis server shown in FIG.

以下、本発明の実施形態について、図面を参照して説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

図1は、本発明の一実施形態に係る通信システムの概略構成を示す図である。通信端末1は、無線通信により基地局5と通信し、基地局5を介してネットワーク4に接続する。ネットワーク4には、Webページなどの情報を提供するサーバであるWebサーバ3が接続する。また、解析サーバ2もネットワーク4に接続する。解析サーバ2は、通信端末1が表示しようとするWebサーバ3が提供するWebページなどについて、ボタン領域と触覚情報を対応付ける。なお、本実施形態では、通信端末1と基地局5とが無線通信する場合を示したが、これは無線通信に限るものではなく有線通信であってもよい。   FIG. 1 is a diagram showing a schematic configuration of a communication system according to an embodiment of the present invention. The communication terminal 1 communicates with the base station 5 by wireless communication and connects to the network 4 via the base station 5. Connected to the network 4 is a Web server 3 that is a server that provides information such as Web pages. The analysis server 2 is also connected to the network 4. The analysis server 2 associates the button area and the tactile information with respect to the web page provided by the web server 3 to be displayed by the communication terminal 1. In the present embodiment, the case where the communication terminal 1 and the base station 5 perform wireless communication is shown, but this is not limited to wireless communication, and wired communication may be used.

図2は、通信端末1の概略構成を示す機能ブロック図である。通信端末1は、制御部102、表示部104、タッチセンサ106、荷重検出部108、触覚フィードバック生成部110、通信部112、画面構成部114および記憶部116を備える。   FIG. 2 is a functional block diagram illustrating a schematic configuration of the communication terminal 1. The communication terminal 1 includes a control unit 102, a display unit 104, a touch sensor 106, a load detection unit 108, a tactile feedback generation unit 110, a communication unit 112, a screen configuration unit 114, and a storage unit 116.

制御部102は、通信端末1の各機能部をはじめとして通信端末1の全体を制御および管理するものであり、CPU等の好適なプロセッサによって構成される。制御部102は、画像情報および画像設定情報を解析サーバ2に送信するように通信部112を制御する。画像設定情報には、Webページを表示するブラウザの種類、Webページなどの画像情報のうち表示部104に表示される領域(以下、「表示領域」という)の座標などの情報が含まれる。   The control unit 102 controls and manages the entire communication terminal 1 including each functional unit of the communication terminal 1, and is configured by a suitable processor such as a CPU. The control unit 102 controls the communication unit 112 to transmit the image information and the image setting information to the analysis server 2. The image setting information includes information such as the type of browser that displays a Web page and the coordinates of an area (hereinafter referred to as “display area”) displayed on the display unit 104 among image information such as a Web page.

表示部104は、例えば液晶ディスプレイ(LCD)または有機ELディスプレイなどで構成される。表示部104の前面には、ユーザの指などによるタッチ面106A(図3参照)への入力を検出するタッチセンサ106が配設される。   The display unit 104 is configured by, for example, a liquid crystal display (LCD) or an organic EL display. On the front surface of the display unit 104, a touch sensor 106 that detects an input to the touch surface 106A (see FIG. 3) by a user's finger or the like is disposed.

タッチセンサ106は、そのタッチ面106Aに対する指やスタイラスペンなどによる入力を検出するもので、抵抗膜方式、静電容量方式、光学式等のタッチ位置の二次元位置情報を出力する公知の透明なタッチセンサからなり、表示部104の前面に配設される。このタッチセンサ106からの位置情報は、制御部102に供給される。ユーザの指やスタイラスなどのタッチ面106Aに接触する対象のことを、以下「入力対象」と称する。また、これ以後、入力対象としてユーザの指を例に説明するが、これは一例であり、入力対象をユーザの指に限定するものではない。なお、タッチセンサ106が入力を検出する上で、ユーザの指等がタッチセンサ106を物理的に接触することは必須ではない。例えば、タッチセンサ106が光学式である場合には、タッチセンサ106は、赤外線が指等により遮られた位置を検出するため、物理的な接触がない場合でも入力を検出することができる。   The touch sensor 106 detects an input by a finger or a stylus pen on the touch surface 106A, and outputs a known transparent two-dimensional position information such as a resistive film type, a capacitance type, and an optical type. It consists of a touch sensor and is arranged on the front surface of the display unit 104. The position information from the touch sensor 106 is supplied to the control unit 102. An object that contacts the touch surface 106A such as a user's finger or stylus is hereinafter referred to as an “input object”. Further, hereinafter, the user's finger is described as an example of the input target, but this is an example, and the input target is not limited to the user's finger. Note that it is not essential for the user's finger or the like to physically touch the touch sensor 106 when the touch sensor 106 detects an input. For example, when the touch sensor 106 is optical, the touch sensor 106 detects a position where infrared rays are blocked by a finger or the like, and therefore can detect an input even when there is no physical contact.

荷重検出部108は、タッチセンサ106のタッチ面106Aに対する押圧荷重を検出するもので、例えば圧電素子、歪みゲージセンサなどを用いて構成する。荷重検出部108は、検出した押圧荷重のデータを制御部102に対して出力する。なお、例えば、触覚フィードバック生成部110および荷重検出部108を共に圧電素子を用いて構成する場合は、触覚フィードバック生成部110および荷重検出部108を共通の圧電素子により一体化して構成することができる。圧電素子は、圧力が加えられると電力を発生し、電力が加えられると変形するという性質を有するためである。なお、本発明における「入力の検出」は、入力対象によるタッチセンサ106への接触を検知する場合であってもよく、入力対象によるタッチセンサ106への押圧荷重が所定荷重閾値を超えた場合に検知する場合であってもよい。   The load detection unit 108 detects a pressing load on the touch surface 106A of the touch sensor 106, and is configured using, for example, a piezoelectric element, a strain gauge sensor, or the like. The load detection unit 108 outputs detected pressure load data to the control unit 102. For example, when both the haptic feedback generation unit 110 and the load detection unit 108 are configured using piezoelectric elements, the haptic feedback generation unit 110 and the load detection unit 108 can be configured integrally with a common piezoelectric element. . This is because the piezoelectric element has a property of generating electric power when pressure is applied and deforming when electric power is applied. The “detection of input” in the present invention may be a case where the touch of the input object to the touch sensor 106 is detected, and when the pressing load on the touch sensor 106 by the input object exceeds a predetermined load threshold. It may be a case of detection.

触覚フィードバック生成部110は、タッチセンサ106のタッチ面106Aに触覚フィードバックを伝えるもので、例えば、圧電素子または超音波振動子などを用いて構成する。この触覚フィードバック生成部110が振動することにより、タッチセンサ106に接触または押圧しているユーザの指などに対して触覚フィードバックを与えることができる。なお、本発明における触覚フィードバック生成部110は、タッチセンサ106のタッチ面106Aを直接的または間接的に振動させるものであればよく、例えば、触覚フィードバック生成部を振動モータ(偏心モータ)とし、タッチセンサ106のタッチ面106Aを直接的に振動させたり、タッチセンサ106を保持する保持部材や通信端末の筐体を振動させてタッチ面106Aを間接的に振動させたりするように構成してもよい。   The haptic feedback generation unit 110 transmits haptic feedback to the touch surface 106A of the touch sensor 106, and is configured using, for example, a piezoelectric element or an ultrasonic transducer. When the tactile feedback generation unit 110 vibrates, tactile feedback can be given to the finger of the user who is touching or pressing the touch sensor 106. Note that the haptic feedback generation unit 110 according to the present invention only needs to vibrate the touch surface 106A of the touch sensor 106 directly or indirectly. For example, the haptic feedback generation unit is a vibration motor (eccentric motor), and touch. The touch surface 106A of the sensor 106 may be directly vibrated, or the touch surface 106A may be indirectly vibrated by vibrating the holding member that holds the touch sensor 106 or the housing of the communication terminal. .

また、触覚フィードバック生成部110は、制御部102が圧電素子に印加する駆動電圧を変化させると、ユーザの指に異なる触覚フィードバックを与える。制御部102は、駆動電圧の周波数、振幅、波形などを変化させることができる。周波数および振幅は、大小を変化させることができ、波形は、サイン波、矩形波または三角波などとすることができる。   In addition, the tactile feedback generation unit 110 gives different tactile feedback to the user's finger when the control unit 102 changes the drive voltage applied to the piezoelectric element. The control unit 102 can change the frequency, amplitude, waveform, and the like of the drive voltage. The frequency and amplitude can be changed in magnitude, and the waveform can be a sine wave, a rectangular wave, a triangular wave, or the like.

通信部112は、基地局5を介してネットワーク4と接続し、解析サーバ2とデータの送受信を実行する。   The communication unit 112 is connected to the network 4 via the base station 5 and executes data transmission / reception with the analysis server 2.

画像構成部114は、通信部112を介して解析サーバ2から受け取った触覚情報付きの画像情報(以下、「触覚情報付き画像情報」という)に基づいて表示部104が表示する画像を構成する。   The image configuration unit 114 configures an image displayed by the display unit 104 based on image information with tactile information received from the analysis server 2 via the communication unit 112 (hereinafter referred to as “image information with tactile information”).

記憶部116は、解析サーバ2から受け取った触覚情報を触覚フィードバック生成部110が呈示する振動情報などと対応付けたものを記憶する。ここで、振動情報とは、振動の仕方(周波数、位相、振動間隔、振動回数など)や振動の強さ(振幅など)等により規定されるものである。また、記憶部116は、ワークメモリなどとしても機能する。   The storage unit 116 stores information obtained by associating the haptic information received from the analysis server 2 with the vibration information presented by the haptic feedback generation unit 110. Here, the vibration information is defined by a vibration method (frequency, phase, vibration interval, number of vibrations, etc.), vibration intensity (amplitude, etc.), and the like. The storage unit 116 also functions as a work memory.

図3は、図2に示したタッチセンサ106、触覚フィードバック生成部110および表示部104の実装構造の概略構成例を示すもので、図3(a)は要部断面図、図3(b)は要部平面図である。表示部104は、筐体61内に収納保持される。表示部104上には、弾性部材からなるインシュレータ62を介して、タッチセンサ106が保持される。なお、タッチセンサ106は、図3(b)に仮想線で示す表示部104の表示領域Aから外れた4隅に配設されたインシュレータ62を介して表示部104上に保持されている。   FIG. 3 shows a schematic configuration example of the mounting structure of the touch sensor 106, the tactile feedback generation unit 110, and the display unit 104 shown in FIG. 2. FIG. 3 (a) is a cross-sectional view of the main part, and FIG. These are the principal part top views. The display unit 104 is housed and held in the housing 61. A touch sensor 106 is held on the display unit 104 via an insulator 62 made of an elastic member. Note that the touch sensor 106 is held on the display unit 104 via insulators 62 arranged at four corners outside the display area A of the display unit 104 indicated by virtual lines in FIG.

また、筐体61には、表示部104の表示領域Aから外れたタッチセンサ106の表面領域を覆うようにアッパカバー63が設けられ、このアッパカバー63とタッチセンサ106との間に、弾性部材からなる防塵用のインシュレータ64が配設されている。   The casing 61 is provided with an upper cover 63 so as to cover the surface area of the touch sensor 106 that is out of the display area A of the display unit 104. An elastic member is provided between the upper cover 63 and the touch sensor 106. A dustproof insulator 64 is provided.

なお、タッチセンサ106は、タッチ面106Aを有する表面部材が、例えば透明フィルムやガラスで構成され、裏面部材がガラスやアクリルで構成されて、インシュレータ64を介してタッチ面106Aが押圧されると、押圧部分が押圧力に応じて微少量撓む(歪む)とともに、裏面部材を含むタッチセンサ106の全体が微少量撓む構造となっている。   In the touch sensor 106, when the surface member having the touch surface 106A is made of, for example, a transparent film or glass, the back surface member is made of glass or acrylic, and the touch surface 106A is pressed via the insulator 64, The pressing portion is bent (distorted) by a small amount in accordance with the pressing force, and the entire touch sensor 106 including the back member is bent by a small amount.

触覚フィードバック生成部110は、2つの圧電素子71を有する。圧電素子71は、タッチセンサ106を湾曲変位させるように、タッチセンサ106の裏面上で、アッパカバー63で覆われる対向する2辺の近傍にそれぞれ装着する。なお、圧電素子71は、好適には、タッチセンサ106の押下による撓み方向と、圧電素子71の湾曲方向とが一致するようにタッチセンサ106に装着する。図3では、タッチセンサ106が平面視で長方形状を有しているので、2つの圧電素子71は、対向する2つの長辺の近傍で長辺に沿って装着されている。なお、図3(b)においては、図3(a)に示した筐体61、アッパカバー63およびインシュレータ64の図示を省略している。   The tactile feedback generation unit 110 includes two piezoelectric elements 71. The piezoelectric element 71 is mounted on the back surface of the touch sensor 106 in the vicinity of the two opposing sides covered by the upper cover 63 so as to bend and displace the touch sensor 106. The piezoelectric element 71 is preferably attached to the touch sensor 106 so that the bending direction of the touch sensor 106 when pressed and the bending direction of the piezoelectric element 71 coincide. In FIG. 3, since the touch sensor 106 has a rectangular shape in plan view, the two piezoelectric elements 71 are mounted along the long sides in the vicinity of the two long sides facing each other. In FIG. 3B, the casing 61, the upper cover 63, and the insulator 64 shown in FIG. 3A are not shown.

図4は、解析サーバ2の概略構成を示す機能ブロック図である。解析サーバ2は、制御部202、ページ管理部204、画像解析部206、端末画面構成部208、通信部210、端末情報管理部212および記憶部214を備える。   FIG. 4 is a functional block diagram illustrating a schematic configuration of the analysis server 2. The analysis server 2 includes a control unit 202, a page management unit 204, an image analysis unit 206, a terminal screen configuration unit 208, a communication unit 210, a terminal information management unit 212, and a storage unit 214.

制御部202は、解析サーバ2の各機能部をはじめとして解析サーバ2の全体を制御および管理するものであり、CPU等の好適なプロセッサによって構成される。   The control unit 202 controls and manages the entire analysis server 2 including each function unit of the analysis server 2, and is configured by a suitable processor such as a CPU.

ページ管理部204は、画像解析部206がすでに解析済みのWebページの情報を記憶し管理する。   The page management unit 204 stores and manages information on Web pages that have already been analyzed by the image analysis unit 206.

画像解析部206は、例えばWebページなど、通信端末1が表示部104に表示する画像情報を解析し、ボタン領域と触覚情報との対応付けなどを行う。詳細は、後述するいくつかの実施形態において説明する。   The image analysis unit 206 analyzes image information displayed on the display unit 104 by the communication terminal 1 such as a Web page, for example, and associates button areas with tactile information. Details will be described in some embodiments described later.

端末画面構成部208は、通信端末1から画像情報および画像設定情報をもとに、通信端末1が表示部104に表示する画像の擬似画像を構成する。画像解析部206は、端末画面構成部208が構成する擬似画像を基に画像を解析する。   The terminal screen configuration unit 208 configures a pseudo image of an image displayed on the display unit 104 by the communication terminal 1 based on the image information and the image setting information from the communication terminal 1. The image analysis unit 206 analyzes the image based on the pseudo image configured by the terminal screen configuration unit 208.

通信部210は、ネットワーク4と接続し、通信端末1およびWebサーバ3とデータの送受信を実行する。   The communication unit 210 is connected to the network 4 and executes data transmission / reception with the communication terminal 1 and the Web server 3.

端末情報管理部212は、通信端末1の情報を管理する。端末情報管理部212は、複数台存在する通信端末1の各々に付与されたID(識別子)と画像設定情報を関連付けて記憶する。   The terminal information management unit 212 manages information on the communication terminal 1. The terminal information management unit 212 stores an ID (identifier) assigned to each of a plurality of communication terminals 1 and image setting information in association with each other.

記憶部214は、文字列や画像(以下、「オブジェクト」という)の種類などに対応付けられた触覚情報を記憶する。触覚情報は、文字列の内容に応じたものとしユーザに直感的な触覚フィードバックを与えるものとすることができる。例えば、文字列が「同意してダウンロードする」のように重要な文字列の場合は、警告的なイメージを感じさせるような触覚情報を対応付けることができる。また、記憶部214は、ワークメモリなどとしても機能する。   The storage unit 214 stores tactile information associated with character strings, image types (hereinafter referred to as “objects”), and the like. The tactile information can be in accordance with the contents of the character string and give intuitive tactile feedback to the user. For example, when the character string is an important character string such as “agree and download”, tactile information that makes a warning image feel can be associated. The storage unit 214 also functions as a work memory.

また、記憶部214に、通信端末1から受け取った画像情報内のオブジェクトに対応する触覚情報が記憶されていない場合は、制御部202が当該オブジェクトに対応する触覚情報をWebサーバに要求する。   If the tactile information corresponding to the object in the image information received from the communication terminal 1 is not stored in the storage unit 214, the control unit 202 requests the tactile information corresponding to the object from the Web server.

以下、図1に示した通信システムの動作を図5に示すシーケンス図を参照しながら説明する。   The operation of the communication system shown in FIG. 1 will be described below with reference to the sequence diagram shown in FIG.

通信端末1は、解析サーバ2に画像設定情報を送信する。解析サーバ2は、受け取った画像設定情報を通信端末1のID(以下、「端末ID」という)に対応付けて、端末情報管理部212に記憶する(ステップS101)。   The communication terminal 1 transmits image setting information to the analysis server 2. The analysis server 2 stores the received image setting information in the terminal information management unit 212 in association with the ID of the communication terminal 1 (hereinafter referred to as “terminal ID”) (step S101).

通信端末1は、Webページの表示要求を解析サーバ2に送信する(ステップS102)。解析サーバ2は、当該Webページを端末IDに対応付けてページ管理部204に記憶し、当該WebページのデータをWebサーバ3に要求する(ステップS103)。解析サーバ2は、Webサーバから当該Webページのデータを受け取る(ステップS104)。なお、通信端末1の画像情報および画像設定情報が画像解析部206によって解析可能な情報である場合には、ステップS103およびステップS105を省略することができる。   The communication terminal 1 transmits a Web page display request to the analysis server 2 (step S102). The analysis server 2 stores the web page in association with the terminal ID in the page management unit 204, and requests the web server 3 for data on the web page (step S103). The analysis server 2 receives the data of the web page from the web server (step S104). If the image information and the image setting information of the communication terminal 1 are information that can be analyzed by the image analysis unit 206, Step S103 and Step S105 can be omitted.

解析サーバ2がWebサーバ3からWebページのデータを受け取ると、端末画面構成部208は、ステップS101において通信端末1から取得した画像設定情報に基づいてWebページを構成する。画像解析部206は、構成されたWebページに基づいて、Webページ上のボタン領域について、位置、形状、種類などを解析し、通信端末1が表示する画像情報に触覚情報を付与する(ステップS105)。解析サーバ2は、触覚情報付き画像情報を通信端末1に送信する(ステップS106)。   When the analysis server 2 receives the Web page data from the Web server 3, the terminal screen configuration unit 208 configures the Web page based on the image setting information acquired from the communication terminal 1 in step S101. The image analysis unit 206 analyzes the position, shape, type, and the like of the button area on the Web page based on the configured Web page, and adds tactile information to the image information displayed by the communication terminal 1 (Step S105). ). The analysis server 2 transmits the image information with tactile information to the communication terminal 1 (step S106).

通信端末1が解析サーバ2から触覚情報付き画像情報を受け取ると、画像構成部114は、当該触覚情報付き画像情報に基づいて表示画面を構成する。表示部104は、画像構成部114によって構成された表示画面を表示する。タッチセンサ106がボタン領域への入力を検知すると、触覚フィードバック生成部110は、当該ボタン領域に対応付けられている触覚情報に基づいて入力対象に触覚フィードバックを呈示する(ステップS107)。   When the communication terminal 1 receives image information with tactile information from the analysis server 2, the image forming unit 114 configures a display screen based on the image information with tactile information. The display unit 104 displays the display screen configured by the image configuration unit 114. When the touch sensor 106 detects an input to the button area, the haptic feedback generation unit 110 presents the haptic feedback to the input target based on the haptic information associated with the button area (step S107).

通信端末1は、表示領域の拡大縮小や表示に使用している文字フォントの変更などのような画像設定情報の更新が生じた場合、更新された当該画像設定情報を解析サーバ2に送信する(ステップS108)。解析サーバ2は、更新された画像設定情報を受け取ると、表示画像内におけるボタンの領域などを再度解析して触覚情報付き画像情報を更新する(ステップS109)。解析サーバ2は、更新した触覚情報付き画像情報を通信端末1に送信する(ステップS110)。   The communication terminal 1 transmits the updated image setting information to the analysis server 2 when the image setting information is updated such as enlargement / reduction of the display area or change of the character font used for display ( Step S108). Upon receiving the updated image setting information, the analysis server 2 analyzes the button area in the display image again and updates the image information with tactile information (step S109). The analysis server 2 transmits the updated image information with tactile information to the communication terminal 1 (step S110).

次に、図6に示すWebページを参照して、解析サーバ2の画像解析部206による動作について説明する。   Next, the operation of the image analysis unit 206 of the analysis server 2 will be described with reference to the Web page shown in FIG.

ソース1として示した部分は、Webページ内の「ニュース」というボタンに対応するソースを示すものである。ソース2として示した部分は、Webページ内の「ソフトウェアダウンロード」というボタンに対応するソースを示すものである。   The portion shown as source 1 shows the source corresponding to the button “news” in the web page. The portion indicated as source 2 indicates the source corresponding to the button “software download” in the Web page.

画像解析部206は、ソース1の記述内容を解析することにより、このボタン領域に「ニュース」という文字列が表示されることを判定する。画像解析部206は、記憶部214から「ニュース」という文字列に対応する触覚情報を読み出して「ニュース」と表示されるボタン領域に関連付ける。   The image analysis unit 206 analyzes the description content of the source 1 and determines that the character string “news” is displayed in this button area. The image analysis unit 206 reads the tactile information corresponding to the character string “news” from the storage unit 214 and associates it with the button area displayed as “news”.

画像解析部206は、ソース2の記述内容を解析することにより、このボタン領域には画像(support_01.jpg)が表示されること、および、「ソフトウェアダウンロード」という文字列が表示されることを判定する。画像解析部206は、記憶部214から「画像(support_01.jpg)」に対応する触覚情報、または、「ソフトウェアダウンロード」という文字列に対応する触覚情報を読み出して、いずれかの触覚情報をボタン領域に関連付ける。   The image analysis unit 206 analyzes the description content of the source 2 to determine that an image (support_01.jpg) is displayed in this button area and a character string “software download” is displayed. To do. The image analysis unit 206 reads the haptic information corresponding to the “image (support_01.jpg)” or the haptic information corresponding to the character string “software download” from the storage unit 214, and stores any haptic information in the button area. Associate with.

このように複数のオブジェクトが同一のボタンに表示される場合は、画像解析部206は、優先順位をつけていずれかのオブジェクトの触覚情報をボタン領域に対応付ける。例えば、いずれか1つの触覚情報しか存在しない場合は、画像解析部206は、触覚情報が存在するオブジェクトの触覚情報をボタン領域に対応付ける。複数の触覚情報が存在する場合は、画像解析部206は、例えば、文字列を画像よりも優先する、または、マッチングの認識率が高いオブジェクトを優先するなどとすることができる。ここでマッチングとは、ボタン領域内のオブジェクトと記憶部214内のオブジェクトとを対比し認識率を算出することをいう。   When a plurality of objects are displayed on the same button as described above, the image analysis unit 206 assigns priorities to associate the tactile information of any object with the button area. For example, when only one of the tactile information exists, the image analysis unit 206 associates the tactile information of the object having the tactile information with the button area. When there are a plurality of tactile information, the image analysis unit 206 can give priority to a character string over an image, or give priority to an object with a high recognition rate of matching, for example. Here, “matching” refers to calculating the recognition rate by comparing the object in the button area with the object in the storage unit 214.

画像解析部206は、文字列や画像などのオブジェクトに対応する触覚情報が記憶部214に記憶されているか否かを判定する場合、所定の閾値を超える認識率を有するか否かで判定することができる。   When determining whether or not tactile information corresponding to an object such as a character string or an image is stored in the storage unit 214, the image analysis unit 206 determines whether or not the recognition rate exceeds a predetermined threshold. Can do.

図7にWebページの他の例の一部領域を示す。ソース3として示した部分は、Webページ内の「同意してダウンロード」というボタンに対応するソースを示すものである。ユーザは、「同意してダウンロード」と表示されるボタンを押下する際は、「ニュース」と表示されるボタンを押下する場合よりも慎重な判断をする必要がある。したがって、「同意してダウンロード」というような重要度が高い文字列には、ユーザに強い注意を促す触覚情報(例えば、強い振動のような刺激を感じる触覚情報)を対応付けて記憶部214に記憶されていることが望ましい。このようにすれば、ユーザが表示部104において「同意してダウンロード」というボタンが表示されている領域を触った際に、触覚フィードバック発生部110は強い振動のような注意を促す触覚フィードバックをユーザに呈示し、ユーザにボタンを押下することに対する注意を促すことができる。   FIG. 7 shows a partial region of another example of the Web page. The portion indicated as source 3 indicates the source corresponding to the button “Agree and Download” in the Web page. The user needs to make a more cautious decision when pressing the button that displays “Agree and Download” than when the button that displays “News”. Therefore, a high-priority character string such as “agree and download” is associated with tactile information that prompts the user to pay attention (for example, tactile information that feels a stimulus such as strong vibration) in the storage unit 214. It is desirable to be memorized. In this way, when the user touches the area where the button “Agree and Download” is displayed on the display unit 104, the haptic feedback generation unit 110 provides haptic feedback that calls attention such as strong vibration. The user can be alerted to pressing the button.

図8は、ユーザが通信端末1の表示部104においてスライド操作をした場合の様子を示す図である。図8(A)において、ユーザは押下しない程度に表示部104に指を置き、図8(B)に示すように左上方向に画面をスライドさせている。図8(C)は、Webページ全体を示し、このうち符号aで示す領域が図8(A)で示したスライド操作前の表示領域であり、符号bで示す領域が図8(B)で示したスライド操作後の表示領域である。   FIG. 8 is a diagram illustrating a state where the user performs a slide operation on the display unit 104 of the communication terminal 1. In FIG. 8A, the user places his / her finger on the display unit 104 to such an extent that the user does not press it, and slides the screen in the upper left direction as shown in FIG. 8B. FIG. 8C shows the entire Web page, of which the area indicated by symbol a is the display area before the slide operation shown in FIG. 8A, and the area indicated by symbol b is FIG. 8B. It is the display area after the slide operation shown.

図8(A)から図8(B)の表示へのユーザによるスライド操作があった場合、制御部102は、スライドに伴って更新された画像設定情報を解析サーバ2に送信する。解析サーバ2が更新された画像設定情報を受け取ると、画像解析部206は、受け取った画像設定情報内の座標情報に基づいて、ボタン領域に触覚情報を対応付ける。制御部202は、更新された触覚情報付き画像情報を通信部210を介して通信端末1に送信する。   When the user performs a slide operation from the display in FIG. 8A to the display in FIG. 8B, the control unit 102 transmits image setting information updated with the slide to the analysis server 2. When the analysis server 2 receives the updated image setting information, the image analysis unit 206 associates tactile information with the button area based on the coordinate information in the received image setting information. The control unit 202 transmits the updated image information with tactile information to the communication terminal 1 via the communication unit 210.

図9は、画像解析部206がWebページの画像を解析する際に、解析する領域を徐々に広げていく様子を示す。   FIG. 9 shows how the area to be analyzed is gradually expanded when the image analysis unit 206 analyzes the image of the Web page.

図9において符号αで示す領域は、通信端末1から受け取った画像設定情報における表示領域である。画像解析部206は、最初に領域αについてのみ、ボタン領域と触覚情報とを対応付けた触覚情報付き画像情報を生成し、制御部202は、当該触覚情報付き画像情報を通信端末1に送信する。   In FIG. 9, the area indicated by the symbol α is a display area in the image setting information received from the communication terminal 1. The image analysis unit 206 first generates image information with haptic information in which the button region and the haptic information are associated with each other only for the region α, and the control unit 202 transmits the image information with haptic information to the communication terminal 1. .

その後、画像解析部206は、解析する領域を領域β、領域γのように徐々に広げていく。このようにすることで、通信端末1がWebページを最初に表示する際のレスポンスを早くすることができる。また、その後に、通信端末1の表示領域がスライド操作により移動したり、拡大により広がったりしても、画像解析部206は、前もってWebページ全体の解析をすすめているため大幅な遅れなく対応することができる。   After that, the image analysis unit 206 gradually expands the area to be analyzed to areas β and γ. By doing so, it is possible to speed up the response when the communication terminal 1 first displays the Web page. After that, even if the display area of the communication terminal 1 is moved by a slide operation or expanded due to enlargement, the image analysis unit 206 responds without significant delay because the analysis of the entire Web page is recommended in advance. be able to.

図10は、解析サーバ2の動作を示すフローチャートである。   FIG. 10 is a flowchart showing the operation of the analysis server 2.

通信端末1は、Webページへのアクセスを要求する(ステップS201)。ページ管理部204は、アクセス要求があったWebページのURLをページ管理部204に記憶しているか否かを判定する(ステップS202)。ページ管理部204は、ステップS202においてYesと判定した場合、当該URLのソースがページ管理部204に記憶しているソースと同一か否かを判定する(ステップS203)。   The communication terminal 1 requests access to the web page (step S201). The page management unit 204 determines whether or not the URL of the Web page requested for access is stored in the page management unit 204 (step S202). If the page management unit 204 determines Yes in step S202, the page management unit 204 determines whether the source of the URL is the same as the source stored in the page management unit 204 (step S203).

ページ管理部204は、ステップS203においてYesと判定した場合、ページ管理部204に記憶しているソースをもとにマッチング処理を実行する(ステップS204)。ページ管理部204は、マッチングの結果が所定の閾値を超えているか否かを判定する(ステップS205)。ページ管理部204がステップS205においてYesと判定した場合、制御部202は、触覚情報付き画像情報を通信部210を介して通信端末1に送信する(ステップS208)。   If the page management unit 204 determines Yes in step S203, the page management unit 204 executes matching processing based on the source stored in the page management unit 204 (step S204). The page management unit 204 determines whether the matching result exceeds a predetermined threshold (step S205). When the page management unit 204 determines Yes in step S205, the control unit 202 transmits image information with tactile information to the communication terminal 1 via the communication unit 210 (step S208).

ステップS202においてNoと判定された場合、ステップS203においてNoと判定された場合、および、ステップS205においてNoと判定された場合は、画像解析部206は、重要度の高い文字種別からマッチング処理を実行し(ステップS206)、ページ管理部204に記憶する(ステップS207)。制御部202は、ステップS207に続いてステップS208を実行する。   When it is determined No in step S202, when it is determined No in step S203, and when it is determined No in step S205, the image analysis unit 206 executes matching processing from a character type having high importance. (Step S206) and stored in the page management unit 204 (Step S207). The control unit 202 executes step S208 following step S207.

このように、本実施形態によれば、通信端末1は、ボタン領域と触覚情報とが対応付けられていないWebページを表示する際も、解析サーバ2から当該Webページについての触覚情報付き画像情報を取得して、表示部104にボタン領域と触覚情報を結びつけた画像を表示することができる。   As described above, according to the present embodiment, when the communication terminal 1 displays a Web page in which the button region and the tactile information are not associated with each other, the image information with tactile information about the Web page from the analysis server 2 is displayed. And an image in which the button area and the tactile information are combined can be displayed on the display unit 104.

本発明を諸図面や実施例に基づき説明してきたが、当業者であれば本開示に基づき種々の変形や修正を行うことが容易であることに注意されたい。従って、これらの変形や修正は本発明の範囲に含まれることに留意されたい。例えば、各部材、各手段、各ステップなどに含まれる機能などは論理的に矛盾しないように再配置可能であり、複数の手段やステップなどを1つに組み合わせたり、或いは分割したりすることが可能である。   Although the present invention has been described based on the drawings and examples, it should be noted that those skilled in the art can easily make various modifications and corrections based on the present disclosure. Therefore, it should be noted that these variations and modifications are included in the scope of the present invention. For example, functions included in each member, each means, each step, etc. can be rearranged so as not to be logically contradictory, and a plurality of means, steps, etc. can be combined or divided into one. Is possible.

また、上記実施の形態の説明における表示部104およびタッチセンサ106は、表示部104とタッチセンサ106との両機能を共通の基板に持たせる等により、一体化した装置によって構成されるようにしてもよい。このように表示部104とタッチセンサ106との両機能を一体化した装置の構成の一例としては、液晶パネルが有するマトリクス状配列の画素電極群に、フォトダイオード等の複数の光電変換素子を規則的に混在させたものを挙げることができる。この装置は、液晶パネル構造によって画像を表示する一方で、パネル表面の所望位置をタッチ入力するペンの先端で液晶表示用のバックライトの光を反射し、この反射光を周辺の光電変換素子が受光することによって、タッチ位置を検出することができる。   In addition, the display unit 104 and the touch sensor 106 in the description of the above embodiment are configured by an integrated device, for example, by providing both functions of the display unit 104 and the touch sensor 106 on a common substrate. Also good. As an example of the configuration of the device in which both the functions of the display unit 104 and the touch sensor 106 are integrated in this manner, a plurality of photoelectric conversion elements such as photodiodes are regularly arranged in a matrix electrode array of pixel electrodes included in the liquid crystal panel. Can be mentioned. This device displays an image with a liquid crystal panel structure, while reflecting the light of a backlight for liquid crystal display at the tip of a pen that touches and inputs a desired position on the surface of the panel. The reflected light is reflected by peripheral photoelectric conversion elements. The touch position can be detected by receiving the light.

また、本発明における「触覚フィードバック」とは、振動を与えることに限定されるものではなく、ユーザの感覚に訴えるものであれば音や光などのようなものでもよい。   Further, the “tactile feedback” in the present invention is not limited to applying vibration, and may be sound or light as long as it appeals to the user's senses.

1 通信端末
2 解析サーバ
102 制御部
104 表示部
106 タッチセンサ
108 荷重検出部
110 触覚フィードバック生成部
112 通信部
114 画像構成部
116 記憶部
202 制御部
204 ページ管理部
206 画像解析部
208 端末画面構成部
210 通信部
212 端末情報管理部
214 記憶部
DESCRIPTION OF SYMBOLS 1 Communication terminal 2 Analysis server 102 Control part 104 Display part 106 Touch sensor 108 Load detection part 110 Haptic feedback production | generation part 112 Communication part 114 Image structure part 116 Storage part 202 Control part 204 Page management part 206 Image analysis part 208 Terminal screen structure part 210 Communication unit 212 Terminal information management unit 214 Storage unit

Claims (9)

表示部と、
前記表示部上に配置されたタッチセンサと、
触覚フィードバックを生成する触覚フィードバック生成部と、
サーバと通信する通信部と、
前記表示部に表示する画像情報を前記サーバに送信するように前記通信部を制御する制御部と、
前記通信部を介して前記サーバから受け取った、前記画像情報に触覚情報が付与された触覚情報付き画像情報に基づいて、前記表示部に当該触覚情報付き画像情報を表示する画像構成部と
を備え、
前記制御部は、前記表示部が前記触覚情報付き画像情報を表示中に、前記触覚情報付き画像情報において触覚情報を付与された領域に対応する前記タッチセンサのタッチ面への入力を検知すると、当該通信端末に触覚フィードバックを生成するように前記触覚フィードバック生成部を制御する
ことを特徴とする通信端末。
A display unit;
A touch sensor disposed on the display unit;
A haptic feedback generator for generating haptic feedback;
A communication unit communicating with the server;
A control unit that controls the communication unit to transmit image information to be displayed on the display unit to the server;
An image configuration unit configured to display the image information with tactile information on the display unit based on the image information with tactile information added to the image information received from the server via the communication unit. ,
The control unit detects an input to the touch surface of the touch sensor corresponding to a region to which tactile information is given in the image information with tactile information while the display unit displays the image information with tactile information. A communication terminal that controls the haptic feedback generation unit to generate haptic feedback for the communication terminal.
請求項1に記載の通信端末において、
前記制御部は、前記画像情報に併せて前記表示部の画像設定情報を前記サーバに送信するように前記通信部を制御し、
前記画像構成部は、前記画像情報および前記画像設定情報に基づいて前記画像情報に触覚情報が付与された触覚情報付き画像情報に基づいて、前記表示部に当該触覚情報付き画像情報を表示する
ことを特徴とする通信端末。
The communication terminal according to claim 1,
The control unit controls the communication unit to transmit image setting information of the display unit to the server together with the image information,
The image configuration unit displays the image information with tactile information on the display unit based on image information with tactile information obtained by adding tactile information to the image information based on the image information and the image setting information. A communication terminal characterized by.
通信端末と通信するサーバであって、
前記通信端末と通信する通信部と、
前記通信端末から受け取った画像情報に基づいて、当該画像情報に触覚情報を対応付けて触覚情報付き画像情報を生成する画像解析部と、
前記触覚情報付き画像情報を前記通信端末に送信するように前記通信部を制御する制御部と
を備えることを特徴とするサーバ。
A server that communicates with a communication terminal,
A communication unit communicating with the communication terminal;
Based on the image information received from the communication terminal, an image analysis unit that generates image information with tactile information by associating the tactile information with the image information;
And a control unit that controls the communication unit to transmit the image information with tactile information to the communication terminal.
請求項3に記載のサーバにおいて、
前記画像解析部は、前記通信端末から受け取った前記画像情報および画像設定情報に基づいて、当該画像情報に触覚情報を対応付けて触覚情報付き画像情報を生成する
ことを特徴とするサーバ。
The server according to claim 3,
The server, wherein the image analysis unit generates image information with tactile information by associating tactile information with the image information based on the image information and image setting information received from the communication terminal.
請求項3または4のいずれか1項に記載のサーバにおいて、さらに、オブジェクトの種類に対応する触覚情報を記憶する記憶部を備え、
前記画像解析部は、前記オブジェクトの種類に対応する触覚情報に基づいて、前記触覚情報付き画像情報を生成する
ことを特徴とするサーバ。
The server according to any one of claims 3 and 4, further comprising a storage unit that stores tactile information corresponding to the type of the object,
The server, wherein the image analysis unit generates the image information with tactile information based on tactile information corresponding to the type of the object.
請求項5に記載のサーバにおいて、前記オブジェクトの種類に対応する触覚情報が前記記憶部に記憶されていない場合は、前記制御部は、Webサーバから当該オブジェクトの種類に対応する触覚情報を入手するように前記通信部を制御することを特徴とするサーバ。   6. The server according to claim 5, wherein when the tactile information corresponding to the object type is not stored in the storage unit, the control unit obtains the tactile information corresponding to the object type from the Web server. As described above, the server controls the communication unit. 請求項3〜6のいずれか1項に記載のサーバにおいて、
前記画像解析部は、前記画像情報のうち前記通信端末の表示領域のみについて前記触覚付き画像情報を生成した段階で、当該触覚情報付き画像情報を前記通信端末に送信するように前記通信部を制御し、
その後、前記画像情報の残りの領域についての触覚付き画像触覚情報を生成する
ことを特徴とするサーバ。
The server according to any one of claims 3 to 6,
The image analysis unit controls the communication unit to transmit the image information with tactile information to the communication terminal when the image information with tactile information is generated only for the display area of the communication terminal in the image information. And
Then, the server generates haptic image tactile information for the remaining area of the image information.
請求項1または2のいずれかに記載の通信端末と請求項3〜7のいずれか1項に記載のサーバとを含む通信システムにおける触覚フィードバック生成方法であって、
前記通信端末が、画像情報を前記サーバに送信するステップと、
前記サーバが、前記画像情報に基づいて、当該画像情報に触覚情報を対応付けて触覚情報付き画像情報を生成するステップと、
前記サーバが、前記触覚情報付き画像情報を前記通信端末に送信するステップと、
前記通信端末が、前記触覚情報付き画像情報において触覚情報を付与された領域に対応する当該通信端末への入力を検知すると、当該通信端末に触覚フィードバックを生成するステップと
を含むことを特徴とする触覚フィードバック生成方法。
A tactile feedback generation method in a communication system including the communication terminal according to claim 1 and the server according to any one of claims 3 to 7,
The communication terminal transmitting image information to the server;
The server generates image information with tactile information by associating tactile information with the image information based on the image information;
The server transmitting the image information with tactile information to the communication terminal;
Generating a haptic feedback to the communication terminal when the communication terminal detects an input to the communication terminal corresponding to a region to which the haptic information is given in the image information with the haptic information. Tactile feedback generation method.
請求項1または2のいずれかに記載の通信端末と、請求項3〜7のいずれか1項に記載のサーバとを備える通信システムであって、
前記通信端末は、画像情報を前記サーバに送信し、
前記サーバは、前記画像情報に基づいて、当該画像情報に触覚情報を対応付けて触覚情報付き画像情報を生成し、
前記サーバは、前記触覚情報付き画像情報を前記通信端末に送信し、
前記通信端末は、前記触覚情報付き画像情報において触覚情報を付与された領域に対応する当該通信端末への入力を検知すると、当該通信端末に触覚フィードバックを生成する
ことを特徴とする通信システム。
A communication system comprising the communication terminal according to claim 1 and the server according to any one of claims 3 to 7,
The communication terminal transmits image information to the server,
The server generates image information with tactile information by associating tactile information with the image information based on the image information,
The server transmits the image information with tactile information to the communication terminal,
When the communication terminal detects an input to the communication terminal corresponding to a region to which tactile information is given in the image information with tactile information, the communication terminal generates tactile feedback to the communication terminal.
JP2011092076A 2011-04-18 2011-04-18 Communication terminal, server, tactile feedback generation method, and communication system Active JP5697525B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011092076A JP5697525B2 (en) 2011-04-18 2011-04-18 Communication terminal, server, tactile feedback generation method, and communication system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011092076A JP5697525B2 (en) 2011-04-18 2011-04-18 Communication terminal, server, tactile feedback generation method, and communication system

Publications (2)

Publication Number Publication Date
JP2012226480A true JP2012226480A (en) 2012-11-15
JP5697525B2 JP5697525B2 (en) 2015-04-08

Family

ID=47276595

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011092076A Active JP5697525B2 (en) 2011-04-18 2011-04-18 Communication terminal, server, tactile feedback generation method, and communication system

Country Status (1)

Country Link
JP (1) JP5697525B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2015121956A1 (en) * 2014-02-14 2017-03-30 富士通株式会社 Electronic device and drive control method
JP2017527032A (en) * 2014-08-20 2017-09-14 タッチグラム プロプライエタリー リミテッド Touch message transmission system and method
CN109758768A (en) * 2019-01-11 2019-05-17 广州要玩娱乐网络技术股份有限公司 Method of construction, device, storage medium and the terminal of virtual resource acquisition building
JP2021105778A (en) * 2019-12-26 2021-07-26 Kddi株式会社 Tactile presentation system, local terminal and server device of tactile presentation system, tactile presentation method, and tactile presentation program

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005010118A (en) * 2003-06-23 2005-01-13 Sony Corp Electronic map display and electronic map display method
JP2006163579A (en) * 2004-12-03 2006-06-22 Sony Corp Information processing system, information processor and information processing method
JP2010503461A (en) * 2006-09-13 2010-02-04 イマージョン コーポレイション System and method for haptics for casino games
JP2010238126A (en) * 2009-03-31 2010-10-21 Nec Personal Products Co Ltd Server client system, server, terminal, control method, and program

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005010118A (en) * 2003-06-23 2005-01-13 Sony Corp Electronic map display and electronic map display method
JP2006163579A (en) * 2004-12-03 2006-06-22 Sony Corp Information processing system, information processor and information processing method
JP2010503461A (en) * 2006-09-13 2010-02-04 イマージョン コーポレイション System and method for haptics for casino games
JP2010238126A (en) * 2009-03-31 2010-10-21 Nec Personal Products Co Ltd Server client system, server, terminal, control method, and program

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2015121956A1 (en) * 2014-02-14 2017-03-30 富士通株式会社 Electronic device and drive control method
US10031585B2 (en) 2014-02-14 2018-07-24 Fujitsu Limited Electronic device, drive controlling method, and drive controlling apparatus
JP2017527032A (en) * 2014-08-20 2017-09-14 タッチグラム プロプライエタリー リミテッド Touch message transmission system and method
CN109758768A (en) * 2019-01-11 2019-05-17 广州要玩娱乐网络技术股份有限公司 Method of construction, device, storage medium and the terminal of virtual resource acquisition building
CN109758768B (en) * 2019-01-11 2022-07-26 广州要玩娱乐网络技术股份有限公司 Construction method and device of virtual resource collection building, storage medium and terminal
JP2021105778A (en) * 2019-12-26 2021-07-26 Kddi株式会社 Tactile presentation system, local terminal and server device of tactile presentation system, tactile presentation method, and tactile presentation program
JP7345387B2 (en) 2019-12-26 2023-09-15 Kddi株式会社 Tactile sensation presentation system, local terminal and server device of the tactile sensation presentation system, tactile sensation presentation method, and tactile sensation presentation program

Also Published As

Publication number Publication date
JP5697525B2 (en) 2015-04-08

Similar Documents

Publication Publication Date Title
JP5705243B2 (en) Electronic device and control method of electronic device
CN104641322B (en) For providing the user terminal apparatus of LOCAL FEEDBACK and its method
EP3382516B1 (en) Tactile sense presentation device and tactile sense presentation method
US9372536B2 (en) Touch screen with tactile feedback
JP5718475B2 (en) Tactile presentation device
WO2012086208A1 (en) Electronic device
JP5555612B2 (en) Tactile presentation device
JP2010286986A5 (en)
JP6058734B2 (en) Electronic device and control method of electronic device
JPWO2013046670A1 (en) Tactile presentation device
JP5697525B2 (en) Communication terminal, server, tactile feedback generation method, and communication system
JP5543618B2 (en) Tactile presentation device
JP2008225541A (en) Input apparatus and information equipment
JP5587759B2 (en) Tactile sensation presentation apparatus, program used for the apparatus, and tactile sensation presentation method
US9880622B2 (en) Tactile sensation providing apparatus and control method for tactile sensation providing apparatus when using an application that does not support operation of tactile sensation
JP2014182429A (en) Information processor, information processing method and information processing program
JP5588023B2 (en) Electronics
JP6530160B2 (en) Electronics
JP2013205986A (en) Electronic device
JP5637920B2 (en) Communication terminal
JP5801689B2 (en) Electronics
JP5706676B2 (en) Tactile presentation device
JP5388989B2 (en) Input device and control method of input device
JP2013214197A (en) Input device, display device, and apparatus
JP2015121996A (en) Electronic apparatus

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140210

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20141014

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20141028

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150105

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150127

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150210

R150 Certificate of patent or registration of utility model

Ref document number: 5697525

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150