JP4966322B2 - 端末機及びその制御方法 - Google Patents

端末機及びその制御方法 Download PDF

Info

Publication number
JP4966322B2
JP4966322B2 JP2009006990A JP2009006990A JP4966322B2 JP 4966322 B2 JP4966322 B2 JP 4966322B2 JP 2009006990 A JP2009006990 A JP 2009006990A JP 2009006990 A JP2009006990 A JP 2009006990A JP 4966322 B2 JP4966322 B2 JP 4966322B2
Authority
JP
Japan
Prior art keywords
vibration
icon
output
pointer
touched
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2009006990A
Other languages
English (en)
Other versions
JP2009217816A (ja
Inventor
亨洙 金
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
LG Electronics Inc
Original Assignee
LG Electronics Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from KR1020080021895A external-priority patent/KR100956826B1/ko
Priority claimed from KR20080021896A external-priority patent/KR101486343B1/ko
Application filed by LG Electronics Inc filed Critical LG Electronics Inc
Publication of JP2009217816A publication Critical patent/JP2009217816A/ja
Application granted granted Critical
Publication of JP4966322B2 publication Critical patent/JP4966322B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/016Input arrangements with force or tactile feedback as computer generated output to the user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04812Interaction techniques based on cursor appearance or behaviour, e.g. being affected by the presence of displayed objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0486Drag-and-drop
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/01Indexing scheme relating to G06F3/01
    • G06F2203/014Force feedback applied to GUI

Description

本発明は、使用者の便宜をより考慮した各種機能を実行する端末機及びその制御方法に関する。
個人用コンピュータ、ノートブック、携帯電話などの端末機は、多様な機能を行えるように構成することができる。かかる多様な機能の例には、データ及び音声通信機能、カメラを介して写真や動映像を撮影する機能、音声保存機能、スピーカーシステムによる音楽ファイルの再生機能、イメージやビデオのディスプレイ機能などが含まれる。一部の端末機はゲームを実行できる追加的機能を含み、他の一部の端末機はマルチメディア機器として具現される場合もある。なお、最近の端末機は、放送やマルチキャスト(multicast)信号を受信し、ビデオやテレビ番組を視聴できるようになっている。
また、かかる端末機の機能を支援及び増加のための努力が続いている。この努力には、端末機を形成する構造的な構成要素の変更及び改良だけでなく、ソフトウェアやハードウェアの改良も含まれる。
最近ではタッチスクリーンが備えられた端末機が多く市販されているが、この端末機のタッチスクリーン上での筆記、描画、またはアイコン移動などのためにタッチスクリーン上にポインタがタッチされて移動されるときに、このポインタのタッチ移動が正確に行われていることを使用者がより容易に認識できると共に、実際に物にタッチしてドラッグするときの感覚により近い感覚でポインタがタッチ移動していることを認識できることが要求されている。
本発明は上記の点に鑑みてなされたもので、その目的は、端末機のタッチスクリーン上での筆記、描画、またはアイコン移動などのためにタッチスクリーン上にポインタがタッチされて移動されるときに、該ポインタのタッチ移動が正確に行われていることを使用者がより容易に認識できると共に、実際の感覚により近い感覚でポインタがタッチ移動していることを認識できるようにする端末機及びその制御方法を提供することにある。
上記の目的を達成する本発明に係る端末機は、タッチスクリーンと、振動を出力する出力部と、前記タッチスクリーン上の筆記入力領域にポインタがタッチされたときから移動している間に振動を出力させるように制御する制御部と、を含んで構成されることを特徴とする。
ここで、前記制御部は、前記筆記入力領域で前記ポインタが移動している間に出力させる振動を前記ポインタの接触面積によって異ならせ、かつ、前記ポインタの移動が一時的に中断されたときには振動を出力しないように制御する。また、前記制御部は、さらに前記ポインタの移動速度によって前記振動を異ならせて出力させるように制御するとよい。
前記出力部が、音響を出力するようにさらに構成され、前記制御部が、前記ポインタがタッチされたときから移動している間に振動と共に音響を出力させるようにさらに制御するとよい。
また、上記の目的を達成する本発明に係る端末機の制御方法は、タッチスクリーン上の筆記入力領域にタッチされたポインタの移動を検出する段階と、前記移動を検出している間に振動を出力する段階と、を含んで構成され、前記出力する段階は、前記筆記入力領域での前記ポインタの移動を検出している間に出力する振動を前記ポインタの接触面積によって異ならせ、かつ、前記ポインタの移動が一時的に中断されたときには振動を出力しないことを特徴とする。
本発明による端末機及びその制御方法によれば、下記の効果が得られる。
第1に、本発明によれば、端末機のタッチスクリーン上での筆記または描画などのためにタッチスクリーン上にポインタがタッチされて移動されるときに振動が発生するため、ポインタのタッチ移動が正確に行われているということを、使用者がより容易に認識することができる。
第2に、本発明によれば、端末機のタッチスクリーン上にポインタがタッチされて移動される各状況に応じてそれぞれ異なるパターンの振動を発生させるため、ポインタがタッチ移動しているということを使用者がより実感することが可能になる。
第3に、本発明によれば、端末機のタッチスクリーン上のオブジェクトがタッチされてドラッグされるときに振動が発生するため、オブジェクトのドラッグが正確に行なわれているということを、使用者がより容易に認識することが可能になる。
第4に、本発明によれば、端末機のタッチスクリーン上のオブジェクトがタッチされてドラッグされる各状況に応じてそれぞれ異なるパターンの振動を発生させたり、オブジェクトの移動速度を調節することができるため、使用者が感じる実際の感覚により近い感覚でポインタがタッチ移動していることを認識することが可能になる。
本発明の一実施形態に係る携帯端末機を示すブロック構成図である。 本発明の一実施形態に係る携帯端末機を前面から見た斜視図である。 図2の携帯端末機の背面斜視図である。 本発明の一実施形態に係る携帯端末機が動作可能な無線通信システムを示すブロック図である。 本発明の第1実施例に係る携帯端末機の制御方法を示すフローチャートである。 本発明の第1実施例に係る携帯端末機の制御方法が具現されるディスプレイ画面の状態図である。 本発明の第1実施例に係る携帯端末機の制御方法によって出力される振動の様々なパターンを示す図である。 本発明の第1実施例に係る携帯端末機の制御方法によって出力される振動の様々なパターンを示す図である。 本発明の第1実施例に係る携帯端末機の制御方法によって出力される振動の様々なパターンを示す図である。 本発明の第2実施例に係る携帯端末機の制御方法を示すフローチャートである。 本発明の第2実施例に係る携帯端末機の制御方法によって出力される振動の様々なパターンを示す図である。 本発明の第2実施例に係る携帯端末機の制御方法によって出力される振動の様々なパターンを示す図である。 本発明の第2実施例に係る携帯端末機の制御方法によって出力される振動の様々なパターンを示す図である。 本発明の第3実施例に係る携帯端末機の制御方法を示すフローチャートである。 本発明の第3実施例に係る携帯端末機の制御方法が具現されるディスプレイ画面の状態図である。 本発明の第4実施例に係る携帯端末機の制御方法を示すフローチャートである。 本発明の第4実施例に係る携帯端末機の制御方法が具現されるディスプレイ画面の状態図である。 本発明の第5実施例に係る携帯端末機の制御方法を示すフローチャートである。 本発明の第5実施例に係る携帯端末機の制御方法が具現されるディスプレイ画面の状態図である。 本発明の第5実施例に係る携帯端末機の制御方法によって出力される振動の様々なパターンを示す図である。 本発明の第5実施例に係る携帯端末機の制御方法によって出力される振動の様々なパターンを示す図である。 本発明の第5実施例に係る携帯端末機の制御方法によって出力される振動の様々なパターンを示す図である。 本発明の第6実施例に係る携帯端末機の制御方法を示すフローチャートである。 本発明の第6実施例に係る携帯端末機の制御方法によって出力される振動の様々なパターンを示す図である。 本発明の第6実施例に係る携帯端末機の制御方法によって出力される振動の様々なパターンを示す図である。
以下、本発明の一実施形態に係る携帯端末機について図面を参照しつつより詳細に説明する。以下の説明で使われる構成要素の名称につく「モジュール」、「ユニット」及び「部」は、単に本明細書作成上の容易さのみを考慮したもので、それ自体で特別に重要な意味または役割を持つわけではない。したがって、「モジュール」、「ユニット」及び「部」は互いに混用されても良いことは明らかである。
端末機は様々な形態のものとすることができる。例えば、本明細書で記述される端末機としては、携帯電話、スマートフォン(smart phone)、ノートブックコンピュータ(notebook computer)、デジタル放送用端末機、PDA(Personal Digital Assistants)、PMP(Portable Multimedia Player)、ナビゲーションなどの携帯端末機と、デスクトップコンピュータなどの非携帯端末機が挙げられる。
以下の説明では、端末機を携帯端末機として説明する。しかし、当該技術分野における当業者であれば、以下の説明による構成は、携帯端末機用に特に構成された構成要素以外が、デスクトップコンピュータなどの非携帯端末機にも適用され得ることを容易に理解することができる。
図1は、本発明の一実施形態に係る携帯端末機を示すブロック構成図(block diagram)である。
同図の携帯端末機100は、無線通信部110、A/V(Audio/Video)入力部120、使用者入力部130、センシング部140、出力部150、メモリ160、インタフェース部170、制御部180、及び電源供給部190などを含むことができる。図1には、様々な構成要素を備えた携帯端末機が示されているが、これらの構成要素のいずれかは必須の構成要素ではない。すなわち、同図の構成よりも少ない構成要素によって携帯端末機が具現されても良く、また、同図の構成要素よりも多い構成要素によって携帯端末機が具現されても良い。
次に、これらの構成要素について順次に説明する。
無線通信部110は、携帯端末機100と無線通信システムとの間の無線通信、または携帯端末機100と携帯端末機100の位置しているネットワークとの間の無線通信を可能にする1以上の構成要素を含むことができる。例えば、無線通信部110は、放送受信モジュール111、移動通信モジュール112、無線インターネットモジュール113、近距離通信モジュール114及び位置情報モジュール115などを含むことができる。
放送受信モジュール111は、放送チャネルを通じて外部の放送管理サーバーから放送信号及び放送関連情報の少なくとも一方を受信する。この放送チャネルは、衛星チャネル、地上波チャネルを含むことができる。放送管理サーバーは、放送信号及び放送関連情報の少なくとも一方を生成して送信するサーバー、または既に生成された放送信号及び放送関連情報の少なくとも一方を受けて端末機に送信するサーバーを意味する。放送関連情報は、放送チャネル、放送プログラムまたは放送サービスプロバイダに関連した情報を意味する。放送信号には、TV放送信号、ラジオ放送信号、データ放送信号が含まれるだけでなく、TV放送信号またはラジオ放送信号にデータ放送信号が結合した形態の放送信号なども含まれる。
一方、放送関連情報は、移動通信網を通じて提供されても良く、このような場合には移動通信モジュール112により受信されることができる。
放送関連情報は様々な形態で存在することができる。例えば、DMB(Digital Multimedia Broadcasting)のEPG(Electronic Program Guide)や、DVB−H(Digital Video Broadcast-Handheld)のESG(Electronic Service Guide)などの形態で存在することができる。
放送受信モジュール111は、各種放送システムを用いて放送信号を受信するが、特に、DMB−T(Digital Multimedia Broadcasting -Terrestrial)、DMB−S(Digital Multimedia Broadcasting-Satellite)、MediaFLO(Media Forward Link Only)(登録商標)、DVB−H(Digital Video Broadcast-Handheld)、ISDB−T(Integrated Services Digital Broadcast-Terrestrial)などのデジタル放送システムを用いてデジタル放送信号を受信することができる。もちろん、放送受信モジュール111は、上述したデジタル放送システムだけでなく、放送信号を提供する全ての放送システムに適合するように構成される。
放送受信モジュール111により受信された放送信号及び放送関連情報の少なくとも一方は、メモリ部160に保存されることができる。
移動通信モジュール112は、移動通信網上で、基地局、外部の端末及びサーバーの少なくとも1つと無線信号を送受信する。ここで、無線信号は、音声呼信号、画像通話呼信号または文字/マルチメディアメッセージ送受信による様々な形態のデータを含むことができる。
無線インターネットモジュール113は、無線インターネット接続のためのモジュールであり、内蔵または外付けされることができる。無線インターネット技術としては、WLAN(Wireless LAN)(Wi-Fi)、Wibro(Wireless broadband)、Wimax(World Interoperability for Microwave Access)、HSDPA(High Speed Downlink Packet Access)などを利用することができる。
近距離通信モジュール114は、近距離通信のためのモジュールである。近距離通信技術としては、ブルトゥース(Bluetooth)、RFID(Radio Frequency Identification)、赤外線通信(infrared Data Association;IrDA)、UWB(Ultra Wideband)、ZigBeeなどを利用することができる。
位置情報モジュール115は、携帯端末機の位置を確認または獲得するためのモジュールである。この位置情報モジュールの代表的なものには、GPS(Global Positioning System)モジュールがある。現在技術によれば、GPSモジュール115は、3個以上の衛星から離れた距離情報と正確な時間情報を算出した後、この算出情報に三角法を適用することによって、緯度、経度、及び高度による3次元の現在位置情報を正確に算出することができる。現在、3個の衛星を用いて位置及び時間の情報を算出し、新たな1つの衛星を用いて当該算出した位置及び時間の情報の誤差を修正する方法が広く用いられている。また、GPSモジュール115は、現在位置を実時間で算出し続けることによって速度情報を算出することができる。
A/V入力部120は、オーディオ信号またはビデオ信号の入力のためのものであり、カメラ121やマイク122などを含むことができる。カメラ121は、画像通話モードまたは撮影モードでイメージセンサーにより得られる静止画または動画などの画像フレームを処理する。そして、処理された画像フレームは、ディスプレイモジュール151に表示されることができる。
カメラ121で処理された画像フレームは、メモリ部160に保存されたり無線通信部110を通じて外部に転送されることができる。また、端末機の構成態様によって2つ以上のカメラ121を備えることができる。
マイク122は、通話モード、録音モードまたは音声認識モードなどでマイクロフォン(Microphone)により外部から受ける音響信号を、電気的な音声データとして処理する。そして、処理された音声データは、通話モードである場合、移動通信モジュール112を通じて移動通信基地局に送信可能な形態に変換されて出力される。マイク122には、外部から音響信号を受ける過程で雑音(noise)が発生するので、これを除去するための様々な雑音除去アルゴリズムが具現されている。
使用者入力部130は、使用者が端末機の動作制御のための入力データを発生させる。使用者入力部130は、キーパッド(key pad)、ドームスイッチ(dome switch)、タッチパッド(静圧又は静電)、ジョグホイール、ジョグスイッチなどで構成することができる。特に、タッチパッドが、後述するディスプレイモジュール151と相互レイヤー構造をなす場合、これをタッチスクリーンと呼ぶことができる。
センシング部140は、携帯端末機100の開閉状態、携帯端末機100の位置、使用者接触有無、携帯端末機の方位、携帯端末機の加速又は減速などの携帯端末機100の現状態を感知し、携帯端末機100の動作を制御するためのセンシング信号を発生する。例えば、携帯端末機100がスライドフォンの形態を有する場合、スライドフォンの開閉をセンシングすることができる。また、電源供給部190の電源供給有無、インタフェース部170の外部機器との結合有無などと関連したセンシング機能を担当する。
インタフェース部170は、携帯端末機100に連結される全ての外部機器とのインタフェースを担当する。例えば、有線又は無線のヘッドセットポート、外部充電器ポート、有線又は無線のデータポート、メモリカード(memory card)ポート、識別モジュールを備えた装置を連結するポート、オーディオI/O(Input/Output)ポート、ビデオI/Oポート、イヤホンポートなどが含まれる。
ここで、識別モジュールは、携帯端末機100の使用者権限を認証するための各種情報を保存しているチップであり、使用者認証モジュール(User Identify Module;UIM)、加入者認証モジュール(Subscriber Identify Module;SIM)、汎用使用者認証モジュール(Universal Subscriber Identity Module;USIM)などを含むことができる。また、識別モジュールを備える装置(以下単に「識別装置」という)は、スマートカード(smart card)形式で製作されることができる。したがって、識別装置はポートを通じて端末機100と連結されることができる。このようなインタフェース部170は、外部機器からデータを受信し、該データを携帯端末機100内の各構成要素に伝達する一方、携帯端末機100内部のデータを外部機器に転送する。
出力部150は、オーディオ信号またはビデオ信号またはアラーム(alarm)信号の出力のためのもので、ディスプレイモジュール151、音響出力モジュール152、及びアラーム出力モジュール153などが含まれる。
ディスプレイモジュール151は、携帯端末機100で処理される情報を出力表示する。例えば、携帯端末機が通話モードである場合、通話と関連したUI(User Interface)またはGUI(Graphic User Interface)を表示する。そして、携帯端末機100が画像通話モードまたは撮影モードである場合、撮影及び受信した映像の少なくとも一方またはUI、GUIを表示する。
一方、前述したように、ディスプレイモジュール151とタッチパッドが相互にレイヤー構造をなしてタッチスクリーンを構成する場合、ディスプレイモジュール151は、出力装置の他に入力装置としても使われることができる。ディスプレイモジュール151は、液晶ディスプレイ(liquid crystal display)、薄膜トランジスタ液晶ディスプレイ(thin film transistor-liquid crystal display)、有機発光ダイオード(organic light-emitting diode)、フレキシブルディスプレイ(flexible display)、3次元ディスプレイ(3D display)の少なくとも1つを含むことができる。そして、携帯端末機100の具現形態によってディスプレイモジュール151が2個以上存在しても良い。例えば、携帯端末機100に外部ディスプレイモジュール(図示せず)と内部ディスプレイモジュール(図示せず)とを同時に備えさせても良い。上記タッチスクリーンは、ポインタによるタッチ入力位置だけでなく、タッチ入力面積、タッチ入力圧、タッチ入力の移動又は停止等も検出できるように構成することができる。
音響出力モジュール152は、呼信号受信モード、通話モードまたは録音モード、音声認識モード、放送受信モードなどの様々なモードで機能し、例えば、無線通信部110から受信し又はメモリ部160に保存されたオーディオデータを出力する。また、音響出力モジュール152は、携帯端末機100が実行する各種機能(例えば、呼信号受信音、メッセージ受信音等)に関連した音響信号を出力する。このような音響出力モジュール152にはスピーカー(speaker)、ブザー(Buzzer)などが含まれる。
アラーム出力モジュール153は、携帯端末機100のイベント発生を知らせるための信号を出力する。携帯端末機で発生するイベントの例には、呼信号受信、メッセージ受信、キー信号入力、タッチ入力などがある。アラーム出力モジュール153は、オーディオ信号やビデオ信号以外の他の形態でイベント発生を知らせるための信号を出力することができる。例えば、信号を振動の形態で出力することができる。すなわち、呼信号を受信したりメッセージを受信した場合、これを知らせるためにアラーム出力モジュール153は振動を出力することができる。または、キー信号が入力された場合、キー信号入力に対するフィードバックとしてアラーム出力モジュール153は振動を出力することができる。このような振動出力から使用者はイベント発生を認知できる。もちろん、イベント発生を知らせるための信号は、ディスプレイモジュール151や音声出力モジュール152を通じて出力されても良い。
メモリ部160は、制御部180の処理及び制御のためのプログラムが保存されても良く、入出力データ(例えば、フォンブック(電話帳)、メッセージ、静止画、動画等)の一時保存のための機能を行っても良い。また、メモリ部160にはタッチスクリーン上のタッチ入力時に出力される様々なパターンの振動及び音響に関するデータを保存することができる。この様々なパターンの振動及び音響については、後述する実施例でより具体的に説明する。
メモリ部160は、フラッシュメモリタイプ(flash memory type)、ハードディスクタイプ(hard disk type)、マルチメディアカードマイクロタイプ(multimedia card micro type)、カードタイプのメモリ(例えば、SDまたはXDメモリ等)、RAM(Random Access Memory)、SRAM(Static Random Access Memory)、ROM(Read-Only Memory)、EEPROM(Electrically Erasable Programmable Read-Only Memory)、PROM(Programmable Read-Only Memory)磁気メモリ、磁気ディスク、光ディスクの少なくとも1つのタイプの記憶媒体を含むことができる。また、携帯端末機100は、インターネット(internet)上でメモリ部160の保存機能を果たすウェブストレージ(web storage)を利用しても良い。
そして、制御部180は、通常、携帯端末機の全般的な動作を制御する。例えば、音声通話、データ通信、画像通話などのための関連した制御及び処理を行う。また、制御部180は、マルチメディア再生のためのマルチメディアモジュール181を備えても良い。マルチメディアモジュール181は、制御部180内に具現されても良く、制御部180と個別に具現されても良い。
そして、制御部180は、タッチスクリーン上で行われる手書きの筆記入力及び描画入力をそれぞれ文字及びイメージとして認識できるパターン認識処理を行うことができる。
電源供給部190は、制御部180の制御により外部の電源、内部の電源を受けて各構成要素の動作に必要な電源を供給する。
ここに説明される様々な実施例は、例えば、ソフトウェア、ハードウェアまたはこれらの組合せを用いてコンピュータ若しくはこれと類似な装置で読み取ることのできる記録媒体内で具現されることができる。
ハードウェア的な具現によれば、ここに説明される実施例は、ASICs(application specific integrated circuits)、DSPs(digital signal processors)、DSPDs(digital signal processing devices)、PLDs(programmable logic devices)、FPGAs(field programmable gate arrays)、プロセッサ(processors)、制御機(controllers)、マイクロコントローラ(micro-controllers)、マイクロプロセッサ(microprocessors)、機能実行のための電気的なユニットの少なくとも1つを用いて具現されることができる。なお、特定の場合、このような各実施例が制御部180によって具現されることができる。
ソフトウェア的な具現によれば、手順や機能のような実施例は、少なくとも1つの機能または作動を行う独立のソフトウェアモジュールと共に具現されることができる。ソフトウェアコードは、適切なプログラム言語で書かれたソフトウェアアプリケーションにより具現されることができる。また、ソフトウェアコードは、メモリ部160に保存され、制御部180によって実行されることができる。
以上では、本発明の一実施形態に係る携帯端末機を、機能による構成要素の観点から説明した。以下では、図2及び図3を参照し、本発明の一実施形態に係る携帯端末機を形状による構成要素の観点からさらに説明する。以下では、説明の簡明さのためにフォルダタイプ、バータイプ、スイングタイプ、スライダータイプなどの様々なタイプの携帯端末機のうち、スライダータイプの携帯端末機を取り上げて説明する。したがって、本発明は、スライダータイプの携帯端末機に限定されることはなく、上記の各タイプを含むあらゆるタイプの携帯端末機に適用することができる。
図2は、本発明の一実施形態に係る携帯端末機を前面から見た斜視図である。
本発明の一実施形態に係る携帯端末機100は、第1ボディー200と、少なくとも一方向に沿ってスライディング可能に第1ボディー200に装着された第2ボディー205と、を含むスライダータイプである。第1ボディー200が第2ボディー205と重なり合っている状態を「閉じた状態(closed configuration)」と呼ぶことができ、同図のように第1ボディー200が第2ボディー205の少なくとも一部分を露出させた状態を「開いた状態(open configuration)」と呼ぶことができる。
また、本発明の他の実施形態に係る携帯端末機は、図示略しているが、第1ボディーと、この第1ボディーに少なくとも一側がフォルディングまたはアンフォルディングされるように構成された第2ボディーと、を含むフォルダタイプとしても良い。ここで、第2ボディーがフォルディング(folding)されるように構成された状態を「閉じた状態」と呼ぶことができ、第2ボディーがアンフォルディング(unfolding)されるように構成された状態を「開いた状態」と呼ぶことができる。
さらに、本発明の他の実施形態に係る携帯端末機は、図示略しているが、第1ボディーと、この第1ボディーに対してスイング可能に構成された第2ボディーと、を含むスイングタイプとしても良い。ここで、第1ボディーが第2ボディーに重なり合っている状態を「閉じた状態」と呼び、第2ボディーがスイングされて第1ボディーの一部分を露出させた状態を「開いた状態」と呼ぶことができる。
上記フォルダタイプとスイングタイプの端末機については、当該技術分野における当業者であれば容易に理解し得るので、その詳細な説明は省略する。
携帯端末機100は、閉じた状態では主として待機モードで作動するが、使用者の操作によって待機モードを解除することもできる。そして、携帯端末機100は、開いた状態で主として通話モード等で作動するが、使用者の操作または所定時間の経過によって待機モードに切り替わっても良い。
第1ボディー200の外形をなすケース(ケーシング、ハウジング、カバーなど)は、第1フロントケース220と、第1リアケース225と、からなる。第1フロントケース220と第1リアケース225とが形成する空間内には、各種電子部品が組み込まれる。第1フロントケース220と第1リアケース225との間には少なくとも1つの中間ケースがさらに配置されても良い。
これらのケースは、合成樹脂を射出成形したり、金属材質、例えば、ステンレススチール(STS)またはチタン(Ti)などの金属材質を含んで形成されることができる。
第1ボディー200、具体的には第1フロントケース220には、ディスプレイモジュール151、音響出力モジュール152、カメラ121または第1使用者入力部210が配置される。
ディスプレイモジュール151は、図1と関連して既に説明したので、その詳細な説明は本明細書の簡明さのため省略する。
音響出力モジュール152は、スピーカーの形態で具現されることができる。
カメラ121は、使用者などのイメージまたは動画像の撮影に適合するように具現されることができる。
第1ボディー200と同様に、第2ボディー205の外形をなすケースは、第2フロントケース230と、第2リアケース235と、を含んで構成される。
第2ボディー205、具体的に第2フロントケース230の前面には、第2使用者入力部215が配置される。
第2フロントケース230及び第2リアケース235の少なくとも一方には、第3使用者入力部245、マイク122、インタフェース部170が配置されることができる。
第1乃至第3使用者入力部210,215,245は、使用者入力部130と総称することができ、使用者が触覚的な感覚を感じながら操作できるような方式(tactile manner)であればあらゆる方式を採用可能である。
例えば、使用者入力部は、使用者のプッシュまたはタッチ操作により命令または情報が入力され得るドームスイッチまたはタッチパッドで具現され、また、キーを回転させるホイールまたはジョグ方式やジョイスチックのように操作する方式などでも具現されることができる。
機能的な面で、第1使用者入力部210は、開始、終了、スクロールなどの命令を入力するために用いられ、第2使用者入力部215は、数字、文字またはシンボル(symbol)などを入力するために用いられる。第1使用者入力部210は、ディスプレイモジュール151に表示されるアイコンと連動して用いられるいわゆるソフトキーと、方向指示及び確認のためのナビゲーションキー(4個の方向キー及び中央キーで構成される)を含むことができる。
また、第3使用者入力部245は、例えば、サイドキーの形態で、携帯端末機内の特殊な機能を活性化するためのホットキー(hot-key)として作動することができる。
マイク122は、使用者の音声、その他の音などが入力されるのに適切な形態で具現されることができる。
インタフェース部170は、本発明の一実施形態に係る携帯端末機100が外部機器とデータ交換などを行うための通路となる。このインタフェース部170については図1に関連して既に説明したので、その詳細な説明は省略する。
第2リアケース235には、携帯端末機に電源を供給するための電源供給部190が装着される。
電源供給部190は、例えば、充電可能なバッテリーであり、充電などのために着脱自在に結合されることができる。
図3は、図2の携帯端末機100を背面から見た斜視図である。
図3を参照すると、第2ボディー205の第2リアケース235にはカメラ121がさらに装着される。第2ボディー205のカメラ121は、第1ボディー200のカメラ121と実質的に反対の撮影方向を有し、第1ボディー200のカメラ121と異なる画素を有することができる。
例えば、第1ボディー200のカメラ121は、画像通話などの場合に相手側に転送するのに無理がないように低画素で使用者の顔を撮影する。第2ボディー205のカメラ121は、一般的な被写体を高画素で撮影できると好ましい。これは、画像通話などと異なり、通話中に直に転送しない場合が多いためである。
第2ボディー205のカメラ121に隣接してフラッシュ250と鏡255がさらに配置される。フラッシュ250は、第2ボディー205のカメラ121で被写体を撮影する場合に当該被写体に光を照射する。鏡255は、使用者が第2ボディー205のカメラ121を用いて使用者自身を撮影(セルフ撮影)しようとする場合に、使用者自身の顔などを映して、顔などを見ることができるようにする。
第2リアケース235には、音響出力モジュール152がさらに配置される。
第2ボディー205の音響出力モジュール152は、第1ボディー200の音響出力モジュール152と共にステレオ機能を具現でき、スピーカーフォンモード通話のために使われても良い。
また、第2リアケース235には、通話などのアンテナの他に、放送信号受信用アンテナ260が配置される。このアンテナ260は、第2ボディー205から引き出し可能に設置される。
第1ボディー200の第1リアケース225には、第1ボディー200と第2ボディー205とをスライディング可能に結合するスライドモジュール265が配置される。
スライドモジュール265の他の部分は、第2ボディー205の第2フロントケース230側に配置され、同図のように外部に露出されない形態である。
以上では、第2カメラ121などが第2ボディー205に配置される形態を説明したが、必ずしもこれに限定されるものではない。
例えば、第2ボディーのカメラ121のように、第2リアケース235に配置される構成260,121,250,152の少なくとも1つが、第1ボディー200、特に、第1リアケース225に装着されても良い。これによれば、閉じた状態で、第1リアケース225に配置された(複数の)構成が第2ボディー205により保護されるという利点がある。なお、第2ボディーのカメラ121を備えずに、第1ボディーのカメラ121を回転可能に設けることによって、第2ボディーのカメラ121の撮影方向まで撮影できるように構成することも可能である。
図1〜図3に示す端末機100は、有無線通信システム及び衛星基盤通信システムに含まれ、フレーム(frame)またはパケット(packet)を通じてデータ(data)を転送する通信システムにおいて作動するように構成することができる。
以下、図4を参照して、本発明の一実施形態に係る端末機が作動する通信システムについて説明する。
通信システムは、相互に異なる無線インタフェース及び物理階層の少なくとも一方を用いることができる。例えば、通信システムで利用可能な無線インタフェースには、周波数分割多重接続(Frequency Division Multiple Access;FDMA)、時分割多重接続(Time Division Multiple Access;TDMA)、符号分割多重接続(Code Division Multiple Access;CDMA)、汎用移動通信システム(Universal Mobile Telecommunications Systems;UMTS)(特に、LTE(Long Term Evolution))、移動通信グローバルシステム(Global System for Mobile Communications;GSM)などが含まれる。以下では、説明の便宜のために、CDMAに限定して説明する。しかし、本発明は、CDMA無線通信システムを含む全ての通信システムに適用され得ることは当然である。
図4に示すように、CDMA無線通信システムは、複数の端末機100、複数の基地局(Base Station;BS)270、基地局制御部(Base Station Controllers;BSCs)275、移動スイッチングセンター(Mobile Switching Center;MSC)280を含むことができる。MSC280は、公衆交換電話網(Public Switched Telephone Network;PSTN)290と連結されるように構成され、BSCs275とも連結されるように構成される。BSCs275は、バックホールライン(backhaul line)を通じてBS270と対をなして連結されることができる。バックホールラインには、E1/T1、ATM、IP、PPP、Frame Relay、HDSL、ADSLまたはxDSLの少なくとも1つを備えることができる。したがって、複数のBSCs275は、図4に示すシステムに含まれることができる。
それぞれのBS270は、少なくとも1つのセクターを含むことができ、それぞれのセクターは、全方向性アンテナまたはBS270から放射状の特定方向を指す指向性アンテナを含むことができる。また、それぞれのセクターは、様々な形態のアンテナを2つ以上含むことができる。それぞれのBS270は、複数の周波数割当を支援するように構成することができ、複数の周波数割当のそれぞれは、特定スペクトラム(例えば、1.25MHz、5MHz等)を有する。
セクターと周波数割当の交差は、CDMAチャネルと呼ばれることができる。BS270は、基地局送受信サブシステム(Base Station Transceiver Subsystem;BTSs)と呼ばれることができる。このような場合、「基地局」という言葉は、1つのBSC275及び少なくとも1つのBS270とを統称することができる。基地局はまた、「セルサイト」を示すことができる。または、特定BS270に対する複数のセクターのそれぞれは、複数のセルサイトと呼ばれることができる。
図4に示すように、放送送信部(Broadcasting Transmitter;BT)295は、システム内で動作する端末機100に放送信号を送信する。図1に示す放送受信モジュール111は、BT295から転送される放送信号を受信するために端末機100に設けられる。なお、図4には、複数の衛星位置確認システム(Global Positioning System;GPS)の衛星300が示されている。これらの衛星300は、複数の端末機100の少なくとも1つの端末機の位置を把握するのを容易にする。図4では二つの衛星が示されているが、有用な位置情報は、2以下または2以上の衛星により獲得されても良い。図1に示すGPSモジュール115は、所望の位置情報を獲得するために衛星300と協働する。ここでは、GPS追跡技術だけでなく、位置を追跡できる全ての技術を用いて位置を追跡することができる。また、GPS衛星300の少なくとも1つは、選択的にまたは追加的に衛星DMB転送を担当することができる。
無線通信システムの典型的な動作中に、BS270は、様々な端末機100から逆方向リンクの信号を受信する。この時、端末機100は、呼連結中であるか、メッセージ送受信中であるか、または、他の通信動作中である。特定基地局270で受信した逆方向リンクの信号のそれぞれは、特定基地局270で処理される。この処理結果として生成されたデータは、連結されたBSC275に送信される。BSC275は、基地局270同士間のソフトハンドオフ(soft handoff)の組織化を含め、呼資源割当及び移動性管理機能を提供する。また、BSC275は、当該受信したデータをMSC280に送信し、MSC280は、PSTN290との連結のために追加的な転送サービスを提供する。同様に、PSTN290はMSC280と連結し、MSC280はBSCs275と連結し、BSCs275は端末機100に順方向リンクの信号を転送するようにBS270を制御する。
以下、このように構成された携帯端末機で具現可能な制御方法に関する実施例について、添付の図面を参照しつつ説明する。下記の実施例を単独または組合せて使用できることは勿論である。
以下の実施例は、ディスプレイモジュール151がタッチスクリーンで構成される場合に、より容易に具現されることができる。以下では、タッチスクリーン151のディスプレイ画面を図面符号400で表す。
第1実施例
図5及び図6を参照しつつ、本発明の第1実施例に係る携帯端末機の制御方法を説明する。
図5は、本発明の第1実施例に係る携帯端末機の制御方法を示すフローチャートであり、図6は、本発明の第1実施例に係る携帯端末機の制御方法が具現されるディスプレイ画面の状態図である。
図6の(6−1)に示すように、携帯端末機100のタッチスクリーン400には相手側の電話番号アイコン410が表示されている。
そして、タッチスクリーン400には、相手側の電話番号アイコン410の他にも、各種のメニューアイコン460、すなわち、通話アイコン461、メッセージアイコン463、及びゴミ箱アイコン465が表示されている。
相手側の電話番号アイコン410がタッチ及びドラッグされて、メニューアイコン460のいずれか1つの上に配置されると、相手側の電話番号を介して、アイコン410が配置されたメニューアイコンに対応するメニューを実行する。
具体的に説明すると、相手側の電話番号アイコン410が通話アイコン461上にドラッグ及び配置されると、相手側の電話番号に電話をかける通話メニューを実行する。また、相手側の電話番号アイコン410がメッセージアイコン463上にドラッグ及び配置されると、相手側の電話番号やメールアドレスにメッセージを送信するメッセージ送信メニューを実行する。さらに、相手側の電話番号アイコン410がゴミ箱アイコン465上にドラッグ及び配置されると、相手側の電話番号アイコン410を削除する。
なお、このように相手側の電話番号アイコンがドラッグされて所望のメニューアイコン上に配置されることで、所望のメニューや機能を実行する構成に限定する必要はなく、例えば、所望のメニューアイコンが相手側の電話番号アイコン上にドラッグ及び配置されることで、所望のメニューや機能を実行するようにしても良い。
次に、例えば、相手側の電話番号アイコン410が通話アイコン461上にドラッグされることによって、通話メニューを実行するまでの過程をより具体的に説明する。
まず、図6の(6−2)に示すように、タッチスクリーン400上の相手側の電話番号アイコン410がポインタでタッチされる[S51]。
その後、相手側の電話番号アイコン410が通話アイコン461上にドラッグされる[S52]。
この際、即ち、相手側の電話番号アイコン410がドラッグされているときに、図6の(6−3)に示すように、携帯端末機100のアラーム部153が振動を出力する[S53]。
この出力振動は、実際に所定の物体(オブジェクト)をテーブルまたは床面上でドラッグするときに使用者が感じる振動をシミュレーションするために提供される。すなわち、相手側の電話番号アイコン410を所定の物体に対応させ、タッチスクリーン400の背景画面をテーブルまたは床面に対応させている。
この振動は、相手側の電話番号アイコン410がタッチされた時点から出力させることができ、また、相手側の電話番号アイコン410がドラッグされて移動される時点から出力させるように構成しても良い。そして、この振動は、ポインタによるタッチが解除される時点まで出力させることができ、また、ポインタによるタッチが解除される前であってもドラッグが終わる時点まで出力させるように構成しても良い。
なお、相手側の電話番号アイコン410がタッチされて移動している間は振動を出力し、タッチされた状態であっても一時的にドラッグ(移動)が中断されたときには、振動を出力しないように構成することもできる。
このような振動は、ポインタがタッチされて移動されるときに、アイコンサイズ、タッチ圧力及び移動速度の少なくとも1つに従う様々なパターンの1つが識別されることによって出力することができる。このような振動は、振動の大きさ及び周波数の少なくとも一方によって提供することができる。これについて、図7〜図9を参照して更に詳細に説明する。
図7〜図9は、本発明の第1実施例に係る携帯端末機の制御方法によって出力される振動の様々なパターンを示す図である。図7〜図9では、アイコンサイズ、タッチ圧力及びドラッグ移動速度の少なくとも1つによって出力される様々なパターンの振動グラフを示している。
まず、図7の(7−1)及び(7−2)を参照して、アイコンサイズによる振動のパターンについて説明する。
図7の(7−1)は、第1サイズの第1相手側の電話番号アイコン410がタッチされてドラッグされる場合を例示しており、図7の(7−2)は、第1サイズよりも広い第2サイズの第2相手側の電話番号アイコン412がタッチされて移動される場合を例示している。
第1サイズの第1相手側の電話番号アイコン410がドラッグされるときに出力される第1振動と、第2サイズの第2相手側の電話番号アイコン412がドラッグされるときに出力される第2振動と、を比較すれば、図7の(7−1)及び(7−2)に示すように、第1振動の大きさ(M)よりも第2振動の大きさ(M)が大きくなるように構成することができる(M<M)。これは、実際の物体の移動時にも一般的に物体の接触面積が大きいほどより大きい振動が発生する傾向があることを考慮した結果である。しかし、接触面積が小さい場合に必ずしも振動の大きさが小さくなるように構成する必要はない。例えば、物体の接触面が非常にシャープで接触面積が極めて小さい場合には、むしろ振動がより大きく発生する場合があるためである。すなわち、前述した第1振動の大きさよりも第2振動の大きさを大きくした構成は、単なる一例に過ぎない。
そして、図7の(7−1)及び(7−2)に示すように、第1振動の周波数(f)よりも第2振動の周波数(f)が低くなるように構成することができる(f>f)。これは、実際の物体の移動時にも一般的に物体の接触面積が大きいほどより低周波数の振動が発生する傾向があることを考慮した結果である。しかし、接触面積が小さい場合に必ずしも振動の周波数が高くなるように構成する必要はない。例えば、物体の接触面が非常にシャープで接触面積が極めて小さい場合には、むしろ振動の周波数がより低く発生する場合があるためである。すなわち、前述した第1振動の周波数よりも第2振動の周波数を低くした構成は、単なる一例に過ぎない。
図8の(8−1)及び(8−2)を参照し、相手側の電話番号アイコン410に対するタッチ圧力による振動のパターンについて説明する。
図8の(8−1)は、相手側の電話番号アイコン410が第1タッチ圧力でタッチされてドラッグされる場合を例示しており、図8の(8−2)は、相手側の電話番号アイコン410が第1タッチ圧力よりも強い第2タッチ圧力でタッチされてドラッグされる場合を例示している。
第1タッチ圧力でタッチされるときに発生する第1振動と、第2タッチ圧力でタッチされるときに発生する第2振動と、を比較すれば、図8の(8−1)及び(8−2)に示すように、第1振動の大きさ(M)よりも第2振動の大きさ(M)が大きくなるように構成することができる(M<M)。そして、図8の(8−1)及び(8−2)に示すように、第1振動の周波数(f)よりも第2振動の周波数(f)が低くなるように構成することができる(f>f)。強いタッチ圧力は、大きなアイコンサイズに対応し、弱いタッチ圧力は、小さなアイコンサイズに対応することを意味する。しかし、これらは、前述したような様々な理由から、絶対的な構成ではなく、単なる一例に過ぎない。
図9の(9−1)及び(9−2)を参照して、相手側の電話番号アイコンのドラッグ移動速度による振動のパターンについて説明する。
図9の(9−1)は、相手側の電話番号アイコン410がタッチされて第1タッチ移動速度でドラッグされる場合を例示しており、図9の(9−2)は、相手側の電話番号アイコン410がタッチされて第1タッチ移動速度よりも速い第2タッチ移動速度でドラッグされる場合を例示している。
第1タッチ移動速度でタッチ移動されるときに発生する第1振動と、第2タッチ移動速度でタッチ移動されるときに発生する第2振動と、を比較すれば、図9の(9−1)及び(9−2)に示すように、第1振動の大きさ(M)よりも第2振動の大きさ(M)が小さくなるように構成することができる(M>M)。そして、図9の(9−1)及び(9−2)に示すように、第1振動の周波数(f)よりも第2振動の周波数(f)が高くなるように構成することができる(f<f)。しかし、これは、前述したような様々な理由から、絶対的な構成ではなく、単なる一例に過ぎない。
以上では、タッチスクリーン400上でアイコンがタッチされてドラッグされるときに、所定の物体をテーブルまたは床面上でドラッグするときに感じる実際の感覚により近い感覚を使用者に与えるように、振動を出力させる構成について説明した。
しかし、本実施例はこれに限定されず、上記の感覚をより向上させる目的で、上記の振動と共に(または、上記の振動とは独立させて)、実際の物体がテーブルまたは床面上でドラッグされるときに生じる音響を出力させるように構成しても良い。この音響の大きさ及び周波数成分は、前述したようなアイコンサイズ、タッチ圧力及びドラッグ移動速度の少なくとも1つによって調節されることができる。
以上では、タッチスクリーン上で相手側の電話番号アイコンがドラッグされる場合を挙げて説明した。しかし、本実施例は、これに限定されず、あらゆるアイコンがドラッグされる場合にも適用することができる。また、アイコンだけでなく、例えば、ウィンド(窓)がドラッグされる場合にも同様に適用することができる。以下では、必要に応じてタッチスクリーン上でドラッグされ得る全てを、総じて「オブジェクト」と称する。
第2実施例
図10〜図13を参照して、本発明の第2実施例に係る携帯端末機の制御方法を説明する。
図10は、本発明の第2実施例に係る携帯端末機の制御方法を示すフローチャートであり、図11〜図13は、本発明の第2実施例に係る携帯端末機の制御方法によって出力される振動の様々なパターンを示す図である。
まず、携帯端末機100のメニュー操作によって、アイコンの仮想材質と、アイコン背景の仮想材質と、が予め設定される[S101]。
アイコンの仮想材質としては、例えば、レンガ、ビーズ、木板などを上げることができる。しかし、これらに限定されるものではない。また、アイコン背景の仮想材質としては、例えば、車道、凍結道路、紙、黒板などを挙げることができる。しかし、これらに限定されるものではない。各仮想材質及びこれら各相互間に特徴的なデータ(例えば、粗度、硬度、固有パターン、固有音、磁性等)は、メモリ部160に保存されることができる。
メニュー操作を通じた仮想材質の事前設定過程は、本発明の技術分野における当業者であれば容易に理解し得るので、その詳細な説明は本明細書の簡明さのために省略する。
図11の(11−1)では、第1アイコン413の仮想材質がレンガであり、第1アイコン413の第1背景、すなわち、タッチスクリーンに映し出される背景画面の仮想材質が車道である場合を例示している。一方、図11の(11−2)では、第2アイコン414の仮想材質がビーズであり、第2アイコン414の第2背景の仮想材質が凍結道路である場合を例示している。
図11の(11−1)及び(11−2)に示すように、第1及び第2アイコン413,414の仮想材質をアイコン形状で表示するように構成することができる。また、第1及び第2背景のそれぞれの仮想材質を背景イメージとして表現するように構成することができる。この場合、イメージは、静止画、動画、フラッシュ動画などを含む概念である。
同様なサイズの第1及び第2アイコン413,414が同様な圧力でタッチされ及び同様な移動速度でドラッグされる[S102]。これら各場合に出力される振動について説明すると、下記の通りである。
図11の(11−1)の場合における第1アイコン413と第1背景との間の第1仮想摩擦力は、図11の(11−2)の場合における第2アイコン414と第2背景との間の第2仮想摩擦力よりも大きい。
したがって、第1仮想摩擦力による第1振動の大きさ(M)が第2仮想摩擦力による第2振動の大きさ(M)よりも大きくなるように構成することができ(M>M)、第1振動の周波数(f)が第2振動の周波数(f)よりも低くなるように構成することができる(f<f)[S103]。これは、前述したような様々な理由から、絶対的な構成ではなく、単なる一例に過ぎない。
アイコンの仮想材質とアイコン背景の仮想材質との間の振動は、実際の各材質が相互摩擦するときに発生する振動をシミュレーションすることによって決定されることができる。
前述したように、ドラッグしたときの感覚をより向上させて伝達する目的で、上記の振動と共に(または、上記の振動とは独立させて)、実際の物体がドラッグされるときの音響を出力させるように構成しても良いことは勿論である。
以上では、アイコンの仮想タイプと背景の仮想材質との両者が予め設定され、組み合わされる両者に従って異なる振動を夫々出力させる一例について説明した。しかし、本発明は、これに限定されず、上記両者のいずれか一方を予め設定し、該予め設定したいずれか一方に従って異なる振動を夫々出力させるように構成しても良い。これは、本発明の技術分野における当業者であれば、前述した説明から容易に理解し得るので、その詳細な説明は本明細書の簡明さのために省略する。
また、アイコンの仮想タイプと背景の仮想材質とが磁性体の場合もありうる。これについて、図12を参照して説明する。
図12の(12−1)では、第1アイコン415の仮想磁性がS極であり、第1アイコン415の背景、すなわち、タッチスクリーンに映し出される背景画面の仮想磁性がN極の場合を例示している。一方、図12の(12−2)では、第2アイコン416の仮想磁性がN極であり、第2アイコン416の背景の仮想磁性もN極の場合を例示している[S101]。
同一サイズの第1及び第2アイコン415,416が同一圧力でタッチされ及び同一移動速度でドラッグされる[S102]。これら各場合に出力される振動について説明すると、下記の通りである。
図12の(12−1)の場合における第1アイコン415と背景との間には仮想引力が作用し、図12の(12−2)の場合における第2アイコン416と背景との間には仮想斥力が作用する。したがって、第1アイコン415と背景との間の第1仮想摩擦力は、第2アイコン416と背景との間の第2仮想摩擦力よりも大きい。
すなわち、第1仮想摩擦力による第1振動の大きさ(M)が第2仮想摩擦力による第2振動の大きさ(M)よりも大きくなるように構成することができ(M>M)、第1振動の周波数(f)が第2振動の周波数(f)よりも低くなるように構成することができる(f<f)[S103]。これは、前述したような様々な理由から、絶対的な構成ではなく、単なる一例に過ぎない。
図12の(12−3)では、S極の第1アイコン415及びN極の第2アイコン416が両者ともN極の背景上に存在する場合を例示している。
この場合、第2アイコン416がタッチされてドラッグされると、第2アイコン416と背景との間には仮想斥力が作用するが、第1アイコン415と第2アイコン416との間には仮想引力が作用する。したがって、図12の(12−3)の場合における第2アイコン416と背景との間の第3仮想摩擦力は、第1仮想摩擦力及び第2仮想摩擦力の中間となる。
したがって、第3仮想摩擦力による第3振動の大きさ(M)が第1振動の大きさ(M)及び第2振動の大きさ(M)の中間になるように構成することができ(M<M<M)、第3振動の周波数(f)が第1振動の周波数(f)及び第2振動の周波数(f)の中間になるように構成することができる(f<f<f)[S103]。
背景の仮想材質表面が水面である場合を図13を参照して説明する。
図13の(13−1)では、第1アイコン417の仮想材質が非浮遊体のレンガであり、第1アイコン417の背景、すなわち、タッチスクリーンに映し出される背景画面の仮想材質が水である場合を例示している。一方、図13の(13−2)では、第2アイコン418の仮想材質が浮遊体の木板であり、第2アイコン418の背景の仮想材質も(13−1)と同様に水である場合を例示している[S101]。
図13の(13−1)及び(13−2)に示すように、第1及び第2アイコン417,418の仮想材質が浮遊体であるか否かをイメージとして表現することができる。
同一サイズの第1及び2アイコン415,416が同様な圧力でタッチされ及び同様な移動速度でドラッグされる[S102]。これら各場合に出力される振動について説明すると、下記の通りである。
図13の(13−1)の場合における第1アイコン417と背景との間には仮想浮力が作用しないが、図13の(13−2)の場合における第2アイコン418と背景との間には仮想浮力が作用する。したがって、第1アイコン417と背景との間の第1仮想摩擦力は、第2アイコン418と背景との間の第2仮想摩擦力よりも大きい。
すなわち、第1仮想摩擦力による第1振動の大きさ(M)が第2仮想摩擦力による第2振動の大きさ(M)よりも大きくなるように構成することができ(M>M)、第1振動の周波数(f)が第2振動の周波数(f)よりも低くなるように構成することができる(f<f)[S103]。これは、前述したような様々な理由から、絶対的な構成ではなく、単なる一例に過ぎない。
第3実施例
図14及び図15を参照して、本発明の第3実施例に係る携帯端末機の制御方法を説明する。
図14は、本発明の第3実施例に係る携帯端末機の制御方法を示すフローチャートであり、図15は、本発明の第3実施例に係る携帯端末機の制御方法が具現されるディスプレイ画面の状態図である。
まず、携帯端末機100のメニュー操作を通じた環境設定によって、アイコンの仮想材質と、アイコン背景の仮想材質と、が予め設定される[S141]。
アイコン及びアイコン背景の仮想材質については上記の実施例で前述したので、その詳細な説明は省略する。
図15の(15−1)及び(15−2)では、第1アイコン413の仮想材質がレンガであり、第1アイコン413の第1背景の仮想材質が車道である場合を例示している。一方、図15の(15−3)及び(15−4)では、第2アイコン414の仮想材質がビーズであり、第2アイコン414の第2背景、すなわち、タッチスクリーンに映し出される背景画面の仮想材質が凍結道路である場合を例示している。
同一サイズの第1及び第2アイコン413,414が同様な圧力でタッチされ及び同様な移動速度でドラッグされる[S142]。この時、ドラッグ速度に従う第1アイコン及び第2アイコンのそれぞれの移動速度について説明する。
図15の(15−1)及び(15−2)の場合における第1アイコン413と第1背景との間の第1仮想摩擦力は比較的大きい。したがって、第1アイコン413が第1速度でドラッグされても、第1アイコンは、第1速度よりも遅い第2速度で移動する。すなわち、第1アイコンの移動速度は、第1アイコン413をドラッグするためのポインタ速度よりも遅い[S143]。
しかし、図15の(15−3)及び(15−4)の場合における第2アイコン414と第2背景との間の第2仮想摩擦力は比較的小さい。したがって、第2アイコンが第1速度でドラッグされると、第2アイコンは第1速度と略同一の速度で移動する[S143]。
このようにアイコンの異なる移動速度は、前述した実施例における振動及び音響の少なくとも一方の出力と共に具現されることができる。
以上では、アイコンと背景との間の仮想摩擦力によってアイコンの移動速度が調節されることを説明したが、本発明は、これらに限定されるものではなく、前述したようなアイコンと背景との間の仮想磁性関係または仮想浮力関係を考慮してアイコンの移動速度が調節されるように構成しても良い。これは、本発明の技術分野における当業者であれば前述した説明から容易に理解し得るので、その詳細な説明は本明細書の簡明さのために省略する。
第4実施例
図16及び図17を参照して、本発明の第4実施例に係る携帯端末機の制御方法を説明する。
図16は、本発明の一実施形態に係る携帯端末機の制御方法を示すフローチャートであり、図17は、本発明の第4実施例に係る携帯端末機の制御方法が具現されるディスプレイ画面の状態図である。
図17の(17−1)に示すように、タッチスクリーン400上には第1アイコン410及び第2アイコン412が表示されている。第1アイコン410及び第2アイコン412は、それぞれの体積が予め設定されている[S161]。第1アイコン410は第1体積を有し、第2アイコン412は第1体積よりも大きい第2体積を有しているとする。
図17の(17−2)に示すように、第1アイコン410がタッチされて第2アイコン412上を通過するようにドラッグされると[S162]、第1アイコン410が第2アイコン412上を通過する際に、第1の大きさ(M)を有する振動が出力されるように構成することができる。第1の大きさ(M)は、通過する第2アイコン412の第2体積に比例して構成することができる[S163]。
一方、図17の(17−3)に示すように、第2アイコン412がタッチされて第1アイコン410上を通過するようにドラッグされると、第2アイコン412が第1アイコン410上を通過する際に、第2の大きさ(M)を有する振動が出力されるように構成することができる。第2の大きさ(M)は、通過する第1アイコン410の第1体積に比例して構成することができる。
第5実施例
図18及び図19を参照して、本発明の第5実施例に係る携帯端末機の制御方法を説明する。
図18は、本発明の第5実施例に係る携帯端末機の制御方法を示すフローチャートであり、図19は、本発明の第5実施例に係る携帯端末機の制御方法が具現されるディスプレイ画面の状態図である。
図19の(19−1)に示すように、携帯端末機100は、例えば、メッセージ関連モードに入っている。通常、携帯端末機でメニュー操作を通じてメッセージ関連モードに入る過程は、本発明の技術分野における当業者であれば容易に理解し得るので、その詳細な説明は本明細書の簡明さのために省略する。
なお、本実施例及び以下の実施例では、メッセージ関連モードに限定されず、例えば、メモ作成モードなどの文字入力が必要な各種モードの他、描画モードにおいても適用可能であることは明らかである。
携帯端末機100は、図19の(19−1)に示すように、メッセージ関連モードのための画面を表示している。
図19の(19−1)のタッチスクリーン400上には、筆記(手書き文字)入力領域420と、筆記入力領域420に入力される手書き文字をテキストとしてパターン認識した結果を表示するテキスト表示領域460と、が表示されている。
筆記入力領域420に文字「C」が手書き入力される過程を説明すると、下記の通りである。
図19の(19−2)に示すように、文字「C」を手書き入力するために筆記入力領域420上にポインタがタッチされる[S181]。ポインタは、スタイラスペンであっても良く、使用者の指であっても良い。
その後、図19の(19−3)に示すように、筆記入力領域420にタッチされたポインタが文字「C」の形状通りに移動される[S182]。
すると、図19の(19−3)に示すように、テキスト表示領域460に、ポインタ移動に相当する文字「C」が入力されたことが表示される。
そして、図19の(19−3)に示すように、ポインタが移動されるときに携帯端末機のアラーム部153が振動を出力する[S183]。
この出力振動は、使用者が実際の筆記道具を用いて、例えば、紙、黒板、壁などの筆記背景に実際に筆記を行うときに感じる振動をシミュレーションするために提供される。すなわち、ポインタは筆記道具に対応し、筆記入力領域420は筆記背景に対応する。
この振動は、ポインタがタッチされた時点から出力させることができ、また、ポインタがタッチされた後、移動される時点から出力させるように構成しても良い。そして、この振動は、ポインタによるタッチが解除される時点まで出力させることができ、ポインタによるタッチが解除される前であっても移動が終わる時点まで出力させるように構成しても良い。
なお、ポインタがタッチされて移動されている間には振動を出力し、タッチされた状態であっても、一時的に移動が中断されたときには、振動を出力しないように構成することができる。
このような振動は、ポインタがタッチされて移動されるときに、タッチサイズ、タッチ圧力及び移動速度の少なくとも1つに従う様々なパターンの1つが認識されることによって出力されることができる。このような振動は、振動の大きさ及び周波数の少なくとも一方によって提供することができる。これについては、図20〜図22を参照して更に詳細に説明する。
図20〜図22は、本発明の第5実施例に係る携帯端末機の制御方法によって出力される振動の様々なパターンを示す図である。図20〜図22では、図示の簡明さのため、タッチスクリーン400の筆記入力領域420と、タッチサイズ、タッチ圧力及び移動速度の少なくとも1つによって出力される様々なパターンの振動グラフと、を示している。
まず、図20の(20−1)及び(20−2)を参照して、タッチサイズによる振動のパターンについて説明する。
図20の(20−1)は、ポインタが第1タッチサイズで筆記入力領域420にタッチされて移動される場合を例示しており、図20の(20−2)は、ポインタが第1タッチサイズよりもより広い第2タッチサイズで筆記入力領域420にタッチされて移動される場合を例示している。
第1タッチサイズでタッチされるときに発生する第1振動と、第2タッチサイズでタッチされるときに発生する第2振動と、を比較すれば、図20の(20−1)及び(20−2)に示すように、第1振動の大きさ(M)よりも第2振動の大きさ(M)が大きくなるように構成することができる(M<M)。これは、実際の手書き時にも一般的に筆記道具の接触面積が大きいほどより大きい振動が発生する傾向があることを考慮した結果である。しかし、接触面積が小さい場合に必ずしも振動の大きさが小さくなるように構成する必要はない。例えば、筆記道具の先端が非常にシャープで接触面積が極めて小さい場合には、むしろ振動がより大きく発生する場合があるためである。すなわち、前述した第1振動の大きさよりも第2振動の大きさを大きくした構成は、単なる一例に過ぎない。
そして、図20の(20−1)及び(20−2)に示すように、第1振動の周波数(f)よりも第2振動の周波数(f)が低くなるように構成することができる(f>f)。これは、実際の手書き時にも一般的に筆記道具の接触面積が大きいほどより低い周波数の振動が発生する傾向があることが考慮した結果である。しかし、接触面積が小さい場合に必ずしも振動の周波数が高くなるように構成する必要はない。例えば、筆記道具の先端が非常にシャープで接触面積が極めて小さい場合には、むしろ振動の周波数がより低く発生する場合があるためである。すなわち、前述した第1振動の周波数よりも第2振動の周波数を低くした構成は、単なる一例に過ぎない。
図21の(21−1)及び(21−2)を参照して、ポインタのタッチ圧力による振動のパターンについて説明する。
図21の(21−1)は、ポインタが第1タッチ圧力で筆記入力領域420にタッチされて移動される場合を例示しており、図21の(21−2)は、ポインタが第1タッチ圧力よりも強い第2タッチ圧力で筆記入力領域420にタッチされて移動される場合を例示している。
第1タッチ圧力でタッチされるときに発生する第1振動と、第2タッチ圧力でタッチされるときに発生する第2振動と、を比較すれば、図21の(21−1)及び(21−2)に示すように、第1振動の大きさ(M)よりも第2振動の大きさ(M)が大きくなるように構成することができる(M<M)。そして、図21の(21−1)及び(21−2)に示すように、第1振動の周波数(f)よりも第2振動の周波数(f)が低くなるように構成することができる(f>f)。強いタッチ圧力は、大きなタッチサイズに対応し、弱いタッチ圧力は、小さなタッチサイズに対応することができることを意味する。しかし、これらは、前述したような様々な理由から、絶対的な構成ではなく、単なる一例に過ぎない。
図22の(22−1)及び(22−2)を参照して、ポインタのタッチ移動速度による振動のパターンについて説明する。
図22の(22−1)は、ポインタが筆記入力領域420にタッチされて第1タッチ移動速度で移動される場合を例示しており、図22の(22−2)は、ポインタが筆記入力領域420にタッチされて第1タッチ移動速度よりも速い第2タッチ移動速度で移動される場合を例示している。
第1タッチ移動速度でタッチ移動されるときに発生する第1振動と、第2タッチ移動速度でタッチ移動されるときに発生する第2振動と、を比較すれば、図22の(22−1)及び(22−2)に示すように、第1振動の大きさ(M)よりも第2振動の大きさ(M)が小さくなるように構成することができる(M>M)。そして、図22の(22−1)及び(22−2)に示すように、第1振動の周波数(f)よりも第2振動の周波数(f)が高くなるように構成することができる(f<f)。しかし、これは前述したような様々な理由から、絶対的な構成ではなく、単なる一例に過ぎない。
以上では、ポインタが筆記入力領域でタッチされて移動されるときに、実際の筆記道具を用いて、例えば、紙、黒板、壁などの筆記背景に実際に筆記を行うときに感じる実際の感覚により近い感覚を使用者に与えるように、振動を出力させる構成について説明した。
しかし、本実施例はこれに限定されず、上記の感覚をより向上させる目的で、上記振動と共に(または、上記の振動とは独立させて)、実際の筆記道具で実際の筆記背景に筆記するときに生じる音響を出力させるように構成することができる。この音響の大きさ及び周波数成分は、前述したようなタッチサイズ、タッチ圧力及び移動速度の少なくとも1つによって調節されることができる。
第6実施例
図23〜図25を参照して、本発明の第6実施例に係る携帯端末機の制御方法について説明する。
図23は、本発明の第6実施例に係る携帯端末機の制御方法を示すフローチャートであり、図24及び図25は、本発明の第6実施例に係る携帯端末機の制御方法によって出力される振動の様々なパターンを示す図である。
まず、携帯端末機100のメニュー操作を通じた環境設定によって、ポインタの仮想種類と、筆記入力領域(すなわち、筆記背景)の仮想材質と、が予め設定される[S231]。
ポインタ461,462の仮想種類としては、例えば、ボールペン、鉛筆、チョーク、クレヨン、ふで等が挙げられるが、これらに限定されるものではない。一方、筆記入力領域の仮想材質としては、例えば、紙、黒板、レンガ壁、木などが挙げられるが、これらに限定されるものではない。このような各仮想種類、各仮想材質、及びこれら相互間の各特徴データ(例えば、粗度、硬度、固有パターン、固有音など)はメモリ部160に保存されることができる。
上記メニュー操作を通じた仮想種類及び仮想材質の事前設定過程は、本発明の技術分野における当業者であれば、容易に理解し得るので、その詳細な説明は本明細書の簡明さのために省略する。
図24の(24−1)では、ポインタ461の仮想種類がチョークであり、筆記入力領域420の仮想材質がレンガ壁である場合を例示している。一方、図24の(24−2)では、ポインタの仮想種類が鉛筆462であり、筆記入力領域420の仮想材質が紙である場合を例示している。
図24の(24−1)及び(24−2)に示すように、ポインタ461,462が筆記入力領域420にタッチされるときのポインタの仮想種類の形状が、カーソルとして表示されるように構成することができる。一方、筆記入力領域420の仮想材質が、筆記入力領域の背景イメージとして表現されるように構成することができる。
ポインタ461,462が同一サイズ、同一圧力、及び同一速度で筆記入力領域420にタッチされて移動される[S232]。これら各場合に出力される振動について説明すると、下記の通りである。
図24の(24−1)の場合におけるチョークとレンガ壁との間の第1仮想摩擦力は、図24の(24−2)の場合における鉛筆と紙との間の第2仮想摩擦力よりも大きい。
したがって、第1仮想摩擦力による第1振動の大きさ(M)が第2仮想摩擦力による第2振動の大きさ(M)よりも大きくなるように構成することができ(M>M)、第1振動の周波数(f)が第2振動の周波数(f)よりも低くなるように構成することができる(f<f)[S233]。これは、前述したような様々な理由から、絶対的な構成ではなく、単なる一例に過ぎない。
ポインタの仮想種類と筆記入力領域の仮想材質との間の振動は、実際の筆記道具と実際の筆記背景との材質が相互に摩擦するときに発生する振動をシミュレーションすることによって決定される。
前述したように、筆記するときの感覚をより向上させて感じられるようにするために、振動と共に(または、振動とは独立させて)実際の筆記道具で実際の筆記背景に筆記するときに生じる音響を出力させるように構成しても良いことは勿論である。
以上では、ポインタの仮想種類と筆記入力領域の仮想材質との両者が予め設定され、これら組み合わされる両者に従って異なる振動をそれぞれ出力させる一例について説明した。しかし、本発明は、これに限定されず、両者のいずれか一方を予め設定し、該予め設定したいずれか一方に従って異なる振動をそれぞれ出力させるように構成しても良い。これは、本発明の技術分野における当業者であれば、前述の説明から容易に理解し得るので、その詳細な説明は本明細書の簡明さのために省略する。
一方、筆記入力領域の仮想材質の固有パターンを考慮して振動を発生させるように構成することができる。これについて図25を参照して説明すると、下記の通りである。
図25では、筆記入力領域420の仮想材質をレンガ壁としている。固有パターンを有するレンガ壁上でポインタがタッチされて移動される場合、例えば、レンガ間の溝に該当する部分にポインタが移動されるときに、特に、振動を大きく(または、小さく)出力させるように構成することによって、使用者がレンガ間の溝を振動で感じ得るようにすることができる。
本発明は、本発明の精神及び必須の特徴を逸脱しない範囲で他の特定の形態に具体化できるということは、当業者には自明である。
例えば、前述した方法は、プログラムが記録された媒体に、コンピュータが読取りできるコードとして具現することが可能である。コンピュータが読取りできる媒体は、コンピュータシステムによって読取り可能なデータが記憶される全ての種類の記録装置を含む。コンピュータが読取りできる媒体は、例えば、ROM、RAM、CD−ROM、磁気テープ、フレキシブルディスク、光データ記憶装置などがある。なお、キャリアウェーブ(例えば、インターネットを介した転送)の形態で具現されるものも含む。また、コンピュータは端末機の制御部180を含むことができる。
したがって、上述した詳細な説明は、いずれの場合においても限定的に解釈されてはならず、例示的なものとして解釈されなければならない。本発明の範囲は、添付の特許請求の範囲を合理的に解釈して定められるべきであり、特許請求の範囲とその均等範囲内における変更はいずれも本発明の範囲に含まれる。

Claims (6)

  1. タッチスクリーンと、
    振動を出力する出力部と、
    前記タッチスクリーン上の筆記入力領域にポインタがタッチされたときから移動している間に振動を出力させるように制御する制御部と、
    を含んで構成され、
    前記制御部は、前記筆記入力領域で前記ポインタが移動している間に出力させる振動を前記ポインタの接触面積によって異ならせ、かつ、前記ポインタの移動が一時的に中断されたときには振動を出力しないように制御することを特徴とする端末機。
  2. 前記制御部が、さらに前記ポインタの移動速度によって前記振動を異ならせて出力させるように制御することを特徴とする請求項1に記載の端末機。
  3. 前記出力部が、音響を出力するようにさらに構成され、
    前記制御部が、前記ポインタが移動している間に振動と共に音響を出力させるようにさらに制御することを特徴とする請求項1又は2に記載の端末機。
  4. タッチスクリーン上の筆記入力領域にタッチされたポインタの移動を検出する段階と、
    前記移動を検出している間に振動を出力する段階と、
    を含んで構成され、
    前記出力する段階は、前記筆記入力領域での前記ポインタの移動を検出している間に出力する振動を前記ポインタの接触面積によって異ならせ、かつ、前記ポインタの移動が一時的に中断されたときには振動を出力しないことを特徴とする端末機の制御方法。
  5. 前出力する段階は、さらに前記ポインタの移動速度によって前記振動を異ならせて出力することを特徴とする請求項4に記載の端末機の制御方法。
  6. 前記出力する段階は、前記ポインタがタッチされたときから移動している間に振動と共に音響を出力させることを特徴とする請求項4又は5に記載の端末機の制御方法。
JP2009006990A 2008-03-10 2009-01-15 端末機及びその制御方法 Active JP4966322B2 (ja)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
KR10-2008-0021896 2008-03-10
KR1020080021895A KR100956826B1 (ko) 2008-03-10 2008-03-10 단말기 및 그 제어 방법
KR20080021896A KR101486343B1 (ko) 2008-03-10 2008-03-10 단말기 및 그 제어 방법
KR10-2008-0021895 2008-03-10

Publications (2)

Publication Number Publication Date
JP2009217816A JP2009217816A (ja) 2009-09-24
JP4966322B2 true JP4966322B2 (ja) 2012-07-04

Family

ID=40770734

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009006990A Active JP4966322B2 (ja) 2008-03-10 2009-01-15 端末機及びその制御方法

Country Status (4)

Country Link
US (2) US8704776B2 (ja)
EP (1) EP2101247A3 (ja)
JP (1) JP4966322B2 (ja)
BR (1) BRPI0804355A2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101846256B1 (ko) * 2014-05-09 2018-05-18 삼성전자주식회사 필기감을 제공하는 촉각 피드백 장치 및 방법

Families Citing this family (89)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2462465B (en) 2008-08-08 2013-02-13 Hiwave Technologies Uk Ltd Touch sensitive device
US9740341B1 (en) 2009-02-26 2017-08-22 Amazon Technologies, Inc. Capacitive sensing with interpolating force-sensitive resistor array
US10180746B1 (en) 2009-02-26 2019-01-15 Amazon Technologies, Inc. Hardware enabled interpolating sensor and display
US9746923B2 (en) 2009-03-12 2017-08-29 Immersion Corporation Systems and methods for providing features in a friction display wherein a haptic effect is configured to vary the coefficient of friction
US9696803B2 (en) 2009-03-12 2017-07-04 Immersion Corporation Systems and methods for friction displays and additional haptic effects
US10564721B2 (en) 2009-03-12 2020-02-18 Immersion Corporation Systems and methods for using multiple actuators to realize textures
US9927873B2 (en) 2009-03-12 2018-03-27 Immersion Corporation Systems and methods for using textures in graphical user interface widgets
US9874935B2 (en) * 2009-03-12 2018-01-23 Immersion Corporation Systems and methods for a texture engine
US10007340B2 (en) 2009-03-12 2018-06-26 Immersion Corporation Systems and methods for interfaces featuring surface-based haptic effects
US8370762B2 (en) * 2009-04-10 2013-02-05 Cellco Partnership Mobile functional icon use in operational area in touch panel devices
US9785272B1 (en) 2009-07-31 2017-10-10 Amazon Technologies, Inc. Touch distinction
US9740340B1 (en) 2009-07-31 2017-08-22 Amazon Technologies, Inc. Visually consistent arrays including conductive mesh
JP5482023B2 (ja) * 2009-08-27 2014-04-23 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム
JP5333068B2 (ja) * 2009-08-31 2013-11-06 ソニー株式会社 情報処理装置、表示方法及び表示プログラム
KR101638056B1 (ko) * 2009-09-07 2016-07-11 삼성전자 주식회사 휴대 단말기의 ui 제공 방법
WO2011052316A1 (ja) * 2009-10-28 2011-05-05 日本電気株式会社 通信装置、通信方法および通信プログラム
JP5704428B2 (ja) * 2009-11-18 2015-04-22 株式会社リコー タッチパネル装置及びタッチパネル装置の制御方法
US8810524B1 (en) 2009-11-20 2014-08-19 Amazon Technologies, Inc. Two-sided touch sensor
KR101657963B1 (ko) * 2009-12-08 2016-10-04 삼성전자 주식회사 단말기의 터치 면적 변화율에 따른 운용 방법 및 장치
JP5437786B2 (ja) * 2009-12-21 2014-03-12 京セラ株式会社 触感呈示装置
FR2957266B1 (fr) * 2010-03-11 2012-04-20 Parrot Procede et appareil de telecommande d'un drone, notamment d'un drone a voilure tournante.
US8566955B2 (en) * 2010-10-31 2013-10-22 Pixart Imaging Inc. User indentification with capacitive touchscreen
US9760241B1 (en) * 2010-11-05 2017-09-12 Amazon Technologies, Inc. Tactile interaction with content
KR101740436B1 (ko) * 2010-12-08 2017-05-26 엘지전자 주식회사 이동 단말기 및 그 제어방법
CN102714884B (zh) 2010-12-28 2015-09-09 华为终端有限公司 对联系人进行处理的方法及移动终端
US8952905B2 (en) * 2011-01-30 2015-02-10 Lg Electronics Inc. Image display apparatus and method for operating the same
WO2012111060A1 (ja) * 2011-02-18 2012-08-23 Necカシオモバイルコミュニケーションズ株式会社 電子機器、制御設定方法、及びプログラム
TWI494830B (zh) * 2011-04-15 2015-08-01 Elan Microelectronics Corp 觸控裝置、辨識方法及其電腦程式產品
WO2012169176A1 (ja) * 2011-06-07 2012-12-13 パナソニック株式会社 電子機器
KR101786978B1 (ko) * 2011-07-22 2017-10-18 엘지전자 주식회사 이동 단말기
KR101189633B1 (ko) * 2011-08-22 2012-10-10 성균관대학교산학협력단 손가락 움직임에 따른 포인터 제어명령어 인식 방법 및 손가락 움직임에 따라 포인터를 제어하는 모바일 단말
KR102010206B1 (ko) 2011-09-06 2019-08-12 임머숀 코퍼레이션 햅틱 출력 장치 및 햅틱 출력 장치에서 햅틱 효과를 생성하는 방법
CN103189822B (zh) * 2011-10-17 2017-02-08 松下电器产业株式会社 电子设备
WO2013094624A1 (ja) * 2011-12-19 2013-06-27 Necカシオモバイルコミュニケーションズ株式会社 情報処理装置
JP5950275B2 (ja) * 2011-12-21 2016-07-13 インターナショナル・ビジネス・マシーンズ・コーポレーションInternational Business Machines Corporation 表示装置上に表示可能な1又は複数の電子データ中に振動部分を設定する方法、並びに、その装置及びコンピュータ・プログラム
JP5942152B2 (ja) * 2012-01-20 2016-06-29 パナソニックIpマネジメント株式会社 電子機器
JP2013200863A (ja) * 2012-02-23 2013-10-03 Panasonic Corp 電子機器
JP2017084404A (ja) * 2012-02-23 2017-05-18 パナソニックIpマネジメント株式会社 電子機器
US9563297B2 (en) 2012-03-02 2017-02-07 Nec Corporation Display device and operating method thereof
KR102027879B1 (ko) * 2012-04-04 2019-10-02 삼성전자주식회사 미디어 기기의 메뉴 제어 방법 및 장치와 그 방법에 대한 프로그램 소스를 저장한 기록 매체
JP5812944B2 (ja) * 2012-06-26 2015-11-17 京セラ株式会社 入力デバイス、制御方法及び携帯端末装置
WO2014006799A1 (ja) * 2012-07-05 2014-01-09 日本電気株式会社 電子機器、その制御方法及び制御プログラムが格納された非一時的なコンピュータ可読媒体
US8743072B2 (en) * 2012-09-28 2014-06-03 Lg Electronics Inc. Display device and control method thereof
US9196134B2 (en) * 2012-10-31 2015-11-24 Immersion Corporation Method and apparatus for simulating surface features on a user interface with haptic effects
US10078384B2 (en) 2012-11-20 2018-09-18 Immersion Corporation Method and apparatus for providing haptic cues for guidance and alignment with electrostatic friction
US20140157167A1 (en) * 2012-12-05 2014-06-05 Huawei Technologies Co., Ltd. Method and Device for Controlling Icon
US9202350B2 (en) 2012-12-19 2015-12-01 Nokia Technologies Oy User interfaces and associated methods
WO2014125857A1 (ja) * 2013-02-13 2014-08-21 Necカシオモバイルコミュニケーションズ株式会社 入力装置とその制御方法、および、プログラム
US9547366B2 (en) * 2013-03-14 2017-01-17 Immersion Corporation Systems and methods for haptic and gesture-driven paper simulation
KR20140115836A (ko) * 2013-03-22 2014-10-01 삼성전자주식회사 햅틱 효과를 제공하는 휴대 단말 및 방법
JP2014222492A (ja) * 2013-05-14 2014-11-27 株式会社東芝 描画装置及び描画システム
US20140340316A1 (en) * 2013-05-14 2014-11-20 Microsoft Corporation Feedback for Gestures
JP2014222488A (ja) * 2013-05-14 2014-11-27 株式会社東芝 描画装置及び描画システム
WO2015016210A1 (ja) * 2013-08-01 2015-02-05 株式会社ニコン 電子機器、および電子機器の制御プログラム
JP6098438B2 (ja) * 2013-08-27 2017-03-22 株式会社デンソー 操作装置
USD746337S1 (en) * 2013-09-03 2015-12-29 Samsung Electronics Co., Ltd. Display screen or portion thereof with icon
USD773479S1 (en) * 2013-09-06 2016-12-06 Microsoft Corporation Display screen with icon group
US9898087B2 (en) 2013-10-08 2018-02-20 Tk Holdings Inc. Force-based touch interface with integrated multi-sensory feedback
USD759041S1 (en) * 2013-10-17 2016-06-14 Microsoft Corporation Display screen with graphical user interface
JP2015114836A (ja) 2013-12-11 2015-06-22 キヤノン株式会社 画像処理装置、触感制御方法及びプログラム
JP2015118605A (ja) * 2013-12-19 2015-06-25 キヤノン株式会社 触感制御装置、制御方法及びプログラム
JP2015130006A (ja) * 2014-01-06 2015-07-16 キヤノン株式会社 触感制御装置、触感制御方法及びプログラム
KR102332468B1 (ko) 2014-07-24 2021-11-30 삼성전자주식회사 기능 제어 방법 및 그 전자 장치
KR102096146B1 (ko) * 2014-09-02 2020-04-28 애플 인크. 가변 햅틱 출력을 위한 시맨틱 프레임워크
JP2016057764A (ja) * 2014-09-08 2016-04-21 株式会社東海理化電機製作所 触覚呈示装置
CN106687905B (zh) * 2014-09-09 2021-02-26 三菱电机株式会社 触感控制系统及触感控制方法
JP6473610B2 (ja) * 2014-12-08 2019-02-20 株式会社デンソーテン 操作装置、及び、操作システム
JP2018513455A (ja) * 2015-04-21 2018-05-24 イマージョン コーポレーションImmersion Corporation エッチング入力の動的表現
US10621581B2 (en) 2016-06-11 2020-04-14 Apple Inc. User interface for transactions
US9854156B1 (en) 2016-06-12 2017-12-26 Apple Inc. User interface for camera effects
US20180068313A1 (en) 2016-09-06 2018-03-08 Apple Inc. User interfaces for stored-value accounts
WO2018062078A1 (ja) * 2016-09-30 2018-04-05 シャープ株式会社 表示装置
US10572013B2 (en) * 2016-10-03 2020-02-25 Nokia Technologies Oy Haptic feedback reorganization
JP2018194924A (ja) * 2017-05-12 2018-12-06 アルプス電気株式会社 入力装置
US10796294B2 (en) 2017-05-16 2020-10-06 Apple Inc. User interfaces for peer-to-peer transfers
US11221744B2 (en) * 2017-05-16 2022-01-11 Apple Inc. User interfaces for peer-to-peer transfers
KR102044824B1 (ko) * 2017-06-20 2019-11-15 주식회사 하이딥 터치 감지 및 터치압력 감지가 가능한 장치 및 제어방법
JP6827387B2 (ja) * 2017-08-16 2021-02-10 株式会社デンソーテン 制御装置、入力システムおよび制御方法
US10955922B2 (en) * 2017-11-29 2021-03-23 International Business Machines Corporation Simulating tactile information for haptic technology
BR102018004967A2 (pt) * 2018-03-13 2019-10-01 Samsung Eletrônica da Amazônia Ltda. Método para processar o movimento de ponteiros virtuais
CN108646971B (zh) * 2018-05-17 2020-07-24 Oppo广东移动通信有限公司 屏幕发声控制方法、装置以及电子装置
US11515001B2 (en) 2018-05-28 2022-11-29 Eve's Kids Inc. Systems and methods for genealogical graphing
US11100498B2 (en) 2018-06-03 2021-08-24 Apple Inc. User interfaces for transfer accounts
CN112219203A (zh) 2018-06-03 2021-01-12 苹果公司 用于转账账户的用户界面
US11328352B2 (en) 2019-03-24 2022-05-10 Apple Inc. User interfaces for managing an account
JP2022012116A (ja) * 2020-07-01 2022-01-17 コニカミノルタ株式会社 情報処理装置、情報処理装置の制御方法及びプログラム
JP2022104105A (ja) * 2020-12-28 2022-07-08 日本電産株式会社 入力デバイス、及び、表示入力システム
US11921992B2 (en) 2021-05-14 2024-03-05 Apple Inc. User interfaces related to time
US11784956B2 (en) 2021-09-20 2023-10-10 Apple Inc. Requests to add assets to an asset account

Family Cites Families (65)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1992004682A1 (en) * 1990-09-06 1992-03-19 Next Computer, Inc. Method and apparatus for identifying wait states and for providing a wait cursor in a computer system
EP0758769B1 (en) * 1995-08-11 2003-01-15 Sharp Kabushiki Kaisha Document processing device
US5999168A (en) * 1995-09-27 1999-12-07 Immersion Corporation Haptic accelerator for force feedback computer peripherals
US6147674A (en) * 1995-12-01 2000-11-14 Immersion Corporation Method and apparatus for designing force sensations in force feedback computer applications
US6219032B1 (en) * 1995-12-01 2001-04-17 Immersion Corporation Method for providing force feedback to a user of an interface device based on interactions of a controlled cursor with graphical elements in a graphical user interface
US6028593A (en) * 1995-12-01 2000-02-22 Immersion Corporation Method and apparatus for providing simulated physical interactions within computer generated environments
US6252583B1 (en) * 1997-11-14 2001-06-26 Immersion Corporation Memory and force output management for a force feedback system
TW404846B (en) 1998-01-23 2000-09-11 Koninkl Philips Electronics Nv Multiperson tactual virtual environment
US8479122B2 (en) * 2004-07-30 2013-07-02 Apple Inc. Gestures for touch sensitive input devices
US7760187B2 (en) * 2004-07-30 2010-07-20 Apple Inc. Visual expander
US6717573B1 (en) * 1998-06-23 2004-04-06 Immersion Corporation Low-cost haptic mouse implementations
US6429846B2 (en) * 1998-06-23 2002-08-06 Immersion Corporation Haptic feedback for touchpads and other touch controls
US6552722B1 (en) * 1998-07-17 2003-04-22 Sensable Technologies, Inc. Systems and methods for sculpting virtual objects in a haptic virtual reality environment
US6421048B1 (en) * 1998-07-17 2002-07-16 Sensable Technologies, Inc. Systems and methods for interacting with virtual objects in a haptic virtual reality environment
US6525711B1 (en) * 1999-06-24 2003-02-25 Interval Research Corp. Haptic interface including clutch control
US6529183B1 (en) * 1999-09-13 2003-03-04 Interval Research Corp. Manual interface combining continuous and discrete capabilities
DE20080209U1 (de) * 1999-09-28 2001-08-09 Immersion Corp Steuerung von haptischen Empfindungen für Schnittstellenvorrichtungen mit Vibrotaktiler Rückkopplung
US6332084B1 (en) 1999-10-09 2001-12-18 Qualcomm Incorporated Multiple mode wireless telephone
US7089292B1 (en) * 1999-12-20 2006-08-08 Vulcan Patents, Llc Interface including non-visual display for use in browsing an indexed collection of electronic content
US6822635B2 (en) * 2000-01-19 2004-11-23 Immersion Corporation Haptic interface for laptop computers and other portable devices
JP3949912B2 (ja) * 2000-08-08 2007-07-25 株式会社エヌ・ティ・ティ・ドコモ 携帯型電子機器、電子機器、振動発生器、振動による報知方法および報知制御方法
JP2002236550A (ja) * 2001-02-07 2002-08-23 Fujitsu Ten Ltd 画面位置入力方法および装置
US7225115B2 (en) * 2001-10-04 2007-05-29 Novint Technologies, Inc. Coordinating haptics with visual images in a human-computer interface
KR101289110B1 (ko) * 2001-11-01 2013-08-07 임머숀 코퍼레이션 촉각을 제공하기 위한 방법 및 장치
JP3929881B2 (ja) * 2001-12-04 2007-06-13 独立行政法人科学技術振興機構 皮膚感覚提示装置
US7352356B2 (en) * 2001-12-13 2008-04-01 United States Of America Refreshable scanning tactile graphic display for localized sensory stimulation
US20040113931A1 (en) * 2002-12-05 2004-06-17 Anderson Thomas G. Human-computer interfaces incorporating haptics and path-based interaction
JP4531358B2 (ja) * 2003-07-10 2010-08-25 株式会社エヌ・ティ・ティ・ドコモ タッチパネルディスプレイ装置
US7218313B2 (en) 2003-10-31 2007-05-15 Zeetoo, Inc. Human interface system
US7728819B2 (en) * 2003-11-17 2010-06-01 Sony Corporation Input device, information processing device, remote control device, and input device control method
JP4111278B2 (ja) * 2003-11-20 2008-07-02 独立行政法人産業技術総合研究所 触力覚情報提示システム
JP2005175815A (ja) * 2003-12-10 2005-06-30 Sony Corp 触覚機能付入力装置および電子機器並びに電子機器の感触フィードバック入力方法
US7982711B2 (en) * 2003-12-19 2011-07-19 Immersion Corporation Haptic profiling system and method
US20060209037A1 (en) * 2004-03-15 2006-09-21 David Wang Method and system for providing haptic effects
US20050231489A1 (en) * 2004-04-15 2005-10-20 Research In Motion Limited System and method for providing dynamic tactile feedback on hand-held electronic devices
JP2006079238A (ja) * 2004-09-08 2006-03-23 Alpine Electronics Inc タッチパネル装置
US20060095864A1 (en) * 2004-11-04 2006-05-04 Motorola, Inc. Method and system for representing an application characteristic using a sensory perceptible representation
KR100682901B1 (ko) * 2004-11-17 2007-02-15 삼성전자주식회사 화상표시장치에서 전기활성폴리머를 사용하여 영상정보의핑거팁 햅틱을 제공하는 장치 및 방법
US7619616B2 (en) * 2004-12-21 2009-11-17 Microsoft Corporation Pressure sensitive controls
GB0602689D0 (en) * 2006-02-10 2006-03-22 Univ Edinburgh Controlling the motion of virtual objects in a virtual space
US8405618B2 (en) * 2006-03-24 2013-03-26 Northwestern University Haptic device with indirect haptic feedback
US20070268256A1 (en) * 2006-05-16 2007-11-22 Research In Motion Limited Tactile feedback system and method for a mobile communication device having a trackball
US7920124B2 (en) * 2006-08-29 2011-04-05 Canon Kabushiki Kaisha Force sense presentation device, mixed reality system, information processing method, and information processing apparatus
US20080072157A1 (en) * 2006-09-14 2008-03-20 Joseph Pally System for controlling objects in a recursive browser system: ZSpace sharing
BRPI0622003A2 (pt) * 2006-09-27 2012-10-16 Nokia Corp tela sensìvel ao toque, dispositivo eletrÈnico, método para operar tela sensìvel ao toque de dispositivo eletrÈnico e produto de software
KR100807930B1 (ko) 2006-12-04 2008-02-28 한국정보통신대학교 산학협력단 촉각적 피드백을 위한 전자 펜 및 이를 이용한 펜 컴퓨터시스템
US7764275B2 (en) * 2007-01-04 2010-07-27 International Business Machines Corporation Touch sensor track point and methods
US20080238635A1 (en) * 2007-03-28 2008-10-02 Gunnar Klinghult Force feedback for input devices
US20080307330A1 (en) * 2007-06-08 2008-12-11 Apple Inc. Visualization object divet
US20090122018A1 (en) * 2007-11-12 2009-05-14 Leonid Vymenets User Interface for Touchscreen Device
US8253686B2 (en) * 2007-11-26 2012-08-28 Electronics And Telecommunications Research Institute Pointing apparatus capable of providing haptic feedback, and haptic interaction system and method using the same
US8194037B2 (en) * 2007-12-14 2012-06-05 Apple Inc. Centering a 3D remote controller in a media system
US9170649B2 (en) * 2007-12-28 2015-10-27 Nokia Technologies Oy Audio and tactile feedback based on visual environment
US9857872B2 (en) * 2007-12-31 2018-01-02 Apple Inc. Multi-touch display screen with localized tactile feedback
US9513704B2 (en) * 2008-03-12 2016-12-06 Immersion Corporation Haptically enabled user interface
US20100013613A1 (en) * 2008-07-08 2010-01-21 Jonathan Samuel Weston Haptic feedback projection system
KR102056518B1 (ko) * 2008-07-15 2019-12-16 임머숀 코퍼레이션 물리 기반 촉각 메시징을 위한 시스템 및 방법
JP4875050B2 (ja) * 2008-12-09 2012-02-15 京セラ株式会社 入力装置
US9696803B2 (en) * 2009-03-12 2017-07-04 Immersion Corporation Systems and methods for friction displays and additional haptic effects
US10007340B2 (en) * 2009-03-12 2018-06-26 Immersion Corporation Systems and methods for interfaces featuring surface-based haptic effects
US9874935B2 (en) * 2009-03-12 2018-01-23 Immersion Corporation Systems and methods for a texture engine
US9927873B2 (en) * 2009-03-12 2018-03-27 Immersion Corporation Systems and methods for using textures in graphical user interface widgets
WO2011011552A1 (en) * 2009-07-22 2011-01-27 Immersion Corporation Interactive touch screen gaming metaphors with haptic feedback across platforms
KR101484826B1 (ko) * 2009-08-25 2015-01-20 구글 잉크. 직접적인 조작 제스처들
CN102341766B (zh) * 2009-09-03 2014-09-24 松下电器产业株式会社 触感再现方法和装置

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101846256B1 (ko) * 2014-05-09 2018-05-18 삼성전자주식회사 필기감을 제공하는 촉각 피드백 장치 및 방법

Also Published As

Publication number Publication date
JP2009217816A (ja) 2009-09-24
US8723810B2 (en) 2014-05-13
EP2101247A2 (en) 2009-09-16
US20090227295A1 (en) 2009-09-10
US20090227296A1 (en) 2009-09-10
US8704776B2 (en) 2014-04-22
EP2101247A3 (en) 2012-06-06
BRPI0804355A2 (pt) 2009-11-03

Similar Documents

Publication Publication Date Title
JP4966322B2 (ja) 端末機及びその制御方法
KR100956826B1 (ko) 단말기 및 그 제어 방법
KR100969790B1 (ko) 이동단말기 및 그 컨텐츠 합성방법
KR101387527B1 (ko) 단말기 및 그 메뉴 아이콘 디스플레이 방법
US8543166B2 (en) Mobile terminal equipped with flexible display and controlling method thereof
KR101495170B1 (ko) 이동단말기의 메뉴 표시방법
EP2256611B1 (en) Display device and method of controlling the same
KR101412586B1 (ko) 이동단말기의 문자입력 방법
KR101486343B1 (ko) 단말기 및 그 제어 방법
US20150113433A1 (en) Mobile terminal and control method thereof
KR20100024642A (ko) 이동단말기 및 그 제어 방법
CN104423581A (zh) 移动终端及其控制方法
KR20100020333A (ko) 이동 단말기 및 그의 정보 전송 방법
KR20090102498A (ko) 단말기 및 그 제어 방법
KR102147203B1 (ko) 이동 단말기 및 그 제어방법
KR20090034172A (ko) 휴대 단말기 및 그 제어 방법
KR20140143911A (ko) 이동 단말기 및 그 제어 방법
KR20090033620A (ko) 휴대 단말기 및 그 제어 방법
KR20150050883A (ko) 단말기 및 그 제어 방법
KR20140096752A (ko) 이동 단말기 및 이동 단말기 제어방법
KR20130132679A (ko) 플렉서블 디스플레이를 구비하는 이동 단말기
KR20120020659A (ko) 이동단말기 및 그의 텍스트 편집 방법
KR101580158B1 (ko) 이동단말기 및 그 제어방법
KR101958782B1 (ko) 이동 단말기 및 그 제어 방법
KR20090075977A (ko) 단말기, 그 제어 방법 및 이를 위한 기록 매체

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110412

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110419

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110713

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20111005

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20111220

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120321

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120330

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150406

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250