JP5510008B2 - Mobile terminal device - Google Patents

Mobile terminal device Download PDF

Info

Publication number
JP5510008B2
JP5510008B2 JP2010088050A JP2010088050A JP5510008B2 JP 5510008 B2 JP5510008 B2 JP 5510008B2 JP 2010088050 A JP2010088050 A JP 2010088050A JP 2010088050 A JP2010088050 A JP 2010088050A JP 5510008 B2 JP5510008 B2 JP 5510008B2
Authority
JP
Japan
Prior art keywords
display
target
unit
drawing object
input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2010088050A
Other languages
Japanese (ja)
Other versions
JP2011221661A (en
Inventor
考司 高野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Mobile Communications Ltd
Original Assignee
Fujitsu Mobile Communications Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Mobile Communications Ltd filed Critical Fujitsu Mobile Communications Ltd
Priority to JP2010088050A priority Critical patent/JP5510008B2/en
Publication of JP2011221661A publication Critical patent/JP2011221661A/en
Application granted granted Critical
Publication of JP5510008B2 publication Critical patent/JP5510008B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

この発明は、例えば携帯電話機やゲーム機などの携帯端末装置に関する。   The present invention relates to a mobile terminal device such as a mobile phone or a game machine.

周知のように、携帯電話機やゲーム機などの携帯端末装置は、携帯性を維持する観点から、大きな表示部を備えることが難しい。このため、近時、携帯端末装置は、複数の表示部を備えることで、より多くの視覚的な情報をユーザに提供できるようになった。   As is well known, it is difficult for a portable terminal device such as a mobile phone or a game machine to have a large display unit from the viewpoint of maintaining portability. For this reason, recently, the mobile terminal device can provide more visual information to the user by including a plurality of display units.

しかしながら、従来の携帯端末装置では、例えば2つの表示部を備える場合、一方の表示部に表示しているオブジェクトを、他方の表示部に移動させて表示させる場合、物理的に両表示部が分かれているため、ユーザがオブジェクトを自由に移動させる操作が複雑になったり、直感的にわかりにくい操作を行う必要があるなどの問題があった(例えば、特許文献1参照)。   However, in the conventional portable terminal device, for example, when two display units are provided, when an object displayed on one display unit is moved to the other display unit and displayed, both display units are physically separated. Therefore, there are problems such as complicated operation for the user to move the object freely, or operation that is difficult to understand intuitively (for example, see Patent Document 1).

特開2004−280319号公報JP 2004-280319 A

この発明は上記の問題を解決すべくなされたもので、簡単で直感的にわかりやすい操作で、オブジェクトを複数の表示部間で移動させて表示させることが可能な携帯端末装置を提供することを目的とする。   The present invention has been made to solve the above problem, and an object thereof is to provide a portable terminal device capable of moving and displaying an object between a plurality of display units with a simple and intuitive operation. And

上記の目的を達成するために、この発明は、画像を表示する第1表示手段と、この第1表示手段に対して操作された位置を検出する第1入力手段とを備えた第1表示入力手段と、画像を表示する第2表示手段と、この第2表示手段に対して操作された位置を検出する第2入力手段とを備えた第2表示入力手段と、前記第1入力手段の検出結果に基づいて、前記第1表示手段に表示される描画オブジェクトをターゲットとして指定するターゲット指定手段と、前記第2入力手段を通じて、前記第2表示手段の位置の指定を受け付ける位置受付手段と、前記ターゲット指定手段がターゲットとして指定した描画オブジェクトを、前記位置受付手段が受け付けた前記第2表示手段の位置に表示する表示制御手段と、ユーザからオン操作を受け付ける第3入力手段とを備え、前記位置受付手段は、前記ターゲット受付手段が前記指示を受け付けた後、前記第3入力手段がオン操作された状態で、前記第2入力手段を通じて、前記第2表示手段の位置の指定を受け付けるようにした。

In order to achieve the above object, the present invention provides a first display input comprising first display means for displaying an image and first input means for detecting a position operated with respect to the first display means. A second display input means comprising: means; a second display means for displaying an image; and a second input means for detecting a position operated with respect to the second display means; and detection of the first input means. Based on the result, target designation means for designating a drawing object displayed on the first display means as a target, position receiving means for accepting designation of the position of the second display means through the second input means, and the drawing object target specifying means has specified as the target, and a display control means for displaying the position of the second display means the position accepting unit receives, accepts on operation by the user The position receiving means includes the second display means through the second input means in a state in which the third input means is turned on after the target receiving means receives the instruction. The specification of the position of was accepted .

以上述べたように、この発明では、第1表示手段に表示される描画オブジェクトを指定する指示を受け付けるとともに、第2表示手段の位置の指定を受け付け、上記描画オブジェクトを、第2表示手段の上記位置に表示するようにしている。
したがって、この発明によれば、簡単で直感的にわかりやすい操作で、オブジェクトを複数の表示部間で移動させて表示させることが可能な携帯端末装置を提供できる。
As described above, in the present invention, an instruction for designating a drawing object displayed on the first display means is accepted, and a designation of the position of the second display means is accepted, and the drawing object is received by the second display means. It is displayed at the position.
Therefore, according to the present invention, it is possible to provide a mobile terminal device capable of moving and displaying an object between a plurality of display units with a simple and intuitive operation.

この発明に係わる携帯端末装置の一実施形態の外観を示す図。The figure which shows the external appearance of one Embodiment of the portable terminal device concerning this invention. 図1に示した携帯端末装置の構成を示す回路ブロック図。The circuit block diagram which shows the structure of the portable terminal device shown in FIG. 図1に示した携帯端末装置の動作を説明するためのフローチャート。The flowchart for demonstrating operation | movement of the portable terminal device shown in FIG.

以下、図面を参照して、この発明の一実施形態について説明する。
この発明の一実施形態に係わる携帯端末装置は、例えば、携帯電話機やPDA(Personal Digital Assistants)、携帯型ゲーム機などであって、以下の説明では、携帯電話機を例に挙げて説明する。
Hereinafter, an embodiment of the present invention will be described with reference to the drawings.
The mobile terminal device according to an embodiment of the present invention is, for example, a mobile phone, a PDA (Personal Digital Assistants), a portable game machine, and the like. In the following description, a mobile phone is taken as an example.

図1は、この発明の一実施形態に係わる携帯電話機の外観を示すものである。すなわち、この携帯電話機は、第1筐体1と第2筐体2をヒンジ3にて回動自在に接続された構造を有する折りたたみ式の携帯電話機である。なお、ここでは図1に示すような折りたたみ式の携帯電話機を例に挙げて説明するが、その他、スライド式で変形する携帯電話機や、変形する機構を備えない携帯電話機であってもよい。   FIG. 1 shows the appearance of a mobile phone according to an embodiment of the present invention. That is, this mobile phone is a foldable mobile phone having a structure in which the first housing 1 and the second housing 2 are rotatably connected by the hinge 3. Here, a folding mobile phone as shown in FIG. 1 is described as an example, but a mobile phone that is slidable or a mobile phone that does not have a deforming mechanism may be used.

図2は、図1に示した携帯電話機の構成を示すブロック図である。この図に示すように、主な構成要素として、無線通信部10と、表示入力部20と、通話部30と、操作部40と、カメラ部41と、記憶部50と、赤外線通信部60と、GPS受信部70と、モーションセンサ部80と、電源部90と、主制御部100とを備え、主な機能として基地局装置BSおよび移動通信網NWを介した移動無線通信を行う無線通信機能を備える。   FIG. 2 is a block diagram showing a configuration of the mobile phone shown in FIG. As shown in this figure, the main components are a wireless communication unit 10, a display input unit 20, a call unit 30, an operation unit 40, a camera unit 41, a storage unit 50, and an infrared communication unit 60. A wireless communication function including a GPS receiving unit 70, a motion sensor unit 80, a power supply unit 90, and a main control unit 100, and performing mobile wireless communication via the base station device BS and the mobile communication network NW as main functions. Is provided.

無線通信部10は、主制御部100の指示にしたがって、移動通信網NWに収容された基地局装置BSと無線通信を行うものであって、これにより、音声データや電子メールデータなどの送受信、Webデータやストリーミングデータなどの受信を行う。   The radio communication unit 10 performs radio communication with the base station apparatus BS accommodated in the mobile communication network NW according to the instruction of the main control unit 100, and thereby transmits and receives voice data, e-mail data, etc. Web data and streaming data are received.

表示入力部20は、主制御部100の制御により、画像(静止画像および動画像)や文字情報などを表示して視覚的にユーザに情報を伝達するとともに、表示した情報に対するユーザ操作を検出する、いわゆるタッチパネルであって、第1タッチパネル21と第2タッチパネル22を備える。   Under the control of the main control unit 100, the display input unit 20 displays images (still images and moving images), character information, etc., visually transmits information to the user, and detects user operations on the displayed information. A so-called touch panel, which includes a first touch panel 21 and a second touch panel 22.

第1タッチパネル21は、LCD(Liquid Crystal Display)などの表示パネル21aと、操作パネル21bとを備え、同様に、第2タッチパネル22は、LCDなどの表示パネル22aと、操作パネル22bとを備える。そして例えば、図1に示すように、第1タッチパネル21は、第1筐体1に搭載され、第2タッチパネル22は、第2筐体2に搭載される。   The first touch panel 21 includes a display panel 21a such as an LCD (Liquid Crystal Display) and an operation panel 21b. Similarly, the second touch panel 22 includes a display panel 22a such as an LCD and an operation panel 22b. For example, as shown in FIG. 1, the first touch panel 21 is mounted on the first housing 1, and the second touch panel 22 is mounted on the second housing 2.

操作パネル21b、22bは、それぞれ表示パネル21a、22aに表示される画像を視認可能な透明素材からなり、表示パネル21a、22aの表示面上に載置され、ユーザの指や尖筆によって操作された座標を検出するためのデバイスである。このデバイスによって検出された検出信号は、主制御部100に出力され、主制御部100は、上記検出信号に基づいて、表示パネル21aあるいは22a上の操作された位置(座標)を検出する。操作パネル21b、22bで採用される位置検出方式としては、マトリクススイッチ方式、抵抗膜方式、表面弾性波方式、赤外線方式、電磁誘導方式、静電容量方式などがあり、いずれの方式であってもよい。   The operation panels 21b and 22b are made of a transparent material capable of visually recognizing images displayed on the display panels 21a and 22a, placed on the display surfaces of the display panels 21a and 22a, and operated by a user's finger or stylus It is a device for detecting the coordinates. The detection signal detected by this device is output to the main control unit 100, and the main control unit 100 detects the operated position (coordinates) on the display panel 21a or 22a based on the detection signal. As the position detection method employed in the operation panels 21b and 22b, there are a matrix switch method, a resistive film method, a surface acoustic wave method, an infrared method, an electromagnetic induction method, a capacitance method, etc. Good.

通話部30は、スピーカ31やマイクロホン32を備え、マイクロホン32を通じて入力されたユーザの音声を主制御部100にて処理可能な音声データに変換して主制御部100に出力したり、無線通信部10あるいは赤外線通信部60により受信された音声データを復号してスピーカ31から出力するものである。そして例えば、図1に示すように、スピーカ31は、第1筐体1に搭載され、マイクロホン32は、第2筐体2に搭載される。   The call unit 30 includes a speaker 31 and a microphone 32, converts user's voice input through the microphone 32 into voice data that can be processed by the main control unit 100, and outputs the voice data to the main control unit 100, or a wireless communication unit. 10 or the audio data received by the infrared communication unit 60 is decoded and output from the speaker 31. For example, as shown in FIG. 1, the speaker 31 is mounted on the first housing 1, and the microphone 32 is mounted on the second housing 2.

操作部40は、キースイッチなどを用いたハードウェアキーであって、これを通じてユーザから指示を受け付けるものである。例えば、図1に示すように、第2筐体2の第2タッチパネル22の近傍に搭載され、指などで押下されるとオンとなり、指を離すとバネなどの復元力によってオフ状態となる押しボタン式のスイッチである。   The operation unit 40 is a hardware key using a key switch or the like, and receives an instruction from the user through this. For example, as shown in FIG. 1, it is mounted in the vicinity of the second touch panel 22 of the second housing 2 and is turned on when pressed with a finger or the like, and turned off by a restoring force such as a spring when the finger is released. It is a button type switch.

カメラ部41は、CMOS(Complementary Metal Oxide Semiconductor)やCCD(Charge-Coupled Device)などの撮像素子を用いて電子撮影するデジタルカメラであって、主制御部100の制御により、撮像によって得た画像データを例えばJPEG(Joint Photographic coding Experts Group)などの圧縮した画像データに変換し、後述する記憶部50に記録する。例えば、図1に示すように、第1筐体1の第1タッチパネル21の近傍に搭載される。   The camera unit 41 is a digital camera that performs electronic photography using an imaging element such as a CMOS (Complementary Metal Oxide Semiconductor) or a CCD (Charge-Coupled Device), and image data obtained by imaging under the control of the main control unit 100. Is converted into compressed image data such as JPEG (Joint Photographic coding Experts Group) and recorded in the storage unit 50 described later. For example, as shown in FIG. 1, it is mounted in the vicinity of the first touch panel 21 of the first housing 1.

記憶部50は、主制御部100の制御プログラムや制御データ、アプリケーションソフトウェア、通信相手の名称や電話番号などを対応づけたアドレスデータ、送受信した電子メールのデータ、WebブラウジングによりダウンロードしたWebデータや、ダウンロードしたコンテンツデータを記憶し、またストリーミングデータなどを一時的に記憶するものである。なお、記憶部50は、HDD、RAM、ROM、ICメモリなどの1つまたは複数の記憶手段を含むものである。   The storage unit 50 includes a control program and control data of the main control unit 100, application software, address data that associates the name and telephone number of the communication partner, transmitted / received e-mail data, Web data downloaded by Web browsing, The downloaded content data is stored, and streaming data and the like are temporarily stored. The storage unit 50 includes one or more storage units such as an HDD, a RAM, a ROM, and an IC memory.

赤外線通信部60は、赤外線通信機能を有する対向機器(例えば、他の携帯電話機MS)と赤外線通信を行うものであって、主制御部100によって動作設定がなされ、主制御部100から与えられる送信データを赤外線光で送信したり、対向機器から赤外線光で送信されるデータを受信し、これを受信データとして主制御部100に出力する。   The infrared communication unit 60 performs infrared communication with an opposite device (for example, another mobile phone MS) having an infrared communication function, and is set for operation by the main control unit 100 and transmitted from the main control unit 100. Data is transmitted by infrared light, or data transmitted by infrared light from the opposite device is received, and this is output to the main control unit 100 as received data.

GPS受信部70は、主制御部100の指示にしたがって、GPS(Global Positioning System)衛星ST1〜STnから送信されるGPS信号を受信し、受信した複数のGPS信号に基づく測位演算処理を実行し、当該携帯電話機の緯度、経度、高度からなる位置情報を検出する。   The GPS receiving unit 70 receives GPS signals transmitted from GPS (Global Positioning System) satellites ST1 to STn in accordance with instructions from the main control unit 100, and executes positioning calculation processing based on the received plurality of GPS signals. Detects position information including the latitude, longitude, and altitude of the mobile phone.

モーションセンサ部80は、例えば3軸の加速度センサなどを備え、主制御部100の指示にしたがって、当該携帯電話機の物理的な動きを検出する。これにより、当該携帯電話機が動く方向や早さが検出される。この検出結果は、主制御部100に出力される。
電源部90は、主制御部100の指示にしたがって、当該携帯電話機の各部に、バッテリ(図示しない)に蓄えられる電力を供給するものである。
The motion sensor unit 80 includes, for example, a triaxial acceleration sensor, and detects the physical movement of the mobile phone according to an instruction from the main control unit 100. Thereby, the moving direction and speed of the mobile phone are detected. This detection result is output to the main control unit 100.
The power supply unit 90 supplies power stored in a battery (not shown) to each unit of the mobile phone in accordance with an instruction from the main control unit 100.

主制御部100は、マイクロプロセッサを備え、記憶部50が記憶する制御プログラムや制御データにしたがって動作し、当該携帯電話機の各部を統括して制御するものであって、無線通信部10を通じて、音声通信やデータ通信を行うために、通信系の各部を制御する移動通信制御機能と、アプリケーション処理機能を備える。   The main control unit 100 includes a microprocessor, operates according to a control program and control data stored in the storage unit 50, and controls each part of the mobile phone in an integrated manner. In order to perform communication and data communication, a mobile communication control function for controlling each part of the communication system and an application processing function are provided.

アプリケーション処理機能は、記憶部50が記憶するアプリケーションソフトウェアにしたがって主制御部100が動作することにより実現するものであって、例えば、赤外線通信部60を制御して対向機器とデータ通信を行う赤外線通信機能や、電子メールの送受信を電子メール機能、Webページを閲覧するWebブラウジング機能などがある。   The application processing function is realized by the main control unit 100 operating in accordance with application software stored in the storage unit 50. For example, infrared communication that controls the infrared communication unit 60 to perform data communication with the opposite device. There are functions, e-mail functions for sending and receiving e-mails, and web browsing functions for browsing web pages.

また、主制御部100は、受信データやダウンロードしたストリーミングデータなどの画像データ(静止画像や動画像のデータ)に基づいて、映像を表示入力部20に表示したりする画像処理機能を備える。この画像処理機能は、主制御部100が、上記画像データを復号し、この復号結果に画像処理を施して、画像を表示入力部20に表示する。   The main control unit 100 also has an image processing function for displaying video on the display input unit 20 based on image data (still image data or moving image data) such as received data or downloaded streaming data. In this image processing function, the main control unit 100 decodes the image data, performs image processing on the decoding result, and displays an image on the display input unit 20.

そして、主制御部100は、表示パネル21a、22aに対する表示制御と、操作部40、第1タッチパネル21および第2タッチパネル22を通じたユーザ操作を検出し、この操作に応じた種々の制御動作を行う。   The main control unit 100 detects display control on the display panels 21a and 22a and user operations through the operation unit 40, the first touch panel 21, and the second touch panel 22, and performs various control operations according to the operations. .

主制御部100は、例えば、表示パネル21aの表示領域と表示パネル22aの表示領域をひと続きの表示領域として扱い、仮想的にデスクトップを表示し、このデスクトップ上に複数のアイコンを表示し、これらのアイコンに対する操作を、操作部40、第1タッチパネル21および第2タッチパネル22に対する単独の操作、あるいは組み合わせた操作により受け付ける。   For example, the main control unit 100 treats the display area of the display panel 21a and the display area of the display panel 22a as a continuous display area, virtually displays a desktop, and displays a plurality of icons on the desktop. The operation on the icon is accepted by a single operation on the operation unit 40, the first touch panel 21 and the second touch panel 22, or a combined operation.

また主制御部100は、第1タッチパネル21あるいは第2タッチパネル22に対するジェスチャ操作を検出し、検出したジェスチャ操作に応じて、予め設定された機能を実行する。ジェスチャ操作とは、従来の単純なタッチ操作ではなく、指などによって軌跡を描いたり、複数の位置を同時に指定したり、あるいはこれらを組み合わせて、複数の位置から少なくとも1つについて軌跡を描く操作を意味する。   In addition, the main control unit 100 detects a gesture operation on the first touch panel 21 or the second touch panel 22 and executes a preset function in accordance with the detected gesture operation. Gesture operation is not a conventional simple touch operation, but an operation that draws a trajectory with a finger or the like, designates a plurality of positions at the same time, or combines these to draw a trajectory for at least one of a plurality of positions. means.

次に、上記構成の携帯電話機の動作について説明する。以下の説明では、第1タッチパネル21(あるいは第2タッチパネル22)に表示させた描画オブジェクトを、第2タッチパネル22(あるいは第1タッチパネル21)に移動させて表示させる場合の動作について説明する。この動作は、図3に示す処理を主制御部100が実行することにより実現されるものであって、当該携帯電話機の電源が投入され、第1タッチパネル21および第2タッチパネル22を通じた入力を受け付ける状態になると、繰り返し実行される。なお、図3に示す処理の制御プログラムおよび制御データは、記憶部50に記憶される。   Next, the operation of the mobile phone configured as described above will be described. In the following description, an operation in a case where a drawing object displayed on the first touch panel 21 (or the second touch panel 22) is moved to the second touch panel 22 (or the first touch panel 21) and displayed will be described. This operation is realized by the main control unit 100 executing the process shown in FIG. 3, and the mobile phone is turned on and receives input through the first touch panel 21 and the second touch panel 22. When it reaches the state, it is executed repeatedly. The control program and control data for the process shown in FIG. 3 are stored in the storage unit 50.

まず、ステップ3aにおいて主制御部100は、操作パネル21bあるいは22bの検出結果に基づき、第1タッチパネル21あるいは第2タッチパネル22に対して、タッチ操作が行われているか否かを判定する。ここで、操作パネル21bあるいは22bから検出信号が与えられ、タッチ操作が行われていると判定した場合には、ステップ3bに移行し、一方、検出信号が与えられず、タッチ操作が行われていないと判定した場合には、ステップ3aに移行して、再び上記判定を行う。   First, in step 3a, the main control unit 100 determines whether a touch operation is being performed on the first touch panel 21 or the second touch panel 22 based on the detection result of the operation panel 21b or 22b. Here, when a detection signal is given from the operation panel 21b or 22b and it is determined that a touch operation is being performed, the process proceeds to step 3b, while no detection signal is given and the touch operation is being performed. If it is determined that there is not, the process proceeds to step 3a and the above determination is performed again.

ステップ3bにおいて主制御部100は、ステップ3aで与えられた検出信号に基づいて、タッチ操作された座標を検出し、ステップ3cに移行する。なお、ここで検出される座標には、第1タッチパネル21と第2タッチパネル22のうち、いずれが操作されたかを識別する情報も含まれる。   In step 3b, the main controller 100 detects the touch-operated coordinates based on the detection signal given in step 3a, and proceeds to step 3c. Note that the coordinates detected here include information for identifying which one of the first touch panel 21 and the second touch panel 22 is operated.

ステップ3cにおいて主制御部100は、ステップ3bで検出した座標に、描画オブジェクトが表示されているか否かを判定する。ここで、描画オブジェクトが上記座標に表示されていることを検出した場合には、ステップ3dに移行し、一方、検出できない場合には、ステップ3aに移行する。なお、この時点で、ステップ3aで検出したタッチ操作が終了している場合、すなわち、上記タッチ操作が継続していない場合には、ステップ3aに移行する。   In step 3c, the main control unit 100 determines whether or not a drawing object is displayed at the coordinates detected in step 3b. Here, if it is detected that the drawing object is displayed at the above-mentioned coordinates, the process proceeds to step 3d. On the other hand, if it cannot be detected, the process proceeds to step 3a. At this time, if the touch operation detected in step 3a has been completed, that is, if the touch operation has not been continued, the process proceeds to step 3a.

ステップ3dにおいて主制御部100は、操作部40(ハードウェアキー)が押下されたか否かを判定する。ここで、操作部40が押下された場合には、ステップ3eに移行し、一方、押下されていない場合には、ステップ3aに移行する。なお、この時点で、ステップ3aで検出したタッチ操作が終了している場合、すなわち、上記タッチ操作が継続していない場合には、ステップ3aに移行する。   In step 3d, the main control unit 100 determines whether or not the operation unit 40 (hardware key) has been pressed. Here, when the operation unit 40 is pressed, the process proceeds to step 3e. On the other hand, when the operation unit 40 is not pressed, the process proceeds to step 3a. At this time, if the touch operation detected in step 3a has been completed, that is, if the touch operation has not been continued, the process proceeds to step 3a.

ステップ3eにおいて主制御部100は、ステップ3bで検出した座標の描画オブジェクト、すなわちステップ3cで検出した描画オブジェクトを、表示位置を変更するターゲットとして設定し、ステップ3fに移行する。これにより、描画オブジェクト(ターゲット)は、ホールド状態となる。   In step 3e, the main control unit 100 sets the drawing object having the coordinates detected in step 3b, that is, the drawing object detected in step 3c, as a target for changing the display position, and proceeds to step 3f. As a result, the drawing object (target) is in the hold state.

ステップ3fにおいて主制御部100は、操作部40が押下された状態のまま、ステップ3aで検出したタッチ操作を解除しているか否かを判定する。ここで、操作部40が押下された状態のまま、ステップ3aで検出したタッチ操作が解除されたことを検出した場合には、ステップ3hに移行し、一方、それ以外の場合、すなわち、タッチ操作が解除されない場合や、上記タッチ操作が解除される前に、操作部40の押下が解除された場合には、ステップ3gに移行する。   In step 3f, the main control unit 100 determines whether or not the touch operation detected in step 3a is released while the operation unit 40 is being pressed. Here, when it is detected that the touch operation detected in Step 3a has been released while the operation unit 40 is being pressed, the process proceeds to Step 3h, while in other cases, that is, the touch operation. If is not released, or if the pressing of the operation unit 40 is released before the touch operation is released, the process proceeds to step 3g.

ステップ3gにおいて主制御部100は、操作部40の押下が解除されたか否かを判定する。ここで、操作部40の押下が解除された場合には、ステップ3lに移行し、一方、操作部40の押下が解除されていない場合には、ステップ3fに移行する。   In step 3g, the main control unit 100 determines whether or not the pressing of the operation unit 40 has been released. Here, when the pressing of the operation unit 40 is released, the process proceeds to step 3l. On the other hand, when the pressing of the operation unit 40 is not released, the process proceeds to step 3f.

ステップ3hにおいて主制御部100は、操作パネル21bあるいは22bの検出結果に基づき、第1タッチパネル21あるいは第2タッチパネル22に対して、タッチ操作が行われているか否かを判定する。ここで、操作パネル21bあるいは22bから検出信号が与えられ、タッチ操作が行われていると判定した場合には、ステップ3iに移行し、一方、検出信号が与えられず、タッチ操作が行われていないと判定した場合には、ステップ3kに移行する。   In step 3h, the main control unit 100 determines whether a touch operation is being performed on the first touch panel 21 or the second touch panel 22 based on the detection result of the operation panel 21b or 22b. Here, when a detection signal is given from the operation panel 21b or 22b and it is determined that a touch operation is being performed, the process proceeds to step 3i. On the other hand, no detection signal is given and the touch operation is being performed. If it is determined that there is not, the process proceeds to step 3k.

ステップ3iにおいて主制御部100は、ステップ3hで与えられた検出信号に基づいて、タッチ操作された座標を検出し、ステップ3jに移行する。なお、ここで検出される座標には、第1タッチパネル21と第2タッチパネル22のうち、いずれが操作されたかを識別する情報も含まれる。   In step 3i, the main control unit 100 detects the touched coordinates based on the detection signal given in step 3h, and proceeds to step 3j. Note that the coordinates detected here include information for identifying which one of the first touch panel 21 and the second touch panel 22 is operated.

ステップ3jにおいて主制御部100は、ターゲットに設定した描画オブジェクトを、現在の表示位置に代わって、ステップ3iで検出した座標に表示し、ステップ3kに移行する。これにより、例えばステップ3bで検出した座標が第1タッチパネル21上の座標であって、一方、ステップ3jで検出した座標が第2タッチパネル22上の座標である場合には、ターゲットである描画オブジェクトが、第1タッチパネル21から第2タッチパネル22に移動して表示されることになる。   In step 3j, the main control unit 100 displays the drawing object set as the target at the coordinates detected in step 3i instead of the current display position, and proceeds to step 3k. Thereby, for example, when the coordinates detected in step 3b are the coordinates on the first touch panel 21, and the coordinates detected in step 3j are the coordinates on the second touch panel 22, the drawing object as the target is The first touch panel 21 is moved to the second touch panel 22 and displayed.

ステップ3kにおいて主制御部100は、操作部40の押下が解除されたか否かを判定する。ここで、操作部40の押下が解除された場合には、ステップ3lに移行し、一方、操作部40の押下が解除されていない場合には、ステップ3hに移行する。
ステップ3lにおいて主制御部100は、ステップ3eで設定したターゲット設定を解除し、ステップ3aに移行する。
In step 3k, the main control unit 100 determines whether or not the pressing of the operation unit 40 is released. Here, when the pressing of the operation unit 40 is released, the process proceeds to step 3l. On the other hand, when the pressing of the operation unit 40 is not released, the process proceeds to step 3h.
In step 3l, the main control unit 100 cancels the target setting set in step 3e, and proceeds to step 3a.

以上のように、上記構成の携帯電話機では、タッチ操作とハードウェアキー(操作部40)とを合わせた操作により移動対象(ターゲット)となる描画オブジェクトを指定し、その後、タッチ操作により移動先の位置を指定することで、描画オブジェクトを移動先に表示するようにしている。   As described above, in the mobile phone configured as described above, a drawing object to be moved (target) is designated by an operation in which the touch operation and the hardware key (operation unit 40) are combined, and then the destination is moved by the touch operation. By specifying the position, the drawing object is displayed at the destination.

したがって、上記構成の携帯電話機によれば、簡単で直感的にわかりやすい操作で、描画オブジェクトを複数のタッチパネル間で目的の位置に正確に移動させて表示させることができる。   Therefore, according to the mobile phone configured as described above, a drawing object can be accurately moved to a target position and displayed between a plurality of touch panels with a simple and intuitive operation.

なお、この発明は上記実施形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また上記実施形態に開示されている複数の構成要素を適宜組み合わせることによって種々の発明を形成できる。また例えば、実施形態に示される全構成要素からいくつかの構成要素を削除した構成も考えられる。さらに、異なる実施形態に記載した構成要素を適宜組み合わせてもよい。   Note that the present invention is not limited to the above-described embodiment as it is, and can be embodied by modifying the constituent elements without departing from the scope of the invention in the implementation stage. In addition, various inventions can be formed by appropriately combining a plurality of constituent elements disclosed in the embodiment. Further, for example, a configuration in which some components are deleted from all the components shown in the embodiment is also conceivable. Furthermore, you may combine suitably the component described in different embodiment.

その一例として例えば、上記実施の形態では、移動対象となる描画オブジェクトをタッチ操作とハードウェアキー(操作部40)とを合わせた操作により、ターゲット設定するようにしたが、その他のアクションにより設定するようにしてもよい。   As an example, for example, in the above-described embodiment, the drawing object to be moved is set as a target by combining the touch operation and the hardware key (operation unit 40), but is set by other actions. You may do it.

例えば、操作パネル21bおよび22bとして多点入力を感知可能なマルチタッチ型のデバイスを用いて、操作パネル(21bまたは22b)上でユーザが移動対象としたい描画オブジェクトに対して2本の指などで「つまむ」操作を行ったことを、主制御部100が操作パネル21bまたは22bの検出信号から判断する。   For example, using a multi-touch type device capable of sensing multipoint input as the operation panels 21b and 22b, the user can use two fingers to draw a drawing object that the user wants to move on the operation panel (21b or 22b). The main control unit 100 determines from the detection signal of the operation panel 21b or 22b that the “pinch” operation has been performed.

具体的には、2つの検出点が移動する方向の間に存在する描画オブジェクトに対して、主制御部100がターゲット設定する。この他、移動対象としたい描画オブジェクトに対するタップ操作や、ダブルクリック操作、1秒以上の連続した接触操作などを上記検出信号から主制御部100が検出し、操作された描画オブジェクトをターゲット設定するようにしてもよい。   Specifically, the main control unit 100 sets a target for a drawing object that exists between the directions in which the two detection points move. In addition, the main control unit 100 detects a tap operation, a double-click operation, a continuous contact operation for 1 second or more from the detection signal, and sets the operated drawing object as a target. It may be.

また上記実施の形態では、ステップ3eで描画オブジェクトをターゲットとして設定した後も、ハードウェアキー(操作部40)を押し続けることで、ターゲット設定の解除を防止する、すなわちホールドするようにしたが、これに代わって例えば、いったんターゲット設定した後は、ハードウェアキー(操作部40)に対する操作を終了しても、ターゲット設定した状態を維持(ホールド)して移動先の座標入力を待機し、タッチ操作が行われると、その位置にターゲットを移動させて表示させるようにしてもよい。   In the above embodiment, the target setting is prevented from being released by holding down the hardware key (operation unit 40) after the drawing object is set as the target in step 3e. Instead of this, for example, once the target is set, even if the operation on the hardware key (operation unit 40) is finished, the target set state is maintained (held) and the coordinate input of the movement destination is waited and touched. When an operation is performed, the target may be moved to that position and displayed.

すなわち、ホールドは、ハードウェアキー(操作部40)を押し続けずに維持するようにしてもよい。なおこのようにターゲット設定をホールドする場合は、他の操作と区別するために、特殊な操作(上記「つまむ」操作、タップ操作や、ダブルクリック操作、1秒以上の連続した接触操作など)で設定するようにしてもよい。   That is, the hold may be maintained without pressing the hardware key (operation unit 40). When holding target settings in this way, special operations (such as the “pinch” operation, tap operation, double-click operation, and continuous contact operation of 1 second or more) are used to distinguish them from other operations. You may make it set.

そしてまた、第1タッチパネル21(あるいは第2タッチパネル22)に、第2タッチパネル22(あるいは第1タッチパネル21)に通ずる入口を意味するトンネル入口アイコン(またはワープ入口アイコン)を表示しておき、また第2タッチパネル22(あるいは第1タッチパネル21)には、上記トンネル入口アイコン(またはワープ入口アイコン)からの出口を意味するトンネル出口アイコン(またはワープ出口アイコン)を表示する。   In addition, a tunnel entrance icon (or a warp entrance icon) indicating an entrance leading to the second touch panel 22 (or the first touch panel 21) is displayed on the first touch panel 21 (or the second touch panel 22). On the two touch panel 22 (or the first touch panel 21), a tunnel exit icon (or warp exit icon) indicating an exit from the tunnel entrance icon (or warp entrance icon) is displayed.

そして、移動させたい描画オブジェクトをドラッグさせて上記トンネル入口アイコン(またはワープ入口アイコン)に重ねると、この操作を主制御部100が検出し、トンネル入口アイコン(またはワープ入口アイコン)に重ねられた描画オブジェクトを消去し、トンネル出口アイコン(またはワープ出口アイコン)上に表示する。このような処理によっても、描画オブジェクトを複数のタッチパネル間で目的の位置に正確に移動させて表示させることができる。なお、1つのタッチパネル(21あるいは22)上において、トンネル入口アイコン(またはワープ入口アイコン)とトンネル出口アイコン(またはワープ出口アイコン)を1つのアイコンで兼用するようにしてもよい。   When the drawing object to be moved is dragged and superimposed on the tunnel entrance icon (or warp entrance icon), the main control unit 100 detects this operation and draws the overlay on the tunnel entrance icon (or warp entrance icon). Erase the object and display it on the tunnel exit icon (or warp exit icon). Also by such processing, the drawing object can be accurately moved to a target position between a plurality of touch panels and displayed. Note that on one touch panel (21 or 22), the tunnel entrance icon (or warp entrance icon) and the tunnel exit icon (or warp exit icon) may be combined with one icon.

また上記実施の形態では、ステップ3aでタッチ操作がされたと判定してからステップ3dでハードウェアキーの押下を検出するものとして説明したが、これに加え、もしくはこれに代わって例えば、タッチ操作よりも先にハードウェアキー押下を検出してターゲットを設定しても良い。すなわち、ステップ3a〜3cとステップ3dの順序を入れ替えても良く、タッチ操作を検出していない状態でハードウェアキーの押下を検知し(ステップ3dに相当)、その後、描画オブジェクトが表示されている座標へのタッチ操作を検知したときに(ステップ3a〜3c)、その描画オブジェクトをターゲットとして設定しても良い。   In the above-described embodiment, it is described that the touch operation is determined in step 3a and then the pressing of the hardware key is detected in step 3d. However, in addition to or instead of this, for example, by touch operation Alternatively, the target may be set by detecting a hardware key press first. That is, the order of Steps 3a to 3c and Step 3d may be changed, and the pressing of the hardware key is detected in a state where no touch operation is detected (corresponding to Step 3d), and then the drawing object is displayed. When a touch operation on coordinates is detected (steps 3a to 3c), the drawing object may be set as a target.

さらに、第1タッチパネル21と第2タッチパネル22は、1つの装置上に設けられるものとして説明したが、異なる2つの装置上にそれぞれ1つずつ設けられたものであってもよい。この場合、2つの装置が相互に無線通信する無線通信部(赤外線通信やBluetooth(登録商標)などの近距離無線通信部)を備え、移動対象の描画オブジェクトが存在する装置Aにおいて、図3に示した処理を実施する。   Furthermore, although the first touch panel 21 and the second touch panel 22 have been described as being provided on one device, they may be provided on each of two different devices. In this case, in the device A that includes a wireless communication unit (a short-range wireless communication unit such as infrared communication or Bluetooth (registered trademark)) in which the two devices communicate with each other wirelessly and the drawing object to be moved exists, FIG. Perform the indicated process.

ただし、ステップ3hに至ると、装置Aは、移動先となる装置Bに対して、移動位置の指定を待機する旨を無線通信により通知し、この通知を受けた装置Bは、ステップ3hの検出に相当する処理として、タッチ操作による位置指定を検出し、この検出結果を上記装置Aに返信する。   However, when step 3h is reached, apparatus A notifies apparatus B as the movement destination that it is waiting for the designation of the movement position by wireless communication, and apparatus B that has received this notification detects step 3h. As a process corresponding to the above, position designation by a touch operation is detected, and the detection result is returned to the apparatus A.

そして装置Aでは、ステップ3iにおいて、描画オブジェクトのデータを上記無線通信部を通じて装置Bに送信し、これを装置Bは同装置が備える無線通信部により受信し、ステップ3hで検出した位置に、上記データに基づいて描画オブジェクトを表示する。このように、2つのタッチパネルが別々の装置に搭載される場合でも、両者の間で通信することにより、描画オブジェクトを伝送することができる。   In the device A, in step 3i, the data of the drawing object is transmitted to the device B through the wireless communication unit, and the device B receives the data by the wireless communication unit included in the device, and the position detected in the step 3h Displays drawing objects based on the data. As described above, even when two touch panels are mounted on different devices, a drawing object can be transmitted by communicating between the two touch panels.

また上記実施の形態では、タッチパネルを例に挙げて説明したが、接触が不要な近接センサなどでユーザ操作を検出するようにしてもよい。
そしてまた、ステップ3fでYesとなり、移動対象となる描画オブジェクトが確定した後は、主制御部100が、モーションセンサ部80の検出結果を利用し、姿勢の傾きにしたがって、描画オブジェクトが高い方から低い方に流れ落ちるように移動させて、水平になると移動を停止させてその位置に描画オブジェクトを留まらせて表示するようにしてもよい。すなわち、当該携帯電話機の姿勢で、移動先の位置を指定するようにしてもよい。
その他、この発明の要旨を逸脱しない範囲で種々の変形を施しても同様に実施可能であることはいうまでもない。
In the above embodiment, the touch panel has been described as an example, but a user operation may be detected by a proximity sensor that does not require contact.
Also, when the result of step 3f is Yes and the drawing object to be moved is confirmed, the main control unit 100 uses the detection result of the motion sensor unit 80, and the drawing object is higher in accordance with the inclination of the posture. It may be moved so that it flows downward, and when it becomes horizontal, the movement is stopped and the drawing object is kept at that position and displayed. That is, the position of the movement destination may be specified by the posture of the mobile phone.
In addition, it goes without saying that the present invention can be similarly implemented even if various modifications are made without departing from the gist of the present invention.

1…第1筐体、2…第2筐体、3…ヒンジ、10…無線通信部、20…表示入力部、21…タッチパネル、21b…操作パネル、21a…表示パネル、22…タッチパネル、22b…操作パネル、22a…表示パネル、30…通話部、31…スピーカ、32…マイクロホン、40…操作部、41…カメラ部、50…記憶部、60…赤外線通信部、70…GPS受信部、80…モーションセンサ部、90…電源部、100…主制御部、BS…基地局装置、MS…携帯電話機、NW…移動通信網、ST1〜STn…GPS衛星。   DESCRIPTION OF SYMBOLS 1 ... 1st housing | casing, 2 ... 2nd housing | casing, 3 ... Hinge, 10 ... Wireless communication part, 20 ... Display input part, 21 ... Touch panel, 21b ... Operation panel, 21a ... Display panel, 22 ... Touch panel, 22b ... Operation panel, 22a ... display panel, 30 ... communication unit, 31 ... speaker, 32 ... microphone, 40 ... operation unit, 41 ... camera unit, 50 ... storage unit, 60 ... infrared communication unit, 70 ... GPS receiver unit, 80 ... Motion sensor unit, 90 ... power supply unit, 100 ... main control unit, BS ... base station device, MS ... mobile phone, NW ... mobile communication network, ST1-STn ... GPS satellite.

Claims (3)

画像を表示する第1表示手段と、この第1表示手段に対して操作された位置を検出する第1入力手段とを備えた第1表示入力手段と、
画像を表示する第2表示手段と、この第2表示手段に対して操作された位置を検出する第2入力手段とを備えた第2表示入力手段と、
前記第1入力手段の検出結果に基づいて、前記第1表示手段に表示される描画オブジェクトをターゲットとして指定するターゲット指定手段と、
前記第2入力手段を通じて、前記第2表示手段の位置の指定を受け付ける位置受付手段と、
前記ターゲット指定手段がターゲットとして指定した描画オブジェクトを、前記位置受付手段が受け付けた前記第2表示手段の位置に表示する表示制御手段と
ユーザからオン操作を受け付ける第3入力手段と
を備え、
前記位置受付手段は、前記ターゲット受付手段が前記指示を受け付けた後、前記第3入力手段がオン操作された状態で、前記第2入力手段を通じて、前記第2表示手段の位置の指定を受け付ける
ことを特徴とする携帯端末装置。
A first display input means comprising a first display means for displaying an image and a first input means for detecting a position operated with respect to the first display means;
A second display input means comprising: a second display means for displaying an image; and a second input means for detecting a position operated with respect to the second display means;
Target designating means for designating a drawing object displayed on the first display means as a target based on a detection result of the first input means;
Position accepting means for accepting designation of the position of the second display means through the second input means;
Display control means for displaying the drawing object designated as the target by the target designation means at the position of the second display means accepted by the position acceptance means ;
A third input means for receiving an ON operation from the user;
With
The position accepting means accepts designation of the position of the second display means through the second input means in a state where the third input means is turned on after the target accepting means accepts the instruction < A portable terminal device characterized by the above.
画像を表示する第1表示手段と、この第1表示手段に対して操作された位置を検出する入力手段とを備えた第1表示入力手段と、
画像を表示する第2表示手段と、
姿勢を検出する姿勢検出手段と、
前記第1入力手段の検出結果に基づいて、前記第1表示手段に表示される描画オブジェクトを指定するターゲット指定手段と、
前記ターゲット指定手段がターゲットとして指定した描画オブジェクトを、前記姿勢検出手段の検出結果に応じた前記第2表示手段の位置に表示する表示制御手段と
ユーザからオン操作を受け付ける第3入力手段と
を備え、
前記位置受付手段は、前記ターゲット受付手段が前記指示を受け付けた後、前記第3入力手段がオン操作された状態で、前記第2入力手段を通じて、前記第2表示手段の位置の指定を受け付ける
ことを特徴とする携帯端末装置。
A first display input means comprising a first display means for displaying an image and an input means for detecting a position operated with respect to the first display means;
Second display means for displaying an image;
Attitude detection means for detecting the attitude;
Target designation means for designating a drawing object displayed on the first display means based on the detection result of the first input means;
Display control means for displaying a drawing object designated as a target by the target designation means at a position of the second display means according to a detection result of the posture detection means ;
A third input means for receiving an ON operation from the user;
With
The position accepting means accepts designation of the position of the second display means through the second input means in a state where the third input means is turned on after the target accepting means accepts the instruction < A portable terminal device characterized by the above.
前記ターゲット指定手段は、前記第1表示手段に表示される描画オブジェクトに対して指でつまむ操作を前記第1入力手段が検出した場合に、このつまむ操作の対象となる描画オブジェクトをターゲットとして指定することを特徴とする請求項1または請求項に記載の携帯端末装置。 When the first input unit detects an operation of pinching a drawing object displayed on the first display unit with the finger, the target designating unit specifies a drawing object as a target of the pinching operation. the portable terminal device according to claim 1 or claim 2, characterized in that.
JP2010088050A 2010-04-06 2010-04-06 Mobile terminal device Expired - Fee Related JP5510008B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010088050A JP5510008B2 (en) 2010-04-06 2010-04-06 Mobile terminal device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010088050A JP5510008B2 (en) 2010-04-06 2010-04-06 Mobile terminal device

Publications (2)

Publication Number Publication Date
JP2011221661A JP2011221661A (en) 2011-11-04
JP5510008B2 true JP5510008B2 (en) 2014-06-04

Family

ID=45038601

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010088050A Expired - Fee Related JP5510008B2 (en) 2010-04-06 2010-04-06 Mobile terminal device

Country Status (1)

Country Link
JP (1) JP5510008B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2851772B1 (en) 2012-05-14 2019-02-27 NEC Corporation Display device, display control method and non-temporary computer-readable medium
JP2017116893A (en) * 2015-12-26 2017-06-29 株式会社村田製作所 Stereo image display device

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5694150A (en) * 1995-09-21 1997-12-02 Elo Touchsystems, Inc. Multiuser/multi pointing device graphical user interface system
JP3847058B2 (en) * 1999-10-04 2006-11-15 任天堂株式会社 GAME SYSTEM AND GAME INFORMATION STORAGE MEDIUM USED FOR THE SAME
JP2002049453A (en) * 2000-08-04 2002-02-15 Ricoh Co Ltd Picture display system
JP4163456B2 (en) * 2002-06-26 2008-10-08 株式会社竹中工務店 Seamless pointing system
KR100640808B1 (en) * 2005-08-12 2006-11-02 엘지전자 주식회사 Mobile communication terminal with dual-display of photograph and its method

Also Published As

Publication number Publication date
JP2011221661A (en) 2011-11-04

Similar Documents

Publication Publication Date Title
JP5370259B2 (en) Portable electronic devices
US10209877B2 (en) Touch screen device, method, and graphical user interface for moving on-screen objects without using a cursor
US10222968B2 (en) Image display control apparatus, image display apparatus, non-transitory computer readable medium, and image display control method
TWI629636B (en) Method for controlling an electronic device, electronic device and non-transitory computer-readable storage medium
JP5925655B2 (en) Image display control device, image display device, program, and image display method
US11650733B2 (en) Device, method, and graphical user interface for controlling multiple devices in an accessibility mode
US9438713B2 (en) Method and apparatus for operating electronic device with cover
KR20160087268A (en) Mobile terminal and control method for the same
JP5925656B2 (en) Image display control device, image display device, program, and image display method
CN111104029B (en) Shortcut identifier generation method, electronic device and medium
US20200089362A1 (en) Device and control method capable of touch sensing and touch pressure sensing
US11354031B2 (en) Electronic apparatus, computer-readable non-transitory recording medium, and display control method for controlling a scroll speed of a display screen
KR20160097913A (en) Watch type terminal
JP5510008B2 (en) Mobile terminal device
WO2013008330A1 (en) Interactive-screen data transmission/reception system and interactive-screen data transmission/reception program
JP2011166630A (en) Portable electronic device
US20200033959A1 (en) Electronic apparatus, computer-readable non-transitory recording medium, and display control method
JP2014149653A (en) User operation control program, mobile device, and user operation control method
JP6153990B2 (en) Image display control program, image display control device, and image display control method
KR20150068668A (en) Mobile terminal and controlling method thereof

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20121227

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130703

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130709

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130904

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140225

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140310

R150 Certificate of patent or registration of utility model

Ref document number: 5510008

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees