JP2008234277A - Character input system, character input device, character input method and program - Google Patents

Character input system, character input device, character input method and program Download PDF

Info

Publication number
JP2008234277A
JP2008234277A JP2007072450A JP2007072450A JP2008234277A JP 2008234277 A JP2008234277 A JP 2008234277A JP 2007072450 A JP2007072450 A JP 2007072450A JP 2007072450 A JP2007072450 A JP 2007072450A JP 2008234277 A JP2008234277 A JP 2008234277A
Authority
JP
Japan
Prior art keywords
character
light
input
recognition
recognizing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2007072450A
Other languages
Japanese (ja)
Other versions
JP4932554B2 (en
Inventor
Kazuaki Iizuka
和明 飯塚
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Platforms Ltd
Original Assignee
NEC AccessTechnica Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC AccessTechnica Ltd filed Critical NEC AccessTechnica Ltd
Priority to JP2007072450A priority Critical patent/JP4932554B2/en
Publication of JP2008234277A publication Critical patent/JP2008234277A/en
Application granted granted Critical
Publication of JP4932554B2 publication Critical patent/JP4932554B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Character Discrimination (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a technique for facilitating input of a character in a miniaturized information processing terminal. <P>SOLUTION: This system is adapted to recognize a character based on the trace of a reflected light obtained by reflecting a light emitted by a light emitting means by a reflection means, and process the recognized character as an input character. The recognition of the character is performed by dividing the trace of the reflected light while the reflection means is continuously located in a recognition area is divided as one stroke of the character. <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

本発明は、情報処理端末に文字を入力する技術に関し、特に空間上に描かれた文字を認識して入力する技術に関する。   The present invention relates to a technique for inputting characters to an information processing terminal, and more particularly to a technique for recognizing and inputting characters drawn in space.

携帯電話機、PHS(Personal Handy phone System)、PDA(Personal Data Assistance,Personal Digital Assistants:個人向け携帯型情報通信機器)等の携帯端末装置の多くは、電子メールの送受信を行うことができる。   Many portable terminal devices such as mobile phones, PHS (Personal Handy phone System), PDA (Personal Data Assistance, Personal Digital Assistants) can send and receive e-mails.

近年の携帯端末装置は携帯に便利なように小型にしたものが多く、電子メールで送信する内容を入力して送信するに当たっては、入力するための操作部が小さいために、通常のデスクトップ型のコンピュータに使用されるキーボードから入力する場合と比べると、かなりの困難性を伴う場合が多い。ましてや身体障害者等の手指が不自由な人はなおさらである。   In recent years, many portable terminal devices have been reduced in size so that they are convenient to carry. When inputting and transmitting the content to be transmitted by e-mail, the operation unit for inputting is small, so that the normal desktop type is used. Compared to the case of inputting from a keyboard used in a computer, it is often accompanied by considerable difficulty. This is especially true for people with disabilities such as the physically handicapped.

また、タッチペンを用いてタッチパネルに文字を描いて入力する技術は、比較的容易に操作可能だがタッチパネル自体のサイズを確保する必要があるため装置の小型化には不向きである。   Further, the technique of drawing and inputting characters on the touch panel using a touch pen can be operated relatively easily, but is not suitable for downsizing the apparatus because it is necessary to secure the size of the touch panel itself.

上記問題点を解決する方法として、赤外光を発光するペンを使用して文字を空間上に描き、描かれた文字をカメラで撮影し文字情報として認識する方法が従来からある(例えば特許文献1)。   As a method for solving the above problems, there is a conventional method of drawing a character on a space using a pen that emits infrared light, photographing the drawn character with a camera, and recognizing it as character information (for example, Patent Documents). 1).

一方、発光しないペンを使用して文字を空間上に描き、描かれた文字をカメラで撮影して描かれた文字を入力する技術が公開されている(例えば特許文献2)。
特開2001−005600号公報 特開2002−196873号公報
On the other hand, a technique for drawing a character in a space using a non-light emitting pen, photographing the drawn character with a camera, and inputting the drawn character is disclosed (for example, Patent Document 2).
JP 2001-005600 A JP 2002-196873 A

上記特許文献1に記載の技術によると、赤外光を発光する為にペン側にも電源部と赤外発光素子およびそれらを接続する回路とが必要となり、端末全体のコストアップになる。また赤外光の発光、非発光をペンに備わるスイッチを操作して行う為、ユーザの操作によっては入力する文字が一筆書きのように繋がったものになり、画数の多い文字は文字がつぶれてしまい認識できなかったり、また繋がった部分により誤って認識されてしまったりと、様々な問題点があった。   According to the technique described in Patent Document 1, a power source unit, an infrared light emitting element, and a circuit for connecting them are also required on the pen side to emit infrared light, which increases the cost of the entire terminal. In addition, since the infrared light emission and non-light emission are performed by operating the switch provided on the pen, depending on the user's operation, the characters to be input are connected like a single stroke, and characters with a large number of strokes are crushed. There were various problems, such as being unable to recognize or being mistakenly recognized by the connected part.

また、特許文献2に記載の技術では入力する文字が一筆書きのように繋がったものになるため、個人認証装置としては活用できるが、一筆書きのように繋がった文字を認識してその文字を入力に使用することができない。また、画数の多い文字は文字がつぶれてしまって文字認識できなかったり、繋がった部分により誤って認識されてしまったりと、様々な問題点があげられる。   Moreover, since the technique described in Patent Document 2 connects the characters to be input as if they were one-stroke writing, it can be used as a personal authentication device. Cannot be used for input. In addition, there are various problems such as characters that have a large number of strokes are crushed and cannot be recognized, or are erroneously recognized by connected portions.

そこで、本発明は上記問題点を解決するためになされたものであって、本発明が解決しようとする課題は、情報処理端末装置への文字の入力操作をより簡単にして使用者の負担を軽減し、情報処理端末装置の小型化により携帯性を向上させる技術を提供することにある。   Accordingly, the present invention has been made to solve the above problems, and the problem to be solved by the present invention is to make it easier to input characters to the information processing terminal device and to reduce the burden on the user. The object is to provide a technique for reducing the portability by reducing the size of the information processing terminal device.

また、本発明が解決しようとする課題は、空間上に描かれた文字の認識確度を向上させる技術を提供することにある。   Another object of the present invention is to provide a technique for improving the recognition accuracy of characters drawn in space.

上記課題を解決するための本発明は、文字入力システムであって、光を放射する発光手段と、前記放射された光を反射させる反射手段と、前記反射手段による反射光の軌跡に基づいて文字を認識する認識手段と、前記認識した文字を入力文字として処理する入力処理手段とを有し、前記認識手段は、前記反射手段が認識エリア内に連続して位置している間の反射光の軌跡を文字の一画として区切って、文字を認識していくことを特徴とする。   The present invention for solving the above-mentioned problems is a character input system, which is a character input system based on a light emitting means for emitting light, a reflecting means for reflecting the emitted light, and a locus of light reflected by the reflecting means. Recognizing means for recognizing the character and input processing means for processing the recognized character as an input character, the recognizing means for reflecting light while the reflecting means is continuously located in the recognition area. Characterized by recognizing characters by dividing the locus as a stroke of characters.

上記課題を解決するための本発明は、文字入力装置であって、光を放射する発光手段と、前記光の反射光の軌跡に基づいて文字を認識する認識手段と、前記認識した文字を入力文字として処理する入力処理手段とを有し、前記認識手段は、前記光を反射させる反射体が認識エリア内に連続して位置している間の反射光の軌跡を文字の一画として区切って、文字を認識していくことを特徴とする。   The present invention for solving the above problems is a character input device, which is a light emitting means for emitting light, a recognition means for recognizing a character based on a locus of reflected light of the light, and inputting the recognized character. Input processing means for processing as characters, and the recognition means divides the locus of reflected light as a character stroke while the reflector that reflects the light is continuously located in the recognition area. It is characterized by recognizing characters.

上記課題を解決するための本発明は、文字入力方法であって、光を放射させる発光ステップと、前記光の反射光が認識エリア内に連続して位置している間の反射光の軌跡を文字の1画として認識し、認識した少なくとも1以上の画数に基づいて文字を認識する認識ステップと、前記認識した文字を入力文字として処理する入力処理ステップとを有することを特徴とする。   The present invention for solving the above problems is a character input method, wherein a light emission step for emitting light and a locus of reflected light while the reflected light of the light is continuously located in a recognition area are provided. It has a recognition step of recognizing a character as one stroke and recognizing the character based on at least one or more recognized strokes, and an input processing step of processing the recognized character as an input character.

上記課題を解決するための本発明は、文字入力装置のプログラムであって、前記プログラムは前記文字入力装置に、光を放射させる発光ステップと、前記光の反射光が認識エリア内に連続して位置している間の反射光の軌跡を文字の1画として認識し、認識した少なくとも1以上の画数に基づいて文字を認識する認識ステップと、前記認識した文字を入力文字として処理する入力処理ステップとを処理させることを特徴とする。   The present invention for solving the above-described problem is a program for a character input device, wherein the program continuously emits light to the character input device, and the reflected light of the light continuously enters a recognition area. A recognition step of recognizing a locus of reflected light while being positioned as one stroke of a character, recognizing a character based on at least one stroke number recognized, and an input processing step of processing the recognized character as an input character And processing.

本発明は、光を出力可能な光発光部と、光発光部の発光/非発光を制御する光発光制御部と、ペンのように保持が可能で先端に光反射部及び光反射部の位置を認識する為の認識マークを有する光反射手段と、CCDまたはCMOS等のセンサ素子を使用して撮像し、この撮像した画像を画像データとして出力するカメラ画像入力手段と、画像データの複数フレームを合成する画像合成手段と、前記カメラ画像入力手段から入力される画像データの中から前記光反射手段の先端に設けられた認識マークを認識すると前記光発光制御部により光を発光させ、画像合成手段で合成された合成データとあらかじめ登録されている文字認識パターンとを比較し最も近似した結果を出力する画像認識手段と、画像合成手段で合成された合成データと画像認識手段から出力した結果から表示データを出力する表示制御手段と、表示制御手段から出力した表示データを表示可能な表示手段と、操作者が表示手段で表示した画像がカメラから入力したデータと同じと判断した場合に入力データとして確定する入力処理手段と文字認識パターンを格納するメモリからなるデータベースを具備する。   The present invention includes a light emitting unit capable of outputting light, a light emission control unit for controlling light emission / non-light emission of the light emission unit, and a position of the light reflection unit and the light reflection unit at the tip which can be held like a pen. A light reflecting means having a recognition mark for recognizing the image, a camera image input means for imaging using a sensor element such as CCD or CMOS, and outputting the captured image as image data, and a plurality of frames of image data. When the recognition mark provided at the tip of the light reflecting means is recognized from the image data inputted from the camera image input means and the image composition means to synthesize, the light emission controller emits light, and the image composition means The image recognition means for comparing the synthesized data synthesized in step 1 and the character recognition pattern registered in advance and outputting the most approximate result, the synthesized data synthesized by the image synthesis means and the image recognition means The display control means for outputting display data from the output result, the display means capable of displaying the display data output from the display control means, and the image displayed by the operator on the display means determined to be the same as the data input from the camera In this case, an input processing means for confirming as input data and a database including a memory for storing a character recognition pattern are provided.

本発明によると、従来の小型化された端末に見られる煩わしいボタン操作による文字入力をタッチペン感覚で入力することが可能となる。   According to the present invention, it is possible to input a character input by a troublesome button operation found in a conventional miniaturized terminal as if it were a touch pen.

また、本発明によると、上述したようにタッチパネルが不要となる為、端末のサイズの小型化が可能となり、携帯性を向上させることができる。   In addition, according to the present invention, as described above, a touch panel is not required, so that the size of the terminal can be reduced, and portability can be improved.

また、本発明によると、文字入力手段としてペン内部に赤外光発光デバイスのように光を発光するデバイス等を設ける必要がなく、ペン側に電源を設ける必要もなくなるという効果がある。   Further, according to the present invention, there is no need to provide a device for emitting light such as an infrared light emitting device inside the pen as a character input means, and there is an effect that it is not necessary to provide a power source on the pen side.

空間上に入力したい文字を描く構成の場合には、文字の1画毎の切れ目を区別することができないが、光の発光、非発光を制御することで1画毎の区別が可能となり文字のパターンマッチングが容易となる。   In the case of a configuration in which a character to be input is drawn on the space, it is not possible to distinguish the cuts for each stroke of the character, but it is possible to distinguish each stroke by controlling the light emission and non-light emission. Pattern matching is easy.

本発明の文字入力システムは、図8に示すように、空間上に描かれた文字を携帯端末が取り込み、さらに認識して文字を入力するシステムであり、携帯端末から光を放射させ、この光を反射する反射体が認識エリア内に連続して位置している間の反射光の軌跡を文字の1画として区切って文字を認識していき、この認識した文字を入力文字として処理するものである。尚、本発明での文字の認識は、文字を推定することも含む。   As shown in FIG. 8, the character input system of the present invention is a system in which a mobile terminal captures characters drawn in space, further recognizes and inputs characters, and emits light from the mobile terminal. The character is recognized by separating the reflected light trajectory as a stroke of the character while the reflector that reflects the light is continuously located in the recognition area, and the recognized character is processed as an input character. is there. In addition, the recognition of the character by this invention includes estimating a character.

本発明の特徴を説明するために、以下において、図面を参照して具体的に述べる。   In order to explain the features of the present invention, it will be specifically described below with reference to the drawings.

本発明を実施するための第1の実施の形態について図面を参照して詳細に説明する。   A first embodiment for carrying out the present invention will be described in detail with reference to the drawings.

図1は本発明に係わる文字入力システムの構成の要部を表したものである。   FIG. 1 shows a main part of the configuration of a character input system according to the present invention.

本実施の形態の文字入力システムは、携帯端末装置と、赤外光反射ペンとを有する。尚、本明細書では携帯端末装置を用いて説明するが、空間上に描かれた文字を認識して入力する装置であれば、携帯端末装置以外の装置であっても良い。また、携帯端末装置と赤外光反射ペンとは、一体であっても一体でなくても良いが、赤外光反射ペンが携帯端末装置に格納できる構成の方が実用性の点から考えると好ましい。   The character input system according to the present embodiment includes a mobile terminal device and an infrared light reflecting pen. In the present specification, a description is given using a mobile terminal device, but a device other than the mobile terminal device may be used as long as it recognizes and inputs characters drawn in space. In addition, the portable terminal device and the infrared light reflecting pen may or may not be integrated, but the configuration in which the infrared light reflecting pen can be stored in the portable terminal device is considered in terms of practicality. preferable.

赤外光反射ペンは、文字を入力する際に用いられるものであり、図10の(a)に示すように、赤外光反射部3と認識マーク4とを有する。尚、本明細書ではペンとして説明するが、例えば図10の(b)に示されているように、必ずしもペンの形状を取っていなくても良い。   The infrared light reflecting pen is used when inputting characters, and has an infrared light reflecting portion 3 and a recognition mark 4 as shown in FIG. In the present specification, a pen is described. However, as shown in FIG. 10B, for example, the shape of the pen is not necessarily required.

赤外光反射部3は、赤外光を反射させるものである。   The infrared light reflection unit 3 reflects infrared light.

認識マーク4は、赤外光反射部3の近辺に設けられており、多重円で構成されている。尚、本明細書では、認識マーク4は多重円を用いて説明するが、携帯端末のカメラが認識できるものであれば他のものでも良く、赤外光反射部3そのものであっても良い。   The recognition mark 4 is provided in the vicinity of the infrared light reflector 3 and is formed of multiple circles. In this specification, the recognition mark 4 is described using a multiple circle. However, other recognition marks 4 may be used as long as they can be recognized by the camera of the portable terminal, or the infrared light reflection unit 3 itself.

携帯端末装置は、赤外光発光部1と、赤外光発光制御部2と、カメラ5と、画像合成部6と、画像認識処理部7と、文字認識パターン8と、データベース9と、表示制御部10と、入力処理部11と、表示部12とを有する。   The portable terminal device includes an infrared light emission unit 1, an infrared light emission control unit 2, a camera 5, an image composition unit 6, an image recognition processing unit 7, a character recognition pattern 8, a database 9, and a display. A control unit 10, an input processing unit 11, and a display unit 12 are included.

赤外光発光部1は、赤外光を発光する。尚、本明細書では赤外光を発光する構成を用いて説明するがこれに限らず、光を発光する構成であれば良い。   The infrared light emitting unit 1 emits infrared light. In this specification, description is made using a configuration that emits infrared light, but the configuration is not limited thereto, and any configuration that emits light may be used.

赤外光発光制御部2は、赤外光発光部1の発光/非発光を制御する。赤外光発光制御部2は、認識マーク4がカメラ5の固定焦点エリア内に位置すると赤外発光部1を発光させ、逆に、認識マーク4が固定焦点エリア外に位置すると赤外発光部1を非発光させる。   The infrared light emission control unit 2 controls light emission / non-light emission of the infrared light emission unit 1. The infrared light emission control unit 2 causes the infrared light emitting unit 1 to emit light when the recognition mark 4 is located within the fixed focal area of the camera 5, and conversely, when the recognition mark 4 is located outside the fixed focal area. 1 is made to emit no light.

カメラ5は、CCDイメージセンサ(Charge Coupled Device Image Sensor)叉はCMOS(Complementary Metal Oxide Semiconductor)センサ等により被写体を撮像し、撮像信号をディジタル信号に変換して出力する。   The camera 5 captures an image of a subject using a CCD image sensor (Charge Coupled Device Image Sensor) or a CMOS (Complementary Metal Oxide Semiconductor) sensor, and converts the image signal into a digital signal for output.

画像合成部6は、カメラ5から出力されるディジタル信号(画像データ)を一定期間、フレーム単位で記憶する。画像合成部6はタイマーを有し、タイムアウトするまでの間であり、赤外光発光部1が発光している間にカメラ5から出力される画像データを蓄積し、合成する。また、画像合成部6は、タイムアウトするまでの間であり、赤外光発光部1が発光していない間にカメラ5から出力される画像データを出力する。   The image composition unit 6 stores the digital signal (image data) output from the camera 5 in units of frames for a certain period. The image synthesizing unit 6 has a timer until the timeout occurs, and accumulates and synthesizes image data output from the camera 5 while the infrared light emitting unit 1 emits light. The image composition unit 6 outputs image data output from the camera 5 until the time-out occurs and the infrared light emitting unit 1 does not emit light.

データベース9は、メモリであり、文字認識パターンが格納されている。   The database 9 is a memory and stores character recognition patterns.

画像認識処理部7は、画像合成部6で合成された合成データと、あらかじめデータベース9に格納されている文字認識パターン8とを比較し、最も近似している文字を候補データとして出力する。また、赤外光発光部1が発光していない間に画像合成部6から出力される画像データとあらかじめデータベース9に格納されている文字認識パターン8とを比較し、最も近似している文字が認識マークであると認識すると、すなわち、画像データの中から認識マークを検出すると、赤外光発光制御部2に検出したことを通知する。さらに、画像データの中から認識マークがなくなると、認識マークを検出していないことを通知する。尚、画像認識処理部7は、文字のみならず、図形等の情報を認識しても良い。   The image recognition processing unit 7 compares the synthesized data synthesized by the image synthesizing unit 6 with the character recognition pattern 8 stored in the database 9 in advance, and outputs the closest character as candidate data. Further, the image data output from the image composition unit 6 while the infrared light emitting unit 1 is not emitting light is compared with the character recognition pattern 8 stored in the database 9 in advance, and the closest character is found. When the recognition mark is recognized, that is, when the recognition mark is detected from the image data, the infrared light emission control unit 2 is notified of the detection. Further, when there is no recognition mark in the image data, it is notified that the recognition mark has not been detected. The image recognition processing unit 7 may recognize not only characters but also information such as graphics.

表示制御部10は、画像合成部6で合成された合成データと画像認識処理部7から出力された文字候補データとを表示データとして出力させる。   The display control unit 10 causes the combined data combined by the image combining unit 6 and the character candidate data output from the image recognition processing unit 7 to be output as display data.

表示部12は、例えばLCD(liquid crystal monitor)等の表示装置であり、画面表示制御部10から出力された表示データを表示する。表示部12には、撮像画像表示領域と、文字表示領域とを設けてある。撮像画像表示領域はカメラ5が現在撮像している画像が表示される。一方、文字表示領域には認識した文字の候補が表示される。   The display unit 12 is a display device such as an LCD (liquid crystal monitor), and displays display data output from the screen display control unit 10. The display unit 12 is provided with a captured image display area and a character display area. In the captured image display area, an image currently captured by the camera 5 is displayed. On the other hand, recognized character candidates are displayed in the character display area.

入力処理部11は、表示部12が表示している文字をカメラから入力した文字データと一致しているかの操作者の判断結果を、あらかじめ決められた制御用コードを文字と同様に入力することで確定し、入力文字として処理する。   The input processing unit 11 inputs the result of the operator's determination as to whether the character displayed on the display unit 12 matches the character data input from the camera, as in the case of the character. Confirm with and process as input characters.

上記の構成は機能に注目して説明したものであり、これらの機能はCPUおよびメモリからなるハードウェア上でソフトウェアプログラムを実行することで実現される。   The above configuration has been described by paying attention to functions, and these functions are realized by executing a software program on hardware including a CPU and a memory.

続いて、動作の説明をする。   Subsequently, the operation will be described.

図2は、本実施の形態で使用されている赤外光発光制御の流れを表わしたものである。   FIG. 2 shows the flow of infrared light emission control used in the present embodiment.

操作者は、文字入力の開始準備として赤外光反射ペンをカメラの固定焦点エリアに保持する(ステップS0)。   The operator holds the infrared light reflecting pen in the fixed focus area of the camera as preparation for starting character input (step S0).

カメラ5は赤外光反射ペンの先端部の認識マーク4に合わせてフォーカスするように制御する(ステップS1)。   The camera 5 is controlled to focus on the recognition mark 4 at the tip of the infrared light reflecting pen (step S1).

フォーカスロックすると画像認識処理部7はカメラ5から赤外光反射ペンの先端部の認識マーク4の撮像データを取り込み認識マークの検出を開始する(ステップS2、S3)。   When the focus is locked, the image recognition processing unit 7 takes in the imaging data of the recognition mark 4 at the tip of the infrared light reflecting pen from the camera 5 and starts detecting the recognition mark (steps S2 and S3).

画像認識処理部7の認識マーク検出完了で赤外光発光制御部2は赤外光発光部1を発光制御する(ステップS4)。   When the recognition mark detection of the image recognition processing unit 7 is completed, the infrared light emission control unit 2 controls the infrared light emission unit 1 to emit light (step S4).

操作者はカメラ5の固定焦点エリアを文字入力面に見立てて赤外光反射ペンを空間上で固定焦点エリアに挿入するようにしながら入力する文字を描く。図9を参照すると、カメラ5の固定焦点エリアと赤外光の照射イメージを示している。このとき画像認識処理部7は連続的に認識マークの検出動作し、(ステップS5)固定焦点エリアから認識マークが外れると赤外光発光制御部2は赤外光の発光を停止する。   The operator draws a character to be input while inserting the infrared light reflection pen into the fixed focus area in the space with the fixed focus area of the camera 5 as a character input surface. Referring to FIG. 9, a fixed focal area of the camera 5 and an irradiation image of infrared light are shown. At this time, the image recognition processing unit 7 continuously detects the recognition mark. (Step S5) When the recognition mark is removed from the fixed focus area, the infrared light emission control unit 2 stops emitting the infrared light.

次に図3を用いて文字入力の流れを説明する。   Next, the flow of character input will be described with reference to FIG.

まず操作者は、赤外光反射ペンをカメラの撮像エリアで保持する(ステップS10)。   First, the operator holds the infrared light reflecting pen in the imaging area of the camera (step S10).

赤外光反射ペンの認識マーク4が固定焦点エリアに挿入されると赤外光の発光が開始される。赤外光は赤外光反射部3によって反射してカメラ5に入力される。操作者は表示部12に、図8に示すような1文字目の1画の書き始めの照準点(照準マーク)が撮像画像表示領域に表示されることで文字入力が有効になっていることを判断し、続けて空間上に文字を描いていく(ステップS11)。尚、赤外光反射ペンの軌跡は、表示部12の撮像画像表示領域に表示されてもされなくても良いが、以下の説明では表示される場合を用いて説明する。   When the recognition mark 4 of the infrared light reflecting pen is inserted into the fixed focus area, emission of infrared light is started. The infrared light is reflected by the infrared light reflector 3 and input to the camera 5. The operator must input characters by displaying the first aiming point (sighting mark) of the first stroke of the first character as shown in FIG. 8 in the captured image display area as shown in FIG. Then, characters are drawn in the space (step S11). Note that the locus of the infrared light reflecting pen may or may not be displayed in the captured image display area of the display unit 12, but will be described using the case where it is displayed in the following description.

この時、赤外光反射ペンが固定焦点エリアから外れると赤外光が非発光となる為、表示部12には照準点が表示されなくなり、これが1画毎の区切りとなる(ステップS12)。赤外光反射ペンが再び固定焦点エリアに挿入され認識マークが検出された場合は、赤外光反射ペンが固定焦点エリアに入っていると認識され、赤外光発光制御部2は赤外光発光を開始し、画像認識処理部7はカメラ画像データを文字認識用画像として取り込む。   At this time, since the infrared light is not emitted when the infrared light reflecting pen moves out of the fixed focal area, the aiming point is not displayed on the display unit 12, and this is a break for each image (step S12). When the infrared light reflecting pen is inserted again into the fixed focus area and the recognition mark is detected, it is recognized that the infrared light reflecting pen is in the fixed focus area, and the infrared light emission control unit 2 detects the infrared light. Light emission is started, and the image recognition processing unit 7 captures camera image data as a character recognition image.

操作者は1文字分描き終わった場合、空間に描いた文字が正しく認識されたか表示部12の文字表示領域を確認する(ステップS13)。   When the operator finishes drawing one character, the operator confirms the character display area of the display unit 12 whether the character drawn in the space has been correctly recognized (step S13).

認識結果が間違っていた場合は、キャンセルの為に、あらかじめ決められたキャンセル用のコードを文字と同様に赤外光反射ペンで入力する。キャンセル用のコードの例としては、「×」や「△」などの図形を割り当ててデータベース9に記憶させておくなどが考えられる(ステップS14)。   If the recognition result is wrong, a cancellation code determined in advance is input with an infrared light reflecting pen in the same manner as the characters for cancellation. As an example of the cancellation code, it is conceivable to assign a graphic such as “×” or “Δ” and store it in the database 9 (step S14).

認識結果が正しい場合は、確定する為に、あらかじめ決められた確定用のコードを文字と同様に赤外光反射ペンで入力する。確定用のコードの例としては、キャンセルと同様に「○」や「レ」などの図形を予め確定用として割り当ててデータベース9に記憶させておくなどが考えられる(ステップS15)。   When the recognition result is correct, in order to confirm, a predetermined confirmation code is input with an infrared light reflecting pen in the same manner as a character. As an example of the code for confirmation, it is conceivable that graphics such as “◯” and “Re” are assigned in advance for confirmation and stored in the database 9 as in the case of cancellation (step S15).

これらの動作を繰り返しながら所望の文字を入力していく(ステップS16)。   A desired character is input while repeating these operations (step S16).

続いて、携帯端末側の動作について説明する。   Next, the operation on the mobile terminal side will be described.

図4及び図5は携帯端末側の文字入力動作を表したものである。   4 and 5 show the character input operation on the portable terminal side.

携帯端末側は文字入力が選択されると、カメラ5を起動する(ステップR1)。   When character input is selected, the mobile terminal side activates the camera 5 (step R1).

1文字入力最大期間を決める為のタイマーを起動する(ステップR2)。尚、タイムアウトの時間は、予め任意の時間が設定されているものとする。   A timer for determining the maximum period for inputting one character is started (step R2). Note that an arbitrary time is set in advance as the time-out time.

カメラ5が撮像した画像データを画像合成部6へ転送する(ステップR3)。   The image data captured by the camera 5 is transferred to the image composition unit 6 (step R3).

画像合成部6では撮像データを1フレーム毎に格納する(ステップR4)。   The image composition unit 6 stores the captured data for each frame (step R4).

ステップR2で起動したタイマーがタイムアップするまで、1フレームごとに格納した撮像データの画像合成を継続する(ステップR5)。カメラ5による撮像データのうち赤外光反射部3の高コントラスト部分の軌跡を認識して、合成データとしてメモリへ格納し続ける。ここで、画像合成部6は、例えばアルファベットの“A”を入力する例として1文字を入力する間に、図6に示すように、6フレーム取り込めるものとする。1フレーム内で文字が線状となるのは赤外光の反射光が残像となる為である。6フレームの画像データを記憶し合成すると赤外光反射部3のコントラストの高い部分が文字となって現れる。合成データは逐次表示制御部10に送られ、表示部12の撮像画像表示領域に表示される。操作者はこの表示を確認することで文字の入力状況を確認できる。このようにして生成した合成データを文字認識パターンと比較し近似した文字データを候補データとして表示制御部10へ転送する(ステップR6)。   Until the timer started in step R2 expires, image synthesis of the captured data stored for each frame is continued (step R5). The locus of the high-contrast portion of the infrared light reflection unit 3 in the image data captured by the camera 5 is recognized and stored in the memory as synthesized data. Here, as an example of inputting the alphabet “A”, for example, the image composition unit 6 captures 6 frames as shown in FIG. 6 while inputting one character. The reason why the characters are linear within one frame is that reflected light of infrared light becomes an afterimage. When 6 frames of image data are stored and combined, the high contrast portion of the infrared light reflecting portion 3 appears as characters. The composite data is sequentially sent to the display control unit 10 and displayed in the captured image display area of the display unit 12. The operator can confirm the character input status by confirming this display. The synthesized data generated in this way is compared with the character recognition pattern and approximated character data is transferred as candidate data to the display control unit 10 (step R6).

表示制御部10は、候補データに該当する文字を携帯端末の表示部12の文字表示領域に表示させる(ステップR7)。   The display control unit 10 displays characters corresponding to the candidate data in the character display area of the display unit 12 of the mobile terminal (step R7).

表示後に操作者から確定コードが入力されるまで(ステップR8)又はキャンセルコードが入力されるまで(ステップR9)表示を継続する。キャンセルコードを認識した場合は新たにカメラ5の撮像データの取り込みを開始する(ステップR10)。   The display is continued until a confirmation code is input from the operator after the display (step R8) or a cancel code is input (step R9). When the cancel code is recognized, the capturing of the image data of the camera 5 is newly started (step R10).

確定コードを受信した場合は候補データを入力処理部11へその文字のデータを転送する(ステップR11)。   When the confirmation code is received, the character data is transferred to the input processing unit 11 as candidate data (step R11).

文字入力を終了する場合(ステップR12)は文字入力タイマーを終了し(ステップR13)、カメラを停止させる(ステップR14)。   When the character input is to be ended (step R12), the character input timer is ended (step R13), and the camera is stopped (step R14).

以上説明したように本発明によれば、情報端末装置の文字入力手段として赤外光発光部および赤外光反射ペンとカメラによる画像認識を組み合わせることで従来の小型端末に見られる煩わしいボタン操作による文字入力をタッチペン間隔で入力する方法に変えることが可能となる。   As described above, according to the present invention, the combination of the infrared light emitting unit and the infrared light reflecting pen as the character input means of the information terminal device and the image recognition by the camera, the cumbersome button operation found in the conventional small terminal. It becomes possible to change the character input to a method of inputting at intervals of the touch pen.

また、本発明によると、従来のタッチペン方式では必要であったタッチパネルが不要となり、近年の携帯電話には搭載されることが多いカメラと赤外線発光モジュールとを使用することにより新規に専用デバイスを追加搭載する必要がなくなる。また、タッチパネルが不要となる為、端末のサイズの小型化が可能となる。   In addition, according to the present invention, a touch panel required in the conventional touch pen method is no longer necessary, and a dedicated device is newly added by using a camera and an infrared light emitting module that are often mounted on recent mobile phones. No need to install. In addition, since the touch panel is not necessary, the size of the terminal can be reduced.

さらに赤外線を使用した場合、周囲の人間には入力している内容を見られることがないという効果がある。   Furthermore, when infrared rays are used, there is an effect that surrounding people cannot see the input content.

また光を使用しているため、カメラ周囲が暗い場所でもその暗さに影響されることなく入力することができる効果がある。   In addition, since light is used, there is an effect that the input can be performed without being influenced by the darkness even in a dark place around the camera.

文字を描く手段としてペン内部に赤外光発光デバイスを設けている構成に比べて、本発明はペン側に電源が不要となるため、ペン側の電池残量等の心配をすることなく入力することが出来るという効果がある。   Compared to a configuration in which an infrared light emitting device is provided inside the pen as a means for drawing characters, the present invention eliminates the need for a power source on the pen side, so input without worrying about the remaining battery power on the pen side. There is an effect that can be.

空間上に入力文字を描く構成の場合、文字の1画毎の切れ目を区別することができないが、赤外光の発光、非発光を制御することで1画毎の区別が可能となり文字のパターンマッチングが容易となり、文字認識の確度があがるという効果がある。   In the case of a configuration in which an input character is drawn on a space, it is not possible to distinguish between cuts for each character stroke, but it is possible to distinguish each stroke by controlling the emission and non-emission of infrared light. Matching is facilitated and the accuracy of character recognition is improved.

さらに、入力デバイスに赤外線を使用することで周囲の人間には入力している内容を見られることがなく、また、カメラ周囲が暗い場所でも影響されずに入力を行うことができる効果がある。   Further, by using infrared rays as an input device, there is an effect that surrounding human beings cannot see the input content and that the input can be performed without being influenced even in a dark place around the camera.

尚、本発明では、上記実施の形態に加えて、カメラに向けて赤外光反射ペンを向けて文字を描く際に、カメラの撮像範囲を正確に捉えるために図7又は図8に示すように表示部12の撮像画像表示領域に撮像画像と撮像範囲を示す枠とをリアルタイムで表示しながら入力する方法が考えられる。操作者は、撮像範囲を示す枠内に赤外光反射ペンが入っているかをリアルタイムに表示画像にて確認できる為、より確実に入力を行うことが可能となる。   In the present invention, in addition to the above-described embodiment, as shown in FIG. 7 or FIG. 8 in order to accurately capture the imaging range of the camera when drawing characters with the infrared light reflecting pen pointing toward the camera. In addition, a method of inputting the captured image and the frame indicating the imaging range in the captured image display area of the display unit 12 in real time can be considered. Since the operator can confirm in real time whether or not the infrared light reflecting pen is in the frame indicating the imaging range, the input can be performed more reliably.

また本発明は、文字の1画が描かれるごとに候補となる文字を表示させていく構成であっても良い。   Further, the present invention may be configured such that a candidate character is displayed every time one stroke of the character is drawn.

また本発明は、赤外光発光部はペン型ではなく操作者の利用状況に適した形態、例えば図10の(b)に示すようなリストタイプの形態とすることで手指の不自由な人など利用範囲を拡げることができる。   Further, according to the present invention, the infrared light emitting unit is not a pen type, but has a form suitable for the use situation of the operator, for example, a list type form as shown in FIG. The range of use can be expanded.

さらに、上述した本発明の端末は、上記説明からも明らかなように、ハードウェアで構成することも可能であるが、コンピュータプログラムにより実現することも可能である。このような構成の場合、プログラムメモリに格納されているプログラムで動作するプロセッサによって、上述した実施の形態と同様の機能、動作を実現させる。尚、上述した実施の形態の一部の機能のみをコンピュータプログラムにより実現することも可能である。   Further, as is apparent from the above description, the terminal of the present invention described above can be configured by hardware, but can also be realized by a computer program. In such a configuration, functions and operations similar to those of the above-described embodiment are realized by a processor that operates according to a program stored in a program memory. Note that only a part of the functions of the above-described embodiment can be realized by a computer program.

図1は、本発明の入力システムのブロック図である。FIG. 1 is a block diagram of the input system of the present invention. 図2は、本発明の赤外光発光制御の流れを表わしたものである。FIG. 2 shows the flow of infrared light emission control of the present invention. 図3は、本発明における文字入力の流れを説明するための図である。FIG. 3 is a diagram for explaining the flow of character input in the present invention. 図4は、携帯端末側の文字入力動作を表したものである。FIG. 4 shows a character input operation on the portable terminal side. 図5は、携帯端末側の文字入力動作を表したものである。FIG. 5 shows a character input operation on the mobile terminal side. 図6は、1文字を入力する間に記憶される画像フレームを説明するための図である。FIG. 6 is a diagram for explaining an image frame stored while inputting one character. 図7は、文字入力時の様子を説明するための図である。FIG. 7 is a diagram for explaining a state when characters are input. 図8は、表示部を説明するための図である。FIG. 8 is a diagram for explaining the display unit. 図9は、カメラ5固定焦点エリアと赤外光の照射エリアを説明するための図である。FIG. 9 is a diagram for explaining the camera 5 fixed focus area and the infrared light irradiation area. 図10は、赤外光反射ペンの一例を表したものである。FIG. 10 shows an example of an infrared light reflecting pen.

符号の説明Explanation of symbols

1 赤外光発光部
2 赤外光発光制御部
3 赤外光反射部
4 認識マーク
5 カメラ
6 画像合成部
7 画像認識処理部
8 文字認識パターン
9 データベース
10 表示制御部
11 入力処理部
12 表示部
DESCRIPTION OF SYMBOLS 1 Infrared light emission part 2 Infrared light emission control part 3 Infrared light reflection part 4 Recognition mark 5 Camera 6 Image composition part 7 Image recognition process part 8 Character recognition pattern 9 Database 10 Display control part 11 Input process part 12 Display part

Claims (12)

文字入力システムであって、
光を放射する発光手段と、
前記放射された光を反射させる反射手段と、
前記反射手段による反射光の軌跡に基づいて文字を認識する認識手段と、
前記認識した文字を入力文字として処理する入力処理手段と
を有し、
前記認識手段は、前記反射手段が認識エリア内に連続して位置している間の反射光の軌跡を文字の一画として区切って、文字を認識していくことを特徴とする文字入力システム。
A character input system,
A light emitting means for emitting light;
Reflecting means for reflecting the emitted light;
Recognizing means for recognizing characters based on the locus of reflected light by the reflecting means;
Input processing means for processing the recognized character as an input character,
The character recognition system, wherein the recognition means recognizes a character by dividing a locus of reflected light while the reflection means is continuously located in a recognition area as a character stroke.
前記発光手段は、前記認識エリアに前記反射手段が位置すると、前記光の放射を開始することを特徴とする請求項1に記載の文字入力システム。   The character input system according to claim 1, wherein the light emitting unit starts emitting the light when the reflecting unit is located in the recognition area. 前記認識手段は、前記反射光の軌跡を画像として取り込み、この取り込んだ画像を合成して文字を認識することを特徴とする請求項1又は請求項2に記載の文字入力システム。   3. The character input system according to claim 1, wherein the recognizing unit captures the locus of the reflected light as an image and synthesizes the captured image to recognize a character. 4. 前記認識エリアを表示させる表示部を有することを特徴とする請求項1から請求項3のいずれかに記載の文字入力システム。   The character input system according to claim 1, further comprising a display unit that displays the recognition area. 文字入力装置であって、
光を放射する発光手段と、
前記光の反射光の軌跡に基づいて文字を認識する認識手段と、
前記認識した文字を入力文字として処理する入力処理手段と
を有し、
前記認識手段は、前記光を反射させる反射体が認識エリア内に連続して位置している間の反射光の軌跡を文字の一画として区切って、文字を認識していくことを特徴とする文字入力装置。
A character input device,
A light emitting means for emitting light;
Recognizing means for recognizing characters based on the locus of reflected light of the light;
Input processing means for processing the recognized character as an input character,
The recognizing means recognizes a character by dividing a locus of reflected light as a character stroke while a reflector that reflects the light is continuously located in a recognition area. Character input device.
前記発光手段は、前記認識エリアに前記反射体が位置すると、前記光の放射を開始することを特徴とする請求項4に記載の文字入力装置。   The character input device according to claim 4, wherein the light emitting means starts emitting the light when the reflector is located in the recognition area. 前記認識手段は、前記反射光の軌跡を画像として取り込み、この取り込んだ画像を合成して文字を認識することを特徴とする請求項4又は請求項5に記載の文字入力装置。   6. The character input device according to claim 4, wherein the recognizing unit captures the locus of the reflected light as an image and synthesizes the captured image to recognize a character. 前記認識エリアを表示させる表示部を有することを特徴とする請求項5から請求項7のいずれかに記載の文字入力装置。   The character input device according to claim 5, further comprising a display unit that displays the recognition area. 文字入力方法であって、
光を放射させる発光ステップと、
前記光の反射光が認識エリア内に連続して位置している間の反射光の軌跡を文字の1画として認識し、認識した少なくとも1以上の画数に基づいて文字を認識する認識ステップと、
前記認識した文字を入力文字として処理する入力処理ステップと
を有することを特徴とする文字入力方法。
A character input method,
A light emitting step for emitting light;
A recognition step of recognizing a trajectory of reflected light while the reflected light of the light is continuously located in a recognition area as one stroke of a character, and recognizing the character based on at least one stroke number recognized;
An input processing step of processing the recognized character as an input character.
前記発光ステップは、前記認識エリアに前記光を反射させる反射体が位置すると、前記光の放射を開始することを特徴とする請求項9に記載の文字入力方法。   The character input method according to claim 9, wherein the light emitting step starts emitting the light when a reflector that reflects the light is positioned in the recognition area. 前記認識ステップは、前記反射光の軌跡を画像として取り込み、この取り込んだ画像を合成して文字を認識することを特徴とする請求項9又は請求項10に記載の文字入力方法。   The character input method according to claim 9 or 10, wherein the recognition step captures the locus of the reflected light as an image and synthesizes the captured image to recognize a character. 文字入力装置のプログラムであって、前記プログラムは前記文字入力装置に、
光を放射させる発光ステップと、
前記光の反射光が認識エリア内に連続して位置している間の反射光の軌跡を文字の1画として認識し、認識した少なくとも1以上の画数に基づいて文字を認識する認識ステップと、
前記認識した文字を入力文字として処理する入力処理ステップと
を処理させることを特徴とするプログラム。
A program for a character input device, the program being stored in the character input device,
A light emitting step for emitting light;
A recognition step of recognizing a trajectory of reflected light while the reflected light of the light is continuously located in a recognition area as one stroke of a character, and recognizing the character based on at least one stroke number recognized;
An input processing step of processing the recognized character as an input character.
JP2007072450A 2007-03-20 2007-03-20 Character input system, character input device, character input method, and program Expired - Fee Related JP4932554B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007072450A JP4932554B2 (en) 2007-03-20 2007-03-20 Character input system, character input device, character input method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007072450A JP4932554B2 (en) 2007-03-20 2007-03-20 Character input system, character input device, character input method, and program

Publications (2)

Publication Number Publication Date
JP2008234277A true JP2008234277A (en) 2008-10-02
JP4932554B2 JP4932554B2 (en) 2012-05-16

Family

ID=39906976

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007072450A Expired - Fee Related JP4932554B2 (en) 2007-03-20 2007-03-20 Character input system, character input device, character input method, and program

Country Status (1)

Country Link
JP (1) JP4932554B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010277191A (en) * 2009-05-26 2010-12-09 Toshiba Corp Information processing apparatus
JP2012103938A (en) * 2010-11-11 2012-05-31 Seiko Epson Corp Optical detection system and program
JP2015504217A (en) * 2012-01-09 2015-02-05 エプソン ノルウェー リサーチ アンド ディベロップメント アクティーゼルスカブEpson Norway Research And Development As Low interference system and method for synchronization, identification and tracking for visual and interactive systems

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH02108118A (en) * 1988-10-17 1990-04-20 Nec Corp Optical touch panel control system
JPH06150066A (en) * 1992-11-10 1994-05-31 Sharp Corp Handwritten character recognizing device
JP2002196873A (en) * 2000-12-27 2002-07-12 Ntt Docomo Inc Device and method for inputting handwritten data, personal certification device and its method
JP2002268812A (en) * 2001-03-13 2002-09-20 Ricoh Co Ltd Information input device, information input/output system, program and storage medium
JP2004094653A (en) * 2002-08-30 2004-03-25 Nara Institute Of Science & Technology Information input system

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH02108118A (en) * 1988-10-17 1990-04-20 Nec Corp Optical touch panel control system
JPH06150066A (en) * 1992-11-10 1994-05-31 Sharp Corp Handwritten character recognizing device
JP2002196873A (en) * 2000-12-27 2002-07-12 Ntt Docomo Inc Device and method for inputting handwritten data, personal certification device and its method
JP2002268812A (en) * 2001-03-13 2002-09-20 Ricoh Co Ltd Information input device, information input/output system, program and storage medium
JP2004094653A (en) * 2002-08-30 2004-03-25 Nara Institute Of Science & Technology Information input system

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010277191A (en) * 2009-05-26 2010-12-09 Toshiba Corp Information processing apparatus
JP2012103938A (en) * 2010-11-11 2012-05-31 Seiko Epson Corp Optical detection system and program
US9041688B2 (en) 2010-11-11 2015-05-26 Seiko Epson Corporation Optical detection system and program
JP2015504217A (en) * 2012-01-09 2015-02-05 エプソン ノルウェー リサーチ アンド ディベロップメント アクティーゼルスカブEpson Norway Research And Development As Low interference system and method for synchronization, identification and tracking for visual and interactive systems

Also Published As

Publication number Publication date
JP4932554B2 (en) 2012-05-16

Similar Documents

Publication Publication Date Title
US9134800B2 (en) Gesture input device and gesture input method
US8170478B2 (en) Cell phone terminal, method for starting data processing, method for transferring data
US20090295712A1 (en) Portable projector and method of operating a portable projector
CN107077258B (en) Projection type image display device and image display method
US20140218300A1 (en) Projection device
WO2008002239A1 (en) Operation control and data processing in an electronic pen
EP3065393B1 (en) System, method, and apparatus for controlling camera operations
US11928291B2 (en) Image projection device
JP2005284874A (en) Projector and command extraction method
US20240184403A1 (en) Personal digital assistant
US20150261385A1 (en) Picture signal output apparatus, picture signal output method, program, and display system
JP4932554B2 (en) Character input system, character input device, character input method, and program
WO2015111655A1 (en) Head-mounted display device
JP2011095985A (en) Image display apparatus
JP2005301583A (en) Typing input device
JP2011103092A (en) Information processing system and display processing program
US9300908B2 (en) Information processing apparatus and information processing method
US8446428B2 (en) Image processing apparatus and method of controlling the same
EP3789849A1 (en) Contactless gesture control method, apparatus and storage medium
WO2009069849A1 (en) Method of compensating keyboard template coordinates of projection keyboard
JP2010217962A (en) Program for camera-equipped mobile terminal device, and camera-equipped mobile terminal device
JP2007310789A (en) Interface device
JP7179334B2 (en) GESTURE RECOGNITION DEVICE AND PROGRAM FOR GESTURE RECOGNITION DEVICE
JP2014211794A (en) Visual line detection device
JP2005190283A (en) Information input apparatus

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100210

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100324

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100521

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110601

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120208

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120215

R150 Certificate of patent or registration of utility model

Ref document number: 4932554

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150224

Year of fee payment: 3

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees