JPS6054085A - Aloud reading type character reader for visually handicapped person - Google Patents

Aloud reading type character reader for visually handicapped person

Info

Publication number
JPS6054085A
JPS6054085A JP58162181A JP16218183A JPS6054085A JP S6054085 A JPS6054085 A JP S6054085A JP 58162181 A JP58162181 A JP 58162181A JP 16218183 A JP16218183 A JP 16218183A JP S6054085 A JPS6054085 A JP S6054085A
Authority
JP
Japan
Prior art keywords
character
area sensor
characters
image
sample image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP58162181A
Other languages
Japanese (ja)
Inventor
Yoshiyuki Uchimura
内村 喜之
Yukio Inukai
犬飼 幸男
Masami Shinohara
篠原 正美
Muneo Kitajima
北島 宗雄
Osamu Morikawa
治 森川
Tadashi Masuda
正 増田
Hiroshi Arai
荒居 廣
Masaru Sagawa
賢 佐川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
National Institute of Advanced Industrial Science and Technology AIST
Original Assignee
Agency of Industrial Science and Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Agency of Industrial Science and Technology filed Critical Agency of Industrial Science and Technology
Priority to JP58162181A priority Critical patent/JPS6054085A/en
Publication of JPS6054085A publication Critical patent/JPS6054085A/en
Pending legal-status Critical Current

Links

Landscapes

  • Character Input (AREA)
  • Character Discrimination (AREA)

Abstract

PURPOSE:To enable to read any part by cheap constitution by reading characters to be read optically and successively, storing it once and making recognition, and outputting a sentence as a series of voices basing on the result of recognition. CONSTITUTION:An area sensor is structured to be moved to any position on the character face by manual operation and to detect a picture of small area optically. Output of the area sensor is taken in a present sample picture memory. Then, degree of superposition of two pictures is calculated to stick with previous sample picture stored in a previous sample picture memory, and the two pictures are stuck together and transferred to a buffer. Then, a mode controller selects operation mode by manual switching in a recognizing section. A recognizing device in the recognizing section cuts out a picture signal for one letter from continuous group of pictures and recognizes the character. An outputting section outputs a sentence in which distinction of phonetical reading and Japanese reading is given to each character and reading of characters appointed by the area sensor as voices.

Description

【発明の詳細な説明】 本発明は、重度の視覚障害者に音声によって文字情報を
伝達する視覚障害者用音読型文字読取器に関するもので
ある。
DETAILED DESCRIPTION OF THE INVENTION The present invention relates to an aloud character reader for visually impaired people that transmits text information by voice to severely visually impaired people.

重度の視覚障害者に文字情報を伝達する手段としては、
一般に点字が用いられているが、この点字で表わされた
ものは、普通の文字による印刷物に比べて皆無に等しい
程の量である。また、既存の一般的な日本語情報を処理
できる光学的文字読取器は、ミニコンベースの自動走査
式ページ型であるため、読みたい箇所を読むという自由
度に欠けるだけでなく、高価で個人が所有するのには無
理がある。
As a means of transmitting text information to severely visually impaired people,
Braille is generally used, and the amount of information expressed in Braille is almost nothing compared to printed matter using ordinary characters. In addition, existing optical character readers that can process general Japanese information are minicomputer-based automatic scanning page types, which not only lack the freedom to read the parts you want to read, but are also expensive and difficult for individuals to read. It's impossible to own it.

叙上に鑑み、本発明は、手動操作により任意箇所におけ
る文字を読み取って音声出力する装置を、マイコンペー
ス程度に簡単で安価なものとして構成することを目的と
するものである。
In view of the foregoing, it is an object of the present invention to construct a device that reads characters at an arbitrary location by manual operation and outputs a voice as simple and inexpensive as a microcomputer.

上記目的を達成するため、本発明の音読型文字読取器は
、入力部、認識部及び出力部によって構成され、上記入
力部に5手動操作で文字面上の任意の位置に移動して小
領域の画像を光学的に検出するエリアセンサーと、エリ
アセンサーの文字面」二における位置を検出出力するx
yカウンターと、上記エリアセンサーに2値化回路を介
して接続きれる現ザンプル画像メモリーと、上記現サン
プル画像を格納する前サンプル画像メモリーと、上記両
画像の貼り合わせのためにそれらの重なりの程度を計算
する残差計算回路と、現サンプル画像の黒画素数をη−
出する加算投影レジスタとを備え、上記認識部に、動作
モードを切換選択するモードコントロール装置と、連続
した画像群から一字分毎の画像信号の切出しを行うと共
(二その文字の特徴針具結果を予めメモリー内に辞書と
して記憶させた各種文字の特徴と照合することによって
上記文字の認識を行う認識装置とを備え、上記出力部に
、各文字のそれぞれに音1i111 i1’、fl!別
を施した文章、上記エリアセンサーで指定した文字の全
ての読みを、それぞれ音声信号とする出力装置と、その
音声信号に基づいて音声を出力するスピーカとを備えた
ことを4?徴とするものである。
In order to achieve the above object, the audible character reader of the present invention includes an input section, a recognition section, and an output section, and the input section can be manually operated to move to any position on the character surface to read small areas. An area sensor that optically detects the image of
A y counter, a current sample image memory that can be connected to the area sensor via a binarization circuit, a previous sample image memory that stores the current sample image, and the degree of overlap between the two images in order to paste them together. The residual calculation circuit calculates the number of black pixels of the current sample image as η−
The recognition unit is equipped with a mode control device that switches and selects the operation mode, and extracts image signals for each character from a continuous image group (2). and a recognition device that recognizes the characters by comparing the result with the characteristics of various characters stored in advance as a dictionary in the memory, and outputs sounds 1i111 i1', fl! for each character in the output section. The four characteristics include an output device that outputs audio signals of all the readings of the text specified by the area sensor, and a speaker that outputs audio based on the audio signals. It is something.

このような本発明の文字読取器によれば、文字を読み取
るだめのエリアセンサーを手動操作するもの表して構成
したので、任意の箇所を自分に合った速度で且つ何回で
も反復して読むことができ、またその構成をマイクロコ
ンビーータベースの簡単なものとしたので、製品を安価
に得ることができる。
According to the character reader of the present invention, the area sensor for reading characters is configured to be operated manually, so that a user can read any part repeatedly at a speed that suits him/her as many times as desired. Moreover, since the structure is simple and based on a microcombinator, the product can be obtained at low cost.

以下、本発明の実施例を図面を参照しながら詳細(二説
明する。
Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.

本発明に係る音読型文字読取器は、第1図に示すように
、人力部と、88部と、出力部とにより構成され、概略
的には、読もうとする文字を手動操作される入力部によ
り順次光学的に読み取って一旦記憶し、認識部において
それらの文字の認識を行い、その認識結果に基づいてそ
れらの文字により構成される文章を一連の音声として出
力部から出力するよう(二構成している。
As shown in FIG. 1, the aloud character reader according to the present invention includes a human power section, an 88 section, and an output section. The characters are sequentially optically read by the part and stored once, the recognition part recognizes those characters, and based on the recognition result, the output part outputs a sentence made up of those characters as a series of sounds. It consists of

濾らに具体的に説明すると、上記入力部におけるエリア
センサーは、レンズ系によって対象面上の文字の像を2
次元フメトセンサーアレイ等の受光面に結像させ、それ
によって得られる2次元画像人力をマ) l)クス配列
の電気信号に変換するもので、手動により書籍等の文字
面を走査して、そのエリアセンサーでカバーされる小面
積部分の文字を光学的に読み取るよう(二操作される。
To explain more specifically, the area sensor in the input section converts the image of the character on the target surface into two using a lens system.
It focuses an image on the light-receiving surface of a dimensional sensor array, etc., and converts the resulting two-dimensional image into a matrix array of electrical signals. The area sensor optically reads characters in a small area covered by the area sensor (operated twice).

第2図に示すように、このエリアセンサー1は、上記文
字面の走査を行うために2次元平面上を互いに直焚する
x、yの2方向に移動可能;二構成され、即ち、第1の
フレーム2に拘束されてその7レーム2土をX方向に一
次元的な動きをし、且つ上記第1のフレーム2は第2の
フレーム3に拘束されてy方間に一次元的な動きをする
ものとして構成される。このような動きをするエリアセ
ンサー102次元的位置(x、y)は、第1のフレーム
2に対するエリアセンサー1の位置Xと、第2のフレー
ム3に対する第1のフレーム2の位置Yとによりて定め
られ、上記位置(x、y)をめるだめの手段としては、
第1及び第2のフレーム2.3にスケールを装着し、赤
外線発光源とフォトダイオードによって構成されるセン
サをエリアセンサー1及び第1のフレーム2に装着する
ことによって検出する方式、あるいは汎用のデジタイザ
を用いて座標を検出する方式等を採ることができる。こ
のエリアセンサーlの位置は、第1図に示すxyカウン
タによって認識部に出方される。
As shown in FIG. 2, this area sensor 1 is movable in two directions, x and y, which are directly connected to each other on a two-dimensional plane in order to scan the character surface; The first frame 2 is restrained by the second frame 3 and moves one-dimensionally in the X direction on its 7 frames 2, and the first frame 2 is restrained by the second frame 3 and moves one-dimensionally in the y direction. It is configured as something that does The dimensional position (x, y) of the area sensor 102 that moves in this way is determined by the position X of the area sensor 1 with respect to the first frame 2 and the position Y of the first frame 2 with respect to the second frame 3. As a means of determining the above position (x, y),
A method of detecting by attaching a scale to the first and second frames 2.3 and attaching a sensor composed of an infrared light emitting source and a photodiode to the area sensor 1 and the first frame 2, or a general-purpose digitizer. It is possible to adopt a method of detecting coordinates using . The position of this area sensor l is displayed to the recognition unit by the xy counter shown in FIG.

上記入力部は、エリアセンサーに接続される2値化回路
及びフレームメモリーにょっ′て構成される現サンプル
画像メモリー、前サンプル画像メモリー−バッファ、残
差R1算回路、及び加算投影レジスタ等を備えている。
The input section includes a current sample image memory, a previous sample image memory, a buffer, a residual R1 calculation circuit, an addition projection register, etc., which are configured with a binarization circuit and a frame memory connected to the area sensor. ing.

上記エリアセンサーには、2値化回路を介して現サンプ
ル画像メモリーが接続きれ、エリアセンツー−から出力
される上記電気信号群は、2値化回路での2値化処理に
よりサンプル画像信号として現サンプル画像メモリーに
取り込まれる。
The current sample image memory is connected to the above area sensor via a binarization circuit, and the above electric signal group output from the area sensor is converted into a sample image signal by the binarization process in the binarization circuit. The current sample is loaded into image memory.

このようにして現サンプル画像メモリーに取り込まれた
サンプル画像については、次に、前サンプル画像メモリ
ーに格納されている前サンプル画像との貼り伺は位置の
決定が行われる。この貼り付は位置の決定は、現サンプ
ル画像と前サンプル画像との画像同士が適正な状態で続
くようにつなぎ合わせるだめの−もので、排他的論理他
回路や加算レジスタ等を備えた残差計算回路によって両
画像間の局所的な重なりの程度(残差)を創算すると共
に、それが最小となる位置を判定し、その位置で両画像
を貼り合わせてバッファに転送される。
Next, the position of the sample image imported into the current sample image memory in this manner relative to the previous sample image stored in the previous sample image memory is determined. This paste is used to determine the position of the current sample image and the previous sample image so that they continue in a proper state. A calculation circuit calculates the degree of local overlap (residual difference) between both images, determines the position where it is minimum, and pastes both images together at that position and transfers them to a buffer.

両画像の貼り付けについてさらに具体的に説明すると、
まず、両画像なX方向に貼り合わせる場合、第6図に示
すように、エリアセンサーがMxNメツシーとして構成
されると共に、X方向に′1゛11゛1メツシ一位置の
サンプリングが行われるとすれば、 p 十q +T+ = N ここで、 9:考慮すべき位置の誤差範囲 P二Nなり評価範囲 である。而して、前フレーム画像Bにおける第N−7)
 千1列から第N列までと、現フレーム画像Aにおける
第α列から第p十α列(αは0から29まで動く)まで
の排他論理和の総和を取って最小になるαをめ、α=q
oで最小になったとすれば、両画像A、13Fip+9
゜の重なりをもつものとして接続し、バッファに転送さ
れる。
To explain more specifically about pasting both images,
First, when pasting both images together in the X direction, the area sensor is configured as an MxN mesh as shown in Figure 6, and sampling is performed at a position of '1', 11', and 1 mesh in the X direction. For example, p 1q +T+ = N where: 9: The error range of the position to be considered is P2N, which is the evaluation range. Therefore, the N-7th image in the previous frame image B)
Find the minimum α by taking the sum of the exclusive ORs from the 1,001st column to the Nth column and from the αth column to the p10th α column (α moves from 0 to 29) in the current frame image A, α=q
If it becomes the minimum at o, both images A, 13Fip+9
They are connected with an overlap of ° and transferred to the buffer.

一方、y方向の位置決めを行うためには、y方向に1゛
2メツシ一間隔で位置のサンプリングが行われ、後述す
る行検出モードにおいて、第2図における第1のフレー
ム2を必要量動かしたとき、認識部におけるセグメンテ
ーション(後述)の情報を用いて音声表示によるストッ
プ信号がフィードバックされる。′ 現サンプル画像メモリーに接続された加算投影レジスタ
は、文字面のエリアセンサーによってカバーされた領域
における現サンプル画像の黒画素数を算出し、グレード
を定めて出力部に転送し、それに応じた音声表示を行う
ことによって任意位置の文字面状況をフィードバックす
るものである。
On the other hand, in order to perform positioning in the y direction, position sampling is performed in the y direction at intervals of 1 and 2 meshes, and in the line detection mode described later, the first frame 2 in Fig. 2 is moved by the necessary amount. At this time, a stop signal in the form of an audio display is fed back using information on segmentation (described later) in the recognition unit. ′ The addition projection register connected to the current sample image memory calculates the number of black pixels of the current sample image in the area covered by the area sensor on the character surface, determines the grade, transfers it to the output unit, and outputs the audio according to the grade. By displaying the information, the character surface situation at any position is fed back.

即ち、エリアセンサーでカバーした任意位置の画像信号
に基づいて、認識部で文字部が検出されたか否かを判断
し、その結果を出力部から音声で出力させ、また後述の
行決定モード採用時には、上記のようにして文字部が検
出された後再び次の文字部が検出されるまでに要したエ
リアセンサーの移動量から、行検出のだめの基準値を認
識部において算出するようにしている。
That is, based on the image signal of an arbitrary position covered by the area sensor, the recognition unit determines whether a character part is detected or not, and the result is outputted as a sound from the output unit. The reference value for line detection is calculated in the recognition unit from the amount of movement of the area sensor required until the next character part is detected again after a character part is detected as described above.

上記入力部の次段に配設をれた認識部におけるモードコ
ントロール装置は、手動による切換えによって次の四つ
の動作モードを切換選択可能としたものである。
The mode control device in the recognition section disposed next to the input section allows the following four operating modes to be selected by manual switching.

(リ 読もうとする書籍等の文字面のどの部分に印刷さ
れた文字部分が位置するかを探すための文字部探索モー
ド。
(Re) A text search mode for finding where the printed text is located on the text surface of the book you are trying to read.

(2) 1行分の文字を読み終った後に次の行を探すだ
めの行決定モード。
(2) Line determination mode in which you search for the next line after reading one line of characters.

(3) 1行分の文字を句読点で区切りながら連続的に
読むための流し読みモード。
(3) A skim reading mode that allows you to read one line of text continuously, separating them with punctuation marks.

(4)流し読みモード採用時等に文章中のある一文字が
よく理解できない場合に、その文字の全ての読み方を出
力させてその文字への理解を深めるだめの説明モード。
(4) An explanation mode that outputs all readings of a character in order to deepen understanding of the character when a character in a text cannot be understood well, such as when skimming mode is adopted.

而]7て、このモードの切換えによって第1図の各要′
素を選択的に動作させるようにそれらの駆動が制御され
る。
7) By switching this mode, each key point in Figure 1 can be adjusted.
Their driving is controlled to selectively operate the elements.

上記認識部における認識装置は、文字列上を移動するエ
リアセンサーで検出された連続した画像群から一字分毎
の画像信号の切り出しを行うと共に、その切り出した画
像信号がどのような文字であるのかを辞書で認識して出
力する簡単なアルゴリズムを備えたもので、上記一連の
画像信号群から射影加算法によって一文字分の画像信号
の切り出しを行うセグメンテーションと、切り出した画
像信号によって構成される文字に対してまず外形特徴を
、次いで線密度特徴をそれぞれ算出する特徴計算と、そ
の計算結果からその文字が予めメモリー内に辞書として
格納されたどの文字に該当するのかを決定する照合の機
能を有するものとして構成されている。上記外形特徴の
算出を行うにはシフトレジスタ、論理レジスタ及び射影
加算レジスタ等によって行われ、その算出を行うため、
第4図に例示するように文字の上下左右4方向のいずれ
からも文字線の影となる部分を黒画素に置き換え、その
文字の領域を4×4の16の小領域に等分割し、各小領
域に閾値によって黒画素(“10“)あるいは白画素(
“01″)の2ビツトパターンを割り当てて、−文字を
32ビツトパターンで表わす。
The recognition device in the recognition unit cuts out an image signal for each character from a continuous image group detected by an area sensor moving on a character string, and also identifies what kind of character the cut out image signal is. It is equipped with a simple algorithm that recognizes and outputs a character from a dictionary using a dictionary, and performs segmentation that cuts out an image signal for one character from the above series of image signals using the projective addition method, and a character that is composed of the extracted image signals. It has a feature calculation function that first calculates the external shape feature and then a linear density feature for the character, and a matching function that uses the calculation results to determine which character the character corresponds to previously stored as a dictionary in memory. It is constructed as a thing. Calculation of the above external shape features is performed using shift registers, logical registers, projection addition registers, etc.
As shown in Figure 4, the shadow part of the character line is replaced with black pixels from any of the four directions (top, bottom, left, right), and the area of the character is equally divided into 16 small areas of 4 x 4. Black pixels (“10”) or white pixels (
A 2-bit pattern of "01") is assigned to represent the - character with a 32-bit pattern.

このような外形%徴によシ候補文字を選択抽出するには
、予め上記メモ↓内に辞書として各種文字とそれらに対
応させた上記と同様のビットパターンを記憶させ、即ち
16の小領域に黒画素(“10“)、白画素(“01″
)、及び字体により不安定な小領域に対する(“11″
)をそれぞれ割り当てたビットパターンを記憶させてお
く。而して、辞書中の文字から、 At A2 = A2 (:論理積) Al:辞書中のある文字のパターン A2:未知の文字のパターン を満足するパターンAIで表わされる文字群を検出し、
それらの文字を外形%徴による候補文字とする。
In order to select and extract candidate characters based on such external shape percentage characteristics, various characters and corresponding bit patterns similar to the above are stored as a dictionary in the memo ↓ above, that is, in 16 small areas. Black pixel (“10”), white pixel (“01”)
), and for small areas that are unstable due to the font (“11”
) is stored in memory. Then, from the characters in the dictionary, detect a character group represented by a pattern AI that satisfies the following: At A2 = A2 (: logical product) Al: pattern of a certain character in the dictionary A2: unknown character pattern,
These characters are set as candidate characters based on the external shape percentage characteristics.

次に、上記候補文字中から一つの文字を適正なものとし
て選択するだめ、線密度特徴による照合が行われる。こ
の線密度%徴は、シフトレジスタ、射影加算レジスタ等
によって算出されるもので、上記と同様に、まず、未知
の文字の画像を16の小領域に分割し、各小領域での水
平、垂直各方向における画素状態変化数の総和をめ、こ
れにより得られる32次元ベクトルを用いて、アレイプ
ロセツザーにより辞書における各種字体にわたる平均的
な32次元ベクトルのパターンとの類似度を計算し、最
も近い文字を検索結果として出力するものである。
Next, in order to select one character from among the candidate characters as a proper character, a comparison is performed using the line density feature. This linear density percentage is calculated using a shift register, a projection addition register, etc. In the same way as above, first, the image of an unknown character is divided into 16 small areas, and the horizontal and vertical The total number of pixel state changes in each direction is calculated, and the resulting 32-dimensional vector is used to calculate the similarity with the average 32-dimensional vector pattern across various fonts in the dictionary using an array processor. It outputs similar characters as search results.

上記出力部tま、エリアセンサーが文字部や次の行を検
出したか否か、あるいは上記エリアセンサーでなぞった
文章や文章中の一文字の読みをそれぞれ音声で出力する
だめのもので、上記モードコントロール装置に接続され
た出力バクファに、例外処理、規則処理、音声合成を行
うだめの出力装置、及びスピーカを接続することにより
構成される。
The above output section is for outputting in audio whether or not the area sensor has detected a character part or the next line, or the sentence traced by the above area sensor or the pronunciation of a single character in the sentence. It is constructed by connecting an output device for performing exception processing, rule processing, and voice synthesis, and a speaker to an output buffer connected to a control device.

上記例外処理は、予め熟語辞書に登録しである熟語に合
致した文字列について、それに対応する読みを出力し、
また規則処理は音読み、訓読みの登録結果に従って、漢
字が連なる場合には音読み、単独の場合にはW11読み
として出力するものであり、さらに説明モード採用時に
おいては、規則処理の辞書に登録された読みの全てが出
力される。また、桁決定モードあるいは文学部探索モー
ド採用時には、次の行あるいは文字部が検出されたか否
かを知らせる音声が出力される。音声合成は、上述した
ところによって出力される信号に基づいて、人間による
単音節の音声波形をA7.変換してサンプリングする単
音節編集合成方式により、音声信号を人工的に合成する
もので、その音声信号が次段のスゼーカで音声に変換さ
れ、文字部や次の行が検出されたか否か、また文章ある
いは一文字の読みが音声で得られる。
The above exception processing outputs the corresponding pronunciation for a character string that matches a certain compound word that has been registered in the compound word dictionary in advance,
In addition, according to the registration results of On-yomi and Kun-yomi, the rule processing outputs the On-yomi when the kanji are consecutive, and the W11 reading when they are alone.Furthermore, when the explanation mode is adopted, the kanji registered in the dictionary of the rule-processing All readings are output. Furthermore, when the digit determination mode or the literature search mode is adopted, a sound is output to notify whether the next line or character section has been detected. Speech synthesis is based on the signal output by the above-mentioned process, and converts the human monosyllabic speech waveform into A7. The audio signal is artificially synthesized using a monosyllabic editing synthesis method that converts and samples the audio signal.The audio signal is converted into audio by the next stage speaker, and whether or not a character part or the next line is detected is detected. You can also get the reading of a sentence or a single character audibly.

上記のように構成された装置において、モードコントロ
ール装置によυ文学部探索モードを選択し、エリアセン
サーを書籍等の文字面上で縦横に移動すれば、エリアセ
ンサーが文字部を探索するまでの間は探索中である旨が
、探索した瞬間にはまた、流し読みモードを選択し、エ
リアセンサーを一桁分の文字列に沿って移動させれば、
それらの文字が句読点で区切られながら一連の音声で出
力される。−性分の文字を読み終った後、モードコント
ロール装置によって行検出モードに切り換え、エリアセ
ンサーを次の行に内けて移動させ、そのエリアセンサー
が次の打上に達すれば、その行の検出がスピーカから音
声で出力され、この後上記と同様にして順次各行を流し
、読むことができる。例えば、その過程において、モー
ドを説明モードに切り換えれば、文章中の特定の文字の
音訓の全ての読みをスピーカから音声として得ることに
より、その文字を確実に理解することができる。
In the device configured as described above, if the mode control device selects the υ literature section search mode and moves the area sensor vertically and horizontally on the text surface of a book, etc., the area sensor will search for the text section. If you select skim reading mode and move the area sensor along the string of one digit, the moment you search,
The letters are output as a series of sounds, separated by punctuation marks. - After reading the characters of the gender, switch to line detection mode by the mode control device, move the area sensor within the next line, and when the area sensor reaches the next launch, the detection of that line will start. The text is output as audio from the speaker, and then each line can be played and read in sequence in the same way as above. For example, in the process, if the mode is switched to explanation mode, all the pronunciations of a specific character in the text can be obtained as audio from the speaker, thereby making it possible to reliably understand that character.

【図面の簡単な説明】 第1図は本発明の実施例の全体構成図、第2図はエリア
センサーの動きに関する説明図、第6図はエリアセンツ
ーで連続して検出した画像の貼り合わせ状態についての
説明図、第4図はエリアセンサーで検出した未知の文字
の外形特徴についての説明図である。 1−・・エリアセンサー。 ゛指定代理人 工業技術院製品木ト学研究所長 高橋教司 第 2 図 第 3 図
[Brief explanation of the drawings] Fig. 1 is an overall configuration diagram of an embodiment of the present invention, Fig. 2 is an explanatory diagram regarding the movement of the area sensor, and Fig. 6 is a combination of images continuously detected by the area sensor. FIG. 4 is an explanatory diagram of the state and the external shape characteristics of an unknown character detected by the area sensor. 1-...Area sensor.゛Designated Agent: Institute of Industrial Science and Technology, Director of Product Wood Science Research Institute, Keiji Takahashi Figure 2 Figure 3

Claims (1)

【特許請求の範囲】 1、 入力部、[を部及び出力部によって構成され、 上記入力部に、手動操作で文字面上の任意の位置に移動
して小領域の画像を光学的に検出するエリアセンサーと
、エリアセンサーの文字面上における位置を検出出力す
るxyカウンターと、上記エリアセンサーに2値化回路
を介して接続される現サンプル画像メモリーと、上記現
サンプル画像メモリーに取込まれた画像の直前のザンプ
ル画像を格納する前サンプル画像メモリーと、上記両画
像の貼り合わせのためにそれらの重なり程度を計算する
残差計算回路と、現サンプル画像の黒画素数を算出する
加算投影レジスタとを備え、上記認識部に、動作モード
を切換選択するモードコントロール装置と、連続した画
像群から一字分毎の画像信号の切出しを行うと共にその
文字の特徴計算結果を予めメモリー内に辞書として記憶
させた各種文字の特徴と照合することによって上記文字
の認識を行う認識装置とを備え、上記出力部に、各文字
のそれぞれに音訓識別を施した文章、上記エリアセンサ
ーで指定した文字の全ての読みを、それぞれ音声信号と
する出力装置と、その音声信号に基づいて音声を出力す
るスピーカとを備えた、 ことを特徴とする視覚障害者用音読型文字読取器。
[Claims] 1. Consists of an input section, an output section, and an output section, wherein the input section is moved to an arbitrary position on the character surface by manual operation to optically detect an image of a small area. an area sensor, an xy counter that detects and outputs the position of the area sensor on the character surface, a current sample image memory connected to the area sensor via a binarization circuit, and an image captured in the current sample image memory. A previous sample image memory that stores the sample image immediately before the image, a residual calculation circuit that calculates the degree of overlap between the two images for pasting them together, and an addition projection register that calculates the number of black pixels in the current sample image. The recognition section is equipped with a mode control device for switching and selecting an operation mode, and a mode control device for cutting out an image signal for each character from a continuous image group, and storing the character feature calculation results in advance as a dictionary in the memory. It is equipped with a recognition device that recognizes the above-mentioned characters by comparing them with the memorized characteristics of various characters, and the above-mentioned output section is equipped with a recognition device that recognizes the above-mentioned characters by comparing them with the memorized characteristics of various characters, and the above-mentioned output section is provided with a sentence in which each character has been subjected to phonetic identification, and all of the characters specified by the above-mentioned area sensor. 1. An aloud character reader for visually impaired persons, comprising: an output device that outputs each reading as an audio signal; and a speaker that outputs audio based on the audio signal.
JP58162181A 1983-09-03 1983-09-03 Aloud reading type character reader for visually handicapped person Pending JPS6054085A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP58162181A JPS6054085A (en) 1983-09-03 1983-09-03 Aloud reading type character reader for visually handicapped person

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP58162181A JPS6054085A (en) 1983-09-03 1983-09-03 Aloud reading type character reader for visually handicapped person

Publications (1)

Publication Number Publication Date
JPS6054085A true JPS6054085A (en) 1985-03-28

Family

ID=15749549

Family Applications (1)

Application Number Title Priority Date Filing Date
JP58162181A Pending JPS6054085A (en) 1983-09-03 1983-09-03 Aloud reading type character reader for visually handicapped person

Country Status (1)

Country Link
JP (1) JPS6054085A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6375823A (en) * 1986-09-18 1988-04-06 Toshiba Corp Information input device
JPH08117533A (en) * 1994-10-24 1996-05-14 Tokyo Koutetsu Kk Dust collector

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS54107633A (en) * 1978-02-13 1979-08-23 Kokusai Denshin Denwa Co Ltd Character reading system
JPS56103764A (en) * 1980-01-23 1981-08-19 Hitachi Ltd Word processor
JPS57132231A (en) * 1981-02-07 1982-08-16 Mori Gijutsu Kenkyusho:Kk Character display device for visually handicapped person which utilizes hearing sense
JPS57139874A (en) * 1981-02-20 1982-08-30 Toshiyuki Sakai Picture input device
JPS57153381A (en) * 1981-03-19 1982-09-21 Toshiba Corp Linkage processing method
JPS58144982A (en) * 1982-02-24 1983-08-29 Toshiba Corp Picture input device

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS54107633A (en) * 1978-02-13 1979-08-23 Kokusai Denshin Denwa Co Ltd Character reading system
JPS56103764A (en) * 1980-01-23 1981-08-19 Hitachi Ltd Word processor
JPS57132231A (en) * 1981-02-07 1982-08-16 Mori Gijutsu Kenkyusho:Kk Character display device for visually handicapped person which utilizes hearing sense
JPS57139874A (en) * 1981-02-20 1982-08-30 Toshiyuki Sakai Picture input device
JPS57153381A (en) * 1981-03-19 1982-09-21 Toshiba Corp Linkage processing method
JPS58144982A (en) * 1982-02-24 1983-08-29 Toshiba Corp Picture input device

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6375823A (en) * 1986-09-18 1988-04-06 Toshiba Corp Information input device
JPH08117533A (en) * 1994-10-24 1996-05-14 Tokyo Koutetsu Kk Dust collector

Similar Documents

Publication Publication Date Title
US10741167B2 (en) Document mode processing for portable reading machine enabling document navigation
US9626000B2 (en) Image resizing for optical character recognition in portable reading machine
US7840033B2 (en) Text stitching from multiple images
US8036895B2 (en) Cooperative processing for portable reading machine
US7505056B2 (en) Mode processing in portable reading machine
US7325735B2 (en) Directed reading mode for portable reading machine
US8320708B2 (en) Tilt adjustment for optical character recognition in portable reading machine
US8249309B2 (en) Image evaluation for reading mode in a reading machine
US7629989B2 (en) Reducing processing latency in optical character recognition for portable reading machine
US7641108B2 (en) Device and method to assist user in conducting a transaction with a machine
US7659915B2 (en) Portable reading device with mode processing
US8150107B2 (en) Gesture processing with low resolution images with high resolution processing for optical character recognition for a reading machine
US20150043822A1 (en) Machine And Method To Assist User In Selecting Clothing
KR101822084B1 (en) stick for a blind person
WO2005096760A2 (en) Portable reading device with mode processing
JPH07271818A (en) Hyper-medium system
JPS6054085A (en) Aloud reading type character reader for visually handicapped person
JP2002219142A (en) Instrument for guiding visually impaired person
Priyakumari et al. Text Identification from Input Images Using Support Vector Machine Algorithm and Its Method for Product Label Reading System
KR20230085528A (en) Braille image analysis device and audio output device, Braille image processing method
JP4771253B2 (en) Information input method using triangular figure
PK et al. Portable Camera Based Assistance for Visually Impaired People
JPH01169673A (en) Electronic dictionary
JPH01169674A (en) Electronic dictionary