JP2004077928A - Apparatus and method for image processing and image formation medium - Google Patents

Apparatus and method for image processing and image formation medium Download PDF

Info

Publication number
JP2004077928A
JP2004077928A JP2002239834A JP2002239834A JP2004077928A JP 2004077928 A JP2004077928 A JP 2004077928A JP 2002239834 A JP2002239834 A JP 2002239834A JP 2002239834 A JP2002239834 A JP 2002239834A JP 2004077928 A JP2004077928 A JP 2004077928A
Authority
JP
Japan
Prior art keywords
image
image data
stereoscopic
stereoscopic image
dimensional
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2002239834A
Other languages
Japanese (ja)
Inventor
Makoto Hirota
廣田 真
Kunio Yamada
山田 邦夫
Takashi Yamamuro
山室 隆
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Business Innovation Corp
Original Assignee
Fuji Xerox Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Xerox Co Ltd filed Critical Fuji Xerox Co Ltd
Priority to JP2002239834A priority Critical patent/JP2004077928A/en
Publication of JP2004077928A publication Critical patent/JP2004077928A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a device and a method for image processing that form an image capable of providing information with the same medium irrelevantly to whether eyesight is strong or weak and an image formation medium capable of providing the information by itself. <P>SOLUTION: Stereoscopic image data of a stereoscopic image consisting of a stereoscopic image object corresponding to the shape of a non-stereoscopic image and a braille object representing information entered into the non-stereoscopic image in characters is generated from image data of the non-stereoscopic image, superposed image data are generated by superposing the stereoscopic image of the stereoscopic image data on the non-stereoscopic image of the non-stereoscopic image data, and image formation is carried out based upon the superposed image data. <P>COPYRIGHT: (C)2004,JPO

Description

【0001】
【発明の属する技術分野】
本発明は、画像処理装置、画像処理方法及び画像形成媒体に関し、特に、媒体の同一平面上に属性の異なる画像を形成することが可能な画像処理装置、画像処理方法、及び同一平面上に属性の異なる画像が形成された画像形成媒体に関する。
【0002】
【従来の技術】
道路地図や駅構内の案内図など、日常の様々な場所で地図が用いられており、例えば、ある町の公民館に訪れる場合には、図11に示すように、最寄の駅から公民館までの範囲を示す地図を参考にしていた。
【0003】
そして、このような地図には、銀行や郵便局など、駅周辺の様々な施設に間する情報が含まれていることも多く、このような施設は、目的地までの目印にもなり、このような情報は、大変重要であった。
【0004】
また、視力の弱い、あるいは目の不自由な人にとっては、このような画像の地図から情報を得ることは困難であり、例えば、図12に示すように、点字等を用いて表記した触地図(立体地図)を利用していた。
【0005】
ここで、図12において、黒色の位置は、膨らみを有しており、指先(触覚)で情報を得ることを可能としている。
【0006】
【発明が解決しようとする課題】
しかし、健常者では、触覚で地図を認識することが困難であるため、最寄の駅から公民館までの地図を用意する場合には、図11に示すように、視覚で認識することが可能な地図と、図12に示すように、触覚で認識することが可能な地図の双方を準備する必要があるため、大変なコストがかかっていた。
【0007】
また、人に応じてそれぞれの地図を提供する必要があるため、地図を送付する場合には、大変な手間がかかっていた。
【0008】
そこで本発明では、視力の強弱に関わらず同一の媒体で情報を提供することが可能な画像を形成する画像処理装置、画像処理方法、及び同一の媒体で情報を提供することが可能な画像形成媒体を提供することを目的とする。
【0009】
【課題を解決するための手段】
本発明に係る画像処理装置は、非立体画像が形成される非立体画像データを入力する画像データ入力手段と、画像データ入力手段により入力された非立体画像データに対応する立体画像データを生成する立体画像データ生成手段と、立体画像データ生成手段により生成された立体画像データの画像と非立体画像データの画像とを重畳させた重畳画像データを生成する画像重畳手段とを具備する。
【0010】
また、非立体画像データと立体画像データとは、同一内容の情報が表現される画像の画像データであり、画像の形状が異なる。
【0011】
ここで、非立体画像データは、視覚によって情報を認識するに適した形状を有する画像の画像データであり、立体画像データは、触覚によって情報を認識するに適した形状を有する画像の画像データである。
【0012】
そして、立体画像データは、2次元方向の形状が非立体画像データの画像を拡大した形状である。
【0013】
なお、立体画像は、白色の凹凸で形成される。
【0014】
また、画像重量部で生成された重量画像データを画像形成装置に送信する重量画像データ送信手段をさらに具備する。
【0015】
また、画像重量部で生成された重量画像データに基づいて画像形成する画像形成手段を備える。
【0016】
次に、本発明に係る画像処理方法は、非立体画像が形成される非立体画像データを入力する工程と、入力された非立体画像データに対応する立体画像データを生成する工程と、生成された立体画像データの画像と非立体画像データの画像とを重畳させた重畳画像データを生成する工程とを有する。
【0017】
また、非立体画像データと立体画像データとは、同一内容の情報が表現される画像の画像データであり、画像の形状が異なる。
【0018】
ここで、非立体画像データは、視覚によって情報を認識するに適した形状を有する画像の画像データであり、立体画像データは、触覚によって情報を認識するに適した形状を有する画像の画像データである。
【0019】
そして、立体画像データは、2次元方向の形状が非立体画像データの画像を拡大した形状である。
【0020】
なお、立体画像は、白色の凹凸で形成される。
【0021】
また、重量画像データを画像形成装置に送信する重量画像データ送信工程をさらに具備する。
【0022】
本発明に係る画像形成媒体は、平面的に画像形成された非立体画像と、立体的に画像形成された立体画像とを有し、非立体画像と立体画像とは、同一内容の情報を表現する。
【0023】
また、非立体画像と立体画像とは、2次元方向の形状が異なる。
【0024】
そして、非立体画像は、視覚により認識しやすい形状を有し、立体画像は、触覚により認識しやすい形状を有する。
【0025】
ここで、立体画像の2次元形状は、立体画像の2次元形状を拡大したものである。
【0026】
なお、立体画像は、白色で画像形成されている。
【0027】
【発明の実施の形態】
以下、本発明に係る画像処理装置、画像処理方法及び画像形成媒体の実施の形態を添付図面を参照して詳細に説明する。
【0028】
図1は、本発明に係る画像処理装置を用いたシステムの構成の一例を示す概略ブロック図であり、PC(パーソナルコンピュータ)、ワークステーションなど、画像の編集を行う画像編集装置10と、電子写真方式のプリンタなど、画像編集装置から受信した画像形成データに基づいて画像形成を行う画像形成装置20とが、シリアルケーブルやネットワークケーブル等の図示しない通信ケーブルを介して接続している。
【0029】
そして、画像編集装置10には、スキャナやCDROMなど、画像データの入力を行う画像入力部11、画像データに処理を施して非立体画像と立体画像とが重畳した画像データを生成する画像データ処理部12、画像データから画像形成データを生成する画像形成データ生成部13が設けられ、画像処理装置として画像の処理を行う。
【0030】
ここで、画像データ処理部12には、非立体画像に対応する立体画像を判断する画像判断部14、非立体画像に対応する立体画像の画像データを蓄積する画像蓄積部15、非立体画像と立体画像を重畳させた画像データを生成する画像重畳部16とが設けられている。
【0031】
また、画像形成装置20には、画像形成データに基づいて画像形成を行う画像形成部21、画像形成を行った記録紙を排出する記録紙排出部22が設けられており、画像形成部21では、画像形成データに基づいて、立体画像を発泡トナーを用いて記録紙上に画像形成する共に、色トナーを用いて非立体画像を記録紙上に画像形成する。
【0032】
次に、図2は、本発明に係る画像処理方法における画像処理の流れの一例を示すフローチャートであり、この図を用いて本実施の形態における画像処理の流れを説明する。
【0033】
まず、画像形成を行う非立体画像が決定する(ステップ100)と、この非立体画像に対応する立体画像を画像形成するか判断(ステップ101)する。
【0034】
そして、立体画像を画像形成しないと判断する(ステップ101でNO)と、非立体画像から画像形成データを生成(ステップ102)し、画像形成データから画像を形成する画像形成装置に画像形成データを送信する(ステップ109)。
【0035】
また、立体画像を画像形成すると判断する(ステップ101でYES)と、立体画像のみを画像形成するか判断する(ステップ103)。
【0036】
ここで、立体画像のみを画像形成する(ステップ103でYES)と判断すると、非立体画像に対応する立体画像の画像データを生成(ステップ104)し、この立体画像データから画像形成データを生成(ステップ105)して、画像形成装置に画像形成データを送信する(ステップ109)。
【0037】
一方、立体画像のみを画像形成しない(ステップ103でNO)と判断すると、非立体画像に対応する立体画像の画像データを生成(ステップ106)し、非立体画像と立体画像とを適切な位置で重畳させた画像の画像データを生成(ステップ107)する。
【0038】
そして、この重畳画像データから画像形成データを生成(ステップ108)し、画像形成装置に画像形成データを送信する(ステップ109)。
【0039】
なお、画像の重畳データとは、立体画像データの画像と非立体画像データの画像とを重畳させて記録媒体に画像形成する重畳画像のデータであり、単なるデータの合成を含む。
【0040】
また、立体画像と非立体画像とを重畳させる際に、立体地図のオブジェクトを拡大して非立体地図のオブジェクトに重畳させるように構成することも可能で、好ましくは、指先で必要な情報を適切かつ容易に取得できるように非立体画像の画像形状が簡略化された立体画像、つまり2次元方向の形状が簡略化された立体画像を拡大する(図11及び図12参照)。
【0041】
この構成では、立体画像の画像密度が低くなるため、指先(触覚)で容易に凹凸を認識することが可能となり、また、立体画像の画像密度のみが低下するため、非立体画像上の情報量は維持され、視覚で得られる情報量を維持しながら、触覚(指先)では、必要な情報を容易に認識することが可能となる。
【0042】
そして、立体地図のオブジェクトを拡大することによって、画像を形成する媒体(記録紙)のサイズを超えた場合には、次のような処理を施して画像形成を行う。
【0043】
1)立体地図にトリミングを施して媒体の大きさを超える領域の画像を削除して画像形成を行う。
2)立体地図を画像形成することが可能なサイズの媒体を選択して画像形成を行う。
3)立体地図を分割し、複数枚の媒体に画像形成する。
【0044】
次に、図3を用いて、本実施の形態における立体画像データの生成方法を説明する。
【0045】
まず、非立体画像を構成する画像要素を認識する(ステップ200)と、画素要素が地図を示す地図オブッジェクトであるかを判断する(ステップ210)。
【0046】
そして、地図オブジェクトであると判断する(ステップ210でYES)と、地図オブジェクト処理を行い(ステップ211)、非立体画像のすべての画像要素を認識したかを判断する(ステップ250)。
【0047】
また、地図オブジェクトでないと判断する(ステップ210でNO)と、画素要素が文字を示す文字オブッジェクトであるか判断する(ステップ220)。
【0048】
ここで、文字オブジェクトであると判断する(ステップ220でYES)と、文字オブジェクト処理を行い(ステップ221)、非立体画像のすべての画像要素を認識したかを判断する(ステップ250)。
【0049】
そして、文字オブジェクトでないと判断する(ステップ220でNO)と、画素要素が他の図形を示す図形オブッジェクトであるか判断する(ステップ230)。
【0050】
図形オブジェクトであると判断する(ステップ230でYES)と、図形オブジェクト処理を行い(ステップ231)、非立体画像のすべての画像要素を認識したかを判断する(ステップ250)。
【0051】
ここで、図形オブジェクトでないと判断する(ステップ230でNO)と、画素要素がイメージを示すイメージオブッジェクトであるか判断する(ステップ240)。
【0052】
また、イメージオブジェクトであると判断する(ステップ240でYES)と、イメージオブジェクト処理を行い(ステップ241)、非立体画像のすべての画像要素を認識したかを判断する(ステップ250)。
【0053】
そして、非立体画像のすべての画像要素を認識していないと判断する(ステップ250でNO)と、他の構成画像要素を認識(ステップ200)し、オブジェクトの判断を行う。
【0054】
非立体画像のすべての画像要素を認識したと判断する(ステップ250でYES)と、各オブジェクトを変換して立体画像を形成し、立体画像データを生成する(ステップ260)。
【0055】
ここで、各オブジェクトのオブジェクト処理について、図面を用いて詳細に説明する。
【0056】
図4は、地図オブジェクトのオブジェクト処理の流れを示すフローチャートであり、画像要素が地図オブジェクトであると判断すると、まず、地図オブジェトのコードナンバーを認識する(ステップ310)。
【0057】
このコードナンバーは、地図オブジェクトが示す地域や、地図オブジェクトで表されている地形の形状などに応じて割り振られている。
【0058】
そして、画像処理装置に記憶されている立体地図(触地図)オブジェクトの中から、地図のコードナンバーに対応する立体地図オブジェクトを取得する(ステップ311)。
【0059】
また、取得した立体地図オブジェクトをコードナンバーが対応する非立体地図の位置に会わせて配置(ステップ312)し、非立体画像に対応する位置に各要素のオブジェクトを配置した立体画像オブジェクトを生成する(ステップ313)。
【0060】
なお、同一種類の立体地図のオブジェクトを連続して表示する場合には、隣接する立体地図オブジェクトが適切に接続されるように配置する。
【0061】
図5は、文字オブジェクトのオブジェクト処理の流れを示すフローチャートであり、画像要素が文字オブジェクトであると判断すると、まず、文字オブジェトのコードナンバーを認識する(ステップ320)。
【0062】
このコードナンバーは、かな文字やアルファベット、記号など、点字に変換可能な文字に対応して割り振られており、文字オブジェクトが漢字などである場合は、読みがなに一端変換した後、コードナンバーを認識する。
【0063】
そして、画像処理装置に記憶されている点字のオブジェクトの中から、文字のコードナンバーに対応する点字のオブジェクトを取得する(ステップ321)。
【0064】
また、取得した点字のオブジェクトをコードナンバーが対応する文字の位置に会わせて配置(ステップ322)し、非立体画像に対応する位置に各要素のオブジェクトを配置した立体画像オブジェクトを生成する(ステップ323)。
【0065】
なお、点字オブジェクトは、点字の文法に従って点字オブジェクトをさらに変換して配置するように構成することが好ましい。
【0066】
図6は、図形オブジェクトのオブジェクト処理の流れを示すフローチャートであり、画像要素が地図でも文字でもない図形オブジェクトであると判断すると、まず、図形オブジェトのコードナンバーを認識する(ステップ330)。
【0067】
このコードナンバーは、図形オブジェクトの形状などに応じて割り振られている。
【0068】
そして、画像処理装置に記憶されている立体地図(触地図)オブジェクトの中から、図形のコードナンバーに対応する立体地図オブジェクトを取得する(ステップ331)。
【0069】
また、取得した立体地図オブジェクトをコードナンバーが対応する図形の位置に会わせて配置(ステップ332)し、非立体画像に対応する位置に各要素のオブジェクトを配置した立体画像オブジェクトを生成する(ステップ333)。
【0070】
図7は、イメージオブジェクトのオブジェクト処理の流れを示すフローチャートであり、画素要素がイメージオブジェクトであると判断すると、イメージオブジェクトの種類を認識する(ステップ400)。
【0071】
そして、イメージオブジェクトが地図イメージであるか判断(ステップ410)し、地図イメージであると判断する(ステップ410でYES)と、イメージオブジェクトに地図イメージ処理を行う(ステップ411)。
【0072】
また、地図イメージではないと判断する(ステップ410でNO)と、文字イメージであるかの判断を行い(ステップ420)、文字イメージであると判断する(ステップ420でYES)と、イメージオブジェクトに文字イメージ処理を行う(ステップ421)。
【0073】
一方、文字イメージでないと判断する(ステップ420でNO)と、地図及び文字以外の他の図形イメージであるかの判断を行い(ステップ430)、他の図形イメージであると判断する(ステップ430でYES)と、イメージオブジェクトに図形イメージ処理を行う(ステップ431)。
【0074】
また、他の図形イメージでないと判断する(ステップ420でNO)と、このイメージオブジェクトのオブジェクト処理を中止し、非立体画像の全ての画素要素の認識が終了したか確認する。
【0075】
ここで、種類のイメージのイメージ処理について、図面を用いて詳細に説明する。
【0076】
図8は、地図イメージのイメージ処理の流れを示すフローチャートであり、画像要素が地図イメージ(文字以外の平面形状をあらわす図形)であると判断すると、まず、地図イメージの形状を認識する(ステップ510)。
【0077】
そして、地図イメージの形状と類似形状の立体地図(触地図)の地図オブジェクトを取得する(ステップ511)。
【0078】
また、取得した立体地図オブジェクトを対応する地図イメージの位置に会わせて配置(ステップ512)し、非立体画像に対応する位置に各要素のオブジェクトを配置した立体画像オブジェクトを生成する(ステップ313)。
【0079】
なお、同一種類の立体地図のオブジェクトを連続して表示する場合には、隣接する立体地図オブジェクトが適切に接続されるように配置する。
【0080】
図9は、文字イメージのイメージ処理の流れを示すフローチャートであり、画像要素が文字イメージであると判断すると、まず、文字イメージにOCR(optical character reader)処理を施す(ステップ520)。
【0081】
そして、文字イメージを文字オブジェクトに変換し、この文字オブジェクトに対応するコードナンバーを認識する(ステップ521)。
【0082】
このコードナンバーは、かな文字やアルファベット、記号など、点字に変換可能な文字に対応して割り振られており、文字オブジェクトが漢字などである場合は、読みがなに一端変換した後、コードナンバーを認識する。
【0083】
そして、画像処理装置に記憶されている点字のオブジェクトの中から、文字のコードナンバーに対応する点字のオブジェクトを取得する(ステップ522)。
【0084】
また、取得した点字のオブジェクトを文字オブジェクトに変換した文字イメージの位置に会わせて配置(ステップ523)し、非立体画像に対応する位置に各要素のオブジェクトを配置した立体画像オブジェクトを生成する(ステップ524)。
【0085】
なお、点字オブジェクトは、点字の文法に従って点字オブジェクトをさらに変換して配置するように構成することが好ましい。
【0086】
図10は、図形イメージのイメージ処理の流れを示すフローチャートであり、画像要素が地図でも文字でもない図形イメージ(立体図形)であると判断すると、まず、図形イメージの平面方向の形状に対応した非立体画像オブジェクトを生成する(ステップ530)。
【0087】
そして、図形イメージの位置に対応して非立体画画像オブジェクトを配置(ステップ531)し、非立体画像に対応する位置に各要素のオブジェクトを配置した非立体画像オブジェクトを生成する(ステップ532)。
【0088】
このように本実施の形態では、入力された非立体画像に対応する立体画像を容易に画像形成することができる。
【0089】
また、立体画像と非立体画像とを重畳させるため、画像形成を行う媒体(記録紙)の同一面に立体画像と非立体画像とを形成することが可能で、視力が弱い、強いに関わらず対応することが可能な地図を容易かつ安価に製造することができる。
【0090】
ここで、立体画像と非立体画像とを重畳させる際に、必要な情報が適切かつ容易に取得できるように2次元方向の形状が簡略化された立体画像(図11及び図12参照)を拡大して非立体画像に重畳することにより、非立体画像上の情報量を維持しつつ、指先(触覚)で容易に凹凸を認識することが可能となる。
【0091】
さらに、立体画像を白色の発泡トナーなど、記録紙と同色の発泡トナーを用いて画像形成し、その上に色トナーを用いて非立体画像を画像形成することにより、立体画像の凹凸が非立体画像の表現に与える影響を抑えることができる。
【0092】
加えて、発泡トナーは、トナー自体が膨張して高さを生じさせるため、凹凸を読むための指との接触等によって凹凸の高さが減少することを防止することができる。
【0093】
なお、本実施の形態では、画像処理装置で画像処理を施して非立体画像と立体画像とを重畳させているが、図1で示した画像データ処理部を画像形成装置内に設け、画像編集装置から送信された非立体画像の画像形成データ(非立体画像データ)に対して立体画像データを重畳させるデータ処理を施し、その後、画像形成を行うように構成することもできる。
【0094】
【発明の効果】
このように本発明では、視力の強弱に関わらず同一の媒体で情報を提供することができる。
【図面の簡単な説明】
【図1】本発明に係る画像処理装置を用いたシステムの構成の一例を示す概略ブロック図
【図2】本実施の形態における画像処理の流れを示すフローチャート
【図3】本実施の形態における立体画像データ生成の流れを示すフローチャート
【図4】地図オブジェクトのオブジェクト処理の流れを示すフローチャート
【図5】文字オブジェクトのオブジェクト処理の流れを示すフローチャート
【図6】図形オブジェクトのオブジェクト処理の流れを示すフローチャート
【図7】イメージオブジェクトのオブジェクト処理の流れを示すフローチャート
【図8】地図イメージのイメージ処理の流れを示すフローチャート
【図9】文字イメージのイメージ処理の流れを示すフローチャート
【図10】図形イメージのイメージ処理の流れを示すフローチャート
【図11】非立体画像の地図の一例を示す平面図
【図12】立体画像の地図(触地図)の一例を示す平面図
【符号の説明】
10…画像編集装置
11…画像入力部
12…画像データ処理部
13…画像形成データ生成部
14…画像判断部
15…画像蓄積部
16…画像重畳部
20…画像形成装置
21…画像形成部
22…記録紙排出部
[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to an image processing apparatus, an image processing method, and an image forming medium, and more particularly, to an image processing apparatus, an image processing method, and an attribute that can form images having different attributes on the same plane of a medium. And image forming media on which different images are formed.
[0002]
[Prior art]
Maps are used in various places of daily life, such as road maps and guide maps in station yards. For example, when visiting a public hall in a certain town, as shown in FIG. The map showing the range was referred to.
[0003]
Such maps often include information for various facilities around the station, such as banks and post offices, and such facilities also serve as landmarks to destinations. Such information was very important.
[0004]
In addition, it is difficult for a person who has poor eyesight or blindness to obtain information from a map of such an image. For example, as shown in FIG. 12, a tactile map written using braille or the like is used. (Three-dimensional map).
[0005]
Here, in FIG. 12, the black position has a bulge, and it is possible to obtain information with a fingertip (tactile sensation).
[0006]
[Problems to be solved by the invention]
However, since it is difficult for a healthy person to recognize the map by touch, it is possible to visually recognize the map from the nearest station to the public hall as shown in FIG. Since it is necessary to prepare both a map and a map that can be recognized by tactile sensation, as shown in FIG. 12, a great cost is required.
[0007]
In addition, since it is necessary to provide each map according to a person, it takes a lot of trouble to send the map.
[0008]
Therefore, in the present invention, an image processing apparatus and an image processing method for forming an image capable of providing information on the same medium regardless of the level of visual acuity, and an image forming apparatus capable of providing information on the same medium The purpose is to provide a medium.
[0009]
[Means for Solving the Problems]
An image processing apparatus according to the present invention generates image data input means for inputting non-stereo image data on which a non-stereo image is formed, and generates stereo image data corresponding to the non-stereo image data input by the image data input means. The image processing apparatus includes a stereoscopic image data generating unit and an image superimposing unit that generates superimposed image data in which an image of the stereoscopic image data generated by the stereoscopic image data generating unit and an image of the non-stereoscopic image data are superimposed.
[0010]
The non-stereoscopic image data and the stereoscopic image data are image data of an image in which the same information is expressed, and have different shapes.
[0011]
Here, the non-stereo image data is image data of an image having a shape suitable for visually recognizing information, and the stereo image data is image data of an image having a shape suitable for recognizing information by touch. is there.
[0012]
The three-dimensional image data is a shape in which the shape in the two-dimensional direction is an enlarged image of the non-stereo image data.
[0013]
Note that the three-dimensional image is formed with white irregularities.
[0014]
The image processing apparatus further includes weight image data transmitting means for transmitting the weight image data generated by the image weight unit to the image forming apparatus.
[0015]
The image forming apparatus further includes an image forming unit that forms an image based on the weight image data generated by the image weight unit.
[0016]
Next, the image processing method according to the present invention includes the steps of: inputting non-stereo image data on which a non-stereo image is formed; and generating stereo image data corresponding to the input non-stereo image data. And generating superimposed image data in which the image of the stereoscopic image data and the image of the non-stereoscopic image data are superimposed.
[0017]
The non-stereoscopic image data and the stereoscopic image data are image data of an image in which the same information is expressed, and have different shapes.
[0018]
Here, the non-stereo image data is image data of an image having a shape suitable for visually recognizing information, and the stereo image data is image data of an image having a shape suitable for recognizing information by touch. is there.
[0019]
The three-dimensional image data is a shape in which the shape in the two-dimensional direction is an enlarged image of the non-stereo image data.
[0020]
Note that the three-dimensional image is formed with white irregularities.
[0021]
The image processing apparatus further includes a weight image data transmitting step of transmitting the weight image data to the image forming apparatus.
[0022]
An image forming medium according to the present invention has a non-stereo image formed planarly and a stereo image formed stereoscopically, and the non-stereo image and the stereo image represent information of the same content. I do.
[0023]
The non-stereoscopic image and the stereoscopic image have different shapes in the two-dimensional direction.
[0024]
The non-stereoscopic image has a shape that is easily recognized visually, and the stereoscopic image has a shape that is easily recognized by touch.
[0025]
Here, the two-dimensional shape of the three-dimensional image is obtained by enlarging the two-dimensional shape of the three-dimensional image.
[0026]
The three-dimensional image is formed in white.
[0027]
BEST MODE FOR CARRYING OUT THE INVENTION
Hereinafter, embodiments of an image processing apparatus, an image processing method, and an image forming medium according to the present invention will be described in detail with reference to the accompanying drawings.
[0028]
FIG. 1 is a schematic block diagram showing an example of the configuration of a system using an image processing apparatus according to the present invention. An image editing apparatus 10 for editing images, such as a PC (personal computer) or a workstation, and an electrophotographic apparatus An image forming apparatus 20 that forms an image based on image forming data received from an image editing apparatus, such as a printer of a type, is connected via a communication cable (not shown) such as a serial cable or a network cable.
[0029]
The image editing apparatus 10 includes an image input unit 11 such as a scanner or a CDROM for inputting image data, and an image data process for processing image data to generate image data in which a non-stereoscopic image and a stereoscopic image are superimposed. An image forming data generating unit 13 that generates image forming data from the image data is provided as a unit 12, and performs image processing as an image processing apparatus.
[0030]
Here, the image data processing unit 12 includes an image determination unit 14 that determines a stereoscopic image corresponding to the non-stereoscopic image, an image storage unit 15 that stores image data of the stereoscopic image corresponding to the non-stereoscopic image, and a non-stereoscopic image. An image superimposing unit 16 that generates image data in which a stereoscopic image is superimposed is provided.
[0031]
The image forming apparatus 20 includes an image forming unit 21 that forms an image based on image forming data, and a recording paper discharging unit 22 that discharges the recording paper on which the image has been formed. On the basis of the image forming data, a three-dimensional image is formed on a recording sheet using a foaming toner, and a non-three-dimensional image is formed on a recording sheet using a color toner.
[0032]
Next, FIG. 2 is a flowchart showing an example of the flow of image processing in the image processing method according to the present invention. The flow of image processing in the present embodiment will be described with reference to FIG.
[0033]
First, when a non-stereoscopic image to be formed is determined (step 100), it is determined whether a stereoscopic image corresponding to the non-stereoscopic image is to be formed (step 101).
[0034]
If it is determined that the stereoscopic image is not to be formed (NO in step 101), image forming data is generated from the non-stereoscopic image (step 102), and the image forming data is transmitted to the image forming apparatus that forms an image from the image forming data. Send it (step 109).
[0035]
If it is determined that a stereoscopic image is to be formed (YES in step 101), it is determined whether to form only a stereoscopic image (step 103).
[0036]
If it is determined that only a stereoscopic image is to be formed (YES in step 103), image data of a stereoscopic image corresponding to the non-stereoscopic image is generated (step 104), and image forming data is generated from the stereoscopic image data (step 104). Then, the image forming data is transmitted to the image forming apparatus (step 109).
[0037]
On the other hand, if it is determined that only the stereoscopic image is not to be formed (NO in step 103), image data of the stereoscopic image corresponding to the non-stereoscopic image is generated (step 106), and the non-stereoscopic image and the stereoscopic image are placed at appropriate positions. The image data of the superimposed image is generated (step 107).
[0038]
Then, image forming data is generated from the superimposed image data (step 108), and the image forming data is transmitted to the image forming apparatus (step 109).
[0039]
The superimposed image data is data of a superimposed image in which an image of stereoscopic image data and an image of non-stereoscopic image data are superimposed to form an image on a recording medium, and includes simple data synthesis.
[0040]
Further, when superimposing a stereoscopic image and a non-stereoscopic image, it is possible to enlarge the stereoscopic map object and superimpose the stereoscopic map object on the non-stereoscopic map object. In addition, the stereoscopic image in which the image shape of the non-stereoscopic image is simplified so as to be easily acquired, that is, the stereoscopic image in which the shape in the two-dimensional direction is simplified is enlarged (see FIGS. 11 and 12).
[0041]
In this configuration, since the image density of the stereoscopic image is reduced, it is possible to easily recognize irregularities with a fingertip (tactile sensation), and since only the image density of the stereoscopic image is reduced, the amount of information on the non-stereoscopic image is reduced. Is maintained, and it is possible to easily recognize necessary information with the sense of touch (fingertip) while maintaining the amount of information obtained visually.
[0042]
If the size of the medium (recording paper) on which the image is formed by enlarging the object of the three-dimensional map exceeds the size, the image is formed by performing the following processing.
[0043]
1) The image is formed by trimming the three-dimensional map and deleting the image in the area exceeding the size of the medium.
2) An image is formed by selecting a medium having a size capable of forming a three-dimensional map image.
3) The three-dimensional map is divided and images are formed on a plurality of media.
[0044]
Next, a method of generating stereoscopic image data according to the present embodiment will be described with reference to FIG.
[0045]
First, upon recognizing an image element constituting a non-stereoscopic image (step 200), it is determined whether the pixel element is a map object indicating a map (step 210).
[0046]
If it is determined that the object is a map object (YES in step 210), map object processing is performed (step 211), and it is determined whether all image elements of the non-stereoscopic image have been recognized (step 250).
[0047]
If it is determined that the pixel element is not a map object (NO in step 210), it is determined whether the pixel element is a character object representing a character (step 220).
[0048]
Here, if it is determined that the object is a character object (YES in step 220), character object processing is performed (step 221), and it is determined whether all image elements of the non-stereoscopic image have been recognized (step 250).
[0049]
If it is determined that the pixel element is not a character object (NO in step 220), it is determined whether the pixel element is a graphic object representing another graphic (step 230).
[0050]
If it is determined that the object is a graphic object (YES in step 230), graphic object processing is performed (step 231), and it is determined whether all image elements of the non-stereoscopic image have been recognized (step 250).
[0051]
If it is determined that the pixel element is not a graphic object (NO in step 230), it is determined whether the pixel element is an image object representing an image (step 240).
[0052]
If it is determined that the image is an image object (YES in step 240), image object processing is performed (step 241), and it is determined whether all image elements of the non-stereo image have been recognized (step 250).
[0053]
If it is determined that all the image elements of the non-stereoscopic image have not been recognized (NO in step 250), other constituent image elements are recognized (step 200), and an object is determined.
[0054]
If it is determined that all image elements of the non-stereoscopic image have been recognized (YES in step 250), each object is converted to form a stereoscopic image, and stereoscopic image data is generated (step 260).
[0055]
Here, the object processing of each object will be described in detail with reference to the drawings.
[0056]
FIG. 4 is a flowchart showing the flow of object processing of a map object. When it is determined that an image element is a map object, first, the code number of the map object is recognized (step 310).
[0057]
The code numbers are assigned according to the area indicated by the map object, the shape of the terrain represented by the map object, and the like.
[0058]
Then, a three-dimensional map object corresponding to the code number of the map is obtained from the three-dimensional map (touch map) object stored in the image processing apparatus (step 311).
[0059]
In addition, the acquired three-dimensional map object is arranged so as to meet the position of the non-three-dimensional map corresponding to the code number (step 312), and a three-dimensional image object in which the object of each element is arranged at the position corresponding to the non-three-dimensional image is generated. (Step 313).
[0060]
When continuously displaying the same type of three-dimensional map object, the three-dimensional map objects are arranged so that adjacent three-dimensional map objects are appropriately connected.
[0061]
FIG. 5 is a flowchart showing the flow of object processing of a character object. When it is determined that an image element is a character object, first, the code number of the character object is recognized (step 320).
[0062]
This code number is assigned in correspondence with characters that can be converted to Braille, such as kana characters, alphabets, and symbols. recognize.
[0063]
Then, a braille object corresponding to the code number of the character is acquired from the braille objects stored in the image processing apparatus (step 321).
[0064]
In addition, the obtained braille object is arranged so as to meet the position of the character corresponding to the code number (step 322), and a stereoscopic image object in which the object of each element is arranged at the position corresponding to the non-stereoscopic image is generated (step 322). 323).
[0065]
It is preferable that the braille object is configured so that the braille object is further converted and arranged according to the braille grammar.
[0066]
FIG. 6 is a flowchart showing the flow of object processing of a graphic object. When it is determined that an image element is a graphic object that is neither a map nor a character, first, the code number of the graphic object is recognized (step 330).
[0067]
This code number is assigned according to the shape of the graphic object or the like.
[0068]
Then, a three-dimensional map object corresponding to the code number of the figure is obtained from the three-dimensional map (touch map) object stored in the image processing apparatus (step 331).
[0069]
In addition, the acquired three-dimensional map object is arranged so as to meet the position of the figure corresponding to the code number (step 332), and a three-dimensional image object in which the object of each element is arranged at the position corresponding to the non-stereo image is generated (step 332). 333).
[0070]
FIG. 7 is a flowchart showing the flow of object processing of an image object. When it is determined that a pixel element is an image object, the type of the image object is recognized (step 400).
[0071]
Then, it is determined whether the image object is a map image (step 410), and if it is determined that the image object is a map image (YES in step 410), map image processing is performed on the image object (step 411).
[0072]
If it is determined that the image is not a map image (NO in step 410), it is determined whether or not the image is a character image (step 420). Image processing is performed (step 421).
[0073]
On the other hand, if it is determined that the image is not a character image (NO in step 420), it is determined whether the image is a graphic image other than a map and characters (step 430), and it is determined that the image is another graphic image (step 430). If "YES", graphic image processing is performed on the image object (step 431).
[0074]
If it is determined that the image object is not another graphic image (NO in step 420), the object processing of this image object is stopped, and it is confirmed whether the recognition of all the pixel elements of the non-stereoscopic image has been completed.
[0075]
Here, the image processing of the type image will be described in detail with reference to the drawings.
[0076]
FIG. 8 is a flowchart showing the flow of image processing of a map image. When it is determined that an image element is a map image (a figure representing a planar shape other than characters), the shape of the map image is first recognized (step 510). ).
[0077]
Then, a map object of a three-dimensional map (touch map) having a shape similar to the shape of the map image is acquired (step 511).
[0078]
In addition, the obtained three-dimensional map object is arranged so as to meet the position of the corresponding map image (step 512), and a three-dimensional image object in which the object of each element is arranged at the position corresponding to the non-three-dimensional image is generated (step 313). .
[0079]
When continuously displaying the same type of three-dimensional map object, the three-dimensional map objects are arranged so that adjacent three-dimensional map objects are appropriately connected.
[0080]
FIG. 9 is a flowchart showing the flow of image processing of a character image. When it is determined that the image element is a character image, first, an OCR (optical character reader) process is performed on the character image (step 520).
[0081]
Then, the character image is converted into a character object, and a code number corresponding to the character object is recognized (step 521).
[0082]
This code number is assigned in correspondence with characters that can be converted to Braille, such as kana characters, alphabets, and symbols. recognize.
[0083]
Then, a braille object corresponding to the code number of the character is obtained from the braille objects stored in the image processing apparatus (step 522).
[0084]
In addition, the obtained braille object is arranged so as to meet the position of the character image converted into the character object (step 523), and a three-dimensional image object in which the object of each element is arranged at a position corresponding to the non-three-dimensional image is generated (step 523). Step 524).
[0085]
It is preferable that the braille object is configured so that the braille object is further converted and arranged according to the braille grammar.
[0086]
FIG. 10 is a flowchart showing the flow of image processing of a graphic image. When it is determined that an image element is a graphic image (three-dimensional graphic) that is neither a map nor a character, first, a non-map corresponding to the shape of the graphic image in the plane direction is obtained. A stereoscopic image object is generated (Step 530).
[0087]
Then, a non-stereoscopic image object is arranged corresponding to the position of the graphic image (step 531), and a non-stereoscopic image object in which objects of respective elements are arranged at positions corresponding to the non-stereo image is generated (step 532).
[0088]
As described above, in the present embodiment, a stereoscopic image corresponding to the input non-stereoscopic image can be easily formed.
[0089]
Further, since the stereoscopic image and the non-stereoscopic image are superimposed, it is possible to form the stereoscopic image and the non-stereoscopic image on the same surface of the medium (recording paper) on which the image is formed. A map that can be handled can be easily and inexpensively manufactured.
[0090]
Here, when superimposing a stereoscopic image and a non-stereoscopic image, a stereoscopic image (see FIGS. 11 and 12) whose shape in the two-dimensional direction is simplified so that necessary information can be appropriately and easily obtained is enlarged. By superimposing the information on the non-stereoscopic image, the amount of information on the non-stereoscopic image can be maintained, and irregularities can be easily recognized with a fingertip (tactile sensation).
[0091]
Furthermore, by forming a three-dimensional image using a foaming toner of the same color as the recording paper, such as a white foaming toner, and forming a non-three-dimensional image thereon using color toner, unevenness of the three-dimensional image can be reduced. The influence on the expression of the image can be suppressed.
[0092]
In addition, since the foamed toner itself generates a height due to expansion, it is possible to prevent the height of the unevenness from being reduced by contact with a finger for reading the unevenness.
[0093]
In the present embodiment, the image processing apparatus performs image processing to superimpose the non-stereoscopic image and the stereoscopic image. However, the image data processing unit illustrated in FIG. The image forming data of the non-stereoscopic image (non-stereoscopic image data) transmitted from the apparatus may be subjected to data processing for superimposing the stereoscopic image data, and then the image may be formed.
[0094]
【The invention's effect】
As described above, according to the present invention, information can be provided on the same medium regardless of the level of visual acuity.
[Brief description of the drawings]
FIG. 1 is a schematic block diagram showing an example of a configuration of a system using an image processing apparatus according to the present invention. FIG. 2 is a flowchart showing a flow of image processing in the present embodiment. FIG. FIG. 4 is a flowchart showing a flow of object processing of a map object. FIG. 5 is a flowchart showing a flow of object processing of a character object. FIG. 6 is a flowchart showing a flow of object processing of a graphic object. FIG. 7 is a flowchart showing a flow of object processing of an image object. FIG. 8 is a flowchart showing a flow of image processing of a map image. FIG. 9 is a flowchart showing a flow of image processing of a character image. Float showing processing flow Plan view showing an example of a plan view showing an example of a map of over preparative [11] non-3D image 12 is a three-dimensional image map (tactile maps) [Description of Reference Numerals]
Reference Signs List 10 image editing device 11 image input unit 12 image data processing unit 13 image formation data generation unit 14 image determination unit 15 image storage unit 16 image superposition unit 20 image formation device 21 image formation unit 22 Recording paper discharge section

Claims (18)

非立体画像が形成される非立体画像データを入力する画像データ入力手段と、
前記画像データ入力手段により入力された非立体画像データに対応する立体画像データを生成する立体画像データ生成手段と、
前記立体画像データ生成手段により生成された立体画像データの画像と前記非立体画像データの画像とを重畳させた重畳画像データを生成する画像重畳手段とを具備することを特徴とする画像処理装置。
Image data input means for inputting non-stereo image data on which a non-stereo image is formed;
Stereoscopic image data generating means for generating stereoscopic image data corresponding to the non-stereoscopic image data input by the image data input means,
An image processing apparatus comprising: an image superimposing unit that generates superimposed image data in which an image of stereoscopic image data generated by the stereoscopic image data generating unit and an image of the non-stereoscopic image data are superimposed.
前記非立体画像データと前記立体画像データとは、
同一内容の情報が表現される画像の画像データであり、
前記画像の形状が異なる
ことを特徴とする請求項1記載の画像処理装置。
The non-stereoscopic image data and the stereoscopic image data,
Image data of an image in which the same information is expressed,
The image processing apparatus according to claim 1, wherein the shapes of the images are different.
前記非立体画像データは、
視覚によって情報を認識するに適した形状を有する画像の画像データであり、
前記立体画像データは、
触覚によって情報を認識するに適した形状を有する画像の画像データである
ことを特徴とする請求項2記載の画像処理装置。
The non-stereoscopic image data is
Image data of an image having a shape suitable for visually recognizing information,
The stereoscopic image data is
3. The image processing apparatus according to claim 2, wherein the image data is image data of an image having a shape suitable for recognizing information by touch.
前記立体画像データは、
2次元方向の形状が前記非立体画像データの画像を拡大した形状である
ことを特徴とする請求項3記載の画像処理装置。
The stereoscopic image data is
4. The image processing apparatus according to claim 3, wherein the shape in the two-dimensional direction is a shape obtained by enlarging the image of the non-stereoscopic image data.
前記立体画像は、
白色である
ことを特徴とする請求項1記載の画像処理装置。
The three-dimensional image is
The image processing apparatus according to claim 1, wherein the image processing apparatus is white.
前記画像重量手段で生成された前記重量画像データを画像形成装置に送信する重量画像データ送信手段を
さらに具備することを特徴とする請求項1記載の画像処理装置。
2. The image processing apparatus according to claim 1, further comprising a weight image data transmitting unit that transmits the weight image data generated by the image weight unit to an image forming apparatus.
前記画像重量手段で生成された前記重量画像データに基づいて画像形成する画像形成手段を備える
ことを特徴とする請求項1記載の画像処理装置。
2. The image processing apparatus according to claim 1, further comprising an image forming unit configured to form an image based on the weight image data generated by the image weight unit.
非立体画像が形成される非立体画像データを入力する工程と、
入力された非立体画像データに対応する立体画像データを生成する工程と、
生成された立体画像データの画像と前記非立体画像データの画像とを重畳させた重畳画像データを生成する工程と
を有することを特徴とする画像処理方法。
Inputting non-stereo image data in which a non-stereo image is formed;
Generating stereoscopic image data corresponding to the input non-stereoscopic image data;
Generating superimposed image data in which the generated image of the stereoscopic image data and the image of the non-stereoscopic image data are superimposed.
前記非立体画像データと前記立体画像データとは、
同一内容の情報が表現される画像の画像データであり、
前記画像の形状が異なる
ことを特徴とする請求項8記載の画像処理方法。
The non-stereoscopic image data and the stereoscopic image data,
Image data of an image in which the same information is expressed,
9. The image processing method according to claim 8, wherein the shapes of the images are different.
前記非立体画像データは、
視覚によって情報を認識するに適した形状を有する画像の画像データであり、
前記立体画像データは、
触覚によって情報を認識するに適した形状を有する画像の画像データである
ことを特徴とする請求項9記載の画像処理方法。
The non-stereoscopic image data is
Image data of an image having a shape suitable for visually recognizing information,
The stereoscopic image data is
The image processing method according to claim 9, wherein the image data is image data of an image having a shape suitable for recognizing information by touch.
前記立体画像データは、
2次元方向の形状が前記非立体画像データの画像を拡大した形状である
ことを特徴とする請求項10記載の画像処理方法。
The stereoscopic image data is
The image processing method according to claim 10, wherein the shape in the two-dimensional direction is a shape obtained by enlarging the image of the non-stereoscopic image data.
前記立体画像は、
白色の凹凸で形成される
ことを特徴とする請求項8記載の画像処理方法。
The three-dimensional image is
9. The image processing method according to claim 8, wherein the image is formed with white irregularities.
前記重量画像データを画像形成装置に送信する重量画像データ送信工程をさらに具備する
ことを特徴とする請求項8記載の画像処理方法。
9. The image processing method according to claim 8, further comprising transmitting a weight image data to the image forming apparatus.
平面的に画像形成された非立体画像と、立体的に画像形成された立体画像とを有し、
前記非立体画像と前記立体画像とは、同一内容の情報を表現する
ことを特徴とする画像形成媒体。
Having a non-stereo image formed planarly and a stereoscopic image formed stereoscopically,
An image forming medium, wherein the non-stereoscopic image and the stereoscopic image express information having the same contents.
前記非立体画像と前記立体画像とは、2次元方向の形状が異なる
ことを特徴とする請求項14記載の画像形成媒体。
The image forming medium according to claim 14, wherein the non-stereoscopic image and the stereoscopic image have different shapes in a two-dimensional direction.
前記非立体画像は、
視覚により認識しやすい形状を有し、
前記立体画像は、
触覚により認識しやすい形状を有する
ことを特徴とする請求項14記載の画像形成媒体。
The non-stereoscopic image is
It has a shape that is easy to recognize visually,
The three-dimensional image is
The image forming medium according to claim 14, wherein the image forming medium has a shape that is easily recognized by touch.
前記立体画像の2次元形状は、
前記立体画像の2次元形状を拡大したものである
ことを特徴とする請求項16記載の画像形成媒体。
The two-dimensional shape of the three-dimensional image is
17. The image forming medium according to claim 16, wherein the two-dimensional shape of the three-dimensional image is enlarged.
前記立体画像は、
白色で画像形成されている
ことを特徴とする請求項14記載の画像形成媒体。
The three-dimensional image is
The image forming medium according to claim 14, wherein an image is formed in white.
JP2002239834A 2002-08-20 2002-08-20 Apparatus and method for image processing and image formation medium Pending JP2004077928A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002239834A JP2004077928A (en) 2002-08-20 2002-08-20 Apparatus and method for image processing and image formation medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002239834A JP2004077928A (en) 2002-08-20 2002-08-20 Apparatus and method for image processing and image formation medium

Publications (1)

Publication Number Publication Date
JP2004077928A true JP2004077928A (en) 2004-03-11

Family

ID=32022819

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002239834A Pending JP2004077928A (en) 2002-08-20 2002-08-20 Apparatus and method for image processing and image formation medium

Country Status (1)

Country Link
JP (1) JP2004077928A (en)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004205564A (en) * 2002-12-20 2004-07-22 Fuji Xerox Co Ltd Image processing device, image processing method, computer program for image processing, image reading device, and copying apparatus
JP2006001132A (en) * 2004-06-17 2006-01-05 Seiko Epson Corp Sheet processor
JP2006053312A (en) * 2004-08-11 2006-02-23 Seiko Epson Corp Character information processing method, character information processor, program and storage medium
JP2006098874A (en) * 2004-09-30 2006-04-13 Seiko Epson Corp Method and device for character information processing, program, and storage medium
JP2006145624A (en) * 2004-11-16 2006-06-08 Seiko Epson Corp Braille information processor, braille information processing method, and program and recording medium
JP2006188019A (en) * 2005-01-07 2006-07-20 Seiko Epson Corp Stamping control method, program, braille character stamping device, and character information processor
JP2006243388A (en) * 2005-03-03 2006-09-14 Seiko Epson Corp Object arranging method, object arranging system, program, and recording medium
JP2006239984A (en) * 2005-03-02 2006-09-14 Seiko Epson Corp Information processing device, information processing method and program
JP2018103375A (en) * 2016-12-22 2018-07-05 カシオ計算機株式会社 Solid molding system and solid molding method
JP2018128992A (en) * 2017-02-10 2018-08-16 カシオ計算機株式会社 Three-dimensional image data creation system and three-dimensional image data creation program

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004205564A (en) * 2002-12-20 2004-07-22 Fuji Xerox Co Ltd Image processing device, image processing method, computer program for image processing, image reading device, and copying apparatus
JP2006001132A (en) * 2004-06-17 2006-01-05 Seiko Epson Corp Sheet processor
JP2006053312A (en) * 2004-08-11 2006-02-23 Seiko Epson Corp Character information processing method, character information processor, program and storage medium
JP2006098874A (en) * 2004-09-30 2006-04-13 Seiko Epson Corp Method and device for character information processing, program, and storage medium
JP2006145624A (en) * 2004-11-16 2006-06-08 Seiko Epson Corp Braille information processor, braille information processing method, and program and recording medium
JP2006188019A (en) * 2005-01-07 2006-07-20 Seiko Epson Corp Stamping control method, program, braille character stamping device, and character information processor
US7812979B2 (en) 2005-03-02 2010-10-12 Seiko Epson Corporation Information processing apparatus, information processing method and program
JP2006239984A (en) * 2005-03-02 2006-09-14 Seiko Epson Corp Information processing device, information processing method and program
JP4490849B2 (en) * 2005-03-02 2010-06-30 株式会社キングジム Information processing apparatus, information processing method, and program
JP2006243388A (en) * 2005-03-03 2006-09-14 Seiko Epson Corp Object arranging method, object arranging system, program, and recording medium
JP2018103375A (en) * 2016-12-22 2018-07-05 カシオ計算機株式会社 Solid molding system and solid molding method
JP7055996B2 (en) 2016-12-22 2022-04-19 カシオ計算機株式会社 Three-dimensional modeling system and three-dimensional modeling method
JP2018128992A (en) * 2017-02-10 2018-08-16 カシオ計算機株式会社 Three-dimensional image data creation system and three-dimensional image data creation program

Similar Documents

Publication Publication Date Title
Taylor et al. Customizable 3D printed tactile maps as interactive overlays
Haklay Interacting with geospatial technologies
Rice et al. Design considerations for haptic and auditory map interfaces
MacEachren et al. Animated maps of aggregate data: Conceptual and practical problems
CN100353293C (en) Image information displaying device
Wang et al. Instant tactile-audio map: enabling access to digital maps for people with visual impairment
CA2352844C (en) 3-d map data visualization
Wang et al. Fast and independent access to map directions for people who are blind☆
Götzelmann et al. Towards automatically generated tactile detail maps by 3D printers for blind persons
Zeng et al. Audio-haptic browser for a geographical information system
JP5797419B2 (en) Map information processing apparatus, navigation apparatus, map information processing method, and program
CN101657839A (en) System and method for region classification of 2D images for 2D-to-3D conversion
JP2004077928A (en) Apparatus and method for image processing and image formation medium
CN105989366A (en) Inclination angle correcting method of text image, page layout analysis method of text image, vision assistant device and vision assistant system
Götzelmann et al. SmartTactMaps: a smartphone-based approach to support blind persons in exploring tactile maps
Heuten et al. Interactive 3D sonification for the exploration of city maps
Costa et al. Accessible educational digital book on tablets for people with visual impairment
Götzelmann et al. Blindweb maps–an interactive web service for the selection and generation of personalized audio-tactile maps
TW200921415A (en) Method and system for rendering simplified point finding maps
US8719718B2 (en) Digital paper-enabled products and methods relating to same
Koch State of the art of tactile maps for visually impaired people
Schwarzbach et al. Physical 3D models from LIDAR data as tactile maps for visually impaired persons
Perkins Mapping and Graphicacy 22
JP3478481B2 (en) Abstract map creation method and apparatus, and recording medium
Götzelmann Interactive tactile maps for blind people using smartphones? Integrated cameras

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050713

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20071121

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20071204

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080204

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20080715