JP2013510329A - 代替感覚による視覚画像の表示 - Google Patents
代替感覚による視覚画像の表示 Download PDFInfo
- Publication number
- JP2013510329A JP2013510329A JP2012536008A JP2012536008A JP2013510329A JP 2013510329 A JP2013510329 A JP 2013510329A JP 2012536008 A JP2012536008 A JP 2012536008A JP 2012536008 A JP2012536008 A JP 2012536008A JP 2013510329 A JP2013510329 A JP 2013510329A
- Authority
- JP
- Japan
- Prior art keywords
- signal
- image
- slice
- pixel
- dependent
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61F—FILTERS IMPLANTABLE INTO BLOOD VESSELS; PROSTHESES; DEVICES PROVIDING PATENCY TO, OR PREVENTING COLLAPSING OF, TUBULAR STRUCTURES OF THE BODY, e.g. STENTS; ORTHOPAEDIC, NURSING OR CONTRACEPTIVE DEVICES; FOMENTATION; TREATMENT OR PROTECTION OF EYES OR EARS; BANDAGES, DRESSINGS OR ABSORBENT PADS; FIRST-AID KITS
- A61F9/00—Methods or devices for treatment of the eyes; Devices for putting-in contact lenses; Devices to correct squinting; Apparatus to guide the blind; Protective devices for the eyes, carried on the body or in the hand
- A61F9/08—Devices or methods enabling eye-patients to replace direct visual perception by another kind of perception
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61H—PHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
- A61H3/00—Appliances for aiding patients or disabled persons to walk about
- A61H3/06—Walking aids for blind persons
- A61H3/061—Walking aids for blind persons with electronic detecting or guiding means
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09B—EDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
- G09B21/00—Teaching, or communicating with, the blind, deaf or mute
- G09B21/001—Teaching or communicating with blind persons
- G09B21/003—Teaching or communicating with blind persons using tactile presentation of the information, e.g. Braille displays
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09B—EDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
- G09B21/00—Teaching, or communicating with, the blind, deaf or mute
- G09B21/001—Teaching or communicating with blind persons
- G09B21/006—Teaching or communicating with blind persons using audible presentation of the information
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09B—EDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
- G09B21/00—Teaching, or communicating with, the blind, deaf or mute
- G09B21/001—Teaching or communicating with blind persons
- G09B21/007—Teaching or communicating with blind persons using both tactile and audible presentation of the information
Landscapes
- Health & Medical Sciences (AREA)
- Engineering & Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Business, Economics & Management (AREA)
- Physics & Mathematics (AREA)
- Educational Administration (AREA)
- Educational Technology (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Animal Behavior & Ethology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Public Health (AREA)
- Veterinary Medicine (AREA)
- Pain & Pain Management (AREA)
- Physical Education & Sports Medicine (AREA)
- Rehabilitation Therapy (AREA)
- Epidemiology (AREA)
- Ophthalmology & Optometry (AREA)
- Biomedical Technology (AREA)
- Heart & Thoracic Surgery (AREA)
- Vascular Medicine (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
視覚画像を代替感覚により表示する方法を提供する。前記方法には以下のステージがある。背景のある周囲環境の画像、背景から識別できる物理オブジェクトを取得するステージ。画像を複数のスライス画像にスライスする。スライス画像の中に含まれた物理的オブジェクトの少なくとも一部分を各スライス画像ごとに、一度に特定の順序で識別する。変換機能を、特定の順序で、物理的画像の各識別済みの部分に適用して、音信号または触覚オブジェクト依存信号を生成する。各スライス画像に、その画像に固有の音信号または触覚位置依存信号または触覚位置依存信号を対応づける。特定の順序で各オブジェクト依存信号を各位置依存信号に重ね合わせて結合オブジェクト位置信号を生成させる。前記結合オブジェクト位置信号をインターフェースを介してユーザである盲人に出力して、盲人またはが視覚障害者が使えるようにする。
Description
本発明は、視力補助具の分野に関し、特に、画像から音への変換、画像から触覚への変換技術に関する。
盲人、視覚障害者は、自分の易動性と日常の動く方向に深刻な問題を抱えて、日々、苦闘しており、幸福な生活に影響を与えている。現代生活では、情報技術の進歩により、グラフィックディスプレイを使って、日常的に、インターフェースが可能となるようにコンピュータの使用法が拡大されている。
科学的研究の成果として、盲人および視覚障害者における聴覚力の強化が進められている。具体的には、幼少時より盲目であった人の音源を探知する能力は、視覚健常者に較べて優れており、同時に、触覚能力(例えば、点字解読)も向上している。さらに、視覚野のような、通常は、光景を処理することに使われている脳の各部分の機能が、音と触覚を処理する盲人の能力として使えることは、脳スキャンにて確認されていることである。
ライブカメラから取り込んだ画像を、音信号に変換して、視覚表現としようとする試みがなされている。
その一つの例が「vOICe」(登録商標)での視覚技術であり、「画像から音」への変換技術を通して、盲人にライブカメラ画像を経験させるものである。
もう一つの例は、「brainport」(登録商標)技術であり、これは、視覚補助器として開発されたものである。この技術は、盲人が、周囲環境を多角形とピクセルの形で見えるようにしたものである。この技術は、カメラが周囲環境の画像を撮像して、その情報をチップ処理して、インパルスに変換して電極を介して、舌から人間の脳に送達されるようにしたものである。
理論的には、デジタル感覚は、実際の視覚誘導による、異なった感覚への感覚統合により、合成像に導き、マルチ感覚処理と、訓練と、教育によって、人間の脳を神経可逆性の開発に導くことが可能である。
本発明の追加も可能であり、本発明の詳しい記述から、あるいは、本発明の実施形態から、別の態様や長所についても推論が可能になっている。
本発明のひとつの態様は、撮像デバイスを用いて、背景のある周囲環境の画像および前記背景から識別可能な、少なくとも一つの物理的オブジェクト画像を取得すること、前記画像を複数のスライス画像にスライスすること、一度に、スライス画像のそれぞれについて、スライス画像ごとの順番で、前記スライス画像に含まれる、少なくとも一つの物理的オブジェクトの少なくとも一部を識別すること、前記の少なくとも一つの物理的オブジェクトの各識別済みの部分に、特定の順序で、変換機能を適用して、音信号または触覚オブジェクト依存の信号を生成すること、各スライス画像に音信号または触覚位置依存信号を対応させること、特定の順序で、各オブジェクト依存信号に各位置依存信号を重ね合わせて、結合オブジェクト位置信号を生成すること、前記オブジェクト位置信号を、インターフェースを介して、ユーザに出力して、前記結合オブジェクト位置信号を盲人が使用できるようにして、その盲人が、周囲環境との関係で、前記少なくとも一つの物理的オブジェクトの位置と特徴を決めることから成る方法である。
本発明の別の態様は、撮像デバイスを使用して、少なくとも一つの物理的オブジェクトが含まれる周囲環境の三次元モデル画像をスライスすること、前記三次元モデル画面を表面画像により分割すること、一度に表面画像のそれぞれについて、特定の順序で、表面画像により横断面に切断された、少なくとも一つの物理的オブジェクトの、少なくとも、一部分を識別すること、特定の順序で、前記の少なくとも一つの物理的オブジェクトの各識別済みの横断面に、変換機能を適用して、音信号または触覚オブジェクト依存信号を生成すること、各表面画像に音信号または触覚位置依存信号を対応づけること、特定の順序で各オブジェクト依存信号に、各位置依存信号を重ね合わせて、結合オブジェクト位置信号を生成すること、インターフェースを介して、前記結合オブジェクト位置信号をユーザに出力して、盲人が、この結合オブジェクト位置信号を使用できるようにして、周囲環境との関係において、少なくとも一つの物理的オブジェクトの位置と特徴を決定することから成ることを特徴とする方法である。
さらに別の態様によれば、グラフィックディスプレイ画像を複数のスライス画像にスライスして、前記グラフィックディスプレイ画像に、特定の外観と特定の機能を対応づけられた複数のオブジェクトとアイコンを表示すること、各スライスごとに、変換機能をスライス画像内に含まれる各オブジェクトまたはアイコンに適用して、音信号または触覚オブジェクト依存信号を発生させること、各スライス画像に、そのスライス信号に、音信号または触覚位置依存信号を対応づけること、グラフィックディスプレイ上のユーザ制御インジケータを追跡して、インジケータの位置を探知すること、インジケータの位置が対応づけられた位置依存信号を、少しずつ、インジケータからの特定範囲内に位置するオブジェクトまたはアイコンのすべてのオブジェクト依存信号に重ね合わせて、結合オブジェクト位置信号を生成し、さらに、インターフェースを介して結合オブジェクト位置信号をユーザに出力して、前記結合オブジェクト位置信号をユーザである盲人が使用できるようにして、盲人が、グラフィックディスプレイ上のオブジェクトとアイコンの位置、外観、機能を決定できるようにして、さらに、取得すること、スライスすること、追跡すること、適用すること、対応づけること、重ね合わせること、出力することの動作のうちの少なくとも一つが少なくとも一つのコンピュータで実現されることを特徴とする方法である。
本発明の追加、別の態様、長所は、本発明の詳しい説明で記述されているし、その記載からの推論も可能であり、本発明の実施例からも知ることができる。
本発明の実施形態をより深く理解し、本発明がどのように実施されるかを知るために、添付図面を参照できるが、これらの図面は単に例示のためだけのものであり、さらに、図面に同じ番号が割り振られている場合には、機能が同じ構成要素であるために、類似番号が付されているものである。
これらの図は、以下の明細書の記述を同時に参照することで、本発明がどのように実施されたかについて、当業者には明白である。
詳細な説明に先立って、この後の説明で使用される用語の定義について述べておくことが有益であろう。
この明細書の中で使用される「物理的オブジェクト」という用語は、空間的及び時間的に存在する実体のすべてのことを指す。この物理的オブジェクトの幾何学的特質として、この明細書の中では、少なくとも1つの特定の撮像機器により検出されたテキスチャ、形状、色、動きを含んでいる。
この明細書の中で使われる「撮像機器」という用語の定義は広く、物理的オブジェクトを画像として取り入れる機器を指す。この撮像機器は、光学的な動作を基本としてもよいし、取り込まれる画像は、高周波(RF)画像、超音波(US)画像、赤外(IF)画像などであってもよい。この画像機器は、限定的な照明条件下で機能する。
この明細書でグラフィック・コンピュータ・ディスプレイに関連して使用されている「アイコン」または「コンピュータアイコン」という用語は、小さいピクトグラム(絵文字)を指す。このアイコンというのは、コンピュータでの通常の英数字を補完するものとして使われている。最近のコンピュータでは、ディスプレイ端末において、ビットマップグラフィックを扱うことが可能となっているので、ユーザを補助するためのアイコンが広く使用されている。本明細書では、アイコンとは、なんらかの機能を有するコンピュータグラフィックにおける、すべてのグラフィック実体を含むものと広く定義されている。
特定の詳しい図面を参照することに関して、この明細書で提供されている図面は、例示目的のためであり、本発明の好ましい実施形態を例示的に説明するためだけのもので、さらに、本発明の原理の概念的な態様を容易に理解できるようするために添付されていることを理解する必要がある。この点について、発明の基本的な発明の理解のために必要である程度以上には、あるいは、発明のいくつかの形態が、どのように実際に具現化されるかについて当業者に明確にするために必要である程度以上には、発明の構造的な詳細を示す試みはしていない。
本発明の少なくとも1つの実施形態を説明する前に理解しておくべきことは、本発明が、以下の明細書で述べられている詳細な記載と構成内容に、その適用が限定されるものでないということである。本発明は、ほかの実施形態にも適用できるし、別の多様な方法によっても実施可能である。本明細書で使用されている専門語と用語は、発明の内容を説明するために使用するもので、限定的に解釈してはならない。
図1は、本発明のいくつかの実施形態における、システムを図示した高レベル模式図である。このシステムは、撮像デバイス110、データ処理モジュール100、ヘッドホン120、触覚インターフェース130から成る。図示したように、このシステムは容易にユーザへの装着が可能であり、撮像デバイス110は、ユーザの頭上最頂上部に設置し、データ処理モジュール100は、ケーブルを使って両方のヘッドホン120、撮像デバイス110、触覚インターフェース130に接続する。この触覚インターフェース130は、ピンマトリックスとして実装されるもので、このピンマトリックスは、ピンアレイ(60ピンx40ピン)から成り、データ処理モジュール100からの信号に応答して、ピンのそれぞれが、特定の高さに位置することになる。ユーザは、例えば、ディスク146、椅子148、コンピュータ画面142、電話144の存在する特定の周囲環境140に置かれることになる。
いくつかの実施形態では、データ処理モジュール100は、プロセッサ(不図示)と保存モジュール(不図示)を有するコンピュータの形を取ってもかまわない。
一般的に、プロセッサは、ROM(リードオンリメモリ)から、あるいは、RAM(ランダムアクセスメモリ)から、または、その両方から命令とデータを受け取る。コンピュータに必要な要素は、命令を実行するプロセッサと、命令とデータを保存する、1つまたは複数のメモリーである。さらに、一般的に、コンピュータというのは、データファイルを保存するための1つまたは複数の保存デバイスを有するか、あるいは、それらと協働して通信するようになっている。このコンピュータプログラム命令を触覚的に具現化するための保存モジュールは、非揮発性のメモリー、例えば、EPROM(消去可能プログラマブルROM)、EEPROM(電気的消去可能プログラマブルROM),フラッシュメモリ、磁気光学記憶デバイスのような半導体記憶装置で構成されている。データ処理モジュール100の例としては、セルラー電話やPDA(携帯情報端末)のようなセルラー方式の通信機器がある。
図2は、撮像デバイス110により取り込んだ画像を示したものであり、本発明のいくつかの実施形態による態様を図示したものである。この操作においては、撮像デバイス110が、周囲環境140の画像200を取得して、その中に物理的オブジェクト含んだ画像が表示されるようになっている。机146、椅子148、コンピュータスクリーン142、電話144などのすべてが画像200に中に収まっている。
データ処理モジュール100は、画像200を、例えば、画像210、220、230、240のような複数スライス画像にスライス(分割)する構成となっている。一度に、スライス画像ごとの特定順序で(例えば、240、230、220、最後に210の順序で)、このスライス画像に含まれる、少なくとも、一つの物理的オブジェクト画像の少なくとも一部を識別する。特定の順序で、変換機能アルゴリズムを少なくとも一つの物理的オブジェクトの各識別済みの部分に適用して、音信号または触覚オブジェクトー依存信号を生成させる。各スライス画像に音信号または触覚位置依存信号を対応づける。特定の順序で、各オブジェクト依存信号に、個別の位置依存信号を重ね合わせることで、結合オブジェクト位置信号を生成する。前記結合オブジェクト位置信号を、ユーザインターフェース120と130を介してユーザに出力する。具体的には、この結合オブジェクト位置信号は、盲人または視覚障害者が使えるフォーマットになっており、周囲環境の中にある、少なくとも一つの物理的オブジェクトの位置と特徴を判断できる構成となっている。
本発明の実施形態によれば、変換機能アルゴリズムが、光景内のオブジェクトの個別の特徴に、特定の音を対応付づけるために盲人が訓練できるように、形、色、光景の位置のようなオブジェクトの全部の特徴に対応する音がマッピングされるようになっている。
本申請者は、実験により、オブジェクトの特徴を、対応する楽器の音の組み合わせにマッピングすることで、今までに経験したことのない、極めて有意な結果を導き出すことに成功した。この良好な結果を、いくつかの実施形態の形で示した。態様の一つによれば、この楽器マッピングの方法により、盲人がオブジェクト音マッピングを習得する訓練時間を短縮できる。別の実施形態によれば、この楽器マッピングの方法により、盲人が音により光景を描く能力が増強される。さらに別の実施形態では、楽器を使う、このマッピング方法により「感覚刺激飽和点」を上げることに成功している(この感覚刺激飽和点というのは、盲人が自分の解釈能力を越えて過度に多い音の情報を受けて困惑してしまう点のことである)。
技術的には、この実施形態の楽器マッピングというのは、実際の楽器から事前に別のサンプリングの音を集めて、それらをオブジェクト音マッピング方法にあわせて、音を出すようにする。この楽器マッピングの方法では、例えば、ある特定の形状には、ある音階の音を充て、視界を越えるような、オブジェクトの多様な高さに対しては音楽弦の音で対応する。同様に、光景の中のオブジェクトの別の高さ(または、別の位置)を表現したり別の色を表現するには、ほかの別の種類の楽器を使用してもよい。
図2に示すように、画像200はピクセル(不図示)の配列で構成されており、各ピクセルに場所、色、明るさレベルが対応づけられている。この変換機能というのは、特定のイメージを音に変換するアルゴリズムまたはイメージを触覚に変換するアルゴリズムであって、二次元のイメージを、各ピクセルの位置、色、明るさのレベルに従って、ある時点での音信号、二次元の触覚信号にマッピングするものである。
本発明のいくつかの実施形態によれば、データ処理モジュール100は、イメージの円形部分をスライスするように構成されており、各スライス画像が円形部分を示しており、ここで特定の順序とは、時計回りの順序または反時計回りの順序のことである。円形部の幅は、スライス工程で要求される精度を基に選択される。具体的には、この幅は、画像200の中における物理的オブジェクトの大きさと複雑さの程度に影響される。
本発明のいくつかの実施形態によれば、データ処理モジュール100は、イメージの円形部分をスライスするようになっており、各スライス画面は内部半径と外部半径により規定される円形のリングを有しており、ここで、前記の特定順序というのは、半径方向に内側方向または外側方向の順序である。このリングの幅は、スライシングプロセスで要求される精細度の見地から選択される幅である。具体的には、この幅は、イメージ200上の物理的オブジェクト画像の大きさと複雑さの影響を受ける。
好都合なことは、円形構造、円形部分、円形リングを、スライス画像として活用することは、目と脳の生理機能に適合した方法であり、画像の結果が改善されるのである。この円形構造を利用した方法は、網膜上のユークリッド画像を、大脳皮質内の偏心座標系と極角座標系に変換することである。このことは、窩、即ち、視野中心に大きな表示(拡大率による極角偏心表示)が現れる回転ウエッジを刺激することで実現できる。
図3は、本発明のいくつかの実施形態における方法を示した高レベルのフローチャートである。この方法は、撮像デバイスを用いて、背景のある周囲環境の画像および背景とは識別可能な、少なくとも一つの物理的オブジェクト画像を取得すること310、画像を複数のスライス画像にスライスすること320、一度に、スライス画像のそれぞれについて、スライスごとの順番で、このスライス画像に含まれる、少なくとも一つの物理的オブジェクトの、少なくとも一部を識別すること330、特定の順序で、変換機能を、少なくとも一つの物理的オブジェクトの各識別済みの部分に適用して、音信号または触覚依存信号を発生させること340、各スライス画像に触覚位置依存信号を対応づけること350、特定の順序で、各オブジェクト依存信号に個別の位置依存信号を重ね合わせて、結合オブジェクト位置信号を作成すること360、インターフェースを介して結合オブジェクト位置信号をユーザに出力して、この結合オブジェクト信号を盲人が使えるようにして、周囲環境における少なくとも一つの物理的オブジェクトの位置と特徴を判断できるようにすること370を含む。
本発明のいくつかの実施形態によれば、取得すること、スライスすること、識別すること、適用すること、対応づけること、重ね合わせること、出力することの動作のうちの少なくとも一つは、少なくとも一つのコンピュータにより実行される。
図4は、本発明のいくつかの実施形態による、特に、撮像デバイス110を使って得た、別の態様を図示したモデル図である。構造が図1に類似した、この態様のシステムの動作を以下に説明する。このシステムは、撮像デバイス110、データ処理モジュール100、ユーザ・インターフェース・モジュール(120または130のいずれか、あるいは、両方)から成り、この撮像デバイス110は、背景を有する周囲環境140の画像と、その背景から識別が可能な少なくとも一つの物理的オブジェクト(机146、椅子148、コンピュータスクリーン142、および電話144など)を取得する構造になっている。
本発明のいくつかの実施態様によれば、データ処理モジュール100は、以下の動作を行うようになっている。即ち、(i)撮像デバイス110を使って、少なくとも一つの物理的オブジェクトを含む、周囲環境の三次元モデル画像を取得すること、(ii)表面画像により、前記三次元モデル画像を区切ること(例えば、平面の410、412、414、416または球面の420、422、424、426)、(iii)一度に表面画像のそれぞれについて、表面画像ごとの順序で、各表面画像により横断に切断された、少なくとも一つの物理的オブジェクトの少なくとも一部分を識別すること、(iv)特定の順序で、変換機能を、少なくとも一つの物理的オブジェクトの各識別済みの断面部に適用して、音信号または触覚オブジェクト依存信号を生成させること、(v)音信号または触覚位置依存信号を各表面画像に対応づけること、(vi)特定の順序で、各オブジェクト依存信号に個別の位置依存信号を重ね合わせて、結合オブジェクト位置信号を作成すること、(vii)この結合オブジェクト位置信号をインターフェースを介してユーザである盲人に出力して、その盲人が、この結合オブジェクト位置信号を使って、周囲環境において、少なくとも一つの物理的オブジェクトの位置と特徴を判断できるようにする動作を含む。
図5は、本発明のいくつかの実施形態における方法を示した高レベルフローチャートである。この方法は、以下の動作からなる。即ち、撮像デバイスを使って、少なくとも一つの物理的オブジェクトを含む周囲環境の三次元モデル画像を取得すること(510)。この三次元モデルを表面画像により区分すること(520)。一度に表面画像のそれぞれについて、表面画像ごとの順序で、各表面画像により横断に切断された、少なくとも一つの物理的オブジェクトの少なくとも一部分を識別すること(530)。特定の順序で、変換機能を、少なくとも一つの物理的オブジェクトの各識別済みの断面に適用して、音信号または触覚オブジェクト依存信号を生成させること(540)。音信号または触覚位置依存信号を各表面画像に対応づけること(550)。特定の順序で、各オブジェクト依存信号に個別の位置依存信号を重ね合わせて、結合オブジェクト位置信号を作成すること。この結合オブジェクト位置信号をインターフェースを介してユーザである盲人に出力して、その盲人が、この結合オブジェクト位置信号を使って、周囲環境において、少なくとも一つの物理的オブジェクトの位置と特徴を判断できるようにすること(560)。
本発明のいくつかの実施形態によれば、取得すること、分割すること、適用すること、対応づけること、重ね合わせること、出力することの動作のうちの少なくとも一つは、少なくとも一つのコンピュータにより実行される。
本発明のいくつかの実施形態によれば、各表面画像はピクセル配列から成る画像であって、この各ピクセルは、位置、色、明るさレベルに対応付けられており、前記変換機能は、各ピクセルの位置、色、明るさレベルに従って、ピクセルの配列に、ある時点での音信号または二次元の触覚信号をマッピングする構造になっている。
本発明のいくつかの実施形態によれば、その表面は同心円状の球体または同心円状の筒であり、前記特定の順序は特定の中心430に向かう順序でもよいし、中心430から外に向かう順序でもよい。好都合であるのは、この構成により、ユーザは、自分の周囲環境の中で、自分の距離感を改善できることである。
本発明のいくつかの実施形態によれば、この表面は半径方向において平面であり、特定の軸に貫通しており、特定の中心部430で規定され、この特定の順序は、軸を中心として時計回りまたは反時計回りの順序である。
本発明のいくつかの実施形態によれば、前記の特定の順序は、ユーザが自分の周囲環境の空間的なスキャンパターンを決定できるように、ユーザが動的に決定することができる。
図6は、本発明のいくつかの実施形態によるシステムを図示した高レベルの模式図である。このシステムは、グラフィックディスプレイを表示するコンピュータスクリーン610、パーソナルコンピュータ650内のデータ処理モジュール(不図示)(これは、コンピュータプログロラムにより実現される)、ヘッドホン680、触覚・ユーザ・インターフェース・モジュール620から成る。
データ処理モジュールは、以下の動作を行う。即ち、グラフィックディスプレイを、617と619のような「行」、および、613や615のような「列」で規定される複数のスライス画像にスライスし、このグラフックディスプレイが複数のアイコン618や、特定の外観を特定の機能に対応している、その他のグラフィックオブジェクト612と614を表示する。各スライスごとに、スライス画面に含まれる各アイコンに変換機能を適用して、音信号またはアイコン依存信号を生成する。触覚位置依存信号を各スライス画像に対応づけする。グラフィックディスプレイ上のユーザ制御インジケータ616(例えば、640による制御)を追跡して、インジケータ616の位置を探知する。インジケータ616に対応づけられた位置依存信号に、インジケータ616から特定の距離範囲にある全部のアイコンのアイコン依存信号を、少しずつ重ね合わせて結合アイコン位置信号を生成する。この結合オブジェクト位置信号を、インターフェースを介してユーザである盲人に出力して、その盲人が、この結合オブジェクト位置信号を使って、グラフィックディスプレイ上のアイコンの位置、外観、機能を判断できるようにする。
本発明のいくつかの実施形態によれば、前記スライス画像はピクセルから成り、各ピクセルは、位置、色、明るさレベルに対応づけられており、変換機能が二次元のピクセル配列を、各ピクセルの位置、色、明るさレベルに従って、さらに、ピクセルに対応づけられたアイコンの機能の点から、ある時点の音信号または二次元の触覚信号にマッピングを行う。
上で述べたような触覚入力と聴覚入力を組み合わせて使うことは、多様な感覚刺激を同時に作り出すことが可能となるという長所がある。つまり、このことは盲人の置かれた限定的な状況において大きな効果を生む。盲人が触覚入力と聴覚入力を使って、ウエブカムにより取り込まれた視覚イメージを理解する場合には最大の効果が得られる。触覚アルゴリズムと聴覚アルゴリズムを同時に併用することで、オブジェクトの認識や動いているオブジェクトをより深く理解し認識できるようになり、強力な探知も可能になる。
図7は、本発明のいくつかの実施形態の方法を図示した高レベルのフローチャートである。この方法は、以下の動作から成る。即ち、グラフィックディスプレイを、複数のスライス画像にスライスし、このグラフィックディスプレイが、特定の外観や特定の機能に対応づけされている、複数のオブジェクトやアイコンを表示すること(710)。各スライスごとに、スライス画像内に含まれるオブジェクトまたはアイコンに変換機能を適用すること(720)。各スライス画像に音または触覚位置依存信号を対応づけること(730)。グラフィックディスプレイ上のユーザ制御のインジケータを追跡して、そのインジケータの位置を探知すること(740)。インジケータの位置に対応している位置依存信号をインジケータから特定の距離範囲に位置するオブジェクトまたはアイコンの全部のオブジェクト依存信号に重ね合わせて結合オブジェト位置信号を作成すること(750)、この結合オブジェクト位置信号を、ヘッドホンのようなインターフェースを介してユーザである盲人に出力して、その盲人が、この結合オブジェクト位置信号を使って、グラフィックディスプレイ上のオブジェクトとアイコンの位置、外観、機能を判断できるようにすること(760)。
本発明のいくつかの実施形態によれば、取得すること、スライスすること、追跡すること、適用すること、対応づけること、重ね合わせること、出力することの動作のうちの少なくとも一つは、すくなくとも一つのコンピュータにより実行される。
本発明のいくつかの実施形態では、このスライス画像はピクセルの配列で構成されており、各ピクセルが、場所、色、明るさレベルに対応づけられている。この変換機能により、ピクセルの二次元配列が、各ピクセルの位置、色、明るさのレベルに従って、および、ピクセルに対応づけられたアイコンの機能の点から、ある時点の音信号または二次元触覚信号にマッピングされている。
本発明の実施形態では、主に、視覚障害者用の補助具として、本発明を使うことを目標としている。しかし、視力健常者に対する追加の視覚を提供する場合には、本発明の実施形態に必要な修正を施せば使用が可能となる。例えば、赤外線照射源付きの赤外線撮像デバイスを用いて、視野の制限されている周囲環境にある軍のパイロットが画像を取得する場合に、視覚入力情報に代えて、本発明の方向に関する視覚情報を提供する技術として使える。
本発明の態様は、システムとして、方法として、あるいは、コンピュータプログラムの形で発明を実現してもよいことは、当業者に理解できることである。即ち、発明の態様の全部がハードウエア、全部がソフトウエア(ファームウエア、常駐ソフト、ミクロコード等を含む)またはハードウエアとソフトウエアの組み合わせの構成としてもよく、一般的に「回路」、「モジュール」、「システム」と呼ばれるもので構成されていてもよい。さらに、コンピュータ・リーダブル(コンピュータが読める)・プログラム・コードを有する媒体として具現化されたものでもよい。
コンピュータ・リーダブルの媒体は、一つでも複数でもよい。コンピュータ・リーダブル媒体として、コンピュータ・リーダブル信号媒体またはコンピュータ・リーダブル保存媒体でもかまわない。コンピュータ・リーダブル保存媒体としては、電子式、磁気式、光学式、電磁気式、赤外線式、半導体式のシステム、デバイス、これらを組み合わせたものがあるが、これらに限らない。コンピュータ・リーダブル保存システムの、より具体的な例(非網羅)として一つ又は複数の電気接続体、携帯コンピュータメモリ、ハードデスク、RAM, ROM, EPROM、または、フラッシュメモリ、オプティカルファイバ、携帯コンパクトディスク、CD−ROM,光学保存ディスク、磁気保存ディスク、これらを組み合わせた構成品などがある。特に、本発明では、触覚入力した命令コードを実行できるシステム、装置、デバイスなどがある。
コンピュータ・リーダブル媒体上で具現化されるプログラムコードは、通信線、光学線、あるいは、上記のものを組み合わせた媒体(これらに限定されない)を介して発信されることになる。
本発明の実施形態を実行するコンピュータプログラムは、一つまたは複数のプログラム言語により、あるいは、それらを組み合わせた言語により書くことが可能であり、このプログラム言語としては、Java(登録商標)、スモールトーク、C++などのオブジェクト指向言語、C言語のような従来の手続型プログラミング言語、または、Java(登録商標)script(ジャバスクリプト)のようなスクリプト言語がある。これらのプログラムコードは、その全体をユーザコンピュータ上で実現可能であるが、部分的にスタンドアロン型のソフトウエアパッケ−ジとして実現してもよいし、ユーザコンピュータ上で一部を実現してもよい。部分的にリモートコンピュータで実現してもよいし、全体をリモートコンピュータ上で実現してもよい。リモートコンピュータを使用した場合,ネットワークを介してユーザコンピュータに接続してもよい。ネットワークの例としては、LAN(ローカルエリアネットワーク)、WAN(広域エリアネットワーク)があり、リモートコンピュータに接続する場合には、インターネット・サービス・プロバイダーの提供するインターネット経由で接続してもよい。
本発明の態様において、実施形態ごとに、発明の方法、構成、コンピュータプログラム等について、フローチャート、ブロック図などの図面を使って説明している。フローチャート内の各ブロック図、それらの組み合わせは、コンピュータプログラムの命令で実行が可能である。コンピュータプログラム命令は、汎用コンピュータ、専用コンピュータ、その他のプログラマブル処理デバイス内のプロセッサに転送されて処理される。これらにより、フローチャートのブロック図の中での特定の機能を実現する。
これらのコンピュータプログラム命令は、コンピュータリーダブル媒体に保存され、コンピュータやその他のプログラマブルデータ処理デバイスを直接に動作させ、フローチャートやブロック図で示されている機能を実現するために使われる。
このコンピュータ命令が、コンピュータやその他のプログラマブルデータ処理デバイスにロードされて、一連の動作ステップが実行されるように、各命令がフローチャート、ブロック図等で特定されている機能を実現させることになる。
上記のフローチャートと図面は、本発明の多様な実施形態における、構造、機能、システム、方法、コンピュータプログラムの実施のための動作を示している。フローチャートまたはブロック図は、特定のロジック機能を実現するための、一つまたは複数の実行可能な命令から成るモジュール、要素、コードを図示している。いくつかの別の実施形態では、ブロック図に示された機能は、別の違った順序で示されていることがある。例えば、連続して図示されている二つのブロック図であっても、それぞれのブロックの機能次第では、ある場合には、二つが同時に実行されることもあり、別の場合には、反対の順序で実行されることもあるからである。注意すべきことは、各ブロック図、フローチャート、それらの組み合わされたものが、特定の機能を持ち、特定の動作を実行したり、特定目的をもったハードウエアシステム、あるいは、特定目的をもったソフトウエアシステム、あるいは、それらの組み合わされた命令やコンピュータ命令により、実行されることがあるということである。
上記で示されている実施形態は、本発明の実現例である。one embodiment, an
embodiment, some embodimentsのように示されているが、これらすべてが同じ実施形態を指している訳ではない。
embodiment, some embodimentsのように示されているが、これらすべてが同じ実施形態を指している訳ではない。
多様な発明の特徴を単一の実施形態で示している場合もあるが、別々の実施形態で示してもよいし、これらの組み合わせで示してもよい。発明を明確にするために、別々の実施形態で説明している場合もあるが、まとめて単一の実施形態で説明してもよい。
明細書の中で、「いくつかの実施形態」、「ある実施形態」、「一つの実施形態」、「その他の実施形態」という場合、発明の特徴、構造、特質が、いくつかの実施形態に含まれてはいるが、必ずしも、それら全部が、すべての実施形態に含まれていることを意味する訳ではない。
この明細書で使用された専門用語および用語は、単に記載上の目的のためであり、限定的な意味に解釈してはならない。
本発明の知見についての原理と使用法は、明細書の記載、図面、例を参照することで、理解が深まる。
本発明に述べられている詳細は、発明の適用に制限を加えるものではない。
さらに、本発明は多様な方法で実行され、上記で述べた以外の実施形態によっても実行が可能である。
including(含む)、comprising(成る)、consisting(成る)や、文法的に同じ使い方をする類似語は、一つまたは複数の別の構成品、特徴、ステップ、グループなどの追加を排除するものではなく、この用語は、構成品、特徴、ステップを特定する用語と解釈してはならない。
明細書またはクレームにおいて、追加要素と指定されている場合、その追加要素は一つだけでなく、複数の場合も含む。
クレームや明細書において、「a」 や「an」がついている場合、例えば、「a device」、「an embodiment」のような場合、これらの「a」や「an」は、その構成物などが唯一で、ただ一つだけという意味に解釈してはならない。
明細書において、要素、特徴、構造、特質などについて、may be included、might be included、can be included、could be included という表現になっている場合、ある特定の要素、特徴、構造、特質などが、「要求される」「要求されている」と解釈すべきでない。
本明細書では、実施形態を説明するために、状態図、フロー図、その両方を使うことができるが、本発明がこれらの状態図やフロー図、それらに対応する記載だけに限定されるものではない。
本発明の方法として、ステップまたはタスクが選択されるが、その動作は、手動であっても、自動であっても、その両方であってもかまわない。
明細書のクレームで示された記載、例、方法、材料などは、これらに限定されると解釈してはならない。あくまで、例示のみの目的と解釈すべきである。
本発明の明細書で記載された技術的、科学的用語の意味は、別に定義されていない限り、本発明の属する技術分野の当業者には、共通に理解されている意味である。
本発明の試験では、この明細書に記載されたものと同等で類似のものであれば、使用可能である。
この明細書で参照されている、すべての出版物、特許、特許出願、論文は、全体として本明細書に取り込まれるものであり、いくつかの実施形態に記載された引用物、参照文献での技術は、本発明の先行技術として使えることにはならない。
Claims (27)
- 撮像デバイスを用いて、背景のある周囲環境の画像および前記背景から識別可能な、少なくとも一つの物理的オブジェクト画像を取得すること、
前記画像を複数のスライス画像にスライスすること、
一度に、スライス画像のそれぞれについて、スライス画像ごとの順番で、前記スライス画像に含まれる、少なくとも一つの物理的オブジェクトの少なくとも一部を識別すること、
前記の少なくとも一つの物理的オブジェクトの各識別済みの部分に、特定の順序で、変換機能を適用して、音信号または触覚オブジェクト依存の信号を生成すること、
各スライス画像に音信号または触覚位置依存信号を対応させること、
特定の順序で、各オブジェクト依存信号に各位置依存信号を重ね合わせて、結合オブジェクト位置信号を生成すること、
前記オブジェクト位置信号を、インターフェースを介して、ユーザに出力して、前記結合オブジェクト位置信号を盲人が使用できるようにして、その盲人が、周囲環境との関係で、前記少なくとも一つの物理的オブジェクトの位置と特徴を決めることから成り、
前記のスライス、識別、適用、対応づけ、重ね合わせ、および、出力の動作の少なくとも一つは、少なくとも一つのコンピュータにより実施されることを特徴とする方法。 - 前記画像がピクセルの配列から成り、各ピクセルは、位置、色、明るさレベルと対応づけられており、前記変換機能により、ある時点の音信号または二次元の触覚信号が、各ピクセルの位置、色、明るさレベルに従って、マッピングされることを特徴とする請求項1に記載の方法。
- 前記画像の円形部分がスライスされて、各スライス画像が円形となり、さらに、特定の順序が、時計回りまたは反時計回りの順序であることを特徴とする請求項1に記載の方法。
- 前記変換機能により、オブジェクト画像が、実際の楽器に対応づけられた1セットの音にマッピングされ、一つまたは複数の楽器が、一つまたは複数の動作状況において、各オブジェクトの少なくとも一つの形状、位置、色を表示するのに用いられることを特徴とする請求項1に記載の方法。
- 撮像デバイス、データ処理モジュール、ユーザ・インターフェース・モジュールから成るシステムであって、前記撮像デバイスが、背景のある周囲環境と、前記背景から識別できる、少なくとも一つの物理オブジェクトの画像を取得すること、
前記データ処理モジュールが、画像を複数モジュール画像にスライスして、一度に、スライス画像のそれぞれについて、スライス画像ごとの順序で、このスライス画像に含まれる少なくとも一つの物理的オブジェクトの少なくとも一部を識別すること、前記の少なくとも一つの物理的オブジェクトの各識別済みの部分に、特定の順序で、前記変換機能を適用して、音信号または触覚オブジェクト依存の信号を生成すること、各スライスに音信号または触覚位置依存信号を対応づけすること、特定の順序で各オブジェクト依存信号に各位置依存信号を重ね合わせて、結合オブジェクト依存信号を生成すること、前記ユーザ・インターフェース・モジュールが、前記結合オブジェクト位置信号をインターフェースを介してユーザに出力して、前記結合オブジェクト位置信号を盲人が使用できるようにして、盲人が周囲環境との関係で、前記の少なくとも一つの物理的オブジェクトの位置と特徴を決定できるようにすることを特徴とするシステム。 - 前記画像がピクセル配列から成り、各ピクセルは、位置、色、明るさレベルと対応しており、前記変換機能により、各ピクセルの位置、色、明るさレベルに従って、二次元の画像が、ある時点の音信号または二次元の触覚信号にマッピングされていることを特徴とする請求項5に記載のシステム。
- 前記データ処理モジュールが、前記画像の円形部分をスライスして、各スライス画像を円形とし、さらに、ここでの特定の順序が、時計回りまたは反時計回りの順序であることを特徴とする請求項5に記載のシステム。
- 前記変換機能は、オブジェクト画像を実際の楽器に対応している音のセットにマッピングをするように構成されており、一つまたは複数の楽器が一つまたはそれ以上の状態で、各オブジェクトの少なくとも形状、位置、色を表示するようになっていることを特徴とする請求項5に記載のシステム。
- コンピュータ・リーダブル・プログラム・コードを有するコンピュータ・リーダブル・保存媒体から成るコンピュータ・プログラム・プロダクトであって、
前記コンピュータ・リーダブル・プログラム・コードは、
撮像デバイスを使って、背景を有する周囲環境の画像と、前記背景から識別できる、少なくとも、一つの物理的オブジェクトを取得するプログラムコードと、
前記画像を複数のスライス画像にスライスするプログラムコードと、
各スライド画像ごとに、一度で、特定の順序で、スライス画像に含まれる少なくとも一つの物理的オブジェクトの少なくとも一部分を識別するプログラムコードと、
特定の順序で、前記変換機能を、少なくとも一つの物理的オブジェクトの各識別済みの部分を適用して、音または触覚オブジェクト依存信号を生成するプログラムコードと、
各スライス画像に、音信号または触覚位置依存信号を対応づけるようになっているプログラムコードと、
特定の順序でオブジェクト依存信号に各位置依存信号を重ね合わせて結合オブジェクト位置信号を発生させるようになっているプログラムコードと、
この結合オブジェクト位置信号を、インターフェースを介して、ユーザに出力して、盲人がこの結合オブジェクト位置信号を使用できるようにして、盲人が、周囲環境との関係で、前記の少なくとも一つの物理的オブジェクトの位置と特徴を決定するプログラムコードから成ることを特徴とするコンピュータ・プログラム・プロダクト。 - 前記画像がピクセルの配列から成り、各ピクセルには、位置、色、明るさのレベルが対応づけられ、前記変換機能により、各ピクセルの位置、色、明るさレベルに従って、前記ピクセル配列が、ある時点の音信号または二次元の触覚信号にマッピングされていることを特徴とする請求項9に記載のコンピュータ・プログラム・プロダクト。
- 画像の円形部分をスライスするようにプログラムされ、各スライス画像が円形となり、さらに、前記特定の順序は、時計回りまたは反時計回りの順序のことであることを特徴とする請求項9に記載のコンピュータ・プログラム・プロダクト。
- 撮像デバイスを使用して、少なくとも一つの物理的オブジェクトが含まれる周囲環境の三次元モデル画像をスライスすること、
前記三次元モデル画面を表面画像により区分すること、
一度に表面画像のそれぞれについて、特定の順序で、表面画像により横断面に切断された、少なくとも一つの物理的オブジェクトの、少なくとも、一部分を識別すること、
特定の順序で、前記の少なくとも一つの物理的オブジェクトの各識別済みの横断面に、変換機能を適用して、音信号または触覚オブジェクト依存信号を生成すること、
各表面画像に、音信号または触覚位置依存信号を対応づけること、
特定の順序で、各オブジェクト依存信号に、各位置依存信号を重ね合わせて、結合オブジェクト位置信号を生成すること、
インターフェースを介して、前記結合オブジェクト位置信号をユーザに出力して、盲人が、この結合オブジェクト位置信号を使用できるようにして、周囲環境との関係において、少なくとも一つの物理的オブジェクトの位置と特徴を決定することから成る方法であって、前記画像を取得すること、分割すること、識別すること、適用すること、対応づけること、重ね合わせること、出力することの動作の少なくとも一つを、少なくとも一つのコンピュータで実現することを特徴とする方法。 - 各表面画像がピクセルの配列から成る画像であり、各ピクセルは、位置、色、明るさレベルに対応づけされており、変換機能により、ピクセルの配列が、各ピクセルの位置、色、明るさのレベルに従って、ある時点の音信号または二次元の触覚信号に、マッピングされていることを特徴とする請求項12に記載の方法。
- 前記の表面画像は、同心円状の球または筒であり、前記特定の順序は、特定の中心に向かって内側に向かう順序であるか、外側に向かう順序であることを特徴とする請求項12に記載の方法。
- 前記表面画像が半径方向の平面であり、特定の軸を貫通して、前記特定の順序は、軸を中心として、時計回りまたは反時計回りの順番であることを特徴とする請求項12に記載の方法。
- 撮像デバイス、データ処理モジュール、および、ユーザ・インターフェース・モジュールから成るシステムであって、前記撮像デバイスは、背景を有する周囲環境の画像と、背景から識別できる少なくとも一つの物理的オブジェクトを取得し、
データ処理モジュールは、撮像デバイスを使って、少なくとも一つの物理的オブジェクトを含む周囲環境の三次元モデルを取得し、
前記三次元モデルを表面画像により区分し、
各表面画像ごとに一度で、特定の順序で、表面画像により横断面に切断された、少なくとも一つの物理的オブジェクトの少なくとも一部分を識別し、
前記特定の順序で変換機能を少なくとも一つの物理的オブジェクトの、各識別済みの横断面に適用し、
各表面に音信号または触覚位置依存の信号を対応づけさせ、前記特定の順序で、各オブジェクト依存信号に、各位置依存信号を重ね合わせて、結合オブジェクト位置信号を生成させ、
インターフェースを介して、前記結合オブジェクト位置信号をユーザに出力して、出力された結合オブジェクト位置信号を盲人が使用できるようにして、周囲環境に対して、少なくとも一つの物理的オブジェクトの位置と特徴を決定させることを特徴とするシステム。 - 前記画像はピクセルの配列から成り、各ピクセルが、位置、色、明るさレベルに対応づけられており、前記変換機能により、ピクセルの配列が各ピクセルの位置、色、明るさレベルに従って、ある時点の音信号または二次元の触覚信号にマッピングされていることを特徴とする請求項16に記載のシステム。
- 前記データ処理モジュールは、前記画像の円形部分をスライスする構成であり、各スライス画像が円形となり、さらに、特定の順序は、時計回りまたは反時計回りの順序であることを特徴とする請求項16に記載のシステム。
- コンピュータ・リーダブル・プログラム・コードを有するコンピュータ・リーダブル・保存媒体から成るコンピュータ・プログラム・プロダクトであって、
前記コンピュータ・リーダブル・プログラム・コードには、撮像デバイスを使って、背景を有する周囲環境の画像と、前記背景から識別できる、少なくとも一つの物理的オブジェクトを取得するコンピュータ・リーダブル・プログラム・コードと、
前記画像を複数のスライス画像にスライスするコンピュータ・リーダブル・プログラム・コードと、
各スライド画像ごとに一度で、特定の順序で、スライス画像に含まれる少なくとも一つの物理的オブジェクトの少なくとも一つの部分を識別するコンピュータ・リーダブル・プログラム・コードと、
特定の順序で、前記変換機能を、少なくとも一つの物理的オブジェクトの各識別済みの部分に適用して、音または触覚オブジェクト依存信号を生成するコンピュータ・リーダブル・プログラム・コードと、
各スライス画像に、音または触覚位置依存信号を対応づけるコンピュータ・リーダブル・プログラム・コードと、
特定の順序で、オブジェクト依存信号に各位置依存信号を重ね合わせて、結合オブジェクト位置信号を発生させるコンピュータ・リーダブル・プログラム・コードと、
前記結合オブジェクト位置信号を、インターフェースを介して、ユーザに出力させ、この結合オブジェクト位置信号を盲人に使えるようにして、前記盲人が周囲環境との関係で、少なくとも一つの物理的オブジェクトの位置と特徴を決定するコンピュータ・リーダブル・プログラム・コードとが含まれることを特徴とするコンピュータ・プログラム・プロダクト。 - 前記画像がピクセルの配列から成り、各ピクセルは、位置、色、明るさのレベルに対応づけられており、さらに前記変換機能により、前記ピクセルの配列を、ある時点の音または二次元の触覚信号に、各ピクセルの位置、色、明るさのレベルに従って、マッピングすることを特徴とする請求項19に記載のコンピュータ・プログラム・プロダクト。
- 前記コンピュータ・プログラム・プロダクトは、画像の円形部分をスライスして、各スライス画像が円形となり、さらに、前記特定の順序が、時計回りまたは反時計回りの順序であることを特徴とする、請求項19に記載のコンピュータ・プログラム・プロダクト。
- グラフィックディスプレイ画像を複数のスライス画像にスライスして、前記グラフィックディスプレイ画像に、特定の外観と特定の機能を対応づけられた複数のオブジェクトとアイコンを表示すること、
各スライスごとに、前記変換機能をスライス画像内に含まれる各オブジェクトまたはアイコンに適用して、音信号または触覚オブジェクト依存信号を発生させること、
各スライス画像に、そのスライス信号に固有の音信号または触覚位置依存信号を対応づけること、
グラフィックディスプレイ上のユーザ制御インジケータを追跡して、インジケータの位置を探知すること、
インジケータの位置が対応づけられた位置依存信号を、少しずつ、インジケータからの特定範囲内に位置するオブジェクトまたはアイコンのすべてのオブジェクト依存信号に重ね合わせて、結合オブジェクト位置信号を生成させ、さらに、インターフェースを介して結合オブジェクト位置信号をユーザに出力して、前記結合オブジェクト位置信号をユーザである盲人が使用できるようにして、盲人がグラフィックディスプレイ上のオブジェクトとアイコンの位置、外観、機能を決定できるようにすること、
少なくとも、画像の取得、スライス、追跡、適用、対応づけ、重ね合わせ、出力の動作を少なくとも一つのコンピュータで実行することから成る方法。 - 前記スライス画像がピクセルの配列から成り、各ピクセルは、位置、色、明るさレベルに対応づけられ、前記変換機能により、二次元のピクセル配列を、各ピクセルの位置、色、明るさレベルに従って、さらには、ぴクセルに対応づけられたアイコンの機能の点から、ある時点の音信号または二次元の触覚信号にマッピングすることを特徴とする請求項22に記載の方法。
- グラフィックディスプレイ、データ処理モジュール、ユーザ・インターフェース・モジュールから成るシステムであって、前記データ処理モジュールは、
グラフィックディスプレイを複数のスライス画像にスライスして、前記グラフィックディスプレイが特定の外観と特定の機能が対応づけられた複数のアイコンを表示し、
各スライス画像ごとに、前記変換機能を、スライス画像内の各アイコンに適用して、音信号または触覚アイコン依存信号を生成させ、
各スライスに音信号または触覚位置依存信号を対応づけして、
前記グラフィックディスプレイ上において、ユーザ制御のインジケータを追跡し、インジケータの位置を探知し、
インジケータ位置に対応づけされた位置依存信号を、インジケータから特定範囲に位置する、すべてのアイコンのアイコン依存信号に重ね合わせて、結合アイコン位置信号を生成させ、ユーザインターフェースを介して、結合アイコン位置信号をユーザに出力させ、前記結合アイコン位置信号を盲人が使用できるようにして、グラフィックディスプレイ上のアイコンの位置、外観、機能を決定できるようにするシステム。 - 前記スライス画像がピクセルから成り、各ピクセルは、位置、色、明るさレベルに対応づけられており、前記変換機能により、ピクセルの二次元配列を、各ピクセルの位置、色、明るさレベルに従って、および、ピクセルに対応づけられている機能の観点から、ある時点での音信号または二次元の触覚信号にマッピングすることを特徴とする請求項24に記載のシステム。
- コンピュータ・リーダブル・プログラム・コードから成るコンピュータ・プログラム・プロダクトであって、前記コンピュータ・リーダブル・プログラムは、
グラフィックディスプレイ画面を複数のスライス画像にスライスし、前記グラフィックディスプレイに、特定の外観と特定の機能に対応づけられた複数のオブジェクトとアイコンを表示させるコンピュータ・リーダブル・プログラム・コードと、
スライス画像ごとに、スライス画像に含まれる各オブジェクトまたはアイコンに変換機能を適用して、音信号または触覚オブジェクト依存信号を生成するコンピュータ・リーダブル・プログラム・コードと、
各スライス画像に、音信号または位置依存信号の対応づけを行うコンピュータ・リーダブル・プログラム・コードと、
ユーザ制御のインジケータをグラフィックディスプレイ上で追跡して、前記インジケータの位置を探知するコンピュータ・リーダブル・プログラム・コードと、
インジケータの位置に対応づけされた位置依存信号を、少しずつ、インジケータから特定の範囲内に位置しているオブジェクトのすべてのオブジェクト依存信号に重ね合わせて、結合オブジェクト位置信号を生成させ、前記結合オブジェクト信号を、インターフェースを介してユーザに出力し、前記結合オブジェクト位置信号を、ユーザである盲人が、グラフィックディスプレイ上のオブジェクトおよびアイコンの位置、外観、機能を決定できるようにするコンピュータ・リーダブル・プログラム・コードとが含まれることを特徴とするコンピュータ・プログラム・プロダクト。 - 前記スライス画像は、ピクセル配列から成り、各ピクセルは、位置、色、明るさレベルに対応づけられており、さらに、前記変換機能は、ピクセル配列を、各ピクセルの位置、色、明るさレベルに従って、および、ぴクセルに対応づけられたアイコンの機能の見地から、ある時点での音信号または二次元の触感信号にマッピングさせることを特徴とする請求項26に記載のコンピュータ・プログラム・プロダクト。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US25747509P | 2009-11-03 | 2009-11-03 | |
US61/257,475 | 2009-11-03 | ||
PCT/IB2010/054975 WO2011055309A1 (en) | 2009-11-03 | 2010-11-03 | Representing visual images by alternative senses |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2013510329A true JP2013510329A (ja) | 2013-03-21 |
Family
ID=43797673
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012536008A Pending JP2013510329A (ja) | 2009-11-03 | 2010-11-03 | 代替感覚による視覚画像の表示 |
Country Status (4)
Country | Link |
---|---|
US (1) | US9579236B2 (ja) |
EP (1) | EP2496196B1 (ja) |
JP (1) | JP2013510329A (ja) |
WO (1) | WO2011055309A1 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10726740B2 (en) | 2015-01-15 | 2020-07-28 | Sony Corporation | Image processing device and image processing method |
Families Citing this family (23)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20150112237A1 (en) * | 2012-04-23 | 2015-04-23 | Yissum Research Development Company of The Hebrew Jerusalem LTD. | Device for rehabilitating brain mechanism of visual perception using complementary sensual stimulations |
JP6015101B2 (ja) * | 2012-04-27 | 2016-10-26 | 株式会社ニデック | 空間認識装置 |
WO2014152129A1 (en) * | 2013-03-14 | 2014-09-25 | Rutgers, The State University Of New Jersey | A mathematical musical orchestral method for predicting classes of patients for medical treatment |
US20150125831A1 (en) * | 2013-11-07 | 2015-05-07 | Srijit Chandrashekhar Nair | Tactile Pin Array Device |
KR102263695B1 (ko) * | 2014-01-20 | 2021-06-10 | 삼성전자 주식회사 | 복수개의 카메라를 이용한 휴대 장치 및 제어방법 |
NO339354B1 (no) * | 2014-02-04 | 2016-12-05 | Parcels In Sport As | System og fremgangsmåte for forbedret opplevelse for synshemmet tilskuer |
US9489866B2 (en) * | 2014-04-30 | 2016-11-08 | At&T Intellectual Property I, L.P. | Acoustic representations of environments |
US9904504B2 (en) * | 2015-02-24 | 2018-02-27 | Toyota Motor Engineering & Manufacturing North America, Inc. | Systems and methods for providing environmental feedback based on received gestural input |
JP2017097214A (ja) * | 2015-11-26 | 2017-06-01 | ソニー株式会社 | 信号処理装置、信号処理方法及びコンピュータプログラム。 |
KR20180006137A (ko) * | 2016-07-08 | 2018-01-17 | 엘지전자 주식회사 | 단말기 및 그 제어 방법 |
US10614152B2 (en) | 2016-10-13 | 2020-04-07 | Microsoft Technology Licensing, Llc | Exposing formatting properties of content for accessibility |
US20190333496A1 (en) | 2016-11-14 | 2019-10-31 | Yissum Research Development Company Of The Hebrew University Of Jerusalem Ltd. | Spatialized verbalization of visual scenes |
US9965801B1 (en) * | 2016-12-22 | 2018-05-08 | Capital One Services, Llc | Systems and methods for virtual fittings |
US10437884B2 (en) | 2017-01-18 | 2019-10-08 | Microsoft Technology Licensing, Llc | Navigation of computer-navigable physical feature graph |
US10637814B2 (en) | 2017-01-18 | 2020-04-28 | Microsoft Technology Licensing, Llc | Communication routing based on physical status |
US10482900B2 (en) | 2017-01-18 | 2019-11-19 | Microsoft Technology Licensing, Llc | Organization of signal segments supporting sensed features |
US10679669B2 (en) | 2017-01-18 | 2020-06-09 | Microsoft Technology Licensing, Llc | Automatic narration of signal segment |
US10606814B2 (en) | 2017-01-18 | 2020-03-31 | Microsoft Technology Licensing, Llc | Computer-aided tracking of physical entities |
US10635981B2 (en) | 2017-01-18 | 2020-04-28 | Microsoft Technology Licensing, Llc | Automated movement orchestration |
US11094212B2 (en) | 2017-01-18 | 2021-08-17 | Microsoft Technology Licensing, Llc | Sharing signal segments of physical graph |
US10299982B2 (en) * | 2017-07-21 | 2019-05-28 | David M Frankel | Systems and methods for blind and visually impaired person environment navigation assistance |
US11025815B2 (en) * | 2018-09-29 | 2021-06-01 | Apple Inc. | Devices, methods, and graphical user interfaces for assisted photo-taking |
WO2023095141A1 (en) * | 2021-11-25 | 2023-06-01 | Amir Amedi | Tactile representation of location characteristics and content in 3d |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP0410045A1 (en) | 1989-07-27 | 1991-01-30 | Koninklijke Philips Electronics N.V. | Image audio transformation system, particularly as a visual aid for the blind |
GB9809986D0 (en) * | 1998-05-12 | 1998-07-08 | Univ Manchester | Visualising images |
US7308314B2 (en) * | 2002-06-06 | 2007-12-11 | Advanced Medical Electronics | Method and apparatus for sensory substitution, vision prosthesis, or low-vision enhancement utilizing thermal sensing |
WO2007105927A1 (en) * | 2006-03-16 | 2007-09-20 | Harmonicolor System Co., Ltd. | Method and apparatus for converting image to sound |
CN102906810B (zh) * | 2010-02-24 | 2015-03-18 | 爱普莱克斯控股公司 | 支持视觉受损的个体的扩增的现实全景 |
-
2010
- 2010-11-03 JP JP2012536008A patent/JP2013510329A/ja active Pending
- 2010-11-03 WO PCT/IB2010/054975 patent/WO2011055309A1/en active Application Filing
- 2010-11-03 EP EP10793047.1A patent/EP2496196B1/en active Active
- 2010-11-03 US US13/505,642 patent/US9579236B2/en active Active
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10726740B2 (en) | 2015-01-15 | 2020-07-28 | Sony Corporation | Image processing device and image processing method |
Also Published As
Publication number | Publication date |
---|---|
EP2496196A1 (en) | 2012-09-12 |
WO2011055309A1 (en) | 2011-05-12 |
US9579236B2 (en) | 2017-02-28 |
US20130194402A1 (en) | 2013-08-01 |
EP2496196B1 (en) | 2021-05-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2013510329A (ja) | 代替感覚による視覚画像の表示 | |
CN109902659B (zh) | 用于处理人体图像的方法和装置 | |
Csapó et al. | A survey of assistive technologies and applications for blind users on mobile platforms: a review and foundation for research | |
JP6527507B2 (ja) | シーン抽象化を用いた人工視覚を促進するためのスマート人工器官 | |
CN106355153A (zh) | 一种基于增强现实的虚拟对象显示方法、装置以及系统 | |
JP2021007020A (ja) | 情報処理装置、情報処理方法、及びプログラム | |
Rastogi et al. | Intuitive tactile zooming for graphics accessed by individuals who are blind and visually impaired | |
CN109545003B (zh) | 一种显示方法、装置、终端设备及存储介质 | |
Ivanchev et al. | Pre-journey visualization of travel routes for the blind on refreshable interactive tactile displays | |
JP6656382B2 (ja) | マルチメディア情報を処理する方法及び装置 | |
US20200233489A1 (en) | Gazed virtual object identification module, a system for implementing gaze translucency, and a related method | |
CN109074487A (zh) | 使用神经学读数将场景分割成语义分量 | |
Schmeink | Afterthoughts: Cyberpunk Engagements in Countervisuality | |
Gomez et al. | Spatial awareness and intelligibility for the blind: audio-touch interfaces | |
US20130342555A1 (en) | Assistance for color recognition | |
Gmelch et al. | The case for low-cost, personalized visualization for enhancing natural hazard preparedness | |
US20150082244A1 (en) | Character input device using event-related potential and control method thereof | |
Martínez et al. | Visual perception substitution by the auditory sense | |
Keskin et al. | Designing AI-assisted interactive map displays to explore spatial information | |
CN109426419A (zh) | 界面显示方法及相关设备 | |
RU2649422C2 (ru) | Способ преобразования изображения в звуковой образ | |
Stoffregen et al. | Effects of visual tasks and conversational partner on personal and interpersonal postural activity | |
Wu et al. | A vibro-tactile system for image contour display | |
EP3385869B1 (en) | Method and apparatus for presenting multimedia information | |
Hong et al. | Preliminary Exploration of Three-Dimensional Visual Variables in Virtual Reality |