JP3239665U - Systems to assist visually impaired users - Google Patents
Systems to assist visually impaired users Download PDFInfo
- Publication number
- JP3239665U JP3239665U JP2021600195U JP2021600195U JP3239665U JP 3239665 U JP3239665 U JP 3239665U JP 2021600195 U JP2021600195 U JP 2021600195U JP 2021600195 U JP2021600195 U JP 2021600195U JP 3239665 U JP3239665 U JP 3239665U
- Authority
- JP
- Japan
- Prior art keywords
- module
- real
- navigation
- learning
- time scanning
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000001771 impaired effect Effects 0.000 title claims abstract description 17
- 230000000007 visual effect Effects 0.000 claims abstract description 23
- 238000001514 detection method Methods 0.000 claims abstract description 9
- 238000010801 machine learning Methods 0.000 claims abstract description 8
- 238000012015 optical character recognition Methods 0.000 claims abstract description 5
- 230000013016 learning Effects 0.000 claims description 15
- 238000013135 deep learning Methods 0.000 claims description 6
- 238000013528 artificial neural network Methods 0.000 claims description 3
- 238000003066 decision tree Methods 0.000 claims description 3
- 230000001939 inductive effect Effects 0.000 claims description 3
- 238000012706 support-vector machine Methods 0.000 claims description 3
- 230000004297 night vision Effects 0.000 claims description 2
- 238000000034 method Methods 0.000 abstract description 2
- 238000005516 engineering process Methods 0.000 description 5
- 241000282472 Canis lupus familiaris Species 0.000 description 3
- 230000004438 eyesight Effects 0.000 description 3
- 206010047571 Visual impairment Diseases 0.000 description 1
- 210000000988 bone and bone Anatomy 0.000 description 1
- 230000001815 facial effect Effects 0.000 description 1
- 239000003550 marker Substances 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 230000005055 memory storage Effects 0.000 description 1
- 230000003278 mimic effect Effects 0.000 description 1
- 208000029257 vision disease Diseases 0.000 description 1
- 230000004393 visual impairment Effects 0.000 description 1
- 230000031836 visual learning Effects 0.000 description 1
- 230000001755 vocal effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61H—PHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
- A61H1/00—Apparatus for passive exercising; Vibrating apparatus; Chiropractic devices, e.g. body impacting devices, external devices for briefly extending or aligning unbroken bones
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/005—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 with correlation of navigation data from several sources, e.g. map or contour matching
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/20—Instruments for performing navigational calculations
- G01C21/206—Instruments for performing navigational calculations specially adapted for indoor navigation
Landscapes
- Engineering & Computer Science (AREA)
- Remote Sensing (AREA)
- Radar, Positioning & Navigation (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Automation & Control Theory (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Public Health (AREA)
- Physical Education & Sports Medicine (AREA)
- Pain & Pain Management (AREA)
- Epidemiology (AREA)
- Veterinary Medicine (AREA)
- Rehabilitation Therapy (AREA)
- General Health & Medical Sciences (AREA)
- Animal Behavior & Ethology (AREA)
- Human Computer Interaction (AREA)
- Life Sciences & Earth Sciences (AREA)
- Rehabilitation Tools (AREA)
- Traffic Control Systems (AREA)
Abstract
本考案は、視覚障害のあるユーザーを支援するためのシステムに関する。特に、本考案は、ユーザーによって与えられる問いに回答し、指示を与え、および警告メッセージを提供する視覚支援モジュール、障害物検出、人物トラッキング、物体検出・トラッキング、および光学文字認識のためのリアルタイムスキャンモジュール、屋外ナビゲーションおよび屋内マップトラッキングのためのナビゲーションモジュール、ならびに視覚支援モジュールとリアルタイムスキャンモジュールとナビゲーションモジュールへのデータ、および視覚支援モジュールとリアルタイムスキャンモジュールとナビゲーションモジュールからのデータを処理する機械学習アルゴリズムを使用する処理モジュールを備える、視覚障害のあるユーザーを支援するためのシステムに関係する。【選択図】図1The present invention relates to a system for assisting visually impaired users. In particular, the present invention is a visual aid module that answers questions posed by users, gives instructions, and provides warning messages, real-time scanning for obstacle detection, person tracking, object detection and tracking, and optical character recognition. module, the navigation module for outdoor navigation and indoor map tracking, and the data to the visual aid module and the real-time scanning module and the navigation module, and the machine learning algorithms that process the data from the visual aid module and the real-time scanning module and the navigation module It relates to a system for assisting visually impaired users with processing modules for use. [Selection drawing] Fig. 1
Description
本考案は、支援デバイス、とりわけ、視覚障害のあるユーザーを支援するためのシステムに関する。 The present invention relates to assistive devices, and more particularly to systems for assisting visually impaired users.
視覚障害は、全世界でおよそ20億人が罹患しており、このうち約3900万人が完全に失明している状態である。視覚障害のある人の82%は50歳以上であり、事故に巻き込まれる可能性が非常に高くなる。 Visual impairment affects approximately 2 billion people worldwide, of whom about 39 million are completely blind. Eighty-two percent of visually impaired people are over the age of 50, making them much more likely to be involved in an accident.
視覚障害のあるユーザーが周囲を「感じる」および「見る」ことを可能にするソリューションは、介助犬から支援技術(assistive technology)デバイスまでにわたる。通常、一般的な介助犬は高価で、ゴールデンレトリバーなどの犬種は1頭あたり500ドルから2,000ドル程度かかる。人気のWeWALK Smart Caneのようなスマート杖は、杖1本あたり少なくとも500ドルかかる。スクリーンリーダーおよび点字などの支援技術デバイスは、いずれも現実世界とインターフェースで接続することができない問題に悩まされている。そのうえ、点字は急勾配の学習曲線であることに非常に悩まされており、公的機関および私的機関での採用がかなり難しい。 Solutions that allow visually impaired users to "feel" and "see" their surroundings range from service dogs to assistive technology devices. Typical service dogs are usually expensive, with breeds such as golden retrievers costing between $500 and $2,000 per dog. Smart canes, like the popular WeWALK Smart Cane, cost at least $500 per cane. Assistive technology devices such as screen readers and Braille all suffer from the inability to interface with the real world. Moreover, Braille suffers from a steep learning curve and is rather difficult to adopt in public and private institutions.
現在、視覚障害のあるユーザーを支援するための種々のシステムが当技術分野で開示されている。例えば、米国特許第9508269号明細書は、アシスタントからユーザーへの支援を提供するシステムに関する。このシステムは、視覚データ収集器と可聴式出力デバイスを含むユーザーデバイスを備える。このデバイスは、物体、障害物および人などのユーザーの周囲内のすべての物体を検出することができる。またこのデバイスは、ユーザーの位置を測定するため、GPSを有している。さらに、このデバイスは、障害物がある場合にユーザーに伝達し、検索結果を伝達し、指示を提供し、およびユーザーにメニューを読み上げる。 Various systems are currently disclosed in the art for assisting visually impaired users. For example, US Pat. No. 9,508,269 relates to a system for providing assistance from an assistant to a user. The system includes a user device including a visual data collector and an audible output device. The device can detect all objects in the user's surroundings such as objects, obstacles and people. The device also has GPS to determine the user's position. In addition, the device communicates to the user when there are obstacles, communicates search results, provides directions, and reads menus to the user.
米国特許出願公開第2013/0253818号明細書は、盲人または視覚障害者のための屋内案内システムを開示している。このシステムは、モバイルデバイスを使用して、マップ、視覚および音声による案内を提供し、個人が屋内の位置を移動するのを支援する。マップはモバイルデバイスに送信され、システムはGPSおよび他の技術(Bluetooth(登録商標)、赤外線、Wi-Fi(登録商標)、RFIDなど)の組み合わせを使用し、ユーザーに位置情報を提供する。 US2013/0253818 discloses an indoor guidance system for the blind or visually impaired. The system uses mobile devices to provide maps, visual and audio guidance, and assist individuals in navigating indoor locations. Maps are sent to mobile devices, and the system uses a combination of GPS and other technologies (Bluetooth, infrared, Wi-Fi, RFID, etc.) to provide location information to users.
しかし、いずれも、本考案が示すような視覚障害のあるユーザーを支援するための、深層学習などの機械学習アルゴリズムを用いたシステムを開示していない。 However, none of them disclose a system using machine learning algorithms such as deep learning to assist visually impaired users as the present invention does.
本考案の目的は、より高速で、より汎用性があり、より信頼性のある、視覚障害のあるユーザーを支援するためのシステムを提供することである。 SUMMARY OF THE INVENTION It is an object of the present invention to provide a faster, more versatile and more reliable system for assisting visually impaired users.
従って、本考案は、視覚障害のあるユーザーを支援するためのシステムを提供し、
a.前記ユーザーによって与えられる問いに回答し、指示を与え、および警告メッセージを提供する視覚支援モジュール、
b.障害物検出、人物トラッキング、物体検出・トラッキング、および光学文字認識のためのリアルタイムスキャンモジュール、
c.屋外ナビゲーションおよび屋内マップトラッキングのためのナビゲーションモジュール、ならびに
d.視覚支援モジュールとリアルタイムスキャンモジュールとナビゲーションモジュールへ、および前記視覚支援モジュールと前記リアルタイムスキャンモジュールと前記ナビゲーションモジュールからのデータを処理するための機械学習アルゴリズムを使用する処理モジュールを備え、
前記機械学習アルゴリズムは、回帰アルゴリズム、決定木、アソシエーションルール学習、人工ニューラルネットワーク、サポートベクターマシン、帰納論理プログラミング、ベイシアンネットワーク、インスタンスベース学習、多様体学習、部分空間学習、深層学習、辞書学習、またはこれらの組み合わせで構成される群から選択される。
Accordingly, the present invention provides a system for assisting visually impaired users,
a. a visual aid module for answering questions posed by said user, giving instructions and providing warning messages;
b. real-time scanning modules for obstacle detection, person tracking, object detection and tracking, and optical character recognition;
c. a navigation module for outdoor navigation and indoor map tracking, and d. a processing module using machine learning algorithms for processing data to and from the vision aid module, the real-time scanning module and the navigation module;
The machine learning algorithms include regression algorithms, decision trees, association rule learning, artificial neural networks, support vector machines, inductive logic programming, batian networks, instance-based learning, manifold learning, subspace learning, deep learning, dictionary learning, Or selected from the group consisting of these combinations.
図1は、本考案の好ましい実施形態に係る視覚障害のあるユーザーを支援するためのシステムを図示している。このシステムは、視覚支援モジュール102をさらに備える支援デバイス100を備える。視覚支援モジュール102は、ユーザーによって与えられる問いに回答し、指示を与え、および警告メッセージを提供するためのものである。視覚支援モジュール102は、オーディオデバイス112にさらに接続されている。オーディオデバイス112は、ユーザーからオーディオ情報を取り込み、ユーザーにオーディオ情報を伝えるためのものである。オーディオデバイス112は、マイク、スピーカー、ヘッドホン、イヤホンおよび骨伝導ヘッドホンなどの入力デバイスと出力デバイスの両方であることが好ましい。オーディオデバイス112の入力面は、ユーザーからの音声コマンドまたは質問を取り込み、周囲からの音を取り込む。オーディオデバイス112の出力面は、通話、アラーム、または警告メッセージからの音声などのオーディオ情報をユーザーに提供する。
FIG. 1 illustrates a system for assisting visually impaired users according to a preferred embodiment of the present invention. The system comprises an
さらに、支援デバイス100は、リアルタイムスキャンモジュール104を備える。リアルタイムスキャンモジュール104は、障害物検出、人物トラッキング、物体検出・トラッキング、および光学文字認識のためのものである。さらに、リアルタイムスキャンモジュール104はまた、ユーザーが視覚情報を取り込むための少なくとも1つのカメラ114にも接続されている。カメラ114は、ユーザーの一人称視点を模倣するために、ユーザーの前に配置されてもよい。また、ユーザーの側方向および後方向に向けられた他のカメラ114があってもよい。カメラ114は、ビデオカメラ、赤外線カメラ、暗視カメラ、またはサーマルカメラなどの任意の適したビデオ入力デバイスであってもよい。
Additionally, the
また、支援デバイス100は、屋外ナビゲーションおよび屋内マップトラッキングのためのナビゲーションモジュール106を備える。
最後に、支援デバイス100は、視覚支援モジュール102とリアルタイムスキャンモジュール104とナビゲーションモジュール106へのデータ、および視覚支援モジュール102とリアルタイムスキャンモジュール104とナビゲーションモジュール106からのデータを処理するための処理モジュール108を備える。処理モジュール108は、深層学習などの機械学習アルゴリズムを使用して、視覚支援モジュール102、リアルタイムスキャンモジュール104、およびナビゲーションモジュール106に送受信されるデータを処理する。処理モジュールは、回帰アルゴリズム(線形、非線形、またはロジスティック)、決定木または決定グラフ、アソシエーションルール学習、人工ニューラルネットワーク、サポートベクターマシン、帰納論理プログラミング、ベイシアンネットワーク、インスタンスベース学習、多様体学習、部分空間学習、深層学習、辞書学習、またはこれらの組み合わせなど、他の機械学習アルゴリズムを使用してもよい。
Finally,
処理モジュール108は、インターネット、モバイルデバイス、およびGPS衛星などの種々のシステム、デバイス、およびネットワークに接続するために、トランシーバ110にさらに接続される。トランシーバ110は、USB、Bluetooth(登録商標)、Wi-Fi(登録商標)、3G、4G、およびZigBee(登録商標)などの有線接続または無線接続を使用することができる。
図2は、視覚障害のあるユーザーを支援するためのシステムの好ましい構成を示す。支援デバイス202は、好ましくは、筐体に囲われ、ユーザーが支援デバイス202をユーザーの頭部に装着できるように、コントラプション200に接続される。コントラプション200は、好ましくは、眼鏡またはサングラスである。好ましくは、支援デバイス202のカメラは、ユーザーが向いている方向に向かって向けられている。
FIG. 2 shows a preferred configuration of the system for assisting visually impaired users.
本考案の別の実施形態では、支援デバイスは、ユーザーの近傍内のどこに配置してもよく、例えば、ユーザーのポケットの中に配置してもよい。支援デバイスのオーディオデバイスとカメラは、サングラスコントラプションに接続され、支援デバイスに遠隔接続される。 In another embodiment of the invention, the assistive device may be placed anywhere within the user's vicinity, such as in the user's pocket. The audio device and camera of the assistive device are connected to the sunglasses contraption and remotely connected to the assistive device.
また、本考案のさらに別の実施形態では、コントラプションは、身体の種々の部分に装着することができる。コントラプションは、ヘッドバンド、ネックレス、ショルダーストラップ、チェストストラップ、リストバンド、ベルト、または身体に装着される任意の他のコントラプションであってもよい。 Also, in yet another embodiment of the present invention, the contrast can be worn on various parts of the body. The contrast may be a headband, necklace, shoulder strap, chest strap, wristband, belt, or any other contrast worn on the body.
本考案の実施形態において、ユーザーが支援デバイスに1つの情報を尋ねたい場合、ユーザーは、視覚支援モジュールに接続されたオーディオデバイスを介して質問をすることができる。例えば、ユーザーが、「ケニアの首都はどこですか。」と尋ねる。マイクがユーザーの口頭での質問を取り込み、視覚支援モジュールがこの質問を処理モジュールに送信する。処理モジュールは質問を確認し、インターネットの検索エンジンで回答を検索する。次いで、この回答が視覚支援モジュールに送信され、そしてイヤホンを介してユーザーに回答が伝えられる。 In an embodiment of the present invention, when the user wants to ask the assistance device for a piece of information, the user can ask the question through an audio device connected to the visual assistance module. For example, a user asks, "What is the capital of Kenya?" A microphone captures the user's verbal question and the visual aid module sends this question to the processing module. A processing module checks the question and searches for the answer in an internet search engine. This answer is then sent to the visual aid module and communicated to the user via earphones.
本考案の別の実施形態では、リアルタイムスキャンモジュールは、人物トラッキングが可能である。カメラは、ユーザーの近傍のビデオを取り込み、リアルタイムスキャンモジュールは、顔認識を使用して人物を特定することができる。また、視覚支援モジュールは、特定された人物がユーザーの既知の連絡先の1人であるかどうかをユーザーに通知することもできる。そして、ユーザーは、特定された人物を追跡するようにリアルタイムスキャンモジュールに依頼することができる。 In another embodiment of the invention, the real-time scanning module is capable of person tracking. A camera captures video of the user's vicinity, and a real-time scanning module can use facial recognition to identify people. The visual aid module can also notify the user if the identified person is one of the user's known contacts. The user can then ask the real-time scanning module to track the identified person.
本考案のさらなる実施形態では、リアルタイムスキャンモジュールは、物体を検出およびトラッキングすることが可能である。例えば、ユーザーは、掃除機を見つけるように支援デバイスに依頼することができる。リアルタイムスキャンモジュールに接続されたカメラは、ビデオを取り込み、掃除機を検出する。そして、ユーザーが掃除機を手にするまで、リアルタイムスキャンモジュールは掃除機を追跡する。 In a further embodiment of the invention, the real-time scanning module is capable of detecting and tracking objects. For example, a user can ask the assistive device to find a vacuum cleaner. A camera connected to a real-time scanning module captures video and detects the vacuum cleaner. A real-time scanning module then tracks the vacuum until the user picks it up.
また、支援デバイスのリアルタイムスキャンモジュールは、障害物検出も可能である。カメラがビデオを取り込み、リアルタイムスキャンモジュールがビデオから物体を検出する。そして、リアルタイムスキャンモジュールは、検出された物体を処理モジュールに送信する。処理モジュールは深層学習を使用して、検出された物体がユーザーにとって障害物となり得るかどうかを確認する。検出された物体が障害物と見なされた場合、視覚支援モジュールは、ユーザーの近くに障害物があることをユーザーに警告する。警告には、障害物の方向、障害物の大きさ、および障害物の距離などの情報を含むことができる。 The support device's real-time scanning module is also capable of obstacle detection. A camera captures the video and a real-time scanning module detects objects from the video. The real-time scanning module then transmits detected objects to the processing module. The processing module uses deep learning to see if the detected object could be an obstacle for the user. If the detected object is considered an obstacle, the visual aid module warns the user that there is an obstacle near the user. The warning can include information such as the direction of the obstacle, the size of the obstacle, and the distance of the obstacle.
また、リアルタイムスキャンモジュールは、光学文字認識が可能である。カメラは、テキストを含む物体(例えば、メニューまたはサイネージ)の画像またはビデオを取り込む。そして、リアルタイムスキャンモジュールは、テキストを検出し、解読する。また、視覚支援モジュールは、音声合成技術(text-to-speech technology)を使用して、テキストをオーディオ形式でユーザーに伝えることもできる。 Also, the real-time scanning module is capable of optical character recognition. A camera captures an image or video of an object (eg, menu or signage) containing text. A real-time scanning module then detects and decodes the text. The visual aid module can also use text-to-speech technology to convey text to the user in audio form.
本考案のさらに別の実施形態では、ナビゲーションモジュールは、屋外ナビゲーション機能を有する。好ましくは、ナビゲーションモジュールは、GPSを介してユーザーの位置および目的地を特定することができる。例えば、ユーザーは、ショッピングモールへの行き方についての指示を与えるように支援デバイスに要求する。ナビゲーションモジュールは、ユーザーの現在地を特定すると同時に、ショッピングモールの位置を特定する。次に、ナビゲーションモジュールは、ショッピングモールに行くための最も速く最も簡単な経路を確認する。そして、視覚支援モジュールは、ユーザーに指示/命令を与える。例えば、支援モジュールは、「500メートル先、右折してください。」とユーザーに言う。 In yet another embodiment of the invention, the navigation module has outdoor navigation capabilities. Preferably, the navigation module can identify the user's location and destination via GPS. For example, a user requests an assistive device to give directions on how to get to a shopping mall. The navigation module identifies the location of the shopping mall as well as identifying the user's current location. The navigation module then identifies the fastest and easiest route to the mall. The visual aid module then provides instructions/instructions to the user. For example, the assistance module tells the user, "After 500 meters, please turn right."
また、ナビゲーションモジュールは、屋内マップトラッキングが可能である。ナビゲーションモジュールは、磁気測位、慣性計測、視覚マーカー測位(visual marker positioning)、Wi-Fi(登録商標)測位、およびBluetooth(登録商標)測位を含むが、これらに限定されない、種々の屋内測位技術を使用することができる。例えば、ショッピングモール内に入ると、ナビゲーションモジュールは、ショッピングモールのマップをダウンロードする。また、ナビゲーションモジュールは、モールのWi-Fi(登録商標)に接続し、ユーザーの位置を測定する。 The navigation module is also capable of indoor map tracking. The navigation module uses a variety of indoor positioning technologies including, but not limited to, magnetic positioning, inertial measurements, visual marker positioning, Wi-Fi positioning, and Bluetooth positioning. can be used. For example, upon entering a shopping mall, the navigation module downloads a map of the shopping mall. The navigation module also connects to the mall's Wi-Fi® to determine the user's location.
本考案の別の実施形態では、視覚障害のあるユーザーを支援するためのシステムは、プロセッサ、メモリストレージ、および電源を有する任意のデバイスで実施することができる。このようなデバイスは、マイクロコンピュータ、携帯電話、スマートフォン、パーソナルデジタルアシスタント、スマートウォッチ、タブレットコンピュータ、デスクトップコンピュータ、およびラップトップコンピュータを含むことができるが、これらに限定されない。 In another embodiment of the invention, a system for assisting visually impaired users can be implemented in any device having a processor, memory storage, and a power source. Such devices can include, but are not limited to, microcomputers, mobile phones, smart phones, personal digital assistants, smart watches, tablet computers, desktop computers, and laptop computers.
Claims (6)
a.前記ユーザーによって与えられる問いに回答し、指示を与え、および警告メッセージを提供する視覚支援モジュール、
b.障害物検出、人物トラッキング、物体検出・トラッキング、および光学文字認識のためのリアルタイムスキャンモジュール、
c.屋外ナビゲーションおよび屋内マップトラッキングのためのナビゲーションモジュール、ならびに
d.前記視覚支援モジュールと前記リアルタイムスキャンモジュールと前記ナビゲーションモジュールへのデータ、および前記視覚支援モジュールと前記リアルタイムスキャンモジュールと前記ナビゲーションモジュールからのデータを処理するための機械学習アルゴリズムを使用する処理モジュールを備え、
前記機械学習アルゴリズムは、回帰アルゴリズム、決定木、アソシエーションルール学習、人工ニューラルネットワーク、サポートベクターマシン、帰納論理プログラミング、ベイシアンネットワーク、インスタンスベース学習、多様体学習、部分空間学習、深層学習、辞書学習、またはこれらの組み合わせで構成される群から選択される、システム。 A system for assisting visually impaired users, comprising:
a. a visual aid module for answering questions posed by said user, giving instructions and providing warning messages;
b. real-time scanning modules for obstacle detection, person tracking, object detection and tracking, and optical character recognition;
c. a navigation module for outdoor navigation and indoor map tracking, and d. a processing module that uses machine learning algorithms for processing data to said visual aid module, said real-time scanning module and said navigation module, and data from said visual aid module, said real-time scanning module and said navigation module;
The machine learning algorithms include regression algorithms, decision trees, association rule learning, artificial neural networks, support vector machines, inductive logic programming, batian networks, instance-based learning, manifold learning, subspace learning, deep learning, dictionary learning, or a system selected from the group consisting of combinations thereof.
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PH12020050128 | 2020-05-11 | ||
PH12020050128 | 2020-05-11 | ||
PCT/PH2021/050008 WO2021230759A1 (en) | 2020-05-11 | 2021-05-10 | System for assisting a visually impaired user |
Publications (1)
Publication Number | Publication Date |
---|---|
JP3239665U true JP3239665U (en) | 2022-10-31 |
Family
ID=78524792
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021600195U Active JP3239665U (en) | 2020-05-11 | 2021-05-10 | Systems to assist visually impaired users |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP3239665U (en) |
WO (1) | WO2021230759A1 (en) |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20090122161A1 (en) * | 2007-11-08 | 2009-05-14 | Technical Vision Inc. | Image to sound conversion device |
US9508269B2 (en) * | 2010-08-27 | 2016-11-29 | Echo-Sense Inc. | Remote guidance system |
US9539164B2 (en) * | 2012-03-20 | 2017-01-10 | Xerox Corporation | System for indoor guidance with mobility assistance |
US10339406B2 (en) * | 2013-03-15 | 2019-07-02 | Orcam Technologies Ltd. | Apparatus and method for using background change to determine context |
DK3189655T3 (en) * | 2014-09-03 | 2020-02-24 | Aira Tech Corp | COMPUTER-IMPLEMENTED PROCEDURE AND SYSTEM FOR REMOVING SUPPORT SUPPORT FOR VISUALLY IMPAIRED USERS |
US9922236B2 (en) * | 2014-09-17 | 2018-03-20 | Toyota Motor Engineering & Manufacturing North America, Inc. | Wearable eyeglasses for providing social and environmental awareness |
-
2021
- 2021-05-10 JP JP2021600195U patent/JP3239665U/en active Active
- 2021-05-10 WO PCT/PH2021/050008 patent/WO2021230759A1/en active Application Filing
Also Published As
Publication number | Publication date |
---|---|
WO2021230759A1 (en) | 2021-11-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10674056B2 (en) | Wearable apparatus and method for capturing image data using multiple image sensors | |
US10360907B2 (en) | Smart necklace with stereo vision and onboard processing | |
US9922236B2 (en) | Wearable eyeglasses for providing social and environmental awareness | |
US10024667B2 (en) | Wearable earpiece for providing social and environmental awareness | |
US20220159117A1 (en) | Server, client terminal, control method, and storage medium | |
US20130250078A1 (en) | Visual aid | |
CN104983511A (en) | Voice-helping intelligent glasses system aiming at totally-blind visual handicapped | |
US10062302B2 (en) | Vision-assist systems for orientation and mobility training | |
Sharma et al. | International journal of engineering sciences & research technology a review on obstacle detection and vision | |
CN114115515A (en) | Method and head-mounted unit for assisting a user | |
CN113835519A (en) | Augmented reality system | |
US9996730B2 (en) | Vision-assist systems adapted for inter-device communication session | |
Ilag et al. | Design review of smart stick for the blind equipped with obstacle detection and identification using artificial intelligence | |
Manjari et al. | CREATION: Computational constRained travEl aid for objecT detection in outdoor eNvironment | |
JP6500139B1 (en) | Visual support device | |
JP3239665U (en) | Systems to assist visually impaired users | |
Hossain et al. | State of the art review on walking support system for visually impaired people | |
Kumar et al. | Smart glasses embedded with facial recognition technique | |
CN107848125A (en) | Robot and robot system | |
Bhati et al. | CAPture: a vision assistive cap for people with visual impairment | |
Megalingam et al. | Trinetra App: A Companion for the Blind | |
US10387114B1 (en) | System to assist visually impaired user | |
Ghazal et al. | Localized assistive scene understanding using deep learning and the IoT | |
Kathiravan | A smart hoodie-assistive technology for blind people using IoT | |
EP3882894B1 (en) | Seeing aid for a visually impaired individual |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220914 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 3239665 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |