JP3239665U - Systems to assist visually impaired users - Google Patents

Systems to assist visually impaired users Download PDF

Info

Publication number
JP3239665U
JP3239665U JP2021600195U JP2021600195U JP3239665U JP 3239665 U JP3239665 U JP 3239665U JP 2021600195 U JP2021600195 U JP 2021600195U JP 2021600195 U JP2021600195 U JP 2021600195U JP 3239665 U JP3239665 U JP 3239665U
Authority
JP
Japan
Prior art keywords
module
real
navigation
learning
time scanning
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021600195U
Other languages
Japanese (ja)
Inventor
エー. バジェ,ベニート
マシュー キュー. ヴァッレ,ヴォーン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Philippine Science High School Central Visayas Campus
Original Assignee
Philippine Science High School Central Visayas Campus
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Philippine Science High School Central Visayas Campus filed Critical Philippine Science High School Central Visayas Campus
Application granted granted Critical
Publication of JP3239665U publication Critical patent/JP3239665U/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61HPHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
    • A61H1/00Apparatus for passive exercising; Vibrating apparatus; Chiropractic devices, e.g. body impacting devices, external devices for briefly extending or aligning unbroken bones
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/005Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 with correlation of navigation data from several sources, e.g. map or contour matching
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/20Instruments for performing navigational calculations
    • G01C21/206Instruments for performing navigational calculations specially adapted for indoor navigation

Landscapes

  • Engineering & Computer Science (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Physical Education & Sports Medicine (AREA)
  • Pain & Pain Management (AREA)
  • Epidemiology (AREA)
  • Veterinary Medicine (AREA)
  • Rehabilitation Therapy (AREA)
  • General Health & Medical Sciences (AREA)
  • Animal Behavior & Ethology (AREA)
  • Human Computer Interaction (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Rehabilitation Tools (AREA)
  • Traffic Control Systems (AREA)

Abstract

本考案は、視覚障害のあるユーザーを支援するためのシステムに関する。特に、本考案は、ユーザーによって与えられる問いに回答し、指示を与え、および警告メッセージを提供する視覚支援モジュール、障害物検出、人物トラッキング、物体検出・トラッキング、および光学文字認識のためのリアルタイムスキャンモジュール、屋外ナビゲーションおよび屋内マップトラッキングのためのナビゲーションモジュール、ならびに視覚支援モジュールとリアルタイムスキャンモジュールとナビゲーションモジュールへのデータ、および視覚支援モジュールとリアルタイムスキャンモジュールとナビゲーションモジュールからのデータを処理する機械学習アルゴリズムを使用する処理モジュールを備える、視覚障害のあるユーザーを支援するためのシステムに関係する。【選択図】図1The present invention relates to a system for assisting visually impaired users. In particular, the present invention is a visual aid module that answers questions posed by users, gives instructions, and provides warning messages, real-time scanning for obstacle detection, person tracking, object detection and tracking, and optical character recognition. module, the navigation module for outdoor navigation and indoor map tracking, and the data to the visual aid module and the real-time scanning module and the navigation module, and the machine learning algorithms that process the data from the visual aid module and the real-time scanning module and the navigation module It relates to a system for assisting visually impaired users with processing modules for use. [Selection drawing] Fig. 1

Description

本考案は、支援デバイス、とりわけ、視覚障害のあるユーザーを支援するためのシステムに関する。 The present invention relates to assistive devices, and more particularly to systems for assisting visually impaired users.

視覚障害は、全世界でおよそ20億人が罹患しており、このうち約3900万人が完全に失明している状態である。視覚障害のある人の82%は50歳以上であり、事故に巻き込まれる可能性が非常に高くなる。 Visual impairment affects approximately 2 billion people worldwide, of whom about 39 million are completely blind. Eighty-two percent of visually impaired people are over the age of 50, making them much more likely to be involved in an accident.

視覚障害のあるユーザーが周囲を「感じる」および「見る」ことを可能にするソリューションは、介助犬から支援技術(assistive technology)デバイスまでにわたる。通常、一般的な介助犬は高価で、ゴールデンレトリバーなどの犬種は1頭あたり500ドルから2,000ドル程度かかる。人気のWeWALK Smart Caneのようなスマート杖は、杖1本あたり少なくとも500ドルかかる。スクリーンリーダーおよび点字などの支援技術デバイスは、いずれも現実世界とインターフェースで接続することができない問題に悩まされている。そのうえ、点字は急勾配の学習曲線であることに非常に悩まされており、公的機関および私的機関での採用がかなり難しい。 Solutions that allow visually impaired users to "feel" and "see" their surroundings range from service dogs to assistive technology devices. Typical service dogs are usually expensive, with breeds such as golden retrievers costing between $500 and $2,000 per dog. Smart canes, like the popular WeWALK Smart Cane, cost at least $500 per cane. Assistive technology devices such as screen readers and Braille all suffer from the inability to interface with the real world. Moreover, Braille suffers from a steep learning curve and is rather difficult to adopt in public and private institutions.

現在、視覚障害のあるユーザーを支援するための種々のシステムが当技術分野で開示されている。例えば、米国特許第9508269号明細書は、アシスタントからユーザーへの支援を提供するシステムに関する。このシステムは、視覚データ収集器と可聴式出力デバイスを含むユーザーデバイスを備える。このデバイスは、物体、障害物および人などのユーザーの周囲内のすべての物体を検出することができる。またこのデバイスは、ユーザーの位置を測定するため、GPSを有している。さらに、このデバイスは、障害物がある場合にユーザーに伝達し、検索結果を伝達し、指示を提供し、およびユーザーにメニューを読み上げる。 Various systems are currently disclosed in the art for assisting visually impaired users. For example, US Pat. No. 9,508,269 relates to a system for providing assistance from an assistant to a user. The system includes a user device including a visual data collector and an audible output device. The device can detect all objects in the user's surroundings such as objects, obstacles and people. The device also has GPS to determine the user's position. In addition, the device communicates to the user when there are obstacles, communicates search results, provides directions, and reads menus to the user.

米国特許出願公開第2013/0253818号明細書は、盲人または視覚障害者のための屋内案内システムを開示している。このシステムは、モバイルデバイスを使用して、マップ、視覚および音声による案内を提供し、個人が屋内の位置を移動するのを支援する。マップはモバイルデバイスに送信され、システムはGPSおよび他の技術(Bluetooth(登録商標)、赤外線、Wi-Fi(登録商標)、RFIDなど)の組み合わせを使用し、ユーザーに位置情報を提供する。 US2013/0253818 discloses an indoor guidance system for the blind or visually impaired. The system uses mobile devices to provide maps, visual and audio guidance, and assist individuals in navigating indoor locations. Maps are sent to mobile devices, and the system uses a combination of GPS and other technologies (Bluetooth, infrared, Wi-Fi, RFID, etc.) to provide location information to users.

しかし、いずれも、本考案が示すような視覚障害のあるユーザーを支援するための、深層学習などの機械学習アルゴリズムを用いたシステムを開示していない。 However, none of them disclose a system using machine learning algorithms such as deep learning to assist visually impaired users as the present invention does.

本考案の目的は、より高速で、より汎用性があり、より信頼性のある、視覚障害のあるユーザーを支援するためのシステムを提供することである。 SUMMARY OF THE INVENTION It is an object of the present invention to provide a faster, more versatile and more reliable system for assisting visually impaired users.

従って、本考案は、視覚障害のあるユーザーを支援するためのシステムを提供し、
a.前記ユーザーによって与えられる問いに回答し、指示を与え、および警告メッセージを提供する視覚支援モジュール、
b.障害物検出、人物トラッキング、物体検出・トラッキング、および光学文字認識のためのリアルタイムスキャンモジュール、
c.屋外ナビゲーションおよび屋内マップトラッキングのためのナビゲーションモジュール、ならびに
d.視覚支援モジュールとリアルタイムスキャンモジュールとナビゲーションモジュールへ、および前記視覚支援モジュールと前記リアルタイムスキャンモジュールと前記ナビゲーションモジュールからのデータを処理するための機械学習アルゴリズムを使用する処理モジュールを備え、
前記機械学習アルゴリズムは、回帰アルゴリズム、決定木、アソシエーションルール学習、人工ニューラルネットワーク、サポートベクターマシン、帰納論理プログラミング、ベイシアンネットワーク、インスタンスベース学習、多様体学習、部分空間学習、深層学習、辞書学習、またはこれらの組み合わせで構成される群から選択される。
Accordingly, the present invention provides a system for assisting visually impaired users,
a. a visual aid module for answering questions posed by said user, giving instructions and providing warning messages;
b. real-time scanning modules for obstacle detection, person tracking, object detection and tracking, and optical character recognition;
c. a navigation module for outdoor navigation and indoor map tracking, and d. a processing module using machine learning algorithms for processing data to and from the vision aid module, the real-time scanning module and the navigation module;
The machine learning algorithms include regression algorithms, decision trees, association rule learning, artificial neural networks, support vector machines, inductive logic programming, batian networks, instance-based learning, manifold learning, subspace learning, deep learning, dictionary learning, Or selected from the group consisting of these combinations.

図1は、本考案の好ましい実施形態に係る視覚障害のあるユーザーを支援するためのシステムを図示している。FIG. 1 illustrates a system for assisting visually impaired users according to a preferred embodiment of the present invention.

図2は、視覚障害のあるユーザーを支援するためのシステムの好ましい構成を示す。FIG. 2 shows a preferred configuration of the system for assisting visually impaired users.

図1は、本考案の好ましい実施形態に係る視覚障害のあるユーザーを支援するためのシステムを図示している。このシステムは、視覚支援モジュール102をさらに備える支援デバイス100を備える。視覚支援モジュール102は、ユーザーによって与えられる問いに回答し、指示を与え、および警告メッセージを提供するためのものである。視覚支援モジュール102は、オーディオデバイス112にさらに接続されている。オーディオデバイス112は、ユーザーからオーディオ情報を取り込み、ユーザーにオーディオ情報を伝えるためのものである。オーディオデバイス112は、マイク、スピーカー、ヘッドホン、イヤホンおよび骨伝導ヘッドホンなどの入力デバイスと出力デバイスの両方であることが好ましい。オーディオデバイス112の入力面は、ユーザーからの音声コマンドまたは質問を取り込み、周囲からの音を取り込む。オーディオデバイス112の出力面は、通話、アラーム、または警告メッセージからの音声などのオーディオ情報をユーザーに提供する。 FIG. 1 illustrates a system for assisting visually impaired users according to a preferred embodiment of the present invention. The system comprises an assistance device 100 further comprising a vision assistance module 102 . The visual aid module 102 is for answering questions posed by the user, giving instructions, and providing warning messages. Visual aid module 102 is further connected to audio device 112 . Audio device 112 is for capturing audio information from a user and for communicating audio information to the user. Audio device 112 is preferably both an input device and an output device such as a microphone, speaker, headphone, earpiece and bone conduction headphone. The input surface of audio device 112 captures voice commands or questions from the user and captures sounds from the surroundings. The output surface of audio device 112 provides audio information to the user, such as the sound from a call, alarm, or warning message.

さらに、支援デバイス100は、リアルタイムスキャンモジュール104を備える。リアルタイムスキャンモジュール104は、障害物検出、人物トラッキング、物体検出・トラッキング、および光学文字認識のためのものである。さらに、リアルタイムスキャンモジュール104はまた、ユーザーが視覚情報を取り込むための少なくとも1つのカメラ114にも接続されている。カメラ114は、ユーザーの一人称視点を模倣するために、ユーザーの前に配置されてもよい。また、ユーザーの側方向および後方向に向けられた他のカメラ114があってもよい。カメラ114は、ビデオカメラ、赤外線カメラ、暗視カメラ、またはサーマルカメラなどの任意の適したビデオ入力デバイスであってもよい。 Additionally, the assistance device 100 comprises a real-time scanning module 104 . Real-time scanning module 104 is for obstacle detection, person tracking, object detection and tracking, and optical character recognition. Additionally, the real-time scanning module 104 is also connected to at least one camera 114 for capturing visual information by the user. A camera 114 may be placed in front of the user to mimic the user's first person view. There may also be other cameras 114 directed to the side and rear of the user. Camera 114 may be any suitable video input device such as a video camera, infrared camera, night vision camera, or thermal camera.

また、支援デバイス100は、屋外ナビゲーションおよび屋内マップトラッキングのためのナビゲーションモジュール106を備える。 Assistive device 100 also includes a navigation module 106 for outdoor navigation and indoor map tracking.

最後に、支援デバイス100は、視覚支援モジュール102とリアルタイムスキャンモジュール104とナビゲーションモジュール106へのデータ、および視覚支援モジュール102とリアルタイムスキャンモジュール104とナビゲーションモジュール106からのデータを処理するための処理モジュール108を備える。処理モジュール108は、深層学習などの機械学習アルゴリズムを使用して、視覚支援モジュール102、リアルタイムスキャンモジュール104、およびナビゲーションモジュール106に送受信されるデータを処理する。処理モジュールは、回帰アルゴリズム(線形、非線形、またはロジスティック)、決定木または決定グラフ、アソシエーションルール学習、人工ニューラルネットワーク、サポートベクターマシン、帰納論理プログラミング、ベイシアンネットワーク、インスタンスベース学習、多様体学習、部分空間学習、深層学習、辞書学習、またはこれらの組み合わせなど、他の機械学習アルゴリズムを使用してもよい。 Finally, assistance device 100 includes processing module 108 for processing data to visual assistance module 102, real-time scanning module 104, and navigation module 106, and data from visual assistance module 102, real-time scanning module 104, and navigation module 106. Prepare. Processing module 108 uses machine learning algorithms, such as deep learning, to process data sent to and received from vision assistance module 102 , real-time scanning module 104 , and navigation module 106 . Processing modules include regression algorithms (linear, nonlinear, or logistic), decision trees or decision graphs, association rule learning, artificial neural networks, support vector machines, inductive logic programming, batian networks, instance-based learning, manifold learning, partial Other machine learning algorithms may be used, such as spatial learning, deep learning, dictionary learning, or combinations thereof.

処理モジュール108は、インターネット、モバイルデバイス、およびGPS衛星などの種々のシステム、デバイス、およびネットワークに接続するために、トランシーバ110にさらに接続される。トランシーバ110は、USB、Bluetooth(登録商標)、Wi-Fi(登録商標)、3G、4G、およびZigBee(登録商標)などの有線接続または無線接続を使用することができる。 Processing module 108 is further connected to transceiver 110 for connection to various systems, devices and networks such as the Internet, mobile devices and GPS satellites. Transceiver 110 may use wired or wireless connections such as USB, Bluetooth®, Wi-Fi®, 3G, 4G, and ZigBee®.

図2は、視覚障害のあるユーザーを支援するためのシステムの好ましい構成を示す。支援デバイス202は、好ましくは、筐体に囲われ、ユーザーが支援デバイス202をユーザーの頭部に装着できるように、コントラプション200に接続される。コントラプション200は、好ましくは、眼鏡またはサングラスである。好ましくは、支援デバイス202のカメラは、ユーザーが向いている方向に向かって向けられている。 FIG. 2 shows a preferred configuration of the system for assisting visually impaired users. Assistive device 202 is preferably enclosed in a housing and connected to contraception 200 so that a user can wear assistive device 202 on the user's head. The contrasts 200 are preferably spectacles or sunglasses. Preferably, the camera of assistive device 202 is pointed in the direction the user is facing.

本考案の別の実施形態では、支援デバイスは、ユーザーの近傍内のどこに配置してもよく、例えば、ユーザーのポケットの中に配置してもよい。支援デバイスのオーディオデバイスとカメラは、サングラスコントラプションに接続され、支援デバイスに遠隔接続される。 In another embodiment of the invention, the assistive device may be placed anywhere within the user's vicinity, such as in the user's pocket. The audio device and camera of the assistive device are connected to the sunglasses contraption and remotely connected to the assistive device.

また、本考案のさらに別の実施形態では、コントラプションは、身体の種々の部分に装着することができる。コントラプションは、ヘッドバンド、ネックレス、ショルダーストラップ、チェストストラップ、リストバンド、ベルト、または身体に装着される任意の他のコントラプションであってもよい。 Also, in yet another embodiment of the present invention, the contrast can be worn on various parts of the body. The contrast may be a headband, necklace, shoulder strap, chest strap, wristband, belt, or any other contrast worn on the body.

本考案の実施形態において、ユーザーが支援デバイスに1つの情報を尋ねたい場合、ユーザーは、視覚支援モジュールに接続されたオーディオデバイスを介して質問をすることができる。例えば、ユーザーが、「ケニアの首都はどこですか。」と尋ねる。マイクがユーザーの口頭での質問を取り込み、視覚支援モジュールがこの質問を処理モジュールに送信する。処理モジュールは質問を確認し、インターネットの検索エンジンで回答を検索する。次いで、この回答が視覚支援モジュールに送信され、そしてイヤホンを介してユーザーに回答が伝えられる。 In an embodiment of the present invention, when the user wants to ask the assistance device for a piece of information, the user can ask the question through an audio device connected to the visual assistance module. For example, a user asks, "What is the capital of Kenya?" A microphone captures the user's verbal question and the visual aid module sends this question to the processing module. A processing module checks the question and searches for the answer in an internet search engine. This answer is then sent to the visual aid module and communicated to the user via earphones.

本考案の別の実施形態では、リアルタイムスキャンモジュールは、人物トラッキングが可能である。カメラは、ユーザーの近傍のビデオを取り込み、リアルタイムスキャンモジュールは、顔認識を使用して人物を特定することができる。また、視覚支援モジュールは、特定された人物がユーザーの既知の連絡先の1人であるかどうかをユーザーに通知することもできる。そして、ユーザーは、特定された人物を追跡するようにリアルタイムスキャンモジュールに依頼することができる。 In another embodiment of the invention, the real-time scanning module is capable of person tracking. A camera captures video of the user's vicinity, and a real-time scanning module can use facial recognition to identify people. The visual aid module can also notify the user if the identified person is one of the user's known contacts. The user can then ask the real-time scanning module to track the identified person.

本考案のさらなる実施形態では、リアルタイムスキャンモジュールは、物体を検出およびトラッキングすることが可能である。例えば、ユーザーは、掃除機を見つけるように支援デバイスに依頼することができる。リアルタイムスキャンモジュールに接続されたカメラは、ビデオを取り込み、掃除機を検出する。そして、ユーザーが掃除機を手にするまで、リアルタイムスキャンモジュールは掃除機を追跡する。 In a further embodiment of the invention, the real-time scanning module is capable of detecting and tracking objects. For example, a user can ask the assistive device to find a vacuum cleaner. A camera connected to a real-time scanning module captures video and detects the vacuum cleaner. A real-time scanning module then tracks the vacuum until the user picks it up.

また、支援デバイスのリアルタイムスキャンモジュールは、障害物検出も可能である。カメラがビデオを取り込み、リアルタイムスキャンモジュールがビデオから物体を検出する。そして、リアルタイムスキャンモジュールは、検出された物体を処理モジュールに送信する。処理モジュールは深層学習を使用して、検出された物体がユーザーにとって障害物となり得るかどうかを確認する。検出された物体が障害物と見なされた場合、視覚支援モジュールは、ユーザーの近くに障害物があることをユーザーに警告する。警告には、障害物の方向、障害物の大きさ、および障害物の距離などの情報を含むことができる。 The support device's real-time scanning module is also capable of obstacle detection. A camera captures the video and a real-time scanning module detects objects from the video. The real-time scanning module then transmits detected objects to the processing module. The processing module uses deep learning to see if the detected object could be an obstacle for the user. If the detected object is considered an obstacle, the visual aid module warns the user that there is an obstacle near the user. The warning can include information such as the direction of the obstacle, the size of the obstacle, and the distance of the obstacle.

また、リアルタイムスキャンモジュールは、光学文字認識が可能である。カメラは、テキストを含む物体(例えば、メニューまたはサイネージ)の画像またはビデオを取り込む。そして、リアルタイムスキャンモジュールは、テキストを検出し、解読する。また、視覚支援モジュールは、音声合成技術(text-to-speech technology)を使用して、テキストをオーディオ形式でユーザーに伝えることもできる。 Also, the real-time scanning module is capable of optical character recognition. A camera captures an image or video of an object (eg, menu or signage) containing text. A real-time scanning module then detects and decodes the text. The visual aid module can also use text-to-speech technology to convey text to the user in audio form.

本考案のさらに別の実施形態では、ナビゲーションモジュールは、屋外ナビゲーション機能を有する。好ましくは、ナビゲーションモジュールは、GPSを介してユーザーの位置および目的地を特定することができる。例えば、ユーザーは、ショッピングモールへの行き方についての指示を与えるように支援デバイスに要求する。ナビゲーションモジュールは、ユーザーの現在地を特定すると同時に、ショッピングモールの位置を特定する。次に、ナビゲーションモジュールは、ショッピングモールに行くための最も速く最も簡単な経路を確認する。そして、視覚支援モジュールは、ユーザーに指示/命令を与える。例えば、支援モジュールは、「500メートル先、右折してください。」とユーザーに言う。 In yet another embodiment of the invention, the navigation module has outdoor navigation capabilities. Preferably, the navigation module can identify the user's location and destination via GPS. For example, a user requests an assistive device to give directions on how to get to a shopping mall. The navigation module identifies the location of the shopping mall as well as identifying the user's current location. The navigation module then identifies the fastest and easiest route to the mall. The visual aid module then provides instructions/instructions to the user. For example, the assistance module tells the user, "After 500 meters, please turn right."

また、ナビゲーションモジュールは、屋内マップトラッキングが可能である。ナビゲーションモジュールは、磁気測位、慣性計測、視覚マーカー測位(visual marker positioning)、Wi-Fi(登録商標)測位、およびBluetooth(登録商標)測位を含むが、これらに限定されない、種々の屋内測位技術を使用することができる。例えば、ショッピングモール内に入ると、ナビゲーションモジュールは、ショッピングモールのマップをダウンロードする。また、ナビゲーションモジュールは、モールのWi-Fi(登録商標)に接続し、ユーザーの位置を測定する。 The navigation module is also capable of indoor map tracking. The navigation module uses a variety of indoor positioning technologies including, but not limited to, magnetic positioning, inertial measurements, visual marker positioning, Wi-Fi positioning, and Bluetooth positioning. can be used. For example, upon entering a shopping mall, the navigation module downloads a map of the shopping mall. The navigation module also connects to the mall's Wi-Fi® to determine the user's location.

本考案の別の実施形態では、視覚障害のあるユーザーを支援するためのシステムは、プロセッサ、メモリストレージ、および電源を有する任意のデバイスで実施することができる。このようなデバイスは、マイクロコンピュータ、携帯電話、スマートフォン、パーソナルデジタルアシスタント、スマートウォッチ、タブレットコンピュータ、デスクトップコンピュータ、およびラップトップコンピュータを含むことができるが、これらに限定されない。 In another embodiment of the invention, a system for assisting visually impaired users can be implemented in any device having a processor, memory storage, and a power source. Such devices can include, but are not limited to, microcomputers, mobile phones, smart phones, personal digital assistants, smart watches, tablet computers, desktop computers, and laptop computers.

Claims (6)

視覚障害のあるユーザーを支援するためのシステムであって、
a.前記ユーザーによって与えられる問いに回答し、指示を与え、および警告メッセージを提供する視覚支援モジュール、
b.障害物検出、人物トラッキング、物体検出・トラッキング、および光学文字認識のためのリアルタイムスキャンモジュール、
c.屋外ナビゲーションおよび屋内マップトラッキングのためのナビゲーションモジュール、ならびに
d.前記視覚支援モジュールと前記リアルタイムスキャンモジュールと前記ナビゲーションモジュールへのデータ、および前記視覚支援モジュールと前記リアルタイムスキャンモジュールと前記ナビゲーションモジュールからのデータを処理するための機械学習アルゴリズムを使用する処理モジュールを備え、
前記機械学習アルゴリズムは、回帰アルゴリズム、決定木、アソシエーションルール学習、人工ニューラルネットワーク、サポートベクターマシン、帰納論理プログラミング、ベイシアンネットワーク、インスタンスベース学習、多様体学習、部分空間学習、深層学習、辞書学習、またはこれらの組み合わせで構成される群から選択される、システム。
A system for assisting visually impaired users, comprising:
a. a visual aid module for answering questions posed by said user, giving instructions and providing warning messages;
b. real-time scanning modules for obstacle detection, person tracking, object detection and tracking, and optical character recognition;
c. a navigation module for outdoor navigation and indoor map tracking, and d. a processing module that uses machine learning algorithms for processing data to said visual aid module, said real-time scanning module and said navigation module, and data from said visual aid module, said real-time scanning module and said navigation module;
The machine learning algorithms include regression algorithms, decision trees, association rule learning, artificial neural networks, support vector machines, inductive logic programming, batian networks, instance-based learning, manifold learning, subspace learning, deep learning, dictionary learning, or a system selected from the group consisting of combinations thereof.
前記視覚支援モジュールはオーディオデバイスに接続されている、請求項1に記載のシステム。 3. The system of claim 1, wherein the visual aid module is connected to an audio device. 前記リアルタイムスキャンモジュールは少なくとも1つのカメラに接続されている、請求項1に記載のシステム。 3. The system of claim 1, wherein said real-time scanning module is connected to at least one camera. 前記少なくとも1つのカメラは、ビデオカメラ、赤外線カメラ、暗視カメラ、およびサーマルカメラを含むがこれらに限定されない、任意の適したビデオ入力デバイスである、請求項3に記載のシステム。 4. The system of claim 3, wherein the at least one camera is any suitable video input device including, but not limited to, video cameras, infrared cameras, night vision cameras, and thermal cameras. 前記ナビゲーションモジュールの前記屋外ナビゲーションはGPSを介して行われる、請求項1に記載のシステム。 2. The system of claim 1, wherein said outdoor navigation of said navigation module is via GPS. 前記処理モジュールはトランシーバに接続されている、請求項1に記載のシステム。 2. The system of claim 1, wherein said processing module is connected to a transceiver.
JP2021600195U 2020-05-11 2021-05-10 Systems to assist visually impaired users Active JP3239665U (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
PH12020050128 2020-05-11
PH12020050128 2020-05-11
PCT/PH2021/050008 WO2021230759A1 (en) 2020-05-11 2021-05-10 System for assisting a visually impaired user

Publications (1)

Publication Number Publication Date
JP3239665U true JP3239665U (en) 2022-10-31

Family

ID=78524792

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021600195U Active JP3239665U (en) 2020-05-11 2021-05-10 Systems to assist visually impaired users

Country Status (2)

Country Link
JP (1) JP3239665U (en)
WO (1) WO2021230759A1 (en)

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090122161A1 (en) * 2007-11-08 2009-05-14 Technical Vision Inc. Image to sound conversion device
US9508269B2 (en) * 2010-08-27 2016-11-29 Echo-Sense Inc. Remote guidance system
US9539164B2 (en) * 2012-03-20 2017-01-10 Xerox Corporation System for indoor guidance with mobility assistance
US10339406B2 (en) * 2013-03-15 2019-07-02 Orcam Technologies Ltd. Apparatus and method for using background change to determine context
DK3189655T3 (en) * 2014-09-03 2020-02-24 Aira Tech Corp COMPUTER-IMPLEMENTED PROCEDURE AND SYSTEM FOR REMOVING SUPPORT SUPPORT FOR VISUALLY IMPAIRED USERS
US9922236B2 (en) * 2014-09-17 2018-03-20 Toyota Motor Engineering & Manufacturing North America, Inc. Wearable eyeglasses for providing social and environmental awareness

Also Published As

Publication number Publication date
WO2021230759A1 (en) 2021-11-18

Similar Documents

Publication Publication Date Title
US10674056B2 (en) Wearable apparatus and method for capturing image data using multiple image sensors
US10360907B2 (en) Smart necklace with stereo vision and onboard processing
US9922236B2 (en) Wearable eyeglasses for providing social and environmental awareness
US10024667B2 (en) Wearable earpiece for providing social and environmental awareness
US20220159117A1 (en) Server, client terminal, control method, and storage medium
US20130250078A1 (en) Visual aid
CN104983511A (en) Voice-helping intelligent glasses system aiming at totally-blind visual handicapped
US10062302B2 (en) Vision-assist systems for orientation and mobility training
Sharma et al. International journal of engineering sciences & research technology a review on obstacle detection and vision
CN114115515A (en) Method and head-mounted unit for assisting a user
CN113835519A (en) Augmented reality system
US9996730B2 (en) Vision-assist systems adapted for inter-device communication session
Ilag et al. Design review of smart stick for the blind equipped with obstacle detection and identification using artificial intelligence
Manjari et al. CREATION: Computational constRained travEl aid for objecT detection in outdoor eNvironment
JP6500139B1 (en) Visual support device
JP3239665U (en) Systems to assist visually impaired users
Hossain et al. State of the art review on walking support system for visually impaired people
Kumar et al. Smart glasses embedded with facial recognition technique
CN107848125A (en) Robot and robot system
Bhati et al. CAPture: a vision assistive cap for people with visual impairment
Megalingam et al. Trinetra App: A Companion for the Blind
US10387114B1 (en) System to assist visually impaired user
Ghazal et al. Localized assistive scene understanding using deep learning and the IoT
Kathiravan A smart hoodie-assistive technology for blind people using IoT
EP3882894B1 (en) Seeing aid for a visually impaired individual

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220914

R150 Certificate of patent or registration of utility model

Ref document number: 3239665

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150