JP5709906B2 - 視覚障害者支援用拡張現実パノラマ - Google Patents

視覚障害者支援用拡張現実パノラマ Download PDF

Info

Publication number
JP5709906B2
JP5709906B2 JP2012555144A JP2012555144A JP5709906B2 JP 5709906 B2 JP5709906 B2 JP 5709906B2 JP 2012555144 A JP2012555144 A JP 2012555144A JP 2012555144 A JP2012555144 A JP 2012555144A JP 5709906 B2 JP5709906 B2 JP 5709906B2
Authority
JP
Japan
Prior art keywords
augmented reality
panorama
data
engine
remote
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2012555144A
Other languages
English (en)
Other versions
JP2013520757A (ja
Inventor
ディアラメ,オラング
ミラー,ダグラス
ブランチャード,チャールズ
シー. ドーシー,ティモシー
シー. ドーシー,ティモシー
エム. スドル,ジェレミ
エム. スドル,ジェレミ
Original Assignee
アイピープレックス ホールディングス コーポレーション
アイピープレックス ホールディングス コーポレーション
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by アイピープレックス ホールディングス コーポレーション, アイピープレックス ホールディングス コーポレーション filed Critical アイピープレックス ホールディングス コーポレーション
Publication of JP2013520757A publication Critical patent/JP2013520757A/ja
Application granted granted Critical
Publication of JP5709906B2 publication Critical patent/JP5709906B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61HPHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
    • A61H3/00Appliances for aiding patients or disabled persons to walk about
    • A61H3/06Walking aids for blind persons
    • A61H3/061Walking aids for blind persons with electronic detecting or guiding means
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61FFILTERS IMPLANTABLE INTO BLOOD VESSELS; PROSTHESES; DEVICES PROVIDING PATENCY TO, OR PREVENTING COLLAPSING OF, TUBULAR STRUCTURES OF THE BODY, e.g. STENTS; ORTHOPAEDIC, NURSING OR CONTRACEPTIVE DEVICES; FOMENTATION; TREATMENT OR PROTECTION OF EYES OR EARS; BANDAGES, DRESSINGS OR ABSORBENT PADS; FIRST-AID KITS
    • A61F9/00Methods or devices for treatment of the eyes; Devices for putting-in contact lenses; Devices to correct squinting; Apparatus to guide the blind; Protective devices for the eyes, carried on the body or in the hand
    • A61F9/08Devices or methods enabling eye-patients to replace direct visual perception by another kind of perception
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F15/00Digital computers in general; Data processing equipment in general
    • G06F15/16Combinations of two or more digital computers each having at least an arithmetic unit, a program unit and a register, e.g. for a simultaneous processing of several programs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/58Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/583Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/95Retrieval from the web
    • G06F16/955Retrieval from the web using information identifiers, e.g. uniform resource locators [URL]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/17Image acquisition using hand-held instruments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/20Scenes; Scene-specific elements in augmented reality scenes
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B21/00Teaching, or communicating with, the blind, deaf or mute
    • G09B21/001Teaching or communicating with blind persons
    • G09B21/003Teaching or communicating with blind persons using tactile presentation of the information, e.g. Braille displays
    • G09B21/005Details of specially-adapted software to access information, e.g. to browse through hyperlinked information
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B21/00Teaching, or communicating with, the blind, deaf or mute
    • G09B21/001Teaching or communicating with blind persons
    • G09B21/008Teaching or communicating with blind persons using visual presentation of the information for the partially sighted
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B5/00Electrically-operated educational appliances
    • G09B5/08Electrically-operated educational appliances providing for individual presentation of information to a plurality of student stations
    • G09B5/12Electrically-operated educational appliances providing for individual presentation of information to a plurality of student stations different stations being capable of presenting different information simultaneously
    • G09B5/125Electrically-operated educational appliances providing for individual presentation of information to a plurality of student stations different stations being capable of presenting different information simultaneously the stations being mobile
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72475User interfaces specially adapted for cordless or mobile telephones specially adapted for disabled users
    • H04M1/72481User interfaces specially adapted for cordless or mobile telephones specially adapted for disabled users for visually impaired users
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61HPHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
    • A61H2201/00Characteristics of apparatus not provided for in the preceding codes
    • A61H2201/01Constructive details
    • A61H2201/0157Constructive details portable
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61HPHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
    • A61H2201/00Characteristics of apparatus not provided for in the preceding codes
    • A61H2201/50Control means thereof
    • A61H2201/5007Control means thereof computer controlled
    • A61H2201/501Control means thereof computer controlled connected to external computer devices or networks
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61HPHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
    • A61H2201/00Characteristics of apparatus not provided for in the preceding codes
    • A61H2201/50Control means thereof
    • A61H2201/5023Interfaces to the user
    • A61H2201/5048Audio interfaces, e.g. voice or music controlled
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61HPHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
    • A61H2201/00Characteristics of apparatus not provided for in the preceding codes
    • A61H2201/50Control means thereof
    • A61H2201/5058Sensors or detectors
    • A61H2201/5092Optical sensor

Description

本願は、2011年2月24日出願の米国特許仮出願第61/307,675号及び2010年2月26日出願の米国特許仮出願第61/339,071号に対する優先権の利益を主張する。これらの仮出願及び本明細書で議論される他の全ての付帯的要素は、その全体が参照によって援用される。援用される参照における用語の定義又は使用法が、本明細書において規定されたその用語の定義と矛盾する場合、又は相反する場合は、本明細書において規定された用語の定義が適用され、参照における用語の定義は適用されない。
本発明の分野は、障害者のための支援技術に関する。
コンピュータ・ヴィジョン、マシン・ヴィジョンなど、どのように名づけられるにしても、自動化された物体認識を提供するシステムは、伝統的に、工業及び軍事用途における導入のための大きな関心を集める主題であった。物体認識を提供するあらゆるシステムが直面した継続中の課題の一つは、天候パターン、季節的変遷、及び一日の経過を通した日光の推移によって生み出される光と陰影の変化のような環境要因に起因する、同一の物体、更にいえば同一の視点から見た同一の物体によってもたらされる像における変動性である。この課題及び他の重要な技術的課題に対処するために、信頼性のある物体認識を提供するシステムの殆どは、その実行に相当な計算資源を必要とする、1又は複数の複雑なアルゴリズムを用いる。その結果、物体認識を達成するための従来的なアプローチの多くは、相当な遅延の後にのみ関心対象の物体の識別を提供しうるものであり、物体像の処理のために高価で洗練された計算プラットフォームを必要とするか、又は両方の不利益に悩まされうる。2005年1月5日出願の、「Digital Object Recognition Audio−Assistant for the Visually Impaired」と題されたFinkらによる米国特許出願公開第2005/0208457号明細書で議論されたように、今もなお、物体認識を提供するためのいくつかの試みがなされてきている。
残念ながら、この技術における従来的な状況を踏まえると、物体認識システムは、例えば目の見えない、又は視覚に障害を持った人々のような、感覚障害に苦しむ人に対する特定の援助を提供していた。原理上は、視覚障害者の視野は、その機能を提供する電子補助型デバイスの物体認識性能によって効果的に改善しうる。しかしながら、物体認識を提供する電子デバイスが視覚障害者にこの上なく十分な利益をもたらすために、デバイスは少なくとも三つの基準に取り組まなければならない。それらの基準の一つは、視覚障害者が所望に応じて容易にデバイスを運ぶことができるように、電子的な視野の改善を提供するデバイスは、携帯可能であることが望ましいということである。それらの基準の一つは、デバイスは、視覚障害者がデバイスの物体認識機能を起動し制御することが可能な、柔軟で使いやすいインターフェースを提供するものであることが望ましいということである。更に、視覚障害者に、彼らの安全も保護しながら、殆ど十分な力を与えるために、物体認識を提供するデバイスは、確実に、かつリアルタイムでそれを行い、そうして視覚障害を持ったユーザが、彼又は彼女の現在の環境における特徴に関与することを可能にするものであることが望ましい。
しかしながら、上述のように、従来的なアプローチによって物体認識を達成するために必要とされる計算資源は、殆どの場合、非常に大きなものである。そうした計算能力要件は、比較的緩和された性能基準においてさえ、単一の携帯デバイスの資源を大きく超過しうる。2005年4月1日出願の、「Gesture Processing with Low Resolution Images with High Resolution Processing for Optical Character Recognition for a Reading Machine」と題されたKurzweilらの米国特許第7,627,142号明細書において議論されたように、文字認識のための最小限の支援を提供する携帯デバイスがせいぜいである。物体認識機能を提供するシステムのユーザの個人的安全性及び有効性が、物体の識別に対して高度な信頼性とリアルタイムの提供を要求する場合、必要とされる計算資源は、単一の携帯電子デバイスにおいて利用可能な計算資源を遥かに上回る。
視覚障害を持ったユーザの補助のための考えうる一つの手段は、遠隔アシスタントとの情報のやり取りを含む。理想的には、遠隔アシスタントは、視覚障害を持つユーザの全ての環境と情報のやり取りが可能なものであるべきである。他の人々は、視覚障害を持つユーザと遠隔アシスタントとの間で情報のやり取りを可能とすることに向けた取り組みを行ってきた。2007年4月6日出願の、「System and Method for Assisting a Visually Impaired Individual」と題されたEspenlaubらの米国特許第7,864,991号明細書は、視覚障害者が状況についての視聴覚情報をアシスタントにワイヤレスで送信することについて議論している。アシスタントは、その後、状況に対する解決法を返信する。残念ながら、アシスタントは、視覚障害者を取り巻く環境についての完全な視野を欠いている。
別の例として、2006年8月4日出願の、「Communications Device for Visually Impaired Persons」と題されたGallickの米国特許出願公開第2008/0043934号明細書が含まれ、そこでは視覚障害者に対して表面センサーを有するデバイスを提供することが議論され、遠隔アシスタントは視覚障害者とデバイスとの情報のやり取りを観察することが可能である。
より進歩的な試みとして、2008年2月4日出願の、「System and Method for Tele−presence」と題されたGowdaの米国特許出願公開第2008/0198222号明細書が含まれ、そこでは遠隔アシスタントの概念が更に少し進められている。Gowdaは、視覚障害を持つ対象がガイドと接続されることが可能であり、ガイドは、場合によっては対象を物体に向けて案内することによって、対象を補助するために、対象の環境についての複数様式の情報を使用することが可能であることを示している。それでもやはり、アシスタントは対象によって提供される視野を制限されており、環境についての追加的データを獲得する能力も欠いている。
興味深いことに、これまでになされた視覚障害者の補助のために拡張現実システムを用いる試みは僅かなものであった。これまでのところ評価されるべきは、遠隔アシスタントは、視覚障害者の環境及びその中の物体を表す拡張現実パノラマと情報のやり取りが可能であるということである。拡張現実パノラマは、視覚障害者のスマートフォン又は環境データについての他の情報源を介して収集されたセンサーデータに基づいて作り上げることが可能である。アシスタントは、物体や、拡張現実パノラマにおける他の側面と情報のやり取りをすることができ、視覚障害者を支援するため、又は環境についての更なる情報を得るために、視覚障害者のスマートフォンにデバイス命令を送信することが可能である。
文脈がその反対を指し示している場合を除き、本明細書で説明される全ての幅はその短点を包含するものとして解釈されるべきであり、制約の無い幅は、工業的に実用的な数値を含むものと解釈されるべきである。同様に、あらゆる数値のリストは、文脈がその反対を指し示している場合を除き、中間値を包含するものとみなされるべきである。
このように、視覚障害者のための遠隔アシスタントの必要性は依然として存在する。
この発明的な主題は、視覚障害者が有視力アシスタントからの支援を求めることが可能な装置、システム、及び方法を提供する。この発明的主題の一態様は、遠隔環境及びその中の物体のモデルを表す拡張現実パノラマを構成することが可能なパノラマエンジンを備える拡張現実エンジンを含む。このパノラマは、遠隔の視覚障害者のスマートフォン又は視覚障害者に近接する他の移動可能な検知デバイスから収集される環境センサーデータに少なくとも部分的に基づいて構成されることが可能である。好適には、環境センサーデータはその人物の遠隔環境を反映し、場合により、画像、ビデオ、音声、加速度、向き、位置、積算距離、又は他のセンサーデータに関連付けられたデータを備える。有視力アシスタントは、拡張現実パノラマ及びその中の物体と情報のやり取りを行うために有視力アシスタントインターフェースを利用して、遠隔の視覚障害者に支援フィードバックを提供する。アシスタントインターフェースは、統合された遠隔の人物の検知デバイスの現在の視野と共に、拡張現実パノラマを提示する。人間の、又は自動化された有視力アシスタントは、遠隔の視覚障害者の経験を共有し、拡張現実パノラマ内の物体と情報のやり取りを行って、その人物のスマートフォンへの1又は複数のデバイス命令を送信する。デバイス命令は、スマートフォン又は他の携帯検知デバイスに対して、対応する現実世界の物体に関する追加情報を獲得するように指示することが可能である。例えば、デバイス命令は、視覚障害者に対して、1又は複数の物体への近接を示す、触覚的又は可聴式のフィードバックを提供することが可能であり、あるいは、追加データを獲得するために、1又は複数の適用可能な物体認識アルゴリズム又はルーティンの選択を制御することが可能である。
いくつかの実施形態において、拡張現実パノラマは複数様式のパノラマデータを含み、このとき、拡張現実内の物体は、視覚データ、触覚データ、運動感覚データ、可聴データ、又は他の種類の感覚データを含みうる複数種類の感覚データを含む。また、物体には、不可視データを含むメタデータのタグを付けることも可能である。不可視データの例には、視覚障害を持つユーザを補助するためにアシスタントによって利用されることが可能な触覚メタデータタグ、可聴メタデータタグ、又は他の種類のタグが含まれる。複数様式のメタデータタグ又は不可視タグは、デバイス命令の形を取って、遠隔の視覚障害者のデバイスに送信することが可能である。このようにして、視覚障害者は、不可視フィードバックに基づいて個人化された自身の環境を通して移動することができる。
この発明的主題の様々な目的、特徴、態様及び利点は、同様の参照番号が同様の構成要素を表す添付の図面に加えて、以下の好適な実施形態の詳細な説明によってより明らかとなるであろう。
本発明の一実施形態による、リアルタイム物体認識及び改善された視野を提供するためのシステムを示す図である。 本発明の別の実施形態による、リアルタイム物体認識及び改善された視野を提供するためのシステムを示す図である。 本発明の一実施形態による、図1の認識アプリケーション124によって生成された表示例が取得されている視覚フレームを示す。 本発明の一実施形態による、リアルタイム物体認識及び改善された視野を提供するためのシステムの機能的概略を示す図である。 本発明の一実施形態による、リアルタイム物体認識及び改善された視野を提供するための方法を示すフローチャートである。 視覚障害者に改善された視野を提供することが可能な別のシステムを示す図である。 遠隔環境の拡張現実パノラマを示すように構成された、可能な有視力アシスタントインターフェースを示す図である。
以下の詳細な説明において、コンピュータ/サーバを基礎とする拡張現実エンジンを取り上げるが、種々の代替の構成もまた適するものと考えられ、また、それらの構成は、サーバ、インターフェース、システム、データベース、エンジン、アダプタ、コントローラ、又は独立してもしくは集合的に動作する他の種類のコンピューティングデバイスを含む種々のコンピューティングデバイスを利用しうることに留意されたい。それらのコンピューティングデバイスは、有形又は無形のコンピュータ可読記憶媒体(例えば、ハードドライブ、ソリッドステートドライブ、RAM、フラッシュ、ROMなど)に記憶されたソフトウェア命令を実行するように構成されたプロセッサを備えることが理解されるべきである。ソフトウェア命令は、好適には、コンピューティングデバイスを、開示する装置に関して以下に議論されるような役割、責務、又は他の機能を提供するように設定する。特に好適な実施形態において、種々のサーバ、システム、データベース、又はインターフェースは、場合により、HTTP、HTTPS、AES、公開鍵−秘密鍵交換、ウェブサービスAPI、公知の金融取引プロトコル、又は他の電子的情報交換方法に基づき、標準プロトコル又はアルゴリズムを使用して、データを交換する。好適には、データ交換は、パケット交換ネットワーク、インターネット、LAN、WAN、VPN、又は他の種類のパケット交換ネットワーク上で実行される。
開示の手法は、視覚障害者を支援するように遠隔検知デバイスを設定することを含む多くの技術的効果を提供することが理解されるべきである。例えば、拡張現実エンジンは、遠隔の視覚障害者のスマートフォンにデバイス命令を発するために、遠隔の有視力アシスタントによって利用されることが可能である。これらの命令は、スマートフォンに対して、視覚障害者に対する案内を提供するように指示することが可能である。
本明細書で用いられる場合、文脈が異なるものを指し示していない限り、「〜と接続される」という言葉は、直接接続(この場合、互いに接続される2つの要素が、互いに接触する)及び間接接続(この場合、少なくとも1つの付加的要素が2つの要素間に位置する)の両方を含むことが意図されている。したがって、「〜と接続される」及び「〜に接続される」という言葉は、同義語として用いられる。
本願は、リアルタイム物体認識及び視野の改善を提供するシステム及び方法を対象とする。以下の詳細な説明は、本発明の実装に関連する具体的な情報を含む。当業者は、本発明が、本願において具体的に議論されたものとは異なる様式で実装されうることに気づくであろう。更に、本発明を不明瞭とするのを避けるために、本発明の具体的な細部のうちのいくらかについては議論されていない。本願において説明されていない具体的細部は、当業者の知識の範囲内のものである。本願における図面及びそれに付随する詳細な説明は、ただ単に本発明の例示的な実施形態を示すに過ぎないものである。簡明であることを維持するために、本発明の原理を用いる本発明の他の実施形態は、本願において具体的に説明はされず、また、図面において具体的に示されてもいない。異なる言及がなされていない限り、図面間における同様の、又は対応する要素は、同様の、又は対応する参照番号によって示されうることに留意されたい。
本発明者らは、コンピュータを介在させた物体認識を提供する従来的なアプローチは、多くの場合、最適なユーザの体験には満たない結果となることを実感してきた。更に、本発明者らは、視覚に障害を持つ人々のための視野の改善に対するアプローチの一部として、繊細で洗練された物体認識ソリューションの実現に対する当分野における強い必要性を認識してきた。本願は、視野の補強に対する統合されたアプローチの一部として、正確かつ便利に、物体、顔、背景、及び環境の認識を提供するように構成された、柔軟、強力、かつユーザに対する反応性の良いソリューションの提供を対象とするシステム及び方法を開示する。例えば、一実施形態において、本発明概念によるシステム及び方法は、顔の特徴を含む視覚的イメージを取得し、そのような特徴を有する人物のリアルタイム識別を提供することが可能でありうる。更に、一実施形態において、本発明概念によるシステム及び方法は、環境特性を含む視覚的イメージを取得し、位置のリアルタイム識別を提供し、場合によっては、その位置に従って、遠隔のユーザに対してナビゲーション情報を提供することが可能でありうる。
多くの利点のうち、本願で開示されるのは、携帯デバイスのユーザに、アクセス可能なインターフェースを通じて、リアルタイムで観測された支援、情報、及び通信を提供するためのデバイス、システム、及び方法である。例えば、一実施形態において、ユーザのパーソナルコンピュータ(PC)及び/又は他の集中型もしくは分散型の計算・通信サービスに接続された、カメラを使用可能な携帯通信デバイスを用いて、拡張現実及び改善された視野サービスを提供可能である。
例えば、本明細書において具体化されるシステムは、視覚障害を持つユーザが、彼らがリアルタイムで物体、ランドマーク、専用のタグ、テキスト、標識、又はバーコードを検出、認識、及び追跡すること(これらは、低解像度のビデオ解析によっては実現可能性がきわめて低いであろう)を可能とする、有視力アシスタント又は自動化されたコンピュータ・ヴィジョンエンジンとのリアルタイムの通信のために、カメラを使用可能な、例えば携帯電話又は携帯情報端末(PDA)のような携帯通信デバイスを利用することを可能とする。本システムの実施形態は、例えば、秒間およそ5〜10フレーム(fps)かそれ以上というように、きわめて高い速度で高解像度の画像認識を提供する。本発明の一実施形態によれば、かかる性能は、ユーザPCの処理能力の利用によって可能とされる。
いくつかの実施形態においては、物体又は環境認識処理の結果は、テキスト読み上げ又は事前録音タグを用いて、音声として発音可能である。すなわち、物体は、リアルタイムの物体についての発話識別を提供することによって識別されうる。処理及び認識は、本発明の実施形態に割り当てられた、又は本発明の実施形態を通してアクセス可能な識別データベースを使用して進行することができる。そうしたデータベースは、例えば、殆どのユーザに知られる多数のデフォルト・エントリを含みうる。いくつかの実施形態において、識別データベースは、そのユーザにとって個人的に重要な情報についての追加層が、ユーザPCに局在するストレージ・リソース、又は中央の共有されたコミュニティデータベース上のストレージ・リソースのいずれかに記憶され、アクセスされることが可能なように、オープンでありうる。
発話識別に加えて、ハイパーリンク、画像、二次元(2D)及び三次元(3D)グラフィックスなどといったグラフィック要素を、低いレイテンシ及び高いフレームレートで、ビデオストリーム中の特徴にリアルタイムに添付し、登録することが可能である。更に、グラフィックスを用いてアクセス可能なインターフェースの実装は、触覚感知及び発話可能なタッチスクリーンインターフェースと同様に、音声認識及びジェスチャー認識と組み合わされた場合に、視覚障害者、高齢者、及び他のコミュニケーション又は認識に障害を持つ人々などの、広範囲の障害を持つユーザによる使用を可能とする。
専用タグは、ユーザが、そのままではシステムに認識不能な種々の物体又はランドマークに対して容易にタグを添付することが可能なシステムにおいて、事前に学習させることが可能である。このタグ付けアプローチは、例えば、SIFTアルゴリズム(scale−invariant feature transformation)、SURFアルゴリズム(speeded up robust feature),又は他の簡単な色もしくは形に基づく手法などの様々な物体認識アルゴリズムに最適なものとして識別された画像のような、リアルタイムのビデオ解析を通じて認識可能な特徴を用いることが可能である。ユーザが携帯通信デバイスのカメラを1又は複数の場面内の1又は複数の物体に向けると、システムは、1又は複数の物体を識別するために、リアルタイムにその物体を自動的に解析することが可能である。システムは、携帯通信デバイスのディスプレイ内に、図式的に、又は音声及び触覚感知インターフェースを通じて、識別された物体に関するリンクされた情報又は行動の選択肢を提供するように更に構成されることが可能である。例えば、物体、テキスト、電話番号、Eメール、SMS連絡先、もしくは道路標識、又はユーザによる以前の入力として存在するものの認識に基づいて生成されたリンクは、追加情報層へのアクセス、又は通信もしくは位置に基づくサービスの開始のためのより多くの選択肢をユーザにもたらすことできる。
本発明の実施形態は、ハイブリッド・ピアツーピア(P2P)及び中央処理アーキテクチャを実装し、それにより、中央でホストされる実装に関連するコストを回避しながら、カメラを使用可能な携帯通信デバイスの限界を超えた処理能力及び記憶資源を使用可能とする。例えば、ユーザPC又はPCクラスターにおける処理のため、階層化され、符号化され、圧縮されたビデオを移動すること、及び高解像度画像の中から関心対象である選択領域を取得することによって、ビデオ画像は、そのままでは携帯通信デバイス単体の処理能力を超えるような、奥行きのある解析を受けることができる。このようにして、例えば、物体、ランドマーク、テキスト、バーコード、及び顔が、リアルタイムで解析され識別されることが可能となる。
本発明の一実施形態によれば、遠隔参加及び改善された視野のサービスは、遠隔アシスタントが、携帯通信デバイスによって取得された画像又はライブビデオのディスプレイを通して、遠隔で支援すること及びトレーニングすることを可能とする。さらに、遠隔アシスタントは、例えばPCを通じて携帯通信デバイスにリンクされて、遠隔から、着信する画像に基づいて、携帯通信デバイスを用いた高解像度画像を得ることができる。さらに、PCを用いる遠隔アシスタントは、システムによって提供される分散処理機能及び階層化された符号化を用い、着信する画像又はビデオ・フレームの登録及び自動スティッチングに基づいて形成される、漸進的な高解像度及びアルファブレンドされたパノラマを可能とすることによって、ほぼリアルタイムでパノラマを生成することが可能である。
そのようなパノラマは、その後、ライブ着信ビデオの位置に基づいてパン・チルトされ、また、拡大・縮小されることが可能であり、携帯デバイスのユーザ又は彼らの遠隔アシスタントがより高い解像度の場面表示を得ること、及び、それによって、例えば、以前の画像へのアクセスによって、より離れた距離で見ること、正常な視力を有するものでも見えないような標識を読むこと、又は暗所を見通すことなどの改善された視野の能力を持つことを可能とする。遠隔アシスタントのためのライブ拡張現実は、遠隔アシスタントが、例えば地理情報システム(GIS)を用いることによって、携帯デバイスのユーザのリアルタイム位置情報へのアクセスを有しながら、ライブ双方向音声/ビデオ通信が可能な場合に可能となりうる。
個人化されたトレーニングは、携帯デバイスユーザが、携帯通信デバイスを利用して、又は遠隔でユーザのためのトレーニングを実施することが可能な有視力アシスタントの援助の下で、物体を1又は複数のデータベースに学習させることを可能とする。そうしたデータベースのコミュニティ共有は、中央に設けられたデータベースへのアクセスと同様に、上述のリアルタイム動作を可能とするための、携帯通信デバイス/PCに基づくシステム上のローカルデータベースの作成を可能とする。システムの実施形態は、例えば、追加的な電子工学製品カタログ情報、又は他のユーザ生成情報へのアクセスのために、統一商品コード(UPC)バーコード検出及び認識用に構成することが可能である。システムの実施形態は、そうした情報を、本明細書で開示されるリアルタイム認識エンジン及び分散アーキテクチャがサポートする画像・特徴データベースにさらに関連付けることが可能である。携帯デバイスユーザは、アクセス可能なインターフェースを通して関心対象の物体の画像を得ることができ、その後、携帯デバイスユーザ又は彼らの遠隔有視力アシスタントは、高解像度の写真を取得するために、手動で、及び/又は初期視覚機能を使用して、バーコードを見つけることができる。例えばUPCパーコードを含む領域などの関心対象の領域は、その後、バーコードをそれ自体として認識するPCベース・ステーションに送信されることが可能であり、UPCデータベースが、ローカルに、又はネットワークを介してアクセスされる。
上述のとおり、リアルタイムの検出、認識、追跡、及び(ハイパーリンクなどの)グラフィック・オーバーレイ要素の使用に必要な、高いフレームレートのビデオ及び高速な高解像度写真の解析をサポートするために必要とされる処理資源は、適切に構成されたカメラ使用可能な携帯通信デバイスをユーザのPC又はソーシャル・ネットワーク化されたPCに接続することによって、効果的かつ信頼性を持って得ることが可能である。そうした接続は、かかる資源共有を許可する、携帯通信デバイス、PC、又はPCクラスターによる処理をサポートする、インターネット・プロトコル(IP)に基づくオーバーレイ・ネットワークを介して提供されうるものであり、かかる分散アーキテクチャは、使われていない中央でホストされたサービス・セットによって補強される。例えば携帯通信デバイスと携帯インターネット機器(MID)又はネットブックとによって共有されるデバイス間ネットワークを可能とするローカルサーバは、上述の分散型のライブビデオ及び高解像度画像の認識処理のためのスタンドアロン・システムをもたらすことが可能である。
一実施形態において、携帯通信デバイスとPC(群)との間で分散された初期視覚システムは、低解像度ビデオの解析、並びに、物体及び場面、及びテキスト、バーコード、数、色などの情報に接触しそうな領域の認識のために使用されることが可能である。この初期視覚システムの結果は、例えば携帯デバイスユーザの選択、携帯デバイスユーザの位置、時刻などと同様に、IP・オーバーレイ・ネットワーク上の画像取得及び送信機能の効率的な制御のために用いられることが可能である。関心の推定領域は、その後、既に受信され解析されたビデオ又は低解像度画像におけるその領域の特定のため、画像取得制御部に伝えられうるが、携帯通信デバイスからの高解像度画像の転送を必要とする。それらの高解像度画像は、その後、PC(群)への配信のために優先順位を付けられることが可能である。復号された画像及びビデオは、バックエンド認識及び動的データベース生成エンジンにも向けられることが可能である。上層で生成された待ち行列に基づいて動的に認識するデータベースは、認識性能に対する顕著な影響力を有することが可能である。
上述のとおり、携帯通信デバイスからのリアルタイムビデオの解析、及び物体認識は、SIFTやSURFのようなアルゴリズムを用いながら、同時にテキスト、バーコード、又は他の細かな特徴領域のビデオ解析を実行することで実行されうる。テキストやバーコードなどの細かな特徴検出は、光学式文字認識(OCR)などの手法のための、関心領域の高解像度画像化の優先順位付けのトリガーとして用いられることが可能である。一実施形態において、最適とはいえないOCR解析であっても認識性能の改善のために用いることが可能なように、物体認識の解析と特定の細かな特徴の解析とが組み合わされる。
本発明者らは、ユーザが彼らの個人的なトレーニング・データベースを投稿することが可能なwikiタイプのコミュニティデータベースを想定している。そうしたコミュニティデータベースは、UPC並びに電子工学製品カタログ及び情報を用いて標準化されること、及び/又はユーザが生成し点検したデータベースによって注釈を付けられることが可能である。データベースのエントリは、例えばビデオ内容、高解像度画像又は関心対象の領域、位置、時間情報、テキスト、及び音声を含みうる。さらに、データベースのエントリは、上述の、及び以下でより詳しく説明される、パン−チルト−ズーム(PTZ)シーケンスのタグ、注釈、又はナレーションを付けられたパノラマを含みうる。本システムの実施形態におけるアクセス可能なインターフェースによって構成された携帯通信デバイスを含むことは、携帯デバイスユーザ又はその有視力遠隔アシスタントが、直接、1又は複数のデータベースエントリを携帯通信デバイス及びベース・ステーションPCに動的にダウンロードすることを可能にする。
本発明の実施形態は、広範な種々の特定用途のために実施されることが可能である。例えば、音声によって発音されるタッチスクリーン並びに発話及びジェスチャー認識インターフェースを通じて、また同様に個人向緊急時対応サービス及び遠隔患者モニタリングサービスとの互換性を通じて、健康管理及び緊急時対応インターフェースが可能である。さらに、本発明の実施形態は、3G又は4Gのモバイルネットワーク品質を対象とするように、及び、信頼性のあるストリーミングと潜在的に劣化を伴うリアルタイムのデータ転送とを切り替えるように、構成されることが可能である。さらに、本発明の実施形態は、遠隔治療及び/又は遠隔支援のような危険を伴う用途における冗長性と信頼性の増大のために、既存のPDA、スマートフォン、又はMIDに付加される周辺機器を通じて、3G及び/又は4G並びにそれ以上のものといった複数のネットワーク接続、回路交換式のグローバル・システム・フォー・モバイル・コミュニケーションズ(GSM(登録商標))、及び公衆交換電話網(PSTN)標準を使用するように構成されることが可能である。いくつかの実施形態において、ファインダーとしてのビデオ内容の使用、及び高解像度画像の遠隔取得(例えば、遠隔カメラマン機能)の使用は、薬剤摂取モニタリング、遠隔検査、現場修理のような遠隔参加機能にとってとりわけ有益でありうる。また、確実な方法による音声/ビデオ内容及び位置データの記録は、遠隔の人材によって使用されるマルチメディア位置情報サービス(LBS)タイムカードシステムと共に用いられる場合に、価値を付加することが可能である。
図1は、本発明の一実施形態による、リアルタイムの物体認識及び改善された視野を提供するためのシステム100を示す。図1に示されるように、システム100は、携帯通信デバイス110、クライアント−サーバ・ホストデバイス120、及び中央ホストサーバ130を含む。携帯通信デバイス110、クライアント−サーバ・ホストデバイス120、及び中央ホストサーバ130の組み合わせは、概念的な明瞭さのために示されるものであり、決して限定されることを意図したものではないことに留意されたい。例えば、一実施形態において、システム100は、携帯デバイス100及び1又は複数のクライアント−サーバ・ホストデバイス120を含むが中央ホストサーバ130を含まないものでありうるが、別の実施形態においては、システム100は携帯デバイス110及び中央ホストサーバ130を含むがクライアント−サーバ・ホストデバイス120を含まないものでありうる。さらに、当分野で知られるように、携帯通信デバイス110、クライアント−サーバ・ホストデバイス120、及び中央ホストサーバ130の各々の作動は、各デバイス又はサーバ内の記憶装置(図示せず)に記憶されたソフトウェアを実行する、各デバイス又はサーバに設置されたマイクロプロセッサ又は中央演算処理装置(図示せず)によって実行される。
図1に示されるように、クライアント−サーバ・ホストデバイス120及び中央ホストサーバ130は、携帯デバイス110の遠隔にある。カメラ112を備える携帯デバイス110は、ネットワーク通信リンク102及び104の各々を用いて、クライアント−サーバ・ホスト及び/又は中央ホストサーバ130にアクセスするように構成される。さらに、クライアント−サーバ・ホストデバイス120と中央ホストサーバ130の両方が存在する実施形態において、ネットワーク通信リンク106がこれらのシステム要素間の通信を仲介しうる。本発明の様々な実施形態において、ネットワーク通信リンク102、104、及び106は、同じネットワーク、又は異なるネットワーク上の通信に対応しうる。例えば、ネットワーク通信リンク102はWi−FiやWiMAXのような局所化されたネットワーク上の通信に対応しうるし、ネットワーク通信リンク104はデータ帯域通信をサポートする携帯電話会社のワイヤレスネットワークに対応しうるし、ネットワーク通信リンク106はインターネットのようなパケットネットワーク上のデータ転送に対応しうる。
携帯デバイス110は、カメラ112と携帯デバイス版認識アプリケーション114とを含むものとして示される。携帯デバイス110には、例えば、カメラを備えるスマートフォン又は携帯情報端末(PDA)が含まれうる。カメラ112には、ビデオカメラ及び/又はスチルカメラが含まれうるものであり、高解像度のビデオ及び/又は静止画像の取得が可能でありうる。図1の実施形態によれば、携帯デバイス版認識アプリケーション114は、例えばHTCのウィンドウズ(登録商標)スマートフォン端末上で、又は他の適切に構成された携帯通信デバイス上で動作することが可能である。そのようなデバイスは、アメリカ合衆国内及び国際的に運営を行っているほぼ全ての携帯通信プロバイダによって提供される。携帯デバイス版認識アプリケーション114は、通信及びトレーニング目的で携帯デバイスユーザが遠隔アシスタントに接続すること、又は一般にトレーニング及びリアルタイム物体認識を実行する、携帯デバイスユーザの住居内のPCなどのユーザのベースステーション・クライアント−サーバ・ホストデバイス120に接続することを可能とする、アクセス可能なインターフェースを提供するように構成されることが可能である。また、クライアント−サーバ・ホストデバイス120は、携帯デバイスユーザ及び遠隔アシスタントの両者が、携帯デバイスユーザのトレーニング及びデータベースの管理の必要性を容易に管理することを可能とするアクセス可能なインターフェースも有することが可能である。
図1に更に示されるように、本実施形態によれば、クライアント−サーバ・ホストデバイス120は、認識アプリケーション124と認識データベース126とを含む。認識データベース126はクライアント−サーバ・ホストデバイス120上に存在するものとして示されているが、必ずしもこれに該当しなくてもよい。むしろ、本発明概念は、ネットワーク通信リンク106上で、又は、P2Pネットワーク接続(図1には図示せず)上でクライアント−サーバ・ホストデバイス120によってアクセス可能な別のクライアント−サーバ・ホストデバイス(図1には図示せず)上に内在する認識データベース126を通して、クライアント−サーバ・ホストデバイスによるアクセスが可能である認識データベース136のような、認識データベース126に対応する認識データベースがクライアント−サーバ・ホストデバイス120によって単にアクセス可能であるようなシステム100の変形例を通して実施することが可能である。クライアント−サーバ・ホストデバイス120上に存在する認識アプリケーション114は、携帯通信デバイス110を用いて取得された視覚的イメージのリアルタイム認識を遠隔の携帯通信デバイス110の携帯デバイスユーザに提供するために、認識データベース126及び136のいずれかを利用するように構成される。
中央ホストサーバ130は、サーバ版認識アプリケーション134、認識データベース136、及び他の機能を含むものとして示される。中央ホストサーバ130によって提供されるサービスもまた図1に表され、これにはクライアント−サーバ・ホストデバイス120と携帯版認識アプリケーション114との間の通信を確立するための安全な手段が含まれうる。開示されるネットワークアーキテクチャのP2P転送は、大きな処理能力を要するホスティングの必要性を解消し、それによってシステム100のユーザのための経済的なクライアント−サーバ構成を可能とする。それでもなお本発明者らは、クライアント−サーバ・ホストデバイス120のような、例えば認識アプリケーション124を実行しているコンピュータなどの、ユーザ自身のパーソナルベースステーションコンピュータが利用不可能となった場合のユーザによるアクセスのために、中央ホストサーバ130のような中央ホストサーバの使用を同様に想定する。
また、中央ホストサーバ版の認識アプリケーション134は、例えば、携帯通信デバイス110が、認識アプリケーション124と同様に、サーバ版認識アプリケーション134を実行するネットブック又はPCに接続することが可能なほぼ自己充足型の構成を可能とする、クライアント−サーバ・ホストデバイス120上で動作するようにも構成可能である。これは、携帯通信デバイス及びPC又はネットブック間のP2PWi−Fi接続を介して達成可能である。かかる構成は、ユーザが携帯電話会社のデータ帯域受信可能範囲の問題に対処すること、又は費用節減目的に取り組むことを可能とする。ホーム設定において、これはきわめて実用的なシステム構成を可能とする。
システム100は、携帯デバイスユーザが、遠隔認識又はトレーニングのエンジンとして自身のネットブック又はPCの処理能力を利用するような個人向けクラウドコンピューティングモデルの基礎についても具体化する。本実施形態によれば、ユーザは、その利用がユーザに対する追加の金銭的コストに結び付けられうるような、中央ホストサーバ130によって提供される中央でホストされるオプションへのアクセスを有する一方で、自身のPC又は家族もしくは友人のPCをクライアント−サーバとして選択することが可能である。説明された構成は、ユーザにとっての利用可能性の高い柔軟なシステムをもたらす。
図2に示されるように、本発明のいくつかの実施形態は、図1の携帯通信デバイス110と、クライアント−サーバ・ホスト120及び/又は中央ホストサーバ130との間の情報のやり取りを可能とするために、商標登録されたiVisit(商標)ネットワークアーキテクチャのような、分散/集中ハイブリッド計算プラットフォームを利用する。図2は、本発明の一実施形態による、クライアント−サーバ・ホストデバイス220及び/又は中央ホストサーバ230と通信する携帯通信デバイス210a及び210bを含むシステム200を示す。携帯通信デバイス210a及び210b、クライアント−サーバ・ホストデバイス220、並びに中央ホストサーバ230は、それぞれ図1における携帯通信デバイス110、クライアント−サーバ・ホストデバイス120、及び中央ホストサーバ130に対応することに留意されたい。
図2に示されるように、一実施例において、携帯通信デバイス210aのような携帯通信デバイスは、複数のクライアント−サーバ・ホストデバイス220、及び中央ホストサーバ230と通信しうる。あるいは、携帯通信デバイス210aは、複数のクライアント−サーバ・ホストデバイス220と通信しうるが、中央ホストサーバ230からは一時的に切断されうる。どちらの状況においても、中央ホストサーバ230及び/又は複数のクライアント−サーバ・デバイス220は、例えば携帯通信デバイス210aを用いて取得された視覚的イメージを処理する、分散型計算プラットフォームを提供するように構成される。図2において更に示されるように、別の実施例において、携帯通信デバイス210bのような携帯通信デバイスは、専ら中央ホストサーバ230とのみ通信してもよい。この場合、サーバ版認識アプリケーション134を実行し、認識データベース136を利用する中央ホストサーバ230は、例えば、通信携帯デバイス210bを用いて取得された視覚的イメージの処理のための計算プラットフォームを提供するように構成されうる。
iVisitによって提供される機能の概説として、iVisit(www.ivisit.com)は、IPビデオ会議開催の草分け的存在の一つであり、最初のインターネットIPビデオ会議サービスの一つを、これまでに20億分、400万ダウンロード以上にわたって行ってきた。現在、iVisitは、商業的に利用可能なサービスの他に、その優れたP2Pネットワークアーキテクチャを使用して、一月に2000万分以上の多者間ビデオ会議を無料でホストしている。iVisitは、拡張可能なクライアント−サーバ・プラットフォームを開発・運営しており、携帯通信デバイス及びPC上で稼働するIPネットワーク上のサービスをホストしている。iVisitは、80万人以上のユーザ、及び業務用サーバソフトウェアによって自身のサービスを運営する50以上のクライアント−サーバ・ライセンシーを登録している。近頃完成した、本発明の実施形態における使用のために構成されたモバイル・クライアントのベータ版は、全二重ビデオ通話(すなわち、14fpsにおける160×120の解像度)を実証するウィンドウズ(登録商標)携帯通信デバイスにサポートされる。かかる性能は、ウィンドウズ(登録商標)携帯PDAにおいて、理想的なネットワーク性能条件下のEV−DO Rev.A上で実証された。さらに、Wi−Fi解像度320×240は、PDA電話におけるライブビデオ会議のためのフルスクリーンモードをサポート可能である。
再度図1を参照すると、クライアント−サーバ・ホストデバイス120及び携帯通信デバイス110は、統合された多者間音声/ビデオ会議、プレゼンテーション、及びデスクトップ共有、位置情報サービス、プッシュ・ツー・トーク、メッセージングなどを提供するように構成されることが可能である。ウィンドウズ(登録商標)モバイル、iPhone、PC,Mac設定のクライアントのベータ版は、ワイヤレスネットワーク又はデバイスに対する悪影響を回避しながら、ライブ、保存、及び転送の通信における優れた性能を実証している。24時間の連続待ち受け時間及び2時間以上のアクティブ・ビデオ通話が、高性能携帯通信デバイス上でサポート可能である。また、集中/分散ハイブリッドメディア転送、適応帯域幅管理、階層化マルチ・ビットレートビデオ/音声符号化は、本発明の実施形態を3G及び4Gアプリケーションサービス、又はそれ以上のもののための有望なプラットフォームとする。端的に言えば、本アプローチの拡張性が、本明細書で開示されるリアルタイム物体認識及び視野向上の機能を実用的なものとする。本発明者らは、本明細書で開示される本発明が、現在、固定のモバイルプラットフォーム上で10fpsに迫るフレームレートでリアルタイム物体認識を実行することが可能な唯一の解決法を提供するものであると信じる。
固定ブロードバンドをサポートすることに加えて、本発明の実施形態は、Wi−Fi、WiMAX、及び任意の3Gモバイルネットワークをサポートする。WiMAXのためのサポートは、これが地方環境における採用を見せている理想的なブロードバンドソリューションとして、地方及び十分なサービスを受けていない地域へと届くことを可能とするであろう。非同期ビデオメッセージングは、10kbpsオーダーのデータ転送速度を可能とする適度に一貫性のある接続性が利用可能である場合、1Xネットワーク上にも存在することが可能である。携帯通信デバイスの処理限界に到達するまで上昇するビデオ画質のために、又は、開示された分散型メディア転送を利用するユーザ数の増加をサポートするために、より高い帯域幅を用いることが可能である。また、本発明の実施形態は、相当数のユーザがPCクライアント上にいることも考慮に入れており、それらのPCユーザ間の通信が、その処理能力及び高帯域幅をサポートする能力に基づき、より高い品質であることを可能とするであろう。例えば、大きく、かつ高精細度(HD)のビデオフォーマットは、ATOM/SnapDragon、CoreDuo、又は同様のプロセッサを有するPC、ネットブック、又はMID上でのみでのみ可能でありうる。
本発明の実施形態における使用に適する音声及びビデオ転送は、高速かつ高効率のユーザ・データグラム・プロトコル(UDP)上で作り上げることが可能である。本発明の実施形態によれば、クライアントの帯域幅要件は、カメラ、明暗、動き、及びビデオウィンドウのサイズに基づき、帯域幅使用を最適化するために自動的に適応することが可能である。例えば、システム100のクライアントサーバ及びホストサーバに基づくサービスは、簡単な基礎構造の拡張によって、数万から数百万の同時ユーザを許容するように拡張可能である。さらに、本システムの実施形態において生じる通信は、暗号化して、医療保険の携行性と責任に関する法律(HIPPA)に準拠させることが可能である。開示される実施形態は、プライベートLAN、WAN、又はVPN上で安全に動作することが可能である。プライベートドメインへのアクセスを許可されたユーザのみが、そのドメインベースステーション・サーバ上で他のユーザと通信することができる。いくつかの実施形態において、認証は、ケルベロス類似のチケットに基づき、AES(Advanced Encryption Standard)暗号を用いる。
本発明の実施形態によって可能な多者間ビデオ通話は、例えば、言語障害者及び聴覚障害者のための相談、翻訳、通訳サービスを可能とする。ユーザオプションの下の簡単な「通話に追加(add to call)」ボタンは、ユーザが、通話に参加するようにさらなるユーザを招待することを可能とする。「会議に参加(join meeting)」機能は、コールイン・カンファレンス・ブリッジと同様の役割を果たす。これらのP2Pビデオ会議サービスは、ユーザに対する付加的なアップセルとして、又は基本パッケージの一部として、商品の発売時にサポート可能である。
本発明の実施形態は、通話又はメッセージングの間に、ユーザが高解像度写真を「スナップして送信(snap and send)」することを可能とする。これらの画像転送の間、ビデオの伝送は影響を受けうる。しかしながら、「スナップして送信」機能は、メッセージ及び録音の間に、通話中に送信されうる、又は音声/ビデオの注釈が付けられた写真として送信されうる非常に高品質の画像を配信することが可能である。さらに、本発明のいくつかの実施形態は、統合された全地球測位システム(GPS)及びマッピングサービスを含む。これらのオプションは、例えば、許可されたグループ、コンタクトリスト、又は特定の個人に対する携帯デバイスユーザのGPS位置の通信を可能とする。ライブの、又は記録されたGPS位置はアップロードされ、地図上に表示されることが可能であり、これにより、様々な他の位置情報サービスが可能である。それらの接続された位置情報サービスは、例えば、「フォロー・ミー(Follow Me)」又は「フレンドファインダー(Friend Finder)」形式のサービスを可能とするために、又は企業向けフリート・マネジメント及び遠隔従業員管理の用途のために使用されることが可能である。
上述のように、本発明のいくつかの実施形態は、例えば初心者の、高齢者の、又は視覚障害を持つ遠隔ユーザのような感覚障害を持つユーザによるアクセスの容易さのために構成された機能を含む。これらは、新参者がアクセス可能なタッチスクリーンインターフェース、新参者がアクセス可能な携帯通信デバイス状態表示機(電力、ネットワーク状態、着信又は受信メッセージなど)の追加を含む。高齢者の、及び/又は初心者の視覚障害を持つユーザのため、システムがボタンの一押し又は他の入力に対応して自動的にメッセージを送信可能なように、1又は複数の遠隔有視力アシスタントの連絡先情報を前もってプログラムすることが可能である。より上級者ユーザのため、指示キー、及び、ユーザ向け音声メニューという形でオプションのグリッドを発声する、アクセス可能なタッチスクリーンインターフェースが、階層的音声メニュー選択を通してユーザが全てのシステム機能にアクセスすることを可能とする。録音された人の声は、騒々しい環境にいる携帯デバイスユーザによってこのような発声のために用いられて、大きな成功と理解をもたらす。
いくつかの実施形態において、適切なテキスト読み上げエンジン(例えば、Accapela)と組み合わされたキーボードインターフェースを、システムをよりアクセスしやすいものとするために用いることが可能である。話者独立型名前呼び出し(SIND:Speaker independent name dialing)及び音声命令もまた、音声始動のインターフェースを可能とするために使用可能である。例えば、ノキア・ビデオ接続ケーブル(CA−75U)又はワイヤレスLAN/UpnPを介した互換性のあるTVとの直接接続は、デジタル拡大鏡用途を可能とする。
本システムのいくつかの実施形態で用いられる認識アプリケーション124は、トレーニング過程の間の遠隔アシスタントによる多大な制御を可能とするであろう。そのような制御としては、例えば、トレーニング中に携帯デバイスカメラの解像度を遠隔で選択する能力、検出された特徴を削除する能力、検出・認識された物体の距離及び向きの情報を知らせる能力、及び、音を用いて、以前に検出された物体がもはや視野に存在しないことを素早く発声する能力などの機能が包含される。また、本システムは、携帯デバイスユーザに光の状況に関して知らせるほか、携帯デバイスユーザが、発光ダイオード(LED)カメラフラッシュ又は「懐中電灯(flashlight)」アプリケーションなどといった、殆どのカメラを備えた携帯通信デバイスにおいて利用可能な照明機能を制御することを可能とするようにも構成される。
1又は複数の遠隔有視力アシスタントによる遠隔トレーニングは、視覚に障害を持つ、携帯通信デバイス110のユーザによる独立使用のためのシステムを構成するための一つの方法であるため、トレーニング・データベースを同期させることが重要でありうる。メタタグを用いるアプローチは、データベースエントリの各々が、トレーニングのための距離入力をそれぞれ有する複数の画像のインスタンスを持つことを可能とする。その結果、システムの範囲を拡張すること、及び、様々な距離で物体から、そうでない場合と比較してより正確な距離推定を得ることが可能となる。より離れた距離におけるより小さな物体の認識のために、高解像度画像が使用可能である。現在では5メガピクセルカメラの携帯通信デバイスが市場に存在するので、ユーザがそのようなデータが送信されるのを待つことが可能ならば、より長い距離からの物体の検出及び認識が可能であるだろう。在宅使用向けのWi−Fi構成は、このモードをより実用的なものとすることが可能である。
図3は、本発明の一実施形態による、基本的なコンピュータスキルを有する遠隔アシスタントによる使用に適したアクセス可能なユーザインターフェースを含む、図1の認識アプリケーション124によって生成された表示例が取得されている視覚フレームを示す。インターフェース324は、有視力アシスタントインターフェースであると考えることが可能である。二回のボタン押しに基づき、携帯デバイスユーザは、音声及び一方向ビデオ接続によって遠隔アシスタントと接続することが可能であり、遠隔アシスタントがシステムをトレーニングするための遠隔カメラマンとして振舞うことが可能となる。例えば、遠隔アシスタントは、はじめに、小型視聴ウィンドウ322内の携帯通信デバイス110からのライブビデオを用いて、関心対象の物体を視野内に収めるように、音声命令によって携帯通信デバイス110の携帯デバイスユーザに指示することが可能である。関心対象の物体の全体が見えるようになると、遠隔アシスタントは、ビデオのフレームを記録するか、又は例えば取得視覚イメージ325などの高解像度画像を要求するために、画像取得ボタン323a又は323bのうちの1つを押すことができる。その後、遠隔アシスタントは、システムが認識モードにある場合に物体を発声するために用いることが可能な物体IDを、テキスト記述フィールド328内に入力することができる。
本発明のいくつかの実施形態は、ナビゲーション、位置確認、マッピング、及び視覚サービスをサポートするために遠隔ロボットに用いられるものに類似する、例えばSIFTのような物体認識アルゴリズムを実装する。一般に、物体認識アルゴリズムは、平面的で質感を持った物体に適用される場合に最も良く機能する。また、このアルゴリズムは、平面的で質感を持った構造で構成された3次元の物体、又は僅かに湾曲した構成要素で構成された3次元物体についても信頼性を持って認識する。物体認識アルゴリズムの利点の一つは、それらが、光の状況、オクルージョン、及び向きが劇的に変化する現実的環境における信頼性のある認識を提供可能なことである。しかしながら、人間の顔などの3次元の変形可能な物体については、一般的には確実な様式で処理することができない。
多くの物体認識アルゴリズムは、一対一の照合の状況、及び小規模なデータベースにおいて、高い認識性能を達成することが可能である。また、そうした一対一の状況は、複数の画像がマッチングのために用いられること、及びトレーニングセットとして用いられることをより容易に可能とし、システムが光及び物体の向きにおける変動に対してよりロバストになることを可能とする。しかしながら、それらの同じアルゴリズムは、例えば影のかかった物体を識別しようとするとき、非常に大きなデータベースを比較しようとするとき、及び、データベースが非常に類似した物体(例えば、ダイエットコーラのボトルと従来のコーラのボトルなど)を含むとき、認識率をおよそ80%から95%ほど低下させうる。本発明概念は、説明された欠陥に対するいくつかの改善法を包含する。
かかる改善法の一つは、例えば物体認識アルゴリズムとOCRの融合などの、画像処理アルゴリズムの統合を含む。ダイエットコーラと従来のコーラの区別、又は建物もしくは道路標識の認識は、他の物体と非常に類似するパターンを有するか、又は物体認識アルゴリズム単体にとって十分なだけの顕著な特徴を示さないものでありうる物体を示す。類似性問題、又は十分な顕著な特徴の欠如に悩まされる物体の多くは、テキストを含みうる。その結果、上述の課題の多くは、種々の融合ストラテジーを用いて対処されうる。
一般にOCRは、読み取られるテキストに対し、およそ3メガピクセルの画像又は約100〜200dpiを要求する。本システムは、物体認識を支援するための、及び、OCRのために要求される解像度を得るための3メガピクセル画像取得モードへと自動的に切り替えるための、ライブビデオモード用に構成することが可能である。例えば、携帯通信デバイスカメラのデジタルズームは、推定される物体認識に基づく距離測定に基づいて調整されることが可能である。
種々の物体ラベル上のテキストの読み取りのためのOCRの使用に加えて、UPCバーコードを別の照合手段として用いることが可能である。製品上のバーコードは、ライブビデオ解析モード中に検出されることが可能であり、その後、システムは、高解像度の静止画像を取得するための静止画像モードへと切り替えることが可能である。高解像度の静止画像は、UPCデータベースへの照合のためのUPCバーコードの読み取りを可能とする。さらに、一対一照合の状況において、トレーニングのために複数の画像を利用し、それによって、光条件及び/又は向きの広範囲にわたる物体認識を可能とすることが実現可能でありうる。例えば建物の入り口などのような、ある固定された構造を有する物体のために、異なってはいるが繰り返し可能性のある遭遇しうる光条件を表している、異なる時刻における異なる向きから、トレーニング画像を取得することが可能でありうる。また、フォーカスグループ交流に基づくと、視覚障害を有する携帯デバイスユーザにとっては、90%に満たない認識率でさえ非常に大きな有用性を持ちうることにも留意されたい。
人間はおよそ135×200度の視野を有するが、標準的なコンパクトカメラは、およそ35×50度の視野しか持たない。その故、ライブビデオ又は高解像度画像から自動的なパノラマ生成を提供する機能を含む本発明の実施形態は、遠隔アシスタントなどの、遠隔のクライアント−サーバ・ホストデバイスのユーザに対する大きな有用性を持ちうる。例えば、パノラマ機能は、遠隔アシスタントにおけるトンネル視野の問題を克服するため、並びに、視覚障害を有する携帯デバイスユーザにとっての、カメラを向けることに起因する、標識検出及び認識における画像トリミングの問題を克服するために用いられうる。
パノラマ生成のための解決法の一つは、オート・スティッチ手法を用いるものであり、現在この手法は、普通のカメラを使用して多数の画像を取得し、個々の画像を一つに縫い合わせることで、例えば最大360度までの、非常に広い視野を有する合成画像を形成することによって機能する。オート・スティッチングの結果は、携帯デバイスユーザ又は遠隔アシスタントが任意の方向から眺めることが可能なコンピュータグラフィックモデルとして表示されることが可能である。あるいは、画像は、360度写真を提供するように、球体又は円柱の表面にマップされることが可能である。
本発明のいくつかの実施形態において、クライアント−サーバ・ホストデバイスの認識アプリケーション124は、例えばおよそ5fps、およそ8fps、又はおよそ10fpsのレートで無損失のビデオ・フレームを受け取るように構成される。それらのビデオ・フレームは、正しい順序であることを要求されることが可能である。結果として、画像の登録を実行するように構成されたオート・スティッチ・ソフトウェアモジュールは、ライブ画像シーケンスの受け取り次第順次の処理のために実装されることが可能である。少なくとも1つのオート・スティッチの実装は、新しいパノラマとして認識される不連続な場面変化を可能とする。本発明の実施形態に包含されるクライアント−サーバ・ホストデバイスの認識アプリケーション124のいくつかのバージョンは、そうした場面変化が検出されると、自動的に新たなパノラマを開始するように構成されることが可能である。加えて、遠隔アシスタントは、例えば、手動で、又は携帯デバイスユーザの位置に基づいて、パノラマ間を行き来してナビゲートすることが可能とされうる。
画像のSIFT登録は、マルチ・バンド混合よりも時間消費が少ない。その結果、いくつかの実施形態において、はじめに未混合の結果物及び未完成なパノラマを表示し、追加画像が届き次第、それらを埋めていくことが有利であることが判明しうる。例えば、ライブビデオデータは、SIFT登録モジュールによって解析され、携帯通信デバイスカメラが指し示しているとシステムによって認識されるパノラマの部分上に表示されることが可能な、グラフィック・オーバーレイを提供しうる。有視力アシスタントからの遠隔要求に基づいて、又は、関心領域の位置を識別するための自動的な画像解析に応答して、本システムは、パノラマの任意の部分のより高い解像度の画像を得ることが可能である。階層符号化は、関心領域のための、送信される高解像度画像の追加層を許容し、システムのデータ転送プロファイルを減少させることを可能とするために用いられうる。
画像解析アルゴリズムは、信頼性を持って、場所特有の特徴を認識すること、及び、SIFT法を用いて、画像に基づくランドマークの向き及び距離を測定することにおける大きな見込みを示してきた。SIFT法は、任意の回転、拡大縮小、輝度及びコントラストの変化、並びに他の変換により、雑然とした小さな画像部分を効率的にマッチさせるために、局所的な不変の特徴を相互に関連付けるために用いられることが可能である。一般に画像は、重なり合う小さな断片に分割され、それぞれの断片は、行われうる変換に対して不変な様式で表される。その後、それぞれの断片は個々にマッチングされ、マッチングされた断片は再構築されることが可能である。説明された処理シーケンスは、画像を大きなデータベースとマッチングする場合でさえ、1秒未満のうちに実行されることが可能である。
また、SIFTアルゴリズムは、屋内環境内の携帯デバイスユーザの全地球測位という課題にも適用されることが可能である。例えば、SIFTランドマークは、時間と共に徐々にデータベースに取得されうるものであって、システムが測位のために3Dランドマークを用いることを可能とする環境の3Dマップの生成をもたらす。3D全地球測位の結果の探索を減らすために積算距離を用いることが可能であるが、システムはSIFT特徴のみに基づいて測位することも十分に可能である。本システムの実施形態に関して、本発明者らは、視覚障害を有する携帯デバイスユーザが、確認手段として彼らが意図したルートに沿ったランドマークにアクセスする必要がありうること、又は、彼らが最終目的地を識別し特定する必要がありうることを想定している。それらの必要性は、非常に僅かなマップを用いて満たされることが可能である。加えて、例えばワイヤレスネットワークから入手可能な、ルート制限、おおよそのGPS位置の推定、又は位置情報サービス(LBS)のような効率化手法の実装を通して、関連するランドマークのデータベースの探索空間を縮小し、積算距離の必要性を解消することが可能でありうる。
さらに、一部の視覚障害を有する携帯デバイスユーザ用途にとっては、2Dマップが適切なものでありうる。例えば、ランドマークは、2Dマップ及び測位を可能とするGISデータのタグを付けられることが可能である。あるいは、そのようなランドマークはGISデータベースとは無相関とされるが、ルートのランドマーク及び目的地の1D表現に対する進捗を報告することも可能である。たとえGISデータのタグを付けられない場合であっても、SIFTランドマークは、例えば街区上での家までの最終案内に役立つ、相対距離及び向きの情報を提供することが可能である。SIFT特徴は雑音及びオクルージョンに対して非常にロバストであるが、明暗、反射、又は他の固有のSIFT特徴の不足における予測不能な変化から特に影響を受けやすいランドマークが存在しうる。そのような場合、ランドマーク又は場面の認識を増大させるために、テキスト標識検出及びOCRを用いることが可能である。
先に述べたように、テキスト及び標識の認識は、本発明のいくつかの実施形態の特徴である。しかしながら、無差別の自動化されたテキスト又は標識の認識は、視覚障害を有する携帯デバイスユーザにとっての情報過多という重大なリスクを生じる。自身の要求又は関心に一致するテキスト又は標識に焦点を合わせることに無関係な視覚的イメージを遮断することが可能な目の見えるユーザとは異なり、視覚に障害を持つユーザはそのような初期区別を行うことが不可能である。その結果として、本システムの実施形態は、例えば交通信号や横断歩道の起動ボタンのような、標識及び特定のナビゲーション補助、並びに安全機能の「オンデマンド式の」認識を含む。
自然環境において特徴を「オンデマンド」で自動的に検出し読み取る能力は、環境条件における大きな変動性、及び、「オンデマンド」のテキスト自体の特徴における変動性のため、従来から非常に困難であった。本システムの実施形態は、調節可能なカスケード型の強力な分類器を用いて実装される「オンデマンド」認識機能を含み、ビデオストリームによって、及び高解像度の静止画像における非常に高い精度によって、リアルタイムで動作する。例えば、180×120、320×240、又は640×480のビデオストリームをリアルタイムで解析するクライアント−サーバ・ホストデバイス認識アプリケーション124は、最初に検出された領域を超えて、可能な関心対象のテキスト領域を拡張可能であり、その後、OCR又は他の改善された検出及び認識アルゴリズムのために使用されることが可能な、1メガピクセル以上の高解像度の静止画像の取得及び転送を開始する。
関心対象のテキスト領域が画像の境界を越えて拡張する状況において、検出器は携帯デバイスユーザに対して指向性の走査ガイダンスを提供し、別の高解像度画像が取得され、クライアント−サーバ・ホストデバイス認識アプリケーション124に転送されること、及び、隣接領域の画像と縫い合わされ、それによって意図せずにトリミングされる画像の問題を克服することを可能とする。このようなアプローチの目的の一つは、適切な関心領域が走査されること、及び、不完全な(例えば、トリミングされ過ぎた)テキスト領域がOCRエンジンに提示されないことを確実にするための補助として、視覚障害を有する携帯デバイスユーザのための自動化されたシステム支援を可能とすることである。こうした目的のために、クライアント−サーバ・ホストデバイス認識アプリケーション124は、関心対象のテキスト領域の向きを判断するように、及び、携帯デバイスユーザにその標識又はテキスト領域に対する彼らの位置を変更するためのガイダンスを提供するように構成されることが可能である。
さらに、クライアント−サーバ・ホストデバイス認識アプリケーション124は、テキスト領域、遠くのランドマーク、又は標識をうまく認識するために必要とされる最も低解像度の画像を判断する。かかる関心領域は、例えば、遠隔アシスタントに基づいて、クライアント−サーバ・ホストデバイスによるより高速の漸増的な解像度の向上を可能とするために、階層化された様式で符号化されることが可能である。これらの関心領域は、その後、二値化され、例えばABBYY商業エンジンのような、ファインリーダーOCRエンジンへと伝達されることが可能である。その結果は、それらが完全な語、又は句を作成したことを確認するために解析されることが可能であり、意味のない結果はそれ自体が特定され、廃棄されることが可能である。
「オンデマンド」のテキスト及び標識の認識のために、トレーニングデータ及び試験データが必要とされるであろうことに留意されたい。そうしたトレーニングデータは、例示的な縫い合わされたパノラマの他、収集されたプロキシ、シミュレーションビデオストリーム、及び画像のデータセットを具備しうるものであり、また、所望のテキスト領域の特定のためのビデオ、画像、及び/又はパノラマの手入力によるラベル付けを含みうる。例えば、トレーニングは、多くのトレーニングセットのアセンブリのためのアクティブラーニングを含むことが可能であり、また、PC/ネットブック・クライアントに基づく遠隔アシスタントが携帯デバイスユーザと連携してデータを取得し、ラベル付けを行うことを可能とする追加的インターフェースを利用しうる。
一実施形態において、実装は、性能のために最適化されたC++で行われることが可能である。本発明のいくつかの実施形態で実装される認識アルゴリズムは、高解像度メガピクセル画像に対してそれらをパッチに分割することによって作用し、それらを様々な尺度で解析する。結果として、それらの実施形態は、ライブビデオストリーム解像度と、より高解像度のメガピクセル画像の両方を処理するように構成される。
以下では、本発明のシステムの実施形態のいくつかの特徴、性能、能力、及び利点を要約する。本システムの実施形態は、カメラを使用可能な携帯通信デバイス110(例えばスマートフォン、PDA)から、遠隔のクライアント−サーバ・ホストデバイス120へのビデオ伝送速度として、160×120における30fps、320×240における15fps、及び640×480における5fpsをサポートする。例えばWi−Fiを介したクライアント−サーバ・ホストデバイス120への高解像度画像の転送は、3.5Gモバイルネットワークにおける400kbpsアップストリームの回線容量を想定すると、1メガピクセルのおよそ2秒未満での転送、5メガピクセルのおよそ8秒未満での転送に相当する速度でサポートされることが可能である。さらに、自動パノラマ生成モードにおいて、転送速度は、およそ36秒で1メガピクセル、およそ3分で5メガピクセル画像を転送する速度に相当しうる。ライブビデオ1+メガピクセルパノラマに基づくほぼリアルタイムの低解像度パノラマ生成が、3.5Gネットワーク上で、僅か2秒程から数分までの範囲の時間間隔で作り出されることが可能である。ライブの低解像度パノラマから1+メガピクセルパノラマへの移行は、バックグラウンド処理として徐々に実行されることが可能であり、自動化された視野改善システム、又は、時間と共に向上する解像度へのアクセスを有するクライアント−サーバ・ホストデバイスに基づく遠隔アシスタントを提供する。
自動モードのために、本システムは、ライブパノラマについての以前のSIFTアルゴリズム解析に基づき、関心領域のみが抽出され、転送されるように構成されることが可能である。例えば、本発明の実施形態は、160×120における20fps、320×240における10fps、及び640×480における5fpsを達成するために、1.5GHzペンティアム(登録商標)プロセッサを用いて、数百のエントリのデータセットに対するSIFT解析向けに構成されることが可能である。距離の離れた物体のためには高解像度が必要とされ、これが、ランドマークの距離に応じて、システムの動作を遅くするであろう。テキスト及び標識検出は、ライブビデオ画像に基づき、およそ2〜15fpsの検出速度、およそ1〜2fpsの認識速度で実行されることが可能である。関心領域命令は、PC/ネットブックから携帯通信デバイスへと、およそ1〜15fpsの速度で送信されることが可能である。ポインティング命令は、およそ2秒で発せられることが可能である。1メガピクセル画像の取得及び転送は、Wi−Fi上でおよそ2秒、又は3.5Gネットワーク上ではおよそ36秒で、実行可能である。メガピクセル関心領域のトリミングは、データサイズ及び転送速度における5〜10倍の改善をもたらすことが可能である。OCRは、およそ1〜2秒に標識内容のテキスト読み上げ発声の実行に必要とされる時間を加えた時間で実行されることが可能である。
近くのランドマーク及び物体のSIFT特徴は低解像度であっても認識されることが可能であり、それ故、先に言及したシステムビデオ転送及びバックエンド画像認識の速度を想定すると、リアルタイムで認識されることが可能である。SIFTは、ランドマークの認識と、その距離及び向きの判定の両方が可能である。本発明の実施形態において実装されるトレーニングデータセットは、複数の距離及び向きを用いてランドマークを表現するように構成されることが可能である。しかしながら、離れた物体は、より高解像度の画像を必要としうるものであり、また、圧縮による画像の乱れがありうる。その結果として、一般にそうした離れた物体は、3.5Gモバイルネットワーク上の転送に多くの時間を必要とする。携帯デバイスユーザが遭遇する典型的な距離及びテキストサイズを想定すると、上首尾のテキスト標識のOCRでは、殆ど常にメガピクセル画像解像度を必要とするであろう。クライアント−サーバ・ホストデバイス構成は、携帯通信デバイスからクライアント−サーバ・ホストデバイス認識アプリケーション124へのWi−Fi接続の使用を可能とすることによって、モバイルネットワークの遅延を克服することが可能であるが、3.5Gモバイルワットワークにおける認識及びデータ転送を高速化するために、インテリジェントな複数解像度のビデオ及び場面取得、符号化、及び転送において、他の方法を使用しうる。
上述のように、様々な解像度におけるリアルタイムビデオは、携帯通信デバイスによって提供されることが可能である。リアルタイムビデオは、自動化された視野改善システム、クライアント−サーバ・ホストデバイスに基づく遠隔アシスタント、又は携帯デバイスユーザもしくは携帯通信デバイス110によって、個別に要求されることが可能である。また、携帯通信デバイスの携帯ユーザ、クライアント−サーバ・ホストデバイス(例えば、PC/ネットブック)に基づく遠隔アシスタント、又は視野改善システムは、パノラマ生成を開始することも可能であり、パノラマ生成は、ライブビデオを表示することと、個別に上述のSIFTオート・スティッチ方法を用いてパノラマにタイルを張ることを開始することの両方が可能でありうる。ライブビデオの位置/視点は、これを取り巻くパノラマに対して中央を維持するように、調整されることが可能である。オート・スティッチSIFTマッチング及び認識の段階は、一般的には大きな処理時間を必要とせず、ビデオビデオが携帯通信デバイスから受信されたときに順序付けられることが可能であることを前提として、パノラマ生成は、クライアント−サーバ・ホストデバイス120上で、ほぼリアルタイムであることが可能である。
混合及び色補正はより時間がかかるものでありえ、これらは一般にバックグラウンドで生じるであろう。携帯デバイスユーザ又はクライアント−サーバ・ホストデバイスに基づく遠隔アシスタントが高解像度(例えば、メガピクセル)のパノラマを選択する場合、システムは、自身の周囲を走査している携帯デバイスユーザをガイドしながら、走査の間に選択されたポイントにおいて携帯デバイスユーザ又はクライアント−サーバ・ホストデバイスに基づくアシスタントの選択したものの高解像度画像を自動的に取得して、ライブビデオパノラマを表示するように構成されることが可能である。これらの高解像度画像は、追加のストリームがバックグラウンドで送信され、それによってクライアント−サーバ・ホストデバイスに基づく遠隔アシスタントのために解像度の漸進的な改善を可能とすることが可能なように、ピラミッド様式で符号化されることが可能である。自動視野改善モードにおいて、これらのライブビデオは、例えば、認識データベース126/136及び画像解析のための訓練された検出器を利用して、及び、近くのランドマーク認識のために同様の低解像度SIFT法を利用して、携帯通信デバイス110の携帯デバイスユーザの遠隔で、クライアント−サーバ・ホストデバイス120上でリアルタイムに解析されることが可能である。その解析の結果は、リアルタイムで利用可能な解像度で認識可能なランドマークを決定するために用いられることが可能であり、一方で、関心対象のテキスト領域が視野内にある場合、テキスト標識検出器がリアルタイムでユーザに指示を出すことも可能である。その後、携帯デバイスユーザは、携帯通信デバイスカメラの狙いを調整するためにテキスト検出器による指示を受けることが可能であり、視野改善システムは、標識やランドマークの不完全な切り取りを回避できる可能性が最も高いものと判断された視点からの高解像度画像を取得することができる。
ライブビデオ及び構成されたパノラマの解析に基づいて、携帯デバイスユーザにカメラ照準の手がかりを提供するために、様々な関心領域拡張ストラテジーを用いることが可能である。その場合、携帯デバイスユーザは、視野改善システムがメガピクセル画像を取得するために、携帯通信デバイスカメラをしっかりと保持するようにトレーニングを受けることが可能である。これらの高解像度画像は、追加のストリームがバックグラウンドで送信され、OCR認識バックエンドのために漸進的に解像度を向上させるように処理されるように、ピラミッド様式で再度符号化されることが可能である。いくつかの実施形態において、識別された関心領域の認識のために必要とされる、最も可能性の高い解像度を決定するために、低解像度検出器が利用されることが可能である。しかしながら、自動的な初期設定は、携帯デバイスユーザ及び/又はクライアント−サーバ・ホストデバイスに基づく遠隔アシスタントによる手動入力によって無効とされることが可能であり、ユーザが選択された視距離に適する解像度を選択することを可能とする。
図4は、本発明の一実施形態による、説明された視野改善システムの機能的概略を示す。視野改善システム400は、携帯通信デバイス410によって提供される機能、クライアント−サーバ・ホストデバイス420によって提供される機能、及び、それらのシステムノード間の相互関係を含む。再度図1を参照すると、図4の携帯通信デバイス410及びクライアント−サーバ・ホストデバイス420によって提供される機能は、図1の携帯通信デバイス110上の携帯デバイス版認識アプリケーション114及びクライアント−サーバ・ホストデバイス120上の認識アプリケーション124の作用とそれぞれ対応すると見ることができる。上で概要を示したアプローチは、ヒトの周辺視及び中心視に対応するようにデザインされており、したがって、視覚に障害を持つ者の神経生理学的システムの拡張を可能とするようにデザインされている。例えば、説明した低解像度ライブビデオ解析は、大まかな形状及びランドマークを認識するために周辺視を用いるという有視力者の能力に対応するものと見ることが可能であるが、一方で、テキスト、離れた物体、又はきめ細かな細部を有する物体の読み取り及び認識には、より鋭敏な中心視が必要とされる。本発明の実施形態において、関心領域の検出は、より時間のかかる高解像度認識に処理資源を渡す前に、ライブビデオ又は低解像度パノラマを用いて実行されることが可能である。
本発明のいくつかの実施形態によれば、空間的及び時間的に階層化されたビデオ及び静止画像の符号化及び復号を、例えば、H263+ビデオコーデックなどの性能を向上させるために実装することが可能である。ピラミッド様式で符号化された漸増的解像度アルゴリズムは、ブロードバンド及びダイヤルアップ接続の異種混合を最適にサポートするために実装されることが可能である。例えば、二点間環境において、メディア伝送速度は、二点間のパスにおいて利用可能な能力を最適に利用するために、継続的に調整されることが可能である。このアプローチは、パスを共有する他のトラフィックに対する過度の影響を有することなく、システムが最適なユーザ体験を実現させることを可能とする。複数の受信者が存在する場合、それぞれの受信者が任意の瞬間に受信可能なデータ量に変動があることがほぼ確実である。これは、大きなグループの会議の状況における、ブロードバンドユーザ対ダイヤルアップユーザの異種混合に起因するものでありうるか、又は単にネットワークの混雑及び/又は遅延に起因するものでありうる。もし、送信者が全てのクライアント・ノードに対して同一のデータを送信しようとするならば、送信者は、一般に、最も低い能力の受信ノードに照準を合わせ、それによってより設備の整った受信者の体験を悪化させるか、又は、より設備の整っていない受信者のパスが過負荷となるであろうことを知りながら、高速で転送を行うか、の間で選択しなければならない。
この問題に対処するため、本発明の実施形態は、復号されるビデオの整合性を保ちながら、異なる速度のデータストリームを作り出すために選択的に転送されることが可能な、複数の階層でビデオを符号化するように構成される。こうした階層化は、単一のストリームから異なるフレームレートが選択されることを可能とする、H263+に対する修正を通して達成されることが可能である。本アプローチは、およそ6対1(6:1)の比率の範囲内で変化するデータ転送速度をサポートするように構成される(例えば、もしビデオが60kbpsで符号化されるならば、10kbpsから60kbpsの範囲内のデータ転送速度で受信者に提供することが可能である)。その結果、様々な受信者が、同一の空間的品質で、しかし異なるフレームレートで、ビデオを受信できる。同様の符号化スキームを、様々な空間的階層をサポートするために実装することも可能である。したがって、例えば、ある受信者は160×120の解像度でビデオを受信しうる一方で、別の受信者は320×240の解像度を可能とする付加的な強化層を受信しうる。
本発明の実施形態は、ルーティング能力におけるいくつかの重要な進歩を提供する、新しいレプリケーション・アンド・フォワーディング・プロトコル(RFP)を含む。例えばインターネットを介した中央ホストサーバへの同時アクセスが利用不可能であるか、又は望ましくない環境における、PC/ネットブック・クライアント−サーバ資源に対する分散処理及びアクセスは、ビデオ及び画像が、例えばワイヤレスLAN上などにあるデバイス間で転送されることが可能な自己充足型クラスターの使用可能性を必要とする。これを達成するために、P2Pメディア転送を用いる自己充足型のクライアント−サーバ・アーキテクチャを、(1)それぞれのメディア源を別々に処理して、クラスターにおける異なるメンバーのためにネットワークにおける異なった地点でデータのレプリケーションが生じうるように、及び、(2)可変深度の配信木を作り出すためのデータのレプリケーションの多地点のカスケーディングを可能とするように、効率的に用いることが可能である。
上述した2つの進歩により、本システムアーキテクチャの一実施形態は、各メディアの起点ノードがレプリケーション及びフォワーディングノードによって同一の場所に配置されるように構成される。実際には、各クライアント(例えば、携帯デバイス・クライアント又はPC/ネットブック・クライアント−サーバ)は、それらのクライアントで作り出されたメディアのためのメディア配信サーバとして振舞う。このアプローチは、レプリケーションの代わりの地点が分散型経路木を介して利用可能となったときにはいつでも、データ・レプリケーションの地点がその発生源ノードから容易に離れることが可能であるような様式における、対称性P2P配信モデルをサポートする。
ルーティング能力におけるこれらの変更に加えて、本システムRFPの実施形態は、現実世界における配置に不可欠でありうるトランスポートレベル・サービスをサポートするように設計される。それらは、例えば、ダウンストリームのノードに、これらがうまく受信可能なものよりも高速でデータが送信されないことを確実とするために、ホップ・バイ・ホップのフロー制御/混雑回避を含むことができる。さらに、本システムRFPの実施形態は、必ずしも発生源ノードからの再伝送を必要とすることのない、確実に届けられなければならないデータの確認応答及び再伝送のための機能を含む。したがって、本システムRFPの実施形態は、従来的なアプリケーションレベルの配信サーバとネットワークレベルのマルチキャストソリューションのハイブリッドとみなされることが可能である。IPマルチキャストと同様に、開示されるRFPは、任意の数のレプリケーション地点を有する配信木の作成を可能とすることができる。しかしながら、IPマルチキャストとは異なり、開示されるRFPは、1から任意のNのルーティング状況において解決することが困難な、主要なトランスポートレベルの問題に対処することも可能である。現在、配備され試験されている、基本的転送能力を用いて、本発明者らは本明細書において、メディア起点クライアント(例えば、ソース・ノード)の外部に配置されたRFPノードを用いる配信スキーマの、3つの追加的実施形態を開示する。
かかる実施形態の一つは、高速ネットワーク接続を有する中央配置のRFPノードが、スター型トポロジーにおける会議クラスターの全てのメンバーのためのレプリケーションサービスを提供する「会議サーバ」モデルとして特徴付けられることが可能である。第2の実施形態は、受信者のクラスターの近くに配置された専用RFPノードが、そのクラスターに向かう全てのメディアのためのレプリケーションサービスを提供する「ローカル・プロキシ/キャッシュ」モデルとして特徴付けられることが可能である。例えば、キャンパスに、又はLAN上に配置されたRFPノードが、全てのローカルの受信者にレプリケーションサービスを提供することができる。第3の実施形態は、エンドユーザ・クライアントが、同じストリームを受信する他のクライアントのためのレプリケーション及びフォワーディングサービスを実行する動的P2Pモデルの形態を取る。
図5は、本発明の一実施形態による、リアルタイム物体認識及び改善された視野を提供するための方法のステップを説明するフローチャート500を示す。当業者に明白な特定の細部及び特徴は、フローチャート500から省略されている。例えば、当業者に知られるとおり、一つのステップは、1又は複数の下位ステップを含みうるし、あるいは、特別な装置又は機材を含みうる。フローチャート500に示されるステップ510から550は、本方法の一実施形態を説明するのに十分である一方で、他の実施形態は、フローチャート500に示されるものとは異なるステップを用いうるし、あるいは、より多くの、又はより少ないステップを含みうる。
フローチャート500のステップ510を図1と共に参照すると、ステップ510は、カメラを含む携帯通信デバイスから物体の視覚的イメージを取得することを含む。ステップ510は、カメラ112を含む携帯通信デバイス110を用いて実行されうる。具体例として、携帯通信デバイス110が、高解像度画像を取得することが可能なビデオカメラを備えるスマートフォンであると考える。この例において、ステップ510は、高解像度ビデオカメラを用いてビデオを撮影するスマートフォンユーザに対応しうる。
フローチャート500の方法は、ネットワークを介して、視覚的イメージを少なくとも一つのクライアント−サーバ・ホストデバイスへと送ることを含む、ステップ520へと続く。ステップ520は、取得された視覚的イメージをクライアント−サーバ・ホストデバイス120へと送るためにネットワーク通信リンク102を使用して、携帯通信デバイス110によって実行されうる。例えば図2に示されるように、いくつかの実施形態において、携帯通信デバイス110は、例えばP2Pネットワークを介して、複数のクライアント−サーバ・ホストデバイスにリンクされうる。
続いて、図5のステップ530を参照すると、フローチャート500のステップ530は、物体認識データを生成するために、クライアント−サーバ・ホストデバイス上の認識アプリケーションを用いて、視覚的イメージを処理することを含む。一実施形態において、ステップ530は、クライアント−サーバ・ホストデバイス120上の認識アプリケーション124によって実行されうる。さらに、図2を参照すると、一実施形態において、それぞれが認識アプリケーション124を実行する複数のクライアント−サーバ・ホストデバイス220が、ステップ530で実行される処理のための分散型計算プラットフォームとして機能しうる。あるいは、一実施形態において、この処理は、中央ホストサーバ130によって、サーバ版認識アプリケーション134を用いて実行されうる。先に述べたように、ステップ530の処理は、SIFTアルゴリズム、SURFアルゴリズム、及びOCRのうちの一つ又は複数を用いて実行されうる。
フローチャート500のステップ540へと進むと、ステップ540は、ネットワークを介して、携帯通信デバイスによって、少なくとも一つのクライアント−サーバ・ホストデバイスから物体認識データを受信することを含む。図1からわかるように、ステップ540は、ネットワーク通信リンク102を介した、携帯通信デバイス110による認識アプリケーション124によって生成された物体認識データの受信に対応しうる。
フローチャート500のステップ550において、遠隔の携帯通信デバイス110のユーザのために、物体がリアルタイムで識別される。ステップ550は、携帯通信デバイス110を用いて実行される。一実施形態において、携帯通信デバイス110は、携帯デバイス版認識アプリケーション114を含みうるものであり、これは、発声される物体の発話識別を提供するように、及び/又は視覚障害を持つ遠隔のユーザによる本方法の使用を可能とするように構成されたインターフェースを含みうる。一実施形態において、視覚的イメージは環境の特徴を含み、物体の識別は位置の識別を含む。後者の実施形態において、本方法は、識別された位置に従って、遠隔ユーザにナビゲーション情報を提供することを更に含む。
図6において、システム600は、図1及び図2を参照して説明されたシステムと同じように、拡張現実エンジン600との情報のやり取りを通して、視覚障害を持つ人物605に改善された検知機能を提供する。拡張現実エンジン600は、アシスタントインターフェース650を介して有視力アシスタントに直接提示される物体を含む、遠隔環境635の拡張現実パノラマを構成する。以下の検討の中で説明されるように、視覚障害者605のみが拡張現実パノラマと情報のやり取りを持つのではなく、視覚障害者605を支援するために、有視力アシスタントもまた拡張現実パノラマと直接情報のやり取りを行う。
以下の検討は、有視力アシスタントの視点から提示される。したがって、視覚障害者605及び遠隔環境635は、有視力アシスタントから見て遠隔と考えられる。「遠隔」という言葉は、有視力アシスタントが、物理的な支援が不可能であることを表すのに十分な、典型的にはおよそ50メートル以上の距離で視覚障害者605から物理的に離れていることを婉曲に示すために用いられる。例えば、視覚障害者605は、アシスタントインターフェース650とは異なる大陸に位置しうる。このように、有視力アシスタントは、視覚障害者605から地理的に隔てられていることが可能である。
視覚障害者605は、1又は複数のセンサーを介して環境センサーデータを取得するために、携帯検知デバイス610を用いる。上述のとおり、携帯検知デバイス610は、スマートフォン又は他の種類の携帯デバイスを含むことが可能である。他の携帯デバイスの例としては、眼鏡、専用デバイス、又は、ネットワーク615を介してデータを取得及び送信するように構成された他のコンピューティングデバイスを含むことが可能である。携帯検知デバイス610は、少なくとも1つのセンサー、好適にはカメラを含み、センサーデータを取得することが可能である。携帯検知デバイス610は、加速度計、マイクロフォン、磁力計、生体センサー、バーコードリーダー、RFIDリーダー、積算距離計、GPS、ラジオ、又は他の種類のセンサーを含む他の種類のセンサーを含むことが可能である。また、いくつかの実施形態において、センサーは、例えば視覚障害者605の肉体的健全性、血圧、神経作用、心拍数、体温、呼吸速度、血流データ、又は他の健康状態の測定基準に関するデータを得るように構成された1又は複数の相互接続された生体センサーのパーソナルエリア・センサーウェブも含むことが可能である。携帯検知デバイス610は、これらのセンサーの各々からデータを取得し、ネットワーク615を介して拡張現実エンジン660へとセンサーデータを転送するための準備をする。
いくつかの実施形態において、携帯検知デバイス610は、補助アダプタ612を介して、その意図された目的を超えた機能を得るように構成されることが可能である。補助アダプタ612は、有線又は無線で(例えば、Bluetooth(登録商標)又は802.15x、USB、ワイヤレスUSB、Firewire、PCIe、Light Peak、RS−232、Zigbee(登録商標)、eSATA、イーサネット(登録商標)など)、1又は複数の接続インターフェースを介して、携帯検知デバイス610と接続される。アダプタ612は、携帯検知デバイス610内にはない追加的なセンサーを含むことが可能である。例えば、iPhone(商標)は、RFIDリーダーを有さない。アダプタ612は、USB接続を介してiPhoneと接続するように構成されたRFIDリーダーを含みうるものであり、RFIDリーダーはワイヤレスRFIDデータを取得することが可能であって、例えばIDBLUE(商標)リーダーは、開示された主題と共に使用するように適合させられうる(URLwww.idblue.comを参照されたい)。加えて、アダプタ612は、広帯域通信(例えば、WiMAX、WiGIG、アドホックネットワーク、UWB、ワイヤレスHDなど)、反響定位機能、触覚フィードバック作動装置(例えば、振動子、点字インターフェースなど)、拡張音声出力/入力(例えば、ステレオ、フィルターなど)、又は他の拡張機能を含みうる他の種類の拡張機能を提供することが可能である。
場合によりアダプタ612又は他の外部センサーと協働する携帯検知デバイス610は、好適には、遠隔環境635、又はより具体的には、現在の視野(FoV)630を表す環境センサーデータを取得するように構成される。このセンサーデータは、携帯検知デバイス610が、視覚障害者605から動作を指示されることなく、そのセンサーからデータを継続的に取得するように構成されることが可能な、視野内の環境センサーデータとみなされることが可能である。環境センサーデータは、センサー・バイ・センサー(sensor−by−sensor)に基づく場合でさえ、能動的又は受動的に収集されることが可能である。能動的に収集されるセンサーデータは、視覚障害者605の命令の下で、又は有視力アシスタントの命令の下で収集されるデータを含むものと考えられる。受動的に収集されるセンサーデータは、単にセンサーがアクティブであるときに収集されるデータを含む。例えば、携帯検知デバイス610は、全てのセンサーを、携帯検知デバイス610が遠隔環境635の状況にかかわらずに環境センサーデータを取得する、「収集」モードにしうる。
また、遠隔環境635を表す環境センサーデータは、携帯検知デバイス610又はアダプタ612を超えて、他のデータ源から収集されることも可能である。例えば、公的にアクセス可能なライブカメラ供給にアクセスすることも可能であり、拡張現実エンジン660は、そうした「外部の」環境データを、拡張現実パノラマの構成に統合する。システム600における他のデータ源は、政府データベース(例えば、地理調査など)、軍用又は自家用の車両(例えば、無人機、航空機、自動車など)、地方自治体のセンサー(例えば、警察無線、ライブ・ハイウェイ・カメラ供給、消防署など)、警備員、人工衛星、Google(登録商標)StreetView(商標)、又は他の公的もしくは私的な環境センサーデータ源を含むことが可能である。
環境センサーデータは、ネットワーク615を介して拡張現実エンジン660へと送信され、拡張現実エンジン660は、遠隔デバイスインターフェース622、パノラマエンジン620、パノラマデータベース624、又は物体登録モジュール626を含むことが可能である。ネットワーク615は、インターネット、セル・ネットワーク、WAN、LAN、VPN、PAN、又は他の種類のネットワークを含む、1又は複数の有線又は無線のネットワーク・インフラを含むことが可能であることが理解されるであろう。遠隔デバイスインターフェース622は、様々な所望の方法に従って、携帯検知デバイス610から環境センサーデータを受信するように構成されることが可能である。いくつかの実施形態において、遠隔デバイスインターフェース622は、携帯検知デバイス610にアクセス可能なURL又はウェブサービスAPIを提供するウェブサーバを含むことが可能である。他の実施形態においては、遠隔デバイスインターフェース622は、1又は複数の独占プロトコルをサポートする専用通信リンクを含むことが可能である。例えば、携帯検知デバイス610は、遠隔デバイスインターフェース622(例えば、図1の認識アプリケーション124又は134)として機能する補完的アプリケーションと直接的に通信するように構成された、インストールされたアプリケーション(例えば、図1の認識アプリケーション114)を有することが可能である。
開示されたインフラは、ピアツーピア様式でも動作可能であることを想起されたい(図2を参照)。同様に、パノラマエンジン620は、ネットワーク上で互いに接続された複数の構成要素を含むことが可能である。例えば、ピア620Aは、ネットワーク615上に配置された1又は複数の独立したコンピューティングデバイスを表すことが可能であり、場合により、有視力アシスタントから遠隔のコンピュータ、又は視覚障害者605に対してローカル又は遠隔のコンピュータさえも含む。さらに、ピア620Aは、場合により、Google、Salesforce(登録商標)、Microsoft(登録商標)、Amazon(登録商標)、又は他のサービスによって提供されるクラウドベースのシステムに基づいて、クラウドコンピューティングアーキテクチャの1又は複数のノードにわたって分散されることが可能である。複数のピア620Aの各々は、少なくともいくつかのレベルで、取得された環境センサーデータ内の物体認識に対するサポートを提供することが可能である。例えば、1又は複数の物体登録モジュール626は、複数のピア620Aの間で分散されうるものであり、複数のピア620Aの各々は、上述のように、異なる物体認識又は登録に対する責任を持つ。例えば、複数のピア620Aを経由する通信パスは、ピア620Aの各々がピラミッド符号化/復号のスキーム(図4を参照されたい)に従い、異なる画像解像度で登録情報を提供するように構成されうる。他の実施形態においては、パノラマエンジン620は、遠隔の視覚障害を持つ人々にサービスを提供する、ネットワークに基づくサーバとして機能する単一のコンピューティングデバイスを表すことが可能である。
パノラマエンジン620は、携帯検知デバイス610から環境センサーデータを取得し、好適には、センサーデータは、現在の視野(FoV)630に関する情報を含む。FoV630は、現在の遠隔環境635の一部についてのデータ収集を表す。「現在の」という言葉は、FoV630が、レイテンシの影響を受けて、センサーデータのほぼリアルタイムの表現を表すという概念を伝えることを意図している。許容されるレイテンシは、現在という概念が1分未満であること、より好ましくは10秒未満であること、更に好ましくは1秒未満であること、また更に好ましくは0.25秒未満であることが可能な範囲内であると考えられる。
FoV630は、携帯検知デバイス610に関連付けられたセンサーから取得される画像データ(例えば、静止画像、ビデオなど)及び位置データによって表されることが可能である。パノラマエンジン620は、画像データ、及び、場合により向きデータを含む位置データを、アシスタントインターフェース650を介した有視力アシスタントへの提示のために、レンダリングされたFoVへと変換する。さらに、パノラマエンジン620は、環境センサーデータに少なくとも部分的に基づき、遠隔環境635、及びそれに関連する物体のモデルを表現する拡張現実パノラマを構築するように構成される。また、拡張現実パノラマは、統合された現在のFoV630を含むことが可能である。上述のように、パノラマエンジン620は、拡張現実パノラマが複数様式のデータを含むことが可能なように、視覚データに加えて、他の種類の環境データを拡張現実パノラマに統合することも可能であることを理解されたい。
パノラマエンジン620が環境データを収集、又は取得すると、パノラマエンジン620は、視覚データ、音声データ、触覚データ、運動感覚データ、メタデータ、又は他の種類のデータを含む複数様式のパノラマを作り出すために、そのデータを一つに縫い合わせる。視覚データは、画像を合成するために、場合によりSIFT登録を通した物体特徴の認識を含む種々の適切な手法を用いて、一つに縫い合わされることが可能である。本発明の主題と共に用いるために適合されうる、画像データからパノラマを構築するための適切な方法の一つには、2005年7月28日出願の「Real−Time Preview for Panoramic Images」と題されたBaudishの米国特許第7,424,218号明細書において説明されたものが含まれる。
拡張現実パノラマを構築するとき、パノラマエンジン620は異なる種類のデータを一つに縫い合わせることも可能である。例えば、基本的な街路画像がGoogle StreetViewから収集されうる一方で、街路内の物体は、サービス加入者によって使用される1又は複数の携帯検知デバイス610から受信された画像データから収集されうる。いくつかの物体が永続的でありうる(例えば、街灯柱)一方で、他の物体は一時的なものでありうる(例えば、左下角の新聞販売機)。そうした物体は、拡張現実パノラマを形成するために、他のデータと重ね合わされることが可能である。さらに、環境センサーデータ内の音声データは、同じように物体と結合されることが可能である。自動車又はトラックの通過を考えてみる。車両からの音は、音声又は画像データ(例えば、位置、向き、サイズ、形状、型式、モデルなど)によって表される物体に関連付けられた一般的な属性又は特徴を比較することを通して、車両の画像と自動的に結合されることが可能である。
また、パノラマエンジン620は、好適には、遠隔環境635のセンサー範囲内の物体を識別するように構成される。物体は、画像データ、音声データ、ワイヤレスデータ(例えば、Wi−Fi、RFIDなど)、又は他の種類のデータを含む、様々な様式、又は様式の組み合わせを用いて識別されることが可能である。例えば、画像データ内の物体は、場合により、2001年11月5日出願の「Image Capture and Identification System and Process」と題されたBoncykらの米国特許第7,016,532号明細書において説明された手法に基づき、SIFT特徴を通じて決定されることが可能である。物体がどのように識別されるかにかかわらず、パノラマ物体は、パノラマデータベース624内の他のパノラマパラメータと共に保存されることが可能である。物体は、属性を備える管理可能なデータ物体として保存されることが可能である。属性には、物体特徴、名称、メタデータ、タイムスタンプ、位置、レンダリング命令、又は他の情報が含まれうる。
拡張現実パノラマが、時間的な情報を含みうること、又は動的構造とみなされうることに留意されたい。パノラマの一部分は、過去の環境センサーデータを表す履歴的部分を含むことが可能である。履歴的部分は、現在の環境センサーデータが収集されたときに更新されることが可能である。パノラマが過去の内容を有することから、賢明な読者は、拡張現実パノラマが、遠隔環境635内の視覚障害者605の体験の動きを止めるため、さらには再生するために、又は遠隔環境635の一部を再生するために、時間移動されることが可能であることを理解するであろう。拡張現実パノラマは、遠隔環境635の仮想的な「ブラックボックス」拡張現実とみなされることが可能である。
また、パノラマエンジン620は、所望の場合又は必要な場合、構築された拡張現実パノラマ内の内容にフィルターをかけることが可能である。ある状況において、環境センサーデータは、公的というよりもむしろ私的なものとみなされうる。私的なデータは、視覚障害者605、又は、適切な承認、認証、許可レベルを前提とした権原を与えられた個人の管理下又は制御下にあるべきと考えられるデータを表す。環境データが私的なデータを含みうることから、拡張現実パノラマは、視覚障害者605又は権限を与えられた有視力アシスタントに関連付けられた個人化されたパノラマを含むことが可能である。必要に応じて、拡張現実パノラマは、私的なセンサーデータの関数としてフィルターにかけられた部分を含むことができる。例えば、視覚障害者605がATM機器のキーパッドと情報のやり取りを行う場合、パノラマエンジン620は、有視力アシスタントのキーパッドに対する見え方にフィルターをかけたり、ディザー処理を行ったり、又は他の方法で見えにくくすることが可能である。
拡張現実パノラマはアシスタントインターフェース650を介して有視力アシスタントに提示するために構築されるものであるが、拡張現実パノラマを、視覚障害者605と共有される拡張現実パノラマとして考えることも可能である。パノラマエンジン620は、携帯検知デバイス610に適切な動作を行うように指示するデバイス命令という形で、携帯検知デバイス610に物体情報を提供することが可能である。動作には、視覚障害者605に物体との近接を通知すること(例えば、聴覚又は触覚フィードバック)、センサーの収集率を調整すること、センサーデータにフィルターをかけること、又は、他の方法で拡張現実パノラマ情報の提示のためにパノラマエンジン620から携帯検知デバイス610を制御することが含まれうる。かかる状況において、有視力アシスタントと視覚障害者605の両者は、構築された拡張現実パノラマを共有する。また、追加的動作には、携帯検知デバイス610に現実世界の物体(例えば、自動販売機、医療機器、キオスク、プリンタなど)と情報のやり取りを行うよう指示することも含まれうる。
図3と同様に、図7は、それを通してパノラマエンジンが構築された拡張現実パノラマ770を有視力アシスタントに提示する、有視力アシスタントインターフェース750を示す。示される例において、アシスタントインターフェース750は、場合によりデスクトップコンピュータ上で実行される2Dデスクトップアプリケーションとして示される。しかしながら、他の実施形態においては、インターフェース750は、眼鏡又は他の適切な視聴機器を介して、ウェブページ、ヘルメット、もしくは4πステラジアンの視野を提供する部屋、又は他の望ましいインターフェース内で、3Dインターフェースとして携帯デバイス上に示されることが可能である。有視力アシスタントは、遠隔の視覚障害者のための自動的又は手動による支援を提供するために、アシスタントインターフェース750を用いる。
拡張現実パノラマ770は、視覚障害者が現在の自身をその中に見つける遠隔環境の平坦な2D画像として提示されるが、拡張現実パノラマ770が遠隔環境のデジタルモデルを現すこと、及び環境内の物体のモデルを含むことが理解されるべきである。拡張現実パノラマ770内に提示される物体は、アシスタントが所望に応じて物体情報を更新することが可能な、相互作用的な物体であると考えられる。さらに、先に示唆されたように、拡張現実パノラマ770は、一時的な構成要素も含みうる環境の3Dデジタルモデルであると考えられることが可能である。したがって、拡張現実パノラマ770は、遠隔環境の4Dモデルであると考えられることが可能である。
拡張現実パノラマ770は、1又は複数の環境データ源から受信された、一つに縫い合わされた情報を表す。拡張現実パノラマ770は、現在の更新された部分、及び、以前に受信された環境センサーデータを反映する履歴的部分の両方を含むことが可能である。好適には、拡張現実パノラマ770は、図のように、場合により拡張現実パノラマ770上に重ねられた、統合された現在のFoV730を含み、FoV730は、遠隔の視覚障害者によって、使用中の携帯検知デバイスで取得された現在のFoVにほぼ対応する。
先に述べたように、遠隔環境からのセンサーデータの取得と、拡張現実パノラマ770の各部の提示の間には、レイテンシが存在しうる。レイテンシは、実に様々な粒度のレベルにおいて、パノラマの1又は複数の部分に示されうる。例において、レイテンシはFoV730に示される。しかしながら、レイテンシは、拡張現実パノラマ770の現在の部分、拡張現実パノラマ770の履歴的部分、又は拡張現実パノラマ770内の物体に示されうる。有視力アシスタントが、遠隔環境内の視覚障害者を補助する際に役立ちうる、モデルの古い部分又は最新の部分が実際にどのようなものであるかについての理解を得ることが可能となるため、レイテンシ情報を提示することは有益と考えられる。
有視力アシスタントは、場合により1又は複数のパノラマ命令753を通して、所望に応じて拡張現実パノラマ770と情報のやり取りを行うことが可能である。拡張現実パノラマ770が単純な画像よりも複雑な遠隔環境及びその中の物体のモデルを表すことから、アシスタントは、視覚障害者とは別に、拡張現実パノラマ770の至る所をナビゲートすることが可能である。例えば、拡張現実パノラマ770が追加的センサーデータに基づく部分を含むことを前提として、アシスタントは、障害物が取り除かれているかどうかを判断するため視覚障害者の前方を比喩的に歩くために、拡張現実パノラマ770を拡大・縮小しうる。他のパノラマ命令753は、パン、チルト、回転、フィルター、時間移動、又は別の方法で拡張現実パノラマ770の提示を調整することを含むことが可能である。
拡張現実パノラマ770は、場合により図のようにリスト形式で提示される、1又は複数の拡張現実物体752を含む。拡張現実物体752は、場合によりFoV730内の物体とFoV730の外側の物体というように、所望に応じて分離されることが可能である。この構成は、拡張現実パノラマ770内のどの物体が他のものよりも一時的に関連性を有するかについての有視力アシスタントの洞察をもたらすため、このようなスキーマに従って物体を分けることは有益であると考えられる。FoV730の外側の拡張現実物体752(例えば、新聞販売機)は、以前のデータに基づく古いものでありうる。
また、拡張現実パノラマ770は、拡張現実物体752に関する追加情報を提示することも可能である。また、拡張現実物体752の各々は、所望に応じて、関連付けられた属性又はメタデータと共に提示されることも可能である。例えば、タグ761は、物体に関連付けられた属性又はメタデータを表すものとして婉曲的に示されている。物体情報は、所望に応じて、多数の異なるスキーマに従って提示されることが可能である。物体情報の例には、物体名称、物体位置、物体更新のタイムスタンプ、関連する特徴又は物体ランドマーク(例えば、SIFT登録、境界、角など)、メタデータ割り当て、物体寸法、色、又は拡張現実物体752に結合されうる他の種類の情報が含まれる。
拡張現実パノラマ770の生成を担うパノラマエンジンは、拡張現実パノラマ770に拡張現実物体752を自動追加すること、及びその物体の属性を自動追加することも可能である。拡張現実物体752が、その特徴(例えば、SIFT登録ランドマーク、位置、色など)によって認識されると、エンジンはその属性を物体に結合させることが可能である。示される例において、自動追加される属性の種類には、FoV730の原点から種々の物体までの相対距離が含まれる。パノラマエンジンがどの程度最近に環境センサーデータを収集したかに応じて、いくつかの距離は、他のものよりもより正確でありうる。例えば、収集されるデータの低いレイテンシによって、物体を動的に移動させているならば、FoV730内の拡張現実物体752はより正確な距離を有するであろうが、一方、FoV730の外側の物体は、より精度の低い距離推定をもたらしうる古いデータと関連付けられるであろう。
人間の有視力アシスタントが拡張現実物体752を手動で管理することも可能であることに留意されたい。例えば、アシスタントインターフェース750は、人間の有視力アシスタントに、アシスタントが拡張現実物体752を管理することを可能とする1又は複数の物体命令を提示することも可能である。想定される物体命令は、追加、削除、メタデータ割り当て、更新、選択、フィルター、保存、又は別の方法で物体を管理するものを含む。街灯柱が未だ識別されていない、又は拡張現実パノラマ770内に自動追加されていないという状況を考えてみたい。有視力アシスタントは、マウスポインタを用いて街灯柱の輪郭をトレースし、パノラマエンジンに街灯柱を物体として作成又は追加するように指示しうる。さらに、アシスタントは所望に応じて1又は複数のメタタグを物体に割り当てることが可能であり、あるいは、パノラマエンジンが、アシスタントからの入力を定義された物体の特徴又は登録ランドマークと比較することに基づいて、物体にメタタグ(例えば、位置、色、形状など)を割り当てることも可能である。別の状況としては、アシスタントが拡張現実パノラマ770内に、後に視覚障害者のデバイスに送信されることが可能な仮想的なウェイポイント・物体を配置することが含まれうる。対応する現実世界をナビゲートするために、視覚障害者は、ウェイポイント・物体からの聴覚又は触覚フィードバック(すなわち、デバイス命令)を用いることが可能である。
FoV730は、環境センサーデータの範囲内で受信される携帯検知デバイス位置情報の関数として、拡張現実パノラマ770内に統合されることが可能である。より好適な実施形態において、パノラマエンジンは、現在、遠隔の携帯検知デバイスが拡張現実パノラマ770内の拡張現実物体752に対してどのように位置付けられているかということについて、有視力アシスタントが理解することを確実とするために、FoV730を拡張現実パノラマ770内に重ね合わせる。FoV730の位置及び向きは、環境センサーデータ内に受信される対応するデータから判断されることが可能である。いくつかの実施形態において、位置データはGPS座標を含むことが可能であり、向きデータは加速度計データ又は磁力計データから取得されることが可能である。FoV730の配置は、その位置を補正、調整、又は改善するために、複数様式のデータを組み合わせることによって改善されることが可能である。1又は複数の様式の組み合わせは、より正確な配置を提供するものと考えられる。例えば、物体特徴(例えば、物体ランドマーク、SIFT登録ランドマークなど)は、物体ランドマークに対する三角測量によってFoV730の配置を補正するために、GPSデータと組み合わされることが可能である。さらに、場合により振幅、周波数、又は位相の情報(例えば、反響定位、ドップラーなど)を含む、音声データは、物体又はFoV730の配置を決定するために、画像データと、又は加速度計データとさえ、組み合わされることが可能である。加速度計データは、速度を判断するために1度、又は進んだ距離を判断するために2度、積分されることが可能であり、次いで、位置又は向きの判断における誤差を減少させるために、GPS情報又は他の種類のデータと組み合わされることが可能である。要約すれば、FoV730の配置は、少なくとも2つのセンサーデータタイプに基づいて補正されることが可能である。センサーデータタイプには、GPS位置、画像登録データ、加速度計データ、磁力計データ、ワイヤレスデータ(例えば、Wi−Fi位置調整、RFIDデータ、ワイヤレス三角測量など)、積算距離データ、音声データ(例えば、音波、反響定位など)又は他のデータタイプが含まれうる。有視力アシスタントが拡張現実パノラマ770を通じてナビゲートを行うとき、アシスタントがその視野を回転させた場合でさえ、FoV730は、拡張現実パノラマ770に対する適切な位置又は向きを保持することが可能であることに留意されたい。したがって、図のように、アシスタントインターフェース750が現在のFoV730を個別に提示することも可能であることが想定される。
重ねられたタグ761によって婉曲に表現されるように、拡張現実物体752は、拡張現実パノラマ770内で強調表示されることも可能である。拡張現実物体752の強調表示は、様々な方法を通じて達成されうる。いくつかの実施形態において、物体は、強調表示された輪郭、アイコン、又は拡張現実物体752が拡張現実パノラマ770内に存在することを示す他のインジケータを備える。特に好適なインジケータは、拡張現実パノラマ770の履歴的部分と拡張現実パノラマ770の最近更新された部分との間の差異を示す強調表示を備える。こうしたアプローチは、遠隔の視覚障害者が、拡張現実物体752が移動又は変化しうる動的な環境へと入った場合に役立つ。例えば、右下角の新聞販売機は、タグ761の存在によって示されるように、街路上に新しく配置されたものでありうる。
先に簡潔に述べたように、有視力アシスタントは、タグ命令754を介して、例えばタグ761のようなメタタグを、拡張現実パノラマ770内の拡張現実物体752に対するメタデータとして割り当てることが可能である。タグには、可視タグ又は不可視タグが含まれうる。可視タグは、アイコン、又は有視力アシスタントの目に見える他のインジケータとして表されることが可能であり、物体特性のリストを提供することが可能である。不可視タグは、聴覚又は触覚のメタデータを含むことが可能であり、これらは、遠隔の視覚障害者が物体を識別するために使用されることが可能であることもまた理解されるべきである。想定されるタグ命令は、作成、削除、修正、移動、保存、フィルタリング、又は物体タグを管理する他の方法を含む、多くの異なるタグ管理動作を備えることが可能である。物体へのメタタグの割り当ては、特定のクライアントのための拡張現実パノラマ770の個人化に関する多大な柔軟性をもたらす。
有視力アシスタント又は視覚障害者が共有された拡張現実パノラマ770と情報のやり取りを行う際、上述のとおり、拡張現実物体752は動的に更新されることが可能である。多くの拡張現実物体752が、公的な物体であるとみなされることが可能であり、これらはサービスの他のクライアント又は加入者からの他の拡張現実パノラマに組み込まれることが可能であることを想起されたい。したがって、拡張現実パノラマ770又はその中の拡張現実物体752は、プライバシーの問題を条件として、複数のユーザの間で共有されることが可能である。さらに、拡張現実パノラマ770は、拡張現実パノラマ770の共有された、又は公的に利用可能な、もしくは更新可能な側面を反映するWiki部分を含むものとみなされることも可能である。Wiki的な部分の例としては、注釈、物体、改訂、又は他のユーザによって投稿された拡張現実内容が含まれうる。
例示目的のため、拡張現実パノラマ770は、拡張現実パノラマ770内の人々の顔の空白によって示されるようなフィルターにかけられた部分を提示し、ここで、少なくともこの例においては、顔データは私的データであるとみなされる。私的画像データが取得された場合であっても、パノラマエンジンは私的データ(例えば、顔、セキュリティ事項など)を認識可能であり、プライバシーの問題のために、私的データを除去するか、又は他の方法で見えなくする。拡張現実パノラマ770は、所望に応じて、又は構成に応じて、他の種類のフィルター部分を含むことが可能である。フィルター部分の使用の例には、家庭環境を見えなくすること、特定個人を見えなくすること、セキュリティ入力を見えなくすること、又は私的であると考えられる他の事項を見えなくすることが含まれうる。また、不明化は、音声データ、位置データ、目的地、移動速度、又は他の情報を含む他の種類のデータにも適用されうる。パノラマエンジンは、物体特徴(例えば、SIFT登録、音声署名など)を物体と相互比較可能である。特徴がフィルタリングの基準を満たす場合、その物体は拡張現実パノラマ内で見えなくされることが可能である。
有視力アシスタントは、遠隔の視覚障害者を補助するために利用可能な多くの選択肢を有する。選択肢の1つは、単に視覚障害者のスマートフォンを介した声の通信リンクを確立することを含む。有視力アシスタントは、視覚障害者の現在の状況を検討し、口頭による補助を提供することが可能である。より好適なアプローチは、遠隔の携帯検知デバイスに1又は複数のデバイス命令751を送信してデバイスの動作を制御するために、アシスタントインターフェース750を用いることを含む。デバイス命令751には、携帯検知デバイスに、拡張現実物体752又は拡張現実パノラマ770内の未だ識別されていない物体に関連付けられる追加的物体情報を取得するように指示する、広範囲の指示が含まれうる。
デバイス命令751は、アシスタントの要求又は要望に応じて、多くの異なる形態を取ることが可能である。命令の例には、ビデオのデータ取得フレームレートを変更すること、取得画像の解像度を調整すること、音声取得のサンプリングレートを変更すること、やり取りされるデータの圧縮又は暗号化パラメータを調整すること、遠隔の検知デバイスとパノラマエンジン間の通信パスを変えること、デバイス又は追加の作動装置(例えば、重りのついたプランジャー、振動子、点字パッドなど)のトリガーをオンにするよう指示すること、物体の近接を表す可聴信号を発すること、又は他の制御命令が含まれうる。したがって、有視力アシスタントは、拡張現実パノラマ770の改良、及び遠隔の視覚障害者の支援のために、遠隔の検知デバイスを制御することが可能である。視覚障害者が新聞を購入することを望んでいる状況を考えてみる。有視力アシスタントは、視覚障害者が新聞販売機に接近した際に、デバイスを振動させる、又は音を発生させるデバイス命令751を、デバイスに対して発することができる。
図1に関連して議論したように、物体認識技術の態様は、遠隔の検知デバイス又は追加アダプタ内に配備することが可能である。デバイスベースの認識アプリケーションはデバイスに近接して、あるいはデバイス内に置かれることが可能であることから、デバイス命令751は、アプリケーションの動作を制御又は管理するための、認識アプリケーションを対象とした高次の命令を含むことも可能である。例えば、アシスタントは、デバイスに対して、遠隔環境、又は遠隔環境内の物体についての追加情報の取得により適した1又は複数の認識アプリケーションの動作を切り替えるように指示することが可能である。あるアルゴリズムは、顔認識又は物体認識よりも、OCRにより適合するものでありうる。遠隔の視覚障害者が金銭を扱う作業を行う状況を考えてみる。有視力アシスタントは、遠隔デバイスに対して、追加の処理能力を必要とする一般的な物体認識アルゴリズムではなく、場合により地理的な位置に基づいて、貨幣を識別するように調整された認識アルゴリズムを採用するように指示することが可能である。こうしたアプローチは、目下の状況のために、選択されたアルゴリズムが他のものよりも効率的に用いられることが可能な、現実世界の物体との最適化された交流をもたらす。
上述の議論では、アシスタントを人間のオペレータとして言及してきたが、パノラマエンジン、あるいはアシスタントインターフェース750の一部でさえ、自動化された有視力アシスタントとして機能することが可能であることが理解されるべきである。遠隔の視覚障害者と拡張現実パノラマ770の間の情報のやり取りの多くは、自動化されることが可能である。上述のとおり、自動化された様式で動作する場合のアシスタントインターフェース750は、視覚障害者に対して、拡張現実パノラマ770内の既知の、又は発見された物体との相対距離を知らせるフィードバックを送信することが可能である。そのような実施形態において、アシスタントインターフェース750はパノラマエンジン内のモジュールとして機能することが可能であり、このとき、モジュールは、1又は複数のアプリケーションプログラムインターフェースを介して視覚障害者に提案を行うエキスパートシステムとして機能する。さらに、視覚障害者又は人間の有視力アシスタントは、現実世界を通じた視覚障害者の移動に基づく自動化された反応又は動作をプログラムで構成可能であり、これらは、拡張現実パノラマ770内の物体特徴(例えば、SIFT登録、音声署名、テクスチャなど)に応じた基準に基づいて動作を開始させる。
このように、本願は、特に共有された拡張現実パノラマにおける、視野の補強に対する統合されたアプローチの一部として、正確かつ便利に、物体、顔、背景、又は環境の認識を提供するように構成された、柔軟、強力、かつユーザに対する反応性の良いソリューションの提供を対称とするシステム及び方法を開示する。多くの利点のうち、本願で開示されるのは、携帯デバイスのユーザに、アクセス可能なインターフェースを通じて、リアルタイムで観測された支援、情報、又は通信を提供するためのデバイス、システム、及び方法である。例えば、カメラ又はセンサーを使用可能な、ユーザのパーソナルコンピュータ(PC)及び/又は他の集中型もしくは分散型の計算・通信サービスに接続された携帯通信デバイスを用いて、拡張現実又は改善された視野サービスを提供することが可能である。
既に説明されたものに加えて、さらに多くの修正が本明細書中の発明概念から逸脱することなく可能であることが、当業者には明白であろう。それ故、本発明主題は、添付の特許請求の範囲以外のものによって制限を受けるべきではない。さらに、本明細書及び特許請求の範囲の解釈において、全ての用語は、文脈に即して可能な最も広範な方法で解釈されるべきである。特に、「含む」及び「含んでいる」という言葉は、構成要素、構成部品、又はステップを非排他的な様式で述べており、言及された構成要素、構成部品、又はステップは、明示的に言及されていない他の構成要素、構成部品、又はステップと共に存在し、又は用いられ、又は組み合わされうることを示しているものと解釈されるべきである。本明細書及び特許請求の範囲が、A、B、C・・・及びNからなる群から選択される少なくとも1つのものに言及する場合、その文章は、AプラスN、又はBプラスNなどではなく、その群からの1つの構成要素のみを要求しているものと解釈されるべきである。

Claims (23)

  1. 拡張現実エンジンであって、
    ネットワークを介して遠隔携帯検知デバイスから環境センサーデータを受信するように構成された遠隔デバイスインターフェースであって、前記環境センサーデータは視覚障害者の遠隔環境を反映し、かつ現在の視野及びデバイス位置のデータを含む、遠隔デバイスインターフェースと、
    前記デバイス位置の関数として拡張現実パノラマ内に統合され現在の視野を有する環境センサーデータに少なくとも部分的に基づいて、前記拡張現実パノラマを構築するように構成されたパノラマエンジンであって、前記拡張現実パノラマは、前記遠隔環境の3Dデジタルモデルを表し、かつその物体のうちのいくつかを含む、パノラマエンジンと、
    有視力アシスタントインターフェースであって、
    有視力アシスタントに、前記統合された現在の視野と共に前記拡張現実パノラマの3Dデジタルモデルを視覚的に提示するステップと
    前記有視力アシスタントと、前記現在の視野の外側にある前記3Dデジタルモデル内の少なくとも1つの物体との間の相互作用に基づいて、センサー制御デバイス命令を生成するステップと、
    前記遠隔デバイスインターフェースを介して、前記遠隔携帯検知デバイスに前記センサー制御デバイス命令を送信するステップであって、前記センサー制御デバイス命令は、前記統合された現在の視野の外側にある前記拡張現実パノラマ内の有視力アシスタントに選択された物体に関連付けられた追加的センサーデータを取得するように、前記遠隔携帯検知デバイスに指示する、ステップと、
    前記追加的センサーデータを前記3Dデジタルモデルに組み込むことにより、前記拡張現実パノラマを更新するステップと、
    を実行するように構成された有視力アシスタントインターフェースと、
    を備えるエンジン。
  2. 前記現在の視野が、前記遠隔携帯検知デバイスによって取得されたイメージデータを含む、請求項1に記載のエンジン。
  3. 前記拡張現実パノラマが、複数様式のパノラマデータを含む、請求項1に記載のエンジン。
  4. 前記複数様式のパノラマデータが触覚データを含み、前記センサー制御デバイス命令が、前記視覚障害者に近接する、前記拡張現実パノラマ内の物体に対応する前記遠隔環境における現実世界の物体に関連付けられた触覚フィードバック命令を含む、請求項3に記載のエンジン。
  5. 前記遠隔携帯検知デバイスがスマートフォンを含む、請求項1に記載のエンジン。
  6. 前記拡張現実パノラマが、前記視覚障害者に関連付けられた個人化されたパノラマを含む、請求項1に記載のエンジン。
  7. 前記個人化されたパノラマが、前記視覚障害者の管理下にある私的環境センサーデータを含む、請求項6に記載のエンジン。
  8. 前記個人化されたパノラマが、前記私的環境センサーデータの関数としてフィルターにかけられた部分を含む、請求項7に記載のエンジン。
  9. 前記拡張現実パノラマが、過去の環境センサーデータを表す履歴的部分を含む、請求項1に記載のエンジン。
  10. 前記拡張現実パノラマが、前記履歴的部分と、前記拡張現実パノラマの現在の視野に基づいて最近更新された部分との差異を示す強調表示された物体を含む、請求項9に記載のエンジン。
  11. 前記拡張現実パノラマが、公に収集されたセンサーデータを表す公的部分を含む、請求項1に記載のエンジン。
  12. 前記有視力アシスタントインターフェースが、前記環境センサーデータの取得と前記現在の視野の提示の間の時差を示すレイテンシを提示するように更に構成される、請求項1に記載のエンジン。
  13. 前記有視力アシスタントインターフェースが、GPS位置データ、画像登録データ、加速度計データ、磁力計データ、ワイヤレス信号データ、積算距離データ、及び音声データといった前記環境センサーデータのうちの少なくとも2つに基づいて、前記拡張現実パノラマにおける前記現在の視野の配置を補正するように更に構成される、請求項1に記載のエンジン。
  14. 前記拡張現実パノラマが、前記拡張現実パノラマ内の物体に割り当てられたメタタグを含む、請求項1に記載のエンジン。
  15. 前記メタタグが、前記有視力アシスタントに対して可視であり、かつ前記拡張現実パノラマ上に重ね合わされた、メタデータを含む、請求項14に記載のエンジン。
  16. 前記メタタグが不可視のメタデータを含む、請求項14に記載のエンジン。
  17. 前記有視力アシスタントインターフェースが、前記現在の視野に対する前記物体の距離を示すように更に構成される、請求項1に記載のエンジン。
  18. 前記センサー制御デバイス命令が、前記遠隔携帯検知デバイスに対する物体の位置を示す作動装置を始動させるための前記遠隔携帯検知デバイスに対する指示を含む、請求項1に記載のエンジン。
  19. 前記センサー制御デバイス命令が、前記遠隔携帯検知デバイスに対する物体の位置を示す可聴信号を発信させるための前記遠隔携帯検知デバイスに対する指示を含む、請求項1に記載のエンジン。
  20. 前記パノラマエンジンが、前記環境センサーデータを前記拡張現実パノラマ内の物体ランドマークへと変換するように構成される物体特徴登録モジュールを含む、請求項1に記載のエンジン。
  21. 前記拡張現実パノラマ内の物体ランドマークが、画像登録ランドマークを含む、請求項20に記載のエンジン。
  22. 前記画像登録ランドマークが、SIFT(Scale−Invariant Feature Transformation)ランドマークを含む、請求項21に記載のエンジン。
  23. 前記デバイス位置データがデバイスの向きのデータを含む、請求項1に記載のエンジン。
JP2012555144A 2010-02-24 2011-02-24 視覚障害者支援用拡張現実パノラマ Active JP5709906B2 (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US30767510P 2010-02-24 2010-02-24
US61/307,675 2010-02-24
US33907110P 2010-02-26 2010-02-26
US61/339,071 2010-02-26
PCT/US2011/026066 WO2011106520A1 (en) 2010-02-24 2011-02-24 Augmented reality panorama supporting visually impaired individuals

Publications (2)

Publication Number Publication Date
JP2013520757A JP2013520757A (ja) 2013-06-06
JP5709906B2 true JP5709906B2 (ja) 2015-04-30

Family

ID=44507207

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012555144A Active JP5709906B2 (ja) 2010-02-24 2011-02-24 視覚障害者支援用拡張現実パノラマ

Country Status (6)

Country Link
US (5) US8605141B2 (ja)
EP (1) EP2539883A1 (ja)
JP (1) JP5709906B2 (ja)
KR (2) KR101487944B1 (ja)
CN (1) CN102906810B (ja)
WO (1) WO2011106520A1 (ja)

Families Citing this family (210)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7680324B2 (en) 2000-11-06 2010-03-16 Evryx Technologies, Inc. Use of image-derived information as search criteria for internet and other search engines
US8224078B2 (en) 2000-11-06 2012-07-17 Nant Holdings Ip, Llc Image capture and identification system and process
US9310892B2 (en) * 2000-11-06 2016-04-12 Nant Holdings Ip, Llc Object information derived from object images
US7899243B2 (en) 2000-11-06 2011-03-01 Evryx Technologies, Inc. Image capture and identification system and process
US7565008B2 (en) 2000-11-06 2009-07-21 Evryx Technologies, Inc. Data capture and identification system and process
US20110229023A1 (en) * 2002-11-01 2011-09-22 Tenebraex Corporation Technique for enabling color blind persons to distinguish between various colors
US20100211911A1 (en) 2009-02-13 2010-08-19 Adrian Logan Method of altering a user interface
JP2013510329A (ja) * 2009-11-03 2013-03-21 イッサム リサーチ ディベロップメント カンパニー オブ ザ ヘブリュー ユニバーシティー オブ エルサレム リミテッド 代替感覚による視覚画像の表示
US8698949B2 (en) * 2010-01-08 2014-04-15 Hand Held Products, Inc. Terminal having plurality of operating modes
US9028344B2 (en) * 2010-01-28 2015-05-12 Chsz, Llc Electronic golf assistant utilizing electronic storing
KR101357262B1 (ko) * 2010-08-13 2014-01-29 주식회사 팬택 필터 정보를 이용한 객체 인식 장치 및 방법
US9197763B2 (en) * 2010-11-05 2015-11-24 Josh Baker Overlaying data in an augmented reality user interface
EP2474950B1 (en) * 2011-01-05 2013-08-21 Softkinetic Software Natural gesture based user interface methods and systems
US9218364B1 (en) 2011-01-28 2015-12-22 Yahoo! Inc. Monitoring an any-image labeling engine
WO2012121961A1 (en) 2011-03-04 2012-09-13 Apple Inc. Linear vibrator providing localized and generalized haptic feedback
GB2489685B (en) * 2011-03-31 2017-01-25 Geovs Ltd A Display System
US8810598B2 (en) 2011-04-08 2014-08-19 Nant Holdings Ip, Llc Interference based augmented reality hosting platforms
US20120293613A1 (en) * 2011-05-17 2012-11-22 Occipital, Inc. System and method for capturing and editing panoramic images
US9710061B2 (en) 2011-06-17 2017-07-18 Apple Inc. Haptic feedback device
KR101366860B1 (ko) * 2011-09-20 2014-02-21 엘지전자 주식회사 이동 로봇 및 이의 제어 방법
JP2013070212A (ja) * 2011-09-22 2013-04-18 Fuji Xerox Co Ltd 画像処理装置、画像処理プログラム
US9584774B2 (en) * 2011-10-24 2017-02-28 Motorola Solutions, Inc. Method and apparatus for remotely controlling an image capture position of a camera
US9424255B2 (en) * 2011-11-04 2016-08-23 Microsoft Technology Licensing, Llc Server-assisted object recognition and tracking for mobile devices
CN108014002A (zh) 2011-11-04 2018-05-11 马萨诸塞眼科耳科诊所 自适应视觉辅助装置
US9282168B2 (en) * 2011-12-06 2016-03-08 Parablu Systems Pvt. Ltd. Methods, devices, and systems for enabling a personal cloud-computing environment with ubiquitous mobile access and source-independent, automated data aggregation
US8823798B2 (en) * 2011-12-23 2014-09-02 Xerox Corporation Obscuring identification information in an image of a vehicle
US8933929B1 (en) * 2012-01-03 2015-01-13 Google Inc. Transfer of annotations from panaromic imagery to matched photos
CN102546816A (zh) * 2012-01-31 2012-07-04 江苏省现代企业信息化应用支撑软件工程技术研发中心 基于lbs平台的校园定位方法及其实现系统
TWI442917B (zh) * 2012-02-03 2014-07-01 Univ Nat Taipei Technology 具即時語音回報功能的導盲系統及其方法
EP2828762A4 (en) * 2012-03-22 2015-11-18 Hewlett Packard Development Co CLOUD DATA PROCESSING
US9258462B2 (en) * 2012-04-18 2016-02-09 Qualcomm Incorporated Camera guided web browsing based on passive object detection
TWI519167B (zh) * 2012-04-23 2016-01-21 廣達電腦股份有限公司 運用後設資料來進行目標辨識與事件重現之系統
US9153073B2 (en) 2012-05-23 2015-10-06 Qualcomm Incorporated Spatially registered augmented video
GB2502549A (en) 2012-05-30 2013-12-04 Ibm Navigation system
JP6124517B2 (ja) * 2012-06-01 2017-05-10 任天堂株式会社 情報処理プログラム、情報処理装置、情報処理システム、およびパノラマ動画表示方法
JP5975739B2 (ja) * 2012-06-01 2016-08-23 任天堂株式会社 情報処理プログラム、情報処理装置、情報処理システム、およびパノラマ動画表示方法
JP6006536B2 (ja) 2012-06-01 2016-10-12 任天堂株式会社 情報処理プログラム、情報処理装置、情報処理システム、およびパノラマ動画表示方法
US20130329061A1 (en) * 2012-06-06 2013-12-12 Samsung Electronics Co. Ltd. Method and apparatus for storing image data
JP6024952B2 (ja) * 2012-07-19 2016-11-16 パナソニックIpマネジメント株式会社 画像送信装置、画像送信方法、画像送信プログラム及び画像認識認証システム
US9785336B2 (en) * 2012-08-17 2017-10-10 Sas Institute Inc. Macro-enabled, verbally accessible graphical data visualizations for visually impaired users
US9917879B2 (en) 2012-10-13 2018-03-13 Microsoft Technology Licensing, Llc Remote interface templates
US9453740B2 (en) 2012-10-30 2016-09-27 Alpine Electronics, Inc. Method of displaying objects on navigation map
US9424472B2 (en) * 2012-11-26 2016-08-23 Ebay Inc. Augmented reality information system
JP2016506648A (ja) * 2012-12-06 2016-03-03 クゥアルコム・インコーポレイテッドQualcomm Incorporated パノラマ画像のための環状ビュー
US20140176689A1 (en) * 2012-12-21 2014-06-26 Samsung Electronics Co. Ltd. Apparatus and method for assisting the visually impaired in object recognition
KR101435546B1 (ko) * 2012-12-26 2014-09-16 건국대학교 산학협력단 카메라와 촉각형 인터페이스를 이용한 시각 장애인 보조 시스템
KR20140090318A (ko) * 2013-01-07 2014-07-17 삼성전자주식회사 햅틱 기반 카메라 운용 지원 방법 및 이를 지원하는 단말기
US9633272B2 (en) * 2013-02-15 2017-04-25 Yahoo! Inc. Real time object scanning using a mobile phone and cloud-based visual search engine
US9286323B2 (en) * 2013-02-25 2016-03-15 International Business Machines Corporation Context-aware tagging for augmented reality environments
CN105379235A (zh) * 2013-03-04 2016-03-02 丘炎卫 支持交互关联系统的平面书刊产品
JP2014175993A (ja) * 2013-03-12 2014-09-22 Sony Corp 通知制御装置、通知制御方法、およびプログラム
US9256615B2 (en) * 2013-03-12 2016-02-09 Verizon Patent And Licensing Inc. Personalized navigation information based on user behavior
US9282244B2 (en) 2013-03-14 2016-03-08 Microsoft Technology Licensing, Llc Camera non-touch switch
US9092954B2 (en) * 2013-03-15 2015-07-28 Immersion Corporation Wearable haptic device
JP6450064B2 (ja) * 2013-03-18 2019-01-09 任天堂株式会社 情報処理装置、動画データのデータ構造、情報処理システム、動画再生プログラム、および、動画の再生方法。
US10564815B2 (en) 2013-04-12 2020-02-18 Nant Holdings Ip, Llc Virtual teller systems and methods
US9639984B2 (en) * 2013-06-03 2017-05-02 Daqri, Llc Data manipulation based on real world object manipulation
US9355123B2 (en) 2013-07-19 2016-05-31 Nant Holdings Ip, Llc Fast recognition algorithm processing, systems and methods
US9393692B1 (en) * 2013-07-29 2016-07-19 Daniel Theobald Apparatus and method of assisting an unattended robot
US9576445B2 (en) 2013-09-06 2017-02-21 Immersion Corp. Systems and methods for generating haptic effects associated with an envelope in audio signals
US9652945B2 (en) * 2013-09-06 2017-05-16 Immersion Corporation Method and system for providing haptic effects based on information complementary to multimedia content
US9619980B2 (en) 2013-09-06 2017-04-11 Immersion Corporation Systems and methods for generating haptic effects associated with audio signals
US9711014B2 (en) 2013-09-06 2017-07-18 Immersion Corporation Systems and methods for generating haptic effects associated with transitions in audio signals
US9460635B2 (en) 2013-09-06 2016-10-04 At&T Mobility Ii Llc Obstacle avoidance using mobile devices
DE102013016944A1 (de) * 2013-10-14 2015-04-16 I-Cane Social Technology Bv Assistenzsystem
US9582516B2 (en) 2013-10-17 2017-02-28 Nant Holdings Ip, Llc Wide area augmented reality location-based services
CA2930409C (en) * 2013-11-14 2023-01-03 Jason Barton A system and method for managing and analyzing multimedia information
WO2015089115A1 (en) * 2013-12-09 2015-06-18 Nant Holdings Ip, Llc Feature density object classification, systems and methods
US9307073B2 (en) * 2013-12-31 2016-04-05 Sorenson Communications, Inc. Visual assistance systems and related methods
US10078712B2 (en) * 2014-01-14 2018-09-18 Energid Technologies Corporation Digital proxy simulation of robotic hardware
US9204018B2 (en) 2014-01-21 2015-12-01 Carbon Objects, Inc. System and method of adjusting the color of image objects based on chained reference points, gradient characterization, and pre-stored indicators of environmental lighting conditions
KR102238775B1 (ko) 2014-02-10 2021-04-09 삼성전자주식회사 전자 장치에서 증강 현실을 이용한 장비 관리 장치 및 방법
WO2015123647A1 (en) 2014-02-14 2015-08-20 Nant Holdings Ip, Llc Object ingestion through canonical shapes, systems and methods
JP6382329B2 (ja) * 2014-02-18 2018-08-29 エルジー エレクトロニクス インコーポレイティド パノラマサービスのための放送信号送受信方法及び装置
US9396629B1 (en) 2014-02-21 2016-07-19 Apple Inc. Haptic modules with independently controllable vertical and horizontal mass movements
DE102014003331B4 (de) 2014-03-08 2022-04-07 Aissa Zouhri Sehhilfe für blinde oder sehbehinderte Menschen
US9613448B1 (en) 2014-03-14 2017-04-04 Google Inc. Augmented display of information in a device view of a display screen
US9594429B2 (en) 2014-03-27 2017-03-14 Apple Inc. Adjusting the level of acoustic and haptic output in haptic devices
US9489866B2 (en) 2014-04-30 2016-11-08 At&T Intellectual Property I, L.P. Acoustic representations of environments
US20170091208A1 (en) * 2014-05-13 2017-03-30 Dennis Quan Systems and methods for managing, sharing, and organizing information stored on multiple cloud services
US10133351B2 (en) 2014-05-21 2018-11-20 Apple Inc. Providing haptic output based on a determined orientation of an electronic device
US9613274B2 (en) 2014-05-22 2017-04-04 International Business Machines Corporation Identifying an obstacle in a route
US11184580B2 (en) 2014-05-22 2021-11-23 Microsoft Technology Licensing, Llc Automatically curating video to fit display time
US9355547B2 (en) 2014-05-22 2016-05-31 International Business Machines Corporation Identifying a change in a home environment
US9451178B2 (en) 2014-05-22 2016-09-20 Microsoft Technology Licensing, Llc Automatic insertion of video into a photo story
US9503644B2 (en) * 2014-05-22 2016-11-22 Microsoft Technology Licensing, Llc Using image properties for processing and editing of multiple resolution images
US10578449B2 (en) 2014-06-02 2020-03-03 Ent. Services Development Corporation Lp Waypoint navigator
US9886090B2 (en) 2014-07-08 2018-02-06 Apple Inc. Haptic notifications utilizing haptic input devices
CN104143213B (zh) * 2014-07-16 2017-05-31 北京卫星制造厂 一种基于视觉检测的导管自动识别方法
US10078971B2 (en) 2014-09-03 2018-09-18 Aria Tech Corporation Media streaming methods, apparatus and systems
US9443488B2 (en) 2014-10-14 2016-09-13 Digital Vision Enhancement Inc Image transforming vision enhancement device
CN104408418A (zh) * 2014-11-25 2015-03-11 苏州福丰科技有限公司 一种用于银行atm机的三维人脸识别装置
US9530058B2 (en) 2014-12-11 2016-12-27 Toyota Motor Engineering & Manufacturing North America, Inc. Visual-assist robots
US20160170508A1 (en) * 2014-12-11 2016-06-16 Toyota Motor Engineering & Manufacturing North America, Inc. Tactile display devices
WO2016109692A2 (en) * 2014-12-31 2016-07-07 Sling Media, Inc. Systems and methods for guiding a disabled individual
US9904504B2 (en) 2015-02-24 2018-02-27 Toyota Motor Engineering & Manufacturing North America, Inc. Systems and methods for providing environmental feedback based on received gestural input
JP6540108B2 (ja) * 2015-03-09 2019-07-10 富士通株式会社 画像生成方法、システム、装置、及び端末
EP3076660B1 (en) * 2015-03-31 2021-04-28 Xiaomi Inc. Method and apparatus for displaying framing information
CN104702848B (zh) * 2015-03-31 2019-02-12 小米科技有限责任公司 显示取景信息的方法及装置
US10582125B1 (en) * 2015-06-01 2020-03-03 Amazon Technologies, Inc. Panoramic image generation from video
WO2016203282A1 (en) 2015-06-18 2016-12-22 The Nielsen Company (Us), Llc Methods and apparatus to capture photographs using mobile devices
US9684984B2 (en) 2015-07-08 2017-06-20 Sage Software, Inc. Nearsighted camera object detection
US9785850B2 (en) * 2015-07-08 2017-10-10 Sage Software, Inc. Real time object measurement
US9659503B2 (en) 2015-07-14 2017-05-23 International Business Machines Corporation Ambulatory route management based on a personal drone
US20170024010A1 (en) 2015-07-21 2017-01-26 Apple Inc. Guidance device for the sensory impaired
CN105100346B (zh) * 2015-08-10 2018-02-02 京东方科技集团股份有限公司 盲文显示终端、系统及方法
CN105205782B (zh) * 2015-09-06 2019-08-16 京东方科技集团股份有限公司 超解像方法和系统、服务器、用户设备及其方法
EP3347842A4 (en) 2015-09-11 2019-06-19 Christophe Bossut SYSTEM AND METHOD FOR PROVIDING INTERACTIONS OF EXTENDED REALITY VIA PRINT MEDIA
US10113877B1 (en) * 2015-09-11 2018-10-30 Philip Raymond Schaefer System and method for providing directional information
CN105267013B (zh) * 2015-09-16 2017-11-07 电子科技大学 一种头戴式智能视障辅助系统
WO2017055890A1 (en) 2015-09-30 2017-04-06 The Nielsen Company (Us), Llc Interactive product auditing with a mobile device
US9892464B2 (en) 2015-10-08 2018-02-13 Blackbird Holdings, LLC System and method of real time detection of aerial vehicle flight patterns and insurance policy updates
US10282052B2 (en) 2015-10-15 2019-05-07 At&T Intellectual Property I, L.P. Apparatus and method for presenting information associated with icons on a display screen
US9846970B2 (en) * 2015-12-16 2017-12-19 Intel Corporation Transitioning augmented reality objects in physical and digital environments
US10772394B1 (en) 2016-03-08 2020-09-15 Apple Inc. Tactile output for wearable device
CN105825228B (zh) * 2016-03-14 2019-04-30 百度在线网络技术(北京)有限公司 图像识别方法及装置
US10187686B2 (en) 2016-03-24 2019-01-22 Daqri, Llc Recording remote expert sessions
US10306315B2 (en) * 2016-03-29 2019-05-28 International Business Machines Corporation Video streaming augmenting
US20170286383A1 (en) * 2016-03-30 2017-10-05 Microsoft Technology Licensing, Llc Augmented imaging assistance for visual impairment
US9942701B2 (en) 2016-04-07 2018-04-10 At&T Intellectual Property I, L.P. Apparatus and method for detecting objects and navigation
US10188580B2 (en) 2016-05-09 2019-01-29 Toyota Motor Engineering & Manufacturing North America, Inc. Systems and methods for providing environment information using an unmanned vehicle
US10585480B1 (en) 2016-05-10 2020-03-10 Apple Inc. Electronic device with an input device having a haptic engine
US9829981B1 (en) 2016-05-26 2017-11-28 Apple Inc. Haptic output device
EP3745390B1 (en) 2016-05-27 2023-10-04 Dolby Laboratories Licensing Corporation Transitioning between video priority and graphics priority
US9992429B2 (en) * 2016-05-31 2018-06-05 Microsoft Technology Licensing, Llc Video pinning
US10657674B2 (en) 2016-06-17 2020-05-19 Immersive Robotics Pty Ltd. Image compression method and apparatus
US10649529B1 (en) 2016-06-28 2020-05-12 Apple Inc. Modification of user-perceived feedback of an input device using acoustic or haptic output
US10845878B1 (en) 2016-07-25 2020-11-24 Apple Inc. Input device with tactile feedback
US20180033178A1 (en) * 2016-08-01 2018-02-01 Vernon Dwain Hutchins Method of Augmenting a Geospatially-Accurate Virtual Reality with Annotations
US10579879B2 (en) * 2016-08-10 2020-03-03 Vivint, Inc. Sonic sensing
US10037459B2 (en) 2016-08-19 2018-07-31 Sage Software, Inc. Real-time font edge focus measurement for optical character recognition (OCR)
US10372214B1 (en) 2016-09-07 2019-08-06 Apple Inc. Adaptable user-selectable input area in an electronic device
CN109691109B (zh) * 2016-09-23 2023-05-12 苹果公司 多视角成像系统和方法
US10436593B2 (en) * 2016-11-08 2019-10-08 Reem Jafar ALATAAS Augmented reality assistance system for the visually impaired
US11160688B2 (en) * 2016-11-10 2021-11-02 Samsung Electronics Co., Ltd. Visual aid display device and method of operating the same
WO2018092153A1 (en) * 2016-11-21 2018-05-24 Lonhari Parag Self-help navigation system for the visually impaired
KR102649720B1 (ko) * 2016-12-22 2024-03-20 에스케이플래닛 주식회사 정보안내장치 및 그 동작 방법
AU2018210222A1 (en) * 2017-01-17 2019-09-05 Blind InSites, LLC Devices, systems, and methods for navigation and usage guidance in a navigable space using wireless communication
CN106859929B (zh) * 2017-01-25 2019-11-22 上海集成电路研发中心有限公司 一种基于双目视觉的多功能导盲仪
AU2018217434C1 (en) 2017-02-08 2023-04-27 Immersive Robotics Pty Ltd Displaying content to users in a multiplayer venue
US10191979B2 (en) 2017-02-20 2019-01-29 Sas Institute Inc. Converting graphical data-visualizations into sonified output
US10437359B1 (en) 2017-02-28 2019-10-08 Apple Inc. Stylus with external magnetic influence
US11163379B2 (en) * 2017-04-05 2021-11-02 Telefonaktiebolaget Lm Ericsson (Publ) Illuminating an environment for localisation
US10321258B2 (en) 2017-04-19 2019-06-11 Microsoft Technology Licensing, Llc Emulating spatial perception using virtual echolocation
US11417091B2 (en) 2017-05-30 2022-08-16 Ptc Inc. Use of coordinated local user devices during a shared augmented reality session
KR20180131856A (ko) * 2017-06-01 2018-12-11 에스케이플래닛 주식회사 배송 물품 정보 제공 방법 및 이를 위한 장치
NL2019059B1 (en) * 2017-06-13 2018-12-19 Maritime Medical Applications B V Wireless communication system for remote medical assistance
US10775889B1 (en) 2017-07-21 2020-09-15 Apple Inc. Enclosure with locally-flexible regions
US10299982B2 (en) * 2017-07-21 2019-05-28 David M Frankel Systems and methods for blind and visually impaired person environment navigation assistance
TWI653854B (zh) 2017-08-01 2019-03-11 宏碁股份有限公司 終端裝置維護系統與終端裝置維護方法
US10444840B2 (en) 2017-08-30 2019-10-15 Disney Enterprises, Inc. Systems and methods to synchronize visual effects and haptic feedback for interactive experiences
US10768747B2 (en) 2017-08-31 2020-09-08 Apple Inc. Haptic realignment cues for touch-input displays
US10970545B1 (en) * 2017-08-31 2021-04-06 Amazon Technologies, Inc. Generating and surfacing augmented reality signals for associated physical items
US11054932B2 (en) 2017-09-06 2021-07-06 Apple Inc. Electronic device having a touch sensor, force sensor, and haptic actuator in an integrated module
US10366291B2 (en) * 2017-09-09 2019-07-30 Google Llc Systems, methods, and apparatus for providing image shortcuts for an assistant application
US10556252B2 (en) 2017-09-20 2020-02-11 Apple Inc. Electronic device having a tuned resonance haptic actuation system
US10768738B1 (en) 2017-09-27 2020-09-08 Apple Inc. Electronic device having a haptic actuator with magnetic augmentation
CN107833503B (zh) * 2017-11-10 2019-10-29 广东电网有限责任公司教育培训评价中心 配网核心作业增强现实仿真培训系统
CN111837384A (zh) 2017-11-21 2020-10-27 因默希弗机器人私人有限公司 用于图像压缩的频率分量选择
US11153604B2 (en) 2017-11-21 2021-10-19 Immersive Robotics Pty Ltd Image compression for digital reality
KR102047988B1 (ko) * 2017-12-14 2019-11-22 주식회사 코이노 시력 취약계층을 위한 시력 보조장치와 원격관리장치 및 시력 보조방법
US10225621B1 (en) 2017-12-20 2019-03-05 Dish Network L.L.C. Eyes free entertainment
CN109984911B (zh) * 2017-12-30 2021-10-08 深圳多哚新技术有限责任公司 一种具有虚拟现实功能的按摩设备及其控制方法
FR3076709B1 (fr) * 2018-01-12 2019-12-20 Esthesix Dispositif et procede de communication d'informations sonores a un utilisateur en realite augmentee
WO2019138186A1 (fr) * 2018-01-12 2019-07-18 Esthesix Dispositif et procede ameliores de communication d'informations sonores a un utilisateur en realite augmentee
TW201937452A (zh) * 2018-03-01 2019-09-16 緯創資通股份有限公司 定位系統及方法及電腦可讀取儲存媒體
US10803610B2 (en) 2018-03-06 2020-10-13 At&T Intellectual Property I, L.P. Collaborative visual enhancement devices
US10733448B2 (en) 2018-03-15 2020-08-04 Microsoft Technology Licensing, Llc Machine learning of context data for social and contextual scene inferences
CN108519676B (zh) * 2018-04-09 2020-04-28 杭州瑞杰珑科技有限公司 一种头戴式助视装置
US11501498B2 (en) * 2018-05-08 2022-11-15 Disney Enterprises, Inc. Augmented reality image generation
US11036391B2 (en) 2018-05-16 2021-06-15 Universal Studios LLC Haptic feedback systems and methods for an amusement park ride
US10909372B2 (en) * 2018-05-28 2021-02-02 Microsoft Technology Licensing, Llc Assistive device for the visually-impaired
US10636190B2 (en) 2018-05-31 2020-04-28 Robert Bosch Gmbh Methods and systems for exploiting per-pixel motion conflicts to extract primary and secondary motions in augmented reality systems
US10942571B2 (en) 2018-06-29 2021-03-09 Apple Inc. Laptop computing device with discrete haptic regions
US10936071B2 (en) 2018-08-30 2021-03-02 Apple Inc. Wearable electronic device with haptic rotatable input
US10387114B1 (en) * 2018-09-16 2019-08-20 Manouchehr Shahbaz System to assist visually impaired user
US10613678B1 (en) 2018-09-17 2020-04-07 Apple Inc. Input device with haptic feedback
CN115686333A (zh) * 2018-09-24 2023-02-03 谷歌有限责任公司 用于控制物联网设备的方法、系统和计算机可读介质
US10966007B1 (en) 2018-09-25 2021-03-30 Apple Inc. Haptic output system
US10549198B1 (en) * 2018-10-30 2020-02-04 Niantic, Inc. Verifying a player's real world location using image data of a landmark corresponding to a verification pathway
US11287526B2 (en) * 2018-11-21 2022-03-29 Microsoft Technology Licensing, Llc Locating spatialized sounds nodes for echolocation using unsupervised machine learning
US10848335B1 (en) * 2018-12-11 2020-11-24 Amazon Technologies, Inc. Rule-based augmentation of a physical environment
US10803669B1 (en) 2018-12-11 2020-10-13 Amazon Technologies, Inc. Rule-based augmentation of a physical environment
CN109808711B (zh) * 2018-12-25 2020-07-07 南京师范大学 自动驾驶车辆控制方法及系统、自动驾驶车辆及视觉假体
US10943116B2 (en) * 2019-02-22 2021-03-09 International Business Machines Corporation Translation to braille
US10659848B1 (en) * 2019-03-21 2020-05-19 International Business Machines Corporation Display overlays for prioritization of video subjects
US10931916B2 (en) 2019-04-24 2021-02-23 Sorenson Ip Holdings, Llc Apparatus, method and computer-readable medium for automatically adjusting the brightness of a videophone visual indicator
US11164382B2 (en) 2019-05-21 2021-11-02 International Business Machines Corporation Alteration of a virtual reality simulation
US11017017B2 (en) * 2019-06-04 2021-05-25 International Business Machines Corporation Real-time vision assistance
CN110536066B (zh) * 2019-08-09 2021-06-29 润博全景文旅科技有限公司 一种全景相机拍摄方法、装置、电子设备及存储介质
CN110474979B (zh) * 2019-08-13 2022-06-21 北京软通绿城科技有限公司 一种远程协助系统、方法、平台及存储介质
US11175809B2 (en) 2019-08-19 2021-11-16 Capital One Services, Llc Detecting accessibility patterns to modify the user interface of an application
US11637921B2 (en) * 2019-09-09 2023-04-25 Motorola Mobility Llc Enabling vibration notification based on environmental noise
WO2021183615A1 (en) * 2020-03-10 2021-09-16 Tactile Solutions, Inc. Rfid tag in display adapter
US11734796B2 (en) * 2020-04-15 2023-08-22 Gopro, Inc. Methods and apparatus for shared image processing among multiple devices
US11804006B2 (en) * 2020-06-03 2023-10-31 Disney Enterprises, Inc. Enhanced vision system and method
US11024135B1 (en) 2020-06-17 2021-06-01 Apple Inc. Portable electronic device having a haptic button assembly
WO2022020344A1 (en) * 2020-07-21 2022-01-27 The Penn State Research Foundation Augmented reality hand guidance application for people with visual impairments
FR3112885B1 (fr) * 2020-07-21 2022-09-09 N Vibe Système d’informations pour un utilisateur déficient visuel et procédé associé
US11353954B2 (en) * 2020-08-26 2022-06-07 Tectus Corporation Operating an electronic contact lens based on recognized objects in captured images
US11687582B2 (en) * 2020-08-27 2023-06-27 Shopify Inc. Automated image-based inventory record generation systems and methods
NL2026677B1 (en) 2020-10-15 2022-06-14 B V Maritime Medical Applications Wireless communication system for medical assistance
KR102429216B1 (ko) * 2020-12-22 2022-08-05 엑스퍼트아이엔씨 주식회사 스마트 글라스를 이용하여 시각 장애인의 원격 지원 서비스를 제공하기 위한 장치 및 방법
JP2022107967A (ja) * 2021-01-12 2022-07-25 トヨタ自動車株式会社 歩行支援システム
US11769323B2 (en) 2021-02-02 2023-09-26 Google Llc Generating assistive indications based on detected characters
US20220309755A1 (en) * 2021-03-24 2022-09-29 Wormhole Labs, Inc. Systems and methods of implementing real-world ambient variance in augmented environments
KR20230172460A (ko) * 2021-04-14 2023-12-22 텔레이그지스턴스 인크. 데이터 처리 장치, 데이터 처리 방법, 프로그램 및 데이터 처리 시스템
CN113315952B (zh) * 2021-06-02 2023-05-05 云南电网有限责任公司电力科学研究院 一种配电网作业现场安全监控方法及系统
WO2023196850A2 (en) * 2022-04-06 2023-10-12 Fusefx Corporation System and method for providing dynamic backgrounds in live-action videography
CN115686292B (zh) * 2023-01-03 2023-07-25 京东方艺云(杭州)科技有限公司 一种信息显示的方法、装置、电子设备及存储介质

Family Cites Families (128)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS59164692A (ja) 1983-03-10 1984-09-17 Nippon Hoso Kyokai <Nhk> 酸化物単結晶の製造方法
US7721307B2 (en) 1992-12-09 2010-05-18 Comcast Ip Holdings I, Llc Method and apparatus for targeting of interactive virtual objects
US5815411A (en) 1993-09-10 1998-09-29 Criticom Corporation Electro-optic vision system which exploits position and attitude
JPH06276526A (ja) * 1993-03-22 1994-09-30 Hitachi Denshi Ltd カラー着順およびタイム判定装置
US5625765A (en) 1993-09-03 1997-04-29 Criticom Corp. Vision systems including devices and methods for combining images for extended magnification schemes
US7301536B2 (en) 1993-09-10 2007-11-27 Geovector Corporation Electro-optic vision systems
US6064398A (en) 1993-09-10 2000-05-16 Geovector Corporation Electro-optic vision systems
US6278461B1 (en) 1993-09-10 2001-08-21 Geovector Corporation Augmented reality vision systems which derive image information from other vision systems
US6037936A (en) 1993-09-10 2000-03-14 Criticom Corp. Computer vision system with a graphic user interface and remote camera control
US5982853A (en) 1995-03-01 1999-11-09 Liebermann; Raanan Telephone for the deaf and method of using same
US6535210B1 (en) 1995-06-07 2003-03-18 Geovector Corp. Vision system computer modeling apparatus including interaction with real scenes with respect to perspective and spatial relationship as measured in real-time
US6804726B1 (en) 1996-05-22 2004-10-12 Geovector Corporation Method and apparatus for controlling electrical devices in response to sensed conditions
WO1997044737A1 (en) 1996-05-22 1997-11-27 Geovector Corporation Mehtod and apparatus for controlling electrical devices in response to sensed conditions
US6064749A (en) * 1996-08-02 2000-05-16 Hirota; Gentaro Hybrid tracking for augmented reality using both camera motion detection and landmark tracking
AU8278298A (en) 1997-06-24 1999-01-04 Geovector Corporation Technique for time manipulation of multi-channel transmission system
US8432414B2 (en) 1997-09-05 2013-04-30 Ecole Polytechnique Federale De Lausanne Automated annotation of a view
AU2971499A (en) 1998-02-18 1999-09-06 Geovector Corporation Apparatus and methods for presentation of information relating to objects being addressed
WO1999049668A2 (en) 1998-03-25 1999-09-30 Geovector Corporation High performance single direction wireless transmission systems and technique
US6486908B1 (en) * 1998-05-27 2002-11-26 Industrial Technology Research Institute Image-based method and system for building spherical panoramas
US6173239B1 (en) 1998-09-30 2001-01-09 Geo Vector Corporation Apparatus and methods for presentation of information relating to objects being addressed
US6262818B1 (en) 1998-10-07 2001-07-17 Institute Of Applied Optics, Swiss Federal Institute Of Technology Method for simultaneous amplitude and quantitative phase contrast imaging by numerical reconstruction of digital holograms
BE1012272A5 (fr) 1998-11-06 2000-08-01 Biophotonics Sa Dispositif et procede de mesure d'images colorees.
JP2000350865A (ja) 1999-06-11 2000-12-19 Mr System Kenkyusho:Kk 複合現実空間のゲーム装置、その画像処理方法およびプログラム記憶媒体
US6396475B1 (en) 1999-08-27 2002-05-28 Geo Vector Corp. Apparatus and methods of the remote address of objects
US6522292B1 (en) 2000-02-23 2003-02-18 Geovector Corp. Information systems having position measuring capacity
WO2001071282A1 (en) 2000-03-16 2001-09-27 Geovector Corporation Information systems having directional interference facility
US20040103139A1 (en) * 2000-03-30 2004-05-27 United Devices, Inc. Distributed processing system having sensor based data collection and associated method
AU2001276373A1 (en) 2000-07-03 2002-01-14 Ecole Polytechnique Federale De Lausanne (Epfl) Method and wireless terminal for generating and maintaining a relative positioning system
JP2002098548A (ja) * 2000-09-22 2002-04-05 Casio Comput Co Ltd ガイド情報送信装置及び記録媒体
US8113657B2 (en) 2000-10-07 2012-02-14 Metaio Gmbh Device and method for determining the orientation of an eye
AU2002221662A1 (en) 2000-10-07 2002-04-29 Physoptics Opto-Electronic Gmbh Information system and method for providing information using a holographic element
US7016532B2 (en) 2000-11-06 2006-03-21 Evryx Technologies Image capture and identification system and process
US7181407B1 (en) 2000-11-06 2007-02-20 International Business Machines Corporation Network of portable, wireless communication devices
US7031875B2 (en) 2001-01-24 2006-04-18 Geo Vector Corporation Pointing systems for addressing objects
DE10103922A1 (de) 2001-01-30 2002-08-01 Physoptics Opto Electronic Gmb Interaktives Datensicht- und Bediensystem
WO2002073818A1 (en) 2001-03-13 2002-09-19 Geovector Corporation Systems for providing point-to-call functionality
US7206434B2 (en) * 2001-07-10 2007-04-17 Vistas Unlimited, Inc. Method and system for measurement of the duration an area is included in an image stream
US6945930B2 (en) * 2001-08-31 2005-09-20 Olympus Corporation Environment adaptable measurement endoscope
JP2003214888A (ja) * 2002-01-22 2003-07-30 Matsushita Electric Ind Co Ltd 視覚障害者誘導システム並びにそれに用いられる無線携帯端末および通信装置
US20050009608A1 (en) 2002-05-13 2005-01-13 Consolidated Global Fun Unlimited Commerce-enabled environment for interacting with simulated phenomena
FR2842977A1 (fr) 2002-07-24 2004-01-30 Total Immersion Procede et systeme permettant a un utilisateur de melanger en temps reel des images de synthese avec des images video
US7916152B2 (en) 2002-11-01 2011-03-29 Tenebraex Corporaton Technique for enabling color blind persons to distinguish between various colors
US20040174434A1 (en) 2002-12-18 2004-09-09 Walker Jay S. Systems and methods for suggesting meta-information to a camera user
SE0203908D0 (sv) 2002-12-30 2002-12-30 Abb Research Ltd An augmented reality system and method
US20040183918A1 (en) * 2003-03-20 2004-09-23 Eastman Kodak Company Producing enhanced photographic products from images captured at known picture sites
US20040215612A1 (en) 2003-04-28 2004-10-28 Moshe Brody Semi-boolean arrangement, method, and system for specifying and selecting data objects to be retrieved from a collection
US7339493B2 (en) * 2003-07-10 2008-03-04 University Of Florida Research Foundation, Inc. Multimedia controller
JP2005160064A (ja) * 2003-11-06 2005-06-16 Ad Step:Kk 歩行支援システムとこのシステムで使用する携帯端末機及びアダプタ装置
US20050208457A1 (en) * 2004-01-05 2005-09-22 Wolfgang Fink Digital object recognition audio-assistant for the visually impaired
US7289147B2 (en) * 2004-02-03 2007-10-30 Hewlett-Packard Development Company, L.P. Method for providing image alignment feedback for panorama (composite) images in digital cameras using edge detection
CA2559726C (en) * 2004-03-24 2015-10-20 A9.Com, Inc. System and method for displaying images in an online directory
US7659915B2 (en) 2004-04-02 2010-02-09 K-Nfb Reading Technology, Inc. Portable reading device with mode processing
US7627142B2 (en) * 2004-04-02 2009-12-01 K-Nfb Reading Technology, Inc. Gesture processing with low resolution images with high resolution processing for optical character recognition for a reading machine
US8036895B2 (en) 2004-04-02 2011-10-11 K-Nfb Reading Technology, Inc. Cooperative processing for portable reading machine
WO2005108926A1 (ja) * 2004-05-12 2005-11-17 Takashi Yoshimine 情報処理装置、携帯機器及び情報処理方法
US20070182812A1 (en) 2004-05-19 2007-08-09 Ritchey Kurtis J Panoramic image-based virtual reality/telepresence audio-visual system and method
US20060024647A1 (en) 2004-07-30 2006-02-02 France Telecom Method and apparatus for communicating graphical information to a visually impaired person using haptic feedback
US7627194B2 (en) * 2004-08-13 2009-12-01 Samsung Electronics Co., Ltd. Method and device for making virtual image region for motion estimation and compensation of panorama image
JP2006065517A (ja) * 2004-08-25 2006-03-09 Nippon Telegr & Teleph Corp <Ntt> 実空間情報付加装置、方法及びプログラム
US20060129308A1 (en) 2004-12-10 2006-06-15 Lawrence Kates Management and navigation system for the blind
DE102005009110A1 (de) 2005-01-13 2006-07-27 Siemens Ag Vorrichtung zur Vermittlung von Umgebungsinformationen an einen sehbehinderten Menschen
JP4553362B2 (ja) * 2005-01-31 2010-09-29 キヤノン株式会社 システム、画像処理装置、情報処理方法
US20060190812A1 (en) 2005-02-22 2006-08-24 Geovector Corporation Imaging systems including hyperlink associations
US20060223635A1 (en) 2005-04-04 2006-10-05 Outland Research method and apparatus for an on-screen/off-screen first person gaming experience
US7460884B2 (en) * 2005-06-29 2008-12-02 Microsoft Corporation Data buddy
US7424218B2 (en) 2005-07-28 2008-09-09 Microsoft Corporation Real-time preview for panoramic images
FR2889761A1 (fr) 2005-08-09 2007-02-16 Total Immersion Sa Systeme permettant a un utilisateur de localiser une camera afin de pouvoir inserer, rapidement de maniere ajustee, des images d'elements virtuels dans des images video d'elements reels captees par la camera
JP4677633B2 (ja) * 2005-09-09 2011-04-27 学校法人東海大学 匂い提示システム
TWI300347B (en) 2005-11-03 2008-09-01 Ind Tech Res Inst Frid method for guiding visually handicapped
DE102005061952B4 (de) 2005-12-23 2008-09-11 Metaio Gmbh Verfahren und System zur Bestimmung einer Ungenauigkeitsinformation in einem Augmented Reality System
DE102006005044B4 (de) 2006-02-03 2011-01-27 Metaio Gmbh Verfahren und System zur Bestimmung eines Datenmodells zur Überlagerung mit einem realen Objekt in einem Verfahren zur Objektverfolgung
US8068644B2 (en) 2006-03-07 2011-11-29 Peter Thomas Tkacik System for seeing using auditory feedback
US7864991B2 (en) * 2006-04-06 2011-01-04 Espre Solutions Inc. System and method for assisting a visually impaired individual
US7907702B2 (en) 2006-08-04 2011-03-15 Inter-Tel (Delaware), Inc Communication device for visually impaired persons
ITMI20062325A1 (it) 2006-12-04 2008-06-05 Mario Quintilio Apparecchiatura multifunzionale per portatori di handicap visivo
US8843385B2 (en) 2006-12-11 2014-09-23 Ecole Polytechnique Federale De Lausanne (Epfl) Quality of service monitoring of a service level agreement using a client based reputation mechanism encouraging truthful feedback
FR2911211B1 (fr) 2007-01-05 2009-06-12 Total Immersion Sa Procede et dispositifs pour inserer en temps reel des objets virtuels dans un flux d'images a partir de donnees issues de la scene reelle representee par ces images
FR2911463B1 (fr) 2007-01-12 2009-10-30 Total Immersion Sa Dispositif d'observation de realite augmentee temps reel et procede de mise en oeuvre d'un dispositif
FR2911708B1 (fr) 2007-01-22 2009-07-10 Total Immersion Sa Procede et dispositif de creation d'au moins deux images cles correspondant a un objet tridimensionnel.
FR2911707B1 (fr) 2007-01-22 2009-07-10 Total Immersion Sa Procede et dispositifs de realite augmentee utilisant un suivi automatique, en temps reel, d'objets geometriques planaires textures, sans marqueur, dans un flux video.
US20080198222A1 (en) * 2007-02-02 2008-08-21 Sanjay Gowda System and method for tele-presence
US20080198159A1 (en) * 2007-02-16 2008-08-21 Matsushita Electric Industrial Co., Ltd. Method and apparatus for efficient and flexible surveillance visualization with context sensitive privacy preserving and power lens data mining
FR2913128B1 (fr) 2007-02-23 2009-08-28 Total Immersion Sa Procede et dispositif de determination de la pose d'un objet tridimensionnel dans une image et procede et dispositif de creation d'au moins une image cle
NO327279B1 (no) 2007-05-22 2009-06-02 Metaio Gmbh Kamerapositurestimeringsanordning og- fremgangsmate for foroket virkelighetsavbildning
NZ555918A (en) 2007-06-15 2008-07-31 L & D Technology Ltd Orientation system and method
US8358840B2 (en) * 2007-07-16 2013-01-22 Alexander Bronstein Methods and systems for representation and matching of video content
DE102007033486B4 (de) 2007-07-18 2010-06-17 Metaio Gmbh Verfahren und System zur Vermischung eines virtuellen Datenmodells mit einem von einer Kamera oder einer Darstellungsvorrichtung generierten Abbild
DE102007045835B4 (de) 2007-09-25 2012-12-20 Metaio Gmbh Verfahren und Vorrichtung zum Darstellen eines virtuellen Objekts in einer realen Umgebung
DE102007045834B4 (de) 2007-09-25 2012-01-26 Metaio Gmbh Verfahren und Vorrichtung zum Darstellen eines virtuellen Objekts in einer realen Umgebung
KR20090036183A (ko) * 2007-10-09 2009-04-14 슬림디스크 주식회사 카메라센서로 찍은 문서 이미지를 시각장애인에게 음성으로알려주는 방법 및 장치
US8064641B2 (en) 2007-11-07 2011-11-22 Viewdle Inc. System and method for identifying objects in video
US8315430B2 (en) 2007-11-07 2012-11-20 Viewdle Inc. Object recognition and database population for video indexing
EP2223208A2 (en) 2007-11-15 2010-09-01 Desknet SA Method enabling a computer apparatus run by an operating system to execute software modules
US8064653B2 (en) 2007-11-29 2011-11-22 Viewdle, Inc. Method and system of person identification by facial image
US7814061B2 (en) 2008-01-24 2010-10-12 Eastman Kodak Company Method for preserving privacy with image capture
EP2255524B1 (en) 2008-03-14 2019-05-08 Apple Inc. Method and system for displaying an image generated by at least one camera
FR2928803B1 (fr) 2008-03-14 2012-03-30 Alcatel Lucent Fourniture de services a partir d'objets filmes ou photographies depuis un terminal mobile.
JP2009237878A (ja) 2008-03-27 2009-10-15 Dainippon Printing Co Ltd 複合映像生成システム、重畳態様決定方法、映像処理装置及び映像処理プログラム
EP2283383B1 (en) 2008-04-11 2013-07-17 École Polytechnique Fédérale de Lausanne (EPFL) Time-of-flight based imaging system using a display as illumination source
US8010327B2 (en) 2008-04-25 2011-08-30 Total Immersion Software, Inc. Composite assets for use in multiple simulation environments
WO2009136989A1 (en) 2008-05-09 2009-11-12 Ecole Polytechnique Federale De Lausanne Image sensor having nonlinear response
PT104120B (pt) 2008-06-30 2010-11-23 Metro Do Porto S A Sistema de orientação, navegação e informação especialmente adaptado para pessoas cegas ou amblíopes
FR2933218B1 (fr) 2008-06-30 2011-02-11 Total Immersion Procede et dispositif permettant de detecter en temps reel des interactions entre un utilisateur et une scene de realite augmentee
US9191238B2 (en) * 2008-07-23 2015-11-17 Yahoo! Inc. Virtual notes in a reality overlay
US9824495B2 (en) * 2008-09-11 2017-11-21 Apple Inc. Method and system for compositing an augmented reality scene
US8150169B2 (en) 2008-09-16 2012-04-03 Viewdle Inc. System and method for object clustering and identification in video
US20100145479A1 (en) * 2008-10-09 2010-06-10 G2 Software Systems, Inc. Wireless Portable Sensor Monitoring System
US8675965B2 (en) 2008-11-10 2014-03-18 Metaio Gmbh Method and system for analyzing an image generated by at least one camera
US20100127971A1 (en) 2008-11-21 2010-05-27 Geovector Corp. Methods of rendering graphical images
WO2010060440A2 (en) 2008-11-25 2010-06-03 Metaio Gmbh Computer-implemented method for providing location related content to a mobile device
US9501618B1 (en) * 2009-02-03 2016-11-22 Brooke Erin Wurst Systems, methods and devices for anonymously collecting personal data using a mobile device
US8970690B2 (en) 2009-02-13 2015-03-03 Metaio Gmbh Methods and systems for determining the pose of a camera with respect to at least one object of a real environment
FR2946439A1 (fr) 2009-06-08 2010-12-10 Total Immersion Procedes et dispositifs d'identification d'objets reels, de suivi de la representation de ces objets et de realite augmentee, dans une sequence d'images, en mode client-serveur
FR2946446B1 (fr) 2009-06-08 2011-07-15 Total Immersion Procede et dispositif de suivi d'objets en temps reel dans une sequence d'images en presence de flou optique
FR2946444B1 (fr) 2009-06-08 2012-03-30 Total Immersion Procede et dispositif de calibration d'un capteur d'images utilisant un systeme temps reel de suivi d'objets dans une sequence d'images
US8943420B2 (en) * 2009-06-18 2015-01-27 Microsoft Corporation Augmenting a field of view
US8159373B2 (en) 2009-07-28 2012-04-17 Ecole Polytechnique Federale De Lausanne (Epfl) Encoding and decoding information
WO2011012158A1 (en) 2009-07-28 2011-02-03 Ecole Polytechnique Federale De Lausanne Encoding and decoding of information
ES2399636T3 (es) 2009-07-29 2013-04-02 Metaio Gmbh Método para determinar la postura de una cámara con respecto a por lo menos un objeto real
DE102009037835B4 (de) 2009-08-18 2012-12-06 Metaio Gmbh Verfahren zur Darstellung von virtueller Information in einer realen Umgebung
US8228413B2 (en) 2009-09-01 2012-07-24 Geovector Corp. Photographer's guidance systems
DE102009049073A1 (de) 2009-10-12 2011-04-21 Metaio Gmbh Verfahren zur Darstellung von virtueller Information in einer Ansicht einer realen Umgebung
DE102009049849B4 (de) 2009-10-19 2020-09-24 Apple Inc. Verfahren zur Bestimmung der Pose einer Kamera, Verfahren zur Erkennung eines Objekts einer realen Umgebung und Verfahren zur Erstellung eines Datenmodells
US20110103500A1 (en) 2009-10-30 2011-05-05 Qualcomm Incorporated Methods and apparatus for estimating a sparse channel
US9766089B2 (en) * 2009-12-14 2017-09-19 Nokia Technologies Oy Method and apparatus for correlating and navigating between a live image and a prerecorded panoramic image
US8699991B2 (en) * 2010-01-20 2014-04-15 Nokia Corporation Method and apparatus for customizing map presentations based on mode of transport
US8902254B1 (en) * 2010-09-02 2014-12-02 The Boeing Company Portable augmented reality
US20130159454A1 (en) * 2011-12-16 2013-06-20 Motorola Mobility, Inc. Customizing distribution of data from a sensor network data

Also Published As

Publication number Publication date
KR101487944B1 (ko) 2015-01-30
JP2013520757A (ja) 2013-06-06
CN102906810B (zh) 2015-03-18
US20200152083A1 (en) 2020-05-14
US20140218493A1 (en) 2014-08-07
WO2011106520A1 (en) 2011-09-01
KR20130039720A (ko) 2013-04-22
KR20150008840A (ko) 2015-01-23
US11348480B2 (en) 2022-05-31
US8605141B2 (en) 2013-12-10
CN102906810A (zh) 2013-01-30
US20220270512A1 (en) 2022-08-25
EP2539883A1 (en) 2013-01-02
US20170069227A1 (en) 2017-03-09
US9526658B2 (en) 2016-12-27
US20110216179A1 (en) 2011-09-08
US10535279B2 (en) 2020-01-14

Similar Documents

Publication Publication Date Title
US11348480B2 (en) Augmented reality panorama systems and methods
US9159169B2 (en) Image display apparatus, imaging apparatus, image display method, control method for imaging apparatus, and program
US10715762B2 (en) Method and apparatus for providing image service
US20190333478A1 (en) Adaptive fiducials for image match recognition and tracking
KR101917648B1 (ko) 단말 및 그 제어 방법
US20160057218A1 (en) Method, system, computer program, and apparatus for augmenting media based on proximity detection
WO2018066191A1 (ja) サーバ、クライアント端末、制御方法、および記憶媒体
KR101929875B1 (ko) 실시간 현장 동영상 중계를 이용한 시각장애인 안내 서비스 제공 방법
JP2014023158A (ja) 映像提供システム及びその方法
KR20120086810A (ko) 단말기 및 그 단말기에서 이미지 처리 방법
US20170116472A1 (en) Control system, control method and computer program product
CN107005629A (zh) 信息处理装置、信息处理方法和程序
CN108920113A (zh) 视频帧图像打印方法、装置及计算机可读存储介质
JP6359704B2 (ja) イベントに関連付けられる情報を人に供給するための方法
WO2021115483A1 (zh) 一种图像处理方法及相关装置
WO2020216096A1 (zh) 一种视频编辑方法及电子设备
CN114982218A (zh) 具有自动对象选择的用于远程图像捕获的装置和方法
CN104062758B (zh) 图像显示的方法和显示设备
CN100414973C (zh) 物体感知方法和相关的感知设备
CN112989092A (zh) 一种图像处理方法及相关装置
JP2010277441A (ja) 携帯端末および顔識別システム
US20190116214A1 (en) Method and system for taking pictures on real time dynamic basis
JP2018206396A (ja) ストリートビューワーシステム

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140115

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140128

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20140425

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20140507

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140724

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150203

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150303

R150 Certificate of patent or registration of utility model

Ref document number: 5709906

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250