JP2019520012A - 手持ち式装置のエッジカメラアセンブリを有するシステム及び方法 - Google Patents

手持ち式装置のエッジカメラアセンブリを有するシステム及び方法 Download PDF

Info

Publication number
JP2019520012A
JP2019520012A JP2019510483A JP2019510483A JP2019520012A JP 2019520012 A JP2019520012 A JP 2019520012A JP 2019510483 A JP2019510483 A JP 2019510483A JP 2019510483 A JP2019510483 A JP 2019510483A JP 2019520012 A JP2019520012 A JP 2019520012A
Authority
JP
Japan
Prior art keywords
image
image sensor
communication device
portable communication
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019510483A
Other languages
English (en)
Inventor
コーエン アモス
コーエン アモス
Original Assignee
スマート サード−アイ リミティド
スマート サード−アイ リミティド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from US15/220,418 external-priority patent/US20170323159A1/en
Application filed by スマート サード−アイ リミティド, スマート サード−アイ リミティド filed Critical スマート サード−アイ リミティド
Publication of JP2019520012A publication Critical patent/JP2019520012A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/183Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72403User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/51Housings
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06GANALOGUE COMPUTERS
    • G06G1/00Hand manipulated computing devices
    • G06G1/16Hand manipulated computing devices in which a straight or curved line has to be drawn through related points on one or more families of curves
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/02Constructional features of telephone sets
    • H04M1/0202Portable telephone sets, e.g. cordless phones, mobile phones or bar type handsets
    • H04M1/026Details of the structure or mounting of specific components
    • H04M1/0264Details of the structure or mounting of specific components for a camera module assembly
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/45Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from two or more image sensors being of different type or operating in different modes, e.g. with a CMOS sensor for moving images in combination with a charge-coupled device [CCD] for still images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/54Mounting of pick-up tubes, electronic image sensors, deviation or focusing coils
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/57Mechanical or electrical details of cameras or camera modules specially adapted for being embedded in other devices
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/633Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera
    • H04N23/635Region indicators; Field of view indicators
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/44Receiver circuitry for the reception of television signals according to analogue transmission standards
    • H04N5/445Receiver circuitry for the reception of television signals according to analogue transmission standards for displaying additional information
    • H04N5/44504Circuit details of the additional information generator, e.g. details of the character or graphics signal generator, overlay mixing circuits
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2250/00Details of telephonic subscriber devices
    • H04M2250/22Details of telephonic subscriber devices including a touch pad, a touch sensor or a touch detector
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2250/00Details of telephonic subscriber devices
    • H04M2250/52Details of telephonic subscriber devices including functional features of a camera

Landscapes

  • Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Hardware Design (AREA)
  • Computer Graphics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Studio Devices (AREA)
  • Telephone Function (AREA)
  • Telephone Set Structure (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】ユーザの前方の環境のリアルタイム画像を取得及び表示するシステム及び方法を開示する。
【解決手段】一つの実現において、上向きの表示面及び反対側の下側面を有する、携帯装置のための画像取得ケーシングを提供する。ケーシングは、ハウジングと、携帯装置がハウジングによって保持されているときに下側面に対して一定の鈍角に向けられるように構成された少なくとも一つの光軸を有する少なくとも一つのイメージセンサと、を有してもよい。イメージセンサは、ユーザが歩行するときにユーザが歩行する面に対して鋭角に向けられ、少なくとも一つの光軸は、一般的にはユーザの歩行方向を向く。ケーシングは、表示面にリアルタイムの表示を行うために画像データを少なくとも一つのイメージセンサから伝送する回路を更に有する。
【選択図】図1B

Description

関連出願の相互参照
本願は、2016年5月7日に出願された米国特許仮出願第62/333,197号、2016年7月27日に出願された米国特許仮出願第15/220,418号、2016年11月23日に出願された米国特許仮出願第62/425,741号及び2016年12月15日に出願された米国特許仮出願第62/434,695号の優先権の利益を主張する。上記の出願の全ては、参照により全体がここに組み込まれる。
本開示は、一般的には、手持ち式携帯通信装置における画像取得に関し、更に詳しくは、ユーザの前方の環境のリアルタイム画像の取得及び表示を行うシステム及び方法に関する。
携帯通信装置は、現代の日常生活に普及している。携帯通信装置が人々の間の音声通信を行う通信装置として最初は考えられたとしても、携帯通信装置は、オンラインデータサービスにおける人々の相互のやり取り、通信及び活動の中心となりつつある。ユーザの注意が携帯通信装置のスクリーンに向けられたときにユーザが周囲の環境から離れるのが一般的な状況である。
この状況は、多くの人々が通りの歩行のような他の活動を行う間に携帯通信装置を用いるので危険であると予測される。例えば、携帯通信装置に文字を入力しながら通りを歩行する人々が街灯柱、水たまり及び接近する車両の通行に向かって歩いていくのが見られる。ユーザが携帯装置のスクリーンを通常見る角度が原因で、ユーザの周辺視野は、ユーザの歩行方向の障害を見つけるのに信頼を置くことができない。
さらに、個人用携帯通信装置は、拡張現実を生成するために現在用いられている。場合によっては、携帯通信装置にインストールされるアプリは、ユーザの環境のリアルタイムの景色の上にコンテンツを重ね合わせるために装置のGPS及びカメラを用いることがある。これらのアプリは、現実世界と仮想世界の両方に根差している合成表示を作成することができる。一例は、世界的な現象になるとともに2016年に最も用いられた高い収益のモバイルアプリの一つであった「ポケモン(登録商標)GO」アプリである。しかしながら、携帯通信装置におけるカメラの現在の配置は、ユーザの前方の環境を取得するために携帯通信装置を垂直に保持することを要求する。この姿勢は、長時間に亘って使用するときに不自然であり、歩行中に使用するのに適さない。
開示された装置及び方法は、携帯通信装置の自然な保持角度に合わせるとともに上述した問題の少なくとも一部を解決する、画像を取得する新たな方法を対象とする。
本開示による実施の形態は、手持ち式携帯通信装置において画像を取得する装置及び方法を提供する。一実施の形態において、上向きの表示面及び反対側の下側面を有する、手持ち式携帯通信装置のための画像取得ケーシングを提供する。画像取得ケーシングは、手持ち式携帯通信装置の少なくとも一部を包囲するハウジングを有してもよい。画像取得ケーシングは、ハウジングに搭載されるとともに手持ち式携帯通信装置がハウジングによって保持されているときに下側面に対して一定の鈍角に向けられるように構成された少なくとも一つの光軸を有する少なくとも一つのイメージセンサであって、少なくとも一つのイメージセンサは、ユーザが歩行するときにユーザが歩行する面に対して鋭角に向けられ、少なくとも一つの光軸は、一般的にはユーザの歩行方向を向く、少なくとも一つのイメージセンサを更に有してもよい。画像取得ケーシングは、表示面にリアルタイムの表示を行うために画像データを少なくとも一つのイメージセンサから伝送する回路を更に有してもよい。
本開示による実施の形態によれば、手持ち式携帯通信装置を提供する。手持ち式携帯通信装置は、ケーシングと、ケーシングの第1の側にある上向きの表示面と、ケーシングの第2の側にある、表示面の反対側にある下側面と、を有してもよい。手持ち式携帯通信装置は、ケーシングに搭載されるとともに下側面に対して一定の鈍角に向けられるように構成された少なくとも一つの光軸を有する少なくとも一つのイメージセンサであって、少なくとも一つのイメージセンサは、ケーシングが歩行中のユーザによって保持されるときにユーザが歩行する面に対して鋭角に向けられ、少なくとも一つの光軸は、一般的にはユーザの歩行方向を向く、少なくとも一つのイメージセンサを更に有してもよい。手持ち式携帯通信装置は、表示面にリアルタイムの表示を行うために画像データを少なくとも一つのイメージセンサから伝送する回路を更に有してもよい。
他の開示した実施の形態によれば、上向きの表示面及び反対側の下側面を有する、手持ち式携帯通信装置のための着脱自在ケースを提供する。着脱自在ケースは、手持ち式携帯通信装置の少なくとも一部を包囲するハウジングを有してもよい。着脱自在ケースは、手持ち式携帯通信装置がハウジングに据え付けられたときに手持ち式携帯通信装置のポートと電気的な接続を行うコネクタを有してもよい。さらに、着脱自在ケースは、ハウジングに搭載されるとともに手持ち式携帯通信装置がハウジングによって保持されているときに下側面に対して一定の鈍角に向けられるように構成された少なくとも一つの光軸を有する少なくとも一つのイメージセンサであって、少なくとも一つのイメージセンサは、ユーザが歩行するときにユーザが歩行する面に対して鋭角に向けられ、少なくとも一つの光軸は、一般的にはユーザの歩行方向を向く、少なくとも一つのイメージセンサを有してもよい。着脱自在ケースは、表示面にリアルタイムの表示を行うために画像データを少なくとも一つのイメージセンサから伝送する回路を更に有してもよい。
他の開示した実施の形態によれば、ユーザが表示情報に関わる間にユーザの前方の環境のリアルタイムの景色を表示する携帯装置を提供する。携帯装置は、一般的に中心軸平面を有するハウジングと、ハウジングの第1の側のタッチセンサー式ディスプレイと、第1の側の反対側にあるハウジングの第2の側の後部と、第1の側と第2の側の間の周辺端部面と、を有してもよい。携帯装置は、ハウジング内に固定され、ハウジングの第1の側、ハウジングの第2の側及び中心軸平面の各々に対して直角でない角度の固定された光軸を有する少なくとも一つのイメージセンサを更に有してもよい。
他の開示した実施の形態によれば、タッチセンサー式ディスプレイを有する携帯装置のための着脱自在ケースを提供する。着脱自在ケースは、携帯装置の少なくとも一部を包囲するハウジングであって、ハウジングは、第1の側と、第1の側の反対側にある第2の側と、第1の側及び第2の側と相互に連結するとともに一般的に中心軸平面を有する周辺端部面と、を有する、ハウジングを有してもよい。着脱自在ケースは、携帯装置がハウジングに据え付けられたときに携帯装置のポートと電気的な接続を行うコネクタを有してもよい。着脱自在ケースは、ハウジング内に固定され、ハウジングの第1の側、ハウジングの第2の側及び中心軸平面の各々に対して直角でない角度の固定された光軸を有する少なくとも一つのイメージセンサを有してもよい。着脱自在ケースは、タッチセンサー式ディスプレイの面にリアルタイムの表示を行うために画像データを少なくとも一つのイメージセンサから伝送する回路を更に有してもよい。
他の開示した実施の形態によれば、移動の順路を進む間に下方を見るユーザに拡張現実を提供するように構成された手持ち式携帯通信装置を提供する。手持ち式携帯通信装置は、上面、下面及び側端を有するハウジングと、上面に配置されたタッチセンサー式ディスプレイと、少なくとも一つのプロセッサと、を有してもよい。手持ち式携帯通信装置は、タッチセンサー式ディスプレイが下を見るユーザの顔に対向した状態で手持ち式携帯通信装置がユーザに保持されるような向きにハウジング内に固定して組み込まれたイメージセンサを有してもよい。少なくとも一つのプロセッサを、イメージセンサから画像ストリームを取得し、取得した画像ストリームにおけるユーザの移動の経路のオブジェクトを識別し、識別したオブジェクトについての情報を調べ、識別したオブジェクトを含む取得した画像ストリームをリアルタイムでタッチセンサー式ディスプレイに表示し、識別したオブジェクトに関連する視覚インジケータをタッチセンサー式ディスプレイに表示するようにプログラムしてもよい。
他の開示した実施の形態によれば、タッチセンサー式ディスプレイを有する手持ち式携帯通信装置のための着脱自在ケースを提供する。着脱自在ケースは、上面、下面及びこれらの間の端部を有するハウジングを有してもよい。着脱自在ケースは、少なくとも一つのイメージセンサであって、手持ち式携帯通信装置が着脱自在ケースに据え付けられるとともにタッチセンサー式ディスプレイが下を見るユーザの顔に対向する状態で下を見るユーザの手に保持されたときに、少なくとも一つのイメージセンサの光軸が一般的には移動の経路の方向に延在するような向きにハウジングに組み込まれる少なくとも一つのイメージセンサを有してもよい。着脱自在ケースは、手持ち式携帯通信装置がハウジングに据え付けられたときに手持ち式携帯通信装置のポートと電気的な接続を行うコネクタと、着脱自在ケースに組み込まれた少なくとも一つのコンデュイットであって、少なくとも一つのイメージセンサの間に延在するとともにコネクタによって少なくとも一つのイメージセンサに電気的に接続して少なくとも一つのイメージセンサから手持ち式携帯通信装置へのリアルタイム画像ストリームを可能にする、少なくとも一つのコンデュイットと、を有してもよい。さらに、着脱自在ケースは、視覚インジケータをリアルタイム画像ストリームに重ね合わせる少なくとも一つのプロセッサを有してもよい。
他の開示した実施の形態によれば、下を向いて手持ち式携帯通信装置のタッチセンサー式ディスプレイを見る間に移動の順路を進むユーザに拡張現実を提供する方法を提供する。方法は、イメージセンサから画像ストリームを取得することであって、手持ち式携帯通信装置が、タッチセンサー式ディスプレイが下を見るユーザの顔に対向する状態で下を見るユーザの手に保持されたときに、イメージセンサは、イメージセンサの光軸が一般的には移動の経路の方向に延在するような向きに手持ち式携帯通信装置のケーシングに固定して組み込まれることと、取得した画像ストリームにおけるユーザの移動の経路のオブジェクトを識別することと、識別したオブジェクトについての情報を調べることと、識別したオブジェクトを含む取得した画像ストリームを、タッチセンサー式ディスプレイにリアルタイムで表示することと、識別したオブジェクトに関連する視覚インジケータをタッチセンサー式ディスプレイに表示することと、を備えてもよい。
他の開示した実施の形態によれば、上向きの表示面及び反対側の下側面を有する、手持ち式携帯通信装置のための画像取得ケーシングを提供する。画像取得ケーシングは、手持ち式携帯通信装置の少なくとも一部を包囲するハウジングを有してもよい。画像取得ケーシングは、ハウジングに搭載されるとともに第1の方向に延在する第1の光軸及び第1の方向とは異なる第2の方向に延在する第2の光軸を有する少なくとも一つのイメージセンサであって、第1の光軸は、手持ち式携帯通信装置がハウジングによって保持されているときに下側面に対して一定の鈍角に向くように構成された、少なくとも一つのイメージセンサを有してもよい。画像取得ケーシングは、表示面にリアルタイムの表示を行うために画像データを少なくとも一つのイメージセンサから伝送する回路を有してもよい。
他の開示した実施の形態によれば、手持ち式携帯通信装置を提供する。手持ち式携帯通信装置は、ディスプレイと、上面に沿ってディスプレイを保持するとともに上面の反対にある下面を有するハウジングであって、端部を上面と下面の間に配置したハウジングと、を有してもよい。手持ち式携帯通信装置は、上面に組み込まれるとともに上面から離れる第1の方向に延在する第1の光軸を有する少なくとも一つの第1のイメージセンサと、下面に組み込まれるとともに下面から離れる第2の方向に延在する第2の光軸を有する少なくとも一つの第2のイメージセンサと、端部に少なくとも部分的に組み込まれるとともに端部から離れる第3の方向に延在する第3の光軸を有する少なくとも一つの第3のイメージセンサであって、第1の方向、第2の方向及び第3の方向は互いに異なる、少なくとも一つの第3のイメージセンサと、を有してもよい。手持ち式携帯通信装置は、ハウジング内の少なくとも一つのプロセッサであって、少なくとも一つの第1のイメージセンサからの画像データ、少なくとも一つの第2のイメージセンサからの画像データ及び少なくとも一つの第3のイメージセンサからの画像データを受け取り、少なくとも一つの第1のイメージセンサからの画像データ、少なくとも一つの第2のイメージセンサからの画像データ及び少なくとも一つの第3のイメージセンサからの画像データをディスプレイに表示させることができる少なくとも一つのプロセッサを有してもよい。
他の開示した実施の形態によれば、上向きの表示面及び反対側の下側面を有する、携帯装置のための画像取得ケーシングを提供する。画像取得ケーシングは、携帯装置の少なくとも一部を包囲するハウジングであって、上面、下面及び上面と下面を互いに連結する端部を有するハウジングを有してもよい。画像取得ケーシングは、端部に組み込まれる複数のイメージセンサであって、複数のイメージセンサの各々は光軸を有し、携帯装置がハウジングによって保持されているときに、各光軸は、上向きの表示面及び下側面に垂直な軸と異なる、複数のイメージセンサを有してもよい。画像取得ケーシングは、画像データを複数のイメージセンサからディスプレイに伝送する回路を更に有してもよい。
他の開示した実施の形態によれば、携帯通信装置で用いられるコンピュータ可読媒体を提供する。コンピュータ可読媒体は、プロセッサによって実行される際に、携帯通信装置が前進運動しているという第1の表示を、携帯通信装置の少なくとも一つのセンサから受け取るステップと、携帯通信装置のイメージセンサが画像を取得する向きにあるという第2の表示を、携帯通信装置の少なくとも一つのセンサから受け取るステップと、第1の表示と第2の表示の両方に応答して、順路画像のリアルタイム表示を、携帯通信装置のディスプレイに自動的に行うステップと、をプロセッサによって実行させる命令を有してもよい。
他の開示した実施の形態によれば、携帯通信装置で用いられるコンピュータ可読媒体を提供する。コンピュータ可読媒体は、プロセッサによって実行される際に、ユーザが移動経路に沿って移動する際のユーザの環境を表す画像データを、携帯通信装置に関連する少なくとも一つのイメージセンサから受け取るステップと、携帯通信装置へのリアルタイム表示のために、ユーザの移動経路に対応する視野ウィンドウを画像データから選択するステップと、視野ウィンドウを対話型ユーザアプリケーションウィンドウと同時にディスプレイに表示するとともに視野ウィンドウの外側の画像データをディスプレイの表示から除外するステップと、をプロセッサによって実行させる命令を有してもよい。
他の開示した実施の形態によれば、携帯通信装置で用いられるコンピュータ可読媒体を提供する。コンピュータ可読媒体は、プロセッサによって実行される際に、ユーザが移動経路に沿って移動する際のユーザの環境を表す画像データを、携帯通信装置に関連する少なくとも一つのイメージセンサから受け取るステップと、ユーザが関与する活動を反映する情報を、少なくとも一つのセンサから受け取るステップと、メモリにある複数の活動のインジケータ及び各活動に関連する視野ウィンドウにアクセスするステップと、携帯通信装置へのリアルタイム表示のために、視野ウィンドウを画像データから選択するステップであって、選択した視野ウィンドウは、ユーザが現在関与する活動に関連するステップと、選択した視野ウィンドウを携帯通信装置のディスプレイに適用するステップと、をプロセッサによって実行させる命令を有してもよい。
他の開示した実施の形態によれば、携帯通信装置で用いられるコンピュータ可読媒体を提供する。コンピュータ可読媒体は、プロセッサによって実行される際に、ユーザが移動経路に沿って移動する際のユーザの環境を表すリアルタイム画像ストリームを、携帯通信装置に関連する少なくとも一つのイメージセンサから受け取るステップと、リアルタイム画像ストリームを携帯通信装置のタッチスクリーンディスプレイに表示するステップと、対話型ユーザアプリケーションをリアルタイム画像ストリームと同時に携帯通信装置のタッチスクリーンディスプレイに表示するステップと、タッチスクリーンディスプレイを用いるユーザがリアルタイム画像ストリームに関連する領域にタッチするとともにリアルタイム画像ストリームのうちの少なくとも1フレームを対話型ユーザアプリケーションに転送できるようにするステップと、少なくとも1フレームに関連する対話型ユーザアプリケーションの動作を実行するステップと、をプロセッサによって実行させる命令を有してもよい。
他の開示した実施の形態によれば、互いに横切る軸に沿って取得した2方向ビデオストリームを表示するための手持ち式携帯通信装置を提供する。手持ち式携帯通信装置は、上面、下面及び側端を有するハウジングを有してもよい。手持ち式携帯通信装置は、上面に配置されたタッチセンサー式スクリーンと、少なくとも一つのプロセッサと、を有してもよい。手持ち式携帯通信装置は、上面から離れた第1の方向に延在する第1の光軸を有する第1のイメージセンサであって、手持ち式携帯通信装置がタッチセンサー式スクリーンを見るユーザの手に保持されているときにユーザの顔を取得するように構成された、第1のイメージセンサと、側端に少なくとも部分的に組み込まれるとともに側端から離れた第2の方向に延在する第2の光軸を有する第2のイメージセンサであって、手持ち式携帯通信装置がタッチセンサー式スクリーンを見るユーザの手に保持されているときにユーザの移動経路を取得するように構成され、第1の方向は第2の方向を横切る、第2のイメージセンサと、を有してもよい。少なくとも一つのプロセッサを、ユーザの顔の第1のリアルタイム画像ストリームを第1のイメージセンサから取得し、ユーザの移動経路の第2のリアルタイム画像ストリームを第2のイメージセンサから取得し、ユーザの顔及びユーザの移動経路の2方向表示をタッチセンサー式スクリーンにおいてリアルタイムで行うようにプログラムしてもよい。
他の開示した実施の形態によれば、移動の順路を進む間に下を見るユーザに方向誘導を行うように構成された手持ち式携帯通信装置を提供する。手持ち式携帯通信装置は、上面、下面及び側端を有するハウジングを有してもよい。手持ち式携帯通信装置は、上面に配置されたタッチセンサー式ディスプレイと、GPSチップと、少なくとも一つのプロセッサと、を有してもよい。携帯通信装置は、タッチセンサー式ディスプレイが下を見るユーザの顔に対向する状態で携帯通信装置がユーザの手に保持されているときに光軸が一般的に移動の経路の方向に延在する向きにハウジングに固定して組み込まれたイメージセンサを更に有してもよい。少なくとも一つのプロセッサを、目的地までの一連のターンバイターン指示を方向誘導アプリケーションから受け取り、タッチセンサー式ディスプレイがユーザの顔に対向した状態でユーザが順路を進む際に、イメージセンサからのリアルタイム画像ストリームをタッチセンサー式ディスプレイに表示し、ターンバイターン指示の少なくとも一つの視覚インジケータをリアルタイム画像ストリームと同時に表示するために、GPSチップから取得した位置情報を用いるようにプログラムしてもよい。
他の開示した実施の形態によれば、携帯電話のための着脱自在ケースを提供する。着脱自在ケースは、ハウジングと、ハウジングに組み込まれた少なくとも一つのイメージセンサと、を有してもよい。着脱自在ケースは、携帯電話が着脱自在ケースに据え付けられたときに携帯電話のポートにはめ込まれるように構成された、ハウジング内のコネクタを有してもよい。着脱自在ケースは、着脱自在ケースに組み込まれた少なくとも一つのコンデュイットであって、少なくとも一つのイメージセンサの間に延在するとともにコネクタによって少なくとも一つのイメージセンサに電気的に接続して少なくとも一つのイメージセンサから携帯電話へのリアルタイム画像ストリームを可能にする、少なくとも一つのコンデュイットを更に有してもよい。
他の開示した実施の形態によれば、携帯電話の端部に組み込まれた複数のイメージセンサからの統合した画像データを用いてストリートビューマップのクラウドソースによる生成を行うシステムを提供する。システムは、地理的地域のストリートビューマップを維持し、GPS座標をストリートビューマップの位置に関連させ、ストリートビュー画像を、複数のユーザの複数の携帯電話の端部に組み込まれた複数のイメージセンサから受信し、受信したストリートビュー画像の各々に関連するGPS位置を、複数の携帯電話の各々から受信し、ストリートビューマップを、ストリートビューマップのGPS位置に対応する受信したストリートビュー画像に関連するGPS位置の複数のイメージセンサからの受信したストリートビュー画像で更新するように構成された少なくとも一つのプロセッサを有してもよい。
他の開示した実施の形態によれば、携帯電話の端部に組み込まれた複数のイメージセンサからの統合した画像データを用いてストリートビューマップのクラウドソースによる生成を行う方法を提供する。方法は、地理的地域のストリートビューマップを維持し、GPS座標をストリートビューマップの位置に関連させることと、ストリートビュー画像を、複数のユーザの複数の携帯電話の端部に組み込まれた複数のイメージセンサから受信することと、受信したストリートビュー画像の各々に関連するGPS位置を、複数の携帯電話の各々から受信することと、受信したストリートビュー画像に関連するGPS位置がストリートビューマップのGPS位置に対応するときに、ストリートビューマップを、複数のイメージセンサからの受信したストリートビュー画像で更新することと、を有してもよい。
他の開示した実施の形態によれば、携帯通信装置で用いられるコンピュータ可読媒体を提供する。コンピュータ可読媒体は、第1の方向に延在する第1の光軸を有する第1のイメージセンサから第1のリアルタイム画像ストリームを受け取るステップと、第1の方向とは異なる第2の方向に延在する第2の光軸を有する第2のイメージセンサから第2のリアルタイム画像ストリームを受け取るステップと、携帯通信装置に表示するために視野ウィンドウを第1のリアルタイム画像ストリームから決定するステップと、決定した視野ウィンドウに対応するリアルタイム表示を携帯通信装置のディスプレイで行うステップと、ディスプレイへのユーザのタッチに応答して視野ウィンドウの調整を行うことであって、調整は、第1のリアルタイム画像ストリームからの新たな視野ウィンドウの選択と第2のリアルタイム画像ストリームからの新たな視野ウィンドウの選択のうちの少なくとも一方を有する、ステップと、をプロセッサによって実行させる命令を有してもよい。
他の開示した実施の形態によれば、非一時なコンピュータ可読記憶媒体は、少なくとも一つのプロセッサによって実行させるとともにここで開示した方法のいずれかを実行するプログラム命令を格納してもよい。
上述した一般的な説明及び後の詳細な説明は、例示的な説明に過ぎず、特許請求の範囲を限定するものではない。
本開示の一部に組み込まれるとともに本開示の一部を構成する添付図面は、種々の開示した実施の形態を示す。
第1の視点からの携帯通信装置を凝視しながら歩行するユーザの略図である。 第2の視点からの図1Aに示すユーザの略図である。 第1の視点からの本開示による第1の例示的な装置の略図である。 第2の視点からの図2Aに示す第1の例示的な装置の略図である。 第1の視点からの本開示による第2の例示的な装置の略図である。 第2の視点からの図3Aに示す第2の例示的な装置の略図である。 図2Aに示す第1の例示的な装置に関連するエッジカメラアセンブリの視野の略図である。 図3Aに示す第2の例示的な装置に関連するエッジカメラアセンブリの視野の略図である。 図2Aに示す第1の例示的な装置に関連する複数のイメージセンサを有するエッジカメラアセンブリの視野の略図である。 開示の実施の形態によるエッジカメラアセンブリの光軸の角度を示す略図である。 携帯通信装置と一体のカメラの他の光軸に対するエッジカメラアセンブリの光軸の向きを示す略図である。 図3Aに示す第2の例示的な装置の携帯装置の主軸に対するエッジカメラアセンブリの光軸の向きを示す略図である。 図3Aに示す第2の例示的な装置と一体のカメラの他の視野に対するエッジカメラアセンブリの視野を示す略図である。 図3Aに示す第2の例示的な装置に関連するエッジカメラアセンブリの回路を示す機能ブロック図である。 図2Aに示す第1の例示的な装置に関連するエッジカメラアセンブリの回路を示す機能ブロック図である。 開示した実施の形態による拡張現実をユーザに提供する例示的な方法のフローチャートである。 開示した実施の形態による拡張現実をユーザに提供する例示的な方法のフローチャートである。 開示した実施の形態による拡張現実をユーザに提供する例示的な方法のフローチャートである。 開示した実施の形態による拡張現実をユーザに提供する例示的な方法のフローチャートである。 開示した実施の形態によるエッジカメラアセンブリの例示的な使用の略図である。 開示した実施の形態によるエッジカメラアセンブリの例示的な使用の略図である。 開示した実施の形態によるエッジカメラアセンブリの例示的な使用の略図である。 開示した実施の形態によるエッジカメラアセンブリの例示的な使用の略図である。 開示した実施の形態によるエッジカメラアセンブリの例示的な使用の略図である。 開示した実施の形態によるエッジカメラアセンブリの例示的な使用の略図である。 開示した実施の形態によるエッジカメラアセンブリの例示的な使用の略図である。 開示した実施の形態によるエッジカメラアセンブリの他の例示的な使用の略図である。 開示した実施の形態によるエッジカメラアセンブリの他の例示的な使用の略図である。 開示した実施の形態によるエッジカメラアセンブリの他の例示的な使用の略図である。 開示した実施の形態によるエッジカメラアセンブリの他の例示的な使用の略図である。 開示した実施の形態によるエッジカメラアセンブリの他の例示的な使用の略図である。 開示した実施の形態によるエッジカメラアセンブリの他の例示的な使用の略図である。 開示した実施の形態によるエッジカメラアセンブリの他の例示的な使用の略図である。 開示した実施の形態によるエッジカメラアセンブリの他の例示的な使用の略図である。
以下の詳細な説明は、添付図面を参照する。可能な場合には、同一又は同様な部分を示すために同一の参照番号を図面及び後の説明で用いる。開示は、説明する実施の形態及び例に限定されない。適切な範囲は、特許請求の範囲によって規定される。
開示した実施の形態は、リアルタイム画像表示を携帯通信装置のディスプレイに行うためにユーザの前方の環境の画像を取得するように構成されたエッジカメラアセンブリを含む。ここで用いられるように、用語「携帯通信装置」は、無線通信チップセット、スマートフォン、タブレット、スマートウォッチ、ユーザ装置(UE)、携帯端末等を含むがそれに限定されない無線ネットワークと通信を行うことができる任意のディスプレイ付き携帯装置を意味する。用語「手持ち式携帯通信装置」、「手持ち式携帯装置」、「携帯通信装置」及び「携帯装置」は、簡略のために用いられてもよく、上述した多様な装置のいずれかを意味する。
開示したエッジカメラアセンブリは、携帯通信装置に関与することができる又は携帯通信装置の一部とすることができる画像取得機能を有するシステムを含んでもよい。エッジカメラアセンブリは、ハウジングと、イメージセンサと、画像データをイメージセンサから伝送する回路と、を有してもよい。開示した実施の形態によれば、イメージセンサを、携帯通信装置に関連するケーシングの上側面と下側面とを互いに連結する端面に配置してもよい。開示の第1の態様において、携帯通信装置のための着脱自在ケースを提供する。この態様において、エッジカメラアセンブリは、携帯通信装置から分離可能であってもよいが、携帯通信装置をケースに据え置いたときに携帯通信装置に関与するように構成される。開示の第2の態様において、携帯通信装置を提供する。この態様において、エッジカメラアセンブリは、上記携帯通信装置の筐体と一体であってもよい。
本開示の二つの態様は、(「ケーシング」としても知られている)画像取得ケーシングを含んでもよい。ここでは、用語「ケーシング」を、エッジカメラアセンブリのシールド部材の任意の保護素子を指すために用いる。ケーシングを、所望の形状に成形される(熱可塑性ゴム、合成プラスチック、ポリウレタン、金属等のような)弾性材料から構成してもよい。第1の方法において、画像取得ケーシングを、エッジカメラアセンブリと携帯通信装置の両方を保護する着脱自在ケースとしてもよい。第2の方法において、画像取得ケーシングは、携帯通信装置と一体であってもよく、装置のカバーとしての役割を果たす。
開示の実施の形態による画像取得ケーシングは、携帯通信装置の少なくとも一部を包囲するハウジングを有してもよい。用語「ハウジング」は、携帯通信装置の少なくとも一部又は携帯通信装置の構成要素を収容するように設計された任意の構造又は囲いを広く含む。一例において、ハウジングは、幅及び/又は厚さより十分長い長さを有する、ユーザの手で握ることができる細長い部分を有してもよい。ハウジングは、正方形、矩形、丸みを帯びた矩形又は握ることができる他の任意の規則的若しくは不規則的な形状の断面を有してもよい。そのような構造によって、使用中に堅実な握りを繰り返すことができる。明細書及び特許請求の範囲で用いられるように、用語「上側」、「上部」、「下側」、「底部」、「前」、「後ろ」及び「後部」は、ハウジングの細長い部分が水平に向けられるとともに携帯通信装置のディスプレイ側が上に向いたときのハウジングの部分又は位置を意味する。
一部の実施の形態において、エッジカメラアセンブリは、ハウジングに搭載された又はハウジングに組み込まれたイメージセンサを有してもよい。用語「ハウジングに搭載された」又は「ハウジングに組み込まれた」は、イメージセンサが完全に又は部分的にハウジングに包み込まれる(encapsulated)ことを意味する。イメージセンサを、近赤外スペクトル、赤外スペクトル、可視スペクトル及び紫外スペクトルの光信号を検出するとともに当該光信号を電気信号に変換することができる装置としてもよい。電気信号を、画像データを生成するのに用いてもよい。用語「画像データ」は、近赤外スペクトル、赤外スペクトル、可視スペクトル及び紫外スペクトルの光信号から取り出される任意の形態のデータ(例えば、情報、画像及び/又はビデオストリーム)を含む。エッジカメラアセンブリに関連するイメージセンサの例は、デジタルカメラと、携帯電話のカメラと、半導体電荷結合素子(CCD)と、相補型酸化金属膜半導体(CMOS)又はN型酸化金属膜半導体(NMOS、Live MOS)のアクティブ画素センサと、を含んでもよい。エッジカメラアセンブリに関連するイメージセンサは、90°より大きい視野、120°より大きい視野、180°より大きい視野又は約360°の視野を有してもよい。さらに、エッジカメラアセンブリに関連するイメージセンサは、640×480の分解能、1024×768の分解能、1280×960の分解能又は他の任意の適切な分解能を有してもよい。
本開示によれば、イメージセンサを、ハウジングが歩行中のユーザに保持されているときにイメージセンサの光軸が一般的にユーザの歩行方向に延在するようにハウジングに搭載してもよい(又は組み込んでもよい)。ここで用いるように、用語「光軸」は、光がカメラの視野からイメージセンサの中央まで伝播する経路を規定する仮想線を意味する。本開示において、用語「一般的にユーザの歩行方向に延在する(又は向く)」は、エッジカメラアセンブリの視野がユーザの歩行方向に対応するユーザの環境の区域をカバーすることを広く意味する。一例において、エッジカメラアセンブリを、広視野を有する240°魚眼レンズに関連させてもよい。他の例において、エッジカメラアセンブリの視野を図1Bに示す。両方の例において、イメージセンサが、ユーザの歩行方向に対応する環境の区域を取得するので、イメージセンサの光軸が一般的にユーザの歩行方向に延在する。
エッジカメラアセンブリは、イメージセンサから取得した画像データを伝送する回路を有してもよい。開示した実施の形態によれば、画像データを、携帯通信装置のディスプレイにリアルタイムで表示してもよい。ここで用いるように、用語「リアルタイム」は、画像の取得と取得した画像の表示の間に観測可能な待ち時間が一般的にないことを意味する。ここで用いる「回路」は、(a)アナログ及び/又はデジタル回路のみにおいての実現のようなハードウェアのみの回路の実現(例えば、ワイヤ、電気的な接続)、(b)装置に種々の機能を実行させるために協働する回路、ソフトウェア及び/又はファームウェアの組合せ(例えば、プロセッサ、デジタル信号プロセッサ、ソフトウェア及びメモリの組合せ)及びソフトウェア又はファームウェアが物理的に存在しない場合でも動作に対してソフトウェア又はファームウェアを必要とする回路(例えば、マイクロプロセッサ又はマイクロプロセッサの一部)の全てを意味する。第1の方法において、回路は、携帯通信装置が着脱自在ケースに据え付けられたときに携帯通信装置のポートに関与するコネクタを有してもよい。第2の方法において、回路は、携帯通信装置の一部であるプロセッサを有してもよい。
開示した実施の形態によれば、エッジカメラアセンブリは、イメージセンサから画像データを受け取るとともに順路画像の表示を携帯通信装置のディスプレイで行うように構成された少なくとも一つのプロセッサを有してもよい又は当該プロセッサと通信を行ってもよい。少なくとも一つのプロセッサは、一つ以上の入力の論理演算を行う電気回路を有する任意の物理的な装置を構成してもよい。例えば、少なくとも一つのプロセッサは、一つ以上の集積回路、マイクロチップ、マイクロコントローラ若しくはマイクロプロセッサ、中央処理装置(CPU)、グラフィックスプロセッシングユニット(GUI)、デジタル信号プロセッサ(DSP)若しくはフィールドプログラマブルゲートアレイ(FPGA)の全て若しくは一部、又は、命令を実行する若しくは論理演算を行うのに適した他の回路を有してもよい。少なくとも一つのプロセッサによって実行される命令を、例えば、コントローラと一体の若しくはコントローラに組み込まれたメモリに予めロードしてもよい又は個別のメモリに格納してもよい。メモリは、ランダムアクセスメモリ(RAM)、リードオンリーメモリ(ROM)、ハードディスク、光ディスク、磁気媒体、フラッシュメモリ、他の永久メモリ、固定記憶装置若しくは揮発性メモリ、又は、命令を格納することができる他の任意の機構を備えてもよい。一実施の形態において、メモリは、複数の活動のインジケータ及び各活動に関連する視野ウィンドウを格納するように構成される。こ実施の形態を、図20を参照しながら後の更なる詳細において開示する。
一実施の形態において、少なくとも一つのプロセッサは、二つ以上のプロセッサを有してもよい。各プロセッサは、同様な構造を有してもよい、又は、プロセッサは、互いに電気的に接続される若しくは切り離される異なる構造を有してもよい。例えば、プロセッサを個別の回路としてもよい又はプロセッサを単一の回路に集積してもよい。二つ以上の回路を用いるとき、プロセッサを、独立して構成してもよい又は協働するように構成してもよい。プロセッサを、電気的に、磁気的に、光学的に、音響的に、機械的に又は相互に作用できるようにする他の手段によって結合してもよい。開示した実施の形態において、少なくとも一つのプロセッサによって順路画像のリアルタイム表示を携帯通信装置のディスプレイで行うようにしてもよい。本開示によれば、用語「リアルタイム表示」は、イメージセンサが画像を取得してから画像が携帯通信装置に表示されるまでの小さい遅延を包含する。例えば、遅延を、約0.1ミリ秒未満、0.05ミリ秒未満又は0.01秒未満としてもよい。
図1Aは、ケース104を有する携帯装置102を凝視しながらユーザ100が歩行する状況を示す。本開示の実施の形態によれば、携帯装置102又はケース104は、エッジカメラアセンブリを有してもよい。エッジカメラアセンブリは、ユーザ100が方向106の移動経路に沿って移動する際にユーザ100の環境を表す画像データを取得することができる。ユーザ100の有効視野を視野108によって表し、エッジカメラの例示的な視野を視野110によって表す。エッジカメラアセンブリを用いることによって、ユーザ100は、移動経路沿いに配置されたオブジェクト112に衝突するのを回避することができる。一実施の形態において、装置スクリーンの障害に接近するユーザを示す画像表示をエッジカメラアセンブリによって行ってもよい。他の実施の形態において、エッジカメラアセンブリは、エッジカメラアセンブリと一体となった又はエッジカメラアセンブリに機能的に関連した処理回路で実行される障害検出アルゴリズムに応答してアラートを引き起こしてもよい又は通知を行ってもよい。
図1Bは、図1Aに示す状況と同一の状況を上から示す。上述したように、携帯装置102がケース104に据え付けられたとき、エッジカメラアセンブリの光軸は、一般的には歩行方向106に向く。図1Bは、視野110の水平成分が歩行方向106に一致するユーザの環境の区域をカバーすることを示す。視野110の水平成分の角度範囲を、図1Bでは例示のために角度αで表す。一部の実施の形態において、視野110の水平成分の角度範囲を、例えば、40°より大きくしてもよい、65°より大きくしてもよい、90°より大きくしてもよい、120°より大きくしてもよい又は180°より大きくしてもよい。代替的には、視野110の水平成分の角度範囲を、例えば、160°より小さくしてもよい、110°より小さくしてもよい、70°より小さくしてもよい又は45°より小さくしてもよい。本開示によれば、携帯装置102は、オブジェクト112がユーザの移動経路沿いに配置されていることの表示を含む順路のリアルタイム表示114を行ってもよい。他の実施の形態において、後に更なる詳細で説明するように、携帯装置102は、順路のリアルタイム表示114に重ね合わせコンテンツを表示してもよい。
図2A及び図2Bは、本開示の第1の態様を示す。特に、図2A及び図2Bは、携帯装置102に選択的に接続可能であるとともに携帯装置102から選択的に分離可能である着脱自在ケース104に組み込まれたエッジカメラアセンブリを示す。エッジカメラアセンブリは、上側面202、反対側にある下側面204及び上側面202と下側面204の間に配置された端面206を有するハウジング200を有する。端面206は、下側面204から上方向に延在する。(「端部」又は「周辺端部」としても知られている)用語「端面」は、ここでは、上側面202及び下側面204を互いに連結する周辺領域を意味するために用いる。一部の実施の形態において、端面206は、平坦であるとともにハウジング200の主面に対して直角であってもよい。代替的には、端面は、上側面202及び下側面204に対して異なる角度を有するとともに幾分湾曲してもよい。図3A及び図3Bは、端面が図2A及び図2Bに示すものと異なるように形成された他の実施の形態を示す。本開示によれば、エッジカメラアセンブリは、回路208及びイメージセンサ210を更に有してもよい。例示のみのために、回路208及びイメージセンサ210を、ハウジング200から切り離して示す。実際には、一部の実施の形態によれば、イメージセンサ210は、イメージセンサ210の光軸が上側面202及び下側面204に対して直角以外の角度で傾斜して固定されるように端面206に固定されてもよい又は組み込まれてもよい。例えば、イメージセンサ210を、下側面204から延在する突起部に固定してもよい。
エッジカメラアセンブリは、携帯装置102の追加のイメージセンサの光軸が通過できるように構成された開口(例えば、孔212)を有してもよい。携帯装置102の追加のイメージセンサは、ハウジング200に搭載されたイメージセンサ210と異なってもよい。一部の実施の形態において、着脱自在ケース104は、イメージセンサ210に給電を行う及び/又は携帯装置102に給電を行うように構成された、ハウジング200内のバッテリ(図示せず)を有してもよい。したがって、着脱自在ケース104は、バッテリを無線充電するための受信機を更に有してもよい。代替的には、回路208を、携帯装置102内のバッテリからイメージセンサ210に電力を伝送するように構成してもよい。他の実施の形態において、エッジカメラアセンブリは、イメージセンサ210に関連する光軸の方向に実質的に向けられた指向性マイク(図示せず)を更に有してもよい。
開示の第1の態様によれば、エッジカメラアセンブリは、回路208の一部である又は回路208に関連するコネクタ214及び少なくとも一つのコンデュイット216を更に有してもよい。一実施の形態において、コネクタ214を、携帯装置102がケース104に据え付けられたときに携帯装置102のポートに関与するように構成してもよい。さらに、コンデュイット216は、イメージセンサ210から携帯装置102へのリアルタイム画像ストリームを可能にするためにイメージセンサ210とコネクタ214の間に延在するとともにイメージセンサ210及びコネクタ214に電気的に接続する。着脱自在ケース104の一形態において、イメージセンサ210を、コンデュイット216がイメージセンサ210とコネクタ214の間でハウジング200を横切るようにコネクタ214の反対側にある端面206の一部に配置してもよい。本開示によれば、回路208は、データを携帯装置102とやり取りするとともに転送するインタフェース回路(図示せず)を更に有してもよい。転送されるデータは、イメージセンサ210によって取得される画像、ビデオデータ又は3次元走査データを有してもよい。一部の実施の形態において、回路208を、有線接続を介して画像データを伝送するように構成してもよい。例えば、インタフェース回路は、USB,マイクロUSB、HDMI(登録商標)、マイクロHDMI(登録商標)、FireWire(登録商標)、Apple(登録商標)等のような有線規格に適合してもよい。他の実施の形態において、回路208を、無線接続を介して画像データを伝送するように構成する。例えば、インタフェース回路は、Bluetooth(登録商標)、WiFi(登録商標)、NFC、ZigBee(登録商標)等のような無線規格に適合してもよい。
図2Bは、本開示の第1の態様の第2の視点からの図である。図2Bに示す視点は、着脱自在ケース104の側面からの視点である。この図において、携帯装置102は、ケース104に据え付けられ、したがって、エッジカメラアセンブリによって、イメージセンサ210から携帯装置102へのリアルタイム画像ストリームが可能になる。一部の実施の形態において、回路208によって、イメージセンサ210を携帯装置102により制御することができる。例えば、イメージセンサ210を、携帯装置102のセンサによって検出される加速度に応答して起動させることができる。
図3A及び図3Bは、本開示の第2の態様を示す。具体的には、図3A及び図3Bは、携帯装置102と一体になったエッジカメラアセンブリを示す。本開示の第2の態様によれば、エッジカメラアセンブリは、(上側面202、下側面204及び端面206を有する)ハウジング200、回路208(図示せず)及びイメージセンサ210を更に有する。図3A及び図3Bに示すように、端面206は、湾曲するとともに上側面202及び下側面204と直角とは異なる角度を成してもよい。一部の実施の形態において、携帯装置102は、イメージセンサ210によって取得されたリアルタイム画像ストリームを表示するためのタッチセンサー式ディスプレイ300を有してもよい。追加的には、タッチセンサー式ディスプレイ300は、例えば、回路208と協働しながらユーザ100からの入力を検出することができる。携帯装置102は、電源と回路208の間のインタフェースとすることができるポート302を更に有してもよい。一実施の形態において、ポート302を、携帯装置102のバッテリを充電するのに用いてもよい。他の実施の形態において、ポート302を、携帯装置を他の電気装置に接続するのに用いてもよい。例えば、エッジカメラアセンブリを着脱自在ケース104に組み込んだとき、ポート302を、イメージセンサ210と携帯装置102の間の通信チャネルを形成するのに用いてもよい。
本開示によれば、エッジカメラアセンブリによって、携帯装置102は、ユーザ100の環境からのリアルタイム画像ストリームをイメージセンサ210から受け取るとともにリアルタイム画像ストリームウィンドウ304を対話型ユーザアプリケーションウィンドウ306と同時にタッチセンサー式ディスプレイ300に表示することができる。画像を他のアプリと同時に表示するためのタッチセンサー式ディスプレイ300のスペースが制限されているので、ナビゲーションのための表示区域(display real estate)を有効に用いる必要がある。一実施の形態において、携帯装置102は、最初に、タッチセンサー式ディスプレイ300の約50%に対話型ユーザアプリケーションウィンドウ306を表示するとともにタッチセンサー式ディスプレイ300の約50%にリアルタイム画像ストリームウィンドウ304を表示する。他の実施の形態において、携帯装置102は、最初に、タッチセンサー式ディスプレイ300の約60%に対話型ユーザアプリケーションウィンドウ306を表示するとともにタッチセンサー式ディスプレイ300の約40%にリアルタイム画像ストリームウィンドウ304を表示する。他の実施の形態において、携帯装置102は、最初に、タッチセンサー式ディスプレイ300の約70%に対話型ユーザアプリケーションウィンドウ306を表示するとともにタッチセンサー式ディスプレイ300の約30%にリアルタイム画像ストリームウィンドウ304を表示する。ユーザ100は、対話型ユーザアプリケーションウィンドウ306とリアルタイム画像ストリームウィンドウ304の比を変更するために(例えば、GUI形態308を用いて)入力を行ってもよい。例えば、ユーザ100は、リアルタイム画像ストリームウィンドウ304がタッチセンサー式ディスプレイ300の約100%をカバーするように対話型ユーザアプリケーションウィンドウ306とリアルタイム画像ストリームウィンドウ304の比を変更してもよい。他の実施の形態において、携帯装置102によって、ユーザ100は、リアルタイム画像ストリームウィンドウ304に表示される画像データから視野を選択することができる。携帯装置102は、最初に、(例えば、画像データのオブジェクトを識別する画像処理アルゴリズムを用いて)ユーザ100の移動経路に対応すると推定される視野を表示する。しかしながら、場合よっては、ユーザ100は、リアルタイム画像ストリームウィンドウ304に表示される視野を変更することを所望する。本実施の形態を、図15を参照しながら後の更なる詳細において説明する。
複数のタイプの携帯装置102は、上側面202を横切るように向けられた光軸を有する第1の追加のイメージセンサ310(例えば、セルフィ−カメラ)及び下側面204の下に組み込まれるとともに下側面204を横切るように向けられた光軸を有する第2の追加のイメージセンサ312(例えば、背面カメラ)を更に有してもよい。本開示によれば、携帯装置102は、回路208を介して、イメージセンサ210からの画像データ、第1の追加のイメージセンサ310からの画像データ及び第2の追加のイメージセンサ312からの画像データを受け取ってもよい。一実施の形態において、ユーザ100は、リアルタイム画像ストリームウィンドウ304がイメージセンサ210、第1の追加のイメージセンサ310又は第2の追加のイメージセンサ312からの画像データを表示することができるようにイメージセンサ間の切替を行ってもよい。本実施の形態を、図16を参照しながら後の更なる詳細において説明する。他の実施の形態において、携帯装置102によって、イメージセンサ210、第1の追加のイメージセンサ310及び第2の追加のイメージセンサ312のうちの少なくとも二つのイメージセンサからの画像の同時の表示をタッチセンサー式ディスプレイ300で行ってもよい。画像の同時の表示は、統合した画像(aggregated image)をタッチセンサー式ディスプレイ300に表示できるようにイメージセンサ210によって取得した画像及び第2の追加のイメージセンサ312によって取得した画像の収集に起因する。代替的には、画像の同時の表示は、異なるイメージセンサからの各ウィンドウの画像のストリーミングを含む。本実施の形態によって、携帯装置102は、ユーザ100の顔及びユーザ100の前方の環境の2方向表示をタッチセンサー式ディスプレイ300にリアルタイムで行うことができる。2方向表示をオンラインで共有することができる又は載せることができる。本実施の形態を、図17を参照しながら後の更なる詳細において説明する。
図4A及び図4Bは、開示の第1の態様及び第2の態様によるエッジカメラアセンブリの斜視図である。両方の図は、下を見るユーザ100の顔402に対向するタッチセンサー式ディスプレイ300を有する携帯装置102がユーザ100の手400に保持されているときのイメージセンサ210の視野110を示す。図示したように、視野110は、一般的には移動の経路の方向に延在する。一例において、視野110は、ユーザの直立している身体の垂直軸に対して20°と80°の間の区域を取得することができる。開示の両方の態様によれば、視野110の方向は調整可能である。例えば、視野110は、携帯装置102の方向を物理的に変えることによって又は携帯装置102に対するイメージセンサ210の孔の相対方向を変えることによって調整することができる。一部の実施の形態において、イメージセンサ210の物理的な向きを手動で又は電気機械アクチュエータを用いることによって変えてもよい。代替的には、視野110を、一つ以上のイメージセンサ210からの出力のフィルタ処理を変えることによってデジタル的に調整してもよい。
図5は、開示の第1の態様によるエッジカメラアセンブリの斜視図である。この図において、エッジカメラアセンブリは、端面206に組み込まれた複数のイメージセンサ210を有する。各イメージセンサ210(例えば、210A及び210B)を、(レンズ、フィルタ等のような)光学部品及び任意の照明器に関連させてもよい。立体照明器(structured light illumination)を有する実施の形態は、エッジカメラアセンブリによって撮影されるオブジェクトのポイントの深さ情報を提供することができる対応する3次元デコーダを有してもよい。一部の実施の形態において、複数のイメージセンサ210の各々は、関連の視野(例えば、視野110A及び視野110B)を有し、複数のイメージセンサ210のうちの少なくとも一つの視野は、複数のイメージセンサ210のうちのそれ以外の視野に重なり合う。追加的には、エッジカメラアセンブリを、重なり合うイメージセンサ210のうちの少なくとも二つから画像情報を受け取るとともに少なくとも二つの重なり合うイメージセンサ210からの画像情報を統合するプロセッサに関連させてもよい。例えば、プロセッサは、少なくとも二つの重なり合うイメージセンサ210からの画像情報をステッチングしてもよい。携帯装置102は、少なくとも二つの重なり合うイメージセンサ210からの統合された画像情報をタッチセンサー式ディスプレイ300に表示してもよい。他の実施の形態において、携帯装置102は、少なくとも二つの重なり合うイメージセンサ210から取得される画像データを用いて仮想的な3次元画像を作成してもよい。
複数のイメージセンサ210を用いることによって、更に広い視野110を取得するとともに更に多くの情報を取得することができる。例えば、図5に示す立体視野装置は、エッジカメラアセンブリによって取得されるオブジェクト(例えば、オブジェクト112)のポイントの深さ情報を提供してもよい。二つのイメージセンサ210のみを示すが、当業者は、第3のイメージセンサ210、第4のイメージセンサ210等のような三つ以上のイメージセンサ210を用いることができることを認識する。したがって、複数のイメージセンサ210の組み合わされた視野を、180°より大きくすることができる、例えば、約240°、約300°又は約360°にすることができる。ハウジング200の複数のイメージセンサ210の多数のあり得る配置が存在してもよい。例えば、第1の形態において、エッジカメラアセンブリは、二つのイメージセンサ210を有してもよく、第1のイメージセンサは、右上隅の領域に存在し、第2のイメージセンサは、左上隅の領域に存在する。第2の形態において、エッジカメラアセンブリは、三つのイメージセンサ210を有してもよく、第1のイメージセンサは、上端に存在し、第2のイメージセンサは、右上隅の領域に存在し、第3のイメージセンサは、左上隅の領域に存在する。第3の形態において、エッジカメラアセンブリは、少なくとも部分的に上端部の外側に向く光学視野を有する第1のイメージセンサ210と、少なくとも部分的に右端部の外側に向く光学視野を有する第2のイメージセンサと、少なくとも部分的に左端部の外側に向く光学視野を有する第3のイメージセンサと、を有する。
図6は、エッジカメラアセンブリの光軸の角度を示す略図である。上述した開示によれば、エッジカメラアセンブリを携帯装置102又は着脱自在ケース104に組み込んでもよい。一実施の形態において、ハウジング200に装着されたイメージセンサ210は、下側面204に対して一定の鈍角に向くように構成された少なくとも一つの光軸600を有してもよい。鈍角は、90°を超えるが180°未満である角度である。図6において、光軸600の鈍角は、角度βによって表される。上述したように、イメージセンサ210を、端面206に固定してもよい又は組み込んでもよい。したがって、光軸600も固定してもよい。換言すれば、ユーザ100は、携帯装置102にダメージを与えることなく光軸600の物理的な向きを変えることができない。一実施の形態において、ハウジング200は、イメージセンサ210を保持するための少なくとも一つのチャネル(図示せず)を有してもよく、チャネルの軸は、携帯装置102がハウジング200によって保持されるときに下側面204の一部に対して鈍角に向くようにハウジング200から延在する。一部の例において、角度βを、約150°(すなわち、145°と155°の間の任意の値)、約160°(すなわち、155°と165°の間の任意の値)又は約170°(すなわち、165°と175°の間の任意の値)にしてもよい。
典型的には、ハウジング200が歩行中のユーザ100に保持されるとき、ハウジング200は、ユーザ100が歩行する面602に対して鋭角に向く。鋭角は、0°を超えるが90°未満の角度である。図6において、ハウジング200の保持角度を角度γによって表す。本開示によれば、イメージセンサ210の向きを、ハウジング200が保持角度γによって保持されているときに少なくとも一つの光軸600が一般的に歩行方向106に向くように決定してもよい。角度βとは異なり、角度γは一定でない。ユーザ100が歩行するとき、ハウジング200の保持角度を常に変えてもよい。しかしながら、典型的には、携帯装置102が歩行中のユーザ100によって保持されているときに、保持角度γは、0°と90°の間のままである。例えば、保持角度γを、約25°(すなわち、20°と30°の間の任意の値)、約35°(すなわち、30°と40°の間の任意の値)又は約45°(すなわち、40°と50°の間の任意の値)としてもよい。保持角度γが変わる性質により、光軸600の方向は、歩行方向106と完全に平行になることができない。しかしながら、上述したように、視野110の水平成分が、歩行方向106に対応するユーザの環境の予め規定された部分(例えば、区域)をカバーする限り、少なくとも一つの光軸600が一般的に歩行方向106に向くと考えられる。
図7は、携帯装置102と一体のカメラの他の光軸に対する光軸600の向きを示す略図である。本開示によれば、携帯装置102は、上側面202から離れる第1の方向に向く第1の追加の光軸700を有する第1の追加のイメージセンサ310及び下側面204から離れる第2の方向に向く第2の追加の光軸702を有する第1の追加のイメージセンサ312を有してもよい。第1の追加のイメージセンサ310を、第2の追加のイメージセンサ312の側の反対側にあるハウジング200の側に組み込んでもよい。典型的には、第1の追加の光軸700及び第2の追加の光軸702は、これらの間の角度が約180°となるように実質的に互いに逆向きである。開示の実施の形態によれば、少なくとも部分的に端面206に組み込まれるイメージセンサ210の光軸600は、端面206から離れる少なくとも第3の方向に延在する。図7に示すように、光軸600、第1の追加の光軸700及び第2の追加の光軸702は互いに異なる。具体的には、光軸600及び第1の追加の光軸700は互いに鈍角に向く。光軸600と第1の追加の光軸700の間の角度をδで表す。一部の例において、角度δは約110°(すなわち、100°と120°の間の任意の値)である。同様に、光軸600と第2の追加の光軸702は互いに鋭角に向く。光軸600と第2の追加の光軸702の間の角度をεで表す。一部の例において、角度εは約40°(すなわち、30°と50°の間の任意の値)である。
図8は、携帯装置102の主軸に対する光軸600の向きを示す。ここでは、用語「主軸」は、慣性モーメントが最大である携帯装置102の三つの互いに直交する軸を意味する。簡単化及び明瞭のために、開示は、携帯装置102が略均一の質量分布を有するとともに質量中心が対称中心であると仮定する。主軸は、水平軸(すなわち、X軸)、縦軸(すなわち、Y軸)及び横軸(すなわち、Z軸)を有する。携帯装置102の主軸のセットは、三つの中心軸面、すなわち、X−Y面、X−Z面及びY−Z面も規定する。
図8に示すように、携帯装置102は、第1のイメージセンサ210A及び第2のイメージセンサ210Bを有してもよく、その各々を周辺端部面206に固定して組み込んでもよい又は固定してもよい。第1の追加のイメージセンサ310(及び第2の追加のイメージセンサ312)とは異なり、第1のイメージセンサ210A及び第2のイメージセンサ210Bは、ハウジング200の第1の側(例えば、上側面202)、ハウジングの第2の側(例えば、下側面204)及び中心軸面(例えば、X−Y平面、X−Z平面及びY−Z平面)の各々に対して直交角度でない角度の固定された光軸を有してもよい。具体的には、第1のイメージセンサ210Aは、中心軸面X−Yに対して直角角度でない角度ζを成す光軸600Aに関連し、第2のイメージセンサ210Bは、中心軸面Y−Zに対して直角角度でない角度ζを成す光軸600Bに関連する。一例において、光軸600Aは、中心軸面X−Yに対して約5°と約80°の間の角度ζだけ傾斜してもよい。他例において、光軸600Bは、中心軸面Y−Zに対して約10°と約70°の間の角度ζだけ傾斜してもよい。一実施の形態において、イメージセンサ210A及び210Bの各々の視野110の水平成分及び/又は垂直成分を、60°より大きくしてもよい、75°より大きくしてもよい、90°より大きくしてもよい又は105°より大きくしてもよい。したがって、第1のイメージセンサ210Aの視野は、第2のイメージセンサ210Bの視野と部分的に重なり合う。
図9は、携帯装置102と一体のカメラの他の視野に対する視野110を示す略図である。本開示によれば、携帯装置102は、少なくとも一つのイメージセンサ210を有してもよい(又は着脱自在ケース104を用いるときに少なくとも一つのイメージセンサ210に関連させてもよい)。少なくとも一つのイメージセンサ210は、周辺端部面206から第1の方向に延在する少なくとも一つの光軸600を有してもよい。携帯装置102は、ハウジング200に組み込まれるとともに上側面202から第1の方向に延在する光軸700を有する第1の追加のイメージセンサ310及びハウジング200に組み込まれるとともに下側面204から第3の方向に延在する光軸702を有する第2の追加のイメージセンサ312を有してもよい。図示したように、第1の追加のイメージセンサ310を第1の視野900に関連させるとともに第2の追加のイメージセンサ312を第2の視野902に関連させてもよい。図6を参照しながら上述したように、光軸600を下側面204に対して一定の鈍角に向けてもよい。さらに、図7を参照しながら上述したように、光軸600を第1の追加の光軸700に対して一定の鈍角に向けるとともに第2の追加の光軸702に対して一定の鋭角に向けてもよい。
一実施の形態において、視野110は、第2の追加のイメージセンサ312の視野902に部分的に重なり合う。着脱自在ケースの実現において、視野110は、携帯装置102がケース104に据え付けられたときに第2の追加のイメージセンサ312の視野902に部分的に重なり合う。イメージセンサ210が携帯装置102と一体であるとき、視野110は、第2の追加のイメージセンサ312の視野902に常に部分的に重なり合う。携帯装置102は、少なくとも一つのイメージセンサ210からの画像データ及び第2の追加のイメージセンサ312からの画像データをステッチングするように構成された、ハウジング200内の少なくとも一つのプロセッサを有してもよい。具体的には、少なくとも一つのプロセッサは、少なくとも一つのイメージセンサ210からの画像データ及び第2の追加のイメージセンサ312からの画像データを受け取り、イメージセンサ210及び312の相対位置を考慮するスティッチングアルゴリズムを適用するとともに種々の画像の画素の変位をマッピングしてもよい。スティッチングアルゴリズムを、二つ(又はそれより多い)画像を組み合わせるのに用いてもよい。例えば、スティッチングアルゴリズムは、二つの画像の間の重複エリアを識別すること、画像データのキーポイントを検出及び整合すること、映写面を選択すること等を有してもよい。代替的には、少なくとも一つのプロセッサを、イメージセンサ210から受け取った画像データ、第1の追加のイメージセンサ310から受け取った画像データ及び第2の追加のイメージセンサ312から受け取った画像データの少なくとも一部をタッチセンサー式ディスプレイ300に表示できるようにするためにイメージセンサ(すなわち、210,310及び312)の各々からの画像データを受け取るように構成してもよい。一例において、少なくとも一つのプロセッサは、イメージセンサ210、第1の追加のイメージセンサ310及び第2の追加のイメージセンサ312のうちの少なくとも二つから画像データを同時に受け取るとともに上述したイメージセンサのうちの少なくとも二つからの画像をタッチセンサー式ディスプレイ300に同時に表示させるようにしてもよい。画像の同時の表示の例を図17に示す。
図10は、図3Aに示す第2の例の装置に関連するエッジカメラアセンブリの機能ブロック図である。本開示によれば、携帯装置102は、処理装置1005、ネットワークインタフェース1015、メモリインタフェース1002及び周辺機器インタフェース1004を有する。これらの構成要素を分離することができる又は一つ以上の集積回路に集積することができる。携帯装置102の種々の構成要素を、一つ以上の通信バス又は信号線によって結合することができる。
センサ、装置及びサブシステムを、複数の機能を促進するために周辺機器インタフェース1004に結合することができる。例えば、イメージセンサ210、第1の追加のイメージセンサ310、第2の追加のイメージセンサ312及びポジショニングシステム(例えば、GPS受信機)1014を周辺機器インタフェース1004に結合することができる。深さセンサ(depth sensor)、動きセンサ、光センサ、近接センサ、温度センサ及び生体認証センサのような他のセンサ1016を、関連の機能を促進するために周辺機器インタフェース1004に接続することができる。
通信機能を、無線周波数受信機及び送信機及び/又は光(例えば、赤外)受信機及び送信機に接続したイーサネット(登録商標)ポートとすることができるネットワークインタフェース1015を介して促進してもよい。ネットワークインタフェース1015の特定の設計及び実現は、携帯装置102が動作しようとする(一つ以上の)通信ネットワークに依存する。例えば、一部の実施の形態において、携帯装置102は、GSM(登録商標)ネットワーク、GPRSネットワーク、EDGEネットワーク、WiFi(登録商標)又はWiMax(登録商標)ネットワーク及びBluetooth(登録商標)で動作するように設計されたネットワークインタフェース1015を有する。
I/Oシステム1020は、タッチスクリーンコントローラ1021、オーディオコントローラ1022及び/又は(一つ以上の)他の入力コントローラ1023を有してもよい。タッチスクリーンコントローラ1021をタッチセンサー式ディスプレイ300に結合することができる。タッチセンサー式ディスプレイ300及びタッチスクリーンコントローラ1021は、例えば、容量性技術、抵抗性技術、赤外技術及び弾性表面波技術を含むがそれに限定されないタッチ検知技術並びにタッチセンサー式ディスプレイ300への一つ以上の接触点を決定する他の近接センサアレイ又は他の素子のいずれかを用いてタッチ、動き又は制動を検知することができる。タッチセンサー式ディスプレイ300を、例えば、仮想な又はソフトなボタン及び/又はキーボードを実現するのに用いることもできる。
オーディオコントローラ1022を、音声認識、ボイスレプリケーション(voice replication)、デジタル記録及び電話機能のような音声使用可能機能(voice−enabled functions)を促進するためにスピーカ1026及びマイクロフォン1028に結合することができる。(一つ以上の)他の入力コントローラ1023を、一つ以上のボタン、ロッカースイッチ、サムホイール、赤外ポート、USBポート、及び/又は、スタイラスのようなポインタ装置等の他の入力/制御装置1030に結合することができる。
メモリインタフェース1002を記憶装置1010に結合することができる。記憶装置1010は、高速ランダムアクセスメモリ、及び/又は、一つ以上の磁気ディスク記憶装置、一つ以上の光記憶装置及び/又はフラッシュメモリ(例えば、NAND,NOR)のような不揮発性メモリを有してもよい。記憶装置1010は、Android(登録商標)、iOS(登録商標)、RTXC(登録商標) Quadros、Linux(登録商標)及びWindows(登録商標)のようなオペレーティングシステム1032、又は、VXWorkS(登録商標)のような埋め込みオペレーティングシステム(embedded operating system)を格納してもよい。オペレーティングシステム1032は、基本的なシステムサービス(basic system service)を処理するとともにハードウェア依存タスクを実行する命令を含むことができる。
記憶装置1010は、一つ以上の追加の装置、一つ以上のコンピュータ及び/又は一つ以上のサーバとの通信を促進するために通信命令1034を格納してもよい。記憶装置1010は、グラフィカルユーザインタフェース処理を促進するためのグラフィカルユーザインタフェース命令1036、センサに関連する処理及び機能を促進するためのセンサ処理命令1038、電話に関連する処理及び機能を促進するための電話命令1040、電子メッセージングに関連する処理及び機能を促進するためのメッセージング命令1042、ウェブブラウジングに関連する処理及び機能を促進するためのウェブブラウジング命令1044、メディア処理に関連する処理及び機能を促進するためのメディア処理命令1046、GPS及びナビゲーションに関連する処理及び機能を促進するためのGPS/ナビゲーション命令1048、カメラ命令1050、及び/又は、他の処理及び機能を促進するための他のソフトウェア命令1052を有することができる。
本開示によれば、下を見るユーザ100の顔に対向するタッチセンサー式ディスプレイ300を有する携帯装置102がユーザ100の手に保持されているときに、イメージセンサ210の視野110は、一般的には移動の経路の方向に延在する。したがって、イメージセンサ210は、移動の経路の方向に沿って画像ストリームを取得することができる。一部の実施の形態において、センサ処理命令1038は、イメージセンサ210からの画像ストリームを処理装置1005によって取得できるようにする命令を有する。一実施の形態において、メディア処理命令1046は、取得した画像におけるユーザ100の移動の経路のオブジェクトの識別を処理装置1005によって行うことができるようにする命令を有してもよい。識別したオブジェクトは、例えば、人、販売施設(sales establishment)又は消火栓である。さらに、本開示の一実施の形態によれば、通信命令1034は、識別したオブジェクトについての情報を処理装置1005によって調べることができる命令を有する。例えば、処理装置1005は、識別したオブジェクトが人であるときに人の名前を調べることができる。例えば、識別したオブジェクトが販売施設である場合、処理装置1005は、販売施設で購入できる商品又は販売施設で利用できるサービスについての詳細を調べることができる。
一実施の形態において、処理装置1005は、識別したオブジェクトを含む取得した画像ストリームをタッチセンサー式ディスプレイ300にリアルタイムで表示することができる。さらに、処理装置1005は、識別したオブジェクトに関連する一つ以上の視覚インジケータをタッチセンサー式ディスプレイ300に表示することができる。用語「視覚インジケータ」は、表示されるアイテム又はコンテンツの表示、例えば、文字、アイコン又は図形を意味する。例えば、識別したオブジェクトが販売施設であるとき、視覚インジケータは、販売施設の名称及び販売施設の販売品を表すアイコンを有してもよい。一部の実施の形態において、視覚インジケータは、売出し(commercial offer)についての情報、例えば、例示的な販売施設の現在行われているセールについての情報を表してもよい。視覚インジケータを、取得したリアルタイム画像ストリームに重ね合わせてもよい。例えば、例示的な販売施設で現在行われているセールを表す視覚インジケータを、販売施設に対応するリアルタイム画像ストリームの一部に重ね合わせてもよい。一部の実施の形態において、画像ストリームの関心のあるエリアが覆い隠されるのを回避するために視覚インジケータの重ね合わせの間にオフセットを追加してもよい。さらに、視覚インジケータは、タッチセンサー式ディスプレイ300にタッチしたときに更なる情報を利用できることの表示を含んでもよい。例えば、クリックできるリンクである。処理装置1005を、タッチ検知に応答して動作を実行するように更にプログラムすることができる。例えば、処理装置1005は、クリックできるリンクへのタッチ検知に応答して例示的な販売施設で現在行われているセールの詳細をタッチセンサー式ディスプレイ300に表示することができる。
一部の実施の形態において、他のソフトウェア命令1052は、識別したオブジェクトに衝突する経路にユーザ100が存在するか否かを処理装置1005によって決定することができる命令を有する。一例として、処理装置1005は、取得した画像ストリームにおいて識別した消火栓に衝突する経路にユーザ100が存在することを決定することができる。処理装置1005は、衝突の決定に応答して、衝突する経路の警告を生成する。警告を、タッチセンサー式ディスプレイ300の視覚インジケータ、スピーカ1026を用いる音声警告、他の入力/制御装置1030に含まれる触覚アクチュエータを用いる触覚警告又は警告システムの二つ以上の組合せを用いてユーザ100に供給してもよい。ユーザ100は、警告に応答して、消火栓への衝突を回避するための回避行動をとることができる。
一部の実施の形態において、処理装置1005は、識別したオブジェクトを含むリアルタイム画像ストリームをタッチセンサー式ディスプレイ300の第1の部分に表示することができ、リアルタイム画像ストリームと同時に対話型ユーザアプリケーションをタッチセンサー式ディスプレイ300の第2部分に表示することができる。処理装置1005は、最初に、識別したオブジェクトを含むリアルタイム画像ストリームをタッチセンサー式ディスプレイ300の約50%に表示するとともに対話型ユーザアプリケーションをタッチセンサー式ディスプレイ300の約50%に表示してもよい。他の実施の形態において、処理装置1005は、最初に、識別したオブジェクトを含むリアルタイム画像ストリームをタッチセンサー式ディスプレイ300の少なくとも約60%に表示するとともに対話型ユーザアプリケーションをタッチセンサー式ディスプレイ300の最大でも約40%に表示してもよい。ユーザ100は、識別したオブジェクトを含むリアルタイム画像ストリームと対話型ユーザアプリケーションの比を変更するために、タッチセンサー式ディスプレイ300のGUI形態を用いて入力を行うことができる。対話型ユーザアプリケーションの一例は、メッセージングアプリケーションである。ユーザ100は、メッセージを送受信するとともに他のユーザとの通信を行うためにメッセージングアプリケーションを用いてもよい。一部の実施の形態において、メディア処理命令1046は、ユーザ100が処理装置1005を用いることによって画像を取得した画像から選択できるようにする命令を有する。例えば、例示的な販売施設の画像は、イメージセンサ210からの画像ストリームにおいて取得される。さらに、メッセージング命令1042は、選択した画像をユーザに処理装置1005を用いてメッセージングアプリケーションを介して他のユーザに送信できるようにする命令を有してもよい。
一部の実施の形態において、GPS/ナビゲーション命令1048は、処理装置1005がポジショニングシステム1014から取得される位置情報を用いることによって目的地までのターンバイターン指示を生成できるようにする命令を有する。ユーザ100が、ユーザの顔がタッチセンサー式ディスプレイに対向する状態で順路を移動すると、処理装置1005は、イメージセンサ210からのリアルタイム画像ストリームをタッチセンサー式ディスプレイ300に表示することができる。処理装置1005は、リアルタイム画像ストリームと同時にターンバイターン指示に関連する少なくとも一つの視覚インジケータをタッチセンサー式ディスプレイ300に表示するために、ポジショニングシステム1014から取得される位置情報を用いてもよい。ターンバイターン指示を、目的地までの移動の経路に関連させることができる。一部の実施の形態において、視覚インジケータは、移動の経路に沿った場所についての情報を有してもよい。具体的には、処理装置1005は、移動の経路からの第1の予め決定された距離の場所及び/又はユーザ100の現在地からの第2の予め決定された距離の場所に関連する視覚インジケータを提供してもよい。第2の予め決定された距離を第1の予め決定された距離より長くしてもよい。例えば、処理装置1005は、移動の経路から最長でも300mしか離れていない場所に関連する視覚インジケータ及びユーザ100の現在地から最長でも500mしか離れていない場所に関連する視覚インジケータを提供してもよい。他の実施の形態において、ポジショニングシステム1014は、コンパスを備え、GPS/ナビゲーション命令1048は、ターンバイターン指示に関連する視覚インジケータを表示するためにコンパスから取得される方向情報を(位置情報と共に)処理装置1005によって用いることができるようにする命令を更に有する。視覚インジケータは、ターンバイターン指示を表す矢印、コンパスの表示、次のターンまでの距離を表す数字、販売施設の名称又は通りの名前を有してもよい。
一部の実施の形態において、GPS/ナビゲーション命令1048は、処理装置1005によって位置情報をポジショニングシステム1014から受け取ることができるようにする命令を有する。ユーザ100が、タッチセンサー式ディスプレイがユーザの顔に対向する状態で順路を移動すると、処理装置1005は、イメージセンサ210からのリアルタイム画像ストリームをタッチセンサー式ディスプレイ300に表示することができる。さらに、処理装置1005は、少なくとも一つの視覚インジケータをタッチセンサー式ディスプレイ300に表示するために、ポジショニングシステム1014から取得される位置情報を用いてもよい。一例として、処理装置1005は、ユーザ100の近くにあるレストランに関連する視覚インジケータを表示するために、ポジショニングシステム1014から取得される位置情報を用いてもよい。リアルタイム画像ストリーム及び視覚インジケータをタッチセンサー式ディスプレイ300の異なる部分に表示してもよい。一部の実施の形態において、視覚インジケータをリアルタイム画像ストリームに重ね合わせてもよい。一部の実施の形態において、GPS/ナビゲーション命令1048及び他のソフトウェア命令1052は、対話型ユーザアプリケーションウィンドウ306に表示される対話型ユーザアプリケーションから得られる情報に基づいてリアルタイム画像ストリームウィンドウ304の拡張現実コンテンツ(例えば、視覚インジケータ)を処理装置1005によって生成できるようにしてもよい。具体的には、対話型ユーザアプリケーションをメッセージングアプリケーションとしてもよく、情報を、意味的テキスト認識(semantic−based text recognition)、ベクトル空間分析、規則に基づく分析(rule−based analysis)、統計分析又は他の既知の技術のような言語分析を用いて得てもよい。例えば、情報は、ユーザ100が空腹であることのようなユーザ100の状態についての情報を有してもよい。その後、処理装置1005は、ユーザ100のエリアのレストランに関連する一つ以上の視覚インジケータをリアルタイム画像ストリームに重ね合わせて表示してもよい。
図11は、図2Aに示す第1の例示的な装置に関連するエッジカメラアセンブリの機能ブロック図である。本開示によれば、着脱自在ケース104は、センサユニット1110を有する。センサユニット1110は、深さセンサ及びイメージセンサ210、センサ光学系1112並びにセンサ駆動回路1114を有する。センサユニット1110は、照明器1122、関連の照明器光学系1124及び照明器駆動回路1120を更に有する。照明器1122を、例えば、閃光光源(flash light source)又は立体照明源(structured light source)としてもよい。センサユニット1110は、コントローラ1116及びインタフェース1118を更に有する。コントローラ1116は、センサ駆動回路1114及び照明器駆動回路1120を制御する。本実施の形態によれば、エッジカメラアセンブリは、制御回路1132、位置情報サービス回路1134及び画像処理回路1136を更に備える。制御回路1132、位置情報サービス回路134及び画像処理回路1136のうちの一つ以上を着脱自在ケースの一部として設けてもよい又は携帯装置102の携帯装置回路1150に集積してもよい。コントローラ1116は、インタフェース1118を介して制御回路1132と通信を行うことができる。携帯装置102のユーザインタフェースは、タッチセンサー式ディスプレイ300、スピーカ1026及び触覚アクチュエータ1142を備える。当業者は、携帯装置102に関連するエッジカメラアセンブリを参照しながら上述した全ての機能を着脱自在ケース104に関連するエッジカメラアセンブリによって実行できることを認識する。
図12Aは、本開示の例示的な実施の形態によるユーザ100に拡張現実を提供する例示的な方法1200を示す。一実施の形態において、方法1200のステップのうちの少なくとも一部を、図10に示す携帯装置102によって実行してもよい。他の実施の形態において、方法1200のステップのうちの少なくとも一部を、図11に示すセンサユニット1110によって実行してもよい。以下の説明において、例示のために図10及び図11の所定の構成要素を参照する。しかしながら、他の実現も可能であり、他の構成要素を、例示的な方法を実現するのに利用してもよい。
ステップ1202において、処理装置1005(又は制御回路1132)は、移動の経路の方向に沿った画像ストリームをイメージセンサ210から取得する。ステップ1204において、処理装置1005(又は制御回路1132)は、取得した画像ストリームにおけるユーザ100の移動の経路のオブジェクトを識別する。識別したオブジェクトは、例えば、人、販売施設又はバス停である。ステップ1206において、処理装置1005(又は制御回路1132)は、識別したオブジェクトについての情報を調べる。一例において、識別したオブジェクトは人であり、処理装置1005は、記憶装置1010の人の名前を調べることができる。他の例において、識別したオブジェクトがバス停であるとき、処理装置1005は、到着する予定となっている次のバスについての詳細を調べることができる。一実施の形態において、識別したオブジェクトについての情報を調べるステップは、識別したオブジェクトを含む画像をリモートサーバに送信することを有してもよく、リモートサーバは、識別したオブジェクトについての情報を検索する。ステップ1208において、処理装置1005(又は制御回路1132)は、識別したオブジェクトを含む取得した画像ストリームをリアルタイムでタッチセンサー式ディスプレイ300に表示する。ステップ1210において、処理装置1005(又は制御回路1132)は、識別したオブジェクトに関連する視覚インジケータをタッチセンサー式ディスプレイ300に表示する。例えば、識別したオブジェクトが販売施設であるとき、視覚インジケータは、販売施設の名称及び販売施設の商品を表すアイコンを含んでもよい。一実施の形態において、視覚インジケータは、売出しについての情報、例えば、例示的な販売施設の現在行われているセールについての情報を表してもよい。視覚インジケータを、取得したリアルタイム画像ストリームに重ね合わせてもよい。例えば、例示的な販売施設で現在行われているセールを表す視覚インジケータを、販売施設に対応するリアルタイム画像ストリームの一部に重ね合わせてもよい。
図13A〜13Cは、開示した実施の形態によるエッジカメラアセンブリの例示的な使用の略図である。図13Aにおいて、取得した画像ストリーム1312は、タッチセンサー式ディスプレイ300に表示される。(本例では「chocolate kitchen」を表す)視覚インジケータ1314は、取得した画像ストリーム1312に重ね合わせされる。さらに、視覚インジケータは、タッチセンサー式ディスプレイ300(例えば、アイコン1316)にタッチしたときに更なる情報を利用できることの表示を有してもよい。アイコン1316へのタッチに応答して、識別したオブジェクトについての更なる詳細がタッチセンサー式ディスプレイ300に表示される。例えば、アイコン1316へのタッチに応答して、更なる詳細1312が図13Bに示すように表示される。さらに、詳細1322は、タッチセンサー式ディスプレイ300(例えば、アイコン1324)にタッチしたときに歩行誘導(walking guidance)を利用できることの表示を有してもよい。アイコン1324へのタッチに応答して、(図13Cに示すような)マップ1332が対話型ユーザアプリケーションウィンドウ306に表示される。本例において、地図は、ユーザ100の位置から「chocolate kitchen」までのルートを有する。
図12Bは、本開示の例示的な実施の形態による識別したオブジェクトへのユーザ100の衝突を回避するための例示的な方法を示す。一実施の形態において、方法1220のステップのうちの少なくとも一部を、図10に示す携帯装置102によって実行してもよい。他の実施の形態において、方法1220のステップのうちの少なくとも一部を、図11に示すセンサユニット1110によって実行してもよい。以下の説明において、例示のために図10及び図11の所定の構成要素を参照する。しかしながら、他の実現も可能であり、他の構成要素を、例示的な方法を実現するのに利用してもよい。
ステップ1222において、処理装置1005(又は制御回路1132)は、移動の経路の方向に沿った画像ストリームをイメージセンサ210から取得する。ステップ1224において、処理装置1005(又は制御回路1132)は、取得した画像ストリームにおけるユーザ100の移動の経路のオブジェクトを識別する。識別したオブジェクトを、例えば、街灯柱としてもよい。ステップ1226において、処理装置1005(又は制御回路1132)は、識別したオブジェクトと衝突する経路にユーザ100が存在するか否かを決定する。一例として、処理装置1005は、取得した画像ストリームの識別される街灯柱に衝突する経路にユーザ100が存在するか否かを決定してもよい。ステップ1228において、処理装置1005は、衝突する経路の警告を生成する。警告を、タッチセンサー式ディスプレイ300の視覚インジケータ、スピーカ1026を用いる音声警告、他の入力/制御装置1030に含まれる触覚アクチュエータを用いる触覚警告又は警告システムの二つ以上の組合せを用いてユーザ100に供給してもよい。ユーザ100は、警告に応答して、街灯柱への衝突を回避するための回避行動をとることができる。他の実施の形態において、画像処理回路1136は、識別したオブジェクトと衝突する経路にユーザ100が存在するか否かを決定することができる。制御回路1132は、衝突の決定に応答して、衝突する経路の警告を生成する。警告を、タッチセンサー式ディスプレイ300の視覚インジケータ、スピーカ1026を用いる音声警告、他の入力/制御装置1030に含まれる触覚アクチュエータを用いる触覚警告又は警告システムの二つ以上の組合せを用いてユーザ100に供給してもよい。
図13Dは、開示した実施の形態によるエッジカメラアセンブリの例示的な使用の略図である。図13Dにおいて、取得した画像ストリーム1312は、タッチセンサー式ディスプレイ300に表示される。本例において、視覚インジケータ1342は、街灯柱と衝突する経路にユーザ100が存在することの警告である。図示したように、ユーザ100が警告に気付くことを確認するために、視覚インジケータ1342を対話型ユーザアプリケーションウィンドウ306に表示してもよい。
図12Cは、本開示の例示的な実施の形態によるユーザ100に拡張現実を提供する例示的な方法1240を示す。一実施の形態において、方法1240のステップのうちの少なくとも一部を、図10に示す携帯装置102によって実行してもよい。他の実施の形態において、方法1240のステップのうちの少なくとも一部を、図11に示すセンサユニット1110によって実行してもよい。以下の説明において、例示のために図10及び図11の所定の構成要素を参照する。しかしながら、他の実現も可能であり、他の構成要素を、例示的な方法を実現するのに利用してもよい。ステップ1242において、処理装置1005(又は制御回路1132)は、移動の経路の方向に沿った画像ストリームをイメージセンサ210から取得する。ステップ1244において、処理装置1005(又は制御回路1132)は、ポジショニングシステム1014(又は位置情報サービス回路1134)から位置情報を取得する。一例として、位置情報は、ユーザ100の位置情報及び目的地までの移動の経路に関連する位置情報を有してもよい。ステップ1246において、処理装置1005(又は制御回路1132)は、取得した画像ストリームをリアルタイムでタッチセンサー式ディスプレイ300に表示する。ステップ1248において、処理装置1005(又は制御回路1132)は、リアルタイム画像ストリームと同時に視覚インジケータをタッチセンサー式ディスプレイ300に表示する。一例において、本実施の形態の視覚インジケータをターンバイターン指示に関連させてもよい。他の例において、本実施の形態の視覚インジケータをユーザ100に近接する位置に関連させてもよい。
図13Eは、開示した実施の形態によるエッジカメラアセンブリの例示的な使用の略図である。取得した画像ストリーム1312は、タッチセンサー式ディスプレイ300の一部に表示される。さらに、目的地までのターンバイターン指示を表す視覚インジケータ1352は、取得した画像ストリーム1312の上に重ね合わされる。
図12Dは、本開示の例示的な実施の形態によるユーザ100に拡張現実を提供する例示的な方法1260を示す。方法1260を、例えば、取得した画像ストリームとゲーム映像(game graphic)とを組み合わせることによって拡張現実を提供するゲームにおいて用いる。一実施の形態において、方法1260のステップのうちの少なくとも一部を、図10に示す携帯装置102によって実行してもよい。他の実施の形態において、方法1260のステップのうちの少なくとも一部を、図11に示すセンサユニット1110によって実行してもよい。以下の説明において、例示のために図10及び図11の所定の構成要素を参照する。しかしながら、他の実現も可能であり、他の構成要素を、例示的な方法を実現するのに利用してもよい。ステップ1262において、処理装置1005(又は制御回路1132)は、移動の経路の方向に沿った画像ストリームをイメージセンサ210から取得する。ステップ1264において、処理装置1005(又は制御回路1132)は、取得した画像ストリームをリアルタイムでタッチセンサー式ディスプレイ300に表示する。ステップ1266において、処理装置1005(又は制御回路1132)は、視覚インジケータをタッチセンサー式ディスプレイ300に表示する。例示的なゲームにおいて、視覚インジケータを、取得した画像ストリームの上に重ね合わされるゲームキャラクターとしてもよい。
図13Fは、開示した実施の形態によるエッジカメラアセンブリの例示的な使用の略図である。取得した画像ストリーム1312は、タッチセンサー式ディスプレイ300の一部に表示される。さらに、ゲームキャラクターを表す視覚インジケータ1362は、取得した画像ストリーム1312の上に重ね合わされる。ゲームキャラクターを、対話型ユーザアプリケーションウィンドウ306に表示されるアプリケーションに関連させてもよい又は関連させなくてもよい。
図14は、開示した実施の形態によるエッジカメラアセンブリの例示的な使用の略図である。本例において、エッジカメラアセンブリによって、現在使われているアプリケーションに画像を「ドラッグ及びドロップ」することができる。具体的には、エッジカメラアセンブリを、携帯装置102で用いられるように構成されたコンピュータ可読媒体に関連させてもよい。コンピュータ可読媒体は、処理装置1005によって実行される際に、ユーザ100が移動経路に沿って移動する際のユーザ100の環境を表す画像データを、少なくとも一つのイメージセンサ210から受け取るステップと、リアルタイム画像ストリームをタッチセンサー式ディスプレイ300に表示する表示するステップと、リアルタイム画像ストリームと同時に対話型ユーザアプリケーションをタッチセンサー式ディスプレイ300に表示する表示するステップと、を処理装置1005によって実行させる命令を有する。例えば、携帯装置102は、対話型ユーザアプリケーションウィンドウ306と同時にリアルタイム画像ストリームウィンドウ304を表示してもよい。本実施の形態のステップは、タッチセンサー式ディスプレイ300を用いるユーザ100がリアルタイム画像ストリームに関連する領域にタッチするとともにリアルタイム画像ストリームのうちの少なくとも1フレーム1400を対話型ユーザアプリケーションに転送できるようにすることと、少なくとも1フレーム1400に関連する対話型ユーザアプリケーションの動作を実行することと、を更に有する。
関連の実施の形態において、対話型ユーザアプリケーションをメッセージングアプリケーションとしてもよく、命令は、少なくとも1フレーム1400を含むメッセージを遠隔の受信者に送信することを更に有する。一実施の形態において、少なくとも1フレーム1400を、少なくとも一つのイメージセンサ210によって取得される単一のフレーム、例えば、画像としてもよい。他の実施の形態において、少なくとも1フレーム1400を、少なくとも一つのイメージセンサ210によって取得される複数のフレーム、例えば、ライブビデオストリームとしてもよい。本実施の形態の提案する実現において、タッチは、リアルタイムストリームに関連する領域(例えば、画像ストリームウィンドウ304)から対話型ユーザアプリケーションに関連する領域(例えば、対話型ユーザアプリケーションウィンドウ306)へのドラッグ及びドロップ動作に従って少なくとも一つのフレーム1400を選択するためにGUI形態1402を押圧することを有してもよい。追加的には、命令は、リアルタイム画像ストリームをバッファリングすることと、メッセージングアプリケーションを介してリアルタイム画像ストリームのバッファリングされた部分を転送できるようにユーザ100がタッチセンサー式ディスプレイ300にタッチできるようにすることと、を更に有する。
図15は、開示した実施の形態によるエッジカメラアセンブリの例示的な使用の略図である。携帯装置102の保持される向きが人によって異なるので、各ユーザの視野の関連の部分も変わる。したがって、開示の他の実施の形態において、ユーザ100の即時の経路の画像をタッチセンサー式ディスプレイ300に表示することができるようにするために携帯装置102の角度方向を修正する調整可能なウィンドウを設ける方法を提供する。調整可能なウィンドウによって、ユーザ100は、リアルタイム画像ストリームウィンドウ304を見るための視野を自由に選択することができる。例えば、リアルタイム画像ストリームウィンドウ304のつまみジェスチャー(pinch gesture)を用いることによって又は特定のGUI形態を用いることによって、ユーザ100は、表示する画像データを選択することができる。画像データの選択を、受け取った画像データのクロッピングとみなすことができる。具体的には、エッジカメラアセンブリを、携帯装置102で用いられるように構成されたコンピュータ可読媒体に関連させてもよい。コンピュータ可読媒体は、処理装置1005によって実行される際に、ユーザ100が移動経路1500に沿って移動する際のユーザ100の環境を表す画像データを、少なくとも一つのイメージセンサ210から受け取るステップを処理装置1005によって実行させる命令を有する。画像1502は、イメージセンサ210から受け取った画像データの一例である。
ステップは、携帯装置102へのリアルタイム表示のために画像データから視野1504を選択することを更に有してもよい。視野1504の選択を、ユーザが視野ウィンドウを選択できるようにする制御装置からのユーザ入力を検出することによってユーザ100により手動で実行してもよい。代替的には、選択は、携帯装置102の角度方向を検出することと、角度方向に基づいて視野1504を自動的に調整することと、を有してもよい。追加的には、選択は、ユーザ100が移動経路1500に沿って移動する際の携帯装置102の動きパターンを検出することと、携帯装置102の動きを補償するために視野ウィンドウ1504を自動的に調整することと、を有してもよい。一例として、選択した視野ウィンドウ1504は、移動経路1500に対応してもよい。ステップは、選択した視野ウィンドウ1504を対話型ユーザアプリケーションウィンドウ306と同時にタッチセンサー式ディスプレイ300に表示することと、視野ウィンドウの外側の画像データをタッチセンサー式ディスプレイ300の表示から除外することと、を更に有してもよい。本開示によれば、命令は、視野ウィンドウ1504をリアルタイムで調整することを更に有してもよい。
図16は、開示した実施の形態によるエッジカメラアセンブリの例示的な使用の略図である。本例において、エッジカメラアセンブリによって、携帯装置102は、単一のジェスチャーを用いて三つ(又はそれ以上)のカメラ入力の間の切替を行うことができる。具体的には、エッジカメラアセンブリは、一つ以上のイメージセンサ210を有してもよく、携帯装置102で使用されるように構成されたコンピュータ可読媒体に関連させてもよい。コンピュータ可読媒体は、第1の方向に延在する第1の光軸(例えば、光軸600)を有する第1のイメージセンサ(例えば、イメージセンサ210)から第1のリアルタイム画像ストリーム1600を受け取るステップと、第1の方向とは異なる第2の方向に延在する第2の光軸(例えば、光軸700)を有する第2のイメージセンサ(例えば、第1の追加のイメージセンサ310)から第2のリアルタイム画像ストリームを受け取るステップと、第1の方向及び第2の方向とは異なる第3の方向に延在する第3の光軸(例えば、光軸702)を有する第3のイメージセンサ(例えば、第2の追加のイメージセンサ312)から第3のリアルタイム画像ストリームを受け取るステップと、を処理装置1005によって実行させる命令を有する。上述した説明において、方法は、携帯装置102に関連する三つ全てのイメージセンサ210からの画像データを受け取ることを有するが、当業者は、本実施の形態を更に少ないカメラによって実施されることを認識する。
ステップは、携帯装置102に表示するために視野ウィンドウを第1のリアルタイム画像ストリーム1602から決定することと、決定した視野ウィンドウ(例えば、選択した視野ウィンドウ1504)に対応するリアルタイム表示をタッチセンサー式ディスプレイ300に行うステップと、タッチセンサー式ディスプレイ300へのユーザのタッチに応答して視野ウィンドウ1504の調整を行うことであって、調整は、第1のリアルタイム画像ストリーム1600からの新たな視野ウィンドウ1504の選択、第2のリアルタイム画像ストリーム1604からの新たな視野ウィンドウ1502の選択及び第3のリアルタイム画像ストリーム1604からの新たな視野ウィンドウ1504の選択のうちの少なくとも一つを有することと、を更に有する。一実施の形態において、視野ウィンドウ1504の調整を行うことは、ディスプレイにおける連続動作を有する。連続動作は、二つの異なる方向に沿って行われ、第1の方向に沿った第1の動作は、リアルタイム画像ストリームの視野ウィンドウを変更し、第2の方向に沿った第2の動作は、リアルタイム画像ストリームのソースを変更する。
図17は、開示した実施の形態によるエッジカメラアセンブリの例示的な使用の略図である。本例において、エッジカメラアセンブリによって、携帯装置102は、互いに横切る光軸に沿って取得した2方向画像を表示、格納及び/又は共有することができる。例えば、ユーザ100の前方の環境のビデオを、ユーザの顔の画像と同時に取得してもよい。具体的には、エッジカメラアセンブリは、互いに横切る光軸に沿って取得した2方向ビデオストリームを表示するために携帯装置102に関連させてもよい。携帯装置102は、上側面202、下側面204及び側端(例えば、端部面206)を有するハウジング200を有してもよい。携帯装置102は、上側面202に配置されたタッチセンサー式ディスプレイ300と、上側面202から離れる第1の方向に延在する第1の光軸を有する第1のイメージセンサ(例えば、第1の追加のイメージセンサ310)であって、携帯装置102がタッチセンサー式ディスプレイ300を見るユーザ100の手に保持されているときにユーザ100の顔を取得するように構成された、第1のイメージセンサと、を更に有してもよい。携帯装置102は、側端に少なくとも部分的に組み込まれるとともに側端から離れる第2の方向に延在する第2の光軸を有する第2のイメージセンサであって、携帯装置102がタッチセンサー式ディスプレイ300を見るユーザ100の手に保持されているときユーザ100の移動経路1500を取得するように構成され、第1の方向は第2の方向を横切る、第2のイメージセンサを更に有してもよい。携帯装置102は、ユーザ100の顔の第1のリアルタイム画像ストリームを第1のイメージセンサから取得し、ユーザ100の移動経路1500の第2のリアルタイム画像ストリームを第2のイメージセンサから取得し、ユーザ100の顔及びユーザ100の移動経路1500の2方向表示をタッチセンサー式ディスプレイ300においてリアルタイムで行うようにプログラムされた少なくとも一つのプロセッサ(例えば、処理装置1005)を更に有してもよい。
関連の実施の形態において、2方向表示は、第1のリアルタイム画像ストリームに対する第1のウィンドウ1700及び第2のリアルタイム画像ストリームに対する第2のウィンドウ1702を有してもよい。リアルタイム画像ストリームウィンドウ304に関連して上述した説明に加えて、第1のウィンドウ1700と第2のウィンドウ1702のうちの少なくとも一方をタッチセンサー式ディスプレイ300へのタッチによって実現可能にしてもよい。例えば、第2のウィンドウ1702を、タッチセンサー式ディスプレイ300の約15%、約30%又は約50%としてもよい。追加的には、第1のウィンドウ1700と第2のウィンドウ1702のうちの少なくとも一方の位置をタッチセンサー式ディスプレイ300へのタッチによって移動可能にしてもよい。他の関連の実施の形態において、少なくとも一つのプロセッサは、規定された期間中に2方向表示を格納すること、リアルタイムの2方向表示を遠隔の受信者に無線送信すること、リアルタイムの2方向表示をサーバに無線でアップロードすること、及び/又は、2方向表示を対話型ユーザアプリケーションに転送することを更に行ってもよい。追加的には、少なくとも一つのプロセッサは、2方向表示に関連する領域から対話型ユーザアプリケーションに関連する領域へのドラッグ及びドロップ動作を識別したときに2方向表示を転送してもよい。
図18は、開示した実施の形態によるエッジカメラアセンブリの例示的な使用の略図である。本例において、エッジカメラアセンブリを自己起動させる方法を提供する。例えば、処理装置1005が、(保持を表す傾斜角度のような)適切な向きで前方に移動することを表す信号を受け取るとき、処理装置1005は、エッジカメラアセンブリを自動的に起動させるとともに画像データをタッチセンサー式ディスプレイ300に表示させる。具体的には、エッジカメラアセンブリを、携帯装置102で用いられるように構成されたコンピュータ可読媒体に関連させてもよい。コンピュータ可読媒体は、処理装置1005によって実行される際に、以下のステップを処理装置1005によって実行させる命令を有する。ステップ1800は、携帯装置102が前進運動しているという第1の表示を携帯装置102の少なくとも一つのセンサから受け取ることを有する。一実施の形態において、少なくとも一つのセンサは、加速度計を有してもよく、第1の表示は、加速度に関連する測定を有してもよい。例えば、第1の表示は、予め決定された時間中に測定された約2km/時と35km/時の間の速度である。ステップ1802は、携帯装置102のイメージセンサ(例えば、イメージセンサ210)が画像を取得する向きにあるという第2の表示を携帯装置102の少なくとも一つのセンサから受け取ることを有する。一実施の形態において、少なくとも一つのセンサは、傾斜を検出するセンサを含み、第2の表示は、携帯装置102の傾斜角に対応する。例えば、傾斜角は、携帯通信装置のユーザが歩行する面に対して約0°と約45°の間であってもよい。代替的には、少なくとも一つのセンサは、近接センサを含み、第2の表示は、少なくとも一つのセンサが遮られているか否かの反映である。ステップ1806において、第1の表示と第2の表示の両方に応答して、順路画像のリアルタイム表示をタッチセンサー式ディスプレイ300に自動的に行う。
関連の実施の形態において、命令は、携帯装置102の速度が予め決定されたしきい値を超えたことを検出したときに、携帯装置102の傾斜角が予め決定された範囲内にあるときに、携帯装置102の速度が予め決定されたしきい値より下に減少したことを検出したときに、及び/又は、携帯装置102の速度が予め決定されたしきい値を超えたことを検出したときに、自動的に取得を行うように構成される。追加的には、命令は、画像取得のための予め決定されたしきい値をユーザ100によって選択できるように構成され、予め決定されたしきい値は、速度と携帯装置102の向きのうちの少なくとも一方を含む。一実施の形態において、命令は、タッチセンサー式ディスプレイ300がアクティブであるか否かを検出することと、アクティブなディスプレイの検出と第1の表示及び第2の表示の両方との組合せに応答して、順路画像のリアルタイム表示をタッチセンサー式ディスプレイ300に自動的に行うことと、を更に有する。他の実施の形態において、命令は、携帯装置102のバッテリ状態が予め規定されたしきい値より高いか否かを決定することと、バッテリ状態が予め規定されたしきい値より高いことの決定と第1の表示及び第2の表示の両方との組合せに応答して、順路画像のリアルタイム表示をタッチセンサー式ディスプレイ300に自動的に行うことと、を更に有する。
図19は、開示した実施の形態によるエッジカメラアセンブリの例示的な使用の略図である。本例において、エッジカメラアセンブリは、一つのイメージセンサを2方向から画像データを取得するのに用いるように携帯装置102のケーシングに組み込まれる。図19に示すように、多方向カメラを、携帯装置102のベゼル(bezel)に組み込んでもよい。具体的には、本実施の形態において、画像取得ケーシングを提供する。画像取得ケーシングは、上向きの表示面(例えば、タッチセンサー式ディスプレイ300)及び反対側の下側面(例えば、下側面204)を有する。画像取得ケーシングは、携帯装置102の少なくとも一部を包囲するハウジング200と、イメージセンサ210と、表示面にリアルタイムの表示を行うために画像データをイメージセンサ210から伝送する回路と、を有してもよい。本実施の形態において、イメージセンサ210は、ハウジング200に搭載されるとともに第1の方向に延在する第1の光軸及び第1の方向とは異なる第2の方向に延在する第2の光軸を有してもよく、第1の光軸は、携帯装置102がハウジング200によって保持されているときに下側面に対して一定の鈍角に向けられるように構成される。本実施の形態によれば、周辺端部面から延在する第1の方向の画像データ及び上向きの表示面から延在する第2の方向の画像データをイメージセンサ210によって取得できるようにするために、イメージセンサ210を、ハウジング200に組み込まれた光学装置1900に関連させてもよい。第1の形態において、第1の光軸と第2の光軸の間の角度は鈍角である。第1の形態において、第2の光軸と第2の光軸の間の角度は鋭角である。角度の例を、図6〜9を参照しながら上述した。
図20は、開示した実施の形態によるエッジカメラアセンブリの例示的な使用の略図である。本例において、エッジカメラアセンブリによって、携帯装置102がユーザ100の活動に基づいて視野ウィンドウ1504を変更できる。例えば、自転車に搭載された携帯装置は、歩行するユーザの視野とは異なる視野ウィンドウを必要とすることがある。本実施の形態において、ユーザの活動を検出するとともに検出した活動に基づいて視野ウィンドウを変更する方法を提供する。具体的には、エッジカメラアセンブリを、携帯装置102で用いられるように構成されたコンピュータ可読媒体に関連させてもよい。コンピュータ可読媒体は、処理装置1005によって実行される際に、ユーザ100が移動経路1500に沿って移動する際のユーザ100の環境を表す画像データをイメージセンサ210から受け取るステップと、ユーザ100が関与する活動を反映する情報を、少なくとも一つのセンサから受け取るステップと、を処理装置1005によって実行させる命令を有する。活動を反映する情報は、速度の表示、加速度の表示及び/又は携帯装置102の傾斜角の表示を有してもよい。複数の活動は、歩行、自転車の運転、車の運転。オートバイの運転、及び、セグウェイ、スクーター、ホバーボード等のような他の任意のモータ付き車両(motored vehicle)のうちの少なくとも二つを含んでもよい。実施の形態のステップは、メモリにある複数の活動のインジケータ及び各活動に関連する視野ウィンドウにアクセスするステップと、携帯装置102へのリアルタイム表示のために、視野ウィンドウ1504を選択するステップであって、選択した視野ウィンドウは、ユーザ100が現在関与する活動に関連するステップと、選択した視野ウィンドウを携帯通信装置のディスプレイに適用するステップと、を更に有する。一実施の形態において、視野を選択することは、ユーザの経路に関連する境界を超える画像データを視野から除外するための画像認識アルゴリズムを実行することを有してもよい。
図21は、開示した実施の形態によるエッジカメラアセンブリの例示的な使用の略図である。現在、オンライン地図サービス(例えば、Google(登録商標)マップのストリートビュー)は、長期間に亘って時代遅れの画像を提供する。この理由は、オンライン地図を維持する企業が数か月又は数年ごとにストリートビュー画像を取得できるからである。しかしながら、エッジカメラアセンブリを有する携帯装置102を常に用いるユーザのコミュニティは、ユーザの周辺の画像を常に取得できる。この情報を、オンライン地図サービスにストリートビューを更に頻繁に規則的にアップロードする及び/又はユーザのコミュニティの環境の3次元走査インデックス(3D scanning index)をクラウドソースするのに用いてもよい。一例において、携帯装置102の端部に組み込まれた複数のイメージセンサ210からの統合した画像データを用いてストリートビューマップ及び/又は3次元走査インデックスのクラウドソースによる生成を行うシステムを提供する。システムは、地理的地域のストリートビューマップ及び/又は3次元走査インデックスを維持し、GPS座標をストリートビューマップ及び/又は3次元走査インデックスの位置に関連させるように構成された処理装置1005を備える。処理装置1005は、画像データ(例えば、リアルタイムで又は後に受信したストリートビュー画像)を、複数のユーザ100の複数の携帯装置102の端部に組み込まれた複数のイメージセンサ210から受信し、受信した画像データに関連するGPS位置を、複数の携帯装置102の各々から受信するように更に構成される。その後、処理装置1005は、受信したストリートビュー画像に関連するGPS位置がストリートビューマップ及び/又は3次元走査インデックスのGPS位置に対応するときに、ストリートビューマップ及び/又は3次元走査インデックスを、複数のイメージセンサからの受信したストリートビュー画像で更新する。
関連の実施の形態において、処理装置1005は、個人情報を分かりにくくするために携帯装置102がストリートビュー画像を変更した後に複数の携帯電話からストリートビュー画像を受信してもよい。例えば、処理装置1005は、複数のユーザ100に関連するメタ情報を用いることなく複数の携帯装置102からストリートビュー画像を受信してもよい。処理装置1005は、関心のある特定位置及び/又は関心のあるエリアの画像を要求してもよい。さらに、処理装置1005は、ストリートビュー画像の各々に関連するタイムスタンプを受信するとともに複数の重なり合うストリートビュー画像を複数のユーザ100から受信した後にマップを最新のストリートビュー画像で更新してもよい。処理装置1005は、複数のユーザ100から受信した重なり合うストリートビュー画像を統合するとともにマップを統合されたストリートビュー画像で更新してもよい。本実施の形態の一つの実現を示す例を図21に示す。本例において、サーバ2100は、店2102の現在のストリートビュー画像が更新されてないと決定することができる。サーバ2100は、店2102の更新された画像を要求する表示を携帯装置102に送信する。イメージセンサ210を用いる携帯装置102は、ユーザの介入なく、一代替においてはユーザが知識を有することなく、店2102の画像を取得することができる。ストリートビュー画像は、ネットワーク2104を介してサーバ2100に転送され、その後、オンライン地図サービス2108が更新される。
図22は、開示した実施の形態によるエッジカメラアセンブリの例示的な使用の略図である。本開示によれば、イメージセンサ210によって取得した画像データと関わる対話型ユーザアプリケーションにアクセスするユーザ100に便利な方法を提供するコンピュータ実現方法を提供する。一例において、ユーザ100が、リアルタイム画像ストリームウィンドウ304に位置するGUI形態220を押圧した後、複数の対話型ユーザアプリケーションに関連する複数のアイコン(例えば、アイコン2202)をリアルタイム画像ストリームウィンドウ304に表示する。ユーザ100は、どのアイコンをリアルタイム画像ストリームウィンドウ304に表示するかを選択するオプションを有してもよい。一実施の形態において、ユーザ100が、複数の対話型ユーザアプリケーションに関連するアイコンの一つを押圧した後、対応する対話型ユーザアプリケーションを対話型ユーザアプリケーションウィンドウ304に開く。メージセンサ210によって取得した画像データとかかわる対話型ユーザアプリケーションの一例を、図14を参照しながら上述した。
以上の説明を例示のために行った。以上の説明は、包括的ではなく、開示した正確な形態又は実施の形態に限定されない。変更及び適合は、明細書の考察及び開示した実施の形態の実施から当業者に明らかである。さらに、開示した実施の形態の態様をメモリに格納されたものとして説明したが、当業者は、これらの態様を二次記憶装置、例えば、ハードディスク若しくはCD ROM、RAM若しくはROMの他の形態、USBメディア、DVD、Blu−ray(登録商標)又は他の光ドライブメディア(optical drive media)のような他のタイプのコンピュータ可読媒体に格納することもできることがわかる。
明細書及び開示した方法に基づくコンピュータプログラムは、経験のある開発者の技術の範囲内である。種々のプログラム又はプログラムモジュールを、当業者に知られている技術のいずれかを用いて作成することができる又は既存のソフトウェアに関連して設計することができる。例えば、プログラムセクション又はプログラムモジュールを、Net Framework(登録商標)、Net Compact Framework(及びVisual Basic(登録商標),C等の関連の言語)、Java(登録商標)、C++(登録商標)、Objective−C(登録商標)、HTML、HTML/AJAXの組合せ又はJava(登録商標)アプレットを埋め込んだHTMLを介して設計することができる。
さらに、ここでは例示の実施の形態を説明したが、任意の及び全ての実施の形態の範囲は、本開示に基づいて当業者によって理解できるような等価の要素、変形、省略、(例えば、種々の実施の形態に亘る態様の)組合せ、適合及び/又は変更を有する。特許請求の範囲の限定は、特許請求の範囲で用いられる言葉に基づいて広く解釈されるべきであり、本願の手続中に本明細書に記載した例に限定されるものではない。例は、包括的なものと解釈すべきである。さらに、開示した方法のステップを、ステップの並び替え及び/又はステップの挿入若しくは削除を含む任意の方法で変更してもよい。したがって、明細書及び例を例示として考慮すべきであり、正確な範囲及び精神は、特許請求の範囲及び等価物の全範囲によって表される。

Claims (180)

  1. 上向きの表示面及び反対側の下側面を有する、手持ち式携帯通信装置のための画像取得ケーシングであって、
    前記手持ち式携帯通信装置の少なくとも一部を包囲するハウジングと、
    前記ハウジングに搭載されるとともに前記手持ち式携帯通信装置が前記ハウジングによって保持されているときに前記下側面に対して一定の鈍角に向けられるように構成された少なくとも一つの光軸を有する少なくとも一つのイメージセンサであって、前記少なくとも一つのイメージセンサは、ユーザが歩行するときにユーザが歩行する面に対して鋭角に向けられ、前記少なくとも一つの光軸は、一般的にはユーザの歩行方向を向く、少なくとも一つのイメージセンサと、
    前記表示面にリアルタイムの表示を行うために画像データを前記少なくとも一つのイメージセンサから伝送する回路と、
    を備える画像取得ケーシング。
  2. 前記ハウジングは、前記手持ち式携帯通信装置の追加のイメージセンサの光軸が通過できるように構成された孔を有し、前記追加のイメージセンサは、前記ハウジングに搭載された前記少なくとも一つのイメージセンサとは異なる請求項1に記載の画像取得ケーシング。
  3. 前記ハウジングは、前記少なくとも一つのイメージセンサを保持する少なくとも一つのチャネルを有し、前記チャネルの軸は、前記手持ち式携帯通信装置が前記ハウジングによって保持されているときに前記下側面の一部に対して鈍角に前記ハウジングから延在する請求項1に記載の画像取得ケーシング。
  4. 前記ハウジングは、周辺端部を有し、前記少なくとも一つのイメージセンサは、前記周辺端部に組み込まれている請求項1に記載の画像取得ケーシング。
  5. 前記画像取得ケーシングは、前記手持ち式携帯通信装置と一体である請求項1に記載の画像取得ケーシング。
  6. 前記手持ち式携帯通信装置は、前記表示面に直角に向いた光軸を有する第1の追加のイメージセンサと、前記下側面の下に組み込まれた第2の追加のイメージセンサと、を更に有する請求項5に記載の画像取得ケーシング。
  7. 前記少なくとも一つのイメージセンサ、前記第1の追加のイメージセンサ及び前記第2の追加のイメージセンサからの画像データを、前記回路を介して取得し、
    前記少なくとも一つのイメージセンサからの画像、前記第1の追加のイメージセンサからの画像及び前記第2の追加のイメージセンサからの画像を前記表示面に同時に表示するように構成された少なくとも一つのプロセッサを更に備える請求項6に記載の画像取得ケーシング。
  8. 前記手持ち式携帯通信装置に選択的に接続可能であるとともに前記手持ち式携帯通信装置から選択的に分離可能となるように構成された請求項1に記載の画像取得ケーシング。
  9. 前記手持ち式携帯通信装置が前記ハウジングに据え付けられたときに前記手持ち式携帯通信装置のポートと電気的な接続を行うコネクタを更に有する請求項8に記載の画像取得ケーシング。
  10. 前記少なくとも一つのイメージセンサに給電するように構成された、前記ハウジング内のバッテリを更に有する請求項8に記載の画像取得ケーシング。
  11. 前記回路は、前記手持ち式携帯通信装置内のバッテリから前記少なくとも一つのイメージセンサに電力を供給するように更に構成された請求項8に記載の画像取得ケーシング。
  12. 前記少なくとも一つのイメージセンサに関連する少なくとも一つの光軸の方向に実質的に向いた指向性マイクロホンを更に有する請求項1に記載の画像取得ケーシング。
  13. 前記手持ち式携帯通信装置は、携帯電話とタブレットのうちの少なくとも一方である請求項1に記載の画像取得ケーシング。
  14. ケーシングと、
    前記ケーシングの第1の側にある上向きの表示面と、
    前記ケーシングの第2の側にある、前記表示面の反対側にある下側面と、
    前記ケーシングに搭載されるとともに前記下側面に対して一定の鈍角に向けられるように構成された少なくとも一つの光軸を有する少なくとも一つのイメージセンサであって、前記少なくとも一つのイメージセンサは、前記ケーシングが歩行中のユーザによって保持されるときにユーザが歩行する面に対して鋭角に向けられ、前記少なくとも一つの光軸は、一般的にはユーザの歩行方向を向く、少なくとも一つのイメージセンサと、
    前記表示面にリアルタイムの表示を行うために画像データを前記少なくとも一つのイメージセンサから伝送する回路と、
    を備える手持ち式携帯通信装置。
  15. 前記ケーシングの前記第1の側に組み込まれるとともに前記表示面から離れる第1の方向に向かう第1の追加の光軸を有する第1の追加のイメージセンサと、
    前記ケーシングの前記第2の側に組み込まれるとともに前記表示面から離れる第2の方向に向かう第2の追加の光軸を有する第2の追加のイメージセンサと、
    を更に備え、前記少なくとも一つのイメージセンサは、前記表示面と前記下側面の間に配置された前記ケーシングの端部に少なくとも部分的に組み込まれ、前記少なくとも一つのイメージセンサの少なくとも一つの光軸は、前記端部から離れる少なくとも一つの第3の方向に延在し、前記少なくとも一つの光軸、前記第1の追加の光軸及び前記第2の追加の光軸は、互いに異なる請求項14に記載の手持ち式携帯通信装置。
  16. 前記少なくとも一つの光軸及び前記第2の追加の光軸は、互いに鋭角に向いている請求項15に記載の手持ち式携帯通信装置。
  17. 前記少なくとも一つの光軸及び前記第2の追加の光軸は、互いに鈍角に向いている請求項15に記載の手持ち式携帯通信装置。
  18. 上向きの表示面及び反対側の下側面を有する、手持ち式携帯通信装置のための着脱自在ケースであって、
    前記手持ち式携帯通信装置の少なくとも一部を包囲するハウジングと、
    前記手持ち式携帯通信装置が前記ハウジングに据え付けられたときに前記手持ち式携帯通信装置のポートと電気的な接続を行うコネクタと、
    前記ハウジングに搭載されるとともに前記手持ち式携帯通信装置が前記ハウジングによって保持されているときに前記下側面に対して一定の鈍角に向けられるように構成された少なくとも一つの光軸を有する少なくとも一つのイメージセンサであって、前記少なくとも一つのイメージセンサは、ユーザが歩行するときにユーザが歩行する面に対して鋭角に向けられ、前記少なくとも一つの光軸は、一般的にはユーザの歩行方向を向く、少なくとも一つのイメージセンサと、
    前記表示面にリアルタイムの表示を行うために画像データを前記少なくとも一つのイメージセンサから伝送する回路と、
    を備える着脱自在ケース。
  19. 前記少なくとも一つのイメージセンサの視野は180°より大きい請求項18に記載の着脱自在ケース。
  20. 前記少なくとも一つのイメージセンサは、複数のイメージセンサを有し、前記少なくとも一つのイメージセンサのうちの少なくとも一つは、前記複数のイメージセンサのうちの他のイメージセンサの視野と重なり合う請求項18に記載の着脱自在ケース。
  21. ユーザが表示情報に関わる間にユーザの前方の環境のリアルタイムの景色を表示する携帯装置であって、
    一般的に中心軸平面を有するハウジングと、
    前記ハウジングの第1の側のタッチセンサー式ディスプレイと、
    前記第1の側の反対側にある前記ハウジングの第2の側の後部と、
    前記第1の側と前記第2の側の間の周辺端部面と、
    前記ハウジング内に固定され、前記ハウジングの第1の側、前記ハウジングの第2の側及び前記中心軸平面の各々に対して直角でない角度の固定された光軸を有する少なくとも一つのイメージセンサと、
    を備える携帯装置。
  22. 前記少なくとも一つのイメージセンサは、前記周辺端部面に少なくとも部分的に組み込まれた請求項21に記載の携帯装置。
  23. 前記少なくとも一つのイメージセンサの前記固定された光軸は、前記中心軸平面に対して約5°と約80°の間で傾斜している請求項21に記載の携帯装置。
  24. 前記少なくとも一つのイメージセンサの前記固定された光軸は、前記中心軸平面に対して約10°と約70°の間で傾斜している請求項21に記載の携帯装置。
  25. 前記少なくとも一つのイメージセンサの視野は60°より大きい請求項21に記載の携帯装置。
  26. 前記ハウジングの前記第1の側に組み込まれるとともに前記第1の側から離れる第1の方向に延在する第1の追加の光軸を有する第1の追加のイメージセンサと、
    前記ハウジングの前記第2の側に組み込まれるとともに前記第1の側から離れる第2の方向に延在する第2の追加の光軸を有する第2の追加のイメージセンサと、
    を更に備え、前記少なくとも一つのイメージセンサの光軸は、前記第1の追加の光軸に対して一定の鈍角に向くとともに前記第2の追加の光軸に対して一定の鋭角に向く請求項21に記載の携帯装置。
  27. 前記少なくとも一つのイメージセンサの視野は、前記第2の追加のイメージセンサの視野と部分的に重なり合う請求項26に記載の携帯装置。
  28. 前記第1の追加のイメージセンサからの画像データ及び前記第2の追加のイメージセンサからのデータをステッチングするように構成された、前記ハウジング内の少なくとも一つのプロセッサを更に備える請求項27に記載の携帯装置。
  29. 前記少なくとも一つのイメージセンサ、前記第1の追加のイメージセンサ及び前記第2の追加のイメージセンサからの画像データを取得し、
    前記少なくとも一つのイメージセンサから受け取った画像データ、前記第1の追加のイメージセンサから受け取った画像データ及び前記第2の追加のイメージセンサから受け取った画像データの少なくとも一部を前記タッチセンサー式ディスプレイに表示可能とするように構成された少なくとも一つのプロセッサを更に備える請求項26に記載の携帯装置。
  30. 前記少なくとも一つのイメージセンサ、前記第1の追加のイメージセンサ及び前記第2の追加のイメージセンサからの画像データを同時に取得し、
    前記イメージセンサのうちの少なくとも二つからの画像を前記タッチセンサー式ディスプレイに同時に表示するように構成された少なくとも一つのプロセッサを更に備える請求項29に記載の携帯装置。
  31. 前記少なくとも一つのセンサは、前記周辺端部面に固定して配置された第1のイメージセンサ及び第2のイメージセンサを有する請求項21に記載の携帯装置。
  32. 前記第1のイメージセンサの視野は、前記第2のイメージセンサの視野と部分的に重なり合う請求項31に記載の携帯装置。
  33. 前記少なくとも一つのイメージセンサは、第1の方向から延在する第1の光軸及び前記第1の光軸とは異なる第2の方向に延在する第2の光軸を有するイメージセンサを有し、前記第1の光軸は、前記第1の側に対して一定の鈍角に向けられるように構成された請求項21に記載の携帯装置。
  34. 前記第1の方向は、前記周辺端部面から延在し、前記第2の方向は、前記第1の側から延在する請求項33に記載の携帯装置。
  35. タッチセンサー式ディスプレイを有する携帯装置のための着脱自在ケースであって、
    前記携帯装置の少なくとも一部を包囲するハウジングであって、前記ハウジングは、第1の側と、前記第1の側の反対側にある第2の側と、前記第1の側及び前記第2の側と相互に連結するとともに一般的に中心軸平面を有する周辺端部面と、を有する、ハウジングと、
    前記携帯装置が前記ハウジングに据え付けられたときに前記携帯装置のポートと電気的な接続を行うコネクタと、
    前記ハウジング内に固定され、前記ハウジングの第1の側、前記ハウジングの第2の側及び前記中心軸平面の各々に対して直角でない角度の固定された光軸を有する少なくとも一つのイメージセンサと、
    前記タッチセンサー式ディスプレイの面にリアルタイムの表示を行うために画像データを前記少なくとも一つのイメージセンサから伝送する回路と、
    を備える着脱自在ケース。
  36. 前記回路は、前記携帯装置の前方の環境のリアルタイムの景色を対話型ユーザアプリケーションウィンドウと同時に前記タッチセンサー式ディスプレイに表示するために前記少なくとも一つのイメージセンサからの画像データを伝送するように構成された請求項35に記載の着脱自在ケース。
  37. 前記回路は、無線接続を介して前記画像データを伝送するように構成された請求項35に記載の着脱自在ケース。
  38. 前記回路は、有線接続を用いて前記画像データを伝送するように構成された請求項35に記載の着脱自在ケース。
  39. 前記ハウジングは、前記携帯装置に組み込まれた追加のイメージセンサを露出するための開口を有する請求項35に記載の着脱自在ケース。
  40. 前記少なくとも一つのイメージセンサの視野は、前記携帯装置に組み込まれた前記追加のイメージセンサの視野と重なり合う請求項39に記載の着脱自在ケース。
  41. 移動の順路を進む間に下方を見るユーザに拡張現実を提供するように構成された手持ち式携帯通信装置であって、
    上面、下面及び側端を有するハウジングと、
    前記上面に配置されたタッチセンサー式ディスプレイと、
    前記タッチセンサー式ディスプレイが下を見るユーザの顔に対向した状態で前記手持ち式携帯通信装置がユーザに保持されるような向きに前記ハウジング内に固定して組み込まれたイメージセンサと、
    前記イメージセンサから画像ストリームを取得し、
    取得した画像ストリームにおけるユーザの移動の経路のオブジェクトを識別し、
    識別したオブジェクトについての情報を調べ、
    前記識別したオブジェクトを含む前記取得した画像ストリームをリアルタイムで前記タッチセンサー式ディスプレイに表示し、
    前記識別したオブジェクトに関連する視覚インジケータを前記タッチセンサー式ディスプレイに表示するようにプログラムされた少なくとも一つのプロセッサと、
    を備える手持ち式携帯通信装置。
  42. 前記視覚インジケータは、アイコン又は単語を含む請求項41に記載の携帯通信装置。
  43. 前記視覚インジケータは、売出しについての情報を含む請求項41に記載の携帯通信装置。
  44. 前記オブジェクトは、人であり、調べられる情報は、人の名前を含む請求項41に記載の携帯通信装置。
  45. 前記オブジェクトは、販売施設であり、前記情報は、前記販売施設で入手できる製品又はサービスについての詳細を含む請求項41に記載の携帯通信装置。
  46. 前記少なくとも一つのプロセッサは、前記オブジェクトとの衝突コースにユーザが存在するか否を決定するとともに前記衝突コースの警告を生成するように更にプログラムされた請求項41に記載の携帯通信装置。
  47. 前記警告は、触知できる警告、視覚的な警告及び音声のうちの少なくとも一つ又は触知できる警告、視覚的な警告及び音声の組合せである請求項46に記載の携帯通信装置。
  48. 前記少なくとも一つのプロセッサは、前記識別した物体を含む取得したリアルタイム画像ストリームを前記タッチセンサー式ディスプレイの第1の部分に表示するとともに前記取得したリアルタイム画像ストリームと同時に対話型ユーザアプリケーションを前記タッチセンサー式ディスプレイの第2の部分に表示するように更にプログラムされた請求項41に記載の携帯通信装置。
  49. 前記対話型ユーザアプリケーションは、メッセージングアプリケーションであり、前記少なくとも一つのプロセッサは、ユーザが前記メッセージングアプリケーションを介して少なくとも一つの画像を前記取得した画像ストリームからリアルタイムで送信できるように更にプログラムされた請求項48に記載の携帯通信装置。
  50. 前記少なくとも一つのプロセッサは、前記視覚インジケータをリアルタイム画像ストリームに重ね合わせるように更にプログラムされた請求項41に記載の携帯通信装置。
  51. 前記視覚インジケータは、前記タッチセンサー式ディスプレイにタッチする際に更なる情報を利用できる表示を含み、前記少なくとも一つのプロセッサは、前記視覚インジケータへのユーザのタッチに応答して動作を実行するように更にプログラムされた請求項41に記載の携帯通信装置。
  52. GPSチップを更に備え、前記少なくとも一つのプロセッサは、
    目的地までの一連のターンバイターン指示を方向誘導アプリケーションから受け取り、
    ユーザの顔が前記タッチセンサー式ディスプレイに対向した状態でユーザが順路を進む際に、前記イメージセンサからの取得したリアルタイム画像ストリームを前記タッチセンサー式ディスプレイに表示し、
    前記ターンバイターン指示に関連した少なくとも一つの視覚インジケータを前記取得したリアルタイム画像ストリームと同時に表示するために、前記GPSチップから取得した位置情報を用いるように更にプログラムされた請求項41に記載の携帯通信装置。
  53. コンパスを更に備え、前記少なくとも一つのプロセッサは、前記少なくとも一つの視覚インジケータを表示するために、前記GPSチップから取得した前記位置情報及び前記コンパスから取得した方向情報用いるように更にプログラムされた請求項52に記載の携帯通信装置。
  54. 前記ターンバイターン指示は、移動の経路に関連し、前記少なくとも一つの視覚インジケータは、前記移動の経路に沿った位置についての情報を含む請求項52に記載の携帯通信装置。
  55. 前記少なくとも一つの視覚インジケータは、矢印、コンパスの表示、次のターンまでの距離を表す数字、販売施設の名称及び通りの名前のうちの少なくとも一つを含む請求項52に記載の携帯通信装置。
  56. タッチセンサー式ディスプレイを有する手持ち式携帯通信装置のための着脱自在ケースであって、
    上面、下面及びこれらの間の端部を有するハウジングと、
    少なくとも一つのイメージセンサであって、前記手持ち式携帯通信装置が前記着脱自在ケースに据え付けられるとともに前記タッチセンサー式ディスプレイが下を見るユーザの顔に対向する状態で下を見るユーザの手に保持されたときに、前記少なくとも一つのイメージセンサの光軸が一般的には移動の経路の方向に延在するような向きに前記ハウジングに組み込まれる少なくとも一つのイメージセンサと、
    前記手持ち式携帯通信装置が前記ハウジングに据え付けられたときに前記手持ち式携帯通信装置のポートと電気的な接続を行うコネクタと、
    前記着脱自在ケースに組み込まれた少なくとも一つのコンデュイットであって、前記少なくとも一つのイメージセンサの間に延在するとともに前記コネクタによって前記少なくとも一つのイメージセンサに電気的に接続して前記少なくとも一つのイメージセンサから前記手持ち式携帯通信装置へのリアルタイム画像ストリームを可能にする、少なくとも一つのコンデュイットと、
    視覚インジケータを前記リアルタイム画像ストリームに重ね合わせる少なくとも一つのプロセッサと、
    を備える着脱自在ケース。
  57. 前記少なくとも一つのイメージセンサは、前記コネクタに対向する端部の一部内に組み込まれ、前記少なくとも一つのコンデュイットは、前記イメージセンサと前記コネクタの間で前記ハウジングを横断する請求項56に記載の着脱自在ケース。
  58. 下を向いて手持ち式携帯通信装置のタッチセンサー式ディスプレイを見る間に移動の順路を進むユーザに拡張現実を提供する方法であって、
    イメージセンサから画像ストリームを取得することであって、前記手持ち式携帯通信装置が、前記タッチセンサー式ディスプレイが下方を見るユーザの顔に対向する状態で下を見るユーザの手に保持されたときに、前記イメージセンサは、前記イメージセンサの光軸が一般的には移動の経路の方向に延在するような向きに前記手持ち式携帯通信装置のケーシングに固定して組み込まれることと、
    取得した画像ストリームにおけるユーザの移動の経路のオブジェクトを識別することと、
    識別したオブジェクトについての情報を調べることと、
    前記識別したオブジェクトを含む前記取得した画像ストリームを、前記タッチセンサー式ディスプレイにリアルタイムで表示することと、
    前記識別したオブジェクトに関連する視覚インジケータを前記タッチセンサー式ディスプレイに表示することと、
    を備える方法。
  59. 前記ケーシングは、前記手持ち式携帯通信装置と一体である請求項58に記載の方法。
  60. 前記ケーシングは、前記手持ち式携帯通信装置から分離可能である請求項58に記載の方法。
  61. 上向きの表示面及び反対側の下側面を有する、手持ち式携帯通信装置のための画像取得ケーシングであって、
    前記手持ち式携帯通信装置の少なくとも一部を包囲するハウジングと、
    前記ハウジングに搭載されるとともに第1の方向に延在する第1の光軸及び前記第1の方向とは異なる第2の方向に延在する第2の光軸を有する少なくとも一つのイメージセンサであって、前記第1の光軸は、前記手持ち式携帯通信装置が前記ハウジングによって保持されているときに前記下側面に対して一定の鈍角に向くように構成された、少なくとも一つのイメージセンサと、
    前記表示面にリアルタイムの表示を行うために画像データを前記少なくとも一つのイメージセンサから伝送する回路と、
    を備える画像取得ケーシング。
  62. 前記画像取得ケーシングは、前記手持ち式携帯通信装置から分離可能である請求項61に記載の画像取得ケーシング。
  63. 前記画像取得ケーシングは、前記手持ち式携帯通信装置と一体である請求項61に記載の画像取得ケーシング。
  64. 前記ハウジングは、周辺端部面を有し、前記第1の方向は前記周辺端部面から延在し、前記第2の方向は前記上向きの表示面から延在する請求項61に記載の画像取得ケーシング。
  65. 前記第1の光軸と前記第2の光軸の間の角度は、鈍角である請求項61に記載の画像取得ケーシング。
  66. 前記第1の光軸と前記第2の光軸の間の角度は、鋭角である請求項61に記載の画像取得ケーシング。
  67. 端部に組み込まれた複数のイメージセンサは、前記ハウジングの前記上向きの表示面と前記下側面とを相互に連結させる請求項61に記載の画像取得ケーシング。
  68. 前記手持ち式携帯通信装置は、携帯電話とタブレットのうちの少なくとも一方である請求項61に記載の画像取得ケーシング。
  69. 前記回路は、無線接続を介して前記画像データを伝送するように構成された請求項61に記載の画像取得ケーシング。
  70. 前記回路は、有線接続を用いて前記画像データを伝送するように構成された請求項61に記載の画像取得ケーシング。
  71. ディスプレイと、
    上面に沿って前記ディスプレイを保持するとともに前記上面の反対にある下面を有するハウジングであって、端部を前記上面と前記下面の間に配置したハウジングと、
    前記上面に組み込まれるとともに前記上面から離れる第1の方向に延在する第1の光軸を有する少なくとも一つの第1のイメージセンサと、
    前記下面に組み込まれるとともに前記下面から離れる第2の方向に延在する第2の光軸を有する少なくとも一つの第2のイメージセンサと、
    前記端部に少なくとも部分的に組み込まれるとともに前記端部から離れる第3の方向に延在する第3の光軸を有する少なくとも一つの第3のイメージセンサであって、前記第1の方向、前記第2の方向及び前記第3の方向は互いに異なる、少なくとも一つの第3のイメージセンサと、
    前記ハウジング内の少なくとも一つのプロセッサであって、前記少なくとも一つの第1のイメージセンサからの画像データ、前記少なくとも一つの第2のイメージセンサからの画像データ及び前記少なくとも一つの第3のイメージセンサからの画像データを受け取り、前記少なくとも一つの第1のイメージセンサからの画像データ、前記少なくとも一つの第2のイメージセンサからの画像データ及び前記少なくとも一つの第3のイメージセンサからの画像データを前記ディスプレイに表示させることができる少なくとも一つのプロセッサと、
    を備える携帯通信装置。
  72. 前記第3の光軸及び前記第2の光軸は、互いに鈍角に向く請求項71に記載の携帯通信装置。
  73. 前記第3の光軸及び前記第1の光軸は、互いに鈍角に向く請求項71に記載の携帯通信装置。
  74. 前記少なくとも一つのプロセッサは、前記少なくとも一つの第1のイメージセンサ、前記少なくとも一つの第2のイメージセンサ及び前記少なくとも一つの第3のイメージセンサのうちの少なくとも二つからの画像情報を同時に受け取るとともに前記少なくとも一つの第1のイメージセンサ、前記少なくとも一つの第2のイメージセンサ及び前記少なくとも一つの第3のイメージセンサのうちの少なくとも二つからの画像を前記ディスプレイに同時に表示するように構成された請求項71に記載の携帯通信装置。
  75. 同時の画像の表示は、少なくとも二つのイメージセンサからの画像を同時にストリーミングすることを有する請求項71に記載の携帯通信装置。
  76. 前記少なくとも一つのプロセッサは、前記少なくとも一つの第2のイメージセンサによって取得した画像データ及び前記少なくとも一つの第3のイメージセンサによって取得した画像データを統合するとともに統合した画像を前記ディスプレイに表示するように更にプログラムされた請求項71に記載の携帯通信装置。
  77. 前記ハウジングは、前記少なくとも一つの第3のイメージセンサとは反対の位置にある少なくとも一つの第4のイメージセンサを有し、前記少なくとも一つのプロセッサは、前記少なくとも一つの第1のイメージセンサからの画像データ、前記少なくとも一つの第2のイメージセンサからの画像データ、前記少なくとも一つの第3のイメージセンサからの画像データ及び前記少なくとも一つの第4のイメージセンサからの画像データを前記ディスプレイに表示できるようにした請求項71に記載の携帯通信装置。
  78. 前記ディスプレイは、タッチセンサー式である請求項71に記載の携帯通信装置。
  79. 上向きの表示面及び反対側の下側面を有する、携帯装置のための画像取得ケーシングであって、
    前記携帯装置の少なくとも一部を包囲するハウジングであって、上面、下面及び前記上面と前記下面を互いに連結する端部を有するハウジングと、
    前記端部に組み込まれる複数のイメージセンサであって、前記複数のイメージセンサの各々は光軸を有し、前記携帯装置が前記ハウジングによって保持されているときに、各光軸は、前記上向きの表示面及び前記下側面に垂直な軸と異なる、複数のイメージセンサと、
    画像データを前記複数のイメージセンサからディスプレイに伝送する回路と、
    を備える画像取得ケーシング。
  80. 前記画像取得ケーシングは、前記携帯装置と一体である請求項79に記載の画像取得ケーシング。
  81. 前記携帯装置は、前記ハウジングの上面から離れて延在する光軸を有する第1の追加のイメージセンサと、前記下側面に組み込まれた第2の追加のイメージセンサと、を有する請求項80に記載の画像取得ケーシング。
  82. 前記ハウジングの上面は、前記下側面に略一致する請求項80に記載の画像取得ケーシング。
  83. 前記画像取得ケーシングは、前記携帯装置から分離可能である請求項79に記載の画像取得ケーシング。
  84. 前記画像取得ケーシングは、前記携帯装置が前記ハウジングに据え付けられたときに前記携帯装置のポートと電気的な接続を行うコネクタを有する請求項83に記載の画像取得ケーシング。
  85. 前記ハウジングは、前記携帯装置に組み込まれた追加のイメージセンサを露出するための開口を有する請求項83に記載の画像取得ケーシング。
  86. 前記複数のイメージセンサの各々は、関連の視野を有し、前記複数のイメージセンサの少なくとも一つの視野は、前記複数のイメージセンサの他のイメージセンサの視野と重なり合う請求項79に記載の画像取得ケーシング。
  87. 前記携帯装置は、重なり合うイメージセンサのうちの少なくとも二つからの画像情報を受け取る少なくとも二つの重なり合うイメージセンサからの画像情報を統合する請求項86に記載の画像取得ケーシング。
  88. 前記統合することは、前記少なくとも二つの重なり合うイメージセンサからの画像情報をステッチングすることを有する請求項87に記載の画像取得ケーシング。
  89. 前記携帯装置は、少なくとも二つの重なり合うイメージセンサからの統合された画像情報を前記ディスプレイに表示するように構成された少なくとも一つのプロセッサを更に有する請求項86に記載の画像取得ケーシング。
  90. 前記携帯装置は、少なくとも二つの重なり合うイメージセンサからの画像情報を用いて仮想的な3次元画像を作成するように構成された少なくとも一つのプロセッサを更に有する請求項86に記載の画像取得ケーシング。
  91. 前記複数のイメージセンサは、二つのイメージセンサを有し、第1のイメージセンサは、前記ハウジングの右上隅の領域に存在し、第2のイメージセンサは、前記ハウジングの左上隅の領域に存在する請求項79に記載の画像取得ケーシング。
  92. 前記複数のイメージセンサは、三つのイメージセンサを有し、第1のイメージセンサは、前記ハウジングの上端に存在し、第2のイメージセンサは、前記ハウジングの右上隅の領域に存在し、第3のイメージセンサは、前記ハウジングの左上隅の領域に存在する請求項79に記載の画像取得ケーシング。
  93. 前記端部に組み込まれた複数のイメージセンサは、少なくとも部分的に上端部の外側に向く光学視野を有する第1のイメージセンサと、少なくとも部分的に右端部の外側に向く光学視野を有する第2のイメージセンサと、少なくとも部分的に左端部の外側に向く光学視野を有する第3のイメージセンサと、を有する請求項79に記載の画像取得ケーシング。
  94. 前記回路は、無線接続を介して前記画像データを伝送するように構成された請求項79に記載の画像取得ケーシング。
  95. 前記回路は、有線接続を用いて前記画像データを伝送するように構成された請求項79に記載の画像取得ケーシング。
  96. 携帯通信装置で用いられるコンピュータ可読媒体であって、プロセッサによって実行される際に、
    前記携帯通信装置が前進運動しているという第1の表示を前記携帯通信装置の少なくとも一つのセンサから受け取るステップと、
    前記携帯通信装置のイメージセンサが画像を取得する向きにあるという第2の表示を前記携帯通信装置の前記少なくとも一つのセンサから受け取るステップと、
    前記第1の表示と前記第2の表示の両方に応答して、順路画像のリアルタイム表示を前記携帯通信装置のディスプレイに自動的に行うステップと、
    を前記プロセッサによって実行させる命令を有するコンピュータ可読媒体。
  97. 前記命令は、順路画像のリアルタイム表示中に追加の非画像情報を前記ディスプレイに表示することを更に備える請求項96に記載のコンピュータ可読媒体。
  98. 前記少なくとも一つのセンサは加速度計を含み、前記第1の表示は、加速度に関連する測定を有する請求項96に記載のコンピュータ可読媒体。
  99. 前記第1の表示は、予め決定された時間中に測定された約2km/時と35km/時の間の速度である請求項96に記載のコンピュータ可読媒体。
  100. 前記少なくとも一つのセンサは、傾斜を検出するセンサを含み、前記第2の表示は、前記携帯通信装置の傾斜角に対応する請求項96に記載のコンピュータ可読媒体。
  101. 傾斜角は、前記携帯通信装置のユーザが歩行する面に対して約0°と約45°の間である請求項96に記載のコンピュータ可読媒体。
  102. 前記少なくとも一つのセンサは、近接センサを含み、前記第2の表示は、前記少なくとも一つのセンサが遮られているか否かの反映である請求項96に記載のコンピュータ可読媒体。
  103. 前記命令は、前記携帯通信装置の速度が予め決定されたしきい値を超えたことを検出したときに、自動的に取得を行うように構成された請求項96に記載のコンピュータ可読媒体。
  104. 前記命令は、前記携帯通信装置の傾斜角が予め決定された範囲内にあるときに、自動的に取得を行うように構成された請求項96に記載のコンピュータ可読媒体。
  105. 前記命令は、前記携帯通信装置の速度が予め決定されたしきい値より下に減少したことを検出したときに、自動的に取得を行うように構成された請求項96に記載のコンピュータ可読媒体。
  106. 前記命令は、前記携帯通信装置の速度が予め決定されたしきい値を超えたことを検出したときに、自動的に画像取得を行うように構成された請求項96に記載のコンピュータ可読媒体。
  107. 前記命令は、画像取得のための予め決定されたしきい値をユーザによって選択できるように構成され、前記予め決定されたしきい値は、速度と前記携帯通信装置の向きのうちの少なくとも一方を含む請求項96に記載のコンピュータ可読媒体。
  108. 前記命令は、前記ディスプレイがアクティブであるか否かを検出することと、アクティブな前記ディスプレイの検出と前記第1の表示及び前記第2の表示の両方との組合せに応答して、順路画像のリアルタイム表示を前記携帯通信装置の前記ディスプレイに自動的に行うことと、を更に有する請求項96に記載のコンピュータ可読媒体。
  109. 前記命令は、前記携帯通信装置のバッテリ状態が予め規定されたしきい値より高いか否かを決定することと、前記バッテリ状態が予め規定されたしきい値より高いことの決定と前記第1の表示及び前記第2の表示の両方との組合せに応答して、順路画像のリアルタイム表示を前記携帯通信装置の前記ディスプレイに自動的に行うことと、を更に有する請求項96に記載のコンピュータ可読媒体。
  110. 携帯通信装置で用いられるコンピュータ可読媒体であって、プロセッサによって実行される際に、
    ユーザが移動経路に沿って移動する際のユーザの環境を表す画像データを、前記携帯通信装置に関連する少なくとも一つのイメージセンサから受け取るステップと、
    前記携帯通信装置へのリアルタイム表示のために、ユーザの移動経路に対応する視野ウィンドウを前記画像データから選択するステップと、
    前記視野ウィンドウを対話型ユーザアプリケーションウィンドウと同時にディスプレイに表示するとともに前記視野ウィンドウの外側の前記画像データを前記ディスプレイの表示から除外するステップと、
    を前記プロセッサによって実行させる命令を有するコンピュータ可読媒体。
  111. 前記命令は、前記対話型ユーザアプリケーションウィンドウを前記ディスプレイの半分より多くに表示するとともに前記視野ウィンドウを前記ディスプレイの半分未満に表示することを更に有する請求項110に記載のコンピュータ可読媒体。
  112. 前記命令は、前記対話型ユーザアプリケーションウィンドウを前記ディスプレイの少なくとも約70%に表示するとともに前記視野ウィンドウを前記ディスプレイの多くとも約30%に表示することを更に有する請求項110に記載のコンピュータ可読媒体。
  113. 前記命令は、ユーザの入力に応答して前記対話型ユーザアプリケーションウィンドウと前記視野ウィンドウの間の比を変更することを更に有する請求項112に記載のコンピュータ可読媒体。
  114. 前記少なくとも一つのイメージセンサは、前記携帯通信装置に組み込まれている請求項110に記載のコンピュータ可読媒体。
  115. 前記少なくとも一つのイメージセンサは、前記携帯通信装置のケースに組み込まれている請求項110に記載のコンピュータ可読媒体。
  116. 前記選択することは、ユーザが前記視野ウィンドウを選択することを可能にする制御装置からのユーザ入力を検出することを含む請求項110に記載のコンピュータ可読媒体。
  117. 前記選択することは、前記携帯通信装置の角度方向を検出することと、前記角度方向に基づいて視野を自動的に調整することと、を含む請求項110に記載のコンピュータ可読媒体。
  118. 前記命令は、前記プロセッサによって視野をリアルタイムで調整することを更に有する請求項110に記載のコンピュータ可読媒体。
  119. 前記リアルタイムで調整することは、前記携帯通信装置の方向の変化の検出に応答して自動的に行われる請求項118に記載のコンピュータ可読媒体。
  120. 前記リアルタイムで調整することは、前記ディスプレイの制御装置とのユーザのやり取りに応じて手動で行われる請求項118に記載のコンピュータ可読媒体。
  121. 前記選択することは、前記携帯通信装置の角度方向を検出することと、前記角度方向に基づいて視野を自動的に調整することと、を含む請求項110に記載のコンピュータ可読媒体。
  122. 前記選択することは、ユーザが前記移動経路に沿って移動する際の前記携帯通信装置の動きパターンを検出することと、前記携帯通信装置の動きを補償するために視野を自動的に調整することと、を含む請求項110に記載のコンピュータ可読媒体。
  123. 携帯通信装置で用いられるコンピュータ可読媒体であって、プロセッサによって実行される際に、
    ユーザが移動経路に沿って移動する際のユーザの環境を表す画像データを、前記携帯通信装置に関連する少なくとも一つのイメージセンサから受け取るステップと、
    ユーザが関与する活動を反映する情報を、少なくとも一つのセンサから受け取るステップと、
    メモリにある複数の活動のインジケータ及び各活動に関連する視野ウィンドウにアクセスするステップと、
    前記携帯通信装置へのリアルタイム表示のために、視野ウィンドウを前記画像データから選択するステップであって、選択した視野ウィンドウは、ユーザが現在関与する活動に関連するステップと、
    前記選択した視野ウィンドウを前記携帯通信装置のディスプレイに適用するステップと、
    を前記プロセッサによって実行させる命令を有するコンピュータ可読媒体。
  124. 前記活動を反映する情報は、速度の表示を有する請求項123に記載のコンピュータ可読媒体。
  125. 前記活動を反映する情報は、加速度の表示を有する請求項123に記載のコンピュータ可読媒体。
  126. 前記活動を反映する情報は、前記携帯通信装置の傾斜角の表示を有する請求項123に記載のコンピュータ可読媒体。
  127. 視野を選択することは、ユーザの経路に関連する境界を超える画像データを視野から除外するための画像認識を有する請求項123に記載のコンピュータ可読媒体。
  128. 前記複数の活動は、歩行、自転車の運転、車の運転及びオートバイの運転のうちの少なくとも二つを含む請求項123に記載のコンピュータ可読媒体。
  129. 携帯通信装置で用いられるコンピュータ可読媒体であって、プロセッサによって実行される際に、
    ユーザが移動経路に沿って移動する際のユーザの環境を表すリアルタイム画像ストリームを、前記携帯通信装置に関連する少なくとも一つのイメージセンサから受け取るステップと、
    前記リアルタイム画像ストリームを前記携帯通信装置のタッチスクリーンディスプレイに表示するステップと、
    対話型ユーザアプリケーションを前記リアルタイム画像ストリームと同時に前記携帯通信装置の前記タッチスクリーンディスプレイに表示するステップと、
    前記タッチスクリーンディスプレイを用いるユーザが前記リアルタイム画像ストリームに関連する領域にタッチするとともに前記リアルタイム画像ストリームのうちの少なくとも1フレームを前記対話型ユーザアプリケーションに転送できるようにするステップと、
    前記少なくとも1フレームに関連する前記対話型ユーザアプリケーションの動作を実行するステップと、
    を前記プロセッサによって実行させる命令を有するコンピュータ可読媒体。
  130. 前記対話型ユーザアプリケーションは、メッセージングアプリケーションであり、前記命令は、前記少なくとも1フレームを含むメッセージを遠隔の受信者に送信することを更に有する請求項129に記載のコンピュータ可読媒体。
  131. 前記タッチは、前記リアルタイム画像ストリームに関連する領域から前記対話型ユーザアプリケーションへのドラッグ及びドロップ動作を含む請求項129に記載のコンピュータ可読媒体。
  132. 前記少なくとも1フレームは、単一のフレーム取得である請求項129に記載のコンピュータ可読媒体。
  133. 前記リアルタイム画像ストリームの複数フレームを前記対話型ユーザアプリケーションに転送し、前記複数フレームは、ビデオクリップである請求項129に記載のコンピュータ可読媒体。
  134. 前記少なくとも一つのイメージセンサは、前記タッチスクリーンディスプレイに対して鈍角である光軸を有する請求項129に記載のコンピュータ可読媒体。
  135. 前記命令は、前記リアルタイム画像ストリームをバッファリングすることと、メッセージングアプリケーションを介して前記リアルタイム画像ストリームのバッファリングされた部分を転送できるようにユーザが前記タッチスクリーンディスプレイにタッチできるようにすることと、を更に有する請求項129に記載のコンピュータ可読媒体。
  136. 互いに横切る軸に沿って取得した2方向ビデオストリームを表示するための手持ち式携帯通信装置であって、
    上面、下面及び側端を有するハウジングと、
    前記上面に配置されたタッチセンサー式スクリーンと、
    前記上面から離れる第1の方向に延在する第1の光軸を有する第1のイメージセンサであって、前記手持ち式携帯通信装置が前記タッチセンサー式スクリーンを見るユーザの手に保持されているときにユーザの顔を取得するように構成された、第1のイメージセンサと、
    前記側端に少なくとも部分的に組み込まれるとともに前記側端から離れる第2の方向に延在する第2の光軸を有する第2のイメージセンサであって、前記手持ち式携帯通信装置が前記タッチセンサー式スクリーンを見るユーザの手に保持されているときにユーザの移動経路を取得するように構成され、前記第1の方向は前記第2の方向を横切る、第2のイメージセンサと、
    ユーザの顔の第1のリアルタイム画像ストリームを前記第1のイメージセンサから取得し、
    ユーザの移動経路の第2のリアルタイム画像ストリームを前記第2のイメージセンサから取得し、
    ユーザの顔及びユーザの移動経路の2方向表示を前記タッチセンサー式スクリーンにおいてリアルタイムで行うようにプログラムされた少なくとも一つのプロセッサと、
    を備える手持ち式携帯通信装置。
  137. 前記第2のイメージセンサは、前記下面から延在する突起部に配置された請求項136に記載の手持ち式携帯通信装置。
  138. 前記2方向表示は、前記第1のリアルタイム画像ストリームに対する第1のウィンドウ及び前記第2のリアルタイム画像ストリームに対する第2のウィンドウを有する請求項136に記載の手持ち式携帯通信装置。
  139. 第1のウィンドウと第2のウィンドウのうちの少なくとも一方は、前記タッチセンサー式スクリーンへのタッチによって実現可能である請求項136に記載の手持ち式携帯通信装置。
  140. 前記第1のウィンドウと前記第2のウィンドウのうちの少なくとも一方の位置は、前記タッチセンサー式スクリーンへのタッチによって移動可能である請求項139に記載の手持ち式携帯通信装置。
  141. 前記少なくとも一つのプロセッサは、規定された期間中に前記2方向表示を格納するように更にプログラムされた請求項136に記載の手持ち式携帯通信装置。
  142. 前記少なくとも一つのプロセッサは、リアルタイムの2方向表示を遠隔の受信者に無線送信するように更にプログラムされた請求項136に記載の手持ち式携帯通信装置。
  143. 前記少なくとも一つのプロセッサは、リアルタイムの2方向表示をサーバに無線でアップロードするように更にプログラムされた請求項136に記載の手持ち式携帯通信装置。
  144. 前記少なくとも一つのプロセッサは、前記2方向表示を対話型ユーザアプリケーションに転送するように更にプログラムされた請求項136に記載の手持ち式携帯通信装置。
  145. 前記少なくとも一つのプロセッサは、前記2方向表示に関連する領域から前記対話型ユーザアプリケーションに関連する領域へのドラッグ及びドロップ動作を識別したときに前記2方向表示を転送するように更にプログラムされた請求項144に記載の手持ち式携帯通信装置。
  146. 移動の順路を進む間に下を見るユーザに方向誘導を行うように構成された手持ち式携帯通信装置であって、
    上面、下面及び側端を有するハウジングと、
    前記上面に配置されたタッチセンサー式ディスプレイと、
    前記タッチセンサー式ディスプレイが下を見るユーザの顔に対向する状態で前記手持ち式携帯通信装置がユーザの手に保持されているときに光軸が一般的に移動の経路の方向に延在する向きに前記ハウジングに固定して組み込まれたイメージセンサと、
    GPSチップと、
    目的地までの一連のターンバイターン指示を方向誘導アプリケーションから受け取り、
    前記タッチセンサー式ディスプレイがユーザの顔に対向した状態でユーザが順路を進む際に、前記イメージセンサからのリアルタイム画像ストリームを前記タッチセンサー式ディスプレイに表示し、
    前記ターンバイターン指示の少なくとも一つの視覚インジケータを前記リアルタイム画像ストリームと同時に表示するために、前記GPSチップから取得した位置情報を用いるようにプログラムされた少なくとも一つのプロセッサと、
    を備える手持ち式携帯通信装置。
  147. コンパスを更に備え、前記少なくとも一つのプロセッサは、前記少なくとも一つの視覚インジケータを表示するために、前記GPSチップから取得した前記位置情報及び前記コンパスから取得した方向情報用いるように更にプログラムされた請求項146に記載の手持ち式携帯通信装置。
  148. 前記少なくとも一つのプロセッサは、対話型ユーザアプリケーションを前記リアルタイム画像ストリーム及び前記少なくとも一つの視覚インジケータと同時に前記タッチセンサー式ディスプレイに表示するように更にプログラムされた請求項146に記載の手持ち式携帯通信装置。
  149. 前記対話型ユーザアプリケーションは、メッセージングアプリケーションである請求項148に記載の手持ち式携帯通信装置。
  150. ユーザがメッセージングアプリケーションを介して前記リアルタイム画像ストリームから少なくとも一つの画像をリアルタイムで送信できるようにした請求項148に記載の手持ち式携帯通信装置。
  151. 前記少なくとも一つのプロセッサは、前記少なくとも一つの視覚インジケータを前記リアルタイム画像ストリームに重ね合わせるように更にプログラムされた請求項146に記載の手持ち式携帯通信装置。
  152. 前記少なくとも一つのプロセッサは、前記視覚インジケータへのユーザのタッチに応答して動作を実行するように更にプログラムされた請求項146に記載の手持ち式携帯通信装置。
  153. 前記少なくとも一つの視覚インジケータは、矢印を有する請求項146に記載の手持ち式携帯通信装置。
  154. 前記少なくとも一つの視覚インジケータは、コンパスの表示を有する請求項146に記載の手持ち式携帯通信装置。
  155. 前記少なくとも一つの視覚インジケータは、次のターンまでの距離を表す数字を有する請求項146に記載の手持ち式携帯通信装置。
  156. 前記少なくとも一つの視覚インジケータは、通りの名前を有する請求項146に記載の手持ち式携帯通信装置。
  157. 前記少なくとも一つの視覚インジケータは、移動の経路に沿った場所についての情報を有する請求項146に記載の手持ち式携帯通信装置。
  158. 手持ち式携帯電話のための着脱自在ケースであって、
    ハウジングと、
    前記ハウジングに組み込まれた少なくとも一つのイメージセンサと、
    前記手持ち式携帯電話が前記着脱自在ケースに据え付けられたときに前記手持ち式携帯電話のポートにはめ込まれるように構成された、前記ハウジング内のコネクタと、
    前記着脱自在ケースに組み込まれた少なくとも一つのコンデュイットであって、前記少なくとも一つのイメージセンサの間に延在するとともに前記コネクタによって前記少なくとも一つのイメージセンサに電気的に接続して前記少なくとも一つのイメージセンサから前記手持ち式携帯電話へのリアルタイム画像ストリームを可能にする、少なくとも一つのコンデュイットと、
    を備える着脱自在ケース。
  159. 前記ハウジング内のバッテリを更に有する請求項158に記載の着脱自在ケース。
  160. 前記バッテリは、前記ハウジング内の前記イメージセンサに給電するとともに前記手持ち式携帯電話に給電するように構成された請求項159に記載の着脱自在ケース。
  161. 前記バッテリにワイヤレス充電を行う受信機を更に備える請求項159に記載の着脱自在ケース。
  162. 前記ハウジングは、下面及び前記下面から上方に延在する端部を有し、前記イメージセンサは、前記端部内に組み込まれる請求項158に記載の着脱自在ケース。
  163. 前記少なくとも一つのイメージセンサは、前記コネクタの反対側にある前記端部の一部に配置され、前記少なくとも一つのコンデュイットは、前記イメージセンサと前記コネクタの間で前記ハウジングを横切る請求項162に記載の着脱自在ケース。
  164. 前記ハウジング内の前記少なくとも一つのイメージセンサは、前記手持ち式携帯電話によって制御されるように構成された請求項158に記載の着脱自在ケース。
  165. 前記着脱自在ケース内の前記少なくとも一つのイメージセンサは、前記手持ち式携帯電話のセンサによって検出された加速度に応答して起動されるように構成された請求項164に記載の着脱自在ケース。
  166. 携帯電話の端部に組み込まれた複数のイメージセンサから収集した画像データを用いてストリートビューマップのクラウドソースによる生成を行うシステムであって、
    地理的地域のストリートビューマップを維持し、GPS座標を前記ストリートビューマップの位置に関連させ、
    ストリートビュー画像を、複数のユーザの複数の携帯電話の端部に組み込まれた複数のイメージセンサから受信し、
    受信したストリートビュー画像の各々に関連するGPS位置を、前記複数の携帯電話の各々から受信し、
    前記ストリートビューマップを、前記ストリートビューマップのGPS位置に対応する前記受信したストリートビュー画像に関連するGPS位置の前記複数のイメージセンサからの前記受信したストリートビュー画像で更新するように構成された少なくとも一つのプロセッサを備えるシステム。
  167. 前記少なくとも一つのプロセッサは、個人情報を分かりにくくするために前記携帯電話が前記ストリートビュー画像を変更した後に前記複数の携帯電話から前記ストリートビュー画像を受信するように更に構成された請求項166に記載のシステム。
  168. 前記少なくとも一つのプロセッサは、前記複数のユーザに関連するメタ情報を用いることなく前記複数の携帯電話から前記ストリートビュー画像を受信するように更に構成された請求項166に記載のシステム。
  169. 前記少なくとも一つのプロセッサは、前記ストリートビュー画像をリアルタイムで受信するように更に構成された請求項166に記載のシステム。
  170. 前記少なくとも一つのプロセッサは、前記ストリートビュー画像の各々に関連するタイムスタンプを受信するとともに複数の重なり合うストリートビュー画像を前記複数のユーザから受信した後に前記ストリートビューマップを最新のストリートビューマップで更新するように更に構成された請求項166に記載のシステム。
  171. 前記少なくとも一つのプロセッサは、前記複数のユーザから受信した重なり合うストリートビュー画像を統合するとともに前記ストリートビューマップを統合されたストリートビューマップで更新するように更に構成された請求項166に記載のシステム。
  172. 携帯電話の端部に組み込まれた複数のイメージセンサから収集した画像データを用いてストリートビューマップのクラウドソースによる生成を行う方法であって、
    地理的地域のストリートビューマップを維持し、GPS座標を前記ストリートビューマップの位置に関連させることと、
    ストリートビュー画像を、複数のユーザの複数の携帯電話の端部に組み込まれた複数のイメージセンサから受信することと、
    受信したストリートビュー画像の各々に関連するGPS位置を、前記複数の携帯電話の各々から受信することと、
    前記ストリートビューマップを、前記ストリートビューマップのGPS位置に対応する前記受信したストリートビュー画像に関連するGPS位置の前記複数のイメージセンサからの前記受信したストリートビュー画像で更新することと、
    を備える方法。
  173. 前記複数のイメージセンサは、前記携帯電話のための複数の着脱自在ケースに関連する請求項172に記載の方法。
  174. 前記複数のイメージセンサは、前記携帯電話の端面に配置された請求項172に記載の方法。
  175. 携帯通信装置で用いられるコンピュータ可読媒体であって、プロセッサによって実行される際に、
    第1の方向に延在する第1の光軸を有する第1のイメージセンサから第1のリアルタイム画像ストリームを受け取るステップと、
    前記第1の方向とは異なる第2の方向に延在する第2の光軸を有する第2のイメージセンサから第2のリアルタイム画像ストリームを受け取るステップと、
    前記携帯通信装置に表示するために視野ウィンドウを前記第1のリアルタイム画像ストリームから決定するステップと、
    決定した視野ウィンドウに対応するリアルタイム表示を前記携帯通信装置のディスプレイに行うステップと、
    前記ディスプレイへのユーザのタッチに応答して前記視野ウィンドウの調整を行うことであって、前記調整は、前記第1のリアルタイム画像ストリームからの新たな視野ウィンドウの選択と前記第2のリアルタイム画像ストリームからの新たな視野ウィンドウの選択のうちの少なくとも一方を有する、ステップと、
    を前記プロセッサによって実行させる命令を有するコンピュータ可読媒体。
  176. 前記第1の光軸と前記第2の光軸の間の角度は、鈍角である請求項175に記載のコンピュータ可読媒体。
  177. 前記第1の光軸と前記第2の光軸の間の角度は、鋭角である請求項175に記載のコンピュータ可読媒体。
  178. 前記命令は、前記第1の方向及び前記第2の方向とは異なる第3の方向に延在する第3の光軸を有する第3のイメージセンサから第3のリアルタイム画像ストリームを受け取ることを更に有し、前記調整は、前記第1のリアルタイム画像ストリームからの新たな視野ウィンドウの選択、前記第2のリアルタイム画像ストリームからの新たな視野ウィンドウの選択及び前記第3のリアルタイム画像ストリームからの新たな視野ウィンドウの選択のうちの少なくとも一つを有する請求項175に記載のコンピュータ可読媒体。
  179. 前記視野ウィンドウの調整を行うことは、前記ディスプレイにおける連続動作を有する請求項175に記載のコンピュータ可読媒体。
  180. 前記連続動作は、二つの異なる方向に沿って行われ、第1の方向に沿った第1の動作は、リアルタイム画像ストリームの前記視野ウィンドウを変更し、第2の方向に沿った第2の動作は、リアルタイム画像ストリームのソースを変更する請求項179に記載のコンピュータ可読媒体。
JP2019510483A 2016-05-07 2017-05-04 手持ち式装置のエッジカメラアセンブリを有するシステム及び方法 Pending JP2019520012A (ja)

Applications Claiming Priority (9)

Application Number Priority Date Filing Date Title
US201662333197P 2016-05-07 2016-05-07
US62/333,197 2016-05-07
US15/220,418 US20170323159A1 (en) 2016-05-07 2016-07-27 Methods Circuits Devices Assemblies Systems and Associated Machine Executable Code For Obstacle Detection
US15/220,418 2016-07-27
US201662425741P 2016-11-23 2016-11-23
US62/425,741 2016-11-23
US201662434695P 2016-12-15 2016-12-15
US62/434,695 2016-12-15
PCT/IB2017/000629 WO2017195034A1 (en) 2016-05-07 2017-05-04 Systems and methods involving edge camera assemblies in handheld devices

Publications (1)

Publication Number Publication Date
JP2019520012A true JP2019520012A (ja) 2019-07-11

Family

ID=60266399

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019510483A Pending JP2019520012A (ja) 2016-05-07 2017-05-04 手持ち式装置のエッジカメラアセンブリを有するシステム及び方法

Country Status (8)

Country Link
US (3) US10171714B2 (ja)
EP (1) EP3453169A4 (ja)
JP (1) JP2019520012A (ja)
KR (1) KR20190005208A (ja)
CN (1) CN109792505A (ja)
CA (1) CA3023391A1 (ja)
IL (1) IL262737A (ja)
WO (1) WO2017195034A1 (ja)

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102017200155A1 (de) * 2017-01-09 2018-07-12 Ford Motor Company Motorangetriebener Einkaufstrolley
US11032403B2 (en) * 2018-03-22 2021-06-08 Daniel L C Leung Method to aid the walking-while-texting smart phone user navigate around obstacles in the forward path
DE102018208700A1 (de) 2018-06-01 2019-12-05 Volkswagen Aktiengesellschaft Konzept für die Steuerung einer Anzeige eines mobilen Augmented-Reality-Gerätes
ES1215110Y (es) * 2018-06-08 2018-09-26 Castillo Fernando Perez Dispositivo de visualizacion y alerta para telefonos moviles
US20200073210A1 (en) * 2018-08-30 2020-03-05 Daniel Lai Chow Leung Method to help navigate users of mobile communication devices by re-directed camera views
US11095762B2 (en) 2018-10-23 2021-08-17 International Business Machines Corporation Display device with camera embedded beneath screen
JP7416048B2 (ja) * 2019-03-12 2024-01-17 ソニーグループ株式会社 情報処理装置、情報処理方法、およびプログラム
US11500451B2 (en) * 2019-04-02 2022-11-15 Verizon Patent And Licensing Inc. System and method for augmented reality via data crowd sourcing
USD949159S1 (en) * 2019-06-02 2022-04-19 Apple Inc. Display screen or portion thereof with graphical user interface
KR102694171B1 (ko) 2019-06-17 2024-08-12 삼성전자 주식회사 전자 장치 및 각막 이미지를 이용한 전자 장치의 기능 제공 방법
US20200045240A1 (en) * 2019-10-12 2020-02-06 Adam Diamond Hood with Multiple Cameras
USD1030772S1 (en) * 2020-09-11 2024-06-11 Google Llc Display screen or portion thereof with a transitional graphical user interface
US11967041B2 (en) * 2021-05-18 2024-04-23 Microsoft Technology Licensing, Llc Geospatial image processing for targeted data acquisition
US20230037461A1 (en) * 2021-08-09 2023-02-09 Sam Salemnia Case for a cellular phone configured to enable the cellular phone to capture 360-degree field-of-view images
WO2023057665A1 (es) * 2021-10-08 2023-04-13 Yague Hernanz Ricardo Sistema y aplicación para visualizar la realidad exterior mientras se utilizan teléfonos y dispositivos móviles

Family Cites Families (35)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US2010A (en) * 1841-03-18 Machine foe
US20070206087A1 (en) * 2006-03-06 2007-09-06 Chou Hsieh C Camera module and mobile phone using the same
CN101465891B (zh) * 2007-12-19 2012-05-30 鸿富锦精密工业(深圳)有限公司 移动通讯装置
KR101527014B1 (ko) * 2008-12-02 2015-06-09 엘지전자 주식회사 이동 단말기 및 이것의 디스플레이 제어 방법
US8121618B2 (en) * 2009-10-28 2012-02-21 Digimarc Corporation Intuitive computing methods and systems
US8744420B2 (en) * 2010-04-07 2014-06-03 Apple Inc. Establishing a video conference during a phone call
US8447070B1 (en) * 2010-04-19 2013-05-21 Amazon Technologies, Inc. Approaches for device location and communication
US20110279446A1 (en) * 2010-05-16 2011-11-17 Nokia Corporation Method and apparatus for rendering a perspective view of objects and content related thereto for location-based services on mobile device
US20120088555A1 (en) * 2010-10-12 2012-04-12 Jianzhong Hu Wireless charging equipment for mobile phones
WO2012083989A1 (en) * 2010-12-22 2012-06-28 Sony Ericsson Mobile Communications Ab Method of controlling audio recording and electronic device
US20120188391A1 (en) * 2011-01-25 2012-07-26 Scott Smith Array camera having lenses with independent fields of view
US9255813B2 (en) * 2011-10-14 2016-02-09 Microsoft Technology Licensing, Llc User controlled real object disappearance in a mixed reality display
CN103167223A (zh) * 2011-12-09 2013-06-19 富泰华工业(深圳)有限公司 具有广角拍摄功能的移动装置及其影像撷取方法
US9325818B2 (en) * 2011-12-09 2016-04-26 Charles J. Kulas Dedicated processor for camera functions in host devices
US20130231157A1 (en) * 2012-03-02 2013-09-05 Jeffrey Chung Cellular phone with camera at front edge area
US20140078275A1 (en) * 2012-09-17 2014-03-20 Gregory Thomas Joao Apparatus and method for providing a wireless, portable, and/or handheld, device with safety features
US9961249B2 (en) * 2012-09-17 2018-05-01 Gregory Thomas Joao Apparatus and method for providing a wireless, portable, and/or handheld, device with safety features
US9672431B2 (en) * 2012-11-09 2017-06-06 Analog Devices Global Object detection
US9996150B2 (en) * 2012-12-19 2018-06-12 Qualcomm Incorporated Enabling augmented reality using eye gaze tracking
US9338110B1 (en) * 2013-02-08 2016-05-10 Sk Planet Co., Ltd. Method of providing instant messaging service, recording medium that records program therefore, and terminal
US20140228073A1 (en) * 2013-02-14 2014-08-14 Lsi Corporation Automatic presentation of an image from a camera responsive to detection of a particular type of movement of a user device
US9292045B2 (en) * 2013-02-15 2016-03-22 Apple Inc. Apparatus and method for automatically activating a camera application based on detecting an intent to capture a photograph or a video
KR102032347B1 (ko) * 2013-02-26 2019-10-15 삼성전자 주식회사 이미지 센서 위치를 이용한 이미지 영역 설정 장치 및 방법
JP6359644B2 (ja) * 2013-05-02 2018-07-18 クアルコム,インコーポレイテッド コンピュータビジョンアプリケーション初期化を容易にするための方法
WO2014193990A1 (en) * 2013-05-28 2014-12-04 Eduardo-Jose Chichilnisky Smart prosthesis for facilitating artificial vision using scene abstraction
US20150085184A1 (en) * 2013-09-25 2015-03-26 Joel Vidal Smartphone and tablet having a side-panel camera
US9451062B2 (en) 2013-09-30 2016-09-20 Verizon Patent And Licensing Inc. Mobile device edge view display insert
US8730299B1 (en) * 2013-11-27 2014-05-20 Dmitry Kozko Surround image mode for multi-lens mobile devices
US20140327775A1 (en) * 2013-12-04 2014-11-06 Kyu Hwang Cho Mirrorless Driving of Automotive Vehicle Using Digital Image Sensors and Touchscreen
US9649558B2 (en) * 2014-03-14 2017-05-16 Sony Interactive Entertainment Inc. Gaming device with rotatably placed cameras
US9654675B2 (en) * 2014-03-25 2017-05-16 Kessler Optics & Photonics Solutions Ltd. Optical attachment for deviating field of view
KR20160024002A (ko) * 2014-08-21 2016-03-04 삼성전자주식회사 비쥬얼 사운드 이미지를 제공하는 방법 및 이를 구현하는 전자 장치
KR102178892B1 (ko) * 2014-09-15 2020-11-13 삼성전자주식회사 정보 제공 방법 및 그 전자 장치
US10220798B2 (en) * 2016-02-29 2019-03-05 Thomas A. Lowell Self leveling steering wheel mount assembly for electronic cell phone device having side camera
US10084897B2 (en) * 2016-09-15 2018-09-25 Johnson Sainvil Electronic device housing with removable camera

Also Published As

Publication number Publication date
CN109792505A (zh) 2019-05-21
US10171714B2 (en) 2019-01-01
US20200366816A1 (en) 2020-11-19
IL262737A (en) 2018-12-31
US20190075224A1 (en) 2019-03-07
US20180124293A1 (en) 2018-05-03
EP3453169A4 (en) 2019-09-18
CA3023391A1 (en) 2017-11-16
WO2017195034A1 (en) 2017-11-16
EP3453169A1 (en) 2019-03-13
KR20190005208A (ko) 2019-01-15

Similar Documents

Publication Publication Date Title
JP2019520012A (ja) 手持ち式装置のエッジカメラアセンブリを有するシステム及び方法
US20210056765A1 (en) Information processing apparatus, information processing method, and program
CN105432071B (zh) 用于提供增强现实视图的技术
US20200258314A1 (en) Information processing device, information processing method, and recording medium
US20200341284A1 (en) Information processing apparatus, information processing method, and recording medium
US20150378158A1 (en) Gesture registration device, gesture registration program, and gesture registration method
JP5485244B2 (ja) 移動式タグを利用した拡張現実提供装置及び方法
EP3037917A1 (en) Monitoring
US9672588B1 (en) Approaches for customizing map views
US11227494B1 (en) Providing transit information in an augmented reality environment
WO2016130462A1 (en) Removable face shield for augmented reality device
US20190230290A1 (en) Information processing device, information processing method, and program
US11568579B2 (en) Augmented reality content generation with update suspension
CN104166929A (zh) 一种基于时空场景的信息推送系统和方法
JP2022110509A (ja) 情報処理装置及びプログラム
US10650037B2 (en) Enhancing information in a three-dimensional map
JP2019075126A (ja) 情報処理装置及びプログラム
US10409464B2 (en) Providing a context related view with a wearable apparatus
US20160379416A1 (en) Apparatus and method for controlling object movement
JP6120751B2 (ja) 情報処理装置、情報端末、情報通信システムおよび情報提供方法
JP2022102907A (ja) システム、管理装置、プログラム、及び管理方法
JP7196856B2 (ja) 情報処理装置、情報処理方法、およびプログラム
US20210232219A1 (en) Information processing apparatus, information processing method, and program
JP6956376B2 (ja) 表示制御システム、表示システム、表示制御方法、プログラム、及び移動体
CN109582200A (zh) 一种导航信息显示方法及移动终端