JP7126008B2 - 多点slamキャプチャ - Google Patents
多点slamキャプチャ Download PDFInfo
- Publication number
- JP7126008B2 JP7126008B2 JP2020572969A JP2020572969A JP7126008B2 JP 7126008 B2 JP7126008 B2 JP 7126008B2 JP 2020572969 A JP2020572969 A JP 2020572969A JP 2020572969 A JP2020572969 A JP 2020572969A JP 7126008 B2 JP7126008 B2 JP 7126008B2
- Authority
- JP
- Japan
- Prior art keywords
- user
- aggregated
- image
- feature point
- blind spot
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 claims description 15
- 238000013507 mapping Methods 0.000 claims description 10
- 230000004807 localization Effects 0.000 claims description 9
- 230000004044 response Effects 0.000 claims description 4
- 230000015572 biosynthetic process Effects 0.000 description 7
- 238000004891 communication Methods 0.000 description 7
- 238000003384 imaging method Methods 0.000 description 7
- 238000003786 synthesis reaction Methods 0.000 description 7
- 239000002131 composite material Substances 0.000 description 6
- 238000010586 diagram Methods 0.000 description 5
- 230000015654 memory Effects 0.000 description 5
- 230000003287 optical effect Effects 0.000 description 5
- 230000006870 function Effects 0.000 description 4
- 230000003190 augmentative effect Effects 0.000 description 3
- 230000001413 cellular effect Effects 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 230000001276 controlling effect Effects 0.000 description 2
- 238000001931 thermography Methods 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 238000004566 IR spectroscopy Methods 0.000 description 1
- 230000002776 aggregation Effects 0.000 description 1
- 238000004220 aggregation Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 230000002596 correlated effect Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 229910003460 diamond Inorganic materials 0.000 description 1
- 239000010432 diamond Substances 0.000 description 1
- 238000002592 echocardiography Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000002194 synthesizing effect Effects 0.000 description 1
- 210000003813 thumb Anatomy 0.000 description 1
- 230000001052 transient effect Effects 0.000 description 1
- 238000005406 washing Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
- G06T7/579—Depth or shape recovery from multiple images from motion
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/20—Input arrangements for video game devices
- A63F13/21—Input arrangements for video game devices characterised by their sensors, purposes or types
- A63F13/212—Input arrangements for video game devices characterised by their sensors, purposes or types using sensors worn by the player, e.g. for measuring heart beat or leg activity
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/20—Input arrangements for video game devices
- A63F13/21—Input arrangements for video game devices characterised by their sensors, purposes or types
- A63F13/213—Input arrangements for video game devices characterised by their sensors, purposes or types comprising photodetecting means, e.g. cameras, photodiodes or infrared cells
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/25—Output arrangements for video game devices
- A63F13/26—Output arrangements for video game devices having at least one additional display device, e.g. on the game controller or outside a game booth
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/30—Interconnection arrangements between game servers and game devices; Interconnection arrangements between game devices; Interconnection arrangements between game servers
- A63F13/35—Details of game servers
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/40—Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
- A63F13/42—Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/50—Controlling the output signals based on the game progress
- A63F13/52—Controlling the output signals based on the game progress involving aspects of the displayed game scene
- A63F13/525—Changing parameters of virtual cameras
- A63F13/5255—Changing parameters of virtual cameras according to dedicated instructions from a player, e.g. using a secondary joystick to rotate the camera around a player's character
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/50—Controlling the output signals based on the game progress
- A63F13/53—Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game
- A63F13/537—Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game using indicators, e.g. showing the condition of a game character on screen
- A63F13/5375—Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game using indicators, e.g. showing the condition of a game character on screen for graphically or textually suggesting an action, e.g. by displaying an arrow indicating a turn in a driving game
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/50—Controlling the output signals based on the game progress
- A63F13/53—Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game
- A63F13/537—Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game using indicators, e.g. showing the condition of a game character on screen
- A63F13/5378—Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game using indicators, e.g. showing the condition of a game character on screen for displaying an additional top view, e.g. radar screens or maps
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/80—Special adaptations for executing a specific game genre or game mode
- A63F13/843—Special adaptations for executing a specific game genre or game mode involving concurrently two or more players on the same game device, e.g. requiring the use of a plurality of controllers or of a specific view of game data for each player
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/80—Special adaptations for executing a specific game genre or game mode
- A63F13/847—Cooperative playing, e.g. requiring coordinated actions from several players to achieve a common goal
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F2300/00—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
- A63F2300/80—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game specially adapted for executing a specific type of game
- A63F2300/8082—Virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2219/00—Indexing scheme for manipulating 3D models or images for computer graphics
- G06T2219/024—Multi-user, collaborative environment
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Optics & Photonics (AREA)
- Computer Graphics (AREA)
- Computer Hardware Design (AREA)
- Radar, Positioning & Navigation (AREA)
- Software Systems (AREA)
- General Engineering & Computer Science (AREA)
- Biophysics (AREA)
- Quality & Reliability (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Cardiology (AREA)
- Heart & Thoracic Surgery (AREA)
- General Health & Medical Sciences (AREA)
- User Interface Of Digital Computer (AREA)
- Image Analysis (AREA)
Description
Claims (30)
- 記憶装置であって、
一時的信号ではなく、少なくとも1つのプロセッサによって実行可能な命令を含む、少なくとも1つのコンピュータ媒体であって、
第1のユーザの第1のデバイスから、点群内の少なくとも第1の特徴点を受信することと、
第2のユーザの第2のデバイスから、点群内の少なくとも第2の特徴点を受信することと、
前記第1及び第2の特徴点を使用して集約された同時ローカリゼーション及びマッピング(SLAM)マップを生成することと、
前記第1のユーザの背後には前記集約されたSLAMマップに対象物が存在せず、前記第1のユーザの背後のスペースはまだ画像化されておらず、そのため前記集約されたSLAMマップに死角であると判定することと、
前記第1のユーザまたは前記第2のユーザに、前記第1のデバイスまたは前記第2のデバイス上のゲームの提示を変更することによって、前記死角を形成する領域に向かって向きを変え、それによって前記第1のデバイスまたは前記第2のデバイスに前記死角を画像化させるように命令することとが実行可能である、前記命令を含む前記少なくとも1つのコンピュータ媒体を含み、
前記命令は、
第1の特徴点のサイズを距離と相関させることによって、前記第1の特徴点までの距離を判定すること
が実行可能である、記憶装置。 - 前記命令は、
デバイス識別情報を前記第2のデバイスと交換すること
が実行可能である、請求項1に記載の記憶装置。 - 前記第1の特徴点が、前記第2のデバイスの画像の少なくとも一部を含む、請求項1に記載の記憶装置。
- 前記命令は、
少なくとも第3のデバイスから第3の特徴点を受信することと、
前記第3の特徴点を使用して前記SLAMマップを生成することと
が実行可能である、請求項1に記載の記憶装置。 - 記憶装置であって、
一時的信号ではなく、少なくとも1つのプロセッサによって実行可能な命令を含む、少なくとも1つのコンピュータ媒体であって、
第1のユーザの第1のデバイスから、点群内の少なくとも第1の特徴点を受信することと、
第2のユーザの第2のデバイスから、点群内の少なくとも第2の特徴点を受信することと、
前記第1及び第2の特徴点を使用して集約された同時ローカリゼーション及びマッピング(SLAM)マップを生成することと、
前記第1のユーザの背後には前記集約されたSLAMマップに対象物が存在せず、前記第1のユーザの背後のスペースはまだ画像化されておらず、そのため前記集約されたSLAMマップに死角であると判定することとが実行可能である、前記命令を含む前記少なくとも1つのコンピュータ媒体を含み、
前記命令は、
前記集約されたSLAMマップに前記死角があると判定したことに応答して、前記第1のユーザまたは前記第2のユーザに、前記第1及び第2のデバイスの少なくとも1つでのコンピュータゲームの提示を変更することによって、前記死角を形成する領域に向かって向きを変え、それによって前記第1のデバイスまたは前記第2のデバイスに前記死角を画像化させるように命令することが実行可能である、記憶装置。 - 前記第1及び第2のデバイスは、コンピュータゲーム用ヘッドセットとして実装される、請求項1に記載の記憶装置。
- アセンブリであって、
それぞれが少なくとも1つのそれぞれのカメラを含む、少なくとも第1及び第2のコンピュータゲーム用ヘッドセット、
第1のユーザの前記第1のコンピュータゲーム用ヘッドセットの前記それぞれのカメラを使用して、点群内の特徴点の少なくとも第1の画像を生成することと、
第2のユーザの前記第2のコンピュータゲーム用ヘッドセットから、点群内の特徴点の少なくとも第2の画像を受信することと、
前記第1及び第2の画像を使用して集約されたSLAMマップを生成することと、
前記第1のユーザの背後には前記集約されたSLAMマップに対象物が存在せず、前記第1のユーザの背後のスペースはまだ画像化されておらず、そのため前記集約されたSLAMマップに死角であると判定することと、
前記第1のユーザまたは前記第2のユーザに、前記第1のコンピュータゲーム用ヘッドセットまたは前記第2のコンピュータゲーム用ヘッドセット上のゲームの提示を変更することによって、前記死角を形成する領域に向かって向きを変え、それによって前記第1のコンピュータゲーム用ヘッドセットのカメラまたは前記第2のコンピュータゲーム用ヘッドセットのカメラに前記死角を画像化させるように命令することとの命令についてプログラムされたプロセッサを含み、
前記命令は、
前記特徴点のサイズを距離と相関させることによって、前記第1の画像の特徴点に対応するコンピュータゲーム用ヘッドセットまでの距離を判定すること
を実行可能である、アセンブリ。 - 前記命令は、
デバイス識別情報を前記第2のコンピュータゲーム用ヘッドセットと交換すること
が実行可能である、請求項7に記載のアセンブリ。 - 前記第2のコンピュータゲーム用ヘッドセットからの前記特徴点は、前記第2のコンピュータゲーム用ヘッドセットで取得された前記第1のコンピュータゲーム用ヘッドセットの画像を含む、請求項7に記載のアセンブリ。
- 前記命令は、
点群内の特徴点の第3の画像を含む情報を少なくとも第3のコンピュータゲーム用ヘッドセットから受信することと、
前記第3の画像を含む情報を使用して前記SLAMマップを生成することと
を実行可能である、請求項7に記載のアセンブリ。 - アセンブリであって、
それぞれが少なくとも1つのそれぞれのカメラを含む、少なくとも第1及び第2のコンピュータゲーム用ヘッドセット、
第1のユーザの前記第1のコンピュータゲーム用ヘッドセットの前記それぞれのカメラを使用して、点群内の特徴点の少なくとも第1の画像を生成することと、
第2のユーザの前記第2のコンピュータゲーム用ヘッドセットから、点群内の特徴点の少なくとも第2の画像を受信することと、
前記第1及び第2の画像を使用して集約されたSLAMマップを生成することと、
前記第1のユーザの背後には前記集約されたSLAMマップに対象物が存在せず、前記第1のユーザの背後のスペースはまだ画像化されておらず、そのため前記集約されたSLAMマップに死角であると判定することとの命令についてプログラムされたプロセッサを含み、
前記命令は、
前記集約されたSLAMマップに前記死角があると判定したことに応答して、前記第1のユーザまたは前記第2のユーザに、前記第1及び第2のコンピュータゲーム用ヘッドセットの少なくとも1つでのコンピュータゲームの提示を変更するによって、前記死角を形成する領域に向かって向きを変え、それによって前記第1のコンピュータゲーム用ヘッドセットのカメラまたは前記第2のコンピュータゲーム用ヘッドセットのカメラに前記死角を画像化させるように命令すること、アセンブリ。 - 前記死角への方向転換を促すことによって、前記提示が少なくとも部分的に変更される、請求項11に記載のアセンブリ。
- 方法であって、
第1のユーザの第1のデバイスから、点群内の少なくとも第1の特徴点を受信することと、
第2のユーザの第2のデバイスから、点群内の少なくとも第2の特徴点を受信することと、
前記第1及び第2の特徴点を使用して集約された同時ローカリゼーション及びマッピング(SLAM)マップを生成することと、
前記第1のユーザの背後には前記集約されたSLAMマップに対象物が存在せず、前記第1のユーザの背後のスペースはまだ画像化されておらず、そのため前記集約されたSLAMマップに死角であると判定することと、
前記第1のユーザまたは前記第2のユーザに、前記第1のデバイスまたは前記第2のデバイス上のゲームの提示を変更することによって、前記死角を形成する領域に向かって向きを変え、それによって前記第1のデバイスまたは前記第2のデバイスに前記死角を画像化させるように命令することとを含み、
第1の特徴点のサイズを距離と相関させることによって、前記第1の特徴点までの距離を判定すること
を含む、方法。 - デバイス識別情報を前記第2のデバイスと交換すること
を含む、請求項13に記載の方法。 - 前記第1の特徴点が、前記第2のデバイスの画像の少なくとも一部を含む、請求項13に記載の方法。
- 少なくとも第3のデバイスから第3の特徴点を受信することと、
前記第3の特徴点を使用して前記SLAMマップを生成することと
を含む、請求項13に記載の方法。 - 方法であって、
第1のユーザの第1のデバイスから、点群内の少なくとも第1の特徴点を受信することと、
第2のユーザの第2のデバイスから、点群内の少なくとも第2の特徴点を受信することと、
前記第1及び第2の特徴点を使用して集約された同時ローカリゼーション及びマッピング(SLAM)マップを生成することと、
前記第1のユーザの背後には前記集約されたSLAMマップに対象物が存在せず、前記第1のユーザの背後のスペースはまだ画像化されておらず、そのため前記集約されたSLAMマップに死角であると判定することとを含み、
前記集約されたSLAMマップに死角があると判定したことに応答して、前記第1のユーザまたは前記第2のユーザに、前記第1及び第2のデバイスの少なくとも1つでのコンピュータゲームの提示を変更することよって、前記死角を形成する領域に向かって向きを変え、それによって前記第1のデバイスまたは前記第2のデバイスに前記死角を画像化させるように命令すること
を含む、方法。 - 前記命令は、
デバイス識別情報を前記第2のデバイスと交換すること
が実行可能である、請求項5に記載の記憶装置。 - 前記第1の特徴点が、前記第2のデバイスの画像の少なくとも一部を含む、請求項5に記載の記憶装置。
- 前記命令は、
少なくとも第3のデバイスから第3の特徴点を受信することと、
前記第3の特徴点を使用して前記SLAMマップを生成することと
が実行可能である、請求項5に記載の記憶装置。 - 前記第1及び第2のデバイスは、コンピュータゲーム用ヘッドセットとして実装される、請求項5に記載の記憶装置。
- 前記命令は、
デバイス識別情報を前記第2のコンピュータゲーム用ヘッドセットと交換すること
が実行可能である、請求項11に記載のアセンブリ。 - 前記第2のコンピュータゲーム用ヘッドセットからの前記特徴点は、前記第2のコンピュータゲーム用ヘッドセットで取得された前記第1のコンピュータゲーム用ヘッドセットの画像を含む、請求項11に記載のアセンブリ。
- 前記命令は、
点群内の特徴点の第3の画像を含む情報を少なくとも第3のコンピュータゲーム用ヘッドセットから受信することと、
前記第3の画像を含む情報を使用して前記SLAMマップを生成することと
を実行可能である、請求項11に記載のアセンブリ。 - デバイス識別情報を前記第2のデバイスと交換すること
を含む、請求項17に記載の方法。 - 前記第1の特徴点が、前記第2のデバイスの画像の少なくとも一部を含む、請求項17に記載の方法。
- 少なくとも第3のデバイスから第3の特徴点を受信することと、
前記第3の特徴点を使用して前記SLAMマップを生成することと
を含む、請求項17に記載の方法。 - 第1の特徴点のサイズに少なくとも部分的に基づいて、前記第1の特徴点までの距離を判定すること
を含む、請求項17に記載の方法。 - 前記命令は、
前記特徴点のサイズに少なくとも部分的に基づいて、前記第1の画像の特徴点に対応するコンピュータゲーム用ヘッドセットまでの距離を判定すること
を実行可能である、請求項11に記載のアセンブリ。 - 前記命令は、
第1の特徴点のサイズに少なくとも部分的に基づいて、前記第1の特徴点までの距離を判定すること
が実行可能である、請求項5に記載の記憶装置。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US16/019,140 US10549186B2 (en) | 2018-06-26 | 2018-06-26 | Multipoint SLAM capture |
US16/019,140 | 2018-06-26 | ||
PCT/US2019/035589 WO2020005485A1 (en) | 2018-06-26 | 2019-06-05 | Multipoint slam capture |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021528781A JP2021528781A (ja) | 2021-10-21 |
JP7126008B2 true JP7126008B2 (ja) | 2022-08-25 |
Family
ID=68981361
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020572969A Active JP7126008B2 (ja) | 2018-06-26 | 2019-06-05 | 多点slamキャプチャ |
Country Status (5)
Country | Link |
---|---|
US (2) | US10549186B2 (ja) |
EP (1) | EP3815077A4 (ja) |
JP (1) | JP7126008B2 (ja) |
CN (1) | CN112334969B (ja) |
WO (1) | WO2020005485A1 (ja) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10549186B2 (en) * | 2018-06-26 | 2020-02-04 | Sony Interactive Entertainment Inc. | Multipoint SLAM capture |
US11133993B2 (en) * | 2019-02-28 | 2021-09-28 | At&T Intellectual Property I, L.P. | Augmented/mixed reality virtual venue pipeline optimization |
CN112013844B (zh) * | 2019-05-31 | 2022-02-11 | 北京小米智能科技有限公司 | 建立室内环境地图的方法及装置 |
US11429113B2 (en) * | 2019-08-08 | 2022-08-30 | Lg Electronics Inc. | Serving system using robot and operation method thereof |
US10846940B1 (en) * | 2020-02-24 | 2020-11-24 | SpotMap, Inc. | Multi-modality localization of users |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012145981A (ja) | 2011-01-06 | 2012-08-02 | Nintendo Co Ltd | 画像処理プログラム、画像処理装置、画像処理システム、および画像処理方法 |
JP2014518596A (ja) | 2011-03-29 | 2014-07-31 | クアルコム,インコーポレイテッド | ローカルマルチユーザ共同作業のためのモジュール式のモバイル接続ピコプロジェクタ |
JP2016500885A (ja) | 2012-10-31 | 2016-01-14 | クアルコム,インコーポレイテッド | コンピュータビジョンベースの追跡のために複数のマップをマージするシステムおよび方法 |
JP2016528476A (ja) | 2013-04-30 | 2016-09-15 | クアルコム,インコーポレイテッド | Slamマップからのワイドエリア位置推定 |
WO2017213070A1 (ja) | 2016-06-07 | 2017-12-14 | ソニー株式会社 | 情報処理装置および方法、並びに記録媒体 |
Family Cites Families (188)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6442465B2 (en) | 1992-05-05 | 2002-08-27 | Automotive Technologies International, Inc. | Vehicular component control systems and methods |
IL90521A0 (en) | 1989-06-04 | 1990-01-18 | Elscint Ltd | Dual slice scanner |
US6420698B1 (en) | 1997-04-24 | 2002-07-16 | Cyra Technologies, Inc. | Integrated system for quickly and accurately imaging and modeling three-dimensional objects |
US6970183B1 (en) | 2000-06-14 | 2005-11-29 | E-Watch, Inc. | Multimedia surveillance and monitoring system including network configuration |
AU6355799A (en) | 1998-10-28 | 2000-05-15 | Measurement Devices Limited | Apparatus and method for obtaining 3d images |
US6291816B1 (en) | 1999-06-08 | 2001-09-18 | Robotic Vision Systems, Inc. | System and method for measuring object features with coordinated two and three dimensional imaging |
US6856314B2 (en) | 2002-04-18 | 2005-02-15 | Stmicroelectronics, Inc. | Method and system for 3D reconstruction of multiple views with altering search path and occlusion modeling |
US7236705B2 (en) | 2002-06-03 | 2007-06-26 | Clearmesh Networks, Inc. | Methods and systems for aligning and maintaining alignment of point-to-point transceivers in a network |
US6664501B1 (en) | 2002-06-13 | 2003-12-16 | Igor Troitski | Method for creating laser-induced color images within three-dimensional transparent media |
US8081206B2 (en) | 2002-11-21 | 2011-12-20 | Vision Iii Imaging, Inc. | Critical alignment of parallax images for autostereoscopic display |
US20040141753A1 (en) | 2003-01-21 | 2004-07-22 | Lightpointe Communications, Inc. | Apparatus and method for tracking in free-space optical communication systems |
US7095488B2 (en) | 2003-01-21 | 2006-08-22 | Rosemount Aerospace Inc. | System for profiling objects on terrain forward and below an aircraft utilizing a cross-track laser altimeter |
JP4355341B2 (ja) | 2003-05-29 | 2009-10-28 | 本田技研工業株式会社 | 深度データを用いたビジュアルトラッキング |
US7643025B2 (en) | 2003-09-30 | 2010-01-05 | Eric Belk Lange | Method and apparatus for applying stereoscopic imagery to three-dimensionally defined substrates |
US7965732B2 (en) | 2004-03-19 | 2011-06-21 | Fujitsu Limited | Scheduling token-controlled data transmissions in communication networks |
US7489638B2 (en) | 2004-04-08 | 2009-02-10 | Alcatel-Lucent Usa Inc. | Scheduling with delayed graphs for communication networks |
JP2006010508A (ja) | 2004-06-25 | 2006-01-12 | Konica Minolta Sensing Inc | マルチアングル測色計 |
CA2511040A1 (en) | 2004-09-23 | 2006-03-23 | The Governors Of The University Of Alberta | Method and system for real time image rendering |
US8009871B2 (en) | 2005-02-08 | 2011-08-30 | Microsoft Corporation | Method and system to segment depth images and to detect shapes in three-dimensionally acquired data |
JP2006279563A (ja) | 2005-03-29 | 2006-10-12 | Pioneer Electronic Corp | 画質調整装置、画質調整方法およびディスプレイ装置 |
WO2006130130A1 (en) | 2005-05-27 | 2006-12-07 | Research Triangle Institute | Scheduling method and system for optical burst switched networks |
US8384763B2 (en) | 2005-07-26 | 2013-02-26 | Her Majesty the Queen in right of Canada as represented by the Minster of Industry, Through the Communications Research Centre Canada | Generating a depth map from a two-dimensional source image for stereoscopic and multiview imaging |
KR100834761B1 (ko) * | 2005-11-23 | 2008-06-05 | 삼성전자주식회사 | 이동 로봇의 자기 위치 인식 방법 및 장치 |
US8624964B2 (en) | 2005-12-02 | 2014-01-07 | Koninklijke Philips N.V. | Depth dependent filtering of image signal |
US8107762B2 (en) | 2006-03-17 | 2012-01-31 | Qualcomm Incorporated | Systems, methods, and apparatus for exposure control |
ES2676055T5 (es) | 2006-03-31 | 2022-08-03 | Koninklijke Philips Nv | Receptor de imagen eficaz para múltiples vistas |
US7573475B2 (en) | 2006-06-01 | 2009-08-11 | Industrial Light & Magic | 2D to 3D image conversion |
KR100696162B1 (ko) | 2006-08-11 | 2007-03-20 | 엠텍비젼 주식회사 | 이미지의 노이즈 감소 장치 및 노이즈 감소 방법, 이를수행하는 프로그램이 기록된 기록 매체 |
US8004740B2 (en) | 2006-11-09 | 2011-08-23 | International Business Machines Corporation | Device and system for reflective digital light processing (DLP) |
US7752483B1 (en) | 2006-12-13 | 2010-07-06 | Science Applications International Corporation | Process and system for three-dimensional urban modeling |
US7742652B2 (en) | 2006-12-21 | 2010-06-22 | Sharp Laboratories Of America, Inc. | Methods and systems for image noise processing |
JP2011504782A (ja) | 2007-11-27 | 2011-02-17 | ユニヴァーシティ オブ ワシントン | 多数の撮像装置を用いる撮像中の照射クロストークの除去 |
US7791009B2 (en) | 2007-11-27 | 2010-09-07 | University Of Washington | Eliminating illumination crosstalk while using multiple imaging devices with plural scanning devices, each coupled to an optical fiber |
US9041915B2 (en) | 2008-05-09 | 2015-05-26 | Ball Aerospace & Technologies Corp. | Systems and methods of scene and action capture using imaging system incorporating 3D LIDAR |
US8477217B2 (en) | 2008-06-30 | 2013-07-02 | Sony Corporation | Super-resolution digital zoom |
US7924441B1 (en) | 2008-08-08 | 2011-04-12 | Mirrorcle Technologies, Inc. | Fast and high-precision 3D tracking and position measurement with MEMS micromirrors |
KR101663819B1 (ko) | 2008-08-20 | 2016-10-10 | 톰슨 라이센싱 | 정제된 깊이 맵 |
US20100302365A1 (en) | 2009-05-29 | 2010-12-02 | Microsoft Corporation | Depth Image Noise Reduction |
KR101590763B1 (ko) | 2009-06-10 | 2016-02-02 | 삼성전자주식회사 | Depth map 오브젝트의 영역 확장을 이용한 3d 영상 생성 장치 및 방법 |
US8803967B2 (en) | 2009-07-31 | 2014-08-12 | Mesa Imaging Ag | Time of flight camera with rectangular field of illumination |
US8803950B2 (en) | 2009-08-24 | 2014-08-12 | Samsung Electronics Co., Ltd. | Three-dimensional face capturing apparatus and method and computer-readable medium thereof |
WO2011033673A1 (ja) | 2009-09-18 | 2011-03-24 | 株式会社 東芝 | 画像処理装置 |
DE102009049849B4 (de) * | 2009-10-19 | 2020-09-24 | Apple Inc. | Verfahren zur Bestimmung der Pose einer Kamera, Verfahren zur Erkennung eines Objekts einer realen Umgebung und Verfahren zur Erstellung eines Datenmodells |
US8718482B1 (en) | 2009-11-10 | 2014-05-06 | Calix, Inc. | Transparent clock for precision timing distribution |
TR200908688A2 (tr) | 2009-11-17 | 2011-06-21 | Vestel Elektron�K San. Ve T�C. A.�. | Çoklu görüntülü videoda derinlik dengelemeli gürültü azaltımı. |
US20110151955A1 (en) * | 2009-12-23 | 2011-06-23 | Exent Technologies, Ltd. | Multi-player augmented reality combat |
US8472746B2 (en) | 2010-02-04 | 2013-06-25 | Sony Corporation | Fast depth map generation for 2D to 3D conversion |
US8730309B2 (en) | 2010-02-23 | 2014-05-20 | Microsoft Corporation | Projectors and depth cameras for deviceless augmented reality and interaction |
KR101709785B1 (ko) | 2010-03-31 | 2017-02-23 | 삼성전자주식회사 | 가시광 통신 시스템에서 슬립 모드 설정에 따른 가시 프레임 전송 방법 및 장치 |
US8730088B2 (en) | 2010-08-09 | 2014-05-20 | Raytheon Bbn Technologies Corp. | Radar coherent processing interval scheduling via ad hoc network |
US20120056982A1 (en) | 2010-09-08 | 2012-03-08 | Microsoft Corporation | Depth camera based on structured light and stereo vision |
US9304319B2 (en) * | 2010-11-18 | 2016-04-05 | Microsoft Technology Licensing, Llc | Automatic focus improvement for augmented reality displays |
KR20120084216A (ko) | 2011-01-19 | 2012-07-27 | 삼성전자주식회사 | 깊이 정보에 대한 픽셀 노이즈를 제거하는 3차원 이미지 신호 처리 방법 및 상기 방법을 수행하는 3차원 이미지 신호 프로세서 |
EP2487504A1 (en) | 2011-02-10 | 2012-08-15 | Technische Universität München | Method of enhanced depth image acquisition |
WO2012135073A2 (en) | 2011-03-25 | 2012-10-04 | Board Of Trustees Of Michigan State University | Adaptive laser system for ophthalmic use |
JP5635937B2 (ja) | 2011-03-31 | 2014-12-03 | 本田技研工業株式会社 | 固体撮像装置 |
US9482529B2 (en) | 2011-04-15 | 2016-11-01 | Faro Technologies, Inc. | Three-dimensional coordinate scanner and method of operation |
US9007435B2 (en) | 2011-05-17 | 2015-04-14 | Himax Technologies Limited | Real-time depth-aware image enhancement system |
US9053571B2 (en) | 2011-06-06 | 2015-06-09 | Microsoft Corporation | Generating computer models of 3D objects |
JP6143747B2 (ja) | 2011-06-24 | 2017-06-07 | ソフトキネティック ソフトウェア | 深度測定の品質の向上 |
WO2013012335A1 (en) | 2011-07-21 | 2013-01-24 | Ziv Attar | Imaging device for motion detection of objects in a scene, and method for motion detection of objects in a scene |
US20130051516A1 (en) | 2011-08-31 | 2013-02-28 | Carestream Health, Inc. | Noise suppression for low x-ray dose cone-beam image reconstruction |
US9098908B2 (en) | 2011-10-21 | 2015-08-04 | Microsoft Technology Licensing, Llc | Generating a depth map |
US8660362B2 (en) | 2011-11-21 | 2014-02-25 | Microsoft Corporation | Combined depth filtering and super resolution |
KR101978172B1 (ko) | 2011-11-29 | 2019-05-15 | 삼성전자주식회사 | 깊이 영상을 고해상도로 변환하는 방법 및 장치 |
KR101696335B1 (ko) | 2012-01-10 | 2017-01-13 | 소프트키네틱 센서스 엔브이 | 다중 스펙트럼 센서 |
US9235928B2 (en) | 2012-01-24 | 2016-01-12 | University Of Southern California | 3D body modeling, from a single or multiple 3D cameras, in the presence of motion |
KR101904745B1 (ko) | 2012-01-26 | 2018-11-21 | 삼성전자주식회사 | 적어도 하나의 보조 허브를 포함하는 무선 신체 영역 네트워크(wban)에서 통신하는 주 허브, 보조 허브, 센서 노드 및 그 통신 방법 |
US9157790B2 (en) | 2012-02-15 | 2015-10-13 | Apple Inc. | Integrated optoelectronic modules with transmitter, receiver and beam-combining optics for aligning a beam axis with a collection axis |
WO2013121267A1 (en) | 2012-02-15 | 2013-08-22 | Mesa Imaging Ag | Time of flight camera with stripe illumination |
JP6058898B2 (ja) | 2012-02-22 | 2017-01-11 | 株式会社日立国際電気 | 無線通信装置、無線通信方法、及び無線通信システム |
US10848731B2 (en) * | 2012-02-24 | 2020-11-24 | Matterport, Inc. | Capturing and aligning panoramic image and depth data |
US9031356B2 (en) | 2012-03-20 | 2015-05-12 | Dolby Laboratories Licensing Corporation | Applying perceptually correct 3D film noise |
US20140198977A1 (en) | 2012-03-21 | 2014-07-17 | Texas Instruments Incorporated | Enhancement of Stereo Depth Maps |
US9262815B2 (en) | 2012-03-29 | 2016-02-16 | Nikon Corporation | Algorithm for minimizing latent sharp image cost function and point spread function cost function with a spatial mask in a regularization term |
US20130329012A1 (en) | 2012-06-07 | 2013-12-12 | Liberty Reach Inc. | 3-d imaging and processing system including at least one 3-d or depth sensor which is continually calibrated during use |
US9105210B2 (en) * | 2012-06-29 | 2015-08-11 | Microsoft Technology Licensing, Llc | Multi-node poster location |
GB2506338A (en) | 2012-07-30 | 2014-04-02 | Sony Comp Entertainment Europe | A method of localisation and mapping |
WO2014022230A2 (en) * | 2012-07-30 | 2014-02-06 | Fish Robert D | Electronic personal companion |
CA2881131A1 (en) | 2012-08-21 | 2014-02-27 | Pelican Imaging Corporation | Systems and methods for parallax detection and correction in images captured using array cameras |
US9275302B1 (en) | 2012-08-24 | 2016-03-01 | Amazon Technologies, Inc. | Object detection and identification |
KR101901184B1 (ko) | 2012-09-20 | 2018-09-21 | 삼성전자주식회사 | 깊이 영상을 사용한 컬러 영상 처리 장치 및 방법 |
JP5962393B2 (ja) | 2012-09-28 | 2016-08-03 | 株式会社Jvcケンウッド | 画像処理装置、画像処理方法及び画像処理プログラム |
RU2012145349A (ru) | 2012-10-24 | 2014-05-10 | ЭлЭсАй Корпорейшн | Способ и устройство обработки изображений для устранения артефактов глубины |
JP5978933B2 (ja) | 2012-11-09 | 2016-08-24 | オムロン株式会社 | センサシステム |
US9542600B2 (en) | 2012-11-12 | 2017-01-10 | Bae Systems Plc | Cloud feature detection |
CN102970548B (zh) | 2012-11-27 | 2015-01-21 | 西安交通大学 | 一种图像深度感知装置 |
US9720505B2 (en) * | 2013-01-03 | 2017-08-01 | Meta Company | Extramissive spatial imaging digital eye glass apparatuses, methods and systems for virtual or augmediated vision, manipulation, creation, or interaction with objects, materials, or other entities |
ES2512965B2 (es) | 2013-02-13 | 2015-11-24 | Universitat Politècnica De Catalunya | Sistema y método para escanear una superficie y programa de ordenador que implementa el método |
US9513371B2 (en) | 2013-02-28 | 2016-12-06 | Identified Technologies Corporation | Ground survey and obstacle detection system |
US20140253691A1 (en) | 2013-03-06 | 2014-09-11 | Leap Motion, Inc. | Motion-capture apparatus with light-source form factor |
US9319139B2 (en) | 2013-03-11 | 2016-04-19 | Futurewei Technologies, Inc. | Long distance multi-mode communication |
WO2014165244A1 (en) | 2013-03-13 | 2014-10-09 | Pelican Imaging Corporation | Systems and methods for synthesizing images from image data captured by an array camera using restricted depth of field depth maps in which depth estimation precision varies |
US20140267234A1 (en) * | 2013-03-15 | 2014-09-18 | Anselm Hook | Generation and Sharing Coordinate System Between Users on Mobile |
US9438888B2 (en) | 2013-03-15 | 2016-09-06 | Pelican Imaging Corporation | Systems and methods for stereo imaging with camera arrays |
WO2014160708A1 (en) | 2013-03-26 | 2014-10-02 | Sensity Systems, Inc. | Sensor nodes with multicast transmissions in lighting sensory network |
US9405008B2 (en) | 2013-05-17 | 2016-08-02 | Massachusetts Institute Of Technology | Methods and apparatus for multi-frequency camera |
US9043146B2 (en) | 2013-06-19 | 2015-05-26 | The Boeing Company | Systems and methods for tracking location of movable target object |
KR102061699B1 (ko) | 2013-06-19 | 2020-01-02 | 삼성전자주식회사 | 이미지 센서, 이를 포함하는 이미지 처리 시스템 및 이의 동작 방법 |
US10025378B2 (en) * | 2013-06-25 | 2018-07-17 | Microsoft Technology Licensing, Llc | Selecting user interface elements via position signal |
US20150002636A1 (en) | 2013-06-28 | 2015-01-01 | Cable Television Laboratories, Inc. | Capturing Full Motion Live Events Using Spatially Distributed Depth Sensing Cameras |
US20150024337A1 (en) | 2013-07-18 | 2015-01-22 | A.Tron3D Gmbh | Voxel level new information updates using intelligent weighting |
EP3022898B1 (en) | 2013-07-19 | 2020-04-15 | Google Technology Holdings LLC | Asymmetric sensor array for capturing images |
US20150070489A1 (en) | 2013-09-11 | 2015-03-12 | Microsoft Corporation | Optical modules for use with depth cameras |
CN105593856B (zh) * | 2013-09-23 | 2019-05-31 | 英派尔科技开发有限公司 | 适应位置图的视频游戏 |
KR102136850B1 (ko) | 2013-11-12 | 2020-07-22 | 삼성전자 주식회사 | 깊이 센서, 및 이의 동작 방법 |
US9769459B2 (en) | 2013-11-12 | 2017-09-19 | Microsoft Technology Licensing, Llc | Power efficient laser diode driver circuit and method |
KR101537174B1 (ko) | 2013-12-17 | 2015-07-15 | 가톨릭대학교 산학협력단 | 스테레오스코픽 영상에서의 주요 객체 검출 방법 |
US9503183B2 (en) | 2013-12-18 | 2016-11-22 | Northrop Grumman Systems Corporation | Free space optical transceiver |
US9542749B2 (en) | 2014-01-06 | 2017-01-10 | Microsoft Technology Licensing, Llc | Fast general multipath correction in time-of-flight imaging |
KR101700817B1 (ko) | 2014-01-10 | 2017-02-13 | 한국전자통신연구원 | 3차원 영상을 이용한 다수의 팔 및 손 검출 장치 및 그 방법 |
CN103796004B (zh) | 2014-02-13 | 2015-09-30 | 西安交通大学 | 一种主动结构光的双目深度感知方法 |
CN103810685B (zh) | 2014-02-25 | 2016-05-25 | 清华大学深圳研究生院 | 一种深度图的超分辨率处理方法 |
US9626766B2 (en) | 2014-02-28 | 2017-04-18 | Microsoft Technology Licensing, Llc | Depth sensing using an RGB camera |
WO2015134958A1 (en) * | 2014-03-07 | 2015-09-11 | Magic Leap, Inc. | Virtual and augmented reality systems and methods |
US9552633B2 (en) | 2014-03-07 | 2017-01-24 | Qualcomm Incorporated | Depth aware enhancement for stereo video |
US20150294686A1 (en) | 2014-04-11 | 2015-10-15 | Youlapse Oy | Technique for gathering and combining digital images from multiple sources as video |
US20150309663A1 (en) | 2014-04-28 | 2015-10-29 | Qualcomm Incorporated | Flexible air and surface multi-touch detection in mobile platform |
CN105096259B (zh) | 2014-05-09 | 2018-01-09 | 株式会社理光 | 深度图像的深度值恢复方法和系统 |
US20150339471A1 (en) | 2014-05-23 | 2015-11-26 | Texas Instruments Incorporated | Device unlock with three dimensional (3d) captures |
US9582888B2 (en) | 2014-06-19 | 2017-02-28 | Qualcomm Incorporated | Structured light three-dimensional (3D) depth map based on content filtering |
US10419703B2 (en) | 2014-06-20 | 2019-09-17 | Qualcomm Incorporated | Automatic multiple depth cameras synchronization using time sharing |
US10068373B2 (en) | 2014-07-01 | 2018-09-04 | Samsung Electronics Co., Ltd. | Electronic device for providing map information |
US9373190B2 (en) | 2014-07-09 | 2016-06-21 | Google Inc. | High-quality stereo reconstruction featuring depth map alignment and outlier identification |
US9860618B2 (en) | 2014-09-30 | 2018-01-02 | Futurewei Technologies, Inc. | Upstream wavelength calibration in optical networks |
US9806813B2 (en) | 2014-10-01 | 2017-10-31 | Futurewei Technologies, Inc. | Optical receiver with optical transmitter-specific dispersion post-compensation |
US10008013B2 (en) | 2014-10-01 | 2018-06-26 | Ora Inc. | Multidimensional halo-based visualization system |
US9557166B2 (en) | 2014-10-21 | 2017-01-31 | Hand Held Products, Inc. | Dimensioning system with multipath interference mitigation |
US9823352B2 (en) | 2014-10-31 | 2017-11-21 | Rockwell Automation Safety Ag | Absolute distance measurement for time-of-flight sensors |
US20160133230A1 (en) * | 2014-11-11 | 2016-05-12 | Bent Image Lab, Llc | Real-time shared augmented reality experience |
US20160173869A1 (en) | 2014-12-15 | 2016-06-16 | Nokia Corporation | Multi-Camera System Consisting Of Variably Calibrated Cameras |
US9628695B2 (en) | 2014-12-29 | 2017-04-18 | Intel Corporation | Method and system of lens shift correction for a camera array |
US20180176483A1 (en) * | 2014-12-29 | 2018-06-21 | Metaio Gmbh | Method and sytem for generating at least one image of a real environment |
KR101531530B1 (ko) | 2014-12-31 | 2015-06-25 | (주)스타넥스 | 이미지 분석 방법, 장치 및 컴퓨터로 판독가능한 장치 |
CN105988266A (zh) | 2015-02-05 | 2016-10-05 | 深圳市绎立锐光科技开发有限公司 | 投影设备、投影控制系统及投影控制方法 |
US9805294B2 (en) | 2015-02-12 | 2017-10-31 | Mitsubishi Electric Research Laboratories, Inc. | Method for denoising time-of-flight range images |
NZ735465A (en) * | 2015-03-05 | 2021-07-30 | Magic Leap Inc | Systems and methods for augmented reality |
US11956414B2 (en) * | 2015-03-17 | 2024-04-09 | Raytrx, Llc | Wearable image manipulation and control system with correction for vision defects and augmentation of vision and sensing |
US10175360B2 (en) | 2015-03-31 | 2019-01-08 | Faro Technologies, Inc. | Mobile three-dimensional measuring instrument |
US9928645B2 (en) | 2015-04-17 | 2018-03-27 | Microsoft Technology Licensing, Llc | Raster-based mesh decimation |
WO2016183074A1 (en) | 2015-05-10 | 2016-11-17 | Mobileye Vision Technologies Ltd. | Road profile along a predicted path |
US9749565B2 (en) | 2015-05-18 | 2017-08-29 | Analog Devices, Inc. | Interline charge-coupled devices |
US10546400B2 (en) * | 2015-06-03 | 2020-01-28 | Here Global B.V. | Method and apparatus for defining bi-directional road geometry from probe data |
US20170201738A1 (en) | 2015-06-13 | 2017-07-13 | Alberto Daniel Lacaze | Senising on uavs for mapping and obstacle avoidance |
US10452134B2 (en) * | 2015-06-25 | 2019-10-22 | Intel Corporation | Automated peripheral device handoff based on eye tracking |
EP3317624B1 (en) * | 2015-07-05 | 2019-08-07 | The Whollysee Ltd. | Optical identification and characterization system and tags |
US9426450B1 (en) | 2015-08-18 | 2016-08-23 | Intel Corporation | Depth sensing auto focus multiple camera system |
US10169917B2 (en) * | 2015-08-20 | 2019-01-01 | Microsoft Technology Licensing, Llc | Augmented reality |
US9818232B2 (en) | 2015-08-26 | 2017-11-14 | Adobe Systems Incorporated | Color-based depth smoothing of scanned 3D model to enhance geometry in 3D printing |
CA2996009A1 (en) | 2015-09-25 | 2017-03-30 | Magic Leap, Inc. | Methods and systems for detecting and combining structural features in 3d reconstruction |
US9984499B1 (en) * | 2015-11-30 | 2018-05-29 | Snap Inc. | Image and point cloud based tracking and in augmented reality systems |
EP3185209B1 (en) | 2015-12-23 | 2019-02-27 | STMicroelectronics (Research & Development) Limited | Depth maps generated from a single sensor |
US10078218B2 (en) * | 2016-01-01 | 2018-09-18 | Oculus Vr, Llc | Non-overlapped stereo imaging for virtual reality headset tracking |
US9760837B1 (en) | 2016-03-13 | 2017-09-12 | Microsoft Technology Licensing, Llc | Depth from time-of-flight using machine learning |
US10587858B2 (en) | 2016-03-14 | 2020-03-10 | Symbol Technologies, Llc | Device and method of dimensioning using digital images and depth data |
US10721451B2 (en) | 2016-03-23 | 2020-07-21 | Symbol Technologies, Llc | Arrangement for, and method of, loading freight into a shipping container |
US10191486B2 (en) | 2016-03-28 | 2019-01-29 | Aveopt, Inc. | Unmanned surveyor |
US10542799B2 (en) | 2016-05-20 | 2020-01-28 | Shadecraft, LLC | Intelligent shading system with movable base assembly |
EP3467790B1 (en) * | 2016-05-26 | 2020-09-16 | Sony Corporation | Information processing device, information processing method, and storage medium |
US10311648B2 (en) | 2016-06-22 | 2019-06-04 | Aquifi, Inc. | Systems and methods for scanning three-dimensional objects |
US20170374342A1 (en) * | 2016-06-24 | 2017-12-28 | Isee, Inc. | Laser-enhanced visual simultaneous localization and mapping (slam) for mobile devices |
US10305621B2 (en) | 2016-07-26 | 2019-05-28 | Futurewei Technologies, Inc. | Burst-mode discrete multi-tone for networks |
JP6795683B2 (ja) * | 2016-08-11 | 2020-12-02 | マジック リープ, インコーポレイテッドMagic Leap,Inc. | 3次元空間内の仮想オブジェクトの自動配置 |
AU2017317600B2 (en) | 2016-08-22 | 2021-12-09 | Magic Leap, Inc. | Virtual, augmented, and mixed reality systems and methods |
US20180100928A1 (en) | 2016-10-09 | 2018-04-12 | Innoviz Technologies Ltd. | Methods circuits devices assemblies systems and functionally associated machine executable code for active scene scanning |
US10352718B2 (en) * | 2016-09-23 | 2019-07-16 | Apple Inc. | Discovering points of entry to a location |
JP6964132B2 (ja) * | 2016-09-28 | 2021-11-10 | マジック リープ, インコーポレイテッドMagic Leap, Inc. | ウェアラブルデバイスによる顔モデル捕捉 |
US10271033B2 (en) | 2016-10-31 | 2019-04-23 | Verizon Patent And Licensing Inc. | Methods and systems for generating depth data by converging independently-captured depth maps |
US10754417B2 (en) * | 2016-11-14 | 2020-08-25 | Logitech Europe S.A. | Systems and methods for operating an input device in an augmented/virtual reality environment |
US10181089B2 (en) | 2016-12-19 | 2019-01-15 | Sony Corporation | Using pattern recognition to reduce noise in a 3D map |
US20180190014A1 (en) | 2017-01-03 | 2018-07-05 | Honeywell International Inc. | Collaborative multi sensor system for site exploitation |
US20180234617A1 (en) | 2017-02-15 | 2018-08-16 | John Przyborski | Motion camera autofocus systems |
US10666927B2 (en) | 2017-03-15 | 2020-05-26 | Baker Hughes, A Ge Company, Llc | Method and device for inspection of an asset |
TWI672677B (zh) | 2017-03-31 | 2019-09-21 | 鈺立微電子股份有限公司 | 用以融合多深度圖的深度圖產生裝置 |
US10645367B2 (en) | 2017-04-20 | 2020-05-05 | Wisconsin Alumni Research Foundation | Systems, methods, and media for encoding and decoding signals used in time of flight imaging |
US10471955B2 (en) * | 2017-07-18 | 2019-11-12 | lvl5, Inc. | Stop sign and traffic light alert |
US10803663B2 (en) * | 2017-08-02 | 2020-10-13 | Google Llc | Depth sensor aided estimation of virtual reality environment boundaries |
CN109491087B (zh) * | 2017-09-11 | 2022-09-20 | 杜比实验室特许公司 | 用于ar/vr/mr的模块化拆卸式可穿戴装置 |
CN109697688B (zh) * | 2017-10-20 | 2023-08-04 | 虹软科技股份有限公司 | 一种用于图像处理的方法和装置 |
US10606269B2 (en) * | 2017-12-19 | 2020-03-31 | X Development Llc | Semantic obstacle recognition for path planning |
US10580148B2 (en) * | 2017-12-21 | 2020-03-03 | Microsoft Technology Licensing, Llc | Graphical coordinate system transform for video frames |
US10549186B2 (en) * | 2018-06-26 | 2020-02-04 | Sony Interactive Entertainment Inc. | Multipoint SLAM capture |
JP7060625B2 (ja) * | 2019-01-30 | 2022-04-26 | バイドゥドットコム タイムズ テクノロジー (ベイジン) カンパニー リミテッド | 自動運転車において3dcnnネットワークを用いてソリューション推断を行うlidar測位 |
CN109886272B (zh) * | 2019-02-25 | 2020-10-30 | 腾讯科技(深圳)有限公司 | 点云分割方法、装置、计算机可读存储介质和计算机设备 |
US11694356B2 (en) * | 2019-11-15 | 2023-07-04 | Argo AI, LLC | Methods and systems for joint pose and shape estimation of objects from sensor data |
US11420649B2 (en) * | 2020-03-24 | 2022-08-23 | Here Global B.V. | Method, apparatus, and computer program product for generating turn paths through an intersection |
CN111539070B (zh) * | 2020-04-27 | 2022-03-08 | 南京航空航天大学 | 基于实测数据的翼身对接间隙分布控制方法 |
KR102398931B1 (ko) * | 2020-05-11 | 2022-05-17 | 성균관대학교산학협력단 | 포인트 오토인코더, 듀얼 오토인코더, 및 이를 이용한 포인트 클라우드의 차원 변환 방법 |
-
2018
- 2018-06-26 US US16/019,140 patent/US10549186B2/en active Active
-
2019
- 2019-06-05 JP JP2020572969A patent/JP7126008B2/ja active Active
- 2019-06-05 WO PCT/US2019/035589 patent/WO2020005485A1/en unknown
- 2019-06-05 CN CN201980043862.3A patent/CN112334969B/zh active Active
- 2019-06-05 EP EP19826521.7A patent/EP3815077A4/en active Pending
-
2020
- 2020-02-03 US US16/780,858 patent/US11590416B2/en active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012145981A (ja) | 2011-01-06 | 2012-08-02 | Nintendo Co Ltd | 画像処理プログラム、画像処理装置、画像処理システム、および画像処理方法 |
JP2014518596A (ja) | 2011-03-29 | 2014-07-31 | クアルコム,インコーポレイテッド | ローカルマルチユーザ共同作業のためのモジュール式のモバイル接続ピコプロジェクタ |
JP2016500885A (ja) | 2012-10-31 | 2016-01-14 | クアルコム,インコーポレイテッド | コンピュータビジョンベースの追跡のために複数のマップをマージするシステムおよび方法 |
JP2016528476A (ja) | 2013-04-30 | 2016-09-15 | クアルコム,インコーポレイテッド | Slamマップからのワイドエリア位置推定 |
WO2017213070A1 (ja) | 2016-06-07 | 2017-12-14 | ソニー株式会社 | 情報処理装置および方法、並びに記録媒体 |
Also Published As
Publication number | Publication date |
---|---|
JP2021528781A (ja) | 2021-10-21 |
US10549186B2 (en) | 2020-02-04 |
CN112334969B (zh) | 2023-09-01 |
US11590416B2 (en) | 2023-02-28 |
US20190388781A1 (en) | 2019-12-26 |
US20200171380A1 (en) | 2020-06-04 |
WO2020005485A1 (en) | 2020-01-02 |
EP3815077A4 (en) | 2022-04-06 |
EP3815077A1 (en) | 2021-05-05 |
CN112334969A (zh) | 2021-02-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7126008B2 (ja) | 多点slamキャプチャ | |
KR101880844B1 (ko) | 오디오 공간 효과를 위한 초음파 스피커 어셈블리 | |
JP2023512166A (ja) | 仮想及び拡張現実hmdシステムにおける高速予測追跡及びレイテンシ補償のための光強度ベースのcmos及びイベント検出センサの組み合わせ | |
US11508072B2 (en) | Smart phones for motion capture | |
US10915945B2 (en) | Method and apparatuses for intelligent TV startup based on consumer behavior and real time content availability | |
JP2020532352A (ja) | プレイヤ選択についての注意ベースのai決定 | |
JP7462069B2 (ja) | 複数のカメラからの合成入力を使用してビデオを生成するための仮想カメラ位置のユーザ選択 | |
US10650702B2 (en) | Modifying display region for people with loss of peripheral vision | |
US10805676B2 (en) | Modifying display region for people with macular degeneration | |
US11553020B2 (en) | Using camera on computer simulation controller | |
US11373342B2 (en) | Social and scene target awareness and adaptation of an occlusion system for increased social and scene interaction in an optical see-through augmented reality head mounted display | |
US11474620B2 (en) | Controller inversion detection for context switching | |
US20240073520A1 (en) | Dual camera tracking system | |
US20240042312A1 (en) | Haptics support for ui navigation | |
US20190020808A1 (en) | Remotely controllable camera on head-mount for the blind |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20201225 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220301 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220428 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20220524 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220623 |
|
C60 | Trial request (containing other claim documents, opposition documents) |
Free format text: JAPANESE INTERMEDIATE CODE: C60 Effective date: 20220623 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20220704 |
|
C21 | Notice of transfer of a case for reconsideration by examiners before appeal proceedings |
Free format text: JAPANESE INTERMEDIATE CODE: C21 Effective date: 20220705 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220719 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220815 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7126008 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |