TW201928725A - 一種導航引導圖的產生方法和裝置 - Google Patents
一種導航引導圖的產生方法和裝置 Download PDFInfo
- Publication number
- TW201928725A TW201928725A TW107135972A TW107135972A TW201928725A TW 201928725 A TW201928725 A TW 201928725A TW 107135972 A TW107135972 A TW 107135972A TW 107135972 A TW107135972 A TW 107135972A TW 201928725 A TW201928725 A TW 201928725A
- Authority
- TW
- Taiwan
- Prior art keywords
- data
- point cloud
- product model
- module
- navigation guide
- Prior art date
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/64—Three-dimensional objects
- G06V20/647—Three-dimensional objects by matching two-dimensional images to three-dimensional objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/003—Navigation within 3D models or images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/20—Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/75—Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
- G06V10/751—Comparing pixel values or logical combinations thereof, or feature values having positional relevance, e.g. template matching
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/20—Scenes; Scene-specific elements in augmented reality scenes
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Software Systems (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Engineering & Computer Science (AREA)
- Computer Hardware Design (AREA)
- Computer Graphics (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Databases & Information Systems (AREA)
- Computing Systems (AREA)
- Artificial Intelligence (AREA)
- Health & Medical Sciences (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Architecture (AREA)
- Processing Or Creating Images (AREA)
- Navigation (AREA)
- Image Analysis (AREA)
Abstract
本案實施例提供了一種導航引導圖的產生方法和裝置,所述方法包括:獲取識別對象對應的點雲資料庫;所述識別對象具有對應的產品模型;基於所述點雲資料庫確定目標移動位置;獲取基於所述目標移動位置截取的所述產品模型的截圖資料;根據所述截圖資料產生所述識別對象的導航引導圖。本案實施例通過點雲資料庫,能夠快速產生導航引導圖,從而使得用戶能夠更加基於導航引導圖準確掃描識別對象以進行識別對象的演示,這個過程無需人工介入修改引導圖,因此不需要耗費人工,且處理速度快。
Description
本案涉及增強現實技術領域,特別是涉及一種導航引導圖的產生方法和一種導航引導圖的產生裝置。
增強現實技術(Augmented Reality,簡稱AR),是一種即時地計算攝影機(相機)影像的位置及角度並加上相應影像、視訊、3D模型的技術,這種技術的目標是在螢幕上把虛擬物體套在實際物體並進行互動。隨著隨身電子產品CPU運算能力的提升,預期增強現實的用途將會越來越廣。
在使用增強現實功能時,離線掃描實際物體需要製作引導圖,用以引導用戶使用攝影機對準實際物體。然而,通常在點雲錄製階段,基於初始化角度產生相應的引導圖,如果用戶使用攝影機對準用戶的角度有所變化,那麼需要人工介入修改引導圖,修改耗費比較大的人工,且修改速度慢。
在使用增強現實功能時,離線掃描實際物體需要製作引導圖,用以引導用戶使用攝影機對準實際物體。然而,通常在點雲錄製階段,基於初始化角度產生相應的引導圖,如果用戶使用攝影機對準用戶的角度有所變化,那麼需要人工介入修改引導圖,修改耗費比較大的人工,且修改速度慢。
鑒於上述問題,提出了本案實施例以便提供一種克服上述問題或者至少部分地解決上述問題的一種導航引導圖的產生方法和相應的一種導航引導圖的產生裝置。
為了解決上述問題,本案揭露了一種導航引導圖的產生方法,包括:
獲取識別對象對應的點雲資料庫;所述識別對象具有對應的產品模型;
基於所述點雲資料庫確定目標移動位置;
獲取基於所述目標移動位置截取的所述產品模型的截圖資料;
根據所述截圖資料產生所述識別對象的導航引導圖。
較佳地,所述方法應用於具有攝影機的行動終端,所述點雲資料庫基於初始化角度進行錄製,所述基於所述點雲資料庫確定所述識別對象的目標移動位置,包括:
從所述點雲資料庫中獲取初始化角度;
將所述初始化角度作為所述攝影機的目標移動位置。
較佳地,所述獲取基於所述目標移動位置截取的所述產品模型的截圖資料,包括:
將所述識別對象的產品模型按照所述目標移動位置進行調整;
獲取調整後所述產品模型的截圖資料。
較佳地,所述根據所述截圖資料產生所述識別對象的導航引導圖,包括:
從所述截圖資料中提取邊緣資料;
根據所述邊緣資料調整所述截圖資料的邊緣顏色和背景顏色;
根據所述調整後的截圖資料提取出所述識別對象的輪廓圖;
將所述輪廓圖作為所述識別對象的導航引導圖。
較佳地,在所述從所述截圖資料中提取邊緣資料之後,還包括:
針對所述邊緣資料進行頻率過濾和顏色修正。
較佳地,在所述根據所述截圖資料產生所述識別對象的導航引導圖之後,還包括:
在啟動增強現實功能時,加載預置的業務頁面;所述業務頁面中包括識別對象的導航引導圖;
控制所述移動中的攝影機掃描所述識別對象得到視訊資料。
較佳地,所述視訊資料包括圖片資料,在所述控制所述移動中的攝影機掃描所述識別對象得到視訊資料之後,還包括:
當用戶基於所述導航引導圖對準識別對象後,從素材庫中獲取素材資料;
將所述視訊資料的圖片資料與所述點雲資料庫進行匹配得到三維矩陣;
基於三維矩陣將所述素材資料、圖片資料交互至產品模型為用戶演示所述識別對象,所述素材資料包括動畫和/或紋理。
本案實施例還揭露了一種點雲資料庫的產生方法,包括:
獲取識別對象的產品模型;
採用初始化角度對準所述產品模型進行錄製,得到所述初始化角度對應的點雲資料;
採用多個錄製角度對準所述產品模型進行錄製,得到多個錄製角度對應的點雲資料;
將所述初始化角度和所述初始化角度對應的點雲資料,以及,所述錄製角度和所述錄製角度對應的點雲資料記錄到點雲資料庫中。
本案實施例還揭露了一種導航引導圖的產生裝置,包括:
點雲資料庫獲取模組,用於獲取識別對象對應的點雲資料庫;所述識別對象具有對應的產品模型;
目標移動位置確定模組,用於基於所述點雲資料庫確定目標移動位置;
截圖資料獲取模組,用於獲取基於所述目標移動位置截取的所述產品模型的截圖資料;
導航引導圖產生模組,用於根據所述截圖資料產生所述識別對象的導航引導圖。
較佳地,所述裝置應用於具有攝影機的行動終端,所述點雲資料庫基於初始化角度進行錄製,所述目標移動位置確定模組包括:
初始化角度獲取子模組,用於從所述點雲資料庫中獲取初始化角度;
目標移動位置設置子模組,用於將所述初始化角度作為所述攝影機的目標移動位置。
較佳地,所述截圖資料獲取模組包括:
產品模型調整子模組,用於將所述識別對象的產品模型按照所述目標移動位置進行調整;
截圖資料獲取子模組,用於獲取調整後所述產品模型的截圖資料。
較佳地,所述導航引導圖產生模組包括:
邊緣資料提取子模組,用於從所述截圖資料中提取邊緣資料;
截圖資料調整子模組,用於根據所述邊緣資料調整所述截圖資料的邊緣顏色和背景顏色;
輪廓圖提取子模組,用於根據所述調整後的截圖資料提取出所述識別對象的輪廓圖;
導航引導圖設置子模組,用於將所述輪廓圖作為所述識別對象的導航引導圖。
較佳地,還包括:
資料處理子模組,用於針對所述邊緣資料進行頻率過濾和顏色修正。
較佳地,還包括:
業務頁面加載模組,用於在啟動增強現實功能時,加載預置的業務頁面;所述業務頁面中包括識別對象的導航引導圖;
視訊資料得到模組,用於控制所述移動中的攝影機掃描所述識別對象得到視訊資料。
較佳地,所述視訊資料包括圖片資料,還包括:
素材資料獲取模組,用於當用戶基於所述導航引導圖對準識別對象後,從素材庫中獲取素材資料;
三維矩陣得到模組,用於將所述視訊資料的圖片資料與所述點雲資料庫進行匹配得到三維矩陣;
識別對象演示模組,用於基於三維矩陣將所述素材資料、圖片資料交互至產品模型為用戶演示所述識別對象,所述素材資料包括動畫和/或紋理。
本案實施例還揭露了一種點雲資料庫的產生裝置,包括:
產品模型獲取模組,用於獲取識別對象的產品模型;
第一點雲資料得到模組,用於採用初始化角度對準所述產品模型進行錄製,得到所述初始化角度對應的點雲資料;
第二點雲資料模組,用於採用多個錄製角度對準所述產品模型進行錄製,得到多個錄製角度對應的點雲資料;
點雲資料記錄模組,用於將所述初始化角度和所述初始化角度對應的點雲資料,以及,所述錄製角度和所述錄製角度對應的點雲資料記錄到點雲資料庫中。
本案實施例還揭露了一種裝置,包括:
一個或多個處理器;和
其上儲存有指令的一個或多個機器可讀媒體,當由所述一個或多個處理器執行時,使得所述裝置執行如上述的方法。
本案實施例還揭露了一個或多個機器可讀媒體,其上儲存有指令,當由一個或多個處理器執行時,使得所述裝置執行如上述的方法。
本案實施例包括以下優點:
本案實施例在啟動AR功能時,獲取預先針對識別對象設置的點雲資料庫,基於點雲資料庫確定出初目標移動位置,並基於該目標移動位置獲取產品模型的截圖資料,最後將基於截圖資料產生用於引導用戶對準識別對象的導航引導圖,本案實施例通過點雲資料庫,能夠快速產生導航引導圖,從而使得用戶能夠更加基於導航引導圖準確掃描識別對象以進行識別對象的演示,這個過程無需人工介入修改引導圖,因此不需要耗費人工,且處理速度快。
為了解決上述問題,本案揭露了一種導航引導圖的產生方法,包括:
獲取識別對象對應的點雲資料庫;所述識別對象具有對應的產品模型;
基於所述點雲資料庫確定目標移動位置;
獲取基於所述目標移動位置截取的所述產品模型的截圖資料;
根據所述截圖資料產生所述識別對象的導航引導圖。
較佳地,所述方法應用於具有攝影機的行動終端,所述點雲資料庫基於初始化角度進行錄製,所述基於所述點雲資料庫確定所述識別對象的目標移動位置,包括:
從所述點雲資料庫中獲取初始化角度;
將所述初始化角度作為所述攝影機的目標移動位置。
較佳地,所述獲取基於所述目標移動位置截取的所述產品模型的截圖資料,包括:
將所述識別對象的產品模型按照所述目標移動位置進行調整;
獲取調整後所述產品模型的截圖資料。
較佳地,所述根據所述截圖資料產生所述識別對象的導航引導圖,包括:
從所述截圖資料中提取邊緣資料;
根據所述邊緣資料調整所述截圖資料的邊緣顏色和背景顏色;
根據所述調整後的截圖資料提取出所述識別對象的輪廓圖;
將所述輪廓圖作為所述識別對象的導航引導圖。
較佳地,在所述從所述截圖資料中提取邊緣資料之後,還包括:
針對所述邊緣資料進行頻率過濾和顏色修正。
較佳地,在所述根據所述截圖資料產生所述識別對象的導航引導圖之後,還包括:
在啟動增強現實功能時,加載預置的業務頁面;所述業務頁面中包括識別對象的導航引導圖;
控制所述移動中的攝影機掃描所述識別對象得到視訊資料。
較佳地,所述視訊資料包括圖片資料,在所述控制所述移動中的攝影機掃描所述識別對象得到視訊資料之後,還包括:
當用戶基於所述導航引導圖對準識別對象後,從素材庫中獲取素材資料;
將所述視訊資料的圖片資料與所述點雲資料庫進行匹配得到三維矩陣;
基於三維矩陣將所述素材資料、圖片資料交互至產品模型為用戶演示所述識別對象,所述素材資料包括動畫和/或紋理。
本案實施例還揭露了一種點雲資料庫的產生方法,包括:
獲取識別對象的產品模型;
採用初始化角度對準所述產品模型進行錄製,得到所述初始化角度對應的點雲資料;
採用多個錄製角度對準所述產品模型進行錄製,得到多個錄製角度對應的點雲資料;
將所述初始化角度和所述初始化角度對應的點雲資料,以及,所述錄製角度和所述錄製角度對應的點雲資料記錄到點雲資料庫中。
本案實施例還揭露了一種導航引導圖的產生裝置,包括:
點雲資料庫獲取模組,用於獲取識別對象對應的點雲資料庫;所述識別對象具有對應的產品模型;
目標移動位置確定模組,用於基於所述點雲資料庫確定目標移動位置;
截圖資料獲取模組,用於獲取基於所述目標移動位置截取的所述產品模型的截圖資料;
導航引導圖產生模組,用於根據所述截圖資料產生所述識別對象的導航引導圖。
較佳地,所述裝置應用於具有攝影機的行動終端,所述點雲資料庫基於初始化角度進行錄製,所述目標移動位置確定模組包括:
初始化角度獲取子模組,用於從所述點雲資料庫中獲取初始化角度;
目標移動位置設置子模組,用於將所述初始化角度作為所述攝影機的目標移動位置。
較佳地,所述截圖資料獲取模組包括:
產品模型調整子模組,用於將所述識別對象的產品模型按照所述目標移動位置進行調整;
截圖資料獲取子模組,用於獲取調整後所述產品模型的截圖資料。
較佳地,所述導航引導圖產生模組包括:
邊緣資料提取子模組,用於從所述截圖資料中提取邊緣資料;
截圖資料調整子模組,用於根據所述邊緣資料調整所述截圖資料的邊緣顏色和背景顏色;
輪廓圖提取子模組,用於根據所述調整後的截圖資料提取出所述識別對象的輪廓圖;
導航引導圖設置子模組,用於將所述輪廓圖作為所述識別對象的導航引導圖。
較佳地,還包括:
資料處理子模組,用於針對所述邊緣資料進行頻率過濾和顏色修正。
較佳地,還包括:
業務頁面加載模組,用於在啟動增強現實功能時,加載預置的業務頁面;所述業務頁面中包括識別對象的導航引導圖;
視訊資料得到模組,用於控制所述移動中的攝影機掃描所述識別對象得到視訊資料。
較佳地,所述視訊資料包括圖片資料,還包括:
素材資料獲取模組,用於當用戶基於所述導航引導圖對準識別對象後,從素材庫中獲取素材資料;
三維矩陣得到模組,用於將所述視訊資料的圖片資料與所述點雲資料庫進行匹配得到三維矩陣;
識別對象演示模組,用於基於三維矩陣將所述素材資料、圖片資料交互至產品模型為用戶演示所述識別對象,所述素材資料包括動畫和/或紋理。
本案實施例還揭露了一種點雲資料庫的產生裝置,包括:
產品模型獲取模組,用於獲取識別對象的產品模型;
第一點雲資料得到模組,用於採用初始化角度對準所述產品模型進行錄製,得到所述初始化角度對應的點雲資料;
第二點雲資料模組,用於採用多個錄製角度對準所述產品模型進行錄製,得到多個錄製角度對應的點雲資料;
點雲資料記錄模組,用於將所述初始化角度和所述初始化角度對應的點雲資料,以及,所述錄製角度和所述錄製角度對應的點雲資料記錄到點雲資料庫中。
本案實施例還揭露了一種裝置,包括:
一個或多個處理器;和
其上儲存有指令的一個或多個機器可讀媒體,當由所述一個或多個處理器執行時,使得所述裝置執行如上述的方法。
本案實施例還揭露了一個或多個機器可讀媒體,其上儲存有指令,當由一個或多個處理器執行時,使得所述裝置執行如上述的方法。
本案實施例包括以下優點:
本案實施例在啟動AR功能時,獲取預先針對識別對象設置的點雲資料庫,基於點雲資料庫確定出初目標移動位置,並基於該目標移動位置獲取產品模型的截圖資料,最後將基於截圖資料產生用於引導用戶對準識別對象的導航引導圖,本案實施例通過點雲資料庫,能夠快速產生導航引導圖,從而使得用戶能夠更加基於導航引導圖準確掃描識別對象以進行識別對象的演示,這個過程無需人工介入修改引導圖,因此不需要耗費人工,且處理速度快。
為使本案的上述目的、特徵和優點能夠更加明顯易懂,下面結合圖式和具體實施方式對本案作進一步詳細的說明。
參照圖1,示出了本案的一種導航引導圖的產生方法實施例的步驟流程圖,具體可以包括如下步驟:
步驟101,獲取識別對象對應的點雲資料庫;所述識別對象具有對應的產品模型。
在具體實現中,本案實施例預先針對識別對象錄製有點雲資料庫,以及,設計有用於演示識別對象的產品模型。其中,產品模型可以是設計師做好的,也可以通過3D掃描設備掃描出來。
步驟102,基於所述點雲資料庫確定目標移動位置。
本案實施例中,基於點雲資料庫能夠用於更加快速產生導航引導圖,從而使得用戶能夠快速對準到目標移動位置上,以進入識別對象的演示。
在本案的一種較佳實施例中,所述方法應用於具有攝影機的行動終端,所述點雲資料庫基於初始化角度進行錄製,所述基於所述點雲資料庫確定所述識別對象的目標移動位置,包括:
從所述點雲資料庫中獲取初始化角度;
將所述初始化角度作為所述攝影機的目標移動位置。
本案實施例適用於各類行動終端,行動終端包括但不限於手機、平板電腦、筆記本電腦、掌上電腦、車載終端、可穿戴設備等具有攝影機(相機),能夠實現攝影功能的設備。
其中,本案實施例的識別對象是指行動終端使用攝影機對準時的實際物體,比如淨水器、洗碗機等各類智慧型機器。當用戶啟動AR功能時,打開攝影機,攝影機將開始掃描識別對象得到視訊資料。當然,也可以是在開啟攝影機後,用戶再啟動AR功能,本案實施例對此並不需要加以限制。
在本案實施例中,點雲資料庫可以基於指定的初始化角度對準識別對象進行錄製,獲取相應得到點雲資料,並且,還將基於該初始化角度對於識別對象進行旋轉錄製,獲得在不同角度下的點雲資料。具體地,本發明實施例可以從點雲資料庫中獲取到初始化角度,然後將該初始化角度作為攝影機的目標移動位置。
步驟103,獲取基於所述目標移動位置截取的所述產品模型的截圖資料。
在實際中,產品模型是一個3D立體模型,本發明實施例將獲取3D立體模型的2D截圖資料。其中,截圖資料為除模型外無其他任何干擾部分。
在本案的一種較佳實施例中,所述步驟104可以包括如下子步驟:
子步驟S11,將所述識別對象的產品模型按照所述目標移動位置進行調整;
子步驟S12,獲取調整後所述產品模型的截圖資料。
具體來說,本案實施例獲取點雲資料庫中的初始化角度,然後基於初始化角度對於產品模型進行調整,使得模型的位置與點雲資料庫記錄的方向為一個方向,再去獲取這個方向下的產品模型的截圖資料,這樣在AR物體識別後根據引導指示就可以和物體完成比較好的匹配。
其中,AR物體識別是指即時計算物體所在位置和角度,並將虛擬和實物做後期互動的技術。具體來說,就是實現識別對象與產品模型的後期交互,使得識別對象與產品模型在攝影機移動時也能夠進行調整使得兩者貼合。
步驟104,根據所述截圖資料產生所述識別對象的導航引導圖。
在本案實施例中,導航引導圖的作用是用於引導用戶將攝影機調整到希望用戶調整到的位置上去,這個位置可以是點雲資料庫所記錄的角度。
在本案的一種較佳實施例中,所述步驟105可以包括如下子步驟:
子步驟S21,從所述截圖資料中提取邊緣資料;
子步驟S22,根據所述邊緣資料調整所述截圖資料的邊緣顏色和背景顏色;
子步驟S23,根據所述調整後的截圖資料提取出所述識別對象的輪廓圖;
子步驟S24,將所述輪廓圖作為所述識別對象的導航引導圖。
在獲取到截圖資料後,將截圖資料使用Sobel演算法,提取出邊緣資料。具體地來說,在獲取截圖資料後,可以直接將截圖資料作為輸入,使用Sobel演算法提取邊緣資料,然後基於邊緣資料指定截圖資料的邊緣顏色和背景,然後產出相應尺寸的輪廓圖,即導航引導圖。導航引導圖具體可以參照圖2。
基於Sobel演算法得到的邊緣資料,是圖片最基本的特徵,其在計算機視覺、影像分析等應用中起著重要的作用,這是因為圖片的邊緣包含了用於識別的有用資訊,是影像分析和模式識別的主要特徵提取手段。
其中,具體的圖片尺寸,可以通過利用前端(例如瀏覽器)的Canvas API函數,指定Canvas的寬度和高度以後,利用Canvas.toDataUrl()函數就可以得到指定寬度和高度的圖片。具體過程是這樣:
1)將顏色提取資訊sobelData.push(255, 255, 255, 255),是一個個像素點;
2)利用瀏覽器的Canvas畫布將這樣的數組像素資訊繪製出來,
var context = canvas.getContext('2d');
var imageData = context.createImageData(width, height);
imageData.data.set(data); //將像素點資訊指定到data數組
3)其中canvas的寬度和高度又是可以指定;
4)利用canvas.toDataUrl()就可以直接產生圖片。
當然,上述實現得到相應圖片尺寸的方式僅僅是作為示例,在實際應用中也可以採用其他方式實現,本案實施例對此無需加以限制。
在本案的一種較佳實施例中,在所述子步驟S21之後,還可以包括如下步驟:
子步驟S25,針對所述邊緣資料進行頻率過濾和顏色修正。
較佳地,本案實施例還可以對於提取的邊緣資料進行頻率過濾和顏色修正,得到白色線框或者其他顏色線方塊圖。在實際應用中,如果使用頻率限制,限制越高,那麼可以產生的線方塊圖越簡潔。相反,頻率越低,產生的線方塊圖細節越多,噪音資料也可能會變多(這種情況可以通過給3D立體模型加上純色紋理,同時突出邊緣粗細來實現)。
在一種較佳示例中,邊緣資料進行頻率過濾和顏色修正只需要加上一個條件判定:
其中,pixelX 和pixelY分別代表經橫向及縱向邊緣檢測的圖片。magnitude代表G梯度,200是個臨限值,數字越大代表篩選越寬鬆,噪音點也就越多;相反,噪音點也就越小。255, 255, 255, 255分別代表紅色、綠色、藍色和透明度。[255, 255, 255, 255]這一組數值代表為白色不透明,即我們需要的白色線方塊圖。
sobelData.push(255, 255, 255, 255)推進的數組是一個顏色組合器,分別代表紅色、綠色、藍色和透明度,只要指定不同的數值就能得到我需要的顏色方塊圖。
為了使本領域技術人員更好地理解本案實施例,下面採用具體示例對進行說明。參照圖3,行動終端的前端(客戶端)可以實現相機渲染和業務路由,海螺碼頭是指素材庫。在啟動AR功能時,終端設備的攝影機採集UC視訊流(包括有一幀一幀的圖片資料),前端發送Mtop業務請求,該業務請求包含的主要是攝影機截獲的圖片資料,跳轉鏈接的頁面包含了開啟攝影機和產品模型,前端可以對於攝影機採集的視訊流進行渲染,然後將渲染結果發送到終端的螢幕進行播放。
前端除了可以實現相機渲染和業務路由之外,還可以基於視訊流和跟蹤結果(三維矩陣)進行處理。點雲資料和視訊流將會發送到演算法中,得到處理後的視訊流,並再次發送到前端與跟蹤結果實現實際物體和虛擬物體的貼合,最後發送到終端的螢幕進行播放。
參照圖4,在圖上面為導航引導圖的產生過程,具體地,獲取設計師設計的產品模型,基於點雲資料庫中的初始化角度調整產品模型,再獲取調整角度後的產品模型從3D到2D的截圖資料,最後根據截圖資料得到一個輪廓圖,即本案的導航引導圖,基於導航引導圖,能夠引導用戶將攝影機的掃描識別對象的角度移動到與點雲資料庫中相同的角度。
在本案的一種較佳實施例中,在所述根據所述截圖資料產生所述識別對象的導航引導圖之後,還包括:
在啟動增強現實功能時,加載預置的業務頁面;所述業務頁面中包括識別對象的導航引導圖;
控制所述移動中的攝影機掃描所述識別對象得到視訊資料。
在具體實現中,本案實施例可以設置為在啟動AR功能時,加載預置的業務頁面,業務頁面可以加載識別對象的導航引導圖,以引導用戶將攝影機移動到目標移動位置。此時,還調用攝影機,由攝影機對識別對象進行掃描,並接收攝影機返回的識別對象的視訊資料。
在本案的一種較佳實施例中,所述視訊資料包括圖片資料,在所述根據所述截圖資料和所述初始化角度產生所述識別對象的導航引導圖之後,即步驟104之後,還可以包括如下步驟:
當用戶基於所述導航引導圖對準識別對象後,從素材庫中獲取素材資料;
將所述視訊資料的圖片資料與所述點雲資料庫進行匹配得到三維矩陣;
基於三維矩陣將所述素材資料、圖片資料交互至產品模型為用戶演示所述識別對象,所述素材資料包括動畫和/或紋理。
在產生導航引導圖後,就可以提醒用戶基於導航引導圖去對準識別對象,這樣用戶對準的角度跟點雲資料庫中的初始化角度是一樣的。
當用戶完成識別對象的對準後,就可以從素材庫中獲取動畫、紋理等素材,該素材能夠用於為用戶演示識別對象。
為了使得虛擬的物體和實際的物體更加貼合,本案實施例在用戶打開AR掃識別對象的時候,會拉取點雲資料庫,並且將點雲資料庫中的資料和實際鏡頭採集到物體的一幀一幀的圖片資料利用演算法做匹配,匹配正確就會產生投影矩陣和視圖矩陣兩個變量,也即是三維矩陣,具體可以參照圖5。其中,在進行虛擬的物體和實際的物體更加貼合時,只需要將演算法識別提取的投影矩陣和視圖矩陣資訊賦給虛擬的物體即可,本案實施例對於具體實現過程不做限制。
本案實施例在啟動AR功能時,獲取預先針對識別對象設置的點雲資料庫,基於點雲資料庫確定出初目標移動位置,並基於該目標移動位置獲取產品模型的截圖資料,最後將基於截圖資料產生用於引導用戶對準識別對象的導航引導圖,本案實施例通過點雲資料庫,能夠快速產生導航引導圖,從而使得用戶能夠更加基於導航引導圖準確掃描識別對象以進行識別對象的演示,這個過程無需人工介入修改引導圖,因此不需要耗費人工,且處理速度快。
參照圖6,示出了本案的一種點雲資料庫的產生方法實施例的步驟流程圖,具體可以包括如下步驟:
步驟201,獲取識別對象的產品模型;
步驟202,採用初始化角度對準所述產品模型進行錄製,得到所述初始化角度對應的點雲資料;
步驟203,採用多個錄製角度對準所述產品模型進行錄製,得到多個錄製角度對應的點雲資料;
步驟204,將所述初始化角度和所述初始化角度對應的點雲資料,以及,所述錄製角度和所述錄製角度對應的點雲資料記錄到點雲資料庫中。
在本案實施例中,演算法工程師在初始化時會以某個角度(初始化角度)對準識別對象,這個時候識別對象的特徵點的點雲資料和初始化角度會被記錄。然後演算法工程師會移動相機圍繞著識別對象進行旋轉,記錄不同角度的識別對象特徵點的點雲資料。其中點雲資料主要包括有三維邊緣和形狀資訊。
將這些點雲資料記錄下來以後,會產生一個壓縮包(點雲資料庫),壓縮包中包括有角度以及該角度對應的點雲資料。點雲資料通過識別演算法可以提取出投影矩陣和視圖矩陣,這兩個矩陣是虛擬物能夠和真實物體匹配吻合的最重要的兩個變量。
那麼在後續用戶在打開AR並啟動相機掃描識別對象的時候,會拉取這個壓縮包,並且和實際相機裡採集到的物體(識別對象)做匹配。其中,匹配的結果有:是否識別;識別物體的三維矩陣(包括投影矩陣和視圖矩陣),這個矩陣可以還原物體的在AR終端螢幕裡的位置,這樣就可以完成虛擬的物體和實際物體的貼合。
需要說明的是,對於方法實施例,為了簡單描述,故將其都表述為一系列的動作組合,但是本領域技術人員應該知悉,本案實施例並不受所描述的動作順序的限制,因為依據本案實施例,某些步驟可以採用其他順序或者同時進行。其次,本領域技術人員也應該知悉,說明書中所描述的實施例均屬於較佳實施例,所涉及的動作並不一定是本案實施例所必須的。
參照圖7,示出了本案的一種導航引導圖的產生裝置實施例的結構方塊圖,具體可以包括如下模組:
點雲資料庫獲取模組301,用於獲取識別對象對應的點雲資料庫;所述識別對象具有對應的產品模型;
目標移動位置確定模組302,用於基於所述點雲資料庫確定目標移動位置;
截圖資料獲取模組303,用於獲取基於所述目標移動位置截取的所述產品模型的截圖資料;
導航引導圖產生模組304,用於根據所述截圖資料產生所述識別對象的導航引導圖。
在本案的一種較佳實施例中,所述裝置應用於具有攝影機的行動終端,所述點雲資料庫基於初始化角度進行錄製,所述目標移動位置確定模組302可以包括:
初始化角度獲取子模組,用於從所述點雲資料庫中獲取初始化角度;
目標移動位置設置子模組,用於將所述初始化角度作為所述攝影機的目標移動位置。
在本案的一種較佳實施例中,所述截圖資料獲取模組303可以包括:
產品模型調整子模組,用於將所述識別對象的產品模型按照所述目標移動位置進行調整;
截圖資料獲取子模組,用於獲取調整後所述產品模型的截圖資料。
在本案的一種較佳實施例中,所述導航引導圖產生模組304可以包括:
邊緣資料提取子模組,用於從所述截圖資料中提取邊緣資料;
截圖資料調整子模組,用於根據所述邊緣資料調整所述截圖資料的邊緣顏色和背景顏色;
輪廓圖提取子模組,用於根據所述調整後的截圖資料提取出所述識別對象的輪廓圖;
導航引導圖設置子模組,用於將所述輪廓圖作為所述識別對象的導航引導圖。
在本案的一種較佳實施例中,所述導航引導圖產生模組304還可以包括:
資料處理子模組,用於針對所述邊緣資料進行頻率過濾和顏色修正。
在本案的一種較佳實施例中,所述裝置還可以包括:
業務頁面加載模組,用於在啟動增強現實功能時,加載預置的業務頁面;所述業務頁面中包括識別對象的導航引導圖;
視訊資料得到模組,用於控制所述移動中的攝影機掃描所述識別對象得到視訊資料。
在本案的一種較佳實施例中,所述視訊資料包括圖片資料,所述裝置還可以包括:
素材資料獲取模組,用於當用戶基於所述導航引導圖對準識別對象後,從素材庫中獲取素材資料;
三維矩陣得到模組,用於將所述視訊資料的圖片資料與所述點雲資料庫進行匹配得到三維矩陣;
識別對象演示模組,用於基於三維矩陣將所述素材資料、圖片資料交互至產品模型為用戶演示所述識別對象,所述素材資料包括動畫和/或紋理。
參照圖8,示出了本案的一種點雲資料庫的產生裝置實施例的結構方塊圖,具體可以包括如下模組:
產品模型獲取模組401,用於獲取識別對象的產品模型;
第一點雲資料得到模組402,用於採用初始化角度對準所述產品模型進行錄製,得到所述初始化角度對應的點雲資料;
第二點雲資料得到模組403,用於採用多個錄製角度對準所述產品模型進行錄製,得到多個錄製角度對應的點雲資料;
點雲資料記錄模組404,用於將所述初始化角度和所述初始化角度對應的點雲資料,以及,所述錄製角度和所述錄製角度對應的點雲資料記錄到點雲資料庫中。
對於裝置實施例而言,由於其與方法實施例基本相似,所以描述的比較簡單,相關之處參見方法實施例的部分說明即可。
本揭示內容的實施例可被實現為使用任意適當的硬體,韌體,軟體,或及其任意組合進行想要的配置的系統。圖9示意性地示出了可被用於實現本揭示內容中所述的各個實施例的示例性系統(或裝置)1300。
對於一個實施例,圖9示出了示例性系統1300,該系統具有一個或多個處理器1302、被耦合到(一個或多個)處理器1302中的至少一個的系統控制模組(晶片組)1304、被耦合到系統控制模組1304的系統記憶體1306、被耦合到系統控制模組1304的非揮發性記憶體(NVM)/儲存設備1308、被耦合到系統控制模組1304的一個或多個輸入/輸出設備1310,以及被耦合到系統控制模組1306的網路介面1312。
處理器1302可包括一個或多個單核或多核處理器,處理器1302可包括通用處理器或專用處理器(例如圖形處理器、應用處理器、基頻處理器等)的任意組合。在一些實施例中,系統1300能夠作為本案實施例中所述的資料平台。
在一些實施例中,系統1300可包括具有指令的一個或多個計算機可讀媒體(例如,系統記憶體1306或NVM/儲存設備1308)以及與該一個或多個計算機可讀媒體相合併被配置為執行指令以實現模組從而執行本揭示內容中所述的動作的一個或多個處理器1302。
對於一個實施例,系統控制模組1304可包括任意適當的介面控制器,以向(一個或多個)處理器1302中的至少一個和/或與系統控制模組1304通信的任意適當的設備或組件提供任意適當的介面。
系統控制模組1304可包括記憶體控制器模組,以向系統記憶體1306提供介面。記憶體控制器模組可以是硬體模組、軟體模組和/或韌體模組。
系統記憶體1306可被用於例如為系統1300加載和儲存資料和/或指令。對於一個實施例,系統記憶體1306可包括任意適當的揮發性記憶體,例如,適當的DRAM。在一些實施例中,系統記憶體1306可包括雙倍資料速率類型四同步動態隨機存取記憶體(DDR11SDRAM)。
對於一個實施例,系統控制模組1304可包括一個或多個輸入/輸出控制器,以向NVM/儲存設備1308及(一個或多個)輸入/輸出設備1310提供介面。
例如,NVM/儲存設備1308可被用於儲存資料和/或指令。NVM/儲存設備1308可包括任意適當的非揮發性記憶體(例如,快閃記憶體)和/或可包括任意適當的(一個或多個)非揮發性儲存設備(例如,一個或多個硬碟驅動器(HDD)、一個或多個光碟(CD)驅動器和/或一個或多個數字通用光碟(DVD)驅動器)。
NVM/儲存設備1308可包括在物理上作為系統1300被安裝在其上的設備的一部分的儲存資源,或者其可被該設備存取而不必作為該設備的一部分。例如,NVM/儲存設備1308可通過網路經由(一個或多個)輸入/輸出設備1310進行存取。
(一個或多個)輸入/輸出設備1310可為系統1300提供介面以與任意其他適當的設備通信,輸入/輸出設備1310可以包括通信組件、音訊組件、感測器組件等。網路介面1312可為系統1300提供介面以通過一個或多個網路通信,系統1300可根據一個或多個無線網路標準和/或協議中的任意標準和/或協議來與無線網路的一個或多個組件進行無線通信,例如接入基於通信標準的無線網路,如WiFi,2G或3G,或它們的組合進行無線通信。
對於一個實施例,(一個或多個)處理器1302中的至少一個可與系統控制模組1304的一個或多個控制器(例如,記憶體控制器模組)的邏輯封裝在一起。對於一個實施例,(一個或多個)處理器1302中的至少一個可與系統控制模組1304的一個或多個控制器的邏輯封裝在一起以形成系統級封裝(SiP)。對於一個實施例,(一個或多個)處理器1302中的至少一個可與系統控制模組1304的一個或多個控制器的邏輯整合在同一模具上。對於一個實施例,(一個或多個)處理器1302中的至少一個可與系統控制模組1304的一個或多個控制器的邏輯整合在同一模具上以形成系統單晶片(SoC)。
在各個實施例中,系統1300可以但不限於是:瀏覽器、工作站、桌上型計算設備或行動計算設備(例如,膝上型計算設備、手持計算設備、平板電腦、小筆電等)。在各個實施例中,系統1300可具有更多或更少的組件和/或不同的架構。例如,在一些實施例中,系統1300包括一個或多個攝影機、鍵盤、液晶顯示器(LCD)螢幕(包括觸控顯示器)、非揮發性記憶體端口、多個天線、圖形晶片、專用積體電路(ASIC)和揚聲器。
其中,如果顯示器包括觸摸面板,顯示屏可以被實現為觸控顯示器,以接收來自用戶的輸入信號。觸摸面板包括一個或多個觸摸感測器以感測觸摸、滑動和觸摸面板上的手勢。所述觸摸感測器可以不僅感測觸摸或滑動動作的邊界,而且還檢測與所述觸摸或滑動操作相關的持續時間和壓力。
本案實施例還提供了一種非揮發性可讀儲存媒體,該儲存媒體中儲存有一個或多個模組(programs),該一個或多個模組被應用在終端設備時,可以使得該終端設備執行本案實施例中上述方法各個步驟的指令(instructions)。
在一個示例中提供了一種裝置,包括:一個或多個處理器;和,其上儲存的有指令的一個或多個機器可讀媒體,當由所述一個或多個處理器執行時,使得所述裝置執行如本案實施例中的上述方法各個步驟的指令(instructions)。
本說明書中的各個實施例均採用遞進的方式描述,每個實施例重點說明的都是與其他實施例的不同之處,各個實施例之間相同相似的部分互相參見即可。
本領域內的技術人員應明白,本案實施例的實施例可提供為方法、裝置、或計算機程式產品。因此,本案實施例可採用完全硬體實施例、完全軟體實施例、或結合軟體和硬體方面的實施例的形式。而且,本案實施例可採用在一個或多個其中包含有計算機可用程式碼的計算機可用儲存媒體(包括但不限於磁碟記憶體、CD-ROM、光學記憶體等)上實施的計算機程式產品的形式。
在一個典型的配置中,所述計算機設備包括一個或多個處理器(CPU)、輸入/輸出介面、網路介面和記憶體。記憶體可能包括計算機可讀媒體中的非永久性記憶體,隨機存取記憶體(RAM)和/或非揮發性記憶體等形式,如唯讀記憶體(ROM)或快閃記憶體(flash RAM)。記憶體是計算機可讀媒體的示例。計算機可讀媒體包括永久性和非永久性、可移動和非可移動媒體可以由任何方法或技術來實現資訊儲存。資訊可以是計算機可讀指令、資料結構、程式的模組或其他資料。計算機的儲存媒體的例子包括,但不限於相變記憶體(PRAM)、靜態隨機存取記憶體(SRAM)、動態隨機存取記憶體(DRAM)、其他類型的隨機存取記憶體(RAM)、唯讀記憶體(ROM)、電可擦除可程式化唯讀記憶體(EEPROM)、快閃記憶體或其他記憶體技術、唯讀光碟唯讀記憶體(CD-ROM)、數字多功能光碟(DVD)或其他光學儲存、磁盒式磁帶,磁帶磁碟儲存或其他磁性儲存設備或任何其他非傳輸媒體,可用於儲存可以被計算設備存取的資訊。按照本文中的界定,計算機可讀媒體不包括非持續性的電腦可讀媒體(transitory media),如調變的資料信號和載波。
本案實施例是參照根據本案實施例的方法、終端設備(系統)、和計算機程式產品的流程圖和/或方塊圖來描述的。應理解可由計算機程式指令實現流程圖和/或方塊圖中的每一流程和/或方塊、以及流程圖和/或方塊圖中的流程和/或方塊的結合。可提供這些計算機程式指令到通用計算機、專用計算機、嵌入式處理機或其他可程式化資料處理終端設備的處理器以產生一個機器,使得通過計算機或其他可程式化資料處理終端設備的處理器執行的指令產生用於實現在流程圖一個流程或多個流程和/或方塊圖一個方塊或多個方塊中指定的功能的裝置。
這些計算機程式指令也可儲存在能引導計算機或其他可程式化資料處理終端設備以特定方式工作的計算機可讀記憶體中,使得儲存在該計算機可讀記憶體中的指令產生包括指令裝置的製造品,該指令裝置實現在流程圖一個流程或多個流程和/或方塊圖一個方塊或多個方塊中指定的功能。
這些計算機程式指令也可裝載到計算機或其他可程式化資料處理終端設備上,使得在計算機或其他可程式化終端設備上執行一系列操作步驟以產生計算機實現的處理,從而在計算機或其他可程式化終端設備上執行的指令提供用於實現在流程圖一個流程或多個流程和/或方塊圖一個方塊或多個方塊中指定的功能的步驟。
儘管已描述了本案實施例的較佳實施例,但本領域內的技術人員一旦得知了基本創造性概念,則可對這些實施例做出另外的變更和修改。所以,所附申請專利範圍意欲解釋為包括較佳實施例以及落入本案實施例範圍的所有變更和修改。
最後,還需要說明的是,在本文中,諸如第一和第二等之類的關係術語僅僅用來將一個實體或者操作與另一個實體或操作區分開來,而不一定要求或者暗示這些實體或操作之間存在任何這種實際的關係或者順序。而且,術語“包括”、“包含”或者其任何其他變體意在涵蓋非排他性的包含,從而使得包括一系列要素的過程、方法、物品或者終端設備不僅包括那些要素,而且還包括沒有明確列出的其他要素,或者是還包括為這種過程、方法、物品或者終端設備所固有的要素。在沒有更多限制的情況下,由語句“包括一個……”限定的要素,並不排除在包括所述要素的過程、方法、物品或者終端設備中還存在另外的相同要素。
以上對本案所提供的一種導航引導圖的產生方法和一種導航引導圖的產生裝置,進行了詳細介紹,本文中應用了具體個例對本案的原理及實施方式進行了闡述,以上實施例的說明只是用於幫助理解本案的方法及其核心思想;同時,對於本領域的一般技術人員,依據本案的思想,在具體實施方式及應用範圍上均會有改變之處,綜上所述,本說明書內容不應理解為對本案的限制。
參照圖1,示出了本案的一種導航引導圖的產生方法實施例的步驟流程圖,具體可以包括如下步驟:
步驟101,獲取識別對象對應的點雲資料庫;所述識別對象具有對應的產品模型。
在具體實現中,本案實施例預先針對識別對象錄製有點雲資料庫,以及,設計有用於演示識別對象的產品模型。其中,產品模型可以是設計師做好的,也可以通過3D掃描設備掃描出來。
步驟102,基於所述點雲資料庫確定目標移動位置。
本案實施例中,基於點雲資料庫能夠用於更加快速產生導航引導圖,從而使得用戶能夠快速對準到目標移動位置上,以進入識別對象的演示。
在本案的一種較佳實施例中,所述方法應用於具有攝影機的行動終端,所述點雲資料庫基於初始化角度進行錄製,所述基於所述點雲資料庫確定所述識別對象的目標移動位置,包括:
從所述點雲資料庫中獲取初始化角度;
將所述初始化角度作為所述攝影機的目標移動位置。
本案實施例適用於各類行動終端,行動終端包括但不限於手機、平板電腦、筆記本電腦、掌上電腦、車載終端、可穿戴設備等具有攝影機(相機),能夠實現攝影功能的設備。
其中,本案實施例的識別對象是指行動終端使用攝影機對準時的實際物體,比如淨水器、洗碗機等各類智慧型機器。當用戶啟動AR功能時,打開攝影機,攝影機將開始掃描識別對象得到視訊資料。當然,也可以是在開啟攝影機後,用戶再啟動AR功能,本案實施例對此並不需要加以限制。
在本案實施例中,點雲資料庫可以基於指定的初始化角度對準識別對象進行錄製,獲取相應得到點雲資料,並且,還將基於該初始化角度對於識別對象進行旋轉錄製,獲得在不同角度下的點雲資料。具體地,本發明實施例可以從點雲資料庫中獲取到初始化角度,然後將該初始化角度作為攝影機的目標移動位置。
步驟103,獲取基於所述目標移動位置截取的所述產品模型的截圖資料。
在實際中,產品模型是一個3D立體模型,本發明實施例將獲取3D立體模型的2D截圖資料。其中,截圖資料為除模型外無其他任何干擾部分。
在本案的一種較佳實施例中,所述步驟104可以包括如下子步驟:
子步驟S11,將所述識別對象的產品模型按照所述目標移動位置進行調整;
子步驟S12,獲取調整後所述產品模型的截圖資料。
具體來說,本案實施例獲取點雲資料庫中的初始化角度,然後基於初始化角度對於產品模型進行調整,使得模型的位置與點雲資料庫記錄的方向為一個方向,再去獲取這個方向下的產品模型的截圖資料,這樣在AR物體識別後根據引導指示就可以和物體完成比較好的匹配。
其中,AR物體識別是指即時計算物體所在位置和角度,並將虛擬和實物做後期互動的技術。具體來說,就是實現識別對象與產品模型的後期交互,使得識別對象與產品模型在攝影機移動時也能夠進行調整使得兩者貼合。
步驟104,根據所述截圖資料產生所述識別對象的導航引導圖。
在本案實施例中,導航引導圖的作用是用於引導用戶將攝影機調整到希望用戶調整到的位置上去,這個位置可以是點雲資料庫所記錄的角度。
在本案的一種較佳實施例中,所述步驟105可以包括如下子步驟:
子步驟S21,從所述截圖資料中提取邊緣資料;
子步驟S22,根據所述邊緣資料調整所述截圖資料的邊緣顏色和背景顏色;
子步驟S23,根據所述調整後的截圖資料提取出所述識別對象的輪廓圖;
子步驟S24,將所述輪廓圖作為所述識別對象的導航引導圖。
在獲取到截圖資料後,將截圖資料使用Sobel演算法,提取出邊緣資料。具體地來說,在獲取截圖資料後,可以直接將截圖資料作為輸入,使用Sobel演算法提取邊緣資料,然後基於邊緣資料指定截圖資料的邊緣顏色和背景,然後產出相應尺寸的輪廓圖,即導航引導圖。導航引導圖具體可以參照圖2。
基於Sobel演算法得到的邊緣資料,是圖片最基本的特徵,其在計算機視覺、影像分析等應用中起著重要的作用,這是因為圖片的邊緣包含了用於識別的有用資訊,是影像分析和模式識別的主要特徵提取手段。
其中,具體的圖片尺寸,可以通過利用前端(例如瀏覽器)的Canvas API函數,指定Canvas的寬度和高度以後,利用Canvas.toDataUrl()函數就可以得到指定寬度和高度的圖片。具體過程是這樣:
1)將顏色提取資訊sobelData.push(255, 255, 255, 255),是一個個像素點;
2)利用瀏覽器的Canvas畫布將這樣的數組像素資訊繪製出來,
var context = canvas.getContext('2d');
var imageData = context.createImageData(width, height);
imageData.data.set(data); //將像素點資訊指定到data數組
3)其中canvas的寬度和高度又是可以指定;
4)利用canvas.toDataUrl()就可以直接產生圖片。
當然,上述實現得到相應圖片尺寸的方式僅僅是作為示例,在實際應用中也可以採用其他方式實現,本案實施例對此無需加以限制。
在本案的一種較佳實施例中,在所述子步驟S21之後,還可以包括如下步驟:
子步驟S25,針對所述邊緣資料進行頻率過濾和顏色修正。
較佳地,本案實施例還可以對於提取的邊緣資料進行頻率過濾和顏色修正,得到白色線框或者其他顏色線方塊圖。在實際應用中,如果使用頻率限制,限制越高,那麼可以產生的線方塊圖越簡潔。相反,頻率越低,產生的線方塊圖細節越多,噪音資料也可能會變多(這種情況可以通過給3D立體模型加上純色紋理,同時突出邊緣粗細來實現)。
在一種較佳示例中,邊緣資料進行頻率過濾和顏色修正只需要加上一個條件判定:
其中,pixelX 和pixelY分別代表經橫向及縱向邊緣檢測的圖片。magnitude代表G梯度,200是個臨限值,數字越大代表篩選越寬鬆,噪音點也就越多;相反,噪音點也就越小。255, 255, 255, 255分別代表紅色、綠色、藍色和透明度。[255, 255, 255, 255]這一組數值代表為白色不透明,即我們需要的白色線方塊圖。
sobelData.push(255, 255, 255, 255)推進的數組是一個顏色組合器,分別代表紅色、綠色、藍色和透明度,只要指定不同的數值就能得到我需要的顏色方塊圖。
為了使本領域技術人員更好地理解本案實施例,下面採用具體示例對進行說明。參照圖3,行動終端的前端(客戶端)可以實現相機渲染和業務路由,海螺碼頭是指素材庫。在啟動AR功能時,終端設備的攝影機採集UC視訊流(包括有一幀一幀的圖片資料),前端發送Mtop業務請求,該業務請求包含的主要是攝影機截獲的圖片資料,跳轉鏈接的頁面包含了開啟攝影機和產品模型,前端可以對於攝影機採集的視訊流進行渲染,然後將渲染結果發送到終端的螢幕進行播放。
前端除了可以實現相機渲染和業務路由之外,還可以基於視訊流和跟蹤結果(三維矩陣)進行處理。點雲資料和視訊流將會發送到演算法中,得到處理後的視訊流,並再次發送到前端與跟蹤結果實現實際物體和虛擬物體的貼合,最後發送到終端的螢幕進行播放。
參照圖4,在圖上面為導航引導圖的產生過程,具體地,獲取設計師設計的產品模型,基於點雲資料庫中的初始化角度調整產品模型,再獲取調整角度後的產品模型從3D到2D的截圖資料,最後根據截圖資料得到一個輪廓圖,即本案的導航引導圖,基於導航引導圖,能夠引導用戶將攝影機的掃描識別對象的角度移動到與點雲資料庫中相同的角度。
在本案的一種較佳實施例中,在所述根據所述截圖資料產生所述識別對象的導航引導圖之後,還包括:
在啟動增強現實功能時,加載預置的業務頁面;所述業務頁面中包括識別對象的導航引導圖;
控制所述移動中的攝影機掃描所述識別對象得到視訊資料。
在具體實現中,本案實施例可以設置為在啟動AR功能時,加載預置的業務頁面,業務頁面可以加載識別對象的導航引導圖,以引導用戶將攝影機移動到目標移動位置。此時,還調用攝影機,由攝影機對識別對象進行掃描,並接收攝影機返回的識別對象的視訊資料。
在本案的一種較佳實施例中,所述視訊資料包括圖片資料,在所述根據所述截圖資料和所述初始化角度產生所述識別對象的導航引導圖之後,即步驟104之後,還可以包括如下步驟:
當用戶基於所述導航引導圖對準識別對象後,從素材庫中獲取素材資料;
將所述視訊資料的圖片資料與所述點雲資料庫進行匹配得到三維矩陣;
基於三維矩陣將所述素材資料、圖片資料交互至產品模型為用戶演示所述識別對象,所述素材資料包括動畫和/或紋理。
在產生導航引導圖後,就可以提醒用戶基於導航引導圖去對準識別對象,這樣用戶對準的角度跟點雲資料庫中的初始化角度是一樣的。
當用戶完成識別對象的對準後,就可以從素材庫中獲取動畫、紋理等素材,該素材能夠用於為用戶演示識別對象。
為了使得虛擬的物體和實際的物體更加貼合,本案實施例在用戶打開AR掃識別對象的時候,會拉取點雲資料庫,並且將點雲資料庫中的資料和實際鏡頭採集到物體的一幀一幀的圖片資料利用演算法做匹配,匹配正確就會產生投影矩陣和視圖矩陣兩個變量,也即是三維矩陣,具體可以參照圖5。其中,在進行虛擬的物體和實際的物體更加貼合時,只需要將演算法識別提取的投影矩陣和視圖矩陣資訊賦給虛擬的物體即可,本案實施例對於具體實現過程不做限制。
本案實施例在啟動AR功能時,獲取預先針對識別對象設置的點雲資料庫,基於點雲資料庫確定出初目標移動位置,並基於該目標移動位置獲取產品模型的截圖資料,最後將基於截圖資料產生用於引導用戶對準識別對象的導航引導圖,本案實施例通過點雲資料庫,能夠快速產生導航引導圖,從而使得用戶能夠更加基於導航引導圖準確掃描識別對象以進行識別對象的演示,這個過程無需人工介入修改引導圖,因此不需要耗費人工,且處理速度快。
參照圖6,示出了本案的一種點雲資料庫的產生方法實施例的步驟流程圖,具體可以包括如下步驟:
步驟201,獲取識別對象的產品模型;
步驟202,採用初始化角度對準所述產品模型進行錄製,得到所述初始化角度對應的點雲資料;
步驟203,採用多個錄製角度對準所述產品模型進行錄製,得到多個錄製角度對應的點雲資料;
步驟204,將所述初始化角度和所述初始化角度對應的點雲資料,以及,所述錄製角度和所述錄製角度對應的點雲資料記錄到點雲資料庫中。
在本案實施例中,演算法工程師在初始化時會以某個角度(初始化角度)對準識別對象,這個時候識別對象的特徵點的點雲資料和初始化角度會被記錄。然後演算法工程師會移動相機圍繞著識別對象進行旋轉,記錄不同角度的識別對象特徵點的點雲資料。其中點雲資料主要包括有三維邊緣和形狀資訊。
將這些點雲資料記錄下來以後,會產生一個壓縮包(點雲資料庫),壓縮包中包括有角度以及該角度對應的點雲資料。點雲資料通過識別演算法可以提取出投影矩陣和視圖矩陣,這兩個矩陣是虛擬物能夠和真實物體匹配吻合的最重要的兩個變量。
那麼在後續用戶在打開AR並啟動相機掃描識別對象的時候,會拉取這個壓縮包,並且和實際相機裡採集到的物體(識別對象)做匹配。其中,匹配的結果有:是否識別;識別物體的三維矩陣(包括投影矩陣和視圖矩陣),這個矩陣可以還原物體的在AR終端螢幕裡的位置,這樣就可以完成虛擬的物體和實際物體的貼合。
需要說明的是,對於方法實施例,為了簡單描述,故將其都表述為一系列的動作組合,但是本領域技術人員應該知悉,本案實施例並不受所描述的動作順序的限制,因為依據本案實施例,某些步驟可以採用其他順序或者同時進行。其次,本領域技術人員也應該知悉,說明書中所描述的實施例均屬於較佳實施例,所涉及的動作並不一定是本案實施例所必須的。
參照圖7,示出了本案的一種導航引導圖的產生裝置實施例的結構方塊圖,具體可以包括如下模組:
點雲資料庫獲取模組301,用於獲取識別對象對應的點雲資料庫;所述識別對象具有對應的產品模型;
目標移動位置確定模組302,用於基於所述點雲資料庫確定目標移動位置;
截圖資料獲取模組303,用於獲取基於所述目標移動位置截取的所述產品模型的截圖資料;
導航引導圖產生模組304,用於根據所述截圖資料產生所述識別對象的導航引導圖。
在本案的一種較佳實施例中,所述裝置應用於具有攝影機的行動終端,所述點雲資料庫基於初始化角度進行錄製,所述目標移動位置確定模組302可以包括:
初始化角度獲取子模組,用於從所述點雲資料庫中獲取初始化角度;
目標移動位置設置子模組,用於將所述初始化角度作為所述攝影機的目標移動位置。
在本案的一種較佳實施例中,所述截圖資料獲取模組303可以包括:
產品模型調整子模組,用於將所述識別對象的產品模型按照所述目標移動位置進行調整;
截圖資料獲取子模組,用於獲取調整後所述產品模型的截圖資料。
在本案的一種較佳實施例中,所述導航引導圖產生模組304可以包括:
邊緣資料提取子模組,用於從所述截圖資料中提取邊緣資料;
截圖資料調整子模組,用於根據所述邊緣資料調整所述截圖資料的邊緣顏色和背景顏色;
輪廓圖提取子模組,用於根據所述調整後的截圖資料提取出所述識別對象的輪廓圖;
導航引導圖設置子模組,用於將所述輪廓圖作為所述識別對象的導航引導圖。
在本案的一種較佳實施例中,所述導航引導圖產生模組304還可以包括:
資料處理子模組,用於針對所述邊緣資料進行頻率過濾和顏色修正。
在本案的一種較佳實施例中,所述裝置還可以包括:
業務頁面加載模組,用於在啟動增強現實功能時,加載預置的業務頁面;所述業務頁面中包括識別對象的導航引導圖;
視訊資料得到模組,用於控制所述移動中的攝影機掃描所述識別對象得到視訊資料。
在本案的一種較佳實施例中,所述視訊資料包括圖片資料,所述裝置還可以包括:
素材資料獲取模組,用於當用戶基於所述導航引導圖對準識別對象後,從素材庫中獲取素材資料;
三維矩陣得到模組,用於將所述視訊資料的圖片資料與所述點雲資料庫進行匹配得到三維矩陣;
識別對象演示模組,用於基於三維矩陣將所述素材資料、圖片資料交互至產品模型為用戶演示所述識別對象,所述素材資料包括動畫和/或紋理。
參照圖8,示出了本案的一種點雲資料庫的產生裝置實施例的結構方塊圖,具體可以包括如下模組:
產品模型獲取模組401,用於獲取識別對象的產品模型;
第一點雲資料得到模組402,用於採用初始化角度對準所述產品模型進行錄製,得到所述初始化角度對應的點雲資料;
第二點雲資料得到模組403,用於採用多個錄製角度對準所述產品模型進行錄製,得到多個錄製角度對應的點雲資料;
點雲資料記錄模組404,用於將所述初始化角度和所述初始化角度對應的點雲資料,以及,所述錄製角度和所述錄製角度對應的點雲資料記錄到點雲資料庫中。
對於裝置實施例而言,由於其與方法實施例基本相似,所以描述的比較簡單,相關之處參見方法實施例的部分說明即可。
本揭示內容的實施例可被實現為使用任意適當的硬體,韌體,軟體,或及其任意組合進行想要的配置的系統。圖9示意性地示出了可被用於實現本揭示內容中所述的各個實施例的示例性系統(或裝置)1300。
對於一個實施例,圖9示出了示例性系統1300,該系統具有一個或多個處理器1302、被耦合到(一個或多個)處理器1302中的至少一個的系統控制模組(晶片組)1304、被耦合到系統控制模組1304的系統記憶體1306、被耦合到系統控制模組1304的非揮發性記憶體(NVM)/儲存設備1308、被耦合到系統控制模組1304的一個或多個輸入/輸出設備1310,以及被耦合到系統控制模組1306的網路介面1312。
處理器1302可包括一個或多個單核或多核處理器,處理器1302可包括通用處理器或專用處理器(例如圖形處理器、應用處理器、基頻處理器等)的任意組合。在一些實施例中,系統1300能夠作為本案實施例中所述的資料平台。
在一些實施例中,系統1300可包括具有指令的一個或多個計算機可讀媒體(例如,系統記憶體1306或NVM/儲存設備1308)以及與該一個或多個計算機可讀媒體相合併被配置為執行指令以實現模組從而執行本揭示內容中所述的動作的一個或多個處理器1302。
對於一個實施例,系統控制模組1304可包括任意適當的介面控制器,以向(一個或多個)處理器1302中的至少一個和/或與系統控制模組1304通信的任意適當的設備或組件提供任意適當的介面。
系統控制模組1304可包括記憶體控制器模組,以向系統記憶體1306提供介面。記憶體控制器模組可以是硬體模組、軟體模組和/或韌體模組。
系統記憶體1306可被用於例如為系統1300加載和儲存資料和/或指令。對於一個實施例,系統記憶體1306可包括任意適當的揮發性記憶體,例如,適當的DRAM。在一些實施例中,系統記憶體1306可包括雙倍資料速率類型四同步動態隨機存取記憶體(DDR11SDRAM)。
對於一個實施例,系統控制模組1304可包括一個或多個輸入/輸出控制器,以向NVM/儲存設備1308及(一個或多個)輸入/輸出設備1310提供介面。
例如,NVM/儲存設備1308可被用於儲存資料和/或指令。NVM/儲存設備1308可包括任意適當的非揮發性記憶體(例如,快閃記憶體)和/或可包括任意適當的(一個或多個)非揮發性儲存設備(例如,一個或多個硬碟驅動器(HDD)、一個或多個光碟(CD)驅動器和/或一個或多個數字通用光碟(DVD)驅動器)。
NVM/儲存設備1308可包括在物理上作為系統1300被安裝在其上的設備的一部分的儲存資源,或者其可被該設備存取而不必作為該設備的一部分。例如,NVM/儲存設備1308可通過網路經由(一個或多個)輸入/輸出設備1310進行存取。
(一個或多個)輸入/輸出設備1310可為系統1300提供介面以與任意其他適當的設備通信,輸入/輸出設備1310可以包括通信組件、音訊組件、感測器組件等。網路介面1312可為系統1300提供介面以通過一個或多個網路通信,系統1300可根據一個或多個無線網路標準和/或協議中的任意標準和/或協議來與無線網路的一個或多個組件進行無線通信,例如接入基於通信標準的無線網路,如WiFi,2G或3G,或它們的組合進行無線通信。
對於一個實施例,(一個或多個)處理器1302中的至少一個可與系統控制模組1304的一個或多個控制器(例如,記憶體控制器模組)的邏輯封裝在一起。對於一個實施例,(一個或多個)處理器1302中的至少一個可與系統控制模組1304的一個或多個控制器的邏輯封裝在一起以形成系統級封裝(SiP)。對於一個實施例,(一個或多個)處理器1302中的至少一個可與系統控制模組1304的一個或多個控制器的邏輯整合在同一模具上。對於一個實施例,(一個或多個)處理器1302中的至少一個可與系統控制模組1304的一個或多個控制器的邏輯整合在同一模具上以形成系統單晶片(SoC)。
在各個實施例中,系統1300可以但不限於是:瀏覽器、工作站、桌上型計算設備或行動計算設備(例如,膝上型計算設備、手持計算設備、平板電腦、小筆電等)。在各個實施例中,系統1300可具有更多或更少的組件和/或不同的架構。例如,在一些實施例中,系統1300包括一個或多個攝影機、鍵盤、液晶顯示器(LCD)螢幕(包括觸控顯示器)、非揮發性記憶體端口、多個天線、圖形晶片、專用積體電路(ASIC)和揚聲器。
其中,如果顯示器包括觸摸面板,顯示屏可以被實現為觸控顯示器,以接收來自用戶的輸入信號。觸摸面板包括一個或多個觸摸感測器以感測觸摸、滑動和觸摸面板上的手勢。所述觸摸感測器可以不僅感測觸摸或滑動動作的邊界,而且還檢測與所述觸摸或滑動操作相關的持續時間和壓力。
本案實施例還提供了一種非揮發性可讀儲存媒體,該儲存媒體中儲存有一個或多個模組(programs),該一個或多個模組被應用在終端設備時,可以使得該終端設備執行本案實施例中上述方法各個步驟的指令(instructions)。
在一個示例中提供了一種裝置,包括:一個或多個處理器;和,其上儲存的有指令的一個或多個機器可讀媒體,當由所述一個或多個處理器執行時,使得所述裝置執行如本案實施例中的上述方法各個步驟的指令(instructions)。
本說明書中的各個實施例均採用遞進的方式描述,每個實施例重點說明的都是與其他實施例的不同之處,各個實施例之間相同相似的部分互相參見即可。
本領域內的技術人員應明白,本案實施例的實施例可提供為方法、裝置、或計算機程式產品。因此,本案實施例可採用完全硬體實施例、完全軟體實施例、或結合軟體和硬體方面的實施例的形式。而且,本案實施例可採用在一個或多個其中包含有計算機可用程式碼的計算機可用儲存媒體(包括但不限於磁碟記憶體、CD-ROM、光學記憶體等)上實施的計算機程式產品的形式。
在一個典型的配置中,所述計算機設備包括一個或多個處理器(CPU)、輸入/輸出介面、網路介面和記憶體。記憶體可能包括計算機可讀媒體中的非永久性記憶體,隨機存取記憶體(RAM)和/或非揮發性記憶體等形式,如唯讀記憶體(ROM)或快閃記憶體(flash RAM)。記憶體是計算機可讀媒體的示例。計算機可讀媒體包括永久性和非永久性、可移動和非可移動媒體可以由任何方法或技術來實現資訊儲存。資訊可以是計算機可讀指令、資料結構、程式的模組或其他資料。計算機的儲存媒體的例子包括,但不限於相變記憶體(PRAM)、靜態隨機存取記憶體(SRAM)、動態隨機存取記憶體(DRAM)、其他類型的隨機存取記憶體(RAM)、唯讀記憶體(ROM)、電可擦除可程式化唯讀記憶體(EEPROM)、快閃記憶體或其他記憶體技術、唯讀光碟唯讀記憶體(CD-ROM)、數字多功能光碟(DVD)或其他光學儲存、磁盒式磁帶,磁帶磁碟儲存或其他磁性儲存設備或任何其他非傳輸媒體,可用於儲存可以被計算設備存取的資訊。按照本文中的界定,計算機可讀媒體不包括非持續性的電腦可讀媒體(transitory media),如調變的資料信號和載波。
本案實施例是參照根據本案實施例的方法、終端設備(系統)、和計算機程式產品的流程圖和/或方塊圖來描述的。應理解可由計算機程式指令實現流程圖和/或方塊圖中的每一流程和/或方塊、以及流程圖和/或方塊圖中的流程和/或方塊的結合。可提供這些計算機程式指令到通用計算機、專用計算機、嵌入式處理機或其他可程式化資料處理終端設備的處理器以產生一個機器,使得通過計算機或其他可程式化資料處理終端設備的處理器執行的指令產生用於實現在流程圖一個流程或多個流程和/或方塊圖一個方塊或多個方塊中指定的功能的裝置。
這些計算機程式指令也可儲存在能引導計算機或其他可程式化資料處理終端設備以特定方式工作的計算機可讀記憶體中,使得儲存在該計算機可讀記憶體中的指令產生包括指令裝置的製造品,該指令裝置實現在流程圖一個流程或多個流程和/或方塊圖一個方塊或多個方塊中指定的功能。
這些計算機程式指令也可裝載到計算機或其他可程式化資料處理終端設備上,使得在計算機或其他可程式化終端設備上執行一系列操作步驟以產生計算機實現的處理,從而在計算機或其他可程式化終端設備上執行的指令提供用於實現在流程圖一個流程或多個流程和/或方塊圖一個方塊或多個方塊中指定的功能的步驟。
儘管已描述了本案實施例的較佳實施例,但本領域內的技術人員一旦得知了基本創造性概念,則可對這些實施例做出另外的變更和修改。所以,所附申請專利範圍意欲解釋為包括較佳實施例以及落入本案實施例範圍的所有變更和修改。
最後,還需要說明的是,在本文中,諸如第一和第二等之類的關係術語僅僅用來將一個實體或者操作與另一個實體或操作區分開來,而不一定要求或者暗示這些實體或操作之間存在任何這種實際的關係或者順序。而且,術語“包括”、“包含”或者其任何其他變體意在涵蓋非排他性的包含,從而使得包括一系列要素的過程、方法、物品或者終端設備不僅包括那些要素,而且還包括沒有明確列出的其他要素,或者是還包括為這種過程、方法、物品或者終端設備所固有的要素。在沒有更多限制的情況下,由語句“包括一個……”限定的要素,並不排除在包括所述要素的過程、方法、物品或者終端設備中還存在另外的相同要素。
以上對本案所提供的一種導航引導圖的產生方法和一種導航引導圖的產生裝置,進行了詳細介紹,本文中應用了具體個例對本案的原理及實施方式進行了闡述,以上實施例的說明只是用於幫助理解本案的方法及其核心思想;同時,對於本領域的一般技術人員,依據本案的思想,在具體實施方式及應用範圍上均會有改變之處,綜上所述,本說明書內容不應理解為對本案的限制。
101, 102, 103, 104, 105‧‧‧步驟
S21, S22, S23, S24, S25‧‧‧子步驟
201, 202, 203, 204‧‧‧步驟
S400, S402, S404, S406‧‧‧步驟
301‧‧‧點雲資料庫獲取模組
302‧‧‧目標移動位置確定模組
303‧‧‧截圖資料獲取模組
304‧‧‧導航引導圖產生模組
401‧‧‧產品模型獲取模組
402‧‧‧第一點雲資料得到模組
403‧‧‧第二點雲資料得到模組
404‧‧‧點雲資料記錄模組
1300‧‧‧系統
1302‧‧‧處理器
1304‧‧‧系統控制模組
1306‧‧‧系統記憶體
1308‧‧‧NVM/儲存設備
1310‧‧‧輸入/輸出設備
1312‧‧‧網路介面
圖1是本案的一種導航引導圖的產生方法實施例的步驟流程圖;
圖2是本案的一種導航引導圖的示意圖;
圖3是本案的一種啟動AR導航時流程過程示意圖;
圖4是本案的一種導航引導圖產生過程的示意圖;
圖5是本案的一種三維矩陣的計算過程示意圖;
圖6是本案的一種點雲資料庫的產生方法實施例的步驟流程圖;
圖7是本案的一種導航引導圖的產生裝置實施例的結構方塊圖;
圖8是本案的一種點雲資料庫的產生裝置實施例的結構方塊圖;
圖9是本案的一種系統實施例的結構示意圖。
Claims (18)
- 一種導航引導圖的產生方法,其特徵在於,包括: 獲取識別對象對應的點雲資料庫;所述識別對象具有對應的產品模型; 基於所述點雲資料庫確定目標移動位置; 獲取基於所述目標移動位置截取的所述產品模型的截圖資料; 根據所述截圖資料產生所述識別對象的導航引導圖。
- 根據申請專利範圍第1項所述的方法,其中,所述方法應用於具有攝影機的行動終端,所述點雲資料庫基於初始化角度進行錄製,所述基於所述點雲資料庫確定所述識別對象的目標移動位置,包括: 從所述點雲資料庫中獲取初始化角度; 將所述初始化角度作為所述攝影機的目標移動位置。
- 根據申請專利範圍第2項所述的方法,其中,所述獲取基於所述目標移動位置截取的所述產品模型的截圖資料,包括: 將所述識別對象的產品模型按照所述目標移動位置進行調整; 獲取調整後所述產品模型的截圖資料。
- 根據申請專利範圍第1項所述的方法,其中,所述根據所述截圖資料產生所述識別對象的導航引導圖,包括: 從所述截圖資料中提取邊緣資料; 根據所述邊緣資料調整所述截圖資料的邊緣顏色和背景顏色; 根據所述調整後的截圖資料提取出所述識別對象的輪廓圖; 將所述輪廓圖作為所述識別對象的導航引導圖。
- 根據申請專利範圍第4項所述的方法,其中,在所述從所述截圖資料中提取邊緣資料之後,還包括: 針對所述邊緣資料進行頻率過濾和顏色修正。
- 根據申請專利範圍第1項所述的方法,其中,在所述根據所述截圖資料產生所述識別對象的導航引導圖之後,還包括: 在啟動增強現實功能時,加載預置的業務頁面;所述業務頁面中包括識別對象的導航引導圖; 控制所述移動中的攝影機掃描所述識別對象得到視訊資料。
- 根據申請專利範圍第6項所述的方法,其中,所述視訊資料包括圖片資料,在所述控制所述移動中的攝影機掃描所述識別對象得到視訊資料之後,還包括: 當用戶基於所述導航引導圖對準識別對象後,從素材庫中獲取素材資料; 將所述視訊資料的圖片資料與所述點雲資料庫進行匹配得到三維矩陣; 基於三維矩陣將所述素材資料、圖片資料交互至產品模型為用戶演示所述識別對象,所述素材資料包括動畫和/或紋理。
- 一種點雲資料庫的產生方法,其特徵在於,包括: 獲取識別對象的產品模型; 採用初始化角度對準所述產品模型進行錄製,得到所述初始化角度對應的點雲資料; 採用多個錄製角度對準所述產品模型進行錄製,得到多個錄製角度對應的點雲資料; 將所述初始化角度和所述初始化角度對應的點雲資料,以及,所述錄製角度和所述錄製角度對應的點雲資料記錄到點雲資料庫中。
- 一種導航引導圖的產生裝置,其特徵在於,包括: 點雲資料庫獲取模組,用於獲取識別對象對應的點雲資料庫;所述識別對象具有對應的產品模型; 目標移動位置確定模組,用於基於所述點雲資料庫確定目標移動位置; 截圖資料獲取模組,用於獲取基於所述目標移動位置截取的所述產品模型的截圖資料; 導航引導圖產生模組,用於根據所述截圖資料產生所述識別對象的導航引導圖。
- 根據申請專利範圍第9項所述的裝置,其中,所述裝置應用於具有攝影機的行動終端,所述點雲資料庫基於初始化角度進行錄製,所述目標移動位置確定模組包括: 初始化角度獲取子模組,用於從所述點雲資料庫中獲取初始化角度; 目標移動位置設置子模組,用於將所述初始化角度作為所述攝影機的目標移動位置。
- 根據申請專利範圍第10項所述的裝置,其中,所述截圖資料獲取模組包括: 產品模型調整子模組,用於將所述識別對象的產品模型按照所述目標移動位置進行調整; 截圖資料獲取子模組,用於獲取調整後所述產品模型的截圖資料。
- 根據申請專利範圍第9項所述的裝置,其中,所述導航引導圖產生模組包括: 邊緣資料提取子模組,用於從所述截圖資料中提取邊緣資料; 截圖資料調整子模組,用於根據所述邊緣資料調整所述截圖資料的邊緣顏色和背景顏色; 輪廓圖提取子模組,用於根據所述調整後的截圖資料提取出所述識別對象的輪廓圖; 導航引導圖設置子模組,用於將所述輪廓圖作為所述識別對象的導航引導圖。
- 根據申請專利範圍第12項所述的裝置,其中,還包括: 資料處理子模組,用於針對所述邊緣資料進行頻率過濾和顏色修正。
- 根據申請專利範圍第9項所述的裝置,其中,還包括: 業務頁面加載模組,用於在啟動增強現實功能時,加載預置的業務頁面;所述業務頁面中包括識別對象的導航引導圖; 視訊資料得到模組,用於控制所述移動中的攝影機掃描所述識別對象得到視訊資料。
- 根據申請專利範圍第14項所述的裝置,其中,所述視訊資料包括圖片資料,還包括: 素材資料獲取模組,用於當用戶基於所述導航引導圖對準識別對象後,從素材庫中獲取素材資料; 三維矩陣得到模組,用於將所述視訊資料的圖片資料與所述點雲資料庫進行匹配得到三維矩陣; 識別對象演示模組,用於基於三維矩陣將所述素材資料、圖片資料交互至產品模型為用戶演示所述識別對象,所述素材資料包括動畫和/或紋理。
- 一種點雲資料庫的產生裝置,其特徵在於,包括: 產品模型獲取模組,用於獲取識別對象的產品模型; 第一點雲資料得到模組,用於採用初始化角度對準所述產品模型進行錄製,得到所述初始化角度對應的點雲資料; 第二點雲資料得到模組,用於採用多個錄製角度對準所述產品模型進行錄製,得到多個錄製角度對應的點雲資料; 點雲資料記錄模組,用於將所述初始化角度和所述初始化角度對應的點雲資料,以及,所述錄製角度和所述錄製角度對應的點雲資料記錄到點雲資料庫中。
- 一種裝置,其特徵在於,包括: 一個或多個處理器;和 其上儲存有指令的一個或多個機器可讀媒體,當由所述一個或多個處理器執行時,使得所述裝置執行如申請專利範圍第1至7項所述的一個或多個導航引導圖的產生方法,或者如申請專利範圍第8項所述的一個或多個點雲資料庫的產生方法。
- 一個或多個機器可讀媒體,其上儲存有指令,當由一個或多個處理器執行時,使得所述裝置執行如申請專利範圍第1至7項所述的一個或多個導航引導圖的產生方法,或者如申請專利範圍第8項所述的一個或多個點雲資料庫的產生方法。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
??201711353151.5 | 2017-12-15 | ||
CN201711353151.5A CN109931923B (zh) | 2017-12-15 | 2017-12-15 | 一种导航引导图的生成方法和装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
TW201928725A true TW201928725A (zh) | 2019-07-16 |
Family
ID=66819983
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
TW107135972A TW201928725A (zh) | 2017-12-15 | 2018-10-12 | 一種導航引導圖的產生方法和裝置 |
Country Status (6)
Country | Link |
---|---|
US (1) | US11170574B2 (zh) |
EP (1) | EP3726478A4 (zh) |
JP (1) | JP7244185B2 (zh) |
CN (1) | CN109931923B (zh) |
TW (1) | TW201928725A (zh) |
WO (1) | WO2019114653A1 (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20240037865A1 (en) | 2022-07-28 | 2024-02-01 | Ntt Docomo, Inc. | Xr multi-window control |
Family Cites Families (49)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7324081B2 (en) | 1999-03-02 | 2008-01-29 | Siemens Aktiengesellschaft | Augmented-reality system for situation-related support of the interaction between a user and an engineering apparatus |
JP4433525B2 (ja) * | 1999-10-05 | 2010-03-17 | 株式会社セガ | 画像処理装置 |
KR101309176B1 (ko) | 2006-01-18 | 2013-09-23 | 삼성전자주식회사 | 증강 현실 장치 및 방법 |
US8060186B2 (en) * | 2007-02-15 | 2011-11-15 | Siemens Aktiengesellschaft | System and method for intraoperative guidance of stent placement during endovascular interventions |
US8180396B2 (en) | 2007-10-18 | 2012-05-15 | Yahoo! Inc. | User augmented reality for camera-enabled mobile devices |
WO2010032079A2 (en) | 2008-09-17 | 2010-03-25 | Nokia Corp. | User interface for augmented reality |
US8442502B2 (en) | 2010-03-02 | 2013-05-14 | Empire Technology Development, Llc | Tracking an object in augmented reality |
US9901828B2 (en) | 2010-03-30 | 2018-02-27 | Sony Interactive Entertainment America Llc | Method for an augmented reality character to maintain and exhibit awareness of an observer |
US8803992B2 (en) * | 2010-05-12 | 2014-08-12 | Fuji Xerox Co., Ltd. | Augmented reality navigation for repeat photography and difference extraction |
EP2591440A1 (en) | 2010-07-05 | 2013-05-15 | Sony Ericsson Mobile Communications AB | Method for displaying augmentation information in an augmented reality system |
US20120019557A1 (en) | 2010-07-22 | 2012-01-26 | Sony Ericsson Mobile Communications Ab | Displaying augmented reality information |
US8654235B2 (en) | 2010-08-13 | 2014-02-18 | Lg Electronics Inc. | Apparatus and method for displaying service information provided in service zone |
GB201208088D0 (en) * | 2012-05-09 | 2012-06-20 | Ncam Sollutions Ltd | Ncam |
US9854328B2 (en) | 2012-07-06 | 2017-12-26 | Arris Enterprises, Inc. | Augmentation of multimedia consumption |
WO2014031899A1 (en) | 2012-08-22 | 2014-02-27 | Goldrun Corporation | Augmented reality virtual content platform apparatuses, methods and systems |
CN103279987B (zh) * | 2013-06-18 | 2016-05-18 | 厦门理工学院 | 基于Kinect的物体快速三维建模方法 |
US10217284B2 (en) | 2013-09-30 | 2019-02-26 | Qualcomm Incorporated | Augmented virtuality |
US9773313B1 (en) * | 2014-01-03 | 2017-09-26 | Google Inc. | Image registration with device data |
JP6138077B2 (ja) * | 2014-03-19 | 2017-05-31 | 三菱電機株式会社 | 写真計測システムおよび写真撮影位置指示方法 |
US10380410B2 (en) * | 2014-04-07 | 2019-08-13 | Eyeways Systems Ltd. | Apparatus and method for image-based positioning, orientation and situational awareness |
CN105023266B (zh) * | 2014-04-29 | 2018-03-30 | 高德软件有限公司 | 增强现实实现方法、装置和终端设备 |
US9886162B2 (en) | 2014-06-02 | 2018-02-06 | Qualcomm Incorporated | Device-provided tracking data for augmented reality |
CN105303384A (zh) * | 2014-07-21 | 2016-02-03 | 上海羽舟网络科技有限公司 | 一种产品的3d展示方法及系统 |
CN104183014B (zh) * | 2014-08-13 | 2017-01-18 | 浙江大学 | 一种面向城市增强现实的高融合度信息标注方法 |
US9875579B2 (en) * | 2014-08-22 | 2018-01-23 | Applied Research Associates, Inc. | Techniques for enhanced accurate pose estimation |
DE102014013678B3 (de) * | 2014-09-10 | 2015-12-03 | Faro Technologies, Inc. | Verfahren zum optischen Abtasten und Vermessen einer Umgebung mit einem Handscanner und Steuerung durch Gesten |
CN104376552B (zh) * | 2014-09-19 | 2017-12-29 | 四川大学 | 一种3d模型与二维图像的虚实配准方法 |
US9990028B2 (en) | 2014-10-03 | 2018-06-05 | Verizon Patent And Licensing Inc. | System and method for providing live augmented reality content |
US20160358383A1 (en) * | 2015-06-05 | 2016-12-08 | Steffen Gauglitz | Systems and methods for augmented reality-based remote collaboration |
US20170017301A1 (en) * | 2015-07-16 | 2017-01-19 | Hand Held Products, Inc. | Adjusting dimensioning results using augmented reality |
CN105261060A (zh) * | 2015-07-23 | 2016-01-20 | 东华大学 | 基于点云压缩和惯性导航的移动场景实时三维重构方法 |
US10092361B2 (en) * | 2015-09-11 | 2018-10-09 | AOD Holdings, LLC | Intraoperative systems and methods for determining and providing for display a virtual image overlaid onto a visual image of a bone |
US9599825B1 (en) * | 2015-09-30 | 2017-03-21 | Daqri, Llc | Visual indicator for transparent display alignment |
US20170103574A1 (en) | 2015-10-13 | 2017-04-13 | Google Inc. | System and method for providing continuity between real world movement and movement in a virtual/augmented reality experience |
US10268740B2 (en) | 2015-10-14 | 2019-04-23 | Tharmalingam Satkunarajah | 3D analytics actionable solution support system and apparatus |
EP3403050A4 (en) * | 2016-02-15 | 2019-08-21 | Pictometry International Corp. | AUTOMATED SYSTEM AND METHOD OF CHARACTERIZATION EXTRACTION |
CN105989604A (zh) * | 2016-02-18 | 2016-10-05 | 合肥工业大学 | 一种基于kinect的目标物体三维彩色点云生成方法 |
US20170312032A1 (en) * | 2016-04-27 | 2017-11-02 | Arthrology Consulting, Llc | Method for augmenting a surgical field with virtual guidance content |
CN106097425A (zh) * | 2016-06-07 | 2016-11-09 | 天津天大求实电力新技术股份有限公司 | 基于增强现实技术的电力设备信息提取与展示方法及系统 |
CN106254848B (zh) * | 2016-07-29 | 2019-06-11 | 宇龙计算机通信科技(深圳)有限公司 | 一种基于增强现实的学习方法及终端 |
JP6917820B2 (ja) * | 2016-08-05 | 2021-08-11 | 株式会社半導体エネルギー研究所 | データ処理システム |
CN106355647A (zh) | 2016-08-25 | 2017-01-25 | 北京暴风魔镜科技有限公司 | 增强现实系统和方法 |
US10115236B2 (en) * | 2016-09-21 | 2018-10-30 | Verizon Patent And Licensing Inc. | Placing and presenting virtual objects in an augmented reality environment |
US20180101984A1 (en) * | 2016-10-06 | 2018-04-12 | Google Inc. | Headset removal in virtual, augmented, and mixed reality using an eye gaze database |
US10341568B2 (en) * | 2016-10-10 | 2019-07-02 | Qualcomm Incorporated | User interface to assist three dimensional scanning of objects |
CN106502419A (zh) * | 2016-11-11 | 2017-03-15 | 广州市万表科技股份有限公司 | 虚拟手表试戴方法及装置 |
US10489975B2 (en) * | 2017-01-04 | 2019-11-26 | Daqri, Llc | Environmental mapping system |
CN107292921B (zh) * | 2017-06-19 | 2020-02-04 | 电子科技大学 | 一种基于kinect相机的快速三维重建方法 |
US11587315B2 (en) * | 2019-06-19 | 2023-02-21 | Deere & Company | Apparatus and methods for augmented reality measuring of equipment |
-
2017
- 2017-12-15 CN CN201711353151.5A patent/CN109931923B/zh active Active
-
2018
- 2018-10-12 TW TW107135972A patent/TW201928725A/zh unknown
- 2018-12-10 EP EP18888051.2A patent/EP3726478A4/en active Pending
- 2018-12-10 WO PCT/CN2018/120076 patent/WO2019114653A1/zh unknown
- 2018-12-10 JP JP2020529350A patent/JP7244185B2/ja active Active
- 2018-12-10 US US16/766,835 patent/US11170574B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
WO2019114653A1 (zh) | 2019-06-20 |
CN109931923A (zh) | 2019-06-25 |
US11170574B2 (en) | 2021-11-09 |
JP2021507332A (ja) | 2021-02-22 |
EP3726478A4 (en) | 2021-09-08 |
CN109931923B (zh) | 2023-07-07 |
EP3726478A1 (en) | 2020-10-21 |
JP7244185B2 (ja) | 2023-03-22 |
US20200372711A1 (en) | 2020-11-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11164001B2 (en) | Method, apparatus, and system for automatically annotating a target object in images | |
US9756261B2 (en) | Method for synthesizing images and electronic device thereof | |
JP6154075B2 (ja) | オブジェクト検出及び分割の方法,装置,コンピュータプログラム製品 | |
WO2017092335A1 (zh) | 一种显示立体图像的处理方法和装置 | |
US20130163854A1 (en) | Image processing method and associated apparatus | |
JP6500355B2 (ja) | 表示装置、表示プログラム、および表示方法 | |
WO2017024964A1 (zh) | 一种物品关联图片快速预览的方法以及装置 | |
US10244163B2 (en) | Image processing apparatus that generates a virtual viewpoint image, image generation method, and non-transitory computer-readable storage medium | |
US10817054B2 (en) | Eye watch point tracking via binocular and stereo images | |
TW201843651A (zh) | 紋理貼圖之壓縮方法及其相關圖像資料處理系統與產生360度全景視頻之方法 | |
US20140204083A1 (en) | Systems and methods for real-time distortion processing | |
WO2023207522A1 (zh) | 视频合成方法、装置、设备、介质及产品 | |
JP7467780B2 (ja) | 画像処理方法、装置、デバイス及び媒体 | |
US9143754B2 (en) | Systems and methods for modifying stereoscopic images | |
TW201928725A (zh) | 一種導航引導圖的產生方法和裝置 | |
WO2023215020A1 (en) | Digital image sub-division | |
JP5926626B2 (ja) | 画像処理装置及びその制御方法、プログラム | |
US11600050B2 (en) | Determining 6D pose estimates for augmented reality (AR) sessions | |
US11770551B2 (en) | Object pose estimation and tracking using machine learning | |
CN114913277A (zh) | 一种物体立体交互展示方法、装置、设备及介质 | |
US20130321690A1 (en) | Methods and Apparatus for Refocusing via Video Capture | |
CN113393407B (zh) | 一种获取试样的显微图像信息的方法与设备 | |
CN114254225A (zh) | 一种网页中图片的处理方法及装置、存储介质、终端 | |
CN113470185A (zh) | 一种呈现三维显微图像的方法与设备 | |
CN116208725A (zh) | 视频处理方法、电子设备和存储介质 |