BE1025917B1 - Werkwijzen en inrichtingen voor het dimensioneren van een object gebruikmakend van nabije apparaten - Google Patents

Werkwijzen en inrichtingen voor het dimensioneren van een object gebruikmakend van nabije apparaten Download PDF

Info

Publication number
BE1025917B1
BE1025917B1 BE20185781A BE201805781A BE1025917B1 BE 1025917 B1 BE1025917 B1 BE 1025917B1 BE 20185781 A BE20185781 A BE 20185781A BE 201805781 A BE201805781 A BE 201805781A BE 1025917 B1 BE1025917 B1 BE 1025917B1
Authority
BE
Belgium
Prior art keywords
image capture
capture device
image
processor
image data
Prior art date
Application number
BE20185781A
Other languages
English (en)
Other versions
BE1025917A9 (nl
BE1025917A1 (nl
Inventor
Michael J Giannetta
Matthew Louis Kowalski
Charles Burton Swope
Nicole Daphne Tricoukes
Original Assignee
Symbol Technologies Llc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Symbol Technologies Llc filed Critical Symbol Technologies Llc
Publication of BE1025917A1 publication Critical patent/BE1025917A1/nl
Publication of BE1025917A9 publication Critical patent/BE1025917A9/nl
Application granted granted Critical
Publication of BE1025917B1 publication Critical patent/BE1025917B1/nl

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/239Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/90Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/02Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/163Wearable computers, e.g. on a belt
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1684Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
    • G06F1/1686Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being an integrated camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/08Volume rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • G06T7/62Analysis of geometric attributes of area, perimeter, diameter or volume
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/20Scenes; Scene-specific elements in augmented reality scenes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/332Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/02Services making use of location information
    • H04W4/023Services making use of location information using mutual or relative location information between multiple location based services [LBS] targets or of distance thresholds
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B2027/0178Eyeglass type
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/012Dimensioning, tolerancing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/243Image signal generators using stereoscopic image cameras using three or more 2D image sensors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0081Depth or disparity estimation from stereoscopic image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/02Services making use of location information
    • H04W4/025Services making use of location information using location based information parameters
    • H04W4/027Services making use of location information using location based information parameters using movement velocity, acceleration information
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/80Services using short range communication, e.g. near-field communication [NFC], radio-frequency identification [RFID] or low energy communication

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Signal Processing (AREA)
  • Computer Hardware Design (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Optics & Photonics (AREA)
  • Geometry (AREA)
  • Computer Graphics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Analysis (AREA)

Abstract

Werkwijzen en inrichtingen worden verschaft voor het dimensioneren van een object door gebruik te maken van nabije apparaten om beelddata te verkrijgen die representatief zijn voor het object vanuit meerdere perspectieven. Een voorbeeldwerkwijze omvat het opnemen, door een eerste beeldopnameapparaat, van eerste beelddata die representatief zijn voor een object vanuit een eerste perspectief; het bepalen of een tweede beeldopnameapparaat in de nabijheid is van het eerste beeldopnameapparaat; en wanneer het tweede beeldopnameapparaat in de nabijheid is van het eerste beeldopnameapparaat, het versturen van een verzoek aan het tweede beeldopnameapparaat voor tweede beelddata die representatief zijn voor het object vanuit een tweede perspectief, waarbij de eerste beelddata en de tweede beelddata combineerbaar zijn om een samengestelde representatie van het object te vormen.

Description

WERKWIJZEN EN INRICHTINGEN VOOR HET DIMENSIONEREN VAN EEN OBJECT GEBRUIKMAKEND VAN NABIJE APPARATEN ACHTERGROND
In een voorraadomgeving, zoals een detailhandel winkel, een magazijn, een verschepingsfaciliteit, enz., is het nuttig om de dimensies van een object, zoals een doos, te weten.
SAMENVATTING VAN DE UITVINDING
Volgens de uitvinding, is voorzien in een computergeïmplementeerde werkwijze voor het gebruik maken van nabije beeldopnameapparaten voor het opnemen van beelddata die representatief zijn voor een object vanuit meerde perspectieven, waarbij de werkwijze omvat het opnemen, door een eerste beeldopnameapparaat, van eerste beelddata die representatief zijn voor een object vanuit een eerste perspectief, het bepalen, door een processor, of een tweede beeldopnameapparaat in de nabijheid is van het eerste beeldopnameapparaat; en wanneer het tweede beeldopnameapparaat in de nabijheid is van het eerste beeldopnameapparaat, het versturen van een verzoek aan het tweede beeldopnameapparaat voor tweede beelddata die representatief zijn voor het object vanuit een tweede perspectief, waarbij de eerste beelddata en de tweede beelddata combineerbaar zijn om een samengestelde representatie van het object te vormen.
Het eerste beeldopnameapparaat kan bijvoorbeeld een heads-up display samenstel zijn.
Met meer voorkeur, kan het eerste beeldopnameapparaat een eerste heads-up display samenstel zijn dat geassocieerd wordt met een eerste gebruiker, en het tweede beeldopnameapparaat kan een tweede heads-up display samenstel zijn dat geassocieerd wordt met een tweede gebruiker.
BE2018/5781
Het eerste beeldopnameapparaat kan bijvoorbeeld een mobiel apparaat zijn dat geassocieerd wordt met een eerste gebruiker, en het tweede beeldopnameapparaat kan een stationair apparaat zijn.
De computer-geïmplementeerde werkwijze kan verder het ontvangen van een gebruikersverzoek om beelddata die representatief zijn voor het object op te nemen, en het activeren van het eerste beeldopnameapparaat om eerste beelddata op te nemen op basis van het gebruikersverzoek, omvatten.
De computer-geïmplementeerde werkwijze kan verder het detecteren, door een sensor, dat het object momenteel in een doellocatie of binnen een doelbereik is voor dimensioneren, en het activeren, door de processor, van het eerste beeldopnameapparaat om eerste beelddata op te nemen op basis van data het object in de doellocatie of het doelbereik is, omvatten.
In de computer-geïmplementeerde werkwijze, kan het bepalen of het tweede beeldopnameapparaat in de nabijheid is van het eerste beeldopnameapparaat, het ontvangen, door een processor, van het eerste beeldopnameapparaat van data die indicatief zijn voor een positie van het eerste beeldopnameapparaat, het ontvangen, door een processor, van het tweede beeldopnameapparaat van data die indicatief zijn voor een positie van het tweede beeldopnameapparaat, het berekenen, door een processor, op basis van de positie van het eerste beeldopnameapparaat en de positie van het tweede beeldopnameapparaat, van een afstand tussen het eerste beeldopnameapparaat en het tweede beeldopnameapparaat, en het bepalen, door een processor, of de berekende afstand tussen het eerste beeldopnameapparaat en het tweede beeldopnameapparaat binnen een nabijheidsafstandsdrempelwaarde is, omvatten.
In de computer geïmplementeerde werkwijze, kan het bepalen of het tweede beeldopnameapparaat in de nabijheid is van het eerste
BE2018/5781 beeldopnameapparaat ook het ontvangen, door een processor vanaf een vaste RFID lezer, van een indicatie dat de vaste RFID lezer een RF signaaltje heeft ontvangen die is verstuurd door het eerste beeldopnameapparaat, het bepalen, door een processor, op basis van de indicatie van de vaste RFID lezer, van een positie van het eerste beeldopnameapparaat, het ontvangen, door een processor, vanaf de vaste RFID lezer, van een indicatie dat de vaste RFID lezer een RFID signaaltje heeft ontvangen die is verstuurd door het tweede beeldopnameapparaat, het bepalen, door een processor, op basis van de indicatie van de vaste RFID lezer, van de positie van het tweede beeldopnameapparaat, het berekenen, door een processor, op basis van de positie van het eerste beeldopnameapparaat en de positie van het tweede beeldopnameapparaat van een afstand tussen het eerste beeldopnameapparaat en het tweede beeldopnameapparaat, en het bepalen, door een processor, of de berekende afstand tussen het eerste beeldopnameapparaat en het tweede beeldopnameapparaat binnen een nabijheidsafstandsdrempelwaarde is, omvatten.
In de computer-geïmplementeerde werkwijze, kan het bepalen of het tweede beeldopnameapparaat in de nabijheid is van het eerste beeldopnameapparaat ook het detecteren, door het eerste beeldopnameapparaat, van een kortbereik draadloos signaal verstuurd door het tweede beeldopnameapparaat, en het bepalen, op basis van het gedetecteerde kortbereik draadloze signaal, dat het tweede beeldopnameapparaat in de nabijheid is van het eerste beeldopnameapparaat, omvatten.
De computer-geïmplementeerde werkwijze kan voordelig verder het combineren van de eerste beelddata en de tweede beelddata om een driedimensionale puntenwolk te maken, en het dimensioneren van het object gebruikmakend van de driedimensionale puntenwolk, omvatten.
BE2018/5781
Volgens een ander aspect van de uitvinding, is voorzien in een systeem voor het gebruik maken van nabije beeldopnameapparaten voor het opnemen van beelddata die representatief zijn voor een object vanuit meerdere perspectieven, waarbij het systeem omvat een meervoudig aantal beeldopnameapparaten, een geheugen geconfigureerd om door de computer uitvoerbare instructies op te slaan, en een processor geconfigureerd om samen te werken met het meervoudig aantal beeldopnameapparaten en het geheugen, en geconfigureerd om de door de computer uitvoerbare instructies uit te voeren om de processor aan te zetten tot het opnemen, door een eerste beeldopnameapparaat, van eerste beelddata die representatief zijn voor een object vanuit een eerste perspectief, het bepalen of een tweede beeldopnameapparaat in de nabijheid is van het eerste beeldopnameapparaat, en wanneer het tweede beeldopnameapparaat in de nabijheid is van het eerste beeldopnameapparaat, het versturen van een verzoek naar het tweede beeldopnameapparaat voor tweede beelddata die representatief zijn voor het object vanuit een tweede perspectief, waarbij de eerste beelddata en de tweede beelddata combineerbaar zijn om een samengestelde representatie te vormen van het object.
Het eerste beeldopnameapparaat kan bijvoorbeeld een heads-up display samenstel zijn.
Het eerste beeldopnameapparaat kan een eerste heads-up display samenstel zijn dat geassocieerd wordt met een eerste gebruiker, en het tweede beeldopnameapparaat kan een tweede heads-up display samenstel zijn dat geassocieerd wordt met een tweede gebruiker
Het eerste beeldopnameapparaat kan bijvoorbeeld een mobiel apparaat zijn, en het tweede beeldopnameapparaat kan bijvoorbeeld stationair zijn.
BE2018/5781
De door de computer uitvoerbare instructies kunnen, wanneer uitgevoerd, bij voorkeur de processor aanzetten tot het ontvangen van een gebruikersverzoek om beelddata op te nemen die representatief zijn voor het object; en het activeren van het eerste beeldopnameapparaat om de eerste beelddata op te nemen op basis van het gebruikersverzoek.
De processor kan zijn geconfigureerd om samen te werken met een sensor, en de door de computer uitvoerbare instructies kunnen, wanneer uitgevoerd, bij voorkeur de processor aanzetten tot het detecteren, door de sensor, dat het object momenteel in een doellocatie of binnen een doelbereik is voor dimensioneren; en het activeren van het eerste beeldopnameapparaat om de eerste beelddata op te nemen op basis van dat object in een doellocatie of doelbereik is.
De door de computer uitvoerbare instructies, wanneer uitgevoerd, kunnen de processor ook aanzetten tot het ontvangen, vanaf het eerste beeldopnameapparaat, van data die indicatief zijn voor een positie van het eerste beeldopnameapparaat, het ontvangen, vanaf het tweede beeldopnameapparaat, van data die indicatief zijn voor een positie van het tweede beeldopnameapparaat, het berekenen van, op basis van de positie van het eerste beeldopnameapparaat en de positie van het tweede beeldopnameapparaat, van een afstand tussen het eerste beeldopnameapparaat en het tweede beeldopnameapparaat, en het bepalen of de berekende afstand tussen het eerste beeldopnameapparaat en het tweede beeldopnameapparaat binnen een nabijheidsafstandsdrempelwaarde is.
De door de computer uitvoerbare instructies kunnen verder, wanneer uitgevoerd, de processor aanzetten tot het ontvangen, vanaf een vaste RFID lezer, van een indicatie dat de vaste RFID lezer een RF signaaltje heeft ontvangen die is verstuurd door het eerste beeldopnameapparaat, het bepalen, op basis van de indicatie van de vaste
BE2018/5781
RFID lezer, van een positie van het eerste beeldopnameapparaat, het ontvangen, vanaf de vaste RFID lezer, van een indicatie dat de vaste RFID lezer een RF signaaltje heeft ontvangen die is verstuurd door het tweede beeldopnameapparaat, het bepalen op basis van de indicatie van de vaste RFID lezer, van de positie van het tweede beeldopnameapparaat, het berekenen, op basis van de positie van het eerste beeldopnameapparaat en de positie van het tweede beeldopnameapparaat, van een afstand tussen het eerste beeldopnameapparaat en het tweede beeldopnameapparaat, en het bepalen of de berekende afstand tussen het eerste beeldopnameapparaat en het tweede beeldopnameapparaat binnen een nabijheidsafstandsdrempelwaarde is.
De door de computer uitvoerbare instructies kunnen verder, wanneer uitgevoerd, de processor aanzetten tot het detecteren, door het eerste beeldopnameapparaat, van een kortbereik draadloos signaal dat verstuurd is door het tweede beeldopnameapparaat, en het bepalen, op basis van het gedetecteerde kortbereik draadloze signaal, dat het tweede beeldopnameapparaat in de nabijheid is van het eerste beeldopnameapparaat.
De door de computer uitvoerbare instructies kunnen, wanneer uitgevoerd, de processor ook aanzetten tot het combineren van de eerste beelddata en de tweede beelddata om een driedimensionale puntenwolk te maken, en het dimensioneren van het object gebruikmakend van de driedimensionale puntenwolk.
KORTE FIGUURBESCRHIJVING VAN DE VERSCHILLENDE AANZICHTEN VAN DE TEKENINGEN
De begeleidende figuren, waar gelijke referentiecijfers refereren naar identieke of functioneel vergelijkbare elementen in de verschillende
BE2018/5781 aanzichten, samen met de gedetailleerde beschrijving hierna, zijn opgenomen in en vormen onderdeel van de beschrijving, en dienen om uitvoeringsvormen van concepten die hierin zijn geopenbaard verder te illustreren, en leggen diverse principes en voordelen uit van die uitvoeringsvormen.
FIG. 1 is een blokdiagram van een voorbeeld-HUD-samenstel dat geconstrueerd is in overeenstemming met de leer van deze beschrijving
FIGs. 2A en 2B illustreren een voorbeeld-HUD-samenstel dat het voorbeeld-HUD-samenstel van FIG. 1 kan implementeren.
FIG. 3 illustreert het voorbeeld-HUD-samenstel van FIGs. 2A en 2B bevestigd op een hoofd van een gebruiker.
FIG. 4 illustreert voorbeeldcamera's bevestigd aan een voorbeeld-HUD-samenstel.
FIG. 5A illustreert een gebruiker die een voorbeeld-HUDsamenstel draagt waaraan camera's zijn bevestigd waarbij een gebruiker naar een voorbeelddoosobject kijkt dat moet worden gedimensioneerd.
FIG. 5B illustreert meerdere gebruikers die voorbeeld-HUDsamenstellen dragen waaraan camera's zijn bevestigd, waarbij elke gebruiker kijkt naar een voorbeelddoosobject dat moet worden gedimensioneerd.
FIG. 5C illustreert een voorbeelddoosobject dat moet worden gedimensioneerd binnen het gezichtsveld van een bevestigde voorbeeldcamera, en een gebruiker die een voorbeeld-HUD-samenstel draagt waaraan camera's zijn bevestigd, waarbij de gebruiker kijkt naar het voorbeelddoosobject dat moet worden gedimensioneerd.
BE2018/5781
FIG. 6 is een blokdiagram dat representatief is voor een voorbeeld logisch circuit dat geconfigureerd is in overeenstemming met de leer van deze beschrijving.
FIG. 7 is een stroomdiagram van een voorbeeldwerkwijze die hierin is beschreven voor het gebruik maken van nabije beeldopnameapparaten voor het opnemen van beelddata die representatief zijn voor een object vanuit meerdere perspectieven.
GEDETAILLEERDE FIGUURBESCHRIJVING
Systemen en werkwijzen worden voorzien voor het dimensioneren van een object door gebruik te maken van nabije beeldopnameapparaten om beelddata te verkrijgen die representatief zijn voor het object vanuit meerdere perspectieven. Hoewel beelddata vanuit een enkel beeldopnameapparaat vanuit een enkel perspectief voldoende kunnen zijn om één of meerdere afmetingen (dimensies) van een object te bepalen, worden dimensioneeroperaties (bijvoorbeeld berekeningen) verbeterd door de beschikbaarheid van additionele beelddata, bijvoorbeeld, vanuit verschillende perspectieven. Dat wil zeggen, informatie die indicatief is voor verschillende zijden van het object is nuttig bij het bepalen van de afmetingen van een object, dat verschijnt in beelddata. Voorbeelden die hierin zijn geopenbaard detecteren dat één of meerdere secundaire beeldopnameapparaten in de nabijheid (bijvoorbeeld binnen een drempelafstand) zijn van een primair beeldopnameapparaat. Als respons op dergelijke detectie('s), verzoeken voorbeelden die hierin zijn beschreven dat de nabije beeldopnameapparaten tijdsgestempelde beelddata van het object verkrijgen zodanig dat de bijbehorende additionele informatie kan worden gebruikt om, bijvoorbeeld, een samengestelde representatie van het object te vormen die korreliger is dan de representatie vanuit een enkel perspectief. De additionele informatie
BE2018/5781 bevat in de representatie verbetert de accuraatheid en snelheid van de dimensioneeroperaties.
FIG. 1 is een blokdiagram van een voorbeeld-HUD-samenstel 100 dat is geconstrueerd in overeenstemming met de leer van deze beschrijving. Alternatieve implementaties van het voorbeeld-HUDsamenstel 100 van FIG.1 omvatten één of meerdere additionele of alternatieve elementen, processen en/of apparaten. In enkele voorbeelden, kunnen één of meerdere van de elementen, processen en/of apparaten van het voorbeeld-HUD-samenstel 100 van FIG. 1 worden gecombineerd, gescheiden, herschikt, of weggelaten. Hoewel voorbeelden die hierin zijn beschreven worden beschreven in samenhang met een HUD-samenstel als een primair beeldopnameapparaat, kunnen voorbeelden die hierin zijn beschreven worden gebruikt in additionele of alternatieve apparaten, zoals een handheld mobiele computer uitgerust met een scherm en camera's (bijvoorbeeld stereoscopische camera's en/of diepte sensoren) die geschikt zijn voor het verkrijgen van beelddata en het dimensioneren van een object. Zoals hier wordt gebruikt, refereert beelddata naar ieder geschikt type data dat kan worden gebruikt om een object te dimensioneren. In sommige voorbeelden, is bijvoorbeeld de opgenomen beelddata een tweedimensionaal beeld, zoals een afbeelding en/of een paar van beelden dat is opgenomen door stereoscopische camera's. In enkele voorbeelden, is de opgenomen beelddata een dieptewaarde op een coördinaat. In enkele voorbeelden, is de opgenomen beelddata een combinatie van een RGBwaarde op een coördinaat en een dieptewaarde op de coördinaat, waar soms naar wordt verwezen als een voxel.
Het voorbeeld-HUD-samenstel 100 van FIG. 1 omvat een presentatiegenerator 102 en een hoofdbevestiging 104. De hoofdbevestiging 104 is geconstrueerd om de presentatiegenerator 102 te bevestigen aan een hoofd van een persoon zodanig dat een presentatie die
BE2018/5781 is gegenereerd door de presentatiegenerator consumeerbaar is voor de persoon. De presentatie omvat visuele mediacomponenten (bijvoorbeeld beelden) en/of audio mediacomponenten. Om beelden te generen zoals statische of geanimeerde tekst en/of grafieken, omvat de presentatiegenerator 102 van FIG 1 een beeldgenerator 106. De voorbeeldbeeldgenerator 106 van FIG. 1 staat in verbinding met één of meerdere bronnen van beelddata. De beelddata die ontvangen is bij de beeldgenerator 106 zijn representatief voor, bijvoorbeeld, tekst, grafieken en/of augmented reality elementen (bijvoorbeeld informatie die met objecten binnen het gezichtsveld overlapt).
In het geïllustreerde voorbeeld, is de presentatiegenerator 102 geconfigureerd voor het tonen van één of meerdere berichten of indicatoren die geassocieerd worden met, bijvoorbeeld, verzoeken aan nabije beeldopnameapparaten verstuurd door het HUD-samenstel 100, waarbij de verzoeken zijn voor de nabije beeldopnameapparaten om tijd gestempelde beelddata te verkrijgen die representatief zijn voor een object dat wordt vastgehouden door een gebruiker van het HUD-samenstel 100. Bijkomend of als alternatief, kan de presentatiegenerator 102 worden geconfigureerd voor het tonen van één of meerdere berichten of indicatoren dat één of meerdere nabije beeldopnameapparaten het verzoek hebben geaccepteerd en/of de verzochte beelddata hebben opgenomen.
De voorbeeldbeeldgenerator 106 in FIG. 1 maakt gebruik van een lichtbron 108 en een scherm/optiek 110 om visuele componenten van de presentatie te tonen. In enkele voorbeelden, omvat de voorbeeldbeeldgenerator 106 belichtingseenheden die de lichtbron 108 gebruiken (bijvoorbeeld licht uitzendende diodes (LEDs)) om licht te generen op basis van de ontvangen data. In enkele voorbeelden, ontvangen de belichtingseenheden verwerkte data in een staat voor directe conversie naar licht. In andere voorbeelden, verwerken de belichtingseenheden ruwe
BE2018/5781 beelddata voordat de beelddata geconverteerd worden naar licht. Om een dergelijk verwerken uit te voeren, omvatten bijvoorbeeld de belichtingseenheden en/of staan de belichtingseenheden in communicatie met één of meerdere logische circuits die zijn geconfigureerd om de beelddata te verwerken.
De belichtingseenheden converteren de ontvangen beelddata naar patronen en pulsen van licht, en communiceren het gegenereerde licht naar het scherm/optiek 110, zodanig dat de beelden behorend bij de ontvangen data worden getoond aan de gebruiker via het scherm/optiek 110. In enkele voorbeelden, omvatten de belichtingseenheden optieken die het gegenereerde licht conditioneren of manipuleren (bijvoorbeeld polariseren en/of collimeren) voorafgaand aan het scherm/optiek 110 voorzien van het licht.
In enkele voorbeelden, omvat het scherm/optiek 110 een golfgeleider die het licht dat is ontvangen van de belichtingseenheden in een richting en patroon leidt behorend bij de beelddata. In enkele voorbeelden, omvat de golfgeleider een meervoudig aantal interne oppervlakken die een lichtgeleider vormen om intern het licht te reflecteren als het licht van een invoer naar een uitvoer propageert. De golfgeleider omvat bijvoorbeeld een rooster bij de uitvoer om het licht te buigen richting een oog van de gebruiker en daarmee het beeld toont aan de gebruiker. Verder, omvat, bij enkele voorbeelden, de golfgeleider een eerste en een tweede lens die zijn opgesteld om te worden geplaatst over, respectievelijk, een eerste oog en een tweede oog van de gebruiker. Echter, iedere geschikte vorm of maat is mogelijk voor zo'n golfgeleider. In enkele voorbeelden, is de golfgeleider transparant zodanig dat de gebruiker de omgeving tegelijkertijd met het getoonde beeld kan zien, of alleen de omgeving wanneer geen beeld wordt getoond op de golfgeleider.
BE2018/5781
Hoewel de voorbeeldbeeldgenerator 106 de lichtbron 108 en het scherm/optiek 110 gebruikt voor het presenteren van visuele componenten van de presentatie, kan het voorbeeld-HUD-samenstel 100 van FIG. 1 iedere geschikte beeldgeneratietechnologie gebruiken zoals, bijvoorbeeld, kathodestraalbuis (CRT) apparaten of scanning lasers.
De voorbeeldpresentatiegenerator 102 van FIG. 1 omvat een audiogenerator 112 die audiodata ontvangt en de audiodata converteert naar geluid via een koptelefoonaansluiting 114 en/of een speaker 116. De audiogenerator 112 kan bijvoorbeeld een geluid genereren om aan te geven dat een nabij beeldopnameapparaat een verzoek om beelddata te verkrijgen van een object heeft geaccepteerd en/of dat het nabije beeldopnameapparaat de verzochte beelddata heeft verkregen. In enkele voorbeelden, werken de audiogenerator 112 en de beeldgenerator 106 samen om een audiovisuele presentatie te genereren.
In het voorbeeld van FIG. 1, omvat (bijvoorbeeld herbergt) de voorbeeldpresentatiegenerator 102 een meervoudig aantal sensoren 118. In het voorbeeld van FIG. 1, omvat het meervoudig aantal sensoren 118 een lichtsensor 120, een bewegingsensor 122 (bijvoorbeeld een accelerometer), een gyroscoop 124, een microfoon 126, en een nabijheidsensor 127. In enkele voorbeelden, wordt de presentatie die is gegenereerd door de voorbeeldbeeldgenerator 106 en/of de audiogenerator 112 beïnvloed door één of meerdere metingen en/of detecties die zijn gegenereerd door één of meerdere sensoren 118. Een karakteristiek (bijvoorbeeld graad van ondoorzichtigheid) van het scherm gegenereerd door de beelddatagenerator 106 kan bijvoorbeeld afhangen van een intensiteit van omgevingslicht dat is gedetecteerd door de lichtsensor 120. Bijkomend of als alternatief, worden één of meerdere modi, operationele parameters, of instellingen bepaald door metingen en/of detecties die zijn gegenereerd door één of meerdere van de sensoren 118. De
BE2018/5781 presentatiegenerator 102 kan bijvoorbeeld een standby-modus ingaan als de bewegingssensor 122 geen beweging heeft gedetecteerd in een drempelhoeveelheid van tijd.
In het geïllustreerde voorbeeld, is de nabijheidsensor 127 geconfigureerd om, bijvoorbeeld, een server en/of andere beeldopnameapparaten gelegen binnen een bereik van het HUDsamenstel 100 te voorzien van locatie- en/of beweging-informatie die geassocieerd wordt met het HUD-samenstel 100. In enkele voorbeelden, coördineert de nabijheidsensor 127 met andere nabijheidsensoren die worden gedragen door de andere beeldopnameapparaten om te bepalen of één of meerdere van de beeldopnameapparaten binnen een drempelafstand van elkaar zijn (dat wil zeggen zijn nabij elkaar). De nabijheidsensor 127 kan bijvoorbeeld proberen om met nabijgelegen apparaten te verbinden (pair) (bijvoorbeeld via een Bluetooth® communicatie-apparaat) die ook zijn uitgerust met vergelijkbare (bijvoorbeeld werken volgens hetzelfde communicatieprotocol) sensoren. In enkele voorbeelden, zijn het HUD-samenstel 100 en andere beeldopnameapparaten lokaliseerbaar gebruikmakend van een RFIDgebaseerd lokalisatiesysteem via de nabijheidsensor 127 en andere vergelijkbare sensoren die worden gedragen door de andere beeldopnameapparaten. De nabijheidsensor 127 kan bijvoorbeeld worden geconfigureerd om radiofrequentie signaaltjes te versturen die worden gelezen door vaste RFID lezers die in staat zijn om het HUD-samenstel 100 te lokaliseren op bases van de signaaltjes (bijvoorbeeld via triangulatie technieken). In enkele voorbeelden, is de nabijheidsensor 127 een satelliet gebaseerde sensor die in staat is om locatie-informatie te verschaffen op basis van, bijvoorbeeld, een GPS-systeem dat zich ook bewust is van de locaties van de andere beeldopnameapparaten. In dergelijke gevallen, kunnen de locaties van de verschillende
BE2018/5781 beeldopnameapparaten worden vergeleken om te bepalen of enigen van de beeldopnameapparaten in de nabijheid van elkaar zijn. In enkele voorbeelden, verschaft de nabijheidsensor 127 beweging- en/of positionele informatie die geassocieerd wordt met het HUD-samenstel 100 zoals, bijvoorbeeld, stamp- (pitch), rol-, gier-(yaw), hoogte- en koersinformatie. In enkele voorbeelden, definieert de nabijheidsensor 127 een lokale geometrie of coördinatensysteem en de bijbehorende locatie op het coördinatensysteem die geassocieerd wordt met het HUD-samenstel 100. Wanneer het HUD-samenstel 100 geïnitialiseerd wordt (bijvoorbeeld aangezet wordt), kan bijvoorbeeld de nabijheidsensor 127 de startlocatie van het HUD-samenstel als 0, 0, 0 in het coördinatensysteem loggen. In dergelijke gevallen, update de nabijheidsensor 127 de locatie van het HUD-samenstel 100 als de gebruiker beweegt. Verder, hebben, in dergelijke gevallen, andere beeldopnameapparaten locaties in het coördinatensysteem (bijvoorbeeld vaste locaties voor statische beeldopnameapparaten en geüpdatete locaties voor mobiele beeldopnameapparaten zoals andere HUD-samenstellen of handheld mobiele computerapparaten). Als zodanig, worden de beeldopnameapparaten binnen een drempelafstand volgens het coördinatensysteem beschouwd als nabije apparaten. In enkele voorbeelden, gebruikt de nabijheidsensor 127 sterkte-van-signaal (bijvoorbeeld WiFi signalen) systemen om het HUD-samenstel 100 en/of andere beeldopnameapparaten relatief ten opzichte van elkaar en/of een coördinatensysteem te lokaliseren.
Zoals hierin in detail is beschreven, worden data die verschaft zijn door de nabijheidssensor 127 gebruikt om gebruik te maken van nabije beeldopnameapparaten bij het verkrijgen van additionele beelddata die representatief zijn voor een object dat gedimensioneerd wordt door het HUD-samenstel 100 (i.e., het eerste beeldopnameapparaat).
BE2018/5781
De voorbeeldpresentatiegenerator 102 van FIG. 1 omvat een camerasubsysteem 128. In enkele voorbeelden, is het camerasubsysteem bevestigd aan of wordt gedragen door dezelfde behuizing als de presentatiegenerator 102. In enkele voorbeelden, is het camerasubsysteem 128 bevestigd aan of wordt gedragen door de hoofdbevestiging 104. Het voorbeeldcamerasubsysteem 128 omvat twee camera's 130 en een microfoon 132 om, respectievelijk, beelddata en audiodata op te nemen, die representatief zijn voor een omgeving die het HUD-samenstel 100 omgeeft. In enkele voorbeelden, omvat het camerasubsysteem 128 één of meerdere dieptesensoren om afstanden tussen objecten in een gezichtsveld en het HUD-samenstel 100 te detecteren. In enkele voorbeelden, worden de beeld- en/of audiodata die zijn opgenomen door de camera's 130 en/of microfoon 132 geïntegreerd met de presentatie die wordt gegenereerd door de beeldgenerator 106 en/of de audiogenerator 112. Het camerasubsysteem 128 van FIG. 1 communiceert bijvoorbeeld data naar de beeldgenerator 106, die de beelddata kan verwerken om één of meerdere bijbehorende beelden op het scherm/optiek 110 te generen. In enkele voorbeelden, worden de beelddata en/of audiodata die zijn opgenomen door, respectievelijk, de camera's 130 en/of de microfoon 132, opgeslagen in geheugen 135 van het voorbeeld-HUD-samenstel 100. In enkele voorbeelden, worden de beelddata en/of audiodata die zijn opgenomen door, respectievelijk, de camera's 130 en/of de microfoon 132, gecommuniceerd via, bijvoorbeeld, een USB interface 134 van het camerasubsysteem 128 naar een apparaat (bijvoorbeeld een server of een extern geheugen) dat extern is van het HUD samenstel 100.
De voorbeeldpresentatiegenerator 102 van FIG. 1 omvat een meervoudig aantal interfaces 136 die zijn geconfigureerd om het HUD samenstel 100 in staat te stellen om te communiceren met één of meerdere externe apparaten 142 en één of meerdere netwerken 138. In het
BE2018/5781 voorbeeld van FIG. 1, omvatten de interfaces 136 omzetters 140 (bijvoorbeeld een HDMI naar LVDS-RGB omzetter) om data van één format om te zetten naar een ander, een USB interface 144 en een Bluetooth® audio transmitter 146. In enkele voorbeelden, werkt de voorbeeld- Bluetooth® audio transmitter 146 samen met één of beide van de microfoons 126, 132, van het HUD samenstel 100 om steminvoer van de gebruiker te ontvangen en om de steminvoer naar één of meerdere externe apparaten 142 over te brengen. Steminvoer kan bijvoorbeeld worden verschaft aan een mobiel computerapparaat dat wordt gedragen door de gebruiker via het HUD-samenstel 100 gebruikmakend van de Bluetooth® audio transmitter 146. Voorbeelden van externe apparaten 142 omvatten keypads, Bluetooth® klikknoppen, smart watches en mobiele computerapparaten.
De voorbeeldbeeldgenerator 106, de voorbeeldlichtbron 108, de voorbeeldaudiogenerator 112, het voorbeeldcamerasubsysteem 128, de voorbeeldomzetters 140, de voorbeeldUSBinterfaces 134, 144, en/of, meer algemeen, de voorbeeldpresentatiegenerator 102 van FIG. 1 worden geïmplementeerd door hardware, software, firmware, en/of iedere combinatie van hardware, software, en/of firmware. In enkele voorbeelden, is ten minste één van de voorbeeldbeeldgenerator 106, de voorbeeldlichtbron 108, de voorbeeldaudiogenerator 112, het voorbeeldcamerasubsysteem 128, de voorbeeldomzetters 140, de voorbeeldUSB interfaces 134, 144 en/of meer algemeen, de voorbeeldpresentatiegenerator 102 van FIG. 1 geïmplementeerd door middel van een logisch circuit. Zoals hierin gebruikt, is de term “logisch circuit” uitdrukkelijk gedefinieerd als een fysiek apparaat dat ten minste één hardware component omvat die geconfigureerd is (bijvoorbeeld via bediening in overeenstemming met een vooraf bepaalde configuratie en/of via uitvoering van opgeslagen door de machine leesbare instructies) om
BE2018/5781 één of meerdere machines te bedienen en/of bewerkingen van één of meerdere machines uit te voeren. Voorbeelden van een logisch circuit omvatten één of meerdere processors, één of meerdere coprocessors, één of meerdere microprocessor, één of meerdere controllers, één of meerdere digitale signaal processors (DSPs), één of meerdere applicatie-specifieke geïntegreerde circuits (ASICs), één of meerdere veld-programmeerbare gate arrays (FPGAs), één of meerdere microcontroller eenheden (MCUs), één of meerdere hardware acceleratoren, één of meerdere special-purpose computer chips, en één of meerdere systeem-op-een-chip (SoC) apparaten. Enkele voorbeeld- logische circuits, zoals ASICs of FPGAs, zijn specifiek geconfigureerde hardware voor het uitvoeren van bewerkingen. Enkele voorbeeld- logische circuits zijn hardware die door de machine leesbare instructies uitvoeren om bewerkingen uit te voeren. Enkele voorbeeldlogische circuits omvatten een combinatie van specifiek geconfigureerde hardware en hardware die door de machine leesbare instructies uitvoeren.
Zoals hierin gebruikt, is elk van de termen “tastbaar door de machine leesbaar medium”, “niet-transitoir door de machine leesbaar medium”, en “door de machine leesbaar opslagapparaat” uitdrukkelijk gedefinieerd als een opslagmedium (bijvoorbeeld een plaat van een harde schijf, een digitale ruim toepasbare schijf, een compact disc, flash geheugen, read-only geheugen, random-access geheugen, etc.) waarop door de machine leesbare instructies (bijvoorbeeld programmacode in de vorm van, bijvoorbeeld, software en/of hardware) kunnen worden opgeslagen. Verder, zoals hierin gebruikt, is elk van de termen “tastbaar machine leesbaar medium”, “niet-transitoir door de machine leesbaar medium” en “door de machine leesbaar opslagapparaat” uitdrukkelijk gedefinieerd om het propageren van signalen uit te sluiten. Dat wil zeggen, zoals gebruikt in iedere conclusie van dit octrooi, kan een “tastbaar door de machine leesbaar medium” niet worden gelezen als te worden geïmplementeerd
BE2018/5781 door het propageren van een signaal. Verder, zoals gebruikt in iedere conclusie van dit octrooi, kan een “niet-transitoir door de machine leesbaar medium” niet worden gelezen als te worden geïmplementeerd door het propageren van een signaal. Verder, zoals gebruikt in iedere conclusie van dit octrooi, kan een “door de machine leesbaar opslagapparaat” niet worden gelezen als te worden geïmplementeerd door het propageren van een signaal.
Zoals gebruikt hierin, is elk van de termen “tastbaar door de machine leesbaar medium”, “niet-transitoir door de machine leesbaar medium” en “door de machine leesbaar opslagapparaat” uitdrukkelijk gedefinieerd als een opslagmedium waarop door de machine leesbare instructies zijn opgeslagen voor iedere geschikte tijdsduur (bijvoorbeeld permanent, voor een langere tijdsperiode (bijvoorbeeld terwijl een programma dat geassocieerd is met de machine-leesbare instructies wordt uitgevoerd)) en/of een korte tijdsperiode (bijvoorbeeld terwijl machineleesbare instructies worden in cache worden opgeslagen en/of gebufferd gedurende een buffer proces)).
FIGS. 2A en 2B illustreren een voorbeeld-HUD-samenstel 200 dat het voorbeeld-HUD-samenstel 100 van FIG. 1 kan implementeren. Het voorbeeld-HUD-samenstel 200 van FIG. 2 B omvat een presentatiegenerator 202 en een voorbeeldhoofdbevestiging 204. De voorbeeldpresentatiegenerator 202 van FIG. 2B herbergt of draagt componenten die zijn geconfigureerd om, bijvoorbeeld, een audiovisuele presentatie te generen voor consumptie door een gebruiker die het voorbeeld-HUD-samenstel 200 van FIG. 2B draagt. De presentatiegenerator 202 van FIG. 2B herbergt of draagt bijvoorbeeld de componenten van de voorbeeldpresentatiegenerator 102 van FIG. 1.
FIG. 3 illustreert het voorbeeld-HUD-samenstel 200 van FIGs. 2A en 2B bevestigd aan het hoofd 300 van een gebruiker.
BE2018/5781
FIG. 4 illustreert voorbeeldcamera's 402 die, bijvoorbeeld, de camera's 130 van FIG. 1 implementeren. Zoals boven beschreven, kunnen de camera's 402 worden geconfigureerd om beelddata op te nemen die representatief zijn voor een doosobject en de handen van een gebruiker wanneer een gebruiker die het HUD-samenstel 200 draagt naar een doosobject kijkt. Hoewel de voorbeeldcamera's 402 van FIG. 4 zijn gepositioneerd boven elk oculair, kunnen de camera's op iedere geschikte locatie worden gepositioneerd, zoals, bijvoorbeeld, op de randen van de frames. FIG. 5 A illustreert bijvoorbeeld een gebruiker die het HUDsamenstel 200 draagt en kijkt naar een doosobject, met voorbeeldcamera's 502 bevestigd aan de zijkanten van de hoofdbevestiging, die beelddata opneemt die het doosobject en de handen van de gebruiker omvat.
FIG. 5B illustreert meerdere gebruikers die de voorbeeld-HUDsamenstellen dragen waaraan camera's zijn bevestigd, waarbij elke gebruiker kijkt naar een voorbeelddoosobject dat moet worden gedimensioneerd. Zoals getoond in FIG. 5B, houdt een eerste gebruiker die het HUD-samenstel 200 draagt het doosobject vast, terwijl een tweede gebruiker die voorbeeld-HUD-samenstel 510 draagt kijkt naar hetzelfde doosobject. Wanneer de gebruikers tegenover hetzelfde object staan, zijn de camera's (niet getoond) die bevestigd zijn aan hun HUD-samenstellen 200, 510 elk gepositioneerd om beelddata van het doosobject op te nemen, vanuit meerdere perspectieven.
FIG. 5C illustreert een voorbeelddoosobject dat moet worden gedimensioneerd binnen het gezichtsveld van een bevestigde voorbeeldcamera, en een gebruiker die een voorbeeld-HUD-samenstel draagt waaraan camera's zijn bevestigd, waarbij de gebruiker kijkt naar het voorbeelddoosobject dat moet worden gedimensioneerd. Zoals getoond in FIG. 5 C, houdt een gebruiker die het voorbeeld-HUD-samenstel draagt het doosobject vast, terwijl een camera 520 (bijvoorbeeld een bevestigde
BE2018/5781 overhead camera) gericht is naar hetzelfde doosobject. Dienovereenkomstig, zijn de camera's (niet getoond) van het HUDsamenstel 200 en de bevestigde camera 520 elk gepositioneerd om beelddata van het doosobject op te nemen, vanuit meerdere perspectieven.
FIG. 6 is een blokdiagram dat representatief is voor een voorbeeld logisch circuit dat kan worden gebruikt om, bijvoorbeeld, de voorbeeldbeeldgenerator 106, de voorbeeldlichtbron 108, één of meerdere voorbeeldinterfaces 136 en/of de voorbeeldaudiogenerator 112 van FIG. 1 te implementeren. Het voorbeeld logisch circuit van FIG. 6 is een verwerkingsplatform 600 dat in staat is om door de machine leesbare instructies uit te voeren om, bijvoorbeeld, bewerkingen geassocieerd met het voorbeeld-HUD-samenstel 100 van FIG. 1 te implementeren.
Het voorbeeldverwerkingsplatform 600 van FIG. 6 omvat een processor 602 zoals, bijvoorbeeld, één of meerdere microprocessors, controllers en/of ieder geschikt type processor. Het voorbeeldverwerkingsplatform 600 van FIG. 6 omvat geheugen (bijvoorbeeld volatiel geheugen, niet-volatiel geheugen) dat toegankelijk is voor de processor 602 (bijvoorbeeld via een geheugencontroller). De voorbeeldprocessor 602 interacteert met het geheugen 604 om, bijvoorbeeld, door de machine leesbare instructies die zijn opgeslagen in het geheugen 604 te verkrijgen. Bijkomend of als alternatief, kunnen de door de machine leesbare instructies worden opgeslagen op een of meerdere verwijderbare media (bijvoorbeeld een compact disc, een digitale versatiele disc, verwijderbaar flash geheugen, etc.) die kunnen worden gekoppeld aan het verwerkingsplatform 600 om toegang te verschaffen tot de door de machine leesbare instructies die daarop zijn opgeslagen. In het bijzonder, kunnen de door de machine leesbare instructies die zijn opgeslagen op het geheugen 604 instructies omvatten voor het uitvoeren
BE2018/5781 van één van de werkwijzen die in groter detail hieronder zijn beschreven bij FIG. 7.
Het voorbeeldverwerkingsplatform 600 van FIG. 6 omvat verder een netwerkinterface 606 om communicatie met andere machines mogelijk te maken, via, bijvoorbeeld, een of meerdere netwerken. De voorbeeldnetwerkinterfaces 606 omvatten een willekeurig geschikt type van communicatieinterface(s) (bijvoorbeeld bedrade en/of draadloze interfaces) die zijn geconfigureerd om te werken in overeenstemming met een willekeurig geschikt protocol. Het voorbeeldverwerkingsplatform 600 van FIG. 6 omvat invoer/uitvoer (I/O) interfaces 608 om ontvangst van gebruikersinvoer en communicatie van uitvoerdata naar de gebruiker mogelijk te maken.
Het voorbeeldverwerkingsplatform 600 van FIG. 6 kan worden geconfigureerd om dimensioneeroperaties uit voeren gebruikmakend van de beelddata die zijn opgenomen via voorbeelden die hierin zijn beschreven. Iedere geschikte techniek voor het meten van afmetingen van het object is toepasbaar op voorbeelden die hierin zijn geopenbaard. Werkwijzen en inrichtingen voor het dimensioneren van een doosobject gebruikmakend van beelddata die, bijvoorbeeld, is opgenomen door het HUD-samenstel 100 en/of additionele beeldopnameapparaten zijn bijvoorbeeld geopenbaard in U.S. Patent No. 9,741,134 ingediend op 16 december 2013. Additionele of alternatieve werkwijzen en inrichtingen die kunnen worden gebruikt in verbinding met voorbeelden die hierin zijn geopenbaard voor het dimensioneren van een object omvatten puntenwolkgeneratoren en analyses van puntenwolkdata om objecten te meten.
FIG. 7 is een stroomdiagram die een voorbeeldwerkwijze voorstelt in overeenstemming met de leer van deze beschrijving. Hoewel het voorbeeld van FIG. 7 is beschreven in verbinding met het voorbeeld22
BE2018/5781
HUD-samenstel 100 van FIG. 1, kan het voorbeeld van FIG. 7 worden geïmplementeerd in verbinding met additionele of alternatieve typen van beeldopnameapparaten, zoals handheld mobiele Computerapparaten die beeldopnamebenodigdheden hebben.
Bij blok 700, zijn het HUD-samenstel 100 en/of andere componenten van een dimensioneersysteem (bijvoorbeeld andere mobiele beeldopnameapparaten, zoals additionele HUD-samenstellen, en/of vaste locatie beeldopnameapparaten, zoals camera's die zijn bevestigd in een dimensioneerruimte) aan het initiëren (bijvoorbeeld aangezet). Bij blok 702, omvat de initiatie het definiëren van een lokale geometrie voor gebruik in de nabijheidsbepalingen zoals hierin beschreven. Een coördinatensysteem kan bijvoorbeeld worden geïnitialiseerd op een startpunt (0,0,0).
Bij blok 704, wordt de positie van het HUD-samenstel 100 bepaald (bijvoorbeeld via de nabijheidsensor 127) en continu geüpdatet als het HUD-samenstel beweegt. In het geïllustreerde voorbeeld, wordt een meervoudigheid van positie- en beweging-informatie geassocieerd met het HUD-samenstel 100 verzameld, zoals, bijvoorbeeld, stamp (pitch), rol, gier (yaw), hoogte en koersinformatie. In enkele voorbeelden, omvat het bepalen van de positie van het HUD-samenstel 100 het kalibreren van het HUD-samenstel, bijvoorbeeld zoals beschreven door U.S. Pat. No.
9,952,432.
Als een dimensioneerverzoek is ontvangen (blok 706) (bijvoorbeeld geactiveerd door een invoer van een gebruiker, or door een detectie door een positioneringsensor dat een object momenteel in een doellocatie of binnen een doelbereik is voor dimensioneren), neemt de beeldopnameapparatuur van het HUD-samenstel 100 beelddata op (bijvoorbeeld tweedimensionale en/of driedimensionale data) die representatief zijn voor het gezichtsveld van het HUD-samenstel (blok
BE2018/5781
708), dat een object omvat dat moet worden gedimensioneerd bijvoorbeeld een doos). In het voorbeeld van FIG. 7, worden de opgenomen beelddata voorzien van een tijdstempel gebruikmakend van een referentieklok die toegankelijk is voor andere beeldopnameapparaten in de omgeving.
Bij blok 710, worden beeldopnameapparaten nabij het HUDsamenstel, zoals bepaald door de nabijheidsensor 127 en/of verwerkingscomponenten in communicatie met de nabijheidsensor 127 en vergelijkbare nabijheidsensoren van andere beeldopnameapparaten, geïdentificeerd.
In één voorbeeld, ontvangt een processor, bijvoorbeeld als onderdeel van een real-time locatiesysteem (RTLS) data die indicatief zijn voor de huidige positie van het HUD-samenstel 100, alsook data die indicatief zijn de huidige positie van ten minste één secundair beeldopnameapparaat. Secundaire beeldopnameapparaten kunnen omvatten, bijvoorbeeld, andere mobiel beeldopnameapparaten, zoals additionele HUD-samenstellen, en/of vaste-locatie beeldopnameapparaten, zoals camera's die zijn bevestigd in een dimensioneerzone. In enkele voorbeelden, ontvangt de processor data die indicatief zijn voor de huidige posities van een groot aantal secundaire beeldopnameapparaten. Op basis van de positiedata van het HUD-samenstel 100, en de verscheidene secundaire beeldopnameapparaten, berekent de processor de afstand tussen het HUD-samenstel 100 en elk van de secundaire beeldopnameapparaten om te bepalen of één van de secundaire beeldopnameapparaten binnen een nabijheidsafstandsdrempelwaarde (bijvoorbeeld vijf voet, tien voet, 100 voet, etc.) is van het HUD-samenstel 100.
Als een bijkomend of alternatief voorbeeld, versturen de verscheidene secundaire beeldopnameapparaten kortbereik draadloze signalen (bijvoorbeeld Bluetooth signalen) die detecteerbaar zijn door
BE2018/5781 sensoren van het HUD-samenstel (bijvoorbeeld nabijheidsensoren). Op basis van een bekend bereik van een dergelijk signaal, wordt bepaald dat een secundair beeldopnameapparaat binnen een nabijheidsafstanddrempelwaarde is van het HUD-samenstel wanneer het HUD-samenstel het signaal ontvangt. Omgekeerd, wordt bepaald dat een secundair beeldopnameapparaat buiten een nabijheidsafstanddrempelwaarde is wanneer het HUD-samenstel niet slaagt in het ontvangen van het signaal.
Verder, verstuurt het HUD-samenstel 100 en/of een verwerkingscomponent in communicatie met het HUD-samenstel 100 (bijvoorbeeld een server) een verzoek aan elk van de secundaire beeldopnameapparaten die zijn geïdentificeerd als nabij het HUDsamenstel 100. Het verzoek geeft aan dat het HUD-samenstel 100 een object aan het dimensioneren is op de locatie van het HUD-samenstel 100 en dat om additionele beelddata voor het object op die locatie wordt verzocht. In enkele voorbeelden, zijn de secundaire beeldopnameapparaten vaste beeldopnameapparaten die zijn gericht op een specifiek punt. In dergelijke gevallen, kunnen de beeldopnameapparaten het object afbeelden wanneer het object zich in het gezichtsveld bevindt. Als alternatief, kunnen de beeldopnameapparaten, wanneer de andere beeldopnameapparaten mobiele apparaten zijn die een dynamisch gezichtsveld hebben, bepalen (bijvoorbeeld op basis van hun koers, positie, stamp (pitch), rol en gier (yaw)) wanneer het object in het gezichtsveld is, en kunnen het object afbeelden wanneer het object in het dynamische gezichtsveld is.
Bij blok 712 neemt het nabije secundaire beeldopnameapparaat (apparaten) beelddata op die representatief zijn voor het object vanuit verschillende perspectieven dan het perspectief van het HUD-samenstel 100. Zoals getoond in FIG. 5B, staat een eerste HUD-samenstel
BE2018/5781 bijvoorbeeld tegenover het object vanuit een eerste hoek, en neemt beelddata op vanuit één perspectief, terwijl een secundair HUD-samenstel in de nabijheid van het eerste HUD-samenstel (namelijk binnen een drempelafstand) tegenover het object staat vanuit een tweede hoek, en neemt beelddata op vanuit een ander perspectief. Op dezelfde manier, zoals getoond in FIG. 5C, staat een HUD-samenstel tegenover het object vanuit een eerste hoek, en neemt beelddata op vanuit één perspectief, terwijl een bevestigde camera in de nabijheid van het eerste HUDsamenstel tegenover het object staat vanuit een tweede hoek en beelddata opneemt vanuit een ander perspectief. De opgenomen beelddata zijn voorzien van een tijdstempel gebruikmakend van de zelfde referentie als het primaire beeldopnameapparaat en wordt verschaft aan een database.
Bij blok 714, ontvangt een dimensioneerprocessor (bijvoorbeeld een server in communicatie met het HUD-samenstel 100 of een processor van het HUD-samenstel 100) de beelddata die zijn opgenomen door het HUD-samenstel 100 en een eventueel nabijgelegen beeldopnameapparaat. De dimensioneerprocessor associeert beelddata van de verschillende bronnen volgens gemeenschappelijke (bijvoorbeeld binnen een drempelhoeveelheid van tijd) tijdstempels.
Bij blok 716, combineert de dimensioneerprocessor verschillende gevallen van beelddata van de verschillende bronnen om een samengestelde representatie te vormen van het object. In het geïllustreerde voorbeeld, genereert de dimensioneerprocessor een gecombineerde puntenwolk die de verschillende gevallen van beelddata bevat. Echter, in alternatieve voorbeelden wanneer de beelddata niet puntenwolkdata is, combineert de dimensioneerprocessor de beelddata op alternatieve manieren om een samengestelde representatie te vormen van het object.
BE2018/5781
Bij blok 718, segmenteert de dimensioneerprocessor de puntenwolk van andere data (bijvoorbeeld achtergrond data) en berekent één of meerdere afmetingen van het object op basis van de gesegmenteerde puntenwolk. In enkele voorbeelden, kent de dimensioneerprocessor een vertrouwensscore toe aan de één of meerdere afmetingen. In enkele voorbeelden, communiceert de dimensioneerprocessor de één of meerdere afmetingen naar het HUDsamenstel 100 en worden de resultaten getoond op het scherm daarop.
Bij blok 720, worden de één of meerdere afmetingen gerapporteerd en/of opgeslagen. Als het dimensioneerproces voor het object compleet is (blok 722), gaat control verder naar blok 724. Anders, zet het dimensioneerproces voor het object zich voort.
Bij blok 724, als het systeem uitstaat, wordt het proces verlaten (blok 726). Anders, kan control, van blok 724, terugkeren naar blok 706 om te bepalen of een ander dimensioneerverzoek is uitgebracht.
Ten behoeve van duidelijkheid en een beknopte beschrijving, worden maatregelen hierin beschreven als deel van dezelfde of separate uitvoeringsvormen. Echter, opgemerkt wordt dat de beschermingsomvang van de uitvinding uitvoeringsvormen kan omvatten die combinaties hebben van alle of enkele van de maatregelen die hierin zijn beschreven. Getoonde uitvoeringsvormen kunnen gelijke of gelijkwaardige componenten omvatten, behalve indien anders beschreven. De voordelen, oplossingen voor problemen en ieder element dat kan leiden tot enig voordeel, of oplossing die plaatsheeft of meer benadrukt wordt, moeten niet worden geïnterpreteerd als een kritieke, benodigde, of essentiële maatregel of element van één van de of alle conclusies.
Bovendien, kunnen in dit document, betrekkelijke termen zoals eerste en tweede, bovenkant en onderkant, en dergelijke slechts worden gebruikt om één entiteit of actie te onderscheiden van een andere entiteit
BE2018/5781 of actie zonder dat noodzakelijkerwijs één van deze feitelijke relaties of ordes tussen dergelijke entiteiten of acties nodig is of wordt geïmpliceerd. De termen “omvat”, “omvattende”, “”heeft”, “hebbende”, “bevat”, “bevattende” of iedere andere variatie daarvan, zijn bedoeld om een nietuitsluitende inclusie te dekken, zodanig dat een proces, werkwijze, artikel, of inrichting die een lijst van elementen omvat, heeft, bevat niet alleen die elementen omvat, maar ook andere elementen kan omvatten die niet uitdrukkelijk zijn vermeld of inherent zijn aan een dergelijk proces, werkwijze, artikel of inrichting. Een element voorafgegaan door “omvat ... een”, “heeft ... een”, “bevat ... een” sluit niet, zonder meer beperkingen, het bestaan uit van additionele identieke elementen in het proces, de werkwijze, het artikel, of de inrichting die het element omvat, heeft, bevat. De term “een” is gedefinieerd als één of meer, tenzij dat hierin expliciet anders is aangegeven. De termen “in hoofdzaak”, “essentieel”, “ongeveer”, of iedere andere versie daarvan, zijn gedefinieerd als zijnde dichtbij, zoals begrepen door de vakman v, en in één niet beperkende uitvoeringsvorm is de term gedefinieerd als zijnde binnen 10%, in een andere uitvoeringsvorm als zijnde binnen 5%, in een andere uitvoeringsvorm als zijnde binnen 1% en in een andere uitvoeringsvorm als zijnde binnen 0.5%. De term “gekoppeld” zoals hierin gebruikt is gedefinieerd als verbonden, hoewel niet noodzakelijkerwijs direct en niet noodzakelijkerwijs mechanisch. Een apparaat of structuur die is “geconfigureerd” op een zekere manier is geconfigureerd op ten minste die manier, maar kan ook worden geconfigureerd op manieren die niet zijn aangegeven.
Voorts kunnen enkele uitvoeringsvormen één of meerdere generieke of gespecialiseerde processors (of “verwerkingsapparaten”) omvatten, zoals microprocessors, digitale signaal processors, customized processors, en veldprogrammeerbare gate arrays (FPGAs) en uniek
BE2018/5781 opgeslagen programma instructies (omvattende zowel software als hardware) die de één of meerdere processors beheren, om in combinatie met zekere niet-processor circuits, enkele, de meeste, of alle functies te implementeren van de werkwijze en/of inrichting die hierin is beschreven. Als alternatief, zouden enkele of alle functies kunnen worden geïmplementeerd door een toestandsmachine die geen opgeslagen programma instructies heeft, of in één of meerdere applicatie-specifieke geïntegreerde circuits (ASICs), waarin elke functie of enkele combinaties van zekere functies zijn geïmplementeerd als custom logic (op maat gemaakt). Uiteraard, zou een combinatie van de twee aanpakken kunnen worden gebruikt.
Bovendien, kan een uitvoeringsvorm worden geïmplementeerd als een door een computer leesbaar opslagmedium die daarop een door een computer leesbare code heeft opgeslagen voor het programmeren van een computer (bijvoorbeeld omvattende een processor) om een werkwijze uit te voeren zoals hierin wordt beschreven en geclaimd. Voorbeelden van dergelijke door een computer leesbare opslagmedia omvatten, maar zijn niet beperkt tot, een harde schijf, een CD-ROM, een optisch opslagapparaat, een magnetisch opslagapparaat, een ROM (read-only memory), een PROM (programmable read-only memory), een EPROM (erasable programmable read-only memory), een EEPROM (electrically erasable programmable read-only memory) en een flash geheugen. Verder, wordt verwacht dat de vakman, ondanks mogelijk significante inspanning en vele ontwerpkeuzes die gemotiveerd zijn door, bijvoorbeeld, beschikbare tijd, huidige technologie, en economische overwegingen, wanneer geleid door de concepten en principes die hierin zijn beschreven gemakkelijk in staat zal zijn tot het genereren van dergelijke software instructies en programma's en IC's met minimaal experimenteren.
BE2018/5781
De samenvatting van de beschrijving wordt verschaft om de lezer in staat te stellen snel achter de aard van de technische beschrijving te komen. Het wordt ingediend in de veronderstelling dat het niet zal worden gebruikt om de conclusies te interpreteren of de beschermingsomvang daarvan te beperken. Louter het feit dat zekere maatregelen worden benoemd in onderling verschillende conclusies geeft niet aan dat een combinatie van deze maatregelen niet kan worden gebruikt voor een voordeel. Een groot aantal varianten zal duidelijk zijn voor de vakman. Alle varianten worden geacht te zijn omvat binnen de beschermingsomvang van de uitvinding zoals gedefinieerd in de hierna volgende conclusies.

Claims (20)

1. Computer-geïmplementeerde werkwijze voor het gebruik maken van nabije beeldopnameapparaten voor het opnemen van beelddata die representatief zijn voor een object vanuit meerde perspectieven, waarbij de werkwijze omvat:
het opnemen, door een eerste beeldopnameapparaat, van eerste beelddata die representatief zijn voor een object vanuit een eerste perspectief;
het bepalen, door een processor, of een tweede beeldopnameapparaat in de nabijheid is van het eerste beeldopnameapparaat; en wanneer het tweede beeldopnameapparaat in de nabijheid is van het eerste beeldopnameapparaat, het versturen van een verzoek aan het tweede beeldopnameapparaat voor tweede beelddata die representatief zijn voor het object vanuit een tweede perspectief, waarbij de eerste beelddata en de tweede beelddata combineerbaar zijn om een samengestelde representatie van het object te vormen.
2. Computer-geïmplementeerde werkwijze volgens conclusie 1, waarbij het eerste beeldopnameapparaat een heads-up display samenstel is.
3. Computer-geïmplementeerde werkwijze volgens conclusie 1 of 2, waarbij het eerste beeldopnameapparaat een eerste heads-up display samenstel is dat geassocieerd wordt met een eerste gebruiker, en het tweede beeldopnameapparaat een tweede heads-up display samenstel is dat geassocieerd wordt met een tweede gebruiker.
4. Computer-geïmplementeerde werkwijze volgens een van de voorgaande conclusies, waarbij het eerste beeldopnameapparaat een mobiel apparaat is dat geassocieerd wordt met een eerste gebruiker en het tweede beeldopnameapparaat een stationair apparaat is.
BE2018/5781
5. Computer-geïmplementeerde werkwijze volgens een van de voorgaande conclusies, verder omvattende:
het ontvangen van een gebruikersverzoek om beelddata vast te leggen die representatief zijn voor het object; en het activeren (triggering) van het eerste beeldopnameapparaat om eerste beelddata vast te leggen op basis van het gebruikersverzoek.
6. Computer-geïmplementeerde werkwijze volgens een van de voorgaande conclusies, verder omvattende:
het detecteren, door een sensor, dat het object momenteel in een doellocatie of binnen een doelbereik is om te dimensioneren; en het activeren, door de processor, van het eerste beeldopnameapparaat om de eerste beelddata vast te leggen op basis van dat het object in de doellocatie of het doelbereik is.
7. Computer-geïmplementeerde werkwijze volgens een van de voorgaande conclusies, waarbij het bepalen of het tweede beeldopnameapparaat in de nabijheid is van het eerste beeldopnameapparaat omvat:
het ontvangen, door een processor, vanaf het eerste beeldopnameapparaat, van data die indicatief zijn voor een positie van het eerste beeldopnameapparaat;
het ontvangen, door een processor, vanaf het tweede beeldopnameapparaat, van data die indicatief zijn voor een positie van het tweede beeldopnameapparaat;
het berekenen, door een processor, op basis van de positie van het eerste beeldopnameapparaat en de positie van het tweede beeldopnameapparaat, van een afstand tussen het eerste beeldopnameapparaat en het tweede beeldopnameapparaat; en
BE2018/5781 het bepalen, door een processor, of de berekende afstand tussen het eerste beeldopnameapparaat en tweede beeldopnameapparaat binnen een nabijheidsafstandsdrempelwaarde is.
8. Computer-geïmplementeerde werkwijze volgens een van de voorgaande conclusies, waarbij het bepalen of tweede beeldopnameapparaat in de nabijheid van eerste beeldopnameapparaat is omvat:
het ontvangen, door een processor, van een vaste RFID lezer, van een indicatie dat de vaste RFID lezer een RF blink heeft ontvangen die is verstuurd door het eerste beeldopnameapparaat;
het bepalen, door een processor, op basis van de indicatie van de vaste RFID lezer, van een positie van het eerste beeldopnameapparaat;
het ontvangen, door een processor, vanaf de vaste RFID lezer, van een indicatie dat de vaste RFID lezer een RF signaaltje heeft ontvangen die is verstuurd door het tweede beeldopnameapparaat;
het bepalen, door een processor, op basis van de indicatie van de vaste RFID lezer, van de positie van het tweede beeldopnameapparaat;
het berekenen, door een processor, op basis van de positie van het eerste beeldopnameapparaat en de positie van het tweede beeldopnameapparaat, van een afstand tussen het eerste beeldopnameapparaat en het tweede beeldopnameapparaat; en het bepalen, door een processor, of de berekende afstand tussen het eerste beeldopnameapparaat en het tweede beeldopnameapparaat binnen een nabijheidsafstandsdrempelwaarde is.
9. Computer-geïmplementeerde werkwijze volgens één van de voorgaande conclusies, waarbij het bepalen of het tweede beeldopnameapparaat in de nabijheid is van het eerste beeldopnameapparaat omvat:
BE2018/5781 het detecteren, door het eerste beeldopnameapparaat, van een kortbereik- (short range) draadloos signaal, dat is verstuurd door het tweede beeldopnameapparaat; en het bepalen, op basis van het gedetecteerde kortbereik- draadloze signaal, dat het tweede beeldopnameapparaat in de nabijheid is van het eerste beeldopnameapparaat.
10. Computer-geïmplementeerde werkwijze volgens een van de voorgaande conclusies, verder omvattende:
het combineren van de eerste beelddata en de tweede beelddata om een driedimensionale puntenwolk (point cloud) te maken (rendering); en het dimensioneren van het object gebruikmakend van de driedimensionale puntenwolk.
11. Systeem voor het gebruik maken van nabije beeldopnameapparaten voor het opnemen van beelddata die representatief zijn voor een object vanuit meerdere perspectieven, waarbij het systeem omvat:
een meervoudig aantal beeldopnameapparaten;
geheugen geconfigureerd om door de computer uitvoerbare instructies op te slaan; en een processor geconfigureerd om samen te werken met het meervoudig aantal beeldopnameapparaten en het geheugen, en geconfigureerd om de door de computer uitvoerbare instructies uit te voeren om de processor aan te zetten tot:
het opnemen, door een eerste beeldopnameapparaat, van eerste beelddata die representatief zijn voor een object vanuit een eerste perspectief;
het bepalen of een tweede beeldopnameapparaat in de nabijheid is van het eerste beeldopnameapparaat; en wanneer het tweede beeldopnameapparaat in de nabijheid is van het eerste beeldopnameapparaat, het versturen van een
BE2018/5781 verzoek aan het tweede beeldopnameapparaat om tweede beelddata die representatief zijn voor het object vanuit een tweede perspectief, waarbij de eerste beelddata en de tweede beelddata combineerbaar zijn om een samengestelde representatie van het object te vormen.
12. Systeem volgens conclusie 11, waarbij het eerste beeldopnameapparaat een heads-up display samenstel is.
13. Systeem volgens conclusie 11 of 12, waarbij het eerste beeldopnameapparaat een eerste heads-up display samenstel is geassocieerd met een eerste gebruiker en het tweede beeldopnameapparaat een tweede heads-up display samenstel is geassocieerd met een tweede gebruiker.
14. Systeem volgens één van de voorgaande conclusies 11-13, waarbij het eerste beeldopnameapparaat een mobiel apparaat is, en het tweede beeldopnameapparaat een stationair apparaat is.
15. Systeem volgens één van de voorgaande conclusies 11-14, waarbij de door de computer uitvoerbare instructies, wanneer uitgevoerd, de processor aanzetten tot:
het ontvangen van een gebruikersverzoek om beelddata vast te leggen die representatief zijn voor het object; en het activeren van het eerste beeldopnameapparaat om de eerste beelddata vast te leggen op basis van het gebruikersverzoek.
16. Systeem volgens één van de voorgaande conclusie 11-15, waarbij de processor is geconfigureerd om samen te werken met een sensor, en waarbij de door de computer uitvoerbare instructies, wanneer uitgevoerd, de processor aanzetten tot:
het detecteren, door de sensor, dat het object momenteel in een doellocatie of binnen doelbereik is om te dimensioneren; en
BE2018/5781 het activeren van het eerste beeldopnameapparaat om de eerste beelddata vast te leggen op basis van dat het object in de doellocatie of het doelbereik is.
17. Systeem volgens één van de voorgaande conclusies 11-16, waarbij de door de computer uitvoerbare instructies, wanneer uitgevoerd, de processor aanzetten tot:
het ontvangen, vanaf een eerste beeldopnameapparaat, van data die indicatief zijn voor een positie van het eerste beeldopnameapparaat;
het ontvangen, van het tweede beeldopnameapparaat, van data die indicatief zijn voor een positie van het tweede beeldopnameapparaat;
het berekenen, op basis van de positie van het eerste beeldopnameapparaat en de positie van het tweede beeldopnameapparaat, van een afstand tussen het eerste beeldopnameapparaat en het tweede beeldopnameapparaat; en het bepalen of de berekende afstand tussen het eerste beeldopnameapparaat en het tweede beeldopnameapparaat binnen een nabijheidsafstandsdrempelwaarde is.
18. Systeem volgens één van de voorgaande conclusies 11-17, waarbij de door computer uitvoerbare instructies, wanneer uitgevoerd, de processor aanzetten tot:
het ontvangen, vanaf een vaste RFID lezer, van een indicatie dat de vaste RFID lezer een RF signaaltje verstuurd door het eerste beeldopnameapparaat heeft ontvangen;
het bepalen, op basis van de indicatie van de vaste RFID lezer, van een positie van het eerste beeldopnameapparaat;
het ontvangen, van de vaste RFID lezer, van een indicatie dat de vaste RFID lezer een RF signaaltje verstuurd door het tweede beeldopnameapparaat heeft ontvangen;
BE2018/5781 het bepalen, op basis van de indicatie van de vaste RFID lezer, van de positie van het tweede beeldopnameapparaat;
het berekenen, op basis van de positie van het eerste beeldopnameapparaat en de positie van het tweede beeldopnameapparaat, van een afstand tussen het eerste beeldopnameapparaat en het tweede beeldopnameapparaat; en het bepalen of de berekende afstand tussen het eerste beeldopnameapparaat en het tweede beeldopnameapparaat binnen een nabijheidsafstandsdrempelwaarde is.
19. Systeem volgens één van de voorgaande conclusies 11-18, waarbij de door de computer uitvoerbare instructies, de processor aanzetten tot:
het detecteren, door het eerste beeldopnameapparaat, van een kortbereik- draadloos signaal verstuurd door het tweede beeldopnameapparaat; en het bepalen, op basis van het gedetecteerde kortbereik- draadloze signaal, dat het tweede beeldopnameapparaat in de nabijheid is van het eerste beeldopnameapparaat.
20. Systeem volgens één van de voorgaande conclusies 11-19, waarbij de door de computer uitvoerbare instructies, wanneer uitgevoerd, de processor aanzetten tot het:
het combineren van de eerste beelddata en de tweede beelddata om een driedimensionale puntenwolk te vormen; en het dimensioneren van het object gebruikmakend van de driedimensionale puntenwolk.
BE20185781A 2017-11-07 2018-11-07 Werkwijzen en inrichtingen voor het dimensioneren van een object gebruikmakend van nabije apparaten BE1025917B1 (nl)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US201762582908P 2017-11-07 2017-11-07
US15/986,136 US11146775B2 (en) 2017-11-07 2018-05-22 Methods and apparatus for dimensioning an object using proximate devices

Publications (3)

Publication Number Publication Date
BE1025917A1 BE1025917A1 (nl) 2019-08-07
BE1025917A9 BE1025917A9 (nl) 2019-12-17
BE1025917B1 true BE1025917B1 (nl) 2020-02-07

Family

ID=65408835

Family Applications (1)

Application Number Title Priority Date Filing Date
BE20185781A BE1025917B1 (nl) 2017-11-07 2018-11-07 Werkwijzen en inrichtingen voor het dimensioneren van een object gebruikmakend van nabije apparaten

Country Status (6)

Country Link
US (1) US11146775B2 (nl)
CN (1) CN111316059B (nl)
BE (1) BE1025917B1 (nl)
DE (1) DE112018005351T5 (nl)
GB (1) GB2581060B (nl)
WO (1) WO2019094125A1 (nl)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109460690B (zh) * 2017-09-01 2022-10-14 虹软科技股份有限公司 一种用于模式识别的方法和装置
US10930001B2 (en) * 2018-05-29 2021-02-23 Zebra Technologies Corporation Data capture system and method for object dimensioning
CN115046480B (zh) * 2021-03-09 2023-11-10 华为技术有限公司 一种测量长度的方法、电子设备以及移动设备

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2420854A1 (en) * 2010-08-17 2012-02-22 Research In Motion Limited Tagging a location by pairing devices
US20120190403A1 (en) * 2011-01-26 2012-07-26 Research In Motion Limited Apparatus and method for synchronizing media capture in a wireless device
US20150374028A1 (en) * 2013-02-13 2015-12-31 Philip Morris Products S.A. Evaluating porosity distribution within a porous rod

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3324295B2 (ja) * 1994-09-26 2002-09-17 日産自動車株式会社 車両用視線方向計測装置
US7916895B2 (en) 2007-05-07 2011-03-29 Harris Corporation Systems and methods for improved target tracking for tactical imaging
US8253538B1 (en) 2008-05-29 2012-08-28 Marvell International Ltd. Asset management using mobile radio-frequency identification (RFID) readers
US20110190972A1 (en) * 2010-02-02 2011-08-04 Gm Global Technology Operations, Inc. Grid unlock
GB201208088D0 (en) 2012-05-09 2012-06-20 Ncam Sollutions Ltd Ncam
US20140160157A1 (en) 2012-12-11 2014-06-12 Adam G. Poulos People-triggered holographic reminders
US9741134B2 (en) 2013-12-16 2017-08-22 Symbol Technologies, Llc Method and apparatus for dimensioning box object
US10003786B2 (en) * 2015-09-25 2018-06-19 Intel Corporation Method and system of 3D image capture with dynamic cameras
US9952432B2 (en) 2016-04-08 2018-04-24 Symbol Technologies, Llc Arrangement for, and method of, calibrating a wearable apparatus to electro-optically read targets
US10484599B2 (en) * 2016-10-25 2019-11-19 Microsoft Technology Licensing, Llc Simulating depth of field
WO2018098304A1 (en) * 2016-11-22 2018-05-31 Ovesny Erik D System and method for location-based image capture between mobile devices
US10455364B2 (en) * 2016-12-12 2019-10-22 Position Imaging, Inc. System and method of personalized navigation inside a business enterprise
US10818188B2 (en) * 2016-12-13 2020-10-27 Direct Current Capital LLC Method for dispatching a vehicle to a user's location
US11665308B2 (en) * 2017-01-31 2023-05-30 Tetavi, Ltd. System and method for rendering free viewpoint video for sport applications
US10750083B2 (en) * 2018-04-06 2020-08-18 Motorola Solutions, Inc. Systems and methods for processing digital image data representing multiple views of an object of interest

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2420854A1 (en) * 2010-08-17 2012-02-22 Research In Motion Limited Tagging a location by pairing devices
US20120190403A1 (en) * 2011-01-26 2012-07-26 Research In Motion Limited Apparatus and method for synchronizing media capture in a wireless device
US20150374028A1 (en) * 2013-02-13 2015-12-31 Philip Morris Products S.A. Evaluating porosity distribution within a porous rod

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
BRIAN YUNTIAN ET AL: "Overview of RFID-Based Indoor Positioning Technology", 7 December 2012 (2012-12-07), XP055474320, Retrieved from the Internet <URL:https://pdfs.semanticscholar.org/bc61/b9527b2901dcfa4683483373c24ee5a2a642.pdf> [retrieved on 20180511] *

Also Published As

Publication number Publication date
BE1025917A9 (nl) 2019-12-17
WO2019094125A1 (en) 2019-05-16
DE112018005351T5 (de) 2020-06-25
BE1025917A1 (nl) 2019-08-07
CN111316059B (zh) 2021-12-07
CN111316059A (zh) 2020-06-19
GB2581060B (en) 2022-08-24
US11146775B2 (en) 2021-10-12
US20190141312A1 (en) 2019-05-09
GB202005391D0 (en) 2020-05-27
GB2581060A (en) 2020-08-05

Similar Documents

Publication Publication Date Title
US10240914B2 (en) Dimensioning system with guided alignment
US11249305B2 (en) Head-mounted display device and operating method of the same for determining a measurement parameter
BE1025917B1 (nl) Werkwijzen en inrichtingen voor het dimensioneren van een object gebruikmakend van nabije apparaten
EP3165939A1 (en) Dynamically created and updated indoor positioning map
US10152634B2 (en) Methods and systems for contextually processing imagery
US20140375541A1 (en) Eye tracking via depth camera
US20200293793A1 (en) Methods and systems for video surveillance
US20180053352A1 (en) Occluding augmented reality content or thermal imagery for simultaneous display
KR20210150881A (ko) 전자 장치 및 그 동작 방법
US20170178107A1 (en) Information processing apparatus, information processing method, recording medium and pos terminal apparatus
BE1025916B1 (nl) Werkwijzen en inrichtingen voor het snel dimensioneren van een object
CN113661433B (zh) 头戴式显示设备及其操作方法
KR101544957B1 (ko) 레이저 인도 방식을 이용한 증강현실용 헤드 마운트 디스플레이 장치 및 헤드 마운트 디스플레이 방법
US11852823B2 (en) Device and method for measuring depth of object
US20240265568A1 (en) Electronic apparatus, information processing system, and control method
JP2023005398A (ja) 計測装置
US20140176707A1 (en) Determining The Position Of A Consumer In A Retail Store Using A Light Source
CN116013352A (zh) 声音可视化方法、装置、设备、存储介质及程序产品

Legal Events

Date Code Title Description
FG Patent granted

Effective date: 20200207