DE112017001229T5 - BROWSING INTERFACE FOR ARTICLE MATCHES WITH DIFFERENT MEASURES AND LENGTHS - Google Patents
BROWSING INTERFACE FOR ARTICLE MATCHES WITH DIFFERENT MEASURES AND LENGTHS Download PDFInfo
- Publication number
- DE112017001229T5 DE112017001229T5 DE112017001229.5T DE112017001229T DE112017001229T5 DE 112017001229 T5 DE112017001229 T5 DE 112017001229T5 DE 112017001229 T DE112017001229 T DE 112017001229T DE 112017001229 T5 DE112017001229 T5 DE 112017001229T5
- Authority
- DE
- Germany
- Prior art keywords
- image
- zone
- display
- interaction
- display zone
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q30/00—Commerce
- G06Q30/06—Buying, selling or leasing transactions
- G06Q30/0601—Electronic shopping [e-shopping]
- G06Q30/0641—Shopping interfaces
- G06Q30/0643—Graphical representation of items or shoppers
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/0482—Interaction with lists of selectable items, e.g. menus
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/04845—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/0485—Scrolling or panning
Abstract
Es werden Merkmale für eine Schnittstelle zum Browsen von Bildern von Artikeln mit unterschiedlichen Maßstäben und Längen, wie z. B. Kleidung, offenbart. Die Schnittstelle kann zwei Teile eines Subjekts präsentieren, wobei jeder Teil aus verschiedenen Bilder-Datenspeichern ausgewählt wird. Die Schnittstelle kann eine einheitliche Ansicht der Teile bereitstellen. Zum Beispiel kann ein erster Teil einem Bild des Subjekts, das ein Golfhemd und eine lange Hose trägt, entnommen werden. Ein zweiter Teil kann einem Bild des Subjekts in einem langärmeligen Hemd und Shorts entnommen werden. Der erste Teil kann nur das Golfhemd zeigen und der zweite Teil kann nur die Shorts zeigen, wodurch eine Darstellung dessen bereitgestellt wird, wie das Subjekt aussehen würde, wenn es das auf dem ersten Bild gezeigte Hemd mit den auf dem zweiten Bild gezeigten Shorts trüge. Features are provided for an interface for browsing images of articles of different scales and lengths, such as: As clothing disclosed. The interface can present two parts of a subject, with each part selected from different image datastores. The interface can provide a consistent view of the parts. For example, a first part may be taken from an image of the subject wearing a golf shirt and long pants. A second part can be taken from a picture of the subject in a long-sleeved shirt and shorts. The first part can only show the golf shirt and the second part can only show the shorts, providing a representation of what the subject would look like when the shirt shown in the first picture wore the shorts shown in the second image.
Description
HINTERGRUNDBACKGROUND
Ein Bilderfassungssystem kann verwendet werden, um Bilder eines Benutzers über mehrere Tage hinweg aufzunehmen. Die aufgenommenen Bilder können verschiedene Artikel (z. B. Kleidung, Accessoires, Schuhe usw.) beinhalten. Eine Benutzerschnittstelle, die auf einer Anzeige eines elektronischen Geräts präsentiert wird, kann bereitgestellt werden, damit der Benutzer die Bilder durchsuchen kann, die die Outfits oder Looks zeigen, die der Benutzer über einen bestimmten Zeitraum getragen hat. Dies kann bei der Auswahl von Lieblings-Outfits helfen, die häufig getragen wurden, oder bei der Identifizierung von Artikeln, die selten getragen wurden, um sie aus dem Schrank des Benutzers zu entfernen.An imaging system can be used to capture images of a user over several days. The captured images may include various items (eg, clothing, accessories, shoes, etc.). A user interface presented on a display of an electronic device may be provided to allow the user to browse the images showing the outfits or looks worn by the user over a period of time. This may help in the selection of favorite outfits that have been worn frequently, or in identifying items that have rarely been worn to remove them from the user's closet.
Einzelhändler, Händler, Verkäufer, Hersteller, Stylisten, Designer und andere können solche Benutzerschnittstellen bereitstellen oder bewerben, um einem Benutzer das Browsen von Artikeln in einem elektronischen Katalog zu ermöglichen und/oder einen elektronischen Katalog nach Artikeln zu durchsuchen, die zum Kauf oder anderen Erwerb verfügbar sind. Beispielsweise kann der Benutzer durch ein Gitter oder eine Liste von Artikeln blättern. Diese Artikel werden in der Regel in Bildern gezeigt, die aufgenommen wurden, während sie von einem Model oder auf einem Kleiderbügel getragen wurden, aber nicht vom Benutzer, der das Browsen durchführt.Retailers, retailers, vendors, manufacturers, stylists, designers, and others may provide or promote such user interfaces to allow a user to browse articles in an electronic catalog and / or to search an electronic catalog for items to purchase or otherwise purchase Are available. For example, the user may scroll through a grid or list of articles. These items are typically shown in pictures taken while worn by a model or on a hanger, but not by the user browsing.
Figurenlistelist of figures
Ausführungsformen verschiedener erfinderischer Merkmale werden nun anhand der folgenden Zeichnungen beschrieben. In allen Zeichnungen können Bezugszeichen wiederverwendet werden, um die Übereinstimmung zwischen den erwähnten Elementen anzuzeigen. Die Zeichnungen werden bereitgestellt, um die hier beschriebenen beispielhaften Ausführungen zu veranschaulichen und dienen nicht dazu, den Umfang der Offenbarung einzuschränken.
-
1A ist ein bildliches Diagramm, das eine beispielhafte Benutzerschnittstelle veranschaulicht, die zumindest teilweise von einem Browsing-Dienst erzeugt wurde, wobei die Benutzerschnittstelle einen interaktiven Browsing-Bereich mit einem ersten Artikel beinhaltet. -
1B ist ein bildliches Diagramm, das die beispielhafte Benutzerschnittstelle von1A mit einer aktivierten Browsing-Steuerung veranschaulicht. -
1C ist ein bildliches Diagramm, das die beispielhafte Benutzerschnittstelle von1A nach der Aktivierung einer Browsing-Steuerung veranschaulicht. -
2 ist ein Blockdiagramm, das eine veranschaulichende Betriebsumgebung zeigt, in der ein Zugriffsgerät, das einen Browsing-Dienst bereitstellt, es dem Benutzer ermöglicht, das Katalogsystem über Benutzerschnittstellen, wie die in1A ,1B und1C dargestellten, zu browsen. -
3 stellt eine allgemeine Architektur eines beispielhaften Zugriffsgeräts dar, das einen Browsing-Service für das effiziente und interaktive Browsen von Artikeln und/oder Bildern bereitstellt, die von dem Katalogsystem verwaltet werden, das in2 gezeigt ist. -
4 ist ein Flussdiagramm, das ein im Katalogsystem implementiertes beispielhaftes Verfahren zum Browsen von Artikelbildern darstellt. -
5A ist ein bildliches Diagramm eines illustrativen Strukturmodells für ein Subjekt, das in einem Bild erscheint. -
5B ist ein bildliches Diagramm des Bildes, in dem das Subjekt erscheint, das mit dem Strukturmodell von5A abgebildet ist. -
5C zeigt einen Teil des Bildes, das in5B segmentiert gezeigt wird, um den Teil des Bildes zu zeigen, der dem Rumpf und dem Kopf des Subjekts entspricht. -
5D zeigt einen Teil des Bildes, das in5B segmentiert gezeigt wird, um den Teil des Bildes zu zeigen, der den Beinen des Subjekts entspricht. -
6A stellt ein veranschaulichendes Verhältnismodell zur Segmentierung dar. -
6B stellt eine Bildeingabe zur Segmentierung unter Verwendung des Verhältnismodells von6A dar. -
6C stellt ein normalisiertes Bild dar, das mit dem Verhältnismodell von6A erzeugt wurde. -
6D zeigt einen Teil des segmentierten Bildes, um den Teil des Bildes zu zeigen, der dem Rumpf des Subjekts entspricht. -
7 ist ein Flussdiagramm, das ein im Browsing-Dienst implementiertes beispielhaftes Verfahren darstellt. -
8A bis8D stellen die Segmentierung von zwei Bildern und Ausrichtung von segmentierten Teilen aus den zwei Bildern gemäß dem in7 gezeigten Verfahren dar.
-
1A Figure 4 is a pictorial diagram illustrating an exemplary user interface generated, at least in part, by a browsing service, wherein the user interface includes an interactive browsing area with a first article. -
1B is a pictorial diagram illustrating the exemplary user interface of1A with an enabled browsing control. -
1C is a pictorial diagram illustrating the exemplary user interface of1A after enabling a browsing control. -
2 FIG. 4 is a block diagram illustrating an illustrative operating environment in which an access device providing a browsing service enables the user to access the catalog system via user interfaces such as those described in FIG1A .1B and1C shown to browse. -
3 FIG. 4 illustrates a general architecture of an exemplary access device providing a browsing service for efficiently and interactively browsing articles and / or images managed by the catalog system incorporated in2 is shown. -
4 Figure 13 is a flow chart illustrating an exemplary method of browsing article images implemented in the catalog system. -
5A Figure 11 is a pictorial diagram of an illustrative structural model for a subject appearing in an image. -
5B is a pictorial diagram of the picture in which the subject appears, which corresponds to the structural model of5A is shown. -
5C shows a part of the image that is in5B segmented to show the part of the image that corresponds to the subject's torso and head. -
5D shows a part of the image that is in5B segmented to show the part of the image corresponding to the subject's legs. -
6A represents an illustrative ratio model for segmentation. -
6B provides an image input for segmentation using the ratio model of6A represents. -
6C represents a normalized image consistent with the relationship model of6A was generated. -
6D shows a portion of the segmented image to show the portion of the image that corresponds to the subject's torso. -
7 Figure 5 is a flowchart illustrating an example method implemented in the browsing service. -
8A to8D represent the segmentation of two images and alignment of segmented parts from the two images according to the in7 shown method.
AUSFÜHRLICHE BESCHREIBUNGDETAILED DESCRIPTION
Mit dem Aufkommen der digitalen Bildgebung und der Verbreitung von Bildaufnahmesystemen nimmt die Zahl der digital detektierten Bilder weiter zu. Eine gängige Bildart ist ein „Selfie“ oder Selbstporträtbild eines Subjekts. Die Selbstporträts werden typischerweise von einer ähnlichen Stelle (z. B. einer Armlänge entfernt) des Motivs aufgenommen. Die Bilder können lokal auf dem Bilderfassungssystem oder fern in einem vernetzten Datenspeicher gespeichert werden. Das Bildaufnahmesystem kann als eigenständiges Gerät oder mit oder in einem anderen Zugriffsgerät wie einem Fernseher, einer Set-Top-Box, einem Mobiltelefon, einem Spiegel, einer Tür, einem Fenster, einem Armaturenbrett, einem Haushaltsgerät, einem Videokonferenzsystem oder ähnlichem eingesetzt werden. Ein Beispiel für ein Bilderfassungssystem ist in der am 11. Dezember 2015 eingereichten
Individuell können die vom Bilderfassungssystem aufgenommenen Bilder durchsucht werden, um verschiedene Looks des Subjekts im Laufe der Zeit zu identifizieren. Im Folgenden werden einzigartige Merkmale beschrieben, die es ermöglichen, diese unterschiedlichen Bilder so zu kombinieren, dass ein Teil eines ersten Bildes eines Subjekts mit einem Teil eines zweiten Bildes des Subjekts betrachtet werden kann. Zum Beispiel kann ein erster Teil einem Bild des Subjekts, das ein Golfhemd und eine lange Hose trägt, entnommen werden. Ein zweiter Teil kann einem Bild des gleichen Subjekts in einem langärmeligen Hemd und Shorts entnommen werden. Der erste Teil kann nur das Golfhemd zeigen und der zweite Teil kann nur die Shorts zeigen, wodurch eine Darstellung dessen bereitgestellt wird, wie das Subjekt aussehen würde, wenn es das auf dem ersten Bild gezeigte Shirt mit den auf dem zweiten Bild gezeigten Shorts trüge. Die Schnittstelle stellt zwei Teile eines Subjekts dar, wobei jeder Teil aus verschiedenen Datenspeichern von Bildern ausgewählt ist. Die Schnittstelle kann eine einheitliche Ansicht der Teile bereitstellen. Dies stellt eine neue Möglichkeit dar, eine Sammlung von Bildern zu durchsuchen, um neue Kombinationen von Artikeln zu identifizieren, die zusammen getragen werden sollen.Individually, the images captured by the imaging system can be searched to identify different looks of the subject over time. In the following, unique features will be described which make it possible to combine these different images so that a part of a first image of a subject can be viewed with a part of a second image of the subject. For example, a first part may be taken from an image of the subject wearing a golf shirt and long pants. A second part can be taken from a picture of the same subject in a long-sleeved shirt and shorts. The first part can only show the golf shirt and the second part can only show the shorts, providing a representation of what the subject would look like when wearing the shirt shown in the first picture with the shorts shown in the second picture. The interface represents two parts of a subject, each part being selected from different data memories of images. The interface can provide a consistent view of the parts. This provides a new way to search a collection of images to identify new combinations of articles to be matched.
In einem Aspekt wird eine Benutzerschnittstelle zur Präsentation von Teilen zweier verschiedener Bilder beschrieben. Neben dem Anzeigen der Bilder auf der Benutzerschnittstelle werden weitere Aspekte beschrieben, um das Anzeigen der Teile so zu verbessern, dass die Anzeige das Subjekt als Träger eines Outfits darstellt, für das kein Bild existiert. Es kann ein Browsing-Dienst bereitgestellt werden, um die Benutzerschnittstelle und die Bildverarbeitung zum Anzeigen von Bildern darin zu koordinieren.In one aspect, a user interface for presenting parts of two different images is described. In addition to displaying the images on the user interface, other aspects are described to improve the display of the parts so that the display presents the subject as the wearer of an outfit for which no image exists. A browsing service may be provided to coordinate the user interface and image processing for displaying images therein.
Beispiele für die vom Browsing-Dienst implementierte Bildverarbeitung sind die automatische Segmentierung und Ausrichtung der Bilder zur Anzeige über eine Schnittstelle. Die Bilder können unterschiedliche Maßstäbe und Längen aufweisen. Die auf den Bildern gezeigten Artikel, wie z. B. Kleidung, dürfen daher nicht einheitlich dargestellt werden. Segmentierung der Bilder in Bildteile, in denen ein Bildteil einen bestimmten Artikel zeigt, wird beschrieben. Die Segmentierung kann unter Verwendung von Modellen und/oder komplexer Bildanalyse erfolgen, wie nachfolgend beschrieben. Um eine realistische Ansicht des Subjekts zu erhalten, wenn Bildsegmente zusammen auf einer Schnittstelle dargestellt werden, kann eine zusätzliche Ausrichtung der Bildsegmente durchgeführt werden. Die Ausrichtung kann unter Verwendung von Modellen und/oder komplexer Bildanalyse erfolgen, wie nachfolgend beschrieben.Examples of image processing implemented by the browsing service include automatic segmentation and alignment of images for display via an interface. The pictures can have different scales and lengths. The items shown in the pictures, such as. As clothes, therefore, may not be presented uniformly. Segmentation of the images into image parts in which an image part shows a specific article is described. The segmentation may be done using models and / or complex image analysis, as described below. To obtain a realistic view of the subject when displaying image segments together on an interface, additional alignment of the image segments may be performed. The alignment can be done using models and / or complex image analysis, as described below.
Obwohl verschiedene Ausführungen mit Bezug auf Subjekte und Artikel wie Kleidung beschrieben werden, wird davon ausgegangen, dass die beschriebenen Systeme, Verfahren und Vorrichtungen für andere Subjekte (z. B. nicht-menschliche Subjekte) wie Heimtextilien, Kleidung, Kleidungsstücke, Fahrzeuge oder mechanische Vorrichtungen und/oder andere in den Bildern gezeigte Gegenstände (z. B. Lampen, Teppiche, Stühle, Tische, Sofas, Fußmatten, Lenkräder, Felgen, Reifen, Türverkleidungen, Scharniere, Abdeckungen, Tastaturen, Gehäuse usw.) konfiguriert werden können. Wie hierin verwendet, wird der Begriff „Artikel“ nicht nur für die gewöhnliche Bedeutung, sondern auch für die Bezeichnung eines Artikels selbst (z. B. eines bestimmten Produkts) und für seine Beschreibung oder Darstellung in einem Computersystem oder elektronischen Katalog verwendet. Wie aus dem Kontext, in dem er verwendet wird, ersichtlich wird, bezieht sich der Begriff auch hier manchmal nur auf den Gegenstand selbst oder nur auf seine Darstellung im Computersystem.Although various embodiments are described with reference to subjects and articles such as clothing, it is believed that the described systems, methods, and devices are for other subjects (e.g., non-human subjects) such as home furnishings, clothing, garments, vehicles, or mechanical devices and / or other items shown in the pictures (eg, lamps, carpets, chairs, tables, sofas, floor mats, steering wheels, rims, tires, door panels, hinges, covers, keyboards, housings, etc.). As used herein, the term "article" is used not only for the ordinary meaning but also for the designation of an article itself (e.g., a particular product) and for its description or presentation in a computer system or electronic catalog. As can be seen from the context in which it is used, the term here sometimes refers only to the object itself or only to its representation in the computer system.
Die Benutzerschnittstelle
Jede Zone kann einen Teil eines Bildes anzeigen. Wie in
Der erste Teil
In einigen Implementierungen können eines oder mehrere der Bilder aus einem entfernten Bilder-Datenspeicher ausgewählt werden. Wenn beispielsweise das Zugriffsgerät mit der Benutzeroberfläche
Der Datenspeicher der Bilder muss nicht unter Kontrolle oder im Eigentum des Benutzers stehen. Beispielsweise kann die Benutzerschnittstelle
In einigen Implementierungen kann die Benutzerschnittstelle
Wie in
Browsing-Steuerungen sind auch in
Da Teile von Bildern in Anzeigezonen angezeigt werden, kann es wünschenswert sein, die Teile so auszurichten, dass eine realistische, kontinuierliche Ansicht auf des Subjekts gezeigt wird. Die Segmentierung und/oder Ausrichtung der Bilder kann vom Browsing-Dienst durchgeführt werden, um die Teile der Bilder, die über den interaktiven Bildbetrachter
Während der Benutzer den interaktiven Bildbetrachter
Die Benutzerschnittstelle
Eine weitere beispielhafte Steuerung, die im oberen Steuerfeld
Nach Ausführung der Suche können die Suchergebnisse über die Benutzerschnittstelle
Eine weitere beispielhafte Steuerung, die im oberen Steuerfeld
In einigen Implementierungen kann die Auswahl auch die zufällige oder pseudozufällige Auswahl eines Datenspeichers von Bildern beinhalten. Beispielsweise kann der Browsing-Dienst zunächst feststellen, welche Quelle/Quellen von Bildern verwendet werden sollen (z. B. Zugriffsgerät-Bilddatenspeicher, Datenspeicher von Drittanbietern und/oder Katalogsystem(en)) und dann ein Bild aus der identifizierten Quelle identifizieren. Bei Aktivierung der Zufallssteuerung kann die entsprechende Anzeigezone während des Auswahlprozesses einen optischen Hinweis anzeigen. Wenn beispielsweise die Zufallssteuerung für die obere Anzeigezone
Eine weitere beispielhafte Steuerung, die im oberen Steuerfeld
Nach Ausführung der Katalogsuche können die Suchergebnisse über die Benutzerschnittstelle
Die Aktivierung einer Steuerung kann Interaktion mit einem Bereich der Benutzerschnittstelle
Das Steuerfeld kann eine Präferenzsteuerung beinhalten, die so konfiguriert ist, dass sie Präferenzeingabeinformationen für das/den in der jeweiligen Anzeigezone gezeigte/n Bild und/oder Artikel empfängt. Wie in
Das Steuerfeld kann eine Freigabesteuerung beinhalten, die so konfiguriert ist, dass sie Informationen über das in der jeweiligen Anzeigezone angezeigte Bild und/oder Artikel an einen Dritten übermittelt. Wie in
Das Steuerfeld kann eine Löschsteuerung beinhalten, die so konfiguriert ist, dass sie Informationen über das/den in der jeweiligen Anzeigezone gezeigte/n Bild und/oder Artikel zur Löschung an den Browsing-Dienst übermittelt. Wie in
In
Das Katalogsystem
Wie gezeigt, kann ein Zugriffsgerät
Die Katalogsuchanfrage kann Texteingaben wie z. B. einen Suchbegriff beinhalten. In anderen Ausführungsformen kann die Katalogsuche auch Audiodaten beinhalten, die eine Äußerung eines Benutzers darstellen. In einigen Implementierungen kann die Katalogsuche eine Bildsuche sein und Bilddaten aus einer oder mehreren Anzeigezonen der Benutzerschnittstelle
Eine im Katalogsystem
Bei der Identifikation von Artikeln können die Informationen über die Artikel auch aus dem Artikeldatenspeicher
Das Zugriffsgerät
In einigen Implementierungen kann auf ein oder mehrere Elemente des Browsing-Dienstes
Die im Zugriffsgerät
Der Speicher
Beispielsweise beinhaltet der Speicher
Die im Zugriffsgerät
Bei einigen Ausführungsformen kann das Zugriffsgerät
Das Verfahren
Bei Block
Bei Block
Bei Block
Bei Block
War die Art der Interaktion eine Bildeinstellung, kann der erste Teil innerhalb der ersten Anzeigezone proportional zum Ausmaß der Interaktion verschoben werden. Beispielsweise kann der Benutzer den ersten Teil
Segmentierung kann verwendet werden, um den Teil eines Bildes zur Präsentation über eine Anzeigezone identifizieren. In der beispielhaften Implementierung für Kleidung kann ein Bild einer Person die Person zeigen, wie sie verschiedene Artikel trägt. Daher kann es wünschenswert sein, Bilder zu segmentieren, um jede Kategorie von Subjekten in einem Bild zu identifizieren. Eine Möglichkeit, ein Bild zu segmentieren, ist die Verwendung eines Strukturmodells.Segmentation can be used to identify the part of an image for presentation via a display zone. In the exemplary garment implementation, an image of a person may show the person wearing various articles. Therefore, it may be desirable to segment images to identify each category of subjects in an image. One way to segment an image is to use a structural model.
Sobald das strukturelle Schaubild auf das Bild gemappt ist, können Sammlungen von Knoten mit verschiedenen Segmenten des dargestellten Subjekts assoziiert werden. Beispielsweise werden die Knoten X, W, U, V, Y und Z auf einen Teil des Bildes gemappt, der die Beine des Subjekts zeigt. Die Sammlungen von Knoten und Verknüpfungen mit Segmenten können in einem Datenspeicher gespeichert werden, auf den das Bildsegmentierungsmodul
Das Bild kann in Teile unterteilt werden, basierend auf einem gewünschten Segment, das über den interaktiven Bildbetrachter
Eine weitere Möglichkeit, Bilder zu segmentieren, ist ein Verhältnismodell. Ein Verhältnismodell definiert in der Regel Bereiche innerhalb eines Bildes, in denen sich erwartete Teile (z. B. Körperteile) eines Subjekts befinden können. Die Bereiche können als Begrenzungsfelder angegeben werden. In einigen Implementierungen kann das Verhältnismodell als Prozentsatz ausgedrückt werden, so dass das 1/5 des Bildes im Allgemeinen den Kopf des Subjekts, das nächste 2/5 des Bildes den Rumpf und das restliche 2/5 die Beine zeigt.Another way to segment images is a relationship model. A relationship model typically defines areas within an image in which expected parts (eg body parts) of a subject. The ranges can be specified as bounding boxes. In some implementations, the ratio model may be expressed as a percentage such that the 1/5 of the image generally shows the head of the subject, the next 2/5 of the image the torso and the remaining 2/5 the legs.
Die Größen der Teile können mithilfe von Bilderkennungstechniken bestimmt werden, wobei die Person das Verhältnismodell kalibriert, indem sie in einer vorgegebenen Pose steht und die Position bestimmter Bildmerkmale (z. B. Hals, Gesicht, Hände, Hüften, Füße usw.) analysiert. Die Größe der Teile kann über die Benutzerschnittstelle
Ein oder mehrere der über das Verhältnismodell identifizierten Segmente können über den interaktiven Bildbetrachter
Ein Verhältnismodell und ein Strukturmodell sind zwei Beispiele für eine modellgetriebene Bildsegmentierung. Andere Bildsegmentierungsmodelle können zur Erzeugung von Bildsegmenten verwendet werden. Zum Beispiel können Computer-Vision-Modelle verwendet werden, um Bilder zu verarbeiten, um darin gezeigte Merkmale (z. B. Kleidungsstücke, Körperteile) zu identifizieren. Ein Beispiel für ein Computer-Vision-Modell ist ein neuronales Netzwerkmodell. Das neuronale Netzmodell kann auf annotierten Bilddaten trainiert werden, wobei die Annotationen auf interessierende Merkmale hinweisen. Das neuronale Netzmodell kann jedes Pixel im Bild berücksichtigen und das Pixel einem Merkmal zuweisen. Da die annotierten Bilder vom neuronalen Netzmodell verarbeitet werden, um vorhergesagte Merkmale zu erzeugen, werden die Vorhersagen mit den annotierten Merkmalen verglichen. Die Parameter des Modells können so eingestellt werden, dass die Vorhersagen besser mit den kommentierten Merkmalen übereinstimmen. Sobald das neuronale Netzmodell trainiert ist, können unbekannte Bilder verarbeitet werden, um Segmente für das Bild zu identifizieren. Andere Computer-Vision-Techniken, die für die Segmentierung verwendet werden können, sind Subjektlokalisierung, semantische Segmentierung, Kantenerkennung und dergleichen.A relationship model and a structural model are two examples of model-driven image segmentation. Other image segmentation models can be used to create image segments. For example, computer vision models can be used to process images to identify features (e.g., garments, body parts) shown therein. An example of a computer vision model is a neural network model. The neural network model can be trained on annotated image data, the annotations indicating features of interest. The neural network model can take into account each pixel in the image and assign the pixel to a feature. Since the annotated images are processed by the neural network model to produce predicted features, the predictions are compared with the annotated features. The parameters of the model can be set so that the predictions better match the commented features. Once the neural network model is trained, unknown images can be processed to identify segments for the image. Other computer vision techniques that can be used for segmentation are subject location, semantic segmentation, edge detection, and the like.
Bei Block
Bei Block
Nach dem Ausrichten der Mittellinien, falls vorhanden, oder wenn Mittellinien nicht vorhanden sind, kann das Verfahren
Bei Block
Wie in
In
Bei einigen Implementierungen kann der Einstellungsfaktor anhand von Informationen über das im Bild gezeigte Subjekt weiter bestimmt werden. Beispielsweise kann es wünschenswert sein, das Geschlecht des Subjekts zu bestimmen. Je nach Geschlecht können spezifische Einstellungen aggressiver als andere vorgenommen werden. Um zum Beispiel zu vermeiden, dass ein Bild vergrößert wird, um einen visuellen Eindruck einer umfangreichen Taille für Männer zu erwecken, kann der Einstellungsfaktor gewichtet werden, um eine aggressivere vertikale Skalierung als eine horizontale Skalierung zu ermöglichen. Die folgende Gleichung 2 ist ein Ausdruck einer dynamischen Einstellungsfaktorbestimmung, um einen minimalen horizontalen Zoomfaktor basierend auf Informationen über ein im Bild gezeigtes Subjekt zu identifizieren. Konkret liefert Gleichung 2 einen beispielhaften Ausdruck zum Bestimmen eines minimalen horizontalen Zoomfaktors für ein Subjekt mit einem identifizierten Geschlecht (zoomx
In einigen Implementierungen können die Partitionsinformationen verwendet werden, um eine Stelle zu identifizieren, an der die Glättung durchgeführt werden soll. Die Glättung kann Pixel entlang benachbarter Kanten oder innerhalb einer Toleranz der Kante berücksichtigen (z. B. eine Nachbarschaft von 3, 7, 10 oder mehr Pixel). Die Toleranz kann vorgegeben und als Konfigurationswert gespeichert werden. In einigen Implementierungen kann die Toleranz dynamisch generiert werden, basierend auf Faktoren wie Partitionsinformationen, Bilddaten, Bildquelle, Informationen über Elemente oder Subjekte, die in einem Teil gezeigt werden, und dergleichen. Tiefeninformationen können verwendet werden, um Bereiche zur Glättung zu maskieren. Beispielsweise kann ein erster Glättungsvorgang mithilfe eines Hintergrunds aus einem ersten Teil und eines Hintergrunds aus einem zweiten Teil durchgeführt werden. Ein zweiter Glättungsvorgang kann dann auf den Vordergrund des ersten Teils und den Vordergrund des zweiten Teils angewendet werden. In einigen Implementierungen kann ein dritter Glättungsprozess für Verarbeitungsbereiche vorgesehen sein, in denen der Vordergrund des ersten Teils auf den Hintergrund des zweiten Teils trifft. Ebenso kann ein weiterer Glättungsvorgang Bereiche beinhalten, in denen der Hintergrund des ersten Teils auf den Vordergrund des zweiten Teils trifft.In some implementations, the partition information can be used to identify a location where the smoothing should be performed. The smoothing may take into account pixels along adjacent edges or within a tolerance of the edge (eg, a neighborhood of 3, 7, 10, or more pixels). The tolerance can be specified and stored as a configuration value. In some implementations, the tolerance may be dynamically generated based on factors such as partition information, image data, image source, information about elements or subjects shown in a part, and the like. Depth information can be used to mask areas for smoothing. For example, a first smoothing process may be performed using a background of a first part and a background of a second part. A second smoothing operation can then be applied to the foreground of the first part and the foreground of the second part. In some implementations, a third smoothing process may be provided for processing areas in which the foreground of the first part meets the background of the second part. Likewise, another smoothing process may include areas where the background of the first part meets the foreground of the second part.
Das System kann eine Posendefinition speichern, um eine Pose zu identifizieren. Die Posendefinition kann Informationen enthalten, die für ein in der Pose positioniertes Subjekt eine Mittellinie für die Pose und eine Position von zwei oder mehr Punkten relativ zueinander auf dem Subjekt identifizieren. Zum Beispiel können die beiden Punkte eine erste Schulter und eine zweite Schulter des Subjekts sein. Für ein bestimmtes Bild können die Punkte anhand der im Bild enthaltenen oder auf das Bild bezogenen Daten wie z. B. Tiefeninformationen identifiziert werden. Durch Korrelieren der Position der im Bild gezeigten Punkte mit den in der Posendefinition identifizierten Punkten kann die der Posendefinition zugeordnete Pose ermittelt werden. Das System kann die Mittellinie aus der Posendefinition als Mittellinie für das Bild bereitstellen.The system can store a pose definition to identify a pose. The pose definition may include information that identifies, for a subject positioned in the pose, a centerline for the pose and a position of two or more points relative to each other on the subject. For example, the two points may be a first shoulder and a second shoulder of the subject. For a particular image, the dots may be based on the data contained in the image or related to the image, e.g. B. depth information can be identified. By correlating the position of the points shown in the picture with the points identified in the pose definition, the pose associated with the pose definition can be determined. The system can provide the centerline from the pose definition as the centerline for the image.
Je nach Ausführungsform können bestimmte Handlungen, Ereignisse oder Funktionen eines der hier beschriebenen Prozesse oder Algorithmen in einer anderen Reihenfolge ausgeführt, hinzugefügt, zusammengeführt oder ganz weggelassen werden (z. B. sind nicht alle beschriebenen Vorgänge oder Ereignisse für die Praxis des Algorithmus notwendig). Außerdem können in bestimmten Ausführungsformen Vorgänge oder Ereignisse gleichzeitig anstatt sequentiell ausgeführt werden, z. B. durch Multi-Thread-Verarbeitung, Interrupt-Verarbeitung oder mehrere Prozessoren oder Prozessorkerne oder auf anderen parallelen Architekturen.Depending on the embodiment, certain acts, events, or functions of any of the processes or algorithms described herein may be executed, added, merged, or omitted in a different order (eg, not all described acts or events are necessary for the practice of the algorithm). Additionally, in certain embodiments, processes or events may be performed simultaneously rather than sequentially, e.g. By multi-threaded processing, interrupt processing or multiple processors or cores, or other parallel architectures.
Die verschiedenen illustrativen logischen Blöcke, Module, Routinen und Algorithmenschritte, die in Verbindung mit den hier dargestellten Ausführungsformen beschrieben werden, können als elektronische Hardware oder als Kombination aus elektronischer Hardware und ausführbarer Software implementiert werden. Um diese Austauschbarkeit zu verdeutlichen, wurden verschiedene illustrative Komponenten, Blöcke, Module und Schritte allgemein in ihrer Funktionalität beschrieben. Ob diese Funktionalität als Hardware oder als Software, die auf Hardware läuft, implementiert wird, hängt von den jeweiligen Anwendungs- und Designbedingungen des Gesamtsystems ab. Die beschriebene Funktionalität kann für jede einzelne Anwendung unterschiedlich implementiert werden, aber solche Implementierungsentscheidungen sollten nicht als Abweichung vom Umfang der Offenlegung interpretiert werden.The various illustrative logical blocks, modules, routines, and algorithm steps described in connection with the embodiments presented herein may be implemented as electronic hardware or as a combination of electronic hardware and executable software. To illustrate this interchangeability, various illustrative components, blocks, modules and steps have been generally described in terms of their functionality. Whether this functionality is implemented as hardware or software running on hardware depends on the particular application and design conditions of the overall system. The described functionality may be implemented differently for each individual application, but such implementation decisions should not be interpreted as a departure from the scope of the disclosure.
Darüber hinaus können die verschiedenen illustrativen logischen Blöcke und Module, die in Verbindung mit den hier dargestellten Ausführungsformen beschrieben sind, von einer Maschine implementiert oder ausgeführt werden, wie z. B. einem Bild-Browsing-Gerät, einem digitalen Signalprozessor (DSP), einer anwendungsspezifischen integrierten Schaltung (ASIC), einem Field Programmable Gate Array (FPGA) oder einem anderen programmierbaren Logikgerät, diskreter Gate- oder Transistorlogik, diskreten Hardwarekomponenten oder einer beliebigen Kombination davon, die zur Ausführung der hier beschriebenen Funktionen entwickelt wurde. Ein Bild-Browsing-Gerät kann ein Mikroprozessor sein oder enthalten, aber alternativ kann das Bild-Browsing-Gerät eine Steuerung, eine Mikrosteuerung oder eine Zustandsmaschine, Kombinationen davon oder Ähnliches sein oder beinhalten, die so konfiguriert sind, dass sie Bilddaten empfangen, verarbeiten und anzeigen. Ein Bildbetrachtungsgerät kann eine elektrische Schaltung beinhalten, die so konfiguriert ist, dass sie computerausführbare Anweisungen verarbeitet. Obwohl hier vor allem in Bezug auf die Digitaltechnik beschrieben, kann ein Bildsuchgerät auch primär analoge Komponenten beinhalten. Beispielsweise können einige oder alle der hier beschriebenen Browsing-Dienst-Algorithmen in analogen Schaltungen oder gemischten analogen und digitalen Schaltungen implementiert werden. Eine Computerumgebung kann jede Art von Computersystem umfassen, einschließlich, aber nicht beschränkt auf, ein Computersystem, das auf einem Mikroprozessor, einem Großrechner, einem digitalen Signalprozessor, einem tragbaren Computergerät, einer Gerätesteuerung oder einer Rechenmaschine in einer Vorrichtung basiert, um nur einige zu nennen.Moreover, the various illustrative logic blocks and modules described in connection with the embodiments illustrated herein may be implemented or executed by a machine, such as a computer. An image browsing device, a digital signal processor (DSP), an application specific integrated circuit (ASIC), a field programmable gate array (FPGA) or other programmable logic device, discrete gate or transistor logic, discrete hardware components, or any combination that was developed to perform the functions described here. An image browsing device may be or may include a microprocessor, but alternatively, the image browsing device may be or include a controller, a microcontroller, or a state machine, combinations thereof, or the like, that are configured to receive image data and display. An image viewer may include an electrical circuit configured to process computer-executable instructions. Although described above all with respect to digital technology, a picture search device may also include primarily analog components. For example, some or all of the browsing service algorithms described herein may be implemented in analog circuits or mixed analog and digital circuits. A computing environment may include any type of computer system, including, but not limited to, a computer system based on a microprocessor, a mainframe, a digital signal processor, a portable computing device, a device controller, or a computing machine in a device, to name but a few ,
Die Elemente eines Verfahrens, eines Prozesses, einer Routine oder eines Algorithmus, die in Verbindung mit den hier dargestellten Ausführungsformen beschrieben sind, können direkt in Hardware, in einem Softwaremodul, das von einem zusammengesetzten Bildverarbeitungsgerät ausgeführt wird, oder in einer Kombination aus beidem ausgeführt sein. Ein Softwaremodul kann sich in Arbeitsspeicher (RAM), Flash-Speicher, Nur-Lese-Speicher (ROM), löschbaren programmierbaren Nur-Lese-Speicher (EPROM), elektrisch löschbaren programmierbaren Nur-Lese-Speicher (EEPROM), Registern, Festplatte, einer Wechselplatte, einem Nur-Lese-Speicher (CD-ROM) oder jeder anderen Form eines nicht-transitorischen computerlesbaren Speichermediums befinden. Ein beispielhaftes Speichermedium kann mit dem Bild-Browsing-Gerät gekoppelt werden, so dass das Bild-Browsing-Gerät Informationen von dem Speichermedium lesen und auf dieses schreiben kann. Alternativ kann das Speichermedium in das Bild-Browsing-Gerät integriert sein. Das Bild-Browsing-Gerät und das Speichermedium können sich in einem anwendungsspezifischen integrierten Schaltkreis (ASIC) befinden. Der ASIC kann sich in einem Zugriffsgerät oder einem anderen Bildverarbeitungsgerät befinden. Alternativ können sich der Bildsuchgeräteschraubstock und das Speichermedium als diskrete Komponenten in einem Zugriffsgerät oder einem anderen Bildverarbeitungsgerät befinden. Bei einigen Implementierungen kann es sich um ein computerimplementiertes Verfahren handeln, das unter der Steuerung eines Computergeräts, wie z. B. eines Zugriffsgeräts oder eines anderen Bildverarbeitungsgeräts, ausgeführt wird und bestimmte computerausführbare Befehle ausführt.The elements of a method, process, routine or algorithm described in connection with the embodiments presented herein may be implemented directly in hardware, in a software module executed by a composite image processing device, or in a combination of both , A software module may be in random access memory (RAM), flash memory, read only memory (ROM), erasable programmable read only memory (EPROM), electrically erasable programmable read only memory (EEPROM), registers, hard disk, a removable disk, a read-only memory (CD-ROM), or any other form of non-transitory computer-readable storage medium. An exemplary Storage medium may be coupled to the image browsing device so that the image browsing device can read and write information from the storage medium. Alternatively, the storage medium may be integrated with the image browsing device. The image browsing device and the storage medium may reside in an application specific integrated circuit (ASIC). The ASIC may reside in an access device or other image processing device. Alternatively, the image searcher vice and the storage medium may be located as discrete components in an access device or other image processing device. Some implementations may be a computer-implemented method that may be executed under the control of a computing device, such as a computer. An access device or other image processing device, executes and executes certain computer-executable instructions.
Die hierin offenbarten Ausführungsformen können ein computerimplementiertes Verfahren unter Kontrolle einer Rechenvorrichtung beinhalten, die bestimmte computerausführbare Befehle ausführt, einschließlich eines oder mehrere der Folgenden: Empfangen horizontaler Partitionsinformationen für einen interaktiven Anzeigebereich, wobei die horizontalen Partitionsinformationen eine erste Anzeigezone, die sich über einer horizontalen Partition befindet, und eine zweite Anzeigezone, die sich unter der horizontalen Partition befindet, identifizieren können, Identifizieren eines Teils eines ersten Bildes eines Subjekts zum Präsentieren in der ersten Anzeigezone, wobei der Teil des ersten Bildes unter Verwendung einer Größe des interaktiven Anzeigebereichs und der horizontalen Partitionsinformation identifiziert werden kann, wobei der Teil des ersten Bildes mit einer ersten Fläche des interaktiven Anzeigebereichs korrelieren kann, die durch die erste Anzeigezone abgedeckt ist, Identifizieren eines Teils eines zweiten in der zweiten Anzeigezone zu präsentierenden Bildes des Subjekts, wobei der Teil des zweiten Bildes unter Verwendung der Größe des interaktiven Anzeigebereichs und der horizontalen Partitionsinformationen identifiziert werden kann, wobei der Teil des zweiten Bildes mit einem zweiten Betrag des interaktiven Anzeigebereichs korrelieren kann, der durch den zweiten Anzeigebereich abgedeckt ist, Veranlassen, dass der Teil des ersten Bildes in der ersten Anzeigezone und der Teil des zweiten Bildes in der zweiten Anzeigezone präsentiert wird, Erfassen einer Interaktion mit der ersten Anzeigezone in einer ersten Richtung relativ zu der horizontalen Partition, Bestimmen, dass die Interaktion einen Schwellenwert erfüllt, Auswählen eines dritten Bildes aus einer Bilddatenquelle, Identifizieren eines Teils des dritten in der ersten Anzeigezone zu präsentierenden Bildes, wobei der Teil des dritten Bildes unter Verwendung der Größe des interaktiven Anzeigebereichs und der horizontalen Partitionsinformationen identifiziert werden kann, wobei der Teil des dritten Bildes mit dem ersten Betrag des interaktiven Anzeigebereichs korreliert, der durch den ersten Anzeigebereich abgedeckt ist, Veranlassen, dass der Teil des ersten Bildes aus dem ersten Anzeigebereich entlang der ersten Richtung aus dem interaktiven Anzeigebereich bewegt wird und/oder Veranlassen, dass der Teil des dritten Bildes in dem ersten Anzeigebereich entlang der ersten Richtung in den interaktiven Anzeigebereich bewegt wird, um den Teil des ersten Bildes zu ersetzen.The embodiments disclosed herein may include a computer-implemented method under control of a computing device that executes certain computer-executable instructions, including one or more of the following: receiving horizontal partition information for an interactive display area, wherein the horizontal partition information is a first display zone that is over a horizontal partition , and identifying a second display zone located below the horizontal partition, identifying a portion of a first image of a subject for presentation in the first display zone, wherein the portion of the first image identifies using a size of the interactive display area and the horizontal partition information where the portion of the first image may correlate to a first area of the interactive display area covered by the first display zone part of a second image of the subject to be presented in the second display zone, wherein the portion of the second image may be identified using the size of the interactive display area and the horizontal partition information, the portion of the second image correlating to a second amount of the interactive display area For example, when the portion of the first image in the first display zone and the portion of the second image in the second display zone are presented, detecting an interaction with the first display zone in a first direction relative to the horizontal Partition, determining that the interaction meets a threshold, selecting a third image from an image data source, identifying a portion of the third image to be presented in the first display zone, the portion of the third image using the size of the interactive display and the horizontal partition information can be identified, wherein the portion of the third image correlates with the first amount of the interactive display area covered by the first display area, causing the portion of the first image from the first display area to travel along the first direction interactive display area is moved and / or cause the part of the third image in the first display area along the first direction is moved into the interactive display area to replace the part of the first image.
Optional kann die Auswahl des dritten Bildes eine oder mehrere der Folgenden beinhalten: Identifizieren einer Kategorie für einen Artikel, der in dem Teil des ersten Bildes gezeigt wird, Durchsuchen eines Bilddatenspeichers unter Verwendung der Kategorie und/oder Empfangen des dritten Bildes als Reaktion auf die Suche, wobei das dritte Bild einen anderen Artikel aus der Kategorie zeigt. Optional kann das computerimplementierte Verfahren auch eine oder mehrere der Folgenden beinhalten: Erfassen einer zweiten Interaktion mit der ersten Anzeigezone in der ersten Richtung relativ zu der horizontalen Partition; Bestimmen, dass die zweite Interaktion den Schwellenwert nicht erfüllt, und/oder Einstellen des Teils des ersten Bildes des in der ersten Anzeigezone präsentierten Subjekts basierend auf einem Ausmaß der Interaktion und der ersten Richtung. Optional kann das computerimplementierte Verfahren auch eine oder mehrere der Folgenden beinhalten: Speichern der horizontalen Partitionsinformationen, Informationen, die den in der zweiten Anzeigezone präsentierten Teil des zweiten Bildes identifizieren, und Informationen, die den in der ersten Anzeigezone präsentierten Teil des ersten Bildes in einem Sitzungsdatensatz identifizieren, Erzeugen eines Datensatzbezeichners für den Sitzungsdatensatz, Empfangen des Datensatzbezeichners, Abrufen der Sitzungsdatensatzes unter Verwendung des Datensatzbezeichners und/oder Veranlassen einer Einstellung an mindestens einer der horizontalen Partitionen, der ersten Anzeigezone und der zweiten Anzeigezone des interaktiven Anzeigebereichs, um über den interaktiven Anzeigebereich den Teil des ersten Bildes innerhalb der ersten Anzeigezone und den Teil des zweiten Bildes innerhalb der zweiten Anzeigezone zu zeigen.Optionally, the selection of the third image may include one or more of: identifying a category for an article shown in the portion of the first image, browsing an image data store using the category, and / or receiving the third image in response to the search , where the third picture shows another article from the category. Optionally, the computer-implemented method may also include one or more of the following: detecting a second interaction with the first display zone in the first direction relative to the horizontal partition; Determining that the second interaction does not satisfy the threshold and / or adjusting the portion of the first image of the subject presented in the first display zone based on an amount of interaction and the first direction. Optionally, the computer-implemented method may also include one or more of: storing the horizontal partition information, information identifying the part of the second image presented in the second display zone, and information representing the part of the first image presented in the first display zone in a session record identifying, generating a record identifier for the session record, receiving the record identifier, retrieving the session record using the record identifier, and / or making a setting on at least one of the horizontal partitions, the first display zone, and the second display zone of the interactive display area to access the interactive display area To show part of the first image within the first display zone and the part of the second image within the second display zone.
Die hierin offenbarten Ausführungsformen können ein computerimplementiertes Verfahren unter der Kontrolle einer Rechenvorrichtung umfassen, die bestimmte computerausführbare Befehle ausführt, die eine oder mehrere der Folgenden beinhalten: Identifizieren eines Teils eines ersten Bildes eines ersten Artikels zur Präsentation in einer ersten Anzeigezone eines Anzeigebereichs, wobei der Teil des ersten Bilds mit einer ersten Fläche des von der ersten Anzeigezone detektierten Anzeigebereichs korrelieren kann, Identifizieren eines Teils eines zweiten Bilds eines zweiten Artikels zur Präsentation in einer zweiten Anzeigezone des Anzeigebereichs, wobei der Teil des zweiten Bildes mit einer zweiten Fläche des von der zweiten Anzeigezone abgedeckten Anzeigebereichs korrelieren kann, Veranlassen der Präsentation des Teils des ersten Bildes in der ersten Anzeigezone und der Präsentation des Teils des zweiten Bildes in der zweiten Anzeigezone, Erkennen einer Interaktion mit der ersten Anzeigezone detektiertund/oder Einstellen von Bilddaten, die über die erste Anzeigezone präsentiert werden, basierend auf der Interaktion.The embodiments disclosed herein may include a computer-implemented method under the control of a computing device that executes certain computer-executable instructions that include one or more of the following: identifying a portion of a first image of a first article for presentation in a first display zone of a display region; of the first image may correlate to a first area of the display area detected by the first display area, identifying a part of a second image of a second article to Presenting in a second display zone of the display area, wherein the portion of the second image may correlate to a second area of the display area covered by the second display zone, causing the presentation of the portion of the first image in the first display zone and the presentation of the portion of the second image in the display area second display zone, detecting an interaction with the first display zone and / or adjusting image data presented via the first display zone based on the interaction.
Optional kann die Interaktion ein Interaktionsausmaß und eine Interaktionsrichtung beinhalten, wobei das Einstellen der über die erste Anzeigezone präsentierten Bilddaten das Einstellen des Teils des ersten Bildes des in der ersten Anzeigezone präsentierten Subjekts basierend auf dem Ausmaß der Interaktion und der Interaktionsrichtung beinhalten kann. Optional kann die Interaktion ein Interaktionsausmaß und eine Interaktionsrichtung beinhalten, wobei das Einstellen der über die erste Anzeigezone präsentierten Bilddaten eine oder mehrere der Folgenden beinhalten kann: Bestimmen, dass das Interaktionsausmaß einen Interaktionsschwellenwert überschreitet; Auswählen eines dritten Bildes; Identifizieren eines in der ersten Anzeigezone zu präsentierenten Teils, wobei der Teil des dritten Bildes mit einer ersten Fläche des von der ersten Anzeigezone abgedeckten Anzeigebereichs korrelieren kann, und/oder Veranlassen, dass das Präsentieren des Teil des ersten Bildes in der ersten Anzeigezone durch das Präsentieren des Teils des dritten Bildes ersetzt wird.Optionally, the interaction may include an amount of interaction and an interaction direction, wherein adjusting the image data presented via the first display zone may include adjusting the portion of the first image of the subject presented in the first display zone based on the amount of interaction and the direction of interaction. Optionally, the interaction may include an extent of interaction and an interaction direction, wherein adjusting the image data presented via the first display zone may include one or more of: determining that the extent of interaction exceeds an interaction threshold; Selecting a third image; Identifying a portion to be presented in the first display zone, wherein the portion of the third image may correlate to a first area of the display area covered by the first display zone, and / or causing the portion of the first image in the first display zone to be presented by presenting the part of the third image is replaced.
Optional kann das Veranlassen der Präsentation des Teils des ersten Bildes von der ersten zu ersetzenden Anzeigezone beinhalten, zu veranlassen, dass das Präsentieren des Teils des ersten Bildes aus der ersten Anzeigezone als Verlassen des Anzeigebereichs entlang der Interaktionsrichtung erfolgt, und zu veranlassen, dass das Präsentieren des Teils des dritten Bildes als Verlagerung in den Anzeigebereich entlang der Interaktionsrichtung erfolgt. Optional kann die Auswahl des dritten Bildes eine oder mehrere der Folgenden beinhalten: Identifizieren einer Kategorie für den ersten Artikel, der in dem Teil des ersten Bildes gezeigt wird, Durchsuchen eines Bilddatenspeichers unter Verwendung der Kategorie und/oder Empfangen des dritten Bildes als Reaktion auf das Durchsuchen des Bilddatenspeichers, wobei das dritte Bild einen anderen Artikel aus der Kategorie zeigen kann.Optionally, causing the presentation of the portion of the first image from the first display zone to be replaced may include causing the portion of the first image from the first display zone to appear as leaving the display area along the direction of interaction, and causing the presentation of the part of the third image as a shift into the display area along the direction of interaction takes place. Optionally, the selection of the third image may include one or more of the following: identifying a category for the first article shown in the portion of the first image, browsing an image data store using the category and / or receiving the third image in response to the image Browsing the image data store, where the third image can show another article from the category.
Optional kann das computerimplementierte Verfahren ferner eines der Folgenden beinhalten: Erzeugen eines Pseudozufallswertes und/oder Auswählen des dritten Bildes aus einem Satz von Bildern, die als Reaktion auf die Suche im Bilddatenspeicher unter Verwendung des Pseudozufallswertes empfangen wurden. Optional kann das Durchsuchen des Bilddatenspeichers das Übermitteln einer Suchanfrage über ein Netzwerk an den Bilddatenspeicher beinhalten, und das Veranlassen des Präsentierens des dritten Bildes kann das Veranlassen des Präsentierens eines sichtbaren Artefakts für einen Teil des Artikels beinhalten, wie in dem Teil des dritten Bildes gezeigt, wobei das sichtbare Artefakt anzeigt, dass das dritte Bild von dem Bilddatenspeicher empfangen wurde.Optionally, the computer-implemented method may further include one of the following: generating a pseudorandom value and / or selecting the third image from a set of images received in response to the search in the image data store using the pseudorandom value. Optionally, browsing the image data storage may include communicating a search query over a network to the image data store, and causing the presentation of the third image may include causing the presentation of a visible artifact for a portion of the article as shown in the portion of the third image; wherein the visible artifact indicates that the third image was received from the image data store.
Optional kann das computerimplementierte Verfahren auch eines oder mehrere der Folgenden beinhalten: Speichern von Informationen, die den in der zweiten Anzeigezone präsentierten Teil des zweiten Bildes identifizieren, und Informationen, die den in der ersten Anzeigezone präsentierten Teil des ersten Bildes in einem Sitzungsdatensatz identifizieren und einen Datensatzbezeichner für den Sitzungsdatensatz erzeugen, Empfangen des Datensatzbezeichners, Abrufen der Sitzungsdatensatzes unter Verwendung des Datensatzbezeichners und/oder Veranlassen einer Einstellung an mindestens einer der ersten Anzeigezone und der zweiten Anzeigezone, um über den Anzeigebereich den Teil des ersten Bildes innerhalb der ersten Anzeigezone und den Teil des zweiten Bildes innerhalb der zweiten Anzeigezone zu zeigen. Optional kann das computerimplementierte Verfahren ferner eines oder mehrere der Folgenden beinhalten: Empfangen von horizontalen Partitionsinformationen über den Anzeigebereich, wobei die horizontalen Partitionsinformationen die erste Anzeigezone oberhalb einer horizontalen Partition und die zweite Anzeigezone unterhalb der horizontalen Partition identifizieren können, wobei der Teil des ersten Bildes und der Teil des zweiten Bildes unter Verwendung einer Größe des Anzeigebereichs und der horizontalen Partitionsinformationen identifiziert werden können.Optionally, the computer-implemented method may also include one or more of the following: storing information identifying the portion of the second image presented in the second display zone and information identifying the portion of the first image presented in the first display zone in a session record; Create record identifiers for the session record, receiving the record identifier, retrieving the session record using the record identifier, and / or causing a setting on at least one of the first display zone and the second display zone to display, via the display area, the portion of the first image within the first display zone and the portion of the second image within the second display zone. Optionally, the computer-implemented method may further include one or more of: receiving horizontal partition information about the display area, the horizontal partition information identifying the first display zone above a horizontal partition and the second display zone below the horizontal partition, the portion of the first image and the part of the second image can be identified using a size of the display area and the horizontal partition information.
Die hierin offenbarten Ausführungsformen können ein System beinhalten, das ein oder mehrere von einem Datenspeicher, der bestimmte computerausführbare Befehle speichert, und eine Rechenvorrichtung in Kommunikation mit dem Datenspeicher aufweist, wobei die Rechenvorrichtung einen Prozessor beinhaltet, der bestimmte computerausführbare Befehle ausführt, die das System zu einem oder mehreren der Folgenden veranlassen: Identifizieren eines Teils eines ersten Bildes eines ersten Artikels zum Präsentieren in der ersten Zone eines Anzeigebereichs, wobei der Teil des ersten Bildes mit einer ersten Fläche des von der ersten Zone detektierten Anzeigebereichs korrelieren kann, Identifizieren eines Teils eines zweiten Bildes eines zweiten Artikels zum Präsentieren der in einer zweiten Zone des Anzeigebereichs, wobei der Teil des zweiten Bildes mit einer zweiten Fläche des von der zweiten Zone abgedeckten Anzeigebereichs korrelieren kann, Veranlassen der Präsentation des Teils des ersten Bildes in der ersten Zone und die Präsentation des Teils des zweiten Bildes in der zweiten Zone, Erfassen einer Interaktion mit der ersten Zone und/oder Einstellen von Bilddaten, die über die erste Zone präsentiert werden, basierend auf der Interaktion.The embodiments disclosed herein may include a system having one or more of a data store storing particular computer-executable instructions and a computing device in communication with the data store, the computing device including a processor that executes certain computer-executable instructions that the system allocates one or more of the following: identifying a portion of a first image of a first article for presentation in the first zone of a display area, wherein the portion of the first image may correlate to a first area of the display area detected by the first zone, identifying a portion of a second one An image of a second article for presenting in a second zone of the display area, wherein the portion of the second image may correlate to a second area of the display area covered by the second zone, causing the presentation of the portion of the first Picture in the first zone and the presentation of the part of the second image in the second zone, detecting an interaction with the first zone and / or adjusting image data presented over the first zone based on the interaction.
Optional kann die Interaktion ein Interaktionsausmaß und eine Interaktionsrichtung beinhalten, wobei der Prozessor die bestimmten computerausführbaren Befehle ausführen kann, um die über die erste Anzeigezone präsentierten Bilddaten anzupassen, indem das System veranlasst wird, mindestens den Teil des ersten Bildes des in der ersten Zone präsentierten Subjekts basierend auf dem Ausmaß der Interaktion und der Interaktionsrichtung anzupassen. Optional kann die Interaktion ein Interaktionsausmaß und eine Interaktionsrichtung beinhalten, wobei der Prozessor die bestimmten computerausführbaren Befehle ausführen kann, um die über die erste Anzeigezone präsentierten Bilddaten einzustellen, indem das System zu einem oder mehreren der Folgenden veranlasst wird: Bestimmen, dass das Interaktionsausmaß einen Interaktionsschwellenwert überschreitet, Auswählen eines dritten Bildes, Identifizieren eines in der ersten Zone zu präsentierenden Teils, wobei der Teil des dritten Bildes mit einer ersten Fläche des von der ersten Anzeigezone abgedeckten Anzeigebereichs korrelieren kann, und/oder Veranlassen, dass das Präsentieren des Teils des ersten Bildes in der ersten Zone durch das Präsentieren des Teils des dritten Bildes ersetzt wird.Optionally, the interaction may include an extent of interaction and an interaction direction, wherein the processor may execute the particular computer-executable instructions to adjust the image data presented over the first display zone by causing the system to include at least the portion of the first image of the subject presented in the first zone based on the extent of interaction and the direction of interaction. Optionally, the interaction may include an interaction extent and direction of interaction, wherein the processor may execute the particular computer-executable instructions to adjust the image data presented over the first display zone by causing the system to: determine that the interaction extent is an interaction threshold exceeding, selecting a third image, identifying a portion to be displayed in the first zone, wherein the portion of the third image may correlate to a first area of the display area covered by the first display zone, and / or causing the portion of the first image to be presented in the first zone is replaced by presenting the part of the third image.
Optional kann der Prozessor die bestimmten computerausführbaren Befehle ausführen, um zu veranlassen, dass das Präsentieren des Teils des ersten Bildes von der ersten Zone ersetzt wird, indem das System mindestens dazu veranlasst wird, dass das Präsentieren des Teils des ersten Bildes aus der ersten Zone als Verlassen des Anzeigebereichs entlang der Interaktionsrichtung erfolgt, und/oder möglicherweise Veranlassen, dass das Präsentieren des Teils des dritten Bildes in der ersten Zone als Verlagerung in den Anzeigebereich entlang der Interaktionsrichtung erfolgt. Optional kann der Prozessor die bestimmten computerausführbaren Befehle ausführen, um das dritte Bild auszuwählen, indem das System zu einem oder mehreren der Folgenden veranlasst wird: Identifizieren einer Kategorie für den ersten Artikel, der in dem Teil des ersten Bildes gezeigt wird, Durchsuchen eines Bilddatenspeichers unter Verwendung der Kategorie und/oder Empfangen des dritten Bildes als Reaktion auf das Durchsuchen des Bilddatenspeichers, wobei das dritte Bild einen anderen Artikel aus der Kategorie zeigen kann.Optionally, the processor may execute the particular computer-executable instructions to cause the presentation of the portion of the first image to be replaced by the first zone by at least causing the system to present the portion of the first image from the first zone as Leaving the display area along the direction of interaction occurs, and / or possibly causing the presentation of the portion of the third image in the first zone as a shift into the display area along the direction of interaction. Optionally, the processor may execute the particular computer-executable instructions to select the third image by causing the system to do one or more of the following: identifying a category for the first article shown in the portion of the first image, browsing an image data store at Using the category and / or receiving the third image in response to browsing the image data store, wherein the third image may show another article from the category.
Optional kann der Prozessor die bestimmten computerausführbaren Befehle ausführen, um das System ferner zu einem oder mehreren der Folgenden zu veranlassen: Erzeugen eines Pseudozufallswertes und/oder Auswählen des dritten Bildes aus einem Satz von Bildern, die als Reaktion auf die Suche im Bilddatenspeicher unter Verwendung des Pseudozufallswertes empfangen wurden.Optionally, the processor may execute the particular computer-executable instructions to further cause the system to generate one or more of the following: generating a pseudo-random value and / or selecting the third image from a set of images in response to the search in the image data store using the Pseudo-random value were received.
Optional kann der Prozessor die bestimmten computerausführbaren Befehle ausführen, um den Bilddatenspeicher zu durchsuchen, indem das System zumindest zum Übermitteln einer Suchanfrage über ein Netzwerk an den Bilddatenspeicher veranlasst wird, und wobei der Prozessor die bestimmten computerausführbaren Befehle ausführen kann, um das Präsentieren des dritten Bildes zu veranlassen, indem das System zumindest zum Präsentieren eines sichtbaren Artefakts für einen Teil des Artikels veranlasst wird, wie in dem Teil des dritten Bildes gezeigt, wobei das sichtbare Artefakt darauf hinweist, dass das dritte Bild von dem Bilddatenspeicher empfangen wurde.Optionally, the processor may execute the particular computer-executable instructions to search the image data store by causing the system, at a minimum, to transmit a query to the image data store over a network, and wherein the processor may execute the particular computer-executable instructions to present the third image by causing the system to at least display a visual artifact for a portion of the article, as shown in the portion of the third image, the visible artifact indicating that the third image was received from the image data store.
Optional kann der Prozessor die bestimmten computerausführbaren Befehle ausführen, um das System ferner zu einem oder mehreren der Folgenden zu veranlassen: Speichern von Informationen, die den in der zweiten Zone präsentierten Teil des zweiten Bildes identifizieren, und Informationen, die den in der ersten Zone präsentierten Teil eines Bildes in einem Sitzungsdatensatz identifizieren, Erzeugen eines Datensatzbezeichners für den Sitzungsdatensatz, Empfangen des Datensatzbezeichners, Abrufen der Sitzungsdatensatzes unter Verwendung des Datensatzbezeichners und/oder Veranlassen einer Einstellung an mindestens einer der ersten Anzeigezone und der zweiten Anzeigezone, um über den Anzeigebereich den Teil des ersten Bildes innerhalb der ersten Anzeigezone und den Teil des zweiten Bildes innerhalb der zweiten Anzeigezone zu zeigen. Optional kann der Prozessor die bestimmten computerausführbaren Befehle ausführen, um das System ferner zu einem oder mehreren der Folgenden zu veranlassen: Empfangen von horizontalen Partitionsinformationen über den Anzeigebereich, wobei die horizontalen Partitionsinformationen die erste Zone oberhalb einer horizontalen Partition und die zweite Zone unterhalb der horizontalen Partition identifizieren können, wobei der Teil des ersten Bildes und der Teil des zweiten Bildes unter Verwendung einer Größe des Anzeigebereichs und der horizontalen Partitionsinformationen identifiziert werden können.Optionally, the processor may execute the particular computer-executable instructions to further cause the system to do one or more of: storing information identifying the part of the second image presented in the second zone and information presenting the one presented in the first zone Identify part of an image in a session record, generate a record identifier for the session record, receive the record identifier, retrieve the session record using the record identifier, and / or make a setting on at least one of the first display zone and the second display zone to display the part of the display area first image within the first display zone and the portion of the second image within the second display zone. Optionally, the processor may execute the particular computer-executable instructions to further cause the system to receive one or more of: receiving horizontal partition information about the display area, wherein the horizontal partition information is the first zone above a horizontal partition and the second zone below the horizontal partition wherein the portion of the first image and the portion of the second image may be identified using a size of the display area and the horizontal partition information.
Die hier offenbarten Ausführungsformen können ein computerimplementiertes Verfahren umfassen, das unter der Kontrolle einer Rechenvorrichtung steht, die bestimmte computerausführbare Befehle ausführt, einschließlich eines oder mehrerer der Folgenden: Empfangen eines ersten Bildes eines menschlichen Subjekts und eines zweiten Bildes des menschlichen Subjekts, wobei das menschliche Subjekt einen Rumpf und Beine beinhalten kann, Erzeugen eines normalisierten erstes Bild aus dem ersten Bild und eines normalisierten zweiten Bilds aus dem zweiten Bild erzeugt wird, wobei das normalisierte erste Bild und das normalisierte zweite Bild das menschliche Subjekt in einem gemeinsamen Maßstab zeigen, Empfangen eines Bildsegmentierungsmodells zum Segmentieren des normalisierten ersten Bildes und des normalisierten zweiten Bildes, Erzeugen eines ersten Bildteils unter Verwendung des Bildsegmentierungsmodells und des normalisierten ersten Bildes, wobei der erste Bildteil den Rumpf des menschlichen Subjekts zeigt, Erzeugen eines zweiten Bildteils unter Verwendung des Bildsegmentierungsmodells und des normalisierten zweiten Bildes, wobei der zweite Bildteil die Beine des menschlichen Subjekts zeigt, Veranlassen des Präsentierens des ersten Bildteils und des zweiten Bildteils über eine Anzeige, und/oder Veranlassen des Präsentierens des erste Bildteils über die Anzeige in vertikaler Ausrichtung mit dem zweiten Bildteil, wobei das Veranlassen, dass der erste Bildteil über die Anzeige in vertikaler Ausrichtung mit dem zweiten Bildteil präsentiert wird, eine oder mehrere der Folgenden beinhalten kann: Erfassen einer ersten Pose des menschlichen Subjekts, die in dem ersten Bild gezeigt wird, Erfassen einer zweiten Pose des im zweiten Bild gezeigten menschlichen Subjekts, Identifizieren einer ersten Mittellinie für die erste Pose, Identifizieren einer zweiten Mittellinie für die zweite Pose, und/oder Veranlassen, dass der erste Bildteil und der zweite Bildteil über die Anzeige präsentiert werden, wobei die erste Mittellinie und die zweite Mittellinie ausgerichtet sind.The embodiments disclosed herein may include a computer-implemented method under the control of a computing device executing particular computer-executable instructions, including one or more of the following: receiving a first image of a human subject and a second image of the human subject a fuselage and legs, generating a normalized first image from the first image and a normalized second image from the second image, wherein the normalized first image and the normalized second image show the human subject on a common scale, receiving an image segmentation model for segmenting the normalized first image and the normalized second image, generating a first image part using the image segmentation model and the normalized first image, wherein the first image part showing the body of the human subject, generating a second image portion using the image segmentation model and the normalized second image, the second image portion showing the legs of the human subject, causing the presentation of the first image portion and the second image portion via display, and / or causing presenting the first image part via the display in vertical alignment with the second image part, wherein causing the first image part to be presented via the display in vertical alignment with the second image part, one or me More particularly, detecting the first pose of the human subject shown in the first image, detecting a second pose of the human subject shown in the second image, identifying a first centerline for the first pose, identifying a second centerline for the second pose Pose, and / or causing the first image portion and the second image portion to be presented over the display, wherein the first centerline and the second centerline are aligned.
Optional kann das computerimplementierte Verfahren ferner eine oder mehrere der Folgenden umfassen: Empfangen einer ersten Tiefeninformation für das erste Bild und einer zweiten Tiefeninformation für das zweite Bild, wobei die erste Tiefeninformation und die zweite Tiefeninformation jeweils einen Abstand des Subjekts von einem oder mehreren Sensoren angeben können, die zum Erfassen des ersten Bildes und des zweiten Bildes verwendet werden, wobei das Erzeugen eines normalisierten ersten Bildes und eines normalisierten zweiten Bildes die Skalierung mindestens eines des ersten Bildes und des zweiten Bildes beinhalten kann, so dass der Abstand von dem einen oder den mehreren Sensoren des Subjekts, wie in dem normalisierten ersten Bild gezeigt, gleich dem Abstand von dem einen oder den mehreren Sensoren des Subjekts, wie in dem normalisierten zweiten Bild gezeigt, ist. Optional kann das Bildsegmentierungsmodell ein oder mehrere Skelettmodelle für das menschliche Subjekt beinhalten, wobei das Skelettmodell eine Position für den Rumpf und die Beine des Subjekts identifiziert, wobei das Erzeugen des ersten Bildteils des normalisierten ersten Bildes das Mappen des Skelettmodells auf das normalisierte erste Bild beinhalten kann, um eine Position des Rumpfes zu identifizieren, und wobei das Erzeugen des zweiten Bildteils des normalisierten zweiten Bildes das Mappen des Skelettmodells auf das normalisierte zweite Bild beinhalten kann, um eine Position der Beine zu identifizieren, ein Computer-Vision-Modell, wobei das Computer-Vision-Modell für ein gegebenes Bild den Stamm und die Beine des Subjekts identifiziert, wobei das Erzeugen des ersten Bildteils des normalisierten ersten Bildes das Verarbeiten des normalisierten ersten Bildes unter Verwendung des Computer-Vision-Modells beinhalten kann, um eine Position des Stammes zu identifizieren, und wobei das Erzeugen des zweiten Bildteils des normalisierten zweiten Bildes die Verarbeitung des normalisierten zweiten Bildes unter Verwendung des Computer-Vision-Modells zum Identifizieren einer Position der Beine und/oder eines Verhältnismodells, das einen ersten Teil eines Bildes als einen Rumpfbereich und einen zweiten Teil des Bildes als einen Beinbereich anzeigt, beinhalten kann, wobei das Erzeugen des ersten Bildteils des normalisierten ersten Bildes ein oder mehrere Identifizierungspixel aus dem ersten Bild, das in dem durch das Verhältnismodell angegebenen Rumpfbereich enthalten ist, beinhalten kann, Erzeugen des ersten Bildteils unter Verwendung der Pixel aus dem ersten Bild, das im Stammbereich enthalten ist, und/oder wobei das Erzeugen des zweiten Bildteils des normalisierten zweiten Bildes die Identifizierung von Pixeln aus dem zweiten Bild, das in dem durch das Verhältnismodell angegebenen Beinbereich enthalten ist, und/oder das Erzeugen des zweiten Bildteils unter Verwendung der Pixel aus dem zweiten Bild, das in dem Beinbereich enthalten ist, beinhalten kann.Optionally, the computer-implemented method may further comprise one or more of: receiving first depth information for the first image and second depth information for the second image, wherein the first depth information and the second depth information may each indicate a distance of the subject from one or more sensors used to capture the first image and the second image, wherein generating a normalized first image and a normalized second image may include scaling at least one of the first image and the second image such that the distance from the one or more Sensors of the subject, as shown in the normalized first image, equal to the distance from the one or more sensors of the subject, as shown in the normalized second image. Optionally, the image segmentation model may include one or more skeletal models for the human subject, wherein the skeletal model identifies a position for the torso and legs of the subject, wherein generating the first image portion of the normalized first image may include mapping the skeletal model to the normalized first image to identify a position of the trunk, and wherein generating the second image portion of the normalized second image may include mapping the skeletal model to the normalized second image to identify a position of the legs, a computer vision model, wherein the computer Vision model for a given image identifies the stem and legs of the subject, wherein generating the first image portion of the normalized first image may include processing the normalized first image using the computer vision model to approximate a position of the stem identify, and where the Generating the second image portion of the normalized second image processing the normalized second image using the computer vision model to identify a position of the legs and / or a ratio model comprising a first portion of an image as a body region and a second portion of the image indicates a leg region, wherein generating the first image part of the normalized first image may include one or more identification pixels from the first image included in the body region indicated by the ratio model; generating the first image part using the pixels from the first image part the first image contained in the stem region, and / or wherein generating the second image part of the normalized second image identifies pixels from the second image contained in the leg region indicated by the ratio model and / or generating the second image part using d it may include pixels from the second image contained in the leg region.
Optional kann das Erfassen einer Pose des in einem Bild gezeigten menschlichen Subjekts eine oder mehrere der Folgenden beinhalten: Empfangen einer Posendefinition, die die Pose identifiziert, wobei die Posendefinition Informationen enthält, die eine erste Schulterposition relativ zu einer zweiten Schulterposition für ein in der Pose positioniertes Subjekt und eine Mittellinie für die Pose identifizieren, Identifizieren einer ersten Position innerhalb des Bildes, die eine erste Schulter des menschlichen Subjekts zeigt, Identifizieren einer zweiten Position innerhalb des Bildes, die eine zweite Schulter des menschlichen Subjekts zeigt, und/oder Identifizieren der Posendefinition durch Vergleich der ersten Position und der zweiten Position mit den Informationen, die die erste Schulterposition relativ zu der zweiten Schulterposition identifizieren. Optional kann das computerimplementierte Verfahren auch einen oder mehrere der Folgenden beinhalten: Identifizieren eines ersten Pixels in dem ersten Bildteil, der sich innerhalb eines Schwellenabstands von einem zweiten Pixel in dem zweiten Bildteils befindet, Mischen eines Farbwerts des ersten Pixels mit einem Farbwert des zweiten Pixels, um einen gemischten Farbwert zu erzeugen, und/oder Zuweisen des gemischten Farbwerts an das erste Pixel.Optionally, detecting a pose of the human subject shown in an image may include one or more of the following: receiving a pose definition identifying the pose, the pose definition including information including a first shoulder position relative to a second shoulder position for a pose positioned in the pose Identify a subject and a pose centerline, identify a first position within the image that shows a first shoulder of the human subject, identify a second position within the image that shows a second shoulder of the human subject, and / or identify the pose definition Comparing the first position and the second position with the information identifying the first shoulder position relative to the second shoulder position. Optionally, the computer-implemented method may also include one or more of the following: identifying a first pixel in the first image part that is within a threshold distance of a second pixel in the second image part, mixing a color value of the first pixel with a color value of the second pixel, to generate a mixed color value, and / or assign the mixed color value to the first pixel.
Die hier offenbarten Ausführungsformen können ein computerimplementiertes Verfahren beinhalten, das unter der Kontrolle einer Rechenvorrichtung steht, die bestimmte computerausführbare Befehle ausführt, einschließlich eines oder mehrerer der Folgenden: Erzeugen eines ersten Bildteils aus einem ersten Bild, wobei der erste Bildteil einen ersten Teil eines Subjekts zeigt, Erzeugen eines zweiten Bildteils aus einem zweiten Bild, wobei der zweite Bildteil einen zweiten Teil des Subjekts zeigt, Veranlassen der Präsentation des ersten Bildteils und des zweiten Bildteils über eine Anzeige und/oder die Ausrichtung des ersten Bildteils und des zweiten Bildteils, wie über die Anzeige präsentiert, um eine einzige Ansicht des Subjekts einschließlich des ersten Teils des Subjekts und des zweiten Teils des Subjekts bereitzustellen.The embodiments disclosed herein may be a computer-implemented method which is under the control of a computing device that executes certain computer-executable instructions, including one or more of the following: generating a first image portion from a first image, the first image portion showing a first portion of a subject, generating a second image portion from a second image portion Image, the second image portion showing a second portion of the subject, causing the presentation of the first image portion and the second image portion via a display and / or the orientation of the first image portion and the second image portion as presented via the display to be a single view of the image To provide subject including the first part of the subject and the second part of the subject.
Optional kann das computerimplementierte Verfahren ein oder mehrere der Folgenden beinhalten: Empfangen eines Skelettmodells für das Subjekt, wobei das Skelettmodell eine Position für einen Teil des Subjekts identifiziert, wobei das Erzeugen des ersten Bildteils das Mappen des Skelettmodells auf das erste Bild beinhaltet, um eine Position des ersten Teils des Subjekts zu identifizieren, der in dem ersten Bild gezeigt wird, und/oder wobei das Erzeugen des zweiten Bildteils das Mappen des Skelettmodells auf das zweite Bild beinhaltet, um eine Position des zweiten Teils des Subjekts zu identifizieren, der in dem zweiten Bild gezeigt wird. Optional kann das Ausrichten des ersten Bildteils und des zweiten Bildteils eine oder mehrere der Folgenden beinhalten: Mapping des Skelettmodells auf das zweite Bild, um eine Position des ersten Teils des im zweiten Bild gezeigten Subjekts zu identifizieren, Bestimmen eines Einstellungsfaktors, der eine Positionseinstellung auf das zweite Bild angibt, um die Position des ersten Teils des im zweiten Bild gezeigten Subjekts und des ersten Teils des im ersten Bild gezeigten Subjekts auszurichten, und/oder das Veranlassen einer Einstellung des zweiten Bildteils, wie über die Anzeige präsentiert, unter Verwendung des Einstellungsfaktors.Optionally, the computer-implemented method may include one or more of: receiving a skeletal model for the subject, wherein the skeletal model identifies a position for a portion of the subject, wherein generating the first image portion includes mapping the skeletal model to the first image by one position of the first part of the subject shown in the first image, and / or wherein generating the second image part includes mapping the skeletal model to the second image to identify a position of the second part of the subject that is in the second Picture is shown. Optionally, aligning the first image part and the second image part may include one or more of the following: mapping the skeleton model to the second image to identify a position of the first part of the subject shown in the second image, determining a setting factor that sets a position on the second image indicating a second image to align the position of the first part of the subject shown in the second image and the first part of the subject shown in the first image, and / or causing adjustment of the second image part as presented via the display using the adjustment factor.
Optional kann das computerimplementierte Verfahren eines oder mehrere der Folgenden beinhalten: Empfangen eines Verhältnismodells, das einen ersten Bereich eines Bildes einschließlich des ersten Teils des Subjekts und einen zweiten Bereich des Bildes einschließlich des zweiten Teils des Subjekts angibt, wobei das Erzeugen des ersten Bildteils ein oder mehrere identifizierende Pixel aus dem ersten Bild beinhalten kann, das in dem durch das Verhältnismodell angegebenen ersten Bereich enthalten ist, und/oder Erzeugen des ersten Bildteils unter Verwendung der Pixel aus dem ersten Bild, das in dem ersten Bereich enthalten ist, Identifizieren, wobei das Erzeugen des zweiten Bildteils eines oder mehrere der identifizierenden Pixel aus dem zweiten Bild, das in dem zweiten Bereich enthalten ist, der durch das Verhältnismodell angegeben ist, beinhalten kann, und/oder Erzeugen des zweiten Bildteils unter Verwendung der Pixel aus dem zweiten Bild, das in dem zweiten Bereich enthalten ist.Optionally, the computer-implemented method may include one or more of the following: receiving a ratio model indicating a first region of an image including the first part of the subject and a second region of the image including the second part of the subject, wherein generating the first image part is on or may include a plurality of identifying pixels from the first image included in the first region indicated by the ratio model, and / or identifying the first image part using the pixels from the first image included in the first region; Generating the second image part may include one or more of the identifying pixels from the second image contained in the second region indicated by the ratio model, and / or generating the second image part using the pixels from the second image contained in the second area.
Optional kann das Ausrichten des ersten Bildteils und des zweiten Bildteils eine oder mehrere der Folgenden beinhalten: Identifizieren einer ersten Mittellinie für den ersten Bildteil, Identifizieren einer zweiten Mittellinie für den zweiten Bildteil und/oder Veranlassen einer horizontalen Einstellung an mindestens einem der ersten Bildteile und des zweiten Bildteils, wie über die Anzeige präsentiert, um die erste Mittellinie und die zweite Mittellinie auszurichten. Optional kann das Identifizieren einer Mittellinie für ein Bild eine oder mehrere Posendefinitionen beinhalten, die eine Pose identifizieren, wobei die Posendefinition Informationen enthält, die für ein in der Pose positioniertes Subjekt eine Mittellinie für die Pose und eine erste Position eines ersten Punktes auf dem Subjekt relativ zu einer zweiten Position eines zweiten Punktes auf dem Subjekt identifizieren, Identifizieren des ersten Punktes und des zweiten Punktes auf dem im Bild gezeigten Subjekt, Erfassen der Pose des im Bild gezeigten Subjekts durch Korrelieren des ersten Punktes auf dem Subjekt und des zweiten Punktes auf dem im Bild gezeigten Subjekt mit der ersten Position relativ zu der durch die Posendefinition identifizierten zweiten Position und/oder Bereitstellen der in der Posendefinition enthaltenen Mittellinie als Mittellinie für das Bild.Optionally, aligning the first image portion and the second image portion may include one or more of: identifying a first centerline for the first image portion, identifying a second centerline for the second image portion, and / or causing a horizontal adjustment to at least one of the first image portions and second image part, as presented over the display, to align the first centerline and the second centerline. Optionally, identifying a centerline for an image may include one or more pose definitions that identify a pose, wherein the pose definition includes information that, for a pose positioned subject, is a pose centerline and a first position of the subject on the subject identifying the second point on the subject, identifying the first point and the second point on the subject shown in the picture, detecting the pose of the subject shown in the picture by correlating the first point on the subject and the second point on the subject Image subject with the first position relative to the second position identified by the pose definition and / or providing the centerline contained in the pose definition as the centerline for the image.
Optional kann das computerimplementierte Verfahren ferner ein oder mehrere der Folgenden beinhalten: Identifizieren eines ersten Pixels in dem ersten Bildteil, der sich innerhalb eines Schwellenabstands von einem zweiten Pixel in dem zweiten Bildteil befindet, Bestimmen, dass ein Farbwert des ersten Pixels mit einem Subjekttonschwellenwert korreliert, und/oder Bestimmen, dass eine Differenz zwischen dem Farbwert des ersten Pixels und einem Farbwert des zweiten Pixels nicht einem Ausrichtungsschwellenwert entspricht, wobei das Veranlassen einer Ausrichtung des ersten Bildteils und des zweiten Bildteils das Veranlassen einer horizontalen Einstellung an mindestens einem des ersten Bildteils und des zweiten Bildteils, wie über die Anzeige präsentiert, beinhaltet, bis das erste Pixel in dem ersten Bildteil innerhalb des Schwellenabstands zu einem dritten Pixel in dem zweiten Bildteil liegt, wobei eine Differenz zwischen einem Farbwert des dritten Pixels und dem Farbwert des ersten Pixels der Ausrichtungsschwelle entsprechen kann. Optional kann das computerimplementierte Verfahren ein oder mehrere der Folgenden beinhalten: Identifizieren eines ersten Pixels in dem ersten Bildteil, der sich innerhalb eines Schwellenabstands von einem zweiten Pixel in dem zweiten Bildteil befindet, Erzeugen eines Mischfarbwerts unter Verwendung eines Farbwerts des ersten Pixels und eines Farbwerts des zweiten Pixels und/oder Zuweisen des Mischfarbwerts an das erste Pixel.Optionally, the computer-implemented method may further include one or more of: identifying a first pixel in the first image portion that is within a threshold distance of a second pixel in the second image portion; determining that a color value of the first pixel correlates to a subject sound threshold; and / or determining that a difference between the color value of the first pixel and a color value of the second pixel does not correspond to an alignment threshold, wherein causing alignment of the first image part and the second image part causes a horizontal adjustment to be made on at least one of the first image part and the second image part second image portion as presented via the display includes, until the first pixel in the first image portion is within the threshold distance to a third pixel in the second image portion, wherein a difference between a color value of the third pixel and the color value of the first pixel may correspond to the alignment threshold. Optionally, the computer-implemented method may include one or more of the following: identifying a first pixel in the first image part that is within a threshold distance of a second pixel in the second image part, generating a mixed color value using a color value of the first pixel and a color value of the first pixel second pixel and / or assigning the mixed color value to the first pixel.
Die hier offenbarten Ausführungsformen können ein System beinhalten, das mindestens eines von einem Datenspeicher, der bestimmte computerausführbare Befehle ausführt, und/oder einer Rechenvorrichtung in Kommunikation mit dem Datenspeicher beinhaltet, wobei die Rechenvorrichtung einen Prozessor beinhaltet, der die bestimmten computerausführbaren Befehle ausführt, um das System zu mindestens einem der Folgenden zu veranlassen: Erzeugen eines ersten Bildteils aus einem ersten Bild, wobei der erste Bildteil einen ersten Teil eines Subjekts zeigt, Erzeugen eines zweiten Bildteils aus einem zweiten Bild, der zweite Bildteil einen zweiten Teil des Subjekts zeigt, Veranlassen der Präsentation des ersten Bildteils und des zweiten Bildteils über eine Anzeige und/oder Veranlassen der Ausrichtung des ersten Bildteils und des zweiten Bildteils, wie über die Anzeige präsentiert, um eine einzige Ansicht des Subjekts einschließlich des ersten Teils des Subjekts und des zweiten Teils des Subjekts bereitzustellen.The embodiments disclosed herein may include a system including at least one of a data store executing particular computer-executable instructions and / or a computing device in communication with the data store, wherein the computing device includes a processor that executes the particular computer-executable instructions to perform the A system for at least one of the following: generating a first image part from a first image, the first image part showing a first part of a subject, generating a second image part from a second image, the second image part showing a second part of the subject, causing the Presenting the first image portion and the second image portion via an indication and / or causing the orientation of the first image portion and the second image portion as presented via the display to be a single view of the subject including the first portion of the subject and the second portion of the sub to provide it.
Optional kann der Prozessor die bestimmten computerausführbaren Befehle ausführen, um das System ferner zu einem oder mehreren der Folgenden zu veranlassen: Empfangen eines Skelettmodells für das Subjekt, wobei das Skelettmodell eine Position für einen Teil des Subjekts identifiziert, wobei die Anweisungen, die das System dazu veranlassen, den ersten Teil des Bildes zu erzeugen, Anweisungen beinhalten können, das System dazu zu veranlassen, das Skelettmodell zumindest auf das erste Bild zu mappen, um eine Position des ersten Teils des Subjekts zu identifizieren, der in dem ersten Bild gezeigt wird, und/oder wobei die Anweisungen, die das System dazu veranlassen, den zweiten Teil des Bildes zu erzeugen, Anweisungen beinhalten können, das System dazu zu veranlassen, das Skelettmodell zumindest auf das zweite Bild zu mappen, um eine Position des zweiten Teils des Subjekts zu identifizieren, der in dem zweiten Bild gezeigt wird. Optional kann der Prozessor die bestimmten computerausführbaren Befehle ausführen, um das Ausrichten des ersten Bildteils und des zweiten Bildteils zu veranlassen, indem das System zumindest zu einem der Folgenden veranlasst wird: Mappen des Skelettmodells auf das zweite Bild, um eine Position des ersten Teils des im zweiten Bild gezeigten Subjekts zu identifizieren, Bestimmen eines Einstellungsfaktors, der eine Positionseinstellung an das zweite Bild angibt, um die Position des ersten Teils des im zweiten Bild gezeigten Subjekts und des ersten Teils des im ersten Bild gezeigten Subjekts auszurichten, und/oder das Veranlassen eines Einstellens des zweiten Bildteils, wie über die Anzeige präsentiert, unter Verwendung des Einstellungsfaktors.Optionally, the processor may execute the particular computer-executable instructions to further cause the system to receive one or more of the following: receiving a skeleton model for the subject, the skeleton model identifying a location for a portion of the subject, the instructions provided by the system thereto causing the first part of the image to generate instructions to cause the system to map the skeleton model to at least the first image to identify a position of the first part of the subject shown in the first image, and The instructions causing the system to generate the second part of the image may include instructions to cause the system to map the skeleton model to at least the second image to identify a position of the second part of the subject shown in the second picture. Optionally, the processor may execute the particular computer-executable instructions to cause alignment of the first image portion and the second image portion by causing the system to perform at least one of: mapping the skeleton model to the second image to obtain a position of the first portion of the image identifying a subject, indicating a positional adjustment to the second image to align the position of the first part of the subject shown in the second image and the first part of the subject shown in the first image, and / or causing a subject Adjusting the second image portion as presented via the display using the adjustment factor.
Optional kann der Prozessor die bestimmten computerausführbaren Befehle ausführen, um das System ferner zu mindestens einem der Folgenden zu veranlassen: Empfangen eines Verhältnismodells, das einen ersten Bereich eines Bildes einschließlich des ersten Teils des Subjekts und einen zweiten Bereich des Bildes einschließlich des zweiten Teils des Subjekts angibt, wobei die Anweisungen, die das System dazu veranlassen, den ersten Bildteil zu erzeugen, Anweisungen beinhalten können, die das System zu einem der Folgenden veranlassen: Identifizieren von Pixeln aus dem ersten Bild, das in dem durch das Verhältnismodell angegebenen ersten Bereich enthalten ist, und/oder Erzeugen des ersten Bildteils unter Verwendung der Pixel aus dem ersten Bild, das in dem ersten Bereich enthalten ist, und/oder wobei die Anweisungen, das System dazu zu veranlassen, den zweiten Bildteil zu erzeugen, Anweisungen beinhalten können, die das System zumindest zu einem der Folgenden veranlassen: Identifizieren von Pixeln aus dem zweiten Bild, das in dem zweiten Bereich enthalten ist, der durch das Verhältnismodell angegeben ist, und/oder Erzeugen des zweiten Bildteils unter Verwendung der Pixel aus dem zweiten Bild, das in dem zweiten Bereich enthalten ist.Optionally, the processor may execute the particular computer-executable instructions to further cause the system to do at least one of: receiving a ratio model including a first portion of an image including the first portion of the subject and a second portion of the image including the second portion of the subject wherein the instructions that cause the system to generate the first image portion may include instructions that cause the system to do one of the following: identify pixels from the first image contained in the first region indicated by the ratio model and / or generating the first image portion using the pixels from the first image contained in the first area, and / or wherein the instructions to cause the system to generate the second image portion may include instructions that include Initiate at least one of the following: Identify n of pixels from the second image contained in the second region indicated by the ratio model and / or generating the second image part using the pixels from the second image included in the second region.
Optional kann der Prozessor die bestimmten computerausführbaren Befehle ausführen, um das Ausrichten des ersten Bildteils und des zweiten Bildteils zu veranlassen, indem das System zu mindestens einem der Folgenden veranlasst wird: Identifizieren einer ersten Mittellinie für den ersten Bildteil, Identifizieren einer zweiten Mittellinie für den zweiten Bildteil und/oder Veranlassen einer horizontalen Einstellung an mindestens einen des ersten Bildteils und des zweiten Bildteils, wie über die Anzeige präsentiert, um die erste Mittellinie und die zweite Mittellinie auszurichten. Optional kann der Prozessor die bestimmten computerausführbaren Befehle ausführen, um eine Mittellinie für ein Bild zu identifizieren, indem das System zu mindestens einem der Folgenden veranlasst wird: Empfangen einer Posendefinition, die eine Pose identifiziert, wobei die Posendefinition Informationen enthält, die für ein in der Pose positioniertes Subjekt und eine Mittellinie für die Pose und eine erste Position eines ersten Punktes auf dem Subjekt relativ zu einer zweiten Position eines zweiten Punktes auf dem Subjekt identifizieren, Identifizieren des ersten Punktes und des zweiten Punktes auf dem im Bild gezeigten Subjekt, Erfassen der Pose des im Bild gezeigten Subjekts durch Korrelieren des ersten Punktes auf dem Subjekt und des zweiten Punktes auf dem im Bild gezeigten Subjekt mit der ersten Position relativ zu der durch die Posendefinition identifizierten zweiten Position und/oder Bereitstellen der in der Posendefinition enthaltenen Mittellinie als Mittellinie für das Bild. Optionally, the processor may execute the particular computer-executable instructions to cause the alignment of the first image portion and the second image portion by causing the system to at least one of: identifying a first centerline for the first image portion, identifying a second centerline for the second image portion Image portion and / or causing a horizontal adjustment to at least one of the first image portion and the second image portion as presented over the display to align the first centerline and the second centerline. Optionally, the processor may execute the particular computer-executable instructions to identify a centerline for an image by causing the system to do at least one of: receiving a pose definition that identifies a pose, the pose definition including information appropriate for one in the image Pose positioned subject and a centerline for the pose and identify a first position of a first point on the subject relative to a second position of a second point on the subject, identifying the first point and the second point on the subject shown in the image, detecting the pose of the subject shown in the picture by correlating the first point on the subject and the second point on the subject shown in the picture with the first position relative to the second position identified by the pose definition and / or providing the centerline contained in the pose definition as the centerline for the subject Image.
Optional kann der Prozessor die bestimmten computerausführbaren Befehle ausführen, um das System ferner zu mindestens einem der Folgenden zu veranlassen: Identifizieren eines ersten Pixels in dem ersten Bildteil, der sich innerhalb eines Schwellenabstands von einem zweiten Pixel in dem zweiten Bildteil befindet, Bestimmen, dass ein Farbwert des ersten Pixels mit einem Subjekttonschwellenwert korreliert, und/oder Bestimmen, dass eine Differenz zwischen dem Farbwert des ersten Pixels und einem Farbwert des zweiten Pixels nicht einer Ausrichtungsschwelle entspricht, wobei die Anweisungen, das System zu einer Ausrichtung des ersten Bildteils und des zweiten Bildteils zu veranlassen, Anweisungen beinhalten können, die das System dazu veranlassen, eine horizontale Einstellung an mindestens einem des ersten Bildteils und des zweiten Bildteils zu veranlassen, wie über die Anzeige präsentiert, bis das erste Pixel in dem ersten Bildteil innerhalb des Schwellenabstands zu einem dritten Pixel in dem zweiten Bildteil liegt, wobei eine Differenz zwischen einem Farbwert des dritten Pixels und dem Farbwert des ersten Pixels der Ausrichtungsschwelle entsprechen.Optionally, the processor may execute the particular computer-executable instructions to further cause the system to do one of the following: identifying a first pixel in the first image portion that is within a threshold distance of a second pixel in the second image portion Color value of the first pixel correlates with a subject tone threshold, and / or determining that a difference between the color value of the first pixel and a color value of the second pixel does not correspond to an alignment threshold, wherein the instructions, the system, align the first image portion and the second image portion to cause instructions to cause the system to cause a horizontal adjustment on at least one of the first image portion and the second image portion as presented via the display until the first pixel in the first image portion is within the threshold distance to a third pixel in the second image part, wherein a difference between a color value of the third pixel and the color value of the first pixel correspond to the alignment threshold.
Die hier verwendeten konditionalen Formulierungen, wie z. B. „kann“, „könnte“, „unter Umständen“, „kann“, „z.B.“ und dergleichen, sollen, sofern nicht ausdrücklich anders angegeben oder anderweitig innerhalb des verwendeten Kontextes verstanden, im Allgemeinen vermitteln, dass bestimmte Ausführungsformen bestimmte Merkmale, Elemente und/oder Schritte beinhalten, während andere Ausführungsformen diese nicht beinhalten. Derartige Formulierungen sollen also nicht generell implizieren, dass Merkmale, Elemente und/oder Schritte in irgendeiner Weise für eine oder mehrere Ausführungsformen erforderlich sind oder dass eine oder mehrere Ausführungsformen notwendigerweise eine Logik enthalten, um zu entscheiden, ob diese Merkmale, Elemente und/oder Schritte in einer bestimmten Verkörperung beinhaltet sind oder ausgeführt werden sollen, mit oder ohne andere Eingabe oder Aufforderung. Die Begriffe „umfassend“, „beinhaltend“, „aufweisend“ und dergleichen sind gleichbedeutend und werden in offener Weise verwendet und schließen zusätzliche Elemente, Merkmale, Handlungen, Operationen usw. nicht aus. Außerdem wird der Begriff „oder“ in seinem umfassenden Sinn (und nicht in seinem ausschließlichen Sinn) verwendet, so dass der Begriff „oder“, wenn er z. B. zur Verbindung einer Liste von Elementen verwendet wird, eines, einige oder alle Elemente in der Liste bezeichnet.The conditional formulations used here, such as. "May," "may," "may," "may," and so on, unless expressly stated otherwise or otherwise understood within the context in which it is used, are intended to convey, in general, that certain embodiments Elements and / or steps include, while other embodiments do not include these. Thus, such formulations should not generally imply that features, elements, and / or steps are in any way required for one or more embodiments, or that one or more embodiments necessarily include logic to decide whether those features, elements, and / or steps are included or intended to be embodied in a particular embodiment, with or without other input or solicitation. The terms "comprising," "including," "having," and the like are synonymous and are used in an open-ended manner and do not exclude additional elements, features, acts, operations, and so forth. In addition, the term "or" is used in its broad sense (and not in its exclusive sense), so that the term "or", when used e.g. Used to connect a list of items, one, some or all of the items in the list.
Disjunktive Formulierungen wie der Ausdruck „mindestens einer von X, Y, Z“, sofern nicht ausdrücklich anders angegeben, wird mit dem Kontext verstanden, der im Allgemeinen verwendet wird, um darzustellen, dass ein Element, ein Begriff usw. entweder X, Y oder Z oder eine Kombination davon sein kann (z. B. X, Y und/oder Z). Daher sind derartige disjunktive Formulierungen im Allgemeinen nicht dazu bestimmt und sollten nicht implizieren, dass bestimmte Ausführungsformen mindestens eines von X, mindestens eines von Y oder mindestens eines von Z erfordern.Disjunctive language such as the term "at least one of X, Y, Z", unless expressly stated otherwise, is understood to mean the context generally used to represent that an element, a term, etc. is either X, Y or Z or a combination thereof (eg X, Y and / or Z). Therefore, such disjunctive formulations are generally not intended and should not imply that certain embodiments require at least one of X, at least one of Y, or at least one of Z.
Sofern nicht ausdrücklich anders angegeben, sind Artikel wie „ein“ oder „eine“ generell so zu interpretieren, dass sie einen oder mehrere der beschriebenen Punkte beinhalten. Dementsprechend sind Phrasen wie „ein Gerät konfiguriert für“ dazu gedacht, ein oder mehrere rezitierte Geräte aufzunehmen. Solch ein oder mehrere rezitierte Geräte können auch gemeinsam konfiguriert werden, um die angegebenen Rezitationen durchzuführen. Beispielsweise kann „ein Prozessor, der für die Durchführung von Rezitationen A, B und C konfiguriert ist“, einen ersten Prozessor beinhalten, der für die Durchführung von Rezitationen A konfiguriert ist, und einen zweiten Prozessor, der für die Durchführung von Rezitationen B und C konfiguriert ist.Unless otherwise stated, items such as "a" or "a" are generally to be interpreted as including one or more of the items described. Accordingly, phrases such as "a device configured for" are intended to accommodate one or more recited devices. Such one or more recited devices can also be configured together to perform the specified recitations. For example, "a processor configured to perform recitations A, B and C" may include a first processor configured to perform recitations A and a second processor to perform recitations B and C is configured.
Wie hierin verwendet, können die Begriffe „Bestimmung“ oder „Bestimmen“ eine breite Vielfalt von Aktionen umfassen. Zum Beispiel kann „Bestimmen“ das Berechnen, Berechnen, Verarbeiten, Ableiten, Nachschlagen (z. B. Nachschlagen in einer Tabelle, einer Datenbank oder einer anderen Datenstruktur), Ermitteln und dergleichen umfassen. „Bestimmen“ kann auch Empfangen (z. B. das Empfangen von Informationen), Zugreifen (z. B. das Zugreifen auf Daten in einem Speicher) und Ähnliches beinhalten. „Bestimmen“ kann auch Auflösen, Auswählen, Auswählen, Wählen, Einrichten und dergleichen beinhalten.As used herein, the terms "determining" or "determining" may encompass a wide variety of actions. For example, "determining" may include computing, computing, processing, deriving, lookup (e.g., looking up a table, a database, or other data structure), determining, and the like. "Determine" may also include receiving (eg, receiving information), accessing (eg, accessing data in a memory), and the like. "Determine" may also include resolving, selecting, selecting, choosing, setting up, and the like.
Der Begriff „selektiv“ kann, wie hier verwendet, eine Vielzahl von Aktionen umfassen. Ein „selektiver“ Prozess kann beispielsweise die Bestimmung einer Option aus mehreren Optionen beinhalten. Ein „selektiver“ Prozess kann einen oder mehrere dynamisch bestimmte Eingänge, vorkonfigurierte Eingänge oder benutzerinitiierte Eingänge für die Bestimmung enthalten. In einigen Implementierungen kann ein n-Eingangsschalter enthalten sein, um eine selektive Funktionalität bereitzustellen, wobei n die Anzahl der Eingänge ist, die für die Auswahl verwendet werden.The term "selective" as used herein can encompass a variety of actions. For example, a "selective" process may involve determining an option from multiple options. A "selective" process may include one or more dynamically determined inputs, preconfigured inputs, or user-initiated inputs for the determination. In some implementations, an n-input switch may be included to provide selective functionality, where n is the number of inputs used for the selection.
Die hier verwendeten Begriffe „Bereitstellung“ oder „Bereitstellen“ umfassen eine Vielzahl von Aktionen. Zum Beispiel kann „Bereitstellen“ das Speichern eines Wertes an einem Ort zum späteren Abruf, das Übertragen eines Wertes direkt an den Empfänger, das Übertragen oder Speichern eines Verweises auf einen Wert und dergleichen beinhalten. Das „Bereitstellen“ kann auch das Kodieren, Dekodieren, Verschlüsseln, Entschlüsseln, Validieren, Verifizieren und dergleichen umfassen.The terms "provisioning" or "deploying" used herein encompass a variety of actions. For example, "providing" may include storing a value at a location for later retrieval, transmitting a value directly to the receiver, transmitting or storing a reference to a value, and the like. The "providing" may also include coding, decoding, encryption, decryption, validation, verification and the like.
Der Begriff „Nachricht“ umfasst eine Vielzahl von Formaten für die Kommunikation (z. B. Senden oder Empfangen) von Informationen. Eine Nachricht kann eine maschinenlesbare Aggregation von Informationen wie z. B. ein XML-Dokument, eine Nachricht mit festen Feldern, eine durch Kommata getrennte Nachricht oder Ähnliches enthalten. Eine Nachricht kann in einigen Implementierungen ein Signal enthalten, das zur Übertragung einer oder mehrerer Darstellungen der Informationen verwendet wird. Während im Singular rezitiert wird, wird verstanden, dass eine Nachricht in mehreren Teilen vdetektiert, übermittelt, gespeichert, empfangen usw. werden kann. The term "message" includes a variety of formats for communicating (e.g., sending or receiving) information. A message can be a machine-readable aggregation of information such as. An XML document, a fixed-field message, a comma-separated message, or the like. A message may, in some implementations, include a signal used to transmit one or more representations of the information. While reciting in the singular, it is understood that a message may be detected, transmitted, stored, received, etc. in several parts.
Eine „Benutzerschnittstelle“ (auch als interaktive Benutzerschnittstelle, grafische Benutzerschnittstelle oder UI (user interface) bezeichnet) kann sich auf eine netzwerkbasierte Schnittstelle beziehen, die Datenfelder und/oder andere Steuerungen zum Empfang von Eingangssignalen oder zur Bereitstellung elektronischer Informationen und/oder zur Bereitstellung von Informationen für den Benutzer als Reaktion auf empfangene Eingangssignale beinhaltet. Eine Benutzeroberfläche kann ganz oder teilweise mit Technologien wie Hyper-Text-Markup-Sprache (HTML), Flash, Java, .net, Webservices und Rich Site Summary (RSS) implementiert werden. In einigen Implementierungen kann eine Benutzerschnittstelle in einem Standalone-Client (z. B. Thick-Client, Fat-Client) enthalten sein, der für die Kommunikation (z. B. Senden oder Empfangen von Daten) gemäß einem oder mehreren der beschriebenen Aspekte konfiguriert ist.A "user interface" (also referred to as an interactive user interface, graphical user interface or UI) may refer to a network-based interface that includes data fields and / or other controls for receiving input signals or providing electronic information and / or providing Information for the user in response to received input signals. A user interface can be implemented in whole or in part using technologies such as Hyper-Text Markup Language (HTML), Flash, Java, .NET, Web Services, and Rich Site Summary (RSS). In some implementations, a user interface may be included in a standalone client (eg, thick client, fat client) configured to communicate (eg, send or receive data) in accordance with one or more of the described aspects is.
Während die obige detaillierte Beschreibung neue Merkmale in Bezug auf verschiedene Ausführungsformen gezeigt, beschrieben und aufgezeigt hat, versteht es sich, dass verschiedene Auslassungen, Substitutionen und Änderungen in der Form und den Details der dargestellten Vorrichtungen oder Algorithmen vorgenommen werden können, ohne vom Geist der Offenbarung abzuweichen. Wie zu erkennen ist, können bestimmte hier beschriebene Ausführungsformen in einer Form aufgenommen werden, die nicht alle hier beschriebenen Merkmale und Vorteile bereitstellt, da einige Merkmale getrennt von anderen verwendet oder ausgeübt werden können. Der Umfang von gewissen Ausführungsformen, die hierin offenbart sind, ist durch die beigefügten Patentansprüche angegeben, anstatt durch die vorstehende Beschreibung. Alle Veränderungen, die sich aus der Bedeutung und Gleichwertigkeitsbereich der Patentansprüche ergeben, sollen in deren Umfang eingeschlossen sein.While the above detailed description has shown, described, and pointed out novel features with respect to various embodiments, it should be understood that various omissions, substitutions, and alterations may be made in the form and details of the illustrated apparatus or algorithms without departing from the spirit of the disclosure departing. As will be appreciated, certain embodiments described herein may be included in a form that does not provide all of the features and advantages described herein since some features may be used or practiced separately from others. The scope of certain embodiments disclosed herein is indicated by the appended claims rather than by the foregoing description. All changes that result from the meaning and equivalence of the claims should be included in their scope.
ZITATE ENTHALTEN IN DER BESCHREIBUNG QUOTES INCLUDE IN THE DESCRIPTION
Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.This list of the documents listed by the applicant has been generated automatically and is included solely for the better information of the reader. The list is not part of the German patent or utility model application. The DPMA assumes no liability for any errors or omissions.
Zitierte PatentliteraturCited patent literature
- US 14967086 [0004]US 14967086 [0004]
- US 14729894 [0061]US Pat. No. 14729894 [0061]
Claims (15)
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US15/064,490 US10026176B2 (en) | 2016-03-08 | 2016-03-08 | Browsing interface for item counterparts having different scales and lengths |
US15/064,490 | 2016-03-08 | ||
US15/064,484 | 2016-03-08 | ||
US15/064,484 US10019779B2 (en) | 2016-03-08 | 2016-03-08 | Browsing interface for item counterparts having different scales and lengths |
PCT/US2017/020979 WO2017155893A1 (en) | 2016-03-08 | 2017-03-06 | Browsing interface for item counterparts having different scales and lengths |
Publications (1)
Publication Number | Publication Date |
---|---|
DE112017001229T5 true DE112017001229T5 (en) | 2018-11-15 |
Family
ID=58358952
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE112017001229.5T Pending DE112017001229T5 (en) | 2016-03-08 | 2017-03-06 | BROWSING INTERFACE FOR ARTICLE MATCHES WITH DIFFERENT MEASURES AND LENGTHS |
Country Status (3)
Country | Link |
---|---|
DE (1) | DE112017001229T5 (en) |
GB (1) | GB2564328A (en) |
WO (1) | WO2017155893A1 (en) |
Family Cites Families (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5937081A (en) * | 1996-04-10 | 1999-08-10 | O'brill; Michael R. | Image composition system and method of using same |
US6317722B1 (en) | 1998-09-18 | 2001-11-13 | Amazon.Com, Inc. | Use of electronic shopping carts to generate personal recommendations |
US7472077B2 (en) | 2001-10-31 | 2008-12-30 | Amazon.Com, Inc. | User interfaces and methods for facilitating user-to-user sales |
US7668821B1 (en) | 2005-11-17 | 2010-02-23 | Amazon Technologies, Inc. | Recommendations based on item tagging activities of users |
CA2681697A1 (en) * | 2008-10-09 | 2010-04-09 | Retail Royalty Company | Methods and systems for online shopping |
EP2625660A4 (en) * | 2010-10-05 | 2014-06-11 | Centric Software Inc | Interactive collection book for mobile devices |
US20130259374A1 (en) * | 2012-03-29 | 2013-10-03 | Lulu He | Image segmentation |
US9535720B2 (en) * | 2012-11-13 | 2017-01-03 | International Business Machines Corporation | System for capturing and replaying screen gestures |
US20140358737A1 (en) * | 2013-06-03 | 2014-12-04 | Alexander James Burke | Clothing Style Selection and Matching E-Commerce & Game Interface |
-
2017
- 2017-03-06 DE DE112017001229.5T patent/DE112017001229T5/en active Pending
- 2017-03-06 GB GB1815758.6A patent/GB2564328A/en not_active Withdrawn
- 2017-03-06 WO PCT/US2017/020979 patent/WO2017155893A1/en active Application Filing
Also Published As
Publication number | Publication date |
---|---|
GB201815758D0 (en) | 2018-11-14 |
WO2017155893A1 (en) | 2017-09-14 |
GB2564328A (en) | 2019-01-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11790589B1 (en) | System and method for creating avatars or animated sequences using human body features extracted from a still image | |
DE102017010210A1 (en) | Image Matting by means of deep learning | |
DE102013203667B4 (en) | Cabin for trying out one or more items of clothing | |
DE102017007998A1 (en) | PRODUCT RECOMMENDATIONS BASED ON VIEWS OF AN EXTENDED REALITY | |
DE102018006247A1 (en) | Digital image completion using deep learning | |
DE202017105871U1 (en) | Actionable suggestions for activities | |
DE102020002153A1 (en) | Use of an object attribute detecting models for the automatic selection of versions of detected objects in images | |
EP4184414A1 (en) | Product recommendation device and method based on image database analysis | |
DE112017006406T5 (en) | INTELLIGENT AUTOMATIC CUTTING OF PICTURES | |
DE112019000687T5 (en) | PHOTOREALISTIC THREE-DIMENSIONAL TEXTURING USING CANONICAL VIEWS AND A TWO-STAGE APPROACH | |
DE102015213832A1 (en) | Method and device for generating an artificial image | |
EP2691934A1 (en) | Phantom image data bank (3d) | |
DE102016008612A1 (en) | Visitor identification based on feature selection | |
DE112016000962T5 (en) | SYSTEM AND METHOD FOR STRUCTURING EVALUATIONS WITH AUTOMATICALLY GENERATED TAGS | |
Peng et al. | Contour-enhanced CycleGAN framework for style transfer from scenery photos to Chinese landscape paintings | |
DE102019107064A1 (en) | Display method, electronic device and storage medium therewith | |
DE112017008230T5 (en) | METHOD AND APPARATUS FOR MAPPING A VIRTUAL ENVIRONMENT TO A PHYSICAL ENVIRONMENT | |
CN110110117A (en) | A kind of product search method, device and system | |
DE112017001229T5 (en) | BROWSING INTERFACE FOR ARTICLE MATCHES WITH DIFFERENT MEASURES AND LENGTHS | |
DE102022209789A1 (en) | FEEDBACK USING COVER FOR OBJECT SENSING | |
DE102014214851A1 (en) | Computer-implemented method and computer system for carrying out a similarity analysis | |
CN106485206A (en) | The teaching method being combined based on the video pictures made up and device | |
DE102023114440A1 (en) | GENERATION OF 3D ROOM PLANS WITH 2D SHAPES AND 3D PRIMITIVES | |
DE102022113781A1 (en) | Method, system and computer program product for the virtual use of clothing and clothing accessories | |
DE112021005236T5 (en) | LOCAL-GUIDED SCANNING OF VISUAL CODES |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
R012 | Request for examination validly filed |