DE112017001229T5 - BROWSING INTERFACE FOR ARTICLE MATCHES WITH DIFFERENT MEASURES AND LENGTHS - Google Patents

BROWSING INTERFACE FOR ARTICLE MATCHES WITH DIFFERENT MEASURES AND LENGTHS Download PDF

Info

Publication number
DE112017001229T5
DE112017001229T5 DE112017001229.5T DE112017001229T DE112017001229T5 DE 112017001229 T5 DE112017001229 T5 DE 112017001229T5 DE 112017001229 T DE112017001229 T DE 112017001229T DE 112017001229 T5 DE112017001229 T5 DE 112017001229T5
Authority
DE
Germany
Prior art keywords
image
zone
display
interaction
display zone
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE112017001229.5T
Other languages
German (de)
Inventor
Jongwoo LEE
Alexander Adrian Hugh Davidson
Charles Shearer Dorner
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Amazon Technologies Inc
Original Assignee
Amazon Technologies Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from US15/064,490 external-priority patent/US10026176B2/en
Priority claimed from US15/064,484 external-priority patent/US10019779B2/en
Application filed by Amazon Technologies Inc filed Critical Amazon Technologies Inc
Publication of DE112017001229T5 publication Critical patent/DE112017001229T5/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/06Buying, selling or leasing transactions
    • G06Q30/0601Electronic shopping [e-shopping]
    • G06Q30/0641Shopping interfaces
    • G06Q30/0643Graphical representation of items or shoppers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0485Scrolling or panning

Abstract

Es werden Merkmale für eine Schnittstelle zum Browsen von Bildern von Artikeln mit unterschiedlichen Maßstäben und Längen, wie z. B. Kleidung, offenbart. Die Schnittstelle kann zwei Teile eines Subjekts präsentieren, wobei jeder Teil aus verschiedenen Bilder-Datenspeichern ausgewählt wird. Die Schnittstelle kann eine einheitliche Ansicht der Teile bereitstellen. Zum Beispiel kann ein erster Teil einem Bild des Subjekts, das ein Golfhemd und eine lange Hose trägt, entnommen werden. Ein zweiter Teil kann einem Bild des Subjekts in einem langärmeligen Hemd und Shorts entnommen werden. Der erste Teil kann nur das Golfhemd zeigen und der zweite Teil kann nur die Shorts zeigen, wodurch eine Darstellung dessen bereitgestellt wird, wie das Subjekt aussehen würde, wenn es das auf dem ersten Bild gezeigte Hemd mit den auf dem zweiten Bild gezeigten Shorts trüge.

Figure DE112017001229T5_0000
Features are provided for an interface for browsing images of articles of different scales and lengths, such as: As clothing disclosed. The interface can present two parts of a subject, with each part selected from different image datastores. The interface can provide a consistent view of the parts. For example, a first part may be taken from an image of the subject wearing a golf shirt and long pants. A second part can be taken from a picture of the subject in a long-sleeved shirt and shorts. The first part can only show the golf shirt and the second part can only show the shorts, providing a representation of what the subject would look like when the shirt shown in the first picture wore the shorts shown in the second image.
Figure DE112017001229T5_0000

Description

HINTERGRUNDBACKGROUND

Ein Bilderfassungssystem kann verwendet werden, um Bilder eines Benutzers über mehrere Tage hinweg aufzunehmen. Die aufgenommenen Bilder können verschiedene Artikel (z. B. Kleidung, Accessoires, Schuhe usw.) beinhalten. Eine Benutzerschnittstelle, die auf einer Anzeige eines elektronischen Geräts präsentiert wird, kann bereitgestellt werden, damit der Benutzer die Bilder durchsuchen kann, die die Outfits oder Looks zeigen, die der Benutzer über einen bestimmten Zeitraum getragen hat. Dies kann bei der Auswahl von Lieblings-Outfits helfen, die häufig getragen wurden, oder bei der Identifizierung von Artikeln, die selten getragen wurden, um sie aus dem Schrank des Benutzers zu entfernen.An imaging system can be used to capture images of a user over several days. The captured images may include various items (eg, clothing, accessories, shoes, etc.). A user interface presented on a display of an electronic device may be provided to allow the user to browse the images showing the outfits or looks worn by the user over a period of time. This may help in the selection of favorite outfits that have been worn frequently, or in identifying items that have rarely been worn to remove them from the user's closet.

Einzelhändler, Händler, Verkäufer, Hersteller, Stylisten, Designer und andere können solche Benutzerschnittstellen bereitstellen oder bewerben, um einem Benutzer das Browsen von Artikeln in einem elektronischen Katalog zu ermöglichen und/oder einen elektronischen Katalog nach Artikeln zu durchsuchen, die zum Kauf oder anderen Erwerb verfügbar sind. Beispielsweise kann der Benutzer durch ein Gitter oder eine Liste von Artikeln blättern. Diese Artikel werden in der Regel in Bildern gezeigt, die aufgenommen wurden, während sie von einem Model oder auf einem Kleiderbügel getragen wurden, aber nicht vom Benutzer, der das Browsen durchführt.Retailers, retailers, vendors, manufacturers, stylists, designers, and others may provide or promote such user interfaces to allow a user to browse articles in an electronic catalog and / or to search an electronic catalog for items to purchase or otherwise purchase Are available. For example, the user may scroll through a grid or list of articles. These items are typically shown in pictures taken while worn by a model or on a hanger, but not by the user browsing.

Figurenlistelist of figures

Ausführungsformen verschiedener erfinderischer Merkmale werden nun anhand der folgenden Zeichnungen beschrieben. In allen Zeichnungen können Bezugszeichen wiederverwendet werden, um die Übereinstimmung zwischen den erwähnten Elementen anzuzeigen. Die Zeichnungen werden bereitgestellt, um die hier beschriebenen beispielhaften Ausführungen zu veranschaulichen und dienen nicht dazu, den Umfang der Offenbarung einzuschränken.

  • 1A ist ein bildliches Diagramm, das eine beispielhafte Benutzerschnittstelle veranschaulicht, die zumindest teilweise von einem Browsing-Dienst erzeugt wurde, wobei die Benutzerschnittstelle einen interaktiven Browsing-Bereich mit einem ersten Artikel beinhaltet.
  • 1B ist ein bildliches Diagramm, das die beispielhafte Benutzerschnittstelle von 1A mit einer aktivierten Browsing-Steuerung veranschaulicht.
  • 1C ist ein bildliches Diagramm, das die beispielhafte Benutzerschnittstelle von 1A nach der Aktivierung einer Browsing-Steuerung veranschaulicht.
  • 2 ist ein Blockdiagramm, das eine veranschaulichende Betriebsumgebung zeigt, in der ein Zugriffsgerät, das einen Browsing-Dienst bereitstellt, es dem Benutzer ermöglicht, das Katalogsystem über Benutzerschnittstellen, wie die in 1A, 1B und 1C dargestellten, zu browsen.
  • 3 stellt eine allgemeine Architektur eines beispielhaften Zugriffsgeräts dar, das einen Browsing-Service für das effiziente und interaktive Browsen von Artikeln und/oder Bildern bereitstellt, die von dem Katalogsystem verwaltet werden, das in 2 gezeigt ist.
  • 4 ist ein Flussdiagramm, das ein im Katalogsystem implementiertes beispielhaftes Verfahren zum Browsen von Artikelbildern darstellt.
  • 5A ist ein bildliches Diagramm eines illustrativen Strukturmodells für ein Subjekt, das in einem Bild erscheint.
  • 5B ist ein bildliches Diagramm des Bildes, in dem das Subjekt erscheint, das mit dem Strukturmodell von 5A abgebildet ist.
  • 5C zeigt einen Teil des Bildes, das in 5B segmentiert gezeigt wird, um den Teil des Bildes zu zeigen, der dem Rumpf und dem Kopf des Subjekts entspricht.
  • 5D zeigt einen Teil des Bildes, das in 5B segmentiert gezeigt wird, um den Teil des Bildes zu zeigen, der den Beinen des Subjekts entspricht.
  • 6A stellt ein veranschaulichendes Verhältnismodell zur Segmentierung dar.
  • 6B stellt eine Bildeingabe zur Segmentierung unter Verwendung des Verhältnismodells von 6A dar.
  • 6C stellt ein normalisiertes Bild dar, das mit dem Verhältnismodell von 6A erzeugt wurde.
  • 6D zeigt einen Teil des segmentierten Bildes, um den Teil des Bildes zu zeigen, der dem Rumpf des Subjekts entspricht.
  • 7 ist ein Flussdiagramm, das ein im Browsing-Dienst implementiertes beispielhaftes Verfahren darstellt.
  • 8A bis 8D stellen die Segmentierung von zwei Bildern und Ausrichtung von segmentierten Teilen aus den zwei Bildern gemäß dem in 7 gezeigten Verfahren dar.
Embodiments of various inventive features will now be described with reference to the following drawings. In all drawings, reference numerals may be reused to indicate the correspondence between the mentioned elements. The drawings are provided to illustrate the example embodiments described herein and are not intended to limit the scope of the disclosure.
  • 1A Figure 4 is a pictorial diagram illustrating an exemplary user interface generated, at least in part, by a browsing service, wherein the user interface includes an interactive browsing area with a first article.
  • 1B is a pictorial diagram illustrating the exemplary user interface of 1A with an enabled browsing control.
  • 1C is a pictorial diagram illustrating the exemplary user interface of 1A after enabling a browsing control.
  • 2 FIG. 4 is a block diagram illustrating an illustrative operating environment in which an access device providing a browsing service enables the user to access the catalog system via user interfaces such as those described in FIG 1A . 1B and 1C shown to browse.
  • 3 FIG. 4 illustrates a general architecture of an exemplary access device providing a browsing service for efficiently and interactively browsing articles and / or images managed by the catalog system incorporated in 2 is shown.
  • 4 Figure 13 is a flow chart illustrating an exemplary method of browsing article images implemented in the catalog system.
  • 5A Figure 11 is a pictorial diagram of an illustrative structural model for a subject appearing in an image.
  • 5B is a pictorial diagram of the picture in which the subject appears, which corresponds to the structural model of 5A is shown.
  • 5C shows a part of the image that is in 5B segmented to show the part of the image that corresponds to the subject's torso and head.
  • 5D shows a part of the image that is in 5B segmented to show the part of the image corresponding to the subject's legs.
  • 6A represents an illustrative ratio model for segmentation.
  • 6B provides an image input for segmentation using the ratio model of 6A represents.
  • 6C represents a normalized image consistent with the relationship model of 6A was generated.
  • 6D shows a portion of the segmented image to show the portion of the image that corresponds to the subject's torso.
  • 7 Figure 5 is a flowchart illustrating an example method implemented in the browsing service.
  • 8A to 8D represent the segmentation of two images and alignment of segmented parts from the two images according to the in 7 shown method.

AUSFÜHRLICHE BESCHREIBUNGDETAILED DESCRIPTION

Mit dem Aufkommen der digitalen Bildgebung und der Verbreitung von Bildaufnahmesystemen nimmt die Zahl der digital detektierten Bilder weiter zu. Eine gängige Bildart ist ein „Selfie“ oder Selbstporträtbild eines Subjekts. Die Selbstporträts werden typischerweise von einer ähnlichen Stelle (z. B. einer Armlänge entfernt) des Motivs aufgenommen. Die Bilder können lokal auf dem Bilderfassungssystem oder fern in einem vernetzten Datenspeicher gespeichert werden. Das Bildaufnahmesystem kann als eigenständiges Gerät oder mit oder in einem anderen Zugriffsgerät wie einem Fernseher, einer Set-Top-Box, einem Mobiltelefon, einem Spiegel, einer Tür, einem Fenster, einem Armaturenbrett, einem Haushaltsgerät, einem Videokonferenzsystem oder ähnlichem eingesetzt werden. Ein Beispiel für ein Bilderfassungssystem ist in der am 11. Dezember 2015 eingereichten US-Patentanmeldung Nr. 14/967086 beschrieben, die gemeinsames Eigentum ist und in seiner Gesamtheit hierin aufgenommen ist.With the advent of digital imaging and the proliferation of imaging systems, the number of digitally detected images is decreasing further to. A common type of image is a "selfie" or self-portrait image of a subject. The self-portraits are typically taken from a similar location (eg, one arm's length away) of the subject. The images can be stored locally on the image capture system or remotely in a networked data store. The image capture system may be used as a standalone device or with or in another access device such as a television, a set-top box, a mobile phone, a mirror, a door, a window, a dashboard, a home appliance, a videoconferencing system, or the like. An example of an image capturing system is presented in the Dec. 11, 2015 filed U.S. Patent Application No. 14/967086 which is common property and is incorporated herein in its entirety.

Individuell können die vom Bilderfassungssystem aufgenommenen Bilder durchsucht werden, um verschiedene Looks des Subjekts im Laufe der Zeit zu identifizieren. Im Folgenden werden einzigartige Merkmale beschrieben, die es ermöglichen, diese unterschiedlichen Bilder so zu kombinieren, dass ein Teil eines ersten Bildes eines Subjekts mit einem Teil eines zweiten Bildes des Subjekts betrachtet werden kann. Zum Beispiel kann ein erster Teil einem Bild des Subjekts, das ein Golfhemd und eine lange Hose trägt, entnommen werden. Ein zweiter Teil kann einem Bild des gleichen Subjekts in einem langärmeligen Hemd und Shorts entnommen werden. Der erste Teil kann nur das Golfhemd zeigen und der zweite Teil kann nur die Shorts zeigen, wodurch eine Darstellung dessen bereitgestellt wird, wie das Subjekt aussehen würde, wenn es das auf dem ersten Bild gezeigte Shirt mit den auf dem zweiten Bild gezeigten Shorts trüge. Die Schnittstelle stellt zwei Teile eines Subjekts dar, wobei jeder Teil aus verschiedenen Datenspeichern von Bildern ausgewählt ist. Die Schnittstelle kann eine einheitliche Ansicht der Teile bereitstellen. Dies stellt eine neue Möglichkeit dar, eine Sammlung von Bildern zu durchsuchen, um neue Kombinationen von Artikeln zu identifizieren, die zusammen getragen werden sollen.Individually, the images captured by the imaging system can be searched to identify different looks of the subject over time. In the following, unique features will be described which make it possible to combine these different images so that a part of a first image of a subject can be viewed with a part of a second image of the subject. For example, a first part may be taken from an image of the subject wearing a golf shirt and long pants. A second part can be taken from a picture of the same subject in a long-sleeved shirt and shorts. The first part can only show the golf shirt and the second part can only show the shorts, providing a representation of what the subject would look like when wearing the shirt shown in the first picture with the shorts shown in the second picture. The interface represents two parts of a subject, each part being selected from different data memories of images. The interface can provide a consistent view of the parts. This provides a new way to search a collection of images to identify new combinations of articles to be matched.

In einem Aspekt wird eine Benutzerschnittstelle zur Präsentation von Teilen zweier verschiedener Bilder beschrieben. Neben dem Anzeigen der Bilder auf der Benutzerschnittstelle werden weitere Aspekte beschrieben, um das Anzeigen der Teile so zu verbessern, dass die Anzeige das Subjekt als Träger eines Outfits darstellt, für das kein Bild existiert. Es kann ein Browsing-Dienst bereitgestellt werden, um die Benutzerschnittstelle und die Bildverarbeitung zum Anzeigen von Bildern darin zu koordinieren.In one aspect, a user interface for presenting parts of two different images is described. In addition to displaying the images on the user interface, other aspects are described to improve the display of the parts so that the display presents the subject as the wearer of an outfit for which no image exists. A browsing service may be provided to coordinate the user interface and image processing for displaying images therein.

Beispiele für die vom Browsing-Dienst implementierte Bildverarbeitung sind die automatische Segmentierung und Ausrichtung der Bilder zur Anzeige über eine Schnittstelle. Die Bilder können unterschiedliche Maßstäbe und Längen aufweisen. Die auf den Bildern gezeigten Artikel, wie z. B. Kleidung, dürfen daher nicht einheitlich dargestellt werden. Segmentierung der Bilder in Bildteile, in denen ein Bildteil einen bestimmten Artikel zeigt, wird beschrieben. Die Segmentierung kann unter Verwendung von Modellen und/oder komplexer Bildanalyse erfolgen, wie nachfolgend beschrieben. Um eine realistische Ansicht des Subjekts zu erhalten, wenn Bildsegmente zusammen auf einer Schnittstelle dargestellt werden, kann eine zusätzliche Ausrichtung der Bildsegmente durchgeführt werden. Die Ausrichtung kann unter Verwendung von Modellen und/oder komplexer Bildanalyse erfolgen, wie nachfolgend beschrieben.Examples of image processing implemented by the browsing service include automatic segmentation and alignment of images for display via an interface. The pictures can have different scales and lengths. The items shown in the pictures, such as. As clothes, therefore, may not be presented uniformly. Segmentation of the images into image parts in which an image part shows a specific article is described. The segmentation may be done using models and / or complex image analysis, as described below. To obtain a realistic view of the subject when displaying image segments together on an interface, additional alignment of the image segments may be performed. The alignment can be done using models and / or complex image analysis, as described below.

Obwohl verschiedene Ausführungen mit Bezug auf Subjekte und Artikel wie Kleidung beschrieben werden, wird davon ausgegangen, dass die beschriebenen Systeme, Verfahren und Vorrichtungen für andere Subjekte (z. B. nicht-menschliche Subjekte) wie Heimtextilien, Kleidung, Kleidungsstücke, Fahrzeuge oder mechanische Vorrichtungen und/oder andere in den Bildern gezeigte Gegenstände (z. B. Lampen, Teppiche, Stühle, Tische, Sofas, Fußmatten, Lenkräder, Felgen, Reifen, Türverkleidungen, Scharniere, Abdeckungen, Tastaturen, Gehäuse usw.) konfiguriert werden können. Wie hierin verwendet, wird der Begriff „Artikel“ nicht nur für die gewöhnliche Bedeutung, sondern auch für die Bezeichnung eines Artikels selbst (z. B. eines bestimmten Produkts) und für seine Beschreibung oder Darstellung in einem Computersystem oder elektronischen Katalog verwendet. Wie aus dem Kontext, in dem er verwendet wird, ersichtlich wird, bezieht sich der Begriff auch hier manchmal nur auf den Gegenstand selbst oder nur auf seine Darstellung im Computersystem.Although various embodiments are described with reference to subjects and articles such as clothing, it is believed that the described systems, methods, and devices are for other subjects (e.g., non-human subjects) such as home furnishings, clothing, garments, vehicles, or mechanical devices and / or other items shown in the pictures (eg, lamps, carpets, chairs, tables, sofas, floor mats, steering wheels, rims, tires, door panels, hinges, covers, keyboards, housings, etc.). As used herein, the term "article" is used not only for the ordinary meaning but also for the designation of an article itself (e.g., a particular product) and for its description or presentation in a computer system or electronic catalog. As can be seen from the context in which it is used, the term here sometimes refers only to the object itself or only to its representation in the computer system.

1A ist ein bildliches Diagramm, das eine beispielhafte Benutzerschnittstelle veranschaulicht, die zumindest teilweise von einem Browsing-Dienst erzeugt wurde, wobei die Benutzerschnittstelle einen interaktiven Browsing-Bereich mit einem ersten Artikel beinhaltet. Der Browsing-Dienst kann auf einem Zugriffsgerät mit der Benutzerschnittstelle 100 implementiert werden. In einigen Implementierungen kann der Browsing-Dienst auf einem Katalogsystem in Kommunikation mit einem Zugriffsgerät implementiert werden. In einigen Implementierungen kann der Browsing-Dienst als verteilter Dienst implementiert werden, wobei einige Funktionen auf dem Zugriffsgerät und einige Funktionen auf einem Katalogsystem implementiert sind. In einer verteilten Konfiguration kann es wünschenswert sein, ähnliche Funktionen sowohl am Zugriffsgerät als auch am Katalogsystem bereitzustellen, um eine dynamische Zuordnung der Verarbeitung zwischen dem Zugriffsgerät und dem Katalogsystem zu ermöglichen. Wenn das Zugriffsgerät beispielsweise mit begrenzten Ressourcen (z. B. Leistung, Bandbreite, Datenspeicher, Kommunikationskanal usw.) arbeitet, kann es wünschenswert sein, die Verarbeitung dem Katalogsystem zuzuweisen, bis die Ressourcen für das Zugriffsgerät erhöht sind. 1A Figure 4 is a pictorial diagram illustrating an exemplary user interface generated, at least in part, by a browsing service, wherein the user interface includes an interactive browsing area with a first article. The browsing service can work on an access device with the user interface 100 be implemented. In some implementations, the browsing service may be implemented on a catalog system in communication with an access device. In some implementations, the browsing service may be implemented as a distributed service, with some functions implemented on the access device and some functions on a catalog system. In a distributed configuration, it may be desirable to provide similar functions to both the access device and the catalog system to enable dynamic allocation of processing between the access device and the catalog system. For example, if the access device has limited resources (eg, power, bandwidth, data storage, Communication channel, etc.), it may be desirable to assign the processing to the catalog system until the resources for the access device are increased.

Die Benutzerschnittstelle 100 beinhaltet einen interaktiven Bildbetrachter 102. Der in 1A gezeigte interaktive Bildbetrachter 102 ist so konfiguriert, dass er zwei Bildzonen darstellt, eine obere Anzeigezone 104 und eine untere Anzeigezone 106. Eine Partition 108 trennt die obere Anzeigezone 104 und die untere Anzeigezone 106. Zusätzliche Anzeigezonen können mit entsprechenden Partitionen versehen werden. Als nicht einschränkendes Beispiel können drei Anzeigezonen mit zwei Partitionen zwischen den jeweiligen Anzeigezonen eingefügt werden. Je nach Implementierung können die Anzeigezonen gleich oder unterschiedlich groß sein. Die Partition 108 wird als horizontale Partition dargestellt. In einigen Implementierungen können zusätzliche oder alternative Partitionen enthalten sein. Beispielsweise kann eine vertikale Unterteilung verwendet werden, um einen interaktiven Bildbetrachter für Inneneinrichtung zu unterteilen, wobei eine erste Zone für die Anzeige eines Endtisches und eine weitere Zone für die Anzeige einer Couch vorgesehen ist. Die Partition 108 kann mit Partitionsinformationen assoziiert sein, die angeben, wo sich die Partition 108 in Bezug auf den interaktiven Bildbetrachter 102 befindet.The user interface 100 includes an interactive image viewer 102 , The in 1A shown interactive image viewer 102 is configured to represent two image zones, an upper display zone 104 and a lower display zone 106 , A partition 108 separates the upper display zone 104 and the lower display zone 106 , Additional display zones can be provided with corresponding partitions. As a non-limiting example, three display zones with two partitions can be inserted between the respective display zones. Depending on the implementation, the display zones may be the same size or different sizes. The partition 108 is represented as a horizontal partition. In some implementations, additional or alternative partitions may be included. For example, a vertical subdivision may be used to subdivide an interior interactive image viewer, with a first zone for the display of an end table and another zone for the display of a couch. The partition 108 may be associated with partition information that indicates where the partition is 108 in terms of the interactive image viewer 102 located.

Jede Zone kann einen Teil eines Bildes anzeigen. Wie in 1A gezeigt, zeigt die obere Anzeigezone 104 einen ersten Teil 140 eines Bildes mit einem Subjekt. Der erste Teil 140 des Bildes, der das Subjekt am Beispiel von 1A zeigt, zeigt den Kopf und Rumpf einer Person. Die untere Anzeigezone 106 zeigt einen zweiten Teil 144 eines Bildes, das das Subjekt zeigt. Der zweite Teil 144 des Subjekts im Beispiel von 1A zeigt die Beine und Füße der Person.Each zone can display part of an image. As in 1A shown, shows the upper display zone 104 a first part 140 an image with a subject. The first part 140 of the picture, which uses the example of 1A shows, shows the head and torso of a person. The lower display zone 106 shows a second part 144 a picture that shows the subject. The second part 144 of the subject in the example of 1A shows the legs and feet of the person.

Der erste Teil 140 und der zweite Teil 144 können zwei verschiedenen Bildern entnommen werden. Die Bilder können auf dem Zugriffsgerät mit der Benutzerschnittstelle 100 gespeichert werden, z. B. im internen Speicher eines Smartphones. Beim erstmaligen Laden der Benutzerschnittstelle 100 können zwei Bilder aus einem Datenspeicher ausgewählt werden, die in den Zonen des interaktiven Bildbetrachters 102 dargestellt werden. Die Auswahl kann anhand des Datums (z. B. Auswahl von Bildern, die mehr als eine vorgegebene Anzahl von Tagen zurückliegen), früherer Präferenzangaben für Bilder (z. B. werden Bilder, die mit mehr Ansichten assoziiert sind, gegenüber weniger häufig angesehenen Bildern bevorzugt), Randomisierung, Farbe eines im Bild gezeigten Artikels, Kategorie eines im Bild gezeigten Artikels (z. B. Top, Abendkleidung, Hemd, Rock, Hose, Shorts usw.) oder einer Kombination davon erfolgen. In einigen Implementierungen kann sich die Auswahl auch auf Informationen stützen, die vom Zugriffsgerät detektiert oder anderweitig bereitgestellt werden. Beispielsweise kann das Zugriffsgerät mit der Benutzerschnittstelle 100 die Temperatur oder Jahreszeit bestimmen. Wenn das Zugriffsgerät bestimmt hat, dass die Temperatur heiß ist, kann es besser sein, Warmwetterkleidung als Skikleidung anzuzeigen. Als weiteres Beispiel kann das Zugriffsgerät einen Kalender enthalten, der Veranstaltungsinformationen speichert. Die Veranstaltungsinformationen können angeben, wann und/oder an welcher Art von Veranstaltung der Benutzer teilnehmen könnte. Beim Zugriff auf die Benutzerschnittstelle 100 um den Zeitpunkt der Veranstaltung können die Veranstaltungsinformationen vom Browsing-Dienst verwendet werden, um Bilder für die Anzeige auszuwählen. Wenn zum Beispiel die Veranstaltung den Titel „Business-Meeting mit James“ trägt, können die Bilder, die professionelle Kleidung zeigen, ausgewählt werden. Wenn die Veranstaltung hingegen den Titel „Tanzen mit Freunden“ trägt, können Freizeit- oder Clubkleidung während des Auswahlverfahrens bevorzugt werden.The first part 140 and the second part 144 can be taken from two different pictures. The images can be accessed on the access device with the user interface 100 be stored, for. B. in the internal memory of a smartphone. When loading the user interface for the first time 100 You can select two images from a datastore that are in the zones of the interactive image viewer 102 being represented. The selection may be based on the date (eg, selection of images that are more than a predetermined number of days ago), prior preference information for images (eg, images associated with more views than less frequently viewed images preferred), randomization, color of an article shown in the picture, category of an article shown in the picture (eg top, evening wear, shirt, skirt, pants, shorts, etc.) or a combination thereof. In some implementations, the selection may also rely on information that is detected or otherwise provided by the access device. For example, the access device may be with the user interface 100 determine the temperature or season. If the access device has determined that the temperature is hot, it may be better to display warm-weather clothing than ski clothing. As another example, the access device may include a calendar that stores event information. The event information may indicate when and / or what type of event the user might attend. When accessing the user interface 100 Event information from the browsing service can be used at the time of the event to select images for display. For example, if the event is titled "Business Meeting with James", the pictures showing professional clothing may be selected. However, if the event is titled "Dancing With Friends", casual or club clothing may be preferred during the selection process.

In einigen Implementierungen können eines oder mehrere der Bilder aus einem entfernten Bilder-Datenspeicher ausgewählt werden. Wenn beispielsweise das Zugriffsgerät mit der Benutzeroberfläche 100 an ein Netzwerk angeschlossen ist, kann der Benutzer des Zugriffsgeräts Bilder an einem vernetzten Ort speichern, z. B. auf einer Foto-Sharing-Website, einer Social-Media-Website oder einem anderen netzwerkfähigen Datenspeicherdienst. In solchen Implementierungen kann die Auswahl eines Bildes aus dem entfernten Bilder-Datenspeicher weiterhin auf der Grundlage der Netzwerkverbindung, der Verfügbarkeit des entfernten Datenspeichers von Bildern, der dem Zugriffsgerät zur Verfügung stehenden Ressourcen (z. B. bei Betrieb im Energiesparmodus oder über eine Netzwerkverbindung mit niedriger Bandbreite, Vermeiden der Auswahl aus der entfernten Quelle, um Ressourcen zu schonen) oder einer Kombination davon erfolgen.In some implementations, one or more of the images may be selected from a remote image data store. For example, if the access device is using the UI 100 connected to a network, the user of the access device can store images in a networked location, e.g. On a photo sharing website, social media site, or other networked data storage service. In such implementations, selection of an image from the remote image data store may continue based on network connectivity, availability of the remote data store of images, resources available to the access device (eg, when operating in power save mode or via a network connection with low bandwidth, avoiding selection from the remote source to conserve resources) or a combination thereof.

Der Datenspeicher der Bilder muss nicht unter Kontrolle oder im Eigentum des Benutzers stehen. Beispielsweise kann die Benutzerschnittstelle 100 so konfiguriert sein, dass sie eine Verbindung zu einem Bilddatenspeicher eines Drittanbieters wie einem Freund oder Familienmitglied herstellt. In solchen Implementierungen können die Bilder von Artikeln, die der Drittanwender trägt, über die Benutzeroberfläche 100 durchsucht werden. Dies kann den Vorteil bieten, dass der Benutzer ein Kleidungsstück finden kann, das er vom Drittanbieter ausleihen kann, um ein Outfit zu vervollständigen.The data storage of the images need not be under the control of or owned by the user. For example, the user interface 100 be configured to connect to a third-party image data store, such as a friend or family member. In such implementations, the images of articles that the third-party user wears may be through the user interface 100 be searched. This can provide the advantage that the user can find a garment that he can borrow from the third party to complete an outfit.

In einigen Implementierungen kann die Benutzerschnittstelle 100 Bilder aus einem Katalogsystem beziehen. In solchen Implementierungen kann ein Bild eines zum Kauf oder anderen Erwerb verfügbaren Artikels (Leasing, Ausleihe, Schenkung usw.) ausgewählt und in den interaktiven Bildbetrachter 102 aufgenommen werden. Die Präsentation solcher Bilder kann nützlich sein, um den Benutzer zu neuen oder alternativen Artikeln zu führen, die er erwerben möchte, indem er sie in Verbindung mit einem bereits im Besitz des Benutzers befindlichen Artikel anzeigt. Zum Beispiel kann der erste Teil 140 die Benutzerin in ihrer roten Lieblingsbluse zeigen, während der zweite Teil 144 ein Bild aus einem Katalogsystem eines beliebten (z. B. unter den Benutzern des Katalogsystems) Paares weißer Shorts zeigt. In einigen Implementierungen kann es wünschenswert sein, ein visuelles Artefakt für Bilder zur Verfügung zu stellen, die in einem Katalogsystem enthalten sind. Beispielsweise können die weißen Shorts mit einer markanten Farbe angezeigt werden, die den Artikel wie im Bild dargestellt umrandet. Dieser Rahmen kann farblich markiert sein, um das in der Benutzerschnittstelle 100 angezeigte Element mit dem Katalogsystem, das das Element anbietet, visuell zu verknüpfen. In solchen Implementierungen können mehrere Katalogsysteme als Bilddatenquellen konfiguriert werden. Durch die Verwendung von eindeutigen Hinweisen kann die Benutzerschnittstelle 100 schnell die Quelle eines bestimmten Artikelbildes darstellen. Andere Beispiele für visuelle Artefakte, die alternativ oder zusätzlich zu einem anderen visuellen Artefakt enthalten sein können, sind: eine sichtbare Hervorhebung, ein Symbol, Buchstaben, Zahlen, Farbton oder Farbfilter. In einigen Implementierungen kann auf Bilder, die Artikel aus einem Katalogsystem zeigen, durch nicht-visuelle Hinweise wie Schall oder Vibration (z. B. haptisches Feedback) weiter hingewiesen werden.In some implementations, the user interface may be 100 Obtain images from a catalog system. In such implementations can an image of an article available for purchase or other purchase (leasing, lending, donation, etc.) and selected in the interactive image viewer 102 be recorded. The presentation of such images may be useful to guide the user to new or alternative articles that he wishes to purchase by displaying them in association with an article already in the user's possession. For example, the first part 140 show the user in her favorite red blouse while the second part 144 shows an image from a catalog system of a popular (for example, among the users of the catalog system) pair of white shorts. In some implementations, it may be desirable to provide a visual artifact for images contained in a catalog system. For example, the white shorts may be displayed in a distinctive color that outlines the article as shown in the picture. This frame can be color-coded to that in the user interface 100 to visually associate displayed items with the catalog system offering the item. In such implementations, multiple catalog systems can be configured as image data sources. By using unique hints, the user interface can 100 quickly represent the source of a particular article image. Other examples of visual artifacts that may be included as an alternative or in addition to another visual artifact are: a visible highlight, a symbol, letters, numbers, hue, or color filters. In some implementations, images that display articles from a catalog system may be further referenced by non-visual cues such as sound or vibration (eg, haptic feedback).

Wie in 1A gezeigt, kann die Benutzeroberfläche 100 ein oder mehrere Bedienelemente beinhalten (z. B. Schaltflächen; anklickbare Bilder; Hyperlinks). Ein Steuerelement kann aktiviert werden (z. B. angeklickt, ausgewählt, angetippt, verbal identifiziert usw.), um eine Nachricht an den Browsing-Dienst zu senden, der die Benutzerschnittstelle 100 koordiniert. Ein Beispiel für eine solche Steuerung ist eine „Look-kaufen“-Schaltfläche 124. Nach Aktivierung der „Look-kaufen“-Schaltfläche 124 kann dem Benutzer eine Schnittstelle zum Kauf eines oder mehrerer im interaktiven Anzeigebereich angezeigter Artikel (z. B. interaktiver Bildbetrachter 102) angeboten werden, die von einem Katalogsystem bereitgestellt werden kann. Die Aktivierung kann dazu führen, dass der Browsing-Dienst Informationen an das Katalogsystem übermittelt. Die übermittelten Informationen können die in den vom Katalogsystem gelieferten Bildern gezeigten Artikel identifizieren. Diese Informationen können vom Katalogsystem und/oder dem Browsing-Dienst für die Initiierung des Erwerbs verwendet werden. In einigen Implementierungen können dem Katalogsystem auch Informationen über den Benutzer zur Verfügung gestellt werden. Beispielsweise kann der Benutzer mit einer Kontonummer innerhalb des Katalogsystems assoziiert sein. Wenn die „Look-kaufen“-Schaltfläche 124 aktiviert ist, kann diese Kontonummer an das Katalogsystem übermittelt werden, um den Abruf von Benutzerinformationen zu erleichtern, die für den Abschluss der Transaktion für einen Artikel erforderlich sind.As in 1A shown, the user interface 100 include one or more controls (eg, buttons, clickable images, hyperlinks). A control can be activated (eg, clicked, selected, tapped, verbally identified, etc.) to send a message to the browsing service that represents the user interface 100 coordinated. An example of such a controller is a "buy look" button 124. Upon activation of the "buy look" button 124, the user may interface to purchase one or more items displayed in the interactive display area (eg, interactive image viewer 102 ), which can be provided by a catalog system. Activation may cause the browsing service to send information to the catalog system. The transmitted information can identify the items shown in the images supplied by the catalog system. This information can be used by the catalog system and / or the browsing service to initiate the purchase. In some implementations, information about the user may also be provided to the catalog system. For example, the user may be associated with an account number within the catalog system. When the "buy-buy" button 124 is activated, this account number can be transmitted to the catalog system to facilitate the retrieval of user information required to complete the transaction for an article.

Browsing-Steuerungen sind auch in 1A gezeigt. Die Browsing-Steuerungen können mit einer Anzeigezone assoziiert sein. Beispielsweise sind Browsing-Steuerung 110 und Browsing-Steuerung 112 mit der oberen Anzeigezone 104 assoziiert, während Browsing-Steuerung 114 und Browsing-Steuerung 116 mit der unteren Anzeigezone 104 assoziiert sind. Wenn eine Browsing-Steuerung aktiviert ist, bewirkt die Browsing-Steuerung, dass sich die in der zugehörigen Anzeigezone angezeigten Bilddaten ändern. In einigen Implementierungen kann die Änderung animierte Bewegungen für die Bilddaten in der angegebenen Richtung beinhalten. Wenn z. B. die Browsing-Steuerung 110 aktiviert ist, wird das in der oberen Anzeigezone 104 angezeigte Bild von der oberen Anzeigezone 104 gescrollt und durch ein neues Bild ersetzt.Browsing controls are also in 1A shown. The browsing controls may be associated with a display zone. For example, browsing control 110 and browsing control 112 with the upper display zone 104 Associated while browsing control 114 and browsing control 116 with the lower display zone 104 are associated. When a browsing control is enabled, the browsing control will cause the image data displayed in the associated display zone to change. In some implementations, the change may include animated motions for the image data in the direction indicated. If z. B. the browsing control 110 is activated, this will be in the upper display zone 104 displayed image from the upper display zone 104 scrolled and replaced with a new image.

Da Teile von Bildern in Anzeigezonen angezeigt werden, kann es wünschenswert sein, die Teile so auszurichten, dass eine realistische, kontinuierliche Ansicht auf des Subjekts gezeigt wird. Die Segmentierung und/oder Ausrichtung der Bilder kann vom Browsing-Dienst durchgeführt werden, um die Teile der Bilder, die über den interaktiven Bildbetrachter 102 angezeigt werden, automatisch anzupassen. In einigen Implementierungen kann der interaktive Bildbetrachter 102 auch spezifische Einstellungen für eine Anzeigezone erhalten. Beispielsweise kann der Benutzer den ersten Teil 140 innerhalb der oberen Anzeigezone 104 ziehen, um den ersten Teil 140 dichter an den zweiten Teil 144 der unteren Anzeigezone 106 auszurichten. Diese Einstellung kann vom Browsing-Dienst gespeichert und bei der Präsentation und/oder Ausrichtung zukünftiger Bildteile verwendet werden. Die Segmentierungs- und Ausrichtungsmerkmale werden im Folgenden ausführlicher beschrieben.Because portions of images are displayed in display zones, it may be desirable to align the portions to provide a realistic, continuous view of the subject. The segmentation and / or alignment of the images can be performed by the browsing service to view the parts of the images that are above the interactive image viewer 102 be displayed automatically. In some implementations, the interactive image viewer may 102 also get specific settings for a display zone. For example, the user may be the first part 140 within the upper display zone 104 pull to the first part 140 closer to the second part 144 the lower display zone 106 align. This setting can be saved by the browsing service and used in the presentation and / or orientation of future image parts. The segmentation and alignment features are described in more detail below.

1B ist ein bildliches Diagramm, das die beispielhafte Benutzerschnittstelle von 1A mit einer aktivierten Browsing-Steuerung veranschaulicht. Eine aktivierte Browsing-Steuerung 130 ist in 1B gezeigt. Bei der Aktivierung wird der erste Teil 140 des Subjekts in eine Richtung 132 verschoben, die mit der aktivierten Browsing-Steuerung 130 assoziiert ist. In 1B befindet sich die Richtung 132 links von der Benutzerschnittstelle 100. Wenn der erste Teil 140 nach links verschoben wird, wird in der oberen Anzeigezone 104 ein Ersatzteil 143 angezeigt. In einigen Implementierungen sind die Raten, um die der erste Teil 140 verschoben wird und ein dritter Teil 142 angezeigt wird, gleich. 1B is a pictorial diagram illustrating the exemplary user interface of 1A with an enabled browsing control. An activated browsing control 130 is in 1B shown. Upon activation, the first part becomes 140 of the subject in one direction 132 moved with the enabled browsing control 130 is associated. In 1B is the direction 132 to the left of the user interface 100 , If the first part 140 is moved to the left, is in the upper display zone 104 a spare part 143 displayed. In some implementations, the rates are around the the first part 140 is moved and a third part 142 is displayed, the same.

1C ist ein bildliches Diagramm, das die beispielhafte Benutzerschnittstelle von 1A nach der Aktivierung einer Browsing-Steuerung veranschaulicht. Die Browsing-Steuerung 110 ist in der nicht-aktivierten Form gezeigt, ähnlich, wie die Browsing-Steuerung 110 in 1A erscheint. Der interaktive Bildbetrachter 102 zeigt nun den Ersatzteil, den dritten Teil 142, aus einem ersten Bild in der oberen Anzeigezone 104 mit dem zweiten Teil 144 aus einem anderen Bild als dem ersten Bild in der unteren Anzeigezone 106. Wie gezeigt, stellt der interaktive Bildbetrachter 102 eine vollständige Ansicht des Subjekts unter Verwendung von Bilddaten aus zwei verschiedenen Bildern bereit. In einigen Implementierungen kann der Benutzer die Bilder mit dem interaktiven Bildbetrachter 102 durchsuchen, um neue Kombinationen von Looks zu entdecken. Dadurch kann die Benutzerschnittstelle 100 hypothetische Looks für den Benutzer darstellen, für den kein einziges Bild in einer Bildquelle existiert. 1C is a pictorial diagram illustrating the exemplary user interface of 1A after enabling a browsing control. The browsing control 110 is shown in the non-activated form, similar to the browsing control 110 in 1A appears. The interactive image viewer 102 now shows the spare part, the third part 142 , from a first image in the upper display zone 104 with the second part 144 from an image other than the first image in the lower display zone 106 , As shown, the interactive image viewer presents 102 provide a complete view of the subject using image data from two different images. In some implementations, the user may view the images with the interactive image viewer 102 browse to discover new combinations of looks. This allows the user interface 100 represent hypothetical looks for the user for whom there is not a single image in an image source.

Während der Benutzer den interaktiven Bildbetrachter 102 einstellt, kann eine Kombination von Bildteilen angezeigt werden, die der Benutzer speichern möchte. Eine „Look-speichern“-Schaltfläche 122 kann in der Benutzerschnittstelle 100 beinhaltet sein. Nach Aktivierung kann die „Look-speichern“-Schaltfläche 122 Informationen an den Browsing-Dienst übermitteln, die den aktuellen Status des interaktiven Bildbetrachters 102 anzeigen. Die aktuellen Statusinformationen, wenn sie dem Browsing-Dienst bereitgestellt werden, beinhalten die Informationen für den Browsing-Dienst, um die Benutzerschnittstelle 100 zum Zeitpunkt der Aktivierung der „Look-speichern“-Schaltfläche 122 wiederherzustellen. Die aktuellen Statusinformationen können eine oder mehrere der folgenden Angaben enthalten: Bezeichner der gezeigten Bilder, Quellen für die gezeigten Bilder, die Position der Partition 108 oder die Position der Bildteile innerhalb einer Anzeigezone. Die aktuellen Statusinformationen können mithilfe eines Sitzungsprotokolls gespeichert werden. Der Sitzungsdatensatz kann mit einem Datensatzbezeichner assoziiert sein. Mithilfe des Datensatzbezeichners kann der Browsing-Dienst den Sitzungsdatensatz abrufen und die Benutzerschnittstelle 100 in ihren Zustand zum Zeitpunkt der Aktivierung der „Look-speichern“-Schaltfläche 122 zurücksetzen.While the user is the interactive image viewer 102 can be displayed, a combination of image parts that the user wants to save. A "save-look" button 122 can in the user interface 100 includes his. After activation, the "save look" button 122 Submit information to the browsing service that indicates the current status of the interactive image viewer 102 Show. The current status information, when provided to the browsing service, includes the information for the browsing service to the user interface 100 at the time of activation of the "save look" button 122 restore. The current status information may include one or more of the following: identifier of the images shown, sources of the images shown, the location of the partition 108 or the position of the image parts within a display zone. The current status information can be saved using a session log. The session record may be associated with a record identifier. Using the record identifier, the browsing service can retrieve the session record and the user interface 100 in their state at the time of activation of the "save look" button 122 reset to default.

Die Benutzerschnittstelle 100 kann zusätzliche Steuerungen beinhalten, die bei Aktivierung den Status des interaktiven Bildbetrachters 102 und/oder der Benutzerschnittstelle 100 ändern. In den Beispielen in 1A, 1B und 1C kann ein oberes Steuerfeld 120a mit der oberen Anzeigezone 104 und ein unteres Steuerfeld 120b mit der unteren Anzeigezone 106 assoziiert sein. Bei solchen Implementierungen bedeutet die Aktivierung einer Steuerung innerhalb des Steuerfeldes die Aktivierung für die zugehörige Anzeigezone. Wird z. B. über das untere Steuerfeld 120b eine „Mehr-Info“-Steuerung aktiviert, können über die Benutzerschnittstelle 100 weitere Informationen zu dem in der unteren Anzeigezone 106 gezeigten Bildteil abgerufen und präsentiert werden. Wurde das Bild aus einem lokalen Bildspeicher (z. B. Datenspeicher des Zugriffsgeräts, das die Benutzerschnittstelle 100 präsentiert) abgerufen, können die zusätzlichen Informationen Metadaten für das Bild beinhalten, wie z. B. die Aufnahmezeit des Bildes oder die Ortsangabe, wo das Bild aufgenommen wurde. Wenn das Bild aus einem Katalogsystem abgerufen wurde, können die zusätzlichen Informationen z. B. ein Bezeichner des Katalogsystems, Details zu einem im Bild angezeigten Artikel wie verfügbare Größen, Farben oder Muster, Preisinformationen für einen im Bild angezeigten Artikel, Benutzerbewertungen eines im Bild angezeigten Artikels, Textinformationen zu einem im Bild angezeigten Artikel oder die Verfügbarkeit eines Artikels (z. B. in einem lokalen Geschäft vorrätig; bei Bestellung innerhalb eines bestimmten Zeitraums verfügbar) beinhalten.The user interface 100 may include additional controls that, when activated, the status of the interactive image viewer 102 and / or the user interface 100 to change. In the examples in 1A . 1B and 1C can be an upper control panel 120a with the upper display zone 104 and a lower control panel 120b with the lower display zone 106 be associated. In such implementations, activation of a controller within the control panel means activation for the associated display zone. If z. B. via the lower panel 120b A "more info" control enabled via the user interface 100 more information on the one in the lower display zone 106 shown image part can be retrieved and presented. The image was taken from a local image store (for example, datastore of the access device that is the user interface 100 presented), the additional information may include metadata for the image, such as: For example, the recording time of the image or the location where the image was taken. If the image has been retrieved from a catalog system, the additional information may e.g. For example, an identifier of the catalog system, details of an article displayed in the image, such as available sizes, colors or patterns, pricing information for an article displayed in the image, user ratings of an article displayed in the image, textual information about an article displayed in the image, or the availability of an article ( eg in stock in a local store, available on order within a certain period of time).

Eine weitere beispielhafte Steuerung, die im oberen Steuerfeld 120a oder im unteren Steuerfeld 120b beinhaltet sein kann, ist eine „Meine-Looks-durchsuchen“-Steuerung. Die „Meine-Looks-durchsuchen“-Steuerung kann eine Suche nach Bildern des Benutzers auslösen. Die Aktivierung der „Meine-Looks-durchsuchen“-Steuerung kann auch eine Suche mit Suchkriterien beinhalten, die aus dem Bild oder Teil der entsprechenden Zone übernommen wurden. Beispielsweise kann die Aktivierung der „Meine-Looks-durchsuchen“-Steuerung im oberen Steuerfeld 120a für die in 1C gezeigte Benutzerschnittstelle 100 eine Suche nach Bildern auslösen, die den Benutzer mit einem ähnlichen Artikel wie in der oberen Anzeigezone 104 zeigen (z. B. ein Top oder ein gestreiftes Top). In einigen Implementierungen kann die Benutzerschnittstelle 100 auch eine Kriterieneingabesteuerung bei Aktivierung der „Meine-Looks-durchsuchen“-Steuerung anzeigen. Die Kriterieneingabesteuerung kann so konfiguriert sein, dass sie Werte empfängt, um die Suche weiter einzuschränken, z. B. nach Datum, Farbe, Artikeltyp (z. B. Kategorie) oder anderen Kriterien.Another exemplary control, in the upper control panel 120a or in the lower panel 120b can be included is a "My Looks Search" control. The "My Looks Search" control can trigger a search for pictures of the user. Activation of the "My Looks Search" control may also include a search with search criteria taken from the image or part of the corresponding zone. For example, enabling the "My Looks Search" control in the top panel 120a for the in 1C shown user interface 100 to trigger a search for images that the user with a similar article as in the upper display zone 104 show (eg a top or a striped top). In some implementations, the user interface may be 100 also display a criteria entry control upon activation of the "Find My Looks" control. The criteria entry control may be configured to receive values to further narrow the search, e.g. For example, by date, color, item type (eg category) or other criteria.

Nach Ausführung der Suche können die Suchergebnisse über die Benutzerschnittstelle 100 bereitgestellt werden. Eine Möglichkeit, die Suchergebnisse bereitzustellen, ist der interaktive Bildbetrachter 102. In einer solchen Implementierung können die in den Suchergebnissen identifizierten Bilder als Bildmenge für die Anzeige in der entsprechenden Anzeigezone verwendet werden. Eine visueller Hinweis darauf, dass die Suchergebnisse als Bilder-Datenspeicher für die Anzeigezone verwendet werden, ist möglich. Ein Beispiel für einen solchen visuellen Hinweis kann die Überlagerung eines Bildes auf einem Teil des Anzeigebereichs sein. Eine andere Möglichkeit, die Suchergebnisse bereitzustellen, ist eine Auflistung. Die Auflistung kann sortierte oder unsortierte Bilder beinhalten, die zumindest teilweise den angegebenen Suchkriterien entsprechen. Ein Bild innerhalb der Auflistung kann ausgewählt und bei Auswahl über den entsprechenden Anzeigebereich im interaktiven Bildbetrachter 102 dargestellt werden.After running the search, the search results can be accessed through the user interface 100 to be provided. One way to provide the search results is the interactive image viewer 102 , In such an implementation, the images identified in the search results may be used as the image set for the display in the corresponding display zone. A visual indication that the search results are being used as the image data storage for the display zone is possible. An example of such A visual cue can be the overlay of an image on a part of the display area. Another way to provide the search results is a listing. The listing may include sorted or unsorted images that at least partially match the specified search criteria. An image within the collection can be selected and selected via the corresponding display area in the interactive image viewer 102 being represented.

Eine weitere beispielhafte Steuerung, die im oberen Steuerfeld 120a oder im unteren Steuerfeld 120b beinhaltet sein kann, ist eine Zufallssteuerung. Die Zufallssteuerung kann bei Aktivieren veranlassen, dass der Browsing-Dienst ein Bild zufällig oder pseudozufällig zur Präsentation über die entsprechende Anzeigezone identifiziert. Wenn beispielsweise die Zufallssteuerung im unteren Steuerfeld 120b aktiviert ist, kann der Browsing-Dienst zufällig oder pseudozufällig ein Bild aus einem Bilder-Datenspeicher für die untere Anzeigezone 106 auswählen. Die Auswahl kann die Erzeugung eines Pseudozufallswertes und die anschließende Identifizierung eines Bildes aus dem Bilder-Datenspeicher unter Verwendung des Pseudozufallswertes beinhalten.Another exemplary control, in the upper control panel 120a or in the lower panel 120b Being involved is a random control. The random control, when activated, may cause the browsing service to identify a picture randomly or pseudo-randomly for presentation via the corresponding display zone. For example, if the random control in the lower control panel 120b is enabled, the browsing service may randomly or pseudo-randomly select an image from an image data store for the lower display zone 106 choose. The selection may include generating a pseudo-random value and then identifying an image from the image data store using the pseudorandom value.

In einigen Implementierungen kann die Auswahl auch die zufällige oder pseudozufällige Auswahl eines Datenspeichers von Bildern beinhalten. Beispielsweise kann der Browsing-Dienst zunächst feststellen, welche Quelle/Quellen von Bildern verwendet werden sollen (z. B. Zugriffsgerät-Bilddatenspeicher, Datenspeicher von Drittanbietern und/oder Katalogsystem(en)) und dann ein Bild aus der identifizierten Quelle identifizieren. Bei Aktivierung der Zufallssteuerung kann die entsprechende Anzeigezone während des Auswahlprozesses einen optischen Hinweis anzeigen. Wenn beispielsweise die Zufallssteuerung für die obere Anzeigezone 104 aktiviert ist, kann die obere Anzeigezone 104 eine verschwommene Bildfolge zeigen, um eine Rückmeldung über den Status der angeforderten Aktion bereitzustellen. Ton oder andere Rückmeldungen können über die Benutzerschnittstelle 100 oder das Zugriffsgerät mit der Benutzerschnittstelle 100 dargestellt werden.In some implementations, the selection may also include the random or pseudo-random selection of a data store of images. For example, the browsing service may first determine which source / sources of images to use (e.g., access device image data storage, third-party data storage, and / or catalog system (s)) and then identify an image from the identified source. When randomization is enabled, the corresponding display zone may display an optical indication during the selection process. For example, if the randomization for the upper display zone 104 is activated, the upper display zone 104 show a blurred image sequence to provide feedback about the status of the requested action. Sound or other feedback can be through the user interface 100 or the access device with the user interface 100 being represented.

Eine weitere beispielhafte Steuerung, die im oberen Steuerfeld 120a oder im unteren Steuerfeld 120b beinhaltet sein kann, ist eine „Ähnliches-finden“-Steuerung. Wenn die „Ähnliches-finden“-Steuerung aktiviert ist, kann es sein, dass der Browsing-Dienst ein Katalogsystem nach Bildern durchsucht, die sich auf Artikel beziehen, die in dem in der zugehörigen Anzeigezone angezeigten Teil gezeigt werden. Wenn z. B. die Suchfunktion im oberen Steuerfeld 120a aktiviert ist, kann der in der oberen Anzeigezone 104 gezeigte Teil des Subjekts als Suchkriterium für eine Katalogsuche zur Übermittlung an ein Katalogsystem angegeben werden.Another exemplary control, in the upper control panel 120a or in the lower panel 120b can be included is a "find similar" control. If the Find Similar control is enabled, the browsing service may search a catalog system for images related to articles displayed in the portion displayed in the associated display zone. If z. For example, the search function in the upper panel 120a is enabled, the one in the upper display zone 104 shown part of the subject as a search criterion for a catalog search for transmission to a catalog system.

Nach Ausführung der Katalogsuche können die Suchergebnisse über die Benutzerschnittstelle 100 bereitgestellt werden. Eine Möglichkeit, die Ergebnisse der Katalogsuche zu erhalten, ist der interaktive Bildbetrachter 102. In einer solchen Implementierung können die in den Katalogsuchergebnissen identifizierten Bilder als Bildmenge zur Anzeige in der entsprechenden Anzeigezone verwendet werden. Ein visueller Hinweis dahingehend, dass die Ergebnisse der Katalogsuche als Datenspeicher für die Bilder der Anzeigezone verwendet werden, ist möglich. Ein Beispiel für einen solchen visuellen Hinweis kann die Überlagerung eines Bildes auf einem Teil der Anzeigezone sein. Eine weitere Möglichkeit, die Ergebnisse der Katalogsuche zu erhalten, ist eine Auflistung. Die Auflistung kann sortierte oder unsortierte Bilder enthalten, die zumindest teilweise den angegebenen Suchkriterien entsprechen. Ein Bild innerhalb der Auflistung kann ausgewählt und bei Auswahl über den entsprechenden Anzeigebereich im interaktiven Bildbetrachter 102 präsentiert werden.After performing the catalog search, the search results can be accessed through the user interface 100 to be provided. One way to get the results of the catalog search is to use the interactive image viewer 102 , In such an implementation, the images identified in the catalog search results may be used as an image set for display in the corresponding display zone. A visual indication that the results of the catalog search are used as data storage for the display zone images is possible. An example of such a visual cue may be the overlay of an image on a portion of the display zone. Another way to get the results of the catalog search is to list. The listing may contain sorted or unsorted images that at least partially match the specified search criteria. An image within the collection can be selected and selected via the corresponding display area in the interactive image viewer 102 to get presented.

Die Aktivierung einer Steuerung kann Interaktion mit einem Bereich der Benutzerschnittstelle 100 beinhalten. Beispielsweise können in einer Implementierung der Benutzerschnittstelle 100 die Browsing-Steuerungen 110, 112, 114 und 116 als angezeigte Bedienelemente weggelassen werden. In solchen Implementierungen kann eine Interaktion (z. B. Geste) innerhalb der Benutzerschnittstelle 100 oder eines Teils davon, wie dem interaktiven Bildbetrachter 102 oder einer der Anzeigezonen, detektiert werden. Die Interaktion kann mit einem Schwellenwert assoziiert sein, der einen Grad der Interaktion angibt, der eine Systemantwort auslöst. Beispielsweise kann ein Finger-Wisch in der oberen Anzeigezone 104 mit niedrigem Berührungsdruck und/oder geringem Abstand im Vergleich zur Breite der oberen Anzeigezone 104 unterhalb des Schwellenwerts liegen. Ein solches Wischen kann versehentlich oder zufällig und nicht eine Bilddurchsuchungsabsicht des Benutzers ausdrücken. Hat der Finger-Wisch einen höheren Anpressdruck und/oder einen größeren Abstand als die Breite der oberen Anzeigezone 104, kann der Wischvorgang eine Absicht des Benutzers anzeigen, das in der oberen Anzeigezone 104 dargestellte Bild zu ändern. Im Falle einer Wischinteraktion kann das Wischen sowohl eine Größe (z. B. Druck oder Entfernung) als auch eine Richtung (z. B. von links nach rechts; von rechts nach links; von oben nach unten; von unten nach oben) beinhalten. Die Interaktionsinformationen können bei Überschreitung des Schwellenwerts verwendet werden, um zu bestimmen, wie die Anzeigezone eingestellt werden soll. Beispielsweise kann ein Wischen von links nach rechts in der oberen Anzeigezone 104 die Benutzerschnittstelle 100 verändern, wie in 1B gezeigt. Weitere Beispiele für Interaktionen können das Antippen des Zugriffsgeräts, das Schütteln des Zugriffsgeräts oder eines damit gekoppelten Eingangs, das Auswählen eines Ortes der Benutzerschnittstelle 100, das Erkennen eines gesprochenen Befehls durch Spracherkennung oder Ähnliches sein.Activation of a controller can interact with a user interface area 100 include. For example, in one implementation of the user interface 100 the browsing controls 110 . 112 . 114 and 116 be omitted as displayed controls. In such implementations, an interaction (e.g., gesture) may occur within the user interface 100 or part of it, such as the interactive image viewer 102 or one of the display zones. The interaction may be associated with a threshold that indicates a degree of interaction that triggers a system response. For example, a finger swipe may be in the upper display zone 104 with low contact pressure and / or a small distance compared to the width of the upper display zone 104 below the threshold. Such wiping may be inadvertent or accidental and may not express a user's image browsing intent. Has the finger wiper a higher contact pressure and / or a greater distance than the width of the upper display zone 104 , the wiping action may indicate a user's intention in the upper display zone 104 change displayed image. In the case of a wiping interaction, wiping may include both a size (eg, pressure or distance) and a direction (eg, from left to right, from right to left, from top to bottom, from bottom to top). The interaction information may be used when the threshold is exceeded to determine how to set the display zone. For example, a swipe from left to right in the upper display zone 104 the user interface 100 change, as in 1B shown. Other examples of interactions may include tapping the access device, shaking the access device or an input coupled thereto, selecting a place of the user interface 100 be the recognition of a spoken command by speech recognition or the like.

Das Steuerfeld kann eine Präferenzsteuerung beinhalten, die so konfiguriert ist, dass sie Präferenzeingabeinformationen für das/den in der jeweiligen Anzeigezone gezeigte/n Bild und/oder Artikel empfängt. Wie in 1A gezeigt, kann die Präferenzsteuerung mit einem Bild wie etwa einem Stern realisiert werden. Wenn die Präferenzsteuerung aktiviert ist, erhält der Browsing-Dienst möglicherweise einen Hinweis über das/den in der entsprechenden Anzeigezone gezeigte/n Bild und/oder Artikel. Diese Präferenz kann zusammen mit dem Bild oder in einem Browsing-Dienst-Datenspeicher gespeichert werden. Die Einstellung kann verwendet werden, um die Auswahl der im interaktiven Bildbetrachter 102 anzuzeigenden Bilder dynamisch zu steuern. Beispielsweise können die Präferenzinformationen verwendet werden, um Suchergebnisse so zu organisieren, dass Bilder oder Artikel mit einer angegebenen Präferenz vor Bildern oder Artikeln ohne Präferenzangabe angezeigt werden. Die Präferenzinformationen können verwendet werden, um die Randomisierung so zu gewichten, dass Bilder oder Bilder mit bevorzugten Artikeln eine höhere Wahrscheinlichkeit haben, angezeigt zu werden, als solche ohne Präferenzzuordnung.The control panel may include a preference control configured to receive preference input information for the image and / or article displayed in the respective display zone. As in 1A As shown, the preference control can be realized with an image such as a star. When preference control is enabled, the browsing service may receive an indication about the image and / or article displayed in the corresponding display zone. This preference can be stored with the image or in a browsing service datastore. The setting can be used to select the in the interactive image viewer 102 to dynamically control images to be displayed. For example, the preference information can be used to organize search results so that images or articles with a specified preference are displayed before images or articles without preference. The preference information may be used to weight the randomization so that images or images with preferred articles are more likely to be displayed than those without preference mapping.

Das Steuerfeld kann eine Freigabesteuerung beinhalten, die so konfiguriert ist, dass sie Informationen über das in der jeweiligen Anzeigezone angezeigte Bild und/oder Artikel an einen Dritten übermittelt. Wie in 1A gezeigt, kann die Freigabesteuerung über ein Symbol wie z. B. einen Umschlag realisiert werden. Wenn die Freigabesteuerung aktiviert ist, erhält der Browsing-Dienst möglicherweise einen Hinweis über das/den in der entsprechenden Anzeigezone angezeigte/n Bild und/oder Artikel. Es kann eine Nachricht an einen Dritten gesendet werden, die das Bild und/oder den Artikel in der jeweiligen Anzeigezone anzeigt. Wenn ein Benutzer zum Beispiel seinen Freunden einen neuen Artikel über einen Social-Media-Dienst zeigen möchte, kann das Aktivieren der Freigabesteuerung die Benutzerschnittstelle 100 einstellen, um die Informationen zu erhalten, die benötigt werden, um das Bild an den Social-Media-Dienst zu senden. Andere Freigabeoptionen können E-Mails, Textnachrichten, Instant Messaging, Nachrichten an ein anderes Zugriffsgerät, das für die Anzeige einer anderen Instanz der Benutzerschnittstelle konfiguriert ist, oder Ähnliches umfassen.The control panel may include a sharing controller configured to communicate information about the picture and / or item displayed in the respective display zone to a third party. As in 1A shown, the release control via a symbol such. B. an envelope can be realized. When sharing control is enabled, the browsing service may receive an indication about the image and / or article displayed in the corresponding viewing zone. A message may be sent to a third party displaying the image and / or the article in the respective display zone. For example, if a user wants to show his friends a new article through a social media service, enabling the share control may be the user interface 100 to get the information needed to send the image to the social media service. Other sharing options may include emails, text messages, instant messaging, messages to another access device configured to display another instance of the user interface, or the like.

Das Steuerfeld kann eine Löschsteuerung beinhalten, die so konfiguriert ist, dass sie Informationen über das/den in der jeweiligen Anzeigezone gezeigte/n Bild und/oder Artikel zur Löschung an den Browsing-Dienst übermittelt. Wie in 1A gezeigt, kann die Löschsteuerung über ein Symbol, wie z. B. einen stilisierten Buchstaben X, implementiert werden. Die Löschung kann den Browsing-Dienst dazu veranlassen, das Bild aus dem Bilder-Datenspeicher zu löschen. In einigen Implementierungen kann die Löschung das Bild nicht aus dem Bilder-Datenspeicher entfernen, sondern kann das identifizierte Bild in einen Datensatz von Bildern aufnehmen, um das Bild aus der weiteren Betrachtung durch den Browsing-Dienst zu entfernen, aber das Bild im Bilder-Datenspeicher zu behalten.The control panel may include an erase control configured to communicate information about the image and / or article displayed in the respective display zone to the browsing service for deletion. As in 1A shown, the deletion control via a symbol such. As a stylized letter X can be implemented. The deletion may cause the browsing service to delete the image from the image data store. In some implementations, the deletion may not remove the image from the image data store, but may include the identified image in a data set of images to remove the image from further consideration by the browsing service, but the image in the image data store to keep.

In 1A, 1B und 1C wird die Benutzerschnittstelle 100 im Kontext eines Internetbrowsers mit Registerkarten dargestellt. In einigen Implementierungen kann die Benutzeroberfläche 100 über einen eigenständigen Client mit ähnlichen, zusätzlichen oder weniger Steuerungen präsentiert werden. Die Anzahl und Art der Steuerungen kann von den Fähigkeiten des Zugriffsgeräts abhängen, das die Benutzerschnittstelle 100 darstellt. Enthält das Zugriffsgerät z. B. einen Touchscreen, kann auf Schaltflächensteuerungen zugunsten entsprechender Gestensteuerungen verzichtet werden. In einer Implementierung darf die Benutzerschnittstelle 100 nur den interaktiven Bildbetrachter 102 präsentieren. Zusätzliche Steuerungen, wie sie in 1A, 1B oder 1C gezeigt sind, können durch eine Interaktion mit der Benutzerschnittstelle 100 präsentiert werden. Beispielsweise kann ein Teil des interaktiven Bildbetrachters 102 aktiviert werden (z. B. angeklickt, angetippt usw.), um die Präsentation eines Steuerfelds zu veranlassen.In 1A . 1B and 1C becomes the user interface 100 in the context of a web browser with tabs. In some implementations, the user interface may be 100 be presented via a stand-alone client with similar, additional or fewer controls. The number and type of controls may depend on the capabilities of the access device that the user interface 100 represents. Contains the access device z. As a touch screen, can be dispensed button controls in favor of appropriate gesture controls. In one implementation, the user interface may 100 only the interactive image viewer 102 present. Additional controls, as in 1A . 1B or 1C can be shown through an interaction with the user interface 100 to get presented. For example, part of the interactive image viewer 102 be activated (eg, clicked, tapped, etc.) to cause the presentation of a control field.

2 ist ein Blockdiagramm, das eine veranschaulichende Betriebsumgebung 200 zeigt, in der ein Zugriffsgerät, das einen Browsing-Dienst bereitstellt, es dem Benutzer ermöglicht, das Katalogsystem über Benutzerschnittstellen, wie die in 1A, 1B und 1C dargestellten, zu browsen. Die Umgebung 200 kann ein Katalogsystem 210 beinhalten. Das Katalogsystem 210 kann beinhaltet sein, um ein zentrales Repository von Artikeln bereitzustellen, auf das die Benutzer zugreifen können. Das Katalogsystem 210 bietet den Benutzern die Möglichkeit, z. B. interaktiv zu blättern, zu suchen, zu überprüfen, zu bewerten, zu kennzeichnen, zu kaufen (oder anderweitig zu erwerben), zu verkaufen oder Empfehlungen für Katalogartikel wie Haushaltsgeräte, Elektronik, Bücher, Kleidung, Schmuck und dergleichen zu erhalten. Beispiele für solche Systeme werden näher beschrieben, z. B. in US-Pat. Nrn 7,685,074; 7,472,077 und 8,122,020, von denen jedes durch Verweis in seiner Gesamtheit hierin aufgenommen ist. 2 is a block diagram illustrating an illustrative operating environment 200 Fig. 3 shows that an access device providing a browsing service allows the user to access the catalog system via user interfaces such as those described in 1A . 1B and 1C shown to browse. The environment 200 can be a catalog system 210 include. The catalog system 210 can be included to provide a central repository of articles that users can access. The catalog system 210 offers users the opportunity to For example, you may interactively browse, search, review, rate, mark, buy (or otherwise acquire), sell, or obtain referrals for catalog items such as home appliances, electronics, books, clothing, jewelry, and the like. Examples of such systems are described in more detail, for. In U.S. Pat. Nos. 7,685,074; 7,472,077 and 8,122,020, each of which is incorporated herein by reference in its entirety.

Das Katalogsystem 210 kann so organisiert sein, dass bestimmte Benutzer Einträge im Katalogsystem 210 hinzufügen oder aktualisieren können. Die Einträge können im Artikeldatenspeicher 230 gespeichert sein. Das Hinzufügen oder Ändern von Einträgen beeinflusst, welche Einträge Informationen (z. B. Beschreibung, Farbe, verschiedene Bilder) für die Suche und Darstellung durch das Katalogsystem 210 geeignet sind. Beispielsweise kann das Katalogsystem 210 eine Sammlung von Informationen über Artikel enthalten, die über das Internet zum Verkauf angeboten werden. In einigen Implementierungen können die Benutzer, die die Übermittlung von Informationen über einen Artikel initiieren, die Artikelinformationen von einem entfernten Gerät zum Laden in das Katalogsystem 210 übermitteln. Nach der Aufnahme in das Katalogsystem 210 kann ein Benutzer das Katalogsystem 210 durchsuchen, um die Artikeldaten aus dem Artikeldatenspeicher 230 zu erhalten.The catalog system 210 can be organized so that certain users have entries in the catalog system 210 can add or update. The entries can be in the article data memory 230 be saved. Adding or changing entries influences which entries contain information (eg. Description, color, various images) for searching and presentation by the catalog system 210 are suitable. For example, the catalog system 210 contain a collection of information about articles offered for sale over the Internet. In some implementations, users initiating the transmission of information about an article may download the article information from a remote device for loading into the catalog system 210 to transfer. After inclusion in the catalog system 210 a user can use the catalog system 210 Browse to the item data from the item data store 230 to obtain.

Wie gezeigt, kann ein Zugriffsgerät 300 eine Katalogsuchanfrage an ein Katalogsystem 210 über ein Netzwerk 208 senden. Das Zugriffsgerät 300 kann ein elektronisches Kommunikationsgerät sein, das so konfiguriert ist, dass es maschinenlesbare Nachrichten an das Katalogsystem 210 übermittelt. Nicht einschränkende Beispiele für das Zugriffsgerät 300 sind eine Personal-Rechenvorrichtung, Laptop-Rechenvorrichtung, Handheld-Rechenvorrichtung, Terminal-Rechenvorrichtung, mobiles Gerät (z. B. Mobiltelefone oder Tablet-Rechenvorrichtungen), tragbares Gerät mit Netzwerkzugriff und Programmausführungsmöglichkeiten (z. B. „Smart Eyewear“ oder „Smart Watches“), drahtloses Gerät, elektronisches Lesegerät, Media-Player, Home Entertainment-System, Spielkonsole, Set-Top-Box, Fernsehen mit Netzwerkzugriff und Programmausführungsmöglichkeiten (z. B. „Smart TVs“) oder andere elektronische Geräte oder Vorrichtungen. Die Nachrichten können nach einem standardisierten Protokoll wie TCP/IP, HTTP, FTP oder Ähnlichem formatiert werden. Die Übermittlung kann drahtgebunden, drahtlos oder über hybride drahtlose Netzwerke erfolgen.As shown, an access device 300 a catalog search request to a catalog system 210 over a network 208 send. The access device 300 can be an electronic communication device that is configured to send machine-readable messages to the catalog system 210 transmitted. Non-limiting examples of the access device 300 are a personal computing device, laptop computing device, handheld computing device, terminal computing device, mobile device (eg, cell phones or tablet computing devices), network access portable device, and program execution capabilities (eg, "smart eyewear" or "smart Watches "), wireless device, electronic reader, media player, home entertainment system, game console, set-top box, network-access television and program execution capabilities (eg" smart TVs ") or other electronic devices or devices. The messages can be formatted according to a standardized protocol such as TCP / IP, HTTP, FTP or similar. The transmission may be wired, wireless or via hybrid wireless networks.

Die Katalogsuchanfrage kann Texteingaben wie z. B. einen Suchbegriff beinhalten. In anderen Ausführungsformen kann die Katalogsuche auch Audiodaten beinhalten, die eine Äußerung eines Benutzers darstellen. In einigen Implementierungen kann die Katalogsuche eine Bildsuche sein und Bilddaten aus einer oder mehreren Anzeigezonen der Benutzerschnittstelle 100 beinhalten.The catalog search request can input text such as: B. include a search term. In other embodiments, the catalog search may also include audio data representing a user's utterance. In some implementations, the catalog search may be an image search and image data from one or more display zones of the user interface 100 include.

Eine im Katalogsystem 210 beinhaltete Suchmaschine 220 kann die Katalogsuche empfangen. Die Suchmaschine 220 kann so konfiguriert sein, dass sie nach Artikeln im Artikeldatenspeicher 230 mithilfe der in der Katalogsuche angegebenen Kriterien sucht. Wenn die Katalogsuchanfrage beispielsweise Audiodaten beinhaltet, kann die Suchmaschine 220 so konfiguriert sein, dass sie eine Transkription des Audiosignals von einem automatischen Spracherkennungssystem erhält. Mithilfe der Transkription oder falls der Suchbegriff in Textform in der Katalogsuchanfrage bereitgestellt ist, kann die Suchmaschine 220 Artikel im Artikeldatenspeicher 230 identifizieren. Die Identifikation kann eine buchstäbliche Identifikation sein (z. B. exakte Übereinstimmung zwischen Artikeldaten und der Katalogsuchanfrage). Die Identifikation kann eine Teilübereinstimmung sein (z. B. Wörter mit ähnlichen Stämmen oder Synonyme). In einigen Implementierungen kann die Suche gegen einen Index des Artikeldatenspeichers 230 durchgeführt werden.One in the catalog system 210 included search engine 220 can receive the catalog search. The search engine 220 can be configured to look for items in the item data store 230 using the criteria specified in the catalog search. For example, if the catalog search request includes audio data, the search engine may 220 be configured to receive a transcription of the audio signal from an automatic speech recognition system. Using the transcription or if the search term is provided in text form in the catalog search request, the search engine can 220 Article in the article data storage 230 identify. The identification may be a literal identification (eg exact match between item data and the catalog request). The identification may be a partial match (eg words with similar strains or synonyms). In some implementations, the search may be against an index of the article data store 230 be performed.

Bei der Identifikation von Artikeln können die Informationen über die Artikel auch aus dem Artikeldatenspeicher 230 abgerufen werden. Die Informationen über einen Artikel können ein oder mehrere Bilder für den Artikel, eine textuelle Beschreibung des Artikels, Benutzerbewertungen des Artikels, Herstellerinformationen für den Artikel, eine Katalogkennung, die den Artikel innerhalb des Katalogsystems eindeutig identifiziert, und Ähnliches enthalten. Die Informationen über die identifizierten Artikel können von der Suchmaschine 220 als Suchergebnis bereitgestellt werden. Das Suchergebnis kann bei einigen Implementierungen an das Zugriffsgerät 300 übertragen werden. Dementsprechend können Artikel über das Katalogsystem 210 aus einem im Artikeldatenspeicher 230 abgelegten Artikelkatalog gesucht und abgerufen werden.When identifying articles, the information about the articles may also be taken from the article data store 230 be retrieved. The information about an article may include one or more images for the article, a textual description of the article, user ratings of the article, manufacturer information for the article, a catalog identifier that uniquely identifies the article within the catalog system, and the like. The information about the identified articles can be obtained from the search engine 220 be provided as a search result. The search result may be in some implementations to the access device 300 be transmitted. Accordingly, articles about the catalog system 210 from one in the article data memory 230 filed article catalog can be searched and retrieved.

Das Zugriffsgerät 300 kann einen Browsing-Dienst 380 beinhalten. Der Browsing-Dienst 380 kann so konfiguriert sein, dass er die Benutzerschnittstelle 100 bereitstellt und Aktivierungsinformationen von Steuerungen darauf empfängt, wie sie in Bezug auf 1A, 1B und 1C beschrieben sind. Ein Benutzerschnittstellenmodul 382 kann in dem Browsing-Dienst 380 beinhaltet sein. Das Benutzerschnittstellenmodul 382 kann so konfiguriert sein, dass es die Benutzerschnittstelle 100 erzeugt, Aktivierungsinformationen empfängt und die durch entsprechende Aktivierungen angezeigten Browsing-Funktionen ausführt. Dies kann das Abrufen von Bildern aus einem im Zugriffsgerät 300 enthaltenen Bilddatenspeicher 330 beinhalten. Wie oben beschrieben, kann es wünschenswert sein, die korrekte Ausrichtung der Bildteile innerhalb und zwischen den Anzeigezonen sicherzustellen. Ein Bildsegmentierungsmodul 386 und ein Bildausrichtungsmodul 384 können in dem Browsing-Dienst 380 beinhaltet sein, um die Ausrichtung der Bilder zu unterstützen. Das Bildsegmentierungsmodul 386 kann konfiguriert sein, um Bilder in entsprechende Teile zu segmentieren. Die Segmentierung kann auf Modellierungsinformationen basieren, die in einem Modellierungsdatenspeicher 334 gespeichert sind. Das Bildausrichtungsmodul 384 kann so konfiguriert sein, dass die für die Darstellung identifizierten Bildteile in den jeweiligen Anzeigezonen vertikal und/oder horizontal ausgerichtet werden. Die Ausrichtung kann auf Modellierungsinformationen basieren, die im Modellierungsdatenspeicher 334 gespeichert sind. In einigen Implementierungen kann das Bildausrichtungsmodul 384 so konfiguriert sein, dass es Bilder ausrichtet, die durch das Bildausrichtungsmodul 386 segmentiert wurden.The access device 300 can be a browsing service 380 include. The browsing service 380 can be configured to use the user interface 100 and receives activation information from controllers on it as related to 1A . 1B and 1C are described. A user interface module 382 can in the browsing service 380 includes his. The user interface module 382 can be configured to be the user interface 100 generates, receives activation information and executes the browsing functions indicated by respective activations. This can be the retrieval of images from one in the access device 300 contained image data memory 330 include. As described above, it may be desirable to ensure the correct alignment of the image portions within and between the display zones. An image segmentation module 386 and an image alignment module 384 can in the browsing service 380 be included to help align the images. The image segmentation module 386 can be configured to segment images into corresponding parts. The segmentation may be based on modeling information stored in a modeling data store 334 are stored. The image orientation module 384 may be configured to vertically and / or horizontally align the image portions identified for display in the respective display zones. The alignment may be based on modeling information stored in the modeling data store 334 are stored. In some Implementations can use the image alignment module 384 be configured to align images through the image alignment module 386 were segmented.

In einigen Implementierungen kann auf ein oder mehrere Elemente des Browsing-Dienstes 380 über das Netzwerk 208 anstatt mit dem Zugriffsgerät 300 zugegriffen werden. Ebenso kann eine Bilddatenquelle wie der Bilddatenspeicher 330 und/oder der Modellierungsdatenspeicher 334 über das Zugriffsgerät 300 zugänglich sein. Beispielsweise können die Modellierungsdaten im Katalogsystem 210 gespeichert und vom Zugriffsgerät 300 über das Netzwerk 208 abgerufen werden.In some implementations, you can access one or more elements of the browsing service 380 over the network 208 instead of the access device 300 be accessed. Likewise, an image data source such as the image data memory 330 and / or the modeling data store 334 via the access device 300 be accessible. For example, the modeling data in the catalog system 210 stored and from the access device 300 over the network 208 be retrieved.

Die im Zugriffsgerät 300 enthaltenen Elemente können über einen Bus 390 gekoppelt sein. Der Bus 390 kann ein Datenbus, Kommunikationsbus oder ein anderer Busmechanismus sein, damit die verschiedenen Komponenten des Zugriffsgerätes 300 Informationen austauschen können.The in the access device 300 Elements contained can be over a bus 390 be coupled. The bus 390 may be a data bus, communication bus, or other bus mechanism, so that the various components of the access device 300 Exchange information.

3 stellt eine allgemeine Architektur eines beispielhaften Zugriffgeräts 300 dar, das einen Browsing-Service für das effiziente und interaktive Browsen von Artikeln und/oder Bildern bereitstellt, die von dem Katalogsystem verwaltet werden, das in 2 gezeigt wird. Das Zugriffsgerät 300 kann eine Verarbeitungseinheit 340, einen Browsing-Dienst 380, eine Netzwerkschnittstelle 345, ein computerlesbares Laufwerk 350, eine Ein-/Ausgabeschnittstelle 355 und einen Speicher 370 beinhalten. Die Netzwerkschnittstelle 345 kann die Verbindung zu einem oder mehreren Netzwerken oder Computersystemen herstellen. Die Verarbeitungseinheit 340 kann über die Netzwerkschnittstelle 345 Informationen und Anweisungen von anderen Rechensystemen oder Diensten empfangen. Die Netzwerkschnittstelle 345 kann auch Daten direkt im Speicher 370 speichern. Die Verarbeitungseinheit 340 kann über die Ein-/Ausgabegeräteschnittstelle 355 mit dem Speicher 370 kommunizieren und Informationen an eine optionale Anzeige 360 ausgeben. Die Ein-/Ausgabegeräteschnittstelle 355 kann auch Eingaben vom optionalen Eingabegerät 365, wie Tastatur, Maus, digitaler Stift, Mikrofon, Massenspeichergerät, Touchscreen, Gestenerkennungssystem, Spracherkennungssystem, Bilderkennung durch ein Bildgebungsgerät (das Auge, Hand, Kopf, Körperverfolgungsdaten und/oder Platzierung erfassen kann), Gamepad, Beschleunigungsmesser, Gyroskop oder andere im Fach bekannte Eingabegeräte akzeptieren. Ein Beispiel für eine Eingabe ist ein über einen Touchscreen empfangenes Wischen. Ein weiteres Beispiel für eine Eingabe ist die Aktivierung per Mausklick auf einer in der Benutzerschnittstelle 100 beinhalteten Steuerung. 3 illustrates a general architecture of an exemplary access device 300 which provides a browsing service for the efficient and interactive browsing of articles and / or images managed by the catalog system incorporated in 2 will be shown. The access device 300 can be a processing unit 340 , a browsing service 380 , a network interface 345 , a computer-readable drive 350 , an input / output interface 355 and a memory 370 include. The network interface 345 can connect to one or more networks or computer systems. The processing unit 340 can over the network interface 345 Receive information and instructions from other computing systems or services. The network interface 345 can also store data directly in memory 370 to save. The processing unit 340 can via the input / output device interface 355 with the memory 370 communicate and send information to an optional display 360 output. The input / output device interface 355 can also input from the optional input device 365 such as keyboard, mouse, digital pen, microphone, mass storage device, touch screen, gesture recognition system, speech recognition system, image recognition by an imaging device (which can capture eye, hand, head, body tracking data and / or placement), gamepad, accelerometer, gyroscope, or others known in the art Accept input devices. An example of an input is a swipe received via a touchscreen. Another example of an input is activation by mouse click on one in the user interface 100 included control.

Der Speicher 370 kann bestimmte computerausführbare Befehle enthalten, die die Verarbeitungseinheit 340 oder eine andere Rechenvorrichtung in Kommunikation mit dem Datenspeicher ausführen kann, um alle oder einen Teil einer oder mehrerer Ausführungsformen zu implementieren. Der Speicher 370 kann RAM, ROM und/oder andere persistente, nicht transitorische, computerlesbare Medien beinhalten. Der Speicher 370 kann ein Betriebssystem 374 speichern, das Computerprogrammanweisungen für die Verwendung durch die Verarbeitungseinheit 340 oder andere Elemente des Zugriffsgerätes in der allgemeinen Verwaltung und Bedienung des Zugriffsgerätes 300 bereitstellt. Der Speicher 370 kann außerdem Computerprogrammanweisungen und andere Informationen zur Umsetzung von Aspekten der vorliegenden Offenlegung beinhalten.The memory 370 may contain certain computer-executable instructions that the processing unit 340 or perform another computing device in communication with the data store to implement all or part of one or more embodiments. The memory 370 may include RAM, ROM and / or other persistent non-transitory computer-readable media. The memory 370 can be an operating system 374 store the computer program instructions for use by the processing unit 340 or other elements of the access device in the general management and operation of the access device 300 provides. The memory 370 may also include computer program instructions and other information for implementing aspects of the present disclosure.

Beispielsweise beinhaltet der Speicher 370 in einer Ausführung Anweisungen für den Browsing-Dienst 380. Die Anweisungen können spezifische Anweisungen für das Bildausrichtungsmodul 384, das Bildsegmentierungsmodul 386 und das Benutzerschnittstellenmodul 382 beinhalten. Der Speicher kann auch eine Browsing-Konfiguration 388 enthalten. Die Browsing-Konfiguration 388 kann die Schwellenwerte, die Datenspeicherung von Bildinformationen, Benutzerinformationen für den Zugriff auf ein Katalogsystem oder andere beschriebene Konfigurationswerte beinhalten. Die Browsing-Konfiguration 388 kann bestimmte Werte für einen bestimmten Konfigurationsparameter speichern, z. B. die Interaktionsschwelle für die Aktivierung eines Steuerelements. Die Browsing-Konfiguration 388 kann in einigen Implementierungen Informationen speichern, um Werte für ein bestimmtes Konfigurationselement zu erhalten. Beispielsweise können ein Steuerinteraktionsschwellenwert oder entfernte Bilder-Datenspeicher als Netzwerkspeicherort (z. B. URL) in Verbindung mit Benutzernamen- und Passwortinformationen angegeben werden, um auf den Netzwerkspeicherort zuzugreifen und den Steuerinteraktionsschwellenwert oder die Liste der entfernten Bilder-Datenspeicher zu erhalten. Der Speicher 370 kann auch einen oder mehrere Zusatzdatenspeicher wie den Bilddatenspeicher 330 oder den Modellierungsdatenspeicher 334 beinhalten oder mit diesen kommunizieren.For example, the memory includes 370 in one embodiment, instructions for the browsing service 380 , The instructions may have specific instructions for the image alignment module 384 , the image segmentation module 386 and the user interface module 382 include. The store can also have a browsing configuration 388 contain. The browsing configuration 388 may include thresholds, image information storage, user information for accessing a catalog system, or other described configuration values. The browsing configuration 388 can store certain values for a specific configuration parameter, such as For example, the interaction threshold for enabling a control. The browsing configuration 388 In some implementations, it may store information to obtain values for a particular configuration item. For example, a control interaction threshold or remote image datastores may be specified as a network location (eg, URL) in conjunction with username and password information to access the network location and obtain the control interaction threshold or the list of remote image datastores. The memory 370 can also have one or more additional data storage such as the image data storage 330 or the modeling data store 334 include or communicate with them.

Die im Zugriffsgerät 300 beinhalteten Elemente können über den Bus 390 gekoppelt werden. Der Bus 390 kann ein Datenbus, Kommunikationsbus oder ein anderer Busmechanismus sein, damit die verschiedenen Komponenten des Zugriffsgerätes 300 Informationen austauschen können.The in the access device 300 included items can be over the bus 390 be coupled. The bus 390 may be a data bus, communication bus, or other bus mechanism, so that the various components of the access device 300 Exchange information.

Bei einigen Ausführungsformen kann das Zugriffsgerät 300 zusätzliche oder weniger Komponenten beinhalten als in 3 gezeigt. Beispielsweise kann ein Zugriffsgerät 300 mehr als eine Verarbeitungseinheit ähnlich der Verarbeitungseinheit 340 und/oder mehr als ein computerlesbares Medienlaufwerk ähnlich dem computerlesbaren Medienlaufwerk 350 enthalten. In einem anderen Beispiel kann das Zugriffsgerät 300 nicht mit einer Anzeige 360 oder einem Eingabegerät 365 gekoppelt sein. In einigen Ausführungsformen können zwei oder mehr Zugriffsgeräte zusammen ein Computersystem zur Ausführung von Merkmalen der vorliegenden Offenbarung bilden.In some embodiments, the access device 300 contain additional or fewer components than in 3 shown. For example, an access device 300 more than one processing unit similar to the processing unit 340 and / or more than a computer readable Media drive similar to the computer readable media drive 350 contain. In another example, the access device 300 not with an ad 360 or an input device 365 be coupled. In some embodiments, two or more access devices together may form a computer system for performing features of the present disclosure.

4 ist ein Flussdiagramm, das ein im Katalogsystem implementiertes Beispielverfahren zum Browsen von Artikelbildern darstellt. Das in 4 gezeigte Verfahren 400 kann ganz oder teilweise durch die hier beschriebenen Vorrichtungen, wie z. B. das Benutzerschnittstellenmodul 382 des Zugriffsgerätes 300 in 2 und 3, implementiert werden. 4 Figure 11 is a flowchart illustrating an example method for browsing article images implemented in the catalog system. This in 4 shown method 400 may be wholly or partly by the devices described herein, such as. For example, the user interface module 382 the access device 300 in 2 and 3 to be implemented.

Das Verfahren 400 beginnt bei Block 405, bei dem ein Anzeigebereich mit einer ersten Anzeigezone und einer zweiten Anzeigezone vorgesehen ist. Ein nicht einschränkendes Beispiel für einen Anzeigebereich ist der interaktive Bildbetrachter 102, wie er in 1A, 1B oder 1C gezeigt wird. Die Bereitstellung des Anzeigebereichs kann das Gewährleisten einer Benutzerschnittstelle einschließlich der ersten Anzeigezone und der zweiten Anzeigezone beinhalten. Die Benutzerschnittstelle kann der in 1A, 1B oder 1C dargestellten Benutzerschnittstelle 100 ähnlich sein. Bei Block 410 wird ein Teil eines ersten Bildes zum Präsentieren in der ersten Anzeigezone identifiziert. Das erste Bild kann zufällig oder halbzufällig identifiziert werden. Das erste Bild kann aus einem Bilder-Datenspeicher identifiziert werden, der in dem Gerät beinhaltet ist, das den Anzeigebereich bereitstellt. In einigen Implementierungen kann das erste Bild aus einem vernetzten Bilder-Datenspeicher identifiziert werden, auf den von dem Gerät aus zugegriffen werden kann, das den Anzeigebereich über eine Netzwerkverbindung bereitstellt. Im Rahmen der Identifizierung des ersten Bildes kann auch ein Teil des ersten Bildes zur Präsentation identifiziert werden. Der Teil kann anhand des der ersten Anzeigezone assoziierten Anzeigebereichs identifiziert werden. Wenn z. B. mit der ersten Anzeigezone 30 % des Anzeigebereichs assoziiert sind, können 30 % des Bildes als zu präsentierender Teil identifiziert werden. Der erste Teil kann durch Segmentierung des ersten Bildes identifiziert werden, wie weiter unten ausführlicher beschrieben.The procedure 400 starts at block 405 in which a display area is provided with a first display zone and a second display zone. A non-limiting example of a display area is the interactive image viewer 102 as he is in 1A . 1B or 1C will be shown. The provision of the display area may include providing a user interface including the first display zone and the second display zone. The user interface can be the one in 1A . 1B or 1C presented user interface 100 be similar to. At block 410 a part of a first image is identified for presentation in the first display zone. The first image can be identified randomly or semi-randomly. The first image may be identified from an image data store included in the device that provides the display area. In some implementations, the first image may be identified from a networked image data store that is accessible from the device that provides the display area over a network connection. As part of the identification of the first image, a part of the first image can also be identified for presentation. The part can be identified by the display area associated with the first display zone. If z. For example, if 30% of the display area is associated with the first display zone, 30% of the image may be identified as a part to be presented. The first part may be identified by segmenting the first image, as described in greater detail below.

Bei Block 415 wird ein Teil eines zweiten Bildes zur Präsentation in der zweiten Anzeigezone identifiziert. Wie beim ersten Bild kann das zweite Bild zufällig oder halbzufällig identifiziert werden. Das zweite Bild kann aus einem Bilder-Datenspeicher identifiziert werden, der in dem Gerät beinhaltet ist, das den Anzeigebereich bereitstellt. In einigen Implementierungen kann das zweite Bild aus einem vernetzten Bilder-Datenspeicher identifiziert werden, auf den von dem Gerät aus zugegriffen werden kann, das den Anzeigebereich über eine Netzwerkverbindung bereitstellt. Das zweite Bild kann aus einem anderen Datenspeicher als das erste Bild identifiziert werden. Als Teil der Identifizierung des zweiten Bildes kann auch ein Teil des zweiten Bildes zur Präsentation identifiziert werden. Der Teil kann anhand des der zweiten Anzeigezone zugeordneten Anzeigebereichs identifiziert werden. Wenn z. B. der zweiten Anzeigezone 70 % des Anzeigebereichs zugeordnet ist, können 70 % des Bildes als der Teil zur Präsentation identifiziert werden. Der zweite Teil kann durch Segmentierung des zweiten Bildes identifiziert werden, wie weiter unten ausführlicher beschrieben.At block 415 a part of a second image is identified for presentation in the second display zone. As with the first image, the second image can be identified randomly or semi-randomly. The second image may be identified from an image data store included in the device that provides the display area. In some implementations, the second image may be identified from a networked image data store that is accessible from the device that provides the display area over a network connection. The second image can be identified from a different data store than the first image. As part of the identification of the second image, a part of the second image can also be identified for presentation. The part can be identified on the basis of the display area assigned to the second display zone. If z. For example, if the second display zone is associated with 70% of the display area, 70% of the image may be identified as the portion for presentation. The second part may be identified by segmentation of the second image, as described in greater detail below.

Bei Block 420 werden der erste Teil des ersten Bildes und der zweite Teil des zweiten Bildes in ihren jeweiligen Anzeigezonen angezeigt. In einigen Implementierungen kann Block 420 beinhalten, dass ein Anzeigen des ersten Teils des ersten Bildes und des zweiten Teils des zweiten Bildes in ihren jeweiligen Anzeigezonen veranlasst wird. Die Anzeige kann durch eine oder mehrere Meldungen veranlasst werden, die z. B. zwischen dem Zugriffsgerät 300 und dem Katalogsystem 210 übermittelt werden. Das Anzeigen der Teile kann das Wiedergeben des Teils der Bilder auf einem Anzeigegerät beinhalten. Das Anzeigen der Teile kann auch das Ausrichten der Teile beinhalten, um eine kontinuierliche Ansicht des Subjekts zu erhalten. Die Ausrichtungsmerkmale werden im Folgenden näher erläutert.At block 420 the first part of the first image and the second part of the second image are displayed in their respective display zones. In some implementations, block 420 include causing display of the first part of the first image and the second part of the second image in their respective display zones. The display can be triggered by one or more messages, the z. B. between the access device 300 and the catalog system 210 be transmitted. Displaying the parts may include rendering the part of the images on a display device. Displaying the parts may also involve aligning the parts to obtain a continuous view of the subject. The alignment features are explained in more detail below.

Bei Block 430 wird bestimmt, ob innerhalb der ersten Anzeigezone eine Interaktion detektiert wurde. Die Bestimmung kann die Überwachung der ersten Anzeigezone für eine Eingabe beinhalten, die eine Interaktionsschwelle überschreitet. Die Bestimmung kann auch das Erkennen der Aktivierung einer Steuerung beinhalten, die mit der ersten Anzeigezone assoziiert ist. Wenn die Bestimmung bei Block 430 negativ ist, kehrt das Verfahren 400 zu Block 420 zurück, um den ersten Teil und den zweiten Teil weiter zu präsentieren. Ist die Bestimmung bei Block 430 positiv, geht das Verfahren 400 zu Block 435 über.At block 430 it is determined whether an interaction has been detected within the first display zone. The determination may include monitoring the first display zone for an input that exceeds an interaction threshold. The determination may also include detecting the activation of a controller associated with the first display zone. If the determination at block 430 is negative, the process returns 400 to block 420 back to present the first part and the second part further. Is the determination at block 430 positive, the procedure goes 400 to block 435 above.

Bei Block 435 werden die über die erste Anzeigezone präsentierten Bilddaten eingestellt. Die Einstellung kann sich nach der Art der detektierten Interaktion richten. Wenn die Interaktion beispielsweise eine Wischbewegung über die in 1B gezeigte obere Anzeigezone 104 von rechts nach links der oberen Anzeigezone 104 war, kann die Einstellung das Entfernen des ersten Teils aus der ersten Anzeigezone von rechts nach links beinhalten, so dass der erste Teil 140 nicht mehr der einzige Teil des in der oberen Anzeigezone 104 gezeigten Subjekts ist. Die Einstellung kann auch das Ersetzen des ersten Teils durch einen Ersatzteil eines dritten Bildes beinhalten. Wie in 1B dargestellt, tritt der dritte Teil 142 in die obere Anzeigezone 104 ein. Der Ersatzteil kann zufällig oder pseudozufällig aus einem Bildspeicher ausgewählt werden. Der Ersatzteil kann auch von rechts nach links wiedergegeben werden, wenn der erste Teil aus der ersten Anzeigezone entfernt wird.At block 435 the image data presented via the first display zone are set. The setting may depend on the type of interaction detected. For example, if the interaction wipes across the in 1B shown upper display zone 104 from right to left of the upper display zone 104 was, the setting may include removing the first part from the first display zone from right to left, leaving the first part 140 no longer the only part of the upper display zone 104 shown subject is. The adjustment may also include replacing the first part with a replacement part of a third image. As in 1B shown, the third part occurs 142 in the upper display zone 104 one. The spare part may be random or pseudo-random from one Image memory to be selected. The spare part can also be played from right to left when the first part is removed from the first display zone.

War die Art der Interaktion eine Bildeinstellung, kann der erste Teil innerhalb der ersten Anzeigezone proportional zum Ausmaß der Interaktion verschoben werden. Beispielsweise kann der Benutzer den ersten Teil 140 manuell mit dem zweiten Teil 144 in 1A ausrichten oder einen oder beide Teile verschieben, um eine ästhetisch genauere Ansicht des gesamten Subjekts zu erhalten. Die Interaktion kann ein Ziehen innerhalb der ersten Anzeigezone (z. B. der oberen Anzeigezone 104) beinhalten, das die Richtung und den Umfang der Bewegung angibt, die auf den ersten Teil (z. B. den ersten Teil 140) angewendet werden soll. Das Verfahren 400 kann mit der Einstellung der Anzeigezone als Reaktion auf die detektierte Interaktion enden. Das gesamte oder ein Teil des Verfahrens 400 kann mit dem Ersatzteil und dem zweiten Teil wiederholt werden, um weiteres Browsen und Interagieren über die Benutzerschnittstelle zu ermöglichen.If the nature of the interaction was an image adjustment, the first part within the first display zone may be shifted proportionally to the extent of the interaction. For example, the user may be the first part 140 manually with the second part 144 in 1A Align or move one or both parts for a more aesthetically accurate view of the entire subject. The interaction may be dragging within the first display zone (eg, the upper display zone 104 ), which indicates the direction and amount of movement on the first part (eg the first part 140 ) should be applied. The procedure 400 may end with the adjustment of the display zone in response to the detected interaction. All or part of the procedure 400 can be repeated with the replacement part and the second part to allow further browsing and interacting via the user interface.

Segmentierung kann verwendet werden, um den Teil eines Bildes zur Präsentation über eine Anzeigezone identifizieren. In der beispielhaften Implementierung für Kleidung kann ein Bild einer Person die Person zeigen, wie sie verschiedene Artikel trägt. Daher kann es wünschenswert sein, Bilder zu segmentieren, um jede Kategorie von Subjekten in einem Bild zu identifizieren. Eine Möglichkeit, ein Bild zu segmentieren, ist die Verwendung eines Strukturmodells.Segmentation can be used to identify the part of an image for presentation via a display zone. In the exemplary garment implementation, an image of a person may show the person wearing various articles. Therefore, it may be desirable to segment images to identify each category of subjects in an image. One way to segment an image is to use a structural model.

5A ist ein bildliches Diagramm eines illustrativen Strukturmodells für ein Subjekt, das in einem Bild erscheint. Das Bild in 5A beinhaltet auch vierzehn strukturelle Bezugspunkte mit der Bezeichnung M bis Z. Beispielsweise ist der strukturelle Bezugspunkt 530r der strukturelle Bezugspunkt R, der sich ungefähr an der linken Schulter des Subjekts 120 befindet. Jede der in 5A gezeigten Strukturreferenzen enthält auch mindestens einen Pfad zu einer anderen Strukturreferenz. Beispielsweise hat die Strukturreferenz 503r einen Pfad 545a zur Strukturreferenz 530s und einen weiteren Pfad 546b zur Strukturreferenz 530q. Jedem Pfad ist ein Abstand zugeordnet, der den Abstand zwischen den durch den Pfad assoziierten Knoten (z. B. strukturelle Referenzen) angibt. Die Sammlung von Strukturreferenzen und Pfaden bildet eine Strukturgrafik für das Subjekt. Wenn es sich bei dem Subjekt um einen Menschen handelt, kann das strukturelle Schaubild als Skelettmodell bezeichnet werden. 5A Figure 11 is a pictorial diagram of an illustrative structural model for a subject appearing in an image. The picture in 5A also includes fourteen structural reference points labeled M through Z. For example, the structural reference is 530R the structural reference point R, located approximately at the left shoulder of the subject 120 located. Each of the in 5A The structure references shown also contain at least one path to another structure reference. For example, the structure reference has 503R a path 545a to the structure reference 530s and another path 546b to the structure reference 530q , Each path is assigned a distance indicating the distance between the nodes associated with the path (e.g., structural references). The collection of structure references and paths forms a structural graphic for the subject. If the subject is a human, the structural diagram can be called a skeletal model.

5B ist ein bildliches Diagramm des Bildes, in dem das Subjekt erscheint, das mit dem Strukturmodell von 5A gemappt ist. Das Mapping kann durch Aufnahme des strukturellen Schaubilds für das Subjekt, z. B. aus dem Modellierungsdatenspeicher 334, durchgeführt werden. Mithilfe von Daten im Bild des Subjekts können die Knoten des Strukturmodells auf Positionen im Bild abgebildet werden. Die Positionen können durch den Vergleich von Tiefeninformationen für die im Bild enthaltenen Pixel mit den Knotenwerten für das Strukturmodell identifiziert werden. In einigen Implementierungen kann Merkmalserkennung verwendet werden, um Positionen für die Platzierung der Knoten des Strukturmodells zu identifizieren. Zum Beispiel kann Gesichtserkennung verwendet werden, um das Gesicht des Subjekts wie im Bild gezeigt zu identifizieren. Einmal identifiziert, kann der Knoten M an der identifizierten Stelle platziert werden. 5B is a pictorial diagram of the picture in which the subject appears, which corresponds to the structural model of 5A is mapped. The mapping can be done by taking the structural diagram for the subject, e.g. From the modeling data store 334 , be performed. Using data in the image of the subject, the nodes of the structural model can be mapped to positions in the image. The positions can be identified by comparing depth information for the pixels contained in the image with the node values for the structural model. In some implementations, feature recognition may be used to identify positions for the placement of the nodes of the structural model. For example, face recognition can be used to identify the subject's face as shown in the picture. Once identified, the node M can be placed at the identified location.

Sobald das strukturelle Schaubild auf das Bild gemappt ist, können Sammlungen von Knoten mit verschiedenen Segmenten des dargestellten Subjekts assoziiert werden. Beispielsweise werden die Knoten X, W, U, V, Y und Z auf einen Teil des Bildes gemappt, der die Beine des Subjekts zeigt. Die Sammlungen von Knoten und Verknüpfungen mit Segmenten können in einem Datenspeicher gespeichert werden, auf den das Bildsegmentierungsmodul 386 zugreifen kann In einigen Implementierungen können die Knotensammlungen in Verbindung mit dem Strukturdiagramm gespeichert werden.Once the structural diagram is mapped to the image, collections of nodes may be associated with different segments of the represented subject. For example, the nodes X, W, U, V, Y, and Z are mapped to a part of the image showing the legs of the subject. The collections of nodes and links to segments can be stored in a data store to which the image segmentation engine is attached 386 In some implementations, the node collections can be stored in conjunction with the structure diagram.

Das Bild kann in Teile unterteilt werden, basierend auf einem gewünschten Segment, das über den interaktiven Bildbetrachter 102 präsentiert werden soll. Wenn das Bild beispielsweise zur Aufnahme in der oberen Anzeigezone 104 ausgewählt wird, kann ein Teil des Bildes, der die obere Hälfte (z. B. Rumpf und Kopf) des Subjekts zeigt, benötigt werden.The image can be divided into parts based on a desired segment via the interactive image viewer 102 should be presented. For example, if the picture is to be taken in the upper display zone 104 is selected, a portion of the image showing the top half (eg, torso and head) of the subject may be needed.

5C zeigt einen Teil des Bildes, das in 5B segmentiert gezeigt wird, um den Teil des Bildes zu zeigen, der dem Rumpf und dem Kopf des Subjekts entspricht. Ähnlich kann, wenn das Bild in der unteren Anzeigezone 106 gezeigt werden soll, ein Teil des Bildes, der die untere Hälfte (z. B. Beine) des Subjekts zeigt, benötigt werden. 5C shows a part of the image that is in 5B segmented to show the part of the image that corresponds to the subject's torso and head. Similarly, if the picture is in the lower display zone 106 is to be shown, a portion of the image showing the lower half (eg, legs) of the subject is needed.

5D zeigt einen Teil des Bildes, das in 5B gezeigt ist, segmentiert, um den Teil des Bildes zu zeigen, der den Beinen des Subjekts entspricht. Weitere Details zu Strukturmodellen und Bildsegmentierungen sind in der am 3. Juni 2015 eingereichten US-Patentanmeldung Nr. 14/729894 bereitgestellt, die in ihrer Gesamtheit im gemeinsamen Besitz ist und durch Verweis aufgenommen wird. 5D shows a part of the image that is in 5B is shown segmented to show the part of the image corresponding to the legs of the subject. Further details on structural models and image segmentation are presented in the June 3, 2015 U.S. Patent Application No. 14/729894 which is jointly owned and incorporated by reference.

Eine weitere Möglichkeit, Bilder zu segmentieren, ist ein Verhältnismodell. Ein Verhältnismodell definiert in der Regel Bereiche innerhalb eines Bildes, in denen sich erwartete Teile (z. B. Körperteile) eines Subjekts befinden können. Die Bereiche können als Begrenzungsfelder angegeben werden. In einigen Implementierungen kann das Verhältnismodell als Prozentsatz ausgedrückt werden, so dass das 1/5 des Bildes im Allgemeinen den Kopf des Subjekts, das nächste 2/5 des Bildes den Rumpf und das restliche 2/5 die Beine zeigt.Another way to segment images is a relationship model. A relationship model typically defines areas within an image in which expected parts (eg body parts) of a subject. The ranges can be specified as bounding boxes. In some implementations, the ratio model may be expressed as a percentage such that the 1/5 of the image generally shows the head of the subject, the next 2/5 of the image the torso and the remaining 2/5 the legs.

6A stellt ein veranschaulichendes Verhältnismodell zur Segmentierung dar. Das dargestellte Verhältnismodell umfasst die drei Segmente 602, 604 und 606. Die Höhe des Verhältnismodells wird als x gezeigt. Jeder Teil kann als ein Anteil der Gesamtgröße des Anzeigebereichs definiert werden (z. B. Höhe x). Die Größe der Teile kann durch maschinelles Lernen bestimmt werden. Beispielsweise kann ein Satz von manuell segmentierten Bildern bereitgestellt werden, um ein Segmentierungsmodell zu trainieren, um ideale Größen für die Segmentierung von Bildern zu ermitteln, die noch nicht vom System verarbeitet wurden. Das Training kann auch die Berücksichtigung von Bilddaten wie das Geschlecht eines gezeigten Subjekts, die Rasse des gezeigten Subjekts, den Körpertyp des gezeigten Subjekts oder den Ort, an dem das Bild aufgenommen wurde, beinhalten. 6A illustrates an illustrative ratio model for segmentation. The illustrated ratio model comprises the three segments 602 . 604 and 606 , The height of the ratio model is shown as x. Each part can be defined as a proportion of the total size of the display area (eg height x). The size of the parts can be determined by machine learning. For example, a set of manually segmented images may be provided to train a segmentation model to determine ideal sizes for the segmentation of images that have not yet been processed by the system. The training may also include the consideration of image data such as the gender of a subject shown, the race of the subject shown, the body type of the subject shown, or the location where the image was taken.

Die Größen der Teile können mithilfe von Bilderkennungstechniken bestimmt werden, wobei die Person das Verhältnismodell kalibriert, indem sie in einer vorgegebenen Pose steht und die Position bestimmter Bildmerkmale (z. B. Hals, Gesicht, Hände, Hüften, Füße usw.) analysiert. Die Größe der Teile kann über die Benutzerschnittstelle 100 bestimmt werden. Beispielsweise kann der Benutzer auf eine Konfigurationsschnittstelle zugreifen, die es erlaubt, die Segmentierung der Bilder an den jeweiligen Körpertyp anzupassen. Die Konfigurationsschnittstelle kann einstellbare Segmentierungslinien enthalten, die in der Regel den Partitionsgrenzen im interaktiven Bildbetrachter 102 entsprechen können.The sizes of the parts can be determined using image recognition techniques whereby the person calibrates the ratio model by standing in a predetermined pose and analyzing the position of certain image features (eg, neck, face, hands, hips, feet, etc.). The size of the parts can be through the user interface 100 be determined. For example, the user can access a configuration interface that allows the segmentation of the images to be adapted to the respective body type. The configuration interface may include adjustable segmentation lines, typically the partition boundaries in the interactive image viewer 102 can correspond.

6B stellt eine Bildeingabe zur Segmentierung unter Verwendung des Verhältnismodells von 6A dar. Wie in 6B dargestellt, ist das Eingangsbild 610 nicht gleich hoch wie das Verhältnismodell. Um das Verhältnismodell anzuwenden, wird das Eingangsbild deshalb zunächst auf die gleiche Höhe wie im Verhältnismodell normalisiert. Die Normalisierung kann den Empfang von Bilddaten, einschließlich in einigen Implementierungen von Tiefeninformationen, und das Einstellen des empfangenen Bildes umfassen, um ein normalisiertes Bild bereitzustellen. 6B provides an image input for segmentation using the ratio model of 6A as in 6B shown, is the input image 610 not as high as the relationship model. To apply the ratio model, the input image is therefore first normalized to the same level as in the ratio model. Normalization may include receiving image data, including in some implementations of depth information, and adjusting the received image to provide a normalized image.

6C stellt ein normalisiertes Bild dar, das mit dem Verhältnismodell von 6A erzeugt wurde. Das normalisierte Eingangsbild 620 hat dieselbe Höhe wie das Verhältnismodell. Daher kann die Höheninformation für jeden Teil des Eingangsbildes verwendet werden, um das normalisierte Eingangsbild zu aufzuteilen. Teile, die im Verhältnismodell enthalten sind, können mit einem bestimmten Merkmal des Subjekts assoziiert sein Wie in 6C gezeigt, beinhaltet das Verhältnismodell das Segment 602 mit dem Kopf, das Segment 604 mit dem Rumpf und das Segment 606 mit den Beinen. 6C represents a normalized image consistent with the relationship model of 6A was generated. The normalized input image 620 has the same height as the relationship model. Therefore, the height information for each part of the input image can be used to split the normalized input image. Parts contained in the relationship model may be associated with a particular feature of the subject 6C shown, the relationship model includes the segment 602 with the head, the segment 604 with the hull and the segment 606 with the legs.

Ein oder mehrere der über das Verhältnismodell identifizierten Segmente können über den interaktiven Bildbetrachter 102 zur Anzeige bereitgestellt werden. Wenn beispielsweise drei Anzeigezonen verwendet werden, kann die Anzeigezone für den Rumpf den in 6D gezeigten Teil des normalisierten Eingangsbildes verwenden. 6D zeigt einen Teil des segmentierten Bildes, um den Teil des Bildes zu zeigen, der dem Rumpf des Subjekts entspricht.One or more of the segments identified via the relationship model may be via the interactive image viewer 102 be provided for display. For example, if three display zones are used, the display zone for the fuselage can be the one in 6D use shown portion of the normalized input image. 6D shows a portion of the segmented image to show the portion of the image that corresponds to the subject's torso.

Ein Verhältnismodell und ein Strukturmodell sind zwei Beispiele für eine modellgetriebene Bildsegmentierung. Andere Bildsegmentierungsmodelle können zur Erzeugung von Bildsegmenten verwendet werden. Zum Beispiel können Computer-Vision-Modelle verwendet werden, um Bilder zu verarbeiten, um darin gezeigte Merkmale (z. B. Kleidungsstücke, Körperteile) zu identifizieren. Ein Beispiel für ein Computer-Vision-Modell ist ein neuronales Netzwerkmodell. Das neuronale Netzmodell kann auf annotierten Bilddaten trainiert werden, wobei die Annotationen auf interessierende Merkmale hinweisen. Das neuronale Netzmodell kann jedes Pixel im Bild berücksichtigen und das Pixel einem Merkmal zuweisen. Da die annotierten Bilder vom neuronalen Netzmodell verarbeitet werden, um vorhergesagte Merkmale zu erzeugen, werden die Vorhersagen mit den annotierten Merkmalen verglichen. Die Parameter des Modells können so eingestellt werden, dass die Vorhersagen besser mit den kommentierten Merkmalen übereinstimmen. Sobald das neuronale Netzmodell trainiert ist, können unbekannte Bilder verarbeitet werden, um Segmente für das Bild zu identifizieren. Andere Computer-Vision-Techniken, die für die Segmentierung verwendet werden können, sind Subjektlokalisierung, semantische Segmentierung, Kantenerkennung und dergleichen.A relationship model and a structural model are two examples of model-driven image segmentation. Other image segmentation models can be used to create image segments. For example, computer vision models can be used to process images to identify features (e.g., garments, body parts) shown therein. An example of a computer vision model is a neural network model. The neural network model can be trained on annotated image data, the annotations indicating features of interest. The neural network model can take into account each pixel in the image and assign the pixel to a feature. Since the annotated images are processed by the neural network model to produce predicted features, the predictions are compared with the annotated features. The parameters of the model can be set so that the predictions better match the commented features. Once the neural network model is trained, unknown images can be processed to identify segments for the image. Other computer vision techniques that can be used for segmentation are subject location, semantic segmentation, edge detection, and the like.

7 ist ein Flussdiagramm, das ein im Browsing-Dienst implementiertes beispielhaftes Verfahren darstellt. Das in 7 gezeigte Verfahren 700 kann ganz oder teilweise durch die hier beschriebenen Geräte wie das Bildausrichtungsmodul 384 und/oder das Bildsegmentierungsmodul 386 des in 2 und 3 gezeigten Zugriffsgerätes 300 implementiert werden. Sobald Segmente zur Präsentation identifiziert wurden, ist es möglich, dass die einzelnen Segmente nicht mehr so ausgerichtet sind, dass sie eine vollständige Ansicht des Subjekts bieten. Wenn das Subjekt beispielsweise in einem ersten Teil außermittig gezeigt wird, kann die Ansicht des präsentierten Subjekts, wenn das erste und Segmente kombiniert werden, eine diskontinuierliche Ansicht liefern, die keine realistische Darstellung des Subjekts bereitstellt. Dementsprechend können die Segmente weiterverarbeitet werden, um die identifizierten Segmente auszurichten. 7 Figure 5 is a flowchart illustrating an example method implemented in the browsing service. This in 7 shown method 700 may be wholly or partly due to the devices described here, such as the image alignment module 384 and / or the image segmentation module 386 of in 2 and 3 shown access device 300 be implemented. Once segments have been identified for presentation, it is possible that the individual segments are no longer aligned to provide a complete view of the subject. For example, if the subject is shown off-center in a first part, the view may of the presented subject, when the first and segments are combined, provide a discontinuous view that does not provide a realistic representation of the subject. Accordingly, the segments may be further processed to align the identified segments.

Bei Block 705 wird aus einem ersten Bild ein erster Bildteil erzeugt. Der erste Bildteil kann durch Segmentierung eines Bildes aus einem Bilder-Datenspeicher, wie hier beschrieben, erzeugt werden. Bei Block 710 wird aus einem zweiten Bild ein zweiter Bildteil erzeugt. Wie beim ersten Bildteil kann der zweite Bildteil durch Segmentierung eines zweiten Bildes aus einem Bilder-Datenspeicher, wie hier beschrieben, erzeugt werden.At block 705 a first image part is generated from a first image. The first image portion may be generated by segmenting an image from an image data memory as described herein. At block 710 a second image part is generated from a second image. As with the first image part, the second image part can be generated by segmenting a second image from an image data memory as described herein.

Bei Block 715 werden der erste Bildteil und der zweite Bildteil über eine Anzeige präsentiert. Die Präsentation kann das Anzeigen der Teile in einem interaktiven Bildbetrachter wie dem in 1A gezeigten interaktiven Bildbetrachter 102 beinhalten. Bei Block 720 wird bestimmt, ob der erste und zweite Bildteil Mittellinien enthalten. Eine Mittellinie ist eine logische Linie, die die Mitte des im Bild gezeigten Subjekts von der horizontalen Oberseite des Bildteils bis zur horizontalen Unterseite des Bildteils angibt. Einige Segmentierungstechniken, wie z. B. die Skelettmodellierung, können Informationen zur Mittellinie bereitstellen. Wenn die Teile Mittellinien enthalten, werden bei Block 725 die Mittellinie des ersten Bildteils und die Mittellinie des zweiten Bildteils zu einer durchgehenden Geraden ausgerichtet.At block 715 the first image part and the second image part are presented via a display. The presentation may be displaying the parts in an interactive image viewer such as the one in 1A shown interactive image viewer 102 include. At block 720 It is determined whether the first and second image parts include centerlines. A centerline is a logical line that indicates the center of the subject shown in the image, from the horizontal top of the image portion to the horizontal bottom of the image portion. Some segmentation techniques, such as Skeleton modeling, may provide centerline information. If the parts contain centerlines, at block 725 the center line of the first image part and the center line of the second image part aligned to a continuous line.

Nach dem Ausrichten der Mittellinien, falls vorhanden, oder wenn Mittellinien nicht vorhanden sind, kann das Verfahren 700 bei Block 730 eine zusätzliche Ausrichtung der Bildteile auf Farbenbasis beinhalten. Bei Block 730 kann ein Pixelfarbwert für ein Pixel aus dem ersten Bildteil mit einem Pixelfarbwert für ein anderes Pixel aus dem zweiten Bildteil verglichen werden. In einigen Implementierungen kann das Pixel aus dem ersten Bildteil neben dem Pixel aus dem zweiten Bildteil liegen. In einigen Implementierungen kann das Pixel des ersten Bildteils innerhalb eines Schwellenabstands zum Pixel des zweiten Bildteils liegen. Wenn der Vergleich der Farbwerte darauf hinweist, dass die Pixel ähnlich sind, können die Bilder als ausgerichtet betrachtet werden. So können z. B. Hautfarbwerte verwendet werden, um Hautanteile eines menschlichen Subjekts in einem Bild zu identifizieren. Typischerweise sind die Farbwerte für die Darstellung des Hauttons einer Person über alle Bilder hinweg relativ gleich. Die Gleichheit kann durch Normalisierung der Farbwerte für die in den Bildern und/oder Bildteilen enthaltenen Pixel verbessert werden. Ein Beispiel für eine solche Normalisierung ist das Einstellen der Helligkeit der Pixel. Der Vergleich kann das Vergleichen der tatsächlichen Farbwerte der Pixel mit einem Schwellenwert und/oder der Differenz zwischen den Farbwerten und einem Schwellenwert beinhalten.After aligning the centerlines, if any, or if midlines are not present, the procedure may be 700 at block 730 an additional orientation of the image parts based on color. At block 730 For example, a pixel color value for one pixel from the first image part may be compared with a pixel color value for another pixel from the second image part. In some implementations, the pixel may be from the first image portion adjacent to the pixel from the second image portion. In some implementations, the pixel of the first image portion may be within a threshold distance to the pixel of the second image portion. If the comparison of the color values indicates that the pixels are similar, the images may be considered aligned. So z. Skin color values may be used to identify skin constituents of a human subject in an image. Typically, the color values for representing a person's skin tone are relatively the same across all images. The equality can be improved by normalizing the color values for the pixels contained in the images and / or image parts. An example of such normalization is adjusting the brightness of the pixels. The comparison may include comparing the actual color values of the pixels to a threshold and / or the difference between the color values and a threshold.

Bei Block 735 wird bestimmt, ob die Pixelfarbwerte einem Ausrichtungsschwellenwert entsprechen. Liegt beispielsweise der Farbwert des ersten Bildteils im Bereich des Hauttons und der Farbwert des zweiten Bildteils über dem Hauttonbereich, kann die Bestimmung negativ sein. In solchen Fällen kann das Verfahren 700 mit Block 740 fortfahren, bei dem mindestens einer des ersten Bildteils oder des zweiten Bildteils eingestellt wird. Die Einstellung kann eine horizontale oder vertikale Änderung der Position eines Bildausschnitts beinhalten. Durch Verschieben des Bildteils können die Bildteile so ausgerichtet werden, dass die Hauttonbereiche im Wesentlichen so ausgerichtet sind, dass ein realistisches Bild des Subjekts entsteht. Die Einstellung kann nach einem vorgegebenen Einstellungsfaktor erfolgen. In einigen Implementierungen kann das Ausmaß der Einstellung der Bildteile aufgrund der Diskrepanz zwischen den Pixelfarbwerten der Bildteile und/oder der Differenz zwischen dem Einstellungsschwellenwert und einem oder mehreren der Pixelfarbwerte dynamisch bestimmt werden.At block 735 It is determined whether the pixel color values correspond to an alignment threshold. If, for example, the color value of the first image part lies in the area of the skin tone and the color value of the second image part lies above the skin tone area, the determination can be negative. In such cases, the procedure can 700 with block 740 continue, wherein at least one of the first image part or the second image part is set. The setting may include a horizontal or vertical change in the position of a picture detail. By moving the image part, the image parts can be aligned so that the skin tone areas are substantially aligned so that a realistic image of the subject arises. The setting can be made according to a preset adjustment factor. In some implementations, the extent of adjustment of the image portions may be determined dynamically due to the discrepancy between the pixel color values of the image portions and / or the difference between the adjustment threshold and one or more of the pixel color values.

8A bis 8D zeigen die Segmentierung von zwei Bildern und die Ausrichtung der Segmente aus den beiden Bildern gemäß dem in 7 gezeigten Verfahren. 8A zeigt ein erstes Eingangsbild 802 und ein zweites Eingangsbild 804. Das erste Eingangsbild 802 und das zweite Eingangsbild 804 können zur Anzeige über die Benutzerschnittstelle 100 von 1A identifiziert worden sein. In 8B werden die Posen des Subjekts in jedem Eingangsbild identifiziert. Die Posen können durch Bildanalyse der Bilder identifiziert werden. Die Bildanalyse kann die Bestimmung der Pose auf Basis der im enthaltenen Tiefen- und/oder Farbinformationen beinhalten. In einigen Implementierungen kann die Pose anhand eines Strukturmodells wie in 5A identifiziert werden. 8A to 8D show the segmentation of two images and the alignment of the segments from the two images according to the in 7 shown method. 8A shows a first input image 802 and a second input image 804 , The first input image 802 and the second input image 804 can to display via the user interface 100 from 1A have been identified. In 8B the subject's poses are identified in each input image. The poses can be identified by image analysis of the images. The image analysis may include determining the pose based on the depth and / or color information contained therein. In some implementations, the pose may be modeled using a structural model such as 5A be identified.

Wie in 8B, dem ersten Eingangsbild 802, gezeigt, sind die Schultern des Subjekts als Punkte A und B identifiziert. Die Schultern in dem zweiten Eingangsbild 804 sind als Punkte C und D identifiziert. Die Punkte A und B im ersten Eingangsbild 802 sind um 20 Grad versetzt. Dies weist darauf hin, dass das Motiv in einer asymmetrischen Pose dargestellt ist. Dementsprechend kann das erste Eingangsbild 802 um 20 Grad verstellt werden, um eine symmetrische Ansicht des Subjekts bereitzustellen. Im Gegensatz dazu sind die Schultern des Subjekts, wie im zweiten Eingangsbild 804 gezeigt, parallel zum Boden und zeigen somit eine symmetrische Pose an.As in 8B , the first input image 802 , shown, the subject's shoulders are identified as points A and B. The shoulders in the second input image 804 are identified as points C and D. The points A and B in the first input image 802 are offset by 20 degrees. This indicates that the subject is depicted in an asymmetrical pose. Accordingly, the first input image 802 be adjusted by 20 degrees to provide a symmetrical view of the subject. In contrast, the shoulders of the subject are as in the second input image 804 shown parallel to the ground, indicating a symmetrical pose.

In 8C ist ein gedrehtes erstes Bild 806 mit einer Mittellinie dargestellt. Die Mittellinie für das gedrehte erste Bild 806 kann in Bezug auf die zuvor identifizierte Strukturreferenz identifiziert werden. In dem in 8C gezeigten Beispiel beinhaltet dies das Identifizieren der Mittellinie in Bezug auf die Schulterpunkte A und B. Die Mittellinie halbiert den Abstand zwischen den Punkten A und B derart, dass ein gleicher Abstand (x) zwischen Mittellinie und Punkt A besteht wie zwischen Mittellinie und Punkt B. Eine ähnliche Mittellinie wird für das zweite Eingangsbild 804 identifiziert und in 8C dargestellt. In 8C existiert ein zweiter gleicher Abstand (z) zwischen der Mittellinie des zweiten Eingangsbildes 804 und Punkt D wie zwischen der Mittellinie und Punkt D. In einigen Implementierungen kann der Abstand (z) gleich dem Abstand (x) sein. In anderen Implementierungen können der Abstand (z) und der Abstand (x) unterschiedlich sein. In solchen Fällen kann es wünschenswert sein, eines oder beide der gedrehten ersten Bilder 806 und des zweiten Eingangsbildes 804 so einzustellen, dass bei Anzeigen der Bilder das Subjekts in visuell konsistenten Proportionen dargestellt wird. Die Einstellung kann das Zoomen, Skalieren und/oder Übersetzen von Bilddaten (z. B. Pixelinformationen) beinhalten. Die Einstellung kann die Berücksichtigung der mit den Bilddaten assoziierten Tiefeninformationen beinhalten. In einigen Implementierungen kann die Einstellung dynamisch begrenzt sein. Beispielsweise können die bekannten Strukturpunkte (z. B. Punkt A, B, C oder D) verwendet werden, um Skalierungsgrenzen zu erzeugen, die die maximale und minimale Skalierung angeben, die auf ein Bild mit den Strukturpunkten angewendet werden kann. Beispielsweise kann mit dem zweiten Eingangsbild 804 aus 8C der Abstand zwischen den Schulterpunkten C und D als (2*z) ausgedrückt werden. Es kann wünschenswert sein, das Bild nicht derart zu skalieren, dass das skalierte Bild diese Punkte in nicht weniger als einem minimalen Abstand und nicht mehr als einem maximalen Abstand zeigt. Eine Möglichkeit, die Skalierungsgrenzen auszudrücken, ist in Gleichung 1 unten dargestellt. ( M a ß s t a b m i n , M a ß s t a b m a x ) = ( d m i n 2 z , d m a x 2 z )

Figure DE112017001229T5_0001
wobei dmin ein Mindestabstand zwischen Referenzpunkten und dmax ein Maximalabstand zwischen Referenzpunkten ist.In 8C is a shot first picture 806 represented with a center line. The center line for the rotated first image 806 can in terms of the previously Identified structural reference can be identified. In the in 8C The center line halves the distance between the points A and B such that there is an equal distance (x) between the center line and the point A as between the center line and the point B. A similar centerline will be for the second input image 804 identified and in 8C shown. In 8C There is a second equal distance (z) between the center line of the second input image 804 and point D as between the centerline and point D. In some implementations, the distance (z) may be equal to the distance (x). In other implementations, the distance (z) and the distance (x) may be different. In such cases, it may be desirable to have one or both of the rotated first images 806 and the second input image 804 to set the subject in visually consistent proportions when displaying the images. The adjustment may include zooming, scaling, and / or translating image data (eg, pixel information). The adjustment may include taking into account the depth information associated with the image data. In some implementations, the setting may be dynamically limited. For example, the known texture points (eg, point A, B, C, or D) can be used to generate scaling boundaries that indicate the maximum and minimum scaling that can be applied to an image with the texture points. For example, with the second input image 804 out 8C the distance between the shoulder points C and D are expressed as (2 * z). It may be desirable not to scale the image such that the scaled image shows those points at not less than a minimum distance and not more than a maximum distance. One way to express the scaling limits is shown in Equation 1 below. ( M a ß s t a b m i n . M a ß s t a b m a x ) = ( d m i n 2 z . d m a x 2 z )
Figure DE112017001229T5_0001
where d min is a minimum distance between reference points and d max is a maximum distance between reference points.

Bei einigen Implementierungen kann der Einstellungsfaktor anhand von Informationen über das im Bild gezeigte Subjekt weiter bestimmt werden. Beispielsweise kann es wünschenswert sein, das Geschlecht des Subjekts zu bestimmen. Je nach Geschlecht können spezifische Einstellungen aggressiver als andere vorgenommen werden. Um zum Beispiel zu vermeiden, dass ein Bild vergrößert wird, um einen visuellen Eindruck einer umfangreichen Taille für Männer zu erwecken, kann der Einstellungsfaktor gewichtet werden, um eine aggressivere vertikale Skalierung als eine horizontale Skalierung zu ermöglichen. Die folgende Gleichung 2 ist ein Ausdruck einer dynamischen Einstellungsfaktorbestimmung, um einen minimalen horizontalen Zoomfaktor basierend auf Informationen über ein im Bild gezeigtes Subjekt zu identifizieren. Konkret liefert Gleichung 2 einen beispielhaften Ausdruck zum Bestimmen eines minimalen horizontalen Zoomfaktors für ein Subjekt mit einem identifizierten Geschlecht (zoomx min (g)). Z o o m x m i n ( g ) = α ( g ) Z o o m x m i n

Figure DE112017001229T5_0002
wobei g ein Wert ist, der das Geschlecht eines im zu zoomenden Bild gezeigten Subjekts angibt; a ist ein Geschlechtgewichtungsfaktor für den horizontalen (x) Zoom; und zoomx min .ein Wert, der den minimalen horizontalen (x) Zoomfaktor angibt.In some implementations, the adjustment factor may be further determined based on information about the subject shown in the picture. For example, it may be desirable to determine the gender of the subject. Depending on gender, specific attitudes can be made more aggressively than others. For example, to avoid enlarging an image to give a visual impression of a large waist for men, the adjustment factor can be weighted to allow more aggressive vertical scaling than horizontal scaling. Equation 2 below is an expression of dynamic adjustment factor determination to identify a minimum horizontal zoom factor based on information about a subject shown in the image. Specifically, Equation 2 provides an example expression for determining a minimum horizontal zoom factor for a subject of identified gender (zoom x min (G)). Z O O m x m i n ( G ) = α ( G ) Z O O m x m i n
Figure DE112017001229T5_0002
where g is a value indicating the gender of a subject shown in the image to be zoomed; a is a gender weighting factor for the horizontal (x) zoom; and zoom x min .a value indicating the minimum horizontal (x) zoom factor.

8D zeigt die segmentierten Bildteile 808 und 810, die mithilfe der Mittellinien der jeweiligen Bilder ausgerichtet sind. Die Segmentierung kann nach den oben beschriebenen Segmentierungsverfahren erfolgen, z. B. mit Bezug auf 5A, 5B, 5C, 6A, 6B, 6C oder 6D. In einigen Implementierungen können die segmentierten Bilder weiterverarbeitet werden, um die endgültige formatierte Ansicht zu verbessern. So sind z. B. auf der linken und rechten Seite des Teils 810 noch Teile der Finger des Subjekts sichtbar. Diese „schwebenden“ Elemente können verwischt oder aus dem Segment entfernt werden, um die visuelle Qualität der Endpräsentation zu verbessern. Die schwebenden Elemente können durch Farbauswertung, Kantenerkennung oder andere Bildverarbeitungstechniken identifiziert werden. In einigen Implementierungen können Pixel entlang der angrenzenden Kanten der Teile 808 und 810 eingestellt werden, um den Übergang von einem Teil zum anderen zu glätten. Die Glättung kann das Verwischen von Pixeln, das Einstellen der Transparenz der Pixel, das Überblenden von Pixelwerten, das Durchführen einer Reparatur, das Abwedeln und Nachbelichten oder andere Funktionen an den Pixeln oder andere Bild-/Pixelmanipulationen umfassen. 8D shows the segmented image parts 808 and 810 that align with the centerlines of each image. The segmentation can be carried out according to the segmentation method described above, for. With respect to 5A . 5B . 5C . 6A . 6B . 6C or 6D , In some implementations, the segmented images may be further processed to improve the final formatted view. So z. On the left and right sides of the part 810 still visible parts of the fingers of the subject. These "floating" elements may be blurred or removed from the segment to enhance the visual quality of the final presentation. The floating elements can be identified by color evaluation, edge detection or other image processing techniques. In some implementations, pixels may be along the adjacent edges of the parts 808 and 810 be set to smooth the transition from one part to the other. The smoothing may include blurring pixels, adjusting the transparency of the pixels, blending pixel values, performing a repair, dodging and re-exposing, or other functions on the pixels or other image / pixel manipulations.

In einigen Implementierungen können die Partitionsinformationen verwendet werden, um eine Stelle zu identifizieren, an der die Glättung durchgeführt werden soll. Die Glättung kann Pixel entlang benachbarter Kanten oder innerhalb einer Toleranz der Kante berücksichtigen (z. B. eine Nachbarschaft von 3, 7, 10 oder mehr Pixel). Die Toleranz kann vorgegeben und als Konfigurationswert gespeichert werden. In einigen Implementierungen kann die Toleranz dynamisch generiert werden, basierend auf Faktoren wie Partitionsinformationen, Bilddaten, Bildquelle, Informationen über Elemente oder Subjekte, die in einem Teil gezeigt werden, und dergleichen. Tiefeninformationen können verwendet werden, um Bereiche zur Glättung zu maskieren. Beispielsweise kann ein erster Glättungsvorgang mithilfe eines Hintergrunds aus einem ersten Teil und eines Hintergrunds aus einem zweiten Teil durchgeführt werden. Ein zweiter Glättungsvorgang kann dann auf den Vordergrund des ersten Teils und den Vordergrund des zweiten Teils angewendet werden. In einigen Implementierungen kann ein dritter Glättungsprozess für Verarbeitungsbereiche vorgesehen sein, in denen der Vordergrund des ersten Teils auf den Hintergrund des zweiten Teils trifft. Ebenso kann ein weiterer Glättungsvorgang Bereiche beinhalten, in denen der Hintergrund des ersten Teils auf den Vordergrund des zweiten Teils trifft.In some implementations, the partition information can be used to identify a location where the smoothing should be performed. The smoothing may take into account pixels along adjacent edges or within a tolerance of the edge (eg, a neighborhood of 3, 7, 10, or more pixels). The tolerance can be specified and stored as a configuration value. In some implementations, the tolerance may be dynamically generated based on factors such as partition information, image data, image source, information about elements or subjects shown in a part, and the like. Depth information can be used to mask areas for smoothing. For example, a first smoothing process may be performed using a background of a first part and a background of a second part. A second smoothing operation can then be applied to the foreground of the first part and the foreground of the second part. In some implementations, a third smoothing process may be provided for processing areas in which the foreground of the first part meets the background of the second part. Likewise, another smoothing process may include areas where the background of the first part meets the foreground of the second part.

Das System kann eine Posendefinition speichern, um eine Pose zu identifizieren. Die Posendefinition kann Informationen enthalten, die für ein in der Pose positioniertes Subjekt eine Mittellinie für die Pose und eine Position von zwei oder mehr Punkten relativ zueinander auf dem Subjekt identifizieren. Zum Beispiel können die beiden Punkte eine erste Schulter und eine zweite Schulter des Subjekts sein. Für ein bestimmtes Bild können die Punkte anhand der im Bild enthaltenen oder auf das Bild bezogenen Daten wie z. B. Tiefeninformationen identifiziert werden. Durch Korrelieren der Position der im Bild gezeigten Punkte mit den in der Posendefinition identifizierten Punkten kann die der Posendefinition zugeordnete Pose ermittelt werden. Das System kann die Mittellinie aus der Posendefinition als Mittellinie für das Bild bereitstellen.The system can store a pose definition to identify a pose. The pose definition may include information that identifies, for a subject positioned in the pose, a centerline for the pose and a position of two or more points relative to each other on the subject. For example, the two points may be a first shoulder and a second shoulder of the subject. For a particular image, the dots may be based on the data contained in the image or related to the image, e.g. B. depth information can be identified. By correlating the position of the points shown in the picture with the points identified in the pose definition, the pose associated with the pose definition can be determined. The system can provide the centerline from the pose definition as the centerline for the image.

Je nach Ausführungsform können bestimmte Handlungen, Ereignisse oder Funktionen eines der hier beschriebenen Prozesse oder Algorithmen in einer anderen Reihenfolge ausgeführt, hinzugefügt, zusammengeführt oder ganz weggelassen werden (z. B. sind nicht alle beschriebenen Vorgänge oder Ereignisse für die Praxis des Algorithmus notwendig). Außerdem können in bestimmten Ausführungsformen Vorgänge oder Ereignisse gleichzeitig anstatt sequentiell ausgeführt werden, z. B. durch Multi-Thread-Verarbeitung, Interrupt-Verarbeitung oder mehrere Prozessoren oder Prozessorkerne oder auf anderen parallelen Architekturen.Depending on the embodiment, certain acts, events, or functions of any of the processes or algorithms described herein may be executed, added, merged, or omitted in a different order (eg, not all described acts or events are necessary for the practice of the algorithm). Additionally, in certain embodiments, processes or events may be performed simultaneously rather than sequentially, e.g. By multi-threaded processing, interrupt processing or multiple processors or cores, or other parallel architectures.

Die verschiedenen illustrativen logischen Blöcke, Module, Routinen und Algorithmenschritte, die in Verbindung mit den hier dargestellten Ausführungsformen beschrieben werden, können als elektronische Hardware oder als Kombination aus elektronischer Hardware und ausführbarer Software implementiert werden. Um diese Austauschbarkeit zu verdeutlichen, wurden verschiedene illustrative Komponenten, Blöcke, Module und Schritte allgemein in ihrer Funktionalität beschrieben. Ob diese Funktionalität als Hardware oder als Software, die auf Hardware läuft, implementiert wird, hängt von den jeweiligen Anwendungs- und Designbedingungen des Gesamtsystems ab. Die beschriebene Funktionalität kann für jede einzelne Anwendung unterschiedlich implementiert werden, aber solche Implementierungsentscheidungen sollten nicht als Abweichung vom Umfang der Offenlegung interpretiert werden.The various illustrative logical blocks, modules, routines, and algorithm steps described in connection with the embodiments presented herein may be implemented as electronic hardware or as a combination of electronic hardware and executable software. To illustrate this interchangeability, various illustrative components, blocks, modules and steps have been generally described in terms of their functionality. Whether this functionality is implemented as hardware or software running on hardware depends on the particular application and design conditions of the overall system. The described functionality may be implemented differently for each individual application, but such implementation decisions should not be interpreted as a departure from the scope of the disclosure.

Darüber hinaus können die verschiedenen illustrativen logischen Blöcke und Module, die in Verbindung mit den hier dargestellten Ausführungsformen beschrieben sind, von einer Maschine implementiert oder ausgeführt werden, wie z. B. einem Bild-Browsing-Gerät, einem digitalen Signalprozessor (DSP), einer anwendungsspezifischen integrierten Schaltung (ASIC), einem Field Programmable Gate Array (FPGA) oder einem anderen programmierbaren Logikgerät, diskreter Gate- oder Transistorlogik, diskreten Hardwarekomponenten oder einer beliebigen Kombination davon, die zur Ausführung der hier beschriebenen Funktionen entwickelt wurde. Ein Bild-Browsing-Gerät kann ein Mikroprozessor sein oder enthalten, aber alternativ kann das Bild-Browsing-Gerät eine Steuerung, eine Mikrosteuerung oder eine Zustandsmaschine, Kombinationen davon oder Ähnliches sein oder beinhalten, die so konfiguriert sind, dass sie Bilddaten empfangen, verarbeiten und anzeigen. Ein Bildbetrachtungsgerät kann eine elektrische Schaltung beinhalten, die so konfiguriert ist, dass sie computerausführbare Anweisungen verarbeitet. Obwohl hier vor allem in Bezug auf die Digitaltechnik beschrieben, kann ein Bildsuchgerät auch primär analoge Komponenten beinhalten. Beispielsweise können einige oder alle der hier beschriebenen Browsing-Dienst-Algorithmen in analogen Schaltungen oder gemischten analogen und digitalen Schaltungen implementiert werden. Eine Computerumgebung kann jede Art von Computersystem umfassen, einschließlich, aber nicht beschränkt auf, ein Computersystem, das auf einem Mikroprozessor, einem Großrechner, einem digitalen Signalprozessor, einem tragbaren Computergerät, einer Gerätesteuerung oder einer Rechenmaschine in einer Vorrichtung basiert, um nur einige zu nennen.Moreover, the various illustrative logic blocks and modules described in connection with the embodiments illustrated herein may be implemented or executed by a machine, such as a computer. An image browsing device, a digital signal processor (DSP), an application specific integrated circuit (ASIC), a field programmable gate array (FPGA) or other programmable logic device, discrete gate or transistor logic, discrete hardware components, or any combination that was developed to perform the functions described here. An image browsing device may be or may include a microprocessor, but alternatively, the image browsing device may be or include a controller, a microcontroller, or a state machine, combinations thereof, or the like, that are configured to receive image data and display. An image viewer may include an electrical circuit configured to process computer-executable instructions. Although described above all with respect to digital technology, a picture search device may also include primarily analog components. For example, some or all of the browsing service algorithms described herein may be implemented in analog circuits or mixed analog and digital circuits. A computing environment may include any type of computer system, including, but not limited to, a computer system based on a microprocessor, a mainframe, a digital signal processor, a portable computing device, a device controller, or a computing machine in a device, to name but a few ,

Die Elemente eines Verfahrens, eines Prozesses, einer Routine oder eines Algorithmus, die in Verbindung mit den hier dargestellten Ausführungsformen beschrieben sind, können direkt in Hardware, in einem Softwaremodul, das von einem zusammengesetzten Bildverarbeitungsgerät ausgeführt wird, oder in einer Kombination aus beidem ausgeführt sein. Ein Softwaremodul kann sich in Arbeitsspeicher (RAM), Flash-Speicher, Nur-Lese-Speicher (ROM), löschbaren programmierbaren Nur-Lese-Speicher (EPROM), elektrisch löschbaren programmierbaren Nur-Lese-Speicher (EEPROM), Registern, Festplatte, einer Wechselplatte, einem Nur-Lese-Speicher (CD-ROM) oder jeder anderen Form eines nicht-transitorischen computerlesbaren Speichermediums befinden. Ein beispielhaftes Speichermedium kann mit dem Bild-Browsing-Gerät gekoppelt werden, so dass das Bild-Browsing-Gerät Informationen von dem Speichermedium lesen und auf dieses schreiben kann. Alternativ kann das Speichermedium in das Bild-Browsing-Gerät integriert sein. Das Bild-Browsing-Gerät und das Speichermedium können sich in einem anwendungsspezifischen integrierten Schaltkreis (ASIC) befinden. Der ASIC kann sich in einem Zugriffsgerät oder einem anderen Bildverarbeitungsgerät befinden. Alternativ können sich der Bildsuchgeräteschraubstock und das Speichermedium als diskrete Komponenten in einem Zugriffsgerät oder einem anderen Bildverarbeitungsgerät befinden. Bei einigen Implementierungen kann es sich um ein computerimplementiertes Verfahren handeln, das unter der Steuerung eines Computergeräts, wie z. B. eines Zugriffsgeräts oder eines anderen Bildverarbeitungsgeräts, ausgeführt wird und bestimmte computerausführbare Befehle ausführt.The elements of a method, process, routine or algorithm described in connection with the embodiments presented herein may be implemented directly in hardware, in a software module executed by a composite image processing device, or in a combination of both , A software module may be in random access memory (RAM), flash memory, read only memory (ROM), erasable programmable read only memory (EPROM), electrically erasable programmable read only memory (EEPROM), registers, hard disk, a removable disk, a read-only memory (CD-ROM), or any other form of non-transitory computer-readable storage medium. An exemplary Storage medium may be coupled to the image browsing device so that the image browsing device can read and write information from the storage medium. Alternatively, the storage medium may be integrated with the image browsing device. The image browsing device and the storage medium may reside in an application specific integrated circuit (ASIC). The ASIC may reside in an access device or other image processing device. Alternatively, the image searcher vice and the storage medium may be located as discrete components in an access device or other image processing device. Some implementations may be a computer-implemented method that may be executed under the control of a computing device, such as a computer. An access device or other image processing device, executes and executes certain computer-executable instructions.

Die hierin offenbarten Ausführungsformen können ein computerimplementiertes Verfahren unter Kontrolle einer Rechenvorrichtung beinhalten, die bestimmte computerausführbare Befehle ausführt, einschließlich eines oder mehrere der Folgenden: Empfangen horizontaler Partitionsinformationen für einen interaktiven Anzeigebereich, wobei die horizontalen Partitionsinformationen eine erste Anzeigezone, die sich über einer horizontalen Partition befindet, und eine zweite Anzeigezone, die sich unter der horizontalen Partition befindet, identifizieren können, Identifizieren eines Teils eines ersten Bildes eines Subjekts zum Präsentieren in der ersten Anzeigezone, wobei der Teil des ersten Bildes unter Verwendung einer Größe des interaktiven Anzeigebereichs und der horizontalen Partitionsinformation identifiziert werden kann, wobei der Teil des ersten Bildes mit einer ersten Fläche des interaktiven Anzeigebereichs korrelieren kann, die durch die erste Anzeigezone abgedeckt ist, Identifizieren eines Teils eines zweiten in der zweiten Anzeigezone zu präsentierenden Bildes des Subjekts, wobei der Teil des zweiten Bildes unter Verwendung der Größe des interaktiven Anzeigebereichs und der horizontalen Partitionsinformationen identifiziert werden kann, wobei der Teil des zweiten Bildes mit einem zweiten Betrag des interaktiven Anzeigebereichs korrelieren kann, der durch den zweiten Anzeigebereich abgedeckt ist, Veranlassen, dass der Teil des ersten Bildes in der ersten Anzeigezone und der Teil des zweiten Bildes in der zweiten Anzeigezone präsentiert wird, Erfassen einer Interaktion mit der ersten Anzeigezone in einer ersten Richtung relativ zu der horizontalen Partition, Bestimmen, dass die Interaktion einen Schwellenwert erfüllt, Auswählen eines dritten Bildes aus einer Bilddatenquelle, Identifizieren eines Teils des dritten in der ersten Anzeigezone zu präsentierenden Bildes, wobei der Teil des dritten Bildes unter Verwendung der Größe des interaktiven Anzeigebereichs und der horizontalen Partitionsinformationen identifiziert werden kann, wobei der Teil des dritten Bildes mit dem ersten Betrag des interaktiven Anzeigebereichs korreliert, der durch den ersten Anzeigebereich abgedeckt ist, Veranlassen, dass der Teil des ersten Bildes aus dem ersten Anzeigebereich entlang der ersten Richtung aus dem interaktiven Anzeigebereich bewegt wird und/oder Veranlassen, dass der Teil des dritten Bildes in dem ersten Anzeigebereich entlang der ersten Richtung in den interaktiven Anzeigebereich bewegt wird, um den Teil des ersten Bildes zu ersetzen.The embodiments disclosed herein may include a computer-implemented method under control of a computing device that executes certain computer-executable instructions, including one or more of the following: receiving horizontal partition information for an interactive display area, wherein the horizontal partition information is a first display zone that is over a horizontal partition , and identifying a second display zone located below the horizontal partition, identifying a portion of a first image of a subject for presentation in the first display zone, wherein the portion of the first image identifies using a size of the interactive display area and the horizontal partition information where the portion of the first image may correlate to a first area of the interactive display area covered by the first display zone part of a second image of the subject to be presented in the second display zone, wherein the portion of the second image may be identified using the size of the interactive display area and the horizontal partition information, the portion of the second image correlating to a second amount of the interactive display area For example, when the portion of the first image in the first display zone and the portion of the second image in the second display zone are presented, detecting an interaction with the first display zone in a first direction relative to the horizontal Partition, determining that the interaction meets a threshold, selecting a third image from an image data source, identifying a portion of the third image to be presented in the first display zone, the portion of the third image using the size of the interactive display and the horizontal partition information can be identified, wherein the portion of the third image correlates with the first amount of the interactive display area covered by the first display area, causing the portion of the first image from the first display area to travel along the first direction interactive display area is moved and / or cause the part of the third image in the first display area along the first direction is moved into the interactive display area to replace the part of the first image.

Optional kann die Auswahl des dritten Bildes eine oder mehrere der Folgenden beinhalten: Identifizieren einer Kategorie für einen Artikel, der in dem Teil des ersten Bildes gezeigt wird, Durchsuchen eines Bilddatenspeichers unter Verwendung der Kategorie und/oder Empfangen des dritten Bildes als Reaktion auf die Suche, wobei das dritte Bild einen anderen Artikel aus der Kategorie zeigt. Optional kann das computerimplementierte Verfahren auch eine oder mehrere der Folgenden beinhalten: Erfassen einer zweiten Interaktion mit der ersten Anzeigezone in der ersten Richtung relativ zu der horizontalen Partition; Bestimmen, dass die zweite Interaktion den Schwellenwert nicht erfüllt, und/oder Einstellen des Teils des ersten Bildes des in der ersten Anzeigezone präsentierten Subjekts basierend auf einem Ausmaß der Interaktion und der ersten Richtung. Optional kann das computerimplementierte Verfahren auch eine oder mehrere der Folgenden beinhalten: Speichern der horizontalen Partitionsinformationen, Informationen, die den in der zweiten Anzeigezone präsentierten Teil des zweiten Bildes identifizieren, und Informationen, die den in der ersten Anzeigezone präsentierten Teil des ersten Bildes in einem Sitzungsdatensatz identifizieren, Erzeugen eines Datensatzbezeichners für den Sitzungsdatensatz, Empfangen des Datensatzbezeichners, Abrufen der Sitzungsdatensatzes unter Verwendung des Datensatzbezeichners und/oder Veranlassen einer Einstellung an mindestens einer der horizontalen Partitionen, der ersten Anzeigezone und der zweiten Anzeigezone des interaktiven Anzeigebereichs, um über den interaktiven Anzeigebereich den Teil des ersten Bildes innerhalb der ersten Anzeigezone und den Teil des zweiten Bildes innerhalb der zweiten Anzeigezone zu zeigen.Optionally, the selection of the third image may include one or more of: identifying a category for an article shown in the portion of the first image, browsing an image data store using the category, and / or receiving the third image in response to the search , where the third picture shows another article from the category. Optionally, the computer-implemented method may also include one or more of the following: detecting a second interaction with the first display zone in the first direction relative to the horizontal partition; Determining that the second interaction does not satisfy the threshold and / or adjusting the portion of the first image of the subject presented in the first display zone based on an amount of interaction and the first direction. Optionally, the computer-implemented method may also include one or more of: storing the horizontal partition information, information identifying the part of the second image presented in the second display zone, and information representing the part of the first image presented in the first display zone in a session record identifying, generating a record identifier for the session record, receiving the record identifier, retrieving the session record using the record identifier, and / or making a setting on at least one of the horizontal partitions, the first display zone, and the second display zone of the interactive display area to access the interactive display area To show part of the first image within the first display zone and the part of the second image within the second display zone.

Die hierin offenbarten Ausführungsformen können ein computerimplementiertes Verfahren unter der Kontrolle einer Rechenvorrichtung umfassen, die bestimmte computerausführbare Befehle ausführt, die eine oder mehrere der Folgenden beinhalten: Identifizieren eines Teils eines ersten Bildes eines ersten Artikels zur Präsentation in einer ersten Anzeigezone eines Anzeigebereichs, wobei der Teil des ersten Bilds mit einer ersten Fläche des von der ersten Anzeigezone detektierten Anzeigebereichs korrelieren kann, Identifizieren eines Teils eines zweiten Bilds eines zweiten Artikels zur Präsentation in einer zweiten Anzeigezone des Anzeigebereichs, wobei der Teil des zweiten Bildes mit einer zweiten Fläche des von der zweiten Anzeigezone abgedeckten Anzeigebereichs korrelieren kann, Veranlassen der Präsentation des Teils des ersten Bildes in der ersten Anzeigezone und der Präsentation des Teils des zweiten Bildes in der zweiten Anzeigezone, Erkennen einer Interaktion mit der ersten Anzeigezone detektiertund/oder Einstellen von Bilddaten, die über die erste Anzeigezone präsentiert werden, basierend auf der Interaktion.The embodiments disclosed herein may include a computer-implemented method under the control of a computing device that executes certain computer-executable instructions that include one or more of the following: identifying a portion of a first image of a first article for presentation in a first display zone of a display region; of the first image may correlate to a first area of the display area detected by the first display area, identifying a part of a second image of a second article to Presenting in a second display zone of the display area, wherein the portion of the second image may correlate to a second area of the display area covered by the second display zone, causing the presentation of the portion of the first image in the first display zone and the presentation of the portion of the second image in the display area second display zone, detecting an interaction with the first display zone and / or adjusting image data presented via the first display zone based on the interaction.

Optional kann die Interaktion ein Interaktionsausmaß und eine Interaktionsrichtung beinhalten, wobei das Einstellen der über die erste Anzeigezone präsentierten Bilddaten das Einstellen des Teils des ersten Bildes des in der ersten Anzeigezone präsentierten Subjekts basierend auf dem Ausmaß der Interaktion und der Interaktionsrichtung beinhalten kann. Optional kann die Interaktion ein Interaktionsausmaß und eine Interaktionsrichtung beinhalten, wobei das Einstellen der über die erste Anzeigezone präsentierten Bilddaten eine oder mehrere der Folgenden beinhalten kann: Bestimmen, dass das Interaktionsausmaß einen Interaktionsschwellenwert überschreitet; Auswählen eines dritten Bildes; Identifizieren eines in der ersten Anzeigezone zu präsentierenten Teils, wobei der Teil des dritten Bildes mit einer ersten Fläche des von der ersten Anzeigezone abgedeckten Anzeigebereichs korrelieren kann, und/oder Veranlassen, dass das Präsentieren des Teil des ersten Bildes in der ersten Anzeigezone durch das Präsentieren des Teils des dritten Bildes ersetzt wird.Optionally, the interaction may include an amount of interaction and an interaction direction, wherein adjusting the image data presented via the first display zone may include adjusting the portion of the first image of the subject presented in the first display zone based on the amount of interaction and the direction of interaction. Optionally, the interaction may include an extent of interaction and an interaction direction, wherein adjusting the image data presented via the first display zone may include one or more of: determining that the extent of interaction exceeds an interaction threshold; Selecting a third image; Identifying a portion to be presented in the first display zone, wherein the portion of the third image may correlate to a first area of the display area covered by the first display zone, and / or causing the portion of the first image in the first display zone to be presented by presenting the part of the third image is replaced.

Optional kann das Veranlassen der Präsentation des Teils des ersten Bildes von der ersten zu ersetzenden Anzeigezone beinhalten, zu veranlassen, dass das Präsentieren des Teils des ersten Bildes aus der ersten Anzeigezone als Verlassen des Anzeigebereichs entlang der Interaktionsrichtung erfolgt, und zu veranlassen, dass das Präsentieren des Teils des dritten Bildes als Verlagerung in den Anzeigebereich entlang der Interaktionsrichtung erfolgt. Optional kann die Auswahl des dritten Bildes eine oder mehrere der Folgenden beinhalten: Identifizieren einer Kategorie für den ersten Artikel, der in dem Teil des ersten Bildes gezeigt wird, Durchsuchen eines Bilddatenspeichers unter Verwendung der Kategorie und/oder Empfangen des dritten Bildes als Reaktion auf das Durchsuchen des Bilddatenspeichers, wobei das dritte Bild einen anderen Artikel aus der Kategorie zeigen kann.Optionally, causing the presentation of the portion of the first image from the first display zone to be replaced may include causing the portion of the first image from the first display zone to appear as leaving the display area along the direction of interaction, and causing the presentation of the part of the third image as a shift into the display area along the direction of interaction takes place. Optionally, the selection of the third image may include one or more of the following: identifying a category for the first article shown in the portion of the first image, browsing an image data store using the category and / or receiving the third image in response to the image Browsing the image data store, where the third image can show another article from the category.

Optional kann das computerimplementierte Verfahren ferner eines der Folgenden beinhalten: Erzeugen eines Pseudozufallswertes und/oder Auswählen des dritten Bildes aus einem Satz von Bildern, die als Reaktion auf die Suche im Bilddatenspeicher unter Verwendung des Pseudozufallswertes empfangen wurden. Optional kann das Durchsuchen des Bilddatenspeichers das Übermitteln einer Suchanfrage über ein Netzwerk an den Bilddatenspeicher beinhalten, und das Veranlassen des Präsentierens des dritten Bildes kann das Veranlassen des Präsentierens eines sichtbaren Artefakts für einen Teil des Artikels beinhalten, wie in dem Teil des dritten Bildes gezeigt, wobei das sichtbare Artefakt anzeigt, dass das dritte Bild von dem Bilddatenspeicher empfangen wurde.Optionally, the computer-implemented method may further include one of the following: generating a pseudorandom value and / or selecting the third image from a set of images received in response to the search in the image data store using the pseudorandom value. Optionally, browsing the image data storage may include communicating a search query over a network to the image data store, and causing the presentation of the third image may include causing the presentation of a visible artifact for a portion of the article as shown in the portion of the third image; wherein the visible artifact indicates that the third image was received from the image data store.

Optional kann das computerimplementierte Verfahren auch eines oder mehrere der Folgenden beinhalten: Speichern von Informationen, die den in der zweiten Anzeigezone präsentierten Teil des zweiten Bildes identifizieren, und Informationen, die den in der ersten Anzeigezone präsentierten Teil des ersten Bildes in einem Sitzungsdatensatz identifizieren und einen Datensatzbezeichner für den Sitzungsdatensatz erzeugen, Empfangen des Datensatzbezeichners, Abrufen der Sitzungsdatensatzes unter Verwendung des Datensatzbezeichners und/oder Veranlassen einer Einstellung an mindestens einer der ersten Anzeigezone und der zweiten Anzeigezone, um über den Anzeigebereich den Teil des ersten Bildes innerhalb der ersten Anzeigezone und den Teil des zweiten Bildes innerhalb der zweiten Anzeigezone zu zeigen. Optional kann das computerimplementierte Verfahren ferner eines oder mehrere der Folgenden beinhalten: Empfangen von horizontalen Partitionsinformationen über den Anzeigebereich, wobei die horizontalen Partitionsinformationen die erste Anzeigezone oberhalb einer horizontalen Partition und die zweite Anzeigezone unterhalb der horizontalen Partition identifizieren können, wobei der Teil des ersten Bildes und der Teil des zweiten Bildes unter Verwendung einer Größe des Anzeigebereichs und der horizontalen Partitionsinformationen identifiziert werden können.Optionally, the computer-implemented method may also include one or more of the following: storing information identifying the portion of the second image presented in the second display zone and information identifying the portion of the first image presented in the first display zone in a session record; Create record identifiers for the session record, receiving the record identifier, retrieving the session record using the record identifier, and / or causing a setting on at least one of the first display zone and the second display zone to display, via the display area, the portion of the first image within the first display zone and the portion of the second image within the second display zone. Optionally, the computer-implemented method may further include one or more of: receiving horizontal partition information about the display area, the horizontal partition information identifying the first display zone above a horizontal partition and the second display zone below the horizontal partition, the portion of the first image and the part of the second image can be identified using a size of the display area and the horizontal partition information.

Die hierin offenbarten Ausführungsformen können ein System beinhalten, das ein oder mehrere von einem Datenspeicher, der bestimmte computerausführbare Befehle speichert, und eine Rechenvorrichtung in Kommunikation mit dem Datenspeicher aufweist, wobei die Rechenvorrichtung einen Prozessor beinhaltet, der bestimmte computerausführbare Befehle ausführt, die das System zu einem oder mehreren der Folgenden veranlassen: Identifizieren eines Teils eines ersten Bildes eines ersten Artikels zum Präsentieren in der ersten Zone eines Anzeigebereichs, wobei der Teil des ersten Bildes mit einer ersten Fläche des von der ersten Zone detektierten Anzeigebereichs korrelieren kann, Identifizieren eines Teils eines zweiten Bildes eines zweiten Artikels zum Präsentieren der in einer zweiten Zone des Anzeigebereichs, wobei der Teil des zweiten Bildes mit einer zweiten Fläche des von der zweiten Zone abgedeckten Anzeigebereichs korrelieren kann, Veranlassen der Präsentation des Teils des ersten Bildes in der ersten Zone und die Präsentation des Teils des zweiten Bildes in der zweiten Zone, Erfassen einer Interaktion mit der ersten Zone und/oder Einstellen von Bilddaten, die über die erste Zone präsentiert werden, basierend auf der Interaktion.The embodiments disclosed herein may include a system having one or more of a data store storing particular computer-executable instructions and a computing device in communication with the data store, the computing device including a processor that executes certain computer-executable instructions that the system allocates one or more of the following: identifying a portion of a first image of a first article for presentation in the first zone of a display area, wherein the portion of the first image may correlate to a first area of the display area detected by the first zone, identifying a portion of a second one An image of a second article for presenting in a second zone of the display area, wherein the portion of the second image may correlate to a second area of the display area covered by the second zone, causing the presentation of the portion of the first Picture in the first zone and the presentation of the part of the second image in the second zone, detecting an interaction with the first zone and / or adjusting image data presented over the first zone based on the interaction.

Optional kann die Interaktion ein Interaktionsausmaß und eine Interaktionsrichtung beinhalten, wobei der Prozessor die bestimmten computerausführbaren Befehle ausführen kann, um die über die erste Anzeigezone präsentierten Bilddaten anzupassen, indem das System veranlasst wird, mindestens den Teil des ersten Bildes des in der ersten Zone präsentierten Subjekts basierend auf dem Ausmaß der Interaktion und der Interaktionsrichtung anzupassen. Optional kann die Interaktion ein Interaktionsausmaß und eine Interaktionsrichtung beinhalten, wobei der Prozessor die bestimmten computerausführbaren Befehle ausführen kann, um die über die erste Anzeigezone präsentierten Bilddaten einzustellen, indem das System zu einem oder mehreren der Folgenden veranlasst wird: Bestimmen, dass das Interaktionsausmaß einen Interaktionsschwellenwert überschreitet, Auswählen eines dritten Bildes, Identifizieren eines in der ersten Zone zu präsentierenden Teils, wobei der Teil des dritten Bildes mit einer ersten Fläche des von der ersten Anzeigezone abgedeckten Anzeigebereichs korrelieren kann, und/oder Veranlassen, dass das Präsentieren des Teils des ersten Bildes in der ersten Zone durch das Präsentieren des Teils des dritten Bildes ersetzt wird.Optionally, the interaction may include an extent of interaction and an interaction direction, wherein the processor may execute the particular computer-executable instructions to adjust the image data presented over the first display zone by causing the system to include at least the portion of the first image of the subject presented in the first zone based on the extent of interaction and the direction of interaction. Optionally, the interaction may include an interaction extent and direction of interaction, wherein the processor may execute the particular computer-executable instructions to adjust the image data presented over the first display zone by causing the system to: determine that the interaction extent is an interaction threshold exceeding, selecting a third image, identifying a portion to be displayed in the first zone, wherein the portion of the third image may correlate to a first area of the display area covered by the first display zone, and / or causing the portion of the first image to be presented in the first zone is replaced by presenting the part of the third image.

Optional kann der Prozessor die bestimmten computerausführbaren Befehle ausführen, um zu veranlassen, dass das Präsentieren des Teils des ersten Bildes von der ersten Zone ersetzt wird, indem das System mindestens dazu veranlasst wird, dass das Präsentieren des Teils des ersten Bildes aus der ersten Zone als Verlassen des Anzeigebereichs entlang der Interaktionsrichtung erfolgt, und/oder möglicherweise Veranlassen, dass das Präsentieren des Teils des dritten Bildes in der ersten Zone als Verlagerung in den Anzeigebereich entlang der Interaktionsrichtung erfolgt. Optional kann der Prozessor die bestimmten computerausführbaren Befehle ausführen, um das dritte Bild auszuwählen, indem das System zu einem oder mehreren der Folgenden veranlasst wird: Identifizieren einer Kategorie für den ersten Artikel, der in dem Teil des ersten Bildes gezeigt wird, Durchsuchen eines Bilddatenspeichers unter Verwendung der Kategorie und/oder Empfangen des dritten Bildes als Reaktion auf das Durchsuchen des Bilddatenspeichers, wobei das dritte Bild einen anderen Artikel aus der Kategorie zeigen kann.Optionally, the processor may execute the particular computer-executable instructions to cause the presentation of the portion of the first image to be replaced by the first zone by at least causing the system to present the portion of the first image from the first zone as Leaving the display area along the direction of interaction occurs, and / or possibly causing the presentation of the portion of the third image in the first zone as a shift into the display area along the direction of interaction. Optionally, the processor may execute the particular computer-executable instructions to select the third image by causing the system to do one or more of the following: identifying a category for the first article shown in the portion of the first image, browsing an image data store at Using the category and / or receiving the third image in response to browsing the image data store, wherein the third image may show another article from the category.

Optional kann der Prozessor die bestimmten computerausführbaren Befehle ausführen, um das System ferner zu einem oder mehreren der Folgenden zu veranlassen: Erzeugen eines Pseudozufallswertes und/oder Auswählen des dritten Bildes aus einem Satz von Bildern, die als Reaktion auf die Suche im Bilddatenspeicher unter Verwendung des Pseudozufallswertes empfangen wurden.Optionally, the processor may execute the particular computer-executable instructions to further cause the system to generate one or more of the following: generating a pseudo-random value and / or selecting the third image from a set of images in response to the search in the image data store using the Pseudo-random value were received.

Optional kann der Prozessor die bestimmten computerausführbaren Befehle ausführen, um den Bilddatenspeicher zu durchsuchen, indem das System zumindest zum Übermitteln einer Suchanfrage über ein Netzwerk an den Bilddatenspeicher veranlasst wird, und wobei der Prozessor die bestimmten computerausführbaren Befehle ausführen kann, um das Präsentieren des dritten Bildes zu veranlassen, indem das System zumindest zum Präsentieren eines sichtbaren Artefakts für einen Teil des Artikels veranlasst wird, wie in dem Teil des dritten Bildes gezeigt, wobei das sichtbare Artefakt darauf hinweist, dass das dritte Bild von dem Bilddatenspeicher empfangen wurde.Optionally, the processor may execute the particular computer-executable instructions to search the image data store by causing the system, at a minimum, to transmit a query to the image data store over a network, and wherein the processor may execute the particular computer-executable instructions to present the third image by causing the system to at least display a visual artifact for a portion of the article, as shown in the portion of the third image, the visible artifact indicating that the third image was received from the image data store.

Optional kann der Prozessor die bestimmten computerausführbaren Befehle ausführen, um das System ferner zu einem oder mehreren der Folgenden zu veranlassen: Speichern von Informationen, die den in der zweiten Zone präsentierten Teil des zweiten Bildes identifizieren, und Informationen, die den in der ersten Zone präsentierten Teil eines Bildes in einem Sitzungsdatensatz identifizieren, Erzeugen eines Datensatzbezeichners für den Sitzungsdatensatz, Empfangen des Datensatzbezeichners, Abrufen der Sitzungsdatensatzes unter Verwendung des Datensatzbezeichners und/oder Veranlassen einer Einstellung an mindestens einer der ersten Anzeigezone und der zweiten Anzeigezone, um über den Anzeigebereich den Teil des ersten Bildes innerhalb der ersten Anzeigezone und den Teil des zweiten Bildes innerhalb der zweiten Anzeigezone zu zeigen. Optional kann der Prozessor die bestimmten computerausführbaren Befehle ausführen, um das System ferner zu einem oder mehreren der Folgenden zu veranlassen: Empfangen von horizontalen Partitionsinformationen über den Anzeigebereich, wobei die horizontalen Partitionsinformationen die erste Zone oberhalb einer horizontalen Partition und die zweite Zone unterhalb der horizontalen Partition identifizieren können, wobei der Teil des ersten Bildes und der Teil des zweiten Bildes unter Verwendung einer Größe des Anzeigebereichs und der horizontalen Partitionsinformationen identifiziert werden können.Optionally, the processor may execute the particular computer-executable instructions to further cause the system to do one or more of: storing information identifying the part of the second image presented in the second zone and information presenting the one presented in the first zone Identify part of an image in a session record, generate a record identifier for the session record, receive the record identifier, retrieve the session record using the record identifier, and / or make a setting on at least one of the first display zone and the second display zone to display the part of the display area first image within the first display zone and the portion of the second image within the second display zone. Optionally, the processor may execute the particular computer-executable instructions to further cause the system to receive one or more of: receiving horizontal partition information about the display area, wherein the horizontal partition information is the first zone above a horizontal partition and the second zone below the horizontal partition wherein the portion of the first image and the portion of the second image may be identified using a size of the display area and the horizontal partition information.

Die hier offenbarten Ausführungsformen können ein computerimplementiertes Verfahren umfassen, das unter der Kontrolle einer Rechenvorrichtung steht, die bestimmte computerausführbare Befehle ausführt, einschließlich eines oder mehrerer der Folgenden: Empfangen eines ersten Bildes eines menschlichen Subjekts und eines zweiten Bildes des menschlichen Subjekts, wobei das menschliche Subjekt einen Rumpf und Beine beinhalten kann, Erzeugen eines normalisierten erstes Bild aus dem ersten Bild und eines normalisierten zweiten Bilds aus dem zweiten Bild erzeugt wird, wobei das normalisierte erste Bild und das normalisierte zweite Bild das menschliche Subjekt in einem gemeinsamen Maßstab zeigen, Empfangen eines Bildsegmentierungsmodells zum Segmentieren des normalisierten ersten Bildes und des normalisierten zweiten Bildes, Erzeugen eines ersten Bildteils unter Verwendung des Bildsegmentierungsmodells und des normalisierten ersten Bildes, wobei der erste Bildteil den Rumpf des menschlichen Subjekts zeigt, Erzeugen eines zweiten Bildteils unter Verwendung des Bildsegmentierungsmodells und des normalisierten zweiten Bildes, wobei der zweite Bildteil die Beine des menschlichen Subjekts zeigt, Veranlassen des Präsentierens des ersten Bildteils und des zweiten Bildteils über eine Anzeige, und/oder Veranlassen des Präsentierens des erste Bildteils über die Anzeige in vertikaler Ausrichtung mit dem zweiten Bildteil, wobei das Veranlassen, dass der erste Bildteil über die Anzeige in vertikaler Ausrichtung mit dem zweiten Bildteil präsentiert wird, eine oder mehrere der Folgenden beinhalten kann: Erfassen einer ersten Pose des menschlichen Subjekts, die in dem ersten Bild gezeigt wird, Erfassen einer zweiten Pose des im zweiten Bild gezeigten menschlichen Subjekts, Identifizieren einer ersten Mittellinie für die erste Pose, Identifizieren einer zweiten Mittellinie für die zweite Pose, und/oder Veranlassen, dass der erste Bildteil und der zweite Bildteil über die Anzeige präsentiert werden, wobei die erste Mittellinie und die zweite Mittellinie ausgerichtet sind.The embodiments disclosed herein may include a computer-implemented method under the control of a computing device executing particular computer-executable instructions, including one or more of the following: receiving a first image of a human subject and a second image of the human subject a fuselage and legs, generating a normalized first image from the first image and a normalized second image from the second image, wherein the normalized first image and the normalized second image show the human subject on a common scale, receiving an image segmentation model for segmenting the normalized first image and the normalized second image, generating a first image part using the image segmentation model and the normalized first image, wherein the first image part showing the body of the human subject, generating a second image portion using the image segmentation model and the normalized second image, the second image portion showing the legs of the human subject, causing the presentation of the first image portion and the second image portion via display, and / or causing presenting the first image part via the display in vertical alignment with the second image part, wherein causing the first image part to be presented via the display in vertical alignment with the second image part, one or me More particularly, detecting the first pose of the human subject shown in the first image, detecting a second pose of the human subject shown in the second image, identifying a first centerline for the first pose, identifying a second centerline for the second pose Pose, and / or causing the first image portion and the second image portion to be presented over the display, wherein the first centerline and the second centerline are aligned.

Optional kann das computerimplementierte Verfahren ferner eine oder mehrere der Folgenden umfassen: Empfangen einer ersten Tiefeninformation für das erste Bild und einer zweiten Tiefeninformation für das zweite Bild, wobei die erste Tiefeninformation und die zweite Tiefeninformation jeweils einen Abstand des Subjekts von einem oder mehreren Sensoren angeben können, die zum Erfassen des ersten Bildes und des zweiten Bildes verwendet werden, wobei das Erzeugen eines normalisierten ersten Bildes und eines normalisierten zweiten Bildes die Skalierung mindestens eines des ersten Bildes und des zweiten Bildes beinhalten kann, so dass der Abstand von dem einen oder den mehreren Sensoren des Subjekts, wie in dem normalisierten ersten Bild gezeigt, gleich dem Abstand von dem einen oder den mehreren Sensoren des Subjekts, wie in dem normalisierten zweiten Bild gezeigt, ist. Optional kann das Bildsegmentierungsmodell ein oder mehrere Skelettmodelle für das menschliche Subjekt beinhalten, wobei das Skelettmodell eine Position für den Rumpf und die Beine des Subjekts identifiziert, wobei das Erzeugen des ersten Bildteils des normalisierten ersten Bildes das Mappen des Skelettmodells auf das normalisierte erste Bild beinhalten kann, um eine Position des Rumpfes zu identifizieren, und wobei das Erzeugen des zweiten Bildteils des normalisierten zweiten Bildes das Mappen des Skelettmodells auf das normalisierte zweite Bild beinhalten kann, um eine Position der Beine zu identifizieren, ein Computer-Vision-Modell, wobei das Computer-Vision-Modell für ein gegebenes Bild den Stamm und die Beine des Subjekts identifiziert, wobei das Erzeugen des ersten Bildteils des normalisierten ersten Bildes das Verarbeiten des normalisierten ersten Bildes unter Verwendung des Computer-Vision-Modells beinhalten kann, um eine Position des Stammes zu identifizieren, und wobei das Erzeugen des zweiten Bildteils des normalisierten zweiten Bildes die Verarbeitung des normalisierten zweiten Bildes unter Verwendung des Computer-Vision-Modells zum Identifizieren einer Position der Beine und/oder eines Verhältnismodells, das einen ersten Teil eines Bildes als einen Rumpfbereich und einen zweiten Teil des Bildes als einen Beinbereich anzeigt, beinhalten kann, wobei das Erzeugen des ersten Bildteils des normalisierten ersten Bildes ein oder mehrere Identifizierungspixel aus dem ersten Bild, das in dem durch das Verhältnismodell angegebenen Rumpfbereich enthalten ist, beinhalten kann, Erzeugen des ersten Bildteils unter Verwendung der Pixel aus dem ersten Bild, das im Stammbereich enthalten ist, und/oder wobei das Erzeugen des zweiten Bildteils des normalisierten zweiten Bildes die Identifizierung von Pixeln aus dem zweiten Bild, das in dem durch das Verhältnismodell angegebenen Beinbereich enthalten ist, und/oder das Erzeugen des zweiten Bildteils unter Verwendung der Pixel aus dem zweiten Bild, das in dem Beinbereich enthalten ist, beinhalten kann.Optionally, the computer-implemented method may further comprise one or more of: receiving first depth information for the first image and second depth information for the second image, wherein the first depth information and the second depth information may each indicate a distance of the subject from one or more sensors used to capture the first image and the second image, wherein generating a normalized first image and a normalized second image may include scaling at least one of the first image and the second image such that the distance from the one or more Sensors of the subject, as shown in the normalized first image, equal to the distance from the one or more sensors of the subject, as shown in the normalized second image. Optionally, the image segmentation model may include one or more skeletal models for the human subject, wherein the skeletal model identifies a position for the torso and legs of the subject, wherein generating the first image portion of the normalized first image may include mapping the skeletal model to the normalized first image to identify a position of the trunk, and wherein generating the second image portion of the normalized second image may include mapping the skeletal model to the normalized second image to identify a position of the legs, a computer vision model, wherein the computer Vision model for a given image identifies the stem and legs of the subject, wherein generating the first image portion of the normalized first image may include processing the normalized first image using the computer vision model to approximate a position of the stem identify, and where the Generating the second image portion of the normalized second image processing the normalized second image using the computer vision model to identify a position of the legs and / or a ratio model comprising a first portion of an image as a body region and a second portion of the image indicates a leg region, wherein generating the first image part of the normalized first image may include one or more identification pixels from the first image included in the body region indicated by the ratio model; generating the first image part using the pixels from the first image part the first image contained in the stem region, and / or wherein generating the second image part of the normalized second image identifies pixels from the second image contained in the leg region indicated by the ratio model and / or generating the second image part using d it may include pixels from the second image contained in the leg region.

Optional kann das Erfassen einer Pose des in einem Bild gezeigten menschlichen Subjekts eine oder mehrere der Folgenden beinhalten: Empfangen einer Posendefinition, die die Pose identifiziert, wobei die Posendefinition Informationen enthält, die eine erste Schulterposition relativ zu einer zweiten Schulterposition für ein in der Pose positioniertes Subjekt und eine Mittellinie für die Pose identifizieren, Identifizieren einer ersten Position innerhalb des Bildes, die eine erste Schulter des menschlichen Subjekts zeigt, Identifizieren einer zweiten Position innerhalb des Bildes, die eine zweite Schulter des menschlichen Subjekts zeigt, und/oder Identifizieren der Posendefinition durch Vergleich der ersten Position und der zweiten Position mit den Informationen, die die erste Schulterposition relativ zu der zweiten Schulterposition identifizieren. Optional kann das computerimplementierte Verfahren auch einen oder mehrere der Folgenden beinhalten: Identifizieren eines ersten Pixels in dem ersten Bildteil, der sich innerhalb eines Schwellenabstands von einem zweiten Pixel in dem zweiten Bildteils befindet, Mischen eines Farbwerts des ersten Pixels mit einem Farbwert des zweiten Pixels, um einen gemischten Farbwert zu erzeugen, und/oder Zuweisen des gemischten Farbwerts an das erste Pixel.Optionally, detecting a pose of the human subject shown in an image may include one or more of the following: receiving a pose definition identifying the pose, the pose definition including information including a first shoulder position relative to a second shoulder position for a pose positioned in the pose Identify a subject and a pose centerline, identify a first position within the image that shows a first shoulder of the human subject, identify a second position within the image that shows a second shoulder of the human subject, and / or identify the pose definition Comparing the first position and the second position with the information identifying the first shoulder position relative to the second shoulder position. Optionally, the computer-implemented method may also include one or more of the following: identifying a first pixel in the first image part that is within a threshold distance of a second pixel in the second image part, mixing a color value of the first pixel with a color value of the second pixel, to generate a mixed color value, and / or assign the mixed color value to the first pixel.

Die hier offenbarten Ausführungsformen können ein computerimplementiertes Verfahren beinhalten, das unter der Kontrolle einer Rechenvorrichtung steht, die bestimmte computerausführbare Befehle ausführt, einschließlich eines oder mehrerer der Folgenden: Erzeugen eines ersten Bildteils aus einem ersten Bild, wobei der erste Bildteil einen ersten Teil eines Subjekts zeigt, Erzeugen eines zweiten Bildteils aus einem zweiten Bild, wobei der zweite Bildteil einen zweiten Teil des Subjekts zeigt, Veranlassen der Präsentation des ersten Bildteils und des zweiten Bildteils über eine Anzeige und/oder die Ausrichtung des ersten Bildteils und des zweiten Bildteils, wie über die Anzeige präsentiert, um eine einzige Ansicht des Subjekts einschließlich des ersten Teils des Subjekts und des zweiten Teils des Subjekts bereitzustellen.The embodiments disclosed herein may be a computer-implemented method which is under the control of a computing device that executes certain computer-executable instructions, including one or more of the following: generating a first image portion from a first image, the first image portion showing a first portion of a subject, generating a second image portion from a second image portion Image, the second image portion showing a second portion of the subject, causing the presentation of the first image portion and the second image portion via a display and / or the orientation of the first image portion and the second image portion as presented via the display to be a single view of the image To provide subject including the first part of the subject and the second part of the subject.

Optional kann das computerimplementierte Verfahren ein oder mehrere der Folgenden beinhalten: Empfangen eines Skelettmodells für das Subjekt, wobei das Skelettmodell eine Position für einen Teil des Subjekts identifiziert, wobei das Erzeugen des ersten Bildteils das Mappen des Skelettmodells auf das erste Bild beinhaltet, um eine Position des ersten Teils des Subjekts zu identifizieren, der in dem ersten Bild gezeigt wird, und/oder wobei das Erzeugen des zweiten Bildteils das Mappen des Skelettmodells auf das zweite Bild beinhaltet, um eine Position des zweiten Teils des Subjekts zu identifizieren, der in dem zweiten Bild gezeigt wird. Optional kann das Ausrichten des ersten Bildteils und des zweiten Bildteils eine oder mehrere der Folgenden beinhalten: Mapping des Skelettmodells auf das zweite Bild, um eine Position des ersten Teils des im zweiten Bild gezeigten Subjekts zu identifizieren, Bestimmen eines Einstellungsfaktors, der eine Positionseinstellung auf das zweite Bild angibt, um die Position des ersten Teils des im zweiten Bild gezeigten Subjekts und des ersten Teils des im ersten Bild gezeigten Subjekts auszurichten, und/oder das Veranlassen einer Einstellung des zweiten Bildteils, wie über die Anzeige präsentiert, unter Verwendung des Einstellungsfaktors.Optionally, the computer-implemented method may include one or more of: receiving a skeletal model for the subject, wherein the skeletal model identifies a position for a portion of the subject, wherein generating the first image portion includes mapping the skeletal model to the first image by one position of the first part of the subject shown in the first image, and / or wherein generating the second image part includes mapping the skeletal model to the second image to identify a position of the second part of the subject that is in the second Picture is shown. Optionally, aligning the first image part and the second image part may include one or more of the following: mapping the skeleton model to the second image to identify a position of the first part of the subject shown in the second image, determining a setting factor that sets a position on the second image indicating a second image to align the position of the first part of the subject shown in the second image and the first part of the subject shown in the first image, and / or causing adjustment of the second image part as presented via the display using the adjustment factor.

Optional kann das computerimplementierte Verfahren eines oder mehrere der Folgenden beinhalten: Empfangen eines Verhältnismodells, das einen ersten Bereich eines Bildes einschließlich des ersten Teils des Subjekts und einen zweiten Bereich des Bildes einschließlich des zweiten Teils des Subjekts angibt, wobei das Erzeugen des ersten Bildteils ein oder mehrere identifizierende Pixel aus dem ersten Bild beinhalten kann, das in dem durch das Verhältnismodell angegebenen ersten Bereich enthalten ist, und/oder Erzeugen des ersten Bildteils unter Verwendung der Pixel aus dem ersten Bild, das in dem ersten Bereich enthalten ist, Identifizieren, wobei das Erzeugen des zweiten Bildteils eines oder mehrere der identifizierenden Pixel aus dem zweiten Bild, das in dem zweiten Bereich enthalten ist, der durch das Verhältnismodell angegeben ist, beinhalten kann, und/oder Erzeugen des zweiten Bildteils unter Verwendung der Pixel aus dem zweiten Bild, das in dem zweiten Bereich enthalten ist.Optionally, the computer-implemented method may include one or more of the following: receiving a ratio model indicating a first region of an image including the first part of the subject and a second region of the image including the second part of the subject, wherein generating the first image part is on or may include a plurality of identifying pixels from the first image included in the first region indicated by the ratio model, and / or identifying the first image part using the pixels from the first image included in the first region; Generating the second image part may include one or more of the identifying pixels from the second image contained in the second region indicated by the ratio model, and / or generating the second image part using the pixels from the second image contained in the second area.

Optional kann das Ausrichten des ersten Bildteils und des zweiten Bildteils eine oder mehrere der Folgenden beinhalten: Identifizieren einer ersten Mittellinie für den ersten Bildteil, Identifizieren einer zweiten Mittellinie für den zweiten Bildteil und/oder Veranlassen einer horizontalen Einstellung an mindestens einem der ersten Bildteile und des zweiten Bildteils, wie über die Anzeige präsentiert, um die erste Mittellinie und die zweite Mittellinie auszurichten. Optional kann das Identifizieren einer Mittellinie für ein Bild eine oder mehrere Posendefinitionen beinhalten, die eine Pose identifizieren, wobei die Posendefinition Informationen enthält, die für ein in der Pose positioniertes Subjekt eine Mittellinie für die Pose und eine erste Position eines ersten Punktes auf dem Subjekt relativ zu einer zweiten Position eines zweiten Punktes auf dem Subjekt identifizieren, Identifizieren des ersten Punktes und des zweiten Punktes auf dem im Bild gezeigten Subjekt, Erfassen der Pose des im Bild gezeigten Subjekts durch Korrelieren des ersten Punktes auf dem Subjekt und des zweiten Punktes auf dem im Bild gezeigten Subjekt mit der ersten Position relativ zu der durch die Posendefinition identifizierten zweiten Position und/oder Bereitstellen der in der Posendefinition enthaltenen Mittellinie als Mittellinie für das Bild.Optionally, aligning the first image portion and the second image portion may include one or more of: identifying a first centerline for the first image portion, identifying a second centerline for the second image portion, and / or causing a horizontal adjustment to at least one of the first image portions and second image part, as presented over the display, to align the first centerline and the second centerline. Optionally, identifying a centerline for an image may include one or more pose definitions that identify a pose, wherein the pose definition includes information that, for a pose positioned subject, is a pose centerline and a first position of the subject on the subject identifying the second point on the subject, identifying the first point and the second point on the subject shown in the picture, detecting the pose of the subject shown in the picture by correlating the first point on the subject and the second point on the subject Image subject with the first position relative to the second position identified by the pose definition and / or providing the centerline contained in the pose definition as the centerline for the image.

Optional kann das computerimplementierte Verfahren ferner ein oder mehrere der Folgenden beinhalten: Identifizieren eines ersten Pixels in dem ersten Bildteil, der sich innerhalb eines Schwellenabstands von einem zweiten Pixel in dem zweiten Bildteil befindet, Bestimmen, dass ein Farbwert des ersten Pixels mit einem Subjekttonschwellenwert korreliert, und/oder Bestimmen, dass eine Differenz zwischen dem Farbwert des ersten Pixels und einem Farbwert des zweiten Pixels nicht einem Ausrichtungsschwellenwert entspricht, wobei das Veranlassen einer Ausrichtung des ersten Bildteils und des zweiten Bildteils das Veranlassen einer horizontalen Einstellung an mindestens einem des ersten Bildteils und des zweiten Bildteils, wie über die Anzeige präsentiert, beinhaltet, bis das erste Pixel in dem ersten Bildteil innerhalb des Schwellenabstands zu einem dritten Pixel in dem zweiten Bildteil liegt, wobei eine Differenz zwischen einem Farbwert des dritten Pixels und dem Farbwert des ersten Pixels der Ausrichtungsschwelle entsprechen kann. Optional kann das computerimplementierte Verfahren ein oder mehrere der Folgenden beinhalten: Identifizieren eines ersten Pixels in dem ersten Bildteil, der sich innerhalb eines Schwellenabstands von einem zweiten Pixel in dem zweiten Bildteil befindet, Erzeugen eines Mischfarbwerts unter Verwendung eines Farbwerts des ersten Pixels und eines Farbwerts des zweiten Pixels und/oder Zuweisen des Mischfarbwerts an das erste Pixel.Optionally, the computer-implemented method may further include one or more of: identifying a first pixel in the first image portion that is within a threshold distance of a second pixel in the second image portion; determining that a color value of the first pixel correlates to a subject sound threshold; and / or determining that a difference between the color value of the first pixel and a color value of the second pixel does not correspond to an alignment threshold, wherein causing alignment of the first image part and the second image part causes a horizontal adjustment to be made on at least one of the first image part and the second image part second image portion as presented via the display includes, until the first pixel in the first image portion is within the threshold distance to a third pixel in the second image portion, wherein a difference between a color value of the third pixel and the color value of the first pixel may correspond to the alignment threshold. Optionally, the computer-implemented method may include one or more of the following: identifying a first pixel in the first image part that is within a threshold distance of a second pixel in the second image part, generating a mixed color value using a color value of the first pixel and a color value of the first pixel second pixel and / or assigning the mixed color value to the first pixel.

Die hier offenbarten Ausführungsformen können ein System beinhalten, das mindestens eines von einem Datenspeicher, der bestimmte computerausführbare Befehle ausführt, und/oder einer Rechenvorrichtung in Kommunikation mit dem Datenspeicher beinhaltet, wobei die Rechenvorrichtung einen Prozessor beinhaltet, der die bestimmten computerausführbaren Befehle ausführt, um das System zu mindestens einem der Folgenden zu veranlassen: Erzeugen eines ersten Bildteils aus einem ersten Bild, wobei der erste Bildteil einen ersten Teil eines Subjekts zeigt, Erzeugen eines zweiten Bildteils aus einem zweiten Bild, der zweite Bildteil einen zweiten Teil des Subjekts zeigt, Veranlassen der Präsentation des ersten Bildteils und des zweiten Bildteils über eine Anzeige und/oder Veranlassen der Ausrichtung des ersten Bildteils und des zweiten Bildteils, wie über die Anzeige präsentiert, um eine einzige Ansicht des Subjekts einschließlich des ersten Teils des Subjekts und des zweiten Teils des Subjekts bereitzustellen.The embodiments disclosed herein may include a system including at least one of a data store executing particular computer-executable instructions and / or a computing device in communication with the data store, wherein the computing device includes a processor that executes the particular computer-executable instructions to perform the A system for at least one of the following: generating a first image part from a first image, the first image part showing a first part of a subject, generating a second image part from a second image, the second image part showing a second part of the subject, causing the Presenting the first image portion and the second image portion via an indication and / or causing the orientation of the first image portion and the second image portion as presented via the display to be a single view of the subject including the first portion of the subject and the second portion of the sub to provide it.

Optional kann der Prozessor die bestimmten computerausführbaren Befehle ausführen, um das System ferner zu einem oder mehreren der Folgenden zu veranlassen: Empfangen eines Skelettmodells für das Subjekt, wobei das Skelettmodell eine Position für einen Teil des Subjekts identifiziert, wobei die Anweisungen, die das System dazu veranlassen, den ersten Teil des Bildes zu erzeugen, Anweisungen beinhalten können, das System dazu zu veranlassen, das Skelettmodell zumindest auf das erste Bild zu mappen, um eine Position des ersten Teils des Subjekts zu identifizieren, der in dem ersten Bild gezeigt wird, und/oder wobei die Anweisungen, die das System dazu veranlassen, den zweiten Teil des Bildes zu erzeugen, Anweisungen beinhalten können, das System dazu zu veranlassen, das Skelettmodell zumindest auf das zweite Bild zu mappen, um eine Position des zweiten Teils des Subjekts zu identifizieren, der in dem zweiten Bild gezeigt wird. Optional kann der Prozessor die bestimmten computerausführbaren Befehle ausführen, um das Ausrichten des ersten Bildteils und des zweiten Bildteils zu veranlassen, indem das System zumindest zu einem der Folgenden veranlasst wird: Mappen des Skelettmodells auf das zweite Bild, um eine Position des ersten Teils des im zweiten Bild gezeigten Subjekts zu identifizieren, Bestimmen eines Einstellungsfaktors, der eine Positionseinstellung an das zweite Bild angibt, um die Position des ersten Teils des im zweiten Bild gezeigten Subjekts und des ersten Teils des im ersten Bild gezeigten Subjekts auszurichten, und/oder das Veranlassen eines Einstellens des zweiten Bildteils, wie über die Anzeige präsentiert, unter Verwendung des Einstellungsfaktors.Optionally, the processor may execute the particular computer-executable instructions to further cause the system to receive one or more of the following: receiving a skeleton model for the subject, the skeleton model identifying a location for a portion of the subject, the instructions provided by the system thereto causing the first part of the image to generate instructions to cause the system to map the skeleton model to at least the first image to identify a position of the first part of the subject shown in the first image, and The instructions causing the system to generate the second part of the image may include instructions to cause the system to map the skeleton model to at least the second image to identify a position of the second part of the subject shown in the second picture. Optionally, the processor may execute the particular computer-executable instructions to cause alignment of the first image portion and the second image portion by causing the system to perform at least one of: mapping the skeleton model to the second image to obtain a position of the first portion of the image identifying a subject, indicating a positional adjustment to the second image to align the position of the first part of the subject shown in the second image and the first part of the subject shown in the first image, and / or causing a subject Adjusting the second image portion as presented via the display using the adjustment factor.

Optional kann der Prozessor die bestimmten computerausführbaren Befehle ausführen, um das System ferner zu mindestens einem der Folgenden zu veranlassen: Empfangen eines Verhältnismodells, das einen ersten Bereich eines Bildes einschließlich des ersten Teils des Subjekts und einen zweiten Bereich des Bildes einschließlich des zweiten Teils des Subjekts angibt, wobei die Anweisungen, die das System dazu veranlassen, den ersten Bildteil zu erzeugen, Anweisungen beinhalten können, die das System zu einem der Folgenden veranlassen: Identifizieren von Pixeln aus dem ersten Bild, das in dem durch das Verhältnismodell angegebenen ersten Bereich enthalten ist, und/oder Erzeugen des ersten Bildteils unter Verwendung der Pixel aus dem ersten Bild, das in dem ersten Bereich enthalten ist, und/oder wobei die Anweisungen, das System dazu zu veranlassen, den zweiten Bildteil zu erzeugen, Anweisungen beinhalten können, die das System zumindest zu einem der Folgenden veranlassen: Identifizieren von Pixeln aus dem zweiten Bild, das in dem zweiten Bereich enthalten ist, der durch das Verhältnismodell angegeben ist, und/oder Erzeugen des zweiten Bildteils unter Verwendung der Pixel aus dem zweiten Bild, das in dem zweiten Bereich enthalten ist.Optionally, the processor may execute the particular computer-executable instructions to further cause the system to do at least one of: receiving a ratio model including a first portion of an image including the first portion of the subject and a second portion of the image including the second portion of the subject wherein the instructions that cause the system to generate the first image portion may include instructions that cause the system to do one of the following: identify pixels from the first image contained in the first region indicated by the ratio model and / or generating the first image portion using the pixels from the first image contained in the first area, and / or wherein the instructions to cause the system to generate the second image portion may include instructions that include Initiate at least one of the following: Identify n of pixels from the second image contained in the second region indicated by the ratio model and / or generating the second image part using the pixels from the second image included in the second region.

Optional kann der Prozessor die bestimmten computerausführbaren Befehle ausführen, um das Ausrichten des ersten Bildteils und des zweiten Bildteils zu veranlassen, indem das System zu mindestens einem der Folgenden veranlasst wird: Identifizieren einer ersten Mittellinie für den ersten Bildteil, Identifizieren einer zweiten Mittellinie für den zweiten Bildteil und/oder Veranlassen einer horizontalen Einstellung an mindestens einen des ersten Bildteils und des zweiten Bildteils, wie über die Anzeige präsentiert, um die erste Mittellinie und die zweite Mittellinie auszurichten. Optional kann der Prozessor die bestimmten computerausführbaren Befehle ausführen, um eine Mittellinie für ein Bild zu identifizieren, indem das System zu mindestens einem der Folgenden veranlasst wird: Empfangen einer Posendefinition, die eine Pose identifiziert, wobei die Posendefinition Informationen enthält, die für ein in der Pose positioniertes Subjekt und eine Mittellinie für die Pose und eine erste Position eines ersten Punktes auf dem Subjekt relativ zu einer zweiten Position eines zweiten Punktes auf dem Subjekt identifizieren, Identifizieren des ersten Punktes und des zweiten Punktes auf dem im Bild gezeigten Subjekt, Erfassen der Pose des im Bild gezeigten Subjekts durch Korrelieren des ersten Punktes auf dem Subjekt und des zweiten Punktes auf dem im Bild gezeigten Subjekt mit der ersten Position relativ zu der durch die Posendefinition identifizierten zweiten Position und/oder Bereitstellen der in der Posendefinition enthaltenen Mittellinie als Mittellinie für das Bild. Optionally, the processor may execute the particular computer-executable instructions to cause the alignment of the first image portion and the second image portion by causing the system to at least one of: identifying a first centerline for the first image portion, identifying a second centerline for the second image portion Image portion and / or causing a horizontal adjustment to at least one of the first image portion and the second image portion as presented over the display to align the first centerline and the second centerline. Optionally, the processor may execute the particular computer-executable instructions to identify a centerline for an image by causing the system to do at least one of: receiving a pose definition that identifies a pose, the pose definition including information appropriate for one in the image Pose positioned subject and a centerline for the pose and identify a first position of a first point on the subject relative to a second position of a second point on the subject, identifying the first point and the second point on the subject shown in the image, detecting the pose of the subject shown in the picture by correlating the first point on the subject and the second point on the subject shown in the picture with the first position relative to the second position identified by the pose definition and / or providing the centerline contained in the pose definition as the centerline for the subject Image.

Optional kann der Prozessor die bestimmten computerausführbaren Befehle ausführen, um das System ferner zu mindestens einem der Folgenden zu veranlassen: Identifizieren eines ersten Pixels in dem ersten Bildteil, der sich innerhalb eines Schwellenabstands von einem zweiten Pixel in dem zweiten Bildteil befindet, Bestimmen, dass ein Farbwert des ersten Pixels mit einem Subjekttonschwellenwert korreliert, und/oder Bestimmen, dass eine Differenz zwischen dem Farbwert des ersten Pixels und einem Farbwert des zweiten Pixels nicht einer Ausrichtungsschwelle entspricht, wobei die Anweisungen, das System zu einer Ausrichtung des ersten Bildteils und des zweiten Bildteils zu veranlassen, Anweisungen beinhalten können, die das System dazu veranlassen, eine horizontale Einstellung an mindestens einem des ersten Bildteils und des zweiten Bildteils zu veranlassen, wie über die Anzeige präsentiert, bis das erste Pixel in dem ersten Bildteil innerhalb des Schwellenabstands zu einem dritten Pixel in dem zweiten Bildteil liegt, wobei eine Differenz zwischen einem Farbwert des dritten Pixels und dem Farbwert des ersten Pixels der Ausrichtungsschwelle entsprechen.Optionally, the processor may execute the particular computer-executable instructions to further cause the system to do one of the following: identifying a first pixel in the first image portion that is within a threshold distance of a second pixel in the second image portion Color value of the first pixel correlates with a subject tone threshold, and / or determining that a difference between the color value of the first pixel and a color value of the second pixel does not correspond to an alignment threshold, wherein the instructions, the system, align the first image portion and the second image portion to cause instructions to cause the system to cause a horizontal adjustment on at least one of the first image portion and the second image portion as presented via the display until the first pixel in the first image portion is within the threshold distance to a third pixel in the second image part, wherein a difference between a color value of the third pixel and the color value of the first pixel correspond to the alignment threshold.

Die hier verwendeten konditionalen Formulierungen, wie z. B. „kann“, „könnte“, „unter Umständen“, „kann“, „z.B.“ und dergleichen, sollen, sofern nicht ausdrücklich anders angegeben oder anderweitig innerhalb des verwendeten Kontextes verstanden, im Allgemeinen vermitteln, dass bestimmte Ausführungsformen bestimmte Merkmale, Elemente und/oder Schritte beinhalten, während andere Ausführungsformen diese nicht beinhalten. Derartige Formulierungen sollen also nicht generell implizieren, dass Merkmale, Elemente und/oder Schritte in irgendeiner Weise für eine oder mehrere Ausführungsformen erforderlich sind oder dass eine oder mehrere Ausführungsformen notwendigerweise eine Logik enthalten, um zu entscheiden, ob diese Merkmale, Elemente und/oder Schritte in einer bestimmten Verkörperung beinhaltet sind oder ausgeführt werden sollen, mit oder ohne andere Eingabe oder Aufforderung. Die Begriffe „umfassend“, „beinhaltend“, „aufweisend“ und dergleichen sind gleichbedeutend und werden in offener Weise verwendet und schließen zusätzliche Elemente, Merkmale, Handlungen, Operationen usw. nicht aus. Außerdem wird der Begriff „oder“ in seinem umfassenden Sinn (und nicht in seinem ausschließlichen Sinn) verwendet, so dass der Begriff „oder“, wenn er z. B. zur Verbindung einer Liste von Elementen verwendet wird, eines, einige oder alle Elemente in der Liste bezeichnet.The conditional formulations used here, such as. "May," "may," "may," "may," and so on, unless expressly stated otherwise or otherwise understood within the context in which it is used, are intended to convey, in general, that certain embodiments Elements and / or steps include, while other embodiments do not include these. Thus, such formulations should not generally imply that features, elements, and / or steps are in any way required for one or more embodiments, or that one or more embodiments necessarily include logic to decide whether those features, elements, and / or steps are included or intended to be embodied in a particular embodiment, with or without other input or solicitation. The terms "comprising," "including," "having," and the like are synonymous and are used in an open-ended manner and do not exclude additional elements, features, acts, operations, and so forth. In addition, the term "or" is used in its broad sense (and not in its exclusive sense), so that the term "or", when used e.g. Used to connect a list of items, one, some or all of the items in the list.

Disjunktive Formulierungen wie der Ausdruck „mindestens einer von X, Y, Z“, sofern nicht ausdrücklich anders angegeben, wird mit dem Kontext verstanden, der im Allgemeinen verwendet wird, um darzustellen, dass ein Element, ein Begriff usw. entweder X, Y oder Z oder eine Kombination davon sein kann (z. B. X, Y und/oder Z). Daher sind derartige disjunktive Formulierungen im Allgemeinen nicht dazu bestimmt und sollten nicht implizieren, dass bestimmte Ausführungsformen mindestens eines von X, mindestens eines von Y oder mindestens eines von Z erfordern.Disjunctive language such as the term "at least one of X, Y, Z", unless expressly stated otherwise, is understood to mean the context generally used to represent that an element, a term, etc. is either X, Y or Z or a combination thereof (eg X, Y and / or Z). Therefore, such disjunctive formulations are generally not intended and should not imply that certain embodiments require at least one of X, at least one of Y, or at least one of Z.

Sofern nicht ausdrücklich anders angegeben, sind Artikel wie „ein“ oder „eine“ generell so zu interpretieren, dass sie einen oder mehrere der beschriebenen Punkte beinhalten. Dementsprechend sind Phrasen wie „ein Gerät konfiguriert für“ dazu gedacht, ein oder mehrere rezitierte Geräte aufzunehmen. Solch ein oder mehrere rezitierte Geräte können auch gemeinsam konfiguriert werden, um die angegebenen Rezitationen durchzuführen. Beispielsweise kann „ein Prozessor, der für die Durchführung von Rezitationen A, B und C konfiguriert ist“, einen ersten Prozessor beinhalten, der für die Durchführung von Rezitationen A konfiguriert ist, und einen zweiten Prozessor, der für die Durchführung von Rezitationen B und C konfiguriert ist.Unless otherwise stated, items such as "a" or "a" are generally to be interpreted as including one or more of the items described. Accordingly, phrases such as "a device configured for" are intended to accommodate one or more recited devices. Such one or more recited devices can also be configured together to perform the specified recitations. For example, "a processor configured to perform recitations A, B and C" may include a first processor configured to perform recitations A and a second processor to perform recitations B and C is configured.

Wie hierin verwendet, können die Begriffe „Bestimmung“ oder „Bestimmen“ eine breite Vielfalt von Aktionen umfassen. Zum Beispiel kann „Bestimmen“ das Berechnen, Berechnen, Verarbeiten, Ableiten, Nachschlagen (z. B. Nachschlagen in einer Tabelle, einer Datenbank oder einer anderen Datenstruktur), Ermitteln und dergleichen umfassen. „Bestimmen“ kann auch Empfangen (z. B. das Empfangen von Informationen), Zugreifen (z. B. das Zugreifen auf Daten in einem Speicher) und Ähnliches beinhalten. „Bestimmen“ kann auch Auflösen, Auswählen, Auswählen, Wählen, Einrichten und dergleichen beinhalten.As used herein, the terms "determining" or "determining" may encompass a wide variety of actions. For example, "determining" may include computing, computing, processing, deriving, lookup (e.g., looking up a table, a database, or other data structure), determining, and the like. "Determine" may also include receiving (eg, receiving information), accessing (eg, accessing data in a memory), and the like. "Determine" may also include resolving, selecting, selecting, choosing, setting up, and the like.

Der Begriff „selektiv“ kann, wie hier verwendet, eine Vielzahl von Aktionen umfassen. Ein „selektiver“ Prozess kann beispielsweise die Bestimmung einer Option aus mehreren Optionen beinhalten. Ein „selektiver“ Prozess kann einen oder mehrere dynamisch bestimmte Eingänge, vorkonfigurierte Eingänge oder benutzerinitiierte Eingänge für die Bestimmung enthalten. In einigen Implementierungen kann ein n-Eingangsschalter enthalten sein, um eine selektive Funktionalität bereitzustellen, wobei n die Anzahl der Eingänge ist, die für die Auswahl verwendet werden.The term "selective" as used herein can encompass a variety of actions. For example, a "selective" process may involve determining an option from multiple options. A "selective" process may include one or more dynamically determined inputs, preconfigured inputs, or user-initiated inputs for the determination. In some implementations, an n-input switch may be included to provide selective functionality, where n is the number of inputs used for the selection.

Die hier verwendeten Begriffe „Bereitstellung“ oder „Bereitstellen“ umfassen eine Vielzahl von Aktionen. Zum Beispiel kann „Bereitstellen“ das Speichern eines Wertes an einem Ort zum späteren Abruf, das Übertragen eines Wertes direkt an den Empfänger, das Übertragen oder Speichern eines Verweises auf einen Wert und dergleichen beinhalten. Das „Bereitstellen“ kann auch das Kodieren, Dekodieren, Verschlüsseln, Entschlüsseln, Validieren, Verifizieren und dergleichen umfassen.The terms "provisioning" or "deploying" used herein encompass a variety of actions. For example, "providing" may include storing a value at a location for later retrieval, transmitting a value directly to the receiver, transmitting or storing a reference to a value, and the like. The "providing" may also include coding, decoding, encryption, decryption, validation, verification and the like.

Der Begriff „Nachricht“ umfasst eine Vielzahl von Formaten für die Kommunikation (z. B. Senden oder Empfangen) von Informationen. Eine Nachricht kann eine maschinenlesbare Aggregation von Informationen wie z. B. ein XML-Dokument, eine Nachricht mit festen Feldern, eine durch Kommata getrennte Nachricht oder Ähnliches enthalten. Eine Nachricht kann in einigen Implementierungen ein Signal enthalten, das zur Übertragung einer oder mehrerer Darstellungen der Informationen verwendet wird. Während im Singular rezitiert wird, wird verstanden, dass eine Nachricht in mehreren Teilen vdetektiert, übermittelt, gespeichert, empfangen usw. werden kann. The term "message" includes a variety of formats for communicating (e.g., sending or receiving) information. A message can be a machine-readable aggregation of information such as. An XML document, a fixed-field message, a comma-separated message, or the like. A message may, in some implementations, include a signal used to transmit one or more representations of the information. While reciting in the singular, it is understood that a message may be detected, transmitted, stored, received, etc. in several parts.

Eine „Benutzerschnittstelle“ (auch als interaktive Benutzerschnittstelle, grafische Benutzerschnittstelle oder UI (user interface) bezeichnet) kann sich auf eine netzwerkbasierte Schnittstelle beziehen, die Datenfelder und/oder andere Steuerungen zum Empfang von Eingangssignalen oder zur Bereitstellung elektronischer Informationen und/oder zur Bereitstellung von Informationen für den Benutzer als Reaktion auf empfangene Eingangssignale beinhaltet. Eine Benutzeroberfläche kann ganz oder teilweise mit Technologien wie Hyper-Text-Markup-Sprache (HTML), Flash, Java, .net, Webservices und Rich Site Summary (RSS) implementiert werden. In einigen Implementierungen kann eine Benutzerschnittstelle in einem Standalone-Client (z. B. Thick-Client, Fat-Client) enthalten sein, der für die Kommunikation (z. B. Senden oder Empfangen von Daten) gemäß einem oder mehreren der beschriebenen Aspekte konfiguriert ist.A "user interface" (also referred to as an interactive user interface, graphical user interface or UI) may refer to a network-based interface that includes data fields and / or other controls for receiving input signals or providing electronic information and / or providing Information for the user in response to received input signals. A user interface can be implemented in whole or in part using technologies such as Hyper-Text Markup Language (HTML), Flash, Java, .NET, Web Services, and Rich Site Summary (RSS). In some implementations, a user interface may be included in a standalone client (eg, thick client, fat client) configured to communicate (eg, send or receive data) in accordance with one or more of the described aspects is.

Während die obige detaillierte Beschreibung neue Merkmale in Bezug auf verschiedene Ausführungsformen gezeigt, beschrieben und aufgezeigt hat, versteht es sich, dass verschiedene Auslassungen, Substitutionen und Änderungen in der Form und den Details der dargestellten Vorrichtungen oder Algorithmen vorgenommen werden können, ohne vom Geist der Offenbarung abzuweichen. Wie zu erkennen ist, können bestimmte hier beschriebene Ausführungsformen in einer Form aufgenommen werden, die nicht alle hier beschriebenen Merkmale und Vorteile bereitstellt, da einige Merkmale getrennt von anderen verwendet oder ausgeübt werden können. Der Umfang von gewissen Ausführungsformen, die hierin offenbart sind, ist durch die beigefügten Patentansprüche angegeben, anstatt durch die vorstehende Beschreibung. Alle Veränderungen, die sich aus der Bedeutung und Gleichwertigkeitsbereich der Patentansprüche ergeben, sollen in deren Umfang eingeschlossen sein.While the above detailed description has shown, described, and pointed out novel features with respect to various embodiments, it should be understood that various omissions, substitutions, and alterations may be made in the form and details of the illustrated apparatus or algorithms without departing from the spirit of the disclosure departing. As will be appreciated, certain embodiments described herein may be included in a form that does not provide all of the features and advantages described herein since some features may be used or practiced separately from others. The scope of certain embodiments disclosed herein is indicated by the appended claims rather than by the foregoing description. All changes that result from the meaning and equivalence of the claims should be included in their scope.

ZITATE ENTHALTEN IN DER BESCHREIBUNG QUOTES INCLUDE IN THE DESCRIPTION

Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.This list of the documents listed by the applicant has been generated automatically and is included solely for the better information of the reader. The list is not part of the German patent or utility model application. The DPMA assumes no liability for any errors or omissions.

Zitierte PatentliteraturCited patent literature

  • US 14967086 [0004]US 14967086 [0004]
  • US 14729894 [0061]US Pat. No. 14729894 [0061]

Claims (15)

Ein computerimplementiertes Verfahren, umfassend: unter Kontrolle einer Rechenvorrichtung, die bestimmte computerausführbare Befehle ausführt, Identifizieren eines Teils eines ersten Bildes eines ersten Artikels zum Präsentieren in einer ersten Anzeigezone eines Anzeigebereichs, wobei der Teil des ersten Bildes mit einer ersten Fläche des von der ersten Anzeigezone abgedeckten Anzeigebereichs korreliert; Identifizieren eines Teils eines zweiten Bildes eines zweiten Artikels zum Präsentieren in einer zweiten Anzeigezone des Anzeigebereichs, wobei der Teil des zweiten Bildes mit einer zweiten Fläche des von der zweiten Anzeigezone abgedeckten Anzeigebereichs korreliert; Veranlassen des Präsentierens des Teil des ersten Bildes in der ersten Anzeigezone und des Präsentierens des Teils des zweiten Bildes in der zweiten Anzeigezone; Erfassen einer Interaktion mit der ersten Anzeigezone; und Einstellen der Bilddaten, die über die erste Anzeigezone präsentiert werden, basierend auf der Interaktion.A computer-implemented method comprising: under the control of a computing device that executes certain computer-executable instructions, Identifying a portion of a first image of a first article for presentation in a first display zone of a display area, the portion of the first image correlating to a first area of the display area covered by the first display zone; Identifying a portion of a second image of a second article for presentation in a second display zone of the display area, the portion of the second image correlating to a second area of the display area covered by the second display zone; Causing the presentation of the portion of the first image in the first display zone and presenting the portion of the second image in the second display zone; Detecting an interaction with the first display zone; and Adjusting the image data presented over the first display zone based on the interaction. Das computerimplementierte Verfahren nach Anspruch 1, wobei die Interaktion ein Interaktionsausmaß und eine Interaktionsrichtung beinhaltet und wobei das Einstellen der über die erste Anzeigezone präsentierten Bilddaten das Einstellen des Teils des ersten Bildes des in der ersten Anzeigezone präsentierten Subjekts basierend auf dem Ausmaß der Interaktion und der Interaktionsrichtung umfasst.The computer-implemented method according to Claim 1 wherein the interaction includes an amount of interaction and an interaction direction, and wherein adjusting the image data presented via the first display zone comprises adjusting the portion of the first image of the subject presented in the first display zone based on the amount of interaction and the direction of interaction. Das computerimplementierte Verfahren nach einem der Ansprüche 1 oder 2, wobei die Interaktion ein Interaktionsausmaß und eine Interaktionsrichtung beinhaltet und wobei das Einstellen der über die erste Anzeigezone präsentierten Bilddaten Folgendes umfasst: Bestimmen, dass das Interaktionsausmaß einen Interaktionsschwellenwert überschreitet; Auswählen eines dritten Bildes; Identifizieren eines Teils des dritten Bildes zum Präsentieren in der ersten Anzeigezone, wobei der Teil des dritten Bildes mit der ersten Fläche des von der ersten Anzeigezone abgedeckten Anzeigebereichs korreliert; und Veranlassen, dass das Präsentieren des Teils des ersten Bildes in der ersten Anzeigezone durch das Präsentieren des Teils des dritten Bildes ersetzt wird.The computer-implemented method according to one of Claims 1 or 2 wherein the interaction includes an extent of interaction and an interaction direction, and wherein adjusting the image data presented via the first display zone comprises: determining that the level of interaction exceeds an interaction threshold; Selecting a third image; Identifying a portion of the third image for presentation in the first display zone, wherein the portion of the third image correlates to the first surface of the display area covered by the first display zone; and causing the presentation of the portion of the first image in the first display zone to be replaced by presenting the portion of the third image. Das computerimplementierte Verfahren nach Anspruch 3, wobei das Veranlassen, dass das Präsentieren des Teils des ersten Bildes von der ersten Anzeigezone ersetzt wird, umfasst, zu veranlassen, dass das Präsentieren des Teils des ersten Bildes von der ersten Anzeigezone als Verlassen des Anzeigebereichs entlang der Interaktionsrichtung erfolgt, und zu veranlassen, dass das Präsentieren des Teils des dritten Bildes als Verlagerung in den Anzeigebereich entlang der Interaktionsrichtung erfolgt.The computer-implemented method according to Claim 3 wherein causing the presentation of the portion of the first image to be replaced by the first display zone comprises causing the portion of the first image to be presented from the first display zone as leaving the display area along the direction of interaction, and causing the presentation of the part of the third image takes place as a shift into the display area along the direction of interaction. Das computerimplementierte Verfahren nach Anspruch 3, wobei das Auswählen des dritten Bildes Folgendes umfasst: Identifizieren einer Kategorie für den ersten Artikel, der in dem Teil des ersten Bildes gezeigt wird; Durchsuchen eines Bilddatenspeichers unter Verwendung der Kategorie; und Empfangen des dritten Bildes als Reaktion auf die Suche im Bilddatenspeicher, wobei das dritte Bild einen anderen Artikel innerhalb der Kategorie zeigt.The computer-implemented method according to Claim 3 wherein selecting the third image comprises: identifying a category for the first article shown in the portion of the first image; Browsing an image data store using the category; and receiving the third image in response to the search in the image data store, wherein the third image shows another article within the category. Das computerimplementierte Verfahren nach Anspruch 5, weiterhin umfassend: Erzeugen eines Pseudozufallswertes; und Auswählen des dritten Bildes aus einem Satz von Bildern, die als Reaktion auf die Suche im Bilddatenspeicher unter Verwendung des Pseudozufallswertes empfangen wurden.The computer-implemented method according to Claim 5 further comprising: generating a pseudo-random value; and selecting the third image from a set of images received in response to the search in the image data store using the pseudorandom value. Das computerimplementierte Verfahren nach Anspruch 5, wobei das Durchsuchen des Bilddatenspeichers das Übermitteln einer Suchanfrage über ein Netzwerk an den Bilddatenspeicher umfasst, und wobei das Veranlassen des Präsentierens des dritten Bildes das Veranlassen des Präsentierens eines sichtbaren Artefakts für einen Teil des Artikels, wie in dem Teil des dritten Bildes gezeigt, umfasst, wobei das sichtbare Artefakt anzeigt, dass das dritte Bild von dem Bilddatenspeicher empfangen wurde.The computer-implemented method according to Claim 5 wherein the browsing of the image data memory comprises communicating a search request over a network to the image data storage, and wherein causing the presentation of the third image includes causing the presentation of a visible artifact for a portion of the article as shown in the portion of the third image , wherein the visible artifact indicates that the third image was received from the image data storage. Das computerimplementierte Verfahren nach einem der Ansprüche 1, 2, 3, 4, 5, 6 oder 7, weiterhin umfassend: Speichern von Informationen, die den in der zweiten Anzeigezone präsentierten Teil des zweiten Bildes identifizieren, und Informationen, die den in der ersten Anzeigezone präsentierten Teil des ersten Bildes in einem Sitzungsdatensatz identifizieren; Erzeugen eines Datensatzbezeichners für den Sitzungsdatensatz; Empfangen des Datensatzbezeichners; Abrufen des Sitzungsdatensatzes unter Verwendung des Datensatzbezeichners; und Veranlassen einer Einstellung an mindestens einer der ersten Anzeigezone und der zweiten Anzeigezone, um über den Anzeigebereich den Teil des ersten Bildes innerhalb der ersten Anzeigezone und den Teil des zweiten Bildes innerhalb der zweiten Anzeigezone zu zeigen.The computer-implemented method according to one of Claims 1 . 2 . 3 . 4 . 5 . 6 or 7 , further comprising: storing information identifying the portion of the second image presented in the second display zone and information identifying the portion of the first image presented in the first display zone in a session record; Generating a record identifier for the session record; Receiving the record identifier; Retrieving the session record using the record identifier; and causing adjustment to at least one of the first display zone and the second display zone to display, over the display area, the portion of the first image within the first display zone and the portion of the second image within the second display zone. Das computerimplementierte Verfahren nach einem der Ansprüche 1, 2, 3, 4, 5, 6, 7 oder 8, ferner umfassend: Empfangen von horizontalen Partitionsinformationen über den Anzeigebereich, wobei die horizontalen Partitionsinformationen die erste Anzeigezone oberhalb einer horizontalen Partition und die zweite Anzeigezone unterhalb der horizontalen Partition identifizieren, wobei der Teil des ersten Bildes und der Teil des zweiten Bildes unter Verwendung einer Größe des Anzeigebereichs und der horizontalen Partitionsinformationen identifiziert werden.The computer-implemented method according to one of Claims 1 . 2 . 3 . 4 . 5 . 6 . 7 or 8th , further comprising: Receiving horizontal partition information about the display area, wherein the horizontal partition information identifies the first display zone above a horizontal partition and the second display zone below the horizontal partition, the portion of the first image and the portion of the second image using a size of the display area and the horizontal Partition information can be identified. Ein System, umfassend: einen Datenspeicher, der bestimmte computerausführbare Anweisungen speichert; und eine Rechenvorrichtung in Kommunikation mit dem Datenspeicher, wobei die Rechenvorrichtung einen Prozessor beinhaltet, der die spezifischen computerausführbaren Befehle ausführt, um das System zumindest zu Folgendem zu veranlassen: Identifizieren eines Teils eines ersten Bildes eines ersten Artikels zum Präsentieren in der ersten Zone eines Anzeigebereichs, wobei der Teil des ersten Bildes mit einer ersten Fläche des von der ersten Zone abgedeckten Anzeigebereichs korreliert; Identifizieren eines Teils eines zweiten Bildes eines zweiten Artikels zum Präsentieren in einer zweiten Zone des Anzeigebereichs, wobei der Teil des zweiten Bildes mit einer zweiten Fläche des von der zweiten Zone abgedeckten Anzeigebereichs korreliert; Veranlassen des Präsentierens des Teils des ersten Bildes in der ersten Zone und des Präsentierens des Teils des zweiten Bildes in der zweiten Zone; Erfassen einer Interaktion mit der ersten Zone; und Einstellen der Bilddaten, die über die erste Zone präsentiert werden, basierend auf der Interaktion.A system comprising: a data store storing particular computer-executable instructions; and a computing device in communication with the data store, the computing device including a processor that executes the specific computer-executable instructions to cause the system to: Identifying a portion of a first image of a first article for presentation in the first zone of a display area, the portion of the first image correlating to a first area of the display area covered by the first zone; Identifying a portion of a second image of a second article for presentation in a second zone of the display area, wherein the portion of the second image correlates to a second area of the display area covered by the second zone; Causing presentation of the portion of the first image in the first zone and presenting the portion of the second image in the second zone; Detecting an interaction with the first zone; and Adjust the image data presented over the first zone based on the interaction. Das System nach Anspruch 10, wobei die Interaktion ein Interaktionsausmaß und eine Interaktionsrichtung beinhaltet und wobei der Prozessor die bestimmten computerausführbaren Befehle ausführt, um die über die erste Anzeigezone präsentierten Bilddaten einzustellen, indem das System veranlasst wird, mindestens den Teil des ersten Bildes des in der ersten Zone präsentierten Subjekts basierend auf dem Ausmaß der Interaktion und der Interaktionsrichtung einzustellen.The system after Claim 10 wherein the interaction includes an extent of interaction and an interaction direction, and wherein the processor executes the particular computer-executable instructions to adjust the image data presented via the first display zone by causing the system to base at least the portion of the first image of the subject presented in the first zone on the extent of interaction and the direction of interaction. Das System nach einem der Ansprüche 10 oder 11, wobei die Interaktion ein Interaktionsausmaß und eine Interaktionsrichtung beinhaltet, und wobei der Prozessor die bestimmten computerausführbaren Befehle ausführt, um die über die erste Zone präsentierten Bilddaten einzustellen, indem er das System mindestens zu Folgendem veranlasst: Bestimmen, dass das Interaktionsausmaß einen Interaktionsschwellenwert überschreitet; Auswählen eines dritten Bildes; Identifizieren eines Teils des dritten Bildes zum Präsentieren in der ersten Zone, wobei der Teil des dritten Bildes mit der ersten Fläche des von der ersten Zone abgedeckten Anzeigebereichs korreliert; und Veranlassen, dass das Präsentieren des Teils des ersten Bildes in der ersten Zone durch das Präsentieren des Teils des dritten Bildes ersetzt wird.The system according to one of Claims 10 or 11 wherein the interaction includes an interaction extent and an interaction direction, and wherein the processor executes the particular computer-executable instructions to set the image data presented over the first zone by causing the system to: determine that the interaction extent exceeds an interaction threshold; Selecting a third image; Identifying a portion of the third image for presentation in the first zone, the portion of the third image correlating with the first surface of the display area covered by the first zone; and causing the presentation of the portion of the first image in the first zone to be replaced by presenting the portion of the third image. Das System nach Anspruch 12, wobei der Prozessor die bestimmten computerausführbaren Befehle ausführt, um zu veranlassen, dass das Präsentieren des Teil des ersten Bildes von der ersten Zone ersetzt wird, indem das System mindestens dazu veranlasst wird, das Präsentieren des Teils des ersten Bildes aus der ersten Zone als Verlassen des Anzeigebereichs entlang der Interaktionsrichtung erfolgend zu veranlassen, und das Präsentieren des Teils des dritten Bildes in der ersten Zone als Verlagerung in den Anzeigebereich entlang der Interaktionsrichtung erfolgend zu veranlassen.The system after Claim 12 wherein the processor executes the particular computer-executable instructions to cause the presentation of the portion of the first image to be replaced by the first zone by at least causing the system to abandon the portion of the first image from the first zone of the display area along the direction of interaction, and cause the presentation of the part of the third image in the first zone as a shift into the display area along the direction of interaction. Das System nach einem der Ansprüche 10, 11, 12 oder 13, wobei der Prozessor die bestimmten computerausführbaren Befehle ausführt, um das System ferner mindestens zu Folgendem zu veranlassen: Speichern von Informationen, die den in der zweiten Zone präsentierten Teil des zweiten Bildes identifizieren, und Informationen, die den in der ersten Zone präsentierten Teil eines Bildes in einem Sitzungsdatensatz identifizieren; Erzeugen eines Datensatzbezeichners für den Sitzungsdatensatz; Empfangen des Datensatzbezeichners; Abrufen des Sitzungsdatensatzes unter Verwendung des Datensatzbezeichners; und Veranlassen einer Einstellung an mindestens einer der ersten Anzeigezone und der zweiten Anzeigezone, um über den Anzeigebereich den Teil des ersten Bildes innerhalb der ersten Anzeigezone und den Teil des zweiten Bildes innerhalb der zweiten Anzeigezone zu zeigen.The system according to one of Claims 10 . 11 . 12 or 13 wherein the processor executes the particular computer-executable instructions to further cause the system to at least: store information identifying the portion of the second image presented in the second zone, and information identifying the portion of an image presented in the first zone identify in a session record; Generating a record identifier for the session record; Receiving the record identifier; Retrieving the session record using the record identifier; and causing adjustment to at least one of the first display zone and the second display zone to display, over the display area, the portion of the first image within the first display zone and the portion of the second image within the second display zone. Das System nach einem der Ansprüche 10, 11, 12, 13 oder 14, wobei der Prozessor die bestimmten computerausführbaren Befehle ausführt, um das System ferner mindestens zu Folgendem zu veranlassen: Empfangen von horizontalen Partitionsinformationen über den Anzeigebereich, wobei die horizontalen Partitionsinformationen die erste Zone oberhalb einer horizontalen Partition und die zweite Zone unterhalb der horizontalen Partition identifizieren, wobei der Teil des ersten Bildes und der Teil des zweiten Bildes unter Verwendung einer Größe des Anzeigebereichs und der horizontalen Partitionsinformationen identifiziert werden.The system according to one of Claims 10 . 11 . 12 . 13 or 14 wherein the processor executes the particular computer-executable instructions to further cause the system to receive at least: receiving horizontal partition information about the display area, wherein the horizontal partition information identifies the first zone above a horizontal partition and the second zone below the horizontal partition the part of the first image and the part of the second image are identified using a size of the display area and the horizontal partition information.
DE112017001229.5T 2016-03-08 2017-03-06 BROWSING INTERFACE FOR ARTICLE MATCHES WITH DIFFERENT MEASURES AND LENGTHS Pending DE112017001229T5 (en)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US15/064,490 US10026176B2 (en) 2016-03-08 2016-03-08 Browsing interface for item counterparts having different scales and lengths
US15/064,490 2016-03-08
US15/064,484 2016-03-08
US15/064,484 US10019779B2 (en) 2016-03-08 2016-03-08 Browsing interface for item counterparts having different scales and lengths
PCT/US2017/020979 WO2017155893A1 (en) 2016-03-08 2017-03-06 Browsing interface for item counterparts having different scales and lengths

Publications (1)

Publication Number Publication Date
DE112017001229T5 true DE112017001229T5 (en) 2018-11-15

Family

ID=58358952

Family Applications (1)

Application Number Title Priority Date Filing Date
DE112017001229.5T Pending DE112017001229T5 (en) 2016-03-08 2017-03-06 BROWSING INTERFACE FOR ARTICLE MATCHES WITH DIFFERENT MEASURES AND LENGTHS

Country Status (3)

Country Link
DE (1) DE112017001229T5 (en)
GB (1) GB2564328A (en)
WO (1) WO2017155893A1 (en)

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5937081A (en) * 1996-04-10 1999-08-10 O'brill; Michael R. Image composition system and method of using same
US6317722B1 (en) 1998-09-18 2001-11-13 Amazon.Com, Inc. Use of electronic shopping carts to generate personal recommendations
US7472077B2 (en) 2001-10-31 2008-12-30 Amazon.Com, Inc. User interfaces and methods for facilitating user-to-user sales
US7668821B1 (en) 2005-11-17 2010-02-23 Amazon Technologies, Inc. Recommendations based on item tagging activities of users
CA2681697A1 (en) * 2008-10-09 2010-04-09 Retail Royalty Company Methods and systems for online shopping
EP2625660A4 (en) * 2010-10-05 2014-06-11 Centric Software Inc Interactive collection book for mobile devices
US20130259374A1 (en) * 2012-03-29 2013-10-03 Lulu He Image segmentation
US9535720B2 (en) * 2012-11-13 2017-01-03 International Business Machines Corporation System for capturing and replaying screen gestures
US20140358737A1 (en) * 2013-06-03 2014-12-04 Alexander James Burke Clothing Style Selection and Matching E-Commerce & Game Interface

Also Published As

Publication number Publication date
GB201815758D0 (en) 2018-11-14
WO2017155893A1 (en) 2017-09-14
GB2564328A (en) 2019-01-09

Similar Documents

Publication Publication Date Title
US11790589B1 (en) System and method for creating avatars or animated sequences using human body features extracted from a still image
DE102017010210A1 (en) Image Matting by means of deep learning
DE102013203667B4 (en) Cabin for trying out one or more items of clothing
DE102017007998A1 (en) PRODUCT RECOMMENDATIONS BASED ON VIEWS OF AN EXTENDED REALITY
DE102018006247A1 (en) Digital image completion using deep learning
DE202017105871U1 (en) Actionable suggestions for activities
DE102020002153A1 (en) Use of an object attribute detecting models for the automatic selection of versions of detected objects in images
EP4184414A1 (en) Product recommendation device and method based on image database analysis
DE112017006406T5 (en) INTELLIGENT AUTOMATIC CUTTING OF PICTURES
DE112019000687T5 (en) PHOTOREALISTIC THREE-DIMENSIONAL TEXTURING USING CANONICAL VIEWS AND A TWO-STAGE APPROACH
DE102015213832A1 (en) Method and device for generating an artificial image
EP2691934A1 (en) Phantom image data bank (3d)
DE102016008612A1 (en) Visitor identification based on feature selection
DE112016000962T5 (en) SYSTEM AND METHOD FOR STRUCTURING EVALUATIONS WITH AUTOMATICALLY GENERATED TAGS
Peng et al. Contour-enhanced CycleGAN framework for style transfer from scenery photos to Chinese landscape paintings
DE102019107064A1 (en) Display method, electronic device and storage medium therewith
DE112017008230T5 (en) METHOD AND APPARATUS FOR MAPPING A VIRTUAL ENVIRONMENT TO A PHYSICAL ENVIRONMENT
CN110110117A (en) A kind of product search method, device and system
DE112017001229T5 (en) BROWSING INTERFACE FOR ARTICLE MATCHES WITH DIFFERENT MEASURES AND LENGTHS
DE102022209789A1 (en) FEEDBACK USING COVER FOR OBJECT SENSING
DE102014214851A1 (en) Computer-implemented method and computer system for carrying out a similarity analysis
CN106485206A (en) The teaching method being combined based on the video pictures made up and device
DE102023114440A1 (en) GENERATION OF 3D ROOM PLANS WITH 2D SHAPES AND 3D PRIMITIVES
DE102022113781A1 (en) Method, system and computer program product for the virtual use of clothing and clothing accessories
DE112021005236T5 (en) LOCAL-GUIDED SCANNING OF VISUAL CODES

Legal Events

Date Code Title Description
R012 Request for examination validly filed