DE102019125937A1 - Informationsverarbeitungsverfahren und elektronische Vorrichtung - Google Patents

Informationsverarbeitungsverfahren und elektronische Vorrichtung Download PDF

Info

Publication number
DE102019125937A1
DE102019125937A1 DE102019125937.1A DE102019125937A DE102019125937A1 DE 102019125937 A1 DE102019125937 A1 DE 102019125937A1 DE 102019125937 A DE102019125937 A DE 102019125937A DE 102019125937 A1 DE102019125937 A1 DE 102019125937A1
Authority
DE
Germany
Prior art keywords
objects
image
response
input area
input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102019125937.1A
Other languages
English (en)
Inventor
Peng-Yueh Hsueh
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Lenovo Beijing Ltd
Original Assignee
Lenovo Beijing Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from CN201811163067.1A external-priority patent/CN109388506B/zh
Priority claimed from CN201811158298.3A external-priority patent/CN109254712B/zh
Application filed by Lenovo Beijing Ltd filed Critical Lenovo Beijing Ltd
Publication of DE102019125937A1 publication Critical patent/DE102019125937A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/214Input arrangements for video game devices characterised by their sensors, purposes or types for locating contacts on a surface, e.g. floor mats or touch pads
    • A63F13/2145Input arrangements for video game devices characterised by their sensors, purposes or types for locating contacts on a surface, e.g. floor mats or touch pads the surface being also a display device, e.g. touch screens
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/42Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/53Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game
    • A63F13/533Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game for prompting the player, e.g. by displaying a game menu
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/53Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game
    • A63F13/537Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game using indicators, e.g. showing the condition of a game character on screen
    • A63F13/5375Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game using indicators, e.g. showing the condition of a game character on screen for graphically or textually suggesting an action, e.g. by displaying an arrow indicating a turn in a driving game
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/55Controlling game characters or game objects based on the game progress
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/60Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor
    • A63F13/63Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor by the player, e.g. authoring using a level editor
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/85Providing additional services to players
    • A63F13/87Communicating with other players during game play, e.g. by e-mail or chat
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/22Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition
    • G06V10/235Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition based on user input or interaction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/62Text, e.g. of license plates, overlay texts or captions on TV images
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/6045Methods for processing data by generating or executing the game program for mapping control signals received from the input arrangement into game commands
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Optics & Photonics (AREA)
  • Artificial Intelligence (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

Es werden ein Informationsverarbeitungsverfahren und eine elektronische Vorrichtung bereitgestellt. Das Verfahren umfasst: Erfassen einer Anweisung zum Verarbeiten eines Bildes, das eine Mehrzahl von Objekten umfasst; als Reaktion auf die Anweisung zum Verarbeiten des Bildes, Erhalten eines oder mehrerer Objekte, wobei ein erstes Objekt unter dem einen oder den mehreren Objekten einen Objekttyp aufweist, der mit einem Typ des Bildes übereinstimmt; und Erzeugen einer interaktiven Schnittstelle, die das eine oder die mehreren Objekte enthält, wobei die interaktive Schnittstelle zum Auswählen eines oder mehrerer Zielobjekte ausgelegt ist.

Description

  • QUERVERWEISE ZU VERWANDTEN ANWENDUNGEN
  • Diese Anmeldung beansprucht die Priorität der chinesischen Patentanmeldung Nr. 201811158298.3 , die am 30. September 2018 beim Staatlichen Amt für geistiges Eigentum der VR China eingereicht wurde, und der chinesischen Patentanmeldung Nr. 201811163067.1 , die am 30. September 2018 beim Staatlichen Amt für geistiges Eigentum der VR China eingereicht wurde, deren gesamter Inhalt durch Bezugnahme vollumfänglich hierin aufgenommen wird.
  • GEBIET DER OFFENBARUNG
  • Die vorliegende Offenbarung betrifft im Allgemeinen das Gebiet der Informationsverarbeitungstechnologie und insbesondere ein Informationsverarbeitungsverfahren und eine elektronische Vorrichtung.
  • STAND DER TECHNIK
  • Beim Betreiben einer elektronischen Vorrichtung (z. B. eines Computers, eines mobilen Kommunikationsendgeräts usw.) kann ein Benutzer ein oder mehrere Bilder verwenden. Unter bestimmten Umständen wird möglicherweise nur ein Teil eines Objekts in einem Bild benötigt. Daher muss der Benutzer das Bild in eine spezielle Bildverarbeitungssoftware eingeben, den erforderlichen Teil des Objekts im Bild manuell über die Bildverarbeitungssoftware ausschneiden und das ausgeschnittene Objekt dann kopieren und an einer gewünschten Stelle einfügen. Ferner kann das Verarbeiten unterschiedlicher Objekte in den Bildern unterschiedliche Bildverarbeitungssoftwareprogramme erfordern.
  • Im Allgemeinen kann beim Einfügen eines Objekts nur das Objekt einer letzten Kopier- oder Ausschneideoperation eingefügt werden. Wenn Objekte an mehreren Positionen eingefügt werden müssen, sind wiederholte Kopier- und Einfügeaktionen erforderlich. Somit sind die Operationen des Benutzers kompliziert und ineffizient.
  • KURZDARSTELLUNG DER OFFENBARUNG
  • Die vorliegende Offenbarung stellt ein Informationsverarbeitungsverfahren und eine elektronische Vorrichtung bereit, um das technische Problem in der vorhandenen Technologie zumindest teilweise zu lösen.
  • Ein Aspekt der vorliegenden Offenbarung stellt ein Informationsverarbeitungsverfahren bereit. Das Verfahren umfasst: Erfassen einer Anweisung zum Verarbeiten eines Bildes, das Objekte enthält; als Reaktion auf die Anweisung zum Verarbeiten des Bildes Erhalten eines oder mehrerer Objekte, wobei ein erstes Objekt des einen oder der mehreren Objekte einen Typ aufweist, der mit einem Typ des Bildes übereinstimmt; und Erzeugen einer interaktiven Schnittstelle, die das eine oder die mehreren Objekte enthält, und wobei die interaktive Schnittstelle zum Auswählen eines Zielobjekts ausgelegt ist.
  • Ein weiterer Aspekt der vorliegenden Offenbarung stellt eine elektronische Vorrichtung bereit. Die elektronische Vorrichtung umfasst: eine Anzeigeeinheit; einen Speicher, der zum Speichern einer Mehrzahl von Anweisungen ausgelegt ist; und einen Prozessor, der ausgelegt ist, um die Mehrzahl von Anweisungen, die in dem Speicher gespeichert sind, abzurufen und auszuführen, um: eine Anweisung zum Verarbeiten eines Bildes zu erfassen, das mindestens ein Objekt umfasst; als Reaktion auf die Anweisung zum Verarbeiten des Bildes Erhalten eines oder mehrerer Objekte. Ein erstes Objekt des einen oder der mehreren Objekte weist einen Typ auf, der mit einem Typ des Bildes übereinstimmt. Der Prozessor ist ferner dazu ausgelegt, eine interaktive Schnittstelle zu erzeugen, die das eine oder die mehreren Objekte enthält, und ist zum Auswählen eines Zielobjekts ausgelegt.
  • Ein weiterer Aspekt der vorliegenden Offenbarung stellt ein Datenverarbeitungsverfahren bereit. Das Verfahren umfasst das Empfangen einer Eingabeoperation von einem Eingabebereich; und das Anzeigen eines oder mehrerer einzufügender Objekte zum Auswählen eines Zielobjekts. Das eine oder die mehreren einzufügenden Objekte umfassen ein kopiertes oder ausgeschnittenes Objekt, das als Reaktion auf eine Kopieraktion oder eine Ausschneidaktion vor der Eingabeoperation erhalten wurde.
  • Ein weiterer Aspekt der vorliegenden Offenbarung stellt eine elektronische Vorrichtung bereit. Die elektronische Vorrichtung umfasst: einen Anzeigebildschirm; und einen Prozessor, der ausgelegt ist, um eine Eingabeoperation von einem Eingabebereich zu empfangen und einzufügende Objekten zum Auswählen eines Zielobjekts anzuzeigen. Die einzufügenden Objekte umfassen ein kopiertes Objekt, das als Reaktion auf eine Kopieraktion oder eine Ausschneidaktion vor der Eingabeoperation erhalten wurde.
  • Figurenliste
  • Um die technische Lösung in der vorliegenden Offenbarung klarer darzustellen, werden die beigefügten Zeichnungen, die in der Beschreibung der offenbarten Ausführungsformen verwendet werden, im Folgenden kurz beschrieben. Die nachfolgend beschriebenen Zeichnungen stellen lediglich einige Ausführungsformen der vorliegenden Offenbarung dar. Andere Zeichnungen können von einem Durchschnittsfachmann ohne schöpferischen Aufwand aus diesen Zeichnungen abgeleitet werden und können in der vorliegenden Offenbarung enthalten sein.
    • 1 stellt ein Flussdiagramm eines Beispiels eines Informationsverarbeitungsverfahrens nach einigen Ausführungsformen der vorliegenden Offenbarung dar;
    • 2 stellt ein schematisches Diagramm eines Beispiels eines Bildes A nach einigen Ausführungsformen der vorliegenden Offenbarung dar;
    • 3 stellt ein schematisches Diagramm von drei Objekten dar, die aus der Verarbeitung des Bildes A nach einigen Ausführungsformen der vorliegenden Offenbarung resultieren;
    • 4 stellt ein schematisches Diagramm einer interaktiven Schnittstelle dar, die angezeigt wird, nachdem ein Benutzer einen Eingabebereich einer Dialogschnittstelle nach einigen Ausführungsformen der vorliegenden Offenbarung anhaltend gedrückt hat;
    • 5 stellt ein schematisches Diagramm der Dialogschnittstelle nach dem Senden des Bildes a nach einigen Ausführungsformen der vorliegenden Offenbarung dar;
    • 6 stellt ein schematisches Diagramm eines Beispiels einer elektronischen Vorrichtung nach einigen Ausführungsformen der vorliegenden Offenbarung dar;
    • 7 stellt ein Flussdiagramm eines Beispiels eines Informationsverarbeitungsverfahrens nach einigen Ausführungsformen der vorliegenden Offenbarung dar;
    • 8 bis 25 stellen schematische Diagramme der Operationen eines Benutzers in verschiedenen Schritten eines Informationsverarbeitungsverfahrens nach einigen Ausführungsformen der vorliegenden Offenbarung dar;
    • 26 stellt ein schematisches Diagramm eines Beispiels eines Datenverarbeitungsgeräts nach einigen Ausführungsformen der vorliegenden Offenbarung dar;
    • 27 stellt ein schematisches Diagramm eines Beispiels einer elektronischen Vorrichtung nach einigen Ausführungsformen der vorliegenden Offenbarung dar; und
    • 28 stellt ein schematisches Diagramm eines anderen Beispiels einer elektronischen Vorrichtung nach einigen Ausführungsformen der vorliegenden Offenbarung dar.
  • In der Beschreibung, den Ansprüchen und den Zeichnungen werden die Ausdrücke „erster“, „zweiter“, „dritter“, „vierter“ usw. (falls vorhanden) verwendet, um ähnliche Teile zu unterscheiden, und werden nicht notwendigerweise verwendet, um eine bestimmte Reihenfolge oder Ordnung zu beschreiben. Es versteht sich, dass die hier beschriebenen Ausführungsformen der vorliegenden Offenbarung in einer anderen als der hier dargestellten Reihenfolge implementiert werden können.
  • DETAILLIERTE BESCHREIBUNG
  • Um die vorstehenden Ziele, Merkmale und Vorzüge der vorliegenden Offenbarung klarer und verständlicher zu machen, wird die vorliegende Offenbarung unter Bezugnahme auf die beigefügten Zeichnungen und Ausführungsformen weiter beschrieben. Beispielhafte Ausführungsformen können jedoch in verschiedenen Formen ausgeführt sein und sollten nicht als auf die hierin dargelegten Ausführungsformen beschränkt angesehen werden. Vielmehr werden diese Ausführungsformen bereitgestellt, um dem Fachmann die grundlegenden und vollständigen Konzepte der beispielhaften Ausführungsformen umfassend zu vermitteln.
  • Die vorliegende Offenbarung stellt ein Informationsverarbeitungsverfahren bereit, das auf eine elektronische Vorrichtung anwendbar ist. Bei der elektronischen Vorrichtung kann es sich um einen Computer handeln, wie beispielsweise einen Desktop-Computer, einen Notebook-Computer, einen Tablet-Computer usw., oder um ein mobiles Kommunikationsendgerät, wie beispielsweise ein Smartphone, usw.
  • 1 stellt ein Flussdiagramm eines Beispiels eines Informationsverarbeitungsverfahrens nach einigen Ausführungsformen der vorliegenden Offenbarung dar. Wie in 1 dargestellt, kann das Verfahren den folgenden Prozess umfassen.
  • Schritt S11: Erfassen einer Anweisung zum Verarbeiten eines Bildes, wobei das Bild ein oder mehrere Objekte umfasst.
  • Das eine oder die mehreren Objekte können vom gleichen Typ oder von mindestens zwei Typen sein. Beispielsweise können das eine oder die mehreren Objekte vollständig Bilder oder Grafiken sein. Alternativ können das eine oder die mehreren Objekte Bilder, Texte und Grafiken umfassen.
  • Schritt S12: als Reaktion auf die Anweisung zum Verarbeiten des Bildes, Erhalten eines oder mehrerer Objekte, wobei ein erstes Objekt des einen oder der mehreren Objekte einen Typ aufweist, der mit dem Bild übereinstimmt.
  • In einer Ausführungsform wird beim Verarbeiten des Bildes das eine oder die mehreren Objekte aus dem Bild extrahiert, um das eine oder die mehreren Objekte unabhängig von dem Bild zu erhalten. Das eine oder die mehreren Objekte umfassen ein oder mehrere Objekte, deren Typ mit dem Typ des Bildes übereinstimmt. Mit anderen Worten kann das erste Objekt ein Teilbild des Bildes sein.
  • Schritt S13: Erzeugen einer interaktiven Schnittstelle, die das eine oder die mehreren Objekte enthält, wobei die interaktive Schnittstelle dazu ausgelegt ist, dass ein Benutzer ein oder mehrere Zielobjekte auswählt.
  • Die interaktive Schnittstelle kann direkt nach dem Erhalten des einen oder der mehreren Objekte erzeugt werden. Nachdem der Benutzer ein oder mehrere Zielobjekte aus dem einen oder mehreren Objekten ausgewählt hat, kann der Benutzer wählen, ob er das oder die ausgewählten Zielobjekte weiterverarbeiten möchte, z. B. Kopieren, Ausschneiden usw. Anschließend kann der Benutzer kopierte oder ausgeschnittene Objekte an einem gewünschten Ort einfügen, wie z. B. eine bearbeitbare Datei (z. B. eine Word-Datei, eine PPT-Datei, usw.), oder einen Eingabebereich, wie z. B. einen Eingabebereich einer Dialogschnittstelle einer Instant Messaging-Anwendung (z. B. WeChat, 263, Kurznachricht, usw.).
  • Die interaktive Schnittstelle kann auch erzeugt werden, nachdem der Benutzer eine voreingestellte Operation ausgeführt hat.
  • Die interaktive Schnittstelle kann nur das eine oder die mehreren Objekte oder aber andere wählbare Objekte enthalten, wie beispielsweise ein oder mehrere Objekte, die durch die Verarbeitung anderer Bilder erhalten wurden. Mit anderen Worten kann die interaktive Schnittstelle ein oder mehrere Objekte enthalten, die durch die Verarbeitung von mindestens zwei Bildern erhalten wurden. Das eine oder die mehreren Objekte, die durch die Verarbeitung eines aktuellen Bildes erhalten wurden, können vor dem einen oder den mehreren Objekten, die durch die Verarbeitung der anderen Bilder erhalten wurden, platziert werden.
  • Die vorliegende Offenbarung stellt das Informationsverarbeitungsverfahren bereit. Als Reaktion auf die Anweisung zum Verarbeiten des Bildes zum Erzeugen von Objekten wird das Bild verarbeitet, um das eine oder die mehreren Objekte zu erhalten. Das heißt, das eine oder die mehreren Objekte werden aus dem Bild extrahiert. Der Benutzer wählt ein oder mehrere Zielobjekte zur weiteren Verarbeitung aus, wodurch das manuelle Extrahieren von Objekten aus dem Bild vermieden und die Operationen des Benutzers vereinfacht werden.
  • In einer Ausführungsform umfassen das eine oder die mehreren Objekte zwei Objekte unterschiedlichen Typs. Beispielsweise können die zwei Objekte unterschiedlichen Typs einen Text und ein reines Bild umfassen (d. h. ein Bild, das keinen Text enthält). Das Objekt des reinen Bildes kann ein Bild oder eine Grafik sein. Mit anderen Worten werden die Objekte unterschiedlichen Typs durch die Verarbeitung des Bildes erhalten.
  • In einer Ausführungsform kann die interaktive Schnittstelle auch das Bild enthalten. Das heißt, der Benutzer kann das Originalbild als Zielobjekt auswählen oder das aus dem Originalbild extrahierte Objekt als Zielobjekt auswählen.
  • In einer Ausführungsform kann der Prozess des Erhaltens des einen oder der mehreren Objekte durch Verarbeiten des Bildes einen der folgenden Ansätze umfassen.
  • In einer Ausführungsform wird das Bild einer Konturerkennung unterzogen, um mindestens eine Kontur zu erhalten. Jede Kontur entspricht einem ersten Objekt. Aus der mindestens einen Kontur wird mindestens ein erstes Objekt erhalten. Nachdem die Kontur erkannt wurde, wird das Bild geteilt, sodass jeder geteilte Bereich nur eine Kontur enthält. Das heißt, jeder Bereich enthält nur ein Objekt. Ferner kann, bevor das Bild geteilt wird, um das Objekt genauer zu erhalten, das Objekt in der erkannten Kontur mit bekannten Objekten in einer Datenbank verglichen werden, um das Objekt zu bestimmen, das dem Objekt in der Kontur am ähnlichsten ist. Anschließend wird die Kontur basierend auf dem am meisten ähnlichen Objekt korrigiert, um das Objekt in der Kontur zu perfektionieren. Angenommen beispielsweise, das Objekt in einer erkannten ersten Kontur ähnelt am ehesten einem bekannten menschlichen Körper. Durch den Vergleich wird festgestellt, dass dem Objekt in der ersten Kontur Haare fehlen. Ein Haarerkennungsprozess kann entlang einer Kante der ersten Kontur im Bild durchgeführt werden. Dann werden die Kontur des erkannten Haares und die erste Kontur kombiniert, um eine vollständige Kontur des menschlichen Körpers zu erhalten.
  • In einer weiteren Ausführungsform wird das Bild in einen Vorder- und einen Hintergrund geteilt, um ein Vordergrundbild und ein Hintergrundbild zu erhalten. Das heißt, sowohl das Vordergrundbild als auch das Hintergrundbild enthalten das erste Objekt.
  • In einigen Ausführungsformen können beide Verfahren gleichzeitig implementiert werden. Der Benutzer kann eines der beiden Verfahren zur Verarbeitung des Bildes wählen, um das eine oder die mehreren Objekte entsprechend den tatsächlichen Anforderungen zu erhalten.
  • In einer Ausführungsform kann das Bild, wenn das Bild auch den Text enthält, zusätzlich zur Verarbeitung des Bildes zum Erhalten des ersten Objekts einem Texterkennungsprozess unterzogen werden, um mindestens einen Textabschnitt zu erhalten. Unterschiedliche Textabschnitte können unterschiedliche Textobjekte enthalten. Mit anderen Worten können das eine oder die mehreren durch die Verarbeitung des Bildes erhaltenen Objekte neben dem ersten Objekt auch ein zweites Objekt enthalten. Das zweite Objekt ist der Text, dessen Typ sich vom Typ des Bildes unterscheidet.
  • Beispielsweise kann das Bild einem optischen Zeichenerkennungsprozess (OCR-Prozess) unterzogen werden, um das Textobjekt zu erhalten.
  • Alle Texte im Bild können als Ganzes erkannt werden. Das heißt, die erkannten Texte werden als ein Textabschnitt behandelt. Alternativ können die erkannten Texte entsprechend den Positionen, Größen, Farben oder Formen im Bild in eine Mehrzahl von Textabschnitten geteilt werden. Das heißt, unterschiedliche Textabschnitte enthalten Textobjekte, die sich in unterschiedlichen Bereichen des Bildes befinden; oder unterschiedliche Textabschnitte enthalten Textobjekte mit unterschiedlichen Formen im Bild; oder unterschiedliche Textabschnitte enthalten Textobjekte mit unterschiedlichen Größen im Bild; oder unterschiedliche Textabschnitte enthalten Textobjekte mit unterschiedlichen Farben im Bild.
  • In einer Ausführungsform können, nachdem das eine oder die mehreren Objekte erhalten wurden, das eine oder die mehreren Objekte auch in Verbindung mit dem Bild gespeichert werden. Vor dem Verarbeiten des Bildes zum Erhalten des einen oder der mehreren Objekte des Bildes kann das Verfahren auch Folgendes umfassen: Bestimmen, ob das Bild einem oder mehreren Objekten zugeordnet ist; wenn das Ergebnis der Bestimmung negativ ist, Erhalten eines oder mehrerer Objekte des Bildes; wenn das Ergebnis der Bestimmung positiv ist, Erhalten des einen oder der mehreren Objekte, die dem Bild zugeordnet sind.
  • In einer Ausführungsform können, wenn das Bild zum Erhalten des einen oder der mehreren Objekte verarbeitet wurde, das eine oder die mehreren Objekte als Reaktion auf das Empfangen derselben Anweisung zum erneuten Verarbeiten des Bildes direkt abgerufen werden, ohne das Bild erneut zu verarbeiten. Somit können das eine oder die mehreren Objekte schnell erhalten werden.
  • In einer Ausführungsform kann das Erzeugen der interaktiven Schnittstelle Folgendes umfassen: Erhalten einer Eingabeoperation für den Eingabebereich. Der Eingabebereich kann eines der Felder sein, in die der Benutzer Informationen eingeben kann. Beispielsweise kann der Eingabebereich eine bearbeitbare Dokumentenschnittstelle oder ein Eingaberahmen sein. Die Eingabeoperation kann ein einfacher Klick oder ein anhaltendes Drücken sein.
  • Die erzeugte interaktive Schnittstelle umfasst auch: eine Operationssteuerung. Die Operationssteuerung wird verwendet, um die Ausführung der Einfügeanweisung auszulösen.
  • Nachdem der Benutzer das Zielobjekt ausgewählt hat, kann der Benutzer eine Operation an der Operationssteuerung ausführen, um die Einfügeanweisung zu erzeugen und das vom Benutzer ausgewählte Zielobjekt in den Eingabebereich einzugeben.
  • Zusätzlich wird, wenn der Benutzer das Zielobjekt nicht auswählt, die Einfügeanweisung automatisch generiert, wenn eine Anzeigezeit der interaktiven Schnittstelle einen bestimmten Schwellenwert überschritten hat, und alle Objekte in der interaktiven Schnittstelle werden als Zielobjekte in den Eingabebereich eingefügt.
  • Mit anderen Worten, nachdem die interaktive Schnittstelle erzeugt wurde, kann das Informationsverarbeitungsverfahren auch Folgendes umfassen: als Reaktion auf die Einfügeanweisung, Eingeben eines oder mehrerer Objekte der interaktiven Schnittstelle in den Eingabebereich, d. h. als Reaktion auf die Einfügeanweisung, Eingeben aller auswählbaren Objekte der interaktiven Schnittstelle in den Eingabebereich, oder als Reaktion auf die Einfügeanweisung, Eingeben des vom Benutzer aus einem oder mehreren Objekten ausgewählten Zielobjekts in den Eingabebereich.
  • 2 stellt ein schematisches Diagramm eines Beispiels eines Bildes A nach einigen Ausführungsformen der vorliegenden Offenbarung dar. Zur Vereinfachung der Beschreibung wird das Bild als das Bild A bezeichnet. Wie in 2 dargestellt, beinhaltet das Bild A eine Spielfigur Mario und den Text „Super Mario Run“. Der Benutzer kann das Erzeugen der Anweisung zum Verarbeiten des Bildes A auslösen, indem er eine für das Bild A vorgesehene Steuerung verwendet (z. B. die Steuerung, die mit einem in 2 dargestellten Finger gezeigt wird). Nachdem der Benutzer das Erzeugen der Anweisung zum Verarbeiten des Bildes A ausgelöst hat, wird das Bild A in drei Teile geteilt, die ein Bild a und zwei Texte umfassen. 3 stellt ein schematisches Diagramm von drei Objekten dar, die aus der Verarbeitung des Bildes A nach einigen Ausführungsformen der vorliegenden Offenbarung resultieren. Das Bild a enthält nur Mario (d. h. das Mario-Bild), aber keine Texte. Die beiden Texte lauten „Super Mario“ und „Run“. In praktischen Anwendungen kann die in 3 dargestellte Schnittstelle angezeigt oder nicht angezeigt werden. Oder die Schnittstelle kann als Reaktion auf das Auslösen einer Anzeigeanweisung durch den Benutzer angezeigt werden.
  • Nachdem das Bild A in das Bild a und die beiden Texte geteilt wurde, kann der Benutzer den Eingabebereich in der Dialogschnittstelle anhaltend drücken, um die interaktive Schnittstelle anzuzeigen. 4 stellt ein schematisches Diagramm einer interaktiven Schnittstelle dar, die angezeigt wird, nachdem ein Benutzer einen Eingabebereich einer Dialogschnittstelle nach einigen Ausführungsformen der vorliegenden Offenbarung anhaltend gedrückt hat. Die interaktive Schnittstelle umfasst das geteilte Bild a (in 4 als „Image“ bezeichnet) und die beiden Texte (d. h. „Super Mario“ und „Run“) und umfasst ferner das Bild A (in 4 als „Screenshot“ bezeichnet) und ein Steuerelement „Paste“.
  • Angenommen, der Benutzer wählt das zweite Element „Image“ aus und klickt auf das Steuerelement „Paste“. Das Bild a erscheint im Eingabebereich. Nachdem der Benutzer eine Sendeanweisung ausgelöst hat, wird das Bild a in der Dialogschnittstelle angezeigt. 5 stellt ein schematisches Diagramm der Dialogschnittstelle nach dem Senden des Bildes a nach einigen Ausführungsformen der vorliegenden Offenbarung dar.
  • Die vorliegende Offenbarung stellt auch eine elektronische Vorrichtung bereit. 6 stellt ein schematisches Diagramm eines Beispiels einer elektronischen Vorrichtung nach einigen Ausführungsformen der vorliegenden Offenbarung dar. Wie in 6 dargestellt, umfasst die elektronische Vorrichtung Folgendes: eine Anzeigeeinheit 61, die zum Anzeigen von Informationen ausgelegt ist, einen Speicher 62, der zum Speichern mindestens einer Mehrzahl von Anweisungen ausgelegt ist, und einen Prozessor 63, der zum Ausführen der Mehrzahl von im Speicher 62 gespeicherten Anweisungen ausgelegt ist. Durch Ausführen der Mehrzahl von Anweisungen führt der Prozessor 63 den folgenden Prozess durch. Eine Anweisung zum Verarbeiten eines Bildes wird von dem Prozessor 63 erhalten. Das Bild enthält ein oder mehrere Objekte. Als Reaktion auf die Anweisung zum Verarbeiten des Bildes verarbeitet der Prozessor 63 das Bild, um ein oder mehrere Objekte des Bildes zu erhalten. Ein Typ eines ersten Objekts in dem einen oder den mehreren Objekten stimmt mit dem Typ des Bildes überein. Der Prozessor 63 erzeugt eine interaktive Schnittstelle. Die interaktive Schnittstelle umfasst das eine oder die mehreren Objekte. Ein Benutzer kann ein Zielobjekt über die interaktive Schnittstelle auswählen.
  • In einer Ausführungsform verarbeitet die elektronische Vorrichtung als Reaktion auf das Erzeugen der Anweisung zum Verarbeiten des Bildes durch den Benutzer das Bild, um das eine oder die mehreren Objekte des Bildes zu erhalten. Das heißt, das eine oder die mehreren Objekte werden aus dem Bild extrahiert. Der Benutzer wählt das Zielobjekt aus dem einen oder den mehreren Objekten für eine nachfolgende Operation aus. Somit wird ein manuelles Extrahieren des einen oder der mehreren Objekte aus dem Bild durch den Benutzer vermieden und die Benutzeroperation vereinfacht.
  • In einer Ausführungsform umfassen das eine oder die mehreren Objekte zwei Objekte unterschiedlichen Typs.
  • In einer Ausführungsform kann die interaktive Schnittstelle ferner das Bild enthalten.
  • In einer Ausführungsform kann das Verarbeiten des Bildes durch den Prozessor 63 zum Erhalten des einen oder der mehreren Objekte des Bildes Folgendes umfassen: Durchführen einer Konturerkennung zum Erhalten mindestens einer Kontur; und basierend auf der mindestens einen Kontur Erhalten von mindestens einem ersten Objekt.
  • In einer Ausführungsform kann das Verarbeiten des Bildes durch den Prozessor 63 zum Erhalten des einen oder der mehreren Objekte des Bildes Folgendes umfassen: Teilen des Bildes in einen Vorder- und einen Hintergrund, um ein Vordergrundbild und ein Hintergrundbild zu erhalten.
  • In einer Ausführungsform kann das Verarbeiten des Bildes durch den Prozessor 63 zum Erhalten des einen oder der mehreren Objekte des Bildes ferner Folgendes umfassen: Durchführen eines Texterkennungsprozesses zum Erhalten mindestens eines Textabschnitts, wobei unterschiedliche Textabschnitte unterschiedliche Textobjekte beinhalten.
  • In einer Ausführungsform ist der Prozessor 63 ferner dazu ausgelegt, das eine oder die mehreren Objekte des Bildes in Verbindung mit dem Bild zu speichern.
  • In einer Ausführungsform kann das Erzeugen der interaktiven Schnittstelle durch den Prozessor 63 ferner umfassen: Erhalten einer Eingabeoperation für einen Eingabebereich, um die interaktive Schnittstelle zu erzeugen. Die interaktive Schnittstelle enthält außerdem eine Operationssteuerung, die zum Auslösen einer Ausführung einer Einfügeanweisung ausgelegt ist.
  • In einer Ausführungsform ist der Prozessor 63 ferner ausgelegt, um: als Reaktion auf die Einfügeanweisung das eine oder die mehreren Objekte in den Eingabebereich einzugeben; oder als Reaktion auf die Einfügeanweisung das Zielobjekt, das vom Benutzer aus dem einen oder den mehreren Objekten ausgewählt wurde, in den Eingabebereich einzugeben.
  • Durch das Verfahren und die elektronische Vorrichtung, die durch die Ausführungsformen der vorliegenden Offenbarung bereitgestellt werden, kann das Bild in ein oder mehrere Objekte oder Explosionsansichten geteilt werden, das heißt eine Bildextraktionsoperation wird vom Benutzer als Reaktion auf die Anweisung zur Verarbeitung des der Bildextraktionsoperation entsprechenden Bildes durchgeführt, um die Objekte in dem Bild zu extrahieren. Beispielsweise zeigt das Bild Mario mit einem Pilz auf dem Kopf. Nachdem das Bild verarbeitet wurde, werden Mario, der Pilz, ein Feld und ein Hintergrund aus dem Bild extrahiert. Die extrahierten Objekte werden dem Benutzer zur Auswahl angezeigt.
  • In einer Ausführungsform kann die elektronische Vorrichtung, wenn die elektronische Vorrichtung auf die Bildextraktionsoperation reagiert hat, das eine oder die mehreren aus dem Bild extrahierten Objekte anzeigen, die der Benutzer als Reaktion auf die Einfügeoperation auswählen kann. Das angezeigte Objekt kann als Reaktion auf die Einfügeanweisung das eine oder die mehreren aus dem Bild extrahierten Objekte und die Steuerung der Einfügeoperation umfassen, sodass der Benutzer die Einfügeanweisung schnell erzeugen kann, nachdem der Benutzer das gewünschte Objekt ausgewählt hat. Das angezeigte Objekt kann ferner jedes Objekt umfassen, das zuvor kopiert oder ausgeschnitten wurde. Wenn die elektronische Vorrichtung noch nie auf eine Bildextraktionsoperation reagiert hat, kann das angezeigte Objekt nur das zuvor kopierte oder ausgeschnittene Objekt und die Steuerung der Einfügeoperation umfassen.
  • 7 stellt ein Flussdiagramm eines Beispiels eines Informationsverarbeitungsverfahrens nach einigen Ausführungsformen der vorliegenden Offenbarung dar. Das Verfahren kann auf eine Vorrichtung angewendet werden, die Datenverarbeitung und Interaktion mit einem Benutzer durchführen kann, wie beispielsweise ein Mobiltelefon, ein Pad oder ein Computer, etc.
  • Wie in 7 dargestellt, kann das Verfahren die folgenden Schritte umfassen.
  • Schritt 101: Erfassen einer Eingabeoperation für einen Eingabebereich.
  • Wie in 8 dargestellt umfasst in einer Ausführungsform eine Vorrichtung, die das Verfahren ausführt, den Eingabebereich, in dem der Benutzer verschiedene Eingabeoperationen durchführen kann. Die Eingabeoperation kann eine Operation sein, die der Benutzer ausführt, um eine Funktion zu erreichen, wie eine anhaltende Druckoperation, eine Doppelklickoperation oder eine Rechtsklickoperation mit der Maus usw. So kann beispielsweise die Eingabeoperation eine Operation zum Einfügen eines Objekts durch den Benutzer sein.
  • Beispielsweise kann der Eingabebereich eine Systemoperationsschnittstelle oder eine Anwendungsinteraktionsschnittstelle für die Eingabeoperationen sein, beispielsweise ein Systemsuchfeld, ein Systemeinstellungsbereich, ein Notizenbereich oder ein Eingabebereich in einer Chat-Anwendung. Der Benutzer kann die Operation im Eingabebereich ausführen, um das Objekt einzufügen.
  • Schritt 102: Anzeigen eines oder mehrerer einzufügender Objekte.
  • In einer Ausführungsform können ein oder mehrere Objekte, die in den Eingabebereich eingefügt werden sollen, in einem voreingestellten Bereich angezeigt werden. So werden beispielsweise das eine oder die mehreren Objekte, die in den Eingabebereich eingefügt werden sollen, in einem Bereich direkt unter oder auf der rechten Seite des Mauszeigers im Eingabebereich angezeigt, wie in 9 dargestellt. In einer anderen Ausführungsform werden das eine oder die mehreren Objekte, die in den Eingabebereich eingefügt werden sollen, in einem Bereich direkt über dem Eingabebereich angezeigt, wie in 10 dargestellt. In einer anderen Ausführungsform werden das eine oder die mehreren Objekte, die in den Eingabebereich eingefügt werden sollen, in einem Tastaturbereich angezeigt, der dem Eingabebereich entspricht, wie in 11 dargestellt.
  • In den Ausführungsformen der vorliegenden Offenbarung wird nur ein einzufügendes Objekt angezeigt. Es kann mehr als ein einzufügendes Objekt angezeigt werden. Als Reaktion auf ein einzufügendes Objekt kann das gesamte einzufügende Objekt oder ein Teil des einzufügenden Objekts angezeigt werden. Wenn das einzufügende Objekt eine Mehrzahl von Zeichen enthält, kann das gesamte einzufügende Objekt oder es können die ersten N Zeichen des einzufügenden Objekts angezeigt werden, wie in 12 dargestellt. Als Reaktion auf mehrere einzufügende Objekte können alle einzufügenden Objekte oder ein Teil jedes einzufügenden Objekts angezeigt werden. Ferner können die mehreren einzufügenden Objekte durch Objektkennungen wie Ziffernkennungen, Textkennungen oder Alphabetkennungen gekennzeichnet werden. Die Objektkennungen geben Attribute an, die den einzufügenden Objekten zugeordnet sind, z. B. Objekt, Typ oder Datum. Die Objektkennungen können zusammen mit einem Teil der entsprechenden einzufügenden Objekte angezeigt werden, wie in 13 dargestellt. Alternativ können die Objektkennungen als Zusammenfassungen der einzufügenden Objekte angezeigt werden, wie in 14 dargestellt.
  • Darüber hinaus können das angezeigte eine oder die angezeigten mehreren einzufügenden Objekte ein kopiertes Objekt sein, das als Reaktion auf eine Kopieroperation vor der Eingabeoperation erhalten wurde, und/oder ein ausgeschnittenes Objekt, das als Reaktion auf eine Ausschneidoperation vor der Eingabeoperation erhalten wurde.
  • Beispielsweise können das eine oder die mehreren einzufügenden Objekte ein oder mehrere kopierte Objekte, die vor der Eingabeoperation kopiert wurden, ein oder mehrere ausgeschnittene Objekte, die vor der Eingabeoperation ausgeschnitten wurden, oder ein oder mehrere ausgeschnittene Objekte, die vor der Eingabeoperation ausgeschnitten wurden zusätzlich zu einem oder mehreren kopierten Objekten, die vor der Eingabeoperation kopiert wurden, umfassen.
  • Entsprechend kann der Benutzer nach dem Anzeigen des einen oder der mehreren einzufügenden Objekte ein Zielobjekt aus dem einen oder den mehreren einzufügenden Objekten auswählen oder nichts auswählen.
  • In den Ausführungsformen der vorliegenden Offenbarung sind als Reaktion auf die Eingabeoperation, nachdem die Eingabeoperation empfangen wurde, das eine oder die mehreren einzufügenden Objekte angezeigt, die als Reaktion auf die Kopieraktion und/oder die Ausschneideaktion vor der Eingabeoperation bestimmt wurden, wodurch die Auswahl des einzufügenden Zielobjekts erleichtert wird. Als Reaktion auf die Eingaboperation können neben der Anzeige des zuletzt kopierten oder ausgeschnittenen Objekts auch die Objekte angezeigt werden, die als Reaktion auf die Kopieraktion und/oder die Ausschneideaktion vor der Eingabeoperation bestimmt wurden, um dem Benutzer die Auswahl zu ermöglichen und wiederholte Kopieraktionen und Einfügeaktionen nach der ersten Einfügeaktion zu vermeiden. Auf diese Weise kann der Prozess des Einfügens mehrerer Objekte in den Eingabebereich rationalisiert, die Komplexität der Bedienung reduziert und die Betriebseffizienz verbessert werden.
  • In einer Ausführungsform kann zusätzlich zum Anzeigen des einen oder der mehreren einzufügenden Objekte eine Operationssteuerung gleichzeitig angezeigt werden. Die Operationssteuerung kann verwendet werden, um eine Einfügeanweisung auszuführen, wie in 15A dargestellt.
  • So werden beispielsweise das einzufügende Objekt und die Operationssteuerung gleichzeitig angezeigt. Somit ermöglicht die Operationssteuerung dem Benutzer, die Einfügeanweisung auszuführen, indem die Operationssteuerung ausgelöst wird, um die Einfügeaktion zu erzielen. Entsprechend kann der Benutzer zum Auslösen der Ausführung der Einfügeanweisung auf die Operationssteuerung klicken, um das Einfügen des Zielobjekts zu erreichen, nachdem der Benutzer das Zielobjekt aus dem einzufügenden Objekt ausgewählt hat oder nichts ausgewählt hat.
  • Dementsprechend ist nach Ausführung der Einfügeanweisung die Einfügeanweisung beantwortet. Das Eingeben des entsprechenden Objekts in den Eingabebereich umfasst das Eingeben des angezeigten einen oder der mehreren einzufügenden Objekte in den Eingabebereich oder das Eingeben des Zielobjekts, das vom Benutzer aus dem angezeigten einen oder den mehreren einzufügenden Objekten ausgewählt wurde, in den Eingabebereich.
  • In einer Ausführungsform kann der Benutzer, nachdem das eine oder die mehreren einzufügenden Objekte angezeigt wurden, nichts aus den angezeigten ein oder mehreren einzufügenden Objekten auswählen und direkt auf die Operationssteuerung klicken, um die Einfügeanweisung auszuführen, um alle angezeigten einzufügenden Objekte in den Eingabebereich einzugeben. In einer weiteren Ausführungsform kann der Benutzer nichts aus den angezeigten ein oder mehreren einzufügenden Objekten auswählen und kann nicht auf die Operationssteuerung klicken. Nachdem das eine oder die mehreren einzufügenden Objekte für eine erste voreingestellte Zeit, beispielsweise 3 Sekunden, angezeigt wurden, wird die Einfügeanweisung ausgeführt, um alle angezeigten einzufügenden Objekte in den Eingabebereich einzugeben.
  • In einer Ausführungsform kann der Benutzer, nachdem das eine oder die mehreren einzufügenden Objekte angezeigt wurden, eine Auswahloperation für das angezeigte eine oder die mehreren einzufügenden Objekte durchführen. Beispielsweise kann ein Auswahlsteuerelement, das auf einer Seite des einzufügenden Objekts angezeigt wird, angeklickt werden, um die Auswahloperation für das einzufügende Objekt auszuführen, sodass ein oder mehrere einzufügende Objekte als Zielobjekt werden können. Dann wird die Operationssteuerung angeklickt, wie in 15B gezeigt, um die Einfügeanweisung auszuführen, um das vom Benutzer ausgewählte Zielobjekt in den Eingabebereich einzugeben. In einer anderen Ausführungsform kann, nachdem der Benutzer die Auswahloperation an den angezeigten einzufügenden Objekten ausgeführt hat, um ein oder mehrere einzufügende Objekte als das Zielobjekt auszuwählen, keine Klickoperation an der Operationssteuerung ausgeführt werden. Stattdessen wird nach dem Warten auf die Auswahl des Zielobjekts durch den Benutzer für eine zweite voreingestellte Zeit, beispielsweise 5 Sekunden, die Einfügeanweisung ausgeführt, um das vom Benutzer ausgewählte Zielobjekt in den Eingabebereich einzugeben.
  • In einer Ausführungsform kann das Anzeigen eines oder mehrerer einzufügender Objekte in Schritt 102 Folgendes umfassen: Anzeigen des einen oder der mehreren einzufügenden Objekte in einem Listenformat.
  • Wie in 16 dargestellt, werden das eine oder die mehreren vor der Eingabeoperation kopierten und/oder ausgeschnittenen Objekte im Listenformat angezeigt, einschließlich der Objektkennungen zusammen mit einem Teil der einzufügenden Objekte, um dem Benutzer die Auswahl zu erleichtern.
  • Die Anzeigereihenfolge der einzufügenden Objekte in der Liste kann nach einer voreingestellten Anzeigeregel angeordnet werden. In einer Ausführungsform können die einzufügenden Objekte nach einer Auswahlzeit der einzufügenden Objekte in der Reihenfolge der Auswahlzeit sortiert werden, beispielsweise in der chronologischen Reihenfolge oder in der umgekehrt chronologischen Reihenfolge. Anschließend werden die sortierten einzufügenden Objekte im Listenformat angezeigt. Beispielsweise wird die Operationsposition der Eingabeoperation im Eingabebereich als Ursprung festgelegt. Das einzufügende Objekt mit der letzten Auswahlzeit wird an den Anfang der Liste gesetzt und am nächsten an der Operationsposition angezeigt, wie in 17 dargestellt. Alternativ wird das einzufügende Objekt mit der frühesten Auswahlzeit an den Anfang der Liste gesetzt und am nächsten an der Operationsposition angezeigt, wie in 18 dargestellt.
  • In einer Ausführungsform können nach Erhalt der Auswahlzeiten der einzufügenden Objekte die einzufügenden Objekte in der Reihenfolge der Objektgröße sortiert werden, beispielsweise in der Reihenfolge der Anzahl der im einzufügenden Objekt enthaltenen Zeichen. Anschließend werden die sortierten einzufügenden Objekte im Listenformat angezeigt. Beispielsweise wird die Operationsposition der Eingabeoperation im Eingabebereich als Ursprung festgelegt. Das einzufügende Objekt mit der größten Anzahl von Zeichen wird an den Anfang der Liste gesetzt und am nächsten an der Operationsposition angezeigt, wie in 19 dargestellt. Alternativ wird das einzufügende Objekt mit der kleinsten Anzahl von Zeichen an den Anfang der Liste gesetzt und am nächsten an der Operationsposition angezeigt, wie in 20 dargestellt.
  • In einer Ausführungsform kann nach jeder Kopieraktion und/oder jeder Ausschneidaktion das kopierte Objekt und/oder das ausgeschnittene Objekt in einer Zwischenablage gespeichert werden, sodass nachdem die Eingabeoperation empfangen wurde, die einzufügenden Objekte aus der Zwischenablage zur Anzeige erhalten werden können. In einer Ausführungsform kann das kopierte Objekt und/oder das ausgeschnittene Objekt für einen bestimmten Zeitraum oder in einer bestimmten Menge entsprechend den tatsächlichen Anforderungen in der Zwischenablage gespeichert werden. Nachdem die Eingabeoperation empfangen wurde, kann eine gewünschte Menge der einzufügenden Objekte zum Anzeigen bestimmt werden. Darüber hinaus können die in der Zwischenablage gespeicherten Objekte entsprechend den tatsächlichen Szenarien oder Anforderungen intelligent gelöscht werden. Beispielsweise kann eine First-In-First-Out-Regel angewendet werden, um die Objekte zu löschen, nachdem eine Obergrenze der in der Zwischenablage gespeicherten Objekte erreicht ist. In einem weiteren Beispiel kann die Zwischenablage täglich am frühen Morgen geleert werden. In einem anderen Beispiel wird die Zwischenablage geleert, nachdem eine Anwendung erkannt wurde, die eine Prozessorressourcennutzungsrate erfordert, die einen voreingestellten Wert überschreitet. Beispielsweise wird die Zwischenablage geleert, wenn ein umfangreiches Spiel gestartet wird. In einem weiteren Beispiel werden in einem voreingestellten Intervall die Objekte, die einen Raum einnehmen, der größer als ein bestimmter Wert ist, aus der Zwischenablage gelöscht und die restlichen Objekte bleiben weiterhin in der Zwischenablage.
  • In einer Ausführungsform kann die Menge der anzuzeigenden ein oder mehreren einzufügenden Objekte entsprechend den verschiedenen Anforderungen konfiguriert oder sie kann im Voraus konfiguriert werden. Zum Beispiel kann die Menge der anzuzeigenden einzufügenden Objekte basierend auf dem aktuellen nutzbaren Platz zum Anzeigen bestimmt werden. In einem anderen Beispiel kann die Menge so konfiguriert sein, dass sie 10 oder 5 beträgt.
  • In einer Ausführungsform können das eine oder die mehreren anzuzeigenden einzufügenden Objekte alle einzufügenden Objekte umfassen, die innerhalb einer bestimmten Zeit (z. B. 1 Tag oder 4 Stunden) vor der Eingabeoperation kopiert und/oder ausgeschnitten wurden. So können beispielsweise die innerhalb von 24 Stunden vor der Eingabeoperation kopierten und/oder ausgeschnittenen Objekte als die einzufügenden Objekte gespeichert werden, die nach dem Empfang der Eingabeoperation angezeigt werden, wie in 21 dargestellt. Wenn die einzufügenden Objekte zu viele sind, um angezeigt zu werden, kann eine Bildlaufleiste verwendet werden, um mehr einzufügende Objekte anzuzeigen. In einer Ausführungsform können das eine oder die mehreren anzuzeigenden einzufügenden Objekte eine bestimmte Anzahl der einzufügenden Objekte umfassen, die innerhalb einer bestimmten Zeit vor der Eingabeoperation kopiert und/oder ausgeschnitten wurden. So kann beispielsweise ein Mengenschwellenwert der anzuzeigenden Objekte im Voraus konfiguriert werden, beispielsweise 10 oder 5. Nach dem Empfangen der Eingabeoperation können die kopierten und/oder ausgeschnittenen Objekte innerhalb von 24 Stunden vor der Eingabeoperation unterhalb des Mengenschwellenwerts wie 3 als die einzufügenden Objekte gespeichert werden, die nach dem Empfangen der Eingabeoperation angezeigt werden, wie in 22 dargestellt.
  • In einer Ausführungsform kann mindestens ein alternatives anzuzeigendes einzufügendes Objekt ein Objekt umfassen, das dem Eingabeszenario zugeordnet ist, das dem Eingabebereich entspricht. Das heißt, das einzufügende Objekt, das dem Eingabeszenario zugeordnet ist, das dem aktuellen Eingabebereich entspricht, kann aus allen einzufügenden Objekten herausgefiltert werden, die vor der Eingabeoperation kopiert und/oder ausgeschnitten werden, und das gefilterte einzufügende Objekt wird angezeigt. So ist beispielsweise das dem Eingabebereich entsprechende Eingabeszenario ein Spielszenario. Nachdem die Eingabeoperation empfangen wurde, werden die dem Spielszenario zugeordneten einzufügenden Objekte aus allen einzufügenden Objekten herausgefiltert, die vor der Eingabeoperation kopiert und/oder ausgeschnitten wurden, einschließlich Waffen, Spieltitel, Screenshot zur Spielrangliste usw. Die gefilterten Objekte werden wie in 23 dargestellt angezeigt. In einem weiteren Beispiel ist das dem Eingabebereich entsprechende Eingabeszenario ein Szenario zur Einstellung der Systemparameter. Nachdem die Eingabeoperation empfangen wurde, werden die dem Szenario zur Einstellung der Systemparameter zugeordneten einzufügenden Objekte aus allen einzufügenden Objekten herausgefiltert, die vor der Eingabeoperation kopiert und/oder ausgeschnitten wurden, einschließlich des Gerätenamens Modellnummer, Name des Besitzers usw. Die gefilterten Objekte werden wie in 24 dargestellt angezeigt.
  • In einer Ausführungsform können das eine oder die mehreren einzufügenden Objekte einen oder mehrere Typen der einzufügenden Objekte umfassen. Das heißt, nachdem die Eingabeoperation empfangen wurde, können die einzufügenden Objekte, die dem Benutzer zur Auswahl angezeigt werden, unterschiedliche Typen von Objekten umfassen, wie z. B. Bildobjekte, Audioobjekte oder Zeichenobjekte usw. Unterschiedliche Typen der einzufügenden Objekte können dem Benutzer auf eine bestimmte Weise angezeigt werden, wie in 25A dargestellt.
  • Beispielsweise werden zunächst unterschiedliche Typen der einzufügenden Objekte sortiert, um die einzufügenden Objekte eines gleichen Typs zur Anzeige zu gruppieren. In einem weiteren Beispiel werden die sortierten einzufügenden Objekte wie zuvor beschrieben geordnet im Listenformat angezeigt.
  • In einer Ausführungsform kann vor dem Empfangen der Eingabeoperation und nach dem Teilen eines Bildes ein Tiefenlernmodell verwendet werden, um das geteilte Bild zu analysieren und zu erkennen, um ein oder mehrere Objekte im Bild zu erhalten, wie beispielsweise ein Hintergrundbild, ein Hintergrundtextobjekt, ein Hauptfigurenbild, Namen von Figuren usw. Das eine oder die mehreren Objekte werden in der Zwischenablage gespeichert. Nachdem die Eingabeoperation empfangen wurde, werden das eine oder die mehreren in der Zwischenablage gespeicherten Objekte abgerufen und angezeigt. Wie in 25B dargestellt, werden der Name der Hauptfigur, das Bild der Hauptfigur, das Hintergrundtextobjekt und das Hintergrundbild in einer Bildgruppe angezeigt. Die Bildgruppe kann basierend auf den entsprechenden Positionen der einzufügenden Objekte im Originalbild bestimmt werden.
  • 26 stellt ein schematisches Diagramm eines Beispiels eines Datenverarbeitungsgeräts nach einigen Ausführungsformen der vorliegenden Offenbarung dar. Wie in 26 dargestellt, kann das Gerät Folgendes umfassen: eine Operationserfassungseinheit 2001, die dazu ausgelegt ist, eine Eingabeoperation für einen Eingabebereich zu erfassen, eine Objektanzeigeeinheit 2002, die dazu ausgelegt ist, ein oder mehrere einzufügende Objekte anzuzeigen, damit ein Benutzer ein Zielobjekt auswählen kann, und eine Objekteingabeeinheit 2003, die dazu ausgelegt ist, das eine oder die mehreren einzufügenden Objekte als Reaktion auf eine Einfügeanweisung in den Eingabebereich einzugeben oder das vom Benutzer ausgewählte Zielobjekt aus dem einen oder den mehreren einzufügenden Objekten in den Eingabebereich als Reaktion auf die Einfügeanweisung einzugeben.
  • Die Operationserfassungseinheit 2001 kann eine Eingabevorrichtung zum Erfassen der Eingabeoperation sein.
  • Wie in 8 dargestellt, umfasst die Vorrichtung, die das Verfahren ausführt, den Eingabebereich, in dem der Benutzer verschiedene Eingabeoperationen durchführen kann. Die Eingabeoperation kann die Operation sein, die der Benutzer ausführt, um die Funktion zu erreichen, wie beispielsweise die anhaltende Druckoperation, die Doppelklickoperation oder die Rechtsklickoperation der Maus usw. So kann beispielsweise die Eingabeoperation die Operation des Einfügens des Objekts durch den Benutzer sein.
  • Beispielsweise kann der Eingabebereich die Systemoperationsschnittstelle oder die Anwendungsinteraktionsschnittstelle für die Eingabeoperationen sein, wie das Systemsuchfeld, der Systemeinstellungsbereich, der Notizenbereich oder der Eingabebereich in der Chat-Anwendung. Der Benutzer kann die Operation im Eingabebereich ausführen, um das Objekt einzufügen.
  • Das eine oder die mehreren einzufügenden Objekte können das kopierte Objekt sein, das als Reaktion auf die Kopieraktion vor der Eingabeoperation in den Eingabebereich erhalten wurde, und/oder das ausgeschnittene Objekt, das als Reaktion auf die Ausschneideaktion vor der Eingabeoperation in den Eingabebereich erhalten wurde.
  • Wenn das eine oder die mehreren einzufügenden Objekte angezeigt werden, kann die Objektanzeigeeinheit 2002 das eine oder die mehreren einzufügenden Objekte im Listenformat anzeigen. Die Reihenfolge der in der Liste angezeigten einzufügenden Objekte entspricht der Reihenfolge der Auswahlzeit der einzufügenden Objekte. Das eine oder die mehreren einzufügenden Objekte können die Objekte sein, die dem Eingabeszenario zugeordnet sind, das dem Eingabebereich entspricht. Die einzufügenden Objekte können die einzufügenden Objekte unterschiedlicher Typen umfassen.
  • Zusätzlich ist die Objektanzeigeeinheit 2002 ferner dazu ausgelegt, die Operationssteuerung anzuzeigen. Die Operationssteuerung ist dazu ausgelegt, die Ausführung der Einfügeanweisung auszulösen.
  • In dem Datenverarbeitungsgerät, das durch die Ausführungsformen der vorliegenden Offenbarung bereitgestellt wird, werden als Reaktion auf die Eingabeoperation, nachdem die Eingabeoperation empfangen wurde, das eine oder die mehreren einzufügenden Objekte angezeigt, die als Reaktion auf die Kopieraktion und/oder die Ausschneidaktion vor der Eingabeoperation bestimmt wurden, wodurch für den Benutzer die Auswahl des einzufügenden Zielobjekts erleichtert wird. Als Reaktion auf die Eingaboperation können neben der Anzeige des zuletzt kopierten oder ausgeschnittenen Objekts auch die Objekte angezeigt werden, die als Reaktion auf die Kopieraktion und/oder die Ausschneideaktion vor der Eingabeoperation bestimmt wurden, um dem Benutzer die Auswahl zu erleichtern und wiederholte Kopieraktionen und Einfügeaktionen nach der ersten Einfügeaktion zu vermeiden. Auf diese Weise kann der Prozess des Einfügens mehrerer Objekte in den Eingabebereich rationalisiert, die Komplexität der Bedienung reduziert und die Betriebseffizienz verbessert werden.
  • Die spezifische Implementierung und Beispiele der Strukturen in den Ausführungsformen der vorliegenden Offenbarung können sich auf die vorhergehenden Verfahrensausführungsformen beziehen und werden hier nicht im Detail beschrieben.
  • 27 stellt ein schematisches Diagramm eines Beispiels einer elektronischen Vorrichtung nach einigen Ausführungsformen der vorliegenden Offenbarung dar. Wie in 27 dargestellt, kann die elektronische Vorrichtung einen Speicher 2101, der dazu ausgelegt ist, ein Anwendungsprogramm und während der Ausführung des Anwendungsprogramms erzeugte Daten zu speichern, und einen Prozessor 2102, der dazu ausgelegt ist, das im Speicher 2101 gespeicherte Anwendungsprogramm auszuführen, umfassen.
  • Bei dem Speicher 2101 kann es sich um ein computerlesbares Medium handeln, einschließlich eines nicht persistenten Speichers, wie beispielsweise eines Direktzugriffsspeichers (RAM), und/oder eines nichtflüchtigen Speichers, wie beispielsweise eines Nur-Lese-Speichers (ROM) oder Flash-Speichers. Diese Speicher sind die Beispiele des computerlesbaren Mediums.
  • Der Prozessor 2102 führt das Anwendungsprogramm aus, um Folgendes zu implementieren: Empfangen der Eingabeoperation aus dem Eingabebereich und Anzeigen eines oder mehrerer einzufügender Objekte, damit der Benutzer das Zielobjekt auswählen kann. Das eine oder die mehreren einzufügenden Objekte können das kopierte Objekt sein, das als Reaktion auf die Kopieraktion vor der Eingabeoperation erhalten wurde, und/oder das ausgeschnittene Objekt, das als Reaktion auf die Ausschneideaktion vor der Eingabeoperation erhalten wurde.
  • Der Prozessor 2102 kann einen oder mehrere Kerne umfassen. Der eine oder die mehreren Kerne rufen die entsprechende Programmeinheit aus dem Speicher 2101 ab. Die Parameter des einen oder der mehreren Kerne werden angepasst, um die oben genannte Funktion zu implementieren.
  • Wenn das eine oder die mehreren einzufügenden Objekte angezeigt werden, kann die Objektanzeigeeinheit 2002 die einzufügenden Objekte im Listenformat anzeigen. Die Reihenfolge der in der Liste angezeigten einzufügenden Objekte entspricht der Reihenfolge der Auswahlzeit der einzufügenden Objekte. Die einzufügenden Objekte können die Objekte sein, die dem Eingabeszenario zugeordnet sind, das dem Eingabebereich entspricht. Die einzufügenden Objekte können die einzufügenden Objekte unterschiedlicher Typen umfassen.
  • Zusätzlich ist der Prozessor 2102 ferner dazu ausgelegt, die Operationssteuerung anzuzeigen. Die Operationssteuerung ist dazu ausgelegt, die Ausführung der Einfügeanweisung auszulösen.
  • Dementsprechend ist der Prozessor 2102 ferner ausgelegt, auf die Einfügeanweisung zu reagieren, indem er die einzufügenden Objekte in den Eingabebereich eingibt oder das Zielobjekt, das vom Benutzer aus den einzufügenden Objekten ausgewählt wurde, in den Eingabebereich eingibt.
  • In der elektronischen Vorrichtung, die durch die Ausführungsformen der vorliegenden Offenbarung bereitgestellt wird, werden als Reaktion auf die Eingabeoperation, nachdem die Eingabeoperation empfangen wurde, das eine oder die mehreren einzufügenden Objekte angezeigt, die als Reaktion auf die Kopieraktion und/oder die Ausschneidaktion vor der Eingabeoperation bestimmt wurden, wodurch für den Benutzer die Auswahl des einzufügenden Zielobjekts erleichtert wird. Als Reaktion auf die Eingaboperation können neben der Anzeige des zuletzt kopierten oder ausgeschnittenen Objekts auch die Objekte angezeigt werden, die als Reaktion auf die Kopieraktion und/oder die Ausschneideaktion vor der Eingabeoperation bestimmt wurden, um dem Benutzer die Auswahl zu erleichtern und wiederholte Kopieraktionen und Einfügeaktionen nach der ersten Einfügeaktion zu vermeiden. Auf diese Weise kann der Prozess des Einfügens mehrerer Objekte in den Eingabebereich rationalisiert, die Komplexität der Bedienung reduziert und die Betriebseffizienz verbessert werden.
  • Die spezifische Implementierung und Beispiele der Strukturen in den Ausführungsformen der vorliegenden Offenbarung können sich auf die vorhergehenden Verfahrensausführungsformen beziehen und werden hier nicht im Detail beschrieben.
  • 28 stellt ein schematisches Diagramm eines anderen Beispiels einer elektronischen Vorrichtung nach einigen Ausführungsformen der vorliegenden Offenbarung dar. Wie in 28 dargestellt, kann die elektronische Vorrichtung eine Eingabevorrichtung 2201, die dazu ausgelegt ist, die Eingabeoperation in den Eingabebereich zu erfassen, eine Ausgabevorrichtung 2202, um ein oder mehrere einzufügende Objekte anzuzeigen, damit der Benutzer das einzufügende Zielobjekt auswählen kann, und eine Steuerung 2203, die dazu ausgelegt ist, auf die Eingabeanweisung zu reagieren, indem sie das eine oder die mehreren einzufügenden Objekte in den Eingabebereich eingibt oder das vom Benutzer aus dem einen oder den mehreren einzufügenden Objekten ausgewählte Zielobjekt in den Eingabebereich eingibt, umfassen.
  • Das eine oder die mehreren einzufügenden Objekte können das kopierte Objekt sein, das als Reaktion auf die Kopieraktion vor der Eingabeoperation erhalten wurde, und/oder das ausgeschnittene Objekt, das als Reaktion auf die Ausschneideaktion vor der Eingabeoperation erhalten wurde.
  • Wenn das eine oder die mehreren einzufügenden Objekte angezeigt werden, kann die Objektanzeigeeinheit 2002 das eine oder die mehreren einzufügenden Objekte im Listenformat anzeigen. Die Reihenfolge der in der Liste angezeigten einzufügenden Objekte entspricht der Reihenfolge der Auswahlzeiten der einzufügenden Objekte. Ein oder mehrere einzufügende Objekte können das Objekt sein, das dem Eingabeszenario zugeordnet ist, das dem Eingabebereich entspricht. Die einzufügenden Objekte können die einzufügenden Objekte unterschiedlicher Typen umfassen.
  • Zusätzlich ist die Ausgabevorrichtung 2202 ferner dazu ausgelegt, die Operationssteuerung anzuzeigen. Die Operationssteuerung ist dazu ausgelegt, die Ausführung der Einfügeanweisung auszulösen.
  • Ferner kann die Eingabevorrichtung 2202 von der Steuerung 2203 gesteuert werden, um die einzufügenden Objekte anzuzeigen.
  • In der elektronischen Vorrichtung, die durch die Ausführungsformen der vorliegenden Offenbarung bereitgestellt wird, werden als Reaktion auf die Eingabeoperation, nachdem die Eingabeoperation empfangen wurde, das eine oder die mehreren einzufügenden Objekte angezeigt, die als Reaktion auf die Kopieraktion und/oder die Ausschneidaktion vor der Eingabeoperation bestimmt wurden, wodurch für den Benutzer die Auswahl des einzufügenden Zielobjekts erleichtert wird. Als Reaktion auf die Eingaboperation können neben der Anzeige des zuletzt kopierten oder ausgeschnittenen Objekts auch die Objekte angezeigt werden, die als Reaktion auf die Kopieraktion und/oder die Ausschneideaktion vor der Eingabeoperation bestimmt wurden, um dem Benutzer die Auswahl zu erleichtern und wiederholte Kopieraktionen und Einfügeaktionen nach der ersten Einfügeaktion zu vermeiden. Auf diese Weise kann der Prozess des Einfügens mehrerer Objekte in den Eingabebereich rationalisiert, die Komplexität der Bedienung reduziert und die Betriebseffizienz verbessert werden.
  • Als Reaktion auf die im Eingabebereich ausgelöste Einfügeoperation kann das Verfahren oder die elektronische Vorrichtung, die durch die Ausführungsformen der vorliegenden Offenbarung bereitgestellt wird, ein oder mehrere zuvor kopierte und/oder ausgeschnittene Objekte gleichzeitig anzeigen, damit der Benutzer eine Auswahl treffen kann. Das einmalig angezeigte eine oder die mehreren Objekte umfasst Objekte unterschiedlichen Typs, wie beispielsweise Bilder oder Texte. Ebenfalls in der Schnittstelle, die ein oder mehrere Objekte gleichzeitig anzeigt, enthalten ist das Einfügesteuerelement. Durch Ausführen einer Operation an dem Einfügesteuerelement kann der Benutzer die gesamten Objekte, die aus dem angezeigten einen oder den mehreren Objekten ausgewählt wurden, gleichzeitig in den Eingabebereich einfügen. In einer Ausführungsform kann der Benutzer das Einfügesteuerelement direkt bedienen, um das zuletzt kopierte und/oder ausgeschnittene Objekt standardmäßig in den Eingabebereich einzufügen, wodurch die Benutzererfahrung mit der Einfügeoperation wiederholt wird. So ist es als Reaktion auf die Einfügeanweisung notwendig, weiter zu bestimmen, ob auf die Auswahloperation zur gleichzeitigen Anzeige eines oder mehrerer Objekte reagiert wurde.
  • Die spezifische Implementierung und Beispiele der Strukturen in den Ausführungsformen der vorliegenden Offenbarung können sich auf die vorhergehenden Verfahrensausführungsformen beziehen und werden hier nicht im Detail beschrieben.
  • Es ist zu beachten, dass die Ausführungsformen der vorliegenden Offenbarung schrittweise beschrieben werden und jede Ausführungsform sich auf Unterschiede zu anderen Ausführungsformen konzentriert. Die gleichen oder ähnlichen Teile zwischen den Ausführungsformen können zueinander in Bezug gesetzt werden. Da die Geräteausführungsformen den Verfahrensausführungsformen entsprechen, ist die Beschreibung des Gerätes relativ einfach und kann sich auf die entsprechende Beschreibung des Verfahrens beziehen.
  • Es sollte für den Durchschnittsfachmann verständlich sein, dass die Einheiten und die Verfahrensschritte in den offenbarten Ausführungsformen in elektronischer Hardware oder Computersoftware in Kombination mit der elektronischen Hardware implementiert werden können. Ob eine Funktion in Hard- oder Software implementiert ist, hängt von den praktischen Anwendungen und den Designbeschränkungen der technischen Lösung ab. Der Fachmann kann die für jede spezifische Anwendung spezifizierte Funktion auf unterschiedliche Weise implementieren, ohne vom Umfang der vorliegenden Offenbarung abzuweichen.
  • In den Ausführungsformen der vorliegenden Offenbarung können das System, die Vorrichtung und das Verfahren, die offenbart wurden, durch andere Mittel implementiert werden. Ferner kann die dargestellte oder diskutierte gegenseitige Kopplung, direkte Kopplung oder Kommunikationsverbindung über bestimmte Schnittstellen erfolgen. Indirekte Kopplung oder Kommunikationsverbindung zwischen Vorrichtungen oder Einheiten kann elektrisch, mechanisch oder in anderer Form erfolgen.
  • Die als separate Komponenten beschriebenen Einheiten können physisch getrennt sein oder auch nicht. Die als Einheiten dargestellten Komponenten können physikalische Einheiten sein oder nicht, das heißt, sie können sich an einem Ort befinden oder auf mehrere Netzwerkeinheiten verteilt sein. Basierend auf den praktischen Anforderungen können einige oder alle Einheiten ausgewählt werden, um die Ziele der Ausführungsformen zu erreichen.
  • Zusätzlich können die Funktionseinheiten in den Ausführungsformen der vorliegenden Offenbarung in eine Verarbeitungseinheit integriert sein, können separate physikalische Einheiten sein oder können zwei oder mehr Einheiten umfassen, die in eine Einheit integriert sind.
  • Es versteht sich, dass in den Ausführungsformen der vorliegenden Offenbarung Ansprüche, Ausführungsformen und Merkmale miteinander kombiniert werden können, um das vorgenannte technische Problem zu lösen.
  • Die Funktionen können in Softwarefunktionseinheiten implementiert und als eigenständiges Produkt verkauft oder verwendet werden, das auf einem computerlesbaren Speichermedium gespeichert ist. Somit kann ein Teil der technischen Lösung der vorliegenden Offenbarung oder der innovative Teil der technischen Lösung in Form eines Softwareprodukts implementiert werden. Das Computersoftwareprodukt, das auf einem Speichermedium gespeichert ist, kann eine Mehrzahl von Anweisungen umfassen, die von einer Computervorrichtung (z. B. einem Personalcomputer, einem Server oder einer Netzwerkgerät) ausgeführt werden müssen, um alle oder einige der Schritte der Verfahrensausführungsformen der vorliegenden Offenbarung zu implementieren. Das Speichermedium umfasst: eine USB-Platte, eine tragbare Festplatte, einen Nur-Lese-Speicher (ROM), einen Direktzugriffsspeicher (RAM), eine Magnetplatte, eine optische Platte oder ein anderes Medium, das zum Speichern von Programmcode geeignet ist.
  • Zur Veranschaulichung der Funktionsprinzipien und Beispielimplementierungen wurden verschiedene Ausführungsformen beschrieben. Für den Fachmann sollte klar sein, dass die vorliegende Offenbarung nicht auf die hierin beschriebenen spezifischen Ausführungsformen beschränkt ist, und verschiedene andere offensichtliche Änderungen, Umgestaltungen und Substitutionen, ohne vom Umfang der Offenbarung abzuweichen, werden sich dem Fachmann erschließen. Die vorliegende Offenbarung ist zwar mit Bezug auf die oben beschriebenen Ausführungsformen detailliert beschrieben worden, aber die vorliegende Offenbarung ist nicht auf die oben beschriebenen Ausführungsformen beschränkt, sondern kann in anderen gleichwertigen Formen ausgeführt werden, ohne vom Umfang der vorliegenden Offenbarung abzuweichen, der durch die beigefügten Ansprüche bestimmt wird.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • CN 201811158298 [0001]
    • CN 201811163067 [0001]

Claims (18)

  1. Informationsverarbeitungsverfahren, umfassend: Erfassen einer Anweisung zum Verarbeiten eines Bildes, das eine Mehrzahl von Objekten enthält; als Reaktion auf die Anweisung zum Verarbeiten des Bildes, Erhalten eines oder mehrerer Objekte, wobei ein erstes Objekt unter dem einen oder den mehreren Objekten einen Objekttyp aufweist, der mit dem Typ des Bildes übereinstimmt; und Erzeugen einer interaktiven Schnittstelle, die das eine oder die mehreren Objekte enthält, wobei die interaktive Schnittstelle zum Auswählen eines oder mehrerer Zielobjekte ausgelegt ist.
  2. Verfahren nach Anspruch 1, wobei: das eine oder die mehreren Objekte zwei Objekte unterschiedlichen Typs umfassen.
  3. Verfahren nach Anspruch 2, wobei: die interaktive Schnittstelle ferner das Bild enthält.
  4. Verfahren nach Anspruch 1, wobei das Erhalten eines oder mehrerer Objekte umfasst: Durchführen einer Konturerfassung an dem Bild, um mindestens eine Kontur zu erhalten; und Erhalten von mindestens einem ersten Objekt basierend auf der mindestens einen Kontur.
  5. Verfahren nach Anspruch 1, wobei das Erhalten eines oder mehrerer Objekte umfasst: Teilen des Bildes in einen Vordergrund und einen Hintergrund, um ein Vordergrundbildobjekt und ein Hintergrundbildobjekt zu erhalten.
  6. Verfahren nach Anspruch 1, wobei das Erhalten eines oder mehrerer Objekte ferner umfasst: Durchführen einer Texterkennung zum Erhalten mindestens eines Textabschnitts, wobei unterschiedliche Textabschnitte unterschiedlichen Textobjekten entsprechen.
  7. Verfahren nach Anspruch 1, ferner umfassend: Speichern des einen oder der mehreren Objekte in Verbindung mit dem Bild.
  8. Verfahren nach Anspruch 1, wobei das Erzeugen der interaktiven Schnittstelle umfasst: Empfangen einer Eingabeoperation von einem Eingabebereich; und Erzeugen der interaktiven Schnittstelle einschließlich einer Operationssteuerung für eine Einfügeanweisung.
  9. Verfahren nach Anspruch 8, ferner umfassend: als Reaktion auf die Einfügeanweisung, Eingeben des einen oder der mehreren Objekte in den Eingabebereich; oder als Reaktion auf die Einfügeanweisung, Eingeben des aus dem einen oder den mehreren Objekten ausgewählten Zielobjekts in den Eingabebereich.
  10. Elektronische Vorrichtung, umfassend: eine Anzeigeeinheit; einen Speicher, der dazu ausgelegt ist, eine Mehrzahl von Anweisungen zu speichern; und einen Prozessor, der dazu ausgelegt ist, die Mehrzahl der im Speicher gespeicherten Anweisungen abzurufen und auszuführen, um: eine Anweisung zum Verarbeiten eines Bildes, das eine Mehrzahl von Objekten enthält, zu erfassen, als Reaktion auf die Anweisung zum Verarbeiten des Bildes ein oder mehrere Objekte zu erhalten, wobei ein erstes Objekt des einen oder der mehreren Objekte einen Typ aufweist, der mit einem Typ des Bildes übereinstimmt; und eine interaktive Schnittstelle zu erzeugen, wobei die interaktive Schnittstelle das eine oder die mehreren Objekte enthält und die interaktive Schnittstelle zum Auswählen des Zielobjekts ausgelegt ist.
  11. Elektronische Vorrichtung nach Anspruch 10, wobei: das eine oder die mehreren Objekte zwei Objekte unterschiedlichen Typs umfassen.
  12. Datenverarbeitungsverfahren, umfassend: Empfangen einer Eingabeoperation von einem Eingabebereich; und Anzeigen eines oder mehrerer einzufügender Objekte zur Auswahl eines Zielobjekts, wobei das eine oder die mehreren einzufügenden Objekte ein kopiertes Objekt enthalten, das als Reaktion auf eine Kopieraktion oder eine Ausschneidaktion vor der Eingabeoperation erhalten wurde.
  13. Verfahren nach Anspruch 12, ferner umfassend: Anzeigen einer Operationssteuerung, die dazu ausgelegt ist, die Einfügeanweisung zu aktivieren.
  14. Verfahren nach Anspruch 13, ferner umfassend: als Reaktion auf die Einfügeanweisung, Eingeben der einzufügenden Objekte in den Eingabebereich; oder als Reaktion auf die Einfügeanweisung, Eingeben des aus den einzufügenden Objekten ausgewählten Zielobjekts in den Eingabebereich.
  15. Verfahren nach Anspruch 12, wobei das Anzeigen des einen oder der mehreren einzufügenden Objekte umfasst: Anzeigen der einzufügenden Objekte in einem Listenformat, wobei eine Reihenfolge der in dem Listenformat angezeigten einzufügenden Objekte einer Reihenfolge der Kopier- oder Ausschneidezeiten der einzufügenden Objekte entspricht.
  16. Verfahren nach Anspruch 12, wobei: die einzufügenden Objekte ein Objekt umfassen, das einem Eingabeszenario zugeordnet ist, das dem Eingabebereich entspricht.
  17. Verfahren nach Anspruch 12, wobei: die einzufügenden Objekte eine Mehrzahl von einzufügenden Objekten unterschiedlicher Typen umfassen.
  18. Elektronische Vorrichtung, umfassend: einen Bildschirm; und einen Prozessor, der dazu ausgelegt ist: eine Eingabeoperation von einem Eingabebereich des Anzeigebildschirms zu empfangen; ein oder mehrere einzufügende Objekte auf dem Anzeigebildschirm anzuzeigen; und eine Auswahl eines Zielobjekts aus dem einen oder den mehreren einzufügenden Objekten zu erhalten, wobei das eine oder die mehreren einzufügenden Objekte ein Objekt umfassen, das als Reaktion auf eine Kopieraktion oder eine Ausschneidaktion vor der Eingabeoperation erhalten wurde.
DE102019125937.1A 2018-09-30 2019-09-26 Informationsverarbeitungsverfahren und elektronische Vorrichtung Pending DE102019125937A1 (de)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
CN201811163067.1A CN109388506B (zh) 2018-09-30 2018-09-30 一种数据处理方法及电子设备
CN201811163067.1 2018-09-30
CN201811158298.3A CN109254712B (zh) 2018-09-30 2018-09-30 信息处理方法及电子设备
CN201811158298.3 2018-09-30

Publications (1)

Publication Number Publication Date
DE102019125937A1 true DE102019125937A1 (de) 2020-04-02

Family

ID=68240920

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102019125937.1A Pending DE102019125937A1 (de) 2018-09-30 2019-09-26 Informationsverarbeitungsverfahren und elektronische Vorrichtung

Country Status (3)

Country Link
US (1) US11491396B2 (de)
DE (1) DE102019125937A1 (de)
GB (1) GB2577989B (de)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112562044A (zh) * 2020-12-14 2021-03-26 深圳市大富网络技术有限公司 一种素材选择方法、系统、装置及计算机存储介质
CN113407959B (zh) * 2021-06-11 2023-04-14 维沃移动通信(杭州)有限公司 操作执行方法、装置及电子设备
CN113593614B (zh) * 2021-07-28 2023-12-22 维沃移动通信(杭州)有限公司 图像处理方法及装置

Family Cites Families (33)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6512848B2 (en) * 1996-11-18 2003-01-28 Canon Kabushiki Kaisha Page analysis system
JP2001297303A (ja) * 2000-02-09 2001-10-26 Ricoh Co Ltd 文書画像認識方法、装置及びコンピュータ読み取り可能な記録媒体
JP4910288B2 (ja) 2002-06-05 2012-04-04 セイコーエプソン株式会社 ディジタルカメラ
EP1555804A3 (de) * 2004-01-19 2006-08-16 Ricoh Company, Ltd. Bildverarbeitungsvorrichtung, Bildverarbeitungsprogramm und Speichermedium
US20070044013A1 (en) * 2005-08-18 2007-02-22 Sony Ericsson Mobile Communications Ab Methods, devices and computer program products for saving content of a mobile terminal display
JP4960897B2 (ja) * 2008-01-30 2012-06-27 株式会社リコー 画像処理装置、画像処理方法、プログラム、記憶媒体
JP5028337B2 (ja) * 2008-05-30 2012-09-19 キヤノン株式会社 画像処理装置、画像処理方法、プログラム、及び記憶媒体
US8918739B2 (en) * 2009-08-24 2014-12-23 Kryon Systems Ltd. Display-independent recognition of graphical user interface control
US9098182B2 (en) * 2010-07-30 2015-08-04 Apple Inc. Device, method, and graphical user interface for copying user interface objects between content regions
US20120289290A1 (en) * 2011-05-12 2012-11-15 KT Corporation, KT TECH INC. Transferring objects between application windows displayed on mobile terminal
EP2527968B1 (de) * 2011-05-24 2017-07-05 LG Electronics Inc. Mobiles Endgerät
JP5776419B2 (ja) * 2011-07-29 2015-09-09 ブラザー工業株式会社 画像処理装置、画像処理プラグラム
JP5842441B2 (ja) * 2011-07-29 2016-01-13 ブラザー工業株式会社 画像処理装置およびプログラム
JP5935454B2 (ja) * 2012-03-30 2016-06-15 ブラザー工業株式会社 画像処理装置および画像処理プログラム
CN104461474A (zh) 2013-09-12 2015-03-25 北京三星通信技术研究有限公司 用于移动终端的截屏方法和截屏装置以及移动终端
US9179061B1 (en) * 2013-12-11 2015-11-03 A9.Com, Inc. Assisted text input for computing devices
US20150177953A1 (en) * 2013-12-23 2015-06-25 Thomson Licensing User interface displaying scene dependent attributes
KR102214437B1 (ko) * 2014-01-10 2021-02-10 삼성전자주식회사 컴퓨팅 디바이스에서 컨텐츠 복사 실행 방법, 컨텐츠 붙여넣기 실행 방법 및 컴퓨팅 디바이스
US10216996B2 (en) * 2014-09-29 2019-02-26 Sony Interactive Entertainment Inc. Schemes for retrieving and associating content items with real-world objects using augmented reality and object recognition
US20160139777A1 (en) * 2014-11-18 2016-05-19 Sony Corporation Screenshot based indication of supplemental information
CN105704396A (zh) 2014-11-24 2016-06-22 中兴通讯股份有限公司 一种图片处理方法及装置
US9665960B1 (en) * 2014-12-22 2017-05-30 Amazon Technologies, Inc. Image-based item location identification
CN104978146B (zh) 2015-06-30 2017-11-24 广东欧珀移动通信有限公司 一种图片操作方法及移动终端
CN105117380B (zh) 2015-09-24 2018-09-07 百度在线网络技术(北京)有限公司 粘贴处理方法及装置
CN106020647A (zh) 2016-05-23 2016-10-12 珠海市魅族科技有限公司 一种自动提取图片内容的方法及系统
US10649614B2 (en) * 2016-12-30 2020-05-12 Facebook, Inc. Image segmentation in virtual reality environments
CN107273013A (zh) 2017-07-03 2017-10-20 北京小米移动软件有限公司 文本处理方法、装置及电子设备
CN107391286A (zh) 2017-08-28 2017-11-24 济南浚达信息技术有限公司 一种安卓系统多内容快速复制粘贴的实现系统及方法
US20190114065A1 (en) * 2017-10-17 2019-04-18 Getac Technology Corporation Method for creating partial screenshot
CN107766163A (zh) 2017-10-27 2018-03-06 深圳市口袋网络科技有限公司 一种待用信息粘贴方法、装置、设备及存储介质
CN107908489A (zh) 2017-11-27 2018-04-13 维沃移动通信有限公司 复制粘贴的方法和移动终端
CN107908337A (zh) 2017-12-14 2018-04-13 广州三星通信技术研究有限公司 分享图像内容的方法和装置
US20210150127A1 (en) * 2019-11-19 2021-05-20 Salesforce.Com, Inc. Systems and methods including a rapid pictorial demonstration (rpd) controller for creating and editing interactive demonstration presentations for an envisioned software product

Also Published As

Publication number Publication date
US11491396B2 (en) 2022-11-08
GB2577989B (en) 2021-03-24
GB2577989A (en) 2020-04-15
GB201912803D0 (en) 2019-10-23
US20200101378A1 (en) 2020-04-02

Similar Documents

Publication Publication Date Title
DE60219048T2 (de) Sektionsextrahierungswerkzeug für pdf-dokumente
DE102016125783A1 (de) Bereitstellen von Vorschlägen für die Interaktion mit einem automatisierten Assistenten in einem Multi-User-Nachrichtenaustausch-Thread
DE68927216T2 (de) System zur verwaltung von hierarchischen informationen in einem digitalen datenverarbeitungssystem
DE102019125937A1 (de) Informationsverarbeitungsverfahren und elektronische Vorrichtung
DE102017122308A1 (de) Kontextabhängige einfügeziel-vorhersage
DE202016107375U1 (de) Festlegung von Antwortinhalt für eine Antwort auf eine elektronische Kommunikation
DE112011105933T5 (de) Verfahren und Vorrichtungen zum dynamischen Anpassen einer virtuellen Tastatur
DE112015005985T5 (de) Klassifizierung und speicherung von dokumenten
DE10317234A1 (de) Systeme und Verfahren für eine verbesserte Genauigkeit von einem extrahierten digitalen Inhalt
DE60319586T2 (de) Elektronisches wörterbuch mit beispielsätzen
DE102017005964A1 (de) Techniken zum Auswählen von Objekten in Bildern
DE102012221513A1 (de) Verfahren und System zum Bereitstellen zusätzlicher Daten einem grafischen Schnittstellenelement
DE202017104019U1 (de) System zum Steuern eines Computers zum Initiieren der Ausführung einer computerbasierten Aktion
DE112016002275T5 (de) Koordinierte benutzerwortauswahl zum übersetzen und erhalten von kontextinformtionen für das ausgewählte wort
DE102012218485A1 (de) Verfahren für ein Instant Messaging-System und Instant Messaging-System
DE202017105979U1 (de) Systeme und Computerprogrammprodukte zur Handhabung von Formalität in Übersetzungen von Text
EP1211099A2 (de) Verfahren zum digitalen Drucken von zusammengesetzten Dokumenten
DE102015105022A1 (de) Datenverarbeitungsverfahren und Elektronikgerät
DE19849855C1 (de) Verfahren zur automatischen Generierung einer textlichen Äußerung aus einer Bedeutungsrepräsentation durch ein Computersystem
DE102019132848A1 (de) Auf cloudsuche basierendes empfehlungsverfahren, -vorrichtung, -gerät und lesbares speichermedium
DE102014114112A1 (de) Informationsverarbeitungsverfahren und elektronisches gerät
DE68915765T2 (de) Anzeigeverfahren und -system zur verbindung von durch eine anzeigeeinheit angezeigte informationen.
EP1603072A1 (de) Verfahren und Einrichtung zur Strukturanalyse eines Dokuments
DE10056825C2 (de) Verfahren, Vorrichtung und Computerprogramm zum Erzeugen eines Zufallstestcodes
DE102012025351B4 (de) Verarbeitung eines elektronischen Dokuments

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication