DE112019003579T5 - Informationsverarbeitungseinrichtung, programm undinformationsverarbeitungsverfahren - Google Patents

Informationsverarbeitungseinrichtung, programm undinformationsverarbeitungsverfahren Download PDF

Info

Publication number
DE112019003579T5
DE112019003579T5 DE112019003579.7T DE112019003579T DE112019003579T5 DE 112019003579 T5 DE112019003579 T5 DE 112019003579T5 DE 112019003579 T DE112019003579 T DE 112019003579T DE 112019003579 T5 DE112019003579 T5 DE 112019003579T5
Authority
DE
Germany
Prior art keywords
virtual object
display
area
display area
information processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE112019003579.7T
Other languages
English (en)
Inventor
Yasuyuki Koga
Kei Nitta
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Publication of DE112019003579T5 publication Critical patent/DE112019003579T5/de
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S7/00Indicating arrangements; Control arrangements, e.g. balance control
    • H04S7/30Control circuits for electronic adaptation of the sound field
    • H04S7/302Electronic adaptation of stereophonic sound system to listener position or orientation
    • H04S7/303Tracking of listener position or orientation
    • H04S7/304For headphones
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0093Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/165Management of the audio stream, e.g. setting of volume, audio stream path
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S7/00Indicating arrangements; Control arrangements, e.g. balance control
    • H04S7/40Visual indication of stereophonic sound image
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2499/00Aspects covered by H04R or H04S not otherwise provided for in their subgroups
    • H04R2499/10General applications
    • H04R2499/15Transducers incorporated in visual displaying devices, e.g. televisions, computer displays, laptops
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2400/00Details of stereophonic systems covered by H04S but not provided for in its groups
    • H04S2400/01Multi-channel, i.e. more than two input channels, sound reproduction with two speakers wherein the multi-channel information is substantially preserved
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2400/00Details of stereophonic systems covered by H04S but not provided for in its groups
    • H04S2400/11Positioning of individual sound objects, e.g. moving airplane, within a sound field
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2420/00Techniques used stereophonic systems covered by H04S but not provided for in its groups
    • H04S2420/01Enhancing the perception of the sound image or of the spatial distribution using head related transfer functions [HRTF's] or equivalents thereof, e.g. interaural time difference [ITD] or interaural level difference [ILD]

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Acoustics & Sound (AREA)
  • Signal Processing (AREA)
  • Optics & Photonics (AREA)
  • Multimedia (AREA)
  • General Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Health & Medical Sciences (AREA)
  • Stereophonic System (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

[Problem] Zur Bereitstellung einer Informationsverarbeitungsvorrichtung, eines Programms und eines Informationsverarbeitungsverfahren, das einen Benutzerblick schnell zu einem virtuellen Objekt führen können.[Lösung] Eine Informationsverarbeitungsvorrichtung gemäß der vorliegenden Technologie umfasst einen Bestimmungsteil und einen Displaysteuerteil. Der Bestimmungsteil erfasst die Position eines virtuellen Objekts bezüglich eines Displaygebiets einer Displayeinrichtung und bestimmt, ob ein korrigierbares Gebiet, das auf ein Gebiet gesetzt ist, das von dem virtuellen Objekt differiert, das Displaygebiet mindestens teilweise überlappt, wenn das virtuelle Objekt außerhalb des Displaygebiets positioniert ist. Falls durch den Bestimmungsteil bestimmt worden ist, dass das korrigierbare Gebiet das Displaygebiet mindestens teilweise überlappt, bewirkt der Displaysteuerteil, dass mindestens ein Abschnitt eines Displayobjekts, das das virtuelle Objekt anzeigt, in dem Displaygebiet angezeigt wird.

Description

  • Erfindungsgebiet
  • Die vorliegende Technologie betrifft eine Informationsverarbeitungsvorrichtung, ein Programm und ein Informationsverarbeitungsverfahren, die mit virtueller Objektpräsentation assoziiert sind.
  • Hintergrund der Technik
  • Stereoschall wird auf den Gebieten der Augmented Reality (AR) und Virtual Reality (VR) verwendet. Der Stereoschall ermöglicht es einem Benutzer wahrzunehmen, dass eine virtuelle Schallquelle A an der Position eines virtuellen Objekts existiert.
  • Beispielsweise hat Patentliteratur 1 eine Technologie des Bestimmens einer Kopfbewegung eines Benutzers durch Verwendung eines Kreiselsensors und eines Beschleunigungssensors, an einem Head-Mounted Display montiert, und des Lokalisierens einer virtuellen Schallquelle gemäß dem Bestimmungsergebnis offenbart.
  • Entgegenhaltungsliste
  • Patentliteratur
  • Patentliteratur 1: Japanische offengelegte Patentanmeldung Nr. 2010-056589
  • Offenbarung der Erfindung
  • Technisches Problem
  • Da jedoch die Auflösung der räumlichen Wahrnehmung beim menschlichen Gehör niedrig ist, kennt der Benutzer möglicherweise eine ungefähre Richtung der virtuellen Schallquelle, kennt aber möglicherweise nicht die korrekte Richtung in einem Fall, wenn die virtuelle Schallquelle A an einem virtuellen Objekt lokalisiert ist, das sich außerhalb eines Anzeigebetrachtungswinkels in der AR-Einrichtung oder der VR-Einrichtung befindet.
  • In diesem Fall kann der Benutzer das virtuelle Objekt nicht sehen, weil der Benutzer den Blick nicht auf das virtuelle Objekt richten kann und der Anzeigebetrachtungswinkel das virtuelle Objekt nicht enthält. Deshalb entsteht ein Problem, das die Blickführung zu dem virtuellen Objekt nicht erzielt wird.
  • Angesichts der oben erwähnten Umstände besteht eine Aufgabe der vorliegenden Technologie in der Bereitstellung einer Informationsverarbeitungsvorrichtung, eines Programms und eines Informationsverarbeitungsverfahrens, durch die ein Benutzerblick schnell zu einem virtuellen Objekt geführt werden kann.
  • Lösung des Problems
  • Um die oben erwähnte Aufgabe zu lösen, enthält eine Informationsverarbeitungsvorrichtung gemäß der vorliegenden Technologie eine Bestimmungseinheit und eine Displaysteuereinheit.
  • Die Bestimmungseinheit erhält eine Position eines virtuellen Objekts relativ zu einem Displaygebiet und bestimmt, ob ein korrekturzulässiges Gebiet, das in einem von dem virtuellen Objekt V verschiedenen Gebiet gesetzt ist, mindestens einen Teil des Displaygebiets überlappt oder nicht überlappt, wenn sich das virtuelle Objekt außerhalb des Displaygebiets befindet.
  • Die Displaysteuereinheit bewirkt, dass mindestens ein Teil eines Displayobjekts, der das virtuelle Objekt in dem Displaygebiet zeigt, in einem Fall angezeigt werden soll, wenn die Bestimmungseinheit bestimmt, dass das korrekturzulässige Gebiet mindestens den Teil des Displaygebiets überlappt.
  • Mit dieser Konfiguration wird das Displayobjekt, dass das virtuelle Objekt zeigt, in dem Displaybereich angezeigt, wenn der Benutzer eine Displayeinrichtung bewegt und der Displaybereich das korrekturzulässige Gebiet überlappt. Dies gestattet, dass der Benutzer das virtuelle Objekt schnell sieht, weil das Displayobjekt angezeigt wird, bevor der Benutzer den Displaybereich korrekt auf dem virtuellen Objekt setzt.
  • Die Displaysteuereinheit kann bewirken, dass sich das virtuelle Objekt zu einer Kontaktposition bewegt, die eine Position ist, bei der das korrekturzulässige Gebiet in Kontakt mit dem Displaygebiet steht, und mindestens einen Teil des virtuellen Objekts als das Displayobjekt setzt.
  • Die Informationsverarbeitungsvorrichtung kann weiter eine Akustikverarbeitungseinheit enthalten, die eine virtuelle Schallquelle A an dem virtuellen Objekt lokalisiert, in der
    die Akustikverarbeitungseinheit die virtuelle Schallquelle gemäß der Bewegung des virtuellen Objekts bewegt, wenn die Displaysteuereinheit bewirkt, dass sich das virtuelle Objekt zu der Kontaktposition bewegt.
  • Die Displaysteuereinheit kann eine Bildkopie des virtuellen Objekts als das Displayobjekt setzen und bewirkt, dass die Bildkopie an einer Position in dem Displaygebiet angezeigt wird, wobei die Position dem virtuellen Objekt am nächsten liegt.
  • Die Displaysteuereinheit kann bewirken, dass sich die Bildkopie bewegt zur Überlagerung auf dem virtuellen Objekt, wenn sich das virtuelle Objekt in das Displaygebiet bewegt.
  • Die Displaysteuereinheit kann ein vergrößertes Bild des virtuellen Objekts erzeugen, das an dem virtuellen Objekt zentriert ist, und einen Abschnitt des vergrößerten Bilds, der in dem Displaygebiet enthalten ist, als das Displayobjekt setzt.
  • Die Displaysteuereinheit kann bewirken, dass sich das vergrößerte Bild zu dem virtuellen Objekt zusammenzieht, wenn sich das virtuelle Objekt in das Displaygebiet bewegt.
  • Die Displaysteuereinheit kann eine Einrichtung des virtuellen Objekts anzeigendes Icon als das Displayobjekt erzeugen.
  • Die Informationsverarbeitungsvorrichtung kann weiter eine Akustikverarbeitungseinheit enthalten, die eine virtuelle Schallquelle A an dem virtuellen Objekt lokalisiert, in der die Bestimmungseinheit bestimmen kann, ob das korrekturzulässige Gebiet und das Displaygebiet einander überlappen, wenn sich das virtuelle Objekt nicht innerhalb des Displaygebiets nach Verstreichen einer vorbestimmten Zeitperiode, nachdem Schall von der virtuellen Schallquelle erzeugt wird, befindet.
  • Die Informationsverarbeitungsvorrichtung kann weiter eine Akustikverarbeitungseinheit enthalten, die eine virtuelle Schallquelle A an dem virtuellen Objekt lokalisiert, bei der die Bestimmungseinheit bestimmen kann, ob das korrekturzulässige Gebiet und das Displaygebiet einander überlappen, wenn die Bewegungsgeschwindigkeit des Displaygebiets relativ zu dem virtuellen Objekt kleiner oder gleich einem vorbestimmten Wert ist, nachdem Schall von der virtuellen Schallquelle erzeugt wird.
  • Zur Lösung der oben erwähnten Aufgabe bewirkt ein Programm gemäß der vorliegenden Technologie eine Informationsverarbeitungsvorrichtung als eine Bestimmungseinheit und eine Displaysteuereinheit.
  • Die Bestimmungseinheit erhält eine Position eines virtuellen Objekts relativ zu einem Displaygebiet einer Displayeinrichtung und bestimmt, ob ein korrekturzulässiges Gebiet, das in einem von dem virtuellen Objekt V verschiedenen Gebiet gesetzt ist, mindestens einen Teil des Displaygebiets überlappt oder nicht überlappt, wenn sich das virtuelle Objekt außerhalb des Displaygebiets befindet.
  • Die Displaysteuereinheit bewirkt, dass mindestens ein Teil eines Displayobjekts, der das virtuelle Objekt in dem Displaygebiet zeigt, in einem Fall angezeigt wird, wenn die Bestimmungseinheit bestimmt, dass das korrekturzulässige Gebiet mindestens den Teil des Displaygebiets überlappt.
  • Um die oben erwähnte Aufgabe zu lösen, beinhaltet ein Informationsverarbeitungsverfahren gemäß der vorliegenden Technologie das Erhalten, durch eine Bestimmungseinheit, einer Position eines virtuellen Objekts relativ zu einem Displaygebiet einer Displayeinrichtung und bestimmt, ob ein korrekturzulässiges Gebiet, das in einem von dem virtuellen Objekt V verschiedenen Gebiet gesetzt ist, mindestens einen Teil des Displaygebiets überlappt oder nicht überlappt, wenn sich das virtuelle Objekt außerhalb des Displaygebiets befindet.
  • Die Displaysteuereinheit bewirkt, dass mindestens ein Teil eines Displayobjekts, der das virtuelle Objekt in dem Displaygebiet zeigt, in einem Fall angezeigt wird, wenn die Bestimmungseinheit bestimmt, dass das korrekturzulässige Gebiet mindestens den Teil des Displaygebiets überlappt.
  • Vorteilhafte Effekte der Erfindung
  • Wie oben beschrieben, ist es gemäß der vorliegenden Technologie möglich, eine Informationsverarbeitungsvorrichtung, ein Programm und ein Informationsverarbeitungsverfahren bereitzustellen, durch die ein Benutzerblick schnell zu einem virtuellen Objekt geführt werden kann. Es sei angemerkt, dass die hier beschriebenen Effekte nicht notwendigerweise begrenzend sind und jeder in der vorliegenden Offenbarung beschriebene Effekt bereitgestellt werden kann.
  • Figurenliste
    • [1] Ein Schemadiagramm einer Informationsverarbeitungsvorrichtung gemäß einer Ausführungsform der vorliegenden Technologie.
    • [2] Ein Blockdiagramm, das funktionale Konfigurationen der Informationsverarbeitungsvorrichtung zeigt.
    • [3] Ein Schemadiagramm eines virtuellen Objekts, durch eine in der Informationsverarbeitungsvorrichtung bereitgestellte Displaysteuereinheit angeordnet.
    • [4] Ein Schemadiagramm eines Displayobjekts, durch eine in der Informationsverarbeitungsvorrichtung bereitgestellte Displayeinheit angezeigt.
    • [5] Ein Schemadiagramm einer virtuellen Schallquelle, die bei einem virtuellen Objekt durch eine Akustikverarbeitungseinheit lokalisiert wird, die in der Informationsverarbeitungsvorrichtung bereitgestellt ist.
    • [6] Ein Schemadiagramm eines korrekturzulässigen Gebiets, durch eine in der Informationsverarbeitungsvorrichtung bereitgestellte Bestimmungseinheit gesetzt.
    • [7] Schemadiagramm einer Blickführung zu einem virtuellen Objekt durch die Informationsverarbeitungsvorrichtung.
    • [8] Ein Schemadiagramm einer Kontaktbestimmungsverarbeitung durch die durch die Informationsverarbeitungsvorrichtung bereitgestellte Bestimmungseinheit.
    • [9] Ein Schemadiagramm einer Kontaktbestimmungsverarbeitung durch die durch die Informationsverarbeitungsvorrichtung bereitgestellte Bestimmungseinheit.
    • [10] Schemadiagramm, das eine Bewegung des virtuellen Objekts durch die in der Informationsverarbeitungsvorrichtung bereitgestellte Displaysteuereinheit zeigt.
    • [11] Schemadiagramm eines Displayobjekts, durch die in der Informationsverarbeitungsvorrichtung bereitgestellte Displaysteuereinheit erzeugt.
    • [12] Schemadiagramm, das eine Bewegung des virtuellen Objekts durch die in der Informationsverarbeitungsvorrichtung bereitgestellte Displaysteuereinheit zeigt.
    • [13] Ein Flussdiagramm, das eine Operation der Informationsverarbeitungsvorrichtung zeigt.
    • [14] Ein Schemadiagramm eines Displayobjekts (Bildkopie), durch die in der Informationsverarbeitungsvorrichtung bereitgestellte Displaysteuereinheit erzeugt.
    • [15] Ein Schemadiagramm eines Displayobjekts (vergrößertes Bild), durch die in der Informationsverarbeitungsvorrichtung bereitgestellte Displaysteuereinheit erzeugt.
    • [16] Ein Schemadiagramm eines Displayobjekts (Vorschlagsfigur), durch die in der Informationsverarbeitungsvorrichtung bereitgestellte Displaysteuereinheit erzeugt.
    • [17] Ein Blockdiagramm, das Hardwarekonfigurationen der Informationsverarbeitungsvorrichtung zeigt. Modus/Modi zum Ausführen der Erfindung
  • Es wird eine Informationsverarbeitungsvorrichtung gemäß der vorliegenden Ausführungsform beschrieben.
  • [Konfiguration der Informationsverarbeitungsvorrichtung]
  • 1 ist ein Schemadiagramm einer Informationsverarbeitungsvorrichtung 100 gemäß der vorliegenden Ausführungsform. Wie in der Figur gezeigt, kann die Informationsverarbeitungsvorrichtung 100 ein Head-Mounted Display (HMD) sein, das an dem Kopf eines Benutzers U montiert sein kann. Weiterhin ist die Informationsverarbeitungsvorrichtung 100 nicht auf das HMD beschränkt und kann eine Elektronikvorrichtung einschließlich einem Display wie etwa Smartphone sein.
  • Die Informationsverarbeitungsvorrichtung 100 enthält Displays 101, Lautsprecher 102 und einen Sensor 103.
  • Die Displays 101 sind Displayeinrichtungen, die vor den Benutzeraugen angeordnet sind, und können transmissive Displays oder nichttransmissive Displays sein.
  • Die Lautsprecher 102 sind direkt an den Benutzerohren oder in der Nähe der Ohren angebracht und geben Schall aus. Die Lautsprecher 102 können Kopfhörer oder dergleichen sein, die mit der Informationsverarbeitungsvorrichtung 100 verbunden sind.
  • Der Sensor 103 detektiert eine Richtung der Informationsverarbeitungsvorrichtung 100. Der Sensor 103 ist ein Kreiselsensor, ein Beschleunigungssensor oder dergleichen und muss nur in der Lage sein, die Richtung der Informationsverarbeitungsvorrichtung 100 zu detektieren. Weiter kann der Sensor 103 ein Bildsensor zum Aufnehmen eines Bilds sein, auf Basis dessen die Richtung der Informationsverarbeitungsvorrichtung 100 berechnet werden kann.
  • 2 ist ein Blockdiagramm, das funktionale Konfigurationen der Informationsverarbeitungsvorrichtung 100 zeigt.
  • Wie in der Figur gezeigt, enthält die Informationsverarbeitungsvorrichtung 100 eine Richtungsdetektionsverarbeitungseinheit 111, Displaysteuereinheit 112, a Displayeinheit 113, eine Akustikverarbeitungseinheit 114, eine Schallausgabeeinheit 115 und eine Bestimmungseinheit 116.
  • Die Richtungsdetektionsverarbeitungseinheit 111 ist mit dem Sensor 103 verbunden und detektiert die Richtung der Informationsverarbeitungsvorrichtung 100 auf Basis der Ausgabe des Sensors 103. Die Richtungsdetektionsverarbeitungseinheit 111 liefert die detektierte Richtung der Informationsverarbeitungsvorrichtung 100 an die Displaysteuereinheit 112, die Akustikverarbeitungseinheit 114 und die Bestimmungseinheit 116.
  • Die Displaysteuereinheit 112 erzeugt ein auf den Displays 101 anzuzeigendes Bild (im Folgenden Displaybild). Die Displaysteuereinheit 112 ordnet ein virtuelles Objekt auf Basis der Richtung der Informationsverarbeitungsvorrichtung 100, durch die Richtungsdetektionsverarbeitungseinheit 111 detektiert, an.
  • 3 ist ein Schemadiagramm, dass den Benutzer U zeigt, der die Informationsverarbeitungsvorrichtung 100 trägt, und einen Sichtfeldbereich H, der ein Bereich ist, den der Benutzer U durch die Displays 101 sieht. Die Displaysteuereinheit 112 ordnet ein virtuelles Objekt V an einer vorbestimmten Position bezüglich der Informationsverarbeitungsvorrichtung 100 an, wie in der Figur gezeigt. Die Gestalt und Anzahl des virtuellen Objekts V sind nicht besonders beschränkt. Die Displaysteuereinheit 112 liefert das erzeugte Displaybild an die Displayeinheit 113 und liefert die Position des virtuellen Objekts V an die Bestimmungseinheit 116.
  • Die Displayeinheit 113 liefert das durch die Displaysteuereinheit 112 erzeugte Displaybild an die Displays 101, um es anzuzeigen. 4 ist ein Schemadiagramm, das ein in einem Displaygebiet R der Displays 101 angezeigtes Displaybild zeigt. Wie in 4 gezeigt, erzeugt die Displaysteuereinheit 112 ein Displaybild einschließlich einem Displayobjekt P, und die Displayeinheit 113 zeigt dieses Displaybild in dem Displaygebiet R an.
  • Wenn der Benutzer U das in dem Displaygebiet R angezeigte Displayobjekt P sieht, kann der Benutzer U erkennen, dass das virtuelle Objekt V an der vorbestimmten Position existiert, wie in 3 gezeigt.
  • Wenn sich andererseits das virtuelle Objekt außerhalb des Sichtfeldbereichs H des Benutzers U befindet, wird das Displayobjekt P nicht in dem Displaybereich R angezeigt und der Benutzer U kann das virtuelle Objekt V nicht sehen.
  • Die Akustikverarbeitungseinheit 114 führt eine Akustikverarbeitung derart durch, dass die virtuelle Schallquelle A an der vorbestimmten Position existiert, und liefert das Ergebnis der Verarbeitung an die Schallausgabeeinheit 115. Die Akustikverarbeitungseinheit 114 ist in der Lage, die virtuelle Schallquelle unter Verwendung einer kopfbezogenen Transferfunktion (HRTF) zu lokalisieren.
  • Die Schallausgabeeinheit 115 liefert ein von der Akustikverarbeitungseinheit 114 geliefertes Audiosignal an die Lautsprecher 102 und bewirkt, dass die Lautsprecher 102 Schall erzeugen.
  • 5 ist ein Schemadiagramm, das eine Lokalisierung der virtuellen Schallquelle durch die Akustikverarbeitungseinheit 114 zeigt. Wie in der Figur gezeigt, ist die Akustikverarbeitungseinheit 114 in der Lage, eine virtuelle Schallquelle A an der Position des virtuellen Objekts V zu lokalisieren. In diesem Fall kann der Benutzer das virtuelle Objekt V wahrnehmen, als wenn es eine Schallquelle wäre.
  • Die Bestimmungseinheit 116 setzt ein korrekturzulässiges Gebiet (Kollidierer) in einem von dem virtuellen Objekt V verschiedenen Gebiet. Das von dem virtuellen Objekt V verschiedene Gebiet kann beispielsweise ein Gebiet um das virtuelle Objekt V oder ein von dem virtuellen Objekt V getrenntes Gebiet sein. 5 ist ein Schemadiagramm, das ein korrekturzulässiges Gebiet C zeigt, das um das virtuelle Objekt V gesetzt ist.
  • Das korrekturzulässige Gebiet C ist ein dreidimensionales Gebiet, das in dem von dem virtuellen Objekt V verschiedenen Gebiet gesetzt ist, und kann ein kubischer Bereich sein, der das virtuelle Objekt C umgibt. Weiter kann das korrekturzulässige Gebiet C ein sphärischer Bereich sein, der das virtuelle Objekt V umgibt, oder er kann eine andere Gestalt aufweisen. Die Größe des korrekturzulässigen Gebiets C relativ zu dem virtuellen Objekt V ist nicht besonders beschränkt.
  • Die Bestimmungseinheit 116 führt eine Kontaktbestimmungsverarbeitung auf Basis der Richtung der Informationsverarbeitungsvorrichtung 100, von der Richtungsdetektionsverarbeitungseinheit 111 geliefert, und der Position des virtuellen Objekts V, von der Displaysteuereinheit 112 geliefert, durch und liefert die Verarbeitungsergebnisse an die Displaysteuereinheit 112 und die Akustikverarbeitungseinheit 114. Einzelheiten der Kontaktbestimmungsverarbeitung werden später beschrieben.
  • Die Informationsverarbeitungsvorrichtung 100 weist die Konfiguration wie oben beschrieben auf. Die oben erwähnten funktionalen Konfigurationen der Informationsverarbeitungsvorrichtung 100 können alle in dem HMD installiert sein, oder möglicherweise sind nur einige von ihnen in dem HMD installiert, und die anderen Konfigurationen können in einer anderen mit dem HMD verbundenen Informationsverarbeitungsvorrichtung installiert sein, wie etwa einem Smartphone und einem Server.
  • Beispielsweise ist auch eine Konfiguration möglich, in der die Richtungsdetektionsverarbeitungseinheit 111, die Displayeinheit 113 und die Schallausgabeeinheit 115 in dem HMD installiert sind und die Displaysteuereinheit 112, die Akustikverarbeitungseinheit 114 und die Bestimmungseinheit 116 in dem Server oder dergleichen installiert sind. In diesem Fall kommunizieren die Displaysteuereinheit 112, die Akustikverarbeitungseinheit 114 und die Bestimmungseinheit 116 mit der Richtungsdetektionsverarbeitungseinheit 111, der Displayeinheit 113 und der Schallausgabeeinheit 115 über eine Kommunikationseinheit, so dass die oben erwähnten funktionalen Konfigurationen realisiert werden können.
  • [Operation der Informationsverarbeitungsvorrichtung]
  • Als Nächstes wird eine Operation der Informationsverarbeitungsvorrichtung 100 beschrieben. 7 ist ein Schemadiagramm, das die Operation der Informationsverarbeitungsvorrichtung 100 zeigt.
  • Wie in 7(a) gezeigt, lokalisiert die Informationsverarbeitungsvorrichtung 100 die virtuelle Schallquelle A an dem virtuellen Objekt V, wenn der Sichtfeldbereich H des Benutzers U zu dem virtuellen Objekt V in einem Zustand geführt wird, in dem der Sichtfeldbereich H des Benutzers U in einer Richtung, die von einer Richtung D1 verschieden ist, in der das virtuelle Objekt V existiert, orientiert ist.
  • Wenn der Benutzer U die Richtung D1, in der die virtuelle Schallquelle A existiert, genau erkennt und den Sichtfeldbereich H in der Richtung D1 bewegt, wird das Displayobjekt P in dem Displaybereich R (siehe 3) angezeigt und der Benutzer U kann das virtuelle Objekt V sehen.
  • Die Auflösung der räumlichen Wahrnehmung im menschlichen Gehör hat jedoch eine Beschränkung und die Richtung der virtuellen Schallquelle A wird möglicherweise nicht präzise erkannt.
  • 7(b) ist ein Schemadiagramm, das einen Zustand zeigt, in der die Richtung D1 der virtuellen Schallquelle A, durch die Informationsverarbeitungsvorrichtung 100 erzeugt, von einer Richtung D2 der virtuellen Schallquelle A, die durch den Benutzer U erkannt wird, verschieden ist. Wie in der Figur gezeigt, bewegt der Benutzer U den Sichtfeldbereich H in der Richtung D2, in der der Benutzer U erkennt, dass die virtuelle Schallquelle A existiert, und in Wirklichkeit bewegt der der Benutzer U den Sichtfeldbereich H in einer Richtung, in der die virtuelle Schallquelle A nicht existiert.
  • In diesem Fall wird das Displayobjekt P nicht in dem Displaybereich R angezeigt, und der Benutzer U kann das virtuelle Objekt V nicht sehen. Deshalb muss der Benutzer U nach dem virtuellen Objekt V suchen, und eine Blickführung wird nicht erzielt.
  • Insbesondere in den vergangenen Jahren ist die Genauigkeit der Lokalisierung der virtuellen Schallquelle verbessert worden, und es wurde möglich, die virtuelle Schallquelle selbst bei einem kleinen virtuellen Objekt korrekt zu lokalisieren. Falls der Sichtfeldbereich nicht genau auf das virtuelle Objekt V gesetzt ist, ist das virtuelle Objekt V deshalb oftmals nicht sichtbar.
  • Weiterhin können andere Gründe, weshalb der Benutzer U die Richtung der virtuellen Schallquelle A nicht genau erkennen kann, eine Differenz bei der kopfbezogenen Transferfunktion aufgrund eines Offset der Lautsprecher 102 oder dergleichen, ein Fehler bei der Lokalisierung der virtuellen Schallquelle Aufgrund der Verwendung einer kopfbezogenen Allzwecktransferfunktion und dergleichen sein.
  • Wie oben beschrieben, beschäftigt sich die Informationsverarbeitungsvorrichtung 100 mit einem Fall, wo die tatsächliche Richtung der virtuellen Schallquelle A von der Richtung der durch den Benutzer U erkannten virtuellen Schallquelle A differiert, wie folgt.
  • [Bezüglich Kontaktbestimmungsverarbeitung]
  • Wenn das virtuelle Objekt V nicht in den Sichtfeldbereich H fällt, führt die Bestimmungseinheit 116 eine Kontaktbestimmungsverarbeitung durch.
  • Die Bestimmungseinheit 116 kann eine Kontaktbestimmungsverarbeitung zu der Zeit durchführen, wenn der Schall von der virtuellen Schallquelle A erzeugt wird, oder kann eine Kontaktbestimmungsverarbeitung durchführen, wenn das virtuelle Objekt V nicht in den Sichtfeldbereich H fällt, selbst nachdem eine vorbestimmte Zeitperiode verstreicht, nachdem der Schall erzeugt wird.
  • 8 bis 10 sind Schemadiagramme, die die Kontaktbestimmungsverarbeitung zeigen. Wie in 8(a) gezeigt, bewegt der Benutzer U den Sichtfeldbereich H in der Richtung der virtuellen Schallquelle A als Reaktion auf den Schall (Pfeil in der Figur), wenn die Informationsverarbeitungsvorrichtung 100 die virtuelle Schallquelle A an dem virtuellen Objekt V lokalisiert.
  • 8(b) ist ein Schemadiagramm, das eine virtuelle Positionsbeziehung zwischen dem Displaygebiet R und dem virtuellen Objekt V auf der gleichen Ebene wie das Displaygebiet R zu dieser Zeit zeigt. Das Displaygebiet R bewegt sich zu dem virtuellen Objekt V, während sich der Sichtfeldbereich H bewegt (Pfeil in der Figur).
  • Die Bestimmungseinheit 116 bestimmt, ob das korrekturzulässige Gebiet C und das Displaygebiet R einander überlappen oder nicht. Die Bestimmungseinheit 116 kann eine zweidimensionale Größe des korrekturzulässigen Gebiets C auf der gleichen Ebene wie der Displaybereich R bestimmen und bestimmen, ob der Displaybereich R und das korrekturzulässige Gebiet C einander mindestens teilweise überlappen.
  • 9(a) und 9(b) zeigen jeweils einen Zustand, in dem der Benutzer U den Sichtfeldbereich H weiter bewegt und der Displaybereich R ist in Kontakt mit dem korrekturzulässigen Gebiet C und 9(b) zeigt eine Kontaktposition T, die eine Kontaktposition ist, bei der der Displaybereich R in Kontakt mit dem korrekturzulässigen Gebiet C steht. Wenn der Displaybereich R in Kontakt mit dem korrekturzulässigen Gebiet C kommt, wie in 9(b) gezeigt, benachrichtigt die Bestimmungseinheit 116 die Displaysteuereinheit 112 über die Koordinaten der Kontaktposition T.
  • Wenn die Displaysteuereinheit 112 über die Koordinaten der Kontaktposition T durch die Bestimmungseinheit 116 benachrichtigt wird, bewegt die Displaysteuereinheit 112 das virtuelle Objekt V zu den Koordinaten der Kontaktposition T. Di 10(a) und 10(b) zeigen jeweils einen Zustand, in dem das virtuelle Objekt V zu den Koordinaten der Kontaktposition T bewegt wird. Es sei angemerkt, dass die Kontaktposition T von der in 9(b) in dem Displaybereich R gezeigten Position durch die Bewegung des Sichtfeldbereichs H bewegt worden ist.
  • Weiterhin bewegt, wie in 10(a) und 10(b) gezeigt, die Akustikverarbeitungseinheit 114 die virtuelle Schallquelle A gemäß dem bewegten virtuellen Objekt V.
  • 11 ist ein Schemadiagramm, das das in dieser Zeit in dem Displaybereich R angezeigte Displayobjekt P zeigt. Wie in der Figur gezeigt, wird ein Abschnitt (Abschnitt in der Figur mit durchgezogener Linie) des durch die Displaysteuereinheit 112 bewegten virtuellen Objekts V, der das Displaygebiet R überlappt, in dem Displaygebiet R als das Displayobjekt P angezeigt. Es sei angemerkt, dass die Displaysteuereinheit 112 weiter das virtuelle Objekt V zu dem Displaybereich R bewegen und das ganze virtuelle Objekt V als das Displayobjekt P in dem Displaybereich R anzeigenkann. Weiterhin kann die Displaysteuereinheit 112 bewirken, dass nur ein Teil des Displayobjekts P in dem Displaybereich R angezeigt wird.
  • Somit kann der Benutzer U das virtuelle Objekt V sehen, d.h. die Blickführung zu dem virtuellen Objekt V wird erzielt.
  • Es sei angemerkt, dass, wenn die Akustikverarbeitungseinheit 114 die virtuelle Schallquelle A bewegt, während der Benutzer U den Sichtfeldbereich H bewegt, die Akustikverarbeitungseinheit 114 Unbehagen für den Benutzer U reduzieren kann. Weiter kann die Akustikverarbeitungseinheit 114 Unbehagen reduzieren durch Reduzieren der Bewegungsgeschwindigkeit der virtuellen Schallquelle A, wenn der Sichtfeldbereich H nicht bewegt wird.
  • Weiterhin bewegt die Akustikverarbeitungseinheit 114 nicht die virtuelle Schallquelle A zusammen mit dem virtuellen Objekt V. Die 12(a) und 12(b) sind Schemadiagramme, die jeweils einen Fall zeigen, wo sich nur das virtuelle Objekt V bewegt. Wenn der Displaybereich R in Kontakt mit dem korrekturzulässigen Gebiet C kommt, wie in der Figur gezeigt, kann die Displaysteuereinheit 112 das virtuelle Objekt V bewegen und die Akustikverarbeitungseinheit 114 kann die Position der virtuellen Schallquelle A beibehalten.
  • Wenn weiter die ursprünglichen Koordinaten des virtuellen Objekts V in den Sichtfeldbereich H fallen, nach die Displaysteuereinheit 112 Koordinaten des virtuellen Objekts V bewegt, kann die Displaysteuereinheit 112 das virtuelle Objekt V zu den ursprünglichen Koordinaten zurückkehren. In diesem Fall kann auch die Akustikverarbeitungseinheit 114 die virtuelle Schallquelle A zu den ursprünglichen Koordinaten des virtuellen Objekts V zurückkehren.
  • 13 ist ein Flussdiagramm, das eine Operation der Informationsverarbeitungsvorrichtung 100 zeigt. Wie in der Figur gezeigt, ordnet die Informationsverarbeitungsvorrichtung 100 das virtuelle Objekt V an vorbestimmten Koordinaten gemäß der Anweisung der Informationsverarbeitungsvorrichtung 100 und lokalisiert die virtuelle Schallquelle A an dem virtuellen Objekt V und gibt Schall aus (St101).
  • Als Nächstes führt die Bestimmungseinheit 116 eine Kontaktbestimmungsverarbeitung durch (St102). Wenn sich das korrekturzulässige Gebiet C nicht in Kontakt mit dem Displaybereich R befindet (Nein in St102), hält die Informationsverarbeitungsvorrichtung 100 das virtuelle Objekt V an den vorbestimmten Koordinaten angeordnet und bewirkt, dass die virtuelle Schallquelle A Schallt ausgibt (St101).
  • Wenn das korrekturzulässige Gebiet C in Kontakt mit dem Displaygebiet R kommt (Ja in St102), bewegt die Displaysteuereinheit 112 das virtuelle Objekt V zu Kontaktkoordinaten, bei denen das Displaygebiet R in Kontakt mit dem korrekturzulässigen Gebiet C (St103). Somit wird das Displayobjekt P in dem Displaybereich R angezeigt. Weiter bewegt die Akustikverarbeitungseinheit 114 die virtuelle Schallquelle A zu den Koordinaten des bewegten virtuellen Objekts V (St104).
  • Danach bewirkt die Displaysteuereinheit 112, dass das Displayobjekt P in dem Displaybereich R gemäß dem bewegten virtuellen Objekt V und der Anweisung der Informationsverarbeitungsvorrichtung 100 angezeigt wird. Es sei angemerkt, dass die Akustikverarbeitungseinheit 114 die virtuelle Schallquelle A an der ursprünglichen Position des virtuellen Objekts V beibehalten kann, wie oben beschrieben, und St104 muss nicht notwendigerweise durchgeführt werden.
  • [Bezüglich Modus der Kontaktbestimmungsverarbeitung]
  • Wie oben beschrieben, setzt die Bestimmungseinheit 116 das korrekturzulässige Gebiet C in einem von dem virtuellen Objekt V verschiedenen Gebiet. In einem Fall, wenn mehrere virtuelle Objekte V existieren, kann das korrekturzulässige Gebiet C für alle die virtuellen Objekte V gesetzt werden.
  • Weiterhin kann die Bestimmungseinheit 116 das korrekturzulässige Gebiet C nur auf einige der virtuellen Objekts V setzen, beispielsweise das virtuelle Objekt V mit geringer Sichtbarkeit oder das virtuelle Objekt V, das dem Benutzer besonders empfohlen wird, zu sehen. Das virtuelle Objekt V mit niedriger Sichtbarkeit ist ein virtuelles Objekt von geringer Größe, weist eine geringe Luminanz auf oder weist eine hohe Transparenz auf, als Beispiel.
  • Weiterhin kann die Bestimmungseinheit 116 die Größe des korrekturzulässigen Gebiets C gemäß der Sichtbarkeit des virtuellen Objekts V setzen. Wenn beispielsweise das virtuelle Objekt V von geringer Größe ist, kann das korrekturzulässige Gebiet C von der Größe her vergrößert werden, und wenn das virtuelle Objekt V eine große Größe aufweist, kann das korrekturzulässige Gebiet C von der Größe her verkleinert werden.
  • Weiterhin kann die Bestimmungseinheit 116 die Kontaktbestimmungsverarbeitung möglicherweise nur dann durchführen, wenn der Benutzer nicht sofort das virtuelle Objekt V finden kann. Beispielsweise kann die Bestimmungseinheit 116 die Kontaktbestimmungsverarbeitung nur dann durchführen, wenn das virtuelle Objekt V nicht in den Sichtfeldbereich H nach Verstreichen einer vorbestimmten Zeitperiode fällt, nachdem der Schall von virtuellen Schallquelle A erzeugt wird.
  • Alternativ kann die Bestimmungseinheit 116 die Kontaktbestimmungsverarbeitung möglicherweise nur dann durchführen, wenn die Bewegungsgeschwindigkeit des Displaygebiets R kleiner oder gleich einem vorbestimmten Wert ist, d.h. wenn der Benutzer U den Sichtfeldbereich H nicht schnell auf das virtuelle Objekt V setzen kann, nachdem der Schall von der virtuellen Schallquelle A erzeugt wird.
  • Dies gestattet, dass der Benutzer U die Position des virtuellen Objekts V, bei dem die virtuelle Schallquelle A lokalisiert ist, genau erkennt, und die Kontaktbestimmungsverarbeitung, das heißt die Bewegung der Koordinaten des virtuellen Objekts V, kann selbst dann verhindert werden, wenn der Benutzer U den Sichtfeldbereich H bewegt.
  • Weiterhin kann die Bestimmungseinheit 116 die Kontaktbestimmungsverarbeitung gemäß der Art der virtuellen Schallquelle A durchführen. Beispielsweise kann die Bestimmungseinheit 116 daran gehindert werden, die Kontaktbestimmungsverarbeitung durchzuführen, wenn die virtuelle Schallquelle A und das virtuelle Objekt V gemeinsame Bilder aufweisen (wenn z.B. das virtuelle Objekt V eine Flasche ist und die virtuelle Schallquelle A ein Wassergeräusch ist), und die Bestimmungseinheit 116 kann die Kontaktbestimmungsverarbeitung möglicherweise nur dann durchführen, wenn die virtuelle Schallquelle ! und das virtuelle Objekt V unterschiedliche Bilder aufweisen.
  • Weiterhin kann die Bestimmungseinheit 116 die Kontaktbestimmungsverarbeitung gemäß der Position der virtuellen Schallquelle A durchführen. Wenn beispielsweise die virtuelle Schallquelle A auf einer Mittellinienebene einer Person positioniert ist (Ebene in der gleichen Distanz von dem rechten und linken Ohr), wird es schwierig, die Position der virtuellen Schallquelle A wahrzunehmen. Deshalb kann die Bestimmungseinheit 116 die Kontaktbestimmungsverarbeitung möglicherweise nur dann durchführen, wenn sich das virtuelle Objekt V, an dem die virtuelle Schallquelle A lokalisiert ist, auf der Mittellinienebene oder nahe der Mittellinienebene befindet.
  • Weiter kann die Bestimmungseinheit 116 die Kontaktbestimmungsverarbeitung gemäß der Frequenz der die virtuelle Schallquelle A bildenden Schalls durchführen. Da die Richtwirkung eines Tiefenschalls allgemein geringer ist als die Richtwirkung eines hohen Schalls, ist es schwierig, die Richtung der virtuellen Schallquelle A zu erkennen, wenn der die virtuelle Schallquelle A bildende Schall ein tiefer Schall ist. Deshalb kann die Bestimmungseinheit 116 die Kontaktbestimmungsverarbeitung möglicherweise nur dann durchführen, wenn die Frequenz des die virtuelle Schallquelle A bildenden Schalls unter einem vorbestimmten Wert liegt.
  • [Bezüglich Displayobjekt]
  • Wie oben beschrieben, ist die Displaysteuereinheit 112 in der Lage, das virtuelle Objekt V zu den Koordinaten zu bewegen, bei denen das Displaygebiet R mit dem korrekturzulässigen Gebiet C in der Kontaktbestimmungsverarbeitung in Kontakt steht, und das Displayobjekt P in dem Displaygebiet R anzuzeigen (siehe 11).
  • Hier kann die Displaysteuereinheit 112 ein Displayobjekt erzeugen, das die Position des virtuellen Objekts V anzeigt, ohne das virtuelle Objekt V zu bewegen, wenn das Displaygebiet R in Kontakt mit dem korrekturzulässigen Gebiet C kommt.
  • Die 14 bis 16 sind Schemadiagramme, die verschiedene, durch die Displaysteuereinheit 112 erzeugte Displayobjekte zeigen.
  • Wenn das Displaygebiet R in Kontakt mit dem korrekturzulässigen Gebiet C kommt, wie in 14(a) gezeigt, kann die Displaysteuereinheit 112 bewirken, dass eine Bildkopie P1, die ein durch Kopieren des virtuellen Objekt V erhaltenes Bild ist, als ein Displayobjekt ohne Bewegen des virtuellen Objekt V angezeigt wird.
  • Die Bildkopie P1 ist beispielsweise ein Bild, das erhalten wird, indem das virtuelle Objekt V halbtransparent oder verschwommen gemacht wird, und es ist ein Bild, das es dem Benutzer ermöglicht zu erkennen, dass es nicht das virtuelle Objekt V selbst ist. Die Position der Bildkopie P1 ist günstigerweise eine Position in dem Displaygebiet R, wobei die Position dem virtuellen Objekt V am nächsten liegt.
  • Der Benutzer kann erkennen, dass das virtuelle Objekt V in der Richtung der Bildkopie P1 liegt, in dem er die Bildkopie P1 ansieht.
  • Wenn sich weiter der Benutzer auf die Bildkopie P1 bezieht und den Sichtfeldbereich H auf das virtuelle Objekt V setzt, ist die Displaysteuereinheit 112 in der Lage, die Bildkopie P1 derart zu bewegen, dass die Bildkopie P1 dem Displayobjekt P überlagert ist, dass das Bild des virtuellen Objekts V selbst ist (Pfeil in der Figur). Dies gestattet dem Benutzer, das virtuelle Objekt V zu erkennen, dass die Bildkopie P1 selbst ist.
  • Wenn das Displaygebiet R weiter in Kontakt mit dem korrekturzulässigen Gebiet C kommt, wie in 15(a) gezeigt, kann die Displaysteuereinheit 112 ein vergrößertes Bild W, das ein durch Vergrößern des virtuellen Objekt V erhaltenes Bild ist, um das virtuelle Objekt V herum anordnen, ohne das virtuelle Objekt V zu bewegen. Ein vergrößertes Bild P2, das ein Abschnitt des vergrößerten Bilds W ist, das in dem Displaygebiet R enthalten ist, wird auf dem Displaygebiet R als ein Displayobjekt angezeigt.
  • Das vergrößerte Bild P2 ist beispielsweise ein Bild, das erhalten wird, indem das virtuelle Objekt V halbtransparent oder verschwommen gemacht wird, und es ist ein Bild, das es dem Benutzer ermöglicht zu erkennen, dass es nicht das virtuelle Objekt V selbst ist. Der Benutzer kann erkennen, dass das virtuelle Objekt V in der Richtung der Mitte des vergrößerten Bilds P2 existiert, indem er das vergrößerte Bild P2 betrachtet.
  • Wenn sich der Benutzer weiter auf das vergrößerte Bild P2 bezieht und den Sichtfeldbereich H auf das virtuellen Objekt V setzt, ist die Displaysteuereinheit 112 in der Lage, das vergrößerte Bild P2 zu verformen, indem das vergrößerte Bild P2 auf das Displayobjekt P zusammengezogen wird, das das Bild des virtuellen Objekts V selbst ist (Pfeil in der Figur). Dies gestattet dem Benutzer, das virtuelle Objekt V zu erkennen, das das vergrößerte Bild P2 selbst ist.
  • Wenn das Displaygebiet R weiter in Kontakt mit dem korrekturzulässigen Gebiet C kommt, wie in 16 gezeigt, kann die Displaysteuereinheit 112 möglicherweise bewirken, dass ein die Richtung des virtuellen Objekts V anzeigendes Icon als das Displayobjekt P3 angezeigt wird, ohne das virtuelle Objekt V zu bewegen. Das Displayobjekt P3 kann eine Pfeilgestalt aufweisen, wie in 16 gezeigt, als Beispiel. Weiterhin kann das Displayobjekt P3 eine andere Gestalt aufweisen, die das virtuelle Objekt V anzeigt.
  • Der Benutzer kann erkennen, dass das virtuelle Objekt V in der durch das Displayobjekt P3 angezeigten Richtung existiert, indem er das Displayobjekt P3 betrachtet.
  • [Bezüglich Hardwarekonfigurationen]
  • Die funktionalen Konfigurationen der oben beschriebenen Informationsverarbeitungsvorrichtung 100 können durch Zusammenarbeit von Hardware und Programmen realisiert werden.
  • 17 ist ein Schemadiagramm, das Hardwarekonfigurationen der Informationsverarbeitungsvorrichtung 100 zeigt. Wie in 16 gezeigt, enthält die Informationsverarbeitungsvorrichtung 100 eine CPU 1001, eine GPU 1002, einen Speicher 1003, eine Ablage 1004 und eine Eingabe-/Ausgabeeinheit (E/A) 1005 als Hardwarekonfigurationen. Jene sind durch einen Bus 1006 miteinander verbunden.
  • Die zentrale Verarbeitungseinheit (CPU) 1001 steuert die anderen Konfigurationen gemäß in dem Speicher 1003 gespeicherten Programmen, führt eine Datenverarbeitung gemäß den Programmen durch und speichert Verarbeitungsergebnisse in dem Speicher 1003. Die CPU 1001 kann ein Mikroprozessor sein.
  • Die Graphikverarbeitungseinheit (GPU) 1002 führt eine Bildverarbeitung unter der Steuerung der CPU 1001 durch. Die GPU 1002 kann ein Mikroprozessor sein.
  • Der Speicher 1003 speichert Programme und Daten zur Ausführung durch die CPU 1001. Der Speicher 1003 kann ein Direktzugriffsspeicher (RAM) sein.
  • Die Ablage 1004 speichert Programme und Daten. Die Ablage 1004 kann ein Festplattenlaufwert (HDD) oder ein Solid-State-Laufwerk (SSD) sein.
  • Die Eingabe-/Ausgabeeinheit 1005 empfängt eine Eingabe zu der Informationsverarbeitungsvorrichtung 100 und liefert eine Ausgabe der Informationsverarbeitungsvorrichtung 100 an eine externe Einrichtung. Die Eingabe-/Ausgabeeinheit 1005 enthält eine Eingabeeinrichtung wie etwa ein Touchpanel und eine Tastatur, eine Ausgabeeinrichtung wie etwa ein Display und eine Verbindungsschnittstelle wie etwa ein Netzwerk.
  • Die Hardwarekonfigurationen der Informationsverarbeitungsvorrichtung 100 sind nicht auf jene hier gezeigten beschränkt und brauchen nur die funktionalen Konfigurationen der Informationsverarbeitungsvorrichtung 100 zu realisieren. Weiter können sich einige oder alle der oben erwähnten Hardwarekonfigurationen in einem Netzwerk befinden.
  • Es sei angemerkt, dass die vorliegende Technologie auch die folgenden Konfigurationen annehmen kann.
    1. (1) Eine Informationsverarbeitungsvorrichtung, enthaltend:
      • eine Bestimmungseinheit, die eine Position eines virtuellen Objekts relativ zu einem Displaygebiet erhält und bestimmt, ob ein korrekturzulässiges Gebiet, das in einem von dem virtuellen Objekt V verschiedenen Gebiet gesetzt ist, mindestens einen Teil des Displaygebiets überlappt oder nicht überlappt, wenn sich das virtuelle Objekt außerhalb des Displaygebiets befindet; und
      • eine Displaysteuereinheit, die bewirkt, dass mindestens ein Teil eines Displayobjekts, der das virtuelle Objekt in dem Displaygebiet zeigt, in einem Fall angezeigt werden soll, wenn die Bestimmungseinheit bestimmt, dass das korrekturzulässige Gebiet mindestens den Teil des Displaygebiets überlappt.
    2. (2) Die Informationsverarbeitungsvorrichtung nach (1), bei der die Displaysteuereinheit bewirkt, dass sich das virtuelle Objekt zu einer Kontaktposition bewegt, die eine Position ist, bei der das korrekturzulässige Gebiet in Kontakt mit dem Displaygebiet steht, und mindestens einen Teil des virtuellen Objekts als das Displayobjekt setzt.
    3. (3) Die Informationsverarbeitungsvorrichtung nach (2), weiter enthaltend eine Akustikverarbeitungseinheit, die eine virtuelle Schallquelle A an dem virtuellen Objekt lokalisiert, in der die Akustikverarbeitungseinheit die virtuelle Schallquelle gemäß der Bewegung des virtuellen Objekts bewegt, wenn die Displaysteuereinheit bewirkt, dass sich das virtuelle Objekt zu der Kontaktposition bewegt.
    4. (4) Die Informationsverarbeitungsvorrichtung nach (1), bei der die Displaysteuereinheit eine Bildkopie des virtuellen Objekts als das Displayobjekt setzt und bewirkt, dass die Bildkopie an einer Position in dem Displaygebiet angezeigt wird, wobei die Position dem virtuellen Objekt am nächsten liegt.
    5. (5) Die Informationsverarbeitungsvorrichtung nach (4), bei der die Displaysteuereinheit bewirkt, dass sich die Bildkopie bewegt zur Überlagerung auf dem virtuellen Objekt, wenn sich das virtuelle Objekt in das Displaygebiet bewegt.
    6. (6) Die Informationsverarbeitungsvorrichtung nach (1), bei der die Displaysteuereinheit ein vergrößertes Bild des virtuellen Objekts erzeugt, das an dem virtuellen Objekt zentriert ist, und einen Abschnitt des vergrößerten Bilds, der in dem Displaygebiet enthalten ist, als das Displayobjekt setzt.
    7. (7) Die Informationsverarbeitungsvorrichtung nach (6), bei der die Displaysteuereinheit bewirkt, dass sich das vergrößerte Bild zu dem virtuellen Objekt zusammenzieht, wenn sich das virtuelle Objekt in das Displaygebiet bewegt.
    8. (8) Die Informationsverarbeitungsvorrichtung nach (1), bei der die Displaysteuereinheit ein eine Richtung des virtuellen Objekts anzeigendes Icon als das Displayobjekt erzeugt.
    9. (9) Die Informationsverarbeitungsvorrichtung nach einem von (1) bis (8), weiter enthaltend Die Informationsverarbeitungsvorrichtung nach Anspruch 1, eine Akustikverarbeitungseinheit, die eine virtuelle Schallquelle A an dem virtuellen Objekt lokalisiert, wobei die Bestimmungseinheit bestimmt, ob das korrekturzulässige Gebiet und das Displaygebiet einander überlappen, wenn sich das virtuelle Objekt nicht innerhalb des Displaygebiets nach Verstreichen einer vorbestimmten Zeitperiode, nachdem Schall von der virtuellen Schallquelle erzeugt wird, befindet.
    10. (10) Die Informationsverarbeitungsvorrichtung nach einem von (1) bis (8), weiter enthaltend eine Akustikverarbeitungseinheit, die eine virtuelle Schallquelle A an dem virtuellen Objekt lokalisiert, wobei die Bestimmungseinheit bestimmt, ob das korrekturzulässige Gebiet und das Displaygebiet einander überlappen, wenn die Bewegungsgeschwindigkeit des Displaygebiets relativ zu dem virtuellen Objekt kleiner oder gleich einem vorbestimmten Wert ist, nachdem Schall von der virtuellen Schallquelle erzeugt wird.
    11. (11) Ein Programm, das eine Informationsverarbeitungsvorrichtung bewirkt als:
      • eine Bestimmungseinheit, die eine Position eines virtuellen Objekts relativ zu einem Displaygebiet einer Displayeinrichtung erhält und bestimmt, ob ein korrekturzulässiges Gebiet, das in einem von dem virtuellen Objekt V verschiedenen Gebiet gesetzt ist, mindestens einen Teil des Displaygebiets überlappt oder nicht überlappt, wenn sich das virtuelle Objekt außerhalb des Displaygebiets befindet; und
      • eine Displaysteuereinheit, die bewirkt, dass mindestens ein Teil eines Displayobjekts, der das virtuelle Objekt in dem Displaygebiet zeigt, in einem Fall angezeigt werden soll, wenn die Bestimmungseinheit bestimmt, dass das korrekturzulässige Gebiet mindestens den Teil des Displaygebiets überlappt.
    12. (12) Ein Informationsverarbeitungsverfahren, enthaltend:
      • Erhalten, durch eine Bestimmungseinheit, einer Position eines virtuellen Objekts relativ zu einem Displaygebiet und bestimmt, ob ein korrekturzulässiges Gebiet, das in einem von dem virtuellen Objekt V verschiedenen Gebiet gesetzt ist, mindestens einen Teil des Displaygebiets überlappt oder nicht überlappt, wenn sich das virtuelle Objekt außerhalb des Displaygebiets befindet; und
      • Bewirken, durch eine Displaysteuereinheit, dass mindestens ein Teil eines Displayobjekts, der das virtuelle Objekt in dem Displaygebiet zeigt, in einem Fall angezeigt wird, wenn die Bestimmungseinheit bestimmt, dass das korrekturzulässige Gebiet mindestens den Teil des Displaygebiets überlappt.
  • Bezugszeichenliste
  • 100
    Informationsverarbeitungsvorrichtung
    101
    Display
    102
    Lautsprecher
    103
    Sensor
    111
    Richtungsdetektionsverarbeitungseinheit
    112
    Displaysteuereinheit
    113
    Displayeinheit
    114
    Akustikverarbeitungseinheit
    115
    Schallausgabeeinheit
    116
    Bestimmungseinheit
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • JP 2010056589 [0004]

Claims (12)

  1. Informationsverarbeitungsvorrichtung, umfassend: eine Bestimmungseinheit, die eine Position eines virtuellen Objekts relativ zu einem Displaygebiet erhält und bestimmt, ob ein korrekturzulässiges Gebiet, das in einem von dem virtuellen Objekt V verschiedenen Gebiet gesetzt ist, mindestens einen Teil des Displaygebiets überlappt oder nicht überlappt, wenn sich das virtuelle Objekt außerhalb des Displaygebiets befindet; und eine Displaysteuereinheit, die bewirkt, dass mindestens ein Teil eines Displayobjekts, der das virtuelle Objekt in dem Displaygebiet zeigt, in einem Fall angezeigt werden soll, wenn die Bestimmungseinheit bestimmt, dass das korrekturzulässige Gebiet mindestens den Teil des Displaygebiets überlappt.
  2. Informationsverarbeitungsvorrichtung nach Anspruch 1, wobei die Displaysteuereinheit bewirkt, dass sich das virtuelle Objekt zu einer Kontaktposition bewegt, die eine Position ist, bei der das korrekturzulässige Gebiet in Kontakt mit dem Displaygebiet steht, und mindestens einen Teil des virtuellen Objekts als das Displayobjekt setzt.
  3. Informationsverarbeitungsvorrichtung nach Anspruch 2, weiter umfassend eine Akustikverarbeitungseinheit, die eine virtuelle Schallquelle A an dem virtuellen Objekt lokalisiert, wobei die Akustikverarbeitungseinheit die virtuelle Schallquelle gemäß der Bewegung des virtuellen Objekts bewegt, wenn die Displaysteuereinheit bewirkt, dass sich das virtuelle Objekt zu der Kontaktposition bewegt.
  4. Informationsverarbeitungsvorrichtung nach Anspruch 1, wobei die Displaysteuereinheit eine Bildkopie des virtuellen Objekts als das Displayobjekt setzt und bewirkt, dass die Bildkopie an einer Position in dem Displaygebiet angezeigt wird, wobei die Position dem virtuellen Objekt am nächsten liegt.
  5. Informationsverarbeitungsvorrichtung nach Anspruch 4, wobei die Displaysteuereinheit bewirkt, dass sich die Bildkopie bewegt zur Überlagerung auf dem virtuellen Objekt, wenn sich das virtuelle Objekt in das Displaygebiet bewegt.
  6. Informationsverarbeitungsvorrichtung nach Anspruch 1, wobei die Displaysteuereinheit ein vergrößertes Bild des virtuellen Objekts erzeugt, das an dem virtuellen Objekt zentriert ist, und einen Abschnitt des vergrößerten Bilds, der in dem Displaygebiet enthalten ist, als das Displayobjekt setzt.
  7. Informationsverarbeitungsvorrichtung nach Anspruch 6, wobei die Displaysteuereinheit bewirkt, dass sich das vergrößerte Bild zu dem virtuellen Objekt zusammenzieht, wenn sich das virtuelle Objekt in das Displaygebiet bewegt.
  8. Informationsverarbeitungsvorrichtung nach Anspruch 1, wobei die Displaysteuereinheit ein eine Richtung des virtuellen Objekts anzeigendes Icon als das Displayobjekt erzeugt.
  9. Informationsverarbeitungsvorrichtung nach Anspruch 1, weiter umfassend eine Akustikverarbeitungseinheit, die eine virtuelle Schallquelle A an dem virtuellen Objekt lokalisiert, wobei die Bestimmungseinheit bestimmt, ob das korrekturzulässige Gebiet und das Displaygebiet einander überlappen, wenn sich das virtuelle Objekt nicht innerhalb des Displaygebiets nach Verstreichen einer vorbestimmten Zeitperiode, nachdem Schall von der virtuellen Schallquelle erzeugt wird, befindet.
  10. Informationsverarbeitungsvorrichtung nach Anspruch 1, weiter umfassend eine Akustikverarbeitungseinheit, die eine virtuelle Schallquelle A an dem virtuellen Objekt lokalisiert, wobei die Bestimmungseinheit bestimmt, ob das korrekturzulässige Gebiet und das Displaygebiet einander überlappen, wenn die Bewegungsgeschwindigkeit des Displaygebiets relativ zu dem virtuellen Objekt kleiner oder gleich einem vorbestimmten Wert ist, nachdem Schall von der virtuellen Schallquelle erzeugt wird.
  11. Programm, das eine Informationsverarbeitungsvorrichtung bewirkt als: eine Bestimmungseinheit, die eine Position eines virtuellen Objekts relativ zu einem Displaygebiet einer Displayeinrichtung erhält und bestimmt, ob ein korrekturzulässiges Gebiet, das in einem von dem virtuellen Objekt V verschiedenen Gebiet gesetzt ist, mindestens einen Teil des Displaygebiets überlappt oder nicht überlappt, wenn sich das virtuelle Objekt außerhalb des Displaygebiets befindet; und eine Displaysteuereinheit, die bewirkt, dass mindestens ein Teil eines Displayobjekts, der das virtuelle Objekt in dem Displaygebiet zeigt, in einem Fall angezeigt werden soll, wenn die Bestimmungseinheit bestimmt, dass das korrekturzulässige Gebiet mindestens den Teil des Displaygebiets überlappt.
  12. Informationsverarbeitungsverfahren, umfassend: Erhalten, durch eine Bestimmungseinheit, einer Position eines virtuellen Objekts relativ zu einem Displaygebiet und bestimmt, ob ein korrekturzulässiges Gebiet, das in einem von dem virtuellen Objekt V verschiedenen Gebiet gesetzt ist, mindestens einen Teil des Displaygebiets überlappt oder nicht überlappt, wenn sich das virtuelle Objekt außerhalb des Displaygebiets befindet; und Bewirken, durch eine Displaysteuereinheit, dass mindestens ein Teil eines Displayobjekts, der das virtuelle Objekt in dem Displaygebiet zeigt, in einem Fall angezeigt wird, wenn die Bestimmungseinheit bestimmt, dass das korrekturzulässige Gebiet mindestens den Teil des Displaygebiets überlappt.
DE112019003579.7T 2018-07-13 2019-07-01 Informationsverarbeitungseinrichtung, programm undinformationsverarbeitungsverfahren Withdrawn DE112019003579T5 (de)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2018133742 2018-07-13
JP2018-133742 2018-07-13
PCT/JP2019/026038 WO2020012997A1 (ja) 2018-07-13 2019-07-01 情報処理装置、プログラム及び情報処理方法

Publications (1)

Publication Number Publication Date
DE112019003579T5 true DE112019003579T5 (de) 2021-07-15

Family

ID=69142409

Family Applications (1)

Application Number Title Priority Date Filing Date
DE112019003579.7T Withdrawn DE112019003579T5 (de) 2018-07-13 2019-07-01 Informationsverarbeitungseinrichtung, programm undinformationsverarbeitungsverfahren

Country Status (3)

Country Link
US (1) US11523246B2 (de)
DE (1) DE112019003579T5 (de)
WO (1) WO2020012997A1 (de)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2022209317A1 (de) * 2021-03-29 2022-10-06

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010056589A (ja) 2008-08-26 2010-03-11 Sony Corp 音声処理装置、音像定位位置調整方法、映像処理装置及び映像処理方法

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5525250B2 (ja) 2009-12-08 2014-06-18 任天堂株式会社 ゲームプログラム、ゲーム装置、ゲームの表示方法及びゲームシステム
US9129430B2 (en) * 2013-06-25 2015-09-08 Microsoft Technology Licensing, Llc Indicating out-of-view augmented reality images
JP6355978B2 (ja) 2014-06-09 2018-07-11 株式会社バンダイナムコエンターテインメント プログラムおよび画像生成装置
JP2017005387A (ja) * 2015-06-05 2017-01-05 キヤノン株式会社 通信装置およびその制御方法

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010056589A (ja) 2008-08-26 2010-03-11 Sony Corp 音声処理装置、音像定位位置調整方法、映像処理装置及び映像処理方法

Also Published As

Publication number Publication date
WO2020012997A1 (ja) 2020-01-16
US11523246B2 (en) 2022-12-06
US20210281966A1 (en) 2021-09-09

Similar Documents

Publication Publication Date Title
Pfeiffer Measuring and visualizing attention in space with 3D attention volumes
DE60225933T2 (de) Tragbare virtuelle realität
DE102015100540A1 (de) Informationsverarbeitungsvorrichtung und informationsverarbeitungsverfahren
DE112016004114T5 (de) Stereorenderingsystem
DE102013211671B4 (de) Verfahren, Vorrichtung und Computerprodukt zum Anzeigen einer Markierung an einer Head-Up-Anzeige
EP1915874A2 (de) Verfahren und schaltungsanordnung zum erkennen und verfolgen von augen mehrerer betrachter in echtzeit
DE102004016331B4 (de) Vorrichtung und Verfahren zur gleichzeitigen Darstellung virtueller und realer Umgebungsinformationen
DE102017112188A1 (de) Bildverarbeitungseinrichtung für ein Fahrzeug
US11610381B2 (en) Information processing apparatus, system, and method for detecting collision between a physical and virtual object
DE102014206626A1 (de) Müdigkeitserkennung mithilfe von Datenbrillen (HMD)
DE112019001444T5 (de) Informationsverarbeitungsvorrichtung, informationsverarbeitungsverfahren und programm
DE112017001781T5 (de) Informationsverarbeitungsvorrichtung, Informationsverarbeitungsverfahren und nicht transientes, computerlesbares Medium
DE112017001660T5 (de) Datenverarbeitungseinrichtung, Datenverarbeitungsverfahren und computerlesbares Medium
DE102018209377A1 (de) Verfahren zur Darstellung von AR-/VR-Inhalten auf einem mobilen Endgerät und mobiles Endgerät, auf dem AR-/VR-Inhalte dargestellt werden
DE112019003579T5 (de) Informationsverarbeitungseinrichtung, programm undinformationsverarbeitungsverfahren
EP2753951A1 (de) Interaktion mit einem dreidimensionalen virtuellen szenario
DE102014107211A1 (de) Vorrichtung zum Anzeigen einer virtuellen Realität sowie Messgerät
WO2019037907A1 (de) Verfahren und vorrichtung zur ermittlung einer wahrscheinlichkeit, mit der sich ein objekt in einem sichtfeld eines fahrers eines fahrzeugs befindet
DE102017208607A1 (de) Steuereinrichtung für eine Kameravorrichtung, Kameraanordnung und Verfahren zur stereoskopischen Aufnahme eines Überwachungsbereichs
DE112019006107T5 (de) Authoring-Vorrichtung, Authoring-Verfahren und Authoring-Programm
DE112018003820T5 (de) Informationsverarbeitungseinrichtung, informationsverarbeitungsverfahren und programm
WO2019228780A1 (de) Konzept für die steuerung einer anzeige eines mobilen augmented-reality-gerätes
WO2019007934A1 (de) Anordnung und verfahren zur kommunikation mittels zweier visueller ausgabegeräte
DE102015201642B4 (de) Vorrichtung und Verfahren zur Darstellung einer Umgebung eines Fahrzeuges
US11422670B2 (en) Generating a three-dimensional visualization of a split input device

Legal Events

Date Code Title Description
R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee