WO2012144389A1 - 個人識別キャラクター表示システム、端末装置、個人識別キャラクター表示方法、及びコンピュータプログラム - Google Patents

個人識別キャラクター表示システム、端末装置、個人識別キャラクター表示方法、及びコンピュータプログラム Download PDF

Info

Publication number
WO2012144389A1
WO2012144389A1 PCT/JP2012/059911 JP2012059911W WO2012144389A1 WO 2012144389 A1 WO2012144389 A1 WO 2012144389A1 JP 2012059911 W JP2012059911 W JP 2012059911W WO 2012144389 A1 WO2012144389 A1 WO 2012144389A1
Authority
WO
WIPO (PCT)
Prior art keywords
terminal device
image
character
real
personal identification
Prior art date
Application number
PCT/JP2012/059911
Other languages
English (en)
French (fr)
Inventor
伸 三国
Original Assignee
Necカシオモバイルコミュニケーションズ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Necカシオモバイルコミュニケーションズ株式会社 filed Critical Necカシオモバイルコミュニケーションズ株式会社
Priority to US14/112,030 priority Critical patent/US9721388B2/en
Priority to JP2013510960A priority patent/JP6020446B2/ja
Priority to EP12774800.2A priority patent/EP2701123B1/en
Publication of WO2012144389A1 publication Critical patent/WO2012144389A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/1423Digital output to display device ; Cooperation and interconnection of the display device with other functional units controlling a plurality of local displays, e.g. CRT and flat panel display
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/414Specialised client platforms, e.g. receiver in car or embedded in a mobile appliance
    • H04N21/41407Specialised client platforms, e.g. receiver in car or embedded in a mobile appliance embedded in a portable device, e.g. video client on a mobile phone, PDA, laptop
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/42202Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS] environmental sensors, e.g. for detecting temperature, luminosity, pressure, earthquakes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/4223Cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream, rendering scenes according to MPEG-4 scene graphs
    • H04N21/44008Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream, rendering scenes according to MPEG-4 scene graphs involving operations for analysing video streams, e.g. detecting features or characteristics in the video stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/478Supplemental services, e.g. displaying phone caller identification, shopping application
    • H04N21/4788Supplemental services, e.g. displaying phone caller identification, shopping application communicating with other users, e.g. chatting
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S19/00Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
    • G01S19/38Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system
    • G01S19/39Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system the satellite radio beacon positioning system transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
    • G01S19/42Determining position
    • G01S19/45Determining position by combining measurements of signals from the satellite radio beacon positioning system with a supplementary measurement
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2370/00Aspects of data communication
    • G09G2370/16Use of wireless transmission of display information
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2250/00Details of telephonic subscriber devices
    • H04M2250/12Details of telephonic subscriber devices including a sensor for measuring a physical value, e.g. temperature or motion
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2250/00Details of telephonic subscriber devices
    • H04M2250/52Details of telephonic subscriber devices including functional features of a camera

Definitions

  • the present invention relates to a personal identification character display system, a terminal device, a personal identification character display method, and a computer program.
  • the present invention identifies a specific individual from imaging data obtained by photographing, and captures an image of a specific individual.
  • the personal identification character display system, the terminal device, the personal identification character display method, and the computer program that can display the personal identification character that can visually recognize the photographed individual.
  • Non-Patent Document 1 describes a method of measuring a three-dimensional position and orientation of an object using a marker arranged at each vertex of a parallelogram and synthesizing a virtual object with a real-world image.
  • Patent Document 1 discloses a mixed reality display apparatus and method, a storage medium, and a computer program. Specifically, a CG image can be synthesized and displayed on an image photographed through a camera by installing a marker or a flashing LED light source in a specific place in the real world. According to this, for example, a landscape when furniture is installed in a specific place in the real world can be simulated and visually recognized by the display device. It also shows that the above mixed reality display method is applied as a simulation of arrangement of furniture and home appliances in a real space.
  • Patent Document 2 discloses a portable augmented reality device and a method thereof, and describes an embodiment in which the above display system is applied to a portable game device.
  • Patent Document 3 discloses an entertainment apparatus, system, and method, and discloses an embodiment that uses a dice-like object as the unique object.
  • Patent Document 4 describes a target position search device, a target position search method, and a program. This is the prior patent application technology of the applicant of the present application, and describes a search and display system for individuals and target facilities by AR (Augmented Reality). Specifically, a graphic representing the position of a target object is synthesized and displayed on an actual video by a simple graphic display method that does not distinguish between search objects.
  • the personal identification character display system for documents shown in the background art has the following problems in the techniques disclosed in Patent Documents 1 to 4, for example.
  • Patent Document 1 In the technique disclosed in Patent Document 1 described above, it is necessary to install a unique object at a position where an image is to be arranged. That is, in this technique, it is necessary to prepare a special object (marker object) as a marker for designating a place where images are to be combined.
  • a special object marker object
  • an infinite number of types of marker objects are required, so the types of CG images that can be displayed with markers prepared in advance are very limited.
  • Patent Document 4 it is possible to display the distance and direction of an individual who is far away in the landscape by the AR composition technique.
  • the synthesized image is fixed regardless of who the other party is, and there is a lack of performance output.
  • the present invention has been made in view of the above-described conventional problems, and makes it possible to identify a specific individual from an image captured by a photographer by using an image recognition technique.
  • Another object of the present invention is to provide a personal identification character display system capable of displaying a personal identification character that can visually recognize the individual in the vicinity of the imaging of the specific individual.
  • a personal identification character display system is a personal identification character display system that draws a composite image of a CG-drawn image on a real-world image captured by a camera mounted on a terminal device, A detection unit for recognizing and detecting a partial region having characteristics of a predetermined subject in an image region displaying the image data from real-world image data captured by the camera, and the real-world image
  • the realization including the combined drawing unit for combining and drawing a predetermined CG image held in advance corresponding to the subject characterized in the partial region in the detected partial region, and the combined image region And an image display unit for displaying images of the world.
  • the terminal device is a terminal device that composites and draws a CG-drawn image on a real-world image captured by a camera mounted on the terminal device, and is based on real-world image data captured by the camera.
  • a detection unit that recognizes and detects a partial region having the characteristics of a predetermined subject in the image region displaying the image data by a pattern matching method; and the partial region is included in the detected partial region of the real-world image.
  • a composite rendering unit that composites and renders a predetermined CG image that is stored in advance corresponding to the subject characterized by: an image display unit that displays the real-world image including the composited image region; It is provided with.
  • the personal identification character display method is a personal identification character display method in which a CG-drawn image is combined with a real-world image photographed by a camera mounted on a terminal device, and the reality photographed by the camera.
  • a computer program is a computer program for controlling a terminal device that synthesizes and draws a CG-drawn image with a real-world image photographed by an on-board camera, the real-world image photographed by the camera. From the image data, a step of recognizing and detecting a partial area having the characteristics of a predetermined subject in an image area displaying the image data by a pattern matching method, and the detecting the partial area of the real world image, Synthesizing and drawing a predetermined CG image stored in advance corresponding to the subject characterized by the partial area; and displaying the real-world image including the synthesized image area. It is characterized by that.
  • a specific individual can be detected, and an AR character customized for each individual can be synthesized and drawn using the face portion of the individual as a marker. Therefore, for example, it is possible to provide an image in which an animation work in which the main character and a slave who follows the main character are characters and the real world are fused.
  • the personal identification character display system which concerns on 1st embodiment of this invention, it is a flowchart figure which shows the operation
  • the personal identification character display system which concerns on 1st embodiment of this invention, it is a flowchart figure which shows the operation
  • the personal identification character display system which concerns on 1st embodiment of this invention, it is a flowchart figure which shows the operation
  • an image recognition unit that extracts features on an image of a person's face recognizes a specific person and an image (AR character) to be synthesized that is strongly associated with the individual. , And display it in the vicinity image of the individual.
  • AR character an image
  • the personal identification character display system in one embodiment of the present invention is: (1) In a configuration in which a plurality of terminal devices (for example, mobile phone terminal devices) and a database server are connected to a network, each of the plurality of terminal devices includes a camera unit, a positioning unit, and an orientation measuring unit, (2) At least the photographer's terminal device can hold the character image of the terminal user and the character image of the other terminal user acquired from the database server (or other terminal) in the character definition unit. , (3) At least the photographer's terminal device can acquire and display an image in front of the eye from the camera unit, and can acquire the position of the photographer's terminal device.
  • At least the photographer's terminal device can acquire the direction in which the camera unit is facing, (5) At least the photographer's terminal device determines whether there is a user of another terminal device that is looking for in the acquired direction, and the face of a specific user of another terminal device different from the photographer's terminal device
  • the distance to the other terminal device is displayed and the specific of the other terminal device is displayed.
  • the user's character image is combined with the image obtained by the camera unit and displayed. More specifically, the character image to be synthesized is configured to be selected based on feature information extracted from the face of a specific user of the other terminal device using an image recognition unit.
  • a specific individual is identified in the captured image data and is strongly associated with the specific individual (that is, AR (Augmented Reality) that customizes the specific individual: augmented reality).
  • Sensation is a system that allows a character to be displayed in the vicinity of a captured image of the specific individual.
  • a face recognition function is used, and the recognized face portion is used as a place where the image is synthesized.
  • the AR character associated with the individual is drawn together as a marker for designating.
  • the AR character data is distributed by the AR data server of the photographer's mobile terminal device owned by the photographed individual.
  • the short-range wireless communication means etc.
  • Another user's portable terminal device operates directly as an AR data server.
  • the data is transmitted from the mobile terminal device by communicating with the central server through network communication.
  • the server that has acquired the data directly distributes the data, or indirectly connects to the mobile terminal device via a relay connection.
  • the photographer's terminal device is not close to another portable terminal device of another user, if there is another user in the vicinity, the approximate position of the other user may be indicated, or a plurality of other users may be provided in the vicinity. The user can be shown and other individuals can be designated by designating the indicated character.
  • the AR character data of the photographer held in the mobile terminal device owned by the registered member individual who has taken the image is specially referred to when the individual photographer photographs the face of the photographer himself.
  • it is generally referred to from a personal digital assistant device of a registered member other than the photographed registered member.
  • registered members' users can combine animation works with reality by setting characters such as fairies and small animals flying around a specific anime character in the AR environment as AR character data on the photographer's device.
  • a service for displaying an image can be provided.
  • FIG. 1 is a configuration diagram showing the overall configuration of the personal identification character display system according to the first embodiment of the present invention.
  • the personal identification character display system according to the present embodiment shown in FIG. 1 includes a mobile phone terminal 1 and a mobile phone terminal 2 (both terminal devices according to an embodiment of the present invention), which are mobile phone terminal devices, and an AR database server 3. And.
  • the personal identification character display system according to the present invention can generally be constituted by two or more terminal devices and a database server device.
  • the terminal device according to the embodiment of the present invention the mobile phone terminal device 1 and the mobile phone terminal 2 are configured.
  • the configuration of the terminal device is not limited to the above configuration, and therefore the number of the terminal devices is not limited. May be any plural number.
  • the terminal device according to the embodiment of the present invention is not limited to a mobile phone terminal device or a smartphone, but may be another device such as a game machine, a tablet PC, or a notebook PC.
  • the mobile phone terminal device 1 terminal device 1
  • the mobile phone terminal 2 terminal device 2
  • the mobile phone terminal device 1 includes a camera unit 11, an image memory unit 12, a face recognition unit 13, a display unit 14 configured with a touch panel, a GPS / magnetic sensor 15, an AR control unit 16, and a communication unit 17. And comprising.
  • the AR control unit 16 includes a control program 161, a self AR character definition 162, and another person AR character definition 163.
  • the communication unit 17 includes a net communication unit 171 and a short-range communication unit 172.
  • the mobile phone terminal device 2 includes a camera unit 21, an image memory unit 22, a face recognition unit 23, a display unit 24 configured with a touch panel, a GPS / magnetic sensor 25, an AR control unit 26, and a communication unit 27. And comprising.
  • the AR control unit 26 in the mobile phone terminal 2 includes a control program 261, a self AR character definition 262, and another person AR character definition 263.
  • the communication unit 27 includes a net communication unit 271 and a short-range communication unit 272.
  • the AR database server 3 includes a terminal communication unit 31, a registration control unit 32, a search control unit 33, and an AR data character database 34.
  • the AR data character database 34 includes a personal record 1 (341), a personal record 2 (342), a personal record 3 (343), and a personal record n (34n) (where n is registered). Record number).
  • FIG. 2 is a configuration diagram showing the appearance of the mobile phone terminal 1 and the mobile phone terminal 2 of the personal identification character display system according to the first embodiment of the present invention.
  • FIG. 2 shows a part of the camera unit 11, a display screen 141 that is a component of the display unit 14, and a GPS 151 and a magnetic sensor 152 that are components of the GPS / magnetic sensor unit 16.
  • the functions of the personal identification character display system according to this embodiment will be described below with reference to FIGS. In the following description, the function of the mobile phone terminal 1 will also be described. However, the function of the mobile phone terminal 2 is also the same as the function of the mobile phone terminal 1, and is therefore included in the following description.
  • An image taken by the camera unit 11 is held in the image memory 12.
  • a face recognition unit 13 is connected to the image memory 12.
  • the face recognizing unit 13 includes means for cutting out a face portion of a person in an image photographed by the camera unit 11 and acquiring the size and position, and means for digitizing the characteristics of the cut out face. Yes.
  • the image memory 12 can also be accessed from the AR control unit 16, and by drawing a figure here, it is possible to synthesize and display the figure on the actual landscape.
  • the control program 161 enlarges / reduces the figure associated with the facial feature value according to the size of the cut out face area, and displays it in the vicinity of the face area.
  • the AR control unit 16 includes a character definition unit (the self AR character definition 162 and the other person AR character definition 163 in the mobile phone terminal 1), and the control program 161 refers to the data defined in the character definition and the image memory 12 Draw a shape on
  • the character definition is a definition for the user of the mobile phone terminal 1 who is a registered user in the system, and is displayed on the terminal device (for example, the mobile phone terminal 2) of another registered user in the system.
  • One self-AR character definition of the user of the mobile phone terminal 1 here, the self-AR character definition 162 of the mobile phone terminal 1
  • One AR character definition in this case, another AR character definition 163 that defines (displayed by the mobile phone terminal 1) is provided.
  • the AR control unit 16 includes means for storing a plurality of other AR character definitions to be displayed on the mobile phone terminal 1.
  • the definition data of the self-AR character definition 162 of the cellular phone terminal 1 can be referred to by the communication unit 17, and the terminal is obtained by short-range communication by the short-range communication unit 172 (wireless communication unit) provided in the communication unit 17.
  • Data can be exchanged between devices (for example, the mobile phone terminal 1 and the mobile phone terminal 2) or defined in the AR database server 3 installed in the network by the network communication unit 171 provided in the communication unit 17 as well. It is possible to upload data.
  • the communication unit 17 transmits the definition data of the mobile phone terminal 2 uploaded to the AR database server 3 via the short-range communication unit 172 and / or the net communication unit 171 to the AR of the mobile phone terminal 1. It can be downloaded to the character definition unit 163. Further, the GPS / magnetic sensor 15 of the mobile phone terminal 1 is mounted as a positioning unit for the terminal position by GPS and an azimuth measuring unit by the magnetic sensor. The positioning result can also be referred to from the control program 161 of the AR control unit 16.
  • the AR database server 3 includes a terminal communication unit 31 as a communication means with the mobile phone terminal 1, and AR as a means for storing character definition data sent from the mobile phone terminal 1 via the terminal communication unit 31. A character database 34 is provided.
  • the AR database server 3 includes a search control unit 33 as a means for receiving a search request for data stored in the AR database server 3 from the mobile phone terminal 1.
  • the search control unit 33 includes means for transmitting a search result to the mobile phone terminal 1 via the terminal communication unit 31.
  • the AR database server 3 includes a registration control unit 32 as means for registering an AR character composed of at least one record per person in the AR character database 34.
  • the data for one record stored in the AR character database 34 includes a terminal ID and user name for identifying the terminal device, and a feature calculated when the face of the owner of the terminal device 1 is recognized.
  • a face key that is a value, a character definition that is graphic information customized for each individual, and a current position of the terminal device measured by GPS or the like are stored.
  • the current position of the terminal device is acquired when the AR character database 34 relays a current position acquisition request communicated between a plurality of terminal devices of a plurality of registered users.
  • this data storage method stores only the terminal ID, the user name, and the current position information of the terminal, and the face key and the character definition information store data. It is also possible to redirect the information acquisition request to the target terminal device so that the terminal device itself in which the data is stored distributes the information.
  • FIG. 3 is a data configuration diagram showing details of the data configuration of the personal record stored in the AR character database 34 as an example, and FIG. 3 illustrates the overall configuration of the personal record and the detailed configuration of the character definition of the personal record. It is.
  • the personal record data stored in the AR character database 34 illustrated in FIG. 3 includes a terminal ID for identifying the terminal device such as a telephone number and a communication MAC address of the terminal device, a user name data associated with the terminal ID, a face key, and a character. It consists of definition data and data on the current position of the terminal.
  • the character definition of the personal record illustrated in FIG. 3 includes the character type, part shape and color and pattern, character name, etc. The character type and pattern are as shown in FIGS. 4A to 4D. Code is defined, and the user of this system can define their own characters by freely combining them.
  • FIGS. 4A to 4D are explanatory diagrams showing examples of correspondence between AR character definitions and images.
  • 4A shows a case where the type code is 1 (dragonfly) and
  • FIG. 4B shows a case where the type code is 2 (butterfly).
  • FIGS. 4A to 4D an example of insects is shown for simplicity, but a more complicated character may be used.
  • FIG. 5 is an explanatory diagram showing, as an example, the positional relationship between users when the user A and the user B to be photographed are at a long distance.
  • the position coordinates of the user A are shown as (X1, Y1, Z1).
  • the position coordinates of the user B are indicated as (X2, Y2, Z2).
  • FIG. 6 is an explanatory diagram illustrating a display example of the display unit 14 in the terminal device 1 when the user B to be imaged is at a long distance. Since the above-described character definition record associates the user with the customized figure, for example, in the operation of combining the positions of the user A and the user B as shown in FIG.
  • the display as shown in FIG. 6 can be performed using a small character figure that directly represents the user to be imaged. Even if two people are displayed at the same time, since a small character figure is used as shown in FIG. 6, it is possible to simultaneously display the character figure for two people on the display unit of the terminal device. Therefore, if the relation between the character and the user is known, it is possible to display which person is present at a glance at which area.
  • the distance to the selected character may be represented by a numerical value.
  • the figure in the thick solid line balloon represents the selected character, and the display of the distance from the user B to the user A shown in FIG. 5 is illustrated.
  • FIG. 7 is an explanatory diagram illustrating, as an example, the positional relationship between users when the user B to be imaged is close to the user A.
  • FIG. 7 illustrates a state where the user B illustrated in FIG. 5 approaches a distance at which short-distance communication with the user A is possible. Whether or not the distance between the user A and the user B is close to a distance at which near field communication is possible is determined by comparing the distance between the user A and the user B with a preset threshold value. The terminal device 1 to be used is notified that this state has been reached. In this case, the user A notifies the user B that this state has been reached via the terminal device 1 and the AR database server 3 used by the user A, and switches the terminal device 2 of the user B to the near field communication mode. Can be made.
  • FIG. 8 is an explanatory diagram illustrating a display example of the display unit 14 when the user to be imaged is at a short distance.
  • FIG. 7 illustrates the state when the user B shown in FIG. 5 approaches the user A.
  • the display screen of the terminal device 1 here, the display unit 14 of the mobile phone terminal 1.
  • the character is flying around the upper part of the user. It has become.
  • the right half of FIG. 8 when the user B to be imaged further approaches the user A, the size of the face area of the user B to be imaged increases, and the character figure is enlarged accordingly. Therefore, it is possible to obtain a synthesis result that feels natural.
  • the display state shown in FIG. 8 can be displayed in the same manner even when the user B to be imaged starts up the system in a state of being located at a short distance from the user A from the beginning.
  • display is performed by exchanging the AR character definitions with the terminal device 2 (here, the mobile phone terminal 2) of the user B to be imaged by the short-range communication means provided in the short-range communication unit 171 of the terminal device 1.
  • the terminal device 2 here, the mobile phone terminal 2
  • the short-range communication means provided in the short-range communication unit 171 of the terminal device 1.
  • the above is the operation in the case where the other party to be displayed is known and the other party to be displayed is specified or the other party to be displayed exists in front of the user.
  • the communication partner finding function whose screen example is shown in FIG.
  • FIG. 9 is an explanatory diagram showing the transition of the display screen in the communication partner finding function of the personal identification character display system according to the first embodiment of the present invention.
  • the leftmost figure is a screen immediately after the communication partner discovery function is activated.
  • the AR database server 3 is inquired through the network communication unit 17 for the registered user ahead.
  • the search result characters are displayed side by side on the display unit 14.
  • Such a display method is intended to facilitate an operation of selecting a specific individual from among a large number of search results.
  • FIG. 9 the leftmost figure is a screen immediately after the communication partner discovery function is activated.
  • the AR database server 3 is inquired through the network communication unit 17 for the registered user ahead.
  • the search result characters are displayed side by side on the display unit 14.
  • Such a display method is intended to facilitate an operation of selecting a specific individual from among a large number of search results.
  • a face is recognized from an image in which a person is captured, the features of the face part are digitized, a unique figure customized by the user is defined as a figure associated with the figure, and definition information and
  • the facial feature value is stored in the user's terminal and can be exchanged with another user's terminal via wireless proximity communication or a server on the network. Therefore, the user of this system can operate innumerable types of composite images and innumerable types of markers.
  • the character figure is arranged, the size and position of the recognized face image are used, so that the relationship with the specific target individual can be displayed and visually recognized.
  • the character graphic when the character graphic is acquired via the AR database server 3, it is possible to further acquire the position information of the data owner. Based on this acquired information, the character graphic actually exists within the video range of the camera. Since the presence / absence of a specific member is displayed as a customized character graphic, the presence / absence of the specific member can be easily recognized. In addition, by designating a character figure indicating a specific individual, there is provided means capable of reaching the specific individual.
  • an AR character figure is displayed near the individual from the icon-like display state of the image that specifies the individual. Since it is possible to make a state transition to the state in a natural manner, it is possible to take a specific case in both cases where the target user is at a long distance and at a short distance without compromising the world view of the relationship between the individual and the image. Individuals can handle unique shapes.
  • FIG. 10A shows a case where the user operates the terminal device to define self AR character data in the user's mobile phone terminal 1 in the personal identification character display system according to the first embodiment of the present invention, and other users. It is a flowchart figure which shows operation
  • Step S1 the camera unit 11 is activated by an operator (preparation for photographing the user himself).
  • Step S2 In step S2, the user who is operating through the camera unit 11 is photographed.
  • step S3 the face recognition unit 13 performs face recognition feature extraction to create face key feature data, and uses the face key (see FIG. 3), which is one item of the self-AR character definition 162 of the terminal device 1. sign up. At this time, not only from the front but also from the left and right directions may be performed as necessary.
  • Step S4 In step S4, the definition variations (type, color, pattern, etc.) as shown in FIGS. 4A to 4D are designated by the operator, and the appearance of the self-AR character is defined.
  • Step S5 In step S5, the AR control unit 16 registers the AR character defined in step S4 in each item of the self AR character definition 162 (the registered content is displayed on the display unit 14).
  • Step S6 In step S6, the operator visually confirms the display screen of the display unit 14 and confirms registration.
  • Step S7 In step S7, the AR control unit 16 verifies whether or not the registration is OK. If the registration is OK, the process proceeds to step S8. If the registration is not OK, the process returns to step S4. That is, here, the operator can perform display according to the definition, execute registration if he / she likes it, and can specify the variation again if he / she does not like it.
  • Step S8 the AR control unit 16 causes the AR database server 3 to register the AR character defined in step S4 via the network communication unit 171 and ends the process. That is, here, since the character definition is also placed in the AR database server 3, in the case of OK, the designation result is registered in the AR database server 3 by network communication, but the AR database server 3 performs a redirect operation. If the control method is to acquire terminal data every time, registration in the AR database server 3 can be omitted. Note that the process of uploading the current location of the terminal device to the AR database server 3 as appropriate and storing the current position in the AR database server 3 is not a characteristic process of the present system, but is an existing operation, and will not be described here. .
  • step S21 In step S ⁇ b> 21, the operator designates input from the terminal device 2 of another person who acquires data.
  • Step S22 the communication unit 17 determines whether or not the distance between the self-terminal device and the other terminal device that acquires data is closer than a predetermined threshold set in advance as described above. If the distance is close, the process proceeds to step S26, and if the distance is not close, the process proceeds to step S23.
  • step S23 In step S ⁇ b> 23, the communication unit 17 of the terminal device 1 accesses the AR database server 3 via the network communication unit 171 to search for an AR character definition derived from the terminal device of another person who acquires data.
  • step S24 In step S ⁇ b> 24, the communication unit 17 acquires from the AR database server 3 an AR character definition derived from the other person's terminal device that acquires data and position information of the other person's terminal device.
  • step S25 the communication unit 17 stores the acquired other person AR character definition and the position information of the other person's terminal device in the other person AR character definition 163, and ends the process.
  • the other party's terminal device position information is also obtained as described above. Is.
  • Step S26 the communication unit 17 activates the short-range communication unit 172 to connect to the other person's terminal device.
  • Step S27 the communication unit 17 acquires an AR character definition derived from the other person's terminal device from the other person's terminal device, and then proceeds to step S25.
  • FIG. 11A and FIG. 11B are flowcharts showing an operation in the case of displaying an AR character when the partner terminal device of the communication partner is close to the personal identification character display system according to the first embodiment of the present invention. is there.
  • the operation shown in FIG. 11A is executed in the situation (situation) shown in FIG. It is assumed that the other person data acquisition process illustrated in FIG. 10B has been completed when this operation is executed.
  • Step A1 In step A1, the camera unit 11 of the terminal device 1 is operated by the operator, and the captured image data is acquired.
  • Step A2 In step A2, the face recognition unit 13 detects data that can be recognized as a human face from the imaging data.
  • step A3 the face recognition unit 13 verifies whether or not data that can be recognized as a human face has been detected. If data that can be recognized as a human face is detected, the process proceeds to step A4, where it can be recognized as a human face. If no data is detected, the process ends.
  • step A4 when a plurality of data that can be recognized as a human face is detected, the face recognition unit 13 selects, for example, the detection result located at the upper left as the first processing target.
  • step A5 the face recognition unit 13 extracts feature data for face recognition. For example, facial feature data such as the ratio of the distance between eyes and mouth and the interval between eyes is extracted.
  • step A6 the face recognition unit 13 searches whether there is a match (or close) to the face key data of the other person AR character definition 163.
  • step A7 the face recognition unit 13 verifies whether or not feature data close to the face key data of the other person AR character definition 163 exists by the search, and if the feature data exists, step S9. Then, a face base point AR display process described later is performed, and then the process returns to step A8. If the feature data does not exist, the process immediately proceeds to step A8.
  • step A8 the face recognition unit 13 verifies whether or not the above processing has been completed for all of the data recognized as human faces. If there is unprocessed data, the process proceeds to step A10. When the above process for all data is completed, the process ends.
  • step A9 The process of step A9 (subroutine) will be described later.
  • step A10 the face recognition unit 13 selects the next data recognized as a human face, and returns to step A5.
  • FIG. 11B describes an operation procedure in a subroutine (face base AR display process) executed in step A9 in the flowchart shown in FIG. 11A.
  • step A21 the face recognition unit 13 recognizes and detects a face image having a predetermined feature from a given image using the pattern matching method, and acquires the position and size of the face recognition frame.
  • step A22 the face recognition unit 13 enlarges (decides the enlargement ratio) or reduces (decides the reduction ratio) the AR character image depending on the size of the face recognition frame.
  • step A23 the face recognition unit 13 determines relative coordinates (that is, a relative drawing position) from the face recognition frame using the current time as a parameter. By changing the relative drawing position using the current time as a parameter, it is possible to display an animation that flies around the face or flutters up and down around the shoulder.
  • step A24 the face recognition unit 13 draws the AR character image in the image memory 12 at the position and size determined above, and returns to the caller. As a result, an image in which a customized character is combined with an actual image is displayed. When a plurality of faces are detected, the process after the feature extraction process is repeated for the next detected face area. As a result, AR characters defined respectively corresponding to each person can fly around a plurality of persons in the screen of the display unit 14 of the terminal device 1.
  • FIG. 12 is a flowchart showing an operation procedure when an AR character is displayed when a shooting range is searched in the personal identification character display system according to the first embodiment of the present invention.
  • the flowchart shown in FIG. 12 shows the operation when the image shown at the left end of FIG. 9 is displayed.
  • Step B1 the camera unit 11 of the terminal device 1 is operated by the operator, and imaging data of a scene in front of the eyes serving as a display base is acquired.
  • the GPS / magnetic sensor 15 is activated by the operator, the position of the terminal device 1 is determined, and the position is acquired.
  • Step B3 In step B3, the direction in which the camera of the camera unit 11 faces is obtained via the GPS / magnetic sensor 15 activated by the operator.
  • Step B4 In step B4, the camera unit 11 calculates the position of the camera shooting range.
  • Step B5 In step B5, the network communication unit 171 connects to the AR database server 3.
  • Step B6 In step B6, the network communication unit 171 accesses the AR database server 3, and in the AR character database 34, a personal record registered from the terminal device of another person whose current position of the terminal device 1 is included in the camera photographing range is stored. Search for existence.
  • the angle of view of the camera is about 60 degrees diagonal and the range is up to 80 m forward, it exists in a circle with a radius of 30 m, 40 m away from the position of the camera toward the camera.
  • the AR database server 3 is instructed to search for a user of the terminal device.
  • Step B7 the network communication unit 171 verifies whether or not the presence of the personal record is responded from the AR database server 3. If the presence of the personal record is responded, the process proceeds to step B8. If there is no response, the process is terminated.
  • Step B8 the net communication unit 171 acquires all of the other person's personal records to which the existence is responded from the AR database server 3, and sends them to the AR control unit 16.
  • Step B9 the AR control unit 16 draws all of the acquired AR characters in a tiled manner in the image memory 12 for the existing personal record of the other person, displays them on the screen of the display unit 14, and at which position Which AR characters are arranged in the memory (this is because it is necessary to determine which AR character is selected when the display screen is touched later).
  • FIG. 13 is a flowchart showing an operation procedure when an AR character is displayed when the partner terminal apparatus is not in proximity in the personal identification character display system according to the first embodiment of the present invention.
  • the operation of the flowchart shown in FIG. 13 is executed when the display of FIG. 6 is performed in the situation shown in FIG. 5 (the situation where the user A and the user B are separated).
  • the display target of the AR character is another individual stored in the other AR character definition 163 of the terminal device 1.
  • Step C1 In step C 1, the camera of the camera unit 11 is operated by the operator, an image serving as a display base is captured, and image data captured in the image memory 12 is acquired.
  • Step C2 In step C2, the position information of the position where the terminal device 1 exists is acquired via the GPS / magnetic sensor 15 activated by the operator.
  • Step C3 In step C3, the direction of the terminal device 1 is acquired via the GPS / magnetic sensor 15 activated by the operator.
  • Step C4 the AR control unit 16 re-acquires the other person's personal record by executing the other person data acquisition process shown in FIG.
  • network communication means via the network communication unit 17 is used as communication means with the AR database server 3.
  • the AR control unit 16 calculates the direction of the counterpart terminal device viewed from the terminal device 1 on the display screen of the display unit 14.
  • Step C6 the AR control unit 16 calculates the distance between the terminal device 1 and the counterpart terminal device.
  • step C7 the AR control unit 16 synthesizes the AR character corresponding to the counterpart terminal device and the balloon graphic in the image memory 12 and displays them in the approximate location on the display screen of the display unit 14, and ends the process. . Thereby, the screen display illustrated in FIG. 6 is output.
  • FIG. 14 is a flowchart showing an operation procedure when the communication partner finding function is realized in the personal identification character display system according to the first embodiment of the present invention.
  • the AR control unit 16 executes a range designation AR display process shown in FIG. Thereby, the image shown on the left side of FIG. 9 is displayed.
  • the operator designates the drawing position of one AR character displayed in the image displayed on the left side of FIG. Since the AR control unit 16 has stored the drawing position of the AR character in the process of step B9 in FIG. 12, the AR control unit 16 can determine which AR character has been selected by the above-mentioned designation, and the other person's AR character. Which definition record is stored in the definition unit 163 can be determined.
  • the AR control unit 16 deletes other definitions while leaving only the definition selected above.
  • step C24 the AR control unit 16 executes a long-distance AR display process shown in FIG. As a result, the display screen of the display unit 14 transitions to the display state of the graphic at the center shown in FIG. 9, so that the operator can walk while looking at this display and approach the counterpart terminal device.
  • step C25 the AR control unit 16 verifies whether or not the distance between the terminal device 1 and the partner terminal device calculated in the process of step C6 shown in FIG. 13 is within 5 m, and the distance is within 5 m. Advances to step C26, and if the distance is not within 5 m, returns to step C24.
  • step C26 In step C26, as shown in FIG.
  • the AR control unit 16 activates the face recognition unit 13 when the distance to the opponent is within 5 m, for example, and defines the specified definition in the image acquired from the camera unit 11. It is searched whether there is a face image close to the stored key. (Step C27) In step C27, the AR control unit 16 verifies whether or not a face image close to the key is searched in the process of step C25. If a face image close to the key is searched, the process proceeds to step C28. If a face image close to is not found, the process returns to step C24.
  • Step C28 the AR control unit 16 executes the short distance AR display process shown in FIG. 11A.
  • the display screen of the display unit 14 transitions to the display state shown on the right side of FIG.
  • the face recognition unit 13 is activated when the operator approaches within 5 m, and it has been confirmed that the face image has been detected.
  • the near distance AR display process shown in FIG. 11A is executed above, the face image detection process may be omitted and the near distance AR display process shown in FIG. .
  • the character display may temporarily disappear from the display screen of the display unit 14, but instead, the facial image recognition process is executed following the long-distance AR display process in step C24.
  • a specific individual is detected by executing face image recognition processing on an image taken by a user, and the detected individual's face portion is used as a marker. Since an AR character customized for each character can be synthesized and drawn, for example, it is possible to provide an image that fuses and expresses an animation work in which the main character and a slave who follows the main character are characters and the real world. Yes.
  • the personal portable terminal device can be used as an AR data server, so that not only customization operations are easy, but also customization by individual users has an immediate effect. At the same time, it can be reflected in video viewed from other terminal devices.
  • the network communication means of the network communication unit 17 is configured to be able to distribute the AR character data in cooperation with the AR database server 3, so that the terminal devices are close to each other. If there is another registered user in the vicinity of the self-terminal device, it is possible to indicate the approximate position of the other registered user, and a plurality of other registered users in the vicinity of the self-terminal device. If there is, the plurality of registered users can be indicated by AR character images set by other registered users. Furthermore, at this time, by designating one of a plurality of AR characters set by other registered users with a finger, it becomes possible to designate and track only a specific individual.
  • the present invention generally includes a server device that cooperates. Only the terminal ID, the user name, and the current position of the terminal device are retained, and the face key and the character definition are acquired by redirecting the acquisition request to the terminal device of each user who is subscribed to this system. It is also possible to configure. Further, the linked server device does not hold the position information indicating the current position of each terminal device, and holds only the user name and the terminal ID so that the current state of the terminal device can be remotely controlled from the server device. You may make it acquire a position and may acquire a part of AR character definition data from the terminal device which acquired the present position with a key and character definition data.
  • FIG. 15 is a configuration diagram showing the overall configuration of the personal identification character display system according to the second embodiment of the present invention.
  • the overall configuration of the personal identification character display system according to the second embodiment of the present invention shown in FIG. 15 is the same as the overall configuration of the personal identification character display system according to the first embodiment of the present invention shown in FIG.
  • the face key, the character definition, and the terminal current position stored in the AR character database 34 of the AR database server 3 are shown in parentheses only in the first aspect of the present invention shown in FIG. This is a difference from the personal identification character display system according to the embodiment.
  • the purpose of such expression is that the AR character database 34 of the AR database server 3 does not actually hold the data, and the data is obtained from another designated terminal device. It is to indicate that only the transferred data is transferred.
  • FIG. 16 is a data configuration diagram showing a configuration as an example of personal record data in the personal identification character display system according to the second embodiment of the present invention.
  • the personal record data shown in FIG. 16 represents personal record data held by individual terminal devices of users who have subscribed to the present system.
  • the AR database server 3 also has a terminal ID, name, And a group ID are held.
  • the operation of the personal identification character display system according to the second embodiment will be described focusing on the function of the AR database server 3.
  • the AR database server 3 sends the request to the subscriber user's terminal device specified in the communication request. Request transmission of AR character definition data.
  • the AR character definition data is acquired from the designated terminal device, and the terminal device of the subscribing user who is the first request source is in the designated terminal device.
  • the AR character database 34 has the same group ID as that of the user. It searches for another terminal device, and tries to connect to the terminal device for which this search is hit.
  • this terminal device responds and the AR character definition data of the corresponding user is held in the other person AR character definition of this terminal device, the held AR character definition data is transmitted and the first request is made. Transfer to the terminal device of the original subscriber user.
  • the terminal device having the same group ID has the AR character definition data of the requested terminal device, so the requested user's AR character definition data. Can increase the possibility of acquiring.
  • FIG. 17 is a flowchart showing an operation procedure during data transfer of the AR database server 3 in the personal identification character display system according to the second embodiment of the present invention.
  • the AR database server 3 obtains the AR character definition data of the user of the designated partner terminal device from, for example, the mobile phone terminal 1 by the same process as the other person data acquisition process of FIG. 10B in the first embodiment.
  • the search control unit 33 of the AR database server 3 searches the AR character database 34 for the terminal ID of the subscribing user specified by the name in the request for the AR character definition data, and via the terminal communication unit 31. Then, it is tested whether or not communication with the terminal device having the terminal ID of the search result is possible.
  • step D3 the search control unit 33 determines whether or not communication with the terminal device of the subscriber user is possible based on the result of the test in step D2 whether or not communication with the terminal device of the designated subscriber user is possible. If the communication with the designated subscriber user's terminal device is possible, the process proceeds to step D4. If the communication with the designated subscriber user's terminal device is impossible, the process proceeds to step D6.
  • step D4 the search control unit 33 acquires AR character definition data stored in the AR character definition of the terminal device of the subscriber user.
  • step D5 the search control unit 33 transfers the AR character definition data acquired in the process of step D4 to the original request source terminal device (here, the mobile phone terminal 1) via the terminal communication unit 31.
  • step D6 the search control unit 33 searches the AR character database 34 for another terminal device having a group ID defined as a communication target in the request.
  • step D7 the search control unit 33 verifies whether another terminal device having the group ID has been searched as a result of the search process in step D6, and the other terminal device having the group ID is searched. If YES in step D8, the flow advances to step D8. If no other terminal device having the group ID is found, the flow advances to step D13.
  • step D8 the search control unit 33 tests whether or not communication with the terminal device having the terminal ID of the search result is possible.
  • the search control unit 33 verifies whether or not communication with the terminal device having the terminal ID of the search result is possible based on the result of the test in step D8, and if communication with the terminal device is possible The process proceeds to step D10, and if communication with the terminal device is impossible, the process returns to step D6.
  • Step D10 the search control unit 33 acquires the data of the terminal device of the subscribed user specified by the name in the request, which is stored in the AR character definition of the terminal device having the terminal ID of the search result.
  • step D11 the search control unit 33 verifies whether or not the acquisition of the data is successful. If the acquisition of the data is successful, the process proceeds to step D12. If the acquisition of the data is not successful, the search control unit 33 proceeds to step D12. Return to D6.
  • step D12 the search control unit 33 acquires the AR character definition data of the terminal device of the subscribing user specified by the name in the request, which is stored in the AR character definition of the terminal device having the terminal ID of the search result. Then, the process proceeds to step D5.
  • step D13 the search control unit 33 notifies the first request source terminal device (in this case, the mobile phone terminal 1) that “AR character definition data of the person specified by the name could not be acquired”. Respond to the signal.
  • FIG. 18 is a flowchart showing an operation procedure of the terminal device when data is transferred from the terminal device side to the AR database server 3 in the personal identification character display system according to the second embodiment of the present invention.
  • the network communication unit 171 of the mobile phone terminal 1 receives from the AR database server 3 a terminal ID transmission request transmitted by the terminal device 2 (mobile phone terminal 2) to which data is to be transferred.
  • the AR control unit 16 of the terminal device 1 determines whether the storage data of the self AR character definition 162 is requested. If the storage data of the self AR character definition 162 is requested, the process proceeds to step E7. If the stored data of the self AR character definition 162 is not requested, the process proceeds to step E3.
  • Step E3 the AR control unit 16 of the terminal device 1 verifies whether or not the received terminal ID data is stored in the other-party AR character definition 163.
  • Step E4 the AR control unit 16 of the terminal device 1 determines whether or not the data of the corresponding terminal ID is stored in the other person AR character definition 163 by the verification in step E3. If the data of the corresponding terminal ID is stored in the character definition 163, the process proceeds to step E5. If the data of the corresponding terminal ID is not stored, the process proceeds to step E.
  • Step E5 the AR control unit 16 acquires the received terminal ID data stored in the other-party AR character definition 163, transmits it to the AR database server 3 via the network communication unit 171, and ends the processing. .
  • Step E6 the AR control unit 16 transmits a signal indicating that the data of the corresponding terminal ID has not been stored to the AR database server 3 via the network communication unit 171 and ends the process.
  • Step E7 the AR control unit 16 acquires the data of the corresponding terminal ID stored in the self AR character definition 162, transmits it to the AR database server 3 via the network communication unit 171, and ends the process.
  • a plurality of terminal device groups having the same group ID and the AR database server 3 come to play the role of a data cache server, and the terminal device that first requested AR character definition data (here) The mobile phone terminal 1) can obtain the requested data with high accuracy.
  • the AR character image touched by the finger has the same group ID.
  • the subscriber user of this system can check how much other subscriber users of this system specified by the finger touch of the AR character image are in front of each other. Will be protected.
  • the AR database server 3 when this display is performed, it is possible to specify in advance for the AR database server 3 to search only for persons having the same group ID. In each process for referring to the group ID, the group ID setting is leaked to others by exchanging the hash code calculated from the character string instead of the character string of the group ID at the time of communication. Can be prevented.
  • each component of the personal identification character display system is executed by computer control, and the above processing is shown in the flowcharts of FIGS. 10A to 14, 17, and 18.
  • the computer program to be executed by the computer according to the operation procedure shown may be distributed by storing it in a computer-readable recording medium such as a semiconductor memory, a CD-ROM, or a magnetic tape.
  • a computer including at least a microcomputer, a personal computer, and a general-purpose computer may read the computer program from the recording medium and execute the computer program.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Computer Hardware Design (AREA)
  • Computer Graphics (AREA)
  • Biodiversity & Conservation Biology (AREA)
  • Human Computer Interaction (AREA)
  • Remote Sensing (AREA)
  • Environmental Sciences (AREA)
  • Environmental & Geological Engineering (AREA)
  • Emergency Management (AREA)
  • Ecology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Business, Economics & Management (AREA)
  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

 端末装置は、AR制御部にキャラクター定義として、自己端末ユーザのキャラクター画像、及びARデータベースサーバ(または他端末装置)から取得した他端末ユーザのキャラクター画像を保持する。また、他端末装置の位置と、カメラ部が向いている方向を取得することができる。撮影者の端末装置は、取得した前記方向に、探している他端末装置のユーザが居るか否かを、他端末装置の特定ユーザの顔画像を画像認識手段を用いて識別することで判定し、他端末装置の特定ユーザが居る場合には、その他端末装置の特定ユーザのキャラクター画像を、カメラ部が得た画像の顔画像領域の近傍に、合成して表示する。

Description

個人識別キャラクター表示システム、端末装置、個人識別キャラクター表示方法、及びコンピュータプログラム
 本発明は個人識別キャラクター表示システム、端末装置、個人識別キャラクター表示方法、及びコンピュータプログラムに係り、特に、撮影して得られた撮像データから特定の個人を識別すると共に、特定の個人を撮影した撮像の近傍に、撮影された個人を視認できる個人識別キャラクターを併せて表示することができる個人識別キャラクター表示システム、端末装置、個人識別キャラクター表示方法、及びコンピュータプログラムに関する。
 近年、撮影者がカメラ等で撮影した現実世界の撮像に、コンピュータグラフィック(CG)を使って、CG描画した画像を合成して表示装置に表示する技術が開発されている。特に、撮影した現実世界の個人の撮像データに、予め登録(設定)され、かつ指定したCG画像データを合成する技術が注目されている。
 この分野の公知技術情報としては、例えば、非特許文献1に開示されたものが有る。
 非特許文献1では、平行四辺形の各頂点に配置されたマーカーを用いて、物体の3次元位置及び姿勢を計測して現実世界の映像に仮想物体を合成する方法について記載している。
 また、特許文献1には、複合現実感表示装置及び方法、記憶媒体、並びにコンピュータプログラムについて示されている。そして具体的には、現実世界の特定の場所に、模様を描いたマーカーや点滅するLED光源を設置することで、カメラを通して撮影した画像にCG画像を合成して表示することができる。これによれば、例えば、現実世界の特定の場所に家具を設置した場合の風景をシミュレーションして表示装置によって視認することできる。そして、上記の複合現実感表示方法を、家具や家電製品の現実空間への配置シミュレーションとして応用することを示している。
 また、特許文献2には、ポータブル拡張現実感デバイスおよびその方法が示されてされており、上記の表示システムを携帯ゲーム装置に適用した実施例が述べられている。
 特許文献3には、エンタテイメント装置、システム、及び方法が示されており、上記の固有の物体としてサイコロ状の物体を使用する実施例が開示されている。
 また、特許文献4には、目標位置探索装置、目標位置探索方法及びプログラムについて記載されている。これは本件出願人の先願特許技術であり、AR(Augmented Reality:拡張現実感)による個人及び目的施設等の検索表示システムについて記載されている。
 具体的には、検索対象による区別を行なわない、単純な図形による表示方法によって、現実の映像に対象とする物の位置を表す図形を合成表示するものである。
特許4032776号公報 特表2008‐510254号公報 特開2010‐049690号公報 特許3729161号公報
加藤博一、Mark Billinghurst、浅野浩一、橘啓八郎共著の論文『マーカー追跡に基づく拡張現実感システムとそのキャリブレーション』(日本バーチャルリアリティ学会論文誌, Vol.4, No.4, 1999)
 上記の背景技術で示した文献の個人識別キャラクター表示システムには、例えば、特許文献1~4において開示された技術において、下記の問題点が有った。
 前述の特許文献1に開示された技術では、画像を配置する位置に固有の物体を設置することが必要である。
 即ち、この技術では、画像を合成する場所を指定するためのマーカーとして特別な物体(マーカー物体)を用意する必要がある。また、多くの種類の合成CG画像を制御するためには、無数の種類のマーカー物体が必要になるため、予め準備されたマーカーによって表示できるCG画像の種類は非常に限られたものになる。
 また、特許文献2,3による技術では、特許文献1に示された技術と同様に、画像を合成する場所を指定するためのマーカーとして、特別な物体を用意する必要が有り、また、多くの種類の合成CG画像を制御するためには、対応する無数の種類のマーカー物体が必要になる。このため、予め用意したマーカー(マーカー物体に対応したマーカー)によって表示できるCG画像の種類は非常に限られたものにならざるを得ない。これらは、本発明とは異なり、個人がカスタマイズした無数の画像のマーカーを用意して、端末装置間でデータ共有することなどは不可能であった。
 前述の特許文献4に開示された技術では、AR合成技術によって、風景の中の遠方にいる個人の距離と方向を表示することができる。しかし、これによって合成される画像は相手が誰であっても固定され、演出力が不足している。
 また、特許文献4に開示された技術では、予め探す個人を特定して表示することしかできない。これによると、合成に用いる画像を、特定個人を表す画像データとしてカスタマイズすることができないので、風景の中に存在している仲間の存在に気づいたり、その気づいた中から個人を特定して、撮影者がその個人の元にまで辿り着くといった用途には使用することができなかった。
 本発明は、上に述べた従来の問題点に鑑みてなされたものであって、画像認識技術を使用することで、撮影者が撮影した撮像から特定の個人を識別することを可能にすると共に、前記特定の個人の撮像の近傍にその個人を視認できる個人識別キャラクターを併せて表示することができる個人識別キャラクター表示システムを提供することを目的としている。
 上記課題を解決するために、本発明に係る個人識別キャラクター表示システムは、端末装置に搭載したカメラで撮影した現実世界の画像にCG描画した画像を合成描画する個人識別キャラクター表示システムであって、
 前記カメラで撮影した現実世界の画像データから、前記画像データを表示する画像領域において所定の被写体の特徴を有する部分領域を、パターンマッチング法で認識して検出する検出部と、前記現実世界の画像の前記検出した部分領域に、前記部分領域で特徴付けられた前記被写体に対応して予め保持されている所定のCG画像を合成描画する合成描画部と、前記合成された画像領域を含む前記現実世界の画像を表示する画像表示部と、を備えたことを特徴とする。
 また、本発明に係る端末装置は、前記端末装置が搭載するカメラで撮影した現実世界の画像にCG描画した画像を合成描画する端末装置であって、前記カメラで撮影した現実世界の画像データから、前記画像データを表示する画像領域において所定の被写体の特徴を有する部分領域を、パターンマッチング法で認識して検出する検出部と、前記現実世界の画像の前記検出した部分領域に、前記部分領域で特徴付けられた前記被写体に対応して予め保持されている所定のCG画像を合成描画する合成描画部と、前記合成された画像領域を含む前記現実世界の画像を表示する画像表示部と、を備えたことを特徴とする。
 また、本発明に係る個人識別キャラクター表示方法は、端末装置に搭載したカメラで撮影した現実世界の画像にCG描画した画像を合成描画する個人識別キャラクター表示方法であって、前記カメラで撮影した現実世界の画像データから、前記画像データを表示する画像領域において所定の被写体の特徴を有する部分領域を、パターンマッチング法で認識して検出するステップと、前記現実世界の画像の前記検出した部分領域に、前記部分領域で特徴付けられた前記被写体に対応して予め保持されている所定のCG画像を合成描画するステップと、前記合成された画像領域を含む前記現実世界の画像を表示するステップと、を有することを特徴とする。
 さらに、本発明に係るコンピュータプログラムは、搭載するカメラで撮影した現実世界の画像にCG描画した画像を合成描画する端末装置を制御するためのコンピュータプログラムであって、前記カメラで撮影した現実世界の画像データから、前記画像データを表示する画像領域において所定の被写体の特徴を有する部分領域を、パターンマッチング法で認識して検出するステップと、前記現実世界の画像の前記検出した部分領域に、前記部分領域で特徴付けられた前記被写体に対応して予め保持されている所定のCG画像を合成描画するステップと、前記合成された画像領域を含む前記現実世界の画像を表示するステップと、を有することを特徴とする。
 以上説明したように、本発明の個人識別キャラクター表示システムによれば、特定の個人を検出し、その個人の顔部分をマーカーにして、個人毎にカスタマイズされたARキャラクターを合成描画することができるため、例えば、主人公とその主人公に従う従者とを登場人物とするアニメーション作品と、現実世界とを融合表現した画像を提供することができる。
本発明の第一の実施形態に係る個人識別キャラクター表示システムの全体構成を示す構成図である。 本発明の第一の実施形態に係る個人識別キャラクター表示システムの携帯電話端末の外観を示す構成図である。 図1に示されたARキャラクタデータベースが格納する個人レコードのデータ構成の詳細を示すデータ構成図である。 ARキャラクター定義と画像との対応例を示す説明図である。 ARキャラクター定義と画像との対応例を示す説明図である。 ARキャラクター定義と画像との対応例を示す説明図である。 ARキャラクター定義と画像との対応例を示す説明図である。 撮影対象のユーザが遠距離である場合のユーザ間の位置関係の1例として示す説明図である。 撮影対象のユーザが遠距離である場合の表示部の表示例を示す説明図である。 撮影対象のユーザが近距離である場合のユーザ間の位置関係の1例として示す説明図である。 撮影対象のユーザが近距離である場合の表示部の表示例を示す説明図である。 本発明の第一の実施形態に係る個人識別キャラクター表示システムの通信相手発見機能における表示画面の推移を示す説明図である。 本発明の第一の実施形態に係る個人識別キャラクター表示システムにおいて、ユーザが端末装置を操作して自己ARキャラクターデータの定義を行うときの動作手順を示すフローチャート図である。 本発明の第一の実施形態に係る個人識別キャラクター表示システムにおいて、他者の端末装置からキャラクター定義データを取得する場合の動作手順を示すフローチャート図である。 本発明の第一の実施形態に係る個人識別キャラクター表示システムにおいて、通信相手の相手端末装置が近接している場合にARキャラクターを表示する場合の動作手順を示すフローチャート図である。 本発明の第一の実施形態に係る個人識別キャラクター表示システムにおいて、相手端末装置が近接している場合に顔起点AR表示する場合の動作手順を示すフローチャート図である。 本発明の第一の実施形態に係る個人識別キャラクター表示システムにおいて、撮影範囲を検索した時にARキャラクターを表示する場合の動作手順を示すフローチャート図である。 本発明の第一の実施形態に係る個人識別キャラクター表示システムにおいて、相手端末装置が近接していない場合にARキャラクターを表示する場合の動作手順を示すフローチャート図である。 本発明の第一の実施形態に係る個人識別キャラクター表示システムにおける通信相手発見機能を実現する場合の動作手順を示すフローチャート図である。 本発明の第二の実施形態に係る個人識別キャラクター表示システムの全体構成を示す構成図である。 本発明の第二の実施形態に係る個人識別キャラクター表示システムにおける個人レコードデータの1例としての構成を示すデータ構成図である。 本発明の第二の実施形態に係る個人識別キャラクター表示システムにおけるARデータベースサーバのデータ転送時の動作手順を示すフローチャート図である。 本発明の第二の実施形態に係る個人識別キャラクター表示システムにおいて、端末装置側からARデータベースサーバへデータを転送する時の端末装置の動作手順を示すフローチャート図である。
 本発明の一実施形態においては、個人の顔の画像上での特徴を抽出する画像認識部により、特定の個人を認識すると共に、その個人と強く結び付けられた合成すべき画像(ARキャラクター)を、その個人の近辺画像に併せて表示する。
 これにより、個人毎にカスタマイズされた無数のARキャラクターを制御することが可能となる。例えば、主人公に従う従者を持つアニメーション作品と、現実に撮影された人物とを融合表現するような画像を提供するサービスの実施が可能となる。また、眼前の風景にいるユーザをカスタマイズされた図形を羅列して表示することを可能にすると共に、その中から特定の個人を指定する操作を実行することができる。
 本発明の一実施形態における個人識別キャラクター表示システムは、
 (1) 複数の端末装置(例えば、携帯電話端末装置)と、データベースサーバとがネットワーク接続される構成において、複数の端末装置の各々は、カメラ部、測位部、方位測定部を備えおり、
 (2) 少なくとも撮影者の端末装置は、キャラクター定義部の中に、端末ユーザのキャラクター画像、及びデータベースサーバ(或いは、他の端末)から取得した他の端末ユーザのキャラクター画像を保持することができ、
 (3) 少なくとも撮影者の端末装置は、カメラ部から眼前の画像を取得して表示し、また、前記撮影者の端末装置の位置を取得することができる。
 さらに、本発明の一実施形態の個人識別キャラクター表示システムにおいては、
 (4) 少なくとも撮影者の端末装置は、カメラ部が向いている方向を取得することができ、
 (5) 少なくとも撮影者の端末装置は、取得した前記方向に、探している他の端末装置のユーザが居るか否かを、撮影者の端末装置とは異なる他の端末装置の特定ユーザの顔画像を画像認識部を用いて識別することで判定し、前記他の端末装置の特定ユーザが居る場合には、前記他の端末装置までの距離を表示すると共に、前記他の端末装置の前記特定ユーザのキャラクター画像を、カメラ部が得た画像に合成して表示する。なお、より具体的には、合成するキャラクター画像は、前記他の端末装置の特定ユーザの顔から画像認識部を用いて抽出した特徴情報により選択されるように構成する。
 すなわち、本発明の一実施形態においては、撮影した撮像データにおいて特定の個人を識別すると共に、その特定の個人と強く関連付けられた(即ち、特定の個人をカスタマイズしたAR(Augmented Reality):拡張現実感)キャラクターを、前記特定の個人の撮像画像の近傍に表示できるようにするシステムであり、個人を特定するためには、例えば顔認識機能を使用し、この認識した顔部分を画像の合成場所を指定するマーカーにして、上記の個人に関連付けられたARキャラクターを併せて描画する。
 通常、ARキャラクターデータの配信は、撮影した個人が所有する撮影者の携帯端末装置がARデータサーバとなって行われる。
 他のユーザ(他の登録会員個人)の携帯端末装置が前記撮影者の端末装置と近接する場合(近距離無線通信手段等が使用できる範囲の場合)は、近距離無線通信手段等により、前記他のユーザの携帯端末装置が直接ARデータサーバとして動作する。
 また、他のユーザの携帯端末装置が撮影者の端末装置と近接しない場合(近距離無線通信手段等が使用できない範囲の場合)は、ネットワーク通信により、中央サーバと通信して携帯端末装置からデータを取得したサーバがデータを直接配信するか、若しくは携帯端末装置に中継接続して間接的に配信する。
 撮影者の端末装置が、他のユーザの他の携帯端末装置と近接しなくても、近傍に他のユーザが居る場合は、他のユーザの概略の位置を示したり、近傍に複数の他のユーザがいることを示すことができ、示されたキャラクターを指定することによって他の個人を指定することができる。
 なお、撮影した登録会員個人が所有する携帯端末装置に保持されている撮影者のARキャラクターデータは、特殊には、撮影者個人が自分で撮影者自身の顔を撮影する場合に参照するように構成することも可能であるが、一般には、前記撮影した登録会員とは別の他の登録会員個人の携帯端末装置から参照されるものである。
 これにより、登録会員のユーザに、AR環境で特定のアニメキャラクターの周囲を飛ぶ妖精や小動物のようなキャラクターをARキャラクターデータとして撮影者の装置に設定することで、アニメーション作品と現実とを融合した画像を表示するサービスを提供することができる。
 さらに、カメラに写った前記の妖精や小動物を指定して、被写体となった本人のいる場所まで撮影者が辿り着くことができるシステムも提供できる。
 以下、本発明に係わる個人識別キャラクター表示システム、端末装置、及びコンピュータプログラムの実施形態について、第一の実施形態、第二の実施形態の順に図面を参照して詳細に説明する。
 なお、それぞれの実施形態の説明では、本発明に係る個人識別キャラクター表示システム、個人識別キャラクター表示方法、及び端末装置について詳述するが、本発明に係るコンピュータプログラムについては、前記端末装置を動作させるためのプログラムであることから、その説明は以下の説明に含まれる。
〔第一の実施形態〕
 図1は、本発明の第一の実施形態に係る個人識別キャラクター表示システムの全体構成を示す構成図である。
 図1に示す本実施形態に係る個人識別キャラクター表示システムは、携帯電話端末装置である携帯電話端末1及び携帯電話端末2(いずれも本発明の実施形態に係る端末装置)と、ARデータベースサーバ3と、を備えいる。
 但し、本発明における係る個人識別キャラクター表示システムでは、一般に、2台以上の端末装置とデータベースサーバ装置によって構成することが可能である。本発明の実施形態に係る端末装置として、携帯電話端末装置1と、携帯電話端末2とを備える構成としたが、端末装置の構成は上記の構成に限定されるものではなく、従って、その台数は任意の複数でもよい。
 また、本発明の実施形態に係る端末装置は、携帯電話端末装置やスマートフォンとは限らず、他の装置、例えば、ゲーム機、タブレットPC、ノートPCでもよい。
 以下の説明では、一例として、携帯電話端末装置1(端末装置1)と、携帯電話端末2(端末装置2)とは、同じ構成であるものとするが、携帯電話端末装置1と携帯電話端末2の機能が同じであれば、本発明の実施形態に係る複数の端末装置の各々が、他と異なる構成であっても良い。
 携帯電話端末装置1は、カメラ部11と、画像メモリ部12と、顔認識部13と、タッチパネルで構成された表示部14と、GPS/磁気センサ15と、AR制御部16と、通信部17と、を備える。
 AR制御部16は、制御プログラム161と、自己ARキャラクター定義162と、他者ARキャラクター定義163と、を備える。
 通信部17は、ネット通信部171と、近距離通信部172と、を備える。
 携帯電話端末装置2は、カメラ部21と、画像メモリ部22と、顔認識部23と、タッチパネルで構成された表示部24と、GPS/磁気センサ25と、AR制御部26と、通信部27と、を備える。
 携帯電話端末2におけるAR制御部26は、制御プログラム261と、自己ARキャラクター定義262と、他者ARキャラクター定義263と、を備える。
 通信部27は、ネット通信部271と、近距離通信部272と、を備える。
 ARデータベースサーバ3は、端末通信部31と、登録制御部32と、検索制御部33と、ARデータキャラクタデータベース34と、備える。
 ARデータキャラクタデータベース34は個人レコード1(341)と、個人レコード2(342)と、個人レコード3(343)…と、個人レコードn(34n)と、を備える(但し、前記のnは登録されたレコード数である)。
 図2は、本発明の第一の実施形態に係る個人識別キャラクター表示システムの携帯電話端末1及び携帯電話端末2の外観を示す構成図である。
 図2では、カメラ部11の一部と、表示部14の構成要素である表示画面141と、GPS/磁気センサ部16の構成要素であるGPS151及び磁気センサ152と、を示している。
 以下、図1,2を参照して、本実施形態に係る個人識別キャラクター表示システムの機能を説明する。
 なお、以下の説明では、携帯電話端末1の機能も併せて説明するが、携帯電話端末2の機能も携帯電話端末1の機能と同様であり、よって、以下の説明に含まれるものとする。
 カメラ部11で撮影された画像は画像メモリ12に保持される。
 画像メモリ12には顔認識部13が接続されている。この顔認識部13は、カメラ部11で撮影された画像中の人物の顔部分を切り出して、その大きさと位置を取得する手段と、切り出した顔の特徴を数値化する手段とを具備している。
 また、画像メモリ12は、AR制御部16からもアクセスが可能であり、ここに図形を描画することで現実の風景に図形を合成描画して表示することを可能にしている。
 この描画の際には、制御プログラム161は、顔の特徴数値に関連付けられた図形を、切り出された顔領域の大きさに応じて拡大縮小し、顔領域の近傍に表示する。
 また、時刻をキーに相対位置を変化させることで検出された顔領域の上方周囲を飛翔するようなアニメーション表現をも可能にしている。
 AR制御部16のキャラクター定義部(携帯電話端末1における自己ARキャラクター定義162及び他者ARキャラクター定義163)を備えており、制御プログラム161はキャラクター定義に定義されたデータを参照して画像メモリ12に図形を描画する。
 キャラクター定義としては、本システムへの登録ユーザである携帯電話端末1の使用者のための定義であり、本システムへの他の登録ユーザの端末装置(例えば携帯電話端末2)において表示が行われることになる携帯電話端末1の使用者の自己ARキャラクター定義を1つ(ここでは携帯電話端末1の自己ARキャラクター定義162)と、本システムへの他の登録ユーザの1つ以上のARキャラクタ(携帯電話端末1で表示する)を定義するARキャラクター定義を1つ(ここでは他者ARキャラクター定義163)とを具備する。
 さらに、AR制御部16は、携帯電話端末1で表示するための複数の他者ARキャラクター定義を格納する手段を具備している。
 携帯電話端末1の自己ARキャラクター定義162の定義データは通信部17による参照が可能となっており、通信部17に具備された近距離通信部172(無線通信部)などによる近距離通信によって端末装置の間(例えば、携帯電話端末1と携帯電話端末2)でデータ交換が可能であるか、若しくは同じく通信部17に具備されたネット通信部171によってネットワークに設置されたARデータベースサーバ3に定義データをアップロードすることが可能である。
 上記と逆の動作として、通信部17は、近距離通信部172及び/またはネット通信部171を介して、ARデータベースサーバ3にアップロードされた携帯電話端末2の定義データを携帯電話端末1のARキャラクター定義部163にダウンロードすることができる。
 また、携帯電話端末1のGPS/磁気センサ15は、GPSによる端末位置の測位部及び磁気センサーによる方位測定部として搭載されている。なお、AR制御部16の制御プログラム161からも測位結果を参照することができる。
 ARデータベースサーバ3は、携帯電話端末1との通信手段として端末通信部31を備えており、携帯電話端末1から端末通信部31を介して送られて来たキャラクター定義データを格納する手段としてARキャラクタデータベース34を備える。
 また、ARデータベースサーバ3は、携帯電話端末1からARデータベースサーバ3に格納されているデータの検索要求を受ける手段として検索制御部33を備えている。
 この検索制御部33は、端末通信部31を介して検索結果を携帯電話端末1にネットワーク送信する手段を備えている。
 さらに、ARデータベースサーバ3は、一人当たり少なくとも1レコードで構成されるARキャラクターをARキャラクタデータベース34に登録する手段として、登録制御部32を備える。
 図1に示すように、ARキャラクタデータベース34が格納する1レコード分のデータには、端末装置を識別する端末IDとユーザ名、端末装置1の持ち主の顔認識を行った際に算出される特徴値である顔キー、個人毎にカスタマイズされた図形情報であるキャラクター定義、及びGPS等で計測される端末装置の現在位置が格納されている。
 但し、前記端末装置の現在位置は、複数の登録ユーザの複数の端末装置間で交信される現在位置取得要求を、ARキャラクタデータベース34が中継した時に取得されるものである。
 なお、後述の第2実施形態でも説明するが、このデータの格納方法は、端末IDとユーザ名、及び端末の現在位置情報だけを保持して、顔キーとキャラクター定義情報はデータが格納される対象の端末装置に情報取得要求をリダイレクトして前記データが格納される端末装置自身が情報を配信するように構成することもできる。
 図3は、ARキャラクタデータベース34が格納する個人レコードのデータ構成の詳細を1例として示すデータ構成図であり、図3は個人レコードの全体構成と個人レコードのキャラクター定義の詳細構成を例示するものである。
 図3に例示するARキャラクタデータベース34が格納する個人レコードのデータは、端末装置の電話番号や通信MACアドレスなどの端末装置を識別できる端末ID、端末IDと関連付けるユーザの氏名データ、顔キー、キャラクター定義データ、端末の現在位置のデータで構成されている。
 図3に例示する個人レコードのキャラクター定義には、キャラクターの種別、パーツの形状及び色や模様、キャラクターの名称などが含まれており、キャラクターの種別や模様は、図4A~図4Dに示すようなコードが定義されていて、本システムのユーザは、これらを自由に組み合わせて独自のキャラクターを定義することができる。
 図4A~図4Dは、ARキャラクター定義と画像との対応例を示す説明図である。
 図4Aは、種別コードが1(トンボ)、図4Bは種別コードが2(蝶)の場合を示している。
 図4Cは、前羽の模様=1、図4Dは前羽の模様=2の場合を示している。
 図4A~図4Dでは、簡便にするために昆虫の例で示したが、もっと複雑なキャラクターにしても構わない。
 図5は、ユーザAと撮影対象のユーザBが遠距離である場合のユーザ間の位置関係を1例として示す説明図である。ユーザAの位置座標は(X1,Y1,Z1)として示されている。また、ユーザBの位置座標は(X2,Y2,Z2)と示されている。
 図6は、撮影対象のユーザBが遠距離である場合の端末装置1における表示部14の表示例を示す説明図である。
 前述のキャラクター定義レコードにより、ユーザとカスタマイズ定義された図形とが対応付けされるので、例えば、図5に示すようなユーザAとユーザBの位置を、現実の風景に合成して表示する動作において、撮影対象のユーザを端的に表す小さいキャラクター図形を用いて図6に示すような表示をすることが可能となる。
 もしも、同時に二人を表示する場合であっても、図6に示すように小さいキャラクター図形を用いているため、同時に二人分のキャラクター図形を端末装置の表示部に表示することが可能であり、よって、キャラクターとユーザとの関連が既知であれば、どの辺りに、どちらの人が居るかを一目で視認できる表示をすることが可能となる。
 図6に示す距離を表す数値に関しては、選択したキャラクターとの距離を数値で表すようにすることも可能である。
 例えば、図6では、太い実線の吹き出し内の図形の方が選択したキャラクターを表しており、図5に示すユーザBからユーザAまでの距離の表示を例示している。
 図7は、撮影対象のユーザBがユーザAと近距離である場合のユーザ間の位置関係を1例として示す説明図である。
 図7は、図5に示すユーザBが、ユーザAとの間で近距離通信が可能な距離に近づいたときの様子を例示したものである。
 ユーザAとユーザBとの距離が近距離通信が可能な距離に近づいたか否かは、ユーザAとユーザB間の距離と、予め設定された閾値とを比較することで決定され、ユーザAが使用する端末装置1から、この状態に至ったことが通知される。この場合、ユーザAは、自己が使用する端末装置1とARデータベースサーバ3とを介して、この状態に至ったことをユーザBに通知し、ユーザBの端末装置2を近距離通信モードに切り換えさせることができる。
 図8は、撮影対象のユーザが近距離である場合の表示部14の表示例を示す説明図である。
 図7は、図5に示すユーザBが、ユーザAに近づいたときの様子を例示したものであったが、この場合、端末装置1(ここでは携帯電話端末1の表示部14)の表示画面は、例えば図8に示すようになる。
 ここでは、顔認識した領域をマーカーとして、その相対位置に領域の大きさに合わせたキャラクターを表示しているため、図9に示すように、ユーザの上方周囲をキャラクターが飛翔している表現になっている。
 図8の右側半分に示すように、撮影対象のユーザBがさらにユーザAに近づいた場合は、撮影対象のユーザBの顔領域の大きさが大きくなり、それに従ってキャラクター図形も拡大するように構成するので、自然に感じられる合成結果を得ることができる。
 図8に示す表示状態については、撮影対象のユーザBが、初めからユーザAに対して近距離に位置した状態で本システムを起動した場合でも同様に表示可能である。この場合は、端末装置1の近距離通信部171が備える近距離通信手段によって撮影対象のユーザBの端末装置2(ここでは携帯電話端末2)と、ARキャラクター定義を交換し合って表示を行うことができる。
 撮影者の携帯電話端末1が一度取得したキャラクター定義は、(少なくとも後述する検索機能などを使わない限りは)他者ARキャラクター定義163に格納されているので、撮影対象のユーザの端末装置とは毎回通信を行わなくても表示することが可能である。
 以上は表示する相手が分かっていて表示する相手を指定したか、若しくは目の前に表示する相手が存在する場合の動作であったが、ユーザAの目の前の空間に撮影対象のユーザB(携帯電話端末2)が居るかどうか分からない場合において本システムを動作させるのが、図9に画面例を示す通信相手発見機能である。
 図9は、本発明の第一の実施形態に係る個人識別キャラクター表示システムの通信相手発見機能における表示画面の推移を示す説明図である。
 図9において、左端の図が通信相手発見機能を起動した直後の画面である。
 この場合、操作者ユーザAが端末装置1のカメラを向けた方向と、端末装置1の位置の測定データとから、前方にいる登録ユーザをネット通信部17を介してARデータベースサーバ3に問い合わせた検索結果のキャラクターを並べて表示部14に表示している。
 このような表示方法は、多数の検索結果が出たときに、その中から特定の個人を選択する操作をし易くするためである。
 ここで図9の左側に示すように、表示部14に表示された中から、目的のキャラクターをタッチ指定することで図9の中央(即ち前述の図6で示した状態を示す画面と同じ画面)に遷移させることができる。
 操作者(携帯電話端末1の操作者)は、この画面表示に従って歩行することで、特定された個人である相手の居る場所に到達することが可能となり、図9の右側(即ち、前述の図8の左側半分で示した状態を示す画面と同じ画面)に遷移する。
 なお、ここまでで述べた例では、図9の左側は携帯電話端末1の登録ユーザの全てが検索対象となっているが、後述する第二の実施形態で示すように、ARキャラクター定義の定義要素の中にグループID定義を導入し、グループIDが一致した人物だけを表示するようにすれば、人が集まった場所にグループIDが一致した仲間が来ているかどうかを調べることができるようになる。
 また、グループIDを導入した場合には、グループIDを指定した場合にのみ、キャラクターをタッチする指定が可能になり、グループIDを指定しない場合はキャラクターをタッチ指定することができないようにして、グループIDを指定しないことで本システムに加入するユーザがどれくらい来ているかを見てみたり、他の人の定義したキャラクターを鑑賞するといった表示のさせ方を実現することも可能である。
 以下では、前述の第一の実施形態の個人識別キャラクター表示システムの機能を纏める。
 本発明における一形態においては、人物が写った映像から顔を認識し、顔部分の特徴を数値化して、その数値と関連付けられた図形としてユーザ個人がカスタマイズした独自図形を定義し、定義情報と顔部分の特徴数値をそのユーザの端末に保存して、無線による近接通信、あるいはネットワーク上のサーバーを経由して他のユーザの端末との間で交換することができるように構成している。よって、本システムのユーザは、無数の種類の合成画像と、無数の種類のマーカーを運用することができる。
 キャラクター図形を配置する際には、認識された顔の画像の大きさと位置とを使用するので、対象となる特定の個人との関連を自然な表現で表示し、視認させることができる。
 また、キャラクター図形の取得先として、ARデータベースサーバ3を経由する場合は、さらにデータ所有者の位置情報を取得することが可能となり、この取得情報を基に、カメラの映像範囲内に実在している特定のメンバーの有無が、カスタマイズされたキャラクター図形で表示されるので、特定のメンバーの有無を容易に視認することが可能となる。
 また、特定の個人を示すキャラクター図形を指定することで、前記特定の個人にまで辿り着くことができる手段を備える。
 さらに、ユーザが、その特定の個人の前記顔領域を切り出せる近傍に至った際には、個人を特定する画像が、アイコン的な表示の状態から、個人の近くにARキャラクター図形が表示される状態に自然な形で状態遷移できるので、個人と画像との関連性の世界観を損なうことなく、撮影対象ユーザが遠距離に居る場合と近距離に居る場合との両方のケースで、特定の個人に独自な図形を扱うことができるようになる。
 図10Aは、本発明の第一の実施形態に係る個人識別キャラクター表示システムにおいて、ユーザが端末装置を操作してユーザの携帯電話端末1における自己ARキャラクターデータの定義を行う場合と、他のユーザの端末装置2から前記他のユーザの端末装置における前記他のユーザのキャラクター定義データを取得する場合との動作を示すフローチャート図である。
 まず、ユーザが端末装置1を操作して自己ARキャラクターデータの定義を行うときの動作を説明する。
 (ステップS1)
 ステップS1では、カメラ部11が操作者によって起動される(ユーザ自身を撮影する準備)。
 (ステップS2)
 ステップS2では、カメラ部11を介して操作しているユーザ自身が撮影される。
 (ステップS3)
 ステップS3では、顔認識部13が、顔認識用の特徴抽出を行って顔キーの特徴データを作成し、端末装置1の自己ARキャラクター定義162の1項目である顔キー(図3参照)に登録する。
 このとき、正面だけではなく、必要に応じて、左右方向からの撮影を行うようにしても良い。 
 (ステップS4)
 ステップS4では、図4A~図4Dに示したような定義のバリエーション(種別、色、模様等)が前記操作者によって指定され、自己ARキャラクターの見かけが定義される。
 (ステップS5)
 ステップS5では、AR制御部16が、ステップS4で定義されたARキャラクターを、自己ARキャラクター定義162の各項目に登録する(登録内容は表示部14に表示される)。
 (ステップS6)
 ステップS6では、操作者は、表示部14の表示画面を視認して、登録の確認を行う。
 (ステップS7)
 ステップS7では、AR制御部16が、登録がOKであったか否かを検証し、登録がOKの場合はステップS8に進み、登録がOKではない場合にはステップS4に戻る。
 即ち、ここでは、操作者は、定義に従った表示を行ってみて、気に入れば登録を実行し、気に入らなければバリエーションの指定をし直すことができる。
 (ステップS8)
 ステップS8では、AR制御部16が、ネット通信部171を介してARデータベースサーバ3にステップS4で定義されたARキャラクターを登録させ、処理を終了する。
 即ち、ここでは、ARデータベースサーバ3にもキャラクター定義を置くことにしているため、OKの場合はネットワーク通信によってARデータベースサーバ3に指定結果を登録するが、ARデータベースサーバ3がリダイレクト動作をして、毎回端末データを取得する制御方法にする場合はARデータベースサーバ3への登録は省略できる。
 なお、端末装置の現在位置を、適宜ARデータベースサーバ3にアップロードして該サーバに保持させる処理は、本システムの特徴的な処理ではなく、既存の動作であるので、ここでの説明は省略する。
 次に、図10Bを使って、ユーザが他の登録ユーザの端末装置から他の登録ユーザのARキャラクターデータの定義を取得する場合の動作を説明する。
 (ステップS21)
 ステップS21では、操作者によって、データを取得する他者の端末装置2からの入力指定が示される。
 (ステップS22)
 ステップS22では、通信部17が、自己端末装置とデータを取得する他者の端末装置との間の距離が、前述のとおり予め設定された所定の閾値より、近いか否かを判定し、上記距離が近い場合はステップS26に移り、上記距離が近くない場合はステップS23に進む。
 (ステップS23)
 ステップS23では、端末装置1の通信部17は、ネット通信部171を介してARデータベースサーバ3にアクセスし、データを取得する他者の端末装置由来のARキャラクター定義を検索させる。
 (ステップS24)
 ステップS24では、通信部17は、ARデータベースサーバ3から、データを取得する他者の端末装置由来のARキャラクター定義と、前記他者の端末装置の位置情報とを取得する。
 (ステップS25)
 ステップS25では、通信部17は、前記取得した他者ARキャラクター定義と、該他者の端末装置の位置情報とを、他者ARキャラクター定義163に格納し、処理を終了する。
 なお、遠距離通信による取得であれば、その後にGPSを使って相手(他者)の距離と方向を表示する必要があるので、上記のように、前記他者の端末装置位置情報も取得するものである。
 (ステップS26)
 ステップS26では、通信部17は、近距離通信部172を起動して、前記他者の端末装置と接続する。
 (ステップS27)
 ステップS27では、通信部17は、前記他者の端末装置から、他者の端末装置由来のARキャラクター定義を取得し、その後、ステップS25に移る。
 図11Aと図11Bは、本発明の第一の実施形態に係る個人識別キャラクター表示システムにおいて、通信相手の相手端末装置が近接している場合にARキャラクターを表示する場合の動作を示すフローチャート図である。
 図11Aに示した動作は、図7に示すシチュエーション(状況)で実行するものである。
 この動作を実行する時点では、図10Bに示す他者データ取得処理は終了している状態であるものとする。
 (ステップA1)
 ステップA1では、操作者によって端末装置1のカメラ部11が操作され、撮影した撮像データが取得される。
 (ステップA2)
 ステップA2では、顔認識部13が、撮像データから、人間の顔として認識できるデータを検出する。
 (ステップA3)
 ステップA3では、顔認識部13が、人間の顔として認識できるデータを検出したか否かを検証し、人間の顔として認識できるデータを検出した場合はステップA4に進み、人間の顔として認識できるデータを検出しなかった場合は処理を終了する。
 (ステップA4)
 ステップA4では、顔認識部13が、人間の顔として認識できるデータが複数検出された場合には、最初の処理対象として、例えば一番左上に位置する検出結果を選択する。
 (ステップA5)
 ステップA5では、顔認識部13が、顔認識用の特徴データを抽出する。例えば、目と口の距離や目の間隔との比率などの顔の特徴データを抽出する。
 (ステップA6)
 ステップA6では、顔認識部13が、他者ARキャラクター定義163の顔キーのデータに一致する(あるいは近い)ものがあるか否かを検索する。
 (ステップA7)
 ステップA7では、顔認識部13が、上記検索により、他者ARキャラクター定義163の顔キーのデータに近い特徴データが存在していたか否かを検証し、上記特徴データが存在する場合はステップS9にて後述の顔基点AR表示処理を行い、その後、ステップA8に戻る。また、上記特徴データが存在しない場合は直ちにステップA8に進む。
 (ステップA8)
 ステップA8では、顔認識部13が、人間の顔として認識されたデータの全てについて、上記の処理が完了したか否かを検証し、未処理のデータが有ればステップA10に移り、また、全データについての上記処理が完了した場合は処理を終了する。
 (ステップA9)
 ステップA9(サブルーチン)の処理は後述する。
(ステップA10)
 ステップA10では、顔認識部13が、人間の顔として認識された次のデータを選択し、ステップA5に戻る。
 以下、図11Bでは、図11Aに示すフローチャートおいて、ステップA9で実行するサブルーチン(顔基点AR表示処理)での動作手順を説明する。
(ステップA21)
 ステップA21では、顔認識部13が、パターンマッチング法を用いて、所与の画像から、所定の特徴を有する顔画像を認識して検出し、顔認識枠の位置と大きさとを取得する。
(ステップA22)
 ステップA22では、顔認識部13が、顔認識枠の大きさによってARキャラクター画像の拡大(拡大率の決定)または縮小(縮小率の決定)を行う。
(ステップA23)
 ステップA23では、顔認識部13が、現在時刻をパラメータとして、顔認識枠からの相対座標(即ち相対描画位置)を決定する。
 なお、現在時刻をパラメータとして前記の相対描画位置を変化させることで、顔の周囲を飛翔したり、肩のあたりで上下して羽ばたくようなアニメーション表示も可能となる。
(ステップA24)
 ステップA24では、顔認識部13が、ARキャラクター画像を、上記で決定した位置と大きさで、画像メモリ12に描画し、呼び出し元に復帰する。
 これにより、現実の映像にカスタマイズされたキャラクターが合成された映像が表示される。
 複数の顔が検出されていた場合は、検出された次の顔領域に対して特徴抽出処理以降の処理を繰り返すものとする。
 これにより、端末装置1の表示部14の画面内にいる複数の人の周囲に、それぞれの人物に対応して、それぞれ定義したARキャラクターを飛翔させることができる。
 図12は、本発明の第一の実施形態に係る個人識別キャラクター表示システムにおいて、撮影範囲を検索した時にARキャラクターを表示する場合の動作手順を示すフローチャート図である。
 図12に示すフローチャートは、図9の左端に示す画像の表示を行う場合の動作を示す。
 (ステップB1)
 ステップB1では、操作者によって端末装置1のカメラ部11が操作され、表示のベースとなる眼前の景色の撮像データが取得される。
 (ステップB2)
 ステップB2では、操作者によってGPS/磁気センサ15が起動され、端末装置1の位置が確定され、その位置が取得される。
 (ステップB3)
 ステップB3では、操作者によって起動されたGPS/磁気センサ15を介して、カメラ部11のカメラが向いている方向が取得される。
 (ステップB4)
 ステップB4では、カメラ部11が、カメラ撮影範囲の位置を算出する。
 (ステップB5)
 ステップB5では、ネット通信部171が、ARデータベースサーバ3と接続する。
 (ステップB6)
 ステップB6では、ネット通信部171が、ARデータベースサーバ3にアクセスし、ARキャラクタデータベース34内に、端末装置1の現在位置がカメラ撮影範囲に含まれる他者の端末装置から登録された個人レコードが存在するか否かを検索させる。
 ここでは、例えば、カメラの画角が対角60度程度あり、前方80mまでを範囲とする場合は、自己の位置からカメラが向いている方向に40m先の、半径30mの円内に存在する端末装置のユーザを検索するようにARデータベースサーバ3に指示する。
 より正確には、20m先の半径10mの円内に含まれる端末装置と、40m先の半径20m、及び60m先の半径30mの円内に含まれる端末装置を検索させる。
 (ステップB7)
 ステップB7では、ネット通信部171が、ARデータベースサーバ3から、上記個人レコードの存在が応答されたか否かを検証し、上記個人レコードの存在が応答された場合はステップB8に進み、上記個人レコードの存在が応答されなかった場合は処理を終了する。
 (ステップB8)
 ステップB8では、ネット通信部171が、ARデータベースサーバ3から存在が応答された他者の個人レコードを全て取得し、AR制御部16に送出する。
 (ステップB9)
 ステップB9では、AR制御部16が、存在した他者の個人レコードについて、画像メモリ12に、取得したARキャラクターを全てタイル状に並べて描画し、表示部14の画面上に表示すると共に、どの位置にどのARキャラクターを並べたかを記憶しておく(これは、後で表示画面がタッチされた時に、どのARキャラクターが選択されたのかを判断する必要があるからである)。
 図13は、本発明の第一の実施形態に係る個人識別キャラクター表示システムにおいて、相手端末装置が近接していない場合にARキャラクターを表示する場合の動作手順を示すフローチャート図である。
 図13に示すフローチャートの動作は、図5に示すシチュエーション(ユーザAとユーザBが離れている状況)で、図6の表示を行う場合に実行されるものである。
 ここでは、ARキャラクターの表示対象の指定は、端末装置1の他者ARキャラクター定義163に格納された他の個人であるものとしている。
 (ステップC1)
 ステップC1では、カメラ部11のカメラが、操作者によって操作され、表示のベースとなる映像が撮影されて、画像メモリ12に撮影された画像データが取得される。
 (ステップC2)
 ステップC2では、操作者によって起動されたGPS/磁気センサ15を介して、端末装置1が存在する位置の位置情報が取得される。
 (ステップC3)
ステップC3では、操作者によって起動されたGPS/磁気センサ15を介して、端末装置1の方向が取得される。
 (ステップC4)
 ステップC4では、AR制御部16が、相手端末装置の位置を更新するために、図10Bに示した他者データ取得処理を実行して他者の個人レコードを再取得する。
 このとき、ARデータベースサーバ3との通信手段としては、ネット通信部17を介したネットワーク通信手段が用いられる。但し、相手端末装置の位置情報以外の情報は既に保持しているため、相手端末装置の位置情報だけを取得するようにしても構わない。
 (ステップC5)
 ステップC5では、AR制御部16が、表示部14の表示画面上の、端末装置1から見た相手端末装置の方向を算出する。
 (ステップC6)
 ステップC6では、AR制御部16が、端末装置1と相手端末装置との間の距離を算出する。
 (ステップC7)
 ステップC7では、AR制御部16が、画像メモリ12内に相手端末装置に対応するARキャラクターと吹き出し図形とを合成し、表示部14の表示画面上の大体の場所に表示し、処理を終了する。これにより、図6に例示する画面表示が出力される。
 図14は、本発明の第一の実施形態に係る個人識別キャラクター表示システムにおける通信相手発見機能を実現する場合の動作手順を示すフローチャート図である。
 (ステップC21)
 ステップC21では、AR制御部16が、図12に示した範囲指定AR表示処理を実行する。これにより、図9の左側に示す画像が表示される。
 (ステップC22)
 ステップC22では、操作者が、図9の左側に表示された画像において、表示されている1つのARキャラクターの描画位置を指定する。
 AR制御部16は、図12のステップB9の処理でARキャラクターの描画位置を記憶していたので、AR制御部16は、上記の指定により、どのARキャラクターが選択されたかが判り、他者ARキャラクター定義部163に格納されている、どの定義レコードであるかを判明することができる。
 (ステップC23)
 ステップC23では、AR制御部16が、上記で選択された定義だけを残して他の定義を消去する。
 (ステップC24)
ステップC24では、AR制御部16が、図13に示す遠距離AR表示処理を実行する。
 これにより、表示部14の表示画面は、図9に示す中央部の図形の表示状態に遷移するので、操作者は、この表示を見ながら歩行して相手端末装置に接近することができる。
 (ステップC25)
 ステップC25では、AR制御部16が、図13に示すステップC6の処理で計算された端末装置1と相手端末装置との距離が5m以内になったか否かを検証し、距離が5m以内の場合はステップC26に進み、また、前記の距離が5m以内でない場合はステップC24に戻る。
 (ステップC26)
 ステップC26では、AR制御部16が、図7に示すように、例えば相手との距離が5m以内になると、顔認識部13を起動し、カメラ部11から取得した画像中に、指定した定義に格納されているキーに近い顔画像が有るか否かを検索する。
 (ステップC27)
 ステップC27では、AR制御部16は、ステップC25の処理で、前記キーに近い顔画像が検索されたか否かを検証し、前記キーに近い顔画像が検索されたならステップC28に進み、前記キーに近い顔画像が検索されていない場合はステップC24に戻る。
 (ステップC28)
ステップC28では、AR制御部16は、図11Aに示す近距離AR表示処理を実行する。
 これにより、表示部14の表示画面は、図9の右側に示す表示状態に遷移する。
 なお、図14のフローチャートに示す動作手順では、操作者が検索対象に近づいたときの動作として、5m以内に近づいた場合に顔認識部13を起動し、顔画像が検出できたことを確認した上で、図11Aに示す近距離AR表示処理を実行するものとしたが、この顔画像の検出処理を省略して、いきなり図11Aに示す近距離AR表示処理を動作させるようにしても構わない。
 但し、この場合は、表示部14の表示画面から、一時的にキャラクター表示が消える可能性が有るが、その代わりに、顔画像の認識処理を、ステップC24の遠距離AR表示処理に続いて実行する必要が無くなり、処理が簡便で軽くなるというメリットが有る。
 この実施形態の個人識別キャラクター表示システムによれば、使用者が撮影した画像に対して顔画像認識処理を実行することで特定個人を検出し、検出された個人の顔部分をマーカーにして、個人毎にカスタマイズされたARキャラクターを合成描画することができるため、例えば、主人公とその主人公に従う従者とを登場人物とするアニメーション作品と、現実世界とを融合表現した画像を提供することができる効果が有る。
 また、キャラクターデータの配信手段として、個人持ちの携帯端末装置をARデータサーバとすることもできる構成としたので、カスタマイズの操作が容易であるだけでなく、使用者個人によるカスタマイズが即時効果を発揮すると共に、他の端末装置から見た映像にも反映できるようになる。
 さらに、端末装置同士が近接しない場合に備えて、ネット通信部17のネットワーク通信手段により、ARデータベースサーバ3と連携してARキャラクターデータの配信を行えるように構成したので、端末装置同士が近接していなくても、自己端末装置の近傍に他の登録ユーザが居る場合は、この他の登録ユーザの概略の位置を示すことが可能となり、また、自己端末装置の近傍に複数の他の登録ユーザが居る場合は、これら複数の登録ユーザのことを他の登録ユーザが設定したARキャラクター画像で示すことができる。
 さらに、この時、この他の登録ユーザが設定した複数のARキャラクターの1つを指で指定することによって、特定の個人だけを指定して追跡することができるようになる。
〔第二の実施形態〕
 前述の第一の実施形態では、連携するサーバ装置(即ちARデータベースサーバ3)にも、ARキャラクター定義データが保持されている場合を示したが、本発明は、一般に、連携するサーバ装置には、端末IDとユーザ名、及び端末装置の現在位置のみを保持し、顔キー及びキャラクター定義については、本システムに加入している個々のユーザの端末装置に取得要求をリダイレクトして取得するように構成することも可能である。
 さらに、連携するサーバ装置には、個々の端末装置の現在位置を示す位置情報も保持しないものとし、ユーザ名と端末IDのみを保持するようにして、そのサーバ装置から遠隔制御によって端末装置の現在位置を取得させ、キー及びキャラクター定義データと共に、現在位置を取得した端末装置からARキャラクター定義データの一部を取得するようにしても良い。
 この場合、サーバ装置の保持するデータ量が削減できる効果だけではなく、ARキャラクター定義データや、端末装置の位置への追従精度が向上するという効果が得られる。
 しかしながら、この場合、相手端末装置が通信可能な場所に居る必要が有るという制約が発生する。
 そこで、以下で説明する本発明の第二の実施形態では、上記の制約を緩和できるようにすることを意図し、具体的には、本システムに加入しているユーザの個々の端末装置に保持するARキャラクター定義データと、連携サーバ(ここでもARデータベースサーバ3とする)が保持するARキャラクター定義データには、それぞれグループIDを付加するものとしている。
 以下、図を参照しながら、本発明の第二の実施形態について説明する。
 図15は、本発明の第二の実施形態に係る個人識別キャラクター表示システムの全体構成を示す構成図である。
 図15に示す本発明の第二の実施形態に係る個人識別キャラクター表示システムの全体構成は、図1に示す本発明の第一の実施形態に係る個人識別キャラクター表示システムの全体構成と同じであるが、ARデータベースサーバ3のARキャラクタデータベース34に格納されている、顔キー、キャラクター定義、及び端末現在位置については、括弧付きで示している点だけが、図1に示す本発明の第一の実施形態に係る個人識別キャラクター表示システムとの相違点である。
 このような表現の意図するところは、ARデータベースサーバ3のARキャラクタデータベース34には、実際には前記のデータが保持されておらず、前記のデータについては、指定された他の端末装置から取得したデータを転送するだけであることを示すことである。
 図16は、本発明の第二の実施形態に係る個人識別キャラクター表示システムにおける個人レコードデータの1例としての構成を示すデータ構成図である。
 図16に示す個人レコードデータは、本システムに加入しているユーザの個々の端末装置が保持する個人のレコードデータを表したものであり、ARデータベースサーバ3にも、同様に端末ID、氏名、及びグループIDが保持されているものとする。
 以下、第二の実施形態に係る個人識別キャラクター表示システムの動作を、ARデータベースサーバ3の機能を中心にして説明する。
 加入ユーザの端末装置の1つから、ARデータベースサーバ3に対してARキャラクター定義データの送信要求が発信されると、ARデータベースサーバ3は、その通信要求で指定された加入ユーザの端末装置に対してARキャラクター定義データの送信を要求する。
 これにより、指定された端末装置が応答すれば、その指定された端末装置からARキャラクター定義データを取得して、最初の要求元である加入ユーザの端末装置に対して、指定された端末装置におけるARキャラクター定義データを転送するが、前記通信要求で指定された加入ユーザの端末装置が通信できない状態であった場合には、ARキャラクタデータベース34上で、このユーザのグループIDと同じグループIDを持つ他の端末装置を検索し、この検索がヒットした端末装置に対して接続を試みる。
 この端末装置が応答し、かつ該当ユーザのARキャラクター定義データを、この端末装置の他者ARキャラクター定義に保持している場合は、その保持されているARキャラクター定義データを送信させ、最初の要求元である加入ユーザの端末装置に対して転送する。
 このように構成したことにより、同じグループIDを持つ端末装置間であれば、要求された端末装置のARキャラクター定義データを保持している可能性が高いので、要求されたユーザのARキャラクター定義データを取得できる可能性を高めることができる。
 図17は、本発明の第二の実施形態に係る個人識別キャラクター表示システムにおけるARデータベースサーバ3のデータ転送時の動作手順を示すフローチャート図である。
 (ステップD1)
 ステップD1では、ARデータベースサーバ3は、第1実施形態における図10Bの他者データ取得処理と同様の処理によって、例えば携帯電話端末1から、指定された相手端末装置のユーザのARキャラクター定義データを要求される。
 (ステップD2)
 ステップD2では、ARデータベースサーバ3の検索制御部33は、前記ARキャラクター定義データの要求において氏名で指定された加入ユーザの端末IDを、ARキャラクタデータベース34上で検索し、端末通信部31を介して、検索結果の端末IDを有する端末装置との通信が可能か否かをテストする。
 (ステップD3)
 ステップD3では、検索制御部33は、前記指定された加入ユーザの端末装置との通信が可能か否かのステップD2におけるテストの結果により、前記加入ユーザの端末装置との通信が可能か否か検証し、前記指定された加入ユーザの端末装置との通信が可能な場合はステップD4に進み、前記指定された加入ユーザの端末装置との通信が不可能の場合はステップD6に移る。
 (ステップD4)
 ステップD4では、検索制御部33は、前記加入ユーザの端末装置のARキャラクター定義に格納されたARキャラクター定義データを取得する。
 (ステップD5)
 ステップD5では、検索制御部33は、ステップD4の処理で取得したARキャラクター定義データを、端末通威信部31を介して元の要求元の端末装置(ここでは携帯電話端末1)に転送する。
 (ステップD6)
 ステップD6では、検索制御部33は、前記要求において通信対象として定義されたグループIDを有する他の端末装置を、ARキャラクタデータベース34上で検索する。
 (ステップD7)
 ステップD7では、検索制御部33は、ステップD6の検索処理の結果として、前記グループIDを有する他の端末装置が検索されたか否かを検証し、前記グループIDを有する他の端末装置が検索された場合はステップD8に進み、前記グループIDを有する他の端末装置が検索されなかった場合はステップD13に移る。
 (ステップD8)
 ステップD8では、検索制御部33は、検索結果の端末IDを有する端末装置との通信が可能か否かをテストする。
 (ステップD9)
 ステップD9では、検索制御部33は、ステップD8におけるテストの結果により、前記検索結果の端末IDを有する端末装置との通信が可能か否か検証し、該端末装置との通信が可能な場合はステップD10に進み、該端末装置との通信が不可能の場合はステップD6に戻る。
 (ステップD10)
 ステップD10では、検索制御部33は、前記検索結果の端末IDを有する端末装置のARキャラクター定義に格納されている、前記要求において氏名で指定された加入ユーザの端末装置のデータを取得する。
 (ステップD11)
 ステップD11では、検索制御部33は、前記データの取得が成功したか否かを検証し、前記データの取得に成功した場合はステップD12に進み、前記データの取得に成功しなかった場合はステップD6に戻る。
 (ステップD12)
ステップD12では、検索制御部33は、前記検索結果の端末IDを有する端末装置のARキャラクター定義に格納されている、前記要求において氏名で指定された加入ユーザの端末装置のARキャラクター定義データを取得し、その後、ステップD5に移る。
 (ステップD13)
 ステップD13では、検索制御部33は、最初の要求元の端末装置(ここでは携帯電話端末1)に対して、「氏名で指定された人物のARキャラクター定義データは取得できなかった」という旨の信号を応答する。
 図18は、本発明の第二の実施形態に係る個人識別キャラクター表示システムにおいて、端末装置側からARデータベースサーバ3へデータを転送する時の端末装置の動作手順を示すフローチャート図である。
 (ステップE1)
 ステップE1では、例えば携帯電話端末1のネット通信部171が、ARデータベースサーバ3から、データを転送すべき端末装置2(携帯電話端末2)が発信した端末IDの送信要求を受信する。
 (ステップE2)
 ステップE2では、端末装置1のAR制御部16が、自己ARキャラクター定義162の格納データが要求されたか否かを判断し、自己ARキャラクター定義162の格納データが要求された場合はステップE7に移り、自己ARキャラクター定義162の格納データが要求されていない場合にはステップE3に進む。
 (ステップE3)
 ステップE3では、端末装置1のAR制御部16が、他者ARキャラクター定義163の中に、受信した端末IDのデータが格納されているか否かを検証する。
 (ステップE4)
 ステップE4では、端末装置1のAR制御部16が、ステップE3の検証によって、他者ARキャラクター定義163の中に、該当する端末IDのデータが格納されていたか否かを判断し、他者ARキャラクター定義163の中に、該当する端末IDのデータが格納されていた場合はステップE5に進み、また、該当する端末IDのデータが格納されていなかった場合はステップEに移る。
 (ステップE5)
 ステップE5では、AR制御部16が、他者ARキャラクター定義163に格納されている受信した端末IDのデータを取得し、ネット通信部171を介してARデータベースサーバ3に送信し、処理を終了する。
 (ステップE6)
 ステップE6では、AR制御部16が、該当する端末IDのデータは格納されていなかった旨の信号を、ネット通信部171を介してARデータベースサーバ3に送信し、処理を終了する。
 (ステップE7)
 ステップE7では、AR制御部16が、自己ARキャラクター定義162に格納されている該当端末IDのデータを取得し、ネット通信部171を介してARデータベースサーバ3に送信し、処理を終了する。
 このような動作の処理により、同じグループIDを持つ複数の端末装置群とARデータベースサーバ3とが、データキャッシュサーバの役割を果たすようになり、最初にARキャラクター定義データを要求した端末装置(ここでは携帯電話端末1)は、高い確度で、要求したデータを入手することができる。
 なお、上記の構成において、図9で示したように、特定の範囲内に存在するユーザのARキャラクター画像を指タッチで指定する場合には、指タッチしたARキャラクター画像が、同じグループIDを持っていない人物のARキャラクター画像である場合には、指タッチによる指定が実行されてもその人物の探索はできないように制御することも可能となる。
 この場合、本システムの加入ユーザは、ARキャラクター画像の指タッチで指定した本システムの他の加入ユーザが、どの程度の眼前に居るかを調べることができても、他の加入ユーザの個人情報は保護されることになる。
 さらに、この表示を行う際に、ARデータベースサーバ3に対して、同じグループIDを持つ人物のみを検索するように予め指定しておくことも可能である。
 なお、上記のグループIDを参照する各処理においては、グループIDの文字列自体ではなく、その文字列から計算されるハッシュコードを通信時に交換することで、グループIDの設定が他者に漏洩することを防ぐことができる。
 なお、本発明に係る個人識別キャラクター表示システムの各構成要素の処理の少なくとも一部をコンピュータ制御により実行するものとし、かつ、上記処理を、図10A~図14及び図17、図18のフローチャートで示した動作手順により、コンピュータに実行させるためのコンピュータプログラムは、半導体メモリを始め、CD-ROMや磁気テープなどのコンピュータ読み取り可能な記録媒体に格納して配付しても良い。そして、少なくともマイクロコンピュータ、パーソナルコンピュータ、汎用コンピュータを範疇に含むコンピュータが、上記の記録媒体から上記コンピュータプログラムを読み出して、実行するものとしても良い。
 本願は、2011年4月20日に、日本に出願された特願2011-093810号に基づき優先権を主張し、その内容をここに援用する。
 特定の個人の撮像の近傍に該個人を視認できる個人識別キャラクターを併せて表示することができる個人識別キャラクター表示システムを提供することができる。
 1  携帯電話端末
 2  携帯電話端末
 3  ARデータベースサーバ
 11  カメラ部
 12  画像メモリ
 13  顔認識部
 14  表示部
 15  GPS/磁気センサ
 16  AR制御部
 17  通信部
 31  端末通信部
 32  登録制御部
 33  検索制御部
 34  ARキャラクタデータベース
 161  制御プログラム
 162  自己ARキャラクター定義
 163  他者ARキャラクター定義
 171  ネット通信部
 172  近距離通信部

Claims (10)

  1.  端末装置に搭載したカメラで撮影した現実世界の画像にCG描画した画像を合成描画する個人識別キャラクター表示システムであって、
     前記カメラで撮影した現実世界の画像データから、該画像データを表示する画像領域において所定の被写体の特徴を有する部分領域を、パターンマッチング法で認識して検出する検出手段と、
     前記現実世界の画像の前記検出した部分領域に、該部分領域で特徴付けられた前記被写体に対応して予め保持されている所定のCG画像を合成描画する合成描画部と、
     前記合成された画像領域を含む前記現実世界の画像を表示する画像表示部と、
    を備えた個人識別キャラクター表示システム。
  2.  登録ユーザ個人が使用する端末装置には、他の登録ユーザも含めた登録ユーザ個人毎の情報を記録した個人レコードを保持すると共に、前記登録ユーザ個人毎の個人レコードの内訳は、前記ARキャラクター画像の形状を定義する情報、及び前記所定の被写体の特徴を示す情報である請求項1記載の個人識別キャラクター表示システム。
  3.  登録ユーザ個人毎の情報を記録した個人レコードを保持するネットワーク上のARデータベースサーバをさらに備えると共に、前記登録ユーザ個人毎の個人レコードの内訳は、前記ARキャラクター画像の形状を定義する情報、及び前記所定の被写体の特徴を示す情報である請求項2記載の個人識別キャラクター表示システム。
  4.  前記端末装置と前記他の登録ユーザが使用する他の端末装置とが各々保持する前記登録ユーザ個人毎の個人レコードの情報は、前記端末装置と前記他の端末装置間の直接の近接通信部、若しくは前記ARデータベースサーバが前記ネットワークを介して中継する通信部により、前記端末装置と前記他の端末装置の間で互いに交換して参照する請求項3記載の個人識別キャラクター表示システム。
  5.  前記ARデータベースサーバが保持する前記登録ユーザ個人毎の個人レコードの情報は、前記いずれの端末装置においてもダウンロードして該端末装置において参照する請求項3または請求項4記載の個人識別キャラクター表示システム。
  6.  前記ネットワーク上の前記ARデータベースサーバには、さらに、登録ユーザ個人が所有する端末装置の現在の位置情報の登録が可能であり、該位置情報は、前記ARデータベースサーバからの前記ダウンロードの際に前記端末装置に送信され、前記合成された画像領域を含む前記現実世界の画像の表示に反映される請求項5記載の個人識別キャラクター表示システム。
  7.  前記ネットワーク上の前記ARデータベースサーバに、現在位置が前記カメラの撮影範囲に含まれる他の登録ユーザの端末装置が存在し、かつ該他の登録ユーザの端末装置から登録された前記登録ユーザ個人毎の個人レコードの情報が存在するか否かを検索させる請求項2乃至6のいずれか1項に記載の個人識別キャラクター表示システム。
  8.  自己が搭載するカメラで撮影した現実世界の画像にCG描画した画像を合成描画する端末装置であって、
     前記カメラで撮影した現実世界の画像データから、該画像データを表示する画像領域において所定の被写体の特徴を有する部分領域を、パターンマッチング法で認識して検出する検出部と、
     前記現実世界の画像の前記検出した部分領域に、該部分領域で特徴付けられた前記被写体に対応して予め保持されている所定のCG画像を合成描画する合成描画部と、
     前記合成された画像領域を含む前記現実世界の画像を表示する画像表示部と、
    を備えた端末装置。
  9.  端末装置に搭載したカメラで撮影した現実世界の画像にCG描画した画像を合成描画する個人識別キャラクター表示方法であって、
     前記カメラで撮影した現実世界の画像データから、該画像データを表示する画像領域において所定の被写体の特徴を有する部分領域を、パターンマッチング法で認識して検出するステップと、
     前記現実世界の画像の前記検出した部分領域に、該部分領域で特徴付けられた前記被写体に対応して予め保持されている所定のCG画像を合成描画するステップと、
     前記合成された画像領域を含む前記現実世界の画像を表示するステップと、
    を有する個人識別キャラクター表示方法。
  10.  搭載するカメラで撮影した現実世界の画像にCG描画した画像を合成描画する端末装置を制御するためのコンピュータプログラムであって、
     前記カメラで撮影した現実世界の画像データから、該画像データを表示する画像領域において所定の被写体の特徴を有する部分領域を、パターンマッチング法で認識して検出するステップと、
     前記現実世界の画像の前記検出した部分領域に、該部分領域で特徴付けられた前記被写体に対応して予め保持されている所定のCG画像を合成描画するステップと、
     前記合成された画像領域を含む前記現実世界の画像を表示するステップと、
    を有するコンピュータプログラム。
PCT/JP2012/059911 2011-04-20 2012-04-11 個人識別キャラクター表示システム、端末装置、個人識別キャラクター表示方法、及びコンピュータプログラム WO2012144389A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
US14/112,030 US9721388B2 (en) 2011-04-20 2012-04-11 Individual identification character display system, terminal device, individual identification character display method, and computer program
JP2013510960A JP6020446B2 (ja) 2011-04-20 2012-04-11 画像表示システム、画像表示装置、画像表示方法及びプログラム
EP12774800.2A EP2701123B1 (en) 2011-04-20 2012-04-11 Individual identification character display system, terminal device, individual identification character display method, and computer program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2011-093810 2011-04-20
JP2011093810 2011-04-20

Publications (1)

Publication Number Publication Date
WO2012144389A1 true WO2012144389A1 (ja) 2012-10-26

Family

ID=47041500

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2012/059911 WO2012144389A1 (ja) 2011-04-20 2012-04-11 個人識別キャラクター表示システム、端末装置、個人識別キャラクター表示方法、及びコンピュータプログラム

Country Status (4)

Country Link
US (1) US9721388B2 (ja)
EP (1) EP2701123B1 (ja)
JP (1) JP6020446B2 (ja)
WO (1) WO2012144389A1 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014136700A1 (ja) * 2013-03-06 2014-09-12 株式会社メガチップス 拡張現実提供システム、記録媒体および拡張現実提供方法
JP2017194969A (ja) * 2017-04-27 2017-10-26 株式会社メガチップス 拡張現実システム、プログラムおよび拡張現実提供方法
JP2020123277A (ja) * 2019-01-31 2020-08-13 株式会社スクウェア・エニックス 仮想キャラクタを含む画像を提供するための方法
JP2020160576A (ja) * 2019-03-25 2020-10-01 株式会社ミクシィ 情報処理装置およびプログラム

Families Citing this family (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8988574B2 (en) 2012-12-27 2015-03-24 Panasonic Intellectual Property Corporation Of America Information communication method for obtaining information using bright line image
US9608725B2 (en) 2012-12-27 2017-03-28 Panasonic Intellectual Property Corporation Of America Information processing program, reception program, and information processing apparatus
JP5603523B1 (ja) 2012-12-27 2014-10-08 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 制御方法、情報通信装置およびプログラム
US10303945B2 (en) * 2012-12-27 2019-05-28 Panasonic Intellectual Property Corporation Of America Display method and display apparatus
EP2940901B1 (en) 2012-12-27 2019-08-07 Panasonic Intellectual Property Corporation of America Display method
US10523876B2 (en) 2012-12-27 2019-12-31 Panasonic Intellectual Property Corporation Of America Information communication method
US9341014B2 (en) 2012-12-27 2016-05-17 Panasonic Intellectual Property Corporation Of America Information communication method using change in luminance
US10951310B2 (en) 2012-12-27 2021-03-16 Panasonic Intellectual Property Corporation Of America Communication method, communication device, and transmitter
US10530486B2 (en) 2012-12-27 2020-01-07 Panasonic Intellectual Property Corporation Of America Transmitting method, transmitting apparatus, and program
US9087349B2 (en) 2012-12-27 2015-07-21 Panasonic Intellectual Property Corporation Of America Information communication method
US8922666B2 (en) 2012-12-27 2014-12-30 Panasonic Intellectual Property Corporation Of America Information communication method
CN103105993B (zh) * 2013-01-25 2015-05-20 腾讯科技(深圳)有限公司 基于增强现实技术实现互动的方法和系统
FR3008210B1 (fr) * 2013-07-03 2016-12-09 Snecma Procede et systeme de realite augmentee pour la supervision
KR102258490B1 (ko) 2014-05-29 2021-05-31 삼성전자주식회사 전자 장치 및 전자 장치에서 무선 네트워크 접속 방법
JP5989725B2 (ja) * 2014-08-29 2016-09-07 京セラドキュメントソリューションズ株式会社 電子機器及び情報表示プログラム
KR102278460B1 (ko) * 2014-10-17 2021-07-19 삼성전자주식회사 컨텐츠 공유 방법 및 디바이스, 컨텐츠 공유 시스템
US20160227267A1 (en) * 2015-01-30 2016-08-04 The Directv Group, Inc. Method and system for viewing set top box content in a virtual reality device
US10636175B2 (en) * 2016-12-22 2020-04-28 Facebook, Inc. Dynamic mask application
CN107566911B (zh) * 2017-09-08 2021-06-29 广州方硅信息技术有限公司 一种直播方法、装置、系统及电子设备
CN108693548B (zh) * 2018-05-18 2021-10-22 中国科学院光电研究院 一种基于场景目标识别的导航方法及系统
CN109064416B (zh) * 2018-07-10 2021-06-15 Oppo广东移动通信有限公司 图像处理方法、装置、存储介质及电子设备

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002077592A (ja) * 2000-04-13 2002-03-15 Fuji Photo Film Co Ltd 画像処理方法
JP3729161B2 (ja) 2001-08-07 2005-12-21 カシオ計算機株式会社 目標位置探索装置、目標位置探索方法及びプログラム
JP4032776B2 (ja) 2002-03-04 2008-01-16 ソニー株式会社 複合現実感表示装置及び方法、記憶媒体、並びにコンピュータ・プログラム
JP2008510254A (ja) 2004-08-19 2008-04-03 株式会社ソニー・コンピュータエンタテインメント ポータブル拡張現実感デバイスおよびその方法
JP2010049690A (ja) 2008-08-19 2010-03-04 Sony Computer Entertainment Europe Ltd エンタテイメント装置、システム、及び方法
JP2012060240A (ja) * 2010-09-06 2012-03-22 Sony Corp 画像処理装置、プログラム及び画像処理方法

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7106887B2 (en) 2000-04-13 2006-09-12 Fuji Photo Film Co., Ltd. Image processing method using conditions corresponding to an identified person
US20060182433A1 (en) * 2005-02-15 2006-08-17 Nikon Corporation Electronic camera
JP4973622B2 (ja) 2007-08-29 2012-07-11 カシオ計算機株式会社 画像合成装置および画像合成処理プログラム
US8644842B2 (en) * 2007-09-04 2014-02-04 Nokia Corporation Personal augmented reality advertising
JP4508257B2 (ja) * 2008-03-19 2010-07-21 ソニー株式会社 構図判定装置、構図判定方法、プログラム
US8199966B2 (en) * 2008-05-14 2012-06-12 International Business Machines Corporation System and method for providing contemporaneous product information with animated virtual representations
US8116749B2 (en) * 2008-09-08 2012-02-14 Proctor Jr James Arthur Protocol for anonymous wireless communication
US20100191728A1 (en) 2009-01-23 2010-07-29 James Francis Reilly Method, System Computer Program, and Apparatus for Augmenting Media Based on Proximity Detection
WO2012003844A1 (en) * 2010-07-05 2012-01-12 Sony Ericsson Mobile Communications Ab Method for displaying augmentation information in an augmented reality system
JP5730518B2 (ja) * 2010-08-27 2015-06-10 株式会社日立国際電気 特定人物検知システムおよび特定人物検知方法
US9317530B2 (en) * 2011-03-29 2016-04-19 Facebook, Inc. Face recognition based on spatial and temporal proximity

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002077592A (ja) * 2000-04-13 2002-03-15 Fuji Photo Film Co Ltd 画像処理方法
JP3729161B2 (ja) 2001-08-07 2005-12-21 カシオ計算機株式会社 目標位置探索装置、目標位置探索方法及びプログラム
JP4032776B2 (ja) 2002-03-04 2008-01-16 ソニー株式会社 複合現実感表示装置及び方法、記憶媒体、並びにコンピュータ・プログラム
JP2008510254A (ja) 2004-08-19 2008-04-03 株式会社ソニー・コンピュータエンタテインメント ポータブル拡張現実感デバイスおよびその方法
JP2010049690A (ja) 2008-08-19 2010-03-04 Sony Computer Entertainment Europe Ltd エンタテイメント装置、システム、及び方法
JP2012060240A (ja) * 2010-09-06 2012-03-22 Sony Corp 画像処理装置、プログラム及び画像処理方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
HIROKAZU KATO; MARK BILLINGHURST; KOICHI ASANO; KEIHACHIRO TACHIBANA: "Augmented Reality System and its Calibration based on Mark Tracking", vol. 4, 1999, VIRTUAL REALITY SOCIETY OF JAPAN

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014136700A1 (ja) * 2013-03-06 2014-09-12 株式会社メガチップス 拡張現実提供システム、記録媒体および拡張現実提供方法
JP2014174589A (ja) * 2013-03-06 2014-09-22 Mega Chips Corp 拡張現実システム、プログラムおよび拡張現実提供方法
CN105074783A (zh) * 2013-03-06 2015-11-18 株式会社巨晶片 增强现实提供系统、记录介质及增强现实提供方法
JP2017194969A (ja) * 2017-04-27 2017-10-26 株式会社メガチップス 拡張現実システム、プログラムおよび拡張現実提供方法
JP2020123277A (ja) * 2019-01-31 2020-08-13 株式会社スクウェア・エニックス 仮想キャラクタを含む画像を提供するための方法
JP7160707B2 (ja) 2019-01-31 2022-10-25 株式会社スクウェア・エニックス 仮想キャラクタを含む画像を提供するための方法
JP2020160576A (ja) * 2019-03-25 2020-10-01 株式会社ミクシィ 情報処理装置およびプログラム
JP7280492B2 (ja) 2019-03-25 2023-05-24 株式会社Mixi 情報処理装置、情報処理方法およびプログラム

Also Published As

Publication number Publication date
JPWO2012144389A1 (ja) 2014-07-28
US20140035952A1 (en) 2014-02-06
EP2701123B1 (en) 2018-10-17
EP2701123A1 (en) 2014-02-26
EP2701123A4 (en) 2014-12-17
US9721388B2 (en) 2017-08-01
JP6020446B2 (ja) 2016-11-02

Similar Documents

Publication Publication Date Title
JP6020446B2 (ja) 画像表示システム、画像表示装置、画像表示方法及びプログラム
KR102417645B1 (ko) Ar 장면 이미지 처리 방법, 장치, 전자 기기 및 저장 매체
US10636185B2 (en) Information processing apparatus and information processing method for guiding a user to a vicinity of a viewpoint
US20150379777A1 (en) Augmented reality providing system, recording medium, and augmented reality providing method
CN104641399B (zh) 用于创建环境并用于共享环境中基于位置的体验的系统和方法
TWI615776B (zh) 移動物件的虛擬訊息建立方法、搜尋方法與應用系統
JP6348741B2 (ja) 情報処理システム、情報処理装置、情報処理プログラム、および情報処理方法
CN108548300B (zh) 空调送风方法及装置、电子设备
US10868977B2 (en) Information processing apparatus, information processing method, and program capable of adaptively displaying a video corresponding to sensed three-dimensional information
JP6720385B1 (ja) プログラム、情報処理方法、及び情報処理端末
KR102197615B1 (ko) 증강 현실 서비스를 제공하는 방법 및 증강 현실 서비스를 제공하기 위한 서버
JP7150894B2 (ja) Arシーン画像処理方法及び装置、電子機器並びに記憶媒体
KR20180120456A (ko) 파노라마 영상을 기반으로 가상현실 콘텐츠를 제공하는 장치 및 그 방법
CN111833457A (zh) 图像处理方法、设备及存储介质
CN112740284A (zh) 动画合成装置、动画合成方法以及记录介质
JP6640294B1 (ja) 複合現実システム、プログラム、携帯端末装置、及び方法
TW201823929A (zh) 移動物件的虛擬訊息遠距管理方法與應用系統
WO2021093703A1 (zh) 基于光通信装置的交互方法和系统
JPWO2019026919A1 (ja) 画像処理システム、画像処理方法、及びプログラム
JP6699709B2 (ja) 情報処理装置及びプログラム
CN108092950B (zh) 一种基于位置的ar或mr社交方法
WO2019127320A1 (zh) 信息处理方法、装置、云处理设备及计算机程序产品
CN113760088A (zh) 增强现实显示装置以及记录介质
KR20220044489A (ko) 화상 처리 장치 및 화상 처리 방법, 그리고 프로그램
JP7013786B2 (ja) 情報処理装置、プログラム及び制御方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 12774800

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2013510960

Country of ref document: JP

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 14112030

Country of ref document: US

Ref document number: 2012774800

Country of ref document: EP

NENP Non-entry into the national phase

Ref country code: DE