WO2015068371A1 - 情報処理装置 - Google Patents

情報処理装置 Download PDF

Info

Publication number
WO2015068371A1
WO2015068371A1 PCT/JP2014/005530 JP2014005530W WO2015068371A1 WO 2015068371 A1 WO2015068371 A1 WO 2015068371A1 JP 2014005530 W JP2014005530 W JP 2014005530W WO 2015068371 A1 WO2015068371 A1 WO 2015068371A1
Authority
WO
WIPO (PCT)
Prior art keywords
face
user
image
unit
login
Prior art date
Application number
PCT/JP2014/005530
Other languages
English (en)
French (fr)
Inventor
陽 徳永
啓悟 田村
渉一 池上
智弘 小川
善彦 諏訪
土屋 晃胤
Original Assignee
株式会社ソニー・コンピュータエンタテインメント
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社ソニー・コンピュータエンタテインメント filed Critical 株式会社ソニー・コンピュータエンタテインメント
Priority to CN201480059948.2A priority Critical patent/CN105706102A/zh
Priority to EP14860210.5A priority patent/EP3067812B1/en
Priority to US15/032,136 priority patent/US10362028B2/en
Publication of WO2015068371A1 publication Critical patent/WO2015068371A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L63/00Network architectures or network communication protocols for network security
    • H04L63/08Network architectures or network communication protocols for network security for authentication of entities
    • H04L63/0861Network architectures or network communication protocols for network security for authentication of entities using biometrical features, e.g. fingerprint, retina-scan
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/30Authentication, i.e. establishing the identity or authorisation of security principals
    • G06F21/31User authentication
    • G06F21/32User authentication using biometric data, e.g. fingerprints, iris scans or voiceprints
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/213Input arrangements for video game devices characterised by their sensors, purposes or types comprising photodetecting means, e.g. cameras, photodiodes or infrared cells
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/70Game security or game management aspects
    • A63F13/71Game security or game management aspects using secure communication between game devices and game servers, e.g. by encrypting game data or authenticating players
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/70Game security or game management aspects
    • A63F13/79Game security or game management aspects involving player-related data, e.g. identities, accounts, preferences or play histories
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/60Static or dynamic means for assisting the user to position a body part for biometric acquisition
    • G06V40/67Static or dynamic means for assisting the user to position a body part for biometric acquisition by interactive indications to the user
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L63/00Network architectures or network communication protocols for network security
    • H04L63/10Network architectures or network communication protocols for network security for controlling access to devices or network resources
    • H04L63/102Entity profiles
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/633Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera
    • H04N23/635Region indicators; Field of view indicators

Definitions

  • the present invention relates to an information processing apparatus that performs user authentication processing.
  • the information processing apparatus When a user logs in to an information processing apparatus such as a game apparatus, the information processing apparatus performs user authentication processing to identify whether the logged-in user is a user registered in advance.
  • user authentication processing There are various types of user authentication, and conventionally, user authentication by password is widely used.
  • user authentication using biometric information of the user is also generally used.
  • biometric information there is no need for the user to enter a password, and the time and effort of the user in authentication is small.
  • a face recognition system that recognizes a user's face from a digital image is basically known as one of simple user authentication because it does not require the user to perform a special operation.
  • the inventor of the present invention has realized a mechanism for allowing a user to log in to an information processing apparatus by realizing user authentication simply by using a face authentication system.
  • a game device for example, there are various types of games that the user attempts to log in to and play from the game device, and user information registered for user login on the game device is also selected by the user. A large number of cases may have occurred. For example, there are many games operated using a game controller, but there are games without a game controller, and some users register face images for face authentication login and others do not. Therefore, it is preferable that an information processing apparatus such as a game apparatus can execute an appropriate login process according to the situation of such a user.
  • an object of the present invention is to provide a technique for performing efficient user authentication.
  • an information processing apparatus includes a captured image display unit for displaying a captured image on a display, a registered user information holding unit for holding face identification data of a registered user, and registration.
  • FIG. 7 is a diagram showing a login screen in login process 2; FIG.
  • FIG. 7 is a diagram showing a login screen in login process 2; It is a figure which shows an example of a login screen.
  • (A) And (b) is a figure for demonstrating the parameter used by a position determination algorithm. It is a figure which shows the flowchart of a position determination process of a position designation
  • (A) And (b) is a figure which shows the state which has arrange
  • A) is a figure which shows the state which has arrange
  • (b) is a figure which shows the state which does not arrange
  • FIG. 1 shows an information processing system 1 according to an embodiment of the present invention.
  • the information processing system 1 includes an information processing apparatus 10 which is a user terminal and a server 5.
  • the access point (hereinafter referred to as "AP") 8 has the functions of a wireless access point and a router, and the information processing apparatus 10 communicates with the server 5 on the network 3 by connecting to the AP 8 wirelessly or by wire. Connect as possible.
  • AP access point
  • the auxiliary storage device 2 is a mass storage device such as a hard disk drive (HDD) or a flash memory, and may be an external storage device connected to the information processing apparatus 10 by USB (Universal Serial Bus) or the like. It may be an apparatus.
  • the output device 4 may be a television having a display for outputting an image and a speaker for outputting an audio, and may be a computer display.
  • the output device 4 may be connected to the information processing device 10 by a wired cable or may be connected wirelessly.
  • the information processing device 10 is connected to the input device 6 operated by the user wirelessly or by wire, and the input device 6 outputs an operation signal indicating the result of the user's operation to the information processing device 10.
  • the information processing device 10 When the information processing apparatus 10 receives an operation signal from the input device 6, the information processing device 10 reflects it on the processing of the OS (system software) or application and causes the output device 4 to output the processing result.
  • the input device 6 is configured to have a plurality of push-type operation buttons, an analog stick capable of inputting an analog amount, and a plurality of input units such as a rotary button.
  • the information processing device 10 When the information processing apparatus 10 receives an operation signal from the input device 6, the information processing device 10 reflects the operation signal on the processing of the application and causes the output device 4 to output the processing result.
  • the information processing device 10 is a game device that executes a game
  • the input device 6 is a device such as a game controller that provides a user operation signal to the information processing device 10.
  • the input device 6 may be an input interface such as a keyboard or a mouse.
  • a camera 7 which is an imaging device is provided in the vicinity of the output device 4 and images a space around the output device 4.
  • the camera 7 is attached to the upper part of the output device 4, it may be disposed on the side or lower part of the output device 4 and in any case is located in front of the output device 4 It is placed at a position where the user can be imaged.
  • the camera 7 may be a stereo camera.
  • the server 5 provides a network service to the user of the information processing system 1.
  • the server 5 manages a network account that identifies each user, and each user uses the network account to sign in to a network service provided by the server 5.
  • the user can register the save data of the game and the trophy, which is a virtual award item acquired during the game play, in the server 5.
  • FIG. 2A shows the appearance of the upper surface of the input device.
  • the user grips the left grip 78b with the left hand, grips the right grip 78a with the right, and operates the input device 6.
  • a direction key 71 which is an input unit, analog sticks 77a and 77b, and four types of operation buttons 76 are provided.
  • buttons 72 to 75 different figures are described in different colors to distinguish them. That is, a red circle is written on the ⁇ ⁇ ⁇ button 72, a blue cross on the ⁇ button 73, a purple square on the ⁇ button 74, and a green triangle on the ⁇ button 75.
  • a touch pad 79 is provided on a flat area between the direction key 71 and the operation button 76 on the top surface of the housing.
  • the touch pad 79 also functions as a push-down button that sinks downward when the user presses it, and returns to its original position when the user releases the hand.
  • a function button 80 is provided between the two analog sticks 77a, 77b.
  • the function button 80 is used to turn on the power of the input device 6 and to activate a communication function to connect the input device 6 and the information processing device 10 at the same time.
  • the main power supply of the information processing apparatus 10 is turned off, when the function button 80 is pressed, the information processing apparatus 10 turns on the main power supply for the connection request transmitted from the input device 6. It is also accepted as an instruction, whereby the main power supply of the information processing apparatus 10 is turned on.
  • the function button 80 is also used to cause the information processing apparatus 10 to display a menu screen.
  • the SHARE button 81 is provided between the touch pad 79 and the direction key 71.
  • the SHARE button 81 is used to input an instruction from the user to the OS or system software in the information processing apparatus 10.
  • the OPTIONS button 82 is provided between the touch pad 79 and the operation button 76.
  • the OPTIONS button 82 is used to input an instruction from the user on an application (game) executed on the information processing apparatus 10. Both the SHARE button 81 and the OPTIONS button 82 may be formed as push buttons.
  • FIG. 2 (b) shows the appearance of the rear side of the input device.
  • a touch pad 79 extends from the upper surface of the housing on the upper side of the housing rear side of the input device 6, and a horizontally long light emitting unit 85 is provided on the lower side of the housing rear side.
  • the light emitting unit 85 includes LEDs of red (R), green (G), and blue (B), and lights up in accordance with emission color information transmitted from the information processing apparatus 10.
  • the information processing apparatus 10 emits light from the input devices 6a and 6b so that the users A and B can distinguish the respective input devices 6.
  • the lighting color of the portion 85 may be defined as different colors, respectively red and green. As a result, each user can recognize the input device 6 used by himself / herself by the lighting color of the light emitting unit 85, so the possibility of mistaking the input device 6 is reduced.
  • the upper button 83a, the lower button 84a, the upper button 83b, and the lower button 84b are provided at laterally symmetrical positions in the longitudinal direction on the rear side of the housing.
  • the upper button 83a and the lower button 84a are operated by the index finger and the middle finger of the user's right hand, respectively, and the upper button 83b and the lower button 84b are operated by the index finger and the middle finger of the user left hand, respectively.
  • the forefinger operating the respective buttons is provided by providing the light emitting unit 85 between the arrangement of the right upper button 83a and the lower button 84a and the arrangement of the left upper button 83b and the lower button 84b.
  • the camera 7 can preferably capture an image of the light emitting unit 85 that has been turned on.
  • the upper button 83 may be configured as a push button, and the lower button 84 may be configured as a rotatably supported trigger button.
  • FIG. 3 shows the configuration of the input device 6.
  • the input device 6 includes a wireless communication module 90, a processing unit 91, a light emitting unit 85, and a vibrator 98.
  • the wireless communication module 90 has a function of transmitting and receiving data to and from the wireless communication module of the information processing apparatus 10.
  • the processing unit 91 executes the desired processing in the input device 6.
  • the processing unit 91 includes a main control unit 92, an input receiving unit 93, a light emission control unit 94, a three-axis acceleration sensor 95, a three-axis gyro sensor 96, and a drive control unit 97.
  • the main control unit 92 exchanges necessary data with the wireless communication module 90.
  • the input reception unit 93 is input information from the input unit such as the direction key 71, the operation button 76, the analog stick 77, the touch pad 79, the function button 80, the SHARE button 81, the OPTIONS button 82, the upper button 83, and the lower button 84.
  • the main control unit 92 converts the received input information into a predetermined control signal as necessary and supplies the control signal to the wireless communication module 90, and the wireless communication module 90 transmits the information to the information processing apparatus 10 at a predetermined timing.
  • the light emission control unit 94 controls the light emission of the red LED 87, the green LED 88, and the blue LED 89 that constitute the light emitting unit 85.
  • the main control unit 92 sends information to the information processing device 10.
  • the connection request is generated, and the wireless communication module 90 transmits the connection request to the information processing apparatus 10.
  • the main power is turned on to start the OS (system software), and a wireless connection with the input device 6 is established.
  • the system software of the information processing apparatus 10 determines the emission color of the light emitting unit 85 of the input device 6 that has transmitted the connection request, and transmits emission color information to the input device 6. At this time, it is preferable that the system software analyze the color information included in the space imaged by the camera 7, specify the color not included in the environmental color as much as possible, and determine the emission color of the light emitting unit 85 . As a result, after the light emitting unit 85 is turned on, it is possible to suitably detect the light emitting unit 85 which is turned on in the designated light emission color from the captured image of the camera 7.
  • the light emission color information received by the wireless communication module 90 is passed to the main control unit 92, and the main control unit 92 notifies the light emission control unit 94 of the light emission color information.
  • the light emission control unit 94 can cause the light emitting unit 85 to emit light in the designated light emission color.
  • the vibrator 98 includes an eccentric motor and the like, and is driven by the drive control unit 97.
  • the three-axis acceleration sensor 95 detects acceleration components in the three axial directions of the input device 6 in the X, Y, and Z directions, and the three-axis gyro sensor 96 detects angular velocities in the XZ plane, the ZY plane, and the YX plane.
  • FIG. 4 shows a functional block diagram of the information processing apparatus 10.
  • the information processing apparatus 10 includes a main power button 20, a power ON LED 21, a standby LED 22, a system controller 24, a clock 26, a device controller 30, a media drive 32, a USB module 34, a flash memory 36, a wireless communication module 38, and wired communication. It comprises module 40, subsystem 50 and main system 60.
  • the main system 60 includes a main CPU (Central Processing Unit), a memory as a main storage device, a memory controller, a GPU (Graphics Processing Unit), and the like.
  • the GPU is mainly used for arithmetic processing of a game program. These functions may be configured as a system on chip and formed on one chip.
  • the main CPU has a function of activating the OS and executing an application installed in the auxiliary storage device 2 under an environment provided by the OS.
  • the subsystem 50 includes a sub CPU, a memory that is a main storage device, a memory controller, and the like, and does not include a GPU.
  • the number of circuit gates of the sub CPU is smaller than the number of circuit gates of the main CPU, and the operation power consumption of the sub CPU is less than the operation power consumption of the main CPU.
  • the sub CPU operates while the main CPU is in the standby state, and its processing function is limited in order to reduce power consumption.
  • the sub CPU and the memory may be formed on separate chips.
  • the main power button 20 is an input unit to which an operation input from a user is performed, and is provided on the front surface of the chassis of the information processing apparatus 10 to turn on or off the power supply to the main system 60 of the information processing apparatus 10 Operated to Hereinafter, that the main power supply is in the on state means that the main system 60 is in the active state, and that the main power supply is in the off state means that the main system 60 is in the standby state.
  • the power ON LED 21 lights up when the main power button 20 is turned on, and the standby LED 22 lights up when the main power button 20 is turned off.
  • the system controller 24 detects pressing of the main power button 20 by the user. When the main power button 20 is pressed while the main power is off, the system controller 24 acquires the pressing operation as an "on instruction", while the main power is on when the main power is on. When the button 20 is pressed, the system controller 24 acquires the pressing operation as an “off instruction”.
  • the sub CPU While the main CPU has a function of executing a game program installed in the auxiliary storage device 2 or the ROM medium 44, the sub CPU does not have such a function. However, the sub CPU has a function of accessing the auxiliary storage device 2 and a function of transmitting / receiving data to / from the server 5.
  • the sub CPU is configured to have only such limited processing functions, and therefore can operate with less power consumption compared to the main CPU.
  • the functions of these sub CPUs are executed when the main CPU is in the standby state.
  • the information processing apparatus 10 maintains the state in which the network service provided by the server 5 is always signed in because the subsystem 50 is in operation when the main system 60 is in standby mode.
  • the clock 26 is a real time clock that generates current date and time information and supplies it to the system controller 24, the subsystem 50 and the main system 60.
  • the device controller 30 is configured as an LSI (Large-Scale Integrated Circuit) that performs exchange of information between devices like a south bridge. As illustrated, the device controller 30 is connected to devices such as the system controller 24, media drive 32, USB module 34, flash memory 36, wireless communication module 38, wired communication module 40, subsystem 50 and main system 60. Ru. The device controller 30 absorbs differences in electrical characteristics of the respective devices and differences in data transfer rates, and controls the timing of data transfer.
  • LSI Large-Scale Integrated Circuit
  • the media drive 32 is a drive device that mounts and drives a ROM medium 44 storing application software such as a game and license information, and reads a program or data from the ROM medium 44.
  • the ROM medium 44 is a read-only recording medium such as an optical disk, a magneto-optical disk, or a Blu-ray disk.
  • the USB module 34 is a module connected to an external device by a USB cable.
  • the USB module 34 may be connected to the auxiliary storage device 2 and the camera 7 by a USB cable.
  • the flash memory 36 is an auxiliary storage device that constitutes an internal storage.
  • the wireless communication module 38 wirelessly communicates with, for example, the input device 6 by a communication protocol such as Bluetooth (registered trademark) protocol or IEEE 802.11 protocol.
  • the wireless communication module 38 is compatible with the third generation (3rd generation) digital cellular phone system conforming to the IMT-2000 (International Mobile Telecommunication 2000) standard defined by the International Telecommunication Union (ITU). It may also be compatible with another generation of digital cellular phone systems.
  • the wired communication module 40 performs wired communication with an external device, and connects to the network 3 via, for example, the AP 8.
  • the information processing apparatus 10 of the present embodiment prepares a plurality of types of login processing, and executes the login request from the user according to the user's situation, the operation situation for generating the login request, etc. 1 Determine one login process, and provide the user with a user interface of the determined login process. The outline of the three types of login processing will be described below.
  • ⁇ Login process 1> In the login process 1, the information processing apparatus 10 displays a user selection screen on the output device 4, and the user uses the input device 6 to select the icon of the user on the user selection screen, and inputs a login pass code. Then, the information processing apparatus 10 performs user authentication and logs in the user.
  • the login process 1 is a conventional login process using a pass code.
  • ⁇ Login process 2> In login processing 2, when the information processing apparatus 10 performs face authentication of the user using the captured image of the camera 7 and it is determined that the detected face image is the face of the registered user, the process is performed on the registered user This is a process of specifying the position to move the input device 6 in the camera image displayed on the display, performing user authentication by moving the input device 6 to the specified area, and logging in the user.
  • ⁇ Login process 3> In login processing 3, when the information processing apparatus 10 performs face authentication of the user using the captured image of the camera 7 and it is determined that the detected face image is a face of the registered user, the process is performed on the registered user This is a process of specifying the position where the face should be moved in the camera image displayed on the display, performing user authentication by moving the face to the designated area, and logging in the user.
  • the login processes 1 and 2 are common in that user authentication is performed using the input device 6. However, in the login process 1, while the user authentication is performed when the user inputs a pass code, the login process is performed.
  • the second embodiment differs in that user authentication is performed only by the user moving the input device 6 to a predetermined area.
  • the login process 1 is executed when the user transmits a login request to the information processing apparatus 10 from the input device 6, and is executed when the face image of the user is not registered in the information processing apparatus 10; This is executed when the user transmits a login request from the input device 6 to the information processing apparatus 10 and the face image of the user is registered in the information processing apparatus 10. If login processing 1 and 2 are compared, login processing 2 does not need to input a pass code, so it can be said that the login operation is simple for the user.
  • the login processing 2 and 3 are common in that both face recognition is performed using the image captured by the camera 7. However, in the login processing 2, it is detected that the input device 6 has been moved to a predetermined area and the user While authentication is performed, the login process 3 is different in that user authentication is performed by detecting that the user's face is moved to a predetermined area.
  • the login process 3 does not transmit the login request from the input device 6 to the information processing apparatus 10, for example, when the user presses the main power button 20 while the information processing apparatus 10 is powered off. To be run.
  • the information processing apparatus 10 executes any of login processing 1 to 3 depending on whether the user has registered a face image or whether the user has transmitted a login request from the input device 6. Decide what to do.
  • FIG. 5 shows the configuration of the information processing apparatus 10.
  • the information processing apparatus 10 includes a communication unit 102, an input reception unit 104, an image acquisition unit 106, a microphone 108, a management unit 100, and a registered user information holding unit 150.
  • the function of the management unit 100 is realized by an OS (system software) of the information processing apparatus 10 and an application or memory executed by the OS, and includes a light emission color determination unit 110, a process determination unit 120, and a login control unit 130.
  • the login control unit 130 includes a selected image display unit 132, a captured image display unit 134, a face authentication unit 136, a face frame processing unit 138, a position designation image processing unit 140, an object authentication unit 142, a login processing unit 144, and a login user storage unit. It has 146.
  • the communication unit 102 shows the functions of the wireless communication module 38 and the wired communication module 40 shown in FIG. 4.
  • each element described as a functional block that performs various processing can be configured as a circuit block, a memory, and other LSIs in terms of hardware, and in software, it can be loaded into a memory It is realized by a program etc. Therefore, it is understood by those skilled in the art that these functional blocks can be realized in various forms by hardware only, software only, or a combination thereof, and is not limited to any of them.
  • the information processing apparatus 10 has one feature of supporting a user's preferred login operation.
  • the user In order to log in to the OS of the information processing apparatus 10, the user needs to acquire a user account in advance and register various user information in the information processing apparatus 10 as a premise.
  • a user who has registered a user account in the information processing apparatus 10 will be referred to as a “registered user”.
  • the registered user information holding unit 150 holds various information related to the registered user, specifically, in association with a user account, a login pass code, a sign-in ID for signing in to the server 5, a network account, a user An online ID (nickname on the network), a user icon for representing a user, and the like are held as registered user information.
  • the registered user information holding unit 150 holds face identification data as registered user information in association with a user account for a registered user who has previously registered a face image for face authentication processing.
  • the face identification data is feature amount data of the face image of the registered user, but may be face image data itself.
  • the face identification data is data to be compared in the face recognition process by the face authentication unit 136, and is generated according to the face recognition algorithm adopted by the face authentication unit 136.
  • the face identification data may be data extracted as a feature of the relative position and size of face parts, and the shapes of eyes, nose, cheekbones and chin.
  • the face identification data may be data extracted as difference data from standard data of a face image.
  • the type of face identification data to be extracted is determined by the face recognition algorithm to be employed, and in this embodiment, the face recognition unit 136 adopts a known face recognition algorithm. As for the registered user who has not registered the face image, of course, the face identification data is not included in the registered user information holding unit 150.
  • ⁇ Login process 1> When the user presses the function button 80 of the input device 6, the pressed information is transmitted to the information processing apparatus 10.
  • the communication unit 102 receives the pressing information as a connection request, and connects the input device 6 and the communication unit 102.
  • the communication unit 102 is connected to the input apparatus 6 after the main power supply of the information processing apparatus 10 is turned on by pressing information of the function button 80.
  • pressing information of the function button 80 is transmitted to the input receiving unit 104, and the input receiving unit 104 receives the pressing information as a login request from the user, and transmits the information to the management unit 100.
  • the light emission color determination unit 110 determines the light emission color of the light emission unit 85 of the input device 6 that has transmitted the login request.
  • the image acquisition unit 106 acquires captured image data from the camera 7. For example, the camera 7 periodically captures space (for example, every 1/30 seconds) and provides the captured image to the image acquisition unit 106 via the USB module 34.
  • the light emission color determination unit 110 determines the light emission color according to the predetermined assignment order, but if the light emission color determined by the assignment order at this time exists in the imaging space, a color not existing in the imaging space from the captured image The light emission color may be determined from the specified colors.
  • the communication unit 102 transmits the light emission color information to the input device 6.
  • the wireless communication module 90 receives the light emission color information, and the light emission control unit 94 lights the light emission unit 85 in a light emission color corresponding to the light emission color information. For example, when the emission color information specifies red, the light emitting unit 85 of the input device 6 is lit in red.
  • the selected image display unit 132 also reads out the registered user information held in the registered user information holding unit 150, and generates a selected image for selecting a user registered in the information processing apparatus 10. Specifically, the selected image display unit 132 reads out the user icon and the online ID in the registered user information, and displays a user selection screen in which the online IDs of the registered users are arranged in a list format on the output device 4. This selection screen constitutes the login screen in the login process 1, but as described later, when the selection screen is initially displayed, determination processing as to whether or not to execute the login process 2 is performed. After the non-execution is determined, the user selection screen will form the login screen in the login process 1 formally.
  • FIG. 6A shows an example of the user selection screen.
  • the selected image display unit 132 reads user icons and online IDs of all registered users held in the registered user information holding unit 150, and displays the read user icons and online IDs in a list format so that the user can select them.
  • the user icon and the online ID will be referred to as "user identification information”.
  • the captured image display unit 134 displays the captured image acquired by the image acquisition unit 106 in a small window area 202 of a part of the user selection screen.
  • This display image is a live image of the camera 7, and in the vicinity of the small window area 202, a message "Looking for registered face” is displayed.
  • This message is displayed during the face authentication process by the face authentication unit 136. Therefore, when the face authentication process is completed, the message display is turned off. That is, in the state shown in FIG. 6A, while the user selection screen is displayed, in the background, the face authentication unit 136 confirms whether the user who has registered the face image exists in the captured image. ing.
  • FIG. 7 shows an example of the space photographed by the camera 7. There are three users in this shooting space.
  • a square frame surrounding three users represents the imaging range of the camera 7.
  • the imaging range of the camera 7 defines the range displayed as a live image on the output device 4, the live image may be part of the captured image.
  • the face authentication unit 136 extracts a portion estimated to be a human face in the captured image, derives feature amount data of the portion, and compares it with the data for face identification held in the registered user information holding unit 150, It is determined whether the extracted face is the face of the registered user.
  • the face authentication unit 136 derives the matching degree between the extracted feature amount data of the face image of the user and the face identification data of all the registered users held in the registered user information holding unit 150.
  • the degree of coincidence is expressed numerically, and the degree of coincidence is derived, for example, in the form of how many out of 100 points. If the degree of coincidence with the feature amount data of the registered face image exceeds 90 points, the face authentication unit 136 determines that the captured user is a registered user, and which of the captured user is Identify if it is a registered user. If there are a plurality of matches whose degree of coincidence exceeds 90, the face recognition unit 136 may determine that the captured user is the registered user of the face identification data from which the highest point is derived. .
  • the face authentication unit A step 136 determines that the user included in the captured image is not a registered user. As described above, the face authentication unit 136 detects the face image of the registered user present in the captured image using the face identification data held in the registered user information holding unit 150. This face identification technique may use known techniques.
  • the login processing unit 144 displays “searching for registered faces”.
  • the message may be hidden and the small window area 202 may also be hidden. Note that, even when all the users determined to be registered users are already logged in by the face authentication unit 136, the login processing unit 144 displays “searching for registered faces”. The message may be hidden, and the small window area 202 may also be hidden.
  • the face authentication unit 136 includes the user who has registered the face image not logged in yet in the captured image of the camera 7.
  • the selected image display unit 132 continues the display of the user selection screen, and the login processing unit 144 starts the login processing 1 .
  • the determination time by the face authentication unit 136 is several seconds, so the small window area 202 and the message are displayed for only several seconds on the user selection screen.
  • the login processing unit 144 movably displays the focus frame 200 surrounding one piece of user identification information on the list on the user selection screen.
  • the user operates the input unit of the input device 6 to move the focus frame 200 to the display area of his / her user identification information, and presses the determination button (o button 72) of the input device 6 to select his / her user identification information. it can.
  • the number of displayed user identification information is limited, and in the example shown in FIG. 6A, the number is limited to four at the maximum. When the number of registered users exceeds four, the user can operate the input unit of the input device 6 to scroll the list of user identification information leftward or rightward.
  • the login processing unit 144 displays the passcode input screen shown in FIG. 6B. Is displayed on the output device 4.
  • the login processing unit 144 determines whether it is the same as the login pass code of the user A held in the registered user information holding unit 150, and the login of the user A is performed. To determine the In this series of login operations, the login processing unit 144 receives only the operation information from the input device 6a, and does not receive the operation information from the input device 6 other than the input device 6a.
  • the login control unit 130 executes the login process 1 of the user.
  • the login control unit 130 executes login processing 1 so that a user who has not registered a face image can smoothly log in. Let's do it.
  • ⁇ Login process 2> As described above, when the user operates the input device 6 to generate a login request, when the face authentication unit 136 determines that the user who registered the face image does not exist in the captured image, the login process 1 is performed. To be executed. On the other hand, when the user operates the input device 6 to generate a login request, if the face authentication unit 136 determines that there is a user who has registered a face image not logged in yet in the captured image, Login process 2 is executed.
  • FIG. 8 shows the result of face identification by the face authentication unit 136.
  • the face authentication unit 136 includes a face area 204a indicating the position of the face of the user A (online ID: HANAKO) in the captured image and a face area 204b indicating the position in the captured image of the face of the user B (online ID: SACHIKO) Are set, and the face frame processing unit 138 is provided with position coordinates of the face areas 204a and 204b and information for specifying the captured registered user.
  • the position coordinates will be described as an example expressed by two-dimensional coordinates when the captured image is displayed on the display, but may be coordinates defined on the VRAM, and in any case the coordinates of the face area 204 and The coordinates of the face frame to be described later may be expressed in a common coordinate system.
  • Each face area 204 may be set as a rectangular area in contact with the face outline in the captured image, but may be set as a rectangular area slightly wider than the face outline.
  • the contour of the face means a contour including up to the hair, but if the face recognition processing of the face recognition unit 136 does not consider the hair, for example, the contour of the face is set excluding the hair. Good.
  • the size and shape of the face area 204 are determined by the size and shape of the user's face in the captured image, and thus the size and shape of the face area 204 are different for each user, and even with the same user, The size and the shape of the face area 204 change according to the distance of.
  • the information identifying the registered user provided from the face authentication unit 136 to the face frame processing unit 138 may be a user account of the registered user or may be an online ID.
  • the face authentication unit 136 associates the position coordinates of the face area 204 with the registered user identification information and provides them to the face frame processing section 138. That is, in the example shown in FIG. And a combination of the face area 204b and the specific information of the user B are provided to the face frame processing unit 138.
  • the face frame processing unit 138 causes the output device 4 to display a face frame for the registered user detected by the face authentication unit 136.
  • FIG. 9 shows a login screen in the login process 2.
  • the face authentication unit 136 detects the user who registered the face image in the captured image, and the user selection screen is not displayed. After that, it is displayed on the output device 4.
  • the captured image display unit 134 displays live the captured image of the camera 7 in the captured image display area 206.
  • the face frame processing unit 138 displays the face frame 210 for the registered user based on the position coordinates of the face areas 204a and 204b provided by the face authentication unit 136 and the information specifying the imaged registered user.
  • the face frame 210 a is displayed to the user A
  • the face frame 210 b is displayed to the user B.
  • the face frame processing unit 138 displays the online ID (HANAKO) of the user A near the face frame 210a
  • the users A and B can know that their face recognition is being performed.
  • the user can know that face recognition is not properly performed if an online ID different from the user's own face is displayed near the face frame 210 of the user.
  • the face frame 210 is not displayed because the middle user is not the registered user who registered the face image.
  • the position designation image processing unit 140 displays a position designation image 212 for designating the position of an object on the output device 4 as a display to the registered user detected by the face authentication unit 136.
  • the object is the input device 6 which is a game controller
  • the position designation image 212 is a position at which the user moves the input device 6 and causes the camera 7 to image in the captured image displayed in the captured image display area 206 Specify In login process 2, the position designation image 212 is displayed to move and arrange the input device 6 when the registered user logs in.
  • the position designation image processing unit 140 displays the position designation image 212 for each registered user based on the position coordinates of the face areas 204 a and 204 b provided by the face authentication unit 136.
  • the position designation image 212 a is displayed to the user A
  • the position designation image 212 b is displayed to the user B.
  • the position designation image processing unit 140 attaches an ID to each of the position designation images 212, and provides the position designation image ID and the identification information of the corresponding user to the login processing unit 144.
  • the position designation image processing unit 140 sets the designation position image ID of the position designation image 212a as “ID1”, the designation position image ID of the position designation image 212b as “ID2”, and “ID1” and the specific information of the user A.
  • the position designation image processing unit 140 provides the login processing unit 144 with the combination of “ID 1” and the identification information of the user A and the combination of “ID 2” and the identification information of the user B.
  • the position designation image processing unit 140 displays a position designation image 212 that enables the user who is about to log in to understand an operation to be performed from now.
  • the position designation image 212 includes an image of the game controller, and further, an image in which the LED of the game controller is lit in red.
  • the user who is about to log in can move the input device 6 in which the light emitting unit 85 is lit red to the area designated by the position designation image 212 and easily recognize that the camera 7 may pick up an image. become.
  • the position designation image processing unit 140 displays a position designation image 212 for specifying the lower position of the face image of the registered user, that is, the lower position of the face frame 210.
  • FIG. 10 shows a login screen in which the input device 6 is moved to the position designated by the position designation image 212 by the user.
  • a state is shown in which the user A lifts the input device 6 upward so that the input device 6 overlaps the game controller image included in the position designation image 212 a displayed on the output device 4.
  • the object authentication unit 142 monitors whether the image of the input device 6 is included in the designated area designated by the position designation image 212 a in the captured image.
  • the object authentication unit 142 is not limited to the game controller image but also to the vicinity thereof. It is preferable to monitor the image of the input device 6 within the included area.
  • the area monitored by the object authentication unit 142 is an area within a predetermined radius from the center of the game controller image included in the position designation image 212, even if the input device 6 is not perfectly matched with the game controller image. It is preferable that the unit 142 can detect that the image of the input device 6 is included in the area designated by the position designation image 212.
  • the designated area may be rectangular or may have another shape.
  • the position designation image processing unit 140 displays the position designation images 212a and 212b for the users A and B, respectively. Therefore, the object authentication unit 142 is designated by the position designation images 212a and 212b. It is monitored whether the image of the input device 6 is included in the area. In this example, since the login process of the input device 6 in which the light emitting unit 85 is lit in red is performed, the position designation image processing unit 140 displays the game controller images lit in red as position designation images 212 a and 212 b, respectively. The authentication unit 142 may detect the presence of the input device 6 by determining whether a red rectangular area exists in the designated area.
  • the object authentication unit 142 When the object authentication unit 142 detects the presence of the input device 6 in any of the designated areas, the object authentication unit 142 specifies the position designation image 212 in which the input device 6 having the light emitting unit 85 lit in red is detected. The information (position designation image ID) is notified to the login processing unit 144.
  • the login processing unit 144 is notified in advance of the combination of the position designation image ID and the user's specific information from the position designation image processing unit 140.
  • the login processing unit 144 can acquire the user's identification information from the combination information notified in advance. Therefore, the login processing unit 144 recognizes that the input device 6 lit in red is detected in the area designated by the position designation image 212 a displayed for the user A. Thus, the login processing unit 144 causes the user A to log in to the information processing apparatus 10.
  • the login processing unit 144 includes login information, that is, information identifying a user A (user account), information identifying an input device 6a used by the user A (game controller ID), and a captured image in the login user storage unit 146. And the information (red light emission information) for identifying the input device 6a included in the above are stored in association with each other.
  • the face authentication unit 136 performs face authentication, and thereafter, the object authentication unit 142 detects that the input device 6 is included in the designated area, whereby the login processing unit 144 is performed.
  • Logs in a registered user For example, in the face authentication process, after the face of a person is detected in the first captured image and it is determined whether or not the user is a registered user, the face authentication process may not be performed unless a new user is photographed. . In this case, the face of the detected person is tracked in the captured image, and position coordinates of the face image in the captured image are constantly provided to the face frame processing unit 138 and the position designation image processing unit 140.
  • the face frame 210 and the position designation image 212 are displayed in the captured image display area 206 following the movement of the user's face.
  • face authentication may be performed in a predetermined cycle, and in a time zone in which face authentication is not performed, the face of a detected person may be traced.
  • the face frame processing unit 138 and the position designation image processing unit 140 do not display the face frame 210 and the position designation image 212 for the user who has already logged in.
  • the face authentication unit 136 detects that the registered user is included in the captured image
  • the face frame processing unit 138 and the position designation image processing unit 140 cause the detected registered user to refer to the login user storage unit 146. It is determined whether the user has already logged in. For example, if the user B (on-line ID: SACHIKO) on the right side of the screen is a logged-in user, the face frame processing unit 138 and the position designation image processing unit 140 do not display the face frame 210b and the position designation image 212b.
  • the face frame processing unit 138 displays the face frame 210 for the registered user based on the position coordinates of the face areas 204a and 204b provided by the face authentication unit 136 and the information specifying the imaged registered user.
  • the position coordinates of the face area 204 provided from the face recognition unit 136 may be, for example, coordinate values of four vertices of the face area 204 set as a rectangle.
  • the position designation image processing unit 140 displays a position designation image 212 for designating the lower position of the face image of the registered user.
  • Each user may move within the imaging range after the face frame 210 and the position designation image 212 are displayed.
  • the face frame 210 and the position designation image 212 are preferably displayed in the captured image display area 206 so as to follow the movement of the user.
  • FIG. 11 shows an example of the login screen.
  • the face authentication unit 136 can not detect the user B in the captured image, and can not set the face area 204b. Since the non-detection of the user B is also due to the face identification accuracy of the face authentication unit 136, the user B does not necessarily frame out of the camera 7 even though the face authentication unit 136 can not detect the user B. . Therefore, the face frame processing unit 138 continues to display the face frame 210b once displayed even if the user B is not detected by the face recognition unit 136 under a predetermined condition.
  • the face frame processing unit 138 may cause the display mode of the face frame 210b to be different from that of the face frame 210a. For example, the face frame 210b may be displayed blinking. As long as the face frame 210b is displayed, the position designation image processing unit 140 continues to display the position designation image 212b below the face frame 210b.
  • the face frame processing unit 138 limits the number of face frames 210 to be displayed to a predetermined number. This is because it is difficult to display a large number of face frames 210 on the output device 4. Therefore, the face frame processing unit 138 sets the upper limit of the face frame 210 to be displayed to four, for example, and even if five or more registered users are detected in the captured image by the face authentication unit 136, the face frame for four persons Suppose that 210 is displayed.
  • the face frame processing unit 138 determines which user's face frame 210 is to be displayed, but the face frame for a plurality of registered users who have been imaged in order to use this determination as a reference. Determine the priority to display 210.
  • This priority is determined as follows. (A) First, the order of registered users included in the initial login screen is determined. Here, assuming that the users A and B are included in the initial login screen, the face frame processing unit 138 may determine one having the largest number of logins of the users A and B as the first place, and the other having the fewest number as the second. For example, when the number of logins of the user B is large, the user B is first and the user A is second.
  • the face frame processing unit 138 may determine the priority of the user with the large face area 204 to be high.
  • the face frame processing unit 138 may compare the areas of the plurality of face areas 204 set by the face authentication unit 136 to determine the priority of the user with the large face area 204 to be high.
  • the face frame processing unit 138 may determine the priority of the user whose distance to the camera 7 is close to high. (B) Next, the order of the registered users included in the login screen after the display of the initial login screen shown in FIG. 9 is determined high.
  • the face frame processing unit 138 determines the rank of the registered user newly captured by the camera 7 as the first place, and lowers the rank of the registered user already captured by one. Therefore, when the user C is newly photographed by the camera 7, the user C is ranked first, the user B second, and the user A third. Thus, the face frame processing unit 138 sets the criterion of (b) higher than that of (a), and sets the rank of the user newly recognized by the face authentication unit 136 higher.
  • the face frame processing unit 138 determines the priority of the registered user to be photographed by the camera 7, and it is assumed that the user B has become the fourth place as a result of newly photographing the users D and E as well. At this time, the rank of the user A is the fifth place, and the face frame processing unit 138 displays the face frame 210 for the users B, C, D, and E to which any one of the first to fourth places is set.
  • the face frame processing unit 138 erases the face frame 210b of the user B and displays the face frame 210a of the user A.
  • the face frame processing unit 138 drops the order of the users not detected by the face authentication unit 136 to the lowest order, and determines the display priority.
  • the face frame processing unit 138 determines the priority for displaying the face frame 210 for the plurality of registered users who are being imaged, and the face frame processing unit 138 determines the predetermined priority according to the determined priority.
  • the face frame 210 is displayed within the range of the upper limit number.
  • the condition that face frame 210b continues to be displayed on the login screen shown in FIG. 11 is the case where four or more registered users are not detected on this login screen, and as long as such conditions are satisfied.
  • the face frame processing unit 138 keeps displaying the face frame 210b.
  • the position designation image processing unit 140 displays the corresponding position designation image 212 in the vicinity of the face frame 210 as long as the face frame 210 is displayed. If the user B is not detected for a predetermined time (for example, 30 seconds or one minute), the face frame 210b and the position designation image 212b may be hidden.
  • the face frame processing unit 138 may display only one of the face frames 210 when the face frames 210 overlap.
  • 12 (a) and 12 (b) are diagrams for explaining the parameters used in the position determination algorithm.
  • the XY coordinates are set in the captured image display area 206, but in actuality, the position designation image processing unit 140 performs an operation based on the image data developed in the VRAM or the like.
  • an X axis is set at the lower end of the captured image display area 206, and a Y axis is set at the left end, Xmax indicates the screen size in the horizontal direction of the captured image display area 206, and Ymax indicates the screen size in the vertical direction of the captured image display area 206.
  • the position designation image processing unit 140 derives coordinate parameters for the face frame 210 a of the user A as follows.
  • the position designation image processing unit 140 derives reference parameters L, W, and H for the face area 204a as follows.
  • L Length in the vertical direction of face frame 210a
  • W Width in the horizontal direction of face frame 210a
  • H Height of face area 204a (distance from lower end of face area 204a to lower end of captured image display area 206)
  • FIG. 12B shows a state in which another user's face area 204b overlaps and exists below the face area 204a in the Y-axis direction.
  • the position designation image processing unit 140 obtains the overlap parameters Hol and Wol as follows.
  • Hol Distance between lower end of face area 204a and upper end of face area 204b
  • Wol Overlap width, ie distance between right end (or left end) of face area 204a and left end (or right end) of face area 204b
  • FIG. 13 is a flowchart of the position determination process of the position designation image 212 by the position designation image processing unit 140.
  • the position designation image processing unit 140 checks whether the face area of another user exists below the face area 204a of the user A (S10).
  • the lower side of the face area 204a means an area up to the lower end of the screen in the Y-axis downward direction of the face width W of the face area 204a, as shown in FIG. 12A. It is confirmed whether a face area (for example, face area 204b) exists.
  • the position designation image processing unit 140 determines that the controller image is to be placed Th1 below the face area 204a.
  • FIG. 14A shows a state in which the controller image is arranged at Th1 below the face area 204a.
  • the position designation image processing unit 140 derives the overlap Wol in the X-axis direction, and the overlap width Wol is greater than Th3. It is determined whether the size is also small (S14). Here, when the overlapping width Wol is smaller than Th3 (Y in S14), the position designation image processing unit 140 determines that the controller image is to be disposed Th1 below the face area 204a.
  • FIG. 14B shows a state in which the controller image is arranged at Th1 below the face area 204a.
  • the position designation image processing unit 140 when another face area does not overlap the face area 204a in the Y-axis direction (that is, the screen vertical direction), or when the overlapping width Wol is small, even if the face area 204a overlaps.
  • the controller image position designation image 212
  • the position designation image processing unit 140 arranges the controller image at Th4 upper than the lower end of the screen.
  • the position designation image processing unit 140 determines whether the distance Hol between the face area 204a and the face area 204b is Th2 or more (S16). Here, if the distance Hol is Th2 or more (Y in S16), the position designation image processing unit 140 arranges the controller image at Th4 upper than the upper end of the face area 204b (S18).
  • FIG. 15A shows a state in which the controller image is disposed at Th4 above the upper end of the face area 204b.
  • the position designation image processing unit 140 sets the Th4 upper side of the face area 204b when the distance between the face areas in the Y-axis direction is large. , Controller image (position designation image 212). Thereby, the user A can recognize that the displayed controller image is displayed for himself, while the user B can recognize that the controller image is not for himself.
  • the position designation image processing unit 140 responds to the overlap in the horizontal direction of the two face areas 204a and 204b. , Determine the position where the input device 6 should be arranged, and display the controller image. As a result, the user can easily confirm whether the image is a controller image for himself or herself.
  • FIG. 15B shows a state in which the face area 204a and the face area 204b are close to each other and the controller image can not be arranged. In such a case, even if the controller image is displayed, the user may be confused as to who the controller image is for, so the position designation image processing unit 140 does not display the controller image.
  • the position designation image processing unit 140 determines the arrangement position of the controller image (position designation image 212) and displays the position on the captured image display area 206.
  • the position designation image processing unit 140 always displays the position designation image 212 below the face of the corresponding user, and accordingly, when a plurality of position designation images 212 are displayed in the captured image display area 206 Even in this case, it is possible to intuitively recognize the position designation image 212 displayed for oneself.
  • the object authentication unit 142 inputs in the area designated by the position designation image 212.
  • the presence of the device 6 is detected, and the login processing unit 144 causes the user A to log in to the OS.
  • the login process 3 the user logs in without using the input device 6.
  • the main power button 20 of the information processing apparatus 10 the main power of the information processing apparatus 10 is turned on, and the input receiving unit 104 receives pressing information of the main power as a login request from the user.
  • the captured image display unit 134 displays the captured image acquired by the image acquisition unit 106 on the output device 4 which is a display. As a result, the live image captured by the camera 7 is displayed on the output device 4, and the user in front of the output device 4 is displayed on the output device 4.
  • the face authentication unit 136 detects the face image of the registered user present in the captured image using the face identification data held in the registered user information holding unit 150.
  • this face authentication process is regarded as the first stage face authentication.
  • FIG. 16 shows the result of face identification by the face authentication unit 136.
  • the face authentication unit 136 includes a face area 220a indicating the position of the face of the user A (online ID: HANAKO) in the captured image and a face area 220b indicating the position in the captured image of the face of the user B (online ID: SACHIKO) Are provided, and the face frame processing unit 138 is provided with position coordinates of the face areas 220a and 220b and information for specifying the captured registered user.
  • the information identifying the registered user provided from the face authentication unit 136 to the face frame processing unit 138 may be a user account of the registered user or may be an online ID.
  • the face authentication unit 136 associates the position coordinates of the face area 220 with the registered user identification information and provides them to the face frame processing unit 138. That is, in the example shown in FIG. 16, a combination of the face area 220a and the identification information of the user A And a combination of the face area 220b and the specific information of the user B are provided to the face frame processing unit 138.
  • the face frame processing unit 138 causes the output device 4 to display a face frame for the registered user detected by the face authentication unit 136. In login process 3, this face frame is displayed to move and arrange the face when the registered user logs in. Therefore, the registered user can log in to the information processing apparatus 10 by putting his / her face in the face frame displayed on the output device 4.
  • FIG. 17 shows a login screen including a face frame displayed on the output device 4.
  • the captured image display unit 134 displays live the captured image of the camera 7 in the captured image display area 230.
  • the face frame processing unit 138 displays the face frame 222 to the registered user based on the position coordinates of the face areas 220a and 220b provided by the face authentication unit 136 and the information specifying the registered user who has been imaged.
  • the face frame 222 a is displayed to the user A
  • the face frame 222 b is displayed to the user B.
  • the face frame processing unit 138 displays the online ID of the user A near the face frame 222a, and displays the online ID of the user B near the face frame 222b.
  • the users A and B can know that their face recognition has been properly performed, and know that when logging in, the faces may be moved to the face frames 222a and 222b.
  • the face frame 222 is not displayed because the middle user is not the registered user who registered the face image.
  • the face frame processing unit 138 attaches an ID to each of the face frames 222, and provides the face authentication unit 136 with the face frame ID, the position coordinates of the face frame 222, and the user's specific information displaying the face frame 222.
  • the position coordinates of the face frame 222 provided to the face recognition unit 136 by the face frame processing unit 138 may be the position coordinates of the face frame 222 itself, but may be rectangular coordinates circumscribing the face frame 222. .
  • the position coordinates of the face frame 222 itself and the position coordinates of the rectangle circumscribing the face frame 222 will be collectively referred to as the position coordinates of the face frame.
  • the position coordinates of the face frame are used by the face recognition unit 136 to detect the face image of the user.
  • the face frame processing unit 138 sets the face frame ID of the face frame 222a to “ID1”, sets the face frame ID of the face frame 222b to “ID2”, and identifies “ID1”, the position coordinates of the face frame 222a, and the user A
  • the combination of the information and the combination of “ID 2”, the position coordinates of the face frame 222 b, and the specific information of the user B are provided to the face authentication unit 136.
  • the face frame processing unit 138 also provides the login processing unit 144 with identification information of the user who has displayed the face frame ID and the face frame 222. Therefore, here, the face frame processing unit 138 provides the login processing unit 144 with the combination of “ID 1” and the identification information of the user A and the combination of “ID 2” and the identification information of the user B.
  • FIG. 18 shows a login screen in which the user puts his face in the face frame.
  • a situation is shown in which the user A moved his / her face or body so that the face enters the face frame 222 a displayed on the output device 4.
  • the face authentication unit 136 monitors whether a face is included in the face frame 222. When the face is included, the face frame 222 is used by using the data for face identification held in the registered user information holding unit 150. It is determined whether the contained face is that of a registered user.
  • the face authentication unit 136 can monitor whether the face frame 222 contains a human face.
  • the face recognition algorithm is as described above, and when the face recognition unit 136 estimates that the face of a person is included in the face frame 222, it derives the feature amount data of that part and holds the registered user information In comparison with the face identification data held in the unit 150, it is determined that the extracted face is the face of the registered user.
  • the face authentication unit 136 is notified of the combination of the face frame ID, the position coordinates of the face frame 222, and the specific information of the user who displayed the face frame 222 from the face frame processing unit 138, and is included in the face frame 222.
  • the feature amount data of the face image of the person is compared with the face identification data of the user who displayed the face frame 222. Since the face authentication unit 136 is notified in advance of the user that should be included in the face frame 222, there is no need to compare the feature amount data of the face included in the face frame 222 with the data for face identification of all registered users. Face recognition processing can be performed efficiently. At this time, the face authentication unit 136 detects that the face of the registered user is included in the face frame 222 for a predetermined time (for example, several seconds), and determines that the face of the registered user is inserted in the face frame 222. It is also good.
  • a predetermined time for example, several seconds
  • the face authentication unit 136 determines that the face entering the face frame 222 a is the face of the user A. In the login process 3, this process is regarded as second stage face authentication. User authentication at the time of login is completed by the first and second stages of face authentication.
  • the face authentication unit 136 detects that the face of the user A is included in the face frame 222a, it notifies the login processing unit 144 of a face frame ID for identifying the face frame 222a and user identification information for identifying the user A. Do. As described above, the login processing unit 144 is notified in advance of the face frame processing unit 138 from the face frame ID and identification information of the user who has displayed the face frame 222. When notified of the face frame ID and the user identification information from the face authentication unit 136, the login processing unit 144 extracts the user identification information associated with the face frame ID notified from the face frame processing unit 138, and identifies the user. Determine if the information matches.
  • the identification information of the user A is notified to both of the face frame ID of ID1, and therefore the login processing unit 144 detects the face of the user A in the face frame 222a displayed for the user A. Recognize that it was done. Thus, the login processing unit 144 causes the user A to log in to the information processing apparatus 10.
  • FIG. 19 shows an execution flowchart of the login process of this embodiment.
  • the management unit 100 receives a login request
  • the face authentication unit 136 executes face identification processing (S30), and determines whether the captured image includes the user who has registered the face image (S32). At this time, the face authentication unit 136 preferably determines whether a registered user who has not logged in yet is included.
  • the process determination unit 120 determines the login process 1 as the login process to be performed, and the login control unit 130 Executes the login process 1 (S34).
  • the login control unit 130 determines whether or not the input device 6 is connected (S36). In S36, it is determined whether or not the input device 6 that has not logged in yet is connected to the information processing apparatus 10 with reference to the login user storage unit 146, and there is an input device 6 that has not logged in yet. If there is (Y at S36), the process determination unit 120 determines the login process 2 as the login process to be performed, and the login control unit 130 executes the login process 2 (S38).
  • the processing determination unit 120 determines login processing 3 as login processing to be executed, and login The control unit 130 executes the login process 3 (S40).
  • the process determination unit 120 determines the login process to be performed according to the user captured in the captured image and the presence or absence of the connection of the game controller. Since this determination process is automatically performed without bothering the user, the user is provided with a user interface suitable for his / her situation, and a simple login operation can be realized. If, for example, the user utters a predetermined command during execution of login processing 3, the microphone 108 receives an utterance, whereby the processing determination unit 120 switches from login processing 3 to login processing 1. Good.
  • the login pass code when the login pass code is set, it is described that the login pass code is requested to be input in the login process 1. However, for example, in the login processes 2 and 3, the login pass code is requested to be input It is also good.
  • the face frame processing unit 138 displays the face frame 210 to notify the user that the login operation can be performed, but may notify that the login operation can be performed by an indicator other than the face frame 210.
  • the online ID of the user who can log in may be presented, or, for example, an arrow indicating that the user is to be logged in may be displayed near the face so that the user can recognize that the user can log in. Good.
  • the size of the position designation image 212 may be set according to the size of the face area 204 or the distance to the user.
  • the object authentication unit 142 detects the presence of the input device 6 in the designated area by color recognition based on the light emission color of the light emission unit 85.
  • the camera 7 is a stereo camera
  • one camera captures a space image
  • the captured image display unit 134 displays the captured image
  • the other camera captures an image for detecting the emission color.
  • the object authentication unit 142 may detect the input device 6 by color recognition.
  • the object authentication unit 142 may detect the presence of the input device 6 in the designated area by a recognition technique such as shape recognition.
  • the present invention can be used in the technical field of performing user authentication processing.

Abstract

 撮像画像表示部134は、撮像画像をディスプレイに表示する。顔認証部136は、登録ユーザ情報保持部150に保持された顔識別用データを用いて、撮像画像に存在する登録ユーザの顔画像を検出する。位置指定画像処理部140は、検出された登録ユーザに対して、オブジェクトの位置を指定する位置指定画像をディスプレイに表示する。オブジェクト認証部142は、位置指定画像によって指定した領域内に、オブジェクト画像が含まれていることを検出する。

Description

情報処理装置
 本発明は、ユーザ認証処理を行う情報処理装置に関する。
 ゲーム装置などの情報処理装置にユーザがログインする際、情報処理装置は、ログインするユーザが、予め登録されたユーザであるか否かを識別するユーザ認証処理を行う。ユーザ認証の種類には様々あり、従来よりパスワードによるユーザ認証は広く使用されている。
 パスワードによるユーザ認証とは別に、ユーザの生体情報を用いたユーザ認証も一般的に使用されている。生体情報を用いたユーザ認証は、ユーザがパスワードを入力する必要がなく、認証におけるユーザの手間は少ない。
 生体認証の中でも、特にデジタル画像からユーザの顔を認識する顔認証システムは、基本的にはユーザに特別な動作を要求するものではないため、簡便なユーザ認証の1つとして知られている。本発明者は、顔認証システムを利用することで、ユーザ認証を簡易に実現して、ユーザが情報処理装置にログインするための仕組みを想到するに至った。
 また、たとえばゲーム装置に関して言えば、ユーザがゲーム装置にログインして、それからプレイしようとするゲームの種類は様々であり、またゲーム装置においてユーザログインのために登録されているユーザ情報にもユーザによって多寡が生じていることもある。たとえば、ゲームコントローラを用いて操作するゲームは多いが、ゲームコントローラを用いないゲームも存在し、また、顔認証ログイン用の顔画像を登録しているユーザもいれば、そうでないユーザも存在する。そこでゲーム装置などの情報処理装置は、このようなユーザの状況に応じて、適切なログイン処理を実行できることが好ましい。
 そこで本発明は、効率的なユーザ認証を行う技術を提供することを目的とする。
 上記課題を解決するために、本発明のある態様の情報処理装置は、撮像画像をディスプレイに表示する撮像画像表示部と、登録ユーザの顔識別用データを保持する登録ユーザ情報保持部と、登録ユーザ情報保持部に保持された顔識別用データを用いて、撮像画像に存在する登録ユーザの顔画像を検出する顔認証部と、検出された登録ユーザに対して、オブジェクトの位置を指定する位置指定画像をディスプレイに表示する画像処理部と、位置指定画像によって指定した領域内に、オブジェクト画像が含まれていることを検出するオブジェクト認証部と、を備える。
 なお、以上の構成要素の任意の組合せ、本発明の表現を方法、装置、システム、記録媒体、コンピュータプログラムなどの間で変換したものもまた、本発明の態様として有効である。
本発明の実施例にかかる情報処理システムを示す図である。 (a)は、入力装置上面の外観構成を示す図であり、(b)は、入力装置奥側側面の外観構成を示す図である。 入力装置の構成を示す図である。 情報処理装置の機能ブロックを示す図である。 情報処理装置の構成を示す図である。 (a)および(b)は、ログイン処理1におけるログイン画面を示す図である。 カメラによって撮影される空間の一例を示す図である。 顔認証部による顔識別結果を示す図である。 ログイン処理2におけるログイン画面を示す図である。 ログイン処理2におけるログイン画面を示す図である。 ログイン画面の一例を示す図である。 (a)および(b)は、位置決定アルゴリズムで使用するパラメータを説明するための図である。 位置指定画像の位置決定処理のフローチャートを示す図である。 (a)および(b)は、顔領域下方に、コントローラ画像を配置した状態を示す図である。 (a)は、顔領域下方にコントローラ画像を配置した状態を示す図であり、(b)は、コントローラ画像を配置しない状態を示す図である。 顔認証部による顔識別結果を示す図である。 ログイン処理3におけるログイン画面を示す図である。 ログイン処理3におけるログイン画面を示す図である。 本実施例のログイン処理の実行フローチャートを示す図である。
 図1は、本発明の実施例にかかる情報処理システム1を示す。情報処理システム1は、ユーザ端末である情報処理装置10と、サーバ5とを備える。アクセスポイント(以下、「AP」とよぶ)8は、無線アクセスポイントおよびルータの機能を有し、情報処理装置10は、無線または有線経由でAP8に接続して、ネットワーク3上のサーバ5と通信可能に接続する。
 補助記憶装置2は、HDD(ハードディスクドライブ)やフラッシュメモリなどの大容量記憶装置であり、USB(Universal Serial Bus)などによって情報処理装置10と接続する外部記憶装置であってよく、また内蔵型記憶装置であってもよい。出力装置4は、画像を出力するディスプレイおよび音声を出力するスピーカを有するテレビであってよく、またコンピュータディスプレイであってもよい。出力装置4は、情報処理装置10に有線ケーブルで接続されてよく、また無線接続されてもよい。情報処理装置10は、ユーザが操作する入力装置6と無線または有線で接続し、入力装置6はユーザの操作結果を示す操作信号を情報処理装置10に出力する。情報処理装置10は、入力装置6からの操作信号を受け付けるとOS(システムソフトウェア)やアプリケーションの処理に反映し、出力装置4から処理結果を出力させる。入力装置6は複数のプッシュ式の操作ボタンや、アナログ量を入力できるアナログスティック、回動式ボタンなどの複数の入力部を有して構成される。
 情報処理装置10は、入力装置6からの操作信号を受け付けるとアプリケーションの処理に反映し、出力装置4から処理結果を出力させる。情報処理システム1において情報処理装置10はゲームを実行するゲーム装置であり、入力装置6はゲームコントローラなど情報処理装置10に対してユーザの操作信号を提供する機器である。なお入力装置6は、キーボードやマウスなどの入力インタフェースであってもよい。撮像装置であるカメラ7は出力装置4の近傍に設けられ、出力装置4周辺の空間を撮像する。図1ではカメラ7が出力装置4の上部に取り付けられている例を示しているが、出力装置4の側部または下部に配置されてもよく、いずれにしても出力装置4の前方に位置するユーザを撮像できる位置に配置される。カメラ7は、ステレオカメラであってもよい。
 サーバ5は、情報処理システム1のユーザに対してネットワークサービスを提供する。サーバ5は、各ユーザを識別するネットワークアカウントを管理しており、各ユーザは、ネットワークアカウントを用いて、サーバ5が提供するネットワークサービスにサインインする。ユーザは情報処理装置10からネットワークサービスにサインインすることで、サーバ5に、ゲームのセーブデータや、またゲームプレイ中に獲得した仮想的な表彰品であるトロフィを登録できる。
 入力装置6のボタン構成について説明する。
[上面部の構成]
 図2(a)は、入力装置上面の外観構成を示す。ユーザは左手で左側把持部78bを把持し、右手で右側把持部78aを把持して、入力装置6を操作する。入力装置6の筐体上面には、入力部である方向キー71、アナログスティック77a、77bと、4種の操作ボタン76が設けられている。4種のボタン72~75には、それぞれを区別するために、異なる色で異なる図形が記されている。すなわち、○ボタン72には赤色の丸、×ボタン73には青色のバツ、□ボタン74には紫色の四角形、△ボタン75には緑色の三角形が記されている。筐体上面上において、方向キー71と操作ボタン76の間の平坦な領域には、タッチパッド79が設けられる。タッチパッド79は、ユーザが押すことで下方に沈み込み、またユーザが手を離すと元の位置に復帰する押下式ボタンとしても機能する。
 2つのアナログスティック77a、77bの間に機能ボタン80が設けられる。機能ボタン80は、入力装置6の電源をオンし、同時に入力装置6と情報処理装置10とを接続する通信機能をアクティブにするために使用される。なお情報処理装置10のメイン電源がオフとなっている場合、機能ボタン80が押下されると、情報処理装置10は、入力装置6から送信される接続要求を、メイン電源をオンにするための指示としても受け付け、これにより情報処理装置10のメイン電源がオンとなる。入力装置6が情報処理装置10と接続した後は、機能ボタン80は、情報処理装置10にメニュー画面を表示させるためにも使用される。
 SHAREボタン81は、タッチパッド79と方向キー71の間に設けられる。SHAREボタン81は、情報処理装置10におけるOSないしはシステムソフトウェアに対するユーザからの指示を入力するために利用される。またOPTIONSボタン82は、タッチパッド79と操作ボタン76の間に設けられる。OPTIONSボタン82は、情報処理装置10において実行されるアプリケーション(ゲーム)に対するユーザからの指示を入力するために利用される。SHAREボタン81およびOPTIONSボタン82は、いずれもプッシュ式ボタンとして形成されてよい。
[奥側側面部の構成]
 図2(b)は、入力装置奥側側面の外観構成を示す。入力装置6の筐体奥側側面の上側には、タッチパッド79が筐体上面から延設されており、筐体奥側側面の下側には、横長の発光部85が設けられる。発光部85は、赤(R)、緑(G)、青(B)のLEDを有し、情報処理装置10から送信される発光色情報にしたがって点灯する。図1に示すように、2台の入力装置6a、6bが使用されている場合、情報処理装置10は、ユーザA、Bが各入力装置6を区別できるように、入力装置6a、6bの発光部85の点灯色を異なる色、それぞれ赤、緑と定めてよい。これにより各ユーザは、自分が使用している入力装置6を発光部85の点灯色によって認識できるため、入力装置6を取り違える可能性が低減される。
 筐体奥側側面において、上側ボタン83a、下側ボタン84aと、上側ボタン83b、下側ボタン84bとが長手方向の左右対称な位置に設けられる。上側ボタン83a、下側ボタン84aは、それぞれユーザ右手の人差し指、中指により操作され、上側ボタン83b、下側ボタン84bは、それぞれユーザ左手の人差し指、中指により操作される。図示されるように発光部85が、右側の上側ボタン83a、下側ボタン84aの並びと、左側の上側ボタン83b、下側ボタン84bの並びの間に設けられることで、各ボタンを操作する人差し指または中指によって隠れることはなく、カメラ7は、点灯した発光部85を好適に撮像することができる。上側ボタン83はプッシュ式ボタンとして構成され、下側ボタン84は回動支持されたトリガー式のボタンとして構成されてよい。
 図3は、入力装置6の構成を示す。入力装置6は、無線通信モジュール90、処理部91、発光部85および振動子98を備える。無線通信モジュール90は、情報処理装置10の無線通信モジュールとの間でデータを送受信する機能をもつ。処理部91は、入力装置6における所期の処理を実行する。
 処理部91は、メイン制御部92、入力受付部93、発光制御部94、3軸加速度センサ95、3軸ジャイロセンサ96および駆動制御部97を有する。メイン制御部92は、無線通信モジュール90との間で必要なデータの送受を行う。
 入力受付部93は、方向キー71、操作ボタン76、アナログスティック77、タッチパッド79、機能ボタン80、SHAREボタン81、OPTIONSボタン82、上側ボタン83および下側ボタン84などの入力部からの入力情報を受け付け、メイン制御部92に送る。メイン制御部92は、受け取った入力情報を必要に応じて所定の制御信号に変換して無線通信モジュール90に供給し、無線通信モジュール90は、所定のタイミングで情報処理装置10に送信する。発光制御部94は、発光部85を構成する赤色LED87、緑色LED88、青色LED89の発光を制御する。
 本実施例の情報処理システム1において、入力装置6が電源オフの状態で、ユーザが機能ボタン80を押下すると、入力装置6が電源オンされるとともに、メイン制御部92が情報処理装置10への接続要求を生成して、無線通信モジュール90が接続要求を情報処理装置10に送信する。このとき情報処理装置10がメイン電源オフの状態にあっても、情報処理装置10における無線通信モジュールは、メイン電源オフの状態でもアクティブ状態にあるため、情報処理装置10は接続要求を受信すると、メイン電源をオンしてOS(システムソフトウェア)を起動し、入力装置6との間の無線接続を確立する。
 情報処理装置10のシステムソフトウェアは、接続要求を送信した入力装置6の発光部85の発光色を決定し、発光色情報を入力装置6に送信する。このときシステムソフトウェアは、カメラ7に撮像された空間に含まれる色情報を解析し、可能な限り環境色に含まれていない色を特定して、発光部85の発光色を決定することが好ましい。これにより発光部85の点灯後、カメラ7の撮像画像から、指定した発光色で点灯する発光部85を、好適に検出することが可能となる。
 無線通信モジュール90にて受信した発光色情報はメイン制御部92に渡され、メイン制御部92は、発光制御部94に発光色情報を通知する。これにより発光制御部94は、指定された発光色で発光部85を発光させることができる。
 振動子98は偏心モータなどを含んで構成され、駆動制御部97により駆動される。3軸加速度センサ95は、入力装置6のXYZの3軸方向の加速度成分を検出し、3軸ジャイロセンサ96は、XZ平面、ZY平面、YX平面における角速度を検出する。
 図4は、情報処理装置10の機能ブロック図を示す。情報処理装置10は、メイン電源ボタン20、電源ON用LED21、スタンバイ用LED22、システムコントローラ24、クロック26、デバイスコントローラ30、メディアドライブ32、USBモジュール34、フラッシュメモリ36、無線通信モジュール38、有線通信モジュール40、サブシステム50およびメインシステム60を有して構成される。
 メインシステム60は、メインCPU(Central Processing Unit)、主記憶装置であるメモリおよびメモリコントローラ、GPU(Graphics Processing Unit)などを備える。GPUはゲームプログラムの演算処理に主として利用される。これらの機能はシステムオンチップとして構成されて、1つのチップ上に形成されてよい。メインCPUはOSを起動し、OSが提供する環境下において、補助記憶装置2にインストールされたアプリケーションを実行する機能をもつ。
 サブシステム50は、サブCPU、主記憶装置であるメモリおよびメモリコントローラなどを備え、GPUを備えない。サブCPUの回路ゲート数は、メインCPUの回路ゲート数よりも少なく、サブCPUの動作消費電力は、メインCPUの動作消費電力よりも少ない。上記したように、サブCPUは、メインCPUがスタンバイ状態にある間に動作するものであり、消費電力を低く抑えるべく、その処理機能を制限されている。なおサブCPUおよびメモリは、別個のチップに形成されてもよい。
 メイン電源ボタン20は、ユーザからの操作入力が行われる入力部であって、情報処理装置10の筐体の前面に設けられ、情報処理装置10のメインシステム60への電源供給をオンまたはオフするために操作される。以下、メイン電源がオン状態にあるとは、メインシステム60がアクティブ状態にあることを意味し、メイン電源がオフ状態にあるとは、メインシステム60がスタンバイ状態にあることを意味する。電源ON用LED21は、メイン電源ボタン20がオンされたときに点灯し、スタンバイ用LED22は、メイン電源ボタン20がオフされたときに点灯する。
 システムコントローラ24は、ユーザによるメイン電源ボタン20の押下を検出する。メイン電源がオフ状態にあるときにメイン電源ボタン20が押下されると、システムコントローラ24は、その押下操作を「オン指示」として取得し、一方で、メイン電源がオン状態にあるときにメイン電源ボタン20が押下されると、システムコントローラ24は、その押下操作を「オフ指示」として取得する。
 メインCPUは補助記憶装置2やROM媒体44にインストールされているゲームプログラムを実行する機能をもつ一方で、サブCPUはそのような機能をもたない。しかしながらサブCPUは補助記憶装置2にアクセスする機能、サーバ5との間でデータを送受信する機能を有している。サブCPUは、このような制限された処理機能のみを有して構成されており、したがってメインCPUと比較して小さい消費電力で動作できる。これらのサブCPUの機能は、メインCPUがスタンバイ状態にある際に実行される。本実施例の情報処理装置10は、メインシステム60のスタンバイ時にはサブシステム50が稼働しているため、サーバ5が提供するネットワークサービスに、常時サインインした状態を維持する。
 クロック26はリアルタイムクロックであって、現在の日時情報を生成し、システムコントローラ24やサブシステム50およびメインシステム60に供給する。
 デバイスコントローラ30は、サウスブリッジのようにデバイス間の情報の受け渡しを実行するLSI(Large-Scale Integrated Circuit)として構成される。図示のように、デバイスコントローラ30には、システムコントローラ24、メディアドライブ32、USBモジュール34、フラッシュメモリ36、無線通信モジュール38、有線通信モジュール40、サブシステム50およびメインシステム60などのデバイスが接続される。デバイスコントローラ30は、それぞれのデバイスの電気特性の違いやデータ転送速度の差を吸収し、データ転送のタイミングを制御する。
 メディアドライブ32は、ゲームなどのアプリケーションソフトウェア、およびライセンス情報を記録したROM媒体44を装着して駆動し、ROM媒体44からプログラムやデータなどを読み出すドライブ装置である。ROM媒体44は、光ディスクや光磁気ディスク、ブルーレイディスクなどの読出専用の記録メディアである。
 USBモジュール34は、外部機器とUSBケーブルで接続するモジュールである。USBモジュール34は補助記憶装置2およびカメラ7とUSBケーブルで接続してもよい。フラッシュメモリ36は、内部ストレージを構成する補助記憶装置である。無線通信モジュール38は、Bluetooth(登録商標)プロトコルやIEEE802.11プロトコルなどの通信プロトコルで、たとえば入力装置6と無線通信する。なお無線通信モジュール38は、ITU(International Telecommunication Union;国際電気通信連合)によって定められたIMT-2000(International Mobile Telecommunication 2000)規格に準拠した第3世代(3rd Generation)デジタル携帯電話方式に対応してもよく、さらには別の世代のデジタル携帯電話方式に対応してもよい。有線通信モジュール40は、外部機器と有線通信し、たとえばAP8を介してネットワーク3に接続する。
 本実施例の情報処理装置10は、複数種類のログイン処理を用意しており、ユーザからのログイン要求があると、ユーザの状況や、ログイン要求を生成した操作状況などに応じて、実行する1つのログイン処理を決定し、決定したログイン処理のユーザインタフェースをユーザに提供する。以下、3種類のログイン処理の概要を説明する。
<ログイン処理1>
 ログイン処理1は、情報処理装置10が出力装置4にユーザ選択画面を表示し、ユーザがユーザ選択画面において、入力装置6を利用して自分のアイコンを選択し、ログイン用パスコードを入力することで、情報処理装置10がユーザ認証を行い、ユーザをログインさせる処理である。ログイン処理1は、パスコードを利用した従来型のログイン処理である。
<ログイン処理2>
 ログイン処理2は、情報処理装置10がカメラ7の撮像画像を利用してユーザの顔認証を行い、検出された顔画像が登録ユーザの顔であることを判定した場合に、その登録ユーザに対して、ディスプレイに映し出されているカメラ画像内で入力装置6を動かすべき位置を指定し、ユーザが入力装置6を指定領域に動かすことによってユーザ認証を行い、ユーザをログインさせる処理である。
<ログイン処理3>
 ログイン処理3は、情報処理装置10がカメラ7の撮像画像を利用してユーザの顔認証を行い、検出された顔画像が登録ユーザの顔であることを判定した場合に、その登録ユーザに対して、ディスプレイに映し出されているカメラ画像内で顔を動かすべき位置を指定し、ユーザが顔を指定領域に動かすことによってユーザ認証を行い、ユーザをログインさせる処理である。
 ログイン処理1、2は、入力装置6を利用したユーザ認証を行う点で共通しているが、ログイン処理1では、ユーザがパスコードを入力することでユーザ認証が行われるのに対し、ログイン処理2では、ユーザが入力装置6を所定の領域に動かすだけでユーザ認証が行われる点で異なっている。
 ログイン処理1は、ユーザが入力装置6からログイン要求を情報処理装置10に送信した場合であって、ユーザの顔画像が情報処理装置10に登録されていない場合に実行され、一方でログイン処理2は、ユーザが入力装置6からログイン要求を情報処理装置10に送信した場合であって、ユーザの顔画像が情報処理装置10に登録されている場合に実行される。ログイン処理1と2とを比較すると、ログイン処理2の方が、パスコードを入力する必要がないため、ユーザにとって簡易なログイン操作であると言える。
 ログイン処理2、3は、ともにカメラ7の撮像画像を利用した顔認証を行う点で共通しているが、ログイン処理2では、入力装置6が所定の領域に動かされたことを検出してユーザ認証を行うのに対し、ログイン処理3では、ユーザの顔が所定の領域に動かされたことを検出してユーザ認証を行う点で異なっている。
 ゲームをプレイする際、ユーザが入力装置6を操作することが一般的であるが、近年では、ユーザの動きをゲームキャラクタの動きに反映するゲームも登場している。ユーザのジェスチャーを利用したゲームでは、そもそもユーザが入力装置6を用いないため、ユーザが情報処理装置10のOSにログインする際にも、入力装置6を用いずにユーザ認証が行われることが好ましい。
 そのため、ログイン処理3は、ユーザが入力装置6からログイン要求を情報処理装置10に送信するのではなく、たとえば情報処理装置10が電源オフの状態で、ユーザがメイン電源ボタン20を押下したときに実行されるようにする。
 このように情報処理装置10は、ユーザが顔画像を登録しているか否か、またユーザが入力装置6からログイン要求を送信しているか否かに応じて、ログイン処理1~3のいずれを実行するか決定する。
 図5は、情報処理装置10の構成を示す。情報処理装置10は、通信部102、入力受付部104、画像取得部106、マイク108、管理部100および登録ユーザ情報保持部150を備える。管理部100の機能は情報処理装置10のOS(システムソフトウェア)およびOSにより実行されるアプリケーションやメモリにより実現され、発光色決定部110、処理決定部120およびログイン制御部130を有する。ログイン制御部130は、選択画像表示部132、撮像画像表示部134、顔認証部136、顔枠処理部138、位置指定画像処理部140、オブジェクト認証部142、ログイン処理部144およびログインユーザ記憶部146を有する。通信部102は、図4に示す無線通信モジュール38および有線通信モジュール40の機能を示す。
 図5において、さまざまな処理を行う機能ブロックとして記載される各要素は、ハードウェア的には、回路ブロック、メモリ、その他のLSIで構成することができ、ソフトウェア的には、メモリにロードされたプログラムなどによって実現される。したがって、これらの機能ブロックがハードウェアのみ、ソフトウェアのみ、またはそれらの組合せによっていろいろな形で実現できることは当業者には理解されるところであり、いずれかに限定されるものではない。
 本実施例の情報処理装置10は、ユーザの好適なログイン動作を支援することを1つの特徴とする。ユーザは、情報処理装置10のOSにログインするために、その前提として、ユーザアカウントを予め取得して、情報処理装置10に様々なユーザ情報を登録している必要がある。以下、ユーザアカウントを情報処理装置10に登録したユーザを、「登録ユーザ」とよぶ。
 登録ユーザ情報保持部150は、登録ユーザに関する様々な情報を保持し、具体的には、ユーザアカウントに関連付けて、ログイン用パスコード、サーバ5にサインインするためのサインインID、ネットワークアカウント、ユーザのオンラインID(ネットワーク上でのニックネーム)、またユーザを表現するためのユーザアイコンなどを、登録ユーザ情報として保持している。なお、顔認証処理のために予め顔画像を登録している登録ユーザに関しては、登録ユーザ情報保持部150が、ユーザアカウントに関連付けて、顔識別用データを登録ユーザ情報として保持している。
 ここで顔識別用データは、登録ユーザの顔画像の特徴量データであるが、顔画像データそのものであってもよい。顔識別用データは、顔認証部136による顔認識処理において比較対象とされるデータであり、顔認証部136が採用する顔認識アルゴリズムにしたがって生成される。たとえば顔識別用データは、顔のパーツの相対位置や大きさ、目や鼻やほお骨やあごの形を特徴として抽出したデータであってよい。また顔識別用データは、顔画像の標準データからの差分データとして抽出したデータであってよい。どのような顔識別用データを抽出するかは、採用する顔認識アルゴリズムによって定まり、本実施例では顔認証部136が既知の顔認識アルゴリズムを採用している。なお、顔画像を登録していない登録ユーザに関しては、当然のことながら、顔識別用データは、登録ユーザ情報保持部150に含まれていない。
 以下、少なくともユーザA、Bの登録ユーザ情報が登録ユーザ情報保持部150に格納されており、ユーザAのオンラインIDが「HANAKO」、ユーザBのオンラインIDが「SACHIKO」であるとする。以下、登録ユーザが情報処理装置10のOSにログインする際の詳細な処理について説明する。
<ログイン処理1>
 ユーザが入力装置6の機能ボタン80を押下すると、その押下情報が情報処理装置10に送信される。情報処理装置10において、通信部102が押下情報を接続要求として受け付けて、入力装置6と通信部102とを接続する。なお情報処理装置10のメイン電源がオフとなっている場合には、機能ボタン80の押下情報により情報処理装置10のメイン電源がオンとなった後、通信部102が入力装置6と接続する。また機能ボタン80の押下情報は入力受付部104に伝達され、入力受付部104は、この押下情報を、ユーザからのログイン要求として受け付け、管理部100に伝える。
 まず発光色決定部110は、ログイン要求を送信した入力装置6の発光部85の発光色を決定する。画像取得部106は、カメラ7から撮像画像データを取得する。たとえばカメラ7は周期的(たとえば1/30秒ごと)に空間を撮像して、撮像画像をUSBモジュール34を経由して画像取得部106に提供する。発光色決定部110は、所定の割当順序にしたがって発光色を決定するが、このとき割当順序により決定される発光色が撮像空間に存在していれば、撮像画像から、撮像空間に存在しない色を特定して、特定した色の中から発光色を決定してもよい。発光色決定部110が発光色を決定すると、通信部102が入力装置6に発光色情報を送信する。入力装置6において無線通信モジュール90が発光色情報を受信し、発光制御部94が、発光色情報に応じた発光色で発光部85を点灯する。たとえば発光色情報が赤色を指定する場合、入力装置6の発光部85は赤色で点灯することになる。
 また選択画像表示部132は、登録ユーザ情報保持部150に保持されている登録ユーザ情報を読み出し、情報処理装置10に登録されたユーザを選択するための選択画像を生成する。具体的に選択画像表示部132は、登録ユーザ情報のうち、ユーザアイコンおよびオンラインIDを読み出して、登録されたユーザのオンラインIDをリスト形式で並べたユーザ選択画面を出力装置4に表示する。この選択画面は、ログイン処理1におけるログイン画面を構成するが、後述するように、選択画面の初期表示時には、ログイン処理2を実行するか否かの判定処理が行われており、ログイン処理2の不実行が決定した後、正式にユーザ選択画面がログイン処理1におけるログイン画面を構成することになる。
 図6(a)はユーザ選択画面の一例を示す。選択画像表示部132は、登録ユーザ情報保持部150に保持されている全ての登録ユーザのユーザアイコンおよびオンラインIDを読み出し、読み出したユーザアイコンおよびオンラインIDをリスト形式でユーザが選択可能に表示する。以下、ユーザアイコンおよびオンラインIDを、「ユーザ特定情報」とよぶ。
 ユーザ選択画面の一部の小窓領域202に、撮像画像表示部134が、画像取得部106が取得した撮像画像を表示する。この表示画像は、カメラ7のライブ画像であり、小窓領域202の近傍には、「登録されている顔を探しています」とメッセージが表示される。このメッセージは、顔認証部136による顔認証処理中に表示され、したがって顔認証処理が終了すると、メッセージ表示は消される。つまり図6(a)に示す状態では、ユーザ選択画面が表示されつつ、そのバックグランドにおいては、顔認証部136により、撮像画像中に、顔画像を登録したユーザが存在しているかが確認されている。
 図7は、カメラ7によって撮影される空間の一例を示す。この撮影空間には、3人のユーザが存在している。図7において3人のユーザを取り囲む四角の枠はカメラ7の撮像範囲を表現している。カメラ7の撮像範囲は、出力装置4にてライブ画像として表示される範囲を規定するが、ライブ画像は、撮像画像の一部であってもよい。顔認証部136は、撮像画像において、人の顔と推定される部分を抜き出し、その部分の特徴量データを導出して、登録ユーザ情報保持部150に保持された顔識別用データと比較し、抜き出した顔が登録ユーザの顔であるか否かを判定する。
 具体的に顔認証部136は、抜き出したユーザの顔画像の特徴量データと、登録ユーザ情報保持部150に保持されている全ての登録ユーザの顔識別用データとの一致度を導出する。この一致度は数値表現され、たとえば100点満点中の何点という形で一致度が導出される。登録された顔画像の特徴量データとの一致度が90点を超えていれば、顔認証部136は、撮像されたユーザが、登録ユーザであることを判定するとともに、撮像されたユーザがどの登録ユーザであるかを特定する。なお一致度が90点を超えるものが複数存在する場合には、顔認証部136は、撮像されたユーザが、最高点が導出された顔識別用データの登録ユーザであることを判定すればよい。なお、撮像画像から抜き出したユーザの顔画像の特徴量データと、全ての登録ユーザの顔識別用データとの一致度を導出した結果、一致度が90点を超えるものがなければ、顔認証部136は、撮像画像に含まれるユーザが、登録ユーザでないことを判定する。このように顔認証部136は、登録ユーザ情報保持部150に保持された顔識別用データを用いて、撮像画像に存在する登録ユーザの顔画像を検出する。この顔識別技術は、既知の技術を用いてよい。
 顔認証部136により、撮像画像に含まれる3人のユーザの全てが登録ユーザでないことが判定されると、ログイン処理部144は、「登録されている顔を探しています」と表示していたメッセージを非表示とし、また小窓領域202も非表示としてよい。なお顔認証部136により、登録ユーザであることが判定された全てのユーザが既にログイン済みである場合にも、ログイン処理部144は、「登録されている顔を探しています」と表示していたメッセージを非表示とし、また小窓領域202も非表示としてよい。このように、入力装置6の操作によりログイン要求が生成される場合には、顔認証部136が、カメラ7の撮像画像に、まだログインしていない顔画像を登録したユーザが含まれているかを判定し、顔画像を登録したユーザが含まれていないことが判明したときに、選択画像表示部132が、ユーザ選択画面の表示を継続して、ログイン処理部144が、ログイン処理1を開始する。顔認証部136による判定時間は数秒であり、したがって、小窓領域202およびメッセージは、ユーザ選択画面において、数秒間だけ表示される。
 ログイン処理1では、ユーザ選択画面において、ログイン処理部144が、1つのユーザ特定情報を取り囲むフォーカス枠200をリスト上で移動可能に表示する。ユーザは入力装置6の入力部を操作してフォーカス枠200を自分のユーザ特定情報の表示領域に動かし、入力装置6の決定ボタン(○ボタン72)を押すことで、自分のユーザ特定情報を選択できる。ユーザ選択画面において、ユーザ特定情報の表示個数は制限され、図6(a)に示す例では最大で4つに制限される。登録ユーザ数が4人を超える場合には、ユーザは入力装置6の入力部を操作して、ユーザ特定情報のリストを左方または右方にスクロールさせることができる。
 ここでログインを要求するユーザがユーザAであるとし、入力装置6aを操作して、選択画面において「HANAKO」を選択すると、ログイン処理部144は、図6(b)に示すパスコードの入力画面を出力装置4に表示する。ここでユーザAが登録したパスコードを入力すると、ログイン処理部144が、登録ユーザ情報保持部150に保持されているユーザAのログイン用パスコードと同じであるか判定して、ユーザAのログインの許否を判定する。この一連のログイン作業において、ログイン処理部144は、入力装置6aからの操作情報のみを受け付け、入力装置6a以外の入力装置6からの操作情報を受け付けない。以上のようにログイン制御部130は、ユーザのログイン処理1を実行する。
 このように顔認証部136により、まだログインしていない登録ユーザが検出されない場合には、ログイン制御部130が、ログイン処理1を実行して、顔画像を登録していないユーザが円滑にログインできるようにする。
<ログイン処理2>
 上記したように、ユーザが入力装置6を操作してログイン要求を生成した場合、顔認証部136が、撮像画像中に、顔画像を登録したユーザが存在しないことを判定すると、ログイン処理1が実行される。一方で、ユーザが入力装置6を操作してログイン要求を生成した場合に、顔認証部136が、撮像画像中に、まだログインしていない顔画像を登録したユーザが存在することを判定すると、ログイン処理2が実行される。
 図8は、顔認証部136による顔識別結果を示す。ここでは、左側のユーザがユーザAであること、右側のユーザがユーザBであること、真ん中のユーザが、顔画像を登録した登録ユーザではないことが判定されている。顔認証部136は、ユーザA(オンラインID:HANAKO)の顔の撮像画像中の位置を示す顔領域204aと、ユーザB(オンラインID:SACHIKO)の顔の撮像画像中の位置を示す顔領域204bを設定し、顔領域204a、204bの位置座標および撮像された登録ユーザを特定する情報とを顔枠処理部138に提供する。以下、位置座標は、撮像画像をディスプレイに表示したときの2次元座標により表現される例を示すが、VRAM上に定義される座標であってもよく、いずれにしても顔領域204の座標および後述する顔枠の座標とが共通の座標系で表現されればよい。
 各顔領域204は、撮像画像中の顔の輪郭に接する矩形領域として設定されてよいが、顔輪郭よりも若干広い矩形領域として設定されてもよい。なお、ここで顔の輪郭は、頭髪まで含む輪郭を意味しているが、たとえば顔認証部136の顔認識処理が頭髪を考慮しない場合には、頭髪を除いて顔の輪郭が設定されてもよい。撮像画像中のユーザの顔の大きさおよび形状により顔領域204の大きさおよび形状は定まり、したがってユーザごとに顔領域204の大きさおよび形状は異なり、また同じユーザであっても、カメラ7との距離に応じて顔領域204の大きさおよび形状は変化する。
 顔認証部136から顔枠処理部138に提供される登録ユーザを特定する情報は、登録ユーザのユーザアカウントであってもよく、またオンラインIDであってもよい。顔認証部136は、顔領域204の位置座標と登録ユーザ特定情報とを対応付けて顔枠処理部138に提供し、すなわち図8に示す例では、顔領域204aとユーザAの特定情報の組合せと、顔領域204bとユーザBの特定情報の組合せとを顔枠処理部138に提供する。顔枠処理部138は、顔認証部136により検出された登録ユーザに対して、出力装置4に顔枠を表示する。
 図9は、ログイン処理2におけるログイン画面を示す。図9に示すログイン画面は、図6に示すユーザ選択画面が表示されている間に顔認証部136により撮像画像中に顔画像を登録したユーザが検出されて、ユーザ選択画面が非表示にされた後に、出力装置4に表示される。
 ログイン処理2におけるログイン画面において、撮像画像表示領域206に、撮像画像表示部134が、カメラ7の撮像画像をライブ表示する。顔枠処理部138は、顔認証部136より提供される顔領域204a、204bの位置座標および撮像された登録ユーザを特定する情報をもとに、登録ユーザに対して顔枠210を表示する。ここではユーザAに対して顔枠210aを表示し、ユーザBに対して顔枠210bを表示している。このとき顔枠処理部138は、顔枠210aの近傍にユーザAのオンラインID(HANAKO)を表示し、顔枠210bの近傍にユーザBのオンラインID(SACHIKO)を表示する。これによりユーザA、Bは、自身の顔認識が行われていることを知ることができる。ユーザは、自身の顔枠210の近傍に、自身とは別のオンラインIDが表示されていれば、顔認識が適切に行われていないことを知ることができる。なお真ん中のユーザは、顔画像を登録した登録ユーザではないため、顔枠210は表示されていない。
 位置指定画像処理部140は、顔認証部136により検出された登録ユーザに対して、オブジェクトの位置を指定する位置指定画像212を、ディスプレイである出力装置4に表示する。ここで、オブジェクトは、ゲームコントローラである入力装置6であり、位置指定画像212は、撮像画像表示領域206に表示している撮像画像において、ユーザが入力装置6を動かしてカメラ7に撮像させる位置を指定する。ログイン処理2において、位置指定画像212は、登録ユーザがログインする際に、入力装置6を動かして配置するために表示される。
 位置指定画像処理部140は、顔認証部136より提供される顔領域204a、204bの位置座標をもとに、各登録ユーザに対して位置指定画像212を表示する。ここではユーザAに対して位置指定画像212aを表示し、ユーザBに対して位置指定画像212bを表示している。位置指定画像処理部140は、位置指定画像212のそれぞれにIDを付し、位置指定画像IDと、対応するユーザの特定情報をログイン処理部144に提供する。たとえば位置指定画像処理部140は、位置指定画像212aの指定位置画像IDを“ID1”、位置指定画像212bの指定位置画像IDを“ID2”と設定し、“ID1”とユーザAの特定情報との組合せと、“ID2”とユーザBの特定情報との組合せとを、ログイン処理部144に提供する。したがって、ここでは位置指定画像処理部140が、“ID1”とユーザAの特定情報の組合せと、“ID2”とユーザBの特定情報の組合せとを、ログイン処理部144に提供する。
 位置指定画像処理部140は、ログインしようとするユーザに対して、今から行うべき動作を理解できるような位置指定画像212を表示することが好ましい。この例では、位置指定画像212は、ゲームコントローラの画像を含み、さらに、ゲームコントローラのLEDを赤色に点灯させた画像にしている。これにより、ログインしようとするユーザは、発光部85が赤色点灯した入力装置6を、位置指定画像212で指定される領域に動かして、カメラ7に撮像させればよいことを容易に認識できるようになる。
 ログイン処理2では、入力装置6を、位置指定画像212で指定される領域に動かすことをユーザに要求するため、位置指定画像212で指定される領域は、ユーザが入力装置6を動かしやすい位置とすることが好ましい。そこで位置指定画像処理部140は、登録ユーザの顔画像の下側の位置、すなわち顔枠210の下側の位置を指定する位置指定画像212を表示する。
 図10は、ユーザが位置指定画像212で指定された位置に、入力装置6を動かしたログイン画面を示す。ここではユーザAが、出力装置4に表示されている位置指定画像212aに含まれるゲームコントローラ画像に入力装置6が重なるように、入力装置6を上に持ち上げた状態を示している。オブジェクト認証部142は、撮像画像において、位置指定画像212aにより指定された指定領域内に、入力装置6の画像が含まれているか監視する。なお、ユーザが入力装置6を動かすべき位置は、ユーザに対しては位置指定画像212aに含まれるゲームコントローラ画像により指定されるが、オブジェクト認証部142は、ゲームコントローラ画像だけでなく、その近傍まで含めた領域内で、入力装置6の画像を監視することが好ましい。たとえばオブジェクト認証部142が監視する領域は、位置指定画像212に含まれるゲームコントローラ画像の中心から所定の半径内の領域として、ゲームコントローラ画像に入力装置6が完全に合わせられなくても、オブジェクト認証部142が、位置指定画像212によって指定した領域内に、入力装置6の画像が含まれていることを検出できるようにすることが好ましい。指定領域は、矩形であっても、また他の形状であってもよい。
 なお図10においては、位置指定画像処理部140が、ユーザA、Bに対してそれぞれ位置指定画像212a、212bを表示しており、したがってオブジェクト認証部142は、位置指定画像212a、212bで指定される領域内に、入力装置6の画像が含まれているか監視する。この例では、発光部85が赤色点灯した入力装置6のログイン処理を行っているため、位置指定画像処理部140は、赤色点灯したゲームコントローラ画像を位置指定画像212a、212bとしてそれぞれ表示し、オブジェクト認証部142は、指定領域内に、赤色の矩形領域が存在するか否かを判定して、入力装置6の存在を検出するようにしてもよい。オブジェクト認証部142は、いずれかの指定領域内において入力装置6の存在を検出すると、オブジェクト認証部142は、赤色点灯した発光部85を有する入力装置6が検出された位置指定画像212を特定する情報(位置指定画像ID)を、ログイン処理部144に通知する。
 既述したようにログイン処理部144は、予め位置指定画像処理部140から、位置指定画像IDおよびユーザの特定情報の組合せを通知されている。ログイン処理部144は、オブジェクト認証部142から位置指定画像IDを通知されると、予め通知された組合せ情報から、ユーザの特定情報を取得できる。したがってログイン処理部144は、ユーザA用に表示された位置指定画像212aで指定される領域内に赤色点灯した入力装置6が検出されたことを認識する。これによりログイン処理部144は、ユーザAを情報処理装置10にログインさせる。ログイン処理部144は、ログインユーザ記憶部146に、ログイン情報、すなわちユーザAを特定する情報(ユーザアカウント)と、ユーザAが使用する入力装置6aを特定する情報(ゲームコントローラID)と、撮像画像に含まれる入力装置6aを識別する情報(赤色発光情報)とを対応付けて記憶する。
 以上のように、ログイン処理2では、顔認証部136が顔認証を行い、その後、オブジェクト認証部142が指定領域内に入力装置6が含まれていることを検出することで、ログイン処理部144が登録ユーザをログインさせる。たとえば顔認証処理において、最初の撮影画像において人の顔を検出し、登録ユーザであるか否かの判定を行った後は、新たなユーザが撮影されない限り、顔認証処理を行わなくてもよい。なお、この場合は、検出した人の顔を撮影画像中で追跡処理し、常時、撮影画像における顔画像の位置座標を顔枠処理部138および位置指定画像処理部140に提供する。これにより顔枠210および位置指定画像212は、ユーザの顔の動きに追従して撮像画像表示領域206にて表示されることになる。なお顔認証を所定の周期で実行し、顔認証を行わない時間帯は、検出した人の顔を追跡処理するようにしてもよい。
 顔枠処理部138および位置指定画像処理部140は、既にログイン済みのユーザに対しては、顔枠210および位置指定画像212を表示しない。顔認証部136が、登録ユーザが撮像画像に含まれていることを検出すると、顔枠処理部138および位置指定画像処理部140は、検出された登録ユーザが、ログインユーザ記憶部146を参照して既にログイン済みであるか否かを判定する。たとえば画面右側のユーザB(オンラインID:SACHIKO)が、ログイン済みのユーザであれば、顔枠処理部138および位置指定画像処理部140は、顔枠210b、位置指定画像212bを表示しない。
 以下、顔枠210と位置指定画像212の表示態様について説明する。なお図11~図15では、説明の便宜上、撮影画像に含まれる登録ユーザの顔以外の身体部分や他のユーザの表示を省略している。
 顔枠処理部138は、顔認証部136より提供される顔領域204a、204bの位置座標および撮像された登録ユーザを特定する情報をもとに、登録ユーザに対して顔枠210を表示する。顔認証部136から提供される顔領域204の位置座標は、たとえば矩形として設定される顔領域204の4つの頂点の座標値であってもよい。位置指定画像処理部140は、登録ユーザの顔画像の下側の位置を指定する位置指定画像212を表示する。
 各ユーザは、顔枠210および位置指定画像212を表示された後、撮像範囲内を動くこともある。上記したように、顔枠210および位置指定画像212は、ユーザの動きに追従するように撮像画像表示領域206にて表示されることが好ましい。
 図11は、ログイン画面の一例を示す。このログイン画面では、顔認証部136が、撮影画像中でユーザBを検出できなくなり、顔領域204bを設定できなくなっている。ユーザBの不検出は、顔認証部136の顔識別精度によるところもあるため、顔認証部136がユーザBを検出できなくなったからといって、ユーザBがカメラ7からフレームアウトしたとは限らない。そこで、顔枠処理部138は、所定の条件のもとで、仮にユーザBが顔認証部136により不検出となった場合であっても、一度表示した顔枠210bを表示し続ける。これにより顔認証部136がユーザBの検出成功、検出不成功を交互に繰り返したような場合に、顔枠210bの表示、非表示が交互に繰り返される事態を回避できる。なお顔枠処理部138は、ユーザBが検出されていないことを顔認証部136から通知されると、顔枠210bの表示態様を、顔枠210aとは異ならせてもよい。たとえば顔枠210bは、点滅表示されてもよい。位置指定画像処理部140は、顔枠210bが表示される限りにおいて、位置指定画像212bを、顔枠210bの下方に表示し続ける。
 上記した例では、ユーザBが不検出の場合であっても、所定の条件のもとで顔枠210bを表示し続けることを説明した。この所定の条件を構成するための基準について、以下説明する。
 まず前提として、顔枠処理部138は、複数の登録ユーザに対して顔枠210を表示する場合に、表示する顔枠210の数を所定数に制限する。これは出力装置4に多数の顔枠210を表示するのが困難であるためである。そこで顔枠処理部138は、たとえば表示する顔枠210の上限を4つとし、仮に顔認証部136によって撮影画像中に5人以上の登録ユーザが検出されたとしても、4人分の顔枠210を表示することとする。
 このとき、顔枠処理部138が、どのユーザの顔枠210を表示するかを決定する必要があるが、この決定の基準とするべく、撮像されている複数の登録ユーザに対して、顔枠210を表示する優先順位を定める。この優先順位は、以下のように決定される。
(a)まずは、初期ログイン画面に含まれる登録ユーザの順位が決定される。ここでユーザA、Bが初期ログイン画面に含まれていたとすると、顔枠処理部138は、ユーザAとBのログイン回数の多い方を1位、少ない方を2位として決定してもよい。たとえばユーザBのログイン回数が多い場合には、ユーザBが1位、ユーザAが2位とされる。なお顔枠処理部138は、顔領域204の大きいユーザの優先順位を高く決定してもよい。顔枠処理部138は、顔認証部136により設定された複数の顔領域204の面積を比較して、顔領域204の大きいユーザの優先順位を高く決定してもよい。なおカメラ7がステレオカメラである場合、ユーザとカメラ7との間の距離が測定できるため、顔枠処理部138は、カメラ7との距離が近いユーザの優先順位を高く決定してもよい。
(b)次に、図9に示す初期ログイン画面表示後のログイン画面に含まれるようになった登録ユーザの順位を高く決定する。つまり顔枠処理部138は、新たにカメラ7に撮影されるようになった登録ユーザの順位を1位として決定し、既に撮影されていた登録ユーザの順位を1つ下げる。したがって、新たにユーザCがカメラ7で撮影されると、ユーザCが1位、ユーザBが2位、ユーザAが3位とされる。このように顔枠処理部138は、(a)よりも(b)の基準を高く設定し、新たに顔認証部136により認識されたユーザの順位を高く設定する。
 顔枠処理部138は、カメラ7に撮影される登録ユーザの優先順位を決定するが、ユーザD、Eも新たに撮影された結果、ユーザBの順位が4位になったとする。このときユーザAの順位は5位であり、顔枠処理部138は、1位から4位のいずれかが設定されたユーザB、C、D、Eに対して、顔枠210を表示する。ここで、ユーザBが顔認証部136により検出されなくなると、顔枠処理部138は、ユーザBの顔枠210bを消して、ユーザAの顔枠210aを表示する。顔枠処理部138は、顔認証部136により不検出となったユーザについては、その順位を最下位に落とし、表示の優先順位を決定する。
 このように顔枠処理部138は、撮像されている複数の登録ユーザに対して、顔枠210を表示する優先順位を定め、顔枠処理部138は、定められた優先順位にしたがって、所定の上限数の範囲内で顔枠210を表示する。
 以上のことから、図11に示すログイン画面において顔枠210bが表示され続ける条件は、このログイン画面において、4人以上の登録ユーザが検出されていない場合であり、そのような条件が満足する限りにおいて、顔枠処理部138は、顔枠210bを表示し続けるようにする。既述したように、位置指定画像処理部140は、顔枠210が表示されている限り、対応する位置指定画像212を顔枠210の近傍に表示する。なおユーザBが所定時間(たとえば30秒または1分)検出されない場合には、顔枠210bおよび位置指定画像212bが非表示とされてもよい。
 なお顔枠処理部138は、複数の顔枠210が重なる場合には、一方のみを表示するようにしてもよい。
 以下、顔領域204(顔枠210)に対する位置指定画像212の位置を決定するアルゴリズムを説明する。
 図12(a)および図12(b)は、位置決定アルゴリズムで使用するパラメータを説明するための図である。ここでは理解を容易にするために、撮像画像表示領域206にXY座標を設定しているが、実際には位置指定画像処理部140が、VRAMなどに展開される画像データをもとに、演算処理を実行する。ここでは撮像画像表示領域206の下端にX軸、左端にY軸を設定し、Xmaxは撮像画像表示領域206の横方向の画面サイズ、Ymaxは撮像画像表示領域206の縦方向の画面サイズを示す。位置指定画像処理部140は、以下のようにユーザAの顔枠210aに対する座標パラメータを導出する。
 図12(a)に示すように、位置指定画像処理部140は、顔領域204aに対する基準パラメータL、W、Hを以下のように導出する。
 L:顔枠210aの縦方向の長さ
 W:顔枠210aの横方向の幅
 H:顔領域204aの高さ(顔領域204aの下端から撮像画像表示領域206の下端までの距離)
 図12(b)は、顔領域204aのY軸方向下方において、別のユーザの顔領域204bが重なって存在する状態を示す。この場合、位置指定画像処理部140は、重なりパラメータHol、Wolを以下のように求める。
 Hol:顔領域204aの下端と顔領域204bの上端との距離
 Wol:重なり幅、すなわち顔領域204aの右端(ないしは左端)と顔領域204bの左端(ないしは右端)との距離
 またさらに、位置指定画像処理部140は、位置指定画像212の位置導出アルゴリズムで用いる閾値パラメータを以下のように設定する。
 なお、L1=L×α(αは1以下の定数)とする。
 Th1:L1×a(aは1~2の間の定数)
 Th2:L1×d(dは0.4~0.6の間の定数)
 Th3:W×e(eは0.1~0.3の間の定数)
 Th4:Ymax×f(fは0.1以下の定数)
 図13は、位置指定画像処理部140による位置指定画像212の位置決定処理のフローチャートを示す。以下、位置指定画像212を、コントローラ画像を呼び、ユーザAの顔枠210aの下方に、コントローラ画像を配置する例を示す。
 位置指定画像処理部140は、ユーザAの顔領域204aの下方に、別のユーザの顔領域が存在するか確認する(S10)。以下、説明を簡略化するため、別のユーザがユーザBであるとする。ここで顔領域204aの下方とは、図12(a)に示すように、顔領域204aの顔幅WのY軸下方向の画面下端までの領域を意味し、この領域に、別のユーザの顔領域(たとえば顔領域204b)が存在するか確認する。
 顔領域204aの下方に別のユーザの顔領域が存在しなければ(S10のN)、位置指定画像処理部140は、コントローラ画像を、顔領域204aのTh1下方に配置することを決定する。図14(a)は、顔領域204aのTh1下方に、コントローラ画像を配置した状態を示す。
 一方、顔領域204aの下方に別のユーザの顔領域が存在していれば(S10のY)、位置指定画像処理部140は、X軸方向の重なりWolを導出し、重なり幅WolがTh3よりも小さいか否かを判定する(S14)。ここで、重なり幅WolがTh3よりも小さければ(S14のY)、位置指定画像処理部140は、コントローラ画像を、顔領域204aのTh1下方に配置することを決定する。図14(b)は、顔領域204aのTh1下方に、コントローラ画像を配置した状態を示す。
 このように位置指定画像処理部140は、Y軸方向(すなわち画面縦方向)において、顔領域204aに別の顔領域が重なっていない、または重なっていても重なり幅Wolが小さい場合には、顔領域204aのTh1下方に、コントローラ画像(位置指定画像212)を配置する。なお、この配置位置が、画面下端のぎりぎりとなるような場合には、位置指定画像処理部140は、コントローラ画像を、画面下端からTh4上方に配置する。これによりユーザAは、撮像画像表示領域206内でコントローラ画像を容易に確認でき、入力装置6をコントローラ画像の表示位置に合わせるように動かすことができる。
 一方、重なり幅WolがTh3以上であれば(S14のN)、位置指定画像処理部140は、顔領域204aと顔領域204bとの距離HolがTh2以上あるか否かを判定する(S16)。ここで、距離HolがTh2以上であれば(S16のY)、位置指定画像処理部140は、コントローラ画像を、顔領域204bの上端からTh4上方に配置する(S18)。図15(a)は、顔領域204bの上端からTh4上方に、コントローラ画像を配置した状態を示す。このように位置指定画像処理部140は、顔領域204aに別の顔領域204bが大きく重なっている場合には、顔領域同士のY軸方向の間隔が大きい場合に、顔領域204bのTh4上方に、コントローラ画像(位置指定画像212)を配置する。これにより、ユーザAは、表示されているコントローラ画像が自分用に表示されていることを認識でき、一方で、ユーザBは、そのコントローラ画像は、自分用のものではないことを認識できる。
 このように位置指定画像処理部140は、ユーザAの顔領域204aの下方に、ユーザBの顔領域204bが重なって存在する場合に、2つの顔領域204a、204bの左右方向における重なりに応じて、入力装置6を配置するべき位置を決定して、コントローラ画像を表示する。これによりユーザは、自分用のコントローラ画像であるか容易に確認できるようになる。
 一方、距離HolがTh2未満であれば(S16のN)、位置指定画像処理部140は、コントローラ画像を、表示しない(S20)。図15(b)は、顔領域204aと顔領域204bとが近接して、コントローラ画像を配置できない状態を示す。このような場合にコントローラ画像を表示しても、誰用のコントローラ画像であるかユーザが混乱する可能性があるため、位置指定画像処理部140は、コントローラ画像を表示しないこととしている。
 以上のように位置指定画像処理部140は、コントローラ画像(位置指定画像212)の配置位置を決定し、撮像画像表示領域206に表示する。位置指定画像処理部140は位置指定画像212を、常に、対応するユーザの顔の下方に表示することとし、したがってユーザは、撮像画像表示領域206に複数の位置指定画像212が表示されている場合であっても、自分用に表示されている位置指定画像212を直観的に認識できるようになる。
 このようなアルゴリズムにより位置指定画像212が表示され、ユーザAが、入力装置6を位置指定画像212に合わせるように動かすと、オブジェクト認証部142が、位置指定画像212に指定された領域内に入力装置6が存在することを検出し、ログイン処理部144が、ユーザAをOSにログインさせる。
<ログイン処理3>
 続いて、ログイン処理3について説明する。ログイン処理3では、ユーザは入力装置6を使用せずにログインする。
 ユーザが情報処理装置10のメイン電源ボタン20を押下すると、情報処理装置10のメイン電源がオンとなり、入力受付部104がメイン電源の押下情報を、ユーザからのログイン要求として受け付ける。
 入力受付部104が、メイン電源の押下に基づいたログイン要求を受け付けると、撮像画像表示部134が、画像取得部106が取得した撮像画像をディスプレイである出力装置4に表示する。これにより出力装置4には、カメラ7が撮影したライブ画像が表示されることになり、出力装置4の前方にいるユーザが、出力装置4に映し出される。
 ログイン処理1、2に関して説明したように、顔認証部136は、登録ユーザ情報保持部150に保持された顔識別用データを用いて、撮像画像に存在する登録ユーザの顔画像を検出する。ログイン処理3において、この顔認証処理は、第1段階の顔認証と位置づけられる。
 図16は、顔認証部136による顔識別結果を示す。ここでは、左側のユーザがユーザAであること、右側のユーザがユーザBであること、真ん中のユーザが顔画像を登録した登録ユーザではないことが判定されている。顔認証部136は、ユーザA(オンラインID:HANAKO)の顔の撮像画像中の位置を示す顔領域220aと、ユーザB(オンラインID:SACHIKO)の顔の撮像画像中の位置を示す顔領域220bを設定し、顔領域220a、220bの位置座標および撮像された登録ユーザを特定する情報とを顔枠処理部138に提供する。
 顔認証部136から顔枠処理部138に提供される登録ユーザを特定する情報は、登録ユーザのユーザアカウントであってもよく、またオンラインIDであってもよい。顔認証部136は、顔領域220の位置座標と登録ユーザ特定情報とを対応付けて顔枠処理部138に提供し、すなわち図16に示す例では、顔領域220aとユーザAの特定情報の組合せと、顔領域220bとユーザBの特定情報の組合せとを顔枠処理部138に提供する。
 顔枠処理部138は、顔認証部136により検出された登録ユーザに対して、出力装置4に顔枠を表示する。ログイン処理3において、この顔枠は、登録ユーザがログインする際に、顔を動かして配置するために表示される。したがって登録ユーザは、出力装置4に表示された顔枠に自身の顔を入れることで、情報処理装置10にログインできるようになる。
 図17は、出力装置4に表示される顔枠を含むログイン画面を示す。ログイン処理3におけるログイン画面において、撮像画像表示領域230に、撮像画像表示部134が、カメラ7の撮像画像をライブ表示する。
 顔枠処理部138は、顔認証部136より提供される顔領域220a、220bの位置座標および撮像された登録ユーザを特定する情報をもとに、登録ユーザに対して顔枠222を表示する。ここではユーザAに対して顔枠222aを表示し、ユーザBに対して顔枠222bを表示している。このとき顔枠処理部138は、顔枠222aの近傍にユーザAのオンラインIDを表示し、顔枠222bの近傍にユーザBのオンラインIDを表示する。これによりユーザA、Bは、自身の顔認識が適切に行われたことを知ることができ、ログインする際には、顔枠222a、222bに、顔を移動させればよいことを知る。なお真ん中のユーザは顔画像を登録した登録ユーザではないため、顔枠222は表示されていない。
 顔枠処理部138は、顔枠222のそれぞれにIDを付し、顔枠ID、顔枠222の位置座標および顔枠222を表示したユーザの特定情報とを顔認証部136に提供する。なお、顔枠処理部138が顔認証部136に提供する顔枠222の位置座標は、顔枠222そのものの位置座標であってもよいが、顔枠222に外接する矩形座標であってもよい。以下、顔枠222そのものの位置座標と、顔枠222に外接する矩形の位置座標を、まとめて顔枠の位置座標と呼ぶ。顔枠の位置座標は、顔認証部136において、ユーザの顔画像を検出するために利用される。
 たとえば顔枠処理部138は、顔枠222aの顔枠IDを“ID1”、顔枠222bの顔枠IDを“ID2”と設定し、“ID1”と顔枠222aの位置座標とユーザAの特定情報との組合せと、“ID2”と顔枠222bの位置座標とユーザBの特定情報との組合せとを、顔認証部136に提供する。また顔枠処理部138は、顔枠IDおよび顔枠222を表示したユーザの特定情報を、ログイン処理部144に提供する。したがって、ここでは顔枠処理部138が、“ID1”とユーザAの特定情報の組合せと、“ID2”とユーザBの特定情報の組合せとを、ログイン処理部144に提供する。
 図18は、ユーザが顔枠に顔を入れたログイン画面を示す。ここではユーザAが、出力装置4に表示されている顔枠222aに顔が入るように、顔や体を動かした様子を示している。顔認証部136は、顔枠222に人の顔が入っているか監視し、顔が入っている場合には、登録ユーザ情報保持部150に保持された顔識別用データを用いて、顔枠222内に入っている顔が登録ユーザのものであるか判定する。
 顔認証部136は、顔枠処理部138から提供された顔枠222の位置座標をもとに、顔枠222に人の顔が入っているか監視することができる。顔認識アルゴリズムについては上記したとおりであり、顔認証部136は、顔枠222において、人の顔が含まれていることを推定すると、その部分の特徴量データを導出して、登録ユーザ情報保持部150に保持された顔識別用データと比較し、抜き出した顔が登録ユーザの顔であることを判定する。なお顔認証部136は、顔枠処理部138から、顔枠ID、顔枠222の位置座標および顔枠222を表示したユーザの特定情報との組合せを通知されており、顔枠222に含まれた人の顔画像の特徴量データを、顔枠222を表示したユーザの顔識別用データと比較する。顔認証部136は、顔枠222に含まれるべきユーザを予め通知されていることで、顔枠222に含まれる顔の特徴量データを全ての登録ユーザの顔識別用データと比較する必要なく、効率的に顔認識処理を行うことができる。このとき顔認証部136は、顔枠222に登録ユーザの顔が所定時間(たとえば数秒)入っていることを検出することで、顔枠222に登録ユーザの顔が入れられたことを判定してもよい。
 図18の例では、顔認証部136が、顔枠222aに入った顔がユーザAの顔であることを判定する。ログイン処理3において、この処理は、第2段階の顔認証と位置づけられる。第1段階と第2段階の顔認証により、ログイン時におけるユーザ認証が終了する。
 顔認証部136は、顔枠222aにユーザAの顔が入っていることを検出すると、顔枠222aを特定する顔枠IDと、ユーザAを特定するユーザ特定情報を、ログイン処理部144に通知する。既述したようにログイン処理部144は、予め顔枠処理部138から、顔枠IDおよび顔枠222を表示したユーザの特定情報を通知されている。ログイン処理部144は、顔認証部136から顔枠IDおよびユーザ特定情報を通知されると、顔枠処理部138から通知された顔枠IDに対応付けられたユーザ特定情報を抽出し、ユーザ特定情報同士の一致を判定する。ここでは、ID1の顔枠IDに対して、双方ともユーザAの特定情報が通知されており、したがってログイン処理部144は、ユーザA用に表示された顔枠222a内にユーザAの顔が検出されたことを認識する。これによりログイン処理部144は、ユーザAを情報処理装置10にログインさせる。
 図19は、本実施例のログイン処理の実行フローチャートを示す。まず入力受付部104がログイン要求を受け付けると、その旨を管理部100に通知する。管理部100がログイン要求を受け付けると、顔認証部136が顔識別処理を実行し(S30)、撮像画像に、顔画像を登録したユーザが含まれているか判定する(S32)。なお、このとき顔認証部136は、まだログインしていない登録ユーザが含まれているか判定することが好ましい。撮像画像に、顔画像を登録した未ログインユーザが含まれていない場合には(S32のN)、処理決定部120が、ログイン処理1を、実行するべきログイン処理として決定し、ログイン制御部130が、ログイン処理1を実行する(S34)。
 一方で、撮像画像に顔画像を登録したユーザが1人でも含まれていれば(S32のY)、ログイン制御部130は、入力装置6が接続しているか否かを判定する(S36)。なおS36では、ログインユーザ記憶部146を参照して、まだログインしていない入力装置6が情報処理装置10に接続しているか否かが判定され、まだログインしていない入力装置6が存在している場合に(S36のY)、処理決定部120が、ログイン処理2を、実行するべきログイン処理として決定し、ログイン制御部130が、ログイン処理2を実行する(S38)。一方、まだログインしていない、情報処理装置10に接続した入力装置6が存在しなければ(S36のN)、処理決定部120が、ログイン処理3を、実行するべきログイン処理として決定し、ログイン制御部130が、ログイン処理3を実行する(S40)。
 以上のように、処理決定部120は、撮像画像に撮像されているユーザや、ゲームコントローラの接続の有無に応じて、実行するべきログイン処理を決定する。この決定処理はユーザの手を煩わせることなく自動的に行われるため、ユーザは、自分の状況に適したユーザインタフェースを提供されることになり、簡易なログイン動作を実現できる。なお、たとえばログイン処理3の実行中に、ユーザが所定のコマンドを発声すると、マイク108が、発声を受け付けて、これによって処理決定部120が、ログイン処理3からログイン処理1に切り替えるようにしてもよい。
 以上、本発明を実施例をもとに説明した。この実施例は例示であり、それらの各構成要素や各処理プロセスの組合せにいろいろな変形例が可能なこと、またそうした変形例も本発明の範囲にあることは当業者に理解されるところである。実施例ではログイン用パスコードが設定されている場合に、ログイン処理1においてログイン用パスコードの入力を求めることを説明したが、たとえばログイン処理2および3においてもログイン用パスコードの入力を求めてもよい。
 ログイン処理2において、顔枠処理部138は、顔枠210を表示して、ログイン動作できることをユーザに知らしめているが、顔枠210以外の他のインジケータによって、ログイン動作できることを知らしめてもよい。たとえば、ログイン可能なユーザのオンラインIDを提示するだけでもよく、また、たとえば顔付近に、ログイン対象であることを示す矢印を表示するなどして、ユーザが、ログインできることを認識させるようにしてもよい。
 またログイン処理2において、位置指定画像212の大きさは、顔領域204の大きさや、ユーザとの距離に応じて設定されてもよい。
 またログイン処理2において、オブジェクト認証部142は、発光部85の発光色をもとに指定領域内における入力装置6の存在を色認識により検出している。カメラ7がステレオカメラである場合、一方のカメラで空間画像を撮像して、撮像画像表示部134が、撮像画像を表示し、また、もう一方のカメラで発光色を検出するための画像を撮像して、オブジェクト認証部142が、入力装置6を色認識により検出してもよい。なおオブジェクト認証部142は、指定領域内における入力装置6の存在を、形状認識などの認識技術によって検出してもよい。
1・・・情報処理システム、4・・・出力装置、6・・・入力装置、7・・・カメラ、10・・・情報処理装置、85・・・発光部、100・・・管理部、102・・・通信部、104・・・入力受付部、106・・・画像取得部、108・・・マイク、110・・・発光色決定部、120・・・処理決定部、130・・・ログイン制御部、132・・・選択画像表示部、134・・・撮像画像表示部、136・・・顔認証部、138・・・顔枠処理部、140・・・位置指定画像処理部、142・・・オブジェクト認証部、144・・・ログイン処理部、146・・・ログインユーザ記憶部、150・・・登録ユーザ情報保持部、200・・・フォーカス枠、202・・・小窓領域、204・・・顔領域、206・・・撮像画像表示領域、210・・・顔枠、212・・・位置指定画像、220・・・顔領域、222・・・顔枠、230・・・撮像画像表示領域。
 本発明は、ユーザ認証処理を行う技術分野に利用できる。

Claims (7)

  1.  撮像画像をディスプレイに表示する撮像画像表示部と、
     登録ユーザの顔識別用データを保持する登録ユーザ情報保持部と、
     前記登録ユーザ情報保持部に保持された顔識別用データを用いて、撮像画像に存在する登録ユーザの顔画像を検出する顔認証部と、
     検出された登録ユーザに対して、オブジェクトの位置を指定する位置指定画像をディスプレイに表示する画像処理部と、
     位置指定画像によって指定した領域内に、オブジェクト画像が含まれていることを検出するオブジェクト認証部と、
     を備えることを特徴とする情報処理装置。
  2.  前記画像処理部は、検出された登録ユーザの顔画像の下側の位置を指定する位置指定画像をディスプレイに表示することを特徴とする請求項1に記載の情報処理装置。
  3.  前記画像処理部は、撮像画像において、検出された登録ユーザの顔領域の下方に、別のユーザの顔領域が存在する場合に、2つの顔領域の左右方向における重なりに応じて、オブジェクトの位置を決定することを特徴とする請求項1または2に記載の情報処理装置。
  4.  オブジェクトは、発光する発光部を有しており、
     前記オブジェクト認証部は、指定領域内の発光色を検出することで、指定領域内にオブジェクト画像が含まれていることを検出することを特徴とする請求項1から3のいずれかに記載の情報処理装置。
  5.  前記オブジェクト認証部が指定領域内にオブジェクト画像が含まれていることを検出すると、当該登録ユーザをログインさせるログイン処理部を、さらに備えることを特徴とする請求項1から4のいずれかに記載の情報処理装置。
  6.  コンピュータに、
     撮像画像をディスプレイに表示する機能と、
     登録ユーザ情報保持部に保持された顔識別用データを用いて、撮像画像に存在する登録ユーザの顔画像を検出する顔認証部と、
     検出された登録ユーザに対して、オブジェクトの位置を指定する位置指定画像をディスプレイに表示する機能と、
     位置指定画像によって指定した領域内に、オブジェクト画像が含まれていることを検出するオブジェクト機能と、
     を実現するためのプログラム。
  7.  請求項6に記載のプログラムを記録したコンピュータ読み取り可能な記録媒体。
PCT/JP2014/005530 2013-11-07 2014-10-31 情報処理装置 WO2015068371A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
CN201480059948.2A CN105706102A (zh) 2013-11-07 2014-10-31 信息处理设备
EP14860210.5A EP3067812B1 (en) 2013-11-07 2014-10-31 Information processing device
US15/032,136 US10362028B2 (en) 2013-11-07 2014-10-31 Information processing apparatus

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2013-231102 2013-11-07
JP2013231102A JP6000929B2 (ja) 2013-11-07 2013-11-07 情報処理装置

Publications (1)

Publication Number Publication Date
WO2015068371A1 true WO2015068371A1 (ja) 2015-05-14

Family

ID=53041166

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2014/005530 WO2015068371A1 (ja) 2013-11-07 2014-10-31 情報処理装置

Country Status (5)

Country Link
US (1) US10362028B2 (ja)
EP (1) EP3067812B1 (ja)
JP (1) JP6000929B2 (ja)
CN (1) CN105706102A (ja)
WO (1) WO2015068371A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016051790A1 (ja) * 2014-09-30 2016-04-07 日本電気株式会社 利用制御システム、人物情報管理システムおよび端末装置
WO2021215015A1 (ja) * 2020-04-24 2021-10-28 富士通株式会社 認証装置、認証方法及び認証プログラム

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6000929B2 (ja) * 2013-11-07 2016-10-05 株式会社ソニー・インタラクティブエンタテインメント 情報処理装置
JP6324939B2 (ja) * 2015-11-05 2018-05-16 株式会社ソニー・インタラクティブエンタテインメント 情報処理装置およびログイン制御方法
WO2019003813A1 (ja) * 2017-06-29 2019-01-03 住友化学株式会社 特異部検知システム及び特異部検知方法
JP7005334B2 (ja) * 2017-12-22 2022-01-21 キヤノン株式会社 電子機器、その制御方法およびプログラム
JP7330766B2 (ja) * 2019-05-31 2023-08-22 キヤノン株式会社 情報処理装置、制御方法およびプログラム
CN110384919B (zh) * 2019-07-17 2023-11-21 咪咕互动娱乐有限公司 一种显示控制方法、终端及计算机可读存储介质
KR102567175B1 (ko) * 2021-08-23 2023-08-16 씨큐리티(주) 대용량 챔버용 진공카메라

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007096890A (ja) * 2005-09-29 2007-04-12 Funai Electric Co Ltd テレビジョン受信装置
JP2009519105A (ja) * 2005-12-12 2009-05-14 株式会社ソニー・コンピュータエンタテインメント コンピュータプログラムとのインタフェース時に方向検出を可能にするための方法およびシステム
JP2009211166A (ja) * 2008-02-29 2009-09-17 Toshiba Corp 認証装置、認証方法及び認証プログラム
JP2013141091A (ja) * 2011-12-28 2013-07-18 Canon Inc 撮像装置およびその制御方法

Family Cites Families (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI299471B (en) * 2001-08-24 2008-08-01 Toshiba Kk Person recognition apparatus
US7102615B2 (en) * 2002-07-27 2006-09-05 Sony Computer Entertainment Inc. Man-machine interface using a deformable device
JP2004118627A (ja) * 2002-09-27 2004-04-15 Toshiba Corp 人物認証装置および人物認証方法
US8320641B2 (en) * 2004-10-28 2012-11-27 DigitalOptics Corporation Europe Limited Method and apparatus for red-eye detection using preview or other reference images
JP4457358B2 (ja) * 2006-05-12 2010-04-28 富士フイルム株式会社 顔検出枠の表示方法、文字情報の表示方法及び撮像装置
JP2008187591A (ja) * 2007-01-31 2008-08-14 Fujifilm Corp 撮像装置及び撮像方法
AU2009346872A1 (en) * 2009-05-29 2011-12-22 Aruze Gaming America, Inc. Game system
JP2011203992A (ja) * 2010-03-25 2011-10-13 Sony Corp 情報処理装置、情報処理方法、およびプログラム
US9262668B2 (en) * 2010-05-21 2016-02-16 Honeywell International Inc. Distant face recognition system
RU2446459C1 (ru) * 2010-07-23 2012-03-27 Закрытое акционерное общество "Лаборатория Касперского" Система и способ проверки веб-ресурсов на наличие вредоносных компонент
CN102387287B (zh) * 2010-08-31 2014-07-23 卡西欧计算机株式会社 图像处理装置、图像处理方法以及图像处理系统
US8994499B2 (en) * 2011-03-16 2015-03-31 Apple Inc. Locking and unlocking a mobile device using facial recognition
WO2012174042A2 (en) * 2011-06-14 2012-12-20 Ark Ideaz, Inc. Authentication systems and methods
TWI523476B (zh) * 2011-10-19 2016-02-21 致伸科技股份有限公司 帳號建立及認證方法
US8902344B2 (en) 2011-12-28 2014-12-02 Canon Kabushiki Kaisha Display control apparatus, image capture apparatus, display control method, and image capture apparatus control method
RU2543950C2 (ru) * 2011-12-28 2015-03-10 Кэнон Кабусики Кайся Устройство формирования изображения и способ управления указанным устройством
JP2013161261A (ja) 2012-02-06 2013-08-19 Hitachi Consumer Electronics Co Ltd 情報処理端末、その認証制御方法、及び認証制御プログラム
US20140109208A1 (en) * 2012-10-12 2014-04-17 Jesse Song Method and system for image-based user authentication
JP6140991B2 (ja) * 2012-12-04 2017-06-07 オリンパス株式会社 サーバシステム、プログラム、サーバシステムの作動方法及び端末装置
SG2013063003A (en) * 2013-08-19 2015-03-30 Artivision Technologies Ltd A method for logging a user in to a mobile device
JP6000929B2 (ja) * 2013-11-07 2016-10-05 株式会社ソニー・インタラクティブエンタテインメント 情報処理装置
JP6323025B2 (ja) * 2014-01-21 2018-05-16 富士通株式会社 表示制御プログラム、表示制御装置及び表示制御システム
KR101849365B1 (ko) * 2014-11-05 2018-04-16 한화테크윈 주식회사 영상 처리 장치 및 방법
KR20160091786A (ko) * 2015-01-26 2016-08-03 삼성전자주식회사 사용자 관리 방법 및 사용자 관리 장치
CN106156578B (zh) * 2015-04-22 2020-02-14 深圳市腾讯计算机系统有限公司 身份验证方法和装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007096890A (ja) * 2005-09-29 2007-04-12 Funai Electric Co Ltd テレビジョン受信装置
JP2009519105A (ja) * 2005-12-12 2009-05-14 株式会社ソニー・コンピュータエンタテインメント コンピュータプログラムとのインタフェース時に方向検出を可能にするための方法およびシステム
JP2009211166A (ja) * 2008-02-29 2009-09-17 Toshiba Corp 認証装置、認証方法及び認証プログラム
JP2013141091A (ja) * 2011-12-28 2013-07-18 Canon Inc 撮像装置およびその制御方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3067812A4 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016051790A1 (ja) * 2014-09-30 2016-04-07 日本電気株式会社 利用制御システム、人物情報管理システムおよび端末装置
JPWO2016051790A1 (ja) * 2014-09-30 2017-04-27 日本電気株式会社 利用制御システム、人物情報管理システムおよび端末装置
WO2021215015A1 (ja) * 2020-04-24 2021-10-28 富士通株式会社 認証装置、認証方法及び認証プログラム

Also Published As

Publication number Publication date
JP2015090661A (ja) 2015-05-11
US20160301692A1 (en) 2016-10-13
EP3067812A1 (en) 2016-09-14
JP6000929B2 (ja) 2016-10-05
US10362028B2 (en) 2019-07-23
CN105706102A (zh) 2016-06-22
EP3067812B1 (en) 2021-08-04
EP3067812A4 (en) 2017-06-07

Similar Documents

Publication Publication Date Title
WO2015068371A1 (ja) 情報処理装置
JP6092485B2 (ja) 情報処理装置
JP5920894B2 (ja) 情報処理装置および顔識別用データの登録方法
JP6324939B2 (ja) 情報処理装置およびログイン制御方法
JP6000805B2 (ja) 情報処理装置
JP2020091904A (ja) システムおよびコントローラ
JP6132719B2 (ja) 情報処理装置
EP3103527B1 (en) Information processing device and assignment method for input device
US20170289633A1 (en) Information processing device
WO2019155735A1 (ja) 情報処理装置、情報処理方法及びプログラム
JP2015201131A (ja) 情報処理装置
JP6452750B2 (ja) 情報処理装置および処理方法
CN111167115A (zh) 交互式游戏系统

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 14860210

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 15032136

Country of ref document: US

REEP Request for entry into the european phase

Ref document number: 2014860210

Country of ref document: EP

NENP Non-entry into the national phase

Ref country code: DE