WO2024047802A1 - 画像処理装置および通信システム - Google Patents

画像処理装置および通信システム Download PDF

Info

Publication number
WO2024047802A1
WO2024047802A1 PCT/JP2022/032790 JP2022032790W WO2024047802A1 WO 2024047802 A1 WO2024047802 A1 WO 2024047802A1 JP 2022032790 W JP2022032790 W JP 2022032790W WO 2024047802 A1 WO2024047802 A1 WO 2024047802A1
Authority
WO
WIPO (PCT)
Prior art keywords
image processing
processing device
authentication
user
state
Prior art date
Application number
PCT/JP2022/032790
Other languages
English (en)
French (fr)
Inventor
浩史 岡
博文 鈴木
茂樹 高谷
雅俊 郷
伸悟 伊東
Original Assignee
京セラ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 京セラ株式会社 filed Critical 京セラ株式会社
Priority to PCT/JP2022/032790 priority Critical patent/WO2024047802A1/ja
Publication of WO2024047802A1 publication Critical patent/WO2024047802A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/30Authentication, i.e. establishing the identity or authorisation of security principals
    • G06F21/31User authentication

Definitions

  • the present disclosure relates to an image processing device having at least one of a printer and a scanner, and a communication system including the image processing device.
  • Patent Documents 1 to 4 listed below disclose image processing devices that authenticate users through facial recognition and allow users to use predetermined functions when the authentication state (authentication is successful) is reached (for example, Patent Documents 1 to 4 listed below).
  • Patent Document 3 discloses that when a user raises his hand toward a camera for performing face authentication, the image processing device enters a standby state.
  • Patent Document 4 a sleep timer is started when a logout operation is performed, when a while has elapsed since the user interrupted the operation, or when it is detected that the user has left the image processing device. The matter of returning to the step is disclosed.
  • An image processing device includes an image processing section, a control section, and an imaging section.
  • the image processing section includes at least one of a printer and a scanner.
  • the control unit restores the functional restriction of the image processing unit that was canceled in response to successful user authentication in conjunction with cancellation of the authentication state.
  • the image capturing unit captures an image of at least a part of the area around the image processing device.
  • the image processing device includes at least one of the absence of a user in an authenticated state and the presence of another user, which is identified based on an image captured by the imaging unit in an authenticated state. The authentication state is canceled when the cancellation conditions are met.
  • An image processing device includes an image processing section, an imaging section, and a control section.
  • the image processing section includes at least one of a printer and a scanner.
  • the image capturing unit captures an image of at least a part of the area around the image processing device.
  • the control unit restores the functional restriction of the image processing unit, which was canceled in response to successful authentication without using the imaging unit, in conjunction with cancellation of the authentication state.
  • the image processing device controls cancellation of the authentication state in accordance with the situation of the person, which is identified based on the image captured by the imaging unit during the authentication state.
  • a communication system includes the image processing device described above and a communication device that communicates with the image processing device.
  • FIG. 1 is a schematic diagram showing an example of a communication system according to an embodiment.
  • 2 is a schematic diagram showing a hardware configuration related to a signal processing system of an image processing device included in the communication system of FIG. 1.
  • FIG. FIG. 3 is a functional block diagram showing the configuration of the image processing device shown in FIG. 2.
  • FIG. 5 is a flowchart illustrating an example of a procedure for processing related to authentication.
  • FIGS. 5A and 5B are schematic diagrams showing examples of captured images used for user monitoring.
  • FIGS. 6A, 6B, and 6C are schematic diagrams showing other examples of captured images used for user monitoring.
  • 5 is a flowchart illustrating an example of a procedure for processing related to authentication state control.
  • FIG. 7 is a flowchart illustrating another example of the procedure of processing related to authentication state control.
  • 9 is a flowchart showing a continuation of FIG. 8.
  • 12 is a flowchart showing still another example of the processing procedure related to authentication state control.
  • FIG. 3 is a block diagram for explaining a specific example of lifting restrictions based on an authentication result.
  • 5 is a flowchart illustrating an example of a procedure for releasing restrictions based on an authentication result.
  • FIG. 3 is a block diagram for explaining changes in the menu screen due to restriction cancellation.
  • 5 is a flowchart for explaining the release of restrictions related to VPN connection.
  • biological information refers to the information itself about the characteristics that actually appear on a person (from another point of view, information that does not depend on the detection method), and when it refers to the raw information obtained by detecting the above-mentioned characteristics.
  • it refers to feature information extracted from raw information, and in other cases, it refers to information that has been processed from raw information or feature information according to the purpose of use. Examples of the processed information include information obtained by encrypting feature amounts.
  • authentication sometimes refers to the act of confirming the legitimacy of a target, and sometimes refers to the fact that the legitimacy has been confirmed or has been confirmed through such an act.
  • the fact that the validity has been confirmed is sometimes expressed as a successful authentication, and the fact that the legitimacy cannot be confirmed is sometimes expressed as an authentication failure.
  • the "authentication state” refers to a state in which authenticity has been confirmed, or a state in which it is regarded as such.
  • network sometimes refers to a communication network, and sometimes refers to a combination of a communication network and devices connected to the communication network. The same holds true for the lower-level concept of network. Examples of the sub-concept terms of network are the Internet, public network, private network, LAN (Local Area Network), and VPN (Virtual Private Network).
  • VPN sometimes refers to a technology that virtually extends a private network to a public network, and sometimes refers to a network using this technology.
  • VPN may be appropriately used to refer to technical matters related to VPN.
  • a connection established for communication using a VPN is sometimes referred to as a VPN connection, and such a connection is sometimes referred to as a VPN connection.
  • connection can refer to a connection established through authentication (for example, a three-way handshake) (a connection in a narrow sense), or a connection that simply means that communication is possible (a connection in a broad sense).
  • authentication for example, a three-way handshake
  • connection in a narrow sense a connection in a narrow sense
  • connection establishment is prohibited. Things that are electrically (physically from another point of view) connected to each other by cables, but in terms of software (logically from another point of view) any communication is prohibited.
  • FIG. 1 is a schematic diagram showing the configuration of a communication system 1 according to an embodiment.
  • the communication system 1 includes a plurality of communication devices that are communicably connected to each other via a network.
  • the plurality of communication devices include one or more image processing devices.
  • three image processing devices 3A, 3B, and 3C are illustrated.
  • the image processing devices 3A to 3C may be referred to as an image processing device 3 (numerals in FIG. 2, etc.) without distinguishing them.
  • Image processing device 3 includes at least one of a printer and a scanner. Note that the image processing device 3 may be used independently without being included in the communication system 1.
  • the image processing device 3 authenticates the user, for example, when the user attempts to use the image processing device 3 (or a predetermined function of the image processing device 3). If the authentication is successful, for example, the image processing device 3 allows the user to use a predetermined function (for example, printing) (removes the restriction on the function). Conversely, if the authentication fails, the image processing device 3 does not allow the user to use the predetermined function (restricts the function). The image processing device 3 maintains the restricted state as long as the user authentication is successful and the authenticated state is maintained. Conversely, when the authentication state is canceled, the restriction of functions is resumed. Note that an expression such as "control for removing restrictions on functions" may be used as a concept that includes both restricting functions and removing restrictions on functions. The same applies to the authentication status.
  • the image processing device 3 has an imaging unit 28 that images the surroundings of the image processing device 3.
  • the image captured by the imaging unit 28 is used, for example, to understand the situation of people around the image processing device 3.
  • the status of the person identified from the image is used to control the authentication status.
  • the image processing device 3 cancels the authentication state when it detects that the user in the authentication state has left the image processing device 3 based on the image captured by the imaging unit 28 during the authentication state. And/or the image processing device 3 cancels the authentication state when it detects that a user other than the authenticated user is present around the image processing device 3.
  • Communication system 1 in general ( Figure 1) 1.1. Information used by communication system 1 1.1.1. Biological information 1.1.2. Account information 1.1.3. Facial feature data 1.2. Overall configuration of communication system 1 1.3. Overview of each communication device 1.4. Connection mode of communication equipment 2. Configuration of image processing device 3 ( Figure 2) 2.1. Overall configuration of image processing device 3 2.2. Printer 2.3. Scanner 2.4. UI (User Interface) section 2.4.1. Operation unit 2.4.2. Display section 2.5. Detection unit that detects biological information 2.5.1. Configuration of detection unit 2.5.2. Position and orientation of detection unit, etc. 2.6. Communication Department 2.7. Imaging section 2.8. Processing part 2.9. Connector 2.10. Others 3.
  • the image processing device 3 may or may not perform authentication using biometric information.
  • the biometric information may be of various types, for example, information used in known biometric authentication.
  • the biometric information may be information about the user's physical characteristics or may be information about the user's behavioral characteristics. Specific examples of physical characteristics include fingerprints, palm shapes, retinas (patterns of blood vessels, etc.), iris (distribution of shading values, etc.), faces, blood vessels (patterns of specific parts such as fingers), ear shapes, Sound (such as voice prints) and body odor may be mentioned. Examples of behavioral characteristics include handwriting.
  • match when biometric information (including facial feature data described below) matches each other is defined as accuracy that does not pose any practical problem in biometric authentication (from another point of view, This is a match (accuracy required of the processing device 3 and/or the communication system 1), and does not mean a perfect match.
  • the image processing device 3 may or may not perform authentication using account information.
  • the account information includes, for example, information for identifying a user (hereinafter sometimes abbreviated as "ID"). Additionally, the account information may include a password.
  • ID information for identifying a user
  • the account information may include a password.
  • a mode in which account information includes an ID and a password may be taken as an example unless otherwise specified.
  • the word account information may be replaced with the word ID (without a password) or the word ID and password.
  • the image processing device 3 may control maintenance and cancellation of the authentication state by using the user's facial feature data.
  • the facial feature data may be of various types, for example, and may be similar to known data used for face authentication.
  • a known matching method for face authentication may be used as a matching method for facial feature data.
  • the facial feature data includes, for example, information such as the relative positions of feature points related to the eyes, nose, mouth, and the like.
  • the facial feature data may be for the entire face, or may be for a part of the face (for example, a part that is not hidden by a mask that covers the mouth and nose).
  • Facial feature data may be used as biometric information not only to control maintenance and cancellation of the authentication state, but also for the authentication itself. Explanations of terms regarding biometric information may be used for facial feature data.
  • the communication system 1 includes various communication devices, and the various communication devices include the image processing device 3.
  • the communication system 1 may include other communication equipment as appropriate.
  • servers 5 and 7 and terminals 9A, 9B and 9C are illustrated.
  • the terminals 9A to 9C may be referred to as the terminal 9 (representatively, the terminal 9A is given the reference numeral) without distinguishing them.
  • FIG. 1 a public network 11 and private networks 13A and 13B are illustrated.
  • the communication system 1 may be defined only by at least one image processing device 3 and at least one communication device that communicates with the image processing device 3. Furthermore, the communication system 1 may be defined to include private networks (13A and 13B) in addition to communication equipment. However, in any case, the communication system 1 may be defined without the public network 11.
  • the image processing device 3 includes at least one of a printer and a scanner, as described above. The following description will mainly take as an example a mode in which the image processing device 3 includes both a printer and a scanner.
  • the image processing device 3 may or may not be a multi-function product/printer/peripheral (MFP).
  • MFP multi-function product/printer/peripheral
  • the image processing device 3 may be capable of executing one or more of printing, scanning, copying, FAX transmission, and FAX reception (although these are not necessarily separable concepts), for example.
  • the method of operating the image processing device 3 is arbitrary.
  • the image processing device 3A may be installed in a store such as a convenience store and used by an unspecified number of users.
  • the image processing device 3B may be installed in a private home and used by a specific and small number of users (for example, one person).
  • the image processing device 3C may be installed in a company and used by a specific number of users.
  • the configuration and operation of the image processing device 3 described in the embodiment may be applied to any of the one or more image processing devices 3 included in the communication system 1.
  • the embodiments may be described using one of the image processing devices 3A to 3C as an example.
  • the explanation given for any of the image processing apparatuses 3A to 3C may be applied to other image processing apparatuses as long as no contradiction occurs.
  • the server 5 may be included in the private network 13A, for example, and may perform ECM (Enterprise Content Management) or function as a VPN server. And/or the server 5 may authenticate a user who uses the image processing device 3 and a user who uses another communication device (for example, the terminal 9). However, the image processing device 3 (another communication device) may only authenticate the user using itself.
  • ECM Enterprise Content Management
  • the server 5 may authenticate a user who uses the image processing device 3 and a user who uses another communication device (for example, the terminal 9). However, the image processing device 3 (another communication device) may only authenticate the user using itself.
  • the server 7 may provide various services.
  • server 7 may be a file server, a mail server and/or a web server.
  • the file server may store, for example, data of an image printed by the image processing device 3 or data scanned by the image processing device 3.
  • the mail server may deliver mail printed by the image processing device 3 or mail containing an image scanned by the image processing device 3.
  • the web server may execute web services performed through communication with the image processing device 3.
  • each of servers 5 and 7 is represented by one computer. However, one server may be realized by a plurality of distributed computers. A plurality of computers making up one server may be directly connected, included in one LAN, or included in mutually different LANs. Note that the servers 5 and 7 may be configured by one computer. Moreover, the servers 5 and 7 may be regarded as one server, regardless of whether they are configured by one computer or not.
  • the terminal 9 may be of any appropriate type.
  • terminals 9A and 9B are depicted as laptop-type PCs (personal computers).
  • Terminal 9C is depicted as a smartphone.
  • the terminal 9 may be, for example, a desktop PC or a tablet PC.
  • the terminal 9 can be operated in any manner.
  • the terminal 9 may be one that is used by one or more specific users, such as a terminal owned by a company or a terminal owned by an individual, or one that is unspecified and used by many users, such as a terminal at an Internet cafe. It may be used by several users.
  • the public network 11 is a network that is open to the outside (for example, an unspecified number of communication devices). The specific aspect thereof may be determined as appropriate.
  • the public network 11 may include the Internet, a closed network provided by a telecommunications carrier, and/or a public telephone network.
  • the private networks 13A and 13B are networks that are not disclosed to the outside.
  • Private network 13A and/or 13B may be, for example, a LAN.
  • the LAN may be, for example, a network within the same building. Examples of the LAN include those using Ethernet (registered trademark) and Wi-Fi (registered trademark). Further, the private network 13A and/or 13B may be an intranet.
  • Transmission and/or reception of signals by the communication device may be performed via a wire or wirelessly. Further, the communication device (for example, the image processing device 3) may communicate with the public network 11 without being included in the private network, or may be included in the private network. A communication device (for example, the image processing device 3) included in the private network may communicate only within the private network, or may communicate with the public network 11 via the private network.
  • multiple communication devices may be connected to each other in various ways.
  • FIG. 1 it is as follows.
  • the image processing device 3A has not constructed a private network.
  • the image processing device 3A is capable of communicating with the public network 11 without going through a private network by including a router or the like (not shown) or by being connected to a router or the like.
  • the image processing device 3A may be able to communicate with a terminal 9 (not shown in FIG. 1) that is directly connected to the image processing device 3A by wire. Further, the image processing device 3A may be capable of short-range wireless communication with a terminal 9 (not shown in FIG. 1) placed near the image processing device 3A.
  • the image processing device 3B and the terminal 9B are connected to each other by a private network 13B. More specifically, both are connected via the router 15 (its hub). The image processing device 3B and the terminal 9B can communicate with the public network 11 via the router 15 and the like.
  • the image processing device 3C, server 5, server 7, and terminal 9A are connected to each other by a private network 13A.
  • the image processing device 3C, the server 7, and the terminal 9A can communicate with the public network 11 via the server 5, for example.
  • the server 5 may include a router or the like, or a router (not shown) or the like may be provided between the server 5 and the public network 11.
  • the terminal 9C communicates wirelessly with the public telephone network. Furthermore, the terminal 9C communicates with the public network 11 including the public telephone network.
  • the server 5 may be used to authenticate the user of the image processing device 3.
  • authentication is performed on image processing devices (3A and 3B in FIG. 1) connected to the server 5 via the public network 11, and image processing devices (3C in FIG. 1) included in the private network 13A including the server 5. ).
  • connection mode of communication equipment and the operating method of communication equipment (from another perspective, social positioning) is arbitrary.
  • the image processing device 3A that is not included in the private network may be installed in a store and used by an unspecified number of users as described above, or it may be installed in a company and used by an unspecified number of users, as described above, or It may be installed and used by a specific user.
  • the image processing device 3B included in the private network 13B may be installed in a private home and used by a specific and small number of users as described above, or the image processing device 3B included in the private network 13B may be used by a specific and small number of users. Alternatively, it may be installed in an Internet cafe and used by an unspecified number of users.
  • FIG. 2 is a schematic diagram showing a hardware configuration related to a signal processing system of the image processing device 3. As shown in FIG.
  • the image processing device 3 includes, for example, the following components.
  • a housing 17 (FIG. 1) constitutes the outer shape of the image processing device 3.
  • a printer 19 that performs printing.
  • a scanner 21 image scanner
  • a UI unit 23 that accepts user operations and/or presents information to the user.
  • a detection unit 25 detects biometric information of the user.
  • a communication unit 27 (FIG. 2) that performs communication.
  • An imaging unit 28 that images the surroundings of the image processing device 3 (at least a partial range thereof).
  • a processing section 29 (FIG. 2) that controls each section (19, 21, 23, 25, 27, and 28).
  • a connector 37 (FIG. 2) for connecting an appropriate device to the image processing apparatus 3.
  • the printer 19 and/or the scanner 21 may be referred to as an image processing unit 31 (the reference numeral is shown in FIG. 2).
  • the detection unit 25 detects biometric information different from the biometric information obtained from the imaging unit 28, for example, for user authentication. However, the detection unit 25 may not be provided as shown by the dotted line in FIG.
  • the housing 17 may be considered as part of the printer 19 or the scanner 21.
  • the processing unit 29 is conceptually one processing unit that controls all operations (including printing and scanning, for example) of the image processing device 3 (in terms of hardware, it is distributed over multiple units).
  • the objects (19, 21, 23, 25, 27, and 28) controlled by the processing section 29 may be conceptualized only in terms of mechanical parts that do not include the processing section, or the processing section (processing section 29).
  • Components other than the housing 17 (19, 21, 23, 25, 27, 28, and 29).
  • the word component refers to such components other than the housing 17.
  • the housing 17 holds or supports a plurality of components, or is mechanically connected to or coupled to a plurality of components. , it can be said.
  • the plurality of components are provided in the housing 17, it can be said that they are provided integrally with each other. Note that, as understood from the above description, when it is said that a component is provided in the casing 17, the casing 17 may be regarded as a part of the component.
  • the components and the housing 17 are fixed to each other (of course, excluding movable parts). Furthermore, the components are also fixed to each other. Furthermore, unless the image processing device 3 is disassembled by, for example, removing screws, the components and the housing 17 cannot be separated from each other and placed in different locations. Furthermore, the constituent elements cannot be separated from each other and placed in different locations. However, unlike the above example, when it is said that the image processing device 3 has a component, the component may be detachable from the housing 17. In FIG. 2, while an imaging unit 28 fixed to the housing 17 is shown, an imaging unit 28A that is attached to and detached from the connector 37 is shown in dotted lines as an example other than the imaging unit 28. ing.
  • the specific positional relationship is arbitrary.
  • the component may be housed within the casing 17, provided integrally with the wall of the casing 17, protruding from the wall of the casing 17, or mounted on the casing 17.
  • the orientation and/or position relative to the body 17 may be variable.
  • the printer 19, scanner 21, communication section 27, and processing section 29 may be considered to be housed in the housing 17.
  • the UI section 23 and the detection section 25 may be considered to be integrally provided on the wall surface of the housing 17.
  • the imaging unit 28 may be considered to protrude from the wall of the housing 17 (fixed to the wall of the housing 17).
  • the size and shape of the image processing device 3 are arbitrary.
  • the image processing device 3 may have a size (mass) that can be carried by one person, such as a home multifunction device or a printer (see illustration of the image processing device 3B), or may have a size (mass) that can be carried by one person, such as a home multifunction device or a printer (see illustration of the image processing device 3B),
  • the image processing apparatus may have a size (mass) that cannot be carried by one person, such as a multifunction device or a printer (see illustrations of image processing apparatuses 3A and 3C).
  • the image processing device 3 may have a concept that is significantly different from a general multifunction peripheral or printer placed in a company (office) or a private home.
  • the printer 19 may print on roll paper.
  • the image processing device 3 may include a robot, and may apply coating to a vehicle body or the like using an inkjet head.
  • the image processing device 3 may be of a size that can be held in one hand, and the image processing device 3 itself may scan a medium to perform printing and/or scanning.
  • the printer 19 is configured, for example, to print on sheets of paper arranged within the housing 17 or on a tray protruding from the housing 17 to the outside, and to discharge the printed sheets.
  • the specific configuration of the printer 19 may be various configurations, for example, it may be similar to a known configuration.
  • the printer 19 may be an inkjet printer that prints by ejecting ink, a thermal printer that prints by heating thermal paper or an ink ribbon, or a photosensitive printer irradiated with light. It may also be an electrophotographic printer (for example, a laser printer) that transfers toner adhering to the body.
  • the inkjet printer may be a piezo type that applies pressure to the ink using a piezoelectric body, or a thermal type that applies pressure to the ink using bubbles generated in the heated ink.
  • the printer 19 may be a line printer in which the head has a length spanning the width of the sheet (a direction that intersects the conveying direction of the sheet), or the printer 19 may have a head that extends in the width direction of the sheet. It may be a serial printer that moves to.
  • the printer 19 may be a color printer or a monochrome printer.
  • the printer 19 may be capable of forming any image, or may be capable of printing only characters.
  • the scanner 21 is arranged on the original glass by means of a plurality of imaging elements (not shown) that move along the original glass under the original glass exposed from the top surface of the housing 17 (hidden in the lid in FIG. 1). image and scan the original.
  • the scanner 21 may have various configurations, for example, may be similar to known configurations.
  • the configuration of the UI section 23 is arbitrary.
  • the UI unit 23 includes an operation unit 33 (reference numeral shown in FIG. 2) that receives user operations, and a display unit 35 (reference numeral shown in FIG. 2) that visually presents information to the user.
  • the UI section 23 may not be provided, or only one of the operation section 33 and the display section 35 may be provided.
  • the UI unit 23 may include an audio unit that presents information to the user by sound.
  • the UI unit 23 may be defined to include the connector 37, unlike the description of the embodiment. This is because connecting a device to the connector 37 may be a type of inputting an instruction to the image processing device 3.
  • the configuration of the operation section 33 is arbitrary.
  • the operation unit 33 accepts, for example, a user's touch operation.
  • Such an operation section 33 may include, for example, a touch panel and/or one or more buttons.
  • a touch panel reference numeral omitted
  • a button 33a is illustrated as at least a part of the operation unit 33 of the image processing device 3B.
  • the button 33a may be a push button, a touch button, or another button.
  • the touch button may be a capacitive touch button or another touch button.
  • the image processing devices 3A and 3C may have buttons, and the image processing device 3B may have a touch panel.
  • the operation unit 33 may accept other types of operations such as voice operations.
  • the operation unit 33 may be used for various purposes. Typically, the operation unit 33 is used to instruct the image processing device 3 to execute processing related to the image processing unit 31. For example, by operating the operation unit 33, printing, scanning, and copying are performed, and settings related to these operations (for example, settings for paper selection, magnification, density, and/or color, etc.) are performed. In addition, for example, by operating the operation unit 33, data may be accessed, transmitted and received, and authentication information (for example, account information) may be input.
  • authentication information for example, account information
  • the configuration of the display section 35 is arbitrary.
  • the display unit 35 may include at least one of a display capable of displaying any image, a display capable of displaying only arbitrary characters, a display capable of displaying only specific characters and/or specific graphics, and an indicator light. May contain one.
  • the image here is a concept that includes characters. Examples of displays that display arbitrary images or arbitrary characters include liquid crystal displays or organic EL (Electro Luminescence) displays that have a relatively large number of regularly arranged pixels. Furthermore, examples of displays that display specific characters and/or specific graphics include liquid crystal displays with a limited number and/or shape of pixels, or segment displays such as a 7-segment display. Segmented displays may take various forms, including liquid crystal displays. Examples of the indicator light include those including LEDs (Light Emitting Diodes). An appropriate number of indicator lights may be provided. In addition, in the following description, for convenience, expressions may be given on the premise that the display unit 35 can display any image.
  • Detection unit that detects biological information 2.5.1. Configuration of detection unit
  • various types of biometric information may be used for authentication. Therefore, the configuration of the detection section 25 may also be various. Furthermore, various detection units 25 may be used for the same type of biological information.
  • the basic configuration of the detection unit 25 may be the same as a known one.
  • the detection unit 25 may acquire an image related to biological information.
  • biological information obtained by acquiring images include fingerprints, palm shapes, retinas, iris, faces, blood vessels, and ear shapes.
  • a typical example of the detection unit 25 that acquires an image is an optical type.
  • the optical detection unit 25 includes an image sensor that detects light.
  • the light to be detected by the image sensor (in other words, the wavelength range) may be visible light or non-visible light (for example, infrared light).
  • the detection unit 25 may or may not have an illumination unit that irradiates the living body with light in the wavelength range detected by the image sensor.
  • the image may be a binary image, a grayscale image or a color image.
  • the detection unit 25 that acquires images may be of an ultrasonic type.
  • the ultrasonic detection unit 25 includes an ultrasonic element that transmits and receives ultrasonic waves.
  • the detection unit 25 including an ultrasonic element can acquire an image of the surface and/or internal shape of a living body. More specifically, the detection unit 25 transmits ultrasonic waves toward the living body and receives the reflected waves. An image that reflects the distance from the ultrasound element (ie, the shape of the living body) is acquired based on the time from transmission to reception.
  • the detection unit 25 that acquires the image may be of a capacitance type.
  • the capacitive detection unit 25 includes a panel with which a living body comes into contact, and a plurality of electrodes arranged behind the panel and along the panel.
  • a part of a living body for example, a finger
  • the electric charge generated in the electrode at the position where it is in contact the position of a convex part on the body surface
  • the position where the living body is not in contact the position of a concave part on the body surface
  • the detection unit 25 that acquires images may acquire a two-dimensional image by sequentially acquiring line-shaped images in the transverse direction of the line-shaped images (that is, scanning), A two-dimensional image may be acquired substantially in one time without performing such scanning. Scanning may be realized by the operation of the detection unit 25 or by moving the living body relative to the detection unit 25.
  • the former includes, for example, a mode in which a carriage containing an image sensor or an ultrasonic device moves.
  • the plurality of ultrasound elements can also perform electronic scanning without mechanical movement.
  • An example of the detection unit 25 other than the configuration that acquires images is one that includes a microphone that acquires audio. Thereby, voice (for example, voiceprint) information as biometric information is acquired. Further, for example, the other detection unit 25 may be a touch panel that accepts writing with a touch pen. Thereby, handwriting information as biometric information is acquired.
  • the detection unit 25 may be used for purposes other than acquiring biological information. From another perspective, the detection unit 25 may be realized by a component provided in the image processing device 3 for a purpose other than acquiring biological information. Alternatively, the detection unit 25 may be structurally inseparably combined with other components.
  • the detection unit 25 that acquires an image may be realized by the scanner 21 (or the imaging unit 28), unlike the illustrated example. That is, when it is said that the image processing device has a scanner (or the imaging section 28) and a detection section, the two may be the same component. The same applies when other components are shared with the detection unit 25 (not limited to the one that acquires images).
  • the detection unit 25 may also be used as a button so that when a finger is placed on a button included in the operation unit 33, a fingerprint is detected.
  • An example of such a button and detection section 25 is the capacitive detection section 25 described above.
  • the button operation is detected by the sensor including the plurality of electrodes described above. Further, for example, the reception of handwriting may be realized by a touch panel included in the operation unit 33.
  • the position, orientation, etc. of the detection unit 25 are arbitrary.
  • the detection unit 25 may be fixed to the housing 17, or may be connected to the housing 17 so that its position and/or orientation can be changed. Alternatively, it may be detachable from the housing 17.
  • the detection unit 25 (more precisely, a part directly involved in reading biometric information; for example, a detection surface on which a finger is placed when detecting a fingerprint; the same applies hereinafter in this paragraph) is a UI It may be arranged adjacent to the section 23.
  • the UI unit 23 and the detection unit 25 are located on the front side (or on the same side from another point of view) with respect to the surface of the scanner 21 that reads the document (the top surface of the glass plate) and the lid covering the surface. or on the user side) and on the upper side of the housing 17.
  • the UI section 23 and the detection section 25 may be located on the same panel (as in the illustrated example), or may not be located on the same panel.
  • the panel may be fixed with respect to the housing 17 (its main body portion) or may be movable.
  • the positional relationship between the UI unit 23 and the detection unit 25 is determined by the user's standing position and/or face position when operating the UI unit 23 and when causing the detection unit 25 to read biometric information. may be approximately the same.
  • the detection surface on which the finger is placed may be subjected to anti-virus treatment.
  • the detection surface is constituted by a plate-shaped member, and the material of this plate-shaped member may include a component that produces an antiviral effect.
  • the detection surface may be constituted by a film covering the above-mentioned plate-shaped member, etc., and the film may contain a component that produces an antiviral effect.
  • Components that produce antiviral effects include, for example, monovalent copper compounds and silver.
  • the type of virus to be targeted is arbitrary.
  • the antiviral property of the detection surface may be such that the antiviral activity value is 2.0 or more in a test according to ISO (International Organization for Standardization) 21702, for example.
  • the sensing surface may produce an antibacterial effect in addition to, or instead of, an antiviral effect.
  • the communication unit 27 is, for example, a portion of an interface for the image processing device 3 to communicate with the outside (for example, the public network 11) that is not included in the processing unit 29.
  • the communication unit 27 may include only hardware components, or may include a portion realized by software in addition to the hardware components. In the latter case, the communication section 27 may not be clearly distinguishable from the processing section 29.
  • the communication section 27 may have a connector or a port to which a cable is connected.
  • a port here is a concept that includes software elements in addition to a connector.
  • the communication unit 27 includes an RF (Radio Frequency) circuit that converts a baseband signal into a high frequency signal, and an RF (Radio Frequency) circuit that converts a baseband signal into a high frequency signal. and an antenna for converting the signal into a wireless signal.
  • the communication unit 27 may include, for example, an amplifier and/or a filter.
  • the imaging unit 28 is used to identify the situation of people around the image processing device 3.
  • the imaging unit 28 may set an appropriate position (space) as an imaging range with respect to the image processing device 3 depending on its specific usage mode.
  • examples of the imaging range include the following. Area around UI section 23.
  • the range that includes the surrounding area (same range as the above surrounding area, or wider range than the above surrounding area).
  • the range in which the face of the user operating the UI unit 23 is displayed (the expected range).
  • a relatively wide range above and below the position where the user operating the UI unit 23 stands (or sits) position where there is a high probability of standing or sitting). Note that in the image processing device 3, in which the user's physique affects the range in which the face is reflected, an appropriate user such as an adult or an elementary school student or older may be assumed.
  • the imaging range includes the surrounding area of the UI section 23, the UI section 23 (at least a portion thereof) itself may or may not be included in the imaging range.
  • the size of the surrounding area, etc. may be set as appropriate in light of the purpose of understanding the situation of a person using the image processing device 3 (for example, a person operating the UI unit 23).
  • the surrounding area is a range within a radius of 50 cm or within a radius of 1 m centered on the UI section 23 (its center), or a part of the range.
  • the term "UI section 23" may be replaced with the term "detection section 25" or "UI section 23 and detection section 25.”
  • the imaging range of the imaging unit 28 may remain unchanged in relation to the positional relationship with the image processing device 3. More specifically, for example, the imaging unit 28 may be fixedly provided to the housing 17 of the image processing device 3, and its position and orientation may not be changed. Further, for example, the imaging unit 28 may be configured such that the imaging range cannot be changed by a zoom lens or the like (or the processing unit 29 may be configured such that control to change the imaging range is not performed). . By doing so, for example, the status of the authenticated user and/or other users can be grasped with a certain degree of accuracy, and security is improved.
  • the imaging range may be variable.
  • a method that only reduces convenience but does not reduce security is adopted. For example, if the face of the user who is in the authenticated state is not detected, the authenticated state is canceled. In such a mode in which the authentication state is controlled, the user appropriately sets the imaging range so that the user's own face is imaged. Furthermore, it is difficult for other users to change the imaging range for illegal purposes.
  • the imaging unit 28 may be coupled to the housing 17 so as to be able to change its position and/or orientation. In this case, the position and/or orientation may be changed manually or by a motor or the like.
  • the imaging unit 28 may be connected to the processing unit 29 by a cord and can be separated from the housing 17. The imaging unit 28 may be able to change its position and/or orientation depending on how it is placed on the housing 17 or its surroundings.
  • the imaging unit 28 may repeatedly (in other words, continuously) capture images over a period in which a predetermined condition is satisfied (for example, a period in which the authentication state is maintained).
  • the imaging interval (period) at this time may be set as appropriate depending on the specific usage mode of the imaging unit 28.
  • the imaging interval may be less than 1 second or more than 1 second.
  • the imaging by the imaging unit 28 may be such that it can be interpreted as acquiring a moving image, or it can be regarded as repeatedly acquiring still images. It may be possible, or it may not be possible to make such a distinction.
  • the imaging interval may be changeable.
  • the imaging unit 28 may not perform imaging periodically, but may perform imaging in response to a predetermined trigger (for example, an instruction to execute a function whose restriction has been released).
  • the imaging unit 28 is configured to include an imaging element, generates a two-dimensional image signal (data from another perspective), and outputs it to the processing unit 29. More specific configurations may include various configurations. For example, the imaging unit 28 may use pan focus or autofocus. The imaging unit 28 may or may not have a mechanical shutter.
  • the image sensor may be a CCD (Charge-Coupled Device) image sensor or a CMOS (Complementary Metal-Oxide-Semiconductor) image sensor.
  • the light to be detected by the image sensor (in other words, the wavelength range) may be visible light or non-visible light (for example, infrared light).
  • the image may be a binary image, a grayscale image or a color image.
  • the processing unit 29 has, for example, a configuration similar to that of a computer. Specifically, for example, the processing unit 29 includes a CPU (Central Processing Unit) 39, a ROM (Read Only Memory) 41, a RAM (Random Access Memory) 43, and an auxiliary storage device 45. The processing unit 29 is constructed by the CPU 39 executing programs stored in the ROM 41 and/or the auxiliary storage device 45. In addition to the portion constructed as described above, the processing section 29 may include a logic circuit configured to perform only certain operations.
  • a CPU Central Processing Unit
  • ROM Read Only Memory
  • RAM Random Access Memory
  • the processing unit 29 is constructed by the CPU 39 executing programs stored in the ROM 41 and/or the auxiliary storage device 45.
  • the processing section 29 may include a logic circuit configured to perform only certain operations.
  • the connector 37 is for connecting peripheral equipment to the image processing device 3, for example.
  • the connector 37 may be of various standards, for example, USB (Universal Serial Bus).
  • USB Universal Serial Bus
  • the imaging unit 28A according to another example is illustrated as a peripheral device connected to the connector 37, as described above.
  • peripheral devices connected to the connector 37 include a USB memory, a card reader, and the detection section 25 (in a different form from the example shown in FIG. 2).
  • bus 47 (FIG. 2).
  • all the components are schematically connected to one bus 47.
  • multiple buses may be connected in any suitable manner.
  • an address bus, a data bus and a control bus may be provided.
  • a crossbar switch and/or a link bus may be applied.
  • FIG 2 is just a schematic diagram. Therefore, for example, in reality, a plurality of various devices (for example, CPUs) may be distributed and provided.
  • the illustrated CPU 39 may be a concept including a CPU included in the printer 19 or the scanner 21.
  • An interface (not shown) may be interposed between the bus 47 and various devices (for example, the printer 19 or the scanner 21).
  • FIG. 2 has been described as showing the configuration of the image processing device 3.
  • FIG. 2 can be used as a block diagram showing the configuration of the servers 5 and 7 and the terminal 9 as appropriate.
  • the explanation of the components shown in FIG. 2 may also be applied to the components of the servers 5 and 7 and the terminal 9, as long as there is no contradiction.
  • the block diagram showing the configuration of the servers 5 and 7 and the terminal 9 may be obtained by omitting the printer 19 and scanner 21 from FIG. 2.
  • the block diagram showing the configuration of the servers 5 and 7 may be obtained by omitting the detection section 25, the imaging section 28, the operation section 33, and/or the display section 35 from FIG. 2.
  • the processing unit 29 is constructed, for example, by the CPU 39 executing a program. The same applies to servers 5 and 7 and terminal 9. A specific example of the processing unit 29 will be described below.
  • FIG. 3 is a block diagram showing the configuration of the processing section 29 of the image processing device 3.
  • an authentication section 29a In the processing section 29, an authentication section 29a, a monitoring section 29b, and a control section 29c are constructed.
  • the authentication unit 29a performs user authentication, for example.
  • FIG. 3 takes as an example a mode in which authentication is performed only by the image processing device 3 (server 5 and terminal 9 do not perform part or all of the authentication). Further, FIG. 3 takes as an example a mode in which authentication is performed using account information D1 and biometric information (more specifically, facial feature data D4).
  • the auxiliary storage device 45 of the image processing device 3 stores an authentication table DT1 used for authentication.
  • the authentication table DT1 holds account information D1 and facial feature data D4 in association with each other for each user.
  • the authentication unit 29a determines whether the combination of the account information D1 input from the operation unit 33 and the facial feature data D4 acquired from the image captured by the imaging unit 28 is registered in the authentication table DT1 as information for each user. Determine whether or not. If it is registered, authentication is successful; if it is not registered, authentication is failed.
  • the monitoring unit 29b monitors the situation of people around the image processing device 3 based on, for example, images captured by the imaging unit 28. For example, the monitoring unit 29b determines whether a user who is in an authenticated state is in a predetermined position based on the image processing device 3 (from another perspective, the image capturing unit 28) based on images repeatedly captured by the imaging unit 28 in the authenticated state. Determine whether it exists within the range.
  • the control unit 29c controls the authentication state, for example, based on the authentication result of the authentication unit 29a and the monitoring result of the monitoring unit 29b. For example, if the authentication result is positive (indicating that the authentication was successful), restrictions on a predetermined function related to image processing (for example, printing) are lifted (from another point of view, the image processing device 3 is authenticated). ). Further, for example, when the monitoring unit 29b determines that the authenticated user is no longer present, the authenticated status is canceled (from another point of view, a predetermined function is restricted).
  • the authentication table DT1 holds account information D1 and facial feature data D4 (biometric information) in association with each other for each user.
  • the image processing device 3 for example, a home-use device
  • the account information D1 and the facial feature data D4 are associated with each other "for each user.”
  • the authentication table DT1 may be able to store two or more pieces of biometric information in association with one piece of account information.
  • a mode in which one piece of biometric information is associated with one piece of account information may be taken as an example, unless otherwise specified.
  • the two or more pieces of biometric information may be different biometric information of one user, for example.
  • biometric information include fingerprints of different fingers or fingerprints of the same finger acquired at different times. In the former case, for example, when authentication with one finger fails due to injury, aging, etc., authentication can be performed with another finger. In the latter case, the probability that authentication will fail when biometric information changes due to aging or the like is reduced.
  • the two or more pieces of biometric information may be two or more types of biometric information.
  • biometric information examples include fingerprints and faces (facial feature data).
  • two or more pieces of biological information may be selected as appropriate. If two or more types of biometric information can be registered, for example, if authentication fails with one type of biometric information due to some reason other than fraud, it is possible to authenticate with other biometric information, as described above. This improves user convenience.
  • fingerprints from different fingers can also be considered as different types of biometric information.
  • the configuration of the detection unit 25 and the method of processing the detected raw information are the same. Therefore, in the description of the embodiment, fingerprints of different fingers are treated as the same type of biometric information.
  • different types of biological information differ in at least one of the configuration for detection and the method of processing the detected information, for example.
  • Two or more types of biological information may be used selectively, for example, as described above. In this aspect, it is not necessary that all the biometric information of two or more types of biometric information be registered. However, all and/or at least two types of two or more types of biometric information may be required to be registered. Furthermore, all and/or at least two types of two or more types of biometric information may be required to be input at the time of authentication. In this case, security is improved.
  • two or more pieces of biometric information associated with one account information may belong to different people. That is, a "user” is not limited to a “person” and may be a concept that includes an "account” (from another perspective, a user group). However, in the description of the embodiment, for convenience and without particular notice, a mode in which one piece of biometric information (facial feature data D4) is associated with one piece of account information D1 may be taken as an example.
  • the monitoring unit 29b may perform monitoring using, for example, facial feature data D4 detected from an image captured by the imaging unit 28 during the authentication state.
  • the detected facial feature data D4 may or may not be compared with the facial feature data D4 stored in the authentication table DT1.
  • An example of the latter mode is, for example, a mode in which facial feature data D4 of an image captured at a predetermined time (described later) is used instead of facial feature data D4 of the authentication table DT1.
  • the memory in which the facial feature data D4 at a predetermined period is stored may be, for example, a volatile memory (eg, RAM 43). However, the memory may be a nonvolatile memory (for example, the auxiliary storage device 45).
  • FIG. 4 is a flowchart showing an overview of the operation related to authentication in the image processing device 3 (from another perspective, the processing unit 29). Note that the various flowcharts, including FIG. 4, conceptually illustrate operational procedures for ease of understanding, and do not necessarily match the actual procedures, and may lack accuracy. Sometimes there are.
  • the process in FIG. 4 may be started, for example, when the image processing device 3 is powered on or when a transition from sleep mode to startup mode is made. Alternatively, the process in FIG. 4 may be initiated when the user attempts to perform a predetermined function (for example, printing) whose use is restricted. Note that in the description of the embodiments, the former may be taken as an example unless otherwise specified.
  • step ST1 the image processing device 3 determines whether account authentication has been successful. Then, the image processing device 3 proceeds to step ST2 when the determination is positive, and repeats step ST1 when the determination is negative (standby). Specifically, for example, the image processing device 3 displays on the display unit 35 an image prompting the user to input the account information D1. Then, when the account information D1 input via the operation unit 33 is registered in the authentication table DT1, an affirmative determination is made. If the account information D1 is not input, or if the input account information D1 is not registered in the authentication table DT1, a negative determination is made.
  • step ST2 the image processing device 3 performs imaging using the imaging unit 28.
  • step ST3 the image processing device 3 detects facial feature data D4 from the captured image.
  • step ST4 the image processing device 3 determines whether the detected facial feature data D4 matches the facial feature data D4 associated with the account information D1 in step ST1 in the authentication table DT1. Then, the image processing device 3 proceeds to step ST5 when the determination is positive, and proceeds to step ST9 when the determination is negative. Note that a negative determination here is made not only when the facial feature data D4 do not match, but also when the facial feature data D4 cannot be detected from the image captured in step ST2 (in other words, when the facial feature data D4 can be generated). (if no facial image is available).
  • step ST5 the image processing device 3 performs processing when authentication is completed (successful) (in an authentication state). That is, the image processing device 3 releases the restriction on a predetermined function (for example, printing). While the authentication state is maintained, the restrictions on the predetermined functions are maintained in a lifted state.
  • step ST9 the image processing device 3 performs processing when authentication fails. That is, the image processing device 3 maintains restrictions on predetermined functions.
  • step ST6 the image processing device 3 performs imaging using the imaging unit 28.
  • step ST7 the image processing device 3 determines whether there is a person other than the authenticated user based on the captured image. Then, the image processing device 3 proceeds to step ST8 when the determination is positive, and repeats steps ST6 and ST7 when the determination is negative.
  • the authentication state is maintained while steps ST6 and ST7 are repeated.
  • the repetition period at this time is arbitrary. For example, the period may be less than 1 second or more than 1 second.
  • step ST8 the authentication state is canceled.
  • the authenticated state is canceled.
  • the authentication state is canceled when the situation of the person, which is specified based on the image captured by the imaging unit 28 during the authentication state, satisfies a predetermined cancellation condition.
  • canceling the authentication state can be rephrased as returning to the non-authentication state. Since the cancellation of the authentication state is accompanied by the restoration of functional restrictions, the cancellation of the authentication state may be understood by the restoration of functional restrictions. From another perspective, the cancellation of the authentication state and the restoration of functional limitations may be understood by the same operation, and the two may not be clearly distinguishable.
  • cancellation of the authentication state includes terminating functions that require authentication (e.g., VPN connection described later) and/or invalidating information (e.g., authority information described later) acquired on the assumption of authentication (e.g., erasing from memory) May be accompanied by Therefore, the cancellation of the authentication state may be recognized by the termination of these operations and/or the invalidation of information.
  • a flag in a mode in which a flag is set to indicate that authentication has been successful, it may be recognized by an action of tossing down the flag. In this case, it is not necessary to terminate the operation based on the authentication and/or invalidate the information acquired based on the authentication.
  • the cancellation of the authentication state may be triggered by various events other than those based on monitoring by the imaging unit 28. Examples of such events include the following: The user has performed a predetermined operation on the operation unit 33. If the image processing device 3 requests authentication from the user when the user attempts to use a function that requires authentication (for example, a function to download and print predetermined image data), the processing related to the above function (" The completion of a task (sometimes referred to as a "task"). A predetermined time has elapsed since a predetermined time (for example, the time when the last operation on the operation unit 33 was performed).
  • only one type of function may require authentication, or two or more types may be required. Further, it may be possible to repeatedly execute one type of function or to execute two or more types of functions with one authentication. However, authentication may be requested each time a function is executed, authentication may be requested for each type of function, or authentication may be requested again when a function with a high security level is executed.
  • the biometric information (for example, facial feature data D4 obtained in step ST3) acquired during use (from another point of view, during authentication and/or when controlling the authentication state) is compared with registered biometric information ( For example, it may be deleted from the image processing device 3 immediately after step ST4) is performed.
  • the biometric information acquired during use may be stored in the image processing device 3 until an appropriate time thereafter (for example, when the authentication state is canceled) and used as appropriate.
  • the biometric information acquired during use may be used to update the registered biometric information.
  • the image processing device 3 may be the only entity that performs the comparison operation for authentication. Specifically, for example, as described with reference to FIG. 3, the image processing device 3 determines whether the authentication information input to itself (account information D1 and facial feature data D4 in the example of FIG. 3) is It is determined whether the information is registered in advance in the database (in the example of FIG. 3, the authentication table DT1).
  • the subject of the comparison operation for authentication may be another communication device (for example, the server 5, the terminal 9, or another image processing device 3).
  • authentication information input to the image processing device 3 is transmitted to another communication device.
  • the other communication device determines whether the received authentication information is registered in advance in the other communication device. When the other communication device makes a positive determination, it transmits the authentication result indicating successful authentication to the image processing device 3 of the transmission source, and when the determination is negative, the other communication device transmits the authentication result indicating authentication failure to the image processing device 3 of the transmission source. Send to.
  • the subject of the comparison operation for authentication may be both the image processing device 3 and another communication device (for example, the server 5, the terminal 9, or another image processing device 3).
  • the image processing device 3 determines whether the first authentication information (for example, biometric information) input to itself is registered in advance. Then, when the determination is positive, the image processing device 3 transmits the second authentication information (for example, account information) that is associated with the first authentication information in advance to another communication device, and when the determination is negative, the image processing device 3 does not make such transmissions.
  • the other communication device determines whether the received second authentication information is registered in advance in the other communication device.
  • the other communication device When the other communication device makes a positive determination, it transmits the authentication result indicating successful authentication to the image processing device 3 of the transmission source, and when the determination is negative, the other communication device transmits the authentication result indicating authentication failure to the image processing device 3 of the transmission source. Send to.
  • the entity that performs the comparison operation for authentication and the entity that basically holds the database may be separate.
  • the image processing device 3 may obtain part of the information in the database from another communication device (for example, the server 5, the terminal 9, or another image processing device 3) and perform the comparison, if necessary.
  • authentication information in other words, information used to show the validity of the user
  • account information D1 and biometric information have been cited as examples of authentication information.
  • Other examples include information obtained from static keys, common keys, private (or public) keys, digital certificates, and security tokens.
  • the authentication information may be the information itself that is sent to another communication device (for example, the server 5), or when generating the information that is sent to the other communication device. It may also be used for.
  • the former includes account information, static keys, electronic certificates, information obtained from security tokens, and biometric information.
  • the latter includes a common key and a private key (or public key).
  • the authentication information stored in the image processing device 3 and the authentication information stored in the server 5 may be the same information, or may be the same. It doesn't have to be information.
  • the authentication information stored in the image processing device 3 may be appropriately processed and sent to the server 5.
  • Challenge-response authentication may be performed as one type of such mode.
  • the manner in which the authentication information is input to the image processing device 3 may be various.
  • the authentication information may be input by operating the operation unit 33, detected by the detection unit 25 (or the imaging unit 28 or the scanner 21), or input by connecting a device to the connector 37.
  • the information may be input via communication with the image processing device 3, or may be detected by a card reader (not shown) included in the image processing device 3.
  • the authentication information input to the operation unit 33 includes, for example, account information and information obtained from a security token.
  • Authentication information input from a device for example, a USB memory
  • a card reader connected to the connector 37 includes, for example, a static key, a common key, a private key (or public key), and an electronic certificate.
  • Examples of the authentication information detected by the detection unit 25 (or the imaging unit 28 or the scanner 21) include biometric information.
  • the various types of authentication information described above can be input by short-range wireless communication from the terminal 9 located near the image processing device 3, for example.
  • the usage mode at this time may be an AND condition, an OR condition, or a combination of both.
  • authentication is successful for all of two or more pieces of authentication information (examples in FIGS. 3 and 4), and/or authentication is successful for all of two or more authentication methods. When this happens, authentication is considered successful.
  • the usage mode under the OR condition for example, authentication is successful with respect to at least one authentication information selected by the user from two or more authentication information, and/or at least one authentication method selected by the user from two or more authentication methods is successful. Authentication is considered to have been successful when the authentication is successful with respect to the authentication method.
  • the functions whose restrictions are lifted may differ depending on the type of authentication information and/or authentication method.
  • step ST7 in FIG. 4 the explanation has been made assuming that the cancellation condition for canceling the authentication state is satisfied simply when another person exists in the imaging range.
  • the authentication state may be maintained depending on a more specific situation. For example, as follows.
  • 5A to 6C show examples of images captured by the imaging unit 28.
  • the imaging unit 28 is imaging the area around the UI unit 23, and the UI unit 23 (from another perspective, a part of the image processing device 3) is also being imaged.
  • both users U1 and U2 are imaged.
  • the user U1 is closer to the UI unit 23 than the user U2.
  • the authentication state may be maintained.
  • the proximity of users U1 and U2 to the UI unit 23 is equivalent.
  • the authentication state may be canceled.
  • user U1 is farther from the UI section 23 than user U2. In this case, for example, the authentication state may be canceled.
  • the authentication state may be maintained if the user U1 is closest to the UI section 23, and the authentication state may be canceled in other cases.
  • the person closest to the UI section 23 can be regarded as the operator of the UI section 23. Therefore, the determination as to whether or not the user U1 is the closest may be interpreted as determining whether or not the operator is the user U1. Furthermore, changing the person closest to the UI section 23 may be considered as changing the operator.
  • the alternation here may include not only a mode in which two people are imaged at the same time and the change is performed, but also a mode in which each person is imaged at different times and the change is carried out.
  • the distance between the user U1 and the UI section 23 was compared with the distance between the user U1 and the UI section 23. That is, the distance between a person and the UI unit 23 was evaluated relatively among a plurality of people. However, the distance between the person and the UI unit 23 may be evaluated absolutely. For example, even if only the user U1 exists, if the distance between the user U1 and the UI unit 23 is a predetermined distance or more, the authentication state may be canceled. Conversely, even if only user U2 is present, the authentication state may be maintained if the distance to the UI unit 23 is a predetermined distance or more.
  • the person may be considered absent, which is different from the above-mentioned method. Furthermore, even if a person appears in the image, if the person is extremely small in the image or is clearly far enough away from the image processing device 3, the person will be considered absent. It's fine.
  • the distance between the person and the UI unit 23 may be specified by an appropriate method.
  • the distance in the depth direction of the image may be evaluated based on the size of the outline of the person.
  • the imaging unit 28 is imaging the outside of the image processing device 3 (in the direction away from the image processing device 3) from the vicinity of the UI unit 23, so the person who is relatively close to the imaging unit 28 is , it can be evaluated that it is relatively close to the UI section 23.
  • absolute distance evaluation can also be performed based on the size of a person's outline.
  • another sensor for example, an ultrasonic sensor
  • an ultrasonic sensor that measures the distance to the object may be used in combination to specify the distance in the depth direction.
  • the distance between the UI section 23 and the person on the image can be evaluated relatively or absolutely from the positional relationship between the two.
  • the distance (shortest distance) between the closest position of the person's outline to the UI unit 23 and the UI unit 23 may be specified, or the distance between the center of gravity of the person's outline and the UI unit 23, etc. Good too.
  • the distance between the person and a position closest to the person in the UI section 23 may be specified, or the position between a predetermined position in the UI section 23 and the person may be specified. Good too.
  • the distance in the depth direction of the image Only one or both of the evaluation of the distance in the depth direction of the image and the evaluation of the distance in the horizontal direction of the image may be performed. In the latter case, for example, the distance in the depth direction and the distance in the left and right directions may be weighted appropriately to perform a comprehensive evaluation, or the absolute distance in the depth direction and the distance in the left and right directions may be specified. , the distance in a two-dimensional plane may be evaluated by using the Pythagorean theorem.
  • the depth direction of the image is approximately the opposite direction to the direction in which the person operating the UI section 23 faces the UI section 23 (hereinafter referred to as the front direction).
  • the imaging direction of the imaging unit 28 is not limited to the front direction, and may be inclined with respect to the front direction in plan view, or may be perpendicular to the front direction.
  • the imaging direction of the imaging unit 28 is approximately horizontal.
  • the imaging direction may be inclined with respect to the horizontal direction or may be generally upward. In any case, it is possible to evaluate the distance as described above.
  • the UI section 23 (from another perspective, a part of the image processing device 3) is also imaged.
  • the UI section 23 does not necessarily need to be imaged. Even if the UI unit 23 is not imaged, if the positional relationship between the imaging range imaged by the imaging unit 28 and the UI unit 23 is input to the image processing device 3 in advance, the image processing device 3 can identify one or more people. The distance to the UI section 23 (from another perspective, the positional relationship between one or more people and the UI section 23) can be specified.
  • the image processing device 3 may use the positional relationship between the UI section 23 and the person on the image to identify the actual positional relationship between the two, or As in the case where the image is not captured, the actual positional relationship between the UI unit 23 and the person is determined based on the pre-stored positional relationship between the imaging range and the UI unit 23 and the position of the person within the imaging range. may be specified.
  • the distance between the person and the UI unit 23 may be evaluated using the person's whole body as a reference, or may be evaluated using a specific part of the person as a reference.
  • the authentication state may be controlled depending on the person whose face is close to the UI section 23.
  • Specific parts include, for example, the arm or hand in addition to the face.
  • the whole body of a person it is not necessarily necessary that the whole body of the person is imaged.
  • the position of the whole body may be estimated from the position of the upper body, or the position of the upper body may be regarded as the horizontal position of the whole body.
  • the words “user” and “person” may be used as “user's face”, “person's face”, etc., unless there is a contradiction. may be substituted with a term that refers to a specific site.
  • the words “user” and “person” may be replaced with the words “facial feature data” as long as there is no contradiction. For example, a sentence such as "No person exists” may be replaced with a sentence such as "Facial feature data" does not exist (not detected).
  • the distance of the person to the UI section 23 was evaluated.
  • the distance to the entire image processing device 3 or a portion of the image processing device 3 other than the UI section 23 may be evaluated.
  • Examples of parts other than the UI section 23 include the imaging section 28 and the detection section 25.
  • the term "UI unit 23" may be replaced with "image processing device 3" or the like as appropriate, as long as there is no contradiction.
  • the position of the person is evaluated based on the position where the operator who operates the UI unit 23 stands. May be evaluated. In this case, for example, in a mode in which the authentication state is controlled based on the position of a person's face, the vertical position of the face may be ignored.
  • the position where the operator stands may be, for example, a position in the front direction with respect to the center of the UI section 23. This position may be predefined by the manufacturer, administrator, or the like of the image processing device 3. In a more general concept, the position where the operator stands is a predetermined standing position. In the description regarding the situation of a person (position and/or distance from another perspective), the term "UI section 23" may be replaced with "the position where the operator stands", etc., as appropriate, as long as there is no contradiction.
  • the image processing device 3 determines whether the person in the image is the user U1. For example, each time the image processing device 3 specifies the positional relationship between the UI unit 23 and one or more people in the image, the image processing device 3 extracts facial feature data and determines whether the one or more people in the image are the user U1. You may specify whether or not.
  • the facial feature data of the user U1 in the authenticated state that is compared with the facial feature data of the person in the image is data that the image processing device 3 has stored in advance before authentication (for example, the data in the authentication table DT1).
  • the UI unit 23 (as described above) may be detected. (which may be replaced with other terms).
  • the image processing device 3 may detect a person who was imaged at approximately the same time as the time when the authentication was successful (if two or more facial feature data are detected, the image processing device 3 may use the UI unit 23 (as described above, other terminology) It is possible to determine whether or not a person is the user U1 by regarding a person close to the person (who may be replaced by ) as the user U1 in the authenticated state and tracing the outline of that person (and other people). good. In this case, when the outline of the user U1 disappears outside the imaging range, the image processing device 3 may give up on tracking the user U1 and cancel the authentication state, or if the outline of the user U1 disappears outside the imaging range.
  • Tracking may be restarted by determining whether the person's characteristics (for example, facial feature data) belong to the user U1 (the authentication state may be maintained). Further, for example, while basically identifying the positional relationship between the person and the UI section 23 by tracing the outline, matching using facial feature data may be performed at an appropriate time.
  • the person's characteristics for example, facial feature data
  • FIG. 7 is a flowchart showing an example of a procedure executed by the image processing device 3 (processing unit 29) to control the authentication state according to the specific situation of the person as described above. As can be understood from the fact that step ST6 shown at the top is common to step ST6 in FIG. 4, the process in FIG. 7 is started, for example, when authentication is successful.
  • step ST6 when the process returns to step ST6, the authentication state is maintained.
  • step ST8 the lowest step ST8 (same as step ST8 in FIG. 4) without returning to step ST6, the authentication state is canceled. Specifically, it is as follows.
  • step ST41 the image processing device 3 determines whether or not the authenticated user U1 is absent based on the image captured in step ST6. Then, the image processing device 3 proceeds to step ST42 when the determination is negative (see FIGS. 5A and 6A to 6C), and proceeds to step ST45 when the determination is affirmative (see FIG. 5B). Note that, unlike in FIG. 5B, the affirmative determination here includes a case in which no one is detected.
  • step ST42 the image processing device 3 determines whether there is a person other than the user U1 based on the image captured in step ST6. Then, the image processing device 3 proceeds to step ST43 when the determination is positive (see FIGS. 6A to 6C), and proceeds to step ST48 when the determination is negative (see FIG. 5A).
  • step ST43 it is determined whether the operator of the UI section 23 has been replaced. As described above, the determination as to whether or not they have been replaced is, from another perspective, a determination as to whether or not they are close to the UI section 23 (which may be replaced with another term as described above). Then, the image processing device 3 proceeds to step ST47 when the determination is positive (see FIGS. 6B and 6C), and proceeds to step ST48 when the determination is negative (see FIG. 6A).
  • step ST47 the image processing device 3 sets a cancellation flag to cancel the authentication state.
  • the authentication state is canceled by referring to this cancellation flag in a later step. Note that, unlike the illustrated example, the authentication state may be canceled in step ST47.
  • step ST41 If it is determined in step ST41 that the user U1 is absent and the process proceeds to step ST45, the authentication state may be canceled in step ST47 and thereafter. However, here, the authentication state is not canceled immediately when the user U1 is absent, but is canceled when the user U1 is absent for a predetermined period of time. This eliminates the inconvenience that, for example, the authentication state is canceled even when the user U1 leaves the image processing device 3 for a short period of time for some reason.
  • step ST45 the image processing device 3 determines whether the time counted by a predetermined timer has reached a predetermined time.
  • This timer is set to the initial state before step ST5 (FIG. 4), and is also reset to the initial state when a negative determination is made at step ST41. Further, the timer starts counting time when an affirmative determination is made in step ST41 when the timer is in the initial state, and continues counting when an affirmative determination is made in step ST41 when the timer is not in the initial state. Then, when the image processing device 3 makes a negative determination in step ST45, the process returns to step ST6 (step ST46 is ignored here), and when it makes an affirmative determination, the process proceeds to step ST47.
  • the predetermined time may be set by, for example, the manufacturer of the image processing device 3, the administrator of the image processing device 3, or an individual user.
  • step ST46 if another user U2 is detected while the image processing device 3 is waiting for the predetermined time to elapse as described above, the image processing device 3 performs authentication without waiting for the predetermined time to elapse. This is for the operation of proceeding to cancel the state (proceeding to step ST47). Specifically, when the image processing device 3 makes a negative determination in step ST45 (when the predetermined time has not elapsed), the image processing device 3 proceeds to step ST46. In step ST46, the image processing device 3 determines whether another user U1 exists in the image captured in step ST6. Then, when the image processing device 3 makes a positive determination (see FIG. 5B), the process proceeds to step ST47, and when it makes a negative determination, it returns to step ST6.
  • step ST48 the image processing device 3 determines whether execution of a task such as printing (processing that uses functions related to the image processing unit 31, etc.) has been requested. Then, the image processing device 3 proceeds to step ST49 when the determination is positive, and skips step ST49 and proceeds to step ST50 when the determination is negative. In step ST49, the image processing device 3 executes the requested task.
  • a task such as printing (processing that uses functions related to the image processing unit 31, etc.) has been requested. Then, the image processing device 3 proceeds to step ST49 when the determination is positive, and skips step ST49 and proceeds to step ST50 when the determination is negative.
  • step ST49 the image processing device 3 executes the requested task.
  • step ST50 the image processing device 3 determines whether the release flag is set.
  • the image processing device 3 returns to step ST6 when the determination is negative, and proceeds to step ST51 when the determination is affirmative.
  • step ST51 the image processing device 3 determines whether a task is being executed. The image processing device 3 stands by (repeats step ST51) when the determination is positive, and proceeds to step ST8 when the determination is negative.
  • step ST6 etc. are repeated.
  • the period at this time is arbitrary.
  • the period may be less than 1 second or more than 1 second.
  • the determination of whether a person exists may be replaced with the determination of whether facial feature data has been detected. Therefore, for example, the determination in step ST41 may be a determination as to whether or not the facial feature data of the user U1 could be detected, and/or the determination in step ST42 and/or ST46 may be a determination that there is a person different from the user U1. The determination as to whether or not facial feature data different from the facial feature data of user U1 has been detected may be determined.
  • step ST41 the specific method for determining the presence or absence of the user U1 is arbitrary. For example, as described above, it may be determined whether facial feature data of user U1 exists. Further, for example, it may be determined whether the outline of the person being tracked as the user U1 exists. Furthermore, for example, contour tracking and facial feature data detection may be used together. Specifically, basically, contour tracking is performed, and when the contour of the person being tracked as user U1 no longer exists and step ST46 is passed, it is determined whether facial feature data of user U1 exists or not. If the user U1's facial feature data is detected again, the contour tracking may be returned to.
  • step ST42 the specific method for determining the presence or absence of a person other than the user U1 is arbitrary. For example, as described above, it may be determined whether facial feature data different from user U1's facial feature data exists. Further, for example, it may be determined whether there is a contour of a person other than the person being tracked as the contour of the user U1. Also, for example, it may be determined whether a plurality of people (their outlines and/or facial feature data) have been detected. This is because the existence of a plurality of people means that there are other people than the user U1.
  • step ST42 has been taken as an example, the above description may be applied to step ST46.
  • steps ST41, ST42, and ST43 are shown as separate steps for easy understanding, but these two or more may be inseparable processes. Similarly, steps ST41 and ST46 may be inseparable processes. Steps ST42 and ST46 may be one process.
  • steps ST45 and ST46 may be omitted and the release flag may be set immediately when the user U1 is absent.
  • the authentication state is canceled when the operator replaces the user U1 in the authentication state with a different user.
  • This cancellation of the authentication state may be temporary.
  • the authentication state may be restored. Specifically, it is as follows.
  • FIGS. 8 and 9 are flowcharts showing an example of a procedure of processing executed by the image processing device 3 (processing unit 29).
  • the process in FIG. 8 is started when user authentication is completed (after step ST5 in FIG. 4).
  • the process in FIG. 9 is executed when an affirmative determination is made in step ST87 in FIG. 8, as indicated by the common "B" in FIGS. 8 and 9.
  • Steps ST81 and ST82 assume a mode in which the authentication state is started without face authentication. Therefore, the image processing device 3 does not have the facial feature data D4 of the user U1 before the processing in FIG. 8 is started. However, steps ST81 and ST82 are also applicable to a mode in which the authentication state is started without face authentication.
  • step ST81 the image processing device 3 uses the imaging unit 28 to image the imaging range.
  • Step ST81 is performed immediately after the authentication information is input to the image processing device 3 and the authentication is successful (from another point of view, approximately at the same time as the authentication state starts), so basically, the authentication state is User U1 is imaged.
  • step ST82 the image processing device 3 extracts facial feature data D4 from the image captured in step ST81, and stores it in the memory (for example, RAM 43).
  • step ST83 the image processing device 3 uses the imaging unit 28 to image the imaging range.
  • step ST84 the image processing device 3 determines whether the facial feature data D4 obtained from the image captured in step ST83 matches the facial feature data D4 of the user U1 saved in step ST82. Then, the image processing device 3 proceeds to step ST85 when the determination is negative (see FIG. 5B), and proceeds to step ST87 when the determination is affirmative (see FIGS. 5A and 6A to 6C).
  • steps ST81 and ST82 may be omitted.
  • step ST84 the facial feature data D4 captured in step ST83 and the above-mentioned pre-stored facial feature data D4 may be compared. The same applies to steps ST91 and ST92, which will be described later.
  • Step ST85 is a step with a similar role to step ST45 in FIG. That is, instead of canceling authentication immediately when the user's facial feature data D4 that has been in the authenticated state can no longer be detected, the authentication is canceled when the user's facial feature data D4 is not detected for a predetermined period of time. The state is canceled (step ST86).
  • step ST85 the explanation of step ST45 may be used, but it will be explained just to be sure.
  • the image processing device 3 determines whether the time counted by a predetermined timer has reached a predetermined time. This timer is in the initial state before step ST82, and is reset to the initial state when an affirmative determination is made in step ST84. Further, the timer starts counting when a negative determination is made in step ST84 when the timer is in the initial state, and continues counting when a negative determination is made in step ST84 when it is not in the initial state. Then, the image processing device 3 returns to step ST83 when a negative determination is made in step ST85, and proceeds to step ST86 when an affirmative determination is made.
  • the predetermined time may be set by, for example, the manufacturer of the image processing device 3, the administrator of the image processing device 3, or an individual user.
  • step ST87 the image processing device 3 determines whether a predetermined process (for example, a process related to at least one of the image processing unit 31 and the communication unit 27) has been instructed by a user other than the user U1 who is in the authenticated state. Determine whether In other words, it is determined whether interrupt processing (interrupt operation) has been performed. Whether or not it is an instruction (operation) by the user U1 may be determined from the situation (positional relationship) of the person, as described with reference to FIGS. 5A to 7.
  • a predetermined process for example, a process related to at least one of the image processing unit 31 and the communication unit 27
  • step ST87 When the determination result in step ST87 is negative (when it is determined that no interruption has been made), the image processing device 3 returns to step ST83. This maintains the authentication state. Moreover, when the image processing device 3 makes an affirmative determination, the process proceeds to step ST88.
  • step ST88 the image processing device 3 cancels the authentication state.
  • the cancellation here is not a complete cancellation, but a temporary one that allows the user to return to the authenticated state later without undergoing authentication.
  • three types of flags indicating authentication status may be prepared: authentication status, cancellation of authentication status, and temporary cancellation of authentication status, and a flag corresponding to temporary cancellation of authentication status may be set.
  • the image processing device 3 may limit the functions in the same way as when the flag for canceling the authentication state is set.
  • information necessary for restoring the authentication state may be stored as appropriate. For example, the facial feature data D4 acquired in step ST82 may remain saved.
  • the information that identifies the user who was in the authenticated state and/or the restrictions are lifted for the user who was in the authenticated state.
  • Information identifying the functions used may remain saved.
  • step ST89 the image processing device 3 executes the interrupt process that caused the affirmative determination in step ST87.
  • step ST90 the image processing device 3 determines whether or not the interrupt processing has ended. Then, the image processing device 3 continues the interrupt processing when the determination is negative, and proceeds to step ST91 when the determination is affirmative.
  • steps ST91 and ST92 processing similar to steps ST83 and ST84 is performed.
  • the image processing device 3 restores the authentication state (step ST93).
  • the image processing device 3 may set the above-mentioned flag to the authentication state and release the restriction on the predetermined function as before step ST88.
  • the image processing device 3 then returns to step ST83 (or ST87) again.
  • the image processing device 3 completely cancels the authentication state (step ST94).
  • step ST94 may be the same process as step ST86 in FIG. 8 (it may be interpreted as proceeding to step ST86 after a negative determination in step ST92).
  • the image processing device 3 then returns to the step before authentication (see step ST1 in FIG. 4).
  • step ST83 The process returns to step ST83 via step ST93, and when an affirmative determination is made in step ST84, if the other user is already in a state where the other user is not regarded as an operator, a negative determination is made in step ST87, and the authentication status is is maintained. Furthermore, when the other user is still considered to be the operator (for example, when the other user is performing the next interrupt process), an affirmative determination is made again in step ST87 and the authentication state is changed. It will be canceled.
  • the facial feature data D4 may not be used.
  • the presence or absence of the user U1 or the presence or absence of other users may be determined by tracking the contour of a person or by using facial feature data and contour tracking together. It may be done.
  • the imaged person (more specifically, the facial feature data D4 in the illustrated example) is unconditionally regarded as the user U1 who is in the authenticated state.
  • a person in a predetermined positional relationship with respect to the image processing device 3 may be specified (the above description regarding identification of the operator may be used), and this person may be specified as the user U1.
  • the contour of the user U1 may be tracked and/or the facial feature data D4 of the user U1 may be saved in step ST82.
  • step ST85 may be omitted and the authentication may be canceled without waiting for the predetermined time to elapse.
  • a step similar to step ST46 in FIG. 7 may be inserted to cancel the authentication state without waiting for a predetermined time when another person is detected.
  • the authentication state is uniformly controlled based on monitoring by the imaging unit 28.
  • the control may be performed when authentication is performed and specific conditions are met.
  • the authentication state may be controlled based on monitoring by the imaging unit 28 only when a relatively high security level is required. Thereby, the security level can be effectively increased while reducing the burden on the image processing device 3.
  • FIG. 10 is a flowchart illustrating an example of a processing procedure executed by the image processing device 3 in order to realize the above-described aspect.
  • step ST61 The process in FIG. 10 (step ST61) is started, for example, when authentication is completed, as can be understood from step ST5, which is common to FIG. 4. However, it may be started after the authentication starts and before the authentication is completed.
  • step ST61 the image processing device 3 determines whether a certain condition is satisfied. In FIG. 10, whether the security level is high or not (whether or not it is a predetermined level or higher) is illustrated. Then, the image processing device 3 proceeds to step ST62 when the determination is positive, and proceeds to step ST63 when the determination is negative.
  • step ST62 monitoring is performed by the imaging unit 28. For example, steps ST6 to ST8 in FIG. 4 are performed. On the other hand, in step ST62, monitoring by the imaging unit 28 is not performed. In this case, the authentication state may be canceled using another event as a trigger. Examples of other events have already been mentioned.
  • the level of security can be explained as follows. When the security level is low, restrictions on the first number of functions are lifted. When the security level is high, restrictions on a second number of functions that include the first number of functions and are greater than the first number are lifted. In addition, from another perspective, when the security level is low, only the second function of the first function and the second function is unrestricted, and when the security level is high, the restriction on the first function and the second function is lifted. Restrictions on both functions will be lifted. Specific examples of the first function and the second function will be described in Section 5.1.
  • the imaging unit 28 monitors may be determined depending on differences in authentication information, differences in authentication methods, and/or differences in users. These differences may or may not be related to security levels. For example, depending on the difference in the above-mentioned matters, the functions for which restrictions are lifted differ, and thus the above-mentioned matters may be related to the security level.
  • the image processing device 3 may determine the security level based on appropriate information. Of course, the security level may be determined based on information about the function itself whose restrictions are lifted.
  • Removal of functional restrictions based on the authentication result may be performed in various ways. An example is shown below.
  • the function whose restriction is controlled to be lifted based on the authentication result may be, for example, a function related to at least one of the image processing section 31 (printer 19 and/or scanner 21) and the communication section 27.
  • Examples of restricted functions include the following: One or more of the following functions may be appropriately selected and set as a restriction target. Note that the plurality of functions listed below may overlap with each other or may be inseparable from one another.
  • printing by the printer 19 can be cited as a function to be restricted.
  • Printing may be restricted for each subdivided function.
  • printing may be based on scanning by the scanner 21, printing based on data received by the communication unit 27, or storing data in the image processing device 3 (auxiliary storage device 45) or a device connected to the connector 37 (for example, non-volatile memory). It may be subdivided into printing based on the data that has been created.
  • the printing restrictions based on the data received by the communication unit 27 may be further subdivided according to the transmission source communication device (for example, another image processing device 3, the server 5 or 7, or the terminal 9). Note that such printing restrictions may be substantially implemented by restricting communication destinations. Furthermore, the printing restrictions based on the data received by the communication unit 27 may be further subdivided according to the mode of communication (normal data communication, email reception, or FAX reception).
  • the transmission source communication device for example, another image processing device 3, the server 5 or 7, or the terminal 9. Note that such printing restrictions may be substantially implemented by restricting communication destinations.
  • the printing restrictions based on the data received by the communication unit 27 may be further subdivided according to the mode of communication (normal data communication, email reception, or FAX reception).
  • the printing restrictions based on the data stored in the image processing device 3 may be further subdivided according to the type of box (folder or directory in another expression) in which the data is stored. Note that such printing restrictions may be substantially implemented by restricting access to a box in which highly confidential files (document files and/or image files) are expected to be stored.
  • the printing restrictions based on the data stored in the memory connected to the connector 37 may be further subdivided depending on the type or individual of the connected device. Note that such printing restrictions may be substantially realized by restricting the devices that can be connected to the connector 37 (so-called device control).
  • scanning by the scanner 21 is an example of a function that is subject to restriction. Similar to printing, scanning may be limited by granular features. For example, scanning is for copying (printing), for transmitting data (for example, image data), and for scanning data to the image processing device 3 (auxiliary storage device 45) or a device connected to the connector 37. may be subdivided into those for preservation and those for preservation.
  • Scanning for data transmission may be further subdivided depending on the destination communication device (for example, another image processing device 3, server 5 or 7, or terminal 9). Note that such scanning restrictions may be substantially implemented by restricting destinations. Furthermore, scanning for data transmission may be further subdivided depending on the mode of communication (normal data communication, email transmission, or FAX transmission).
  • the mode of communication normal data communication, email transmission, or FAX transmission.
  • Scans for storage in the image processing device 3 may be further subdivided according to the type of storage destination box. Note that such scanning restrictions may be substantially implemented by restricting access to a box in which highly confidential files are expected to be stored.
  • Scans for storage in the device connected to the connector 37 may be further subdivided depending on the type or individual of the connected device. Note that such scanning limitations may be substantially implemented by limiting the devices that can be connected to the connector 37.
  • the function to be restricted does not have to be a major function such as printing or scanning.
  • the restricted function may be a function that performs settings related to major functions, such as setting the size of the margins of printed paper.
  • such a function may be regarded as a function of printing with arbitrary margin settings, and may even be regarded as a type of main function.
  • the function to be restricted may be a function used by the administrator of the image processing device 3.
  • the image processing device 3 may be set to uniformly (regardless of the user's authentication results) prohibit some of the above-mentioned main functions or to prohibit connection of a predetermined device to the image processing device 3. may be accepted. Then, such setting restrictions may be canceled for a specific user (the administrator of the image processing device 3).
  • the image processing device 3 has various functions.
  • the functions to be restricted may be all or some of the various functions excluding the authentication function. From another point of view, a user who fails authentication via biometric authentication may be substantially prevented from using the image processing device 3, or may be able to use some functions.
  • monitoring by the imaging unit 28 may be performed only when the security level is high. From another perspective, monitoring by the imaging unit 28 may be performed only when restrictions on a specific function among various functions are lifted. The type of the specific function at this time is arbitrary.
  • the functions whose restrictions are lifted in an authentication state where monitoring is performed by the imaging unit 28, but whose restrictions are not released in an authentication state where monitoring is not performed may be, for example, any one or more of the following.
  • Transmission of image data read by the scanner 21 to the outside for example, the server 7, the terminal 9, or another image processing device 3; the same applies hereinafter).
  • Transmission of data stored in a device for example, non-volatile memory
  • functions for which restrictions may be lifted even in an authenticated state where no monitoring is performed may be, for example, one or more of the following. Copying (a function of printing an image of a document read by the scanner 21 using the printer 19). Printing by printer 19 based on external data. Access to boxes that are not configured to store sensitive files.
  • the manner in which functional restrictions are lifted when authentication is successful may be common to all users, or may be set individually for each user. To put the former in another perspective, there may be only two types of users: users for whom functional restrictions are not lifted without authentication and users for whom functional restrictions are lifted after authentication. There may be no difference in the functions that can be used between the users whose functions are lifted.
  • the release of restrictions on functions when authentication is successful can be set individually for each user. Assume that a user who is not authenticated cannot use both the first function and the second function. At this time, the authenticated users include users who can use only the first function, users who can use only the second function, users who can use both the first function and the second function, and users who have been authenticated. However, there may be two or more types of users whose functions are restricted in the same way as users who are not authenticated.
  • restriction release operation may be realized in various more specific ways. An example is shown below.
  • FIG. 11 is a block diagram showing an example of the configuration of a signal processing system of the communication system 1 that realizes the above operation.
  • a mode is illustrated in which the image processing device 3 does not perform the authentication, but the server 5 performs the authentication.
  • the following description can also be applied to a mode in which the image processing device 3 performs authentication.
  • the authentication requesting unit 29d of the image processing device 3 transmits authentication information D2 (for example, account information D1) to the server 5.
  • the server 5 has an authentication table DT2 that stores authentication information D2. Then, the authentication unit 5a of the server 5 determines whether or not the received authentication information D2 is registered in the authentication table DT2. If it is not registered, the authentication result D3 indicating authentication failure is transmitted to the image processing device 3 as the transmission source.
  • the server 5 can, for example, identify the ID included in the authentication information D2 (account information D1) and is associated with the authentication information D2 (not the account information D1) in the authentication table DT2. ID can be specified. Additionally, the server 5 has an authority table DT3 that links IDs and authority information D5. Then, the server 5 refers to the authority table DT3 and extracts the authority information D5 linked to the specified ID. Then, the server 5 transmits the extracted authority information D5 to the image processing device 3. The processing unit 29 of the image processing device 3 cancels the restriction on the function based on the received authority information D5.
  • the transmission of the authority information D5 is based on the premise that the received authentication information D2 is registered in the authentication table DT2 (that the authentication was successful), the transmission of the authority information D5 is based on the authentication result D3. May be treated or interpreted as a transmission.
  • the authority information D5 may be stored in the authority table DT3 in association with the ID by the administrator of the server 5, for example, before the above operation is executed (before the processing in FIG. 4).
  • the content of the authority information D5 may differ depending on the type of authentication information and/or authentication method. Accordingly, as described above, the security level may differ depending on the authentication information and/or the authentication method. Furthermore, since the image processing device 3 can specify the type of authentication information and/or authentication method, unlike the above, the same authority information D5 can be used regardless of the type of authentication information and/or authentication method. Among the functions that have been transmitted and whose restrictions have been canceled in the authority information D5 in the image processing device 3, restrictions may not be canceled for a specific function.
  • the authentication table DT2 and the authority table DT3 may be integrated.
  • the same applies to other tables for example, a user information table DT5, which will be described later, and a menu table DT7, which will be described later with reference to FIG. 13
  • the illustrated table may be divided as appropriate.
  • IDs and information on restrictions for each function are directly linked.
  • the server 5 has a table that associates an ID with one of a predetermined number of authority levels, and a table that associates each of the predetermined number of authority levels with information on restrictions for each authority. may be stored in
  • part of the operations of the server 5 described above may be executed by the image processing device 3 (processing unit 29).
  • the image processing device 3 may have the authority table DT3.
  • the processing unit 29 refers to the authority table DT3 that it owns, and searches for information that corresponds to the input ID (or the input authentication information such as biometric information).
  • the authority information D5 linked to the ID attached and stored in the image processing device 3 may be extracted to remove the restriction on the function.
  • the image processing device 3 may have both of the two divided tables, or may have only the latter table.
  • the server 5 uses the authority level information as the authority information D5 and transmits the information to the image processing device 3, unlike the illustrated example. Send to. Then, the image processing device 3 may refer to its own table, extract information on the presence or absence of restrictions for each function linked to the received authority level, and release the restrictions on the functions. .
  • the image processing device 3 (processing unit 29) that has received or extracted the authority information may display the authority information on the display unit 35.
  • authority information is shown on the screen 35a of the display unit 35.
  • the image processing device 3 may display the user information on the screen 35a along with the authority information.
  • the user information includes, for example, a user name. Further, the user information may include other information such as the user's affiliation.
  • the server 5 has a user information table DT5 that links IDs and user names.
  • the user name is stored in the user information table DT5 in association with the ID by the user and/or by the administrator of the server 5 before the operation shown in FIG. 11 is executed (before the process in FIG. 4). May be (registered).
  • the server 5 extracts the user name corresponding to the ID specified by the authentication unit 5a from the user information table DT5, and sends it to the image processing device 3, in the same way as the extraction and transmission of authority information from the authority table DT3 described above. Send.
  • the image processing device 3 displays the received user name on the screen 35a.
  • the user information table DT5 may be held by the image processing device 3.
  • the image processing device 3 refers to the user information table DT5 that it owns, and identifies the input ID (authentication information such as the input biometric information).
  • the user information associated with the associated ID stored in the image processing device 3 may be extracted and displayed on the display unit 35.
  • the user information table DT5 may be integrated with the authentication table DT2 and/or the authority table DT3.
  • the user name is defined separately from the ID, but the ID may be used as the user name and displayed on the screen 35a.
  • FIG. 12 is a diagram illustrating an example of a procedure of processing executed by the image processing device 3 (processing unit 29) to limit and release the function.
  • the process in FIG. 12 may be started as appropriate.
  • a mode that is started when the image processing apparatus 3 enters the startup mode by operating the power switch of the image processing apparatus 3 will be described as an example.
  • the authentication described with reference to FIG. 4 may be executed in parallel to the process of FIG. 12 at an appropriate time while the process of FIG. 12 is being executed.
  • step ST21 the image processing device 3 determines whether execution of a task such as printing is requested by an operation on the operation unit 33 or communication via the communication unit 27. Then, the image processing device 3 stands by when the determination is negative (from another perspective, step ST21 is repeated at a predetermined period). Further, when the determination is affirmative, the image processing device 3 proceeds to step ST22. Note that, for convenience of explanation, the tasks referred to here are limited to those whose execution is restricted and whose execution is lifted.
  • step ST22 the image processing device 3 determines whether the user has the authority to execute the requested task. Then, when the image processing device 3 makes an affirmative determination, the process proceeds to step ST23, and when it makes a negative judgment, the image processing device 3 proceeds to step ST24.
  • the authority information is not specified at the time of step ST22, or if the authority information is invalidated due to cancellation of authentication, it may be determined that there is no authority.
  • Examples of cases where authority information is not specified include cases where authentication processing has not been performed and cases where authentication has failed.
  • step ST23 the image processing device 3 controls the printer 19 and/or scanner 21 to execute the requested task (for example, printing). Note that steps ST21 and ST23 are the same as steps ST48 and ST49 in FIG. 7.
  • the image processing device 3 notifies the user that execution (function) of the requested task is restricted.
  • This notification may be made visually or acoustically, for example.
  • the visual notification may be one that displays a predetermined image and/or text, or may be one that sets a predetermined indicator light in a predetermined state (on state, blinking state, or off state). However, a combination of these may also be used.
  • the acoustic notification may be one that outputs a predetermined voice and/or warning sound (buzzer sound or melody). The same may apply to notifications in other steps.
  • step ST25 the image processing device 3 determines whether a predetermined termination condition is satisfied. Then, in the case of a negative determination, the image processing device 3 returns to step ST21, and in the case of an affirmative determination, it ends the process shown in FIG. 12.
  • the termination condition may be, for example, the same as the condition for terminating the startup of the image processing device 3 or the condition for transitioning to standby mode.
  • steps ST21 and ST22 the processing unit 29 determines whether or not the requested task is one whose execution is to be restricted and released, and when the determination is affirmative, the process proceeds to step ST22. , if the determination is negative, the process may proceed to step ST23.
  • the image processing device 3 determines whether or not authority information that is valid at that time (the authentication state has not been canceled) is specified between step ST21 and step ST22, and when the determination is affirmative, The process may proceed to step ST22, and if the determination is negative, notification may be made. In this notification, the image processing device 3 may display on the display unit 35 a message requesting the user for authentication. After that, the image processing device 3 may proceed to step ST25, or may wait until the authentication information is input. In the latter case, the image processing device 3 may perform authentication (the process in FIG. 4) and specify the authority information when the authentication information is input, and then proceed to step ST22. However, if the authentication information is not input even after a predetermined period of time has elapsed, or if a predetermined cancel operation is performed, the image processing device 3 may proceed to step ST25.
  • the process in FIG. 12 may be started on the condition that authentication and authorization information have been specified.
  • the termination condition of step ST25 may be that the authentication state has been canceled and the authority information has become invalid.
  • a display requesting the user to authenticate may be displayed on the display unit 35.
  • step ST22 the operation of specifying the authority information of the authenticated user described with reference to FIG. 11 is, from another perspective, an operation of storing the received or extracted authority information so that it can be referenced in step ST22.
  • This operation may be considered as an example of an operation for canceling the restriction on a function when the stored authority information includes information indicating that the user has authority for at least one function.
  • the affirmative determination in step ST22 and the task instruction in step ST23 may also be taken as an example of the operation of canceling the restriction on the function.
  • settings for the menu screen displayed on the display unit 35 may also be performed. This setting may be performed for each user. Specifically, it is as follows.
  • the menu screen is, for example, a screen (image) that includes one or more options in a GUI (Graphical User Interface).
  • GUI Graphic User Interface
  • a process corresponding to the option is executed.
  • the operation unit 33 and the display unit 35 are configured by touch panels, when one or more options displayed on the display unit 35 is pressed with a finger or a touch pen, the corresponding process is executed. Ru.
  • the processes corresponding to the options shown on the menu screen of the image processing device 3 may be various processes.
  • the options may be processes that cause operations related to major functions such as printing, scanning, copying, FAX transmission, and FAX reception (although these are not necessarily separable concepts).
  • the option may be a process for making settings related to the above operation. Such settings include, for example, paper size selection, print magnification settings, and print darkness.
  • the main functions may be subdivided as appropriate and authorities may be set, but this explanation of subdivision may be used for subdivision of options as appropriate.
  • the menu screen for each user may, for example, reflect the preferences of each user and/or the authority of each user.
  • the former includes, for example, adjusting the position, size, color, shape, etc. of a specific option within the screen 35a to suit the user's preference.
  • Examples of the latter include, for example, a screen in which options for a given function are displayed in different ways depending on whether the user has authority for that function. More specifically, examples include a screen in which options have different colors depending on the presence or absence of authority, and a screen in which only options for which the user has authority are displayed (options for which he does not have authority are not displayed).
  • controlling the display of the menu screen in this case may be regarded as an example of controlling the release of functional restrictions.
  • the menu screen settings for each user based on the authentication results may be, for example, only two types of settings: a menu screen for users who have been successfully authenticated, and a menu screen for other users. Furthermore, for example, it may be possible to set different menu screens to different users who have successfully authenticated. The menu screen may not be displayed to users whose authentication is not successful.
  • the image processing device 3 may be capable of displaying a main menu screen that is initially displayed and one or more submenu screens that are displayed by selecting an option on the main menu screen.
  • the menu screen set for each user may be the main menu screen, at least one of one or more submenu screens, or both of the above two types. There may be. Further, depending on the menu screen settings for each user, whether or not a submenu screen can be displayed may be set, or the number of submenu screens that can be displayed among a plurality of submenu screens may be set.
  • menu screen settings described above may be realized in various more specific ways. An example is shown below.
  • FIG. 13 is a block diagram showing the configuration of the signal processing system of the communication system 1 that implements the above settings.
  • the server 5 performs authentication. Therefore, although not shown in FIG. 13, the server 5 includes an authentication table DT2 and an authentication section 5a. Further, similar to the example in FIG. 11, the following description is applicable to the manner in which the image processing device 3 performs authentication.
  • the server 5 has, for example, a menu table DT7.
  • the menu table DT7 stores the ID and menu information D7 that specifies the mode of the menu screen (in other words, the settings of the menu screen) in association with each other.
  • the server 5 refers to the menu table DT7 and links the ID included in the authentication information D2 received from the image processing device 3 (or the ID stored in association with the authentication information D2 in the server 5).
  • the menu information D7 that is displayed is extracted. Then, the server 5 transmits the extracted menu information D7 to the image processing device 3.
  • the image processing device 3 displays a menu screen based on the received menu information D7 on the screen 35a of the display unit 35.
  • the transmission of the menu information D7 is based on the premise that, for example, the received authentication information D2 is registered in the authentication table DT2 (FIG. 11) (that the authentication is successful). Therefore, the transmission of the menu information D7 may be handled or interpreted as the transmission of the authentication result D3.
  • the menu information D7 may be stored in the menu table DT7 in association with the ID, for example, before the above operation is executed (before the processing in FIG. 4).
  • the menu information D7 may be set by the user and/or the administrator of the server 5. For example, if the user's preferences are reflected in at least part of the menu screen settings for each user, the part may be set by the user. Furthermore, if the presence or absence of authority is reflected in at least part of the menu screen settings for each user, the part may be set by the administrator of the server 5. Note that the settings by the user may be based on user authentication to prevent unauthorized settings from being made by a third party.
  • the contents of the menu information D7 may differ depending on the type of authentication information and/or authentication method. Thereby, the security level may be set substantially depending on the type of authentication information and/or authentication method.
  • the server 5 changes the menu according to the authentication information and/or the type of authentication method.
  • the content of the information D7 may be modified as necessary, and the modified menu information D7 may be transmitted.
  • the same menu information D7 is transmitted regardless of the type of authentication method, and the image processing device 3 imposes restrictions on the menu information D7 depending on the authentication information and/or the type of authentication method. Among the functions that have been canceled, restrictions may not be lifted for specific ones.
  • the menu table DT7 may be integrated with at least one of the other tables. Contrary to the above, menu table DT7 may be divided as appropriate.
  • the menu table DT7 shown in FIG. 13 conceptually shows a mode in which an ID and information set for each of a plurality of setting items regarding the menu screen are directly linked.
  • a table obtained by dividing the menu table DT7 may be used. For example, a table in which an ID is associated with one of a predetermined number of menu screen types, information set for each of a predetermined number of menu screen types, and each of a plurality of setting items related to the menu screen. may be stored in the server 5.
  • the menu table DT7 may be held by the image processing device 3.
  • the image processing device 3 refers to the menu table DT7 that it owns, and selects the ID input by the user or the ID sent from the server 5.
  • the linked menu information D7 may be extracted and the extracted menu information D7 may be displayed on the display unit 35.
  • the image processing device 3 may have both of the two divided tables, or may have only the latter table.
  • the server 5 stores the information on the menu screen type as the menu information D7 in the image, unlike the illustrated example. It is transmitted to the processing device 3. Then, the image processing device 3 refers to its own table, extracts information for each setting item linked to the received menu information D7, and displays a menu screen based on the extracted information. It's fine.
  • the menu information D7 is not transmitted from the server 5 to the image processing device 3.
  • the image processing device 3 may have, for example, a table linking the authority information D5 and the menu information D7, and refer to the table to set the menu screen according to the authority information D5.
  • the authority information D5 may not be transmitted and only the menu information D7 may be transmitted.
  • the menu information D7 in this case can be regarded as a type of authority information.
  • the function whose restrictions are lifted based on the authentication result may be a VPN connection. Specifically, it is as follows.
  • a VPN for example, virtually extends a private network to the public network 11.
  • a VPN logically divides a physically single network including the public network 11. Thereby, for example, communication via the public network 11 is performed in a secure environment.
  • Such virtual expansion or logical division is achieved, for example, by authentication, tunneling, and encryption.
  • communication using a VPN may be performed through authentication and tunneling without being encrypted.
  • tunneling can also be considered a type of encryption.
  • Authentication methods include, for example, those that use account information (ID and password), those that use static keys, those that use a common key (shared key), those that use a combination of a private key and public key, and those that use electronic signatures. Examples include those that use electronic certificates, those that use security tokens, and those that combine two or more of the above (for example, multi-factor authentication).
  • the server 5 is responsible for at least part of the authentication for canceling the functional restrictions in the image processing device 3
  • the authentication for canceling the functional restrictions and the authentication for VPN connection are at least partially mutual. may be shared.
  • Tunneling an operation is performed to treat two points that are physically or logically separated via a network as if they were the same point.
  • Tunneling is achieved, for example, by encapsulation.
  • encapsulation for example, an entire packet is embedded in a payload of another protocol, a payload of another layer, or a payload of the same layer during communication.
  • Tunneling may be performed at any appropriate layer, for example at layer 3 (network layer) or layer 2 (data link layer).
  • Encryption converts information sent and received into a format that cannot be read by third parties. Encryption may be performed only on the payload, or on both the header and the payload. In another aspect, encryption may be performed at any appropriate layer, eg, at the network layer, transport layer, and/or session layer. An appropriate encryption method may be used. For example, encryption methods include those that use a common key and those that use a combination of a private key and a public key.
  • the type of VPN may be selected as appropriate.
  • the VPN of the communication system 1 may be a remote access type VPN and/or a LAN type (intersite) VPN.
  • a remote access type VPN for example, VPN client software is installed on a communication device such as the image processing device 3, and the communication device directly establishes a VPN connection to the server 5 as a VPN server.
  • a LAN type VPN for example, a VPN gateway connects LANs (bases) to each other via VPN.
  • the operation of the image processing device 3 that functions as a client of a remote access VPN will be taken as an example.
  • the public network 11 may take various forms. From the viewpoint of VPN types, they are as follows.
  • the VPN may be an Internet VPN in which the public network 11 includes the Internet.
  • the VPN may be an IP (Internet Protocol)-VPN, an entry VPN, or a wide area Ethernet, including a closed network provided by a communication carrier or the like to the public network 11.
  • IP Internet Protocol
  • the protocol for the VPN may be a known one, a new one, or one uniquely defined by the administrator of the server 5.
  • Known protocols for remote access VPNs include, for example, a combination of L2TP (Layer 2 Tunneling Protocol) and IPsec (Security Architecture for Internet Protocol), and PPTP (Point to Point Tunneling Protocol).
  • FIG. 14 is a flowchart illustrating a specific example of the above operation.
  • the image processing device 3 is a remote access VPN client that communicates with the server 5 as a VPN server (for example, the image processing device 3A or 3B in FIG. 1).
  • the data processing device 49 is a device that communicates with the image processing device 3 via a VPN (from another perspective, the server 5 as a VPN server). Examples of the data processing device 49 include another image processing device 3, the server 7, and the terminal 9.
  • the data processing device 49 may be the server 5, FIG. 14 shows an example in which the two are separate.
  • the data processing device 49 that is not the server 5 may be included in the private network 13A including the server 5 (3C, 7 or 9A) or may not be included (3A, 3B or 9B). good. In FIG. 14, the latter is taken as an example.
  • the process shown in FIG. 14 is started, for example, when the VPN connection start condition is satisfied in the image processing device 3.
  • the start condition may be, for example, that a predetermined operation instructing a VPN connection is performed on the operation unit 33. Further, the start condition may be that a task that requires a VPN connection (for example, an operation of downloading and printing image data from the data processing device 49) is performed on the operation unit 33. When such a task is instructed, the start condition may be satisfied when the user is asked whether or not to make a VPN connection, and as a result, a predetermined operation instructing the VPN connection is performed. Further, the start condition may be that a predetermined signal is input from an external communication device (for example, the terminal 9).
  • the process in FIG. 4 is executed. Thereafter, the image processing device 3 requests authentication from the server 5, and the server 5 notifies the image processing device 3 of the authentication result (step ST30). If the authentication is successful, the subsequent processes shown in FIG. 14 can be executed. On the other hand, if the authentication fails, the subsequent processing shown in FIG. 14 is prohibited.
  • the authentication for VPN connection may be the same as the authentication for releasing functional restrictions.
  • the notification of the authentication result in step ST30 may be the same as the notification of the authentication result D3 described with reference to FIGS. 11 and 13.
  • the VPN connection may be one in which the restriction is lifted when the authentication state is reached through the process of FIG. 4, and thereby it becomes possible to instruct the image processing device 3 (for example, the operation unit 33) to start the VPN connection. Further, as understood from the explanation in the previous paragraph, the process in FIG. 4 may be started by instructing the image processing device 3 to start a VPN connection. Furthermore, when the authentication shown in FIG. 4 is successful, the VPN connection may be automatically established. In other words, successful authentication may be a condition for starting a VPN connection.
  • FIG. 14 exemplifies the operation of downloading image data from the data processing device 49 and printing it. Specifically, it is as follows.
  • step ST31 the image processing device 3 transmits a signal requesting download of image data to the server 5 via the VPN.
  • the image data here may be general image data or image data as a print job.
  • step ST32 the server 5 transmits (transfers) a signal requesting image data to the destination (here, the data processing device 49) specified by the information included in the received signal.
  • the data processing device 49 is a communication device external to the private network 13A including the server 5, the transmission may be performed via a VPN (as shown in the example).
  • the data processing device 49 is a communication device included in the private network 13A, normal communication within the private network 13A may be performed. In the former case, the data processing device 49 is connected to the server 5 via VPN in advance before step ST32.
  • step ST33 the data processing device 49 transmits the requested image data to the server 5.
  • a VPN may be used (as shown in the example), and if the data processing device 49 is located inside the private network 13A, a VPN may be used. Communication may take place within the normal private network 13A.
  • step ST34 the server 5 transmits (transfers) the received image data to the image processing device 3. Transmission at this time is performed via VPN.
  • step ST35 the image processing device 3 executes printing based on the received image data.
  • the VPN server to which the image processing device 3 makes a VPN connection may or may not be selectable by the user using the image processing device 3.
  • the image processing device 3 may be able to select a connection destination only from two or more VPN servers that make up one VPN, or may be able to select a connection destination from two or more VPN servers that make up two or more different VPNs. It may also be possible to select a connection destination.
  • the image processing device 3 may cause the display unit 35 to display a display (for example, an image) inquiring the user about the server 5 to connect to.
  • This display may, for example, present information on one or more connection destination candidates, or may prompt input of connection destination information.
  • the connection destination information that is presented and/or input is, for example, a host name or an IP address (or a name given to a VPN).
  • the connection destination information may be any name and/or figure stored in the auxiliary storage device 45 in advance by the administrator of the image processing device 3 in association with a host name or a fixed IP address.
  • the image processing device 3 may receive an operation on the operation unit 33 to select a connection destination from a plurality of candidates, an operation to input connection destination information by key input, etc. Furthermore, when the VPN connection is established, the processing unit 29 may cause the display unit 35 to display information indicating the connection destination with which the VPN connection has been established.
  • a VPN connection may be disconnected when appropriate disconnection conditions are met.
  • the cutting condition may be that a predetermined operation instructing cutting is performed on the operation unit 33.
  • the disconnection condition may be that the task is completed.
  • the disconnection condition may be that the authentication state has been canceled. Note that examples of conditions for canceling the authentication state have already been described.
  • the image processing device 3 may indicate this on the display unit 35 while the VPN is being connected. For example, an image indicating that the VPN is being connected may be displayed, or a specific indicator light may be in a specific state (for example, lit or blinking). Further, in the above description, it was mentioned that the connection destination of the VPN may be displayed, but the display of the connection destination may be taken as an example of a display indicating that the connection to the VPN is being made.
  • the operation in which the image processing device 3 receives image data from the data processing device 49 and performs printing is taken as an example.
  • various other operations using the VPN are possible.
  • information (eg, image data) acquired by the scanner 21 may be transmitted to the data processing device 49 via the VPN.
  • the image processing device 3 includes the image processing section 31, the control section 29c, and the imaging section 28.
  • Image processing section 31 includes at least one of printer 19 and scanner 21 .
  • the control unit 29c restores the functional restriction of the image processing unit 31 that was canceled in response to successful user authentication in conjunction with the cancellation of the authentication state.
  • the imaging unit 28 images at least a part of the area around the image processing device 3 .
  • the image processing device 3 includes at least one of the absence of the user in the authenticated state and the presence of another user, which is identified based on the image captured by the imaging unit 28 during the authenticated state. When the cancellation conditions are met, the authentication state is canceled (for example, see steps ST7 and ST8 in FIG. 4).
  • the communication system 1 includes the image processing device 3 described above and communication devices (for example, servers 5 and 7, terminals 9, and other image processing devices 3) that communicate with the image processing device 3. It's okay to stay.
  • communication devices for example, servers 5 and 7, terminals 9, and other image processing devices
  • the probability that an unauthenticated user U2 will illegally use the image processing device 3 is reduced, and security is improved. do.
  • the above-mentioned release condition may include that facial feature data detected from an image captured by the imaging unit 28 during the authentication state satisfies a predetermined condition.
  • the probability of misidentifying the authenticated user U1 and another user U2 is reduced, for example, compared to a mode in which only the outline of a person is used (for example, a mode in which the outline of a person is tracked). Furthermore, for example, in a mode in which only the outline of a person is used, even if the user U1 disappears outside the imaging range and then returns to the imaging range, it is difficult to determine whether the imaged person is the user U1 or not. As a result, it is difficult to perform the authentication state restoration operation described with reference to FIGS. 8 and 9. However, by using facial feature data, the feasibility of the operation of restoring the authentication state is improved.
  • the image processing device 3 determines that the facial feature data detected from the image captured by the imaging unit 28 in the authenticated state matches the previously acquired facial feature data of the user U1 in the authenticated state.
  • the authentication state may be maintained (see, for example, the procedure in which a negative determination is made in step ST41 in FIG. 7 and the process returns to step ST6).
  • the cancellation condition for canceling the authentication state may include that a person who does not have the facial feature data of the user U1 who is in the authentication state is detected from the image captured by the imaging unit 28 during the authentication state. (For example, see the affirmative determination in step ST7 in FIG. 4.).
  • the persons who do not have the facial feature data of the user U1 include people who have facial feature data different from the facial feature data of the user U1, as well as people whose facial feature data is not detected (for example, a person whose face is hidden). including.
  • the above-mentioned cancellation condition for canceling the authentication state is such that the person closest to the image processing device 3 among one or more (for example, plural) people identified from the image captured by the imaging unit 28 in the authentication state is in the authentication state. (For example, see the affirmative determination in step ST43 and the affirmative determination in step ST46 in FIG. 7.)
  • the cancellation condition for canceling the authentication state is that one or more (for example, a plurality of) people identified from the image captured by the imaging unit 28 in the authentication state have a face displayed on the UI unit 23. may include that the person closest to the user U1 is different from the authenticated user U1 (see, for example, the affirmative determination in step ST43 and the affirmative determination in step ST46 in FIG. 7).
  • the above-mentioned cancellation condition for canceling the authentication state is a predetermined standing position of one or more (for example, a plurality of) people identified from the image captured by the imaging unit 28 during the authentication state. (including the person standing at the predetermined position) is different from the authenticated user U1 (for example, the affirmative determination in step ST43 and step ST46 in FIG. 7). ).
  • the cancellation condition for canceling the authentication state is to select the user U1 from the person whose whole body and/or face is closest to the image processing device 3, the UI unit 23, and/or a predetermined standing position. This may include the fact that facial feature data that matches the facial feature data is not detected (the facial feature data do not match each other, or the facial feature data itself cannot be detected).
  • authentication is not canceled immediately when multiple people are detected (from another perspective, a person other than user U1 is detected), but when the image processing device 3 is operated.
  • the cancellation of the authentication state is controlled depending on the person who is likely to be present. As a result, the inconvenience that the authentication state is canceled even if a person other than the user U1 who is located away from the image processing device 3 is included in the image is resolved.
  • the cancellation condition for canceling authentication includes that the person closest to the image processing device 3 is a person other than the user U1 (assumed to be the user U2; the same applies hereinafter), for example, the UI unit 23
  • the UI unit 23 The probability that the information will be secretly viewed by the user U2 who is not operating the image processing device 3 but is near the image processing device 3 is reduced.
  • the cancellation condition includes that the person whose face is closest to the UI unit 23 is the user U2, for example, the accuracy of identifying the operator of the UI unit 23 is improved, and unnecessary cancellation of the authentication state is avoided as described above.
  • the release condition includes that the person closest to a predetermined standing position (for example, the position where the operator who operates the UI unit 23 stands) is the user U2
  • the influence of the difference in height between the people can be reduced, for example.
  • the accuracy of identification by the operator of the UI unit 23 can be improved.
  • the above-mentioned cancellation condition for canceling the authentication is that the image processing device 3 (which may be replaced with other terms such as UI unit 23 as described above) specified from the image captured by the imaging unit 28 in the authentication state.
  • the imaging unit 28 may repeatedly capture images (for example, at a predetermined cycle) during the authentication state.
  • the cancellation condition for canceling the authentication state is that a predetermined period of time has elapsed since the facial feature data of the user U1 who was in the authentication state was no longer detected from the image captured by the imaging unit 28 during the authentication state (for example, as shown in FIG. (See the affirmative determination in step ST45 and the affirmative determination in step ST85 in FIG. 8.).
  • the cancellation condition for canceling the authentication state is that a predetermined period of time has elapsed since the user U1 who was in the authentication state was no longer detected from the image captured by the imaging unit 28 during the authentication state (for example, (See the affirmative determination in step ST45 in FIG. 7 and the affirmative determination in step ST85 in FIG. 8.)
  • the image processing device 3 may cancel the authentication state without waiting for the predetermined time period to elapse. And/or, if a person different from the user U1 who is in the authenticated state is detected from the image captured by the imaging unit 28 within the predetermined time, the image processing device 3 does not wait for the predetermined time to elapse.
  • the authentication state may be canceled (see the affirmative determination in step ST46 in FIG. 7).
  • the cancellation condition for canceling authentication is that the operator of the UI unit 23, which is identified from the image captured by the imaging unit 28 while in the authenticated state, has changed from the user U1 in the authenticated state to another user U2. (See the affirmative determination in step ST87 in FIG. 8.) After canceling the authentication state when the operator is replaced by another user U2, the image processing device 3 may restore the authentication state without going through authentication when the operator becomes user U1 again. (Step ST93 in FIG. 9).
  • the authentication state is automatically and temporarily canceled. This improves user convenience while maintaining security.
  • the authentication state includes authentication (for example, both steps ST1 and ST4 in FIG. 4) including verification (for example, step ST4 in FIG. 4) based on an image captured by the imaging unit 28 (in other words, a device for monitoring a person). It can be established through success.
  • the imaging unit 28 is used for both authentication and monitoring of the person in the authentication state.
  • the configuration of the image processing device 3 is simplified.
  • the image processing device 3 may be established by successful authentication without using the imaging unit 28 (in other words, a device for monitoring a person).
  • step ST4 may be omitted.
  • the biometric information detected by the detection unit 25 may be used instead of the biometric information detected by the imaging unit 28.
  • any authentication method can be selected, not only face authentication.
  • the detection unit 25 one with relatively high biometric authentication accuracy may be selected, or an authentication method that the owner of the image processing device 3 (for example, a company) also uses on other devices may be used.
  • the monitoring by the imaging unit 28 since the authentication itself is performed by a method other than face recognition, and the probability that the image processing device 3 is used illegally by a third party is reduced at this point, the monitoring by the imaging unit 28 is , it can be said that it is only supplementary. Therefore, the facial feature data D4 acquired by the imaging unit 28 may have low authentication accuracy. Thereby, for example, costs related to the imaging unit 28 can be reduced.
  • the image processing device 3 may further include a UI section 23 that receives user operations.
  • the authentication state may be established by successful authentication including verification of the account information D1 input to the UI unit 23 (see step ST1 in FIG. 4, for example).
  • the authentication state may be established by successful authentication including verification of biometric information detected by the detection unit 25 different from the imaging unit 28.
  • biometric information detected by the detection unit 25 may be used instead of or in addition to the biometric information detected by the imaging unit 28.
  • the monitoring by the imaging unit 28 is only supplementary.
  • the facial feature data D4 acquired by the imaging unit 28 may have low authentication accuracy. Thereby, for example, costs related to the imaging unit 28 can be reduced.
  • the image processing device 3 controls the cancellation of the authentication state based on the image captured by the imaging unit 28 in the authentication state only for the second authentication state. (See Figure 10).
  • the imaging unit 28 performs monitoring, so it is possible to efficiently improve security while reducing the monitoring load.
  • the image processing device 3 includes an image processing section 31, an imaging section 28, and a control section 29c.
  • Image processing section 31 includes at least one of printer 19 and scanner 21 .
  • the imaging unit 28 images at least a part of the area around the image processing device 3 .
  • the control unit 29c restores the functional restriction of the image processing unit 31 that was canceled in response to the successful authentication (described above) that does not use the imaging unit 28 in conjunction with the cancellation of the authentication state (for example, see step ST8 in FIG. 4). ).
  • the image processing device 3 controls the cancellation of the authentication state according to the situation of the person, which is identified based on the image captured by the imaging unit 28 during the authentication state (for example, see steps ST7 and ST8 in FIG. 4). ).
  • the "person situation" here includes not only the presence or absence of the user U1 and/or another person, the position of the person, etc., but also includes, for example, an action by the user U1 (such as an arm-waving action).
  • any authentication method can be selected, not only face authentication.
  • the detection unit 25 one with relatively high biometric authentication accuracy may be selected, or an authentication method that the owner of the image processing device 3 (for example, a company) also uses on other devices may be used.
  • the imaging unit 28 monitors the situation of the person and controls the authentication state, security and user convenience can be improved.
  • the image processing device is not a multifunction device including a printer and a scanner, but may be one that has only a printing function (i.e., a printer in the narrow sense) or one that has only a scanner function (i.e., a scanner in the narrow sense).
  • the multifunction peripheral may be regarded as a printer (in a broad sense) or a scanner (in a broad sense).

Abstract

画像処理装置は、画像処理部と、制御部と、撮像部と、を備えている。画像処理部は、プリンタおよびスキャナの少なくとも一方を含む。制御部は、ユーザの認証の成功に応じて解除された画像処理部の機能制限を認証状態の解除に伴って復活させる。撮像部は、画像処理装置の周囲の少なくとも一部の範囲を撮像する。画像処理装置は、認証状態のときに撮像部が撮像する画像に基づいて特定される、認証状態とされたユーザが不在であること、および他のユーザが存在することの少なくとも一方を含む解除条件が満たされたときに、認証状態を解除する。

Description

画像処理装置および通信システム
 本開示は、プリンタおよびスキャナの少なくとも一方を有する画像処理装置、ならびに該画像処理装置を含む通信システムに関する。
 顔認証によってユーザの認証を行い、認証状態(認証が成功した状態)となったときに所定の機能の利用をユーザに許容する画像処理装置が知られている(例えば下記特許文献1~4)。特許文献3では、顔認証を行うためのカメラに向かってユーザが手を挙げると画像処理装置がスタンバイ状態になるという事項が開示されている。特許文献4では、ログアウトの操作が行われたとき、ユーザが操作を中断してしばらく経過したとき、あるいはユーザが画像処理装置の前を離れたことが検知されたときに、スリープタイマを起動するステップに戻るという事項が開示されている。
特開2019-128732号公報 特開2007-279603号公報 特開2006-81147号公報 特開2016-148895号公報
 本開示の一態様に係る画像処理装置は、画像処理部と、制御部と、撮像部と、を備えている。前記画像処理部は、プリンタおよびスキャナの少なくとも一方を含む。前記制御部は、ユーザの認証の成功に応じて解除された前記画像処理部の機能制限を認証状態の解除に伴って復活させる。前記撮像部は、前記画像処理装置の周囲の少なくとも一部の範囲を撮像する。前記画像処理装置は、認証状態のときに前記撮像部が撮像する画像に基づいて特定される、認証状態とされたユーザが不在であること、および他のユーザが存在することの少なくとも一方を含む解除条件が満たされたときに、認証状態を解除する。
 本開示の一態様に係る画像処理装置は、画像処理部と、撮像部と、制御部と、を備えている。前記画像処理部は、プリンタおよびスキャナの少なくとも一方を含む。前記撮像部は、前記画像処理装置の周囲の少なくとも一部の範囲を撮像する。前記制御部は、前記撮像部を利用しない認証の成功に応じて解除された前記画像処理部の機能制限を認証状態の解除に伴って復活させる。前記画像処理装置は、認証状態のときに前記撮像部が撮像する画像に基づいて特定される、人物の状況に応じて、認証状態の解除を制御する。
 本開示の一態様に係る通信システムは、上記画像処理装置と、前記画像処理装置と通信を行う通信機器と、を有している。
実施形態に係る通信システムの一例を示す模式図。 図1の通信システムが含む画像処理装置の信号処理系に係るハードウェア構成を示す模式図。 図2の画像処理装置の構成を示す機能ブロック図。 認証に係る処理の手順の一例を示すフローチャート。 図5Aおよび図5Bはユーザの監視に利用される撮像画像の例を示す模式図。 図6A、図6Bおよび図6Cはユーザの監視に利用される撮像画像の他の例を示す模式図。 認証状態の制御に係る処理の手順の一例を示すフローチャート。 認証状態の制御に係る処理の手順の他の例を示すフローチャート。 図8の続きを示すフローチャート。 認証状態の制御に係る処理の手順の更に他の例を示すフローチャート。 認証結果に基づく制限解除の具体例を説明するためのブロック図。 認証結果に基づく制限解除の手順の一例を示すフローチャート。 制限解除に伴うメニュー画面の変更を説明するためのブロック図。 VPN接続に係る制限解除を説明するためのフローチャート。
 以下、図面を参照して本実施形態に係る画像処理装置について説明する。なお、以下のとおり、いくつかの用語は一般的に多義的である。本実施形態の説明においても、文脈等に照らして適宜に用語の意味を解釈されたい。
 「生体情報」の語は、例えば、現に人に表れている特徴の情報自体(別の観点では検出方法に依存しない情報)を指す場合と、上記特徴を検出した生の情報を指す場合と、生の情報から抽出した特徴量の情報を指す場合と、生の情報もしくは特徴量の情報を利用目的に応じて加工した情報を指す場合とがある。加工した情報としては、例えば、特徴量を暗号化した情報を挙げることができる。
 「認証」の語は、対象の正当性を確認する行為を指す場合と、そのような行為によって、正当性が確認できたこと、もしくは確認ができていることを指す場合とがある。これに関連して、正当性が確認できたことは、認証に成功すると表現されることがあり、また、正当性が確認できないことを認証に失敗したと表現されることがある。実施形態の説明において、「認証状態」は、正当性が確認できている状態、またはそのように見做されている状態を指す。
 「ネットワーク」の語は、通信網を指す場合と、通信網および通信網に接続された機器の組み合わせを指す場合とがある。ネットワークの下位概念の語についても同様である。ネットワークの下位概念の語は、例えば、インターネット、パブリックネットワーク、プライベートネットワーク、LAN(Local Area Network)およびVPN(Virtual Private Network)である。
 「VPN」の語は、プライベートネットワークをパブリックネットワークに仮想的に拡張する技術を指す場合と、当該技術によるネットワークを指す場合とがある。なお、VPNに係る技術的事項に適宜にVPNの語を付すことがある。例えば、VPNを利用した通信を行うように確立される接続をVPN接続ということがあり、また、そのような接続を行うことをVPN接続するということがある。
 「接続」の語は、認証(例えばスリーウェイハンドシェイク)を経て確立される接続(狭義の接続)を指す場合と、単に通信可能であることを意味する接続(広義の接続)を指す場合とがある。前者とは異なり、かつ後者に含まれる接続としては、例えば、以下のものを挙げることができる。接続を確立する前の通信(例えばブロードキャストおよびこれに対する返信)は可能であるが、接続の確立は禁止されている接続。互いにケーブルによって電気的(別の観点では物理的)に接続されているが、ソフトウェア的(別の観点では論理的)には通信が一切禁止されているもの。
(画像処理装置の概要)
 図1は、実施形態に係る通信システム1の構成を示す模式図である。
 通信システム1は、ネットワークを介して互いに通信可能に接続されている複数の通信機器を含んでいる。複数の通信機器は、1以上の画像処理装置を含んでいる。図示の例では、3つの画像処理装置3A、3Bおよび3Cが例示されている。以下では、画像処理装置3A~3Cを区別せずに画像処理装置3(符号は図2等)と称することがある。画像処理装置3は、プリンタおよびスキャナの少なくとも一方を含む。なお、画像処理装置3は、通信システム1に含まれずに、単独で利用されても構わない。
 画像処理装置3は、例えば、ユーザが当該画像処理装置3(または画像処理装置3の所定の機能)を使用しようとしたときにユーザの認証を行う。認証が成功すると、例えば、画像処理装置3は、ユーザに所定の機能(例えば印刷)の利用を許可する(機能の制限を解除する。)。逆に言えば、認証が失敗した場合は、画像処理装置3は、ユーザに所定の機能の利用を許可しない(機能を制限する。)。画像処理装置3は、ユーザの認証が成功して認証状態が維持されている間は制限を解除した状態を維持する。逆に言えば、認証状態が解除されたときは機能の制限を再開する。なお、機能を制限すること、および機能の制限を解除することの双方を含む概念として、「機能の制限解除の制御」のような表現を用いることがある。認証状態についても同様である。
 画像処理装置3は、当該画像処理装置3の周囲を撮像する撮像部28を有している。撮像部28によって撮像された画像は、例えば、画像処理装置3の周囲の人物の状況の把握に利用される。画像から特定された人物の状況は、認証状態の制御に使用される。例えば、画像処理装置3は、認証状態のときに撮像部28が撮像した画像に基づいて、認証状態とされたユーザが画像処理装置3から離れたことを検出したとき、認証状態を解除する。および/または画像処理装置3は、認証状態とされたユーザとは別のユーザが画像処理装置3の周囲に存在することを検出したとき、認証状態を解除する。このような認証状態の制御によって、例えば、認証されていないユーザが不正に画像処理装置3(または所定の機能)を使用する蓋然性が低減され、セキュリティが向上する。
 以上が実施形態の概要である。以下では、概略、下記の順に説明を行う。
 1.通信システム1全般(図1)
  1.1.通信システム1が利用する情報
   1.1.1.生体情報
   1.1.2.アカウント情報
   1.1.3.顔特徴データ
  1.2.通信システム1の全体の構成
  1.3.各通信機器の概要
  1.4.通信機器の接続態様
 2.画像処理装置3の構成(図2)
  2.1.画像処理装置3の全体の構成
  2.2.プリンタ
  2.3.スキャナ
  2.4.UI(User Interface)部
   2.4.1.操作部
   2.4.2.表示部
  2.5.生体情報を検出する検出部
   2.5.1.検出部の構成
   2.5.2.検出部の位置および向き等
  2.6.通信部
  2.7.撮像部
  2.8.処理部
  2.9.コネクタ
  2.10.その他
 3.画像処理装置3の処理系の構成(図3)
 4.認証に係る動作
  4.1.認証に係る動作の概要(図4)
  4.2.認証方法
  4.3.認証状態の維持および解除に係る動作の具体例
   4.3.1.人物の具体的な状況の評価方法(図5A~図6C)
   4.3.2.具体的な状況に応じた認証状態の制御の手順(図7)
  4.4.認証状態の維持および解除に係る動作の他の具体例(図8および図9)
  4.5.認証状態の維持および解除に係る動作のさらに他の具体例(図10)
 5.機能制限の解除に係る動作
  5.1.機能制限の解除に係る動作全般
   5.1.1.制限の解除が制御される機能
   5.1.2.機能の制限の態様
  5.2.機能の制限解除に関する具体例(図11および図12)
  5.3.機能制限に係るメニュー画面の例(図13)
  5.4.VPNに関する制限解除(図14)
 6.実施形態のまとめ
(1.通信システム全般)
(1.1.通信システムが利用する情報)
(1.1.1.生体情報)
 画像処理装置3は、生体情報を用いた認証を行ってもよいし、行わなくてもよい。生体情報は、種々のものとされてよく、例えば、公知の生体認証に利用されている情報とされてよい。例えば、生体情報は、ユーザの身体的特徴の情報であってもよいし、ユーザの行動的特徴の情報であってもよい。身体的特徴の具体例としては、指紋、掌形、網膜(その血管のパターン等)、虹彩(その濃淡値の分布等)、顔、血管(指等の特定の部位のパターン)、耳形、音声(声紋等)および体臭を挙げることができる。行動的特徴としては、例えば、筆跡を挙げることができる。
 なお、生体情報(後述の顔特徴データを含む。)同士が一致するというときの「一致」は、技術常識から明らかなように、生体認証において実用的に問題のない精度(別の観点では画像処理装置3および/または通信システム1に要求される精度)での一致であって、完全な一致を指すものではない。
(1.1.2.アカウント情報)
 画像処理装置3は、アカウント情報を用いた認証を行ってもよいし、行わなくてもよい。アカウント情報は、例えば、ユーザを識別するための情報(以下、「ID」と略して呼称することがある。)を含む。また、アカウント情報は、パスワードを含んでもよい。実施形態の説明では、特に断り無く、アカウント情報がIDおよびパスワードを含む態様を例に取ることがある。ただし、矛盾等が生じない限り、アカウント情報の語は、IDの語(パスワードを付帯しない)に置換されてもよいし、IDおよびパスワードの語に置換されてもよい。
(1.1.3.顔特徴データ)
 後述するように、画像処理装置3は、ユーザの顔特徴データを利用することによって、認証状態の維持および解除を制御してよい。顔特徴データは、例えば、種々のものとされてよく、例えば、顔認証に利用されている公知のデータと同様とされてよい。同様に、顔特徴データの照合方法も顔認証における公知の照合方法が利用されてよい。顔特徴データは、例えば、目、鼻および口などに係る特徴点の相対位置等の情報を含んでいる。顔特徴データは、顔全体を対象としたものであってもよいし、顔の一部(例えば口および鼻を覆うマスクに隠れない部分)を対象としたものであってもよい。顔特徴データは、認証状態の維持および解除の制御だけでなく、認証行為自体に生体情報として利用されてよい。生体情報についての用語の説明は、顔特徴データに援用されてよい。
(1.2.通信システムの全体の構成)
 通信システム1は、既述のとおり、種々の通信機器を有しており、種々の通信機器は、画像処理装置3を含んでいる。通信システム1は、適宜に他の通信機器を有してよい。図1では、サーバ5および7、ならびに端末9A、9Bおよび9Cが例示されている。以下では、端末9A~9Cを区別せずに端末9(代表して端末9Aに符号を付す。)と称することがある。
 複数の通信機器を接続するネットワークは適宜なものとされてよい。図1では、パブリックネットワーク11と、プライベートネットワーク13Aおよび13Bとが例示されている。
 なお、通信システム1は、少なくとも1つの画像処理装置3と、当該画像処理装置3と通信を行う少なくとも1つの通信機器のみによって定義されてよい。また、通信システム1は、通信機器に加えて、プライベートネットワーク(13Aおよび13B)を含んで定義されてよい。ただし、いずれにせよ、通信システム1は、パブリックネットワーク11を除いて定義されてよい。
(1.3.各通信機器の概要)
 画像処理装置3は、既述のように、プリンタおよびスキャナの少なくとも一方を含む。以下の説明では、主として、画像処理装置3がプリンタおよびスキャナの双方を含む態様を例に取る。画像処理装置3は、複合機(MFP:multi-function product/printer/peripheral)であってもよいし、複合機でなくてもよい。画像処理装置3は、例えば、印刷、スキャン、コピー、FAX送信およびFAX受信の1つ以上(ただし、これらは必ずしも分離できる概念ではない。)を実行可能であってよい。
 画像処理装置3の運用方法(別の観点では社会的位置付け)は任意である。例えば、画像処理装置3Aは、コンビニエンスストア等の店舗に設置されて不特定多数のユーザに利用されてよい。画像処理装置3Bは、個人宅に設置されて特定かつ少数(例えば1人)のユーザに利用されてよい。画像処理装置3Cは、会社に設置されて特定かつ複数のユーザに利用されてよい。
 実施形態で述べる画像処理装置3の構成および動作は、通信システム1が含む1以上の画像処理装置3のいずれに適用されてもよい。便宜上、実施形態の説明では、画像処理装置3A~3Cのいずれかを例に取って説明することがある。ただし、画像処理装置3A~3Cのいずかについてなされた説明は、矛盾等が生じない限り、他の画像処理装置に適用されて構わない。
 サーバ5は、例えば、プライベートネットワーク13Aに含まれ、ECM(Enterprise Content Management)を行ったり、VPNサーバとして機能したりしてよい。および/または、サーバ5は、画像処理装置3を利用するユーザの認証、および他の通信機器(例えば端末9)を利用するユーザの認証を行ってよい。もっとも、画像処理装置3(他の通信機器)は、自己のみによって自己を利用するユーザを認証してもよい。
 サーバ7は、種々のサービスを行うものであってよい。例えば、サーバ7は、ファイルサーバ、メールサーバおよび/またはウェブサーバであってよい。画像処理装置3に係る動作に着目した場合、ファイルサーバは、例えば、画像処理装置3によって印刷される画像のデータ、または画像処理装置3によってスキャンされたデータを記憶してよい。メールサーバは、画像処理装置3によって印刷されるメール、または画像処理装置3によってスキャンされた画像を含むメールを配送してよい。ウェブサーバは、画像処理装置3との通信を通じて行われるウェブサービスを実行してよい。
 図1では、サーバ5および7それぞれは、1台のコンピュータによって表現されている。ただし、1つのサーバは、分散されて配置された複数のコンピュータによって実現されて構わない。1つのサーバを構成する複数のコンピュータは、直接に接続されたり、1つのLANに含まれたり、互いに異なるLANに含まれたりしてよい。なお、サーバ5および7は、1台のコンピュータによって構成されてよい。また、サーバ5および7は、1台のコンピュータによって構成されているか否かに関わらず、1つのサーバとして捉えられてもよい。
 端末9は、適宜な種類のものとされてよい。図1では、端末9Aおよび9Bは、ラップトップ型のPC(パーソナルコンピュータ)として描かれている。端末9Cは、スマートフォンとして描かれている。この他、端末9は、例えば、デスクトップ型PCまたはタブレット型PCであってよい。端末9の運用方法は任意である。例えば、端末9は、会社所有の端末または個人所有の端末のように、特定かつ1人以上のユーザに利用されるものであってもよいし、インターネットカフェの端末のように、不特定かつ多数のユーザに利用されるものであってもよい。
(1.4.通信機器の接続態様)
 パブリックネットワーク11は、外部(例えば不特定多数の通信機器)へ公開されているネットワークである。その具体的な態様は、適宜なものとされてよい。例えば、パブリックネットワーク11は、インターネット、通信業者等が提供する閉域ネットワーク、および/または公衆電話網を含んでよい。
 プライベートネットワーク13Aおよび13Bは、外部へ非公開のネットワークである。プライベートネットワーク13Aおよび/または13Bは、例えば、LANであってよい。LANは、例えば、同一建築物内におけるネットワークであってよい。LANとしては、例えば、イーサネット(登録商標)およびWi-Fi(登録商標)を利用したものを挙げることができる。また、プライベートネットワーク13Aおよび/または13Bは、イントラネットであってよい。
 通信機器(例えば画像処理装置3)による信号の送信および/または受信は、有線を介したものであってもよいし、無線で行われるものであってもよい。また、通信機器(例えば画像処理装置3)は、プライベートネットワークに含まれずに、パブリックネットワーク11と通信を行ってもよいし、プライベートネットワークに含まれてもよい。プライベートネットワークに含まれる通信機器(例えば画像処理装置3)は、プライベートネットワーク内の通信のみを行ってもよいし、プライベートネットワークを介してパブリックネットワーク11と通信を行ってもよい。
 上記のように、複数の通信機器は、種々の態様で互いに接続されてよい。図1の例では、以下のとおりである。
 画像処理装置3Aは、プライベートネットワークを構築していない。画像処理装置3Aは、不図示のルータ等を含むことによって、またはルータ等と接続されることによって、プライベートネットワークを介さずにパブリックネットワーク11と通信可能となっている。画像処理装置3Aは、当該画像処理装置3Aに直接的に有線で接続された端末9(図1では不図示)と通信可能であってよい。また、画像処理装置3Aは、当該画像処理装置3Aの近傍に配置された端末9(図1では不図示)と近距離無線通信が可能であってよい。
 画像処理装置3Bおよび端末9Bは、プライベートネットワーク13Bによって互いに接続されている。より詳細には、両者は、ルータ15(そのハブ)を介して接続されている。画像処理装置3Bおよび端末9Bは、ルータ15等を介してパブリックネットワーク11と通信可能である。
 画像処理装置3C、サーバ5、サーバ7および端末9Aは、プライベートネットワーク13Aによって互いに接続されている。画像処理装置3C、サーバ7および端末9Aは、例えば、サーバ5を介してパブリックネットワーク11と通信可能である。サーバ5は、ルータ等を含んでいてもよいし、サーバ5とパブリックネットワーク11との間に不図示のルータ等が設けられていてもよい。
 端末9Cは、例えば、無線による公衆電話網との通信を行う。ひいては、端末9Cは、公衆電話網を含むパブリックネットワーク11と通信を行う。
 既述のように、サーバ5は、画像処理装置3のユーザの認証に利用されてよい。この場合の認証は、サーバ5とパブリックネットワーク11を介して接続されている画像処理装置(図1では3Aおよび3B)、およびサーバ5を含むプライベートネットワーク13Aに含まれる画像処理装置(図1では3C)のいずれに対して行われてもよい。
 通信機器の接続態様と、通信機器の運用方法(別の観点では社会的な位置付け)との関係は任意である。例えば、プライベートネットワークに含まれていない画像処理装置3Aは、既述の説明のように店舗に設置されて不特定多数のユーザに利用されてもよいし、既述の説明とは異なり、会社に設置されて特定のユーザに利用されてもよい。また、例えば、プライベートネットワーク13Bに含まれている画像処理装置3Bは、既述の説明のように個人宅に設置されて特定かつ少数のユーザに利用されてもよいし、既述の説明とは異なり、インターネットカフェに設置されて不特定多数のユーザに利用されてもよい。
(2.画像処理装置の構成)
(2.1.画像処理装置の全体の構成)
 図2は、画像処理装置3の信号処理系に係るハードウェア構成を示す模式図である。
 図1および図2に示すように、画像処理装置3は、例えば、以下の構成要素を有している。画像処理装置3の外形を構成している筐体17(図1)。印刷を行うプリンタ19。スキャンを行うスキャナ21(イメージスキャナ)。ユーザの操作の受け付ける、および/またはユーザへの情報の提示を行うUI部23。ユーザの生体情報を検出する検出部25。通信を行う通信部27(図2)。画像処理装置3の周囲(その少なくとも一部の範囲)を撮像する撮像部28。各部(19、21、23、25、27および28)の制御を行う処理部29(図2)。画像処理装置3に適宜なデバイスを接続するためのコネクタ37(図2)。
 なお、以下では、プリンタ19および/またはスキャナ21を画像処理部31(符号は図2)ということがある。検出部25は、例えば、ユーザの認証のために、撮像部28から得られる生体情報とは別の生体情報を検出する。もっとも、検出部25は、図2において点線で示されているように、設けられなくても構わない。
 上記の構成要素は、図示の例のように、一部または全部が互いに共有されていてもよい(または、そのように捉えられてよい。)。例えば、筐体17は、プリンタ19またはスキャナ21の一部として捉えられて構わない。本実施形態の説明において、処理部29は、画像処理装置3の全ての動作(例えば印刷およびスキャンを含む)の制御を行う概念的に1つの処理部である(ハードウェア的には複数に分散されていてよい。)。この場合において、処理部29によって制御される対象(19、21、23、25、27および28)は、処理部を含まない機構的な部分のみによって概念されてもよいし、処理部(処理部29の一部)を含んで概念されてもよい。
 筐体17以外の構成要素(19、21、23、25、27、28および29。以下、本2.1節において、構成要素の語は、このような筐体17以外の構成要素を指す。)は、筐体17に設けられている。別の表現または別の観点では、筐体17は、複数の構成要素を保持している、もしくは支持している、または、複数の構成要素に機械的に接続されている、もしくは結合されている、ということができる。また、複数の構成要素は、筐体17に設けられていることによって、互いに一体的に設けられているということができる。なお、既述の説明から理解されるように、構成要素が筐体17に設けられている等というとき、筐体17は、構成要素の一部として捉えられる態様であってもよい。
 画像処理装置3が構成要素を有しているというとき、例えば、典型的には、構成要素および筐体17は、互いに固定されている(もちろん可動部分は除く。)。ひいては、構成要素同士も互いに固定されている。また、例えば、ねじを外すことなどによって画像処理装置3を分解しない限りは、構成要素および筐体17は互いに分離して異なる場所に配置することはできない。ひいては、構成要素同士も互いに分離して異なる場所に配置することはできない。ただし、上記の例とは異なり、画像処理装置3が構成要素を有しているというとき、構成要素は、筐体17に対して着脱可能であってもよい。図2では、筐体17に固定的な撮像部28が示されている一方で、当該撮像部28とは別の例に係る撮像部28Aとして、コネクタ37に着脱されるものが点線で示されている。
 構成要素が筐体17に設けられているというときの具体的な位置関係は任意である。例えば、構成要素は、筐体17内に収容されていてもよいし、筐体17の壁面に一体的に設けられていてもよいし、筐体17の壁面から突出していてもよいし、筐体17に対する向きおよび/または位置が可変となっていてもよい。図示の例では、プリンタ19、スキャナ21、通信部27および処理部29は、筐体17に収容されていると捉えられてよい。また、UI部23および検出部25は、筐体17の壁面に一体的に設けられていると捉えられてよい。撮像部28は、筐体17の壁面から突出している(筐体17の壁面に固定されている)と捉えられてよい。
 画像処理装置3(別の観点では筐体17)の大きさおよび形状は任意である。例えば、画像処理装置3は、家庭用の複合機またはプリンタのように1人の人間が運搬可能な大きさ(質量)を有していてもよいし(画像処理装置3Bのイラスト参照)、業務用の複合機またはプリンタのように1人の人間が運搬不可能な大きさ(質量)を有していてもよい(画像処理装置3Aおよび3Cのイラスト参照)。
 図示の例とは異なり、画像処理装置3は、会社(オフィス)または個人宅に配置される一般的な複合機またはプリンタとは概念が大きく異なるものであってもよい。例えば、プリンタ19は、ロール紙に印刷を行うものであってもよい。画像処理装置3は、ロボットを含んで構成され、インクジェットヘッドによって車体等に塗装を行うものであってもよい。画像処理装置3は、片手で持つことができる大きさとされ、画像処理装置3自体が媒体に対して走査されて印刷および/またはスキャンを行うものであってもよい。
(2.2.プリンタ)
 プリンタ19は、例えば、筐体17内または筐体17から外部へ突出するトレイに配置された枚葉紙に印刷を行い、印刷後の枚葉紙を排出するように構成されている。プリンタ19の具体的な構成は、種々の構成とされてよく、例えば、公知の構成と同様とされても構わない。
 例えば、プリンタ19は、インクを吐出して印刷を行うインクジェットプリンタであってもよいし、感熱紙またはインクリボンを加熱して印刷を行うサーマルプリンタであってもよいし、光が照射された感光体に付着したトナーを転写する電子写真式プリンタ(例えばレーザープリンタ)であってもよい。インクジェットプリンタは、圧電体によってインクに圧力を付与するピエゾ式であってもよいし、熱が付与されたインクに生じる気泡によってインクに圧力を付与するサーマル式であってもよい。
 また、例えば、プリンタ19は、ヘッドが枚葉紙の幅(枚葉紙の搬送方向に交差する方向)に亘る長さを有するラインプリンタであってもよいし、ヘッドが枚葉紙の幅方向に移動するシリアルプリンタであってもよい。プリンタ19は、カラープリンタであってもよいし、モノクロプリンタであってもよい。プリンタ19は、任意の画像を形成できるものであってもよいし、文字のみを印刷できるものであってもよい。
(2.3.スキャナ)
 スキャナ21は、例えば、筐体17の上面から露出する原稿ガラス(図1では蓋に隠れている)下にて原稿ガラスに沿って移動する複数の撮像素子(不図示)によって原稿ガラス上に配置された原稿を撮像してスキャンを行う。スキャナ21の構成も種々の構成とされてよく、例えば、公知の構成と同様とされても構わない。
(2.4.UI部)
 UI部23の構成は任意である。例えば、UI部23は、ユーザの操作を受け付ける操作部33(符号は図2)と、ユーザに視覚的に情報を提示する表示部35(符号は図2)とを有している。なお、UI部23は設けられなくてもよいし、操作部33および表示部35のうち一方のみを有していてもよい。また、UI部23は、音響によってユーザに情報を提示する音響部を有していてもよい。UI部23は、実施形態の説明とは異なり、コネクタ37を含んで定義されてもよい。コネクタ37にデバイスを接続することが画像処理装置3への指示の入力の一種となることがあるからである。
(2.4.1.操作部)
 操作部33の構成は任意である。操作部33は、例えば、ユーザの接触による操作を受け付ける。このような操作部33としては、例えば、タッチパネルおよび/または1以上のボタンを含むものを挙げることができる。図1では、画像処理装置3Aおよび3Cの操作部33の少なくとも一部としてタッチパネル(符号省略)を例示している。また、画像処理装置3Bの操作部33の少なくとも一部としてボタン33aを例示している。ボタン33aは、押しボタンであってもよいし、タッチボタンであってもよいし、その他のボタンであってもよい。タッチボタンは、静電容量式のタッチボタンであってもよいし、その他のタッチボタンであってもよい。もちろん、画像処理装置3Aおよび3Cがボタンを有していてもよいし、画像処理装置3Bがタッチパネルを有していてもよい。なお、操作部33は、音声操作などの他の方式の操作を受け付けるものであってもよい。
 操作部33は、種々の目的で利用されてよい。典型的には、操作部33は、画像処理部31に係る処理の実行を画像処理装置3に指示するために利用される。例えば、操作部33に対する操作によって、印刷、スキャンおよびコピーが行われたり、これらの動作に係る設定(例えば用紙選択、倍率、濃度および/または色などの設定)が行われたりする。この他、例えば、操作部33に対する操作によって、データへのアクセスおよび送受信、ならびに認証用情報(例えばアカウント情報)の入力がなされてよい。
(2.4.2.表示部)
 表示部35の構成は任意である。例えば、表示部35は、任意の画像を表示可能なディスプレイ、任意の文字のみを表示可能なディスプレイ、特定の文字および/または特定の図形のみを表示可能なディスプレイ、ならびに表示灯の少なくともいずれか1つを含んでよい。ここでの画像は、文字を含む概念である。任意の画像または任意の文字を表示するディスプレイとしては、例えば、規則的に配列された比較的多数の画素を有する液晶ディスプレイまたは有機EL(Electro Luminescence)ディスプレイを挙げることができる。また、特定の文字および/または特定の図形を表示するディスプレイとしては、画素の数および/または形状が限定的な液晶ディスプレイ、または7セグメントディスプレイのようなセグメントディスプレイを挙げることができる。セグメントディスプレイは、液晶ディスプレイを含む種々の態様とされてよい。表示灯としては、例えば、LED(Light Emitting Diode)を含むものを挙げることができる。表示灯は、適宜な数で設けられてよい。なお、以下の説明では、便宜上、表示部35が任意の画像を表示可能であることを前提とした表現をすることがある。
(2.5.生体情報を検出する検出部)
(2.5.1.検出部の構成)
 上述したように、認証に利用される生体情報は、種々のものとされてよい。従って、検出部25の構成も種々のものとされてよい。また、同一種類の生体情報に関しても、種々の検出部25が利用されてよい。検出部25の基本的構成は、公知のものと同様とされて構わない。
 例えば、検出部25は、生体情報に係る画像を取得するものであってよい。画像の取得により得られる生体情報としては、例えば、指紋、掌形、網膜、虹彩、顔、血管および耳形が挙げられる。画像を取得する検出部25の典型例として、光学式のものを挙げることができる。光学式の検出部25は、光を検出する撮像素子を含む。撮像素子が検出対象とする光(換言すれば波長域)は、可視光または可視光以外(例えば赤外光)であってよい。検出部25は、撮像素子によって検出される波長域の光を生体に照射する照明部を有していてもよいし、有していなくてもよい。画像は、2値画像、グレースケール画像またはカラー画像であってよい。
 また、画像を取得する検出部25は、超音波式のものであってもよい。超音波式の検出部25は、超音波の送信および受信を行う超音波素子を含む。医療用の超音波診断装置から理解されるように、超音波素子を含む検出部25によって、生体の表面および/または内部の形状に係る画像を取得することができる。より詳細には、検出部25は、超音波を生体に向けて送信し、その反射波を受信する。送信から受信までの時間に基づいて超音波素子からの距離(すなわち生体の形状)を反映した画像が取得される。
 また、画像を取得する検出部25は、静電容量式のものであってもよい。静電容量式の検出部25は、生体が接触するパネルと、パネルの背後にパネルに沿って配置された複数の電極とを有する。生体の一部(例えば指)がパネル上に配置されたとき、接触している位置(体表の凸部の位置)の電極において生じる電荷と、生体が接触していない位置(体表の凹部の位置)における電極において生じる電荷とは相違する。この相違に基づいて、体表の凹凸(例えば指紋)の画像が取得される。
 画像を取得する検出部25は、ライン状の画像の取得を該ライン状の画像の短手方向に順次行う(すなわち走査を行う)ことによって2次元画像を取得するものであってもよいし、そのような走査を行わずに、実質的に1回で2次元画像を取得するものであってもよい。走査は、検出部25の動作によって実現されてもよいし、生体が検出部25に対して移動されることによって実現されてもよい。前者としては、例えば、撮像素子または超音波素子を含むキャリッジが移動する態様を挙げることができる。また、複数の超音波素子は、機械的に移動しない電子式の走査を行うこともできる。
 画像を取得する構成以外の検出部25としては、例えば、音声を取得するマイクロフォンを含むものを挙げることができる。これにより、生体情報としての音声(例えば声紋)の情報が取得される。また、例えば、他の検出部25としては、タッチペンによる筆記を受け付けるタッチパネルを挙げることができる。これにより、生体情報としての筆跡の情報が取得される。
 検出部25は、生体情報の取得以外の用途に利用されて構わない。別の観点では、検出部25は、画像処理装置3において生体情報の取得以外の目的で設けられた構成要素によって実現されても構わない。あるいは、検出部25は、他の構成要素と構造的に一体不可分に組み合わされていてもよい。
 例えば、画像を取得する検出部25は、図示の例とは異なり、スキャナ21(または撮像部28)によって実現されても構わない。すなわち、画像処理装置がスキャナ(または撮像部28)および検出部を有するというとき、両者は同一の構成要素であっても構わない。検出部25(画像を取得するものに限定されない。)と共用される構成要素が他のものである場合も同様である。
 また、例えば、検出部25は、操作部33に含まれるボタンに指を置くと指紋が検出されるようにボタンと共用されていてもよい。このようなボタンおよび検出部25としては、例えば、上述した静電容量式の検出部25を挙げることができる。ボタンの操作は、上述した複数の電極を含むセンサによって検出される。また、例えば、筆記の受け付けは、操作部33が含むタッチパネルによって実現されても構わない。
(2.5.2.検出部の位置および向き等)
 検出部25の位置および向き等は任意である。例えば、既述の2.1節の説明から理解されるように、検出部25は、筐体17に対して固定的であってもよいし、位置および/または向きを変更可能に連結されていてもよいし、筐体17に対して着脱可能であってもよい。
 また、例えば、検出部25(より厳密には、生体情報の読み取りに直接に関わる部分。例えば、指紋を検出するときに指が置かれる検出面。本段落において、以下、同様。)は、UI部23に隣接して配置されてよい。例えば、図1の例のように、UI部23および検出部25は、スキャナ21の原稿を読み取る面(ガラス板の上面)および当該面を覆う蓋に対して手前側(別の観点では同一側またはユーザ側)、かつ筐体17の上部側に共に位置してよい。この場合、UI部23および検出部25は、同一のパネルに位置していてもよいし(図示の例)、位置していなくてもよい。パネルは、筐体17(その本体部分)に対して固定的であってもよいし、移動可能であってもよい。別の観点では、UI部23および検出部25の位置関係は、ユーザが、UI部23を操作するときと、検出部25に生体情報を読み取らせるときとで、立ち位置および/または顔の位置を概ね同じとすることができるものであってよい。
 検出部25が指紋を読み取るものである場合において、指が置かれる検出面は、抗ウィルス処理が施されていてもよい。例えば、検出面は、板状の部材によって構成されており、この板状の部材の材料は、抗ウィルスの作用を生じる成分を含んでよい。また、例えば、上記の板状の部材等を覆う膜によって検出面が構成され、当該膜は、抗ウィルスの作用を生じる成分を含んでよい。抗ウィルスの作用を生じる成分としては、例えば、一価銅化合物および銀が挙げられる。対象となるウィルスの種類は任意である。検出面の抗ウィルス性は、例えば、ISO(International Organization for Standardization)21702に従う試験において、抗ウィルス活性値が2.0以上となるものであってよい。検出面は、抗ウィルス作用に加えて、または代えて、抗菌作用を生じてもよい。
(2.6.通信部)
 通信部27は、例えば、画像処理装置3が外部(例えばパブリックネットワーク11)と通信を行うためのインターフェースのうち、処理部29に含まれない部分である。通信部27は、ハードウェア的な構成要素のみを含んでいてもよいし、ハードウェア的な構成要素に加えて、ソフトウェアによって実現される部分を含んでいてもよい。後者の場合、通信部27は、処理部29と明瞭に区別できなくてもよい。
 具体的には、例えば、画像処理装置3が有線で外部と接続される場合においては、通信部27は、ケーブルが接続されるコネクタまたはポートを有してよい。ここでのポートは、コネクタに加えてソフトウェア的な要素を含む概念である。また、例えば、画像処理装置3が無線(例えば電波)で外部と接続される場合においては、通信部27は、ベースバンドの信号を高周波信号に変換するRF(Radio Frequency)回路と、高周波信号を無線信号に変換するアンテナとを有してよい。また、有線および無線のいずれにおいても、通信部27は、例えば、増幅器および/またはフィルタを含んでよい。
(2.7.撮像部)
 撮像部28は、既述のとおり、画像処理装置3の周囲の人物の状況の特定に利用される。撮像部28は、その具体的な利用態様に応じて、画像処理装置3に対して適宜な位置(空間)を撮像範囲としてよい。例えば、撮像範囲の例としては、例えば、以下のものが挙げられる。UI部23の周辺エリア。当該周辺エリアを含む範囲(上記周辺エリアと同じ範囲、または上記周辺エリアよりも広い範囲。)。UI部23を操作するユーザの顔が映る範囲(そのように予想される範囲)。UI部23を操作するユーザが立つ(または座る)位置(立つまたは座る蓋然性が高い位置)の上下に比較的広い範囲。なお、顔が映る範囲に関して、顔が映る範囲にユーザの体格が影響する画像処理装置3においては、成人または小学生以上等の適宜なユーザが想定されてよい。
 なお、撮像範囲がUI部23の周辺エリアを含むというとき、UI部23(その少なくとも一部)自体が撮像範囲に含まれていてもよいし、含まれていなくてもよい。周辺エリアの広さ等は、画像処理装置3を利用する人物(例えばUI部23を操作する人物)の状況の把握という目的に照らして適宜に設定されてよい。例えば、周辺エリアは、UI部23(その中心)を中心として半径50cm以内もしくは半径1m以内の範囲、または当該範囲の一部である。撮像範囲(例えばUI部23の周辺エリア)の説明において、「UI部23」の語は、「検出部25」または「UI部23および検出部25」の語に置換されてもよい。
 撮像部28の撮像範囲は、例えば、画像処理装置3との位置関係において不変であってよい。より詳細には、例えば、撮像部28は、画像処理装置3の筐体17に対して固定的に設けられてよく、その位置および向きを変えることができないようにされてよい。また、例えば、撮像部28は、ズームレンズ等によって撮像範囲を代えることができない構成とされてよい(もしくは、撮像範囲を代えるような制御がなされないように処理部29が構成されてよい。)。このようにすることによって、例えば、認証状態とされたユーザおよび/または他のユーザの状況を一定の精度で把握することができ、セキュリティが向上する。
 ただし、撮像範囲は、可変であっても構わない。この場合、例えば、撮像された画像に基づく認証状態の制御として、撮像範囲が適切に設定されていないときに、利便性が低下するだけで、セキュリティが低下しないものを採用する。例えば、認証状態とされたユーザの顔が検出されないときは認証状態を解除する。このような認証状態の制御が行われる態様では、ユーザは、自分の顔が撮像されるように撮像範囲を適宜に設定する。また、他のユーザが不正の目的で撮像範囲を変更することは難しい。
 撮像範囲を可変とする構成も任意である。例えば、撮像部28は、位置および/または向きを変化させることが可能に筐体17に対して連結されていてよい。この場合の位置および/または向きの変化は、手動でなされるものであってもよいし、モータなどによってなされるものであってもよい。または、撮像部28は、コードで処理部29と接続されつつ、筐体17から分離可能とされていてもよい。そして、撮像部28は、筐体17またはその周囲への置き方によって位置および/または向きを変更可能であってもよい。
 撮像部28は、例えば、所定の条件が満たされている期間(例えば認証状態が維持されている期間)に亘って、繰り返し(換言すれば継続的に)画像を撮像してよい。このときの撮像の間隔(周期)は、撮像部28の具体的な利用態様に応じて適宜に設定されてよい。例えば、撮像の間隔は、1秒未満とされてもよいし、1秒以上とされてもよい。別の観点では、撮像部28による撮像は、動画を取得していると捉えることができるようなものであってもよいし、静止画を繰り返し取得していると捉えることができるようなものであってもよいし、そのような区別ができなくてもよい。撮像の間隔は、変更可能であっても構わない。また、撮像部28は、周期的に撮像を行わず、所定のトリガ(例えば制限が解除された機能の実行が指示されたこと)に応じて撮像を行ってもよい。
 撮像部28は、撮像素子を含んで構成されており、2次元画像の信号(別の観点ではデータ)を生成し、処理部29へ出力する。より具体的な構成は、種々の構成とされてよい。例えば、撮像部28は、パンフォーカスまたはオートフォーカスを利用してよい。撮像部28は、メカニカルシャッターを有していてもよいし、有していなくてもよい。撮像素子は、CCD(Charge-Coupled Device)イメージセンサまたはCMOS(Complementary Metal-Oxide-Semiconductor)イメージセンサであってよい。撮像素子が検出対象とする光(換言すれば波長域)は、可視光または可視光以外(例えば赤外光)であってよい。画像は、2値画像、グレースケール画像またはカラー画像であってよい。
(2.8.処理部)
 処理部29は、例えば、コンピュータと同様の構成を有している。具体的には、例えば、処理部29は、CPU(Central Processing Unit)39、ROM(Read Only Memory)41、RAM(Random Access Memory)43および補助記憶装置45を有している。CPU39がROM41および/または補助記憶装置45に記憶されているプログラムを実行することによって処理部29が構築される。なお、処理部29は、上記のように構築される部分の他、一定の動作のみを行うように構成された論理回路を含んでいてもよい。
(2.9.コネクタ)
 コネクタ37は、例えば、画像処理装置3に周辺機器を接続するためのものである。コネクタ37の規格は種々のものとされてよいが、例えば、USB(Universal Serial Bus)を挙げることができる。図2では、コネクタ37に接続される周辺機器として、既述のように、別の例に係る撮像部28Aが例示されている。この他、コネクタ37に接続される周辺機器としては、USBメモリ、カードリーダおよび検出部25(図2の例とは異なる態様のもの)を挙げることができる。
(2.10.その他)
 上述した種々の構成要素(19、21、25、27、28、33、35、37、39、41、43および45)は、例えば、バス47(図2)によって接続されている。図2では、模式的に1本のバス47に全ての構成要素が接続されている。実際の製品においては、複数のバスが適宜な形式で接続されていてよい。例えば、アドレスバス、データバスおよびコントロールバスが設けられてよい。また、クロスバースイッチおよび/またはリンクバスが適用されてもよい。
 図2は、あくまで模式図である。従って、例えば、実際には、各種のデバイス(例えばCPU)は、分散して複数設けられていてよい。図示のCPU39は、プリンタ19またはスキャナ21に含まれるCPUを含む概念であってよい。バス47と各種のデバイス(例えばプリンタ19またはスキャナ21)との間には不図示のインターフェースが介在してよい。
 図2のブロック図は、画像処理装置3の構成を示すものとして説明された。ただし、図2は、適宜に、サーバ5および7、ならびに端末9の構成を示すブロック図として援用可能である。また、図2に示した構成要素の説明も、矛盾等が生じない限り、サーバ5および7、ならびに端末9の構成要素に援用されてよい。例えば、サーバ5および7、ならびに端末9の構成を示すブロック図は、図2からプリンタ19およびスキャナ21を省略したものとされてよい。また、サーバ5および7の構成を示すブロック図は、図2からさらに検出部25、撮像部28、操作部33および/または表示部35を省略したものとされてもよい。
(3.画像処理装置の処理系の構成)
 既述のとおり、画像処理装置3においては、例えば、CPU39がプログラムを実行することによって処理部29が構築される。サーバ5および7ならびに端末9においても同様である。以下では、処理部29の具体例について説明する。
 図3は、画像処理装置3の処理部29に係る構成を示すブロック図である。処理部29においては、認証部29a、監視部29bおよび制御部29cが構築される。
 認証部29aは、例えば、ユーザの認証を行う。図3では、認証が画像処理装置3のみによって行われる(サーバ5および端末9が認証の一部または全部を行わない)態様を例に取っている。また、図3では、アカウント情報D1と、生体情報(より詳細には顔特徴データD4)とを用いて認証を行う態様を例に取っている。
 具体的には、例えば、画像処理装置3の補助記憶装置45は、認証に利用する認証用テーブルDT1を記憶している。認証用テーブルDT1は、ユーザ毎にアカウント情報D1と顔特徴データD4とを対応付けて保持している。認証部29aは、操作部33から入力されたアカウント情報D1、および撮像部28が撮像した画像から取得される顔特徴データD4の組み合わせが、ユーザ毎の情報として認証用テーブルDT1に登録されているか否か判定する。登録されていれば認証成功であり、登録されていなければ認証失敗である。
 監視部29bは、例えば、撮像部28が撮像する画像等に基づいて画像処理装置3の周囲の人物の状況を監視する。例えば、監視部29bは、認証状態のときに撮像部28が繰り返し撮像する画像に基づいて、認証状態とされたユーザが、画像処理装置3(別の観点では撮像部28)を基準とする所定の範囲に存在するか否かを判断する。
 制御部29cは、例えば、認証部29aの認証結果および監視部29bの監視結果に基づいて、認証状態を制御する。例えば、認証結果が肯定的なもの(認証が成功したことを示すもの)であれば、画像処理に係る所定の機能(例えば印刷)の制限を解除する(別の観点では画像処理装置3を認証状態とする。)。また、例えば、監視部29bが、認証状態とされたユーザが不在となったと判断したときは、認証状態を解除する(別の観点では所定の機能を制限する。)。
 認証用テーブルDT1は、既述のとおり、ユーザ毎にアカウント情報D1と顔特徴データD4(生体情報)とを対応付けて保持している。なお、画像処理装置3(例えば家庭用のもの)は、1人のユーザのみを認証可能であってよい。このような態様であっても、便宜上、「ユーザ毎」にアカウント情報D1と顔特徴データD4とが対応付けられていると表現することがある。
 認証用テーブルDT1は、1つのアカウント情報に対して、2以上の生体情報を対応付けて記憶可能であってよい。ただし、実施形態の説明では、便宜上、特に断り無く、1つのアカウント情報に対して1つの生体情報が対応付けられる態様を例に取ることがある。
 2以上の生体情報は、例えば、1人のユーザの互いに異なる生体情報であってよい。そのような生体情報としては、例えば、互いに異なる指の指紋、または同一の指の互いに異なる時期に取得された指紋が挙げられる。前者の場合においては、例えば、怪我または加齢等に起因して1つの指での認証が失敗したときに他の指で認証を行うことができる。後者の場合においては加齢等に起因して生体情報が変化したときに認証が失敗する蓋然性が低減される。
 また、2以上の生体情報は、2種以上の生体情報であってよい。そのような生体情報としては、例えば、指紋および顔(顔特徴データ)が挙げられる。その他、種々の生体情報(1.1.1節を参照)のうちの2以上のものが適宜に選択されてよい。2種以上の生体情報が登録可能である場合、例えば、上記と同様に、不正行為以外の何らかの事情で1種類の生体情報で認証に失敗したときに、他の生体情報によって認証を行うことができ、ユーザの利便性が向上する。
 なお、互いに異なる指の指紋も互いに種類が異なる生体情報と捉えることが可能である。ただし、互いに異なる指の指紋に関しては、検出部25の構成および検出した生の情報の処理方法が互いに同じである。従って、実施形態の説明では、互いに異なる指の指紋は、同一の種類の生体情報として捉える。換言すれば、互いに種類が異なる生体情報は、例えば、検出のための構成および検出した情報の処理方法の少なくとも一方が異なるものである。
 2種以上の生体情報は、上記のとおり、例えば、選択的に利用されてよい。この態様では、2種以上の生体情報の全ての生体情報が登録されている必要はない。ただし、2種以上の生体情報は、全ておよび/または少なくとも2種が登録されることが要求されてもよい。さらには、2種以上の生体情報は、認証のときに、その全ておよび/または少なくとも2種が入力されることが要求されてもよい。この場合には、セキュリティが向上する。
 2種以上(または2以上)の生体情報の登録が任意であるか、必須であるか、および/または認証のときに2種以上(または2以上)の生体情報が選択的に利用されるか、必須とされるかは、全てのユーザに共通であってもよいし、ユーザによって、および/または権限(制限が解除される機能)によって異なっていてもよい。例えば、一般のユーザに対しては選択的に利用され、管理者に対しては2種(または2以上)以上の生体情報が要求されてよい。
 また、1つのアカウント情報に対応付けられる2以上の生体情報は、互いに異なる人物のものであってもよい。すなわち、「ユーザ」は、「人物」に限定されず、「アカウント」(別の観点ではユーザグループ)を含む概念であってよい。ただし、実施形態の説明では、便宜上、特に断り無く、1つのアカウント情報D1に対して1つの生体情報(顔特徴データD4)が対応付けられる態様を例に取ることがある。
 監視部29bは、例えば、認証状態のときに撮像部28が撮像した画像から検出される顔特徴データD4を用いて監視を行ってよい。このとき、検出された顔特徴データD4は、認証用テーブルDT1に記憶されている顔特徴データD4と比較されてもよいし、比較されなくてもよい。後者の態様としては、例えば、認証用テーブルDT1の顔特徴データD4に代えて、所定の時期(後述)に撮像した画像の顔特徴データD4が用いられる態様が挙げられる。所定の時期の顔特徴データD4が記憶されるメモリは、例えば、揮発性メモリ(例えばRAM43)とされてよい。ただし、上記メモリは、不揮発性メモリ(例えば補助記憶装置45)とされても構わない。
(4.認証に係る動作)
(4.1.認証に係る動作の概要)
 図4は、画像処理装置3(別の観点では処理部29)における認証に係る動作の概要を示すフローチャートである。なお、図4を含め、種々のフローチャートは、理解が容易になるように動作の手順を概念的に示すものであって、必ずしも実際の手順とは一致していないし、また、正確性を欠いていることもある。
 図4の処理は、例えば、画像処理装置3に電源が投入されたり、スリープモードから起動モードへの移行がなされたりしたときに開始されてよい。あるいは、図4の処理は、利用が制限されている所定の機能(例えば印刷)をユーザが実行しようとしたときに開始されてよい。なお、実施形態の説明では、特に断り無く、前者を例に取ることがある。
 ステップST1では、画像処理装置3は、アカウント認証が成功したか否か判定する。そして、画像処理装置3は、肯定判定のときはステップST2に進み、否定判定のときは、ステップST1を繰り返す(待機する。)。具体的には、例えば、画像処理装置3は、アカウント情報D1の入力を促す画像を表示部35に表示する。そして、操作部33を介して入力されたアカウント情報D1が認証用テーブルDT1に登録されているときは、肯定判定を行う。アカウント情報D1が入力されない場合、または入力されたアカウント情報D1が認証用テーブルDT1に登録されていない場合は、否定判定を行う。
 ステップST2では、画像処理装置3は、撮像部28によって撮像を行う。ステップST3では、画像処理装置3は、撮像した画像から顔特徴データD4を検出する。ステップST4では、画像処理装置3は、検出した顔特徴データD4と、認証用テーブルDT1においてステップST1のアカウント情報D1に対応付けられている顔特徴データD4とが一致するか否か判定する。そして、画像処理装置3は、肯定判定のときはステップST5に進み、否定判定のときは、ステップST9に進む。なお、ここでの否定判定は、顔特徴データD4同士が一致しない場合だけでなく、ステップST2で撮像した画像から顔特徴データD4を検出できない場合(換言すれば顔特徴データD4の生成が可能な顔の画像が得られていない場合)を含む。
 ステップST5では、画像処理装置3は、認証が完了(成功)したとき(認証状態のとき)の処理を行う。すなわち、画像処理装置3は、所定の機能(例えば印刷)の制限を解除する。認証状態が維持されている間は、所定の機能の制限は解除された状態が維持される。一方、ステップST9では、画像処理装置3は、認証が失敗したときの処理を行う。すなわち、画像処理装置3は、所定の機能の制限を維持する。
 ステップST6では、画像処理装置3は、撮像部28によって撮像を行う。ステップST7では、画像処理装置3は、撮像された画像に基づいて、認証状態とされたユーザとは別の人物が存在するか否か判定する。そして、画像処理装置3は、肯定判定のときはステップST8に進み、否定判定のときは、ステップST6およびST7を繰り返す。ステップST6およびST7が繰り返されている間は認証状態が維持される。このときの繰り返しの周期は任意である。例えば、当該周期は、1秒未満であってもよいし、1秒以上であってもよい。一方、ステップST8では、認証状態が解除される。
 以上のとおり、図4の例では、ステップST7において、撮像範囲に認証状態のユーザとは別の人物が存在すると判定されると、認証状態が解除される。上位概念化していえば、認証状態のときに撮像部28が撮像した画像に基づいて特定される、人物の状況が、所定の解除条件を満たすときに認証状態が解除される。
 認証状態の解除は、例えば、認証がなされていない状態に戻ることと言い換えることができる。認証状態の解除は、機能の制限の復活を伴うから、認証状態の解除は、機能の制限の復活によって把握されてよい。別の観点では、認証状態の解除と、機能の制限の復活とは、同じ動作によって把握されてよく、また、両者は明瞭に区別できなくてもよい。また、認証状態の解除は、認証を前提とした機能(例えば後述するVPN接続)の終了および/または認証を前提として取得した情報(例えば後述する権限情報)の無効化(例えばメモリからの消去)を伴ってよい。従って、認証状態の解除は、これらの動作の終了および/または情報の無効化によって把握されてよい。また、例えば、認証が成功したときにその旨を示すフラグが立てられる態様において、当該フラグを倒す動作によって把握されてもよい。この場合、認証を前提とした動作の終了および/または認証を前提として取得した情報の無効化は必ずしも伴わなくてもよい。
 認証状態の解除は、撮像部28の監視に基づくもの以外の種々の事象をトリガとして行われてよい。そのような事象としては、例えば、以下のものを挙げることができる。ユーザが操作部33に対して所定の操作を行ったこと。認証を必要とする機能(例えば所定の画像データをダウンロードして印刷する機能)をユーザが利用しようとしたときに画像処理装置3がユーザに認証を要求した場合において、上記機能に係る処理(「タスク」ということがある。)が終了したこと。所定時点(例えば操作部33に対する最後の操作が行われた時点)から所定の時間が経過したこと。
 画像処理装置3において、認証が必要な機能は、1種のみであってもよいし、2種以上であってもよい。また、1回の認証によって、1種の機能を繰り返し実行したり、2種以上の機能を実行したりすることが可能であってよい。ただし、1回の機能の実行ごとに認証が要求されたり、1種の機能ごとに認証が要求されたり、セキュリティレベルが高い機能を実行するときに再度認証が要求されたりしてもよい。
 使用に際して(別の観点では、認証に際して、および/または認証状態の制御に際して)取得された生体情報(例えばステップST3で取得される顔特徴データD4)は、登録されている生体情報との比較(例えばステップST4)が行われた直後に画像処理装置3から消去されてよい。ただし、使用に際して取得された生体情報は、その後の適宜な時期(例えば認証状態が解除される時期)まで画像処理装置3に記憶されて適宜に利用されても構わない。また、使用に際して取得された生体情報は、登録されている生体情報の更新に利用されてもよい。
(4.2.認証方法)
 これまでにも触れているように、認証方法は種々のものとされてよく、公知のものであってもよいし、新規なものであってもよい。例えば、既に触れたように、認証(特に認証のための比較動作)の主体は任意である。
 例えば、認証のための比較動作の主体は、画像処理装置3のみであってよい。具体的には、例えば、図3を参照して説明したように、画像処理装置3は、自己に入力された認証用情報(図3の例ではアカウント情報D1および顔特徴データD4)が、自己のデータベース(図3の例では認証用テーブルDT1)に予め登録されているか否か判定する。
 また、例えば、認証のための比較動作の主体は、他の通信機器(例えばサーバ5、端末9または他の画像処理装置3)であってもよい。具体的には、例えば、画像処理装置3に入力された認証用情報が他の通信機器に送信される。他の通信機器は、受信した認証用情報が当該他の通信機器において予め登録されているか否か判定する。他の通信機器は、肯定判定のときは、認証成功を示す認証結果を送信元の画像処理装置3へ送信し、否定判定のときは、認証失敗を示す認証結果を送信元の画像処理装置3へ送信する。
 また、例えば、認証のための比較動作の主体は、画像処理装置3と、他の通信機器(例えばサーバ5、端末9または他の画像処理装置3)との双方であってよい。具体的には、例えば、画像処理装置3は、自己に入力された第1の認証用情報(例えば生体情報)が、予め登録されているか否か判定する。そして、画像処理装置3は、肯定判定のときは第1の認証用情報に予め対応付けられている第2の認証用情報(例えばアカウント情報)を他の通信機器に送信し、否定判定のときは、そのような送信を行わない。他の通信機器は、受信した第2の認証用情報が当該他の通信機器において予め登録されているか否か判定する。他の通信機器は、肯定判定のときは、認証成功を示す認証結果を送信元の画像処理装置3へ送信し、否定判定のときは、認証失敗を示す認証結果を送信元の画像処理装置3へ送信する。
 また、例えば、認証のための比較動作の主体と、比較に利用されるデータベース(例えば認証用テーブルDT1)を基本的に保有している主体とは別個であってもよい。例えば、画像処理装置3は、必要に応じて、他の通信機器(例えばサーバ5、端末9または他の画像処理装置3)からデータベースの一部の情報を取得して、比較を行ってよい。
 上記の認証用情報(換言すればユーザの正当性を示すために利用される情報)の内容も任意である。これまでに、認証用情報の例として、アカウント情報D1および生体情報(例えば顔特徴データD4)を挙げた。他の例としては、静的鍵、共通鍵、秘密鍵(もしくは公開鍵)、電子証明書、およびセキュリティートークンから得られる情報が挙げられる。
 上記の例示から理解されるように、認証用情報は、他の通信機器(例えばサーバ5)へ送信される情報自体であってもよいし、他の通信機器へ送信される情報を生成するときに利用されるものであってもよい。前者としては、アカウント情報、静的鍵、電子証明書、セキュリティートークンから得られる情報および生体情報を挙げることができる。後者としては、共通鍵、ならびに秘密鍵(もしくは公開鍵)を挙げることができる。
 これまでの説明から理解されるように、また、画像処理装置3が記憶している認証用情報と、サーバ5が記憶している認証用情報とは、同じ情報であってもよいし、同じ情報でなくてもよい。画像処理装置3が記憶している認証用情報は、適宜に加工されてサーバ5へ送信されてもよい。そのような態様の一種として、チャレンジレスポンス認証が行われてもよい。
 また、認証用情報の上述した例示から理解されるように、認証用情報の画像処理装置3に対する入力態様も種々のものとされてよい。例えば、認証用情報は、操作部33に対する操作によって入力されてもよいし、検出部25(または撮像部28もしくはスキャナ21)に検出されてもよいし、コネクタ37にデバイスを接続することによって入力されてもよいし、画像処理装置3との通信を介して入力されてもよいし、画像処理装置3が有しているカードリーダ(不図示)によって検出されてもよい。
 操作部33に入力される認証用情報としては、例えば、アカウント情報およびセキュリティートークンから得られる情報を挙げられる。コネクタ37に接続されたデバイス(例えばUSBメモリ)またはカードリーダから入力される認証用情報としては、例えば、静的鍵、共通鍵、秘密鍵(もしくは公開鍵)、ならびに電子証明書が挙げられる。検出部25(または撮像部28もしくはスキャナ21)に検出される認証用情報としては、例えば、生体情報が挙げられる。画像処理装置3との通信による入力では、例えば、画像処理装置3の近くに位置する端末9からの近距離無線通信によって、上記の種々の認証用情報を入力できる。
 2以上の認証用情報および/または2以上の認証方法が用いられてよい。このときの利用態様は、AND条件もしくはOR条件または両者の組み合わせであってよい。AND条件での利用態様では、例えば、2以上の認証用情報の全てに関して認証が成功したり(図3および図4の例)、および/または2以上の認証方法の全てに関して認証が成功したりしたときに、認証が成功したとされる。OR条件での利用態様では、例えば、2以上の認証用情報からユーザが選択した少なくとも1つの認証用情報に関して認証が成功したり、および/または2以上の認証方法からユーザが選択した少なくとも1つの認証方法に関して認証が成功したりしたときに、認証が成功したとされる。OR条件での利用態様においては、認証用情報および/または認証方法の種類によって、制限が解除される機能が異なっていてもよい。
(4.3.認証状態の維持および解除に係る動作の具体例)
(4.3.1.人物の具体的な状況の評価方法)
 図4のステップST7に関して、単純に他の人物が撮像範囲に存在する場合、認証状態を解除する解除条件が満たされるものとして説明した。このような態様では、例えば、認証状態のユーザが存在しても、他の人物が存在すれば、認証状態が解除される。ただし、他の人物が存在する状況であっても、より具体的な状況に応じて認証状態が維持されてもよい。例えば、以下のとおりである。
 図5A~図6Cは、撮像部28によって撮像される画像の例を示している。各図は、画像内の人物の状況が互いに異なっている。図示の例では、撮像部28は、UI部23の周辺エリアを撮像しており、UI部23(別の観点では画像処理装置3の一部)も撮像されている。
 図5Aの例では、認証状態のユーザU1のみが撮像されている。この場合は、認証状態が維持されてよい。図5Bの例では、認証状態のユーザU1とは異なるユーザU2のみが撮像されている。この場合は、例えば、認証状態が解除されてよい。なお、実施形態の説明では、特に断りがない限り、ユーザU1は認証状態のユーザを指し、ユーザU2は、他のユーザを指す。
 図6A~図6Cの例では、ユーザU1およびU2の双方が撮像されている。ただし、図6Aの例では、ユーザU1は、ユーザU2よりもUI部23に近い。この場合は、例えば、認証状態が維持されてよい。図6Bの例では、ユーザU1およびU2のUI部23に対する近さは同等である。この場合は、例えば、認証状態が解除されてよい。図6Cの例では、ユーザU1は、ユーザU2よりもUI部23から遠い。この場合は、例えば、認証状態が解除されてよい。
 図示の例では、ユーザU1以外の人物として、ユーザU2のみを例示した。ただし、ユーザU1以外の人物が複数である場合も、同様に、ユーザU1がUI部23に最も近い場合は認証状態が維持され、それ以外の場合は、認証状態が解除されてよい。
 UI部23に最も近い人物は、UI部23の操作者と見做すことができる。従って、上記のユーザU1が最も近いか否かの判定は、操作者がユーザU1か否かの判定として捉えられてよい。また、UI部23に最も近い人物の交代は操作者の交代と捉えられてよい。ここでいう交代は、2人が同時に撮像されて交代が行われる態様だけでなく、1人1人が別々の時期に撮像されて交代が行われる態様が含まれてよい。
 上記の説明では、ユーザU1とUI部23との距離と、ユーザU1とUI部23との距離とを比較した。すなわち、人物とUI部23との距離を複数の人物間で相対的に評価した。ただし、人物とUI部23との距離は絶対的に評価されてもよい。例えば、ユーザU1しか存在しなくても、ユーザU1とUI部23との距離が所定の距離以上である場合は、認証状態が解除されても構わない。逆に、ユーザU2しか存在しなくても、UI部23との距離が所定の距離以上である場合は、認証状態が維持されても構わない。なお、人物とUI部23との距離が所定の距離以上の場合は、上記の捉え方とは異なり、その人物が不在と捉えられてもよい。また、画像に人物が写り込んでいても、その人物が画像内で極めて小さく写っている場合など、画像処理装置3から十分に離れていることが明らかな場合も、その人物は不在と捉えられてよい。
 人物とUI部23との距離は、適宜な方法によって特定されてよい。例えば、画像の奥行き方向の距離については、人物の輪郭の大きさによって距離が評価されてよい。例えば、図6Aの例では、ユーザU1の輪郭は、ユーザU2の輪郭よりも画像内で大きいことから、相対的に撮像部28の近くに位置していると判断できる。そして、図示の例では、撮像部28は、UI部23の付近から画像処理装置3の外側(画像処理装置3から離れる方向)を撮像しているから、撮像部28に相対的に近い人物は、UI部23に相対的に近いと評価することができる。相対的な距離の評価を例に取ったが、絶対的な距離の評価も人物の輪郭の大きさから評価可能である。なお、対象物との距離を測定する他のセンサ(例えば超音波センサ)が併用されて奥行き方向の距離が特定されてもよい。
 また、例えば、画像の左右方向の距離については、画像上のUI部23と人物との位置関係から相対的または絶対的に両者の距離を評価できることは明らかである。なお、人物の輪郭のうちUI部23に最も近い位置とUI部23との距離(最短距離)が特定されてもよいし、人物の輪郭の重心とUI部23との距離等が特定されてもよい。UI部23についても同様に、UI部23のうち人物に最も近い位置と人物との距離が特定されてもよいし、UI部23のうち予め定められた位置と人物との位置が特定されてもよい。
 画像の奥行き方向の距離の評価と、画像の左右方向の距離の評価とは、一方のみが行われてもよいし、双方が行われてもよい。後者の場合においては、例えば、適宜に奥行き方向の距離と左右方向との距離に重み付けがなされて総合評価がなされてもよいし、奥行き方向および左右方向のそれぞれの絶対的な距離を特定して、三平方の定理等の利用によって2次元平面における距離が評価されてもよい。
 図示の例では、画像の奥行き方向は、UI部23に操作する人物がUI部23に対して向く方向と概ね逆方向(以下、正面方向)となっている。ただし、撮像部28の撮像方向は、正面方向に限られず、平面視において正面方向に対して傾斜していてもよいし、正面方向に対して直交していてもよい。また、図示の例では、撮像部28の撮像方向は、概ね水平方向となっている。ただし、撮像方向は、水平方向に対して傾斜していてもよいし、概ね上方であってもよい。いずれにせよ、上述したような距離の評価が可能である。
 図示の例では、UI部23(別の観点では画像処理装置3の一部)も撮像されている。ただし、既述のとおり、UI部23は、必ずしも撮像されなくてもよい。UI部23が撮像されなくても、撮像部28が撮像した撮像範囲とUI部23との位置関係が予め画像処理装置3に入力されていれば、画像処理装置3は、1以上の人物とUI部23との距離(別の観点では1以上の人物とUI部23との位置関係)を特定可能である。また、UI部23が撮像されている場合、画像処理装置3は、画像上のUI部23と人物との位置関係を用いて両者の実際の位置関係を特定してもよいし、UI部23が撮像されていない場合と同様に、予め記憶している撮像範囲とUI部23との位置関係と、撮像範囲内の人物の位置とに基づいて、UI部23と人物との実際の位置関係を特定してもよい。
 人物とUI部23との距離は、人物の全身を基準として評価されてもよいし、人物の特定の部位を基準として評価されてもよい。例えば、後者の場合、顔がUI部23に近い人物に応じて認証状態が制御されてよい。特定の部位としては、顔の他、例えば、腕または手が挙げられる。人物の全身を基準とする場合、必ずしも人物の全身が撮像されている必要はない。例えば、人物の上半身のみが撮像されている場合、上半身の位置から全身の位置が推定されてもよいし、上半身の位置がそのまま全身の水平方向の位置と見做されてもよい。
 なお、人物の状況(別の観点では位置および/または距離)に関する説明において、「ユーザ」および「人物」の語は、矛盾等が生じない限り、「ユーザの顔」および「人物の顔」等の特定の部位を指す用語に置換されてよい。さらに、「ユーザ」および「人物」の語は、矛盾等が生じない限り、「顔特徴データ」の語に置換されてよい。例えば、人物が存在しないというような文章は、「顔特徴データ」が存在しない(検出されない)というような文章に読み替えられてよい。
 上記の説明では、人物のUI部23に対する距離を評価した。ただし、UI部23ではなく、画像処理装置3全体または画像処理装置3のUI部23以外の部位に対する距離が評価されてもよい。UI部23以外の部位としては、例えば、撮像部28または検出部25が挙げられる。人物の状況(別の観点では位置および/または距離)に関する説明において、「UI部23」の語は、矛盾等が生じない限り、適宜に「画像処理装置3」等に置換されてよい。
 また、画像処理装置3の全体または一部(例えばUI部23)を基準として、人物の位置を評価するのではなく、UI部23を操作する操作者が立つ位置を基準として、人物の位置を評価してよい。この場合、例えば、人物の顔の位置に基づいて認証状態を制御する態様において、顔の上下方向の位置は無視されてよい。操作者が立つ位置は、例えば、UI部23の中心に対して正面方向の位置であってよい。この位置は、画像処理装置3の製造者または管理者等によって予め規定されていてよい。操作者が立つ位置は、より上位概念で言えば、所定の立ち位置である。人物の状況(別の観点では位置および/または距離)に関する説明において、「UI部23」の語は、矛盾等が生じない限り、適宜に「操作者が立つ位置」等に置換されてよい。
 画像内の人物がユーザU1であるか否かは適宜に判断されてよい。例えば、画像処理装置3は、UI部23に対する画像内の1以上の人物との位置関係を特定する度に、顔特徴データを抽出して、画像内の1以上の人物がユーザU1であるか否か特定してよい。このとき画像内の人物の顔特徴データと比較される認証状態のユーザU1の顔特徴データは、画像処理装置3が認証前から予め記憶しているもの(例えば認証用テーブルDT1のもの)であってもよいし、認証が成功した時期と概ね同時期に撮像部28が撮像した画像から検出されたもの(2以上の顔特徴データが検出された場合には最もUI部23(既述のとおり他の用語に置換されてよい)に近いもの)であってもよい。
 また、例えば、画像処理装置3は、認証が成功した時期と概ね同時期に撮像された人物(2以上の顔特徴データが検出された場合には最もUI部23(既述のとおり他の用語に置換されてよい)に近い人物)を認証状態のユーザU1と見做して、その人物(および他の人物)の輪郭を追跡することによって、人物がユーザU1か否かを把握してもよい。この場合、画像処理装置3は、ユーザU1の輪郭が撮像範囲外に消えたときは、その後のユーザU1の追跡を諦めて認証状態を解除してもよいし、新たに撮像範囲内の入った人物の特徴(例えば顔特徴データ)がユーザU1のものであるか否かを判定して、追跡を再開してもよい(認証状態を維持可能としてもよい。)。また、例えば、基本的には輪郭を追跡して人物とUI部23との位置関係を特定しつつ、適宜な時期に顔特徴データによる照合を行ってもよい。
(4.3.2.具体的な状況に応じた認証状態の制御の手順)
 図7は、上記のような人物の具体的な状況に応じて認証状態を制御するために画像処理装置3(処理部29)が実行する手順の一例を示すフローチャートである。図7の処理は、最上部に示されているステップST6が、図4のステップST6と共通していることから理解されるように、例えば、認証が成功したときに開始される。
 この処理では、図4と同様に、処理がステップST6に戻る場合においては、認証状態が維持される。一方、処理がステップST6に戻らずに、最下部のステップST8(図4のステップST8と同じ)に到達すると、認証状態が解除される。具体的には、以下のとおりである。
 ステップST41では、画像処理装置3は、ステップST6で撮像された画像に基づいて、認証状態のユーザU1が不在か否か判定する。そして、画像処理装置3は、否定判定(図5A、図6A~図6C参照)のときはステップST42に進み、肯定判定(図5B参照)のときは、ステップST45に進む。なお、ここでの肯定判定は、図5Bとは異なり、誰も検出されない場合も含む。
 ステップST42では、画像処理装置3は、ステップST6で撮像された画像に基づいて、ユーザU1とは他の人物が存在するか否か判定する。そして、画像処理装置3は、肯定判定(図6A~図6Cを参照)のときはステップST43に進み、否定判定(図5Aを参照)のときは、ステップST48に進む。
 ステップST43では、UI部23に対する操作者が交代したか判定する。交代したか否かの判定は、既述のように、別の観点では、UI部23(既述のように他の用語に置換されてよい。)に近いか否かの判定である。そして、画像処理装置3は、肯定判定(図6Bおよび図6Cを参照)のときはステップST47に進み、否定判定(図6Aを参照)のときは、ステップST48に進む。
 ステップST47では、画像処理装置3は、認証状態を解除するための解除フラグを立てる。この解除フラグが後のステップで参照されることによって、認証状態が解除される。なお、図示の例とは異なり、ステップST47で認証状態が解除されても構わない。
 ステップST41でユーザU1が不在と判定され、処理がステップST45に進むと、ステップST47以降において認証状態が解除され得る。ただし、ここでは、ユーザU1が不在とされたときに即座に認証状態を解除するのではなく、所定時間に亘ってユーザU1が不在であるときに認証状態が解除される。これにより、例えば、ユーザU1が、何らかの都合によって短時間だけ画像処理装置3を離れたときにまで認証状態が解除されてしまう不都合が解消される。
 具体的には、ステップST45では、画像処理装置3は、所定のタイマが計時している時間が所定時間に到達したか否かを判定する。このタイマは、ステップST5(図4)以前において初期状態とされているとともに、ステップST41で否定判定がなされたときも初期状態にリセットされる。また、タイマは、初期状態のときにステップST41で肯定判定がなされると計時が開始され、初期状態でないときにステップST41で肯定判定がなされると計時を継続する。そして、画像処理装置3は、ステップST45において否定判定のときはステップST6に戻り(ここではステップST46は無視する。)、肯定判定のときはステップST47に進む。所定時間は、例えば、画像処理装置3の製造者、画像処理装置3の管理者および個々のユーザのいずれによって設定されてもよい。
 ステップST46は、画像処理装置3が上記のように所定時間の経過を待っているときに、他のユーザU2が検出されれば、画像処理装置3は、所定時間の経過を待たずに、認証状態の解除に進む(ステップST47に進む)という動作のためのものである。具体的には、画像処理装置3は、ステップST45で否定判定のとき(所定時間が経過していないとき)に、ステップST46に進む。ステップST46では、画像処理装置3は、ステップST6で撮像した画像に他のユーザU1が存在するか否か判定する。そして、画像処理装置3は、肯定判定のときは(図5Bを参照)、ステップST47に進み、否定判定のときは、ステップST6に戻る。
 ステップST48では、画像処理装置3は、印刷等のタスク(画像処理部31等に係る機能を利用する処理)の実行が要求されたか判定する。そして、画像処理装置3は、肯定判定のときはステップST49に進み、否定判定のときはステップST49をスキップしてステップST50に進む。ステップST49では、画像処理装置3は、要求されたタスクを実行する。
 ステップST50では、画像処理装置3は、解除フラグが立てられているか否か判定する。画像処理装置3は、否定判定のときはステップST6に戻り、肯定判定のときはステップST51に進む。ステップST51では、画像処理装置3は、タスクが実行中であるか否か判定する。画像処理装置3は、肯定判定のときは待機し(ステップST51を繰り返し)、否定判定のときはステップST8に進む。
 上記から理解されるように、タスクの実行中は、解除フラグが立てられても、即座に認証状態を解除することは行われず、タスクの実行が継続される。そして、タスクが完了した後に、認証状態が解除される。これにより、タスクが中断される不都合が解消される。
 また、ステップST6等は繰り返される。このときの周期は任意である。例えば、当該周期は、1秒未満であってもよいし、1秒以上であってもよい。後述する図8の例におけるステップST83等についても同様である。
 既述のとおり、人物が存在するか否かの判定は、顔特徴データを検出できたか否かの判定に置換されてよい。従って、例えば、ステップST41の判定は、ユーザU1の顔特徴データを検出できたか否かの判定とされてよいし、ならびに/またはステップST42および/もしくはST46のユーザU1とは別の人物が存在するか否かの判定は、ユーザU1の顔特徴データとは異なる顔特徴データを検出したか否かの判定とされてよい。
 ステップST41において、ユーザU1の有無の具体的な判定方法は任意である。例えば、上記のとおり、ユーザU1の顔特徴データが存在するか否かが判定されてよい。また、例えば、ユーザU1として追跡していた人物の輪郭が存在するか否かが判定されてよい。また、例えば、輪郭の追跡と顔特徴データの検出とを併用してもよい。具体的には、基本的には輪郭の追跡を行い、ユーザU1として追跡していた人物の輪郭が存在しなくなり、ステップST46を経由したときは、ユーザU1の顔特徴データが存在するか否か判定し、再度、ユーザU1の顔特徴データが検出されたときは輪郭の追跡に戻してよい。
 ステップST42において、ユーザU1とは別の人物の有無の具体的な判定方法は任意である。例えば、既述のとおり、ユーザU1の顔特徴データとは別の顔特徴データが存在するか否かが判定されてよい。また、例えば、ユーザU1の輪郭として追跡していた人物とは別の人物の輪郭が存在するか否かが判定されてよい。また、例えば、複数の人物(その輪郭および/または顔特徴データ)が検出されたか否かが判定されてよい。複数の人物が存在するということは、ユーザU1とは他の人物が存在するということだからである。ステップST42を例に取ったが、上記の説明は、ステップST46に援用されてよい。
 図7では、理解を容易にするために、ステップST41、ST42およびST43を別個のステップとしているが、これらの2つ以上は、一体不可分の処理であってもよい。同様に、ステップST41およびST46は、一体不可分の処理であってもよい。ステップST42およびST46は、1つの処理であってもよい。
 図示の処理は、適宜に変更されてよい。例えば、ステップST45およびST46を無くし、ユーザU1が不在となったときに即座に解除フラグを立てても構わない。
(4.4.認証状態の維持および解除に係る動作の他の具体例)
 図5A~図7を参照して説明した具体例では、操作者が認証状態のユーザU1とは別のユーザに代わったときに、認証状態を解除した。この認証状態の解除は、一時的なものとされてよい。そして、再度、操作者がユーザU1になったときに、認証状態が復活されてもよい。具体的には、以下のとおりである。
 図8および図9は、画像処理装置3(処理部29)が実行する処理の手順の一例を示すフローチャートである。図8の処理は、ユーザの認証が完了したとき(図4のステップST5の後)に開始される。図9の処理は、図8および図9に共通の「B」が付されていることによって示されているように、図8のステップST87で肯定判定がなされた場合に実行される。
 ステップST81およびST82は、顔認証を経ずに認証状態が開始される態様を想定したものである。従って、画像処理装置3は、図8の処理が開始される前において、ユーザU1の顔特徴データD4を有していない。ただし、ステップST81およびST82は、顔認証を経ずに認証状態が開始される態様にも適用可能である。
 ステップST81では、画像処理装置3は、撮像部28によって撮像範囲を撮像する。ステップST81は、画像処理装置3に認証用情報を入力して認証が成功した直後(別の観点では認証状態が開始されたときと概ね同時期)に行われるので、基本的に、認証状態のユーザU1が撮像される。ステップST82では、画像処理装置3は、ステップST81で撮像した画像から顔特徴データD4を抽出し、メモリ(例えばRAM43)に記憶する。
 ステップST83では、画像処理装置3は、撮像部28によって撮像範囲を撮像する。ステップST84では、画像処理装置3は、ステップST83で撮像した画像から得られる顔特徴データD4が、ステップST82で保存したユーザU1の顔特徴データD4と一致するか否か判定する。そして、画像処理装置3は、否定判定(図5Bを参照)のときはステップST85に進み、肯定判定(図5A、図6A~図6Cを参照)のときはステップST87に進む。
 なお、図3に示した態様と同様に、画像処理装置3が予め(認証を行うよりも前に)顔特徴データD4を有している態様においては、ステップST81およびST82は省略されてよい。そして、ステップST84では、ステップST83で撮像された顔特徴データD4と、上記の予め記憶されている顔特徴データD4とが比較されてよい。後述するステップST91およびST92についても同様である。
 ステップST85は、図7のステップST45と同様の役割のステップである。すなわち、認証状態とされたユーザの顔特徴データD4が検出できなくなったときに即座に認証を解除するのではなく、所定時間に亘ってユーザの顔特徴データD4が検出されなかったときに、認証状態が解除される(ステップST86)。
 ステップST85については、ステップST45の説明が援用されてよいが、念のために、説明する。ステップST85では、画像処理装置3は、所定のタイマが計時している時間が所定時間に到達したか否かを判定する。このタイマは、ステップST82以前において初期状態とされているとともに、ステップST84で肯定判定がなされると初期状態にリセットされる。また、タイマは、初期状態のときにステップST84で否定判定がなされると計時が開始され、初期状態でないときにステップST84で否定判定がなされると計時を継続する。そして、画像処理装置3は、ステップST85において否定判定のときはステップST83に戻り、肯定判定のときはステップST86に進む。所定時間は、例えば、画像処理装置3の製造者、画像処理装置3の管理者および個々のユーザのいずれによって設定されてもよい。
 ステップST87では、画像処理装置3は、認証状態とされているユーザU1とは別のユーザによって、所定の処理(例えば画像処理部31および通信部27の少なくとも一方に係る処理)が指示されたか否か判定する。換言すれば、割り込み処理(割り込み操作)がなされたか否か判定する。ユーザU1による指示(操作)であるか否かは、図5A~図7を参照して説明したように、人物の状況(位置関係)から特定されてよい。
 画像処理装置3は、ステップST87の判定結果が否定判定のとき(割り込みがなされていないと判定されたとき)は、ステップST83に戻る。これにより、認証状態が維持される。また、画像処理装置3は、肯定判定のときは、ステップST88に進む。
 ステップST88では、画像処理装置3は、認証状態を解除する。ただし、ここでの解除は、完全な解除ではなく、後に認証を経ずに認証状態に復帰できるような一時的なものである。例えば、認証状態を示すフラグとして、認証状態と、認証状態の解除と、認証状態の一時的な解除との3種を用意し、認証状態の一時的な解除に対応するフラグを立ててよい。そして、画像処理装置3は、認証状態の解除のフラグが立てられているときと同様に機能を制限してよい。ただし、認証状態の復帰に必要な情報は適宜に保存されていてよい。例えば、ステップST82で取得された顔特徴データD4は、保存されたままとされてよい。また、後述するようにユーザ毎に制限される機能が異なる場合は、認証状態とされていたユーザを特定する情報(アカウント情報)および/または認証状態とされていたユーザに対して制限が解除されていた機能を特定する情報が保存されたままとされてよい。
 ステップST89では、画像処理装置3は、ステップST87における肯定判定の要因となった割り込み処理を実行する。ステップST90では、画像処理装置3は、割り込み処理が終了したか否か判定する。そして、画像処理装置3は、否定判定のときは割り込み処理を継続し、肯定判定のときはステップST91に進む。
 ステップST91およびST92では、ステップST83およびST84と同様の処理が行われる。そして、ステップST92で肯定判定がなされたときは、画像処理装置3は、認証状態を復帰させる(ステップST93)。例えば、画像処理装置3は、上述したフラグを認証状態とし、ステップST88の前と同様に所定の機能の制限を解除してよい。特に図示しないが、その後、画像処理装置3は、再度、ステップST83(またはST87)に戻る。また、ステップST92で否定判定がなされたときは、画像処理装置3は、認証状態を完全に解除する(ステップST94)。なお、ステップST94は、図8のステップST86と同一の処理であってよい(ステップST92の否定判定の後、ステップST86に進むと解釈されてよい。)。特に図示しないが、その後、画像処理装置3は、認証前のステップ(図4のステップST1を参照)に戻る。
 ステップST93を経てステップST83に戻り、ステップST84で肯定判定がなされたとき、他のユーザが既に操作者とは見做されない状態になっているのであれば、ステップST87で否定判定がなされ、認証状態が維持される。また、他のユーザがまだ操作者と見做される状態であるとき(例えば他のユーザがさらに次の割り込み処理を行っているとき)は、再度、ステップST87で肯定判定がなされて認証状態が解除される。
 上記の処理は適宜に変更されてよい。
 例えば、顔特徴データD4は、利用されなくてもよい。例えば、図7の説明で述べたように、人物の輪郭を追跡したり、顔特徴データおよび輪郭の追跡を併用したりして、ユーザU1の有無が判定されたり、他のユーザの有無が判定されたりしてよい。
 また、ステップST81およびST82では、撮像された人物(より詳細には図示の例では顔特徴データD4)が、無条件に、認証状態とされたユーザU1として見做された。ただし、画像処理装置3に対して所定の位置関係にある人物が特定され(操作者の特定に係る既述の説明が援用されてよい。)、この人物がユーザU1として特定されてよい。そして、ユーザU1の輪郭が追跡されたり、および/またはユーザU1の顔特徴データD4がステップST82で保存されたりしてよい。
 図7でもステップST45について述べたように、ステップST85が省略されて、所定時間の経過を待たずに、認証が解除されても構わない。また、図7のステップST46と同様のステップを挿入し、他の人物が検出されたときは、所定時間を待たずに認証状態を解除してもよい。
(4.5.認証状態の維持および解除に係る動作のさらに他の具体例)
 これまでの説明では、認証が行われると、一律に撮像部28による監視に基づく認証状態の制御が行われた。ただし、当該制御は、認証が行われ、かつ特定の条件が満たされたときに行われてもよい。例えば、相対的に高いセキュリティレベルが要求されるときのみにおいて、撮像部28による監視に基づく認証状態の制御が行われてもよい。これにより、画像処理装置3の負担を軽減しつつ、セキュリティレベルを効果的に高くすることができる。
 図10は、上記のような態様を実現するために、画像処理装置3が実行する処理の手順の一例を示すフローチャートである。
 図10の処理(ステップST61)は、図4と共通のステップST5から理解されるように、例えば、認証が完了したときに開始される。ただし、認証の開始後かつ認証の完了前に開始されても構わない。
 ステップST61では、画像処理装置3は、一定の条件が満たされるか否か判定する。図10では、セキュリティレベルが高いか否か(所定のレベル以上か否か)が例示されている。そして、画像処理装置3は、肯定判定のときはステップST62に進み、否定判定のときはステップST63に進む。
 ステップST62では、撮像部28による監視が行われる。例えば、図4のステップST6~ST8が行われる。一方、ステップST62では、撮像部28による監視は行われない。この場合は、他の事象をトリガとして、認証状態が解除されてよい。他の事象の例については既に述べた。
 セキュリティレベルの高低は、例えば、以下のように説明することができる。セキュリティレベルが低いときは、第1の数の機能の制限が解除される。セキュリティレベルが高いときは、第1の数の機能を含み、かつ第1の数より多い第2の数の機能の制限が解除される。また、別の観点では、セキュリティレベルが低いときは、第1の機能および第2の機能のうち第2の機能のみの制限が解除され、セキュリティレベルが高いときは、第1の機能および第2の機能の双方の制限が解除される。第1の機能および第2の機能の具体例については、5.1節で述べる。
 また、撮像部28による監視の有無は、認証情報の相違、認証方法の相違および/またはユーザの相違に応じて決定されてもよい。これらの相違は、セキュリティレベルと関連していてもよいし、関連していなくてもよい。例えば、上記事項の相違によって制限が解除される機能が異なっており、これにより、上記事項がセキュリティレベルに関連していてもよい。なお、このことから理解されるように、画像処理装置3は、セキュリティレベルの高低を適宜な情報に基づいて判断してよい。もちろん、制限が解除される機能自体の情報に基づいてセキュリティレベルが判断されてもよい。
(5.機能制限の解除に係る動作)
 認証結果に基づく機能の制限の解除は、種々の態様で行われてよい。以下に例を示す。
(5.1.機能制限の解除に係る動作全般)
(5.1.1.制限の解除が制御される機能の種類)
 認証結果に基づいて制限の解除が制御される機能は、例えば、画像処理部31(プリンタ19および/またはスキャナ21)および通信部27の少なくとも一方に関連する機能であってよい。制限対象とされる機能としては、例えば、以下のものを挙げることができる。以下に挙げる複数の機能の1以上が適宜に選択されて制限対象とされてよい。なお、以下に挙げる複数の機能は、互いに重複していたり、一体不可分であったりすることがある。
 まず、制限対象となる機能としては、プリンタ19による印刷が挙げられる。印刷は、細分化して捉えられた機能毎に制限されてよい。例えば、印刷は、スキャナ21によるスキャンに基づく印刷、通信部27によって受信したデータに基づく印刷、画像処理装置3(補助記憶装置45)またはコネクタ37に接続されたデバイス(例えば不揮発性メモリ)に記憶されているデータに基づく印刷に細分化されてよい。
 通信部27によって受信したデータに基づく印刷の制限は、送信元の通信機器(例えば他の画像処理装置3、サーバ5もしくは7または端末9)に応じてさらに細分化されてもよい。なお、通信先の制限によって、このような印刷の制限が実質的に実現されてもよい。また、通信部27によって受信したデータに基づく印刷の制限は、通信の態様(通常のデータ通信、メール受信もしくはFAX受信)に応じてさらに細分化されてもよい。
 画像処理装置3に保存されているデータに基づく印刷の制限は、データが保存されているボックス(別の表現ではフォルダまたはディレクトリ)の種類に応じてさらに細分化されてよい。なお、機密性が高いファイル(文書ファイルおよび/または画像ファイル)が保存されることが想定されているボックスへのアクセスの制限によって、このような印刷の制限が実質的に実現されてもよい。
 コネクタ37に接続されたメモリに記憶されているデータに基づく印刷の制限は、接続されるデバイスの種類または個体に応じてさらに細分化されてよい。なお、コネクタ37に接続可能なデイバスの制限(いわゆるデバイスコントロール)によって、このような印刷の制限が実質的に実現されてもよい。
 また、制限対象となる機能としては、スキャナ21によるスキャンが挙げられる。印刷と同様に、スキャンは、細分化して捉えられた機能毎に制限されてよい。例えば、スキャンは、コピー(印刷)のためのものと、データ(例えば画像データ)の送信のためのものと、画像処理装置3(補助記憶装置45)またはコネクタ37に接続されたデバイスへのデータの保存のためのものとに細分化されてよい。
 データの送信のためのスキャンは、送信先の通信機器(例えば他の画像処理装置3、サーバ5もしくは7または端末9)に応じてさらに細分化されてもよい。なお、送信先の制限によって、このようなスキャンの制限が実質的に実現されてもよい。また、データの送信のためのスキャンは、通信の態様(通常のデータ通信、メール送信もしくはFAX送信)に応じてさらに細分化されてもよい。
 画像処理装置3への保存のためのスキャンは、保存先のボックスの種類に応じてさらに細分化されてよい。なお、機密性が高いファイルが保存されることが想定されているボックスへのアクセスの制限によって、このようなスキャンの制限が実質的に実現されてもよい。
 コネクタ37に接続されたデバイスへの保存のためのスキャンは、接続されるデバイスの種類または個体に応じてさらに細分化されてよい。なお、コネクタ37に接続可能なデイバスの制限によって、このようなスキャンの制限が実質的に実現されてもよい。
 また、制限対象となる機能は、印刷またはスキャンのような主要な機能でなくてもよい。例えば、制限対象となる機能は、印刷される用紙の余白の大きさを設定するような、主要な機能に関する設定を行う機能であってもよい。ただし、このような機能は、余白を任意に設定して印刷を行う機能として捉えられてよく、ひいては、主要な機能の一種として捉えられて構わない。
 また、制限対象となる機能は、画像処理装置3の管理者が利用する機能であってもよい。例えば、画像処理装置3は、一律に(ユーザの認証結果によらずに)、上述した主要な機能の一部を禁止したり、画像処理装置3に対する所定のデバイスの接続を禁止したりする設定を受け付け可能であってよい。そして、そのような設定の制限が、特定のユーザ(画像処理装置3の管理者)に対して解除されてよい。
(5.1.2.機能の制限の態様)
 上記のとおり、画像処理装置3は、種々の機能を有している。制限対象とされる機能は、認証のための機能を除く種々の機能のうち、全てであってもよいし、一部であってもよい。別の観点では、生体認証を経た認証に失敗したユーザは、実質的に画像処理装置3を利用できないようにされてもよいし、一部の機能を利用可能であってもよい。
 4.5節で述べたように、撮像部28による監視は、セキュリティレベルが高いときにのみ行われてもよい。別の観点では、種々の機能のうち特定の機能の制限が解除されるときのみ、撮像部28による監視が行われてもよい。このときの上記特定の機能の種類は任意である。
 例えば、撮像部28による監視が行われる認証状態では制限が解除され、監視が行われない認証状態では制限が解除されない機能は、例えば、以下のいずれか1つ以上であってよい。画像処理装置3が有しているボックスのうち、機密性が高いファイルが保存されるものとして設定されているボックスへのアクセス。スキャナ21によって読み取った画像のデータの外部(例えばサーバ7、端末9または他の画像処理装置3。以下、同様。)への送信。画像処理装置3のコネクタ37に接続されたデバイス(例えば不揮発性メモリ)に保存されているデータの外部への送信。
 逆に、監視が行われない認証状態でも制限が解除されてよい機能は、例えば、以下の1つ以上であってよい。コピー(スキャナ21で読み取った原稿の画像をプリンタ19によって印刷する機能)。外部からのデータに基づくプリンタ19による印刷。機密性が高いファイルが保存されるものとして設定されていないボックスへのアクセス。
 認証に成功した場合の機能の制限解除の態様は、全てのユーザに共通であってもよいし、ユーザ毎に個別に設定可能であってもよい。前者を別の観点でいうと、認証がなされずに機能の制限解除がなされないユーザと、認証がなされて機能の制限解除がなされるユーザとの2種のみが存在してよい。そして、機能の制限解除がなされるユーザ同士において、利用できる機能に差異がなくてよい。
 認証に成功した場合の機能の制限解除が、ユーザ毎に個別に設定可能である場合の例を挙げる。認証がなされないユーザが第1の機能および第2の機能の双方を利用できない場合を想定する。このとき、認証がなされたユーザとして、第1の機能のみを利用できるユーザ、第2の機能のみを利用できるユーザ、第1の機能および第2の機能の双方を利用できるユーザ、および認証がなされても、認証がなされないユーザと同様に機能の制限がなされるユーザのうちの2種以上が存在してよい。
 上述した制限解除の動作は、より具体的な種々の態様で実現されてよい。以下に例を示す。
(5.2.機能の制限解除に関する具体例)
 図11は、上記の動作を実現する通信システム1の信号処理系の構成の例を示すブロック図である。
 図11の例では、画像処理装置3が認証を行うのではなく、サーバ5が認証を行う態様が例示されている。ただし、以下の説明は、画像処理装置3が認証を行う態様等にも適用可能である。
 図11の例では、画像処理装置3の認証要求部29dは、認証用情報D2(例えばアカウント情報D1)をサーバ5へ送信する。一方、サーバ5は、認証用情報D2を記憶している認証用テーブルDT2を有している。そして、サーバ5の認証部5aは、受信した認証用情報D2が認証用テーブルDT2に登録されているか否かを判定し、登録されているときは、認証成功を示す認証結果D3を送信元の画像処理装置3へ送信し、登録されていないときは、認証失敗を示す認証結果D3を送信元の画像処理装置3へ送信する。
 サーバ5は、例えば、認証用情報D2(アカウント情報D1)に含まれるIDを特定することができ、また、認証用テーブルDT2において認証用情報D2(アカウント情報D1でないもの)と紐付けられているIDを特定できる。また、サーバ5は、IDと権限情報D5とを紐付けている権限テーブルDT3を有している。そして、サーバ5は、権限テーブルDT3を参照して、特定したIDに紐付けられている権限情報D5を抽出する。そして、サーバ5は、抽出した権限情報D5を画像処理装置3へ送信する。画像処理装置3の処理部29は、その受信した権限情報D5に基づいて、機能の制限の解除を行う。
 なお、権限情報D5の送信は、受信した認証用情報D2が認証用テーブルDT2に登録されていること(認証が成功したこと)を前提とするから、権限情報D5の送信は、認証結果D3の送信として扱われたり、捉えられたりしてよい。権限情報D5は、例えば、上記の動作が実行される前(図4の処理の前)に、サーバ5の管理者によって、IDと紐付けて権限テーブルDT3に記憶されてよい。
 また、認証用情報および/または認証方法の種類によって権限情報D5の内容が異なっていてよい。これにより、既述のように、認証用情報および/または認証方法の相違によってセキュリティレベルが異なっていてもよい。また、画像処理装置3は、認証用情報および/または認証方法の種類を特定可能であるから、上記とは異なり、認証用情報および/または認証方法の種類によらずに、同じ権限情報D5が送信され、画像処理装置3において、その権限情報D5で制限が解除されている機能のうち、特定のものに対して、制限を解除しないようにしてもよい。
 上記の構成および動作は、一例に過ぎず、また、説明を容易にするための概念的なものである。権限の制限の解除を行うための構成および動作は、適宜に変更および/または具体化されてよい。
 例えば、認証用テーブルDT2と権限テーブルDT3とは統合されていてもよい。IDと紐付けられる情報を有する他のテーブル(例えば後述するユーザ情報テーブルDT5、および後に図13を参照して説明するメニューテーブルDT7)についても同様である。上記とは逆に、図示のテーブルは適宜に分割されてもよい。例えば、権限テーブルDT3においては、IDと機能毎の制限の情報とが直接的に紐付けられている。図示の例とは異なり、IDと所定数の権限レベルのいずれかとを紐付けたテーブルと、所定数の権限レベルのそれぞれと、権限毎の制限の情報とが紐付けられたテーブルとがサーバ5に記憶されていてもよい。
 また、例えば、上記のサーバ5の動作の一部は、画像処理装置3(処理部29)が実行してもよい。
 より詳細には、例えば、画像処理装置3が権限テーブルDT3を有してよい。そして、処理部29は、サーバ5から認証成功が通知されたとき、自己が有している権限テーブルDT3を参照して、入力されたID(または入力された生体情報等の認証用情報と対応付けられて画像処理装置3に記憶されているID)に対して紐付けられている権限情報D5を抽出し、機能の制限の解除を行ってよい。
 また、例えば、権限テーブルDT3が、IDと権限レベルとを紐付けたテーブルと、権限レベルと機能毎の制限の情報とを紐付けたテーブルとに分割されている場合において、画像処理装置3は、分割された2つのテーブルの双方を有してよいし、あるいは、後者のテーブルのみを有してよい。画像処理装置3が権限レベルと機能毎の制限の情報とを紐付けたテーブルのみを有する場合は、サーバ5は、図示の例とは異なり、権限レベルの情報を権限情報D5として画像処理装置3へ送信する。そして、画像処理装置3は、自己が有しているテーブルを参照して、受信した権限レベルに紐付けられた機能毎の制限の有無の情報を抽出し、機能の制限の解除を行ってよい。
 権限情報を受信または抽出した画像処理装置3(処理部29)は、表示部35に権限の情報を示してもよい。図11では、表示部35の画面35aに権限情報が示されている。このとき、画像処理装置3は、権限情報とともにユーザ情報を画面35aに示してもよい。ユーザ情報は、例えば、ユーザ名を含む。また、ユーザ情報は、ユーザの所属など、他の情報を含んでもよい。
 具体的には、図示の例では、サーバ5は、IDとユーザ名とを紐付けたユーザ情報テーブルDT5を有している。ユーザ名は、例えば、図11に示す動作が実行される前(図4の処理の前)に、ユーザにより、および/またはサーバ5の管理者によって、IDと紐付けてユーザ情報テーブルDT5に記憶(登録)されてよい。そして、サーバ5は、上述した権限テーブルDT3からの権限情報の抽出および送信と同様に、認証部5aによって特定されたIDに対応するユーザ名をユーザ情報テーブルDT5から抽出し、画像処理装置3へ送信する。画像処理装置3は、受信したユーザ名を画面35aに表示する。
 なお、上記とは異なり、ユーザ情報テーブルDT5は、画像処理装置3が保持していてもよい。そして、画像処理装置3は、サーバ5から認証成功が通知されたとき、自己が有しているユーザ情報テーブルDT5を参照して、入力されたID(入力された生体情報等の認証用情報と対応付けられて画像処理装置3に記憶されているID)に対して紐付けられているユーザ情報を抽出し、表示部35に表示してよい。また、既に触れたように、ユーザ情報テーブルDT5は、認証用テーブルDT2および/または権限テーブルDT3と統合されていてもよい。図示の例では、IDとは別個にユーザ名が定義されているが、IDがユーザ名として利用されて、画面35aに表示されても構わない。
 図12は、機能の制限およびその解除のために画像処理装置3(処理部29)が実行する処理の手順の一例を示す図である。
 図12の処理は、適宜に開始されてよい。ここでは、まず、画像処理装置3の電源スイッチが操作されることなどによって画像処理装置3が起動モードになったときに開始される態様を例に取って説明する。この場合、図4を参照して説明した認証は、図12の処理が実行されている間の適宜な時期に、図12の処理に並行して実行されてよい。
 ステップST21では、画像処理装置3は、操作部33への操作または通信部27を介した通信等によって、印刷等のタスクの実行が要求されたか否か判定する。そして、画像処理装置3は、否定判定のときは待機する(別の観点では所定の周期でステップST21を繰り返す。)。また、肯定判定のときは、画像処理装置3は、ステップST22に進む。なお、ここでいうタスクは、説明の便宜上、実行の制限およびその解除がなされるものに限るものとする。
 ステップST22では、画像処理装置3は、要求されたタスクについて、ユーザが実行する権限を有しているか否か判定する。そして、画像処理装置3は、肯定判定のときは、ステップST23へ進み、否定判定のときは、ステップST24へ進む。
 なお、ステップST22の時点で、権限情報が特定されていない場合、および認証が解除されて権限情報が無効になっている場合においては、権限が無いものと判定されてよい。権限情報が特定されていない場合としては、認証の処理が行われていない場合、および認証に失敗した場合を挙げることができる。
 ステップST23では、画像処理装置3は、要求されたタスク(例えば印刷)を実行するように、プリンタ19および/またはスキャナ21を制御する。なお、ステップST21およびST23は、図7のステップST48およびST49と同じものである。
 ステップST24では、画像処理装置3は、要求されたタスクの実行(機能)が制限されていることをユーザに報知する。この報知は、例えば、視覚的になされてもよいし、音響的になされてもよい。視覚的な報知は、所定の画像および/または文字を表示するものであってもよいし、所定の表示灯を所定の状態(点灯状態、点滅状態または消灯状態)にするものであってもよいし、これらの組み合わせであってもよい。音響的な報知は、所定の音声および/または警告音(ブザー音もしくはメロディ)を出力するものであってよい。他のステップにおける報知も同様とされてよい。
 ステップST25では、画像処理装置3は、所定の終了条件が満たされたか否か判定する。そして、画像処理装置3は、否定判定の場合は、ステップST21に戻り、肯定判定の場合は、図12に示す処理を終了する。終了条件は、例えば、画像処理装置3の起動終了の条件またはスタンバイモードへの移行の条件と同様とされてよい。
 上記の処理は適宜に変更されてよい。
 例えば、上記では、説明の便宜上、タスクは、実行の制限およびその解除がなされるものに限った。しかし、処理部29は、ステップST21とST22との間で、要求されたタスクが、実行の制限およびその解除がなされるものであるか否かを判定し、肯定判定のときはステップST22に進み、否定判定のときはステップST23に進んでよい。
 また、例えば、画像処理装置3は、ステップST21とステップST22との間において、その時点で有効な(認証状態が解除されていない)権限情報が特定されているか否か判定し、肯定判定のときにステップST22に進み、否定判定のときは報知を行ってよい。この報知において、画像処理装置3は、ユーザに認証を要求する表示を表示部35に表示してもよい。その後、画像処理装置3は、ステップST25へ進んでもよいし、認証用情報が入力されるまで待機してもよい。後者の場合、画像処理装置3は、認証用情報が入力されたときに、認証(図4の処理)および権限情報の特定を行い、ステップST22へ進んでよい。ただし、所定時間を経過しても認証用情報が入力されないとき、または所定のキャンセル操作がなされたときは、画像処理装置3は、ステップST25へ進んでよい。
 また、例えば、図12の処理は、認証および権限情報の特定が行われたことを条件として開始されてもよい。この場合、ステップST25の終了条件は、認証状態が解除されて権限情報が無効になったこととされてよい。また、この場合、例えば、認証がなされていない状態では、表示部35にユーザに認証を要求する表示が示されていてよい。
 なお、図11を参照して説明した、認証を行ったユーザの権限情報を特定する動作は、別の観点では、受信または抽出した権限情報をステップST22で参照可能に記憶する動作である。この動作は、記憶した権限情報が、少なくとも1つの機能について、ユーザが権限を有することを示す情報を含む場合、機能の制限を解除する動作の一例であると捉えられてよい。また、ステップST22における肯定判定およびステップST23におけるタスクの指示も、機能の制限を解除するという動作の一例として捉えられてよい。
(5.3.機能制限に係るメニュー画面の例)
 認証結果に基づいて機能の制限解除を制御するとき、表示部35に表示されるメニュー画面の設定が共に行われてもよい。この設定は、ユーザ毎に行われてもよい。具体的には、以下のとおりである。
 メニュー画面は、例えば、GUI(Graphical User Interface)における1以上の選択肢を含む画面(画像)である。ポインティングデバイスによって選択肢が選択されると、その選択肢に対応する処理が実行される。例えば、操作部33および表示部35がタッチパネルによって構成されている態様においては、指またはタッチペンによって、表示部35に表示された1以上の選択肢のいずれかが押されると、対応する処理が実行される。
 画像処理装置3のメニュー画面において示される選択肢に対応する処理は、種々の処理とされてよい。例えば、選択肢は、印刷、スキャン、コピー、FAX送信およびFAX受信(ただし、これらは必ずしも分離できる概念ではない。)等の主要な機能に係る動作を実行させる処理であってよい。および/または、選択肢は、上記動作に係る設定を行う処理であってよい。そのような設定としては、例えば、紙の大きさの選択、印刷倍率の設定および印刷の濃さを挙げることができる。先の説明において、主要な機能は適宜に細分化されて権限が設定されてよいことを述べたが、この細分化の説明は、選択肢の細分化に適宜に援用されてよい。
 ユーザ毎のメニュー画面は、例えば、ユーザ毎の好みを反映したものであってもよいし、および/またはユーザ毎の権限を反映したものであってもよい。前者としては、例えば、特定の選択肢の画面35a内における位置、大きさ、色および形状等をユーザの好みに合わせたものを挙げることができる。後者としては、例えば、ユーザが所定の機能について権限を有しているか否かによって、その機能に係る選択肢の表示態様を異ならせた画面を挙げることができる。より詳細には、例えば、権限の有無によって選択肢の色が異なっている画面、および権限が有る選択肢のみが表示される(権限が無い選択肢が表示されない)画面が挙げられる。
 なお、権限が有る選択肢のみが表示されるメニュー画面が表示される態様においては、ユーザは、権限が有る選択肢に対応する処理のみを指示できる。従って、この場合のメニュー画面の表示の制御は、機能の制限解除の制御の一例として捉えられてよい。
 認証結果に基づくユーザ毎のメニュー画面の設定は、例えば、認証に成功したユーザに対するメニュー画面と、それ以外のユーザに対するメニュー画面との2種のみの設定であってよい。また、例えば、認証に成功した互いに異なるユーザに互いに異なるメニュー画面を設定可能であってもよい。認証が成功しないユーザにはメニュー画面が表示されないようにしてもよい。
 画像処理装置3は、最初に表示されるメインメニュー画面と、メインメニューの画面の選択肢を選択することによって表示される1以上のサブメニュー画面とを表示可能であってよい。この場合において、ユーザ毎に設定されるメニュー画面は、メインメニュー画面であってもよいし、1以上のサブメニューの画面のうちの少なくとも1つであってもよいし、前記2種の双方であってもよい。また、ユーザ毎のメニュー画面の設定によって、サブメニュー画面の表示の可否が設定されてもよいし、複数のサブメニュー画面のうちの表示可能なサブメニュー画面の数が設定されてもよい。
 上述したメニュー画面の設定は、より具体的な種々の態様で実現されてよい。以下に例を示す。
 図13は、上記の設定を実現する通信システム1の信号処理系の構成を示すブロック図である。
 図13の例では、図11の例と同様に、サーバ5が認証を行う態様を例に取っている。従って、図13では図示を省略しているが、サーバ5は、認証用テーブルDT2および認証部5aを有している。また、図11の例と同様に、以下の説明は、画像処理装置3が認証を行う態様等に適用可能である。
 サーバ5は、例えば、メニューテーブルDT7を有している。メニューテーブルDT7は、IDと、メニュー画面の態様(換言すればメニュー画面の設定)を特定するメニュー情報D7と、を紐付けて記憶している。サーバ5は、メニューテーブルDT7を参照して、画像処理装置3から受信した認証用情報D2に含まれるID(またはサーバ5において認証用情報D2に対応付けられて記憶されているID)に紐付けられているメニュー情報D7を抽出する。そして、サーバ5は、抽出したメニュー情報D7を画像処理装置3へ送信する。画像処理装置3は、その受信したメニュー情報D7に基づくメニュー画面を表示部35の画面35aに表示する。
 なお、メニュー情報D7の送信は、例えば、受信した認証用情報D2が認証用テーブルDT2(図11)に登録されていること(認証が成功したこと)を前提とする。従って、メニュー情報D7の送信は、認証結果D3の送信として扱われたり、捉えられたりしてよい。メニュー情報D7は、例えば、上記の動作が実行される前(図4の処理の前)に、IDと紐付けてメニューテーブルDT7に記憶されてよい。
 メニュー情報D7は、ユーザおよび/またはサーバ5の管理者によって設定されてよい。例えば、ユーザ毎のメニュー画面の設定の少なくとも一部にユーザの好みが反映される場合は、前記一部はユーザによって設定されてよい。また、ユーザ毎のメニュー画面の設定の少なくとも一部に権限の有無が反映される場合は、前記一部はサーバ5の管理者によって設定されてよい。なお、ユーザによる設定においては、第三者によって不正に設定がなされないようにユーザの認証が前提とされてよい。
 メニューテーブルDT7では、認証用情報および/または認証方法の種類によってメニュー情報D7の内容が異なっていてよい。これにより、実質的に認証用情報および/または認証方法の種類に応じてセキュリティレベルが設定されてよい。あるいは、サーバ5のメニューテーブルDT7では、認証方法の種類によってメニュー情報D7の内容が異なっておらず、メニュー情報D7を抽出した後に認証用情報および/または認証方法の種類に応じてサーバ5がメニュー情報D7の内容を必要に応じて改変し、改変後のメニュー情報D7が送信されてもよい。また、上記とは異なり、認証方法の種類によらずに、同じメニュー情報D7が送信され、画像処理装置3において、認証用情報および/または認証方法の種類に応じて、メニュー情報D7で制限が解除されている機能のうち、特定のものに対して、制限を解除しないようにしてもよい。
 上記の構成および動作は、一例に過ぎず、また、説明を容易にするための概念的なものである。権限の制限の解除を行うための構成および動作は、適宜に変更および/または具体化されてよい。
 例えば、権限テーブルDT3の説明で触れたように、メニューテーブルDT7は、他のテーブルの少なくとも1つと統合されてもよい。上記とは逆に、メニューテーブルDT7は、適宜に分割されてもよい。例えば、図13に示すメニューテーブルDT7は、IDと、メニュー画面に関する複数の設定事項それぞれに対して設定された情報とが直接的に紐付けられた態様が概念的に示されている。図示の例とは異なり、メニューテーブルDT7を分割したテーブルが利用されてもよい。例えば、IDと、所定数のメニュー画面の種類のいずれかとが紐付けられたテーブルと、所定数のメニュー画面の種類のそれぞれと、メニュー画面に関する複数の設定事項それぞれに対して設定された情報とが紐付けられたテーブルとがサーバ5に記憶されていてもよい。
 また、例えば、メニューテーブルDT7は、画像処理装置3が保持していてもよい。そして、画像処理装置3は、サーバ5から認証成功が通知されたとき、自己が有しているメニューテーブルDT7を参照して、ユーザによって入力されたIDまたはサーバ5から送信されたIDに対して紐付けられているメニュー情報D7を抽出し、抽出したメニュー情報D7を表示部35に表示してよい。
 また、例えば、メニューテーブルDT7が、IDとメニュー画面の種類とを紐付けたテーブルと、メニュー画面の種類とメニュー画面に係る設定項目毎の情報とを紐付けたテーブルとに分割されている場合において、画像処理装置3は、分割された2つのテーブルの双方を有してよいし、あるいは、後者のテーブルのみを有してよい。画像処理装置3がメニュー画面の種類と設定項目毎の情報とを紐付けたテーブルのみを有する場合は、サーバ5は、図示の例とは異なり、メニュー画面の種類の情報をメニュー情報D7として画像処理装置3へ送信する。そして、画像処理装置3は、自己が有しているテーブルを参照して、受信したメニュー情報D7に紐付けられた設定項目毎の情報を抽出し、抽出した情報に基づいてメニュー画面を表示してよい。
 また、例えば、ユーザ毎のメニュー画面の設定が、ユーザの権限のみを反映した(ユーザの好みを反映していない)場合においては、サーバ5から画像処理装置3へメニュー情報D7が送信されずに、サーバ5から画像処理装置3へ送信された権限情報D5に基づいて、ユーザ毎のメニュー画面の設定がなされてよい。この場合、画像処理装置3は、例えば、権限情報D5とメニュー情報D7とを紐付けたテーブルを有し、当該テーブルを参照して、権限情報D5に応じたメニュー画面の設定を行ってよい。また、メニュー画面によってユーザに対して機能の利用を制限できるから、上記とは逆に、権限情報D5が送信されず、メニュー情報D7のみが送信されてもよい。この場合のメニュー情報D7は、権限情報の一種として捉えることができる。
(5.4.VPNに関する制限解除)
 認証結果に基づいて制限が解除される機能はVPN接続であってよい。具体的には、以下のとおりである。
 VPNは、例えば、プライベートネットワークをパブリックネットワーク11に仮想的に拡張する。別の観点では、VPNは、パブリックネットワーク11を含んで構成される物理的に1つのネットワークを論理的に分割する。これにより、例えば、パブリックネットワーク11を介した通信がセキュアな環境下で行われる。
 このような仮想的な拡張または論理的な分割は、例えば、認証、トンネリングおよび暗号化によって実現される。ただし、VPNを利用した通信は、暗号化が行われずに、認証およびトンネリングが行われるものであってもよい。なお、トンネリングは、暗号化の一種と捉えることもできる。
 認証では、接続を確立する対象としての正当性の確認が行われる。認証の方法としては、例えば、アカウント情報(IDおよびパスワード)を用いるもの、静的鍵を用いるもの、共通鍵(共有鍵)を用いるもの、秘密鍵および公開鍵の組み合わせを用いるもの、電子署名を用いるもの、電子証明書を用いるもの、セキュリティートークンを用いるもの、および上記の2以上を組み合わせたもの(例えば多要素認証)を挙げることができる。
 なお、画像処理装置3における機能制限の解除のための認証の少なくとも一部をサーバ5が担う場合においては、機能制限の解除のための認証と、VPN接続のための認証とは少なくとも一部同士が共通化されていてもよい。
 トンネリングでは、ネットワークを介して物理的または論理的に離れた2点間が同一点であるかのように扱うための動作が行われる。トンネリングは、例えば、カプセル化によって実現される。カプセル化では、例えば、通信に際して、パケット全体が、別のプロトコルのペイロード、別のレイヤのペイロードまたは同一のレイヤのペイロードに埋め込まれる。トンネリングは、適宜なレイヤで行われてよく、例えば、レイヤ3(ネットワーク層)またはレイヤ2(データリンク層)において行われてよい。
 暗号化では、送受信される情報が第三者から解読不能な形式の情報に変換される。暗号化は、ペイロードのみに対して行われてもよいし、ヘッダおよびペイロードの双方に対して行われてもよい。別の観点では、暗号化は、適宜なレイヤで行われてよく、例えば、ネットワーク層、トランスポート層および/またはセッション層で行われてよい。暗号化の方式は適宜なものとされてよい。例えば、暗号化の方式としては、共通鍵を用いるもの、ならびに、秘密鍵および公開鍵の組み合わせを用いるものを挙げることができる。
 VPNの種類は、適宜なものとされてよい。例えば、通信システム1のVPNには、リモートアクセス型VPN、および/またはLAN型(サイト間)VPNが適用されてよい。リモートアクセス型VPNでは、例えば、画像処理装置3等の通信機器にVPNのクライアントソフトがインストールされて、通信機器が直接的にVPNサーバとしてのサーバ5に対してVPN接続を行う。LAN型VPNでは、例えば、VPNゲートウェイがLAN(拠点)同士をVPN接続する。
 ただし、実施形態では、リモートアクセス型VPNのクライアントとして機能する画像処理装置3の動作を例に取る。
 既述のように、パブリックネットワーク11は、種々の態様とされてよい。VPNの種類の観点からは、以下のとおりである。VPNは、パブリックネットワーク11にインターネットを含むインターネットVPNであってよい。また、VPNは、パブリックネットワーク11に通信業者等が提供する閉域ネットワークを含む、IP(Internet Protocol)-VPN、エントリーVPNまたは広域イーサネットであってよい。
 VPNのためのプロトコルは、公知のものであってもよいし、新規なものであってもよく、サーバ5の管理者が独自に規定したものであってもよい。リモートアクセス型VPNの公知のプロトコルとしては、例えば、L2TP(Layer 2 Tunneling Protocol)およびIPsec(Security Architecture for Internet Protocol)の組み合わせ、ならびにPPTP(Point to Point Tunneling Protocol)を挙げることができる。
 図14は、上記のような動作の具体例を説明するフローチャートである。
 図14において、画像処理装置3は、既に触れたように、リモートアクセス型VPNのクライアントとして、VPNサーバとしてのサーバ5と通信を行うもの(例えば図1の画像処理装置3Aまたは3B)である。データ処理装置49は、画像処理装置3とVPN(別の観点ではVPNサーバとしてのサーバ5)を介して通信を行う装置である。データ処理装置49としては、例えば、他の画像処理装置3、サーバ7および端末9を挙げることができる。データ処理装置49は、サーバ5であってもよいが、図14では、両者が別個である態様を例にとっている。サーバ5ではないデータ処理装置49は、サーバ5を含むプライベートネットワーク13Aに含まれるもの(3C、7または9A)であってもよいし、含まれないもの(3A、3Bまたは9B)であってもよい。図14では、後者を例にとっている。
 図14に示す処理は、例えば、画像処理装置3においてVPN接続の開始条件が満たされたときに開始される。開始条件は、例えば、VPN接続を指示する所定の操作が操作部33に対してなされたこととされてよい。また、開始条件は、VPN接続を必要とするタスク(例えばデータ処理装置49から画像データをダウンロードして印刷する動作)の実行が操作部33に対してなされたこととされてもよい。このようなタスクが指示されたときに、VPN接続を行うか否かをユーザに問い合わせ、その結果、VPN接続を指示する所定の操作がなされたときに開始条件が満たされてもよい。また、開始条件は、外部の通信機器(例えば端末9)からの所定の信号が入力されたこととされてもよい。
 VPN接続の開始条件が満たされると、図4の処理が実行される。その後、画像処理装置3は、サーバ5に対して認証を要求し、サーバ5は、認証結果を画像処理装置3へ通知する(ステップST30)。認証が成功した場合は、図14に示された以降の処理が実行可能となる。一方、認証が失敗した場合は、図14に示された以降の処理は禁止される。既述のように、VPN接続のための認証は、機能制限の解除のための認証と共通化されていてよい。例えば、ステップST30の認証結果の通知は、図11および図13を参照して説明した認証結果D3の通知と同じものであってよい。
 VPN接続は、図4の処理を経て認証状態となったときに制限が解除されることによって、画像処理装置3(例えば操作部33)に対して開始を指示可能となるものであってよい。また、前段落の説明から理解されるように、VPN接続の開始が画像処理装置3に対して指示されることによって、図4の処理が開始されてもよい。また、図4の認証が成功したときに、自動的にVPN接続が行われてもよい。換言すれば、認証が成功したことがVPN接続の開始条件とされてもよい。
 認証が成功し、VPN接続が確立されると、画像処理装置3は、VPNを利用した通信を行う。図14では、データ処理装置49から画像データをダウンロードして印刷する動作が例示されている。具体的には、以下のとおりである。
 ステップST31では、画像処理装置3は、VPNを介して画像データのダウンロードを要求する信号をサーバ5へ送信する。なお、ここでの画像データは、一般的な画像データの他、印刷ジョブとしての画像データであっても構わない。
 ステップST32では、サーバ5は、受信した信号に含まれる情報によって特定される送信先(ここではデータ処理装置49)へ、画像データを要求する信号を送信(転送)する。このとき、データ処理装置49がサーバ5を含むプライベートネットワーク13Aの外部の通信装置である場合においては、当該送信はVPNを介して行われてよい(図示の例)。データ処理装置49がプライベートネットワーク13Aに含まれる通信装置である場合においては、通常のプライベートネットワーク13A内における通信が行われてよい。なお、前者の場合においては、ステップST32の前に予めデータ処理装置49がサーバ5へVPN接続されている。
 ステップST33では、データ処理装置49は、要求された画像データをサーバ5へ送信する。このとき、ステップST32と同様に、データ処理装置49がプライベートネットワーク13Aの外部に位置する場合はVPNが利用されてよく(図示の例)、データ処理装置49がプライベートネットワーク13Aの内部に位置する場合は通常のプライベートネットワーク13A内における通信が行われてよい。
 ステップST34では、サーバ5は、受信した画像データを画像処理装置3へ送信(転送)する。このときの送信は、VPNを介してなされる。
 ステップST35では、画像処理装置3は、受信した画像データに基づく印刷を実行する。
 画像処理装置3がVPN接続を行うVPNサーバは、画像処理装置3を使用しているユーザが選択可能であってもよいし、選択不可能であってもよい。前者の場合、画像処理装置3は、1つのVPNを構成する2以上のVPNサーバからのみ接続先を選択可能であってもよいし、互いに異なる2以上のVPNを構成する2以上のVPNサーバから接続先を選択可能であってもよい。
 接続先のVPNサーバを選択可能な場合、例えば、画像処理装置3(処理部29)は、接続先となるサーバ5をユーザに問い合わせる表示(例えば画像)を表示部35に示させてよい。この表示は、例えば、1以上の接続先の候補の情報を提示するものであってもよいし、接続先の情報の入力を促すものであってもよい。提示および/または入力される接続先の情報は、例えば、ホスト名またはIPアドレス(またはVPNに付された名前)である。接続先の情報は、画像処理装置3の管理者が予めホスト名または固定IPアドレスと対応付けて補助記憶装置45に記憶させた任意の名称および/または図形であっても構わない。そして、画像処理装置3は、操作部33に対する、複数の候補から接続先を選択する操作、接続先の情報をキー入力などによって入力する操作等を受け付けてよい。また、処理部29は、VPN接続を確立したときは、VPN接続を確立した接続先を示す情報を表示部35に表示させてよい。
 VPN接続は、適宜な切断条件が満たされたときに切断されてよい。例えば、切断条件は、切断を指示する所定の操作が操作部33に対してなされたとこととされてよい。VPN接続が、VPN接続を必要とするタスクの実行の指示に基づいてなされる態様においては、切断条件は、上記タスクが終了したこととされてよい。また、例えば、切断条件は、認証状態が解除されたこととされてよい。なお、認証状態が解除される条件の例について既に述べた。
 画像処理装置3(処理部29)は、VPNの接続中においては、その旨を表示部35に示してよい。例えば、VPNの接続中であることを示す画像が表示されたり、特定の表示灯が特定の状態(例えば点灯状態または点滅状態)とされたりしてよい。また、上記の説明では、VPNの接続先が表示されてよいことについて言及したが、当該接続先の表示は、VPNと接続中であることを示す表示の一例として捉えられてよい。
 上記の説明では、画像処理装置3がデータ処理装置49から画像データを受信して印刷を行う動作を例に取った。ただし、VPNを利用する動作は、これ以外にも種々可能である。例えば、スキャナ21によって取得した情報(例えば画像データ)がVPNを介してデータ処理装置49へ送信されてよい。
(6.実施形態のまとめ)
 以上のとおり、実施形態に係る画像処理装置3は、画像処理部31と、制御部29cと、撮像部28と、を有している。画像処理部31は、プリンタ19およびスキャナ21の少なくとも一方を含む。制御部29cは、ユーザの認証の成功に応じて解除された画像処理部31の機能制限を認証状態の解除に伴って復活させる。撮像部28は、画像処理装置3の周囲の少なくとも一部の範囲を撮像する。画像処理装置3は、認証状態のときに撮像部28が撮像する画像に基づいて特定される、認証状態とされたユーザが不在であること、および他のユーザが存在することの少なくとも一方を含む解除条件が満たされたときに、認証状態を解除する(例えば図4のステップST7およびST8を参照)。
 別の観点では、通信システム1は、上記の画像処理装置3と、画像処理装置3と通信を行う通信機器(例えばサーバ5および7、端末9ならびに他の画像処理装置3)と、を有していてよい。
 上記のような構成においては、実施形態の概要でも述べたように、例えば、認証されていないユーザU2が不正に画像処理装置3(または所定の機能)を使用する蓋然性が低減され、セキュリティが向上する。
 上記解除条件は、認証状態のときに撮像部28が撮像する画像から検出される顔特徴データが所定の条件を満たすことを含んでよい。
 この場合、例えば、人物の輪郭のみを用いる態様(例えば人物の輪郭を追跡する態様)に比較して、認証状態のユーザU1と他のユーザU2とを誤認する蓋然性が低減される。また、例えば、人物の輪郭のみを用いる態様では、ユーザU1が一旦撮像範囲外へ消えた後に、撮像範囲内に戻っても、撮像された人物が、ユーザU1か否か判別することが難しく、ひいては、図8および図9を参照して説明した認証状態の復活の動作を行うことが難しい。しかし、顔特徴データを用いることによって、認証状態の復活の動作の実現性が向上する。
 画像処理装置3は、認証状態のときに撮像部28が撮像する画像から検出される顔特徴データが、認証状態とされたユーザU1の以前に取得された顔特徴データと一致していることを含む維持条件が満たされているときは、認証状態を維持してよい(例えば図7においてステップST41で否定判定がなされてステップST6に戻る手順を参照。)。
 この場合、例えば、ユーザU1の輪郭を追跡するだけの場合に比較して、ユーザU1の付近を往来した他の人物をユーザU1と誤認する蓋然性が低減される。その結果、セキュリティが向上する。
 認証状態を解除する上記解除条件は、認証状態のときに撮像部28が撮像する画像から、認証状態とされたユーザU1の顔特徴データを有していない人物が検出されたことを含んでよい(例えば図4のステップST7の肯定判定を参照。)。なお、ユーザU1の顔特徴データを有していない人物は、ユーザU1の顔特徴データとは異なる顔特徴データを有する人物の他、顔特徴データが検出されない人物(例えば顔を隠している人物)を含む。
 この場合、例えば、ユーザU1以外の人物をユーザU1の顔特徴データを有しているか否かによって判定することから、ユーザU1以外の人物の検出精度が向上する。そして、ユーザU1以外の人物によって、認証状態の画像処理装置3が不正に利用される蓋然性が低減され、セキュリティが向上する。
 認証状態を解除する上記解除条件は、認証状態のときに撮像部28が撮像する画像から特定される1以上(例えば複数)の人物のうち、画像処理装置3に最も近い人物が、認証状態とされたユーザU1と異なっていることを含んでよい(例えば図7のステップST43の肯定判定およびステップST46の肯定判定を参照。)。
 上記に類似して、例えば、認証状態を解除する上記解除条件は、認証状態のときに撮像部28が撮像する画像から特定される1以上(例えば複数)の人物のうち、UI部23に顔が最も近い人物が、認証状態とされたユーザU1と異なっていることを含んでよい(例えば図7のステップST43の肯定判定およびステップST46の肯定判定を参照。)。
 さらに上記に類似して、例えば、認証状態を解除する上記解除条件は、認証状態のときに撮像部28が撮像する画像から特定される1以上(例えば複数)の人物のうち、所定の立ち位置に最も近い人物(上記所定の立ち位置に立っている人物を含む。)が、認証状態とされたユーザU1と異なっていることを含んでよい(例えば図7のステップST43の肯定判定およびステップST46の肯定判定を参照。)。
 さらに上記に類似して、例えば、認証状態を解除する上記解除条件は、画像処理装置3、UI部23および/または所定の立ち位置に、全身および/または顔が最も近い人物から、ユーザU1の顔特徴データと一致する顔特徴データが検出されない(顔特徴データ同士が一致しない、または顔特徴データの検出自体ができない)ことを含んでよい。
 これらの場合、例えば、複数の人物が検出されたこと(別の観点ではユーザU1以外の人物が検出されたこと)をもって即座に認証が解除されるのではなく、画像処理装置3を操作している蓋然性が高い人物に応じて認証状態の解除が制御される。その結果、画像処理装置3から離れた位置のユーザU1以外の人物が写り込んだだけで認証状態が解除されてしまう不都合が解消される。
 認証を解除する解除条件が、画像処理装置3に最も近い人物がユーザU1以外の人物(ユーザU2であるものとする。以下、同様。)であることを含む態様においては、例えば、UI部23に対して操作していないが、画像処理装置3の近くにいるユーザU2によって情報が盗み見られる蓋然性が低減される。解除条件が、UI部23に顔が最も近い人物がユーザU2であることを含む態様においては、例えば、UI部23の操作者の特定の精度が向上し、不要な認証状態の解除を避ける上述の効果が向上する。解除条件が、所定の立ち位置(例えばUI部23を操作する操作者が立つ位置)に最も近い人物がユーザU2であることを含む態様においては、例えば、人物同士の身長の相違の影響を低減しつつ、UI部23の操作者の特定の精度を向上させることができる。
 認証を解除する上記解除条件は、認証状態のときに撮像部28が撮像する画像から特定される画像処理装置3(既述のとおりUI部23等の他の用語に置換されてよい。)に最も近い人物(既述のとおり顔等の他の用語に置換されてよい。)が、認証状態とされたユーザから他のユーザに代わったことを含み(図7のステップST43の肯定判定およびステップST46の肯定判定を参照。)、認証状態とされたユーザから他のユーザに代わったときに進行中のジョブが存在する場合は、当該ジョブが完了したことをさらに含んでよい(ステップST51を参照)。
 この場合、例えば、タスクの実行中は、画像処理装置3に最も近い人物が交代しても、タスクの実行が継続される。その結果、例えば、ユーザU1が大量の印刷を行っているときに、ユーザU2が画像処理装置3に近づいたことによって認証状態が解除され、ひいては、印刷が停止されてしまうというような不都合が避けられる。
 撮像部28は、認証状態のときに(例えば所定の周期で)繰り返し撮像を行ってよい。認証状態を解除する解除条件は、認証状態のときに撮像部28が撮像する画像から、認証状態とされたユーザU1の顔特徴データが検出されなくなってから所定時間が経過したこと(例えば図7のステップST45の肯定判定および図8のステップST85の肯定判定を参照。)を含んでよい。
 この場合、例えば、ユーザU1が何らかの都合で、短時間だけ顔を撮像部28から背けた場合に、即座に認証状態が解除される蓋然性が低減される。その結果、利便性が向上する。
 上記に類似して、認証状態を解除する解除条件は、認証状態のときに撮像部28が撮像する画像から、認証状態とされたユーザU1が検出されなくなってから所定時間が経過したこと(例えば図7のステップST45の肯定判定および図8のステップST85の肯定判定を参照。)を含んでよい。
 この場合、例えば、ユーザU1が何らかの都合で、短時間だけ画像処理装置3から離れた場合に、即座に認証状態が解除される蓋然性が低減される。その結果、利便性が向上する。
 画像処理装置3は、上記所定時間内に撮像部28が撮像する画像から複数の人物が検出された場合は上記所定時間の経過を待たずに認証状態を解除してよい。および/または、画像処理装置3は、上記所定時間内に撮像部28が撮像する画像から、認証状態とされたユーザU1とは異なる人物が検出された場合は上記所定時間の経過を待たずに認証状態を解除してよい(図7のステップST46の肯定判定を参照。)。
 この場合、例えば、ユーザU1が不在の状態で、ユーザU1以外の人物が存在する蓋然性が低減される。その結果、認証状態の画像処理装置3が不正に利用される蓋然性が低減され、セキュリティが向上する。
 認証を解除する解除条件は、認証状態とされているときに撮像部28が撮像する画像から特定されるUI部23に対する操作者が、認証状態のユーザU1から他のユーザU2に代わったことを含んでよい(図8のステップST87の肯定判定を参照。)。画像処理装置3は、操作者が他のユーザU2に交代したことによって認証状態を解除した後、再度、操作者がユーザU1になったときに、認証を経ずに認証状態を復活させてよい(図9のステップST93)。
 この場合、例えば、ユーザU1が、画像処理装置3を急ぎで利用したいユーザU2に画像処理装置3を一時的に利用させるときに、認証状態が自動的かつ一時的に解除される。これにより、ユーザの利便性が向上しつつ、かつセキュリティが維持される。
 認証状態は、撮像部28(換言すれば人物の監視のためのデバイス)が撮像した画像に基づく照合(例えば図4のステップST4)を含む認証(例えば図4のステップST1およびST4の双方)の成功によって成立してよい。
 この場合、例えば、撮像部28は、認証と、認証状態における人物の監視との双方に利用される。その結果、画像処理装置3の構成が簡素化される。
 画像処理装置3は、撮像部28(換言すれば人物の監視のためのデバイス)を利用しない認証の成功によって成立してよい。例えば、図4において、ステップST4が省略されてよい。あるいは、ステップST4において、撮像部28によって検出された生体情報に代えて、検出部25によって検出された生体情報が用いられてよい。
 この場合、例えば、認証方法として、顔認証に限らず、任意のものを選択することができる。例えば、検出部25として、生体認証の精度が相対的に高いものを選択したり、画像処理装置3の所有者(例えば会社)が他の機器にも利用している認証方法を利用したりできる。また、別の観点では、認証自体は顔認証以外の方法によって行われ、この時点で第三者によって不正に画像処理装置3が利用される蓋然性は低減されているから、撮像部28による監視は、あくまで補助的なものであるといえる。従って、撮像部28によって取得する顔特徴データD4は、認証の精度が低いものであってもよい。これにより、例えば、撮像部28に関するコスト削減を図ることができる。
 画像処理装置3は、ユーザの操作を受け付けるUI部23をさらに有していてよい。認証状態は、UI部23に入力されたアカウント情報D1の照合(例えば図4のステップST1を参照。)を含む認証の成功によって成立してよい。
 この場合、例えば、アカウント情報D1の入力には一定程度の時間を要するから、その間に、認証状態とされるユーザの撮像を行い、高い精度で認証または監視のための顔特徴データを取得することができる。
 認証状態は、撮像部28とは異なる検出部25が検出した生体情報の照合を含む認証の成功によって成立してよい。例えば、図4のステップST4において、撮像部28によって検出された生体情報に代えて、または加えて、検出部25によって検出された生体情報が用いられてよい。
 この場合、例えば、検出部25によって検出される生体情報の利用によってセキュリティを向上させることができる。従って、撮像部28による監視は、あくまで補助的なものであるといえる。その結果、撮像部28によって取得する顔特徴データD4は、認証の精度が低いものであってもよい。これにより、例えば、撮像部28に関するコスト削減を図ることができる。
 第1の数の機能の制限が解除される第1の認証状態と、前記第1の数の機能を含み、前記第1の数より多い第2の数の機能の制限が解除される第2の認証状態と、があってよい。画像処理装置3は、第1の認証状態と第2の認証状態のうち、第2の認証状態についてのみ、認証状態のときに撮像部28が撮像する画像に基づく認証状態の解除の制御を行ってよい(図10参照)。
 この場合、例えば、セキュリティレベルが高い状況において、撮像部28による監視が行われるから、監視の負荷を軽減しつつ、効率的にセキュリティを向上させることができる。
 実施形態に係る画像処理装置3は、別の観点では、画像処理部31と、撮像部28と、制御部29cと、を有している。画像処理部31は、プリンタ19およびスキャナ21の少なくとも一方を含む。撮像部28は、画像処理装置3の周囲の少なくとも一部の範囲を撮像する。制御部29cは、撮像部28を利用しない認証(既述)の成功に応じて解除された画像処理部31の機能制限を認証状態の解除に伴って復活させる(例えば図4のステップST8を参照)。画像処理装置3は、認証状態のときに撮像部28が撮像する画像に基づいて特定される、人物の状況に応じて、認証状態の解除を制御する(例えば図4のステップST7およびST8を参照)。なお、ここでいう「人物の状況」は、ユーザU1および/または他の人物の有無ならびに人物の位置等だけでなく、例えば、ユーザU1による動作(腕を振る動作等)を含む。
 この場合、例えば、認証方法として、顔認証に限らず、任意のものを選択することができる。例えば、検出部25として、生体認証の精度が相対的に高いものを選択したり、画像処理装置3の所有者(例えば会社)が他の機器にも利用している認証方法を利用したりできる。また、撮像部28によって人物の状況を監視して認証状態の制御を行うことから、セキュリティを向上させたり、ユーザの利便性を向上させたりできる。
 本開示に係る技術は、以上の実施形態に限定されず、種々の態様で実施されてよい。
 例えば、画像処理装置は、プリンタおよびスキャナを含む複合機ではなく、印刷機能のみを有するもの(すなわち狭義のプリンタ)、またはスキャナ機能のみを有するもの(すなわち狭義のスキャナ)であってもよい。なお、複合機は、(広義の)プリンタまたは(広義の)スキャナとして捉えられてよい。
 1…通信システム、3(3A,3Bおよび3B)…画像処理装置、5…サーバ(通信機器)、7…サーバ(通信機器)、9(9A,9Bおよび9C)…端末(通信機器)、19…プリンタ、21…スキャナ、31…画像処理部、28…撮像部、29c…制御部。

Claims (20)

  1.  プリンタおよびスキャナの少なくとも一方を含む画像処理部と、
     ユーザの認証の成功に応じて解除された前記画像処理部の機能制限を認証状態の解除に伴って復活させる制御部と、
     画像処理装置の周囲の少なくとも一部の範囲を撮像する撮像部と、
     を備えており、
     認証状態のときに前記撮像部が撮像する画像に基づいて特定される、認証状態とされたユーザが不在であること、および他のユーザが存在することの少なくとも一方を含む解除条件が満たされたときに、認証状態を解除する
     画像処理装置。
  2.  前記解除条件は、認証状態のときに前記撮像部が撮像する画像から検出される顔特徴データが所定の条件を満たすことを含む
     請求項1に記載の画像処理装置。
  3.  認証状態のときに前記撮像部が撮像する画像から検出される顔特徴データが、認証状態とされたユーザの以前に取得された顔特徴データと一致していることを含む維持条件が満たされているときは、認証状態を維持する
     請求項1または2に記載の画像処理装置。
  4.  前記解除条件は、認証状態のときに前記撮像部が撮像する画像から、認証状態とされたユーザの顔特徴データを有していない人物が検出されたことを含む
     請求項1~3のいずれか1項に記載の画像処理装置。
  5.  前記解除条件は、認証状態のときに前記撮像部が撮像する画像から特定される1以上の人物のうち、前記画像処理装置に最も近い人物が、認証状態とされたユーザと異なっていることを含む
     請求項1~4のいずれか1項に記載の画像処理装置。
  6.  ユーザの操作を受け付けるUI部をさらに有しており、
     前記解除条件は、認証状態のときに前記撮像部が撮像する画像から特定される1以上の人物のうち、前記UI部に顔が最も近い人物が、認証状態とされたユーザと異なっていることを含む
     請求項1~5のいずれか1項に記載の画像処理装置。
  7.  前記解除条件は、認証状態のときに前記撮像部が撮像する画像から特定される1以上の人物のうち、所定の立ち位置に最も近い人物が、認証状態とされたユーザと異なっていることを含む
     請求項1~6のいずれか1項に記載の画像処理装置。
  8.  前記解除条件は、認証状態のときに前記撮像部が撮像する画像から特定される前記画像処理装置に最も近い人物が、認証状態とされたユーザから他のユーザに代わったことを含み、認証状態とされたユーザから他のユーザに代わったときに進行中のジョブが存在する場合は、当該ジョブが完了したことをさらに含む
     請求項1~7のいずれか1項に記載の画像処理装置。
  9.  前記撮像部は、認証状態のときに繰り返し撮像を行い、前記解除条件は、認証状態のときに前記撮像部が撮像する画像から、認証状態とされたユーザの顔特徴データが検出されなくなってから、所定時間が経過したことを含む
     請求項1~8のいずれか1項に記載の画像処理装置。
  10.  前記撮像部は、認証状態のときに繰り返し撮像を行い、前記解除条件は、認証状態のときに前記撮像部が撮像する画像から、認証状態とされたユーザが検出されなくなってから、所定時間が経過したことを含む
     請求項1~9のいずれか1項に記載の画像処理装置。
  11.  前記所定時間内に前記撮像部が撮像する画像から複数の人物が検出された場合は、前記所定時間の経過を待たずに認証状態を解除する
     請求項9または10に記載の画像処理装置。
  12.  前記所定時間内に前記撮像部が撮像する画像から、認証状態とされたユーザとは異なる人物が検出された場合は、前記所定時間の経過を待たずに認証状態を解除する
     請求項9~11のいずれか1項に記載の画像処理装置。
  13.  前記解除条件は、認証状態とされているときに前記撮像部が撮像する画像から特定される前記UI部に対する操作者が、認証状態のユーザから他のユーザに交代したことを含み、
     操作者が前記他のユーザに交代したことによって認証状態を解除した後、再度、前記操作者が前記ユーザになったときに、認証を経ずに認証状態を復活させる
     請求項1~12のいずれか1項に記載の画像処理装置。
  14.  認証状態が、前記撮像部が撮像した画像に基づく照合を含む認証の成功によって成立する
     請求項1~13のいずれか1項に記載の画像処理装置。
  15.  認証状態が、前記撮像部を利用しない認証の成功によって成立する
     請求項1~13のいずれか1項に記載の画像処理装置。
  16.  ユーザの操作を受け付けるUI部をさらに有しており、
     認証状態が、前記UI部に入力されたアカウント情報の照合を含む認証の成功によって成立する
     請求項1~15のいずれか1項に記載の画像処理装置。
  17.  認証状態が、前記撮像部とは異なる検出部が検出した生体情報の照合を含む認証の成功によって成立する
     請求項1~16のいずれか1項に記載の画像処理装置。
  18.  第1の数の機能の制限が解除される第1の認証状態と、
     前記第1の数の機能を含み、前記第1の数より多い第2の数の機能の制限が解除される第2の認証状態と、があり、
     前記第1の認証状態と前記第2の認証状態のうち、前記第2の認証状態についてのみ、前記撮像部が撮像する画像に基づく認証状態の解除の制御を行う
     請求項1~17のいずれか1項に記載の画像処理装置。
  19.  プリンタおよびスキャナの少なくとも一方を含む画像処理部と、
     画像処理装置の周囲の少なくとも一部を撮像する撮像部と、
     前記撮像部を利用しない認証の成功に応じて解除された前記画像処理部の機能制限を認証状態の解除に伴って復活させる制御部と、
     を備えており、
     認証状態のときに前記撮像部が撮像する画像に基づいて特定される、人物の状況に応じて、認証状態の解除を制御する
     画像処理装置。
  20.  請求項1~19のいずれか1項に記載の画像処理装置と、
     前記画像処理装置と通信を行う通信機器と、
     を有している通信システム。
PCT/JP2022/032790 2022-08-31 2022-08-31 画像処理装置および通信システム WO2024047802A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PCT/JP2022/032790 WO2024047802A1 (ja) 2022-08-31 2022-08-31 画像処理装置および通信システム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2022/032790 WO2024047802A1 (ja) 2022-08-31 2022-08-31 画像処理装置および通信システム

Publications (1)

Publication Number Publication Date
WO2024047802A1 true WO2024047802A1 (ja) 2024-03-07

Family

ID=90098958

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2022/032790 WO2024047802A1 (ja) 2022-08-31 2022-08-31 画像処理装置および通信システム

Country Status (1)

Country Link
WO (1) WO2024047802A1 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015045916A (ja) * 2013-08-27 2015-03-12 シャープ株式会社 認証装置及び画像形成装置
JP2016093933A (ja) * 2014-11-13 2016-05-26 株式会社リコー 画像処理装置、画像処理方法およびプログラム
JP2019028719A (ja) * 2017-07-31 2019-02-21 京セラドキュメントソリューションズ株式会社 ログインログアウトシステム、電子機器およびログインログアウトプログラム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015045916A (ja) * 2013-08-27 2015-03-12 シャープ株式会社 認証装置及び画像形成装置
JP2016093933A (ja) * 2014-11-13 2016-05-26 株式会社リコー 画像処理装置、画像処理方法およびプログラム
JP2019028719A (ja) * 2017-07-31 2019-02-21 京セラドキュメントソリューションズ株式会社 ログインログアウトシステム、電子機器およびログインログアウトプログラム

Similar Documents

Publication Publication Date Title
JP4617347B2 (ja) 制御装置、画像形成装置、画像形成装置の制御方法、プログラムおよび記録媒体
JP6696246B2 (ja) 画像処理装置及びプログラム
US8453259B2 (en) Authentication apparatus, authentication system, authentication method, and authentication program using biometric information for authentication
JP4781193B2 (ja) リプログラフィック装置用の文書通知システム及び方法
JP7103460B2 (ja) 画像処理装置及びプログラム
CN1984213A (zh) 认证设备和图像形成设备
JP2008012773A (ja) 印刷装置、印刷システム及び印刷制御方法並びに印刷制御プログラム
JP6497095B2 (ja) 画像形成装置および画像形成装置の制御プログラム
JP2013061770A (ja) サービス提供装置、及びプログラム
WO2024047802A1 (ja) 画像処理装置および通信システム
WO2024047800A1 (ja) 画像処理装置および通信システム
JP2021144498A (ja) 情報機器装置、情報機器装置用プログラム及び情報機器装置への不正アクセス防止方法
JP7218455B1 (ja) 画像処理装置および通信システム
JP2002111924A (ja) 画像形成装置および画像形成装置の制御方法、制御装置、並びにネットワークシステム
JP6601621B2 (ja) 画像形成装置、プリント制御方法およびプリント制御プログラム
JP7408027B1 (ja) 画像処理装置および通信システム
JP7172500B2 (ja) 画像形成システム
JP2017199179A (ja) 情報処理装置、情報処理システム、認証方法およびプログラム
JP6840995B2 (ja) 情報処理装置、情報処理システム、プログラム、及び認証方法
JP2010183306A (ja) 画像形成装置、画像形成装置の制御方法、および画像形成装置の制御プログラム
JP2006310945A (ja) 画像処理装置および不正使用判断プログラム
JP7014266B2 (ja) 情報処理装置、情報処理システム、認証方法およびプログラム
JP6163464B2 (ja) 画像形成装置および画像形成システム
JP2015035179A (ja) 画像処理装置及びプログラム
JP2018046546A (ja) 情報処理装置、情報処理システム、情報処理方法およびプログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22957400

Country of ref document: EP

Kind code of ref document: A1