CN104615926B - 信息处理设备和信息处理方法 - Google Patents
信息处理设备和信息处理方法 Download PDFInfo
- Publication number
- CN104615926B CN104615926B CN201410317613.8A CN201410317613A CN104615926B CN 104615926 B CN104615926 B CN 104615926B CN 201410317613 A CN201410317613 A CN 201410317613A CN 104615926 B CN104615926 B CN 104615926B
- Authority
- CN
- China
- Prior art keywords
- user
- face image
- information processing
- processing equipment
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/12—Digital output to print unit, e.g. line printer, chain printer
- G06F3/1201—Dedicated interfaces to print systems
- G06F3/1202—Dedicated interfaces to print systems specifically adapted to achieve a particular effect
- G06F3/1222—Increasing security of the print job
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F21/00—Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
- G06F21/60—Protecting data
- G06F21/606—Protecting data by securing the transmission between two devices or processes
- G06F21/608—Secure printing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/12—Digital output to print unit, e.g. line printer, chain printer
- G06F3/1201—Dedicated interfaces to print systems
- G06F3/1223—Dedicated interfaces to print systems specifically adapted to use a particular technique
- G06F3/1237—Print job management
- G06F3/1238—Secure printing, e.g. user identification, user rights for device usage, unallowed content, blanking portions or fields of a page, releasing held jobs
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/12—Digital output to print unit, e.g. line printer, chain printer
- G06F3/1201—Dedicated interfaces to print systems
- G06F3/1223—Dedicated interfaces to print systems specifically adapted to use a particular technique
- G06F3/1237—Print job management
- G06F3/1273—Print job history, e.g. logging, accounting, tracking
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/12—Digital output to print unit, e.g. line printer, chain printer
- G06F3/1201—Dedicated interfaces to print systems
- G06F3/1278—Dedicated interfaces to print systems specifically adapted to adopt a particular infrastructure
- G06F3/1279—Controller construction, e.g. aspects of the interface hardware
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
- G06V40/166—Detection; Localisation; Normalisation using acquisition arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
- G06V40/173—Classification, e.g. identification face re-identification, e.g. recognising unknown faces across different face tracks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F21/00—Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
- G06F21/30—Authentication, i.e. establishing the identity or authorisation of security principals
- G06F21/31—User authentication
- G06F21/32—User authentication using biometric data, e.g. fingerprints, iris scans or voiceprints
Abstract
信息处理设备和信息处理方法。一种信息处理设备包括:存储部,其存储用户对所述信息处理设备的使用的日志;以及显示部,其将所述信息处理设备的存储在所述存储部上的所述日志与用户的脸部的脸部图像一起显示。
Description
技术领域
本发明涉及信息处理设备和信息处理方法。
背景技术
日本特开2011-221847号公报公开了一种图像形成设备,其利用用户的身体特征来认证用户。该图像形成设备利用相机拍摄用户的脸部,并提取所拍摄的脸部的特征。然后,图像形成设备比照预先登记的用户脸部的特征检查所提取的特征,以执行生物认证。
发明内容
本发明的目的是与日志未与人脸的图像一起显示的场合相比,容易地识别出日志中所指示的人。
根据本发明的第一方面,提供了一种信息处理设备,该信息处理设备包括:存储部,其存储用户对信息处理设备的使用的日志;以及显示部,其将信息处理设备的存储在所述存储部上的所述日志与用户脸部的脸部图像一起显示。
鉴于第一方面,根据本发明的第二方面,在所述信息处理设备中,所述使用可包括对用户进行认证的认证操作。
鉴于第二方面,根据本发明的第三方面,所述信息处理设备还可包括:第一认证单元,其根据由用户输入的信息来认证用户;拍摄单元,其拍摄用户脸部的脸部图像;以及第二认证单元,其根据用户的脸部图像来认证用户。所述显示部将信息处理设备的所述日志仅与过去认证的用户当中的由第二认证单元认证的用户的脸部图像一起显示。
鉴于第二方面,根据本发明的第四方面,所述信息处理设备还可包括:第一认证单元,其根据由用户输入的信息来认证用户;拍摄单元,其拍摄用户脸部的脸部图像;以及第二认证单元,其根据用户的脸部图像来认证用户。所述显示部将信息处理设备的所述日志不与过去认证的用户当中的由第一认证单元认证的用户的脸部图像一起显示。
鉴于第三方面,根据本发明的第五方面,在所述信息处理设备中,所述存储部还存储未由第二认证单元认证的日志,并且所述显示部将所述未认证的日志与由所述拍摄单元拍摄的用户的脸部图像一起显示。
鉴于第一方面至第五方面,根据本发明的第六方面,在所述信息处理设备中,所述显示部将所述日志分割成多个时间段,然后基于每一分割的时间段显示认证的用户的脸部图像。
鉴于第六方面,根据本发明的第七方面,在所述信息处理设备中,在显示各个时间段时,各个时间段的显示区域上所显示的脸部图像的数量为预定值。
鉴于第六方面和第七方面,根据本发明的第八方面,在所述信息处理设备中,如果指定多个时间段中的一个,则所述显示部按照认证时间的顺序显示在指定的时间段中认证的用户的脸部图像。
鉴于第一方面至第八方面,根据本发明的第九方面,在所述信息处理设备中,所述存储部存储用户的脸部图像,并且如果所述存储部未存储信息处理设备的过去用户的任何脸部图像,则所述显示部将所述日志与对应于脸部图像的图像一起显示。
鉴于第一方面至第九方面,根据本发明的第十方面,在所述信息处理设备中,如果同一用户多次使用了信息处理设备,则所述显示部将所述同一用户的脸部图像的显示数量设定为一。
鉴于第十方面,根据本发明的第十一方面,在所述信息处理设备中,如果同一用户多次使用了信息处理设备,则所述显示部将所述同一用户的脸部图像的显示数量设定为一,并且基于最近认证时间确定要显示的脸部图像的位置。
根据本发明的第十二方面,一种信息处理方法包括以下步骤:存储用户对信息处理设备的使用的日志;以及将信息处理设备的所存储的日志与用户脸部的脸部图像一起显示。
根据本发明的第十三方面,一种信息处理设备包括:拍摄单元,其拍摄用户脸部的脸部图像;存储部,其存储多个脸部图像;以及显示部,其将所述拍摄单元的拍摄日志与所存储的脸部图像一起显示。
根据本发明的第十四方面,一种信息处理方法包括以下步骤:拍摄用户脸部的脸部图像;存储多个脸部图像;以及将拍摄日志与所存储的脸部图像一起显示。
根据第一方面、第十二方面、第十三方面和第十四方面,与日志未与用户的图像一起显示的场合相比,更容易识别出日志中所显示的用户。
根据第二方面,容易地识别出经受认证操作的用户。
根据第三方面和第四方面,识别出在脸部识别操作中被认证的用户。
根据第五方面,识别出在脸部识别操作中未被认证的用户。
根据第六方面,识别出在各个时间段中被认证的用户。
根据第七方面和第八方面,识别出在指定时间段中被认证的用户。
根据第九方面,在过去的用户当中,识别出未存储脸部图像的用户。
根据第十方面,显示的图像的数量减少。
根据第十一方面,容易地识别出用户的认证的最近时间点。
附图说明
将基于以下附图详细描述本发明的示例性实施方式,附图中:
图1是示出本发明的示例性实施方式的图像形成设备的外部立体图;
图2是示出图像形成设备的硬件配置的框图;
图3示出通过图像形成设备感测人的存在的区域;
图4是示出图像形成设备的功能框图;
图5是示出控制图像形成设备的模式的处理的流程图;
图6A至图6C示出图像形成设备附近的人的位置随时间的变化的示例;
图7A至图7C示出图像形成设备附近的人的位置随时间的变化的示例;
图8是示出设定图像形成设备的存在感测区域的处理的流程图;
图9A至图9C示出图像形成设备的存在感测区域的设定示例;
图10A至图10B示出图像形成设备的存在感测区域的设定示例;
图11示出认证表的示例;
图12示出日志数据的示例;
图13是示出图像形成设备的功能框图;
图14是示出图像形成设备的认证处理的流程的流程图;
图15是示出图像形成设备的用户显示处理的流程图;
图16示出显示在显示部上的画面的示例;
图17示出显示在显示部上的画面的示例;
图18示出显示在显示部上的画面的示例;
图19示出显示在显示部上的画面的示例;
图20A和图20B示出显示在显示部上的画面的示例;以及
图21示出显示在显示部上的画面的示例。
具体实施方式
参照附图描述本发明的示例性实施方式。示例性实施方式的信息处理设备适用于图像形成设备。
图1是示出本发明的示例性实施方式的图像形成设备10的外部立体图。如图1所示,图像形成设备10为控制台型,并且执行包括扫描处理、复印处理和传真发送处理的信息处理。使用图像形成设备10的人(即,用户)可站在图像形成设备10的前面并对操作面板100进行操作。操作面板100布置在图像形成设备10的顶部靠前的位置。操作面板100包括操作部12、显示部14和第二摄影部18。为了感测出现在图像形成设备10的前面的人的存在,图像形成设备10还包括热释电传感器16和第一摄影部17。图1的感测区域F是热释电传感器16可感测人的存在的区域。在图像形成设备10的高度方向上,第一摄影部17被布置得比热释电传感器16高。
图像形成设备10在标准模式和睡眠模式中的一种模式下工作,这两种模式在电力消耗方面彼此不同。标准模式是图像形成设备10响应于用户所执行的操作而执行信息处理的“第一模式”的一个示例。在标准模式下,图像形成设备10的各个元件被供电以用于执行信息处理。睡眠模式是图像形成设备10的至少部分操作被暂时暂停的“第二模式”的示例。在睡眠模式下,暂停向图像形成设备10的至少部分供电。图像形成设备10消耗的电力低于标准模式。当图像形成设备10在睡眠模式下工作时,向控制部11、热释电传感器16和第一摄影部17供电,使得这些单元中的每一个在睡眠模式下保持工作。
图2是示出图像形成设备10的硬件配置的框图。如图2所示,图像形成设备10包括控制部11、操作部12、存储部13、显示部14、图像形成部15、热释电传感器16、第一摄影部17、第二摄影部18和电源控制部19。
控制部11包括处理器,该处理器包括中央处理单元(CPU)、只读存储器(ROM)、和随机存取存储器(RAM)。CPU通过将存储在ROM或存储部13上的程序读取到RAM上并执行所述程序来控制图像形成设备10的各个单元。控制部11还包括诸如专用集成电路(ASIC)的图像处理单元。图像处理单元控制图像形成设备10上的诸如图像分析的图像处理。控制部11还包括定时器T作为测量时间的计时单元。
操作部12包括多个控制部件。操作部12接收由用户执行的操作,然后将响应于所接收到的操作的操作信号供应给控制部11。存储部13包括(例如)硬盘装置,并且存储要由控制部11执行的控制程序。显示部14包括(例如)液晶显示部,并且在图像形成设备10的宽度方向上紧邻操作部12布置。显示部14是在其上显示图像(画面)的显示装置。图像形成部15是(例如)通过电子照相处理在纸张上形成图像的打印机。
热释电传感器16包括热释电元件,其感测感测区域F内的红外光的量并将红外光的量的感测结果供应给控制部11。第一摄影部17和第二摄影部18中的每一个包括摄影镜头以及诸如电荷耦合器件(CCD)的摄影元件,并且拍摄图像(这里为运动图像)。第一摄影部17具有特别的广角镜头(例如,鱼眼镜头),并且以比标准摄影镜头宽的角度对图像形成设备10前面的正面区域进行摄影。第二摄影部18在图像形成设备10的宽度方向上紧邻显示部14布置。第二摄影部18被设置在使得能够对用户的脸部进行摄影的位置处。这旨在使得第二摄影部18能够利用所拍摄的图像来认证用户的脸部。
电源控制部19电连接到诸如商用电源(未示出)的电源,并且控制从电源至图像形成设备10的各个单元的电力供应。例如,当控制部11将图像形成设备10设定为标准模式或睡眠模式时,电源控制部19根据所设定的模式来控制向图像形成设备10的各个单元的电力供应。
图2中未示出连接到图像形成设备10的各个单元的电源线。
除了上述单元之外,图像形成设备10还包括一般图像形成设备的单元,例如读取文档等的图像的图像读取单元以及与外部装置通信的通信单元。图像形成设备10还包括与周边装置20结合执行信息处理的单元,例如要连接到下述周边装置20(例如,后处理装置)的连接单元。周边装置20没有特别地限于任何特定结构。在一个示例中,周边装置20是储存要供应给图像形成设备10的纸张或从图像形成设备10排出的纸张的大容量纸张容纳装置。
下面描述图像形成设备10的信息处理的示例。当执行复印处理时,控制部11通过使图像读取单元读取文档的图像来生成图像数据,并使图像形成部15根据图像数据在纸张上形成图像。当执行扫描处理时,控制部11通过使图像读取单元读取文档的图像来生成图像数据,并将该图像数据存储在存储部13上或经由网络发送该图像数据。当执行传真发送处理时,控制部11通过使图像读取单元读取文档的图像来生成图像数据,并在传真发送中经由电话线(未示出)发送该图像数据。
图3示出通过图像形成设备10检测人的存在的区域。图3是在图像形成设备10的高度方向上从图像形成设备10上方看时,图像形成设备10及其周围区域的平面图。
如图3所示,热释电传感器16的感测区域F形成在图像形成设备10的前面,并且在高度方向上从上方看的平面图中具有大致扇形形状。如果将要使用图像形成设备10的人接近图像形成设备10,则该人首先进入感测区域F。
图3的接近感测区域R1形成在图像形成设备10的前面,并且在高度方向上从上方看的平面图中具有大致扇形形状。接近感测区域R1被设置为大致包括感测区域F。接近图像形成设备10的人进入接近感测区域R1。接近感测区域R1是距图像形成设备10“第一距离”的区域的示例。图3中布置有第一摄影部17的标记为“P”的位置称作图像形成设备10的位置。
接近感测区域R1是圆心角为180度的扇形(半圆形),但是圆心角可以是除180度以外的角度。然而,第一摄影部17被设置为使得第一摄影部17至少具有整个接近感测区域R1作为摄影区域。
存在感测区域R2被设置在图像形成设备10的前面,并且在高度方向上从上方看的平面图中具有矩形形状。该矩形区域具有在图像形成设备10的宽度方向上的长度W以及在图像形成设备10的深度方向上的长度D。存在感测区域R2的宽度方向上的长度W近似等于图像形成设备10在其宽度方向上的长度。存在感测区域R2是距图像形成设备10“第二距离”的区域的示例,并且比接近感测区域R1更靠近图像形成设备10。因此,整个存在感测区域R2被设置为被包围在接近感测区域R1中。图像形成设备10的用户进入存在感测区域R2,然后停留在存在感测区域R2内以利用操作面板100执行操作。
控制部11通过分析由第一摄影部17拍摄的图像来感测接近感测区域R1和存在感测区域R2中的每一个内的人。关于此在下面有更多细节。接近感测区域R1和存在感测区域R2不必按照精确地如图3所示的精度水平来设置,接近感测区域R1和存在感测区域R2按照与根据第一摄影部17所拍摄的图像估计的水平一样高的精度水平来设置就足够了。
图4是示出图像形成设备10中的控制部11的功能框图。如图4所示,控制部11执行与监视控制单元111、接近传感器112、存在传感器113、模式控制单元114和装置检测单元115对应的功能。
监视控制单元111通过在图像形成设备10在睡眠模式下操作的同时监视来自热释电传感器16的红外光的量来控制第一摄影部17。更具体地讲,在响应于热释电传感器16的红外光的感测结果感测到感测区域F内的人的存在时,监视控制单元111起动第一摄影部17使其开始摄影。在这种情况下,监视控制单元111指示电源控制部19向第一摄影部17供电。
接近传感器112感测接近感测区域R1内的人的接近。接近传感器112从第一摄影部17获得拍摄的接近感测区域R1的图像,并根据所拍摄的图像感测人向图像形成设备10的接近。例如,接近传感器112分析所拍摄的图像,并感测从图像形成设备10至人的距离以及人的移动。接近传感器112因此感测接近感测区域R1内的人的接近。接近传感器112是“第一传感器单元”的示例。
存在传感器113感测存在感测区域R2内的人的存在。存在传感器113从第一摄影部17获得拍摄的接近感测区域R1的图像,并根据所拍摄的图像感测存在感测区域R2内的人的存在。例如,存在传感器113分析所拍摄的图像,并感测从图像形成设备10至人的距离以及人的位置。存在传感器113因此感测存在感测区域R2内的人的存在。存在传感器113是“第二传感器单元”(或者根据在距图像形成设备10第一距离处拍摄的图像感测在比第一距离更靠近图像形成设备10的第二距离内的人的存在的“传感器单元”)的示例。
模式控制单元114控制图像形成设备10工作的模式。当在图像形成设备10中设定另一模式时,模式控制单元114指示电源控制部19响应于所设定的模式来供电,并且执行控制操作以起动或暂停图像形成设备10的各个单元的操作。例如,如果接近传感器112在睡眠模式下感测到人接近图像形成设备10,则模式控制单元114将图像形成设备10从睡眠模式转变为标准模式。当存在传感器113感测到人的存在时,模式控制单元114将图像形成设备10设定为处于标准模式。当存在传感器113不再感测到人的存在时,模式控制单元114将图像形成设备10转变为睡眠模式。模式控制单元114是“转变单元”的示例。
模式控制单元114可响应于另一触发将图像形成设备10设定为所述模式。例如,在从操作部12接收到转变为睡眠模式的操作时,模式控制单元114将图像形成设备10转变为睡眠模式。
装置检测单元115检测周边装置20与图像形成设备10的连接。当装置检测单元115检测到周边装置20的连接时,存在传感器113响应于检测到其连接的周边装置20而变化存在感测区域R2。与装置检测单元115的检测结果无关,接近感测区域R1保持不变。周边装置20可以是布置在图像形成设备10外部的装置。装置检测单元115是“检测单元”的示例。
如上所述,控制部11起到控制图像形成设备10的电力的电力控制装置的功能。图像形成设备10可包括安装在模块上的人检测器。热释电传感器16、第一摄影部17和第二摄影部18被安装在实现监视控制单元111、接近传感器112、存在传感器113和装置检测单元115的功能的模块上。在这种情况下,控制部11控制人检测器,并响应于人检测器对人的接近和存在的感测结果执行控制处理。
图5是示出控制图像形成设备10的模式的处理的流程图。图6和图7示出图像形成设备10附近的人的位置随时间的变化的示例。如图3、图6和图7并且如下所述,图9和图10示出在图像形成设备10的高度方向上从图像形成设备10的上方看时图像形成设备10及其周围区域的平面图。下面在如图3所示设置存在感测区域R2的情况下,换言之,在周边装置20未连接到图像形成设备10的情况下描述图像形成设备10的操作。
在图像形成设备10在睡眠模式下工作的情况下,控制部11监视热释电传感器16的红外光的量的感测结果,并确定在感测区域F内是否存在人。当如图6A所示人H进入感测区域F时,控制部11响应于热释电传感器16的感测结果感测在感测区域R内的人的存在(步骤S1)。
如果在感测区域F内感测到人的存在,则控制部11指示电源控制部19开始向第一摄影部17供电,并使第一摄影部17开始对接近感测区域R1摄影(步骤S2)。当第一摄影部17开始摄影时,控制部11分析从第一摄影部17获得的图像,然后通过分析从第一摄影部17获得的图像开始感测人的移动(步骤S3)。
在步骤S3中的感测人的移动的操作中,控制部11估计从图像形成设备10至人的距离,同时计算指示人的移动的运动矢量。感测人的移动的操作可以是现有技术的技术。例如,控制部11基于从所拍摄的图像检测的人的身体部位的大小来估计从图像形成设备10至人的距离。控制部11还通过对来自第一摄影部17的拍摄的图像执行分帧操作来依次比较所拍摄的图像的多个帧。在这种情况下,控制部11感测作为人的身体部位的脚趾,并通过分析感测的部位的移动来计算运动矢量。例如,控制部11对来自第一摄影部17的拍摄的图像进行校正(校正为平面图形式),然后感测人的移动。
控制部11确定在接近感测区域R1内是否检测到人的接近(步骤S4)。如图6B所示,控制部11可确定人H在接近感测区域R1内,并且人H朝着图像形成设备10移动(如图6B中的箭头所示)。然后,控制部11确定感测到人的接近(步骤S4的“是”分支)。
需要注意的是,在热释电传感器16感测到人的存在的整个周期期间,控制部11执行感测人的移动的操作,并重复步骤S4中的操作以确定人是否接近(步骤S4的“否”分支)。
在步骤S4的“是”分支中,控制部11将图像形成设备10从睡眠模式转变为标准模式(步骤S5)。控制部11响应于标准模式指示电源控制部19执行向图像形成设备10的各个单元的电力供应,并起动图像形成设备10的各个单元。
控制部11没有在接近感测区域R1内感测到人的存在时立即将图像形成设备10转变为标准模式,而是在感测到人向图像形成设备10的接近时将图像形成设备10转变为标准模式。这降低了在人H仅仅是经过接近感测区域R1时就将图像形成设备10转变为标准模式的可能性。
控制部11开始感测在感测区域R2内的人的存在(停滞)的操作(步骤S6)。控制部11通过分析来自第一摄影部17的拍摄的图像来感测人的身体部位,并根据感测的部位的位置和尺寸来感测存在感测区域R2内的人的存在。例如,控制部11响应于检测的身体部位的尺寸来估计从图像形成设备10至人的距离,并基于感测的身体部位的位置标识向人的位置的方向。
控制部11确定在存在感测区域R2内是否存在人(步骤S7)。如果控制部11利用在如图6C所示的位置处的人H确定在存在感测区域R2内存在人(步骤S7为“是”),则处理返回至步骤S6。控制部11在图像形成设备10被设定在标准模式下的情况下重复感测存在感测区域R2内的人的存在的操作,直至在存在感测区域R2内不再感测到人的存在为止。
如图7A所示,人H可能移动到存在感测区域R2之外(可能由于使用图像形成设备10的作业完成)。在这种情况下,控制部11确定在存在感测区域R2内不再存在人(步骤S7的“否”分支),并进行至步骤8。控制部11开始计时(步骤S8)。换言之,利用定时器T,控制部11测量从在存在感测区域R2内不再存在人开始过去的时间。
控制部11确定存在感测区域R2内是否存在人(步骤S9)。在步骤S9的操作中,一旦在存在感测区域R2内不再存在人,控制部11就再次确定是否检测到人的存在。如图7B所示,人H可能逐渐远离图像形成设备10,在存在感测区域R2内可能不存在人。然后,控制部11确定步骤S9的操作的答案为“否”,并进行至步骤S10。
控制部11确定定时器T中设定的时间是否过去(步骤S10)。例如,设定的时间可以是1分钟。也可设定不同于1分钟的时间。如果控制部11确定设定的时间还未过去(步骤S10的“否”分支),则处理返回至步骤S9。更具体地讲,控制部11在步骤S9和S10中的每一个中确定在存在感测区域R2内不存在人的整个周期是否等于设定的时间。
在步骤S10中确定自定时器T的计时开始起,定时器T的设定时间已过去时(步骤S10的“是”分支),控制部11将图像形成设备10从标准模式转变为睡眠模式(步骤S11)。在此操作中,控制部11指示电源控制部19针对睡眠模式向图像形成设备10的各个单元供电,并暂停图像形成设备10中的将在睡眠模式期间被暂停的各个单元的操作。当在感测区域F内不再感测到人的存在时,控制部11暂停第一摄影部17的操作。
如图7C所示,在定时器T的计时开始之后在存在感测区域R2内不再存在人时起过去设定的时间之前,控制部11可再次感测到人的存在。在这种情况下,控制部11确定步骤S9中的操作的答案为“否”,处理进行至步骤S12。控制部11停止定时器的计时并重置定时器T(步骤S12)。控制部11停止由于在存在感测区域R2内不存在人而发起的向睡眠模式的转变,然后返回至步骤S6。换言之,控制部11再次执行适用于在存在感测区域R2内存在人时的情况的操作。
本文假设同一人(即,人H)返回。如果不同的人进入存在感测区域R2中,则控制部11也确定步骤S9的答案为“是”。
已描述了图5所示的总体处理流程。下面描述响应于周边装置20设定存在感测区域R2的操作。如果周边装置20连接到图像形成设备10,则在步骤S6中,控制部11响应于所连接的周边装置20变化存在感测区域R2。
图8是示出设定图像形成设备10的存在感测区域R2的处理的流程图。在感测存在感测区域R2内的人的存在的操作开始之前执行图8的各个操作。图9和图10示出存在感测区域R2的设定示例。
控制部11检测周边装置20的连接(步骤S61)。更具体地讲,控制部11检测周边装置20是否连接。如果周边装置20连接,则控制部11检测周边装置20的类型。
控制部11自动检测周边装置20是否连接,并且如果周边装置20连接,则检测周边装置20的类型。可选地,控制部11可基于用户手动设定的信息来检测周边装置20是否连接。
控制部11确定周边装置20是否连接(步骤S62)。在确定周边装置20未连接时(步骤S62的“否”分支),控制部11不变化存在感测区域R2(步骤S63)。更具体地讲,控制部11设置在图像形成设备10的高度方向上从图像形成设备10上方看时的平面图中(参见图3),在图像形成设备10的宽度方向上的长度为W、在深度方向上的长度为D的存在感测区域R2。
另一方面,在确定周边装置20连接时(S62的“是”分支),控制部11响应于所连接的周边装置20的类型变化存在感测区域R2(步骤S64)。周边装置20的类型由周边装置20的型号标识。周边装置20的类型还可由其任何其它标识来标识。在要存储在存储部13上的管理表(未示出)中列出周边装置20的类型与存在感测区域R2之间的关系。参照该管理表,控制部11设置存在感测区域R2。
在步骤S64的操作中,控制部11根据周边装置20的位置和尺寸来变化存在感测区域R2。
如图9A所示,周边装置20a现在可在图像形成设备10的宽度方向上紧邻图像形成设备10的右侧(从用户来看)安装,并且周边装置20a在宽度方向上的长度可为wa。在这种情况下,为了在图像形成设备10和周边装置20a全体的前面设置存在感测区域R2,控制部11将图像形成设备10在其宽度方向上的长度W与周边装置20a在其宽度方向上的长度wa之和W1(=W+wa)设定为存在感测区域R2在宽度方向上的长度。控制部11按照与图3中相同的方式将深度方向上的长度设定为D。
如图9B所示,周边装置20b现在可在图像形成设备10的宽度方向上紧邻图像形成设备10的右侧安装,并且周边装置20b在宽度方向上的长度可为wb(wb>wa)。在这种情况下,为了在图像形成设备10和周边装置20b全体的前面设置存在感测区域R2,控制部11将图像形成设备10在其宽度方向上的长度W与周边装置20b在其宽度方向上的长度wb之和W2(=W+wb)设定为存在感测区域R2在宽度方向上的长度。控制部11按照与图3中相同的方式将深度方向上的长度设定为D。
如图9C所示,除了周边装置20b之外,周边装置20c现在可在图像形成设备10的宽度方向上紧邻图像形成设备10的左侧(从用户来看)安装,并且周边装置20c在宽度方向上的长度可为wc。在这种情况下,为了在图像形成设备10以及周边装置20b和20c全体的前面设置存在感测区域R2,控制部11将图像形成设备10在其宽度方向上的长度W、周边装置20b在其宽度方向上的长度wb以及周边装置20c在其宽度方向上的长度wc之和W3(=W+wb+wc)设定为存在感测区域R2在宽度方向上的长度。控制部11按照与图3中相同的方式将深度方向上的长度设定为D。
如果周边装置20在图像形成设备10的宽度方向上紧邻图像形成设备10布置,则图像形成设备10的用户可不仅在图像形成设备10的前面,而且在周边装置20的前面工作。在这种情况下,如果仅如图3所示在图像形成设备10的前面设置存在感测区域R2,则图像形成设备10可能在用户仍在工作的同时转变为睡眠模式。如果存在感测区域R2响应于所连接的周边装置20而变化,则控制部11感测到停留在存在感测区域R2内的正在周边装置20的前面工作的用户。换言之,存在感测区域R2在周边装置20未连接时小于在周边装置20连接时。
在图9的示例中,控制部11将存在感测区域R2在深度方向上的整个长度设定为D。如图10A所示,在深度方向上,图像形成设备10的前侧的位置和周边装置20的前侧的位置可能不同。在这种情况下,控制部11可设定存在感测区域R2,使得从更靠近用户的那一个前侧开始预留距离D。如果图像形成设备10的前侧更靠近用户,则控制部11至少设定要从图像形成设备10的前侧开始预留的距离D。
如果图像形成设备10中的第一摄影部17不仅将图像形成设备10的前侧和周边装置20的前侧,而且将图像形成设备10的侧面也作为其感测区域,则控制部11可在图像形成设备10的侧面设定存在感测区域R2。
如图10B所示,控制部11可在与周边装置20相对的图像形成设备10的侧面设定存在感测区域R22。控制部11还可在与图像形成设备10相对的周边装置20的侧面设定存在感测区域R21。通过这种布置方式,当用户在图像形成设备10的侧面或者在周边装置20的侧面工作时,可控制图像形成设备10向睡眠模式的不需要的转变。
当周边装置20未连接时,控制部11也可在图像形成设备10的侧面设定存在感测区域。代替将存在感测区域R2设定为近似等于图像形成设备10在宽度方向上的长度以及周边装置20在宽度方向上的长度,控制部11可将存在感测区域R2设定为比宽度方向上更长或更短。
如上所述,在接近感测区域R1内感测到人的接近时,图像形成设备10从睡眠模式转变为标准模式。如果稍后在比接近感测区域R1更靠近图像形成设备10的存在感测区域R2内不再存在人时,图像形成设备10从标准模式转变为睡眠模式。与图像形成设备10在接近感测区域R1内不再存在人时进行转变的操作相比,图像形成设备10更快速地转变为睡眠模式。如果从通过第一摄影部17进行摄影的方面来描述,则图像形成设备10通过从来自第一摄影部17的拍摄的图像估计距人的距离,来感测在存在感测区域R2内不存在人。与图像形成设备10在不再从拍摄的图像感测到人的存在时转变为睡眠模式的操作相比,图像形成设备10更快速地转变为睡眠模式。因此,图像形成设备10通过响应于从其至人的距离设定模式来执行省电控制。
由于图像形成设备10通过分析拍摄的图像来估计从图像形成设备10至人的距离,所以与使用其它类型的传感器(例如,反射型距离传感器)的情况相比,图像形成设备10具有简化的结构,控制了传感器的数量的增加。
下面描述要由图像形成设备10执行的认证处理。另外,下面描述图像形成设备10的用户显示处理。由管理图像形成设备10的管理员预先确定的人被授权使用图像形成设备10。图像形成设备10执行脸部认证处理或者通过用户标识(ID)和密码的认证处理。存储部13存储认证表TB1,该认证表TB1列出用于认证被授权使用图像形成设备10的用户的信息。
图11示出认证表TB1的示例。认证表TB1包括关于被授权使用图像形成设备10的各个人的记录。“用户ID”字段存储赋予被授权使用图像形成设备10的用户的标识符。“密码”字段存储用于验证用户被授权使用图像形成设备10的密码。“图像文件名”字段存储被授权使用图像形成设备10的人的脸部照片的图像文件名。存储部13存储被授权使用图像形成设备10的人的脸部照片的图像文件。在图11的第四行记录中的图像文件名字段中,对于执行通过用户ID和密码的认证处理(而非脸部认证)的人没有存储图像文件名。
存储部13存储日志数据,该日志数据包括授权用户的用户ID以及用户被授权的时间和日期。图12示出存储在存储部13上的部分日志数据。“时间和日期”字段存储用户被认证的时间和日期。“用户ID”字段存储认证的用户的用户ID。
图13是示出日志显示功能的框图。标识存储部132存储脸部照片的图像和认证表TB1,标识存储部132是预存储用于标识被授权使用图像形成设备10的人的信息的存储部的示例。
日志存储部131存储日志数据作为用户的认证历史,日志存储部131是存储图像形成设备10的用户的认证历史的存储部的示例。
认证部117是认证图像形成设备10的用户的第一认证单元和第二认证单元中的每一个的示例。认证部117经由操作部12获取用户ID和密码作为标识图像形成设备10的用户的信息。认证部117还拍摄由第二摄影部18拍摄的用户脸部的图像。第二摄影部18是拍摄用户的脸部图像的拍摄单元的示例。认证部117利用所获取的信息和存储在标识存储部132上的信息认证图像形成设备10的用户。为了利用脸部图像执行认证,认证部117通过将第二摄影部18所拍摄的脸部的特征量与从标识存储部132获取的图像文件的脸部的特征量进行比较来执行脸部认证。
显示控制部116是显示使用图像形成设备10的人的脸部图像的显示部的示例。基于存储在日志存储部131上的日志数据,显示控制部116标识图像形成设备10的以前的用户,从标识存储部132获取所标识的用户的脸部图像,然后通过控制显示部14来显示所获取的脸部图像。
图14是示出认证处理的流程的流程图。如果用户仍然处于登出状态,则控制部11控制显示部14显示提示用户在通过脸部图像的认证处理和通过用户ID和密码的认证处理之间进行选择的画面(图16)。如果用户在图16的画面上选择通过脸部识别的认证处理(步骤S21的“是”分支),则控制部11控制第二摄影部18和显示部14,使得由第二摄影部18拍摄的图像显示在显示部14上(步骤S22)。图17示出在步骤S22中显示在显示部14上的画面的示例。图像形成设备10的用户在注视第二摄影部18的同时移动,使得他或她的脸部出现在框中。
控制部11分析由第二摄影部18拍摄的图像,并识别用户的脸部(步骤S23)。在识别脸部时,控制部11参照存储在存储部13上的脸部照片的图像文件,将所识别的脸部的特征量与所参照的图像文件的脸部照片的特征量进行比较,并因此确定用户是否被授权使用图像形成设备10(步骤S24)。如果所识别的脸部的特征量与所参照的图像文件的脸部照片的特征量之间的差异低于阈值,则控制部11接受用户的证明,并授权用户使用图像形成设备10(步骤S24的“是”分支)。
控制部11存储与被授权使用图像形成设备10的用户有关的日志数据(步骤S25)。更具体地讲,控制部11根据与所拍摄的脸部图像的特征量的差异小于阈值的脸部图像的图像文件的文件名作为关键字搜索认证表TB1,并从存储所述文件名作为关键字的记录获取用户ID。例如,如果与拍摄的脸部图像的特征量的差异小于阈值的脸部照片的图像文件的文件名为“aaabbb.jpg”,则控制部11获取“aaabbb”作为用户ID。然后,控制部11使存储部13将所获取的用户ID以及接受用户证明的时间和日期彼此关联地存储,如图12的第一行记录中所示。在完成步骤S25中的操作时,控制部11控制显示部14显示使用图像形成设备10的菜单画面。
如果用户的证明被拒绝(步骤S24的“否”分支),则控制部11控制显示部14显示向用户通知用户未被授权使用图像形成设备10的消息(步骤S30)。
如果用户在图16的画面上选择通过用户ID和密码的认证处理(步骤S21的“否”分支),则控制部11控制显示部14显示提示用户输入用户ID和密码的画面(图18)(步骤S27)。当用户通过对操作部12进行操作来在图18的画面上输入用户ID和密码时,控制部11获取所输入的用户ID和密码(步骤S28)。控制部11参照存储在存储部13上的用户ID和密码,然后认证用户(步骤S29)。
如果认证表TB1中包括存储所获取的用户ID和密码的组合的记录,则控制部11接受用户的证明,然后授权用户使用图像形成设备10(步骤S29的“是”分支)。控制部11经由步骤S29的“是”分支进行至步骤S25。例如,如果具有用户ID“ggghhh”的人输入用户ID“ggghhh”和密码“ggg1357”,则控制部11使存储部13将用户ID“ggghhh”以及接受用户证明的时间和日期彼此关联地存储在图12的第二行记录中。如果认证表TB1中不包括存储所获取的用户ID和密码的组合的记录,则控制部11丢弃用户的证明(步骤S29的“否”分支),并控制显示部14显示通知用户他或她未被授权使用图像形成设备10的消息(步骤S30)。
描述显示认证的用户的脸部照片的图像的用户显示处理。图15是示出用户显示处理的流程图。如果对操作部12执行了指示显示授权用户的脸部照片的操作,则控制部11根据操作时间段获取预定范围内的时间和日期的日志数据(步骤S41)。在本发明的示例性实施方式中,控制部11标识包括操作时间段在内的过去六个时间段,并获取包括在所标识的时间段中的时间和日期的日志数据。
如果在如图12所示存储日志数据之后在2013年10月31日的15:55发出显示日志数据的指示,则控制部11获取包括在10月31日包含操作的时间和日期的12:00至16:00(不含)时间段中的日志数据、包括在10月31日8:00至12:00(不含)时间段中的日志数据、包括在10月31日4:00至8:00(不含)时间段中的日志数据、包括在10月31日0:00至4:00(不含)时间段中的日志数据、包括在10月30日20:00至10月31日0:00(不含)时间段中的日志数据以及包括在10月30日16:00至20:00(不含)时间段中的日志数据。如果日志数据的内容如图12所示,则控制部11获取图12的三条记录的数据。
控制部11根据在步骤S41中获取的日志数据显示脸部照片的图像(步骤S42)。更具体地讲,控制部11提取包括在所获取的日志数据中的用户ID,并从认证表TB1获取与所提取的用户ID关联的图像文件名。控制部11从存储部13接收由所获取的图像文件名标识的图像文件,并显示由所获取的图像文件表示的图像。
如果获取图12的三条记录的数据,则控制部11基于包括在日志数据的具有时间和日期“10/31/201313:10”的记录中的用户ID“aaabbb”从图11的认证表TB1获取图像文件名“aabbb.jpg”。如图19所示,控制部11在标识10月31日12:00至16:00(不含)的时间段的区域中显示由所获取的文件名标识的图像文件的图像P1。为了简化附图,图19中未详细示出各个脸部的特征。
控制部11基于包括在日志数据的具有时间和日期“10/31/201313:40”的记录中的用户ID“cccddd”从图11的认证表TB1获取图像文件名“cccddd.jpg”。如图19所示,控制部11在标识10月31日12:00至16:00(不含)的时间段的区域中显示由所获取的文件名标识的图像文件的图像P2。
在所获取的日志数据中,在具有时间和日期“10/31/201314:20”的记录中没有图像文件名与认证表TB1中存储的用户ID“ggghhh”关联,因此没有获取图像文件名。因此不显示脸部照片的图像。在12:00至16:00(不含)的时间段期间被认证的用户当中,具有脸部照片的图像文件的人数为“两个”,因此如图19所示在12:00至16:00(不含)的时间段中显示两个人。在图19的画面示例中,各个时间段的区域中显示的脸部照片的数量为24。显示人数的显示区域指示在各个时间段中被认证的用户当中,存储有脸部照片的图像文件的用户的总数。
如上所述,在示例性实施方式中,显示被授权的人的脸部照片。与显示姓名和用户ID的情况相比,图像形成设备10的管理员可容易地了解谁在哪一时间段使用了图像形成设备10。
本发明可按照不同于上述示例性实施方式的示例性实施方式来实现。下述示例性实施方式的改型可进行组合。
在上述示例性实施方式中,图像形成设备10通过检测布置在图像形成设备10外部的周边装置20的连接来变化存在感测区域R2。另选地,图像形成设备10可通过检测包括在图像形成设备10中或连接到图像形成设备10的装置的移动来变化存在感测区域R2。
如果周边装置20移动,则整个图像形成设备10的尺寸变得不同,并且工作的用户移动的区域也可能变化。这种类型的周边装置20包括可移动用户接口装置、手动供纸盘以及排出处理的纸张的排出盘。周边装置20还可包括可移动地安装在图像形成设备10上的装置。如果装置移动,则图像形成设备10的外部形状和尺寸也改变。在检测到周边装置20的移动时,图像形成设备10设置存在感测区域R2,使得存在感测区域R2包括装置移动之后的图像形成设备10的前侧。
仅出于示例性目的示出了接近感测区域R1和存在感测区域R2的尺寸和形状,不同的尺寸和形状也是可接受的。
图像形成设备10可通过将接近感测区域R1内的人的存在解释为人向图像形成设备10的接近来从睡眠模式转变为标准模式。
图像形成设备10可通过使得第一摄影部17能够连续工作来感测接近感测区域R1内的人的接近。在这种情况下,图像形成设备10可不包括热释电传感器16。
图像形成设备10可包括分离的图像装置,一个用于感测接近感测区域R1中的人的接近,另一个用于感测存在感测区域R2内的人的存在。
图像形成设备10可通过除了包括使用第一摄影部17的方法以外的方法来感测接近感测区域R1内的人的接近。例如,利用多个距离传感器,图像形成设备10标识接近感测区域R1内的人的位置并根据所标识的位置随时间的变化来感测人的接近。图像形成设备10可通过除了包括使用拍摄的图像的方法以外的方法来感测存在感测区域R2内的人的存在。
图像形成设备10可在感测到存在感测区域R2内不存在人时立即转变为睡眠模式。
图像形成设备10可仅根据周边装置20是否连接来变化存在感测区域R2。另选地,图像形成设备10可固定地设定存在感测区域R2,而与周边装置20是否连接无关。
图像形成设备10不仅可变化存在感测区域R2,而且可变化接近感测区域R1。在这种情况下,图像形成设备10可与存在感测区域R2的变化一致地设定接近感测区域R1,使得接近感测区域R1包括整个存在感测区域R2。
可通过不包括计算运动矢量的方法来感测人的移动。可通过任何现有技术方法(例如,块匹配方法)来感测人的移动。
代替从拍摄的图像识别人并感测人的移动,图像形成设备10可利用现有技术的提取移动对象的技术来感测人的移动,而无需特别地识别人。
在示例性实施方式中,当在存在感测区域R2内不再存在人时,图像形成设备10转变为睡眠模式。图像形成设备10所转变为的模式可以是除睡眠模式以外的模式,只要目标模式耗电低于标准模式即可。例如,图像形成设备10可转变为这样的模式:停止显示部14的显示操作以降低电力消耗,同时图像形成设备10的除显示部14以外的单元保持工作。图像形成设备10可在电力消耗不同于标准模式和睡眠模式的其它模式下工作。
在示例性实施方式中,在图19的画面中要显示在各个时间段的区域中的脸部照片的总数为24。该总数不限于24。例如,该总数可以是23或更少,或者是25或更多。在图19的显示示例中,各个时间段的显示区域为4小时。但是时间段可不必为4小时。时间段可不同于4小时,例如,可以是其它时间单位(例如,3小时或6小时)。在示例性实施方式中所显示的图19的画面中,在显示部上一天中的时间段的区域与前一天中的时间段的区域可具有不同的颜色。
如果在本发明的示例性实施方式的图19的各个时间段中,包含脸部照片的图像文件的日志数据的条数超过24,则可显示在最近的时间和日期认证的24条日志数据的脸部照片的图像。显示部14可以是触摸板,如果用户轻拂脸部照片的显示区域,则可显示除了所显示的24个图像以外的脸部照片的图像。
对于本发明的示例性实施方式中所显示的图19的图像,随着时间过去,脸部照片的图像可随着显示时间段的改变而重新显示。例如,假设对于在2013年10月31日15:55发出显示日志数据的指示之后显示的图19的图像,时间变为16:00。在这种情况下,利用包括在10月31日16:00至20:00(不含)时间段中的日志数据、包括在10月31日12:00至16:00(不含)时间段中的日志数据、包括在10月31日8:00至12:00(不含)时间段中的日志数据、包括在10月31日4:00至8:00(不含)时间段中的日志数据、包括在10月31日0:00至4:00(不含)时间段中的日志数据以及包括在10月30日20:00至10月31日0:00(不含)时间段中的日志数据显示脸部照片的图像。
在示例性实施方式中,如果使用同一用户的多条日志数据,则显示该同一用户的脸部照片的多个图像。例如,如果具有用户ID“aaabbb”的用户在12:00至16:00(不含)时间段中被认证三次,则如图20A所示显示该用户的脸部照片的三个图像P1。
然而,同一用户的脸部照片的显示不限于这种方式。例如,即使具有用户ID“aaabbb”的用户在12:00至16:00(不含)时间段中被认证三次,用户的脸部照片的图像P1的数量仍被设定为一个,如图20B中一样。在该时间段中具有用户ID“aaabbb”的用户的认证次数可叠置在图像P1上。
显示部14可以是触摸板,如果在显示图20B的画面的情况下触摸图像P1,则可显示图像P1的用户的三次认证的时间和日期。
如果在显示部14的触摸板上显示图19的画面的情况下触摸任何时间段,则不仅可显示触摸的时间段的脸部照片,而且可显示认证时间和日期以及用户ID。例如,如图21所示,如果图19的12:00至16:00(不含)的时间段被触摸,则认证时间和日期以及用户ID与脸部照片一起显示。如果如图20所示在12:00至16:00(不含)的时间段期间总共四个人被认证,则这四个人中的每一个人的时间和日期以及各个用户ID与脸部照片一起显示。
显示图21的画面的方式不限于上述方式。例如,控制部11使显示部14显示用于选择时间和日期以及时间段的画面。利用与所选择的时间和日期以及时间段有关的日志数据,控制部11显示用户的认证时间和日期、认证的用户的用户ID以及认证的用户的脸部照片的图像。
如果选择的时间段中的日志数据的条数超过图21的画面上允许一次显示的日志数据的条数,则控制部11可按照从最新认证时间和日期到最旧认证时间和日期的顺序来显示日志数据。如果对触摸板执行滚动操作,则可显示较旧的日志数据。
如果在图21的画面上的所选择的时间段中,同一用户的多条日志数据可用,则如图20中一样该用户的脸部照片的图像的数量可被设定为一,并且在所选择的时间段期间执行的认证次数可被叠置在脸部照片的图像上。
在本发明的示例性实施方式中,如果在认证的用户当中,用户的脸部照片的图像文件未被存储,则在用户显示处理中不显示脸部照片的图像。但是本发明不限于这种方式。如果控制部11在步骤S42中无法基于所获取的日志数据获取脸部照片的图像文件名,则控制部11可显示图像,例如与脸部图像对应并且表示人脸的形象符号(图标)。
在本发明的示例性实施方式中,可显示用于输入时间和日期的用户界面,并且可根据所输入的时间和日期的日志数据显示在该时间和日期认证的用户的脸部照片。
根据本发明的示例性实施方式,第二摄影部18与显示部14相邻地安装。第二摄影部18可安装在可拍摄用户的脸部的任何位置。
在上述示例性实施方式中,图像形成设备10认证用户。认证用户的设备不限于图像形成设备10。例如,摄影单元可被安装在由办公室的办公人员共享的终端设备(例如,个人计算机)上,并且该终端设备可执行认证处理和用户显示处理。
根据本发明的示例性实施方式,用于认证用户的脸部照片的图像文件被存储在存储部13上。本发明不限于这种方式。
例如,图像形成设备10可经由通信网络(例如,局域网(LAN))连接到存储认证表TB1和脸部照片的图像文件的服务器设备。然后,由第二摄影部18拍摄的图像被发送给服务器设备。服务器设备执行认证处理。在认证用户时,服务器设备控制图像形成设备10,使得用户可使用图像形成设备10。日志数据可被存储在图像形成设备10或服务器设备上。在这种配置中,服务器设备可执行用户显示处理。
在本发明的示例性实施方式中,可在创建日志数据之后从认证表TB1删除与过去认证的用户有关的记录。如果从存储部13删除该用户的脸部照片的图像文件,则当利用该用户的日志数据执行用户显示处理时,可显示表示人脸的形象符号的图像,代替脸部照片的图像。
如果在本发明的示例性实施方式中执行通过脸部识别的认证处理,则指示执行了通过脸部识别的认证处理的数据可与日志数据中的记录关联。在这种配置中,从日志数据提取与指示执行了通过脸部识别的认证处理的数据关联的记录。可利用所提取的日志数据执行用户显示处理。当在这种配置中显示图19的画面时,因此仅显示在脸部认证中被认证的用户的脸部照片的图像。
在本发明的示例性实施方式中,图像形成设备10的用户可根据办公室中的部门而分成组,并且指示各个组的数据可被添加到认证表TB1中的各个用户的记录。在这种配置中,在用户显示处理中按照管理员所指定的组过滤日志数据,并且根据过滤的日志数据显示用户的脸部照片的图像。
在本发明的示例性实施方式中,当执行扫描处理、复印处理和/或传真发送处理时可获得日志数据。日志数据包括各个处理的执行时间和日期、执行各个处理的用户的用户ID以及执行的处理的处理名称。控制部11获取各个执行的处理的日志数据,并且根据日志数据显示执行的处理的处理名称、执行该处理的用户以及用户的脸部照片的图像。对于脸部照片的图像,控制部11可按照参照示例性实施方式描述的相同方式利用用户ID和认证表TB1获取脸部照片的图像文件。在该配置中,控制部11按照各个处理的处理名称过滤日志数据,并基于过滤的日志数据显示所执行的处理的处理名称、执行该处理的用户以及用户的脸部照片的图像。
在本发明的示例性实施方式中,在通过脸部识别的认证处理中控制部11可能不授权利用第二摄影部18拍摄其图像的用户使用图像形成设备10。在这种情况下,由第二摄影部18拍摄的脸部图像可与图像拍摄的时间和日期一起存储在存储部13上。在此配置中,未被授权使用图像形成设备10的用户的脸部图像可响应于该用户的操作而显示在显示部14上。
在本发明的示例性实施方式中,在通过脸部识别的认证处理中控制部11可授权利用第二摄影部18拍摄其图像的用户使用图像形成设备10。由第二摄影部18拍摄的脸部图像可与日志数据中的图像文件名关联地一起存储在存储部13上。当显示图像形成设备10的用户的脸部图像时,可显示由第二摄影部18拍摄然后存储在存储部13上的图像文件的图像。
在本发明的示例性实施方式中,响应于用于认证的用户的操作执行认证处理。本发明不限于这种配置。例如,在检测到人的接近时,图像形成设备10可通过使第二摄影部18拍摄人的图像来自动执行认证处理。与认证处理无关,图像形成设备10可显示人脸的图像。在检测到人的接近时,图像形成设备10自动使第二摄影部18拍摄人脸的图像,使得存储部13存储脸部图像的图像文件以及图像拍摄的时间和日期,然后响应于用户的指示显示所存储的图像文件以及图形拍摄的时间和日期的内容。
在示例性实施方式中,图像形成设备10是控制台型图像形成设备。图像形成设备10可以是台式图像形成设备。图像形成设备10可以是响应于用户的操作执行信息处理的设备。
示例性实施方式的信息处理设备可以不是具有多功能的图像形成设备。例如,信息处理设备可以是扫描装置、复印装置或传真装置。信息处理设备可以是个人计算机或服务器设备。
图像形成设备10中的控制部11的各个功能可通过一个或更多个硬件电路来实现,可通过执行一个或更多个程序的处理装置来实现,或者可通过其组合来实现。
如果控制部11的功能利用程序来实现,则该程序可在被记录在非瞬时性计算机可读记录介质上的状态下提供。非瞬时性记录介质包括磁记录介质(磁带、磁盘(例如,硬盘驱动器(HDD)或软盘(FD)))、光学记录介质(例如,光盘)、磁光记录介质和半导体存储器。所述程序可经由网络分发。
为了说明和描述的目的提供了本发明的示例性实施方式的以上描述。其并非旨在为穷尽性的或将本发明限于所公开的精确形式。显然,对于本领域技术人员而言,许多修改和变化将是显而易见的。为了最佳地说明本发明的原理及其实际应用而选择并描述了这些实施方式,由此使得本领域技术人员能够理解本发明的各种实施方式,可以想到适合于具体用途的各种修改。本发明的范围旨在由以下权利要求及其等同物限定。
Claims (36)
1.一种信息处理设备,该信息处理设备包括:
存储部,该存储部存储用户对所述信息处理设备的使用的日志;以及
显示部,该显示部将所述信息处理设备的存储在所述存储部上的所述日志与所述用户的脸部的脸部图像一起显示,
其中,所述显示部将所述日志分割成多个时间段,然后基于每一分割的时间段来显示认证的用户的脸部图像。
2.根据权利要求1所述的信息处理设备,其中,所述使用包括对所述用户进行认证的认证操作。
3.根据权利要求2所述的信息处理设备,该信息处理设备还包括:
第一认证单元,该第一认证单元根据由所述用户输入的信息来认证所述用户;
拍摄单元,该拍摄单元拍摄所述用户的脸部的所述脸部图像;以及
第二认证单元,该第二认证单元根据所述用户的所述脸部图像来认证所述用户,
其中,所述显示部将所述信息处理设备的所述日志仅与过去认证的用户当中的由所述第二认证单元认证的用户的脸部图像一起显示。
4.根据权利要求2所述的信息处理设备,该信息处理设备还包括:
第一认证单元,该第一认证单元根据由所述用户输入的信息来认证所述用户;
拍摄单元,该拍摄单元拍摄所述用户的脸部的所述脸部图像;以及
第二认证单元,该第二认证单元根据所述用户的脸部图像来认证所述用户,
其中,所述显示部将对所述信息处理设备的使用的所述日志不与过去认证的用户当中的由所述第一认证单元认证的用户的脸部图像一起显示。
5.根据权利要求3所述的信息处理设备,其中,所述存储部还存储未由所述第二认证单元认证的日志,并且
其中,所述显示部将未认证的日志与由所述拍摄单元拍摄的所述用户的所述脸部图像一起显示。
6.根据权利要求1所述的信息处理设备,其中,在显示各个时间段时,各个时间段的显示区域上所显示的脸部图像的数量是预定值。
7.根据权利要求1所述的信息处理设备,其中,如果指定多个时间段中的一个,则所述显示部按照认证时间的顺序显示在所指定的时间段中认证的用户的脸部图像。
8.根据权利要求6所述的信息处理设备,其中,如果指定多个时间段中的一个,则所述显示部按照认证时间的顺序显示在所指定的时间段中认证的用户的脸部图像。
9.根据权利要求1至5中的一项所述的信息处理设备,其中,所述存储部存储所述用户的所述脸部图像,并且其中,如果所述存储部未存储所述信息处理设备的过去用户的任何脸部图像,则所述显示部将所述日志与所述脸部图像所对应的图像一起显示。
10.根据权利要求1所述的信息处理设备,其中,所述存储部存储所述用户的所述脸部图像,并且其中,如果所述存储部未存储所述信息处理设备的过去用户的任何脸部图像,则所述显示部将所述日志与所述脸部图像所对应的图像一起显示。
11.根据权利要求6所述的信息处理设备,其中,所述存储部存储所述用户的所述脸部图像,并且其中,如果所述存储部未存储所述信息处理设备的过去用户的任何脸部图像,则所述显示部将所述日志与所述脸部图像所对应的图像一起显示。
12.根据权利要求7所述的信息处理设备,其中,所述存储部存储所述用户的所述脸部图像,并且其中,如果所述存储部未存储所述信息处理设备的过去用户的任何脸部图像,则所述显示部将所述日志与所述脸部图像所对应的图像一起显示。
13.根据权利要求8所述的信息处理设备,其中,所述存储部存储所述用户的所述脸部图像,并且其中,如果所述存储部未存储所述信息处理设备的过去用户的任何脸部图像,则所述显示部将所述日志与所述脸部图像所对应的图像一起显示。
14.根据权利要求1至5中的一项所述的信息处理设备,其中,如果同一用户多次使用了所述信息处理设备,则所述显示部将所述同一用户的所述脸部图像的显示数量设定为一。
15.根据权利要求1所述的信息处理设备,其中,如果同一用户多次使用了所述信息处理设备,则所述显示部将所述同一用户的所述脸部图像的显示数量设定为一。
16.根据权利要求6所述的信息处理设备,其中,如果同一用户多次使用了所述信息处理设备,则所述显示部将所述同一用户的所述脸部图像的显示数量设定为一。
17.根据权利要求7所述的信息处理设备,其中,如果同一用户多次使用了所述信息处理设备,则所述显示部将所述同一用户的所述脸部图像的显示数量设定为一。
18.根据权利要求8所述的信息处理设备,其中,如果同一用户多次使用了所述信息处理设备,则所述显示部将所述同一用户的所述脸部图像的显示数量设定为一。
19.根据权利要求9所述的信息处理设备,其中,如果同一用户多次使用了所述信息处理设备,则所述显示部将所述同一用户的所述脸部图像的显示数量设定为一。
20.根据权利要求10所述的信息处理设备,其中,如果同一用户多次使用了所述信息处理设备,则所述显示部将所述同一用户的所述脸部图像的显示数量设定为一。
21.根据权利要求11所述的信息处理设备,其中,如果同一用户多次使用了所述信息处理设备,则所述显示部将所述同一用户的所述脸部图像的显示数量设定为一。
22.根据权利要求12所述的信息处理设备,其中,如果同一用户多次使用了所述信息处理设备,则所述显示部将所述同一用户的所述脸部图像的显示数量设定为一。
23.根据权利要求13所述的信息处理设备,其中,如果同一用户多次使用了所述信息处理设备,则所述显示部将所述同一用户的所述脸部图像的显示数量设定为一。
24.根据权利要求14所述的信息处理设备,其中,如果同一用户多次使用了所述信息处理设备,则所述显示部将所述同一用户的所述脸部图像的显示数量设定为一,并且基于最近认证时间来确定要显示的所述脸部图像的位置。
25.根据权利要求15所述的信息处理设备,其中,如果同一用户多次使用了所述信息处理设备,则所述显示部将所述同一用户的所述脸部图像的显示数量设定为一,并且基于最近认证时间来确定要显示的所述脸部图像的位置。
26.根据权利要求16所述的信息处理设备,其中,如果同一用户多次使用了所述信息处理设备,则所述显示部将所述同一用户的所述脸部图像的显示数量设定为一,并且基于最近认证时间来确定要显示的所述脸部图像的位置。
27.根据权利要求17所述的信息处理设备,其中,如果同一用户多次使用了所述信息处理设备,则所述显示部将所述同一用户的所述脸部图像的显示数量设定为一,并且基于最近认证时间来确定要显示的所述脸部图像的位置。
28.根据权利要求18所述的信息处理设备,其中,如果同一用户多次使用了所述信息处理设备,则所述显示部将所述同一用户的所述脸部图像的显示数量设定为一,并且基于最近认证时间来确定要显示的所述脸部图像的位置。
29.根据权利要求19所述的信息处理设备,其中,如果同一用户多次使用了所述信息处理设备,则所述显示部将所述同一用户的所述脸部图像的显示数量设定为一,并且基于最近认证时间来确定要显示的所述脸部图像的位置。
30.根据权利要求20所述的信息处理设备,其中,如果同一用户多次使用了所述信息处理设备,则所述显示部将所述同一用户的所述脸部图像的显示数量设定为一,并且基于最近认证时间来确定要显示的所述脸部图像的位置。
31.根据权利要求21所述的信息处理设备,其中,如果同一用户多次使用了所述信息处理设备,则所述显示部将所述同一用户的所述脸部图像的显示数量设定为一,并且基于最近认证时间来确定要显示的所述脸部图像的位置。
32.根据权利要求22所述的信息处理设备,其中,如果同一用户多次使用了所述信息处理设备,则所述显示部将所述同一用户的所述脸部图像的显示数量设定为一,并且基于最近认证时间来确定要显示的所述脸部图像的位置。
33.根据权利要求23所述的信息处理设备,其中,如果同一用户多次使用了所述信息处理设备,则所述显示部将所述同一用户的所述脸部图像的显示数量设定为一,并且基于最近认证时间来确定要显示的所述脸部图像的位置。
34.一种信息处理方法,该信息处理方法包括以下步骤:
存储用户对信息处理设备的使用的日志;以及
将所述信息处理设备的所存储的日志与所述用户的脸部的脸部图像一起显示,其中,所述显示包括将所述日志分割成多个时间段,然后基于每一分割的时间段来显示认证的用户的脸部图像。
35.一种信息处理设备,该信息处理设备包括:
拍摄单元,该拍摄单元拍摄用户的脸部的脸部图像;
存储部,该存储部存储多个脸部图像;以及
显示部,该显示部将所述拍摄单元的拍摄日志与所存储的脸部图像一起显示,
其中,所述显示部将所述日志分割成多个时间段,然后基于每一分割的时间段来显示认证的用户的脸部图像。
36.一种信息处理方法,该信息处理方法包括以下步骤:
拍摄用户的脸部的脸部图像;
存储多个脸部图像;以及
将拍摄日志与所存储的脸部图像一起显示,
其中,所述显示包括将所述日志分割成多个时间段,然后基于每一分割的时间段来显示认证的用户的脸部图像。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013-228398 | 2013-11-01 | ||
JP2013228398A JP6136859B2 (ja) | 2013-11-01 | 2013-11-01 | 情報処理装置及びプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
CN104615926A CN104615926A (zh) | 2015-05-13 |
CN104615926B true CN104615926B (zh) | 2018-05-25 |
Family
ID=53006829
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201410317613.8A Active CN104615926B (zh) | 2013-11-01 | 2014-07-04 | 信息处理设备和信息处理方法 |
Country Status (3)
Country | Link |
---|---|
US (1) | US9524129B2 (zh) |
JP (1) | JP6136859B2 (zh) |
CN (1) | CN104615926B (zh) |
Families Citing this family (24)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9430696B2 (en) * | 2014-10-09 | 2016-08-30 | Sensory, Incorporated | Continuous enrollment for face verification |
JP6558064B2 (ja) * | 2015-05-08 | 2019-08-14 | 富士ゼロックス株式会社 | 認証装置および画像形成装置 |
JP6354737B2 (ja) * | 2015-11-30 | 2018-07-11 | コニカミノルタ株式会社 | 通信装置、プログラムおよび通信システム |
JP2017107172A (ja) * | 2015-12-08 | 2017-06-15 | 株式会社リコー | 画像形成装置、画像形成システム、認証方法およびプログラム |
JP6249028B2 (ja) | 2016-03-07 | 2017-12-20 | 富士ゼロックス株式会社 | 情報処理装置及びプログラム |
JP6728807B2 (ja) * | 2016-03-15 | 2020-07-22 | 株式会社リコー | 情報処理装置、情報処理システム、認証方法、及びプログラム |
JP6961349B2 (ja) * | 2017-01-24 | 2021-11-05 | キヤノン株式会社 | 不揮発性記憶装置を有する情報処理装置、制御方法 |
JP2018158481A (ja) * | 2017-03-22 | 2018-10-11 | コニカミノルタ株式会社 | 画像形成システム、画像形成装置及び補助動作実行プログラム |
JP6834675B2 (ja) * | 2017-03-27 | 2021-02-24 | コニカミノルタ株式会社 | ジョブ処理装置、サーバ、サーバプログラム |
US11482308B2 (en) | 2017-08-10 | 2022-10-25 | Nuance Communications, Inc. | Automated clinical documentation system and method |
US11316865B2 (en) | 2017-08-10 | 2022-04-26 | Nuance Communications, Inc. | Ambient cooperative intelligence system and method |
US20190272895A1 (en) | 2018-03-05 | 2019-09-05 | Nuance Communications, Inc. | System and method for review of automated clinical documentation |
WO2019173333A1 (en) | 2018-03-05 | 2019-09-12 | Nuance Communications, Inc. | Automated clinical documentation system and method |
US11250382B2 (en) | 2018-03-05 | 2022-02-15 | Nuance Communications, Inc. | Automated clinical documentation system and method |
JP6981339B2 (ja) * | 2018-03-28 | 2021-12-15 | 株式会社リコー | 情報処理装置、情報処理システム、及び情報処理方法 |
JP7190356B2 (ja) * | 2019-01-08 | 2022-12-15 | シャープ株式会社 | 情報処理装置 |
US11216480B2 (en) | 2019-06-14 | 2022-01-04 | Nuance Communications, Inc. | System and method for querying data points from graph data structures |
US11227679B2 (en) | 2019-06-14 | 2022-01-18 | Nuance Communications, Inc. | Ambient clinical intelligence system and method |
US11043207B2 (en) | 2019-06-14 | 2021-06-22 | Nuance Communications, Inc. | System and method for array data simulation and customized acoustic modeling for ambient ASR |
US11531807B2 (en) | 2019-06-28 | 2022-12-20 | Nuance Communications, Inc. | System and method for customized text macros |
EP4016483A4 (en) * | 2019-08-14 | 2022-08-17 | NEC Corporation | INFORMATION PROCESSING DEVICE, INFORMATION PROCESSING METHOD AND RECORDING MEDIUM |
US11670408B2 (en) | 2019-09-30 | 2023-06-06 | Nuance Communications, Inc. | System and method for review of automated clinical documentation |
US11222103B1 (en) | 2020-10-29 | 2022-01-11 | Nuance Communications, Inc. | Ambient cooperative intelligence system and method |
JP2023037169A (ja) * | 2021-09-03 | 2023-03-15 | キヤノン株式会社 | 多要素認証機能を備える情報処理装置、制御方法、およびプログラム。 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101352039A (zh) * | 2005-11-15 | 2009-01-21 | 通用仪表公司 | 具有自动用户检测和识别能力的视频电话设备 |
CN103167328A (zh) * | 2011-12-16 | 2013-06-19 | 索尼公司 | 信息处理设备、信息处理方法和程序 |
Family Cites Families (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002352291A (ja) * | 2001-05-28 | 2002-12-06 | Toshiba Corp | 入場管理装置および入場管理方法 |
TWI282941B (en) * | 2001-03-15 | 2007-06-21 | Toshiba Corp | Entrance management apparatus and entrance management method by using face features identification |
US7460692B2 (en) * | 2004-09-10 | 2008-12-02 | Kabushiki Kaisha Toshiba | Image forming apparatus |
JP4561400B2 (ja) * | 2005-02-24 | 2010-10-13 | オムロン株式会社 | 監視装置 |
JP2007272810A (ja) * | 2006-03-31 | 2007-10-18 | Toshiba Corp | 人物認識システム、通行制御システム、人物認識システムの監視方法、および、通行制御システムの監視方法 |
JP2009037573A (ja) * | 2007-08-04 | 2009-02-19 | Multi Solution:Kk | データセンターセキュリティ管理システム |
JP2009093373A (ja) * | 2007-10-05 | 2009-04-30 | Toshiba Corp | 生体照合装置の監視装置、通行制御装置の監視装置、生体照合システム、および、生体照合装置の監視方法 |
JP2008071366A (ja) * | 2007-10-22 | 2008-03-27 | Toshiba Corp | 顔画像照合装置、顔画像照合システム及び顔画像照合方法 |
KR101681321B1 (ko) * | 2009-11-17 | 2016-11-30 | 엘지전자 주식회사 | 사용자 인증 방법 및 그를 이용한 화상 통신 장치 및 디스플레이 장치 |
JP5447647B2 (ja) * | 2010-03-08 | 2014-03-19 | 富士通株式会社 | 生体認証装置、生体認証プログラム及び方法 |
JP2011221847A (ja) | 2010-04-12 | 2011-11-04 | Sharp Corp | 画像形成装置およびそれを備えてなる文書管理システム |
-
2013
- 2013-11-01 JP JP2013228398A patent/JP6136859B2/ja active Active
-
2014
- 2014-05-28 US US14/289,339 patent/US9524129B2/en active Active
- 2014-07-04 CN CN201410317613.8A patent/CN104615926B/zh active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101352039A (zh) * | 2005-11-15 | 2009-01-21 | 通用仪表公司 | 具有自动用户检测和识别能力的视频电话设备 |
CN103167328A (zh) * | 2011-12-16 | 2013-06-19 | 索尼公司 | 信息处理设备、信息处理方法和程序 |
Also Published As
Publication number | Publication date |
---|---|
JP6136859B2 (ja) | 2017-05-31 |
US9524129B2 (en) | 2016-12-20 |
CN104615926A (zh) | 2015-05-13 |
US20150124277A1 (en) | 2015-05-07 |
JP2015088113A (ja) | 2015-05-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN104615926B (zh) | 信息处理设备和信息处理方法 | |
US8462224B2 (en) | Image retrieval | |
US10839199B2 (en) | Image selecting device, image selecting method, image pickup apparatus, and computer-readable medium | |
JP6806261B2 (ja) | 店舗装置、店舗システム、店舗管理方法、プログラム | |
TW201531992A (zh) | 表面狀態測定分析資訊管理系統及表面狀態測定分析資訊管理方法 | |
KR100990917B1 (ko) | 유사 분석 장치, 화상 표시 장치, 화상 표시 프로그램 기억 매체, 및 화상 표시 방법 | |
CN105740379A (zh) | 一种照片分类管理方法和装置 | |
CN105956022A (zh) | 电子镜图像处理方法和装置、图像处理方法和装置 | |
KR20120092889A (ko) | 피부 관리 지원 시스템 및 방법과 이를 지원하는 휴대 단말기 | |
JP5398570B2 (ja) | 情報処理装置及びその制御方法 | |
KR101456482B1 (ko) | 이미지 인쇄 방법 및 상기 방법에 따른 인쇄 장치 | |
WO2013136484A1 (ja) | 画像表示装置及び画像表示方法 | |
JP7020567B2 (ja) | 情報処理システム、情報処理装置、情報処理方法、およびプログラム | |
JP2015139001A (ja) | 情報処理装置、情報処理方法及びプログラム | |
JP2015072633A (ja) | 画像処理装置及びプログラム | |
JP2009301119A (ja) | 画像表示装置 | |
US9076031B2 (en) | Image capture apparatus, control method of image capture apparatus, and recording medium | |
JP2022058833A (ja) | 情報処理システム、情報処理装置、情報処理方法、およびプログラム | |
JP7007022B2 (ja) | 情報処理装置、情報処理方法及びプログラム | |
JP2014042170A (ja) | 撮影システム、撮影支援方法、撮影装置及びその制御方法、管理装置及びその制御方法、並びにプログラム | |
JP2006252025A (ja) | 画像管理装置、画像管理方法、および画像管理プログラム | |
JP6482261B2 (ja) | 画像検索装置、画像検索方法及び画像検索プログラム | |
JP2013242719A (ja) | 画像処理装置及び電子カメラ | |
JP7346708B2 (ja) | 情報管理システム、情報管理方法、及びプログラム | |
JP2016213689A (ja) | 撮像装置及びその制御方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
CP01 | Change in the name or title of a patent holder |
Address after: Tokyo, Japan Patentee after: Fuji film business innovation Co.,Ltd. Address before: Tokyo, Japan Patentee before: Fuji Xerox Co.,Ltd. |
|
CP01 | Change in the name or title of a patent holder |