CN115087952A - 用于便携式终端的程序、处理方法及便携式终端 - Google Patents

用于便携式终端的程序、处理方法及便携式终端 Download PDF

Info

Publication number
CN115087952A
CN115087952A CN202180013649.5A CN202180013649A CN115087952A CN 115087952 A CN115087952 A CN 115087952A CN 202180013649 A CN202180013649 A CN 202180013649A CN 115087952 A CN115087952 A CN 115087952A
Authority
CN
China
Prior art keywords
user
portable terminal
hand
screen
user image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202180013649.5A
Other languages
English (en)
Inventor
辻泰成
今西佳子
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Publication of CN115087952A publication Critical patent/CN115087952A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04817Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/107Static hand or arm
    • G06V40/11Hand-related biometrics; Hand pose recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/60Static or dynamic means for assisting the user to position a body part for biometric acquisition
    • G06V40/67Static or dynamic means for assisting the user to position a body part for biometric acquisition by interactive indications to the user
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/02Constructional features of telephone sets
    • H04M1/0202Portable telephone sets, e.g. cordless phones, mobile phones or bar type handsets
    • H04M1/0279Improving the user comfort or ergonomics
    • H04M1/0281Improving the user comfort or ergonomics for providing single handed use or left/right hand conversion
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72448User interfaces specially adapted for cordless or mobile telephones with means for adapting the functionality of the device according to specific conditions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/166Detection; Localisation; Normalisation using acquisition arrangements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2250/00Details of telephonic subscriber devices
    • H04M2250/52Details of telephonic subscriber devices including functional features of a camera

Abstract

本发明提供了一种便携式终端(10),具有:获取单元(11),用于获取包括用户的用户图像;以及画面生成单元(12),根据包括在用户图像中的用户的手是右手或左手来改变要在触摸板显示器(14)上显示的画面上的操作按钮的位置。

Description

用于便携式终端的程序、处理方法及便携式终端
技术领域
本发明涉及用于便携式终端的程序、处理方法及便携式终端。
背景技术
专利文献1公开了一种基于图像进行认证的认证装置。
专利文献2公开了一种便携式终端,该便携式终端基于加速度传感器的检测结果,识别用户的操作模式是左手握持的左手输入、右手握持的右手输入、左手握持的右手输入、右手握持的左手输入、或双手握持的双手输入,并基于其结果来改变在触摸板显示器上显示的操作按钮的位置等。
[现有技术文献]
[专利文献]
[专利文献1]日本专利申请公开No.2017-142859
[专利文献2]日本专利申请公开No.2012-191445
发明内容
[技术问题]
如专利文献2中公开的技术,通过确定用户握持便携式终端的手,并基于确定的结果来改变在显示器上显示的操作按钮的位置等来提高用户的可操作性。然而,专利文献2中公开的基于加速度传感器的检测结果来确定用户握持便携式终端的手的技术具有不能以充分的准确度进行确定的问题。当左手握持被错误地确定为右手握持并且操作按钮显示在右手握持位置时,可操作性变得非常差。
本发明的目的在于:以高准确度来确定用户握持便携式终端的手,并提供具有适合其握持状态的良好操作性的画面。
[问题的解决方案]
根据本发明,
提供了一种在便携式终端中使用的程序,使便携式终端用作:
获取装置,用于获取包括用户的用户图像;以及
画面生成装置,用于根据包括在用户图像中的用户的手是右手或左手来改变要在触摸板显示器上显示的画面上的操作按钮的位置。
此外,根据本发明,
提供了一种便携终端的处理方法,包括:
获取包括用户的用户图像;以及
根据包括在用户图像中的用户的手是右手或左手,改变要在触摸板显示器上显示的画面上的操作按钮的位置。
此外,根据本发明,
提供了一种便携式终端,包括:
获取单元,获取包括用户的用户图像;以及
画面生成单元,根据包括在用户图像中的用户的手是右手或左手来改变要在触摸板显示器上显示的画面上的操作按钮的位置。
此外,根据本发明,
提供了一种服务器,包括:
获取装置,用于从便携式终端获取包括用户的用户图像;
画面生成装置,用于根据包括在用户图像中的用户的手是右手或左手来改变要在便携式终端的触摸板显示器上显示的画面上的操作按钮的位置;以及
传输装置,用于将画面传输到便携式终端。
[发明的有益效果]
根据本发明,可以以高准确度来确定用户握持便携式终端的手,并且可以提供适合其握持状态的具有良好操作性的画面。
附图说明
[图1]图1是用于描述根据本示例实施例的便携式终端的功能的图。
[图2]图2是示出了根据本示例实施例的便携式终端的硬件配置的一个示例的图。
[图3]图3是根据本示例实施例的便携式终端的功能框图的一个示例。
[图4]图4是示出了根据本示例实施例的便携式终端的处理流程的一个示例的流程图。
[图5]图5是用于描述根据本示例实施例的便携式终端的功能的图。
[图6]图6是根据本示例实施例的便携式终端的功能框图的一个示例。
[图7]图7是示出了根据本示例实施例的便携式终端的处理流程的一个示例的流程图。
[图8]图8是根据本示例实施例的便携式终端和服务器的功能框图的一个示例。
具体实施方式
<第一示例实施例>
首先,描述根据本示例实施例的便携式终端的概述。作为前提,便携式终端包括相机功能和触摸板显示器,并且被配置为能够以这种方式执行所谓的“自拍”。如图1所示,便携式终端10包括与触摸板显示器14在同一表面上的相机镜头C。此外,在自拍时,在触摸板显示器14上显示:通过使用相机镜头C收集光而生成的包括用户的用户图像。用户操作触摸板显示器14,并在检查显示在触摸板显示器14上的包括他/她自己的用户图像的同时执行拍摄。
此外,通过确定包括自拍中生成的用户图像中的用户的手,便携式终端10以高准确度来确定用户握持便携式终端10的手。便携式终端10将不包括在图像中的手确定为握持便携式终端10的手。此外,便携式终端10生成适合于所确定的握持状态的具有良好可操作性的画面,并将该画面显示在触摸板显示器14上。
下面,详细描述便携式终端10的配置。首先,描述便携式终端10的硬件配置的一个示例。便携式终端10是智能电话、平板终端、移动电话、便携式游戏机等,但不限于此。
包括在根据本示例实施例的便携式终端10中的功能单元通过软件和硬件的任意组合来实现,该软件和硬件主要包括:计算机的中央处理单元(CPU)、存储器、加载到存储器中的程序、存储程序(除了从设备出厂阶段预先存储的程序之外,还可以存储从诸如压缩盘(CD)的存储介质或从互联网上的服务器下载的程序)的存储单元(例如,硬盘)、以及用于网络连接的接口。此外,本领域技术人员可以理解,存在用于实现便携式终端10的方法和装置的各种修改示例。
图2是示出了根据本示例实施例的便携式终端10的硬件配置的框图。如图2所示,便携式终端10包括处理器1A、存储器2A、输入/输出接口3A、外围电路4A和总线5A。外围电路4A包括各种模块。便携式终端10可以不包括外围电路4A。要注意的是,便携式终端10可以由物理上和/或逻辑上集成的单个装置构成,或可以由物理上和/或逻辑上分离的多个装置构成。当便携式终端10由物理上和/或逻辑上分离的多个装置构成时,多个装置中的每一个可以包括上述硬件配置。
总线5A是用于处理器1A、存储器2A、外围电路4A和输入/输出接口3A相互发送/接收数据的数据传输路径。例如,处理器1A是诸如CPU或图形处理单元(GPU)的算术处理装置。例如,存储器2A是诸如随机存取存储器(RAM)或只读存储器(ROM)的存储器。输入/输出接口3A包括用于从输入装置、外部装置、外部服务器、外部传感器、相机等获取信息的接口、用于将信息输出到输出装置、外部装置、外部服务器等的接口等。输入装置是例如键盘、鼠标、麦克风、触控板、物理按钮、相机等。输出装置是例如显示器、扬声器、打印机、邮件程序等。处理器1A可以基于模块的算术运算的结果,向每个模块发出命令并执行算术运算。
接着,描述便携式终端10的功能配置。图3示出了便携式终端10的功能框图的一个示例。如图所示,便携式终端10包括获取单元11、画面生成单元12、输出单元13、触摸板显示器14和输入接收单元15。获取单元11、画面生成单元12、输出单元13和输入接收单元15通过在便携式终端10上安装预定应用来实现。
该预定应用是由提供预定服务的业务实体提供的应用。业务实体提供的预定服务包括金融机构账户开设、信用卡申请、使用码的支付服务等,但不限于此。预定应用在开始提供这些服务之前执行个人标识处理。在个人标识处理中,如图1所示,生成包括接收服务的用户的面部1和个人标识文件2在内的用户图像,并通过核对面部1与包括在个人标识文件2中的用户的面部来执行个人标识。
当执行个人标识处理时,便携式终端10生成操作按钮B叠加在用户图像上的画面,并将该画面在触摸板显示器14上显示。此外,便携式终端10基于用户图像以高准确度来确定用户握持便携式终端10的手,生成适合其握持状态的具有良好操作性的画面,并将该画面在触摸板显示器14上显示。通过使用图4中的流程图,随着提供画面的处理流程来描述每个功能单元的配置。
首先,当响应于用户操作等,在激活预定应用之后开始个人标识处理时,开启便携式终端10的相机功能。然后,便携式终端10通过使用与触摸板显示器14在同一表面上的相机镜头C来收集光,并生成包括用户的用户图像。
然后,获取单元11获取由便携式终端10的相机功能生成的用户图像(S10)。
接着,画面生成单元12分析该图像,并判断:该用户图像中是否包括用户的手(S11)以及包括在该用户图像中的用户的手是右手或左手(S12)。例如,画面生成单元12可以基于估计模型来执行上述判断,该估计模型借助于基于训练数据的机器学习生成,在训练数据中,用户的手的图像与指示图像中的手是右手或左手的标签相关联。根据估计模型,获取“不包括用户的手”、“包括右手”或“包括左手”的估计结果。
根据另一种判断方法,例如,画面生成单元12可以确定握持个人标识文件2的手,并基于确定的手正握持个人标识文件2的右侧(例如,竖直地等分为两部分的个人标识文件2的右半部分)或个人标识文件2的左侧(例如,竖直地等分为两部分的个人标识文件2的左半部分)来判断握持的手是右手或左手。例如,画面生成单元12可以将与个人标识文件2接触的手确定为握持个人标识文件2的手。此外,当从用户角度观看的个人标识文件2的右侧被握持时,画面生成单元12可以判断握持个人标识文件2的手是右手,以及当从用户角度观看的个人标识文件2的左侧被握持时,画面生成单元12可以判断握持个人标识文件12的手是左手。
之后,如图1所示,画面生成单元生成画面,在该画面中,操作按钮B、引导面部位置的框F1、和引导个人标识文件2的位置的框F2叠加在用户图像上(S13至S15)。然后,输出单元13使触摸板显示器14显示该画面(S16)。个人标识文件2是包括用户的面部图像的标识卡,并由驾驶执照、护照等示例,但不限于此。
要注意的是,画面生成单元12根据用户图像中是否包括用户的手(S11中的判断结果)来生成画面上操作按钮B的位置不同的画面。此外,画面生成单元12根据包括在用户图像中的手是右手或左手(S12的判断结果)来生成操作按钮B的位置不同的画面。以下为详细描述。
当用户图像中包括手(S11中的“是”)并且该手是右手(S12中的“是”)时,画面生成单元12生成操作按钮B显示在左手握持/操作的位置处的画面(S13)。在需要拍摄个人标识文件2的个人标识处理中,如图1所示,用户图像中包括握持个人标识文件2的手。
例如,如图1所示,与当用户图像中包括左手时相比,当用户图像中包括右手时,从用户的角度观看,画面生成单元12向左移动操作按钮B的位置。此外,例如,当用户图像中包括右手时,从用户的角度观看,画面生成12单元在左侧区域中显示操作按钮B,该左侧区域是竖直地将画面等分为两部分的两个区域中的一个。
要注意的是,在图1中,触摸板显示器14指示用户用左手握持便携式终端10并用左手握住个人标识文件2的场景,但这是因为在触摸板显示器14上显示的是用户图像的镜像,该镜像是用户图像的水平翻转,并且用户实际上用右手握持个人标识文件2。通过基于水平翻转前的用户图像来执行S12中的判断,可以正确估计用户图像中包括右手或左手中的哪一个。
同时,当用户图像中包括手(S11中的“是”)并且该手是左手(S12中的“否”)时,画面生成单元12生成操作按钮B显示在右手握持/操作的位置处的画面(S14)。
例如,与当用户图像中包括右手时相比,当用户图像中包括左手时,从用户的角度观看,画面生成单元12向右移动操作按钮B的位置。此外,例如,当用户图像中包括左手时,从用户的角度看,画面生成单元12在右侧区域显示操作按钮B,该右侧区域是竖直地将画面等分为两部分的两个区域中的一个。
要注意的是,当用户图像中不包括任何一只手时(S11中的否),画面生成单元12生成在预先确定的预定位置处显示操作按钮B的画面(S15)。例如,画面生成单元12可以在到画面的左、右两端的距离相同的位置处(画面的水平中心处)显示操作按钮B。
输入接收单元15通过触摸板显示器14接收输入。例如,输入接收单元15接收触摸操作按钮B的操作。操作按钮B可以是用于跳过预定操作的操作按钮、用于执行静止图像的保存的操作按钮、用于执行拍摄移动图像的开始和结束的操作按钮、或者用于执行其他处理的操作按钮。
便携式终端10执行上述处理的同时执行个人标识处理,并在触摸板显示器14上显示具有良好的可操作性的画面。要注意的是,在执行个人标识处理的同时,便携式终端10执行下述主处理和上述处理。
在主处理中,便携式终端10从用户图像中提取用户的面部1和个人标识文件2。基于用户的面部1的外观特征值和个人标识文件2的外观特征值,便携式终端10能够从用户图像中提取用户的面部1和个人标识文件2。接着,便携式终端10从个人标识文件2中提取用户的面部。然后,便携式终端10将从用户图像中提取的用户的面部1与从个人标识文件2中提取的用户的面部进行核对,从而进行个人标识。
此外,便携式终端10可以在主处理中执行生物特征检测。便携式终端10可以通过使用任何技术来执行生物特征检测。例如,如图1所示,可以显示引导面部运动的标记M,并且可以利用该标记M引导诸如闭右眼、闭左眼、张开嘴等的面部运动。此外,便携式终端10可以通过分析用户图像从而检测所引导的面部运动来执行生物特征检测。在这种情况下,操作按钮B可以是用于跳过当前请求的面部运动的操作按钮。
要注意的是,由于个人标识和生物特征检测是广为人知的技术,因此这里省略对其的详细描述。
根据上述根据本示例实施例的便携式终端10,可以确定用户握持便携式终端的手,并根据该确定结果,改变操作按钮B的显示位置。此外,根据由用户握持的且基于包括在用户图像中的手来确定手的便携式终端10,用户可以以高准确度来握持便携式终端10并确定该手。结果,可以减少由于以下情况发生的不便:由于在左手握持时错误地确定为右手握持而将操作按钮B显示在右手握持位置处,或由于在右手握持时错误地确定为左手握持而将操作按钮B显示在左手握持的位置处。
此外,便携式终端10能够基于用户图像中是否包括用户的手来改变操作按钮B的显示位置。具体地,如上所述,当用户图像中包括用户的手、并且可以确定握持便携式终端10的手时,可以在适合于每个确定结果的位置处显示操作按钮B。此外,当用户图像中不包括用户的手、并且不能确定握持便携式终端10的手时,可以在适合该情况的位置处显示操作按钮B。例如,当在左手握持时在右手握持的位置处显示操作按钮B、或在右手握持时在左手握持的位置处显示操作按钮B时,可操作性变得极差。因此,当不能确定握持便携式终端10的手时,便携式终端10在例如画面的水平中心处显示操作按钮B,从而无论使用哪一只手握持便携式终端10,,都可以减少操作性极差的不便。
<第二示例实施例>
根据本示例实施例的画面生成单元12能够基于用户图像的一部分——具体地包括其上叠加有引导个人标识文件2的位置的框F2的部分的部分图像——来判断用户图像中是否包括手以及该包括的手是右手或左手。也就是说,当使用上述估计模型来执行估计时,画面生成单元12将上述用户图像的部分输入到估计模型中,并判断用户图像中是否包括手以及该包括的手是右手或左手。
便携式终端10的其他配置与第一示例实施例中的配置相似。
根据本示例实施例的便携式终端10,实现了与第一示例实施例的有利效果相似的有利效果。
此外,根据本示例实施例的便携式终端10,基于用户图像的一部分来判断用户图像中是否包括手以及该包括的手是右手或左手,因此减少了要处理的图像数据量,并减轻了计算机的处理负荷。
此外,由于根据本示例实施例的便携式终端10处理包括其上叠加有引导个人标识文件2的位置的框F2的部分的部分图像,所以在要处理的部分中很可能包括期望检测到的用户的手(握持个人标识文件2的手)。因此,即使当基于用户图像的一部分来判断用户图像中是否包括手以及该包括的手是右手或左手时,也能够进行高准确度的判断。也就是说,根据本示例实施例的便携式终端10,在保持高准确度判断的同时减轻了计算机上的处理负荷。
<第三示例实施例>
根据本示例实施例的画面生成单元12能够根据触摸板显示器14的尺寸改变画面上的操作按钮B的位置。
例如,当触摸板显示器14的尺寸等于或大于参考值时,画面生成单元12可以在低于画面的竖直中心的位置处显示操作按钮B。此外,当触摸板显示器14的尺寸小于参考值时,画面生成单元12可以在高于画面的竖直中心的位置处显示操作按钮B。
此外,触摸板显示器14的尺寸越大,画面生成单元12越可以将操作按钮B的位置移动到画面的下侧,并且触摸板显示器14的尺寸越小,画面生成单元12越可以将操作按钮B的位置移动到画面的上侧。
指示触摸板显示器14的尺寸的信息预先登记在便携式终端10中,并且画面生成单元12可以基于该信息确定触摸板显示器14的尺寸。触摸板显示器14的尺寸可以用像素数来指示,也可以用触控板显示器14的对角线的长度(例如英寸)来指示,也可以用其他方式来指示。
便携式终端10的其他配置与第一示例实施例和第二示例实施例中的配置相似。
根据本示例实施例的便携式终端10,实现了与第一示例实施例和第二示例实施例的有利效果相似的有利效果。
此外,根据本示例实施例的便携式终端10,可以根据触摸板显示器14的尺寸在合适的位置显示操作按钮B。握持便携式终端10的方式可以根据触摸板显示器14的尺寸而变化。通过在适合于各种握持方式的位置处显示操作按钮B,提高了可操作性。
<第四示例实施例>
如图5所示,当假设触摸板显示器14上显示的画面的竖直长度为L时,根据本示例性实施例的画面生成单元12在画面上显示具有L/2或更大长度的操作按钮B,更优选地,具有2L/3或更大长度,或进一步优选地,具有L的长度。如图5所示,优选地,具有L/2或更大长度的操作按钮B以延伸方向与画面的竖直方向平行的方式定位。
便携式终端10的其他配置与第一示例实施例至第三示例实施例中的配置相似。
根据本示例实施例的便携式终端10,实现了与第一示例实施例至第三示例实施例的有利效果相似的有利效果。
此外,根据本示例实施例的便携式终端10,可以使操作按钮B的长度更长,并显示该比触摸板显示器14的竖直长度的预定比例长的操作按钮B。因此,无论握持便携式终端10在竖直方向上的哪个位置,都可以用握持便携式终端10的手容易地操作操作按钮B。
<第五示例实施例>
图6示出了根据本示例实施例的便携式终端10的功能图的一个示例。如图所示,便携式终端10包括获取单元11、画面生成单元12、输出单元13、触摸板显示器14、输入接收单元15和语音引导单元16。
语音引导单元16输出消除从用户图像检测到的用户的面部1和个人标识文件2的位置与叠加在用户图像上并在触摸板显示器14上显示的框F1和框F2的位置之间的错位的语音引导。语音引导单元16通过包括在便携式终端10中的麦克风来输出语音引导。
通过使用图7中的流程图来描述由便携式终端10执行的语音引导处理的流程的一个示例。
首先,当响应于用户操作等在激活预定应用之后开始个人标识处理时,开启便携式终端10的相机功能。然后,便携式终端10通过使用与触摸板显示器14在相同表面上的相机镜头C来收集光,并生成图像。
然后,获取单元11获取由便携式终端10的相机功能生成的图像(S20)。
接着,便携式终端10从该图像中提取用户的面部1(S21)。当没有从图像中提取到用户的面部1(S21中的“否”),并且没有提取到用户的面部1的状态持续了预定时间或更长时间(S22中的“是”)时,语音引导单元16输出用于拍摄面部1的语音引导(S23)。语音引导是例如“请拍下你的脸”等,然而,假设是视觉障碍用户,语音引导可以是“请翻转便携式终端10”等。要注意的是,即使当没有从图像中提取到用户的面部1(S21中的“否”)时,当没有提取到用户的面部1的状态未持续预定时间时或更长时间(S22中的“否”)时,不执行语音引导。
同时,当从图像中提取到用户的面部1(S21中的“是”)时,便携式终端10判断在图像上叠加并在触摸板显示器14上显示的提取的面部1的位置和框F1的位置是否错位(S24)。判断错位的方法是设计问题。例如,当面部1的一部分在框F1之外时,可以判断为错位。否则,当面部1的中心与框F1的中心之间的距离等于或大于阈值时,可以判断为错位。
当判断面部1的位置和框F1的位置错位(S24中的“是”)并且存在错位的状态持续了预定时间或更长时间(S25中的“是”)时,语音引导单元16输出消除错位的语音引导(S26)。例如,语音引导单元16可以计算面部1的位置相对于框F1的位置在哪个方向上错位,并输出用于将面部1的位置沿消除错位的方向移动的语音引导(例如,“请将你的面部向右方向移动”)。注意,当面部1相对于框F1没有错位时(S24中的“否”),不执行语音引导。此外,即使当面部1相对于框F1错位时(S24中的“是”)时,当面部1相对于框F1错位的状态未持续预定时间或更长时间(S25中的“否”)时,不执行语音引导。
此外,便携式终端10从图像中提取个人标识文件2(S27)。当没有从图像中提取到个人标识文件2(S27中的“否”)、并且没有提取到个人标识文件2的状态持续了预定时间或更长时间(S28中的“是”)时,语音引导单元16输出用于拍摄个人标识文件2的语音引导(S29)。语音引导例如是“请拍摄个人标识文件2”等。要注意的是,即使当没有从图像中提取到个人标识文件2时(S27中的“否”)时,当没有提取到个人标识文件2的状态未持续预定时间或更长时间时,不执行语音引导(S28中的“否”)。
同时,当从用户图像中提取到个人标识文件2时(S27中的“是”),便携式终端10判断在图像上叠加且在触摸板显示器14上显示的个人标识文件2的位置和框F2的位置(见图1)是否错位(S30)。判断错位的方法是设计问题。例如,当个人标识文件2的一部分在框F2之外时,可以判断为错位。否则,当个人标识文件2的中心和框F2的中心之间的距离等于或大于阈值时,可以判断为错位。
当判断出个人标识文件2的位置和框F2的位置错位(S30中的“是”)、并且存在错位的状态持续了预定时间或更长时间(S31中的“是”)时,语音引导单元16输出消除错位的语音引导(S32)。例如,语音引导单元16可以计算个人标识文件2的位置相对于框F2的位置在哪个方向上错位,并输出用于将个人标识文件2的位置沿消除错位的方向移动的语音引导(例如,“请将个人标识文件2向右侧方向移动”)。要注意的是,当个人标识文件2相对于框F2没有错位(S30中的“否”)时,不执行语音引导。此外,即使当个人标识文件2相对于框F2错位(S30中的“是”)时,当个人标识文件2相对于框F2错位的状态未持续预定时间或更长时间(S31中的“否”)时,不执行语音引导。
便携式终端10的其他配置与第一示例实施例至第四示例实施例中的配置相似。
根据本示例实施例的便携式终端10,实现了与第一示例实施例至第四示例实施例的有利效果相似的有利效果。
此外,根据本示例实施例的便携式终端10,可以通过使用图像分析来检测面部1和框F1的错位、以及个人标识文件2和框F2的错位,并输出消除错位的语音引导。根据便携式终端10,视觉障碍用户的操作也变得容易。
<第六示例实施例>
图8示出了根据本示例实施例的便携式终端10和服务器20的功能框图。如图所示,服务器20包括获取单元21、画面生成单元22、传输单元23和通信单元24。
在第一示例实施例至第五示例实施例中,便携式终端10执行如图4中的流程图所示的画面生成处理、以及针对基于用户图像的个人标识(核对从用户图像中提取的用户的面部1和从个人标识文件2中提取的用户的面部)和生物特征检测的处理。
在本示例实施例中,便携式终端10向服务器20传输提供给自己终端的由相机功能生成的用户图像给。此外,服务器20进行如图4的流程图所示的画面生成处理、以及针对基于用户图像的个人标识(核对从用户图像中提取的用户的面部1和从个人标识文件2中提取的用户的面部)和生物特征检测的处理。此外,便携式终端10在触摸板显示器14上显示从服务器20接收到的画面。
服务器20的获取单元21具有与上述获取单元11的功能相似的功能。服务器20的画面生成单元22具有与上述画面生成单元12的功能相似的功能。通信单元24通过诸如因特网的通信网络与便携终端10进行通信。获取单元11通过通信单元24获取由便携式终端10生成的包括用户的用户图像。传输单元23通过通信单元24将由画面生成单元12生成的画面传输到便携式终端10。
要注意的是,尽管未示出,但服务器20可以包括具有与上述语音引导单元16的功能相似的功能的语音引导单元25。语音引导单元25通过通信单元24向便携式终端10传输语音引导。
根据本示例实施例的服务器20,实现了与根据第一示例实施例至第五示例实施例的便携式终端10的有利效果相似的有利效果。
<第七示例实施例>
在第一示例实施例至第五示例实施例中,获取单元11、画面生成单元12、输出单元13、输入接收单元15等是通过在便携式终端10上安装由提供预定服务的业务实体提供的应用来对便携式移动终端10实现的。然后,在执行基于应用来执行的个人标识处理时,判断包括用户的用户图像中是否包括手以及该手是右手或左手,并根据该判断结果来优化操作按钮B的位置。
通过从便携式终端10的出货阶段预先安装在便携式终端10中的相机应用,根据本示例实施例的便携式终端10在便捷式终端10上实现获取单元11、画面生成单元12、输出单元13、输入接收单元15等。此外,在激活相机应用和自拍时,判断包括用户的用户图像中是否包括手以及该手是右手或左手,并根据该判断结果优化操作按钮B的位置。在这种情况下,操作按钮B可以是例如用于执行静止图像的保存的操作按钮,或是用于执行拍摄运动图像的开始和结束的操作按钮。
根据本示例实施例的便携式终端10,实现了与第一示例实施例至第五示例实施例的有利效果相似的有利效果。
尽管已经参考示例实施例(和实际示例)描述了本申请的发明,但是本申请的发明不限于上述示例实施例(和实际示例)。本领域技术人员应当理解,在不脱离本申请的发明范围的情况下,可以对本申请的发明进行各种形式和细节上的各种改变。
上述示例实施例的一部分或全部可以描述为以下补充说明,但不限于此。
1.一种在便携式终端中使用的程序,该程序使便携式终端用作:
获取装置,用于获取包括用户的用户图像;以及
画面生成装置,用于根据包括在用户图像中的用户的手是右手或左手来改变要在触摸板显示器上显示的画面上的操作按钮的位置。
2.根据补充说明1所述的程序,其中,
获取装置获取由便携式终端的相机功能生成的用户图像,以及
画面生成装置生成操作按钮叠加在用户图像上的画面,并根据包括在用户图像中的手是右手或左手来改变画面上的操作按钮的位置。
3.根据补充说明2所述的程序,其中,
当用户图像中包括右手时,与用户图像中包括左手的情况相比,画面生成装置向左移动操作按钮的位置。
4.根据补充说名1至3中任一项所述的程序,其中,
画面生成装置生成画面,在该画面中,引导面部的位置和个人标识文件的位置的框在用户图像上重叠,以及
获取装置获取包括用一只手握持个人标识文件的用户的用户图像。
5.根据补充说明4所述的程序,其中,
画面生成装置基于个人标识文件的右侧或左侧是否被握持来判断用户图像中包括的用户的且握持个人标识文件的手是右手或左手。
6.根据补充说明4至5所述的程序,进一步使便携式终端用作:
语音引导装置,用于输出语音引导,该语音引导消除从用户图像中检测到的用户的面部和个人标识文件的位置与框的位置之间的错位。
7.根据补充说明1至6中任一项所述的程序,其中,
当假定画面的竖直长度为L时,
画面生成装置在屏幕上显示长度为L/2或更长的操作按钮。
8.根据补充说明1至7中任一项所述的程序,其中
画面生成装置根据触摸板显示器的尺寸来改变画面上的操作按钮的位置。
9.一种便携式终端的处理方法,包括:
获取包括用户的用户图像;以及
根据包括在用户图像中的用户的手是右手或左手来改变要显示在触摸板显示器上的画面上的操作按钮的位置。
10.一种便携式终端,包括:
获取装置,用于获取包括用户的用户图像;以及
画面生成装置,用于根据包括在用户图像中的用户的手是右手或左手来改变要在触摸板显示器上显示的画面上的操作按钮的位置。
11.一种服务器包括:
获取装置,用于从便携式终端获取包括用户的用户图像;
画面生成装置,用于根据包括在用户图像中的用户的手是右手或左手来改变要在便携式终端的触摸板显示器上显示的画面上的操作按钮的位置;以及
传输装置,用于将画面传输到便携式终端。
本申请基于并要求2020年2月10日提交的日本专利申请No.2020-020379的优先权,其全部公开通过引用并入本文。
[附图标记列表]
1A 处理器
2A 存储器
3A 输入/输出接口
4A 外围电路
5A 总线
10 便携式终端
11 获取单元
12 画面生成单元
13 输出单元
14 触摸板显示器
15 输入接收单元
16 语音引导单元
20 服务器
21 获取单元
22 画面生成单元
23 传输单元
24 通信单元
25 语音引导单元
1 面部
2 个人标识文件。

Claims (11)

1.一种在便携式终端中使用的程序,所述程序使所述便携式终端用作:
获取装置,用于获取包括用户的用户图像;以及
画面生成装置,用于根据包括在所述用户图像中的所述用户的手是右手或左手来改变要在触摸板显示器上显示的画面上的操作按钮的位置。
2.根据权利要求1所述的程序,其中,
所述获取装置获取由所述便携式终端的相机功能生成的所述用户图像,以及
所述画面生成装置生成所述操作按钮叠加在所述用户图像上的画面,并根据包括在所述用户图像中的手是右手或左手来改变所述画面上的所述操作按钮的位置。
3.根据权利要求2所述的程序,其中,
当所述用户图像中包括右手时,与所述用户图像中包括左手的情况相比,所述画面生成装置向左移动所述操作按钮的位置。
4.根据权利要求1至3中任一项所述的程序,其中,
所述画面生成装置生成所述画面,在所述画面中,引导面部的位置和个人标识文件的位置的框叠加在所述用户图像上,并且
获取装置获取包括用一只手握持个人标识文件的用户的用户图像。
5.根据权利要求4所述的程序,其中,
所述画面生成装置基于所述个人标识文件的右侧或左侧是否被握持来判断所述用户图像中包括的所述用户的且握持所述个人标识文件的手是右手或左手。
6.根据权利要求4至5所述的程序,进一步使所述便携式终端用作:
语音引导装置,用于输出语音引导,所述语音引导消除从所述用户图像中检测到的所述用户的面部和所述个人标识文件的位置与所述框的位置的错位。
7.根据权利要求1至6中任一项所述的程序,其中,
当假定画面的竖直长度为L时,
所述画面生成装置在所述画面上显示长度为L/2或更长的所述操作按钮。
8.根据权利要求1至7中任一项所述的程序,其中,
画面生成装置根据触摸板显示器的尺寸来改变画面上的操作按钮的位置。
9.一种便携式终端的处理方法,包括:
获取包括用户的用户图像;以及
根据包括在所述用户图像中的所述用户的手是右手或左手来改变要显示在触摸板显示器上的画面上的操作按钮的位置。
10.一种便携式终端,包括:
获取装置,用于获取包括用户的用户图像;以及
画面生成装置,用于根据包括在所述用户图像中的所述用户的手是右手或左手来改变要在触摸板显示器上显示的画面上的操作按钮的位置。
11.一种服务器,包括:
获取装置,用于从便携式终端获取包括用户的用户图像;
画面生成装置,用于根据包括在所述用户图像中的所述用户的手是右手或左手来改变要在所述便携式终端的触摸板显示器上显示的画面上的操作按钮的位置;以及
传输装置,用于将所述画面传输到所述便携式终端。
CN202180013649.5A 2020-02-10 2021-01-18 用于便携式终端的程序、处理方法及便携式终端 Pending CN115087952A (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2020020379 2020-02-10
JP2020-020379 2020-02-10
PCT/JP2021/001485 WO2021161725A1 (ja) 2020-02-10 2021-01-18 プログラム、携帯端末の処理方法及び携帯端末

Publications (1)

Publication Number Publication Date
CN115087952A true CN115087952A (zh) 2022-09-20

Family

ID=77291736

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202180013649.5A Pending CN115087952A (zh) 2020-02-10 2021-01-18 用于便携式终端的程序、处理方法及便携式终端

Country Status (4)

Country Link
US (1) US20230142200A1 (zh)
JP (1) JP7359283B2 (zh)
CN (1) CN115087952A (zh)
WO (1) WO2021161725A1 (zh)

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101393504A (zh) * 2007-09-20 2009-03-25 宏达国际电子股份有限公司 手持电子装置与其图形化用户界面的切换方法
CN101424990A (zh) * 2007-10-30 2009-05-06 株式会社东芝 信息处理设备和程序调用器起动控制方法
CN101714055A (zh) * 2008-10-06 2010-05-26 三星电子株式会社 根据用户的接触模式显示图形用户界面的方法和设备
KR20120129621A (ko) * 2011-05-20 2012-11-28 한국산업기술대학교산학협력단 휴대용 전기전자 기기의 사용자 인터페이스 제어 장치 및 방법
JP2013069165A (ja) * 2011-09-22 2013-04-18 Nec Casio Mobile Communications Ltd 携帯端末装置、画像制御方法及び画像制御プログラム
CN103140822A (zh) * 2010-10-13 2013-06-05 Nec卡西欧移动通信株式会社 移动终端设备和用于移动终端设备中的触摸板的显示方法
CN103257713A (zh) * 2013-05-31 2013-08-21 华南理工大学 一种手势控制方法
CN103761086A (zh) * 2014-01-02 2014-04-30 深圳市金立通信设备有限公司 一种屏幕控制的方法和终端
US20150331569A1 (en) * 2014-05-15 2015-11-19 Electronics And Telecommunications Research Institute Device for controlling user interface, and method of controlling user interface thereof
CN106648419A (zh) * 2016-11-16 2017-05-10 努比亚技术有限公司 一种显示处理方法、装置及终端

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005284565A (ja) 2004-03-29 2005-10-13 Glory Ltd 自動取引装置
JP5412227B2 (ja) 2009-10-05 2014-02-12 日立コンシューマエレクトロニクス株式会社 映像表示装置、および、その表示制御方法
JP5608857B2 (ja) 2009-12-21 2014-10-15 キヤノンマーケティングジャパン株式会社 情報処理装置およびその制御方法、プログラム
JP2014241005A (ja) 2013-06-11 2014-12-25 株式会社東芝 表示制御装置、表示制御方法、及び表示制御プログラム
US11256792B2 (en) * 2014-08-28 2022-02-22 Facetec, Inc. Method and apparatus for creation and use of digital identification
JP6429640B2 (ja) * 2015-01-21 2018-11-28 キヤノン株式会社 遠隔コミュニケーションで用いられるコミュニケーションシステム
EP3465597B1 (en) * 2016-06-03 2024-02-28 Magic Leap, Inc. Augmented reality identity verification
KR20180116574A (ko) 2017-04-17 2018-10-25 엘지전자 주식회사 이동 단말기
US10606993B2 (en) * 2017-08-09 2020-03-31 Jumio Corporation Authentication using facial image comparison
JP2020021222A (ja) * 2018-07-31 2020-02-06 株式会社メルカリ プログラム、情報処理方法、情報処理装置
US10452897B1 (en) * 2018-08-06 2019-10-22 Capital One Services, Llc System for verifying the identity of a user
JP7211266B2 (ja) * 2019-05-27 2023-01-24 富士フイルムビジネスイノベーション株式会社 情報処理装置、及び情報処理プログラム
KR102320723B1 (ko) * 2019-12-20 2021-11-02 라인플러스 주식회사 사용자를 인증하는 방법 및 시스템

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101393504A (zh) * 2007-09-20 2009-03-25 宏达国际电子股份有限公司 手持电子装置与其图形化用户界面的切换方法
CN101424990A (zh) * 2007-10-30 2009-05-06 株式会社东芝 信息处理设备和程序调用器起动控制方法
CN101714055A (zh) * 2008-10-06 2010-05-26 三星电子株式会社 根据用户的接触模式显示图形用户界面的方法和设备
CN103140822A (zh) * 2010-10-13 2013-06-05 Nec卡西欧移动通信株式会社 移动终端设备和用于移动终端设备中的触摸板的显示方法
KR20120129621A (ko) * 2011-05-20 2012-11-28 한국산업기술대학교산학협력단 휴대용 전기전자 기기의 사용자 인터페이스 제어 장치 및 방법
JP2013069165A (ja) * 2011-09-22 2013-04-18 Nec Casio Mobile Communications Ltd 携帯端末装置、画像制御方法及び画像制御プログラム
CN103257713A (zh) * 2013-05-31 2013-08-21 华南理工大学 一种手势控制方法
CN103761086A (zh) * 2014-01-02 2014-04-30 深圳市金立通信设备有限公司 一种屏幕控制的方法和终端
US20150331569A1 (en) * 2014-05-15 2015-11-19 Electronics And Telecommunications Research Institute Device for controlling user interface, and method of controlling user interface thereof
CN106648419A (zh) * 2016-11-16 2017-05-10 努比亚技术有限公司 一种显示处理方法、装置及终端

Also Published As

Publication number Publication date
WO2021161725A1 (ja) 2021-08-19
US20230142200A1 (en) 2023-05-11
JPWO2021161725A1 (zh) 2021-08-19
JP7359283B2 (ja) 2023-10-11

Similar Documents

Publication Publication Date Title
US11310223B2 (en) Identity authentication method and apparatus
EP2105865B1 (en) Biometric authentication apparatus and biometric data registration apparatus
JP5709284B2 (ja) 接触カード認識システムおよび接触カード
US9436862B2 (en) Electronic apparatus with segmented guiding function and small-width biometrics sensor, and guiding method thereof
US8549418B2 (en) Projected display to enhance computer device use
US8472666B2 (en) Electronic apparatus with angle-adjustable operation panel
EP2336949B1 (en) Apparatus and method for registering plurality of facial images for face recognition
US20210374225A1 (en) Providing an augmented reality overlay to secure input data
JPWO2007099834A1 (ja) 顔認証装置、顔認証方法およびプログラム
US20070097234A1 (en) Apparatus, method and program for providing information
US20100090945A1 (en) Virtual input system and method
EP3979105A1 (en) Apparatus and method for user authentication based on face recognition and handwritten signature verification
CN101673329B (zh) 生物特征数据建立方法、电子装置及计算机程序产品
US20220408164A1 (en) Method for editing image on basis of gesture recognition, and electronic device supporting same
KR20190128536A (ko) 전자 장치 및 그 제어 방법
CN115087952A (zh) 用于便携式终端的程序、处理方法及便携式终端
CN109165489B (zh) 一种终端、指纹验证方法及计算机可读存储介质
JP2020021458A (ja) 情報処理装置、情報処理方法および情報処理システム
US11442582B1 (en) Virtual keypads for hands-free operation of computing devices
CN114140839B (zh) 用于人脸识别的图像发送方法、装置、设备及存储介质
CN111158572B (zh) 交互方法和电子设备
KR20140076082A (ko) 모바일 플랫폼에서의 사용자 인증 장치 및 그 방법
US20240095971A1 (en) Image processing system, image processing method, and non-transitory computer-readable medium
WO2021085567A1 (ja) 据置型の情報表示および決済処理可能な端末装置
KR20150043149A (ko) 손 모양 인식을 이용한 디지털 장치의 제어 방법 및 촬영 방법과, 그 장치

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination