CN116311667A - 智能货柜、物品显示的处理方法及系统 - Google Patents
智能货柜、物品显示的处理方法及系统 Download PDFInfo
- Publication number
- CN116311667A CN116311667A CN202211653691.6A CN202211653691A CN116311667A CN 116311667 A CN116311667 A CN 116311667A CN 202211653691 A CN202211653691 A CN 202211653691A CN 116311667 A CN116311667 A CN 116311667A
- Authority
- CN
- China
- Prior art keywords
- display
- user
- image
- scene
- cabinet door
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000003672 processing method Methods 0.000 title abstract description 19
- 230000004308 accommodation Effects 0.000 claims abstract description 50
- 238000000034 method Methods 0.000 claims description 38
- 230000000007 visual effect Effects 0.000 claims description 36
- 238000003860 storage Methods 0.000 claims description 25
- 238000012545 processing Methods 0.000 claims description 19
- 238000012795 verification Methods 0.000 claims description 9
- 238000001514 detection method Methods 0.000 claims 2
- 238000001727 in vivo Methods 0.000 claims 1
- 238000004891 communication Methods 0.000 description 18
- 238000007781 pre-processing Methods 0.000 description 16
- 238000010586 diagram Methods 0.000 description 13
- 230000000694 effects Effects 0.000 description 5
- 230000008569 process Effects 0.000 description 5
- 230000001680 brushing effect Effects 0.000 description 4
- 238000013500 data storage Methods 0.000 description 4
- 238000005259 measurement Methods 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 4
- 238000012856 packing Methods 0.000 description 4
- 230000004438 eyesight Effects 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 238000006243 chemical reaction Methods 0.000 description 2
- 238000005520 cutting process Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 239000011521 glass Substances 0.000 description 2
- 230000006872 improvement Effects 0.000 description 2
- 230000006698 induction Effects 0.000 description 2
- 230000000670 limiting effect Effects 0.000 description 2
- 238000004519 manufacturing process Methods 0.000 description 2
- 239000000463 material Substances 0.000 description 2
- 239000013307 optical fiber Substances 0.000 description 2
- 230000000644 propagated effect Effects 0.000 description 2
- 230000001960 triggered effect Effects 0.000 description 2
- 241000699670 Mus sp. Species 0.000 description 1
- 241001122767 Theaceae Species 0.000 description 1
- 230000006978 adaptation Effects 0.000 description 1
- 230000004075 alteration Effects 0.000 description 1
- 235000013361 beverage Nutrition 0.000 description 1
- 230000036760 body temperature Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 235000011888 snacks Nutrition 0.000 description 1
- 238000010408 sweeping Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 239000012780 transparent material Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G07—CHECKING-DEVICES
- G07F—COIN-FREED OR LIKE APPARATUS
- G07F9/00—Details other than those peculiar to special kinds or types of apparatus
- G07F9/10—Casings or parts thereof, e.g. with means for heating or cooling
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/40—Scaling of whole images or parts thereof, e.g. expanding or contracting
- G06T3/4038—Image mosaicing, e.g. composing plane images from plane sub-images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G07—CHECKING-DEVICES
- G07F—COIN-FREED OR LIKE APPARATUS
- G07F9/00—Details other than those peculiar to special kinds or types of apparatus
- G07F9/009—User recognition or proximity detection
-
- G—PHYSICS
- G07—CHECKING-DEVICES
- G07F—COIN-FREED OR LIKE APPARATUS
- G07F9/00—Details other than those peculiar to special kinds or types of apparatus
- G07F9/02—Devices for alarm or indication, e.g. when empty; Advertising arrangements in coin-freed apparatus
- G07F9/023—Arrangements for display, data presentation or advertising
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20112—Image segmentation details
- G06T2207/20132—Image cropping
Landscapes
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Closed-Circuit Television Systems (AREA)
Abstract
本说明书提供一种智能货柜、物品显示的处理方法及系统,该智能货柜包括:货柜本体,包括透明的柜门以及容置空间;以及显示器,安装在所述柜门上,用户目视所述柜门时,所述显示器至少部分地遮挡所述容置空间,其中,所述货柜工作时,所述显示器显示被遮挡的所述容置空间内的场景的目标图像。该技术方案能够帮助用户在第一时间了解智能货柜内物品,从而方便用户挑选物品。
Description
技术领域
本说明书涉及无人零售技术领域,尤其涉及一种智能货柜、物品显示的处理方法及系统。
背景技术
现有技术中,智能货柜通常为透明柜门,用户可以通过透明柜门观察到货柜内场景,了解货柜内是否存在自己想要的物品。而为了实现智能化购物,通常在柜门上设置有显示器,为用户提供刷脸开门、刷脸支付、显示广告等服务。显示器的尺寸太小,会导致用户的刷脸体验不好,因此,显示器的尺寸一般较大,而显示器尺寸较大就会对显示器背后的货柜内容置空间造成遮挡,导致用户形成视觉盲区,无法直观地看到被遮挡区域的场景,也就无法在第一时间判断货柜内是否存在自己想要的物品,从而影响用户挑选物品。
发明内容
本说明书提供一种智能货柜、物品显示的处理方法及系统,能够帮助用户在第一时间了解智能货柜内物品,从而方便用户挑选物品。
第一方面,本说明书提供一种智能货柜,包括:货柜本体,包括透明的柜门以及容置空间;以及显示器,安装在所述柜门上,用户目视所述柜门时,所述显示器至少部分地遮挡所述容置空间,其中,所述货柜工作时,所述显示器显示被遮挡的所述容置空间内的场景的目标图像。
在一些实施例中,M个第一摄像头,所述M为大于0的整数,所述M个第一摄像头采集M个原始图像,每个原始图像包括被遮挡的所述容置空间内的场景;以及处理器,基于所述M个原始图像,得到所述目标图像。
在一些实施例中,所述M个第一摄像头设置在所述显示器的背面。
在一些实施例中,所述基于所述M个原始图像,得到所述目标图像,包括:基于所述M的取值,从第一操作和第二操作中择一执行,其中,所述第一操作包括:确定所述M的取值等于1,将所述M个原始图像确定为预处理图像,所述第二操作包括:确定所述M的取值大于1,将所述M个原始图像进行拼接,得到预处理图像;以及基于所述预处理图像,确定所述目标图像。
在一些实施例中,所述确定所述目标图像包括:确定所述预处理图像中的待剪裁图像区域,所述待剪裁区域包括所述被遮挡的所述容置空间内的场景;以及基于所述待剪裁图像区域对所述预处理图像进行剪裁,得到剪裁后图像。
在一些实施例中,所述处理器还基于预设缩放比例对所述剪裁后图像进行缩放,得到所述目标图像以便显示在所述显示器上。
在一些实施例中,智能货柜还包括:传感器,设置在所述显示器的正面,捕获用户眼睛在所述柜门前的位置坐标;以及所述基于所述预处理图像确定所述目标图像,包括:基于所述位置坐标确定所述预处理图像中的待剪裁图像区域。
在一些实施例中,所述基于所述位置坐标确定所述预处理图像中的待剪裁图像区域,包括:基于所述位置坐标,确定用户视角;基于所述用户视角,确定被遮挡的容置空间;以及基于被遮挡的容置空间,确定所述待剪裁图像区域。
在一些实施例中,所述处理器,还在识别到所述用户位于所述柜门前且具有购买意愿时,触发所述显示器显示被遮挡的所述容置空间内的场景。
在一些实施例中,所述处理器识别到所述用户具有购买意愿之后,还包括:所述显示器,显示所述用户进行身份验证的输入界面;所述处理器,基于所述用户的身份验证信息进行身份验证成功时,控制所述柜门开启和关闭,并识别所述柜门开启至关闭期间所述用户拿取的目标物品,以及触发所述显示器显示所述目标物品的结算信息。
在一些实施例中,所述被遮挡的所述容置空间内的场景为所述用户目视所述柜门时,视觉盲区内的货柜真实场景。
在一些实施例中,所述目标图像与所述用户目视所述柜门时未被遮挡的所述容置空间内的场景拼接,使得所述用户观察的场景与所述柜门上不存在所述显示器时,所述用户观察的容置空间内的场景相同。
第二方面,本说明书还提供一种物品显示的处理方法,包括:获取被显示器遮挡的容置空间内的场景的目标图像,所述显示器,安装在货柜本体的透明的柜门上,用户目视所述柜门时,所述显示器至少部分地遮挡所述货柜本体内的容置空间;以及控制所述显示器显示所述目标图像。
在一些实施例中,所述获取被显示器遮挡的所述容置空间内的场景的目标图像,包括:获取M个原始图像,每个原始图像包括被遮挡的所述容置空间内的场景,所述M为大于0的整数;基于所述M个原始图像,确定所述目标图像。
在一些实施例中,所述基于所述M个原始图像,得到所述目标图像,包括:基于所述M的取值,从第一操作和第二操作中择一执行,其中,所述第一操作包括:确定所述M的取值等于1,将所述M个原始图像确定为预处理图像,所述第二操作包括:确定所述M的取值大于1,将所述M个原始图像进行拼接,得到预处理图像;以及基于所述预处理图像,确定所述目标图像。
在一些实施例中,所述确定所述目标图像包括:确定所述预处理图像中的待剪裁图像区域,所述待剪裁区域包括所述智能货柜中所述被遮挡的所述容置空间内的场景;以及基于所述待剪裁图像区域对所述预处理图像进行剪裁,得到剪裁后图像。
在一些实施例中,还包括:基于预设缩放比例对所述剪裁后图像进行缩放,得到所述目标图像以便显示在所述显示器上。
在一些实施例中,所述基于所述预处理图像确定所述目标图像,包括:捕获用户眼睛在所述柜门前的位置坐标;基于所述位置坐标确定所述预处理图像中的待剪裁图像区域。
在一些实施例中,所述基于所述位置坐标确定所述预处理图像中的待剪裁图像区域,包括:基于所述位置坐标,确定用户视角;基于所述用户视角,确定被遮挡的容置空间;以及基于被遮挡的容置空间,确定所述待剪裁图像区域。
在一些实施例中,还包括:在识别到所述用户位于所述柜门前且具有购买意愿时,触发所述显示器显示被遮挡的所述容置空间内的场景。
在一些实施例中,所述识别到所述用户具有购买意愿之后,还包括:控制显示器显示进行用户身份验证的输入界面;基于所述用户的身份验证信息进行身份验证成功时,控制所述柜门开启和关闭,并识别所述柜门开启至关闭期间所述用户拿取的目标物品;以及触发所述显示器显示所述目标物品的结算信息。
在一些实施例中,被显示器遮挡的所述容置空间内的场景为所述用户目视所述柜门时,视觉盲区内的货柜真实场景。
在一些实施例中,所述目标图像与所述用户目视所述柜门时未被遮挡的所述容置空间内的场景拼接,使得所述用户观察的场景与所述柜门上不存在所述显示器时,所述用户观察的容置空间内的场景相同。
第三方面,本说明书还提供一种物品显示的处理系统,包括:至少一个存储介质,存储有至少一个指令集,用于进行物品显示的处理;以及至少一个处理器,同所述至少一个存储介质通信连接,其中,当所述物品显示的处理系统运行时,所述至少一个处理器读取所述至少一个指令集,并且根据所述至少一个指令集的指示执行第二方面任一项所述的方法。
由以上技术方案可知,本说明书提供的智能货柜、物品显示的处理方法及系统,货柜本体包括透明的柜门以及容置空间,显示器安装在柜门上,当用户目视柜门时,显示器至少部分地遮挡容置空间,货柜工作时,显示器显示被遮挡的容置空间内的场景的目标图像;由于该技术方案通过显示器显示被遮挡的容置空间内场景的目标图像,因此,当用户站在柜门前观察货柜内场景时,可以通过显示器所显示的目标图像观察到被遮挡的容置空间内的场景,从而直观地看到被遮挡区域的场景,以及在第一时间判断货柜内是否存在自己想要的物品,提升用户挑选物品的体验。
本说明书提供的智能货柜、物品显示的处理方法及系统的其他功能将在以下说明中部分列出。根据描述,以下数字和示例介绍的内容将对那些本领域的普通技术人员显而易见。本说明书提供的智能货柜、物品显示的处理方法及系统的创造性方面可以通过实践或使用下面详细示例中所述的方法、装置和组合得到充分解释。
附图说明
为了更清楚地说明本说明书实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本说明书的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1示出了根据本说明书的实施例提供的一种智能货柜001的结构示意图;
图2示出了根据本说明书的实施例提供的用户仰视显示器时用户视角的示意图;
图3示出了根据本说明书的实施例提供的待裁剪图像区域的示意图;
图4示出了根据本说明书的实施例提供的用户俯视显示器时用户视角的示意图;
图5示出了根据本说明书的实施例提供的待裁剪图像区域的示意图;
图6示出了根据本说明书的实施例提供的用户平视显示器时用户视角的示意图;
图7示出了根据本说明书的实施例提供的待裁剪图像区域的示意图;
图8示出了根据本说明书的实施例提供的一种计算装置400的结构示意图;以及
图9示出了根据本说明书的实施例提供的一种物品显示的处理方法P100的流程图。
具体实施方式
以下描述提供了本说明书的特定应用场景和要求,目的是使本领域技术人员能够制造和使用本说明书中的内容。对于本领域技术人员来说,对所公开的实施例的各种局部修改是显而易见的,并且在不脱离本说明书的精神和范围的情况下,可以将这里定义的一般原理应用于其他实施例和应用。因此,本说明书不限于所示的实施例,而是与权利要求一致的最宽范围。
考虑到以下描述,本说明书的这些特征和其他特征、以及结构的相关元件的操作和功能、以及部件的组合和制造的经济性可以得到明显提高。参考附图,所有这些形成本说明书的一部分。然而,应该清楚地理解,附图仅用于说明和描述的目的,并不旨在限制本说明书的范围。还应理解,附图未按比例绘制。
本说明书中使用的流程图示出了根据本说明书中的一些实施例的系统实现的操作。应该清楚地理解,流程图的操作可以不按顺序实现。相反,操作可以以反转顺序或同时实现。此外,可以向流程图添加一个或多个其他操作。可以从流程图中移除一个或多个操作。
智能货柜能够提供智能化的购物模式,可以投放到茶水间、餐厅、电影院、健身房、办公室、校园等场所,缩短物品与顾客之间的距离,从而满足用户即时性、便利性的需求,带来较高的购物体验。智能货柜的柜门上设置的显示器,通常用来显示二维码或者刷脸,以便用户通过扫码或者人脸识别的方式控制智能货柜的柜门打开,并从智能货柜中拿取自己想要的物品,然后关门。智能货柜通过自动识别柜门开启至关闭的时间内用户拿取的物品,以及在显示器上显示用户拿取的物品的种类、数量和价格等结算信息,以便于用户通过扫码或者人脸识别等方式进行结算,完成购物。
在上述购物过程中,为了保证较好的人脸识别体验,以及为了在显示屏上更清楚地显示广告等商业信息,不断推出的新款智能货柜上的显示屏面积越来越大。目前市面上刷脸支付的智能货柜的屏幕大小已经达到了8~20寸,人脸识别时,需要用户将人脸置于摄像头的视野范围内,因此,显示屏在柜门上的安装高度通常与人体普遍身高大致相同,这样就容易造成当用户目视柜体时,显示屏遮挡住货柜内的场景,导致在显示屏背后的容置空间内形成用户视觉盲区。用户无法看到视觉盲区内陈列的货物,因而视觉盲区内的货物无法吸引用户的注意力。一方面这会影响用户全面评估货柜内陈列物品的类别和数量以及准确判定货柜内是否存在自己想要的物品,进而影响用户挑选物品和智能货柜的物品售卖效率和速度。
针对上述技术问题,本申请提出了如下技术构思:通过智能货柜上的显示器将被遮挡区域的场景显示,以使用户通过显示器观察被遮挡区域的场景,从而了解被遮挡区域内是否存在自己想要的物品,当用户站在柜门前,望向智能货柜的显示器时,显示器上所显示的被遮挡区域的场景的目标图像能够与未被遮挡区域拼接,从而达到与智能货柜不存在显示器时用户望向智能货柜所看到的容置空间内的场景一样或者类似的效果。
图1示出了根据本说明书的实施例提供的一种智能货柜001的结构示意图。如图1所示,该智能货柜001包括货柜本体100、显示器200、摄像头、传感器以及处理器(图中未显示)。
货柜本体100包括透明的柜门101和容置空间。当货柜使用时,容置空间内可以放置货架(未显示),货架上可以放置待售的物品(未显示)。
显示器200安装在柜门上。当用户目视柜门时,显示器200至少部分地遮挡容置空间。同时在货柜工作时,显示器200可以显示被遮挡的容置空间内的场景的目标图像。该目标图像可以包括被遮挡的容置空间的场景。比如,目标图像显示的范围可以大于被遮挡的容置空间。再比如,目标图像所显示的范围可以等于被遮挡的容置空间。此时,从用户的视角看,目标图像可以与用户目视柜门时未被遮挡的容置空间内的场景拼接,从而与用户在柜门上不存在显示器时所观察到的容置空间内的场景相同或者相似,从而达到用户通过显示器上的目标图像观察被遮挡容置空间内场景的效果。
应理解,被遮挡的容置空间内的场景为用户目视柜门时,视觉盲区内货柜的实际的真实的场景,而不是动画或者其他人为创造的图像来描绘被遮挡的容置空间内场景(比如用动画或者标准的商品图片来展示被遮挡的容置空间内所陈列的商品)。
其中,柜门101为透明柜门,比如玻璃材质、有机玻璃等透明材质的柜门,从而方便用户观察容置空间内的场景。容置空间内可以设置有货架,货架上可以摆放各种物品,该物品可以是零星的单独存在的物体,比如,一瓶饮料、一包零食等。用户透过透明的柜门可以看到容置空间内的场景,比如容置空间内所陈列的物品或者容置空间内没有陈列物品的区域。
请继续参阅图1,显示器200安装在柜门的外侧。当用户站在柜门前目视柜门时,显示器200会部分遮挡容置空间,就会对用户形成视觉盲区。而当显示器的面积足够大时,显示器200还可能全部遮挡容置空间。货柜工作时,比如货柜脱离生产线时,显示器200将被遮挡的容置空间内场景的目标图像进行显示,以使用户通过目标图像能够观察到被遮挡容置空间内的场景,并可以结合用户通过透明柜门观察到的未遮挡容置空间内的场景,充分地了解货柜内的真实场景,并在第一时间了解被遮挡的容置空间内是否存在自己想要的物品,方便用户挑选物品。
继续参阅图1。智能货柜还可以包括M个第一摄像头300,M为大于0的整数。该M个第一摄像头采集M个原始图像,每个原始图像至少包括了部分被遮挡的容置空间内的场景。该M个第一摄像头可以设置在显示器的背面,比如,显示器背面的正中央位置。当M=1时,第一摄像头可以是广角摄像头以摄取整个被遮挡容置空间内的场景;当M>1时,多个第一摄像头可以通过朝向不同的方向分别摄取部分被遮挡容置空间内的场景,从而在整体上获得被遮挡容置空间内全部的场景。此时所有摄像头的观察点是相同的。当然,该M个第一摄像头也可以设置在显示器的背面的其他位置。这种情况下,每个第一摄像头可以以相同或者不同的视角分别摄取部分被遮挡容置空间内的场景,从而在整体上获得被遮挡容置空间内全部的场景。此时每个第一摄像头的观察点都是各不相同的。
应理解,这里的M个第一摄像头设置在显示器的背面,包括M个第一摄像头设置在显示器上,和M个第一摄像头设置在柜门上,而无论是设置在柜门上还是显示器上,M个第一摄像头均需位于显示器的背面,以便获取被遮挡的容置空间内的场景的图像。此外,M个第一摄像头还可以设置在容置空间内部的一个或者多个位置上完成对被遮挡容置空间内全部的场景的拍摄。以上仅仅是对M个第一摄像头安置的举例说明,对具体摄像头的数量和设置方式,本说明书对此不作限制。
M个第一摄像头的数量可以根据第一摄像头的视野范围与显示器的面积大小来确定。比如,根据M的取值,可以从第一方案和第二方案中择一执行。其中,第一方案包括:当M=1时,也就是只有1个第一摄像头的时候,设置该第一摄像头的视野范围包括整个被显示器遮挡的容置空间。第二方案包括:当M>1的时候,也就是1个第一摄像头的视野范围无法包括或者在没有必要使每个第一摄像头覆盖全部被显示器遮挡的容置空间时,则设置至少两个第一摄像头,其中,至少两个第一摄像头的视野范围之和包括被显示器遮挡的容置空间,以保证能够充分地获取到被遮挡容置空间内场景的图像。
处理器工作时可以基于M个原始图像,得到目标图像。比如,对M个原始图像进行预处理,得到预处理图像,并基于预处理图像得到目标图像。处理器基于M个原始图像得到目标图像时,可以首先基于M个原始图像进行预处理,并基于预处理得到的预处理图像进行剪裁和/或缩放,从而得到目标图像。当然,处理器也可以基于M个原始图像进行剪裁和/或缩放,再基于剪裁和/或缩放后的M个原始图像进行预处理,从而得到目标图像。
对M个原始图像进行预处理,得到预处理图像的实现可以有多种方式,具体可以如下:比如,基于M的取值,从第一操作和第二操作中择一执行,其中,第一操作包括:确定M的取值等于1,将M个原始图像确定为预处理图像,第二操作包括:确定M的取值大于1,将M个原始图像进行拼接,得到预处理图像,并基于预处理图像确定目标图像。
M大于1时,将M个原始图像基于M个第一摄像头相对于显示器的排列规则进行拼接,得到预处理图像的实现具体可以如下:比如,将显示器的背面划分为2*2的子区域,每个子区域中分别设置一个第一摄像头。从用户视角来看,依次将左上角、右上角、左下角和右下角的第一摄像头所采集的原始图像按照左上角、右上角、左下角和右下角的排列规则进行拼接,即可得到预处理图像,则预处理图像也可以理解为是2*2的图像,该预处理图像中左上角的图像区域对应左上角的第一摄像头所采集的原始图像,右上角的图像区域对应右上角的第一摄像头所采集的原始图像,左下角的图像区域对应左下角的第一摄像头所采集的原始图像,右下角的图像区域对应右下角的第一摄像头所采集的原始图像。
在得到预处理图像之后,便可以基于预处理图像确定目标图像,其中,基于预处理图像确定目标图像的方式可以有多种,比如,对预处理图像进行剪裁和/或缩放,得到目标图像。
应理解,裁剪和缩放不区分先后执行顺序,可以是先进行裁剪再进行缩放,也可以是先进行缩放再进行裁剪,本说明书对此不作限制。比如,确定预处理图像中待剪裁图像区域,并对预处理图像进行剪裁,得到剪裁后图像,以及对剪裁后图像进行缩放,得到目标图像。再比如,对预处理图像进行缩放,并确定缩放后图像中待剪裁图像区域,以及对缩放后图像进行剪裁,得到目标图像。
此外,由于M=1的情况下预处理图像是广角图像,M>1的情况下预处理图像可以是从显示器背面的位置拍摄到的图像的拼接,其视角不是从用户角度上看到的容置空间内部场景,因此处理器还对预处理图像进行视角转换,将预处理图像中摄像头所拍摄的被遮挡容置空间内全部的场景变换成从用户角度所观察的场景或者近似于从用户角度所观察的场景,比如将广角图像转换成正常视角的图像等,然后再进行剪裁和/或缩放。
这里,裁剪能够去除预处理图像中用户视觉盲区范围外的图像,使得裁剪后图像中
尽量仅包括用户视觉盲区内场景,从而在后续显示阶段能够为用户还原视觉盲区内真实5场景,去除未遮挡区域内场景对用户造成的视觉干扰。而缩放时也可以基于预设的缩放
比例进行,预设的缩放比例可以在厂测第一摄像头标定环节确认并锁定,预设缩放比例能够达到使用户目视显示器上的目标图像时,目标图像中目标对象,比如物品或者货柜内除了物品之外的其他对象的大小,与用户目视柜门时被遮挡的容置空间内的目标对象的大小相同的效果,使得用户如同透视显示器望向被遮挡容置空间一样。
0基于预处理图像,确定目标图像的实现可以有多种方式,具体可以如下:比如,确
定预处理图像中的待剪裁图像区域,以及基于待剪裁图像区域对预处理图像进行剪裁,得到剪裁后图像,待剪裁图像区域包括智能货柜中被遮挡的容置空间内的场景。在得到剪裁后图像之后,还可以基于预设缩放比例对剪裁后图像进行缩放,得到目标图像以便显示在显示器上。
5传感器,设置在显示器的正面,捕获用户眼睛在柜门前的位置坐标,并发送至处理
器,之后,处理器便可以基于用户眼睛的位置坐标确定预处理图像中的待剪裁图像区域,以及基于待剪裁图像区域对预处理图像进行剪裁和/或缩放,得到目标图像。这里的传感器可以是摄像头、距离传感器、超声波传感器、雷达等中的一种或者多种。基于位置坐
标确定待剪裁图像区域的实现可以有多种方式,具体可以如下:比如,基于位置坐标确0定用户视角,基于用户视角确定被遮挡的容置空间,以及基于被遮挡的容置空间确定待
剪裁图像区域。
处理器基于M个原始图像进行剪裁和/或缩放,再基于剪裁和/或缩放后的M个原始图像进行预处理,得到目标图像的实现可以有多种方式,具体如下:比如,确定出M个
原始图像中位于被遮挡的容置空间的边缘位置处的N个原始图像,N为大于0且小于或5等于M的整数,并确定N个原始图像的待剪裁图像区域,以及基于N个原始图像的待剪
裁图像区域分别对N个原始图像进行剪裁,得到N个剪裁后图像,再基于预设的缩放比例对N个剪裁后图像和M-N个剩余原始图像进行缩放,得到M个缩放后图像,以及对M个缩放后图像进行预处理,得到目标图像,M-N个未剪裁图像为M个原始图像中除边缘位置处的N个原始图像之外的原始图像。比如,M为3*3的九宫格设置方式,则N个原始图像是除了中心位置的原始图像之外的其余8张原始图像,M-N个剩余原始图像为中心位置处的原始图像。
在对M个缩放后图像进行预处理时,可以基于M的取值,从第五操作和第六操作中择一执行,其中,第五操作包括:确定M的取值等于1,将M个缩放后图像确定为预处理图像,第六操作包括:确定M的取值大于1,将M个缩放后图像进行拼接,得到预处理图像。
应理解,实际中,当M>1时,M个第一摄像头的视野范围可能存在部分重合,因此,在剪裁时,还可以对M-N个原始图像进行剪裁,去除或尽量减小M个原始图像中的重合区域,或者在预处理过程中通过拼接的方式仅保留其中一个原始图像中的重合区域,从而使得目标图像能够尽量还原货柜内真实场景,达到使得用户通过显示器背后的柜门望向被遮挡容置空间内看到的场景一样或类似的效果。
其中,用户视角是指用户眼睛沿显示器上边沿的延长线与沿显示器的下边沿的延长线之间的夹角。图2示出了根据本说明书的实施例提供的用户仰视显示器时用户视角的示意图。如图2所示,当用户眼睛从显示器下方望向货柜内时,用户视线穿过显示器上边沿与货柜的内壁W相交得到f1,用户视线穿过显示器下边沿与货柜的内壁W相交得到f2,用户视角即为f1所在的直线与f2所在的直线之间的夹角,用户视觉盲区为f1与f2在显示器背后形成的区域(图中阴影区域),记为S,通过求解视觉盲区S便可以确定用户的视觉盲区。
以货柜底部的宽度方向作为x轴,以货柜的高度方向作为y轴建立xoy坐标系。基于实际测量,可以得到如下已知常量:W为货柜的高度,w为显示器的高度,x为货柜的宽度,a1为传感器与显示器上边沿之间的距离,a2为传感器与显示器下边沿之间的距离,d1为用户眼睛到柜门的垂线,d2为垂线与柜门的交点到传感器之间的距离,f1与d1之间的夹角为A1,f2与d1之间的夹角为A2,显示器的上边沿到货柜底部的距离为H2,显示器的下边沿到货柜底部的距离为H1。由此,夹角A1可以采用如下公式(1)获得:
tanA1=(d2+a1)/d1;(1)
夹角A2可以采用如下公式(2)获得:
tanA2=(d2-a2)/d1;(2)
则视觉盲区的上沿f1的方程可以表示为y1=k1*x+H2,其中,k1为f1的斜率,基于tanA1可以得到,x为货柜的宽度,y1为f1与货柜内壁W的交点在y轴的值。因此,f1的方程可以表示为y1=-tanA1*x+H2。
同样地,视觉盲区的下沿f2的方程可以表示为y2=k2*x+H1,其中,k2为f2的斜率,基于tanA2可以得到,y2为f2与货柜内壁的交点在y轴的值,因此,f2的方程可以表示为y2=-tanA2*x+H1。
在得到f1和f2的方程式之后,便可以得到视觉盲区S∈[min(W,y2),min(W,f1)]。之后,便可以基于视觉盲区确定待裁剪图像区域。
图3示出了根据本说明书的实施例提供的待裁剪图像区域的示意图。如图3所示,两条粗线条示出的区域范围为第一摄像头的广角范围,货柜顶部和底部之间的垂线(图中以虚线示出)为货柜前沿,基于视觉盲区S和货柜前沿便可以得到待裁剪图像区域,该待裁剪图像区域的宽度为图中L1所示出的宽度(图中较粗虚线示出)。
图4示出了根据本说明书的实施例提供的用户俯视显示器时用户视角的示意图。如图4所示,当用户眼睛A从显示器上方望向货柜内时,用户视线穿过显示器上边沿与货柜的内壁W相交,得到f1',用户视线穿过显示器下边沿与货柜的内壁W相交,得到f2',用户视角即为f1'所在的直线与f2'所在的直线之间的夹角,用户视觉盲区为f1'与f2'在显示器背后形成的区域,记为S',通过求解S'便可以确定用户的视觉盲区。
其中,以货柜底部的宽度方向作为x轴,以货柜的高度方向作为y轴建立xoy坐标系。基于实际测量,可以得到如下已知常量:W为货柜的高度,w为显示器的高度,a1为传感器与显示器上边沿之间的距离,a2为传感器与显示器下边沿之间的距离,d1'为用户眼睛到柜门的垂线,d2'为垂线与柜门的交点到传感器之间的距离,f1'与d1'之间的夹角为A1',f2'与d1'之间的夹角为A2',显示器的上边沿与货柜底部的距离为H2,显示器的下边沿与货柜底部的距离为H1。由此,夹角A1'可以采用如下公式(3)获得:
tanA1'=(d2'-a1)/d1';(3)
夹角A2'可以采用如下公式(4)获得:
tanA2'=(d2'+a2)/d1';(4)
则视觉盲区的上沿f1'的方程可以表示为y1'=H2-k1'*x,其中,k1'为f1'的斜率,基于tanA1'可以得到,x为货柜的宽度,y1'为f1'与货柜内壁的交点在y轴的值,因此,f1'的方程可以表示为y1'=H2-(-tanA1'*x)。
同样地,视觉盲区的下沿f2'的方程可以表示为y2'=H1-k2'*x,其中,k2'为f2'的斜率,基于tanA2'可以得到,y2'为f2'与货柜内壁的交点在y轴的值,因此,f2'的方程可以表示为y2'=H1-(-tanA2'*x)。
在得到f1'和f2'的方程式之后,便可以得到视觉盲区S'∈[max(0,y2'),max(0,y1')],之后,便可以基于视觉盲区确定待裁剪图像区域。
图5示出了根据本说明书的实施例提供的待裁剪图像区域的示意图。如图5所示,两条粗线条示出的区域范围为第一摄像头的广角范围,货柜顶部和顶部之间的垂线(图中以虚线示出)为货柜前沿,基于S'和货柜前沿便可以得到待裁剪图像区域,该待裁剪图像区域的宽度为图中L2所示出的宽度(图中较粗虚线示出)。
当第一摄像头捕获到用户眼睛的位置位于显示器的上边沿和下边沿之间时,可以基于如下方式确定待裁剪图像区域。
图6示出了根据本说明书的实施例提供的用户平视显示器时用户视角的示意图。如图6所示,当用户眼睛A从显示器正前方望向货柜内时,用户视线穿过显示器上边沿与货柜的内壁W相交,得到f1”,用户视线穿过显示器下边沿与货柜的内壁W相交,得到f2”,用户视角即为f1”所在的直线与f2”所在的直线之间的夹角,用户视觉盲区为f1”与f2”在显示器背后形成的区域S”,通过求解S”便可以确定用户的视觉盲区。
其中,以货柜底部的宽度方向作为x轴,以货柜的高度方向作为y轴建立xoy坐标系。基于实际测量,可以得到如下已知常量:W为货柜的高度,w为显示器的高度,a1为传感器与显示器上边沿之间的距离,a2为传感器与显示器下边沿之间的距离,d1”为用户眼睛到柜门的垂线,f1”与d1”之间的夹角为A1”,f2”与d1”之间的夹角为A2”,显示器的上边沿与货柜底部的距离为H2,显示器的下边沿与货柜底部的距离为H1。由此,夹角A1”可以采用如下公式(5)获得:
tanA1”=a1/d1”;(5)
夹角A2”可以采用如下公式(6)获得:
tanA2”=a2/d1”;(6)
则视觉盲区的上沿f1”的方程可以表示为y1”=k1”*x+H2,其中,k1”为f1”的斜率,基于tanA1”可以得到,x为货柜的宽度,y1”为f1”与货柜内壁的交点在y轴的值,因此,f1”的方程可以表示为y1”=-tanA1”*x+H2。
同样地,视觉盲区的下沿f2”的方程可以表示为y2”=H1-k2”*x,其中,k2”为f2”的斜率,基于tanA2”可以得到,y2”为f2”与货柜内壁的交点在y轴的值,因此,f2”的方程可以表示为y2”=H1-(-tanA2”*x)。
在得到f1”和f2”的方程式之后,便可以得到视觉盲区S”∈[max(0,y2”),max(0,y1”)],之后,便可以基于视觉盲区确定待裁剪图像区域。
图7示出了根据本说明书的实施例提供的待裁剪图像区域的示意图。如图7所示,两条粗线条示出的区域范围为传感器的广角范围,货柜顶部和顶部之间的垂线(图中以虚线示出)为货柜前沿,基于S”和货柜前沿便可以得到待裁剪图像区域,该待裁剪图像区域的宽度为图中较粗的虚线所示出的宽度。
应注意,M个第一摄像头的视野范围之和应当大于用户视觉盲区最大范围,从而保证能够获取到用户视觉盲区范围内的场景。
其中,处理器可以持续或定时显示目标图像,还可以在识别到用户位于柜门前且具有购买意愿时,触发显示器显示被遮挡的容置空间内的场景。
其中,实现识别用户的购买意愿的方式可以有多种,具体可以如下:比如,人体感应装置采集柜门前预设距离范围内是否存在用户,且检测到用户的时长超过预设时长,则判定为用户具有购买意愿。该人体感应器可以是摄像头、温度感应器、红外传感器、微波雷达、超声波传感器中的一种或多种。以摄像头为例,这里的摄像头可以是第二摄像头,第二摄像头采集用户位于柜门前的视频数据,处理器根据视频数据判断用户位于柜门前预设距离范围内,且停留时长超过预设时长,则判定为用户具有购买意愿。以温度感应器为例,温度感应器感应柜门前预设距离范围内是否存在目标对象,且目标对象的温度是否位于人体正常体温范围内,则判定为柜门前存在用户。
再比如,语音采集器采集用户通过语音的方式输入“购买物品”的话术,并发送至处理器进行语音识别,从而识别出用户的购买意愿。
又比如,第二摄像头采集用户位于柜门前输入的预设的“购买物品”的手势动作,并发送至处理器进行手势识别,从而识别出用户的购买意愿。
还比如,显示器为触摸屏,用户可以通过触摸显示器上的按钮输入“购买意愿”的信息,处理器进行解析从而识别出用户的购买意愿。
处理器识别到用户的购买意愿之后,还可以控制显示器显示用户进行身份验证的输入界面,并在身份验证成功后,控制柜门开启和关闭,并识别柜门开启至关闭期间用户拿取的目标物品,以及触发显示器显示目标物品的结算信息。
比如,身份验证的输入界面可以包括二维码或者人脸识别框等用于进行身份验证的信息,用户通过扫描二维码或者人脸识别框进行身份验证,当用户扫描该二维码或者人脸识别通过之后,便可以控制柜门自动开启,用户从柜门内拿取物品,并关闭柜门。
在这种情况下,智能货柜可以包括货物识别系统来自动识别用户拿走的货物。所述货物识别系统可以是通过摄像头以及相应的算法观察和确定用户拿走了哪件物品,也可以是智能货架系统,通过测算用户取货前后货架重量和重心的变化来判断用户拿走了哪件物品,或者是上述二者的结合,关于这些技术已经有大量文献讨论,本申请对此不做限制。
处理器识别柜门开启至关闭期间用户拿取的目标物品,并触发显示器显示目标物品的结算信息,比如目标物品的种类、数量和单价以及所选物品的总价,用户可以通过扫描付款二维码或者人脸识别的方式进行结算。
其中,智能货柜还可以包括柜门状态感应装置(图中未示出),设置在柜门上,柜门状态感应装置采集柜门的状态并发送至处理器,处理器基于柜门的状态控制M个第一摄像头采集被遮挡的容置空间内的场景。比如,处理器可以基于柜门的状态从第三操作和第四操作中择一执行:其中,第三操作包括:柜门的状态为关闭状态时,控制显示器显示目标图像;第四操作包括:柜门的状态为开启状态时,控制显示器不显示目标图像,此时,显示器可以是灭屏状态或者显示广告等其他信息,本说明书对此不作限制。柜门状态感应装置可以是霍尔传感器、红外传感器、超声波传感器、雷达传感器中的一种或多种。
此外,货柜本体还可以包括取货口(图中未示出),用户可以穿过取货口拿取货柜内物品,第一摄像头还可以采集取货口处的视频数据,并发送至处理器,以使处理器基于视频数据识别用户拿取的物品,或者识别用户从哪个货道拿取的物品,从而提高物品识别的准确度。
其中,处理器可以是智能货柜对应的计算装置,计算装置可以存储有执行本说明书描述的物品显示的处理方法的数据或指令,并可以执行或用于执行所述数据和/或指令。计算装置400可以包括具有数据信息处理功能的硬件设备和驱动该硬件设备工作所需必要的程序。当然,计算装置400也可以仅为具有数据处理能力的硬件设备,或者,仅为运行在硬件设备中的程序。计算装置400运行时可以与M个第一摄像头以及显示器200通信连接,接收M个第一摄像头采集的被遮挡的容置空间内的场景的原始图像,并基于本说明书描述的物品显示的处理方法对原始图像进行处理得到目标图像,以及控制显示器显示被遮挡的容置空间内的场景的目标图像。
所述通信连接是指能够直接地或者间接地接收信息的任何形式的连接。在一些实施
例中,计算装置400可以同M个第一摄像头以及显示器通过无线通信连接来彼此传递数5据;在一些实施例中,计算装置400也可以同M个第一摄像头以及显示器通过电线直接
连接来彼此传递数据;在一些实施例中,计算装置400也可以通过电线同其他电路直接连接来建立同M个第一摄像头以及显示器的间接连接,从而实现彼此传递数据。所述无线通信连接可以是网络连接,蓝牙连接,NFC连接,等等。
在一些实施例中,计算装置400可以包括客户端。在一些实施例中,计算装置4000也可以包括服务器。客户端可以是本地设备,可以安装在智能货柜的机架上或机架内部,
或者安装在机架附近。客户端可以与M个第一摄像头直接通信连接。服务器可以是云端设备,可以通过网络与客户端进行信息或数据的交换。例如,服务器可以通过网络500从客户端获取显示器显示被遮挡的所述容置空间内的场景的原始图像。服务器可以通过
客户端与M个第一摄像头间接通信连接。计算装置400在执行本说明书描述的物品显示5的处理方法时,可以在客户端中进行,也可以在服务器中进行,也可以部分在客户端中
进行,部分在服务器中进行。在一些实施例中,客户端可以包括移动设备、平板电脑、笔记本电脑,或其任意组合。
图8示出了根据本说明书的实施例提供的一种计算装置400的结构示意图。在一些
实施例中,计算装置400所示的结构适用于客户端。在一些实施例中,计算装置400所0示的结构也适用于服务器。在一些实施例中,计算装置400执行所述物品显示的处理方
法的数据或指令可以在计算装置400上实现。所述物品显示的处理方法在本说明书中的其他部分介绍。
如图8所示,计算装置400可以包括至少一个存储介质330和至少一个处理器320。
在一些实施例中,计算装置400还可以包括通信端口350和内部通信总线310。在一些5实施例中,计算装置400还可以包括I/O组件360。
内部通信总线310可以连接不同的系统组件,实现各组件间的数据通信,包括存储介质330、处理器320、通信端口350以及I/O组件360。例如,处理器320可以通过内部通信总线310将数据发送到存储介质330或I/O组件360等其它硬件中。
I/O组件360可以用于输入或输出信号、数据或信息。I/O组件360支持计算装置0400和其他组件之间的输入/输出。在一些实施例中,I/O组件360可以包括输入装置和输出装置。示例性输入装置可以包括摄像头、键盘、鼠标、显示屏和麦克风等,或其任意组合。示例性输出装置可以包括显示器、语音播放装置(比如,扬声器等等)、打印机、投影仪等或其任意组合。示例性显示器可以包括液晶显示器(LCD)、基于发光二极管(LED)的显示器、平板显示器、曲面显示器、电视设备、阴极射线管(CRT)等或其任意组合。
通信端口350可以连接到网络以便计算装置400同外界的数据通信。所述连接可以是有线连接、无线连接或两者的组合。有线连接可以包括电缆、光缆或电话线等或其任意组合。无线连接可以包括蓝牙、Wi-Fi、WiMax、WLAN、ZigBee、移动网络(例如,3G、4G或5G等)等或其任意组合。在一些实施例中,通信端口350可以是标准化端口,如RS232、RS485等。在一些实施例中,通信端口350可以是专门设计的端口。
存储介质330可以包括数据存储装置。所述数据存储装置可以是非暂时性存储介质,也可以是暂时性存储介质。比如,所述数据存储装置可以包括磁盘332、只读存储介质(ROM)334或随机存取存储介质(RAM)336中的一种或多种。存储介质330还包括存储在所述数据存储装置中的一个指令集。所述至少一个指令集用于所述物品识别。所述指令是计算机程序代码,所述计算机程序代码可以包括执行本说明书提供的物品显示的处理方法的程序、例程、对象、组件、数据结构、过程、模块等等。
至少一个处理器320可以同至少一个存储介质330以及通信端口350通过内部通信总线310通信连接。至少一个处理器320用以执行上述至少一个指令集。当计算装置400运行时,至少一个处理器320读取所述至少一个指令集,并且根据所述至少一个指令集的指示执行本说明书提供的物品显示的处理方法。当所述计算装置400运行时,至少一个处理器320读取所述至少一个指令集,并且根据所述至少一个指令集的指示执行本说明书提供的物品显示的处理方法。处理器320可以执行物品显示的处理方法包含的所有步骤。处理器320可以是一个或多个处理器的形式,仅仅为了说明问题,在本说明书中计算装置400中仅描述了一个处理器320。然而,应当注意,本说明书中计算装置400还可以包括多个处理器,因此,本说明书中披露的操作和/或方法步骤可以如本说明书所述的由一个处理器执行,也可以由多个处理器联合执行。例如,如果在本说明书中计算装置400的处理器320执行步骤A和步骤B,则应该理解,步骤A和步骤B也可以由两个不同处理器320联合或分开执行(例如,第一处理器执行步骤A,第二处理器执行步骤B,或者第一和第二处理器共同执行步骤A和B)。
图9示出了根据本说明书的实施例提供的一种物品显示的处理方法P100的流程图。如前所述,计算装置400可以执行本说明书所述的物品显示的处理方法P100。具体地,当计算装置运行时,处理器320可以读取存储在其本地存储介质中的指令集,然后根据所述指令集的规定,执行本说明书所述的物品显示的处理方法P100。所述方法P100可以包括:
S120:获取被显示器遮挡的容置空间内的场景的目标图像。
货柜本体的透明柜门上安装有显示器,用户目视柜门时,显示器至少部分地遮挡货柜本体内的容置空间,比如,显示器对货柜本体的容置空间形成局部遮挡或完全遮挡,被遮挡的容置空间内的场景为用户目视柜门时,视觉盲区内货柜的实际的真实的场景,而不是动画或者其他人为创造的图像来描绘被遮挡的容置空间内(比如用动画或者标准的商品图片来展示被遮挡的容置空间内所陈列的商品)。
目标图像与用户目视柜门时未被遮挡的容置空间内的场景拼接,使得用户观察的场景与柜门上不存在显示器时,用户观察的容置空间内的场景相同,目标图像的获取方式有多种,具体可以如下:比如,获取M个原始图像,并基于M个原始图像确定目标图像,每个原始图像包括被遮挡的容置空间内的场景,M为大于0的整数。该目标图像可以包括被遮挡的容置空间的场景。比如,目标图像显示的范围可以大于被遮挡的容置空间。再比如,目标图像所显示的范围可以等于被遮挡的容置空间。此时,从用户的视角看,目标图像可以与用户目视柜门时未被遮挡的容置空间内的场景拼接,从而与用户在柜门上不存在显示器时所观察到的容置空间内的场景相同或者相似,从而达到用户通过显示器上的目标图像观察被遮挡容置空间内场景的效果。
获取M个原始图像的方式具体可以如下:比如,通过设置在显示器背后的M个第一摄像头采集M个原始图像,每个原始图像至少包括了部分被遮挡的容置空间内的场景,处理器从M个第一摄像头获得M个原始图像。当M=1时,第一摄像头可以是广角摄像头以摄取整个被遮挡容置空间内的场景;当M>1时,多个第一摄像头可以通过朝向不同的方向分别摄取部分被遮挡容置空间内的场景,从而在整体上获得被遮挡容置空间内全部的场景。此时所有摄像头的观察点是相同的。当然,该M个第一摄像头也可以设置在显示器的背面的其他位置。这种情况下,每个第一摄像头可以以相同或者不同的视角分别摄取部分被遮挡容置空间内的场景,从而在整体上获得被遮挡容置空间内全部的场景。此时每个第一摄像头的观察点都是各不相同的。关于M个第一摄像头的设置方式可以参见上述内容的介绍,此处不再赘述。
在获得M个原始图像之后,便可以基于M个原始图像确定目标图像。确定目标图像的实现方式可以有多种,比如,基于M个原始图像进行预处理,得到预处理图像,并基于预处理图像进行剪裁和/或缩放,得到目标图像。而基于M个原始图像进行预处理,得到预处理图像时,可以是基于M的取值,从第一操作和第二操作中择一执行,其中,第一操作包括:确定M的取值等于1,将M个原始图像确定为预处理图像,第二操作包括:确定M的取值大于1,将M个原始图像进行拼接,得到预处理图像。
这里,基于预处理图像确定目标图像的方式可以有多种,具体如下:比如,确定预处理图像中的待剪裁图像区域,待剪裁区域包括所述智能货柜中所述被遮挡的所述容置空间内的场景;以及基于所述待剪裁图像区域对所述预处理图像进行剪裁,得到剪裁后图像。在得到剪裁后图像之后,还可以基于预设缩放比例对剪裁后图像进行缩放,得到目标图像以便显示在显示器中。
确定预处理图像中的待剪裁图像区域的实现有多种方式,具体可以如下:比如,可以是基于用户眼睛在柜门前的位置坐标确定预处理图像中的待剪裁图像区域,基于待剪裁图像区域对预处理图像进行剪裁。用户眼睛在柜门前的位置坐标可以采用传感器采集获得,传感器可以是摄像头、距离传感器、超声波传感器、雷达中的一种或多种。基于位置坐标确定预处理图像中的待剪裁图像区域时,可以是基于位置坐标,确定用户视角,基于用户视角,确定被遮挡的容置空间,以及基于被遮挡的容置空间,确定待剪裁图像区域。关于基于位置坐标确定用户视角,以及基于用户视角确定待剪裁图像区域的实现可以参考前述内容的介绍,此处不再赘述。
此外,还可以基于M个原始图像中的N个原始图像进行剪裁和/或缩放,再基于剪裁和/或缩放后的M个原始图像进行预处理,得到目标图像。比如,确定出M个原始图像中位于被遮挡的容置空间的边缘位置处的N个原始图像,N为大于0且小于或等于M的整数,并确定N个原始图像的待剪裁图像区域,以及基于N个原始图像的待剪裁图像区域分别对N个原始图像进行剪裁,得到N个剪裁后图像,再基于预设的缩放比例对N个剪裁后图像和M-N个剩余原始图像进行缩放,得到M个缩放后图像,以及对M个缩放后图像进行预处理,得到目标图像,M-N个未剪裁图像为M个原始图像中除边缘位置处的N个原始图像之外的原始图像。比如,M为3*3的九宫格设置方式,则N个原始图像是除了中心位置的原始图像之外的其余8张原始图像,M-N个剩余原始图像为中心位置处的原始图像。
在对M个缩放后图像进行预处理时,可以基于M的取值,从第五操作和第六操作中择一执行,其中,第五操作包括:确定M的取值等于1,将M个缩放后图像确定为预处理图像,第六操作包括:确定M的取值大于1,将M个缩放后图像进行拼接,得到预处理图像。
应理解,裁剪和缩放不区分先后执行顺序,可以是先进行裁剪再进行缩放,也可以是先进行缩放再进行裁剪,本说明书对此不作限制。比如,确定预处理图像中待剪裁图像区域,并对预处理图像进行剪裁,得到剪裁后图像,以及对剪裁后图像进行缩放,得到目标图像。再比如,对预处理图像进行缩放,并确定缩放后图像中待剪裁图像区域,以及对缩放后图像进行剪裁,得到目标图像。
此外,由于M=1的情况下预处理图像是广角图像,M>1的情况下预处理图像可以是从显示器背面的位置拍摄到的图像的拼接,其视角不是从用户角度上看到的容置空间内部场景,因此处理器还对预处理图像进行视角转换,将预处理图像中摄像头所拍摄的被遮挡容置空间内全部的场景变换成从用户角度所观察的场景或者近似于从用户角度所观察的场景,比如将广角图像转换成正常视角的图像等,然后再进行剪裁和/或缩放。
S140:控制显示器显示目标图像。
其中,控制显示器显示目标图像,可以是在识别到用户位于柜门前且具有购买意愿时,触发显示器显示被遮挡的容置空间内的场景,也可以是持续显示,还可以是在显示器屏幕点亮时进行显示,本说明书对此不作限制。
而在识别到用户具有购买意愿之后,还可以控制显示器显示进行用户身份验证的输入界面,并且基于用户的身份验证信息进行身份验证成功时,控制柜门开启和关闭,以及识别柜门开启至关闭期间用户拿取的目标物品,和触发显示器显示目标物品的结算信息。
显示器200将被遮挡的容置空间内场景的目标图像进行显示,以使用户通过目标图像能够观察到被遮挡容置空间内的场景,并可以结合用户通过透明柜门观察到的未遮挡容置空间内的场景,充分地了解货柜内的真实场景,并在第一时间了解被遮挡的容置空间内是否存在自己想要的物品,方便用户挑选物品。
需要说明的是,物品显示的处理方法与智能货柜的工作原理相同或类似,关于物品显示的处理方法的其他实现细节可以参考前述内容中智能货柜的介绍,此处不再赘述。
综上所述,本说明书提供的智能货柜、物品显示的处理方法及系统,货柜本体包括透明的柜门以及容置空间,显示器安装在柜门上,当用户目视柜门时,显示器至少部分地遮挡容置空间,货柜工作时,显示器显示被遮挡的容置空间内的场景的目标图像;由于该技术方案通过显示器显示被遮挡的容置空间内场景的目标图像,因此,当用户站在柜门前观察货柜内场景时,可以通过显示器所显示的目标图像观察到被遮挡的容置空间内的场景,从而直观地看到被遮挡区域的场景,以及在第一时间判断货柜内是否存在自己想要的物品,提升用户挑选物品的体验。
本说明书另一方面提供一种非暂时性存储介质,存储有至少一组用来进行物品显示的处理的可执行指令。当所述可执行指令被处理器执行时,所述可执行指令指导所述处理器实施本说明书所述的物品显示的处理方法P100的步骤。在一些可能的实施方式中,本说明书的各个方面还可以实现为一种程序产品的形式,其包括程序代码。当所述程序产品在计算装置400上运行时,所述程序代码用于使计算装置400执行本说明书描述的物品显示的处理方法P100的步骤。用于实现上述方法的程序产品可以采用便携式紧凑盘只读存储器(CD-ROM)包括程序代码,并可以在计算装置400上运行。然而,本说明书的程序产品不限于此,在本说明书中,可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统使用或者与其结合使用。所述程序产品可以采用一个或多个可读介质的任意组合。可读介质可以是可读信号介质或者可读存储介质。可读存储介质例如可以为但不限于电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。可读存储介质的更具体的例子包括:具有一个或多个导线的电连接、便携式盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。所述计算机可读存储介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了可读程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。可读存储介质还可以是可读存储介质以外的任何可读介质,该可读介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。可读存储介质上包含的程序代码可以用任何适当的介质传输,包括但不限于无线、有线、光缆、RF等等,或者上述的任意合适的组合。可以以一种或多种程序设计语言的任意组合来编写用于执行本说明书操作的程序代码,所述程序设计语言包括面向对象的程序设计语言—诸如Java、C++等,还包括常规的过程式程序设计语言—诸如“C”语言或类似的程序设计语言。程序代码可以完全地在计算装置400上执行、部分地在计算装置400上执行、作为一个独立的软件包执行、部分在计算装置400上部分在远程计算装置上执行、或者完全在远程计算装置上执行。
上述对本说明书特定实施例进行了描述。其他实施例在所附权利要求书的范围内。在一些情况下,在权利要求书中记载的动作或步骤可以按照不同于实施例中的顺序来执行并且仍然可以实现期望的结果。另外,在附图中描绘的过程不一定要求示出特定顺序或者连续顺序才能实现期望的结果。在某些实施方式中,多任务处理和并行处理也是可以的或者是可能有利的。
综上所述,在阅读本详细公开内容之后,本领域技术人员可以明白,前述详细公开内容可以仅以示例的方式呈现,并且可以不是限制性的。尽管这里没有明确说明,本领域技术人员可以理解本说明书需求囊括对实施例的各种合理改变,改进和修改。这些改变,改进和修改旨在由本说明书提出,并且在本说明书的示例性实施例的精神和范围内。
此外,本说明书中的某些术语已被用于描述本说明书的实施例。例如,“一个实施例”,“实施例”和/或“一些实施例”意味着结合该实施例描述的特定特征,结构或特性可以包括在本说明书的至少一个实施例中。因此,可以强调并且应当理解,在本说明书的各个部分中对“实施例”或“一个实施例”或“替代实施例”的两个或更多个引用不一定都指代相同的实施例。此外,特定特征,结构或特性可以在本说明书的一个或多个实施例中适当地组合。
应当理解,在本说明书的实施例的前述描述中,为了帮助理解一个特征,出于简化本说明书的目的,本说明书将各种特征组合在单个实施例、附图或其描述中。然而,这并不是说这些特征的组合是必须的,本领域技术人员在阅读本说明书的时候完全有可能将其中一部分设备标注出来作为单独的实施例来理解。也就是说,本说明书中的实施例也可以理解为多个次级实施例的整合。而每个次级实施例的内容在于少于单个前述公开实施例的所有特征的时候也是成立的。
本文引用的每个专利,专利申请,专利申请的出版物和其他材料,例如文章,书籍,说明书,出版物,文件,物品等,可以通过引用结合于此。用于所有目的全部内容,除了与其相关的任何起诉文件历史,可能与本文件不一致或相冲突的任何相同的,或者任何可能对权利要求的最宽范围具有限制性影响的任何相同的起诉文件历史。现在或以后与本文件相关联。举例来说,如果在与任何所包含的材料相关联的术语的描述、定义和/或使用与本文档相关的术语、描述、定义和/或之间存在任何不一致或冲突时,使用本文件中的术语为准。
最后,应理解,本文公开的申请的实施方案是对本说明书的实施方案的原理的说明。其他修改后的实施例也在本说明书的范围内。因此,本说明书披露的实施例仅仅作为示例而非限制。本领域技术人员可以根据本说明书中的实施例采取替代配置来实现本说明书中的申请。因此,本说明书的实施例不限于申请中被精确地描述过的实施例。
Claims (24)
1.一种智能货柜,包括:
货柜本体,包括透明的柜门以及容置空间;以及
显示器,安装在所述柜门上,用户目视所述柜门时,所述显示器至少部分地遮挡所述容置空间,
其中,所述货柜工作时,所述显示器显示被遮挡的所述容置空间内的场景的目标图像。
2.根据权利要求1所述的智能货柜,其中,还包括:M个第一摄像头,所述M为大于0的整数,所述M个第一摄像头采集M个原始图像,每个原始图像包括被遮挡的所述容置空间内的场景;以及
处理器,基于所述M个原始图像,得到所述目标图像。
3.根据权利要求2所述的智能货柜,其中,所述M个第一摄像头设置在所述显示器的背面。
4.根据权利要求2所述的智能货柜,其中,所述基于所述M个原始图像,得到所述目标图像,包括:
基于所述M的取值,从第一操作和第二操作中择一执行,其中
所述第一操作包括:确定所述M的取值等于1,将所述M个原始图像确定为预处理图像,
所述第二操作包括:确定所述M的取值大于1,将所述M个原始图像进行拼接,得到预处理图像;以及
基于所述预处理图像,确定所述目标图像。
5.根据权利要求4所述的智能货柜,其中,所述确定所述目标图像包括:
确定所述预处理图像中的待剪裁图像区域,所述待剪裁区域包括所述被遮挡的所述容置空间内的场景;以及
基于所述待剪裁图像区域对所述预处理图像进行剪裁,得到剪裁后图像。
6.根据权利要求5所述的智能货柜,其中,所述处理器还基于预设缩放比例对所述剪裁后图像进行缩放,得到所述目标图像以便显示在所述显示器上。
7.根据权利要求5所述的智能货柜,其中,还包括:传感器,设置在所述显示器的正面,捕获用户眼睛在所述柜门前的位置坐标;以及
所述基于所述预处理图像确定所述目标图像,包括:
基于所述位置坐标确定所述预处理图像中的待剪裁图像区域。
8.根据权利要求7所述的智能货柜,其中,所述基于所述位置坐标确定所述预处理图像中的待剪裁图像区域,包括:
基于所述位置坐标,确定用户视角;
基于所述用户视角,确定被遮挡的容置空间;以及
基于被遮挡的容置空间,确定所述待剪裁图像区域。
9.根据权利要求2所述的智能货柜,其中,所述处理器,还在识别到所述用户位于所述柜门前且具有购买意愿时,触发所述显示器显示被遮挡的所述容置空间内的场景。
10.根据权利要求9所述的智能货柜,其中,所述处理器识别到所述用户具有购买意愿之后,还包括:
所述显示器,显示所述用户进行身份验证的输入界面;
所述处理器,基于所述用户的身份验证信息进行身份验证成功时,控制所述柜门开启和关闭,并识别所述柜门开启至关闭期间所述用户拿取的目标物品,以及触发所述显示器显示所述目标物品的结算信息。
11.根据权利要求1所述的智能货柜,其中,所述被遮挡的所述容置空间内的场景为所述用户目视所述柜门时,视觉盲区内的货柜真实场景。
12.根据权利要求1所述的智能货柜,其中,所述目标图像与所述用户目视所述柜门时未被遮挡的所述容置空间内的场景拼接,使得所述用户观察的场景与所述柜门上不存在所述显示器时,所述用户观察的容置空间内的场景相同。
13.一种物品显示的处理方法,包括:
获取被显示器遮挡的容置空间内的场景的目标图像,所述显示器,安装在货柜本体的透明的柜门上,用户目视所述柜门时,所述显示器至少部分地遮挡所述货柜本体内的容置空间;以及
控制所述显示器显示所述目标图像。
14.根据权利要求13所述的方法,其中,所述获取被显示器遮挡的容置空间内的场景的目标图像,包括:
获取M个原始图像,每个原始图像包括被遮挡的所述容置空间内的场景,所述M为大于0的整数;
基于所述M个原始图像,确定所述目标图像。
15.根据权利要求14所述的方法,其中,所述基于所述M个原始图像,得到所述目标图像,包括:
基于所述M的取值,从第一操作和第二操作中择一执行,其中
所述第一操作包括:确定所述M的取值等于1,将所述M个原始图像确定为预处理图像,
所述第二操作包括:确定所述M的取值大于1,将所述M个原始图像进行拼接,得到预处理图像;以及
基于所述预处理图像,确定所述目标图像。
16.根据权利要求15所述的方法,其中,所述确定所述目标图像包括:
确定所述预处理图像中的待剪裁图像区域,所述待剪裁区域包括所述被遮挡的容置空间内的场景;以及
基于所述待剪裁图像区域对所述预处理图像进行剪裁,得到剪裁后图像。
17.根据权利要求16所述的方法,其中,还包括:基于预设缩放比例对所述剪裁后图像进行缩放,得到所述目标图像以便显示在所述显示器上。
18.根据权利要求16所述的方法,其中,所述确定所述预处理图像中的待剪裁图像区域,包括:
捕获用户眼睛在所述柜门前的位置坐标;以及
基于所述位置坐标确定所述预处理图像中的所述待剪裁图像区域。
19.根据权利要求18所述的方法,其中,所述基于所述位置坐标确定所述预处理图像中的待剪裁图像区域,包括:
基于所述位置坐标,确定用户视角;
基于所述用户视角,确定被遮挡的容置空间;以及
基于被遮挡的容置空间,确定所述待剪裁图像区域。
20.根据权利要求13所述的方法,其中,还包括:
在识别到所述用户位于所述柜门前且具有购买意愿时,触发所述显示器显示被遮挡的所述容置空间内的场景。
21.根据权利要求20所述的方法,其中,所述识别到所述用户具有购买意愿之后,还包括:
控制显示器显示进行用户身份验证的输入界面;
基于所述用户的身份验证信息进行身份验证成功时,控制所述柜门开启和关闭,并识别所述柜门开启至关闭期间所述用户拿取的目标物品;以及
触发所述显示器显示所述目标物品的结算信息。
22.根据权利要求13所述的方法,其中,被所述显示器遮挡的所述容置空间内的场景为所述用户目视所述柜门时,视觉盲区内的货柜真实场景。
23.根据权利要求13所述的方法,其中,所述目标图像与所述用户目视所述柜门时未被遮挡的所述容置空间内的场景拼接,使得所述用户观察的场景与所述柜门上不存在所述显示器时,所述用户观察的容置空间内的场景相同。
24.一种物品显示的处理系统,包括:
至少一个存储介质,存储有至少一个指令集,用于进行活体检测;以及
至少一个处理器,同所述至少一个存储介质通信连接,
其中,当所述活体检测装置运行时,所述至少一个处理器读取所述至少一个指令集,并且根据所述至少一个指令集的指示执行权利要求13-23任一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211653691.6A CN116311667A (zh) | 2022-12-22 | 2022-12-22 | 智能货柜、物品显示的处理方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211653691.6A CN116311667A (zh) | 2022-12-22 | 2022-12-22 | 智能货柜、物品显示的处理方法及系统 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN116311667A true CN116311667A (zh) | 2023-06-23 |
Family
ID=86813833
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202211653691.6A Pending CN116311667A (zh) | 2022-12-22 | 2022-12-22 | 智能货柜、物品显示的处理方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116311667A (zh) |
-
2022
- 2022-12-22 CN CN202211653691.6A patent/CN116311667A/zh active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11017603B2 (en) | Method and system for user interaction | |
JP7170355B2 (ja) | 対象物位置決めシステム | |
TWI705420B (zh) | 自助結算裝置及其控制方法 | |
US10182720B2 (en) | System and method for interacting with and analyzing media on a display using eye gaze tracking | |
WO2014181323A1 (en) | System and method of retail image analysis | |
US20210133845A1 (en) | Smart platform counter display system and method | |
US20150348060A1 (en) | Control method for displaying merchandising information on information terminal | |
US11924585B2 (en) | Video monitoring apparatus, control method thereof, and computer readable medium | |
WO2014093209A1 (en) | Security video system using customer regions for monitoring point of sale areas | |
WO2013135968A1 (en) | Method, arrangement, and computer program product for coordinating video information with other measurements | |
WO2021035575A1 (zh) | 支付过程中防止偷窥的方法及电子设备 | |
US20160378267A1 (en) | System and Method for Motion Detection and Interpretation | |
JP5939603B1 (ja) | ミラーと映像表示機能を有するドア | |
CN113485604B (zh) | 交互终端、交互系统、交互方法及计算机可读存储介质 | |
US20200126090A1 (en) | Settlement method and apparatus | |
CN109166257B (zh) | 一种购物车商品核验方法及其装置 | |
CN113128463B (zh) | 图像识别方法和系统 | |
CN116311667A (zh) | 智能货柜、物品显示的处理方法及系统 | |
WO2023185280A1 (zh) | 冰箱瓶座内物品信息识别方法和冰箱 | |
JP2014134906A (ja) | 自動販売機 | |
CN113723384B (zh) | 多视角采集图像后融合的智能生成订单方法及智能售货机 | |
US20240070880A1 (en) | 3d virtual construct and uses thereof | |
CN113538784B (zh) | 智能货柜以及物品识别方法 | |
CN109886671A (zh) | 基于双屏幕的二维码支付方法和装置 | |
CN112748896B (zh) | 烹饪设备的透明屏显示方法、系统及可读存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |