CN114937296A - 基于用户识别的声光匹配方法、系统、设备及存储介质 - Google Patents
基于用户识别的声光匹配方法、系统、设备及存储介质 Download PDFInfo
- Publication number
- CN114937296A CN114937296A CN202210509809.1A CN202210509809A CN114937296A CN 114937296 A CN114937296 A CN 114937296A CN 202210509809 A CN202210509809 A CN 202210509809A CN 114937296 A CN114937296 A CN 114937296A
- Authority
- CN
- China
- Prior art keywords
- acousto
- optic
- scene
- image
- group
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/56—Extraction of image or video features relating to colour
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/174—Facial expression recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/178—Human faces, e.g. facial parts, sketches or expressions estimating age from face image; using age information for improving recognition
-
- H—ELECTRICITY
- H05—ELECTRIC TECHNIQUES NOT OTHERWISE PROVIDED FOR
- H05B—ELECTRIC HEATING; ELECTRIC LIGHT SOURCES NOT OTHERWISE PROVIDED FOR; CIRCUIT ARRANGEMENTS FOR ELECTRIC LIGHT SOURCES, IN GENERAL
- H05B47/00—Circuit arrangements for operating light sources in general, i.e. where the type of light source is not relevant
- H05B47/10—Controlling the light source
- H05B47/105—Controlling the light source in response to determined parameters
- H05B47/115—Controlling the light source in response to determined parameters by determining the presence or movement of objects or living beings
- H05B47/125—Controlling the light source in response to determined parameters by determining the presence or movement of objects or living beings by using cameras
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02B—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO BUILDINGS, e.g. HOUSING, HOUSE APPLIANCES OR RELATED END-USER APPLICATIONS
- Y02B20/00—Energy efficient lighting technologies, e.g. halogen lamps or gas discharge lamps
- Y02B20/40—Control techniques providing energy savings, e.g. smart controller or presence detection
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Image Analysis (AREA)
Abstract
本发明提供了基于用户识别的声光匹配方法、系统、设备及存储介质,该方法包括:通过至少一图像传感器获得一声光场景的实时图像;对所述实时图像进行图像分析,获得当前现场游客群的第一数据画像;基于所述第一数据画像匹配预设的声光调控数据组,至少通过所述声光调控数据组驱动声光场景的灯光照明。本发明能够通过用户外貌识别以及表情识别感知用户状态,从而针对性地调整照明灯光,为不同人性定制个性化的灯光效果,丰富用户体验。
Description
技术领域
本发明涉及照明控制领域,具体地说,涉及基于用户识别的声光匹配方法、系统、设备及存储介质。
背景技术
近年来,文旅夜游市场发展迅速,越来越多的景区、公园、商场、游乐园等场所开发夜间游玩的模式,包括推出了大量的沉浸式体验的游玩场所。此类夜游场所,已经全面开始使用原先仅在舞台演出领域使用的设备和技术。比如舞台灯具、视频投影技术、音响技术、舞台机械等技术开始应用在夜游里面,为沉浸式的体验提供更加丰富的效果变化。
图1是现有技术的场景控制模块示意图。如图1所示,通过声光视械控制系统,将效果存储系统内的效果通过声光机械设备播放呈现出来。但是目前的夜游产品有一个问题:所有的场景都是预先由设计师策划和设计好、由各个工种的技术人员根据设计效果进行编排,然后将数据和效果存储起来,在观众游玩的时候,控制播放对应的预先编排好的效果,无法实现效果与观众个体的关联。举例来说:场景设计师针对某个场景,以年轻人的市场为目标,设计了使用舞台灯光、音响、机械、视频等设备的效果,如果观众是老年人,也是播放预先编排好的效果,显然体验很差,即便同样是年轻人,不同地区的年轻人,不同性别的年轻人、不同文化程度的年轻人、不同兴趣爱好、不同职业的年轻人,所喜欢的场景效果可能都是不同的,无法用预先设定的场景效果来满足更多的差异化需求。基于此,有必要提供一种能够实现场景效果与观众有个性化关联的系统和方法,用以更好的提高每个观众的体验感。
因此,本发明提供了一种基于用户识别的声光匹配方法、系统、设备及存储介质。
发明内容
针对现有技术中的问题,本发明的目的在于提供基于用户识别的声光匹配方法、系统、设备及存储介质,克服了现有技术的困难,能够通过用户外貌识别以及表情识别感知用户状态,从而针对性地调整照明灯光,为不同人性定制个性化的灯光效果,丰富用户体验。
本发明的实施例提供一种基于用户识别的声光匹配方法,包括以下步骤:
通过至少一图像传感器获得一声光场景的实时图像;
对所述实时图像进行图像分析,获得当前现场游客群的第一数据画像;
基于所述第一数据画像匹配预设的声光调控数据组,至少通过所述声光调控数据组驱动声光场景的灯光照明。
优选地,所述通过至少一图像传感器获得一声光场景的实时图像,包括:
在所述声光场景设置广角镜头和图像传感器,采集所述声光场景的图像;
对所述图像进行人脸识别,获得所述游客的脸部图像集合;
在预设时段内对获得的所述游客的脸部图像进行去重后的脸部图像集合,作为在当前处于所述声光场景的游客的脸部图像。
优选地,所述通过至少一图像传感器获得一声光场景的实时图像,包括:
在所述声光场景的入口和出口分别设置一图像传感器,分别采集通过所述入口和出口游客图像;
对所述图像进行人脸识别,获得所述游客的脸部图像集合;
将仅通过所述入口、未通过所述出口的脸部图像作为在当前处于所述声光场景的游客的脸部图像。
优选地,所述对所述实时图像进行图像分析,获得当前现场游客群的第一数据画像,包括:
对所述游客的脸部图像集合进行人脸年龄识别,获得每个所述当前现场游客的年龄,计算所述当前现场游客群的平均年龄;
所述基于所述第一数据画像匹配预设的声光调控数据组,至少通过所述声光调控数据组驱动声光场景的灯光照明,包括:
基于所述平均年龄匹配预设的声光调控数据组,通过所述声光调控数据组驱动声光场景的灯光照明,所述当前现场游客群的平均年龄与所述声光场景的灯光照明的照明亮度、灯光闪烁频率、照明色彩饱和度、音乐分贝数、音乐播放速度中的至少一项呈反比。
优选地,所述对所述实时图像进行图像分析,获得当前现场游客群的第一数据画像,包括:
对所述当前现场游客群中游客的穿着的服装色彩进行识别和统计,获得当前现场游客群中出现次数最多的色彩;
所述基于所述第一数据画像匹配预设的声光调控数据组,至少通过所述声光调控数据组驱动声光场景的灯光照明,包括:
基于次数最多的色彩作为灯光的色彩,进行声光场景的灯光照明。
优选地,所述对所述实时图像进行图像分析,获得当前现场游客群的第一数据画像,包括:
对所述实时图像进行人脸种族识别,获得每个所述当前现场游客的种族类别,计算所述当前现场游客群中各种族类别的人数,获得所述当前现场游客群中人数最多的种族类别;
所述基于所述第一数据画像匹配预设的声光调控数据组,至少通过所述声光调控数据组驱动声光场景的灯光照明,包括:
基于所述人数最多的种族类别选中预设语言种类中的对应语言种类,将所述声光调控数据组中文本内容的语言种类更新为当前现场游客群中人数最多的种族类别的对应语言种类,根据语言种类更新后的文本内容生成灯光图案并投射。
优选地,还包括:
基于路径顺序排列的若干声光场景建立场景顺序,采集当前声光场景中连接下一声光场景的局部通道区域的实时图像
对所述实时图像进行图像分析,获得局部通道区域的游客群的第二数据画像;
至少基于所述第二数据画像为下一声光场景匹配预设的声光调控数据组,至少通过所述声光调控数据组驱动所述下一声光场景的灯光照明。
本发明的实施例还提供一种基于用户识别的声光匹配系统,用于实现上述的基于用户识别的声光匹配方法,所述基于用户识别的声光匹配系统包括:
实时图像采集模块,通过至少一图像传感器获得一声光场景的实时图像;
第一数据画像模块,对所述实时图像进行图像分析,获得当前现场游客群的第一数据画像;
声光场景照明模块,基于所述第一数据画像匹配预设的声光调控数据组,至少通过所述声光调控数据组驱动声光场景的灯光照明。
本发明的实施例还提供一种基于用户识别的声光匹配设备,包括:
处理器;
存储器,其中存储有所述处理器的可执行指令;
其中,所述处理器配置为经由执行所述可执行指令来执行上述基于用户识别的声光匹配方法的步骤。
本发明的实施例还提供一种计算机可读存储介质,用于存储程序,所述程序被执行时实现上述基于用户识别的声光匹配方法的步骤。
本发明的目的在于提供基于用户识别的声光匹配方法、系统、设备及存储介质,能够通过用户外貌识别以及表情识别感知用户状态,从而针对性地调整照明灯光,为不同人性定制个性化的灯光效果,丰富用户体验。
附图说明
通过阅读参照以下附图对非限制性实施例所作的详细描述,本发明的其它特征、目的和优点将会变得更明显。
图1是现有技术的场景控制模块示意图。
图2是本发明的基于用户识别的声光匹配方法的流程图。
图3是本发明的基于用户识别的声光匹配方法的一种实施过程示意图。
图4至5是本发明的基于用户识别的声光匹配方法的另一种实施过程示意图。
图6是本发明的基于用户识别的声光匹配系统的模块示意图。
图7是本发明的基于用户识别的声光匹配设备的结构示意图。
图8是本发明一实施例的计算机可读存储介质的结构示意图。
具体实施方式
以下通过特定的具体实例说明本申请的实施方式,本领域技术人员可由本申请所揭露的内容轻易地了解本申请的其他优点与功效。本申请还可以通过另外不同的具体实施方式加以实施或应用系统,本申请中的各项细节也可以根据不同观点与应用系统,在没有背离本申请的精神下进行各种修饰或改变。需说明的是,在不冲突的情况下,本申请中的实施例及实施例中的特征可以相互组合。
下面以附图为参考,针对本申请的实施例进行详细说明,以便本申请所属技术领域的技术人员能够容易地实施。本申请可以以多种不同形态体现,并不限定于此处说明的实施例。
在本申请的表示中,参考术语“一个实施例”、“一些实施例”、“示例”、“具体示例”、或“一些示例”等的表示意指结合该实施例或示例表示的具体特征、结构、材料或者特点包括于本申请的至少一个实施例或示例中。而且,表示的具体特征、结构、材料或者特点可以在任一个或多个实施例或示例中以合适的方式结合。此外,在不相互矛盾的情况下,本领域的技术人员可以将本申请中表示的不同实施例或示例以及不同实施例或示例的特征进行结合和组合。
此外,术语“第一”、“第二”仅用于表示目的,而不能理解为指示或暗示相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”的特征可以明示或隐含地包括至少一个该特征。在本申请的表示中,“多个”的含义是两个或两个以上,除非另有明确具体的限定。
为了明确说明本申请,省略与说明无关的器件,对于通篇说明书中相同或类似的构成要素,赋予了相同的参照符号。
在通篇说明书中,当说某器件与另一器件“连接”时,这不仅包括“直接连接”的情形,也包括在其中间把其它元件置于其间而“间接连接”的情形。另外,当说某种器件“包括”某种构成要素时,只要没有特别相反的记载,则并非将其它构成要素排除在外,而是意味着可以还包括其它构成要素。
当说某器件在另一器件“之上”时,这可以是直接在另一器件之上,但也可以在其之间伴随着其它器件。当对照地说某器件“直接”在另一器件“之上”时,其之间不伴随其它器件。
虽然在一些实例中术语第一、第二等在本文中用来表示各种元件,但是这些元件不应当被这些术语限制。这些术语仅用来将一个元件与另一个元件进行区分。例如,第一接口及第二接口等表示。再者,如同在本文中所使用的,单数形式“一”、“一个”和“该”旨在也包括复数形式,除非上下文中有相反的指示。应当进一步理解,术语“包含”、“包括”表明存在的特征、步骤、操作、元件、组件、项目、种类、和/或组,但不排除一个或多个其他特征、步骤、操作、元件、组件、项目、种类、和/或组的存在、出现或添加。此处使用的术语“或”和“和/或”被解释为包括性的,或意味着任一个或任何组合。因此,“A、B或C”或者“A、B和/或C”意味着“以下任一个:A;B;C;A和B;A和C;B和C;A、B和C”。仅当元件、功能、步骤或操作的组合在某些方式下内在地互相排斥时,才会出现该定义的例外。
此处使用的专业术语只用于言及特定实施例,并非意在限定本申请。此处使用的单数形态,只要语句未明确表示出与之相反的意义,那么还包括复数形态。在说明书中使用的“包括”的意义是把特定特性、区域、整数、步骤、作业、要素及/或成份具体化,并非排除其它特性、区域、整数、步骤、作业、要素及/或成份的存在或附加。
虽然未不同地定义,但包括此处使用的技术术语及科学术语,所有术语均具有与本申请所属技术领域的技术人员一般理解的意义相同的意义。普通使用的字典中定义的术语追加解释为具有与相关技术文献和当前提示的内容相符的意义,只要未进行定义,不得过度解释为理想的或非常公式性的意义。
图2是本发明的基于用户识别的声光匹配方法的流程图。如图2所示,本发明的实施例提供一种基于用户识别的声光匹配方法,包括以下步骤:
S110、通过至少一图像传感器获得一声光场景的实时图像。
S120、对实时图像进行图像分析,获得当前现场游客群的第一数据画像。
S130、基于第一数据画像匹配预设的声光调控数据组,至少通过声光调控数据组驱动声光场景的灯光照明。
在一个优选实施例中,步骤S110,包括:
S111、在声光场景设置广角镜头和图像传感器,采集声光场景的图像。
S112、对图像进行人脸识别,获得游客的脸部图像集合。
S113、在预设时段内对获得的游客的脸部图像进行去重后的脸部图像集合,作为在当前处于声光场景的游客的脸部图像。本实施例中使用现有技术的人脸识别神经网络,但不以此为限。人脸识别,是基于人的脸部特征信息进行身份识别的一种生物识别技术。用摄像机或摄像头采集含有人脸的图像或视频流,并自动在图像中检测和跟踪人脸,进而对检测到的人脸进行脸部识别的一系列相关技术,通常也叫做人像识别、面部识别。
在一个优选实施例中,步骤S110,包括:
S115、在声光场景的入口和出口分别设置一图像传感器,分别采集通过入口和出口游客图像。
S116、对图像进行人脸识别,获得游客的脸部图像集合。
S117、将仅通过入口、未通过出口的脸部图像作为在当前处于声光场景的游客的脸部图像。
在一个优选实施例中,步骤S120,包括:
S121、对游客的脸部图像集合进行人脸年龄识别,获得每个当前现场游客的年龄,计算当前现场游客群的平均年龄。本实施例中使用现有技术的人脸年龄识别神经网络,但不以此为限。
步骤S130,包括:
S131、基于平均年龄匹配预设的声光调控数据组,通过声光调控数据组驱动声光场景的灯光照明,当前现场游客群的平均年龄与声光场景的灯光照明的照明亮度、灯光闪烁频率、照明色彩饱和度、音乐分贝数、音乐播放速度中的至少一项呈反比。
在一个优选实施例中,步骤S120,包括:
S122、对当前现场游客群中游客的穿着的服装色彩进行识别和统计,获得当前现场游客群中出现次数最多的色彩。本实施例中使用现有技术的图像色彩识别神经网络,但不以此为限。
步骤S130,包括:
S132、基于次数最多的色彩作为灯光的色彩,进行声光场景的灯光照明。
在一个优选实施例中,步骤S120,包括:
S123、对实时图像进行人脸种族识别,获得每个当前现场游客的种族类别,计算当前现场游客群中各种族类别的人数,获得当前现场游客群中人数最多的种族类别。本实施例中使用现有技术的人脸种族识别神经网络,但不以此为限。
人脸种族识别是一种基于人脸识别神经网络的功能,通过学习大量不同种族的人脸图像,从而让AI具有判断人脸图像更趋近于哪种种族的能力。本实施例中的人脸种族识别神经网络通过大量欧美人脸部图案和中国人脸部图案的学习训练,能够更准确地分别出现场游客的种族标签,但不以此为限。
步骤S130,包括:
S133、基于人数最多的种族类别选中预设语言种类中的对应语言种类,将声光调控数据组中文本内容的语言种类更新为当前现场游客群中人数最多的种族类别的对应语言种类,根据语言种类更新后的文本内容生成灯光图案并投射。
在一个优选实施例中,还包括:
S140、基于路径顺序排列的若干声光场景建立场景顺序,采集当前声光场景中连接下一声光场景的局部通道区域的实时图像
S150、对实时图像进行图像分析,获得局部通道区域的游客群的第二数据画像。
S160、至少基于第二数据画像为下一声光场景匹配预设的声光调控数据组,至少通过声光调控数据组驱动下一声光场景的灯光照明。
本发明的具体实施方式如下:
图3是本发明的基于用户识别的声光匹配方法的一种实施过程示意图。如图3所示,数据采集系统包含数据采集设备,包括摄像头、各类传感器、二维码扫码等,通过IOT物联网技术,此类设备采集到的行为数据、基础信息搜集起来,并交给数据分析系统,数据分析系统利用AI人工智能的方法,利用AI算法模型,输出用户的画像特征,当然需要什么画像特征是根据场景的设计功能和策略针对性的选择,比如如果场景的灯光设计与观众的人数息息相关,则需要人数信息,如果和观众的年龄息息相关则需要识别出大概的年龄区段,如果和观众穿着衣服的颜色息息相关则需要识别颜色,如果和观众处于什么样的精神状态息息相关,则需要识别观众的精神状态。根据画像特征,决策系统自动输出针对声光视械系统的控制指令,从而控制声光视械设备的效果,效果输出后,数据采集系统继续采集新的数据,并循环上述过程。
声光视械控制系统是舞台灯光、音响、视频投影、机械等各种设备的控制设备,至少包含上述各类设备的一种或多种,因此声光视械控制系统可能包含舞台灯光子系统、音响子系统、视频播控子系统、机械运动控制子系统同。这些系统分别通过专有的协议连接着声光视械设备。比如舞台灯光子系统一般多采用DMX512协议、音响子系统多采用Dante协议等等。声光视械控制系统至少有能够接受外部控制的接口,接口协议可以是HTTP/TELNET/OSC/等不同的网络协议,也可以是基于RS232/RS485/蓝牙/USB等协议的控制。
决策系统输出给声光视械系统的控制指令是AI系统生成的适合该类画像特征的效果指令,能够被声光视械系统解析并执行。决策系统设有画像特征数据库。
为此本方法提供了一种声光视械系统的设计方法:通过数据库的概念细化整个声光视械系统。也是区别于现有声光视械系统的一个重要特征。
声光视械系统控制指令,主要是针对各类设备原始属性的控制,比如灯光主要包括颜色、亮度、频闪等等;音响指令包括音量、音乐类型的选择等;视频包括视频内容的类型、长短等选择;机械包括运动的快慢、方向、运动的方式等;能够对这些元素进行单一的操作,也能够将各类元素合并操作,并能够辅以时间属性,组成一个“元素效果序列”,比如“亮度50%的红色,持续2秒,亮度80%的黄色持续5秒“,即为一个“序列”。
这里所说的元素可以理解为没有时间属性的即时效果数值;序列则是多个元素在一段时间的组合。声光视械系统设有元素数据库和序列数据库。
数据采集系统包含数据采集设备以及数据传输所需的网络,数据采集设备可以是摄像头等图像采集设备、语音识别模块、温度感应模块等传感器,也可以是微信小程序、二维码授权等方式进行的信息采集。
数据传输所需的网络一般是场景内将所有的设备组成一个局域网,可以是网线、光纤、无线Wifi等不同的媒介连接。
数据分析系统包含各种数据的处理系统,至少包含AI的图像识别方法,至少能够通过图像识别到图片内观众的数量、某个观众的性别判断、年龄区段识别、身上穿什么颜色的衣服、是否有带手表、带帽子等基于图像的特征;至少包含语音识别算法和技术,能够进行上下文的语义分析,能够进行关键字的识别,比如“不好玩”“有点意思”等能够表述用户体验的关键词。最终分析系统能够给出用户的各类标签,比如兴奋、沮丧、亢奋等心情状态标签;比如年轻人、老年人、一家三口等基础信息标签;比如赌博型、思考型、领导型等性格标签。
决策系统根据分析系统提供的分析结果,能够生成一套效果控制指令,包括元素级指令和序列级指令。然后根据声光视械控制系统的接口类型采用对应的协议方式发送给声光视械控制系统。
系统初始化流程为:
根据场景的功能和目标,设计声光视械系统的各种元素及序列
根据场景的功能和目标,设定需要考虑的画像特征,作为初始画像特征库
根据设定的画像特征库选择对应的数据采集设备,可以一种或多种。
决策系统读取声光视械系统内的元素数据库、序列数据库,并根据初始的关联模型给各个元素和序列贴上画像特征的标签,每个元素和序列可以一个或多个标签。这里所说的初始的关联模型可以来自于设计师的设计,设计师给元素和序列打上画像特征标签;也可以来自已有的研究调研,比如颜色和心情的关联关系,颜色和性格的关联关系等等。因此设计的各个环节,针对不同画像特征的观众,设计师应设计不同的元素和序列。
运作流程为:
数据采集,并分析出此时此刻的观众画像特征
决策系统利用AI技术根据画像特征和已有的经验数值做出决策,输出指令集给声光视械控制系统。AI决策系统做出决策依据就是使用具有该标签的元素和序列。
决策系统也可以运营人员根据目前分析的结果,手动做出决策指令。
声光视械控制系统,解析指令集并执行指令。
跳转至上述第1步。
在一个优选方案中,上述循环系统是不断循环的,可以设定一套衡量的标准,根据标准来干预循环系统是否停止循环,当数据分析系统得出的结果符合标准时停止决策,即不改变场景的效果,当不符合该标准时则改变场景的效果。
在一个优选方案中,数据分析系统决策系统可以架设在场景本地或者云端,通过互联网的方式与本地建立连接,数据库可以架设在本地,也可以通过网络传输后保存在云端。
在一个优选方案中,数据分析使用数据也可以并入之前已经存在的数据库,通过比如身份证号手机号等特征关联数据库,从而合并之前已经存在数据库,从而能够更好的更准确的进行数据的分析。
在一个优选方案中,基于声光视械效果控制的人流密集处理系统和方法
在一个优选方案中,现在很多城市开发了灯光秀、投影秀等产品,此类产品受到广大百姓的喜爱,纷纷观看欣赏,很容易形成人流密集,如果采取措施不当甚至容易发生安全事故,比如2014年2015跨年的时候,上海外滩因为观看上海中心大厦的灯光秀发生踩踏事件。目前对于大范围人流密集,一般采用广播劝离、辅助疏导人员,但对于观看灯光秀、投影秀等场景,面积大、人声鼎沸,广播疏导未必能发挥很好的效果,再者,百姓正在观看让人兴奋的视觉效果,也未必能很好的离开劝退成功。
本发明还可以提供一种系统和方法,通过控制声光视械效果的方式自动实现疏导。设有摄像头,1个或多个全景摄像头,能够拍摄场面的照片,连接的人工智能服务器通过读取这些照片分析出人员数量,如果达到预先设定的上限值,则发送指令“进入人员密集模式”给声光视械控制系统,人工智能服务器通过网络与声光视械控制系统连接,声光视械控制系统设定有“人员密集模式”,该模式下将逐步关停灯光秀、投影秀效果、开启普通照明模式、降低音量,如果整个大场景内还有其他“灯光秀”“投影秀”景点,则开启其他景点的效果,实现密集分流的功能。
本发明的另一种具体实施方式如下:
如图4所示,在声光场景设置广角镜头和图像传感器12,采集声光场景的图像。对图像进行人脸识别,获得游客的脸部图像集合14。在预设时段内对获得的游客的脸部图像进行去重后的脸部图像集合14,作为在当前处于声光场景的游客的脸部图像。
对游客的脸部图像集合14进行人脸年龄识别,获得每个当前现场游客11的年龄,计算当前现场游客11群的平均年龄。基于平均年龄匹配预设的声光调控数据组,通过声光调控数据组驱动声光场景的灯光13照明,当前现场游客11群的平均年龄与声光场景的灯光13照明的照明亮度、灯光13闪烁频率、照明色彩饱和度、音乐分贝数、音乐播放速度中的至少一项呈反比。当现场老年人居多(平均年龄超过预设值)则照明亮度、灯光闪烁频率、照明色彩饱和度、音乐分贝数、音乐播放速度等均进行减弱,使得老年人的感官体验更加温和。当现场年轻人居多(平均年龄小于预设值)则照明亮度、灯光闪烁频率、照明色彩饱和度、音乐分贝数、音乐播放速度等均进行增加,使得年轻人的感官体验更加刺激。
基于路径顺序排列的若干声光场景建立场景顺序,采集当前声光场景中连接下一声光场景的局部通道区域的实时图像
对实时图像进行图像分析,获得局部通道区域的游客群的第二数据画像。
至少基于第二数据画像为下一声光场景匹配预设的声光调控数据组,至少通过声光调控数据组驱动下一声光场景的灯光13照明。
本发明的另一种具体实施方式如下:
在声光场景的入口和出口分别设置一图像传感器,分别采集通过入口和出口游客图像。对图像进行人脸识别,获得游客的脸部图像集合。将仅通过入口、未通过出口的脸部图像作为在当前处于声光场景的游客的脸部图像。
对当前现场游客群中游客的穿着的服装色彩进行识别和统计,获得当前现场游客群中出现次数最多的色彩。
基于次数最多的色彩作为灯光的色彩,进行声光场景的灯光照明。
本发明的另一种具体实施方式如下:
图4至5是本发明的基于用户识别的声光匹配方法的另一种实施过程示意图。如图4和5所示,灯光13发射出预设的声光调控数据组中的文本内容“您好!”信息内容的灯光图案。
在声光场景设置广角镜头和图像传感器12,采集声光场景的图像。对图像进行人脸识别,获得游客的脸部图像集合14。在预设时段内对获得的游客的脸部图像进行去重后的脸部图像集合14,作为在当前处于声光场景的游客的脸部图像。
对实时图像进行人脸种族识别,获得每个当前现场游客11的种族类别,计算当前现场游客11群中各种族类别的人数,获得当前现场游客11群中人数最多的种族类别。
参考图4,当脸部图像集合14通过人脸种族识别神经网络15获得中国人标签16最多的时候(即现场中国游客居多),则将中文的文本内容“您好!”生成灯光13的图案17并投射。
参考图5,当脸部图像集合14通过人脸种族识别神经网络15获得欧美人标签18最多的时候(即现场欧美游客居多),则将英文的文本内容“Hello!”生成灯光19图案并投射。
图6是本发明的基于用户识别的声光匹配系统的模块示意图。如图6所示,本发明的实施例还提供一种基于用户识别的声光匹配系统,用于实现上述的基于用户识别的声光匹配方法,基于用户识别的声光匹配系统包括:
实时图像采集模块51,通过至少一图像传感器获得一声光场景的实时图像。
第一数据画像模块52,对实时图像进行图像分析,获得当前现场游客群的第一数据画像。
声光场景照明模块53,基于第一数据画像匹配预设的声光调控数据组,至少通过声光调控数据组驱动声光场景的灯光照明。
在一个优选实施例中,实时图像采集模块51被配置为在声光场景设置广角镜头和图像传感器,采集声光场景的图像。对图像进行人脸识别,获得游客的脸部图像集合。在预设时段内对获得的游客的脸部图像进行去重后的脸部图像集合,作为在当前处于声光场景的游客的脸部图像。
在一个优选实施例中,实时图像采集模块51被配置为在声光场景的入口和出口分别设置一图像传感器,分别采集通过入口和出口游客图像。对图像进行人脸识别,获得游客的脸部图像集合。将仅通过入口、未通过出口的脸部图像作为在当前处于声光场景的游客的脸部图像。
在一个优选实施例中,第一数据画像模块52被配置为对游客的脸部图像集合进行人脸年龄识别,获得每个当前现场游客的年龄,计算当前现场游客群的平均年龄。声光场景照明模块53被配置为基于平均年龄匹配预设的声光调控数据组,通过声光调控数据组驱动声光场景的灯光照明,当前现场游客群的平均年龄与声光场景的灯光照明的照明亮度、灯光闪烁频率、照明色彩饱和度、音乐分贝数、音乐播放速度中的至少一项呈反比。
在一个优选实施例中,第一数据画像模块52被配置为对当前现场游客群中游客的穿着的服装色彩进行识别和统计,获得当前现场游客群中出现次数最多的色彩。声光场景照明模块53被配置为基于次数最多的色彩作为灯光的色彩,进行声光场景的灯光照明。
在一个优选实施例中,第一数据画像模块52被配置为对实时图像进行人脸种族识别,获得每个当前现场游客的种族类别,计算当前现场游客群中各种族类别的人数,获得当前现场游客群中人数最多的种族类别。声光场景照明模块53被配置为基于人数最多的种族类别选中预设语言种类中的对应语言种类,将声光调控数据组中文本内容的语言种类更新为当前现场游客群中人数最多的种族类别的对应语言种类,根据语言种类更新后的文本内容生成灯光图案并投射。
在一个优选实施例中,还包括:
局部图像采集模块54,基于路径顺序排列的若干声光场景建立场景顺序,采集当前声光场景中连接下一声光场景的局部通道区域的实时图像
第二数据画像模块55,对实时图像进行图像分析,获得局部通道区域的游客群的第二数据画像。
声光场景预设模块56,至少基于第二数据画像为下一声光场景匹配预设的声光调控数据组,至少通过声光调控数据组驱动下一声光场景的灯光照明。
本发明的基于用户识别的声光匹配系统能够通过用户外貌识别以及表情识别感知用户状态,从而针对性地调整照明灯光,为不同人性定制个性化的灯光效果,丰富用户体验。
本发明实施例还提供一种基于用户识别的声光匹配设备,包括处理器。存储器,其中存储有处理器的可执行指令。其中,处理器配置为经由执行可执行指令来执行的基于用户识别的声光匹配方法的步骤。
如上所示,该实施例本发明的基于用户识别的声光匹配系统能够通过用户外貌识别以及表情识别感知用户状态,从而针对性地调整照明灯光,为不同人性定制个性化的灯光效果,丰富用户体验。
所属技术领域的技术人员能够理解,本发明的各个方面可以实现为系统、方法或程序产品。因此,本发明的各个方面可以具体实现为以下形式,即:完全的硬件实施方式、完全的软件实施方式(包括固件、微代码等),或硬件和软件方面结合的实施方式,这里可以统称为“电路”、“模块”或“平台”。
图7是本发明的基于用户识别的声光匹配设备的结构示意图。下面参照图7来描述根据本发明的这种实施方式的电子设备600。图7显示的电子设备600仅仅是一个示例,不应对本发明实施例的功能和使用范围带来任何限制。
如图7所示,电子设备600以通用计算设备的形式表现。电子设备600的组件可以包括但不限于:至少一个处理单元610、至少一个存储单元620、连接不同平台组件(包括存储单元620和处理单元610)的总线630、显示单元640等。
其中,存储单元存储有程序代码,程序代码可以被处理单元610执行,使得处理单元610执行本说明书上述电子处方流转处理方法部分中描述的根据本发明各种示例性实施方式的步骤。例如,处理单元610可以执行如图2中所示的步骤。
存储单元620可以包括易失性存储单元形式的可读介质,例如随机存取存储单元(RAM)6201和/或高速缓存存储单元6202,还可以进一步包括只读存储单元(ROM)6203。
存储单元620还可以包括具有一组(至少一个)程序模块6205的程序/实用工具6204,这样的程序模块6205包括但不限于:操作系统、一个或者多个应用程序、其它程序模块以及程序数据,这些示例中的每一个或某种组合中可能包括网络环境的实现。
总线630可以为表示几类总线结构中的一种或多种,包括存储单元总线或者存储单元控制器、外围总线、图形加速端口、处理单元或者使用多种总线结构中的任一总线结构的局域总线。
电子设备600也可以与一个或多个外部设备700(例如键盘、指向设备、蓝牙设备等)通信,还可与一个或者多个使得用户能与该电子设备600交互的设备通信,和/或与使得该电子设备600能与一个或多个其它计算设备进行通信的任何设备(例如路由器、调制解调器等等)通信。这种通信可以通过输入/输出(I/O)接口650进行。并且,电子设备600还可以通过网络适配器660与一个或者多个网络(例如局域网(LAN),广域网(WAN)和/或公共网络,例如因特网)通信。网络适配器660可以通过总线630与电子设备600的其它模块通信。应当明白,尽管图中未示出,可以结合电子设备600使用其它硬件和/或软件模块,包括但不限于:微代码、设备驱动器、冗余处理单元、外部磁盘驱动阵列、RAID系统、磁带驱动器以及数据备份存储平台等。
本发明实施例还提供一种计算机可读存储介质,用于存储程序,程序被执行时实现的基于用户识别的声光匹配方法的步骤。在一些可能的实施方式中,本发明的各个方面还可以实现为一种程序产品的形式,其包括程序代码,当程序产品在终端设备上运行时,程序代码用于使终端设备执行本说明书上述电子处方流转处理方法部分中描述的根据本发明各种示例性实施方式的步骤。
如上所示,该实施例本发明的基于用户识别的声光匹配系统能够通过用户外貌识别以及表情识别感知用户状态,从而针对性地调整照明灯光,为不同人性定制个性化的灯光效果,丰富用户体验。
图8是本发明的计算机可读存储介质的结构示意图。参考图8所示,描述了根据本发明的实施方式的用于实现上述方法的程序产品800,其可以采用便携式紧凑盘只读存储器(CD-ROM)并包括程序代码,并可以在终端设备,例如个人电脑上运行。然而,本发明的程序产品不限于此,在本文件中,可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。
程序产品可以采用一个或多个可读介质的任一组合。可读介质可以是可读信号介质或者可读存储介质。可读存储介质例如可以为但不限于电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任一以上的组合。可读存储介质的更具体的例子(非穷举的列表)包括:具有一个或多个导线的电连接、便携式盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任一合适的组合。
计算机可读存储介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了可读程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任一合适的组合。可读存储介质还可以是可读存储介质以外的任何可读介质,该可读介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。可读存储介质上包含的程序代码可以用任何适当的介质传输,包括但不限于无线、有线、光缆、RF等等,或者上述的任一合适的组合。
可以以一种或多种程序设计语言的任一组合来编写用于执行本发明操作的程序代码,程序设计语言包括面向对象的程序设计语言—诸如Java、C++等,还包括常规的过程式程序设计语言—诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算设备上执行、部分地在用户设备上执行、作为一个独立的软件包执行、部分在用户计算设备上部分在远程计算设备上执行、或者完全在远程计算设备或服务器上执行。在涉及远程计算设备的情形中,远程计算设备可以通过任一种类的网络,包括局域网(LAN)或广域网(WAN),连接到用户计算设备,或者,可以连接到外部计算设备(例如利用因特网服务提供商来通过因特网连接)。
综上,本发明的目的在于提供基于用户识别的声光匹配方法、系统、设备及存储介质,能够通过用户外貌识别以及表情识别感知用户状态,从而针对性地调整照明灯光,为不同人性定制个性化的灯光效果,丰富用户体验。
以上内容是结合具体的优选实施方式对本发明所作的进一步详细说明,不能认定本发明的具体实施只局限于这些说明。对于本发明所属技术领域的普通技术人员来说,在不脱离本发明构思的前提下,还可以做出若干简单推演或替换,都应当视为属于本发明的保护范围。
Claims (10)
1.一种基于用户识别的声光匹配方法,其特征在于,包括以下步骤:
通过至少一图像传感器获得一声光场景的实时图像;
对所述实时图像进行图像分析,获得当前现场游客群的第一数据画像;
基于所述第一数据画像匹配预设的声光调控数据组,至少通过所述声光调控数据组驱动声光场景的灯光照明。
2.如权利要求1所述的基于用户识别的声光匹配方法,其特征在于,所述通过至少一图像传感器获得一声光场景的实时图像,包括:
在所述声光场景设置广角镜头和图像传感器,采集所述声光场景的图像;
对所述图像进行人脸识别,获得所述游客的脸部图像集合;
在预设时段内对获得的所述游客的脸部图像进行去重后的脸部图像集合,作为在当前处于所述声光场景的游客的脸部图像。
3.如权利要求1所述的基于用户识别的声光匹配方法,其特征在于,所述通过至少一图像传感器获得一声光场景的实时图像,包括:
在所述声光场景的入口和出口分别设置一图像传感器,分别采集通过所述入口和出口游客图像;
对所述图像进行人脸识别,获得所述游客的脸部图像集合;
将仅通过所述入口、未通过所述出口的脸部图像作为在当前处于所述声光场景的游客的脸部图像。
4.如权利要求2或3所述的基于用户识别的声光匹配方法,其特征在于,所述对所述实时图像进行图像分析,获得当前现场游客群的第一数据画像,包括:
对所述游客的脸部图像集合进行人脸年龄识别,获得每个所述当前现场游客的年龄,计算所述当前现场游客群的平均年龄;
所述基于所述第一数据画像匹配预设的声光调控数据组,至少通过所述声光调控数据组驱动声光场景的灯光照明,包括:
基于所述平均年龄匹配预设的声光调控数据组,通过所述声光调控数据组驱动声光场景的灯光照明,所述当前现场游客群的平均年龄与所述声光场景的灯光照明的照明亮度、灯光闪烁频率、照明色彩饱和度、音乐分贝数、音乐播放速度中的至少一项呈反比。
5.如权利要求2或3所述的基于用户识别的声光匹配方法,其特征在于,所述对所述实时图像进行图像分析,获得当前现场游客群的第一数据画像,包括:
对所述当前现场游客群中游客的穿着的服装色彩进行识别和统计,获得当前现场游客群中出现次数最多的色彩;
所述基于所述第一数据画像匹配预设的声光调控数据组,至少通过所述声光调控数据组驱动声光场景的灯光照明,包括:
基于次数最多的色彩作为灯光的色彩,进行声光场景的灯光照明。
6.如权利要求1所述的基于用户识别的声光匹配方法,其特征在于,所述对所述实时图像进行图像分析,获得当前现场游客群的第一数据画像,包括:
对所述实时图像进行人脸种族识别,获得每个所述当前现场游客的种族类别,计算所述当前现场游客群中各种族类别的人数,获得所述当前现场游客群中人数最多的种族类别;
所述基于所述第一数据画像匹配预设的声光调控数据组,至少通过所述声光调控数据组驱动声光场景的灯光照明,包括:
基于所述人数最多的种族类别选中预设语言种类中的对应语言种类,将所述声光调控数据组中文本内容的语言种类更新为当前现场游客群中人数最多的种族类别的对应语言种类,根据语言种类更新后的文本内容生成灯光图案并投射。
7.如权利要求1所述的基于用户识别的声光匹配方法,其特征在于,还包括:
基于路径顺序排列的若干声光场景建立场景顺序,采集当前声光场景中连接下一声光场景的局部通道区域的实时图像
对所述实时图像进行图像分析,获得局部通道区域的游客群的第二数据画像;
至少基于所述第二数据画像为下一声光场景匹配预设的声光调控数据组,至少通过所述声光调控数据组驱动所述下一声光场景的灯光照明。
8.一种基于用户识别的声光匹配系统,用于实现权利要求1所述的基于用户识别的声光匹配方法,其特征在于,包括:
实时图像采集模块,通过至少一图像传感器获得一声光场景的实时图像;
第一数据画像模块,对所述实时图像进行图像分析,获得当前现场游客群的第一数据画像;
声光场景照明模块,基于所述第一数据画像匹配预设的声光调控数据组,至少通过所述声光调控数据组驱动声光场景的灯光照明。
9.一种基于用户识别的声光匹配设备,其特征在于,包括:
处理器;
存储器,其中存储有所述处理器的可执行指令;
其中,所述处理器配置为经由执行所述可执行指令来执行权利要求1至7任意一项所述基于用户识别的声光匹配方法的步骤。
10.一种计算机可读存储介质,用于存储程序,其特征在于,所述程序被处理器执行时实现权利要求1至7任意一项所述基于用户识别的声光匹配方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210509809.1A CN114937296A (zh) | 2022-05-11 | 2022-05-11 | 基于用户识别的声光匹配方法、系统、设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210509809.1A CN114937296A (zh) | 2022-05-11 | 2022-05-11 | 基于用户识别的声光匹配方法、系统、设备及存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN114937296A true CN114937296A (zh) | 2022-08-23 |
Family
ID=82865041
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210509809.1A Pending CN114937296A (zh) | 2022-05-11 | 2022-05-11 | 基于用户识别的声光匹配方法、系统、设备及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114937296A (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20220287167A1 (en) * | 2019-11-25 | 2022-09-08 | Integrated Intelligence Technology (Shenzhen) Ltd. | Acousto-optic control method, system, and an acousto-optic device |
CN115968087A (zh) * | 2023-03-16 | 2023-04-14 | 中建八局发展建设有限公司 | 一种会展中心交互式灯光控制装置 |
CN116321634A (zh) * | 2023-03-07 | 2023-06-23 | 武汉市金叶云景观科技有限公司 | 用于花园景观的智能灯光控制系统 |
-
2022
- 2022-05-11 CN CN202210509809.1A patent/CN114937296A/zh active Pending
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20220287167A1 (en) * | 2019-11-25 | 2022-09-08 | Integrated Intelligence Technology (Shenzhen) Ltd. | Acousto-optic control method, system, and an acousto-optic device |
CN116321634A (zh) * | 2023-03-07 | 2023-06-23 | 武汉市金叶云景观科技有限公司 | 用于花园景观的智能灯光控制系统 |
CN115968087A (zh) * | 2023-03-16 | 2023-04-14 | 中建八局发展建设有限公司 | 一种会展中心交互式灯光控制装置 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN114937296A (zh) | 基于用户识别的声光匹配方法、系统、设备及存储介质 | |
CN103760968B (zh) | 数字标牌显示内容选择方法和装置 | |
KR102290419B1 (ko) | 디지털 컨텐츠의 시각적 내용 분석을 통해 포토 스토리를 생성하는 방법 및 장치 | |
KR101968723B1 (ko) | 카메라 이펙트를 제공하는 방법 및 시스템 | |
US20130014139A1 (en) | Image display system, image display method, image display control program and transmission program for motion information | |
US9498720B2 (en) | Sharing games using personal audio/visual apparatus | |
US8640021B2 (en) | Audience-based presentation and customization of content | |
CN109890106B (zh) | 基于用户身份自动识别的酒店个性化智能照明装置 | |
US10541000B1 (en) | User input-based video summarization | |
CN112287848B (zh) | 基于直播的图像处理方法、装置、电子设备和存储介质 | |
CN107293236A (zh) | 自适应不同用户的智能显示装置 | |
WO2015024002A1 (en) | Emotion and appearance based spatiotemporal graphics systems and methods | |
JP7278307B2 (ja) | コンピュータプログラム、サーバ装置、端末装置及び表示方法 | |
CN108229450A (zh) | 基于屏幕显示进行补光的方法及生物特征识别系统 | |
JP2022546190A (ja) | 動画ストーリーラインの適応 | |
US20220345768A1 (en) | Systems and methods for providing media content for an exhibit or display | |
TW202121250A (zh) | 展示對象的控制方法與裝置、電子設備及記錄媒體 | |
CN117545144A (zh) | 一种基于物联网的舞台灯光调控方法、系统及存储介质 | |
KR102342866B1 (ko) | 사용자 맞춤형 컨텐츠 스트리밍 및 디스플레이 방법 | |
CN110929146A (zh) | 数据处理方法、装置、设备和存储介质 | |
EP3863275A1 (en) | System and method for smart image-capturing | |
EP4050909A1 (en) | Information processing device, information processing method, and artificial intelligence system | |
CN117377169A (zh) | 一种可视化舞台灯光控制方法和控制器 | |
CN116980702A (zh) | 信息推荐方法、装置、电子设备及存储介质 | |
CN116088675A (zh) | 虚拟形象交互方法及相关装置、设备、系统和介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |