CN109166146A - 一种基于imu和视觉的食物体积估计方法及系统 - Google Patents

一种基于imu和视觉的食物体积估计方法及系统 Download PDF

Info

Publication number
CN109166146A
CN109166146A CN201810797660.5A CN201810797660A CN109166146A CN 109166146 A CN109166146 A CN 109166146A CN 201810797660 A CN201810797660 A CN 201810797660A CN 109166146 A CN109166146 A CN 109166146A
Authority
CN
China
Prior art keywords
food
measured
volume
imu
point cloud
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
CN201810797660.5A
Other languages
English (en)
Inventor
王梓里
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hangzhou Jiji Intellectual Property Operation Co ltd
Original Assignee
Shanghai Feixun Data Communication Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shanghai Feixun Data Communication Technology Co Ltd filed Critical Shanghai Feixun Data Communication Technology Co Ltd
Priority to CN201810797660.5A priority Critical patent/CN109166146A/zh
Publication of CN109166146A publication Critical patent/CN109166146A/zh
Withdrawn legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • G06T7/62Analysis of geometric attributes of area, perimeter, diameter or volume
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Geometry (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

本发明公开了一种基于IMU和视觉的食物体积估计方法及系统,该方法包括:获取以视频方式拍摄的待测食物视频帧及对应的IMU数据;通过获取的待测食物视频帧及对应的IMU数据,获取待测食物的稠密点云;从所述获取的待测食物的稠密点云中提取待测食物的表面;在垂直方向上,对待测食物的表面进行切片,获取切片体积。该方法利用手机设备中必备的IMU传感器获取食物的信息,并与视觉信息相结合,不仅能重建食物的模型,还能自动估计食物的体积,操作简便。

Description

一种基于IMU和视觉的食物体积估计方法及系统
技术领域
本发明属于健康饮食领域,更具体地,涉及一种基于IMU和视觉的食物体积估计方法及系统。
背景技术
现如今,随着人们生活质量的提高,越来越多的人开始注重自己的饮食健康,尤其是健身运动者们,对自己的饮食情况非常注重,这便涉及到对所食用的食物的体积的估算,现有的对食物体积的估算方法要么需要使用专业的设备,要么需要进行复杂的操作,那么用户就不能随时记录自己的饮食情况,效果不佳。
公开号CN105580052A的发明公开了一种系统,用于利用移动设备估计板上食物、例如膳食的体积。所述系统使用摄像机和光图案投影仪。在其上具有和不具有投影光图案的食物的图像使得能够计算立体形状和体积,而图像分割和辨别步骤估计所述图像中的一个或多个食物类型。通过应用可访问的知识数据库,碳水化合物含量被估计,并且关联的胰岛素丸剂剂量被提供。发展包括光图案、不同光源和关联的波长的编码、运动补偿、附加光学器件、脂肪含量的估计和关联的多波丸剂。该发明可以被实现在葡萄糖仪中或者在被提供有测试条端口或移动电话的胰岛素泵控制器中。该发明使用光图案投影技术重建食物的3D模型,然后计算食物的体积,但光图案投影设备只在极少数移动设备上有,不具有普遍性。
与现有技术相比,本发明利用手机拍摄食物外观的视频,并通过手机必备的IMU传感器获取食物的信息,再结合视觉信息,不仅能重建食物模型,并且可以自动计算食物的体积,操作简单,使用方便,实用性强,用户体验度好。
发明内容
针对现有技术的以上缺陷及改进需求,本发明提供了一种基于IMU和视觉的食物体积估算方法及系统,其目的在于提供一种操作简单,使用方便的食物体积估计方法及系统,由此解决现有技术存在的操作复杂、使用不便、不具有普遍性的技术问题。
为实现上述目的,本发明提供一种基于IMU和视觉的食物体积估计方法,包括步骤:
S1.获取以视频方式拍摄的待测食物视频帧及对应的IMU数据;
S2.通过获取的待测食物视频帧及对应的IMU数据,获取待测食物的稠密点云;
S3.从所述获取的待测食物的稠密点云中提取待测食物的表面;
S4.在垂直方向上,对待测食物的表面进行切片,获取切片体积。
进一步的,所述获取的切片体积之和即为待测食物的体积。
进一步的,步骤S2具体包括步骤:
根据获取的待测食物的视频帧及对应的IMU数据计算相机移动的轨迹和朝向,根据所述相机移动的轨迹和朝向,获取待测食物及其所在场景的稠密点云。
进一步的,还包括步骤:
在所述获取的待测食物及其所在场景的稠密点云中通过高度差异将待测食物的稠密点云从其所在场景中分割出来,获取待测食物的稠密点云。
进一步的,还包括步骤:
将待测食物的体积进行反馈。
相应的,还提供一种基于IMU和视觉的食物体积估计系统,包括:
第一获取模块,用于获取以视频方式拍摄的待测食物视频帧及对应的IMU数据;
第二获取模块,获取待测食物的稠密点云;
提取模块,用于从所述获取的待测食物的稠密点云中提取待测食物的表面;
切片模块,用于在垂直方向上,对待测食物的表面进行切片;
第三获取模块,用于获取切片体积。
进一步的,所述获取的切片体积之和即为待测食物的体积。
进一步的,还包括:
计算模块,用于根据获取的待测食物的视频帧及对应的IMU数据计算相机移动的轨迹和朝向。
进一步的,还包括:
分割模块,用于在所述获取的待测食物及其所在场景的稠密点云中通过高度差异将待测食物的稠密点云从其所在场景中分割出来。
进一步的,还包括:
反馈模块,用于将待测食物的体积进行反馈。
本发明与现有技术相比,有如下优点:
利用手机拍摄食物外观的视频,并通过手机必备的IMU传感器获取食物的信息,再结合视觉信息,不仅能重建食物模型,并且可以自动计算食物的体积,操作简单,使用方便,实用性强,用户体验度好。
附图说明
图1是实施例一提供的一种基于IMU和视觉的食物体积估计方法流程图;
图2是实施例一提供的相机轨迹和朝向图;
图3是实施例一提供的场景稠密点云图;
图4是实施例一提供的待测食物稠密点云图;
图5是实施例一提供的不同角度拍摄到的待测食物图;
图6是实施例一提供的不同角度拍摄到的待测食物图;
图7是实施例一提供的待测食物表面图;
图8是实施例一提供的待测食物表面切片图;
图9是实施例一提供的一种基于IMU和视觉的食物体积估计系统结构图;
图10是实施例二提供的一种基于IMU和视觉的食物体积估计方法流程图;
图11是实施例二提供的一种基于IMU和视觉的食物体积估计系统结构图。
具体实施方式
以下是本发明的具体实施例并结合附图,对本发明的技术方案作进一步的描述,但本发明并不限于这些实施例。
实施例一
本实施例提供一种基于IMU和视觉的食物体积估计方法,如图1所示,包括步骤:
S11.获取以视频方式拍摄的待测食物视频帧及对应的IMU数据;
S12.通过获取的待测食物视频帧及对应的IMU数据,获取待测食物的稠密点云;
S13.从所述获取的待测食物的稠密点云中提取待测食物的表面;
S14.在垂直方向上,对待测食物的表面进行切片,获取切片体积。
进一步的,所述获取的切片体积之和即为待测食物的体积。
进一步的,步骤S12具体包括步骤:
根据获取的待测食物的视频帧及对应的IMU数据计算相机移动的轨迹和朝向,根据所述相机移动的轨迹和朝向,获取待测食物及其所在场景的稠密点云。
进一步的,还包括步骤:
在所述获取的待测食物及其所在场景的稠密点云中通过高度差异将待测食物的稠密点云从其所在场景中分割出来,获取待测食物的稠密点云。
使用纯视觉信息(摄像头从不同角度拍摄待测食物)可以重建待测食物的3D模型,但是使用纯视觉信息不能获取重建的3D模型的绝对尺寸。IMU(Inertial MeasurementUnit)是测量物体三轴姿态角以及加速度的装置,目前是智能手机必备的传感器,可以计算出物体的姿态,采用IMU与视觉信息进行结合,不仅可以重建出待测食物的模型,还可以知道模型的绝对尺寸。
首先,用户使用手机以拍摄视频的方式从不同角度拍摄待测食物,从拍摄的视频帧中可以得到连续拍摄的待测食物图片序列以及对应的IMU数据;再利用VIO(惯性视觉里程计)算法,利用拍摄到的视频帧以及获取的IMU数据计算出手机相机移动的轨迹和朝向。如图2所示,用户使用手机相机以视频方式从木桶饭的一侧开始,拍摄木桶饭的所有不同角度,得到完整的木桶饭的视频帧及连续拍摄的图片序列,并利用手机自带的IMU传感器获取木桶饭相应的IMU数据,利用VIO算法,通过拍摄的视频帧及获取的IMU数据获取相机移动的轨迹和朝向。
然后,基于得到的手机相机移动的轨迹和朝向,使用3D重建算法计算待测食物及其所在场景的稠密点云,在获取了待测食物及其所在场景的稠密点云后,利用稠密点云中高度的差异,把待测食物的稠密点云从场景中分割出来。图3是利用3D重建算法获取的场景的稠密点云,图4则是利用高度差异分割出来的桌面与杯子,
其次,使用Delaunay Triangulation算法,从待测食物的稠密点云中提取待测食物的表面。图5与图6是用户使用手机相机拍摄的视频中不同角度拍摄到的食物的图片,图7是经过对食物的稠密点云提取后的食物的表面。
最后,如图8所示,在垂直方向上,对待测食物的表面进行切片,计算每一个切片的体积,最终,待测食物的体积即为所有切片体积之和。
相应的,还提供一种基于IMU和视觉的食物体积估计系统,如图9所示,包括:
第一获取模块11,用于获取以视频方式拍摄的待测食物视频帧及对应的IMU数据;
第二获取模块12,获取待测食物的稠密点云;
提取模块13,用于从所述获取的待测食物的稠密点云中提取待测食物的表面;
切片模块14,用于在垂直方向上,对待测食物的表面进行切片;
第三获取模块15,用于获取切片体积。
进一步的,所述获取的切片体积之和即为待测食物的体积。
进一步的,还包括:
计算模块16,用于根据获取的待测食物的视频帧及对应的IMU数据计算相机移动的轨迹和朝向。
进一步的,还包括:
分割模块17,用于在所述获取的待测食物及其所在场景的稠密点云中通过高度差异将待测食物的稠密点云从其所在场景中分割出来。
第一获取模块11获取以视频方式拍摄的待测食物视频帧及对应的IMU数据,计算模块16根据获取的待测食物的视频帧及对应的IMU数据计算相机的轨迹及朝向,以便得到待测食物及其所在场景的稠密点云,再由分割模块17在所述获取的待测食物及其所在场景的稠密点云中通过高度差异将待测食物的稠密点云从其所在场景中分割出来,由第二获取模块12获取待测食物的稠密点云,提取模块13从所述获取的待测食物的稠密点云中提取待测食物的表面,切片模块14对待测食物的表面在垂直方向上进行切片,最后由第三获取模块15获取切片的体积。
本实施例利用手机拍摄食物外观的视频,并通过手机必备的IMU传感器获取食物的信息,再结合视觉信息,不仅能重建食物模型,并且可以自动计算食物的体积,操作简单,使用方便,实用性强,用户体验度好。
实施例二
本实施例提供一种基于IMU和视觉的食物体积估计方法,如图10所示,包括步骤:
S21.获取以视频方式拍摄的待测食物视频帧及对应的IMU数据;
S22.通过获取的待测食物视频帧及对应的IMU数据,获取待测食物的稠密点云;
S23.从所述获取的待测食物的稠密点云中提取待测食物的表面;
S24.在垂直方向上,对待测食物的表面进行切片,获取切片体积。
进一步的,所述获取的切片体积之和即为待测食物的体积。
进一步的,步骤S22具体包括步骤:
根据获取的待测食物的视频帧及对应的IMU数据计算相机移动的轨迹和朝向,根据所述相机移动的轨迹和朝向,获取待测食物及其所在场景的稠密点云。
进一步的,还包括步骤:
在所述获取的待测食物及其所在场景的稠密点云中通过高度差异将待测食物的稠密点云从其所在场景中分割出来,获取待测食物的稠密点云。
进一步的,还包括步骤:
将待测食物的体积进行反馈。
与实施例一不同的是,还包括步骤:
将待测食物的体积进行反馈。
在对待测食物的表面进行切片并获取了切片体积之后,将所有获取的切片体积相加之和即为待测食物的体积,在得到待测食物的体积之后,将待测食物的体积进行反馈,以便用户知悉与记录。
本实施例相较于实施例一,其优点在于:
在得到待测食物的体积之后,将待测食物的体积进行反馈,方便用户知悉与记录,满足了用户的需求,提升了用户的体验。
相应的,还提供一种基于IMU和视觉的食物体积估计系统,如图11所示,包括:
第一获取模块21,用于获取以视频方式拍摄的待测食物视频帧及对应的IMU数据;
第二获取模块22,获取待测食物的稠密点云;
提取模块23,用于从所述获取的待测食物的稠密点云中提取待测食物的表面;
切片模块24,用于在垂直方向上,对待测食物的表面进行切片;
第三获取模块25,用于获取切片体积。
进一步的,所述获取的切片体积之和即为待测食物的体积。
进一步的,还包括:
计算模块26,用于根据获取的待测食物的视频帧及对应的IMU数据计算相机移动的轨迹和朝向。
进一步的,还包括:
分割模块27,用于在所述获取的待测食物及其所在场景的稠密点云中通过高度差异将待测食物的稠密点云从其所在场景中分割出来。
进一步的,还包括:
反馈模块28,用于将待测食物的体积进行反馈。
与实施例一不同的是,还包括反馈模块28。
反馈模块28,用于将待测食物的体积进行反馈。
当第三获取模块25获取了个切片的体积之后,将各切片的体积相加,各切片体积之和即为待测食物的体积,再由反馈模块28将待测食物的体积进行反馈,以便用户知悉。
在得到待测食物的体积之后,将待测食物的体积进行反馈,方便用户知悉与记录,满足了用户的需求,提升了用户的体验。
本文中所描述的具体实施例仅仅是对本发明精神作举例说明。本发明所属技术领域的技术人员可以对所描述的具体实施例做各种各样的修改或补充或采用类似的方式替代,但并不会偏离本发明的精神或者超越所附权利要求书所定义的范围。

Claims (10)

1.一种基于IMU和视觉的食物体积估计方法,其特征在于,包括步骤:
S1.获取以视频方式拍摄的待测食物视频帧及对应的IMU数据;
S2.通过获取的待测食物视频帧及对应的IMU数据,获取待测食物的稠密点云;
S3.从所述获取的待测食物的稠密点云中提取待测食物的表面;
S4.在垂直方向上,对待测食物的表面进行切片,获取切片体积。
2.如权利要求1所述的一种基于IMU和视觉的食物体积估计方法,其特征在于:
所述获取的切片体积之和即为待测食物的体积。
3.如权利要求1所述的种基于IMU和视觉的食物体积估计方法,其特征在于,步骤S2具体包括步骤:
根据获取的待测食物的视频帧及对应的IMU数据计算相机移动的轨迹和朝向,根据所述相机移动的轨迹和朝向,获取待测食物及其所在场景的稠密点云。
4.如权利要求3所述的种基于IMU和视觉的食物体积估计方法,其特征在于,还包括步骤:
在所述获取的待测食物及其所在场景的稠密点云中通过高度差异将待测食物的稠密点云从其所在场景中分割出来,获取待测食物的稠密点云。
5.如权利要求2所述的种基于IMU和视觉的食物体积估计方法,其特征在于,还包括步骤:
将待测食物的体积进行反馈。
6.一种基于IMU和视觉的食物体积估计系统,其特征在于,包括:
第一获取模块,用于获取以视频方式拍摄的待测食物视频帧及对应的IMU数据;
第二获取模块,获取待测食物的稠密点云;
提取模块,用于从所述获取的待测食物的稠密点云中提取待测食物的表面;
切片模块,用于在垂直方向上,对待测食物的表面进行切片;
第三获取模块,用于获取切片体积。
7.如权利要求6所述的一种基于IMU和视觉的食物体积估计系统,其特征在于:
所述获取的切片体积之和即为待测食物的体积。
8.如权利要求6所述的一种基于IMU和视觉的食物体积估计系统,其特征在于,还包括:
计算模块,用于根据获取的待测食物的视频帧及对应的IMU数据计算相机移动的轨迹和朝向。
9.如权利要求8所述的一种基于IMU和视觉的食物体积估计系统,其特征在于,还包括:
分割模块,用于在所述获取的待测食物及其所在场景的稠密点云中通过高度差异将待测食物的稠密点云从其所在场景中分割出来。
10.如权利要求7所述的一种基于IMU和视觉的食物体积估计系统,其特征在于,还包括:
反馈模块,用于将待测食物的体积进行反馈。
CN201810797660.5A 2018-07-19 2018-07-19 一种基于imu和视觉的食物体积估计方法及系统 Withdrawn CN109166146A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810797660.5A CN109166146A (zh) 2018-07-19 2018-07-19 一种基于imu和视觉的食物体积估计方法及系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810797660.5A CN109166146A (zh) 2018-07-19 2018-07-19 一种基于imu和视觉的食物体积估计方法及系统

Publications (1)

Publication Number Publication Date
CN109166146A true CN109166146A (zh) 2019-01-08

Family

ID=64897920

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810797660.5A Withdrawn CN109166146A (zh) 2018-07-19 2018-07-19 一种基于imu和视觉的食物体积估计方法及系统

Country Status (1)

Country Link
CN (1) CN109166146A (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111429507A (zh) * 2020-04-14 2020-07-17 深圳市异方科技有限公司 一种基于多个3d镜头的测量体积装置
CN111696151A (zh) * 2019-03-15 2020-09-22 青岛海尔智能技术研发有限公司 烤箱中食材体积识别的方法、装置及计算机可读存储介质

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110182477A1 (en) * 2010-01-22 2011-07-28 Amir Tamrakar Method for computing food volume in a method for analyzing food
US8761439B1 (en) * 2011-08-24 2014-06-24 Sri International Method and apparatus for generating three-dimensional pose using monocular visual sensor and inertial measurement unit
US20160163037A1 (en) * 2013-07-02 2016-06-09 Joachim Dehais Estmation of food volume and carbs
CN106846484A (zh) * 2017-02-20 2017-06-13 深圳市唯特视科技有限公司 一种基于双视图三维重建的食物体积估计方法
CN106997605A (zh) * 2017-03-22 2017-08-01 浙江大学 一种通过智能手机采集脚型视频和传感器数据获取三维脚型的方法
EP3232404A1 (en) * 2016-04-13 2017-10-18 SICK, Inc. Method and system for measuring dimensions of a target object

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110182477A1 (en) * 2010-01-22 2011-07-28 Amir Tamrakar Method for computing food volume in a method for analyzing food
US8761439B1 (en) * 2011-08-24 2014-06-24 Sri International Method and apparatus for generating three-dimensional pose using monocular visual sensor and inertial measurement unit
US20160163037A1 (en) * 2013-07-02 2016-06-09 Joachim Dehais Estmation of food volume and carbs
EP3232404A1 (en) * 2016-04-13 2017-10-18 SICK, Inc. Method and system for measuring dimensions of a target object
CN106846484A (zh) * 2017-02-20 2017-06-13 深圳市唯特视科技有限公司 一种基于双视图三维重建的食物体积估计方法
CN106997605A (zh) * 2017-03-22 2017-08-01 浙江大学 一种通过智能手机采集脚型视频和传感器数据获取三维脚型的方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
徐晓苏;代维;杨博;李瑶;董亚;: "室内环境下基于图优化的视觉惯性SLAM方法", 中国惯性技术学报, no. 03, 15 June 2017 (2017-06-15), pages 313 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111696151A (zh) * 2019-03-15 2020-09-22 青岛海尔智能技术研发有限公司 烤箱中食材体积识别的方法、装置及计算机可读存储介质
CN111429507A (zh) * 2020-04-14 2020-07-17 深圳市异方科技有限公司 一种基于多个3d镜头的测量体积装置

Similar Documents

Publication Publication Date Title
US10846903B2 (en) Single shot capture to animated VR avatar
CN105704479B (zh) 3d显示系统用的测量人眼瞳距的方法及系统和显示设备
CN104504671B (zh) 一种用于立体显示的虚实融合图像生成方法
US10341611B2 (en) System and method for video conferencing
CN108053437B (zh) 基于体态的三维模型获取方法及装置
US9659408B2 (en) Mesh reconstruction from heterogeneous sources of data
TWI530909B (zh) 影像合成系統及方法
EP1536378A3 (en) Three-dimensional image display apparatus and method for models generated from stereo images
CN109242950A (zh) 多人紧密交互场景下的多视角人体动态三维重建方法
JP2020506487A (ja) シーンから深度情報を取得するための装置および方法
WO2022237249A1 (zh) 三维重建方法、装置和系统、介质及计算机设备
JP2011521357A5 (zh)
US20150109416A1 (en) Depth map generation
CN205610834U (zh) 立体显示系统
CN110544302A (zh) 基于多目视觉的人体动作重建系统、方法和动作训练系统
CN107374638A (zh) 一种基于双目视觉模块的身高测量系统及方法
CN109166146A (zh) 一种基于imu和视觉的食物体积估计方法及系统
US11212510B1 (en) Multi-camera 3D content creation
Alexiou et al. Towards modelling of visual saliency in point clouds for immersive applications
Zhang et al. Full-reference stability assessment of digital video stabilization based on riemannian metric
Deng et al. Registration of multiple rgbd cameras via local rigid transformations
Gouiaa et al. 3D reconstruction by fusioning shadow and silhouette information
US20230306636A1 (en) Object three-dimensional localizations in images or videos
CN108873363A (zh) 基于结构光标记的三维光场成像系统及方法
CN112150609A (zh) 一种基于室内实时稠密三维重建技术的vr系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
TA01 Transfer of patent application right
TA01 Transfer of patent application right

Effective date of registration: 20201221

Address after: Room 10242, No. 260, Jiangshu Road, Xixing street, Binjiang District, Hangzhou City, Zhejiang Province

Applicant after: Hangzhou Jiji Intellectual Property Operation Co.,Ltd.

Address before: 201616 No. 3666 Sixian Road, Songjiang District, Shanghai

Applicant before: Phicomm (Shanghai) Co.,Ltd.

SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
WW01 Invention patent application withdrawn after publication

Application publication date: 20190108