CN107450825A - 信息处理装置和方法 - Google Patents

信息处理装置和方法 Download PDF

Info

Publication number
CN107450825A
CN107450825A CN201710066769.7A CN201710066769A CN107450825A CN 107450825 A CN107450825 A CN 107450825A CN 201710066769 A CN201710066769 A CN 201710066769A CN 107450825 A CN107450825 A CN 107450825A
Authority
CN
China
Prior art keywords
track
region
information
medium
sub area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201710066769.7A
Other languages
English (en)
Inventor
野口武史
酒井俊司
马场英树
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Business Innovation Corp
Original Assignee
Fuji Xerox Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Xerox Co Ltd filed Critical Fuji Xerox Co Ltd
Publication of CN107450825A publication Critical patent/CN107450825A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03545Pens or stylus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • G06F3/0317Detection arrangements using opto-electronic means in co-operation with a patterned surface, e.g. absolute position or relative movement detection for an optical mouse or pen positioned with respect to a coded surface
    • G06F3/0321Detection arrangements using opto-electronic means in co-operation with a patterned surface, e.g. absolute position or relative movement detection for an optical mouse or pen positioned with respect to a coded surface by optically sensing the absolute position with respect to a regularly patterned surface forming a passive digitiser, e.g. pen optically detecting position indicative tags printed on a paper sheet
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/038Control and interface arrangements therefor, e.g. drivers or device-embedded control circuitry
    • G06F3/0383Signal control means within the pointing device
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0489Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using dedicated keyboard keys or combinations thereof
    • G06F3/04895Guidance during keyboard input operation, e.g. prompting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/10Text processing
    • G06F40/166Editing, e.g. inserting or deleting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/32Digital ink
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/32Digital ink
    • G06V30/333Preprocessing; Feature extraction
    • G06V30/347Sampling; Contour coding; Stroke extraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04803Split screen, i.e. subdividing the display area or the window area into separate subareas

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • Character Discrimination (AREA)
  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

本发明公开了一种信息处理装置和方法,该信息处理方法包括以下步骤:生成第一轨迹,其代表由数字笔指定的介质上的位置;获取第二轨迹,其代表由所述数字笔指定的所述介质上的位置并且其满足预定的条件;获取用于指定所述介质上的区域的信息,所述区域与所述第二轨迹具有预定的位置关系;以及依据所述区域和所述第一轨迹之间的位置关系擦除所述第一轨迹。

Description

信息处理装置和方法
技术领域
本发明涉及一种信息处理装置和方法。
背景技术
已知一种数字笔系统,其依据代表由数字笔指定的介质上的位置的轨迹在显示器装置上显示图像对象。一些这样的数字笔系统具有擦除显示在显示器装置上的图像对象的功能(参见,例如,日本专利文献特开2007-102403号公报和2014-235582号公报)。
发明内容
本发明的目的在于提供一种依据待擦除的部分和介质上的区域之间的位置关系,判断图像对象待擦除的部分的技术。
根据本发明的第一方面,提供一种信息处理方法,其包括以下步骤:生成第一轨迹,其代表由数字笔指定的介质上的位置;获取第二轨迹,其代表由所述数字笔指定的所述介质上的位置并且其满足预定的条件;获取用于指定所述介质上的区域的信息,所述区域与所述第二轨迹具有预定的位置关系;以及依据所述区域和所述第一轨迹之间的位置关系擦除所述第一轨迹。
根据本发明的第二方面,在所述获取用于指定所述介质上的区域的信息的步骤中,作为所述预定的位置关系,可以使用所述区域与所述第二轨迹重叠的条件。
根据本发明的第三方面,在所述获取用于指定所述介质上的区域的信息的步骤中,可以获取包括在所述区域中的多个副区域。在所述擦除所述第一轨迹的步骤中,针对所述多个副区域中的每一个,依据所述副区域和所述第二轨迹之间的位置关系,可以擦除以下数据:该数据表示由与所述副区域具有预定的位置关系的所述第一轨迹所代表的至少一部分图像对象。
根据本发明的第四方面,如果所述多个副区域中的第一副区域与所述第二轨迹重叠,在所述擦除所述第一轨迹的步骤中,可以擦除以下数据:该数据表示由对应于所述第一副区域的所述第一轨迹所代表的一部分图像对象。
根据本发明的第五方面,如果所述多个副区域中的第一副区域与所述第二轨迹重叠,在所述擦除所述第一轨迹的步骤中,可以擦除以下数据:该数据表示由包括在所述第一副区域中的所述第一轨迹所代表的图像对象。
根据本发明的第六方面,信息处理方法还可以包括依据所述第一轨迹确定所述多个副区域。
根据本发明的第七方面,信息处理方法还可以包括针对所述第一轨迹执行字符识别。在所述确定所述多个副区域的步骤中,通过使用所述字符识别的结果可以确定所述多个副区域。
根据本发明的第八方面,提供一种信息处理装置,其包括生成器、第一和第二获取单元以及擦除单元。生成器依据第一轨迹生成表示图像对象的数据,所述第一轨迹代表由数字笔指定的介质上的位置。第一获取单元获取第二轨迹,所述第二轨迹代表由所述数字笔指定的所述介质上的位置并且其满足预定的条件。第二获取单元获取用于指定所述介质上的区域的信息,所述区域与所述第二轨迹具有预定的位置关系。擦除单元依据所述区域和所述第一轨迹之间的位置关系擦除所述第一轨迹。
根据本发明的第九方面,提供一种信息处理方法,其包括以下步骤:获取第一和第二轨迹,所述第一轨迹代表由数字笔指定的介质上的位置,所述第二轨迹代表由所述数字笔指定的所述介质上的位置并且其满足预定的条件;指定所述介质上的区域,所述区域与所述第二轨迹具有预定的位置关系;以及输出表示不与所指定的区域重叠的所述第一轨迹的数据。
根据第一方面,能够依据待擦除的部分和介质上的区域之间的位置关系,判断图像对象待擦除的部分。
根据第二方面,能够擦除表示与区域具有预定的位置关系的第一轨迹的数据,该区域与第二轨迹重叠。
根据第三方面,与区域没有被分成副区域的情况相比,能够以更为精确的方式擦除数据。
根据第四方面,能够擦除表示第一轨迹的数据,该第一轨迹对应于与第二轨迹重叠的第一副区域。
根据第五方面,能够擦除表示与第一副区域具有预定的位置关系的第一轨迹的数据,该第一副区域与第二轨迹重叠。
根据第六方面,能够依据基于第一轨迹确定的副区域擦除表示第一轨迹的数据。
根据第七方面,能够依据基于字符识别结果确定的副区域擦除表示第一轨迹的数据。
根据第八方面,能够依据待擦除的部分和介质上的区域之间的位置关系,判断图像对象待擦除的部分。
根据第九方面,能够依据待擦除的部分和介质上的区域之间的位置关系,判断图像对象待擦除的部分。
附图说明
将基于下列附图详细说明本发明的示例性实施例,其中:
图1示出根据示例性实施例的数字笔系统的配置的例子;
图2示出一组编码图像的例子;
图3示出表格的例子;
图4示出数字笔的配置的例子;
图5是示出信息处理装置的硬件配置的例子的框图;
图6A至6C示出在相关技术中有待解决的问题的例子;
图7是示出信息处理装置的功能配置的例子的框图;
图8A和8B是示出根据第一操作实施例通过信息处理装置进行的操作的例子的序列图;
图9A至9C示出在第一操作实施例中擦除笔画的例子;
图10示出副区域的例子;
图11是示出根据第二操作实施例通过信息处理装置进行的操作的例子的流程图;
图12A至12C示出在第二操作实施例中擦除笔画的例子;
图13是示出根据第三操作实施例的信息处理装置的功能配置的例子的框图;
图14是示出根据第三操作实施例通过信息处理装置进行的操作的例子的序列图;以及
图15A至15C示出在第三操作实施例中擦除笔画的例子。
具体实施方式
1.配置
图1示出了根据示例性实施例的数字笔系统1的配置的例子。在数字笔系统1中,信息处理装置30依据在介质10上的数字笔20的笔画进行处理。数字笔系统1可以用于车辆和工厂的检测以及用于综合和管理诸如盘点(库存检查)的检查操作的结果。数字笔系统1包括介质10、数字笔20以及信息处理装置30。介质10用于通过使用数字笔20输入信息。表示在介质10上的位置的位置信息以及用于识别介质10的识别信息通过预定的编码方法编码并且形成图像。在介质10的表面上形成这种编码图像。这些编码图像通过数字笔20可读取,但肉眼不可视、或者形成为肉眼难以观察到的大小或颜色。在介质10的表面上,形成有表示具有用于输入信息的预定格式的字符和线的图像。该图像对应于表格并且在下文中被称为“表格图像(form image)”。该表格图像形成为肉眼可视的大小和颜色。介质10例如配置为片材形状,例如纸和高架投影仪(OHP)片材。编码图像和表格图像中的至少一个通过使用例如电子照相图像形成装置形成在介质10上。由形成在介质10上的表格图像表示的表格被简称为“表格”。
数字笔20是由用户使用来输入信息的输入装置。在本实施例中,数字笔20具有以下两种功能。第一功能是在介质10上附着或定影颜料、染料或包含它们的油墨的功能。第二功能是输出表示通过在介质10上移动数字笔20并同时保持数字笔20的笔尖与介质10的表面接触而生成的轨迹(笔画)的信息的功能。在下文中,这样的轨迹也可以被称为“笔画(stroke)”并且表示轨迹的信息也可以被称为“笔画信息”。为了实现第二功能,数字笔20读取形成在介质10上的编码图像并且通过使用读取的编码图像生成笔画信息。
图2示出一组编码图像的例子。编码图像是通过编码信息生成的图像。编码的信息至少包括用于指定介质10上的位置(坐标)的信息。编码的信息还可以包括用于识别介质10的识别信息。在本实施例中,9位信息被转化成代表9点图像的有或无的信息。在图2中,区域A1至A9是其中可以形成点图像的区域。在介质10的表面上,以规则的间隔配置例如在图2中显示的编码图像。通过用于指定编码图像的位置和方向的目的的图像(未示出)来指定一组编码图像的位置和方向。该图像可以设置在编码图像的内侧或外侧。
图3示出表格S1的例子。在本例子中,作为由用户进行的步骤,指定了四个操作“操作1”、“操作2”、“操作A”和“操作B”。关于这些步骤,表格S1包括操作者输入字符或图形的区域(输入栏或字段)(下文中也可以被称为“字段(field)”)F1至F8。在字段F1中,输入负责操作的操作者的姓名(即,用户的姓名)。在字段F2中,当“操作1”完成时操作者输入复选标记。在字段F3中,当“操作2”完成时操作者输入复选标记。在字段F4中,当开始“操作A”时操作者输入字符或图形。在字段F5中,当“操作A”完成时,操作者输入复选标记。在字段F6中,当开始“操作B”时,操作者输入字符或图形。在字段F7中,当“操作B”完成时,操作者输入复选标记。在字段F8中,操作者书写关于例如操作结果的评论。在字段F2、F3、F5和F7中,当操作完成时,操作者选择复选框“OK”和“NG”中的一个。
图4示出数字笔20的配置的例子。数字笔20包括控制器21、照射单元22、压力传感器23、笔芯24、成像装置25、存储器26、输入输出单元27、电池28和存储器29。
当从介质10读取编码图像时,照射单元22施加光(例如,红外线)。光被施加至介质10上的成像区域R。成像装置25捕获从照射单元22施加的并以预定的帧速率(例如,60帧/秒(fps))由介质10反射的光所代表的图像。通过成像装置25获取的图像被称为“捕获的图像”。
压力传感器23检测书写压力,更具体来说,检测作用在笔芯24上的压力。笔芯24具有如下功能:在介质10上附着或定影颜料、染料或包含其的油墨的功能,以及将施加至数字笔20的笔尖的压力传递至压力传感器23的功能。为了实现第一功能,笔芯24被构造成在其中存储有油墨并且依据数字笔20的笔尖的移动释放油墨。笔芯24被构造成例如圆珠笔的笔尖。
控制器21控制数字笔20的元件。控制器21包括信号处理电路211、驱动电路212和计时器213。计时器213生成表示当前时间的时间信息并输出生成的时间信息。信号处理电路211包括针对数字笔20进行信号处理的处理器。例如,信号处理电路211分析捕获的图像。更具体来说,信号处理电路211解码由包括在捕获的图像中的编码图像表示的信息从而提取识别信息和位置信息。驱动电路212控制照射单元22的驱动。例如,驱动电路212控制照射单元22向介质10施加光的时机。更具体来说,当压力传感器23检测作用在笔芯24上的压力时,驱动电路212使照射单元22向介质10施加光。
存储器26存储由信号处理电路211提取的识别信息和位置信息,以及从计时器213输出的时间信息。输入输出单元27是通过有线或无线介质与其它装置发送和接收数据的接口。在本实施例中,输入输出单元27特别是向信息处理装置30发送识别信息、位置信息以及时间信息作为笔画信息。
电池28例如是蓄电池,并且向各个元件提供用于驱动数字笔20的电源。存储器29存储关于数字笔20的识别信息。
在本实施例中,当通过压力传感器23检测的书写压力超过预定的阈值时,控制器21开始读取识别信息和位置信息并且从计时器213获取时间信息。控制器21在预定的规则的时间间隔持续读取识别信息和位置信息直到通过压力传感器23检测出的压力降低至预定的阈值。当检测出的压力降低至预定的阈值时(即,当数字笔20的笔尖离开介质10时),控制器21在存储器26中存储在如下时间段中读取和获取的多组识别信息和位置信息,以及时间信息:即,从当控制器21开始读取并获得信息开始到当控制器21结束读取和获取信息结束的时间段。识别信息、位置信息和时间信息作为一组笔画信息被存储。在这种情况下,作为时间信息,获取多个位置信息项中的每一个的读取开始时间。在存储器26中,识别信息和位置信息以笔画单位的形式被存储,并且存储表示每个笔画的读取开始时间的时间信息。“笔画”是指在从当笔尖开始接触介质10到当笔尖离开介质10之间的期间内,由数字笔20的笔尖在介质10上移动的轨迹。
图5示出信息处理装置30的硬件配置的例子。信息处理装置30是包括中央处理单元(CPU)31、主存储装置32、辅助存储装置33、通信单元34、输入装置35以及显示器36的计算机。
CPU31是执行各种操作的处理器。主存储装置32包括只读存储器(ROM)和随机存取存储器(RAM)。辅助存储装置33是存储程序和数据的非易失性存储装置,并且包括例如硬盘驱动器(HDD)或固态硬盘(SSD)。CPU31使用RAM作为工作区域并且执行存储在ROM或辅助存储装置33中的程序。
通信单元34是用于与其它装置通信的接口。在本实施例中,通信单元34特别地从数字笔20接收笔画信息。由用户使用输入装置35来向CPU31输入指令或信息。输入装置35包括键盘、触摸屏以及麦克风中的至少一种。显示器36用于显示信息,并且例如包括液晶显示器(LCD)。
图6A至6C示出在相关技术中有待解决的问题的例子。图6A示出在相关技术中通过数字笔20在介质10上书写的字符(笔画STR1)的例子。在本例子中,在表格的字段F1中书写了字符“小山一郎”作为负责操作的操作者的姓名。由数字笔20的轨迹(第一轨迹的例子)书写这些字符。图6B示出在相关技术中在介质10上书写的删除线(笔画STR2)的例子。删除线是由轨迹(第二轨迹的例子)画出的线,其用于指定待擦除的图像对象。数字笔20的操作模式为第一操作模式和第二操作模式,在第一操作模式中依据轨迹生成关于图像对象的数据(下文中称为“书写数据”),在第二操作模式中输入擦除书写数据的指令。第一操作模式被称作“书写模式”,以及第二操作模式被称为“擦除模式”。第一和第二操作模式例如通过使用在数字笔20中设置的开关(未示出)来切换。
在相关技术中,对应于与删除线重叠的轨迹的书写数据被擦除。在图6B中示出的例子中,尽管删除线与字符“小山一郎”的大部分重叠,但其没有覆盖字符“小”的左边缘笔画。字符“小”由三个笔画配置,关于每个笔画的数据被分别存储。根据该删除线,字符“小”的左边缘笔画没有被擦除,以及关于该笔画的数据保留。图6C示出在通过图6B中显示的删除线擦除了字符“小山一郎”的一部分之后由书写数据表示的轨迹的例子。用户意在擦除表示“小山一郎”整个字符的数据。但是,不完整地画出删除线,未删除并且保留了涉及轨迹的一部分(笔画STR1p)的数据。在这种方式下,由于以下原因删除线可能变得不完整,诸如用户移动数字笔20过快、初始的书写压力过弱、以及当通过压力传感器23检测到书写压力超过了阈值时,在开始读取位置信息时存在相当大的延迟。本示例性实施例的数字笔系统1解决这样的问题。
图7示出信息处理装置30的功能配置的例子。信息处理装置30包括笔画获取单元301、生成器302、存储单元303、删除线获取单元304、区域信息获取单元305、判断单元306、擦除单元307以及输出单元308。
笔画获取单元301从数字笔20获取处于书写模式的笔画信息。生成器302生成关于对应于由笔画获取单元301获取的笔画信息的图像对象的数据(书写数据)。存储单元303存储由生成器302生成的书写数据。删除线获取单元304(第一获取单元的例子)从数字笔20获取处于擦除模式的笔画信息。区域信息获取单元305(第二获取单元的例子)获取用于指定介质10上的区域(例如,图3中的字段F1至F8)的信息。判断单元306依据由区域信息获取单元305获取的信息指定的区域和由删除线获取单元304获取的并且其满足预定的条件的笔画信息表示的轨迹之间的位置关系,判断是否擦除书写数据。预定的条件是数字笔20的操作模式是擦除模式的条件。如果判断单元306判断要擦除书写数据,则擦除单元307进行指定至少部分书写数据要从存储单元303中擦除的处理,更具体来说,其进行用于擦除数据的处理。输出单元308输出存储在存储单元303中的书写数据。
在本示例性实施例中,用于处理笔画信息的程序(下文中称作“数字笔程序”)被存储在信息处理装置30的辅助存储装置33中。作为CPU31执行该数字笔程序的结果,在计算机中实施了图7所示的功能。执行数字笔程序的CPU31对应于笔画获取单元301、生成器302、删除线获取单元304、区域信息获取单元305、判断单元306以及擦除单元307的例子。主存储装置32和辅助存储装置33中的至少一个是存储单元303的例子。通信单元34或显示器36是输出单元308的例子。如果通信单元34用作输出单元308,则“输出”表示将书写数据输出至其它装置。如果显示器36用作输出单元308,则“输出”表示由书写数据表示的图像对象的图像被显示在显示器36上。
2.操作
2-1.第一操作实施例
图8A和8B是示出根据第一操作实施例通过信息处理装置30进行的操作的例子的序列图。响应于例如信息处理装置30中的数字笔程序的启动,开始图8A和8B中示出的处理。下面将把处理描述为由通过数字笔程序实施的图7中示出的功能元件来执行处理。但这意味着作为执行数字笔程序的结果,CPU31与图5中示出的其它硬件元件协作执行处理。
在步骤S101中,笔画获取单元301从数字笔20获取处于书写模式的笔画信息。然后,在步骤S102中,生成器302从获取的笔画信息生成书写数据。书写数据表示处于书写模式的数字笔20的轨迹。在步骤S103中,存储单元303存储生成的书写数据。针对例如每个笔画存储书写数据。备选地,可以将两个或更多的笔画分组并存储为一组书写数据。
在步骤S104中,删除线获取单元304从数字笔20获取处于擦除模式的笔画信息。在步骤S105中,生成器302从获取的笔画信息生成删除线数据。删除线数据表示处于擦除模式的数字笔20的轨迹。在步骤S106中,存储单元303存储生成的删除线数据。例如针对每个笔画存储删除线数据。备选地,可以将两个或更多的笔画分组并存储为一组删除线数据。
在步骤S107中,区域信息获取单元305获取关于介质10上的区域的区域信息。区域信息用于指定在表格(图3)中定义的区域(图3中的字段F1至F8)。基于从形成在介质10上的编码图像获取的区域信息和位置信息之间的关系指定由区域信息表示的区域。通过关于介质10的识别信息指定表格。在步骤S108中,存储单元303存储区域信息。
在步骤S109中,判断单元306判断是否擦除书写数据。更具体来说,判断单元306参考存储在存储单元303中的信息,并且然后指定与删除线具有预定的位置关系(预定的条件)的区域作为在由区域信息表示的多个区域中的对象区域。在本实施例中,预定的条件是对象区域与删除线重叠,即删除线至少部分地包括在该区域中的条件。在图6B的例子中,字段F1例如被指定为对象区域。响应于新删除线数据项的生成执行步骤S109。
在步骤S110中,判断单元306将在存储在存储单元303中的书写数据项中关于与在步骤S109中指定的对象区域具有预定的位置关系(预定的条件)的所有笔画的书写数据指定为待擦除的数据。预定的条件是例如每个笔画的至少一部分包括在对象区域中的条件。在步骤S111中,判断单元306向擦除单元307提供用于识别指定为待擦除的数据的书写数据的信息。
在步骤S112中,擦除单元307对指定为待擦除数据的对象数据进行处理从而使得对象数据能够与将不会被擦除的其它数据项区分。更具体来说,擦除单元307例如进行从存储单元303擦除对象数据的处理。备选地,擦除单元307可以在存储单元303中存储表示待擦除的对象数据的标记。
在步骤S113中,输出单元308输出存储在存储单元303中的书写数据。例如,输出单元308依据书写数据显示图像。在本图像中,不包括待擦除的笔画。备选地,例如以不同的颜色来显示待擦除的笔画,从而使得它们能够与将不会被擦除的笔画区分。
图9A至9C示出在第一操作实施例中擦除笔画的例子。书写数据(图9A)和删除线数据(图9B)分别与图6A和6B中示出的那些相同。在本实施例中,包括字符“小”中的左边缘笔画的所有笔画被擦除,如图9C所示。在第一操作实施例中,将涉及包括在与删除线相同区域中的所有笔画的书写数据项指定为待擦除的数据。因此,即使未完全画出删除线,擦除对象书写数据会被遗漏的可能性也较小。
处理步骤的顺序不限于以上讨论的顺序。例如,步骤S107和S108可以在步骤S104或S101之前执行。
2-2.第二操作实施例
下面将描述第二操作实施例。在第二操作实施例中,至少一个表格中的区域包括多个副区域(副字段)。副区域由区域信息定义。包括副区域的区域可以被称作“主区域”从而可以与其它副区域区分。关于包括副区域的主区域,针对每个副区域进行是否擦除书写数据的判断。
图10示出副区域的例子。在本实施例中,主字段F10包括副字段F11至F15。主字段F10是输入数据(年、月、日以及星期几)的区域。副字段F11是输入年的区域的左半部分。副字段F12是输入年的区域的右半部分。在副字段F13中输入月。在副字段F14中输入日。在副字段F15中输入星期几。
图11是示出根据第二操作实施例通过信息处理装置30进行的操作的例子的流程图。图11中的流程图表示出了在图8A和8B的流程图中通过判断单元306执行的步骤S109和S110的详细信息。
在步骤S201中,判断单元306从与删除线具有的位置关系满足预定的条件的一个或多个主区域(以下称作“对象主区域候选”)中指定一个对象主区域。依据预定的顺序,从对象主区域候选中依次指定对象主区域。
在步骤S202中,判断单元306判断在对象主区域中是否定义了副区域。该判断基于区域信息进行。如果判断定义了副区域(步骤S202中的“是”),则判断单元306前进至步骤S203。如果判断未定义副区域(步骤S202中的“否”),则判断单元306前进至步骤S207。
在步骤S203中,判断单元306从包含在对象主区域中的多个副区域中指定一个对象副区域。依据预定的顺序,依次指定对象副区域。
在步骤S204中,判断单元306判断对象副区域与删除线之间的位置关系是否满足预定的条件。在本实施例中,预定的条件是对象副区域与删除线重叠,即删除线至少部分地包含在对象副区域中的条件。如果判断位置关系满足预定的条件(步骤S204中的“是”),则判断单元306前进至步骤S205。如果判断位置关系不满足预定的条件(步骤S204中的“否”),则判断单元306前进至步骤S206。
在步骤S205中,判断单元306将存储在存储单元303中的书写数据项表示的笔画中涉及包括在对象副区域中的所有笔画的书写数据项指定为待擦除的数据。包括在对象副区域中的笔画是至少部分包括在对象副区域中的笔画。
在步骤S206中,判断单元306判断是否包括在对象主区域中的所有副区域均经过处理。如果所有副区域均经过处理(步骤S206中的“是”),则判断单元306前进至步骤S209。如果发现没有被处理的副区域(步骤S206中的“否”),则判断单元306返回至步骤S203。在步骤S203中,更新对象副区域,并针对新的对象副区域执行步骤S204至S206。
在步骤S207中,判断单元306判断是否对象主区域与删除线之间的位置关系满足预定的条件。在本实施例中,预定的条件是对象主区域与删除线重叠,即删除线至少部分包括在对象主区域中的条件。如果判断位置关系满足预定的条件(步骤S207中的“是”),则判断单元306前进至步骤S208。如果判断位置关系不满足预定的条件(步骤S207中的“否”),则判断单元306前进至步骤S209。
在步骤S208中,判断单元306将存储在存储单元303中的书写数据项表示的笔画中涉及包括在对象主区域中的所有笔画的书写数据项指定为待擦除的数据。包括在对象主区域中的笔画是至少部分包括在对象主区域中的笔画。
在步骤S209中,判断单元306判断是否所有对象主区域候选均经过处理。如果发现没有被处理的主区域(步骤S209中的“否”),则判断单元306返回至步骤S201。在步骤S201中,更新对象主区域,并针对新的对象主区域执行步骤S202至S209。如果所有主区域候选均经过处理(步骤S209中的“是”),则判断单元306完成处理。
图12A至12C示出在第二操作实施例中擦除笔画的例子。在本实施例中,针对每个副区域进行是否擦除书写数据的判断,因此,可以以更为精确地方式擦除笔画。
2-3.第三操作实施例
下面将描述第三操作实施例。在第三操作实施例中,与第二操作实施例相同,使用了副区域。但第三操作实施例中的副区域不由区域信息定义,而是根据书写数据确定。更具体来说,针对由书写数据表示的笔画进行字符识别处理,并且将针对每个识别的字符获取的外接矩形用作副区域。
图13示出根据第三操作实施例的信息处理装置30的功能配置的例子。在本实施例中,除了图7中示出的功能之外,信息处理装置30还包括字符识别单元309。作为CPU31针对图像执行字符识别程序的结果,在信息处理装置30中执行字符识别单元309。字符识别程序可以是数字笔程序的一部分。
图14是示出根据第三操作实施例通过信息处理装置30进行的操作的例子的序列图。图14中的处理与图8A和8B中的处理并列执行,并且例如响应于新的书写数据项的生成而开始。
在步骤S301中,字符识别单元309针对由新的书写数据项表示的图像进行字符识别处理。字符识别处理包括用于将一组笔画分成被推定为字符的单位的处理,即将一组笔画分成单独的字符的处理。其结果是,针对单独的字符获取外接矩形。存储单元303存储用于指定每个字符的外接矩形的位置和大小的信息(下文中称作“矩形信息”)。
在步骤S302中,区域信息获取单元305读取存储在存储单元303中的矩形信息。在步骤S303中,区域信息获取单元305指定与由矩形信息表示的矩形重叠的主区域。在步骤S304中,区域信息获取单元305在存储单元303中将该矩形信息存储为用于指定包括在该主区域中的副区域的信息。
图15A至15C示出在第三操作实施例中擦除笔画的例子。图15A示出了通过书写数据表示的笔画STR3,以及通过字符识别处理获取的外接矩形。通过副字段F21至F24表示这些外接矩形。图15B示出通过删除线数据表示的笔画STR3以及笔画STR4。在本实施例中,删除线(笔画STR4)与副字段F23和F24重叠。因此,在副字段F23和F24中由笔画STR3表示的书写数据被擦除,如图15C所示。
字符识别处理可不必响应于新书写数据项的生成而开始。代替地,可以以规则的时间间隔自动开始字符识别处理。
3.变形例
本发明不限于上述示例性实施例,可以进行多种变形。下面针对一些变形例进行说明,下述变形例中的两个或多个可以结合。
涉及在步骤S109中用于指定对应于删除线的对象区域的位置关系的条件(下文中称为“第一条件”),以及涉及在步骤S110中用于从对象区域中判断待擦除的笔画的位置关系的条件(下文中称为“第二条件”)不限于在上述示例性实施例中讨论的条件。例如,第一条件可以是从对象区域到删除线之间的距离等于或小于预定的阈值的条件。第二条件可以是从删除线到对象区域之间的距离等于或小于预定的阈值的条件。
在上述示例性实施例中,在生成了表示第一轨迹的书写数据之后,根据第二轨迹擦除部分该书写数据。备选地,信息处理装置30可以进行:(1)获取表示第一轨迹和第二轨迹的笔画信息;(2)指定与第二轨迹具有预定的位置关系的介质10上的区域;(3)生成表示不与该指定区域重叠的第一轨迹的书写数据;以及(4)输出生成的书写数据。
在第三操作实施例中,代替进行字符识别处理,可以进行用于计算一组笔画的外接多边形的处理。在这种情况下,不需要一组笔画是语言上有意义的单位,而代替地,可以将预定数量的笔画分组并且可以计算针对该组笔画的外接多边形。
数字笔系统1中的功能和硬件元件之间的关系不限于在上述示例性实施例中讨论的那些。数字笔20和信息处理装置30的硬件配置仅为示例性的。在图7中显示的功能元件中的至少一部分可以包括在数字笔20中。备选地,系统包括可以具有对应于图7中示出的功能元件的功能的两个或更多装置(例如,网络上的服务器和客户端)。
通过CPU31执行的程序可以作为存储在存储介质(例如光盘、磁盘、半导体存储器)中的结果而提供,或者可以通过诸如英特网的通信网络下载。该程序可不必包括图8A和8B中显示的所有步骤。
为了进行图示和说明,以上对本发明的示例性实施例进行了描述。其目的并不在于全面详尽地描述本发明或将本发明限定于所公开的具体形式。很显然,对本技术领域的技术人员而言,可以做出许多修改以及变形。本实施例的选择和描述,其目的在于以最佳方式解释本发明的原理及其实际应用,从而使得本技术领域的其他熟练技术人员能够理解本发明的各种实施例,并做出适合特定用途的各种变形。本发明的范围由与本说明书一起提交的权利要求书及其等同物限定。

Claims (9)

1.一种信息处理方法,其特征在于,包括以下步骤:
生成第一轨迹,其代表由数字笔指定的介质上的位置;
获取第二轨迹,其代表由所述数字笔指定的所述介质上的位置并且其满足预定的条件;
获取用于指定所述介质上的区域的信息,所述区域与所述第二轨迹具有预定的位置关系;以及
依据所述区域和所述第一轨迹之间的位置关系擦除所述第一轨迹。
2.根据权利要求1所述的信息处理方法,其中,
在所述获取用于指定所述介质上的区域的信息的步骤中,作为所述预定的位置关系,使用所述区域与所述第二轨迹重叠的条件。
3.根据权利要求1所述的信息处理方法,其中,
在所述获取用于指定所述介质上的区域的信息的步骤中,获取包括在所述区域中的多个副区域;以及
在所述擦除所述第一轨迹的步骤中,针对所述多个副区域中的每一个,依据所述副区域和所述第二轨迹之间的位置关系,擦除以下数据:该数据表示由与所述副区域具有预定的位置关系的所述第一轨迹所代表的至少一部分图像对象。
4.根据权利要求3所述的信息处理方法,其中,
如果所述多个副区域中的第一副区域与所述第二轨迹重叠,在所述擦除所述第一轨迹的步骤中,擦除以下数据:该数据表示由对应于所述第一副区域的所述第一轨迹所代表的一部分图像对象。
5.根据权利要求3所述的信息处理方法,其中,
如果所述多个副区域中的第一副区域与所述第二轨迹重叠,在所述擦除所述第一轨迹的步骤中,擦除以下数据:该数据表示由包括在所述第一副区域中的所述第一轨迹所代表的图像对象。
6.根据权利要求3至5中任一项所述的信息处理方法,其还包括:
依据所述第一轨迹确定所述多个副区域。
7.根据权利要求6所述的信息处理方法,其还包括:
针对所述第一轨迹执行字符识别,
其中,在所述确定所述多个副区域的步骤中,通过使用所述字符识别的结果确定所述多个副区域。
8.一种信息处理装置,其特征在于,包括:
生成器,其依据第一轨迹生成表示图像对象的数据,所述第一轨迹代表由数字笔指定的介质上的位置;
第一获取单元,其获取第二轨迹,所述第二轨迹代表由所述数字笔指定的所述介质上的位置并且其满足预定的条件;
第二获取单元,其获取用于指定所述介质上的区域的信息,所述区域与所述第二轨迹具有预定的位置关系;以及
擦除单元,其依据所述区域和所述第一轨迹之间的位置关系擦除所述第一轨迹。
9.一种信息处理方法,其特征在于,包括以下步骤:
获取第一轨迹和第二轨迹,所述第一轨迹代表由数字笔指定的介质上的位置,所述第二轨迹代表由所述数字笔指定的所述介质上的位置并且其满足预定的条件;
指定所述介质上的区域,所述区域与所述第二轨迹具有预定的位置关系;以及输出表示不与所指定的区域重叠的所述第一轨迹的数据。
CN201710066769.7A 2016-05-31 2017-02-07 信息处理装置和方法 Pending CN107450825A (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2016109383A JP2017215807A (ja) 2016-05-31 2016-05-31 プログラムおよび情報処理装置
JP2016-109383 2016-05-31

Publications (1)

Publication Number Publication Date
CN107450825A true CN107450825A (zh) 2017-12-08

Family

ID=60417851

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201710066769.7A Pending CN107450825A (zh) 2016-05-31 2017-02-07 信息处理装置和方法

Country Status (3)

Country Link
US (1) US20170344137A1 (zh)
JP (1) JP2017215807A (zh)
CN (1) CN107450825A (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109407954A (zh) * 2018-09-11 2019-03-01 宁波思骏科技有限公司 一种书写轨迹的擦除方法和系统
CN109445676A (zh) * 2018-09-11 2019-03-08 宁波思骏科技有限公司 在手写设备上删除用户输入的手写笔画信息的方法

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10990198B2 (en) * 2016-06-30 2021-04-27 Intel Corporation Wireless stylus with grip force expression capability
US10649550B2 (en) 2018-06-26 2020-05-12 Intel Corporation Predictive detection of user intent for stylus use
KR102627698B1 (ko) * 2018-10-01 2024-01-23 삼성전자주식회사 전자 장치, 서버 및 이를 이용한 서명 인증 방법

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07160827A (ja) * 1993-12-09 1995-06-23 Matsushita Electric Ind Co Ltd 手書きストローク編集装置及び方法
JP2004046325A (ja) * 2002-07-09 2004-02-12 Sharp Corp データ入力装置、データ入力プログラムおよびデータ入力プログラムを記録した記録媒体
JP2007102403A (ja) * 2005-10-03 2007-04-19 Dainippon Printing Co Ltd 消去処理装置、プログラム及び電子ペン用帳票
JPWO2005115907A1 (ja) * 2004-05-27 2008-03-27 ニッタ株式会社 エレベータ駆動用ベルト装置
US20140157119A1 (en) * 2012-11-30 2014-06-05 Samsung Electronics Co., Ltd. Apparatus and method for editing memo in user terminal
US20140245120A1 (en) * 2013-02-28 2014-08-28 Ricoh Co., Ltd. Creating Tables with Handwriting Images, Symbolic Representations and Media Images from Forms
CN104238768A (zh) * 2013-06-13 2014-12-24 柯尼卡美能达株式会社 手写输入装置以及控制方法

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6104833A (en) * 1996-01-09 2000-08-15 Fujitsu Limited Pattern recognizing apparatus and method
JP3733984B2 (ja) * 1997-01-29 2006-01-11 富士ゼロックス株式会社 情報蓄積装置および情報蓄積方法
JP4578837B2 (ja) * 2003-09-19 2010-11-10 株式会社リコー 手書き情報入力装置、手書き情報入力方法、プログラム
US20060007189A1 (en) * 2004-07-12 2006-01-12 Gaines George L Iii Forms-based computer interface
US7372993B2 (en) * 2004-07-21 2008-05-13 Hewlett-Packard Development Company, L.P. Gesture recognition
GB0417069D0 (en) * 2004-07-30 2004-09-01 Hewlett Packard Development Co Methods, apparatus and software for validating entries made on a form
US7551779B2 (en) * 2005-03-17 2009-06-23 Microsoft Corporation Word or character boundary-based scratch-out gesture recognition
JP2007241455A (ja) * 2006-03-06 2007-09-20 Fuji Xerox Co Ltd 情報提示システム
JP2007241456A (ja) * 2006-03-06 2007-09-20 Fuji Xerox Co Ltd 情報処理システム、情報処理方法および情報処理プログラム
JP5822677B2 (ja) * 2011-11-24 2015-11-24 インターナショナル・ビジネス・マシーンズ・コーポレーションInternational Business Machines Corporation デジタルペンを用いて手書き可能な物理的媒体上の情報を修正することによって、記憶手段内に格納された情報を修正する方法、並びに、その装置及びコンピュータ・プログラム
JP2014235582A (ja) * 2013-06-03 2014-12-15 コニカミノルタ株式会社 操作制御プログラム及び操作制御方法並びに手書き入力装置
US11402991B2 (en) * 2015-12-01 2022-08-02 Myscript System and method for note taking with gestures
US10082951B2 (en) * 2016-01-07 2018-09-25 Myscript System and method for digital ink interactivity

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07160827A (ja) * 1993-12-09 1995-06-23 Matsushita Electric Ind Co Ltd 手書きストローク編集装置及び方法
JP2004046325A (ja) * 2002-07-09 2004-02-12 Sharp Corp データ入力装置、データ入力プログラムおよびデータ入力プログラムを記録した記録媒体
JPWO2005115907A1 (ja) * 2004-05-27 2008-03-27 ニッタ株式会社 エレベータ駆動用ベルト装置
JP2007102403A (ja) * 2005-10-03 2007-04-19 Dainippon Printing Co Ltd 消去処理装置、プログラム及び電子ペン用帳票
US20140157119A1 (en) * 2012-11-30 2014-06-05 Samsung Electronics Co., Ltd. Apparatus and method for editing memo in user terminal
US20140245120A1 (en) * 2013-02-28 2014-08-28 Ricoh Co., Ltd. Creating Tables with Handwriting Images, Symbolic Representations and Media Images from Forms
CN104238768A (zh) * 2013-06-13 2014-12-24 柯尼卡美能达株式会社 手写输入装置以及控制方法

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109407954A (zh) * 2018-09-11 2019-03-01 宁波思骏科技有限公司 一种书写轨迹的擦除方法和系统
CN109445676A (zh) * 2018-09-11 2019-03-08 宁波思骏科技有限公司 在手写设备上删除用户输入的手写笔画信息的方法
CN109407954B (zh) * 2018-09-11 2022-02-11 宁波思骏科技有限公司 一种书写轨迹的擦除方法和系统
CN109445676B (zh) * 2018-09-11 2022-05-20 宁波思骏科技有限公司 在手写设备上删除用户输入的手写笔画信息的方法

Also Published As

Publication number Publication date
JP2017215807A (ja) 2017-12-07
US20170344137A1 (en) 2017-11-30

Similar Documents

Publication Publication Date Title
CN107450825A (zh) 信息处理装置和方法
CN107463888B (zh) 基于多任务学习与深度学习的人脸情绪分析方法及系统
JP6347158B2 (ja) 表示端末装置、プログラム及び表示方法
US6931153B2 (en) Handwritten character recognition apparatus
CN104331151A (zh) 基于光流法的手势运动方向识别方法
CN109977826B (zh) 物体的类别识别方法和装置
CN102708716A (zh) 一种答题装置及其考试数据处理方法
CN106991711A (zh) 笔迹编辑方法和系统
CN104731446A (zh) 基于提示的斑点修复技术
CN106372609A (zh) 指纹模板更新方法、装置及终端设备
CN105373571A (zh) 用于创建和评估实验的系统和方法
CN110138992A (zh) 收据处理装置、程序的存储介质以及报告的制作方法
JP2018173248A (ja) 情報処理装置、情報処理方法、および情報処理プログラム
CN104573675A (zh) 作业图像的展示方法和装置
CN110582783A (zh) 训练装置、图像识别装置、训练方法和程序
CN106104451B (zh) 终端装置、显示控制方法以及程序
CN113994377A (zh) 自动判别处理装置、自动判别处理方法、检查系统、程序、及记录介质
US20080261195A1 (en) Written examination system and written examination device
CN106104516B (zh) 终端装置、显示控制方法以及程序
CN112651315A (zh) 折线图的信息提取方法、装置、计算机设备和存储介质
JP2019120527A (ja) 情報処理装置、情報処理方法及びプログラム
JP2023501161A (ja) 領域レベルアノテーションのブーストラッピングを使用した画像処理ベースのオブジェクト分類
CN210038810U (zh) 智能评测设备及系统
CN111539390A (zh) 一种基于Yolov3的小目标图像识别方法、设备和系统
JP4894378B2 (ja) 画像処理システムおよび画像処理プログラム

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
CB02 Change of applicant information

Address after: Tokyo, Japan

Applicant after: Fuji film business innovation Co.,Ltd.

Address before: Tokyo, Japan

Applicant before: Fuji Xerox Co.,Ltd.

CB02 Change of applicant information
RJ01 Rejection of invention patent application after publication

Application publication date: 20171208

RJ01 Rejection of invention patent application after publication