CN101727872B - 图像处理装置和图像处理方法 - Google Patents

图像处理装置和图像处理方法 Download PDF

Info

Publication number
CN101727872B
CN101727872B CN2009101375916A CN200910137591A CN101727872B CN 101727872 B CN101727872 B CN 101727872B CN 2009101375916 A CN2009101375916 A CN 2009101375916A CN 200910137591 A CN200910137591 A CN 200910137591A CN 101727872 B CN101727872 B CN 101727872B
Authority
CN
China
Prior art keywords
viewing area
limit
image
detected object
image processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN2009101375916A
Other languages
English (en)
Other versions
CN101727872A (zh
Inventor
上堀幸代
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Business Innovation Corp
Original Assignee
Fuji Xerox Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Xerox Co Ltd filed Critical Fuji Xerox Co Ltd
Publication of CN101727872A publication Critical patent/CN101727872A/zh
Application granted granted Critical
Publication of CN101727872B publication Critical patent/CN101727872B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0485Scrolling or panning

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Image Processing (AREA)
  • User Interface Of Digital Computer (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Processing Or Creating Images (AREA)

Abstract

本发明公开了一种图像处理装置和图像处理方法,所述图像处理装置包括提取单元、检测单元、选择单元以及变更控制单元。所述提取单元提取作为处理对象的图像的第一部分作为显示区域。所述检测单元将所述图像的第二部分设定为检测对象区域,并且检测包括在所述检测对象区域中的图像元素的边界。所述选择单元选择构成所检测到的边界的其中一条边。所述变更控制单元接收变更所述显示区域的指令,并且将所述显示区域变更到所选择的边与所述显示区域的一条边相吻合的位置。

Description

图像处理装置和图像处理方法
技术领域
本发明涉及一种图像处理装置和图像处理方法。
背景技术
日本未经审查已公开的专利申请No.2005-165506披露了这样的文档浏览装置,该文档浏览装置包括:输入单元;存储文档数据的数据存储部分;显示变更控制部分,其对显示在显示单元上的文档的显示状态的变更进行控制;对象区域获取处理部分,其获取文档内的显示对象区域;以及显示区域变更处理部分,其执行显示在显示单元上的显示区域的变更。当通过输入单元指示显示区域的变更时,通过对象区域获取处理部分获取文档内的显示对象区域,显示区域变更处理部分基于所获取的显示对象区域而对显示在显示单元上的文档位置进行变更。这样,通过简单的显示区域变更指示操作,从而可以依次地在显示单元上显示显示对象区域。
发明内容
本发明的目的是提供这样一种图像处理装置和图像处理方法:当待显示的图像大于显示装置的屏幕时,与不考虑图像元素的边界而变更显示区域的情况相比,该图像处理装置和图像处理方法可以变更显示区域以使得在显示区域中包括大于该显示区域的图像元素的更多部分。
[1]根据本发明的一方面,提供一种图像处理装置,其包括提取单元、检测单元、选择单元以及变更控制单元。所述提取单元提取作为处理对象的图像的第一部分作为显示区域。所述检测单元将所述图像的第二部分设定为检测对象区域,并且检测包括在所述检测对象区域中的图像元素的边界。所述选择单元选择构成所检测到的边界的其中一条边(所述选择单元选择构成所检测到的边界的边中之一)。所述变更控制单元接收变更所述显示区域的指令,并且将所述显示区域变更到所选择的边与所述显示区域的一条边相吻合的位置。
根据第[1]项所述的构造,与不考虑图像元素的边界而变更所述显示区域的情况相比,可以变更所述显示区域以使得在所述显示区域中包括大于该显示区域的图像元素的更多部分。
[2]在根据第[1]项所述的图像处理装置中,所述检测单元可将处于所述显示区域中的所述图像的所述第二部分设定为所述检测对象区域。
[3]在根据第[1]项所述的图像处理装置中,所述检测单元可将处于所述显示区域外部的所述图像的所述第二部分设定为所述检测对象区域。
根据第[2]或[3]项所述的构造,与不考虑图像元素的边界而变更所述显示区域的情况相比,可以变更所述显示区域以使得在所述显示区域中保留大于该显示区域的图像元素的更多部分。
[4]在根据第[1]至[3]项中任一项所述的图像处理装置中,当作为所述处理对象的所述图像包括含有多个字符的多个图像元素时,所述选择单元可根据优先级选择所述其中一条边,其中基于所述字符的读取方向针对构成所述图像元素的边界的各边预先确定所述优先级。
根据第[4]项所述的构造,当检测多个图像元素的边界时,根据与字符的读取方向相关的优先级选择所述其中一条边。从而,与不进行此处理的情况相比,可以变更所述显示区域以使得在所述显示区域中包括更多待读取的字符。
[5]在根据第[1]至[3]项中任一项所述的图像处理装置中,当作为所述处理对象的所述图像包括含有多个字符的多个图像元素时,所述选择单元可以这样的方式选择所述其中一条边:将与其他边相比靠近先于其他字符被读取的字符的边设为优先选择对象。
根据第[5]项所述的构造,当由于变更所述显示区域而在所述显示区域中包括新的图像元素时,与没有将靠近先于其他字符被读取的字符的边设为优先选择对象的情况相比,可以增大所述新的图像元素中所包括的字符之中将要先被读取的字符被包括在所述显示区域中的比例。
[6]根据本发明的另一方面,提供一种图像处理方法,包括:提取作为处理对象的图像的第一部分作为显示区域;将所述图像的第二部分设定为检测对象区域;检测包括在所述检测对象区域中的图像元素的边界;选择构成所检测到的边界的其中一条边;接收变更所述显示区域的指示;以及将所述显示区域变更到所选择的边与所述显示区域的一条边相吻合的位置。
根据第[6]项所述的方法,与不考虑图像元素的边界而变更所述显示区域的情况相比,可以变更所述显示区域以使得在所述显示区域中包括大于该显示区域的图像元素的更多部分。
[7]在根据第[6]项所述的图像处理方法中,所述设定步骤可将所述图像处于所述显示区域中的所述第二部分设定为所述检测对象区域。
[8]在根据第[6]项所述的图像处理方法中,所述设定步骤可将所述图像处于所述显示区域外部的所述第二部分设定为所述检测对象区域。
根据第[7]或[8]项所述的方法,与不考虑图像元素的边界而变更所述显示区域的情况相比,可以变更所述显示区域以使得在所述显示区域中保留大于该显示区域的图像元素的更多部分。
[9]在根据第[6]至[8]项中任一项所述的图像处理方法中,当作为所述处理对象的所述图像包括含有多个字符的多个图像元素时,所述选择步骤可根据优先级选择所述其中一条边,其中基于所述字符的读取方向针对构成所述图像元素的边界的各边预先确定所述优先级。
根据第[9]项所述的方法,当检测多个图像元素的边界时,根据与字符的读取方向相关的优先级选择所述其中一条边。从而,与不进行此处理的情况相比,可以变更所述显示区域以使得在所述显示区域中包括更多待读取的字符。
[10]在根据第[6]至[8]项中任一项所述的图像处理方法中,当作为所述处理对象的所述图像包括含有多个字符的多个图像元素时,所述选择步骤可以这样的方式选择所述其中一条边:将与其他边相比靠近先于其他字符被读取的字符的边设为优先选择对象。
根据第[10]项所述的方法,当由于变更所述显示区域而在所述显示区域中包括新的图像元素时,与没有将靠近先于其他字符被读取的字符的边设为优先选择对象的情况相比,可以增大所述新的图像元素中所包括的字符之中将要先被读取的字符包括在所述显示区域中的比例。
附图说明
将基于以下附图详细说明本发明的示例性实施例,其中:
图1为示出根据本发明示例性实施例的图像处理装置的实例的构造框图;
图2为示出根据本发明示例性实施例的图像处理装置的实例的功能框图;
图3A至3C为示出由根据本发明示例性实施例的图像处理装置确定的检测对象区域的实例的说明图;
图4为示出根据本发明示例性实施例的图像处理装置所处理的图像(处理对象)的实例的说明图;
图5A和5B为示出由根据本发明示例性实施例的图像处理装置生成的边信息的实例的说明图;
图6为示出由根据本发明示例性实施例的图像处理装置生成的边信息的概要的说明图;
图7为示出由根据本发明示例性实施例的图像处理装置确定的检测对象区域的另一实例的说明图;
图8A和8B为示出根据本发明示例性实施例的图像处理装置的处理实例的流程图;
图9为示出用于说明根据本发明示例性实施例的图像处理装置的操作实例的图像的实例的说明图;
图10为示出根据本发明示例性实施例的图像处理装置的操作实例的说明图;
图11为示出根据本发明示例性实施例的图像处理装置的图像显示实例的说明图;
图12为示出根据本发明示例性实施例的图像处理装置的操作实例的另一说明图;以及
图13为表示根据本发明示例性实施例的图像处理装置的另一操作实例的说明图。
具体实施方式
将参考附图说明本发明的示例性实施例。如图1所例示,根据本示例性实施例的图像处理装置1基本构造为包括控制部分11、存储部分12、操作部分13以及显示部分14。
控制部分11为诸如CPU(中央处理单元)等的程序控制装置,并且根据存储在存储部分12中的程序来操作。此控制部分11提取图像的一部分作为显示区域,其中该图像的一部分为显示处理对象且为具有可在显示部分14上显示的尺寸的区域。另外,此控制部分11接收变更显示区域的指示并且移动显示区域。在本示例性实施例的一个实例中,控制部分11检测包括在显示处理对象的图像中的图像元素的边界作为移动对象并且移动该显示区域以使得移动对象与显示区域中的预定位置吻合。后面将说明此控制部分11的具体处理。
存储部分12存储由控制部分11执行的程序。可以这样的形式提供程序:即,将程序存储在诸如CD-ROM(光盘-只读存储器)或DVD-ROM(数字通用光盘-只读存储器)等计算机可读记录介质中,然后可将该程序复制到存储部分12中。
诸如键盘等的操作部分13从用户处接收将显示区域变更到上侧、下侧、左侧或右侧的指示并且将该指示输出到控制部分11。诸如显示装置等的显示部分14根据从控制部分11输入的指示显示图像的至少一部分。
根据本示例性实施例的控制部分11执行存储在存储部分12中的程序。如图2所示,控制部分11构造为包括预处理部分21、检测对象区域划定部分22、边界检测部分23、移动对象设定部分24、显示区域变更部分25、显示区域提取部分26以及显示处理部分27作为功能部分。
预处理部分21获取与字符串区域中的读取方向有关的信息。这里,例如可以通过接收用户的指定,或者通过基于包括在字符串区域中的字符的种类来判定所使用的语言并且获取预先与被获取为判定结果的所使用语言信息相关联的读取方向有关的信息从而获取读取方向。例如基于每行中的字符的排列方向(“从左侧向右侧”)和各行的排列方向(“从上侧向下侧”)来设定该读取方向。
检测对象区域划定部分22从用户处接收与显示区域的移动方向相关的指示,并且基于所指示的移动方向划定位于处理对象的图像的当前显示区域内部或围绕显示区域的外周的至少一个检测对象区域。这里,当在显示区域的内部划定检测对象区域时,检测对象区域划定部分22无需将整个显示区域设定为检测对象区域,并且可以基于所指示的移动方向将显示区域的一部分划定为检测对象区域。
例如,当显示区域为由左上坐标(x,y)至右下坐标(x+w,y+h)表示的矩形区域时,检测对象区域划定部分22从存储部分12等中获取预先确定的对应于宽度方向的检测对象区域比率rx和对应于高度方向的检测对象区域比率ry。然后,根据移动显示区域的指示,检测对象区域划定部分22基于移动方向划定检测对象区域。
作为实例,当指示向左侧或右侧移动时,如图3A所示,检测对象区域划定部分22将由左上坐标(x,y+(1-ry)×h/2)和右下坐标(x+w,y+(1+ry)×h/2)表示的矩形区域(在下文中称为“区域Ix”)划定为检测对象区域。
另外,当指示向上侧或下侧移动时,如图3B所示,检测对象区域划定部分22将由左上坐标(x+(1-rx)×w/2,y)和右下坐标(x+(1+rx)×w/2,y+h)表示的矩形区域(在下文中称为“区域Iy”)划定为检测对象区域。
另外,检测对象区域划定部分22可构造成划定位于显示区域外部的检测对象区域。在这种情况下,检测对象区域划定部分22围绕显示区域的外周划定检测对象区域,即矩形区域(x-w,y-h)至(x+w,y+h),以使得移动前的显示区域和移动后的显示区域至少彼此部分重叠。具体而言,如图3C所例示,当指示向右侧移动时,检测对象区域划定部分22可构造成将(x+w+Δx,y+(1-ry)×h/2)至(x+2w,y+(1+ry)×h/2)的区域(在下文中称为“区域IIxr”)划定为检测对象区域。
另一方面,如图3C所示,当指示向左侧移动时,检测对象区域划定部分22可构造成将(x-w,y+(1-ry)×h/2)至(x-Δx,y+(1+ry)×h/2)的区域(在下文中称为“区域IIx1”)划定为检测对象区域。
边界检测部分23检测包括在处理对象的图像中的图像元素的边界。这里,以如下方式确定图像元素的边界。也就是说,如图4所示,根据本示例性实施例的图像处理装置1所处理的图像(显示处理对象)通常构造为包括诸如字符串区域、图形区域以及线条画区域等多个图像元素。
这样,边界检测部分23利用下述方法检测每个区域的外接矩形。例如,将处理对象的图像二值化,检测包括连续黑色像素的区域,并且检测外接连续黑色像素区域的外接矩形。另外,在外接矩形彼此部分重叠的情况下或者在基于连续黑色像素的尺寸等推定其构成字符的情况下,如果两个外接矩形之间的距离处于预定距离之内,则检测外接两个彼此重叠的外接矩形或两个相邻外接矩形的另外的外接矩形。作为上述检测外接矩形的方法,例如可以使用在布局处理等中公知的方法。于是,这里省略其详细说明。
如图5A所例示,边界检测部分23将构成所检测到的外接矩形的各边的线段设定为边界,并且将与表示每个边界的线段有关的信息(例如线段两端的坐标信息)存储在存储部分12中。注意到,x2、y2、x3、y3、x4以及y4对应于如上所述划定的检测对象区域的两端的坐标信息。此外,(x2,y2)可表示矩形的左上角的坐标,而(x3,y3)可表示矩形的右下角的坐标。
移动对象设定部分24从边界检测部分23所检测到的边界中提取包括在由检测对象区域划定部分22划定的区域中的边界。这里,当存在多个所提取的边界时,移动对象设定部分24根据预定条件(例如,诸如移动量为最小等与移动量有关的条件)将多个所提取的边界中之一设定为移动对象。
显示区域变更部分25获取由移动对象设定部分24设定的移动对象的边界信息。然后,基于边界信息和来自用户的关于移动方向的指示将显示区域变更到移动对象的边界与显示区域的一边相吻合的位置。例如,假定用户输入的移动方向为左侧或右侧,由移动对象设定部分24设定为移动对象的边界线的X坐标为ξ,变更前的显示区域的左上角的坐标为(x,y),而变更后的显示区域的左上角的坐标为(x’,y’)。在这种情况下,显示区域变更部分25将显示区域变更为(x’,y’)=(ξ,y)(对应于移动对象与显示区域的左边相吻合的情况)或(x’,y’)=(ξ-w,y)(对应于移动对象与显示区域的右边相吻合的情况)。这里,w表示显示区域的宽度。
另外,可以基于其中检测到移动对象的边界的检测对象区域来判断移动对象是否与显示区域的左角或右角相吻合,如下所述:
(1)当指示向右侧移动时,从在显示区域中划定的检测对象区域中找到的移动对象与显示区域的左边相吻合。
(2)当指示向右侧移动时,从在显示区域的外部划定的检测对象区域中找到的移动对象与显示区域的右边相吻合。
(3)当指示向左侧移动时,从在显示区域中划定的检测对象区域中找到的移动对象与显示区域的右边相吻合。
(4)当指示向左侧移动时,从在显示区域的外部划定的检测对象区域中找到的移动对象与显示区域的左边相吻合。
这些也适用于向上侧或下侧移动的情况(“左侧”改述为“上侧”,“右侧”改述为“下侧”)。
显示区域提取部分26从显示处理对象的图像中提取包括在被设定为显示区域的区域中的图像的一部分并且将该一部分输出到显示处理部分27。最初,例如可将显示区域的左上角的坐标(x,y)设定为与该图像的左上角的坐标(0,0)相吻合。显示处理部分27将由显示区域提取部分26提取的图像输出到显示部分14以供显示。
[边的优先级]
如下所述,可以基于边与处理对象的图像的外周之间的距离和字符串的读取方向来确定构成图像元素的边界的边的优先级。作为实例,边界检测部分23确定所检测到的边的优先级如下。
边界检测部分23选择所检测到的其中一条边作为关注边。然后,边界检测部分23判断关注边对应于作为图像元素边界的外接矩形的左边、上边、右边以及下边中的哪一条边。另外,边界检测部分23参考由预处理部分21检测到的字符串的读取方向将靠近先被读取的字符的边(当从左侧向右侧和从上侧向下侧读取字符串时的左边和上边)初始设定为优先级“2”。边界检测部分23将其他边初始设定为优先级“3”。
接下来,边界检测部分23检查关注边沿着X轴方向与Y轴方向之间的哪个方向延伸。这可以通过比较关注边的两端的坐标来进行检查。当关注边沿着X轴方向延伸时,也就是说,例如关注边为具有端点(Xa,Y)和(Xb,Y)的线段,则检查是否Y<H/2。这里,H表示处理对象的图像沿着竖直方向的高度。
这里,如果Y<H/2,则假想地划定具有左上角(Xa,0)和右下角(Xb,Y)的矩形,并且检查是否有任何其他线段的至少一部分包括在该假想划定的矩形中。如果不包括其他线段的任何部分,则判定关注边为最靠近图像外周的线段,因此将关注边的优先级设定为“1”。
另一方面,如果Y≥H/2,则假想地划定具有左上角(Xa,Y)和右下角(Xb,H)的矩形,并且检查是否有任何其他线段的至少一部分包括在该假想划定的矩形中。如果不包括其他线段的任何部分,则判定关注边为最靠近图像外周的线段,因此将关注边的优先级设定为“1”。
类似地,如果关注边沿着Y轴方向延伸,也就是说,例如关注边为具有端点(X,Ya)和(X,Yb)的线段,则检查是否X<W/2。这里,W表示处理对象的图像沿着竖直方向的高度。
如果X<W/2,则假想地划定具有左上角(0,Ya)和右下角(X,Yb)的矩形,并且检查是否有任何其他线段的至少一部分包括在该假想划定的矩形中。这里,如果不包括其他线段的任何部分,则判定关注边为最靠近图像外周的线段,因此将关注边的优先级设定为“1”。另一方面,如果X≥W/2,则假想地划定具有左上角(X,Ya)和右下角(W,Yb)的矩形,并且检查是否有任何其他线段的至少一部分包括在该假想划定的矩形中。这里,如果不包括其他线段的任何部分,则判定关注边为最靠近图像外周的线段,因此将关注边的优先级设定为“1”。
边界检测部分23使得每条边的优先级信息与表示边的两端坐标的信息相关联从而将如上确定的每条边的优先级信息存储在存储部分12中(图5B)。作为一个实例,图6示出了针对图4中所示的图像设定每条边的优先级信息的实例。在图6中,最靠近图像外周的每条边具有优先级“1”(由图中的实线表示),除了具有优先级“1”的边之外的且鉴于读取方向位于先被读取的字符所布置的左侧或上侧的边具有优先级“2”(由图中的虚线表示),并且剩余的边具有优先级“3”(由图中的点划线表示)。
如上所述,当对各边分配优先级时,检测对象区域划定部分22可构造成基于优先级来划定检测对象区域。在本实例中,检测对象区域划定部分22接收对待搜索的边的优先级的指定,然后划定检测对象区域。
在下文中,将说明划定检测对象区域的实例。在下述实例中,假定在每行中从左侧向右侧排列字符串,并且从上侧向下侧排列各行。
[搜索优先级“1”的检测对象区域的划定]
当对具有优先级“1”的边划定检测对象区域时,检测对象区域划定部分22根据所指示的移动方向划定不同的检测对象区域。
具体而言,当指示向右侧移动时,检测对象区域划定部分22将图3A所示的区域Ix或图3C所示的区域IIxr划定为检测对象区域。另一方面,当指示向左侧移动时,检测对象区域划定部分22划定图3A所示的区域Ix。当指示向左侧移动时,检测对象区域划定部分22可连同图3A所示的区域Ix一起划定区域IIx1。
另外,当指示向上侧移动时,检测对象区域划定部分22划定图3B所示的区域Iy。当指示向上侧移动时,检测对象区域划定部分22可连同区域Iy一起划定区域IIyu。另一方面,当指示向下侧移动时,检测对象区域划定部分22划定图3B所示的区域Iy和图7所示的区域IIyd。
[搜索优先级“2”的检测对象区域的划定]
当对具有优先级“2”的边划定检测对象区域时,检测对象区域划定部分22根据所指示的移动方向划定不同的检测对象区域。
具体而言,当指示向右侧移动时,检测对象区域划定部分22划定图3C所示的区域IIIx。区域IIIx位于显示区域中且为处于(x+Δx,y+(1-ry)×h/2)到(x+w,y+(1+ry)×h/2)的坐标范围内的区域。
另外,当指示向左侧移动时,检测对象区域划定部分22划定图3C所示的区域IIx1。
另外,当指示向上侧移动时,检测对象区域划定部分22划定图7所示的检测对象区域IIyu。另一方面,当指示向下侧移动时,检测对象区域划定部分22划定图7所示的检测对象区域IIIy和检测对象区域IIyd。
[搜索优先级“3”的检测对象区域的划定]
当对具有优先级“3”的边划定检测对象区域时,检测对象区域划定部分22根据所指示的移动方向划定不同的检测对象区域。
具体而言,当指示向右侧移动时,检测对象区域划定部分22划定图3C所示的区域IIxr。另一方面,当指示向左侧移动时,检测对象区域划定部分22划定图7所示的检测对象区域IIyd。在对具有优先级“3”的边划定检测对象区域的情况下,当指示向左侧或上侧移动时,不划定检测对象区域。
总结上述说明,如下表所示对每个移动方向进行划定检测对象区域的处理。
[表1]
Figure G2009101375916D00121
如此表所示,根据本示例性实施例的图像处理装置1可以从位于表中左侧的检测对象区域按照顺序依次划定各检测对象区域,并且进行检测作为移动对象的边的处理。在这种情况下,即使对于具有相同优先级“1”的边,也优先地检测包括在当前显示区域中的边。
[移动对象设定部分的操作]
当对每条边确定优先级时,移动对象设定部分24操作如下。
移动对象设定部分24接收由用户输入的移动方向,开始图8A和8B所例示的处理,并且将根据移动指示的移动方向的相关信息和表示将要划定具有优先级“1”的检测对象区域的信息输出到检测对象区域划定部分22,以划定具有优先级“1”的检测对象区域(S1)。
移动对象设定部分24列出具有优先级“1”且包括在所划定的检测对象区域中的边的信息(S2)。然后,移动对象设定部分24检查所列出的边的数量是否等于“0”(是否存在具有优先级“1”且包括在所划定的检测对象区域中的至少一条边)(S3)。如果边的数量不等于“0”,则参考所列出的边的信息和当前显示区域的信息计算在使得显示区域的端部与各边相吻合的情况下的显示区域的移动量(S4)。然后,将使得所计算的移动量最小的边的信息输出到显示区域变更部分25(S5),并且处理结束。
另一方面,如果在S3的处理中列出的边的数量等于“0”(如果不存在具有优先级“1”且包括在所划定的检测对象区域中的边),则移动对象设定部分24将表示将要划定具有优先级“2”的检测对象区域的信息输出到检测对象区域划定部分22,以划定具有优先级“2”的检测对象区域(S6)。
移动对象设定部分24列出具有优先级“2”且包括在所划定的检测对象区域中的边的信息(S7)。然后,移动对象设定部分24检查所列出的边的数量是否等于“0”(是否存在具有优先级“2”且包括在所划定的检测对象区域中的至少一条边)(S8)。如果边的数量不等于“0”,则流程转入S4的处理以继续处理。
另一方面,如果在S8的处理中列出的边的数量等于“0”(如果不存在具有优先级“2”且包括在所划定的检测对象区域中的边),则移动对象设定部分24将表示将要划定具有优先级“3”的检测对象区域的信息输出到检测对象区域划定部分22,以划定具有优先级“3”的检测对象区域(S9)。
移动对象设定部分24列出具有优先级“3”且包括在所划定的检测对象区域中的边的信息(S10)。然后,移动对象设定部分24检查所列出的边的数量是否等于“0”(是否存在具有优先级“3”且包括在所划定的检测对象区域中的至少一条边)(S11)。如果边的数量不等于“0”,则流程转入S4的处理以继续处理。
另外,在S11的处理中,如果所列出的边的数量等于“0”(如果不存在具有优先级“3”且包括在所划定的检测对象区域中的边),则将显示区域的移动量设定为预定值(S12),将从用户输入的移动方向的信息和所设定的移动量的信息输出到显示区域变更单元25,并且沿着所指示的移动方向以预定移动量变更显示区域(S13),并且处理结束。
另外,在上述处理中,作为针对具有优先级“1”的边的检测对象区域,总是包括区域Ix和区域Iy(包括在显示区域中的检测对象区域)。然而,可仅当显示区域位于处理对象的图像的端部时(例如,与被指定为移动方向的方向相反的端;具体而言,当指示向右侧移动时为左端)区域Ix和Iy才包括在检测对象区域中;否则,可以包括区域IIIx或IIIy以代替Ix或Iy。这是基于当显示区域位于图像的端部时具有优先级“1”的边通常包括在区域Ix或区域Iy中。
在S4的处理中以如下方式计算移动量。
(1)当指示向右侧移动时,对于从在显示区域中划定的检测对象区域(区域Ix或IIIx)中找到的移动对象,为了与显示区域的左边吻合,将所找到的移动对象的边的x坐标Xtarget与当前显示区域的左边的x坐标XLcurrent之差的绝对值即|Xtarget-XLcurrent|计算为移动量。
(2)类似地,当指示向右侧移动时,对于从在显示区域外部划定的检测对象区域(区域IIxr)中找到的移动对象,为了与显示区域的右边吻合,将所找到的移动对象的边的x坐标Xtarget与当前显示区域的右边的x坐标XRcurrent之差的绝对值即|Xtarget-XRcurrent|计算为移动量。
(3)当指示向左侧移动时,对于从在显示区域中划定的检测对象区域中找到的移动对象,为了与显示区域的右边吻合,将所找到的移动对象的边的x坐标Xtarget与当前显示区域的右边的x坐标XRcurrent之差的绝对值即|Xtarget-XRcurrent|计算为移动量。
(4)当指示向左侧移动时,对于从在显示区域外部划定的检测对象区域中找到的移动对象,为了与显示区域的左边吻合,将所找到的移动对象的边的x坐标Xtarget与当前显示区域的右边的x坐标XRcurrent之差的绝对值即|Xtarget-XRcurrent|计算为移动量。
类似地,对于向上侧或下侧的移动,以如下方式计算移动量。
(1)当指示向下侧移动时,对于从在显示区域中划定的检测对象区域(区域Iy或IIIy)中找到的移动对象,为了与显示区域的上边吻合,将所找到的移动对象的边的y坐标Ytarget与当前显示区域的上边的y坐标YUcurrent之差的绝对值即|Ytarget-YUcurrent|计算为移动量。
(2)当指示向下侧移动时,对于从在显示区域外部划定的检测对象区域(区域IIyd)中找到的移动对象,为了与显示区域的下边吻合,将所找到的移动对象的边的y坐标Ytarget与当前显示区域的下边的y坐标YDcurrent之差的绝对值即|Ytarget-YDcurrent|计算为移动量。
(3)当指示向上侧移动时,对于从在显示区域中划定的检测对象区域中找到的移动对象,为了与显示区域的下边吻合,将所找到的移动对象的边的y坐标Ytarget与当前显示区域的下边的y坐标YDcurrent之差的绝对值即|Ytarget-YDcurrent|计算为移动量。
(4)当指示向上侧移动时,对于从在显示区域外部划定的检测对象区域中找到的移动对象,为了与显示区域的上边吻合,将所找到的移动对象的边的y坐标Ytarget与当前显示区域的上边的y坐标YUcurrent之差的绝对值即|Ytarget-YUcurrent|计算为移动量。
另外,在上述说明中,已经说明了在一行中从左侧向右侧排列且以行为单位从上侧向下侧排列字符串的排列方向(读取方向)的实例。然而,如果读取方向不同,则可以用靠近先被读取的字符的一侧替代“左侧”或“上侧”,并且可以用较靠近后被读取的字符的一侧替代“右侧”或“下侧”。
如上述构造的根据本示例性实施例的图像处理装置1以如下所例示的方式操作。在下面的实例中,将说明显示处理对象为图9所例示图像的情况。在图9的实例中,在一行中从左侧向右侧排列且以行为单位从上侧向下侧排列字符串。另外,在图9中,由外接矩形表示每个图像元素的边界。此外,图9示出了对每个边界的边分配优先级的状态。换句话说,由实线表示具有优先级“1”的边,由虚线表示具有优先级“2”的边,并且由点划线表示具有优先级“3”的边。
根据本示例性实施例的图像处理装置1接收图9中所例示的图像作为处理对象,并且初始在图像的左上角设定与显示部分14的像素数(沿宽度方向为w个像素,沿高度方向为h个像素)相同的显示区域(具有宽度w和高度h的区域)(图10中的R1)。然后,在显示部分14上显示图像在该显示区域R1中的部分。这里,当用户进行向右侧移动显示区域的操作时,在显示区域R1中所设定的检测对象区域Rs1(R1中的区域Ix)包括图像元素的外接矩形Q1和Q2的具有优先级“1”的边。
进行向右侧移动的操作,并且图像处理装置1基于从在显示区域中划定的检测对象区域中找到的边设定移动对象。因此,图像处理装置1使显示区域的左边与移动对象吻合,然后比较(i)显示区域R1的左边与作为移动对象的一个候补者的外接矩形Q1的左边之间的距离r1和(ii)显示区域R1的左边与作为移动对象的另一候补者的外接矩形Q2的左边之间的距离r2。然后,由于距离r1短于距离r2,因此图像处理装置1将显示区域的左边与外接矩形Q1的左边吻合。从而,图像处理装置1将显示区域移动到R2。然后,在显示部分14上显示图像在该显示区域R2中的部分。
结果,如图11所示,在显示部分14上显示的内容从显示区域R1的显示内容变成显示区域R2的显示内容(S111)。此外,之后,每次指示向右侧移动时(在仅当显示区域位于图像的端部时才划定区域Ix的情况下),划定检测对象区域,并且搜索具有优先级“1”至“3”的边。例如,在显示区域R2中,在区域Ix中找到外接矩形Q4的具有优先级“1”的边(左边),然后向右侧移动显示区域直至显示区域的左边与外接矩形Q2的左边吻合为止(S112)。这里,当进一步指示向右侧移动时,类似地,在区域Ix中找到外接矩形Q4的具有优先级“2”的边(左边),然后向右侧移动显示区域直至显示区域的左边与外接矩形Q4的左边吻合为止(图中未示出)。
当进一步指示向右侧移动时,在检测对象区域IIxr中找到外接位于图10所示图像最上部的箭头图像的矩形的左边R(具有优先级“1”),然后向右侧移动显示区域直至显示区域的左边与左边R吻合为止(图11的S113)。
另外,当显示区域位于图10所示的R3中且进行向右侧移动的操作时,图像处理装置1划定检测对象区域Rs2(对应于R3的区域IIxr)(在仅当显示区域位于图像的端部时才划定区域Ix的情况下)以搜索具有优先级“1”的边。然而,对于显示区域R3而言,没有具有优先级“1”的边包括在检测对象区域Rs2中,并且没有具有优先级“2”的边包括在区域IIIx(图中未示出)中。从而,从检测对象区域Rs2中搜索具有优先级“3”的边。
然后,图像处理装置1找到外接矩形Q3的右边(具有优先级“3”的边)。换句话说,当指示向右侧移动时,使显示区域的边与从显示区域的外部找到的边相吻合。因此,显示区域的右边与外接矩形Q3的右边相吻合,并且显示区域移动到显示区域R4。然后,在显示部分14上显示图像在该显示区域R4中的部分。
另外,当显示区域位于图12所示的R5中且进行向上侧移动的操作时,具有优先级“2”的边包括在检测对象区域Rs3中。从而,将显示区域的上边与具有优先级“2”的边吻合,图像处理装置1将显示区域移动到R6。然后,在显示部分14上显示图像在该显示区域R6中的部分。
类似地,当显示图像在显示区域R7中的部分且进行向下侧移动的操作时,在对应于R7的检测对象区域IIIy中找到Q5的具有优先级“2”的边。从而,为了使显示区域的上边与Q5的上边吻合,移动显示区域(移动之后的显示区域R8)。然后,在显示部分14上显示图像在该显示区域R8之内的部分。
[变型例]
此外,当显示区域位于作为显示处理对象的图像的右端且进行指示向右侧移动的操作时,显示区域可以返回到图像的左端且向下侧移动预定的移动量。在这种情况下,通过反复进行向右侧的移动操作,显示区域按照扫描线的顺序移动(从左侧向右侧移动一行,然后移动到位于前一行的下侧的下一行的左端)。
另外,不用反复接收来自用户的操作,图像处理装置可假定在每个预定时刻接收向右侧的移动操作来进行处理。
在上述说明中,假定例如通过按压键等进行移动指示的操作。然而,也可以通过例如在安装在显示部分14上的触摸面板等上检测笔、手指等的接触来接收移动指示的操作。另外,当操作部分13可以检测例如在触摸面板等上的按压强度时,可以根据所检测到的强度变更检测对象区域的位置或尺寸。例如,随着按压强度的增加,检测对象区域的面积可以更大等。
另外,这里,确定具有与显示部分14的像素数相对应的尺寸的显示区域。然而,可以设定放大/缩小比率r,并且可将显示区域的尺寸设定为具有相对于显示部分14的像素数(宽度w和高度h)的宽度[r·w]和高度[r·h]。这里,[*]表示不超过包括在方括号中的数值的最大整数或最接近该数值的整数。
另外,可根据包括在下述外接矩形中的图像元素的尺寸在每次移动显示区域时确定该放大/缩小比率r,其中该外接矩形包括变为移动对象的边。
[显示区域的显示]
在本示例性实施例中,可以根据用户的指示显示整个图像和在图像中设定的显示区域的外周线(图13),根据用户移动显示区域的操作进行移动显示区域的处理,并且可以重新绘制表示目的地显示区域的外周线(S21)。在这种情况下,当用户指示以放大的比例显示由外周线表示的显示区域时,可在显示部分14上显示由外周线围绕的显示区域中的图像(S22)。
[由服务器实现的实例]
在上述说明中,已经说明了图像处理装置1包括操作部分13和显示部分14的实例。然而,本发明不限于此。例如,根据本示例性实施例的图像处理装置1可构造成包括图中未示出的通信部分。在这种情况下,可以从具有操作部分和显示部分的便携式电话、终端等(在下文中称为终端侧装置)接收用户的指示操作,进行变更显示区域的处理,并且将表示变更之后的显示区域的信息发送到终端侧装置。
在这种情况下,根据本示例性实施例的图像处理装置1例如将作为处理对象的图像信息发送到终端侧装置。另外,可以发送表示显示区域的信息,并且提取显示区域中的图像以由终端侧装置显示(不进行如同显示区域提取部分26和显示处理部分27的处理)。
另外,作为另一示例性实施例,可不必在终端侧装置中保持作为处理对象的全部图像信息。换句话说,在本示例性实施例中,根据本示例性实施例的图像处理装置1根据从终端侧装置接收到的指示生成表示显示区域的信息,并且从作为处理对象的图像信息中提取基于所生成的信息而确定的显示区域中的图像。然后,将所提取的图像发送到终端侧装置以供显示(不进行如同显示处理部分27的处理,并且将所提取的图像的一部分发送到终端侧装置)。

Claims (8)

1.一种图像处理装置,包括:
提取单元,其提取作为处理对象的图像的第一部分作为显示区域;
检测单元,其将处于所述显示区域中或所述显示区域外部的所述图像的第二部分设定为检测对象区域,并且检测包括在所述检测对象区域中的图像元素的边界;
选择单元,其选择构成所检测到的边界的其中一条边;以及
变更控制单元,其接收变更所述显示区域的指示,并且将所述显示区域变更到所选择的边与所述显示区域的一条边相吻合的位置。
2.根据权利要求1所述的图像处理装置,其中,
当作为所述处理对象的所述图像包括含有多个字符的多个图像元素时,所述选择单元根据优先级选择所述其中一条边,其中基于所述字符的读取方向针对构成所述图像元素的边界的各边预先确定所述优先级。
3.根据权利要求1所述的图像处理装置,其中,
当作为所述处理对象的所述图像包括含有多个字符的多个图像元素时,所述选择单元以这样的方式选择所述其中一条边:将与其他边相比靠近先于其他字符被读取的字符的边设为优先选择对象。
4.一种图像处理方法,包括:
提取作为处理对象的图像的第一部分作为显示区域;
将所述图像的第二部分设定为检测对象区域;
检测包括在所述检测对象区域中的图像元素的边界;
选择构成所检测到的边界的其中一条边;
接收变更所述显示区域的指示;以及
将所述显示区域变更到所选择的边与所述显示区域的一条边相吻合的位置。
5.根据权利要求4所述的图像处理方法,其中,
所述设定步骤将所述图像处于所述显示区域中的所述第二部分设定为所述检测对象区域。
6.根据权利要求4所述的图像处理方法,其中,
所述设定步骤将所述图像处于所述显示区域外部的所述第二部分设定为所述检测对象区域。
7.根据权利要求4至6中任一项所述的图像处理方法,其中,
当作为所述处理对象的所述图像包括含有多个字符的多个图像元素时,所述选择步骤根据优先级选择所述其中一条边,其中基于所述字符的读取方向针对构成所述图像元素的边界的各边预先确定所述优先级。
8.根据权利要求4至6中任一项所述的图像处理方法,其中,
当作为所述处理对象的所述图像包括含有多个字符的多个图像元素时,所述选择步骤以这样的方式选择所述其中一条边:将与其他边相比靠近先于其他字符被读取的字符的边设为优先选择对象。
CN2009101375916A 2008-10-31 2009-05-18 图像处理装置和图像处理方法 Active CN101727872B (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2008281982A JP4737270B2 (ja) 2008-10-31 2008-10-31 画像処理装置及びプログラム
JP2008-281982 2008-10-31

Publications (2)

Publication Number Publication Date
CN101727872A CN101727872A (zh) 2010-06-09
CN101727872B true CN101727872B (zh) 2013-11-20

Family

ID=42131482

Family Applications (1)

Application Number Title Priority Date Filing Date
CN2009101375916A Active CN101727872B (zh) 2008-10-31 2009-05-18 图像处理装置和图像处理方法

Country Status (3)

Country Link
US (1) US8411933B2 (zh)
JP (1) JP4737270B2 (zh)
CN (1) CN101727872B (zh)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5885398B2 (ja) 2011-05-20 2016-03-15 キヤノン株式会社 画像処理装置、画像処理方法
WO2014046039A1 (ja) * 2012-09-19 2014-03-27 富士フイルム株式会社 撮像装置及び合焦確認表示方法
WO2014132418A1 (ja) * 2013-02-28 2014-09-04 株式会社東芝 表示処理装置、表示処理方法及びプログラム

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1274124A (zh) * 1999-05-13 2000-11-22 松下电器产业株式会社 移动体通信文本处理装置及该装置的画面显示方法
CN1808557A (zh) * 2005-01-19 2006-07-26 松下电器产业株式会社 图像显示方法、图像拍摄方法以及图像合成方法

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6299789A (ja) * 1985-10-28 1987-05-09 株式会社日立製作所 図面のスクロ−ル表示方式
US5420693A (en) * 1991-04-01 1995-05-30 Canon Kabushiki Kaisha High-speed color image processing
EP0833243B1 (en) * 1996-09-30 2003-05-02 Kabushiki Kaisha Toshiba GUI edition aiding apparatus and method
US5973692A (en) * 1997-03-10 1999-10-26 Knowlton; Kenneth Charles System for the capture and indexing of graphical representations of files, information sources and the like
US6313822B1 (en) * 1998-03-27 2001-11-06 Sony Corporation Method and apparatus for modifying screen resolution based on available memory
EP1398726B1 (en) * 2002-09-11 2008-07-30 Samsung Electronics Co., Ltd. Apparatus and method for recognizing character image from image screen
JP2004133733A (ja) * 2002-10-11 2004-04-30 Sony Corp 表示装置および方法、並びにプログラム
JP2004178163A (ja) * 2002-11-26 2004-06-24 Matsushita Electric Ind Co Ltd 画像処理方法及びその装置
JP2004223110A (ja) * 2003-01-27 2004-08-12 Nintendo Co Ltd ゲーム装置、ゲームシステムおよびゲームプログラム
WO2005041029A2 (en) * 2003-10-24 2005-05-06 Matsushita Electric Industrial Co., Ltd. Remote operation system, communication apparatus remote control system and document inspection apparatus
JP2005165506A (ja) * 2003-12-01 2005-06-23 Matsushita Electric Ind Co Ltd ドキュメント閲覧装置およびドキュメント閲覧方法ならびに情報記録媒体
US7327349B2 (en) * 2004-03-02 2008-02-05 Microsoft Corporation Advanced navigation techniques for portable devices
JP4475408B2 (ja) * 2005-01-28 2010-06-09 京セラ株式会社 表示装置
JP2007226597A (ja) 2006-02-24 2007-09-06 Sharp Corp 画像表示装置、コンピュータプログラム、記録媒体、情報処理装置、及び画像表示方法
JP2007233871A (ja) * 2006-03-02 2007-09-13 Fuji Xerox Co Ltd 画像処理装置、コンピュータの制御方法及びプログラム
WO2008091768A2 (en) * 2007-01-22 2008-07-31 Global Crypto Systems Methods and systems for digital authentication using digitally signed images
JP5288928B2 (ja) * 2008-08-04 2013-09-11 キヤノン株式会社 画像処理装置及びその制御方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1274124A (zh) * 1999-05-13 2000-11-22 松下电器产业株式会社 移动体通信文本处理装置及该装置的画面显示方法
CN1808557A (zh) * 2005-01-19 2006-07-26 松下电器产业株式会社 图像显示方法、图像拍摄方法以及图像合成方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
JP昭62-99789A 1987.05.09

Also Published As

Publication number Publication date
US20100111425A1 (en) 2010-05-06
JP2010108390A (ja) 2010-05-13
CN101727872A (zh) 2010-06-09
JP4737270B2 (ja) 2011-07-27
US8411933B2 (en) 2013-04-02

Similar Documents

Publication Publication Date Title
KR100703771B1 (ko) 문자 입력판을 디스플레이하는 장치 및 방법
KR101451999B1 (ko) 데이터 스크롤 방법 및 장치
JP5925024B2 (ja) 表示制御装置、表示制御方法、およびプログラム
CN102713830B (zh) 便携式信息终端、显示控制方法和程序
US20160328106A1 (en) Thumbnail display apparatus, thumbnail display method, and computer readable medium for switching displayed images
US20140285459A1 (en) Gesture input operation device, method, program, and portable device
JP6019736B2 (ja) 表示装置及びプログラム
US20090327965A1 (en) Selection of items in a virtualized view
US8582894B2 (en) Electronic apparatus and character string recognizing method
CN102934067A (zh) 信息处理系统、操作输入装置、信息处理装置、信息处理方法、程序以及信息存储介质
JP2008310543A (ja) 画像選択装置および画像選択方法
CN102402384A (zh) 信息处理装置、信息处理方法和计算机程序
KR20110104620A (ko) 휴대용 단말기에서 문자 입력 방법 및 장치
US20180210548A1 (en) Work assistance system, work assistance method, and computer-readable recording medium
CN102694955A (zh) 显示控制设备和显示控制方法
CN104346071A (zh) 显示控制装置和显示控制方法
JP5299125B2 (ja) 文書処理装置及びプログラム
CN101727872B (zh) 图像处理装置和图像处理方法
US20160266703A1 (en) Display device, image processing apparatus, non-transitory computer readable medium, and display control method
CN104238937A (zh) 用于滚动框内容的方法和电子设备
CN110737417B (zh) 一种演示设备及其标注线的显示控制方法和装置
CN101599263A (zh) 一种移动终端及其屏幕显示界面的显示方法
CN107450870B (zh) 显示装置
US9727224B2 (en) Image processing device, image processing method, and storage medium storing image processing program
JP2015156087A (ja) 入力装置、入力方法及びプログラム

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
CP01 Change in the name or title of a patent holder

Address after: Tokyo

Patentee after: Fuji film business innovation Co.,Ltd.

Address before: Tokyo

Patentee before: Fuji Xerox Co.,Ltd.

CP01 Change in the name or title of a patent holder