CN106104516A - 终端装置、显示控制方法以及程序 - Google Patents

终端装置、显示控制方法以及程序 Download PDF

Info

Publication number
CN106104516A
CN106104516A CN201480077237.8A CN201480077237A CN106104516A CN 106104516 A CN106104516 A CN 106104516A CN 201480077237 A CN201480077237 A CN 201480077237A CN 106104516 A CN106104516 A CN 106104516A
Authority
CN
China
Prior art keywords
row
mentioned
display
character string
next line
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201480077237.8A
Other languages
English (en)
Other versions
CN106104516B (zh
Inventor
胜山裕
上原祐介
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Publication of CN106104516A publication Critical patent/CN106104516A/zh
Application granted granted Critical
Publication of CN106104516B publication Critical patent/CN106104516B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0485Scrolling or panning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/10Text processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04803Split screen, i.e. subdividing the display area or the window area into separate subareas
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04805Virtual magnifying lens, i.e. window or frame movable on top of displayed information to enlarge it for better reading or selection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04806Zoom, i.e. interaction techniques or interactors for controlling the zooming operation

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • User Interface Of Digital Computer (AREA)
  • Telephone Function (AREA)

Abstract

本发明提供了一种终端装置,具有:提取部,以行为一个单位从图像数据所包含的字符区域提取字符串;判定部,在以上述行单位提取出的字符串中的、所指定的行内的位置的指定被解除的情况下,判定是否存在上述所指定的行的下一行;以及显示控制部,在判定为存在上述所指定的行的下一行的情况下,将上述下一行的行首以及其附近的字符串放大显示。

Description

终端装置、显示控制方法以及程序
技术领域
本发明涉及终端装置、显示控制方法以及程序。
背景技术
因为老花眼、弱视的人们难以看见细小的字符,所以为了容易视觉确认字符有时会使用放大镜(凸透镜)、老花眼镜。但是,放大镜、老花眼镜的使用麻烦,不便携带。
近年来,随着智能手机的普及,提出了一种使外出时携带的智能手机等电子设备具有放大镜、老花眼镜的功能的方案。这样的字符放大功能例如能够通过利用智能手机所具有的照相机拍摄对象物,并在画面显示将所拍摄的对象物的规定的场所放大了的结果来实现。
例如,在专利文献1中,从显示于画面的图像中检测人脸等所关注的被拍摄体,根据检测到的被拍摄体的位置、大小等来决定用于放大显示被拍摄体的显示区域、放大率。然后,根据所决定的显示区域、放大率,在画面放大显示所关注的被拍摄体。
专利文献1:日本特开2005-311888号公报
然而,在上述技术中,当放大并显示多行字符串时,在从某一行的行末移到下一行的行首时,难以找到与正在阅读的行紧接的行的行首。因此,必须沿着行的换行多次移动智能手机等电子设备,该操作对于用户来说麻烦且不便。
例如,在一边使照相机沿着成为拍摄对象的纸介质的文件中的所希望的字符例的行移动一边进行放大显示时,需要使照相机沿着文件中的行移动。此时,在移动到行末的情况下,必须使智能手机移动到下一行。但是,因为正在放大显示文件,所以存在难以迅速地移动到相邻的行的开头这一课题。
发明内容
鉴于此,在一个方面中,本发明的目的在于,提供能够容易地指定将字符串放大显示时的、相邻的行的开头的位置的终端装置、显示控制方法以及程序。
在一个方式中,提供一种终端装置,具有:
提取部,以行为一个单位从图像数据所包含的字符区域提取字符串;
判定部,在以上述行单位提取出的字符串中的、所指定的行内的位置的指定被解除的情况下,判定是否存在上述所指定的行的下一行;以及
显示控制部,在判定为存在上述所指定的行的下一行的情况下,将上述下一行的行首以及其附近的字符串放大显示。
作为一个方面,能够容易地指定将字符串放大显示时的、相邻的行的开头的位置。
附图说明
图1是表示一个实施方式所涉及的终端装置的硬件构成的一个例子的图。
图2是表示一个实施方式所涉及的终端装置的功能构成的一个例子的图。
图3是表示第一实施方式所涉及的字符放大显示处理的一个例子的流程图。
图4是用于对一个实施方式所涉及的行单位的字符串(英语)提取进行说明的图。
图5是用于对一个实施方式所涉及的行单位的字符串(日语)提取进行说明的图。
图6是表示第一实施方式所涉及的字符放大显示的一个例子的图。
图7是表示第二实施方式所涉及的字符放大显示处理的一个例子的流程图。
图8是表示第二实施方式所涉及的字符放大显示的一个例子的图。
图9是表示第三实施方式所涉及的字符放大显示处理的一个例子的流程图。
图10是用于对第三实施方式所涉及的字符放大显示进行说明的图。
图11是用于对第三实施方式所涉及的字符放大显示进行说明的图。
图12是用于对第三实施方式所涉及的字符放大显示进行说明的图。
图13是用于对第三实施方式所涉及的字符放大显示进行说明的图。
图14是表示变形例所涉及的字符放大显示的一个例子的图。
具体实施方式
以下,参照附图对本发明实施方式进行说明。其中,在本说明书以及附图中,对实际具有相同的功能构成的构成要素标注相同的附图标记,从而省略重复的说明。
[硬件构成例]
首先,对本发明的一个实施方式所涉及的终端装置的硬件构成的一个例子进行说明。图1示出一个实施方式所涉及的终端装置的硬件构成的一个例子。一个实施方式所涉及的终端装是进行本发明的一个实施方式所涉及的字符放大显示处理的电子设备,例如可举出智能手机、平板终端、移动电话、电子书籍等作为一个例子。以下,作为本实施方式所涉及的终端装置的一个例子,举出智能手机为例来进行说明。
一个实施方式所涉及的智能手机1具有CPU(Central Processing Unit:中央处理器)10、存储器11、触摸面板12、照相机13、操作按钮14、辅助存储装置15、通信I/F(Interface:接口)16、无线通信I/F17、外部I/F18以及声音输入输出I/F19。
CPU10统一控制智能手机1所具备的各部。智能手机1所具备的功能通过CPU10将存储于由ROM(Read Only Memory:只读存储器)、RAM(Random Access Memory:随机存取存储器)等构成的存储器11的程序读出到RAM等并执行来实现。
例如,CPU10依次读取应用程序的命令并进行解读,执行其内容、运算、数据传输、控制等。在本实施方式中,CPU10从存储器11、辅助存储装置15读出字符放大显示处理程序、其他的应用程序、数据,来执行字符放大显示处理。由此,CPU10实现智能手机1的整体控制、搭载于智能手机1的字符放大显示控制功能。
触摸面板12搭载有能够检测用户的手指、触摸笔等操作体对触摸面的接触的传感器,具有输入与用户的操作对应的数据的功能。另外,触摸面板12具有将所希望的对象(object)显示在LCD(液晶显示器)等显示器的功能。在本实施方式中,进行通过用户的手指与触摸面板的触摸面接触的操作而指定的字符串的放大显示。作为传感器的一个例子,可举出压力传感器、静电电容传感器、光传感器等。不过,搭载于触摸面板12的传感器只要能够检测操作体与触摸面的接触以及非接触即可,可以是任意的传感器。
照相机13具有镜头以及拍摄元件,拍摄打印有被拍摄体的打印物、文件来获取其图像数据。操作按钮14是为了执行智能手机1的规定的功能而设置的按钮,可举出用于开/关电源的电源按钮、返回到前一图像显示的按钮(以下,也称为“返回按钮”。)作为一个例子。
辅助存储装置15能够由EEPROM、闪存、HDD(Hard Disk Drive:硬盘驱动器)等存储装置构成。辅助存储装置15存储CPU10执行的控制程序、OS程序、以及用于CPU10执行智能手机1所具有的各种功能的应用程序等。
通信I/F16是用于经由通信网与外部装置进行通信的接口。通信I/F16经由通信网与各种通信终端连接,实现智能手机1与通信终端之间的数据的接收和发送。另外,通信I/F16也能够作为用于经由移动电话线路网与其他的装置之间收发电子邮件数据等的接口发挥作用。
无线通信I/F17是用于与外部的装置进行无线通信的接口。例如,无线通信I/F17是用于实现IrDA、IrSS等红外线通信、Bluetooth(注册商标)通信、Wi-Fi(注册商标)通信、非接触型IC卡中的任意一种无线通信手段的接口。
外部I/F18是用于将外部的装置与智能手机1连接的接口。例如,外部I/F18由用于将外带的记录介质(存储卡等)插入的插口、HDMI(High Definition MultimediaInterface:高清晰度多媒体接口)(注册商标)端子、USB(Universal Serial Bus:通用串行总线)端子等实现。该情况下,CPU10经由外部I/F18与外部装置进行数据的收发。
声音输入输出I/F19是用于输出智能手机1处理后的声音数据的接口,例如由扬声器、耳机端子以及耳机等实现。另外,声音输入输出I/F19是用于输入在智能手机1的外部发生的声音的接口,例如由话筒等实现。
[功能构成例]
接下来,参照图2对本发明的一个实施方式所涉及的终端装置的功能构成进行说明。图2示出一个实施方式所涉及的终端装置的功能的一个例子。以下,举出智能手机1为例来对功能的一个例子进行说明。
一个实施方式所涉及的智能手机1具有拍摄部101、存储部102、提取部103、位置检测部104、运算部105、判定部106、显示控制部107、通信部108、无线通信部109以及声音输入输出部110。
拍摄部101获取拍摄文件等而得到的图像数据。拍摄部101例如由照相机13实现。
存储部102存储获取到的图像数据、各种程序、各种数据。存储部102预先设定并存储有后述的第一阈值以及第二阈值。存储部102例如由存储器11、辅助存储装置15实现。
提取部103以行为一个单位从图像数据所包含的字符区域提取字符串。
位置检测部104检测操作体对触摸面的接触、操作体对触摸面的接触的解除(手指的释放等)。位置检测部104例如由搭载于触摸面板12的传感器实现。
运算部105根据检测到的对触摸面的接触,来计算操作体的触摸位置的坐标(x,y),或者计算操作体的移动方向、移动距离。
判定部106判定是否存在与通过操作体所触摸的触摸位置指定的行连续的行。
显示控制部107将提取出的行单位的字符串中的、由操作体指定的行内的触摸位置以及其附近的字符串放大显示。显示控制部107在后述的规定的情况下,将其下一行或者前一行的行首以及其附近的字符串放大显示。运算部105、判定部106以及显示控制部107的功能由CPU10实现。
通信部108与外部装置进行信息的接收和发送。无线通信部109与外部装置进行无线通信。声音输入输出部110输入输出声音数据。
以上,作为一个实施方式所涉及的终端装置的一个例子,对智能手机1的硬件构成以及功能构成进行了说明。接下来,依次对第一~第三实施方式所涉及的字符放大显示处理进行说明。
<第一实施方式>
[智能手机的动作(字符放大显示处理)]
参照图3,对第一实施方式所涉及的智能手机1所执行的字符放大显示处理的一个例子进行说明。图3是表示第一实施方式所涉及的字符放大显示处理的一个例子的流程图。
其中,在图像数据所包含的字符串的方向相对于画面的水平方向小于±45度的情况下,判定为字符串以横写的方式记载,将画面的水平方向(横向)作为第一轴,将画面的垂直方向(纵向)作为第二轴。在图像数据所包含的字符串的方向相对于画面的垂直方向小于±45度的情况下,判定为字符串以纵写的方式记载,将画面的垂直方向(纵向)作为第一轴,将画面的水平方向(横向)作为第二轴。以下的说明是横写的情况,画面的水平方向为第一轴(行方向),画面的垂直方向为第二轴。
若开始第一实施方式所涉及的字符放大显示处理,则拍摄部101拍摄文件等,将包括字符的图像数据获取到智能手机1中。(步骤S10)。图4的(a)以及图5的(a)是通过拍摄纸介质上所打印的英语的文件以及日语的文件而由智能手机1获取到的图像数据的一个例子。
接下来,提取部103解析获取到的图像数据的布局,以行为单位从图像数据所包含的字符区域提取字符串(步骤S12)。例如,提取部103使用光学字符识别(OCR:OpticalCharacter Recognition)技术,执行布局解析处理,进行行方向的提取,来进行行单位的字符串的提取。此时,提取部103不是只提取一行而提取多行,根据行的位置关系决定行的顺序。在图表和字符串混杂的图像数据中也通过执行布局解析处理来自动地分离图表和字符串,以行为单位仅提取字符串。图4的(b)以及图5的(b)示出以行为单位从图像数据提取出字符串的状态的一个例子。各框内的字符串是以行单位提取出的字符串。提取部103提取字符尺寸、字符间隔,以字符尺寸、字符间隔为基准来推断行方向(纵写或者横写)。提取部103根据推断出的行方向,来提取行的中心线和中心线的2个端点的坐标。
此外,提取部103进行布局的解析的图像数据也可以不是由拍摄部101拍摄到的图像数据。例如,也可以是保存于智能手机1内的图像数据。该情况下,在步骤S10中,代替进行图像的拍摄而从辅助存储装置15读取图像数据。
在用户的手指触摸了触摸面时,显示控制部107显示由触摸位置所指定的行(步骤S14)。
例如,图4的(c)以及图5的(c)中示出了触摸面板12的画面的一个例子。在该例子中,触摸面板12的画面被上下地分割成2个。在行显示画面3中显示由以被指定的行为中心的图像数据的一部分。更详细而言,在行显示画面3中显示有当前被指定的行的中心线、下一行(前一行)的一部分、在放大显示画面2被放大显示的字符串的区域(放大显示区域4)、和拖动按钮5。
返回到图3,若用户将手指触摸到拖动按钮5并对拖动按钮5进行操作,则显示控制部107显示将被指定的行内的所指定的位置和其附近的字符串放大了的图像(步骤S16)。以下,将用户把手指触摸到显示于行显示画面3的拖动按钮5的操作、以及使指与拖动按钮5接触地移动的操作也称为拖动(drag)。
例如,图4的(c)以及图5的(c)的放大显示画面2中显示有在行显示画面3示出的放大显示区域4内的字符串。即,放大显示画面2中显示有将由拖动按钮5指定的位置和其附近放大了的字符串。
返回到图3,接下来,判定部106判定是否进行了结束动作(步骤S18)。例如,若用户按下返回按钮(未图示),则判定部106判定为进行了结束动作,将本处理结束。在返回按钮未被按下的情况下,判定部106判定为未进行结束动作,位置检测部104检测与用户所进行的拖动操作对应的拖动按钮5的位置(触摸位置)的移动(步骤S20)。
判定部106根据检测到的拖动按钮5的位置来判定拖动按钮5是否正在向行方向移动(步骤S22)。判定部106在判定为拖动按钮5正在向行方向移动的情况下,判定是否向被指定的行的行末移动了(步骤S24)。此时,判定部106根据由提取部103提取出的行的中心线的2个端点的坐标来判定是否是行末。
在步骤S24中,当判定部106判定为拖动按钮5未向行末移动的情况下,判定拖动按钮5是否向被指定的行的行首移动了(步骤S28)。此时,判定部106根据由提取部103提取出的行的中心线的2个端点的坐标来判定是否是行首。在判定部106判定为拖动按钮5未向被指定的行的行首移动的情况下,显示控制部107提取用户的手指使拖动按钮5移动时的、行方向的分量。显示控制部107使在放大显示画面2显示的字符串的显示区域沿着行的中心线移动提取出的行方向的分量(步骤S30)。
例如,在图6的(a)中,拖动按钮5被显示在比行显示画面3的中央稍微靠前。用户从该状态使拖动按钮5从左向右沿行方向移动。与拖动按钮5的移动对应,在放大显示画面2放大显示的字符串从图6的(a)所示的放大显示区域4向图6的(b)所示的放大显示区域4移动。
返回到图3,显示控制部107将移动后的拖动按钮5的位置以及其附近(放大显示区域4)的字符串放大显示(步骤S16)。接下来,判定部106再次判定是否进行了结束的动作(步骤S18)。在返回按钮未被按下的情况下,位置检测部104再次检测拖动按钮5的位置(触摸位置)的坐标(步骤S20)。
接下来,判定部106根据检测到的拖动按钮5的位置来判定拖动按钮5是否正向行方向移动(步骤S22)。
在如使拖动按钮5的位置向图6的第二轴的方向移动的情况那样,拖动按钮5明确地向与行方向垂直的方向移动的情况下,判定部106判定为拖动按钮5不沿行方向移动,在向除此以外的方向移动的情况下,也可以判定为拖动按钮5正向行方向移动。判定部106在判定为拖动按钮5向行方向移动的情况下,通过使拖动按钮5移动将拖动按钮5的位置的移动分成第一轴的分量和第二轴的分量时的第一轴的分量(即行方向的分量),能够划定将显示放大的字符串。即,显示控制部107使行显示画面3的拖动按钮5沿着行的中心线移动第一轴的分量。与此相伴,在放大显示画面2放大显示的字符串发生变化。由此,即使用户不使拖动按钮5正确地跟踪在行的中心线上,也能够沿行方向将所指定的行的字符串放大来顺畅地阅读。
此外,纵书写的情况也相同,显示控制部107使拖动按钮5移动将拖动按钮5的位置的移动分成第一轴的分量和第二轴的分量时的第一轴(画面的垂直方向(纵向))的分量。由此,用户能够沿行方向将所指定的行的字符串放大来顺畅地阅读。
在步骤S22中,判定部106在判定为拖动按钮5未向行方向移动的情况下,判定拖动按钮5是否正向被指定的行的下一行方向移动(步骤S32)。例如,在拖动按钮5正向画面的垂直方向移动的情况、或拖动按钮5的移动方向相对于画面的垂直方向小于±45度的情况下,判定部106可以判定为未向行方向移动。在步骤S32中,当判定部106判定为拖动按钮5正向下一行方向移动的情况下,显示控制部107将画面上的显示位置的开头向下一行的行首移动(步骤S26),在行显示画面3显示下一行(步骤S14),在放大显示画面2显示下一行的行首(步骤S16)。结果,如图6的(c)所示,在行显示画面3显示下一行,在放大显示画面2显示行显示画面3的放大显示区域4所示的字符串、即下一行的开头以及其附近的字符串。
另一方面,在步骤S32中判定部106判定为拖动按钮5未向下一行方向移动的情况下,显示控制部107将画面上的显示位置的开头向前一行的行首移动(步骤S26),在行显示画面3显示前一行(步骤S14),在放大显示画面2显示前一行的行首(步骤S16)。
这里,对根据未进行结束动作时检测到的拖动按钮5的位置(步骤S20),判定为拖动按钮5在步骤S22中向行方向移动,并在步骤S24中判定为向被指定的行的行末移动了的情况进行说明。这例如是图6的(a)所示的拖动按钮5移动到行末的情况。该情况下,进入步骤S26,显示控制部107将画面上的显示位置的开头向下一行的行首移动,在行显示画面3显示下一行(步骤S14),在放大显示画面2显示下一行的行首(步骤S16)。由此,通过拖动按钮5自动地移动到下一行,能够使放大显示可靠地移动到下一行的行首。由此,用户能够将所指定的行的下一行放大来顺畅地阅读。
接下来,对根据检测到的拖动按钮5的位置(步骤S20),判定为拖动按钮5向行方向移动(步骤S22),且不是向被指定的行的行末而是向行首移动了(步骤S24、S28)的情况进行说明。这例如是图6的(a)所示的拖动按钮5向与图6的(a)所示的箭头相反方向前进并移动到行首的情况。该情况下,进入步骤34,显示控制部107将画面上的显示位置的开头向前一行的行首移动,在行显示画面3显示前一行(步骤S14),在放大显示画面2显示前一行的行首(步骤S16)。由此,通过拖动按钮5自动地移动到前一行,能够使放大显示可靠地移动到前一行的行首。由此,用户能够顺畅地返回到所指定的行的前一行进行阅读。
如以上说明那样,根据在步骤S20中检测到的拖动按钮5的位置,反复执行步骤S22~S34中的至少任意一个处理。结果,在步骤S14中,指定行的字符串整体被显示于行显示画面3。与此同时,在步骤S16中,指定行内的指定位置以及其附近的字符串被放大显示在放大显示画面2。由此,用户能够将所指定的行放大来顺畅地阅读。以上,对第一实施方式所涉及的智能手机1所执行的字符放大显示处理的一个例子进行了说明。
[效果的例子]
基于屏幕的触摸操作等对位置的指定与使用了鼠标的位置的指定相比精度较低。因此,在屏幕的触摸操作等中,存在当要放大某一字符区域时,不是想看的字符部分而是周边的其他部分被放大显示的情况。
对此,根据第一实施方式所涉及的字符放大显示处理,能够容易地进行将字符串放大显示时的、进行放大显示的地方的指定。具体而言,在本实施方式中,在文件的布局解析中以行为一个单位从图像数据所包含的字符区域提取字符串。接着,计算提取出的行的中心线和其两个端点,并执行使放大显示区域沿着该中心线移动的处理。由此,即使想要将显示放大的字符区域的指定由于操作手指的晃动而不准确,也能够仅通过在行显示画面3中将手指沿行方向移动来稳定地将指定行的所指定的位置放大显示。
另外,根据本实施方式所涉及的字符放大显示处理,若读完一行则自动地放大显示下一行的开头。在想要返回到前一行的情况下也相同。因此,用户也可以不在画面上寻找下一行、或前一行的开头。在该点上,也能够容易地进行将字符串放大显示时的、进行放大显示的位置的指定。
并且,在本实施方式所涉及的字符放大显示处理中,能够无误且高速地显示想要放大的地方的字符串。例如,在利用OCR对纸介质上打印的文件进行字符识别来将字符码放大显示为画面的情况下,会产生想要放大的地方的字符的错误识别,难以100%无误地显示。另外,由于在利用OCR进行的字符识别中,通过从图像数据提取行内的字符串,并从提取出的行内的字符串识别各字符这一两个阶段进行字符识别,所以处理需要时间。与此相对,在本实施方式所涉及的字符放大显示处理中,以行单位识别字符串,不以字符单位识别行内的想要放大的地方的字符。因此,能够以行单位无误地放大显示想要放大的地方的字符。另外,在本实施方式所涉及的字符放大显示处理中,由于以行单位执行字符的放大显示处理,所以与以字符为单位执行字符的放大显示处理的情况相比可缩短处理,能够进行放大显示的高速处理。由此,能够使到所指定的字符串被放大显示为止的反应提早。因此,即使是老花眼、弱视的用户,也能够利用智能手机1更顺畅地阅读文件。
(单词单位的显示)
在如英语那样单词间有空白的语言中,能够以被指定的行内的单词为一个单位来进行放大显示的控制。该情况下,所指定的位置以及其附近的字符串以单词为单位被放大显示。具体而言,显示控制部107可以在拖动按钮5的位置移动到比前一单词的中央的位置与下一单词的中央的位置的中点靠下一单词侧时将下一单词整体放大显示。
据此,如图6的(d)所示那样,可显示以单词为单位被放大了的字符串。由此,不会如图6的(c)所示那样以一个单词在中途被断开的状态显示。因此,能够以用户更容易识别的状态将字符串放大显示。结果,有显示的放大率根据单词而变小的情况。例如,较长的单词为了进入画面内而使放大率比较短的单词缩小来进行显示。由此,由于不会以一个单词在中途被断开的状态进行显示,所以能够以更容易识别的状态来显示字符串。
<第二实施方式>
[智能手机的动作(字符放大显示处理)]
接下来,参照图7对第二实施方式所涉及的智能手机1所执行的字符放大显示处理的一个例子进行说明。图7是表示第二实施方式所涉及的字符放大显示处理的一个例子的流程图。图7所示的各步骤中的、进行与图3所示的第一实施方式所涉及的字符放大显示处理相同的处理的步骤由与图3相同的步骤编号表示。因此,以下以由与图3不同的步骤编号表示的步骤为中心,来对第二实施方式所涉及的字符放大显示处理进行说明,避免与第一实施方式的重复说明。
若开始第二实施方式所涉及的字符放大显示处理,则在图像拍摄后,执行根据图像数据的布局解析对行单位的字符串的提取、被指定的行的字符串的显示、以及被指定的位置附近的字符串的放大显示(步骤S10~S16)。另外,在动作按钮未被按下的期间(步骤S18),位置检测部104检测拖动按钮5的位置(触摸位置)的坐标(步骤S20)。
接下来,判定部106根据检测到的拖动按钮5的位置来判定拖动操作是否结束(步骤S40)。判定部106在判定为拖动操作结束的情况下,判定是否存在被指定的行的下一行(步骤S42)。在存在下一行的情况下,显示控制部107将画面上的显示位置的开头向下一行的行首移动(步骤S26),在行显示画面3显示下一行(步骤S14),在放大显示画面2显示下一行的行首(步骤S16)。例如,当如图8的(b)所示那样手指离开了拖动按钮5时,如图8的(c)所示那样,下一行自动地显示于行显示画面3,下一行的开头以及其附近的字符串被自动地显示于放大显示画面2。
在判定为操作手指移动到行末或者行首的情况下(步骤S24、S28)使被放大显示的字符串自动地显示下一行或者前一行的开头的处理(步骤S26、S34、S16、S18)与第一实施方式相同。另外,与操作手指的移动对应地使被放大显示的字符串移动的处理(步骤S30、S16、S18)也与第一实施方式相同。因此,省略这些处理的说明。以上,对第二实施方式所涉及的智能手机1所执行的字符放大显示处理的一个例子进行了说明。
此外,判定部106也可以在判定为存在被指定的行的下一行的情况下,判定将在上述位置的指定解除之后被指定的位置分成表示上述行的方向的第一轴上和与上述第一轴垂直的第二轴上的位置时的上述第一轴上的位置是否距离上述下一行的行首为规定范围内。判定部106也可以在判定为存在被指定的行的下一行的情况下,判定在上述位置的指定解除后被指定的位置是否距离下一行的行首为规定范围内。也可以在判定部106判定为被指定的位置距离下一行的行首为规定范围内的情况下,显示控制部107将下一行的行首以及其附近的字符串放大显示。
[效果的例子]
基于屏幕的触摸操作等对位置的指定与使用了鼠标的位置的指定相比精度较低。因此,在将某一行放大显示之后想要放大显示下一行的情况下,存在难以指定下一行的开头的情况。特别是在行间距缩小的字符串时,难以指定放大显示中的下一行的开头。此时,若指定位置的用户的手指从下一行的位置上下晃动,则位于与下一行的行首不同的晃动的位置的行的字符部分被放大显示,难以放大所希望的行的字符,会妨碍利用智能手机1顺畅地阅读文件。
对此,根据第二实施方式所涉及的字符放大显示处理,能够容易地指定将字符串放大显示时的、相邻的行的开头的位置。
具体而言,根据本实施方式所涉及的字符放大显示处理,以行单位从画面提取字符串部分,判断由用户指定放大的部分位于哪一行。然后,在本实施方式中,若判断为该行的指定已结束,则在判断接下来进行放大显示的对象时,即使由用户的手指等指定放大的位置不位于视为下一行的位置,也能够从下一行判断进行放大显示的对象的字符串。
即,例如在本实施方式中,控制为若使操作手指从画面离开,则被放大显示的字符串自动地移动到下一行或者自动地移动到前一行的开头。因此,用户也可以不在画面上寻找所希望的行的开头,在触摸画面中指定所希望的行的开头。
另外,在本实施方式中,也能够起到与在第一实施方式的效果的例子中说明的效果相同的效果。
此外,解除指定位置的操作并不局限于使手指从画面离开的操作。例如,也可以在进行了使手指向与移动方向相反方向移动的操作的情况下,判定为指定位置被解除,与在上述实施方式中使手指从画面离开时相同地使被放大显示的字符串自动地移动到下一行的开头。
(单词单位的显示)
与第一实施方式相同,显示控制部107也可以以单词为单位进行被指定的位置以及其附近的字符串的放大显示。据此,在使手指沿着行方向移动的过程中,在放大显示画面2显示以单词为单位放大了的字符串。例如,在图8的(c)中在放大显示画面2以像素单位放大显示字符串,与之相对,在图8的(d)中以单词单位放大显示字符串。由此,由于不会以一个单词在中途断开的状态进行显示,所以能够以更容易识别字符串的状态显示。
<第三实施方式>
[智能手机的动作(放大显示处理)]
接下来,参照图9对第三实施方式所涉及的智能手机1所执行的字符放大显示处理的一个例子进行说明。图9是表示第三实施方式所涉及的字符放大显示处理的一个例子的流程图。图9所示的各步骤中的、进行与图3所示的第一实施方式所涉及的字符放大显示处理相同的处理的步骤由与图3相同的步骤编号表示。因此,以下以由与图3不同的步骤编号所示的步骤为中心,来对第三实施方式所涉及的字符放大显示处理进行说明,避免与第一实施方式的重复说明。
若开始第三实施方式所涉及的字符放大显示处理,并拍摄了图像(步骤S10),则提取部103通过图像数据的布局解析来提取行单位的字符串,提取行的中心线(ax+by+c=0)(步骤S50)。接下来,若用户开始拖动,则位置检测部104将拖动按钮5的开始位置的坐标保存到存储部102(步骤S52)。以下,将拖动按钮5的开始位置的坐标记载为拖动开始点(x0,y0)。
接下来,显示控制部107在行显示画面3显示被指定的行(步骤S14),在放大显示画面2放大显示拖动按钮5的附近的字符串(步骤S16)。接下来,在返回按钮未被按下的情况下,判定部106判定为未进行结束动作(步骤S18)。该情况下,位置检测部104检测拖动按钮5的移动中途的坐标(步骤S54)。以下,将拖动按钮5的移动中途的坐标记载为拖动中途点(x,y)。
接下来,运算部105计算从拖动开始点(x0,y0)到拖动中途点(x,y)的距离的差值Δ,判定部106判定计算出的距离的差值Δ是否是规定的阈值以上(步骤S56)。
参照图10对该距离的差值Δ的计算方法进行说明。图10示出了拖动开始点(x0,y0)、拖动中途点(x,y)、以及最接近拖动开始点(x0,y0)的行的中心线(ax+by+c=0)的一个例子。
从拖动开始点(x0,y0)投影到中心线的点(x1,y1)由以下的公式(1)表示。
(x1,y1)=(x0,y0)-(ax0+by0+c)(a,b)/(a2+b2)…(1)
从拖动中途点(x,y)投影到中心线的点(x2,y2)由以下的公式(2)表示。
(x2,y2)=(x,y)-(ax+by+c)(a,b)/(a2+b2)…(2)
从拖动开始点(x0,y0)投影到中心线的点(x1,y1)与从拖动中途点(x,y)投影到中心线的点(x2,y2)的距离的差值Δ如以下那样定义。
|a/b|<1的情况下,差值Δ=|x2-x1|
|a/b|≥1的情况下,差值Δ=|y2-y1|
中心线(ax+by+c=0)的斜率根据y=-a/b·x-c/b由“-a/b”表示。如图11所示,在中心线的斜率相对于画面的水平方向(第一轴)小于±45度的情况下,满足|a/b|<1。即,是如拖动按钮5被从位置A拖动到位置B的情况那样,将拖动按钮5的移动分成第一轴的分量和第二轴的分量时的第一轴的分量比第二轴的分量大的情况。在这样满足了|a/b|<1时,运算部105使用距离的差值Δ=|x2-x1|的公式,来计算拖动按钮5沿第一轴方向移动了的距离的差值Δ。
另一方面,在中心线的斜率相对于画面的垂直方向(第二轴)小于±45度的情况下,满足|a/b|≥1。即,是如拖动按钮5被从位置A拖动到位置C的情况那样,拖动按钮5的移动的第二轴的分量比第一轴的分量大的情况。在这样满足了|a/b|≥1时,运算部105根据距离的差值Δ=|y2-y1|来计算拖动按钮5沿第二轴方向移动了的距离的差值Δ。
返回到图9,判定部106判定计算出的距离的差值Δ是否是规定的阈值以上(步骤S56)。在判定部106判定为计算出的距离的差值Δ是规定的阈值以上的情况下,显示控制部107将从拖动中途点(x,y)投影到中心线的点(x2,y2)作为拖动中途点的坐标来将拖动按钮5的位置以及其附近的字符串放大显示。
例如,在满足|a/b|<1时,从拖动开始点到拖动中途点的移动量由第一轴方向的差值Δ=|x2-x1|定义。判定部106判定计算出的距离的差值Δ(=|x2-x1|)是否是预先决定的第一阈值以上(步骤S56)。在判定部106判定为计算出的距离的差值Δ(=|x2-x1|)是第一阈值以上的情况下,显示控制部107使拖动按钮5沿第一轴方向移动从拖动开始点起的拖动按钮5的第一轴方向的距离的差值Δ(=|x2-x1|),将拖动按钮5所在的拖动中途点以及其附近的字符串放大显示。例如,在满足|a/b|<1时,图12中示出了从拖动开始点P1到拖动中途点P3的第一轴方向的距离的差值Δ为第一阈值的情况。该情况下,显示控制部107根据从拖动中途点(x,y)投影到图10的中心线的点(x2,y2)的x坐标,使放大显示区域根据差值Δ(=|x2-x1|)沿第一轴方向移动(步骤S60)。之后,即使拖动按钮5的位置移动到不满足|a/b|<1的位置(例如,图12的点P4等),显示控制部107也根据点(x2,y2)的x坐标,使放大显示区域与差值Δ(=|x2-x1|)对应地沿第一轴方向移动,直到指定位置被解除为止。
由此,即使如图12的虚线所示那样用户的拖动操作产生了晃动,在移动了第一阈值以上的拖动操作中也仅第一轴方向的分量有效。例如,即使拖动按钮5的位置位于点P4,点P4’的位置以及其附近也被放大显示。由此,第一轴上的位置以及其附近被放大显示。因此,根据本实施方式所涉及的放大显示处理,通过使针对用户的操作的行内的区域移动稳定,能够降低放大显示的误动作。
此外,作为指定位置被解除时的一个例子,可举出图9的步骤S24、S28所示的、画面上的拖动按钮5位于指定行的行末或者行首时。作为其他的例子,虽然图9中未示出,但当手指从画面上的拖动按钮5释放时也可以判定为指定位置被解除。另外,也可以在一边使手指与画面上的拖动按钮5接触一边使手指沿着行方向滑动的过程中当使手指向相反方向移动时判定为指定位置被解除。
在执行了图9的步骤S60之后,显示控制部107将第一轴上的拖动中途点的位置以及其附近的字符串放大显示(步骤S16)。在返回按钮未被按下的期间(步骤S18),与在步骤S54中检测到的拖动中途点的位置对应地反复执行步骤S56以后的步骤。
另一方面,在满足了|a/b|≥1时,从拖动开始点到拖动中途点的移动量由第二轴方向(与行方向垂直的方向)的差值Δ=|y2-y1|定义。判定部106判定计算出的距离的差值Δ(=|y2-y1|)是否是预先决定的第二阈值以上(步骤S56)。在判定部106判定为计算出的距离的差值Δ(=|y2-y1|)是第二阈值以上的情况下,显示控制部107确定使拖动按钮5沿第二轴方向移动了差值Δ(=|y2-y1|)时的位置或者其附近的位置的行,将确定出的行的行首以及其附近的字符串放大显示。例如,在满足了|a/b|≥1时,如图13所示,判定拖动按钮5从拖动开始点P5移动到拖动中途点P7时的第二轴方向的距离的差值Δ是否是第二阈值以上。在是第二阈值以上的情况下,显示控制部107根据从拖动中途点(x,y)投影到图10的中心线的点(x2,y2)的y坐标,使显示区域与差值Δ=|y2-y1|对应地沿第二轴方向移动差值Δ所示的长度。然后,显示控制部107将移动后的位置的行的行首以及其附近的字符串放大显示(步骤S60、S16)。例如,在拖动按钮5移动到图13的点P8的情况下,下一行的行首以及其附近的字符串被放大显示。
此外,也可以在判定为拖动按钮5移动到图13的点P8,拖动按钮5距离下一行Ln+1的行首为规定范围内(例如,从行Ln+1的行首起的放大显示区域4)的情况下,下一行的行首以及其附近的字符串被放大显示。
在返回按钮未被按下的期间(步骤S18),与在步骤S54中检测到的拖动中途点的位置对应地反复执行步骤S14以后的步骤。以上,对第三实施方式所涉及的智能手机1所执行的字符放大显示处理的一个例子进行了说明。
此外,判定部106也可以判定被指定的位置是否沿表示行的方向的第一轴方向移动了第一阈值以上。在判定部106判定为上述第一轴方向的位置移动了上述第一阈值以上的情况下,显示控制部107可以在上述被指定的行内将上述第一轴方向的位置以及其附近的字符串放大显示,直至对被指定的位置的指定进行解除为止。
[效果的例子]
在行间距狭小的字符串的显示等中,若要将某一行内的字符串放大来进行显示,则在描摹进行放大的位置的过程中,有时指尖会上下晃动而使得不希望的上下的行内的字符串被放大显示。
对此,根据第三实施方式所涉及的字符放大显示处理,能够降低将字符串放大显示时的、放大显示位置的指定的误动作。
具体而言,根据本实施方式所涉及的字符放大显示处理,以行单位从画面提取字符串部分,根据拖动操作的移动量与第一或者第二阈值的比较,来判断被用户指定了放大显示的行是否正在被放大显示。结果,在本实施方式中,若判断为某一行正在被放大显示,则之后即使被指定放大显示的位置移动到与当前正被放大显示的行的上下的行相当的部分,也以成为放大显示的对象的行不变更的方式控制显示。由此,能够降低因指尖的晃动引起的放大显示位置的指定的误动作。另外,在本实施方式中,也能够起到与在第一以及第二实施方式的效果的例子中说明了的效果相同的效果。
(单词单位的显示)
与第一以及第二实施方式相同,显示控制部107也可以以上述被指定的行内的单词为一个单位来将被指定的位置以及其附近的字符串放大显示。由此,在将手指沿着行方向移动的过程中,在放大显示画面2以单词单位显示被放大的字符串。由此,因为不会以一个单词在中途断开的状态进行显示,所以能够以更容易识别的状态将被放大显示了的字符串显示给用户。
以上,通过上述实施方式对终端装置、显示控制方法以及程序进行了说明,但本发明并不局限于上述实施方式,能够在本发明的范围内进行各种变形以及改进。另外,上述各实施方式能够在不矛盾的范围内组合。
例如,在上述各实施方式中,将画面分割成两个区域,在一方的区域显示行整体,在另一方的区域将被指定的行内的成为对象的字符串放大显示。然而,也可以不分割画面,而在一个画面的全部区域放大显示被指定的行内的成为对象的字符串。例如,通过如图14的(a)所示那样,用手指触摸被分割成两个区域的两个画面的边界,并将该手指下拉(图14的(a)的(1)),能够如图14的(b)所示那样成为放大显示画面2的一个画面。该情况下,用户在放大显示画面2进行拖动操作。进而,也可以如图14的(c)所示那样,再次将画面分割成行显示画面3和放大显示画面2这两个区域。
另外,如图14的(a)所示,既可以在被分割成2个画面的情况下的行显示画面3进行拖动操作,也可以在放大显示画面2进行拖动操作。
另外,在上述各实施方式中,举出为了确定指定位置而显示了拖动按钮5的例子来进行说明,但拖动按钮5也可以不必显示。
另外,在上述各实施方式中,举出横写的字符串的例子进行了说明,但本发明所涉及的字符放大显示处理也能够应用于纵写的字符串、即第一轴为纵向的字符串。
附图标记说明
1...智能手机;2...放大显示画面;3...行显示画面;4...放大显示区域;5...拖动按钮;10...CPU;11...存储器;12...触摸面板;15...辅助存储装置;101...拍摄部;102...存储部;103...提取部;104...位置检测部;105...运算部;106...判定部;107...显示控制部。

Claims (15)

1.一种终端装置,具有:
提取部,以行为一个单位从图像数据所包含的字符区域提取字符串;
判定部,在以上述行单位提取出的字符串中的、所指定的行内的位置的指定被解除的情况下,判定是否存在上述所指定的行的下一行;以及
显示控制部,在判定为存在上述所指定的行的下一行的情况下,将上述下一行的行首以及其附近的字符串放大显示。
2.根据权利要求1所述的终端装置,其中,
上述判定部判定上述所指定的位置是否是上述所指定的行的行末,并判定上述所指定的位置是否是上述所指定的行的行首,
在判定为是上述所指定的行的行末的情况下,上述显示控制部将上述下一行的行首以及其附近的字符串放大显示,在判定为是上述所指定的行的行首的情况下,上述显示控制部将上述前一行的行首以及其附近的字符串放大显示。
3.根据权利要求1所述的终端装置,其中,
上述判定部判定上述所指定的位置是否向表示行的方向的第一轴方向移动了第一阈值以上,
在判定为上述第一轴方向的位置移动了上述第一阈值以上的情况下,上述显示控制部在上述所指定的行内将上述第一轴方向的位置以及其附近的字符串放大显示,直至进行上述所指定的位置的指定的解除为止。
4.根据权利要求1所述的终端装置,其中,
上述显示控制部以上述所指定的行内的单词为一个单位来将上述所指定的位置以及其附近的字符串放大显示。
5.根据权利要求1所述的终端装置,其中,
上述判定部在判定为存在上述所指定的行的下一行的情况下,判定在上述位置的指定被解除之后所指定的位置是否已从上述下一行的行首在规定范围内移动,
在判定为上述所指定的位置已从上述下一行的行首在规定范围内移动的情况下,上述显示控制部将上述下一行的行首以及其附近的字符串放大显示。
6.一种显示控制方法,由计算机执行如下处理:
以行为一个单位从图像数据所包含的字符区域提取字符串,
在以上述行单位提取出的字符串中的、所指定的行内的位置的指定被解除的情况下,判定是否存在上述所指定的行的下一行,
在判定为存在上述所指定的行的下一行的情况下,将上述下一行的行首以及其附近的字符串放大显示。
7.根据权利要求6所述的显示控制方法,其中,
判定上述所指定的位置是否是上述所指定的行的行末,
在判定为是上述所指定的行的行末的情况下,将上述下一行的行首以及其附近的字符串放大显示,
判定上述所指定的位置是否是上述所指定的行的行首,
在判定为是上述所指定的行的行首的情况下,将上述前一行的行首以及其附近的字符串放大显示。
8.根据权利要求6所述的显示控制方法,其中,
判定上述所指定的位置是否向表示行的方向的第一轴方向移动了第一阈值以上,
在判定为上述第一轴方向的位置移动了上述第一阈值以上的情况下,在上述所指定的行内将上述第一轴方向的位置以及其附近的字符串放大显示,直至进行上述所指定的位置的指定的解除为止。
9.根据权利要求6所述的显示控制方法,其中,
以上述所指定的行内的单词为一个单位来将上述所指定的位置以及其附近的字符串放大显示。
10.根据权利要求6所述的显示控制方法,其中,
在判定为存在上述所指定的行的下一行的情况下,判定在上述位置的指定被解除之后所指定的位置是否已从上述下一行的行首在规定范围内移动,
在判定为上述所指定的位置已从上述下一行的行首在规定范围内移动的情况下,将上述下一行的行首以及其附近的字符串放大显示。
11.一种程序,用于使计算机执行如下处理:
以行为一个单位从图像数据所包含的字符区域提取字符串,
在以上述行单位提取出的字符串中的、所指定的行内的位置的指定被解除的情况下,判定是否存在上述所指定的行的下一行,
在判定为存在上述所指定的行的下一行的情况下,将上述下一行的行首以及其附近的字符串放大显示。
12.根据权利要求11所述的程序,其中,
判定上述所指定的位置是否是上述所指定的行的行末,
在判定为是上述所指定的行的行末的情况下,将上述下一行的行首以及其附近的字符串放大显示,
判定上述所指定的位置是否是上述所指定的行的行首,
在判定为是上述所指定的行的行首的情况下,将上述前一行的行首以及其附近的字符串放大显示。
13.根据权利要求11所述的程序,其中,
判定上述所指定的位置是否向表示行的方向的第一轴方向移动了第一阈值以上,
在判定为上述第一轴方向的位置移动了上述第一阈值以上的情况下,在上述所指定的行内将上述第一轴方向的位置以及其附近的字符串放大显示,直至进行上述所指定的位置的指定的解除为止。
14.根据权利要求11所述的程序,其中,
以上述所指定的行内的单词为一个单位来将上述所指定的位置以及其附近的字符串放大显示。
15.根据权利要求11所述的程序,其中,
在判定为存在上述所指定的行的下一行的情况下,判定在上述位置的指定被解除之后所指定的位置是否已从上述下一行的行首在规定范围内移动,
在判定为上述所指定的位置已从上述下一行的行首在规定范围内移动的情况下,将上述下一行的行首以及其附近的字符串放大显示。
CN201480077237.8A 2014-03-25 2014-03-25 终端装置、显示控制方法以及程序 Expired - Fee Related CN106104516B (zh)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2014/058283 WO2015145570A1 (ja) 2014-03-25 2014-03-25 端末装置、表示制御方法及びプログラム

Publications (2)

Publication Number Publication Date
CN106104516A true CN106104516A (zh) 2016-11-09
CN106104516B CN106104516B (zh) 2019-06-28

Family

ID=54194169

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201480077237.8A Expired - Fee Related CN106104516B (zh) 2014-03-25 2014-03-25 终端装置、显示控制方法以及程序

Country Status (5)

Country Link
US (1) US10162501B2 (zh)
EP (1) EP3125089B1 (zh)
JP (1) JP6206580B2 (zh)
CN (1) CN106104516B (zh)
WO (1) WO2015145570A1 (zh)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015109507A1 (zh) * 2014-01-24 2015-07-30 华为终端有限公司 一种输入字符的方法和电子设备
JP6206581B2 (ja) 2014-03-25 2017-10-04 富士通株式会社 端末装置、表示制御方法及びプログラム
JP6237544B2 (ja) * 2014-09-03 2017-11-29 京セラドキュメントソリューションズ株式会社 表示処理装置、画像形成システム、表示処理方法、及び表示処理プログラム
US9808710B2 (en) * 2015-03-31 2017-11-07 King.Com Ltd. User interface

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1998022910A1 (en) * 1996-11-22 1998-05-28 Geoworks Corporation Method of and apparatus for displaying an image of a document on a display
EP1215563A3 (en) * 2000-12-15 2004-07-07 Nokia Corporation Method and arrangement for displaying hypertext pages
US7159172B1 (en) * 2000-11-08 2007-01-02 Xerox Corporation Display for rapid text reading
CN101751216A (zh) * 2008-12-01 2010-06-23 立志凯株式会社 显示装置、显示方法以及印刷装置
CN102609228A (zh) * 2010-12-01 2012-07-25 卡西欧计算机株式会社 显示多语种的字符串的电子设备、显示方法及显示控制程序
CN102982328A (zh) * 2011-08-03 2013-03-20 夏普株式会社 字符识别装置和字符识别方法

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0675736A (ja) 1992-08-25 1994-03-18 Fujitsu Ltd 情報処理装置の表示制御方式及び表示制御方法
JP2000311039A (ja) * 1999-04-28 2000-11-07 Sharp Corp 部分拡大表示装置及び部分拡大表示方法
WO2004064033A1 (ja) * 2003-01-16 2004-07-29 Sharp Kabushiki Kaisha 表示データ制御装置、方法およびプログラム
JP4596754B2 (ja) * 2003-07-29 2010-12-15 株式会社日立製作所 文字認識方法とそれを用いた携帯端末システム
JP4352980B2 (ja) 2004-04-23 2009-10-28 オムロン株式会社 拡大表示装置及び拡大画像制御装置
US7844915B2 (en) * 2007-01-07 2010-11-30 Apple Inc. Application programming interfaces for scrolling operations
JP2009069888A (ja) * 2007-09-10 2009-04-02 Fuji Xerox Co Ltd 画像処理プログラム及び画像処理装置
JP4331252B1 (ja) * 2008-07-18 2009-09-16 任天堂株式会社 オブジェクト表示順変更プログラム及び装置
JP4818478B1 (ja) * 2011-04-14 2011-11-16 株式会社アイエスピー 携帯端末装置、アプリケーションソフトウェアの起動方法
JP2013097626A (ja) * 2011-11-01 2013-05-20 Sony Computer Entertainment Inc 携帯情報端末および書籍画像表示方法
JP5752572B2 (ja) * 2011-11-24 2015-07-22 シャープ株式会社 表示制御装置、表示方法、制御プログラム、および記録媒体
JP2013114612A (ja) * 2011-11-30 2013-06-10 Sharp Corp 表示制御装置、表示方法、制御プログラム、および記録媒体
US9158642B2 (en) * 2012-12-20 2015-10-13 Litepoint Corporation Method of testing multiple data packet signal transceivers concurrently
JP5385450B2 (ja) * 2012-12-28 2014-01-08 株式会社ゼンリンデータコム 地図表示装置
JP6206581B2 (ja) 2014-03-25 2017-10-04 富士通株式会社 端末装置、表示制御方法及びプログラム

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1998022910A1 (en) * 1996-11-22 1998-05-28 Geoworks Corporation Method of and apparatus for displaying an image of a document on a display
US7159172B1 (en) * 2000-11-08 2007-01-02 Xerox Corporation Display for rapid text reading
EP1215563A3 (en) * 2000-12-15 2004-07-07 Nokia Corporation Method and arrangement for displaying hypertext pages
CN101751216A (zh) * 2008-12-01 2010-06-23 立志凯株式会社 显示装置、显示方法以及印刷装置
CN102609228A (zh) * 2010-12-01 2012-07-25 卡西欧计算机株式会社 显示多语种的字符串的电子设备、显示方法及显示控制程序
CN102982328A (zh) * 2011-08-03 2013-03-20 夏普株式会社 字符识别装置和字符识别方法

Also Published As

Publication number Publication date
EP3125089B1 (en) 2018-10-24
EP3125089A4 (en) 2017-03-15
EP3125089A1 (en) 2017-02-01
US20160378312A1 (en) 2016-12-29
JP6206580B2 (ja) 2017-10-04
JPWO2015145570A1 (ja) 2017-04-13
WO2015145570A1 (ja) 2015-10-01
CN106104516B (zh) 2019-06-28
US10162501B2 (en) 2018-12-25

Similar Documents

Publication Publication Date Title
US12118683B2 (en) Content creation in augmented reality environment
CN106104451A (zh) 终端装置、显示控制方法以及程序
KR101085637B1 (ko) 펜 모션과 관련된 파라미터 조사에 의한 드웰 제스처의 검출을 위한 시스템, 방법 및 컴퓨터 판독 가능 기록 매체
WO2004031933B1 (en) Method of combining data entry of handwritten symbols with displayed character data
CN104238768A (zh) 手写输入装置以及控制方法
JP5606950B2 (ja) 電子機器、手書き処理方法、および手書き処理プログラム
KR101631011B1 (ko) 제스처 인식 장치 및 제스처 인식 장치의 제어 방법
JP2015153195A (ja) ジェスチャ認識装置およびジェスチャ認識装置の制御方法
JP2014075053A (ja) 電子機器、電子機器の制御方法、プログラム、記憶媒体
CN106104516A (zh) 终端装置、显示控制方法以及程序
CN108874216A (zh) 显示装置、显示控制方法和记录介质
US8913043B2 (en) Electronic writing apparatus, non-transitory recording medium, and electronic writing system
US20160313884A1 (en) Terminal device, display control method, and medium
CN101178810A (zh) 图像处理装置、图像的登录方法
US10444984B2 (en) Device processing method and electronic device
JP2018163441A (ja) 画像処理装置、及びプログラム
JP5902262B2 (ja) 電子機器および表示方法
JP2004021760A (ja) 文字認識装置及びその制御方法
JP2015005300A (ja) 電子機器および表示方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20190628