CN105917297A - 终端装置、显示控制方法以及程序 - Google Patents
终端装置、显示控制方法以及程序 Download PDFInfo
- Publication number
- CN105917297A CN105917297A CN201480073403.7A CN201480073403A CN105917297A CN 105917297 A CN105917297 A CN 105917297A CN 201480073403 A CN201480073403 A CN 201480073403A CN 105917297 A CN105917297 A CN 105917297A
- Authority
- CN
- China
- Prior art keywords
- mentioned
- row
- display
- character string
- axle
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/0483—Interaction with page-structured environments, e.g. book metaphor
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04883—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04886—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/10—Text processing
- G06F40/103—Formatting, i.e. changing of presentation of documents
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/048—Indexing scheme relating to G06F3/048
- G06F2203/04803—Split screen, i.e. subdividing the display area or the window area into separate subareas
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/048—Indexing scheme relating to G06F3/048
- G06F2203/04805—Virtual magnifying lens, i.e. window or frame movable on top of displayed information to enlarge it for better reading or selection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/048—Indexing scheme relating to G06F3/048
- G06F2203/04806—Zoom, i.e. interaction techniques or interactors for controlling the zooming operation
Abstract
本发明提供终端装置、显示控制方法以及程序。终端装置具有:提取部,上述提取部从图像数据所含的字符区域以行为单位提取字符串;判定部,上述判定部判定在上述以行为单位提取出的字符串中的、指定的行内的指定的位置在第1轴方向上是否移动了第1阈值以上,上述第1轴方向表示行的方向;以及显示控制部,在判定为上述第1轴方向的位置移动了上述第1阈值以上的情况下,上述显示控制部对在上述所指定的行内的上述第1轴方向的位置及其附近的字符串进行放大显示。
Description
技术领域
本发明涉及终端装置、显示控制方法以及程序。
背景技术
由于老花眼、弱视的人们难以看到细小的字符,因此有时为了容易辨认字符而使用放大镜(凸透镜)、老花眼镜。但是,放大镜、老花眼镜的使用麻烦,携带不便。
近年来,伴随智能手机的普及,提出使外出时携带的智能手机等电子设备具有放大镜、老花眼镜的功能。这样的字符放大功能例如能够通过以下来实现:由智能手机具有的相机拍摄对象物,将对被拍摄的对象物的规定的位置放大后的结果显示在画面上。
例如,在专利文献1中,从被显示在画面上的图像中检测人脸等关注的被摄体,按照被检测出的被摄体的位置、大小等决定用于将被摄体放大显示的显示区域、放大率。然后,关注的被摄体按照被决定的显示区域、放大率被放大显示在画面上。
专利文献1:日本特开2005-311888号公报
但是,在上述技术中,在将多行的字符串放大来显示时,当放大率变大时,由于手抖原因,难以在由相机拍摄的区域中放入规定的行。在上述技术中,由于将智能手机1等电子设备拿在手中进行操作,因此当放大率大时,由手抖而产生的影响变大,难以将一行正确地放入到相机的拍摄区域中进行放大显示。因此,存在难以使由智能手机1等放大显示的位置沿着一行移动的情况。
发明内容
因此,在一个方面,其目的在于提供能够减少在对字符串进行放大显示时的、放大显示位置的指定的误操作的终端装置、显示控制方法以及程序。
在一个方式中,提供一种终端装置,具有:
提取部,上述提取部从图像数据所含的字符区域中以行为单位提取字符串;
判定部,上述判定部判定在上述以行为单位提取出的字符串中的、指定的行内的指定的位置在第1轴方向上是否移动了第1阈值以上,上述第1轴方向表示行的方向;以及
显示控制部,在判定为上述第1轴方向的位置移动了上述第1阈值以上的情况下,上述显示控制部对在上述指定的行内的上述第1轴方向的位置及其附近的字符串进行放大显示。
作为一个方面,能够减少在对字符串进行放大显示时的、放大显示位置的指定的误操作。
附图说明
图1是示出一实施方式所涉及的终端装置的硬件结构的一例的图。
图2是示出一实施方式所涉及的终端装置的功能结构的一例的图。
图3是示出第1实施方式所涉及的字符放大显示处理的一例的流程图。
图4是用于说明一实施方式所涉及的以行为单位的字符串(英语)提取的图。
图5是用于说明一实施方式所涉及的以行为单位的字符串(日语)提取的图。
图6是示出第1实施方式所涉及的字符放大显示的一例的图。
图7是示出第2实施方式所涉及的字符放大显示处理的一例的流程图。
图8是示出第2实施方式所涉及的字符放大显示的一例的图。
图9是示出第3实施方式所涉及的字符放大显示处理的一例的流程图。
图10是用于说明第3实施方式所涉及的字符放大显示的图。
图11是用于说明第3实施方式所涉及的字符放大显示的图。
图12是用于说明第3实施方式所涉及的字符放大显示的图。
图13是用于说明第3实施方式所涉及的字符放大显示的图。
图14是示出变形例所涉及的字符放大显示的一例的图。
具体实施方式
以下,关于本发明实施方式参照附图来进行说明。另外,在本说明书以及附图中,对于实质上具有相同的功能结构的结构要素,通过标注相同的符号而省略重复的说明。
[硬件结构例]
首先,对本发明的一实施方式所涉及的终端装置的硬件结构的一例进行说明。图1示出一实施方式所涉及的终端装置的硬件结构的一例。一实施方式所涉及的终端装置是进行本发明的一实施方式所涉及的字符放大显示处理的电子设备,例如,作为一例列举出智能手机1、平板终端、便携式电话、电子书等。以下,作为本实施方式所涉及的终端装置的一例,以智能手机为例进行说明。
一实施方式所涉及的智能手机1具有CPU(Central ProcessingUnit,中央处理器)10、存储器11、触控面板12、相机13、操作按钮14、二级存储装置15、通信I/F(Interface,接口)16、无线通信I/F 17、外部I/F 18以及声音输入输出I/F 19。
CPU 10对智能手机1所具备的各部分进行综合控制。智能手机1所具备的功能通过由CPU 10将存储在存储器器11中的程序读出到RAM等中并执行来实现,上述存储器11由ROM(Read Only Memory,只读存储器)、RAM(Random Access Memory,随机存取存储器)等构成。
例如,CPU 10依次获取应用程序的指令进行解读,来执行其内容、运算、数据传输、控制等。在本实施方式中,CPU 10从存储器11或二级存储装置15读出字符放大显示处理程序、其他的应用程序、数据来执行字符放大显示处理。由此,CPU 10实现智能手机1的整体控制、搭载于智能手机1的字符放大显示控制功能。
触控面板12搭载能够检测出用户的手指、触控笔等对操作体的触控面的接触的传感器,并具有输入与用户的操作相应的数据的功能。此外,触控面板12具有将希望的对象显示在LCD(液晶显示器)等显示器的功能。在本实施方式中,通过用户的手指与触控面板的触控面接触的操作,来进行指定的字符串的放大显示。作为传感器的一例,列举压力传感器、静电电容传感器、光传感器等。不过,搭载于触控面板12的传感器只要能够检测操作体与触控面的接触以及不接触即可,可以为任何的传感器。
相机13具有镜头以及拍摄元件,对印刷有被摄体的印刷物、文件进行拍摄而获取其图像数据。操作按钮14是被设置为用于执行智能手机1的规定的功能的按钮,作为一例,列举出用于开关电源的电源按钮、返回到前面的图像显示的按钮(以下也称为“返回按钮”。)。
二级存储装置15能够由EEPROM(Electrically ErasableProgrammable Read-Only Memory,电可擦可编程只读存储器)、闪存、HDD(Hard Disk Drive,硬盘驱动器)等存储装置构成。二级存储装置15存储可供CPU 10执行的控制程序、OS程序以及可供CPU 10执行智能手机1所具有的各种功能的应用程序等。
通信I/F 16是用于经由通信网与外部的装置进行通信的接口。通信I/F 16经由通信网与各种通信终端连接,实现智能手机1与通信终端之间的数据的收发。此外,通信I/F 16也能作为用于经由便携式电话线路网与其他的装置之间收发电子邮件数据等的接口发挥功能。
无线通信I/F 17是用于与外部的装置进行无线通信的接口。例如,无线通信I/F 17是用于实现IrDA、IrSS等的红外线通信、蓝牙(Bluetooth,注册商标)通信、Wi-Fi(注册商标)通信、非接触型IC卡的任一种的无线通信手段的接口。
外部I/F 18是用于将外部的装置与智能手机1连接的接口。例如,外部I/F 18通过用于插入外置的存储介质(存储卡等)的插口、HDMI(High Definition Multimedia Interface,高清晰度多媒体接口)(注册商标)端子、USB(Universal Serial Bus,通用串行总线)端子等实现。在该情况下,CPU 10经由外部I/F 18与外部的装置进行数据的收发。
声音输入输出I/F 19是用于输出经智能手机1处理后的声音数据的接口,例如通过扬声器、头戴式耳机端子和头戴式耳机等实现。此外,声音输入输出I/F 19是用于输入在智能手机1的外部产生的声音的接口,例如通过麦克等实现。
[功能结构例]
接着,关于本发明的一实施方式所涉及的终端装置的功能结构,参照图2来进行说明。图2是示出一实施方式所涉及的终端装置的功能的一例。以下,以智能手机1为例来对功能的一例进行说明。
一实施方式所涉及的智能手机1具有拍摄部101、存储部102、提取部103、位置检测部104、运算部105、判定部106、显示控制部107、通信部108、无线通信部109以及声音输入输出部110。
拍摄部101获取拍摄文件等得出的图像数据。拍摄部101例如通过相机13实现。
存储部102存储获取的图像数据、各种程序、各种数据。存储部102预先设定并存储后述的第1阈值以及第2阈值。存储部102例如通过存储器11、二级存储装置15实现。
提取部103从图像数据所含的字符区域中以行为单位提取字符串。
位置检测部104检测操作体对于触控面的接触、操作体对于触控面的接触的解除(手指的释放等)。位置检测部104例如通过搭载于触控面板12的传感器实现。
运算部105基于检测出的对触控面的接触计算操作体的触控位置的坐标(x,y),或者计算操作体的移动方向、移动距离。
判定部106判定是否存在与由操作体的触控位置指定的行连续的行。
显示控制部107对提取出的以行为单位的字符串中的、由操作体指定的行内的触控位置及其附近的字符串进行放大显示。显示控制部107在后述的规定的情况下对其下一行或者前一行的行头及其附近的字符串进行放大显示。运算部105、判定部106以及显示控制部107的功能通过CPU 10实现。
通信部108与外部的装置进行信息的收发。无线通信部109与外部的装置进行无线通信。声音输入输出部110对声音数据进行输入输出。
以上,作为一实施方式所涉及的终端装置的一例,对智能手机1的硬件结构以及功能结构进行了说明。接着,对第1~第3实施方式所涉及的字符放大显示处理依次进行说明。
<第1实施方式>
[智能手机1的动作(字符放大显示处理)]
关于第1实施方式所涉及的智能手机1执行的字符放大显示处理的一例,参照图3来进行说明。图3是示出第1实施方式所涉及的字符放大显示处理的一例的流程图。
另外,在图像数据所含的字符串的方向相对于画面的水平方向小于±45度的情况下,判定为字符串以横写的方式被记载,将画面的水平方向(横向)设为第1轴,将画面的垂直方向(纵向)设为第2轴。在图像数据所含的字符串的方向相对于画面的垂直方向小于±45度的情况下,判定为字符串以竖写地方式被记载,将画面的垂直方向(纵向)设为第1轴,将画面的水平方向(横向)设为第2轴。以下的说明是横写的情况,画面的水平方向被设为第1轴(行方向),画面的垂直方向被设为第2轴。
当第1实施方式所涉及的字符放大显示处理开始时,拍摄部101对文件等进行拍摄,并将包含字符的图像数据获取到智能手机1中。(步骤S10)。图4(a)以及图5(a)是通过拍摄被印刷在纸媒体上的英语的文件以及日语的文件而由智能手机1取得的图像数据的一例。
接着,提取部103解析所取得的图像数据的布局,从图像数据所含的字符区域以行为单位提取字符串(步骤S12)。例如,提取部103使用光学字符识别(OCR:optical Character Recognition)技术来执行布局解析处理,进行行方向的提取,并进行以行为单位的字符串的提取。此时,提取部103不只提取一行,还提取多行,根据行的位置关系来决定行的顺序。即使在图表与字符串混在一起的地图像数据中,也通过执行布局解析处理来自动地将图表与字符串分离,以行为单位仅提取字符串。图4(b)以及图5(b)示出从图像数据中以行为单位提取字符串的状态的一例。各框内的字符串是以行为单位提取出的字符串。提取部103提取字符尺寸、字符间隔,并以字符尺寸、字符间隔为基准推定行方向(竖写或者横写)。提取部103基于推定的行方向提取行的中心线以及中心线的2端点的坐标。
另外,提取部103进行布局的解析的图像数据可以不是被拍摄部101拍摄的图像数据。例如,可以是被保存在智能手机1内的图像数据。在该情况下,在步骤S10中,代替进行图像的拍摄转而从二级存储装置15获取图像数据。
当用户的手指触控了触控面时,显示控制部107显示通过触控位置而指定的行(步骤S14)。
例如,在图4的(c)以及图5的(c)中示出触控面板12的画面的一例。该例中,触控面板12的画面在上下方向上被分成两个部分。在行显示画面3中显示以指定的行为中心的图像数据的一部分。更详细而言,在行显示画面3上显示有当前指定的行的中心线、下一行(前一行)的一部分、被放大显示在放大显示画面2的字符串的区域(放大显示区域4)、拖动按钮5。
返回到图3,当用户将手指触控到拖动按钮5来操作拖动按钮5时,显示控制部107对指定的行内的指定的位置及其附近的字符串放大了的图像进行显示(步骤S16)。以下,将用户用手指触控在行显示画面3上显示的拖动按钮5的操作以及使手指与拖动按钮5保持接触并移动的操作也称为拖动(drag)。
例如,在图4(c)以及图5(c)的放大显示画面2中显示在行显示画面3示出的放大显示区域4内的字符串。也就是说,在放大显示画面2中显示将由拖动按钮5指定的位置及其附近放大后的字符串。
返回到图3,接着,判定部106判定是否进行了结束动作(步骤S18)。例如,当用户按下返回按钮(未图示)时,判定部106判定为进行了结束动作,结束本处理。在返回按钮未被按下的情况下,判定部106判定为未进行结束动作,位置检测部104检测与用户的拖动操作相应的拖动按钮5的位置(触控位置)的移动(步骤S20)。
判定部106基于检测出的拖动按钮5的位置判定拖动按钮5是否沿行方向移动(步骤S22)。判定部106在判定为拖动按钮5沿行方向移动的情况下,判定是否移动到了指定的行的行末(步骤S24)。此时,判定部106基于经提取部103提取出的行的中心线的2端点的坐标来判定是否是行末。
在步骤S24中,判定部106在判定出拖动按钮5未移动到行末的情况下,判定拖动按钮5是否移动到指定的行的行头(步骤S28)。此时,判定部106基于经提取部103提取出的行的中心线的2端点的坐标来判定是否是行头。在判定部106判定出拖动按钮5未移动到指定的行的行头的情况下,显示控制部107提取用户的手指使拖动按钮5移动时的、行方向的分量。显示控制部107使在放大显示画面2显示的字符串的显示区域沿行的中心线移动所提取的行方向的分量大小(步骤S30)。
例如,在图6(a)中,拖动按钮5被显示在行显示画面3的相比中央略靠前的位置。用户从该状态起使拖动按钮5从左向右沿行方向移动。与拖动按钮5的移动相应地,在放大显示画面2被放大显示的字符串从图6(a)所示的放大显示区域4向图6(b)所示的放大显示区域4移动。
返回到图3,显示控制部107将移动后的拖动按钮5的位置及其附近(放大显示区域4)的字符串放大显示(步骤S16)。接着,判定部106再次判定是否进行了结束的动作(步骤S18)。在返回按钮未被按下的情况下,位置检测部104再一次检测拖动按钮5的位置(触控位置)的坐标(步骤S20)。
接着,判定部106基于检测出的拖动按钮5的位置判定拖动按钮5是否沿行方向移动(步骤S22)。
如使拖动按钮5的位置在图6的第2轴的方向上移动的情况那样,在拖动按钮5明确地在与行方向垂直的方向上移动的情况下,判定部106判定为拖动按钮5未沿行方向移动,当在其以外的方向上移动的情况下,可以判定为拖动按钮5沿行方向移动。判定部106在判定为拖动按钮5沿行方向移动的情况下,通过使拖动按钮5移动将拖动按钮5的位置的移动划分为第1轴分量和第2轴分量时的第1轴分量(即行方向的分量)的大小,能够划定要放大显示的字符串。也就是说,显示控制部107使行显示画面3的拖动按钮5沿行的中心线移动第1轴分量大小。伴随于此,在放大显示画面2放大显示的字符串发生变化。由此,用户即使不将拖动按钮5准确地追踪于行的中心线上,也能够将指定的行的字符串在行方向上放大而顺畅地阅读。
另外,竖写的情况也同样如此,显示控制部107使拖动按钮5移动将拖动按钮5的位置的移动划分为第1轴分量和第2轴分量时的第1轴(画面的垂直方向(纵向))的分量大小。由此,用户能够将指定的行的字符串在行方向放大而顺畅地阅读。
在步骤S22中,判定部106在判定为拖动按钮5未沿行方向移动的情况下,判定拖动按钮5是否向指定的行的下一行方向移动(步骤S32)。例如,在拖动按钮5在画面的垂直方向上移动的情况下或在拖动按钮5的移动方向相对于画面的垂直方向小于±45度的情况下,判定部106可以判定为未沿行方向移动。在步骤S32中,在判定部106判定为拖动按钮5向下一行方向移动的情况下,显示控制部107将画面上的显示位置的起始移动到下一行的行头(步骤S26),在行显示画面3显示下一行(步骤S14),在放大显示画面2显示下一行的行头(步骤S16)。其结果,如图6(c)所示,在行显示画面3显示下一行,在放大显示画面2显示被行显示画面3的放大显示区域4示出的字符串、也就是说下一行的起始及其附近的字符串。
另一方面,在步骤S32中,在判定部106判定为拖动按钮5未向下一行方向移动的情况下,显示控制部107将画面上的显示位置的起始向前一行的行头移动(步骤S34),在行显示画面3显示前一行(步骤S14),在放大显示画面2显示前一行的行头(步骤S16)。
此处,对以下情况进行了说明:基于在未进行结束动作时检测出的拖动按钮5的位置(步骤S20),在步骤S22中判定为拖动按钮5沿行方向移动,在步骤S24中判定为拖动按钮5移动到了指定的行的行末。该情况例如是图6(a)所示的拖动按钮5移动到行末的情况。在该情况下,前进至步骤S26,显示控制部107将画面上的显示位置的起始移动到下一行的行头,在行显示画面3显示下一行(步骤S14),在放大显示画面2上显示下一行的行头(步骤S16)。由此,通过拖动按钮5自动地移动到下一行,能够可靠地使放大显示移动到下一行的行头。由此,用户能够对指定的行的下一行放大而顺畅地阅读。
接着,对以下情况进行说明:基于检测出的拖动按钮5的位置(步骤S20),判定为拖动按钮5沿行方向移动(步骤S22),不过并非移动到指定的行的行末,而移动到了行头(步骤S24、S28)。该情况例如是图6(a)所示的拖动按钮5向与图6(a)所示的箭头相反方向前进而移动到了行头的情况。在该情况下,前进至步骤34,显示控制部107将画面上的显示位置的起始向前一行的行头移动,在行显示画面3显示前一行(步骤S14),在放大显示画面2显示前一行的行头(步骤S16)。由此,通过拖动按钮5自动地移动到前一行,能够可靠地使放大显示向前一行的行头移动。由此,用户能够对指定的行的前一行放大而顺畅地阅读。
如以上说明那样,根据在步骤S20中被检测出的拖动按钮5的位置,重复地执行步骤S22~S34的至少任意一个的处理。其结果,在步骤S14中,指定行的字符串的整体被显示在行显示画面3。与此同时,在步骤S16中,指定行内的指定位置及其附近的字符串在放大显示画面2中被放大显示。由此,用户能够对指定的行放大而顺畅地阅读。至此,对第1实施方式所涉及的智能手机1执行的字符放大显示处理的一例进行了说明。
[效果的例子]
基于屏幕的触控操作等的位置的指定与使用鼠标的位置的指定相比精度低。因此,在屏幕的触控操作等中,当想要放大某字符区域时,有时不是希望看的字符部分、而是周边的其他部分被放大显示。
与此相对,根据第1实施方式所涉及的字符放大显示处理,能够容易进行对字符串进行放大显示时的、要进行放大显示的位置的指定。具体而言,在本实施方式中,在文件的布局解析中,从图像数据所含的字符区域中以行为单位提取字符串。接着,计算提取出的行的中心线及其两端点,并执行沿该中心线使放大显示区域移动的处理。由此,即使由于操作手指的抖动而导致希望放大显示的字符区域的指定不准确,只要在行显示画面3中沿行方向移动手指,便能够稳定地进行指定行的指定的位置的放大显示。
此外,根据本实施方式所涉及的字符放大显示处理,在读完一行后自动地对下一行的起始进行放大显示。想要返回到前一行的情况也同样如此。因此,用户可以不在画面上搜索下一行、前一行的起始。凭此,也能够容易地进行将字符串放大显示时的、待放大显示的位置的指定。
进而,在本实施方式所涉及的字符放大显示处理中,能够无误且快速地显示希望放大的位置的字符串。在例如通过OCR对印刷在纸媒体上的文件进行字符识别而将字符码在画面上进行放大显示的情况下,发生对希望放大的位置的字符的错误识别,难以100%无误地显示。此外,在基于OCR的字符识别中,由于以从图像数据提取行内的字符串、根据所提取出的行内的字符串识别各字符这两个阶段进行字符识别,因此在处理上花费时间。与此相对,在本实施方式所涉及的字符放大显示处理中,以行为单位识别字符串,并非以字符为单位识别行内的希望放大的位置的字符。因此,能够无误地对想要以行为单位放大的位置的字符进行放大显示。此外,在本实施方式所涉及的字符放大显示处理中,由于以行为单位执行字符的放大显示处理,因此与以字符为单位执行字符的放大显示处理的情况相比能够缩短处理,能够进行放大显示的快速处理。由此,能够加速指定的字符串被放大显示以前的反应。因此,即使是老花眼、弱视的用户,也能够利用智能手机1更顺畅地阅读。
(以单词为单位的显示)
在如英语那样在单词间有空白的语言中,能够以指定的行内的单词为单位来进行放大显示的控制。在该情况下,所指定的位置及其附近的字符串以单词为单位被放大显示。具体而言,显示控制部107可以在拖动按钮5的位置移动至相比前一单词的中央的位置与下一单词的中央的位置的中点靠下一单词侧时放大显示下一单词整体。
据此,如图6(d)所示,显示以单词为单位而被放大的字符串。由此,不会如图6(c)所示将一个单词以中断的状态显示。因此,能够以更便于用户识别的状态对字符串进行放大显示。其结果,存在显示的放大率由于单词不同而变小的情况。例如,长单词为了进入到画面内而与短单词相比缩小放大率来显示。由此,一个单词不会以中断的状态被显示,因此能够以更容易识别字符串的状态进行显示。
<第2实施方式>
[智能手机1的动作(字符放大显示处理)]
接着,对第2实施方式所涉及的智能手机1执行的字符放大显示处理的一例,参照图7来进行说明。图7是示出第2实施方式所涉及的字符放大显示处理的一例的流程图。图7所示的各步骤中的、执行与图3所示的第1实施方式所涉及的字符放大显示处理相同的处理的步骤通过与图3相同的步骤编号示出。因此,以下,围绕由与图3不同的步骤编号示出的步骤,对第2实施方式所涉及的字符放大显示处理进行说明,避免与第1实施方式的重复说明。
当第2实施方式所涉及的字符放大显示处理开始时,在图像拍摄后,执行基于图像数据的布局解析的以行为单位的字符串的提取、指定的行的字符串的显示以及指定的位置附近的字符串的放大显示(步骤S10~S16)。此外,在动作按钮未被按下期间(步骤S18),位置检测部104检测拖动按钮5的位置(触控位置)的坐标(步骤S20)。
接着,判定部106基于检测出的拖动按钮5的位置判定拖动操作是否已结束(步骤S40)。判定部106在判定为拖动操作已结束的情况下,判定是否存在已指定的行的下一行(步骤S42)。在存在下一行的情况下,显示控制部107将画面上的显示位置的起始移动到下一行的行头(步骤S26),在行显示画面3显示下一行(步骤S14),在放大显示画面2显示下一行的行头(步骤S16)。例如,如图8的(b)所示,当手指从拖动按钮5离开时,如图8的(c)所示,下一行自动地被显示在行显示画面3,下一行的起始及其附近的字符串自动地被放大显示于显示画面2。
在判定为操作手指移动到了行末或者行头的情况下(步骤S24、S28)使放大显示的字符串自动地显示下一行或者前一行的起始的处理(步骤S26、S34、S16、S18)与第1实施方式相同。此外,对于根据操作手指的移动而使放大显示的字符串移动的处理(步骤S30、S16、S18)而言,也与第1实施方式相同。因此,省略这些处理的说明。至此,对第2实施方式所涉及的智能手机1执行的字符放大显示处理的一例进行了说明。
另外,判定部106在判定为存在已指定的行的下一行的情况下,可以判定第1轴上的位置距离上述下一行的行头是否处于规定范围内,上述第1轴上的位置是将上述位置的指定解除后指定的位置划分到第1轴上的位置以及第2轴上的位置时的第1轴上的位置,上述第1轴表示上述行的方向,上述第2轴与上述第1轴垂直。判定部106在判定为存在已指定的行的下一行的情况下,也可以判定上述位置的指定解除后指定的位置距离下一行的行头是否处于规定范围内。在判定部106判定为所指定的位置距离下一行的行头处于规定范围内的情况下,显示控制部107可以对下一行的行头及其附近的字符串进行放大显示。
[效果的例子]
基于屏幕的触控操作等的位置的指定与使用鼠标的位置的指定相比精度低。因此,在对某行进行放大显示后想要放大显示下一行的情况下,存在难以指定下一行的起始的情况。特别在为行间隔窄的字符串时,难以指定放大显示中的下一行的起始。此时,如果指定位置的用户的手指从下一行的位置上下偏移,则处于与下一行的行头不同的偏移位置的行的字符部分被放大显示,难以放大希望的行的字符,妨碍利用智能手机1顺畅地阅读文件。
与此相对,根据第2实施方式所涉及的字符放大显示处理,能够容易地进行放大显示字符串时的、相邻的行的起始的位置的指定。
具体而言,根据本实施方式所涉及的字符放大显示处理,从画面中以行为单位提取字符串部分,并判断被用户指定放大的部分处于哪行。并且,在本实施方式中,如果判断为该行的指定已结束,则在判断接着要进行放大显示的对象时,即使被用户的手指等指定放大的位置不在被视为下一行的位置,也能够从下一行判断要进行放大显示的对象的字符串。
也就是说,例如在本实施方式中,控制为当将操作手指从画面撤离时,使放大显示的字符串自动地移动到下一行或者前一行的起始。因此,用户可以不在画面上搜索希望的行的起始来通过触控画面指定希望的行的起始。
此外,在本实施方式中,同样能够起到与第1实施方式的效果例中说明的效果相同的效果。
另外,解除指定位置的操作不限于将手指从画面上撤离的操作。例如,在进行使手指向与移动方向相反方向移动的操作的情况下,判断为指定位置被解除,与在上述实施方式中将手指从画面撤离时相同,可以使放大显示的字符串自动地移动到下一行的起始。
(以单词为单位的显示)
与第1实施方式相同,显示控制部107可以以单词为单位进行所指定的位置及其附近的字符串的放大显示。据此,在将手指沿行方向移动中,在放大显示画面2以单词为单位显示放大的字符串。例如,在图8(c)中在放大显示画面2上以像素为单位放大显示字符串,与此相对,在图8(d)中,以单词为单位放大显示字符串。由此,一个单词不会被以中断的状态显示,因此能够将字符串以更容易识别的状态显示。
<第3实施方式>
[智能手机1的动作(放大显示处理)]
接着,关于第3实施方式所涉及的智能手机1执行的字符放大显示处理的一例,参照图9来进行说明。图9是示出第3实施方式所涉及的字符放大显示处理的一例的流程图。在图9所示的各步骤中的、进行与图3所示的第1实施方式所涉及的字符放大显示处理相同的处理的步骤,由与图3相同的步骤编号示出。因此,以下,围绕由与图3不同的步骤编号示出的步骤对第3实施方式所涉及的字符放大显示处理进行说明,避免与第1实施方式的重复说明。
当开始第3实施方式所涉及的字符放大显示处理并拍摄图像时(步骤S10),提取部103通过图像数据的布局解析提取以行为单位的字符串,并提取行的中心线(ax+by+c=0)(步骤S50)。接着,当用户开始拖动时,位置检测部104将拖动按钮5的开始位置的坐标保存在存储部102(步骤S52)。以下,将拖动按钮5的开始位置的坐标表述为拖动开始点(x0,y0)。
接着,显示控制部107在行显示画面3显示指定的行(步骤S14),并在放大显示画面2放大显示拖动按钮5的附近的字符串(步骤S16)。接着,在返回按钮未被按下的情况下,判定部106判定为未进行结束动作(步骤S18)。在该情况下,位置检测部104检测拖动按钮5的移动中途的坐标(步骤S54)。以下,将拖动按钮5的移动中途的坐标表述为拖动中途点(x,y)。
接着,运算部105计算从拖动开始点(x0,y0)到拖动中途点(x,y)的距离的差分Δ,判定部106判定计算得到的距离的差分Δ是否为规定的阈值以上(步骤S56)。
关于该距离的差分Δ的计算方法参照图10来进行说明。在图10中示出拖动开始点(x0,y0)、拖动中途点(x,y)以及到拖动开始点(x0,y0)最近的中心线(ax+by+c=0)的一例。
从拖动开始点(x0,y0)向中心线投影的点(x1,y1)通过下式(1)示出。
(x1,y1)=(x0,y0)-(ax0+by0+c)(a,b)/(a2+b2)…(1)
从拖动中途点(x,y)向中心线投影的点(x2,y2)通过下式(2)示出。
(x2,y2)=(x,y)-(ax+by+c)(a,b)/(a2+b2)…(2)
从拖动开始点(x0,y0)向中心线投影的点(x1,y1)与从拖动中途点(x,y)向中心线投影的点(x2,y2)的距离的差分Δ如以下那样被定义。
|a/b|<1的情况下,差分Δ=|x2-x1|
|a/b|≥1的情况下,差分Δ=|y2-y1|
中心线(ax+by+c=0)的斜率根据y=-a/b·x-c/b通过“-a/b”示出。如图11所示,在中心线的斜率相对于画面的水平方向(第1轴)小于±45度的情况下,满足|a/b|<1。也就是说,如拖动按钮5从位置A拖动到位置B的情况那样,是将拖动按钮5的移动划分为第1轴分量和第2轴分量时的第1轴分量比第2轴分量大的情况。如此,当满足|a/b|<1时,运算部105使用距离的差分Δ=|x2-x1|的式子计算拖动按钮5在第1轴方向上移动的距离的差分Δ。
另一方面,在中心线的斜率相对于画面的垂直方向(第2轴)小于±45度的情况下,满足|a/b|≥1。也就是说,如拖动按钮5从位置A被拖动到位置C的情况那样,是拖动按钮5的移动所产生的第2轴分量比第1轴分量大的情况。如此,当满足|a/b|≥1时,运算部105基于距离的差分Δ=|y2-y1|计算拖动按钮5在第2轴方向上移动的距离的差分Δ。
返回到图9,判定部106判定计算得到的距离的差分Δ是否为规定的阈值以上(步骤S56)。在判定部106判定为计算得到的距离的差分Δ为规定的阈值以上的情况下,显示控制部107将从拖动中途点(x,y)向中心线投影的点(x2,y2)作为拖动中途点的坐标,来对拖动按钮5的位置及其附近的字符串进行放大显示。
例如,当满足|a/b|<1时,从拖动开始点到拖动中途点的移动量通过第1轴方向的差分Δ=|x2-x1|被定义。判定部106判定计算得到的距离的差分Δ(=|x2-x1|)是否为预先被确定的第1阈值以上(步骤S56)。在判定部106判定为计算得到的距离的差分Δ(=|x2-x1|)为第1阈值以上的情况下,显示控制部107使拖动按钮5沿第一轴方向移动从拖动开始点起的拖动按钮5的第1轴方向的距离的差分Δ(=|x2-x1|),并对拖动按钮5所所处的拖动中途点及其附近的字符串进行放大显示。例如,当满足|a/b|<1时,在图12中,示出从拖动开始点P1到拖动中途点P3的第1轴方向的距离的差分Δ为第1阈值的情况。在该情况下,显示控制部107基于从拖动中途点(x,y)向图10的中心线投影的点(x2,y2)的x坐标,与差分Δ(=|x2-x1|)相应地使放大显示区域在第1轴方向上移动(步骤S60)。之后,即使拖动按钮5的位置移动到不满足|a/b|<1的位置(例如,图12的点P4等),在指定位置被解除以前,显示控制部107依然基于点(x2,y2)的x坐标与差分Δ(=|x2-x1|)相应地使放大显示区域在第1轴方向上移动。
由此,即使如图12的虚线所示在用户的拖动操作中产生抖动,在移动了第1阈值以上的拖动操作中也只有第1轴方向分量有效。例如,尽管拖动按钮5的位置处于点P4,却将P4'的位置及其附近进行放大显示。由此,第1轴上的位置及其附近被放大显示。因此,根据本实施方式所涉及的放大显示处理,通过使针对用户的操作的行内的区域移动稳定,能够减少放大显示的误操作。
另外,作为指定位置被解除时的一例,列举了图9的步骤S24、S28所示的、画面上的拖动按钮5位于指定行的行末或者行头时。作为其他的例子,可以在手指从画面上的拖动按钮5释放时判定为指定位置被解除,对此图9中未予图示。此外,也可以在手指接触着画面上的拖动按钮5并将手指沿行方向滑动过程中使手指向相反方向移动时,判定为指定位置被解除。
在图9的步骤S60被执行后,显示控制部107对第1轴上的拖动中途点的位置及其附近的字符串进行放大显示(步骤S16)。在返回的按钮未被按下期间(步骤S18),与在步骤S54中检测出的拖动中途点的位置相应地重复执行步骤S56之后的步骤。
另一方面,当满足|a/b|≥1时,从拖动开始点到拖动中途点的移动量通过第2轴方向(与行方向垂直的方向)的差分Δ=|y2-y1|被定义。判定部106判定计算得到的距离的差分Δ(=|y2-y1|)是否为预先被确定的第2阈值以上(步骤S56)。在判定部106判定为计算得到的距离的差分Δ(=|y2-y1|)为第2阈值以上的情况下,显示控制部107确定使拖动按钮5沿第2轴方向移动差分Δ(=|y2-y1|)大小时的位置或者其附近的位置的行,并对确定的行的行头及其附近的字符串进行放大显示。例如,当满足|a/b|≥1时,如图13所示,判定拖动按钮5从拖动开始点P5到拖动中途点P7移动时的第2轴方向距离的差分Δ是否为第2阈值以上。在为第2阈值以上的情况下,显示控制部107基于从拖动中途点(x,y)向图10的中心线投影的点(x2,y2)的y坐标,与差分Δ=|y2-y1|相应地使显示区域沿第2轴方向移动由差分Δ示出的长度大小。然后,显示控制部107对移动后的位置的行的行头及其附近的字符串进行放大显示(步骤S60、S16)。例如,在拖动按钮5移动到图13的点P8的情况下,下一行的行头及其附近的字符串被放大显示。
另外,在判定为拖动按钮5移动到图13的点P8、拖动按钮5距离下一行Ln+1的行头处于规定范围内(例如,距离行Ln+1的行头的放大显示区域4)的情况下,下一行的行头及其附近的字符串可以被放大显示。
在返回的按钮未被按下的期间(步骤S18),与在步骤S54中检测出的拖动中途点的位置相应地重复执行步骤S14之后的步骤。至此,对第3实施方式所涉及的智能手机1执行的字符放大显示处理的一例进行了说明。
另外,判定部106可以判定指定的位置在表示行的方向的第1轴方向上是否移动了第1阈值以上。在判定部106判定为上述第1轴方向的位置移动了上述第1阈值以上的情况下,显示控制部107可以在进行所指定的位置的指定的解除以前在上述指定的行内对上述第1轴方向的位置及其附近的字符串进行放大显示。
[效果的例子]
在行间隔窄的字符串的显示等中,当想要对某行内的字符串进行放大显示而形成放大的位置期间,有时指尖会上下抖动而将不希望的上下的行内的字符串放大显示。
与此相对,根据第3实施方式所涉及的字符放大显示处理,能够减少对字符串进行放大显示时的、放大显示位置的指定的误操作。
具体而言,根据本实施方式所涉及的字符放大显示处理,从画面中以行为单位提取字符串部分,基于拖动操作的移动量与第1或者第2阈值的比较,判断被用户指定放大显示的行是否正处于放大显示中。其结果,在本实施方式中,当某行被判断为正处于放大显示中时,之后即使正被指定放大显示的位置移动到处于当前正放大显示的行的上下的行的部分,仍控制显示为不变更作为放大显示对象的行。由此,能够减少由于指尖的抖动而导致的放大显示位置的指定的误操作。此外,在本实施方式中也能够起到与在第1以及第2实施方式的效果例中说明的效果相同的效果。
(以单词为单位的显示)
与第1以及第2实施方式相同,显示控制部107针对指定的位置及其附近的字符串可以以上述指定的行内的单词为单位进行放大显示。据此,在将手指沿行方向移动中,在放大显示画面2上显示以单词为单位放大的字符串。由此,一个单词不会以中断的状态被显示,因此能够将放大显示的字符串以更便于识别的状态向用户显示。
至此,通过上述实施方式对终端装置、显示控制方法以及程序进行了说明,但本发明并不局限于上述实施方式,能够在本发明的范围内进行各种变形以及改进。此外,上述各实施方式能够在不矛盾的范围内进行组合。
例如,在上述各实施方式中,将画面分割成两个区域,在一个区域显示行整体,在另一个区域放大显示作为指定的行内的对象的字符串。但是,也可以设定为不对画面进行分割,而是在一个画面的整个区域对成为指定的行内的对象的字符串进行放大显示。例如,如图14(a)所示,用手指触控被分割为两个区域的两个画面的边界,使该手指下移(图14(a)的(1)),由此如图14(b)所示能够形成放大显示画面2的单个画面。在该情况下,用户在放大显示画面2进行拖动操作。并且,如图14(c)所示,可以再次将画面分割成行显示画面3与放大显示画面2这两个区域。
此外,如图14(a)所示,可以在被分割成2画面的情况的行显示画面3中进行拖动操作,也可以在放大显示画面2中进行拖动操作。
此外,在上述各实施方式中,以为了确定指定位置而显示拖动按钮5的情况为例进行了说明,不过拖动按钮5可以不必显示。
此外,在上述各实施方式中,以横写的字符串为例进行了说明,不过本发明所涉及的字符放大显示处理也能应用于竖写的字符串,也就是说,第1轴为纵向的字符串。
符号说明
1:智能手机;2:放大显示画面;3:行显示画面;4:放大显示区域;5:拖动按钮;10:CPU;11:存储器;12:触控面板;15:二级存储装置;101:拍摄部;102:存储部;103:提取部;104:位置检测部;105:运算部;106:判定部;107:显示控制部。
Claims (15)
1.一种终端装置,其中,具有:
提取部,上述提取部从图像数据所含的字符区域中以行为单位提取字符串;
判定部,上述判定部判定上述以行为单位提取出的字符串中的、指定的行内的指定的位置是否沿第1轴方向移动了第1阈值以上,上述第1轴方向表示行的方向;以及
显示控制部,在判定为上述第1轴方向的位置移动了上述第1阈值以上的情况下,上述显示控制部对上述指定的行内的上述第1轴方向的位置及其附近的字符串进行放大显示。
2.根据权利要求1所述的终端装置,其中,
上述显示控制部在上述位置的指定被解除以前,对上述指定的行内的上述第1轴方向的位置及其附近的字符串进行放大显示。
3.根据权利要求1所述的终端装置,其中,
上述判定部在上述位置的指定已被解除的情况下,判定是否存在上述指定的行的下一行,
在判定为存在上述指定的行的下一行的情况下,上述显示控制部对上述下一行的行头及其附近的字符串进行放大显示。
4.根据权利要求1所述的终端装置,其中,
在将上述位置的移动划分为上述第1轴上的分量以及与上述第1轴垂直的第2轴上的分量时,当上述第2轴上的分量比上述第1轴上的分量大的情况下,上述判定部判定上述第2轴上的分量所示的上述第2轴方向的位置是否移动了第2阈值以上,
在判定为上述第2轴方向的位置移动了上述第2阈值以上的情况下,上述显示控制部对上述第2轴方向的位置的行的行头及其附近的字符串进行放大显示,或者对上述第2轴方向的位置的附近的位置的行的行头及其附近的字符串进行放大显示。
5.根据权利要求1所述的终端装置,其中,
上述显示控制部针对上述指定的位置及其附近的字符串以上述指定的行内的单词为单位进行放大显示。
6.一种显示控制方法,其中,计算机执行以下处理:
从图像数据所含的字符区域中以行为单位提取字符串;
判定上述以行为单位提取出的字符串中的、指定的行内的指定的位置是否沿第1轴方向移动了第1阈值以上,所述第1轴方向表示行的方向;以及
在判定为上述第1轴方向的位置移动了上述第1阈值以上的情况下,对上述指定的行内的上述第1轴方向的位置及其附近的字符串进行放大显示。
7.根据权利要求6所述的显示控制方法,其中,
在上述位置的指定被解除以前,对上述指定的行内的上述第1轴方向的位置及其附近的字符串进行放大显示。
8.根据权利要求6所述的显示控制方法,其中,
在上述位置的指定已被解除的情况下,判定是否存在上述指定的行的下一行,
在判定为存在上述指定的行的下一行的情况下,对上述下一行的行头及其附近的字符串进行放大显示。
9.根据权利要求6所述的显示控制方法,其中,
在将上述位置的移动划分为上述第1轴上的分量以及与上述第1轴垂直的第2轴上的分量时,当上述第2轴上的分量比上述第1轴上的分量大的情况下,判定上述第2轴上的分量所示的上述第2轴方向的位置是否移动了第2阈值以上,
在判定为上述第2轴方向的位置移动了上述第2阈值以上的情况下,对上述第2轴方向的位置的行的行头及其附近的字符串进行放大显示,或者对上述第2轴方向的位置的附近的位置的行的行头及其附近的字符串进行放大显示。
10.根据权利要求6所述的显示控制方法,其中,
针对上述指定的位置及其附近的字符串以上述指定的行内的单词为单位进行放大显示。
11.一种程序,其中,被用于使计算机执行以下处理:
从图像数据所含的字符区域中以行为单位提取字符串;
判定上述以行为单位提取出的字符串中的、指定的行内的指定的位置是否沿第1轴方向移动了第1阈值以上,所述第1轴方向表示行的方向;以及
在判定为上述第1轴方向的位置移动了上述第1阈值以上的情况下,对上述指定的行内的上述第1轴方向的位置及其附近的字符串进行放大显示。
12.根据权利要求11所述的程序,其中,
在上述位置的指定被解除以前,对上述指定的行内的上述第1轴方向的位置及其附近的字符串进行放大显示。
13.根据权利要求11所述的程序,其中,
在上述位置的指定已被解除的情况下,判定是否存在上述指定的行的下一行,
在判定为存在上述指定的行的下一行的情况下,对上述下一行的行头及其附近的字符串进行放大显示。
14.根据权利要求11所述的程序,其中,
在将上述位置的移动划分为上述第1轴上的分量以及与上述第1轴垂直的第2轴上的分量时,当上述第2轴上的分量比上述第1轴上的分量大的情况下,判定上述第2轴上的分量所示的上述第2轴方向的位置是否移动了第2阈值以上,
在判定为上述第2轴方向的位置移动了上述第2阈值以上的情况下,对上述第2轴方向的位置的行的行头及其附近的字符串进行放大显示,或者对上述第2轴方向的位置的附近的位置的行的行头及其附近的字符串进行放大显示。
15.根据权利要求11所述的程序,其中,
针对上述指定的位置及其附近的字符串以上述指定的行内的单词为单位进行放大显示。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2014/058285 WO2015145572A1 (ja) | 2014-03-25 | 2014-03-25 | 端末装置、表示制御方法及びプログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
CN105917297A true CN105917297A (zh) | 2016-08-31 |
Family
ID=54194171
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201480073403.7A Pending CN105917297A (zh) | 2014-03-25 | 2014-03-25 | 终端装置、显示控制方法以及程序 |
Country Status (5)
Country | Link |
---|---|
US (1) | US20160313884A1 (zh) |
EP (1) | EP3125088B1 (zh) |
JP (1) | JP6164361B2 (zh) |
CN (1) | CN105917297A (zh) |
WO (1) | WO2015145572A1 (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115243098A (zh) * | 2022-07-19 | 2022-10-25 | 上海联影医疗科技股份有限公司 | 屏幕录制方法、装置、计算机设备和存储介质 |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6459358B2 (ja) * | 2014-09-30 | 2019-01-30 | キヤノンマーケティングジャパン株式会社 | 情報処理装置、制御方法、及びプログラム |
WO2019054999A1 (en) * | 2017-09-13 | 2019-03-21 | Google Llc | EFFICIENT AUGMENTATION OF IMAGES WITH RELATED CONTENT |
WO2021003646A1 (en) * | 2019-07-08 | 2021-01-14 | Orange | Method for operating electronic device in order to browse through photos |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005049920A (ja) * | 2003-07-29 | 2005-02-24 | Hitachi Ltd | 文字認識方法とそれを用いた携帯端末システム |
JP2009271901A (ja) * | 2008-07-18 | 2009-11-19 | Nintendo Co Ltd | オブジェクト表示順変更プログラム及び装置 |
JP2012226393A (ja) * | 2011-04-14 | 2012-11-15 | Isp:Kk | 携帯端末装置、アプリケーションソフトウェアの起動方法 |
US20120306778A1 (en) * | 2011-05-31 | 2012-12-06 | Christopher Douglas Weeldreyer | Devices, Methods, and Graphical User Interfaces for Document Manipulation |
US20130002719A1 (en) * | 2011-06-29 | 2013-01-03 | Nokia Corporation | Apparatus and associated methods related to touch sensitive displays |
US20130042199A1 (en) * | 2011-08-10 | 2013-02-14 | Microsoft Corporation | Automatic zooming for text selection/cursor placement |
CN102959496A (zh) * | 2010-06-17 | 2013-03-06 | 自由科学有限公司 | 系统级文本查看器 |
JP2013080513A (ja) * | 2012-12-28 | 2013-05-02 | Zenrin Datacom Co Ltd | 地図表示装置 |
US20130113717A1 (en) * | 2011-11-09 | 2013-05-09 | Peter Anthony VAN EERD | Touch-sensitive display method and apparatus |
US20140013216A1 (en) * | 2011-11-24 | 2014-01-09 | Sharp Kabushiki Kaisha | Display control device, display method, control program, and recording medium |
Family Cites Families (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6384815B1 (en) * | 1999-02-24 | 2002-05-07 | Hewlett-Packard Company | Automatic highlighting tool for document composing and editing software |
US8661362B2 (en) * | 2009-03-16 | 2014-02-25 | Apple Inc. | Methods and graphical user interfaces for editing on a multifunction device with a touch screen display |
US20120131520A1 (en) * | 2009-05-14 | 2012-05-24 | Tang ding-yuan | Gesture-based Text Identification and Selection in Images |
JP5532936B2 (ja) * | 2010-01-07 | 2014-06-25 | カシオ計算機株式会社 | 電子機器及び情報表示プログラム |
US20130205202A1 (en) * | 2010-10-26 | 2013-08-08 | Jun Xiao | Transformation of a Document into Interactive Media Content |
KR101838260B1 (ko) * | 2011-06-03 | 2018-03-13 | 구글 엘엘씨 | 텍스트를 선택하기 위한 제스처들 |
US20130022270A1 (en) * | 2011-07-22 | 2013-01-24 | Todd Kahle | Optical Character Recognition of Text In An Image for Use By Software |
US9612670B2 (en) * | 2011-09-12 | 2017-04-04 | Microsoft Technology Licensing, Llc | Explicit touch selection and cursor placement |
US8656296B1 (en) * | 2012-09-27 | 2014-02-18 | Google Inc. | Selection of characters in a string of characters |
-
2014
- 2014-03-25 CN CN201480073403.7A patent/CN105917297A/zh active Pending
- 2014-03-25 WO PCT/JP2014/058285 patent/WO2015145572A1/ja active Application Filing
- 2014-03-25 EP EP14887168.4A patent/EP3125088B1/en not_active Not-in-force
- 2014-03-25 JP JP2016509668A patent/JP6164361B2/ja not_active Expired - Fee Related
-
2016
- 2016-06-30 US US15/198,768 patent/US20160313884A1/en not_active Abandoned
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005049920A (ja) * | 2003-07-29 | 2005-02-24 | Hitachi Ltd | 文字認識方法とそれを用いた携帯端末システム |
JP2009271901A (ja) * | 2008-07-18 | 2009-11-19 | Nintendo Co Ltd | オブジェクト表示順変更プログラム及び装置 |
CN102959496A (zh) * | 2010-06-17 | 2013-03-06 | 自由科学有限公司 | 系统级文本查看器 |
JP2012226393A (ja) * | 2011-04-14 | 2012-11-15 | Isp:Kk | 携帯端末装置、アプリケーションソフトウェアの起動方法 |
US20120306778A1 (en) * | 2011-05-31 | 2012-12-06 | Christopher Douglas Weeldreyer | Devices, Methods, and Graphical User Interfaces for Document Manipulation |
US20130002719A1 (en) * | 2011-06-29 | 2013-01-03 | Nokia Corporation | Apparatus and associated methods related to touch sensitive displays |
US20130042199A1 (en) * | 2011-08-10 | 2013-02-14 | Microsoft Corporation | Automatic zooming for text selection/cursor placement |
US20130113717A1 (en) * | 2011-11-09 | 2013-05-09 | Peter Anthony VAN EERD | Touch-sensitive display method and apparatus |
US20140013216A1 (en) * | 2011-11-24 | 2014-01-09 | Sharp Kabushiki Kaisha | Display control device, display method, control program, and recording medium |
JP2013080513A (ja) * | 2012-12-28 | 2013-05-02 | Zenrin Datacom Co Ltd | 地図表示装置 |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115243098A (zh) * | 2022-07-19 | 2022-10-25 | 上海联影医疗科技股份有限公司 | 屏幕录制方法、装置、计算机设备和存储介质 |
Also Published As
Publication number | Publication date |
---|---|
JP6164361B2 (ja) | 2017-07-19 |
EP3125088B1 (en) | 2018-08-22 |
EP3125088A1 (en) | 2017-02-01 |
WO2015145572A1 (ja) | 2015-10-01 |
JPWO2015145572A1 (ja) | 2017-04-13 |
EP3125088A4 (en) | 2017-03-22 |
US20160313884A1 (en) | 2016-10-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11663784B2 (en) | Content creation in augmented reality environment | |
CN102906671B (zh) | 手势输入装置及手势输入方法 | |
US20190107942A1 (en) | Touch screen finger tracing device | |
US10031667B2 (en) | Terminal device, display control method, and non-transitory computer-readable recording medium | |
TW201322050A (zh) | 電子設備及其文本導讀方法 | |
US20200242825A1 (en) | Electronic device and method for correcting handwriting by same | |
US10248652B1 (en) | Visual writing aid tool for a mobile writing device | |
CN105917297A (zh) | 终端装置、显示控制方法以及程序 | |
US10152472B2 (en) | Apparatus and method for generating summary data of E-book or E-note | |
US8581910B2 (en) | Input display apparatus, input display method, and recording medium | |
US10162501B2 (en) | Terminal device, display control method, and non-transitory computer-readable recording medium | |
CN105045471B (zh) | 触摸操作输入装置、触摸操作输入方法和记录介质 | |
US10713463B2 (en) | Display method of user interface and electronic apparatus thereof | |
JP4823606B2 (ja) | 文字出力装置および方法並びにプログラム | |
KR20170100541A (ko) | 프로그램, 정보기억매체 및 인식장치 | |
CN115188003A (zh) | 基于模型的文本识别方法、装置、电子设备及存储介质 | |
CN114360047A (zh) | 举手手势识别方法、装置、电子设备及存储介质 | |
JP2010231480A (ja) | 筆跡処理装置、プログラム、及び方法 | |
JP2018163441A (ja) | 画像処理装置、及びプログラム | |
JP6561547B2 (ja) | コンピュータプログラム及び画像処理装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WD01 | Invention patent application deemed withdrawn after publication | ||
WD01 | Invention patent application deemed withdrawn after publication |
Application publication date: 20160831 |