JP2020060963A - Apparatus and method for information processing, and program - Google Patents

Apparatus and method for information processing, and program Download PDF

Info

Publication number
JP2020060963A
JP2020060963A JP2018191996A JP2018191996A JP2020060963A JP 2020060963 A JP2020060963 A JP 2020060963A JP 2018191996 A JP2018191996 A JP 2018191996A JP 2018191996 A JP2018191996 A JP 2018191996A JP 2020060963 A JP2020060963 A JP 2020060963A
Authority
JP
Japan
Prior art keywords
information
character string
application
target file
processing apparatus
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018191996A
Other languages
Japanese (ja)
Inventor
欽也 本田
Kinya Honda
欽也 本田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2018191996A priority Critical patent/JP2020060963A/en
Publication of JP2020060963A publication Critical patent/JP2020060963A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Facsimiles In General (AREA)

Abstract

To provide an apparatus for information processing adapted to improve the convenience for a visually handicapped user.SOLUTION: An apparatus for information processing has acquiring means that is effectively set with a screen reader function and if a print target file is designated, acquires analysis information of the print target file and control means that performs control in a manner to audibly output the analysis information acquired by the acquiring means.SELECTED DRAWING: Figure 8

Description

本発明は、情報処理装置、情報処理方法及びプログラムに関する。   The present invention relates to an information processing device, an information processing method, and a program.

米国では電子・電気技術に対して、視覚障がい者にも使いやすくすることを義務づけられており、アクセシビリティを高めることが要望されてきている。また、日本でも同様に、アクセシビリティを高めることが要望されてきている。
これに対して、スクリーンリーダ機能が搭載されたスマートフォンが登場している。スクリーンリーダ機能とは、視覚障がい者が画面を操作するために、情報を音声で読み上げることによって操作を補助する機能である。例えば、iPhone(登録商標)には、VoiceOverというスクリーンリーダ機能が搭載されている。
図16は、スクリーンリーダ機能の設定画面の一例を示している。図16の例では、領域1601へのタップ操作を介して、スクリーンリーダ機能のON/OFFが設定される。
印刷やスキャンに関連するデバイスやアプリケーションにおいても、アクセシビリティを強化して、視覚障がい者でも印刷を可能にすることが求められている。これに対して、特許文献1には、複写機等の原稿読み取り装置において、スキャンした原稿の種別を音声で伝えることで、視覚障がい者でも原稿の概要を知ることを可能にする技術が開示されている。
In the United States, electronic and electrical technologies are obliged to make them easier to use for people with visual impairments, and there is a demand for improved accessibility. Similarly, in Japan, there is a demand for enhancing accessibility.
On the other hand, smartphones equipped with a screen reader function have appeared. The screen reader function is a function for assisting the operation by reading information by voice so that the visually impaired person can operate the screen. For example, iPhone (registered trademark) has a screen reader function called VoiceOver.
FIG. 16 shows an example of a screen for setting the screen reader function. In the example of FIG. 16, ON / OFF of the screen reader function is set through a tap operation on the area 1601.
There is a demand for enhancing accessibility in devices and applications related to printing and scanning so that even visually impaired people can print. On the other hand, Patent Document 1 discloses a technique in which a document reading device such as a copying machine transmits the type of a scanned document by voice so that even a visually impaired person can know the outline of the document. ing.

特開2005−260655号公報JP, 2005-260655, A

視覚障がい者のユーザが印刷機能を利用する場合、スクリーンリーダ機能により読み上げられるファイル名称の音声情報等を元にファイルを選択していた。しかしながら、ファイル名だけでは印刷したいファイルが正しく選択されているか否かをユーザが判断できない場合がある。例えば、ファイル名が日付ベースでつけられる場合、「20180521113000.pdf」というファイル名のファイルが複数作成されることがある。この場合、ファイル名が読み上げられても、ユーザは、コンテンツの内容を把握できない可能性がある。また、印刷プレビューの画面が表示されたとしても、目視が困難なユーザは、確認できない恐れもある。
このように、視覚障がい者のユーザにとって、単にファイル名称を読み上げるだけでは、印刷するファイルが正しく選択されているか否かを判断することが困難な場合がある。
本発明は上述の問題点の少なくとも1つを鑑みなされたものである。本発明は、視覚障がい者のユーザにとっての利便性を向上させることを目的の1つとする。
When a user who is visually impaired uses the print function, he or she selects the file based on the voice information of the file name read by the screen reader function. However, the user may not be able to determine whether or not the file to be printed is correctly selected only by the file name. For example, when the file name is given on a date basis, a plurality of files with the file name “20120521113000.pdf” may be created. In this case, even if the file name is read aloud, the user may not be able to grasp the details of the content. Further, even if the print preview screen is displayed, there is a possibility that the user who has difficulty in visual confirmation cannot confirm the screen.
As described above, it may be difficult for the visually impaired user to determine whether or not the file to be printed is correctly selected by merely reading the file name.
The present invention has been made in view of at least one of the above problems. One of the objects of the present invention is to improve the convenience for the visually impaired user.

本発明の情報処理装置は、スクリーンリーダ機能が有効であり、印刷対象ファイルが指定された場合、前記印刷対象ファイルの解析情報を取得する取得手段と、前記取得手段により取得された前記解析情報を音声出力するよう制御する制御手段と、を有する。   In the information processing apparatus of the present invention, when the screen reader function is effective and a print target file is designated, an acquisition unit that acquires analysis information of the print target file and the analysis information acquired by the acquisition unit are displayed. And a control means for controlling the audio output.

本発明の1つの側面によれば、視覚障がい者のユーザにとっての利便性を向上させることができる。   According to one aspect of the present invention, it is possible to improve convenience for a visually impaired user.

データ処理システムのシステム構成の一例を示す図である。It is a figure which shows an example of the system configuration of a data processing system. データ処理装置のハードウェア構成の一例を示す図である。It is a figure which shows an example of the hardware constitutions of a data processing apparatus. 印刷処理装置のハードウェア構成の一例を示す図である。3 is a diagram illustrating an example of a hardware configuration of a print processing apparatus. FIG. データ処理装置の機能構成の一例を示す図である。It is a figure showing an example of functional composition of a data processor. トップメニュー画面の一例を示す図である。It is a figure which shows an example of a top menu screen. ファイル選択画面の一例を示す図である。It is a figure which shows an example of a file selection screen. 印刷プレビュー画面の一例を示す図である。It is a figure which shows an example of a print preview screen. データ処理装置の処理の一例を示すフローチャートである。It is a flow chart which shows an example of processing of a data processor. PDFの構造の一例を説明する図である。It is a figure explaining an example of the structure of PDF. 文字認識処理の一例を説明する図である。It is a figure explaining an example of character recognition processing. データ処理装置の処理の一例を示すフローチャートである。It is a flow chart which shows an example of processing of a data processor. 印刷画像の一例を示す図である。It is a figure which shows an example of a print image. 文字属性情報の一例を示す図である。It is a figure which shows an example of character attribute information. データ処理装置の処理の一例を示すフローチャートである。It is a flow chart which shows an example of processing of a data processor. データ処理装置の処理の一例を示すフローチャートである。It is a flow chart which shows an example of processing of a data processor. スクリーンリーダ機能の設定画面の一例を示す図である。It is a figure which shows an example of the setting screen of a screen reader function.

以下に、本発明の実施の形態の一例を、図面に基づいて詳細に説明する。   Hereinafter, an example of an embodiment of the present invention will be described in detail with reference to the drawings.

<実施形態1>
図1は、本実施形態のデータ処理システムのシステム構成の一例を示す図である。図1の例では、データ処理システムは、データ処理装置101、無線LANターミナル102、印刷処理装置104、印刷処理装置105を含む。データ処理装置101、無線LANターミナル102、印刷処理装置104、印刷処理装置105は、LAN103を介して相互に通信可能に接続されている。
データ処理装置101は、印刷処理装置104又は105に対して印刷ジョブ送信の指示等を行う情報処理装置である。データ処理装置101は、例えば、スマートフォン、タブレット装置、パーソナルコンピュータ(PC)、ノートPC等である。本実施形態では、データ処理装置101は、モバイル形態の情報処理装置である。しかし、データ処理装置101は、モバイル形態でない情報処理装置であることとしてもよい。
印刷処理装置104は、プリンタ機能、コピー機能、スキャナ機能、ファクス送信機能等を備えるプリンタ、複合機等の印刷処理装置である。印刷処理装置105は、印刷処理装置104と同様に、プリンタ機能、コピー機能、スキャナ機能、ファクス送信機能等を備えるプリンタ、複合機等の印刷処理装置である。
<Embodiment 1>
FIG. 1 is a diagram showing an example of the system configuration of the data processing system of the present embodiment. In the example of FIG. 1, the data processing system includes a data processing device 101, a wireless LAN terminal 102, a print processing device 104, and a print processing device 105. The data processing apparatus 101, the wireless LAN terminal 102, the print processing apparatus 104, and the print processing apparatus 105 are communicably connected to each other via the LAN 103.
The data processing apparatus 101 is an information processing apparatus that gives a print job transmission instruction to the print processing apparatus 104 or 105. The data processing device 101 is, for example, a smartphone, a tablet device, a personal computer (PC), a notebook PC, or the like. In the present embodiment, the data processing device 101 is a mobile information processing device. However, the data processing device 101 may be an information processing device that is not in a mobile form.
The print processing apparatus 104 is a print processing apparatus such as a printer or a multifunction peripheral having a printer function, a copy function, a scanner function, and a fax transmission function. Like the print processing apparatus 104, the print processing apparatus 105 is a print processing apparatus such as a printer or a multifunction peripheral having a printer function, a copy function, a scanner function, a fax transmission function, and the like.

LAN103は、データ処理システムの各装置が接続されているLANである。無線LANターミナル102は、ネットワーク・ルーター機能を有した無線LANの親機であって、LAN103の設置場所の中でWi−Fiを通じた無線LAN機能の実現のため用いられる。
また、データ処理装置101は、モバイル端末であることから、Wi−Fi機能を有効にすることで、無線LANターミナル102を介してLAN103に参加することができる。データ処理装置101は、無線LANターミナル102が提供する無線LANエリアに入ると、予め設定していた認証情報を利用してLAN103のネットワークに参加することができる。
無線信号106、107、108それぞれは、データ処理装置101と、印刷処理装置104又は105と、が送受信するBluetooth(登録商標) LE(Bluetooth Low Enegy)による無線信号である。この無線信号が到達し合う周辺のコンピューターデバイス間においては、WPAN(Wireless Personal Area Network)を形成し通信を行うことができる。
The LAN 103 is a LAN to which each device of the data processing system is connected. The wireless LAN terminal 102 is a parent device of a wireless LAN having a network router function, and is used in the installation place of the LAN 103 for realizing the wireless LAN function through Wi-Fi.
Since the data processing device 101 is a mobile terminal, the data processing device 101 can participate in the LAN 103 via the wireless LAN terminal 102 by enabling the Wi-Fi function. When the data processing apparatus 101 enters the wireless LAN area provided by the wireless LAN terminal 102, it can participate in the network of the LAN 103 using the authentication information set in advance.
The wireless signals 106, 107, and 108 are wireless signals based on Bluetooth (registered trademark) LE (Bluetooth Low Energy) transmitted and received by the data processing apparatus 101 and the print processing apparatus 104 or 105. A WPAN (Wireless Personal Area Network) can be formed and communicated between peripheral computer devices that the wireless signals reach each other.

図2は、データ処理装置101のハードウェア構成の一例を示す図である。本実施形態では、データ処理装置101は、小型端末用のオペレーティングシステムや、通話、データ通信を制御するためのプログラムの実行を行う。
データ処理装置101は、CPU202、ROM203、RAM204、NetworkController205、音声制御部206、表示制御部207、入力制御部208、記憶装置209、位置検出制御部210を含む。各要素は、システムバス201を介して相互に通信可能に接続されている。
CPU(Central Processing Unit)202は、データ処理装置101を制御する中央演算装置である。ROM(Read Only Memory)203は、データ処理装置101のオペレーティングシステム、通話、データ通信等を制御するアプリケーションのプログラム等を記憶する記憶装置である。データ通信を制御するアプリケーションとは、例えば、印刷アプリケーション、Mailソフト、Webブラウザ等である。RAM(Random Access Memory)204は、CPU202のワークメモリやデータの一時的な記憶領域として機能する記憶装置である。CPU202は、実行対象のプログラムを実行する際に、そのプログラムをRAM204に展開する。
FIG. 2 is a diagram illustrating an example of a hardware configuration of the data processing device 101. In the present embodiment, the data processing device 101 executes an operating system for a small terminal and a program for controlling a telephone call and data communication.
The data processing device 101 includes a CPU 202, a ROM 203, a RAM 204, a network controller 205, a voice control unit 206, a display control unit 207, an input control unit 208, a storage device 209, and a position detection control unit 210. The respective elements are connected via a system bus 201 so that they can communicate with each other.
A CPU (Central Processing Unit) 202 is a central processing unit that controls the data processing device 101. A ROM (Read Only Memory) 203 is a storage device that stores an operating system of the data processing device 101, an application program that controls a call, data communication, and the like. The application that controls data communication is, for example, a print application, Mail software, a web browser, or the like. A RAM (Random Access Memory) 204 is a storage device that functions as a work memory of the CPU 202 or a temporary storage area for data. When executing the program to be executed, the CPU 202 expands the program in the RAM 204.

NetworkController205は、外部の装置との間でのデータの通信に用いられるコントローラである。NetworkController205は、LAN通信部211と、電話データ通信部212と、BLE通信部213と、を含む。
LAN通信部211は、無線LANターミナル102を介して、LAN103のネットワークへの参加に用いられる。電話データ通信部212は、携帯キャリアの提供するネットワークへの参加に用いられる。BLE通信部213は、Bluetooth LEによる無線信号が到達し合う周辺のコンピューターデバイス間においてWPANを形成するために用いられる。
NetworkController205は、例えば、無線LANのネットワークに参加可能な場合、無線LANへの接続を優先する。そして、NetworkController205は、データ処理装置101が無線LANのネットワークエリアから外れた場合、携帯キャリアが提供する無線通信ネットワークへの参加を行うような排他制御を行う。しかし、NetworkController205は、Bluetooth LEの通信を行う場合、他の通信との間で、排他制御を行わない。
The NetworkController 205 is a controller used for data communication with an external device. The network controller 205 includes a LAN communication unit 211, a telephone data communication unit 212, and a BLE communication unit 213.
The LAN communication unit 211 is used to participate in the network of the LAN 103 via the wireless LAN terminal 102. The telephone data communication unit 212 is used to participate in a network provided by a mobile carrier. The BLE communication unit 213 is used to form a WPAN between peripheral computer devices that wireless signals by Bluetooth LE reach each other.
For example, when the network controller 205 can participate in the wireless LAN network, the network controller 205 gives priority to the connection to the wireless LAN. Then, the Network Controller 205 performs exclusive control such that the data processing apparatus 101 participates in the wireless communication network provided by the mobile carrier when the data processing apparatus 101 is out of the wireless LAN network area. However, the NetworkController 205 does not perform exclusive control with other communication when performing Bluetooth LE communication.

音声制御部206は、マイク・スピーカ214を介した音声データの入出力に用いられる制御部である。音声制御部206は、例えば、通話アプリケーションが起動しユーザが電話をしているときに用いられる。また、音声制御部206は、後述するスクリーンリーダ機能により出力された音声データをスピーカを介して出力する。
表示制御部207は、ディスプレイ215に出力される情報の制御を行う制御部である。入力制御部208は、データ処理装置101のボタンやタッチパネル216等の入力部を介してユーザにより入力された情報を受け付ける制御部である。
データ処理装置101上で実現されるアプリケーションは、音声制御部206、表示制御部207、入力制御部208を利用して、ネットワーク通信情報やデータ処理装置101のさまざまな情報をユーザに提供する。
The voice control unit 206 is a control unit used for inputting / outputting voice data via the microphone / speaker 214. The voice control unit 206 is used, for example, when the call application is activated and the user is making a call. Further, the voice control unit 206 outputs the voice data output by the screen reader function described later through the speaker.
The display control unit 207 is a control unit that controls the information output to the display 215. The input control unit 208 is a control unit that receives information input by the user via the buttons of the data processing apparatus 101 or the input unit such as the touch panel 216.
The application implemented on the data processing device 101 uses the voice control unit 206, the display control unit 207, and the input control unit 208 to provide network communication information and various information of the data processing device 101 to the user.

記憶装置209は、不揮発性の記憶装置であり、データ処理装置101の再起動後も保持しておく必要のある各種動作モード設定や、稼働ログ、各種プログラム、各種設定情報等を記憶する。記憶装置209は、例えば、ハードディスクドライブ(HDD)、ソリッドステートドライブ(SSD)、フラッシュメモリ等である。
位置検出制御部210は、GPSセンサー217を介してデータ処理装置101の位置情報を取得し、オペレーティングシステムに提供する制御部である。
これらのデータ処理装置101において、CPU202がROM203、記憶装置209等に記憶されたプログラムにしたがって処理を実行することで、図4で後述する機能、図9、11、14、15で後述するフローチャートの処理等が実現される。即ち、CPU202、ROM203、記憶装置209は、所謂コンピュータとして機能する。なお、複数のプロセッサ、メモリ、及びストレージを協働させ各処理を実行することもできる。また、一部の処理は、ASIC等のハードウェア回路を用いて実行することもできる。
The storage device 209 is a non-volatile storage device, and stores various operation mode settings, operation logs, various programs, various setting information, and the like that need to be retained even after the data processing device 101 is restarted. The storage device 209 is, for example, a hard disk drive (HDD), a solid state drive (SSD), a flash memory, or the like.
The position detection control unit 210 is a control unit that acquires the position information of the data processing device 101 via the GPS sensor 217 and provides it to the operating system.
In these data processing devices 101, the CPU 202 executes the processes in accordance with the programs stored in the ROM 203, the storage device 209, etc., so that the functions described below with reference to FIG. 4 and the flowcharts described below with reference to FIGS. Processing and the like are realized. That is, the CPU 202, the ROM 203, and the storage device 209 function as a so-called computer. It should be noted that a plurality of processors, memories, and storages can cooperate to execute each process. Also, some processing can be executed by using a hardware circuit such as an ASIC.

図3は、印刷処理装置104のハードウェア構成の一例を示す図である。本実施形態では、印刷処理装置104は、スキャナ機能と、プリンタ機能を有する複合機(MFP(Multi Function Perpheral))を想定しているがこれに限定されるものではない。読取機能を有さないプリンタ等の印刷処理装置であってもよい。本実施例では、一例として印刷処理装置が以下に説明する各種構成要件を備えるものとする。
印刷処理装置104は、I/O301、I/F制御部302、RAM303、RAM制御部304、画像データ調歩回路305、プリンタエンジン306、エンジンI/F307、メインコントローラ308、を含む。また、印刷処理装置104は、スキャナコントローラ309、プリンタコントローラ310、ユーザインターフェース312、スキャナエンジン313を含む。
I/O301は、外部の装置との間の接続に用いられるインターフェースである。I/O301は、LAN通信部314、BLE通信部315を含む。LAN通信部314は、LAN103等の通信媒介を介して、データ処理装置101との間で通信を行う。BLE通信部315は、Bluetooth LEを用いたWPANの形成に用いられる。印刷処理装置104は、I/O301を通して、デバイスIDやスキャンイメージをデータ処理装置101に送信する。また、印刷処理装置104は、I/O301を通して、データ処理装置101から各種の制御コマンドを受信し、受信した制御コマンドに応じた処理を行う。
I/F制御部302は、印刷処理装置104に搭載されているスキャナ、プリンタ、ファクス等のデバイスに対してデバイスIDを発行する制御を行う制御部である。RAM303は、I/O301を介して取得された制御コマンド等の外部データや、スキャナエンジン313で読み取られたイメージのデータ等の一時的な記憶領域として機能する記憶装置である。また、RAM303は、プリンタコントローラ310で展開されたプリンタエンジン306に渡される前のイメージの記憶等に用いられる。RAM制御部304は、RAM303内の領域の割り当て管理を行う制御部である。
画像データ調歩回路305は、RAM制御部304によりRAM303に展開されたイメージをプリンタエンジン306の回転にあわせて出力する装置である。プリンタエンジン306は、紙等の出力メディアにイメージを現像する装置である。メインコントローラ308は、エンジンI/F307を介してプリンタエンジン306の各種制御を行うコントローラである。また、メインコントローラ308は、スキャナコントローラ309やプリンタコントローラ310に対して、I/O301経由でデータ処理装置101から受信した制御言語の適切な振り分け処理を行う。更に、メインコントローラ308は、それぞれのコントローラやユーザインターフェース312からの指示をうけてプリンタエンジン306やスキャナエンジン313の制御を行う。
スキャナコントローラ309は、データ処理装置101から送信されたスキャン制御コマンドをメインコントローラ308が解釈可能な内部実行命令に分解する。また、スキャナコントローラ309は、スキャナエンジン313で読み取られたイメージをスキャン制御コマンドに変更する。プリンタコントローラ310は、データ処理装置101から送信された印刷ジョブとして受けたPDL(Page Description Language)データを、メインコントローラ308が解釈可能な、展開イメージ等を含む内部実行命令に分解する。展開イメージは、プリンタエンジン306まで送信され、用紙等の出力メディアに印刷される。
本実施形態では、印刷処理装置105のハードウェア構成は、印刷処理装置104のハードウェア構成と同様である。
FIG. 3 is a diagram illustrating an example of the hardware configuration of the print processing apparatus 104. In the present embodiment, the print processing apparatus 104 is assumed to be a multifunction peripheral (MFP (Multi Function Peripheral)) having a scanner function and a printer function, but the present invention is not limited to this. It may be a print processing device such as a printer having no reading function. In this embodiment, as an example, the print processing apparatus has various constituent features described below.
The print processing apparatus 104 includes an I / O 301, an I / F control unit 302, a RAM 303, a RAM control unit 304, an image data start / stop circuit 305, a printer engine 306, an engine I / F 307, and a main controller 308. The print processing apparatus 104 also includes a scanner controller 309, a printer controller 310, a user interface 312, and a scanner engine 313.
The I / O 301 is an interface used for connection with an external device. The I / O 301 includes a LAN communication unit 314 and a BLE communication unit 315. The LAN communication unit 314 communicates with the data processing device 101 via a communication medium such as the LAN 103. The BLE communication unit 315 is used to form a WPAN using Bluetooth LE. The print processing apparatus 104 transmits the device ID and the scan image to the data processing apparatus 101 via the I / O 301. The print processing apparatus 104 also receives various control commands from the data processing apparatus 101 through the I / O 301 and performs processing according to the received control commands.
The I / F control unit 302 is a control unit that performs control for issuing a device ID to a device such as a scanner, a printer, or a fax mounted on the print processing apparatus 104. The RAM 303 is a storage device that functions as a temporary storage area for external data such as control commands acquired via the I / O 301 and data for images read by the scanner engine 313. Further, the RAM 303 is used for storing an image before being transferred to the printer engine 306 expanded by the printer controller 310. The RAM control unit 304 is a control unit that manages allocation of areas in the RAM 303.
The image data start / stop circuit 305 is a device that outputs the image developed in the RAM 303 by the RAM control unit 304 in accordance with the rotation of the printer engine 306. The printer engine 306 is a device that develops an image on an output medium such as paper. The main controller 308 is a controller that performs various controls of the printer engine 306 via the engine I / F 307. Further, the main controller 308 performs appropriate distribution processing of the control language received from the data processing apparatus 101 via the I / O 301 to the scanner controller 309 and the printer controller 310. Further, the main controller 308 controls the printer engine 306 and the scanner engine 313 in response to instructions from the respective controllers and the user interface 312.
The scanner controller 309 decomposes the scan control command transmitted from the data processing apparatus 101 into an internal execution command that can be interpreted by the main controller 308. Further, the scanner controller 309 changes the image read by the scanner engine 313 into a scan control command. The printer controller 310 decomposes PDL (Page Description Language) data received as a print job transmitted from the data processing apparatus 101 into an internal execution command that can be interpreted by the main controller 308 and that includes a developed image. The developed image is transmitted to the printer engine 306 and printed on an output medium such as paper.
In this embodiment, the hardware configuration of the print processing apparatus 105 is the same as the hardware configuration of the print processing apparatus 104.

図4は、データ処理装置101の機能構成の一例を示す図である。データ処理装置101は、OS410、アプリケーション401、その他のアプリケーション408を含む。
OS410は、データ処理装置101の全体を制御するためのOS(Operating System)である。本実施形態のOS410は、操作画面に表示されている文字列等の情報を音声で読み上げることによって操作を補助するスクリーンリーダ機能を有している。OSとしてiOS(登録商標)を採用する場合、スクリーンリーダ機能は、アクセシビリティ向上のためにプリインストールされているVoiceOver(登録商標)機能によって提供される。また、OSとしてAndroid(登録商標)を採用する場合、スクリーンリーダ機能は、アクセシビリティ向上のためにプリインストールされているTalkBack機能によって提供される。これらのスクリーンリーダ機能は、図16に一例を示すOS410の設定画面から有効(ON)、無効(OFF)を切り替えることができる。これらのスクリーンリーダに関する設定は、記憶装置209に記憶される。スクリーンリーダ機能がONに設定されている場合、データ処理装置101は操作画面の読み上げを実行する。読み上げは、例えばユーザが表示オブジェクトや表示文字列をタップしたことに従って実行される。また、読み上げは、操作画面が遷移したことに従って実行される。
アプリケーション401は、印刷処理を制御するアプリケーションである。アプリケーション401は、UI部402、探索部403、印刷制御部404、解析部405、保存制御部406を含む。アプリケーション401は、アプリケーションストア等からユーザ操作を介してダウンロードされ、データ処理装置101にインストールされているものとする。
UI部402は、アプリケーション401への情報の入出力を制御するUI部であり、アプリケーション401内の設定を変更させるためのユーザインターフェースを提供する。探索部403は、データ処理装置101が参加するLAN103上において、データ処理装置101がSNMPで管理されるネットワーク機器を探索する。そして、探索部403は、探索したネットワーク機器の中から、印刷が実行可能な印刷処理装置を探索する。更に、探索部403は、BLEの送受信が可能なWPAN内において、印刷を実行可能な印刷処理装置を探索する。
印刷制御部404は、印刷処理装置に対して送信する印刷ジョブを生成し、生成した印刷ジョブを対応する印刷処理装置に送信する。また、解析部405は、画像やPDF等のファイルを解析する。保存制御部406は、解析部405による解析結果を、記憶装置209に記憶する。
FIG. 4 is a diagram illustrating an example of a functional configuration of the data processing device 101. The data processing device 101 includes an OS 410, an application 401, and another application 408.
The OS 410 is an OS (Operating System) for controlling the entire data processing apparatus 101. The OS 410 of the present embodiment has a screen reader function that assists the operation by reading aloud information such as a character string displayed on the operation screen. When the iOS (registered trademark) is adopted as the OS, the screen reader function is provided by the VoiceOver (registered trademark) function preinstalled for improving accessibility. When Android (registered trademark) is adopted as the OS, the screen reader function is provided by the TalkBack function preinstalled for improving accessibility. These screen reader functions can be switched between valid (ON) and invalid (OFF) from the setting screen of the OS 410, an example of which is shown in FIG. The settings relating to these screen readers are stored in the storage device 209. When the screen reader function is set to ON, the data processing device 101 reads the operation screen. The reading is executed according to, for example, the user tapping the display object or the display character string. The reading is executed according to the transition of the operation screen.
The application 401 is an application that controls print processing. The application 401 includes a UI unit 402, a search unit 403, a print control unit 404, an analysis unit 405, and a storage control unit 406. The application 401 is assumed to be downloaded from the application store or the like through a user operation and installed in the data processing apparatus 101.
The UI unit 402 is a UI unit that controls input / output of information to / from the application 401, and provides a user interface for changing settings in the application 401. The search unit 403 searches the LAN 103 to which the data processing apparatus 101 participates for a network device managed by the data processing apparatus 101 by SNMP. Then, the search unit 403 searches for a print processing apparatus capable of executing printing from the searched network devices. Further, the search unit 403 searches for a print processing apparatus capable of executing printing in the WPAN capable of transmitting / receiving BLE.
The print control unit 404 generates a print job to be transmitted to the print processing apparatus, and transmits the generated print job to the corresponding print processing apparatus. The analysis unit 405 also analyzes files such as images and PDFs. The storage control unit 406 stores the analysis result of the analysis unit 405 in the storage device 209.

図5は、アプリケーション401が起動された際に、アプリケーション401によりディスプレイ215に表示されるトップメニュー画面の一例を示す図である。トップメニュー画面は、ユーザからの各種入力操作の受け付けに利用されるユーザインターフェースの一例である。ボタン501は、印刷を実行する印刷処理装置を選択するための画面への遷移の指示に用いられるボタンである。アプリケーション401は、ボタン501の選択を検知すると、ディスプレイ215に、印刷を実行する印刷処理装置を選択するための画面を表示する。図5の例では、印刷処理を実行する印刷処理装置として、プリンタが選択されている。ボタン502は、印刷対象となるファイルの選択・印刷の実行の指示を行うための画面であるファイル選択画面601への遷移の指示に用いられるボタンである。アプリケーション401は、ボタン502の選択を検知すると、ディスプレイ215にファイル選択画面601を表示する。
図6は、ファイル選択画面601の一例を示す図である。図6の例ではファイル選択画面601内に、印刷されるファイルの候補となるファイル602〜604がリスト形式で表示されている。ユーザは、タッチパネル216を介して、ファイル602〜604の中から印刷したいファイルを指定する。アプリケーション401は、タッチパネル216、ファイル選択画面601を介して、ユーザから印刷対象のファイルの指定を受け付ける。以下では、印刷対象のファイルを、印刷対象ファイルとする。そして、アプリケーション401は、印刷対象ファイルの指定を受付けると、ディスプレイ215に印刷プレビュー画面701を表示する。印刷プレビューとは、印刷対象ファイルの内容の確認に用いられる情報である。印刷プレビュー画面とは、印刷対象ファイルの内容の確認に用いられる画面である。なお、スクリーンリーダ機能が有効な場合、アプリケーション401は、OS410が提供するスクリーンリーダ機能と協働しマイク・スピーカ214のスピーカを介して、ファイル602〜604のファイル名を順番に音声で出力する。ここで、スクリーンリーダ機能とは、情報を音声出力することで、ユーザの操作を補助する機能である。
FIG. 5 is a diagram showing an example of a top menu screen displayed on the display 215 by the application 401 when the application 401 is activated. The top menu screen is an example of a user interface used for receiving various input operations from the user. The button 501 is a button used for instructing a transition to a screen for selecting a print processing apparatus that executes printing. Upon detecting the selection of the button 501, the application 401 displays a screen for selecting a print processing apparatus that executes printing on the display 215. In the example of FIG. 5, the printer is selected as the print processing apparatus that executes the print processing. The button 502 is a button used for instructing transition to a file selection screen 601 which is a screen for selecting a file to be printed and instructing execution of printing. When detecting the selection of the button 502, the application 401 displays the file selection screen 601 on the display 215.
FIG. 6 is a diagram showing an example of the file selection screen 601. In the example of FIG. 6, files 602 to 604 that are candidates for files to be printed are displayed in a list format on the file selection screen 601. The user designates a file to be printed from the files 602-604 via the touch panel 216. The application 401 receives the designation of the file to be printed from the user via the touch panel 216 and the file selection screen 601. In the following, the file to be printed is the file to be printed. Then, when the application 401 receives the designation of the print target file, it displays the print preview screen 701 on the display 215. The print preview is information used to confirm the content of the print target file. The print preview screen is a screen used to confirm the contents of the file to be printed. When the screen reader function is valid, the application 401 cooperates with the screen reader function provided by the OS 410 to sequentially output the file names of the files 602 to 604 by voice through the speaker of the microphone / speaker 214. Here, the screen reader function is a function of assisting a user's operation by outputting information by voice.

図7は、ファイル選択画面601を介して印刷対象ファイルが指定された際にディスプレイ215に表示される印刷プレビュー画面701の一例を示す図である。
印刷プレビュー画面701には、印刷対象ファイルの内容が表示される。ボタン702は、印刷の指示に用いられるボタンである。また、ボタン703は、前のページに戻ることの指示に用いられるボタンである。アプリケーション401は、ボタン703の選択を検知すると、ディスプレイ215にファイル選択画面601を表示する。視覚が健常なユーザは、印刷プレビュー画面701を視認することで、印刷対象ファイルの内容を確認することができる。ユーザは、確認して問題なければ、ボタン702を選択して、印刷対象ファイルの印刷をデータ処理装置101に指示する。アプリケーション401は、ボタン702の選択を検知すると、印刷対象ファイルの印刷を行うよう制御する。
しかし、視覚障がい者は、印刷プレビュー画面を目視確認できない。そのため、印刷対象ファイルの内容を確認できない。
本実施形態では、データ処理装置101が、スクリーンリーダ機能が有効な場合に、印刷対象ファイルを解析して、印刷対象ファイルの印刷プレビューを取得し、取得した印刷プレビューを音声出力する処理について説明する。印刷対象ファイルの解析とは、印刷対象ファイルを調べることで印刷対象ファイルに関連する情報を取得することであり、例えば、印刷対象ファイルに含まれる情報を取得したり、印刷対象ファイルが示す画像の内容を示す情報を取得したりすることである。また、印刷対象ファイルの解析により取得される情報を、印刷対象ファイルの解析情報とする。
FIG. 7 is a diagram showing an example of the print preview screen 701 displayed on the display 215 when a file to be printed is designated via the file selection screen 601.
The print preview screen 701 displays the contents of the print target file. The button 702 is a button used for instructing printing. A button 703 is a button used for instructing to return to the previous page. When detecting the selection of the button 703, the application 401 displays the file selection screen 601 on the display 215. A user with normal vision can confirm the contents of the print target file by visually recognizing the print preview screen 701. If the user confirms and there is no problem, the user selects the button 702 to instruct the data processing apparatus 101 to print the file to be printed. When detecting the selection of the button 702, the application 401 controls to print the print target file.
However, visually impaired persons cannot visually confirm the print preview screen. Therefore, the contents of the print target file cannot be confirmed.
In the present embodiment, a process will be described in which the data processing apparatus 101 analyzes a print target file, acquires a print preview of the print target file, and outputs the acquired print preview by voice when the screen reader function is enabled. . The analysis of the file to be printed is to obtain the information related to the file to be printed by checking the file to be printed. For example, the information included in the file to be printed or the image of the file to be printed is acquired. It is to acquire information indicating the contents. Further, the information acquired by the analysis of the print target file is set as the analysis information of the print target file.

図8は、本実施形態のデータ処理装置101の処理の一例を示すフローチャートの一例である。
S801において、アプリケーション401は、ユーザによるボタン502の選択を検知し、ディスプレイ215にファイル選択画面601を表示する。
S802において、アプリケーション401は、ファイル選択画面601を介して、ユーザから印刷対象ファイルの指定を受け付ける。
S803において、アプリケーション401は、ディスプレイ215に、S802で受け付けた指定が示す印刷対象ファイルの印刷プレビュー画面を表示する。
S804において、アプリケーション401は、スクリーンリーダ機能が有効か否かを判定する。本実施形態では、アプリケーション401は、スクリーンリーダ機能が有効が否かをOS410に問い合わせる。OS410は、記憶装置209に記憶されたスクリーンリーダ機能が有効か否かを示す情報に基づいて、スクリーンリーダ機能が有効か否かを判定する。アプリケーション401は、スクリーンリーダ機能が有効であると判定した場合、処理をS805に進め、スクリーンリーダ機能が無効であると判定した場合、図8の処理を終了する。
FIG. 8 is an example of a flowchart showing an example of processing of the data processing apparatus 101 of this embodiment.
In step S801, the application 401 detects the selection of the button 502 by the user and displays the file selection screen 601 on the display 215.
In step S <b> 802, the application 401 receives a print target file designation from the user via the file selection screen 601.
In step S <b> 803, the application 401 displays on the display 215 a print preview screen of the print target file indicated by the designation accepted in step S <b> 802.
In step S804, the application 401 determines whether the screen reader function is valid. In this embodiment, the application 401 inquires of the OS 410 whether the screen reader function is valid. The OS 410 determines whether the screen reader function is valid based on the information stored in the storage device 209 that indicates whether the screen reader function is valid. If the application 401 determines that the screen reader function is valid, the process proceeds to step S <b> 805, and if the application 401 determines that the screen reader function is invalid, the process of FIG. 8 ends.

S805において、アプリケーション401は、解析部405を介して、S802で指定された印刷対象ファイルにアクセシビリティ情報が含まれるか否かを判定する。アクセシビリティ情報とは、ファイルへのアクセシビリティ向上のためにファイル内の予め定められた領域に組み込まれた情報である。
印刷対象ファイルがPDFファイルである場合、アプリケーション401は、印刷対象ファイル内にドキュメント構造タグ(StructTreeRoot)が含まれているか否かを判定する。ドキュメント構造タグは、PDFファイルに組み込まれた情報であり、文書の内容に関する構造を示す情報である。ドキュメント構造タグの情報には、例えば、章と節による文書の編成や、表、脚注を識別する情報等がある。アプリケーション401は、印刷対象ファイル内のドキュメント構造タグを解析することで、印刷対象ファイルのアクセシビリティ情報を取得することができる。
In step S805, the application 401 determines whether the print target file designated in step S802 includes accessibility information via the analysis unit 405. The accessibility information is information incorporated in a predetermined area in the file to improve accessibility to the file.
When the print target file is a PDF file, the application 401 determines whether or not the document structure tag (StructureTreeRoot) is included in the print target file. The document structure tag is information incorporated in the PDF file and is information indicating the structure related to the content of the document. The information of the document structure tag includes, for example, the organization of documents by chapters and sections, information for identifying tables and footnotes, and the like. The application 401 can acquire the accessibility information of the print target file by analyzing the document structure tag in the print target file.

PDFファイルの構造は、オブジェクトの階層構造とみなすことができる。図9を用いて、PDFファイルの構造の一例について説明する。ツリー901は、あるPDFファイルの構造を表現したツリーである。ドキュメント構造タグは、[文書ルートカタログ(Catalog)]―[StructTreeRoot]のオブジェクト(辞書)に相当する。
図9の例では、ドキュメント構造タグは、タグ903にあたる。
一方、印刷対象ファイルが画像ファイルである場合、アプリケーション401は、その画像ファイルのフォーマットの仕様にのっとって、印刷対象ファイルにアクセシビリティ情報が含まれるか否かを判定する。しかし、画像ファイルには、アクセシビリティ情報が含まれない場合がある。その場合、アプリケーション401は、印刷対象ファイルにアクセシビリティ情報が含まれないと判定する。
The structure of the PDF file can be regarded as a hierarchical structure of objects. An example of the structure of the PDF file will be described with reference to FIG. The tree 901 is a tree expressing the structure of a certain PDF file. The document structure tag corresponds to an object (dictionary) of [document root catalog (Catalog)]-[StructureTreeRoot].
In the example of FIG. 9, the document structure tag corresponds to the tag 903.
On the other hand, when the print target file is an image file, the application 401 determines whether the print target file includes accessibility information according to the format specifications of the image file. However, the image file may not include accessibility information. In that case, the application 401 determines that the file to be printed does not include accessibility information.

S806において、アプリケーション401は、解析部405を介して、印刷対象ファイルからアクセシビリティ情報を取得し、取得したアクセシビリティ情報の内容を示す文字列を取得する。アプリケーション401は、アクセシビリティ情報が文字列の情報である場合、アクセシビリティ情報が示す文字列を取得する。また、アプリケーション401は、アクセシビリティ情報が文字列と異なる情報(例えば、画像に対応する位置の情報、画像が撮影された時刻の情報等)である場合、以下のようにする。即ち、アプリケーション401は、アクセシビリティ情報が示す内容(例えば、画像に対応する位置の情報、画像が撮影された時刻の情報等)を示す文字列を取得する。そして、アプリケーション401は、OS410が提供するスクリーンリーダ機能と協働してマイク・スピーカ214のスピーカを介して、取得した文字列を、音声出力する。
印刷対象ファイルがPDFの場合、アプリケーション401は、PDFファイルのフォーマットのドキュメント構造タグ内の子要素である構造要素(StructElem)からアクセシビリティ情報を取得する。図9の例では、アプリケーション401は、構造要素904、905の情報を、アクセシビリティ情報として取得する。
In step S806, the application 401 acquires the accessibility information from the print target file via the analysis unit 405, and acquires the character string indicating the content of the acquired accessibility information. When the accessibility information is character string information, the application 401 acquires the character string indicated by the accessibility information. If the accessibility information is information different from the character string (for example, information on the position corresponding to the image, information on the time when the image was captured, etc.), the application 401 performs the following. That is, the application 401 acquires a character string indicating the content indicated by the accessibility information (for example, information on the position corresponding to the image, information on the time when the image was captured, etc.). Then, the application 401 cooperates with the screen reader function provided by the OS 410 to output the acquired character string by voice through the speaker of the microphone / speaker 214.
When the file to be printed is a PDF, the application 401 acquires accessibility information from a structure element (StructElem) that is a child element within the document structure tag of the PDF file format. In the example of FIG. 9, the application 401 acquires the information of the structural elements 904 and 905 as accessibility information.

S807において、アプリケーション401は、解析部405を介して、印刷対象ファイル内のコンテンツデータに文字列が含まれるか否かを判定する。ファイルのコンテンツデータとは、そのファイルが保存する対象の中身を示すデータであり、画像ファイルの場合は画像のデータであり、テキストファイルの場合はテキストデータである。
印刷対象ファイルがMicrosoft Word(登録商標)等のアプリケーションから作成されたPDFであるとすると、印刷対象ファイルは、コンテンツデータ内に文字コードを持つ文字列を含む場合がある。その場合、アプリケーション401は、印刷対象ファイルのコンテンツデータ内の文字列を検出して、印刷対象ファイル内のコンテンツデータに文字列が含まれると判定する。
一方、印刷対象ファイルが複写機で原稿をスキャンすることで作成されたPDFファイルであるとすると、印刷対象ファイルは、コンテンツとしてスキャン画像を含み、文字列を含まない場合がある。その場合、アプリケーション401は、印刷対象ファイルのコンテンツデータ内から文字列を検出できないため、印刷対象ファイル内のコンテンツデータに文字列が含まれないと判定する。
アプリケーション401は、印刷対象ファイル内のコンテンツデータに文字列が含まれると判定した場合、処理をS808に進め、含まれないと判定した場合、処理をS809に進める。
S808において、アプリケーション401は、印刷対象ファイル内のコンテンツデータから文字列を取得する。そして、アプリケーション401は、OS410が提供するスクリーンリーダ機能と協働してマイク・スピーカ214のスピーカを介して、取得した文字列を、音声出力する。
In step S <b> 807, the application 401 determines whether the content data in the print target file includes a character string via the analysis unit 405. The content data of a file is data indicating the contents to be stored in the file, which is image data in the case of an image file and text data in the case of a text file.
If the print target file is a PDF created from an application such as Microsoft Word (registered trademark), the print target file may include a character string having a character code in the content data. In that case, the application 401 detects the character string in the content data of the print target file and determines that the content data in the print target file includes the character string.
On the other hand, if the print target file is a PDF file created by scanning an original with a copying machine, the print target file may include a scan image as content and not a character string. In that case, the application 401 cannot detect the character string in the content data of the print target file, and therefore determines that the content data in the print target file does not include the character string.
If the application 401 determines that the content data in the print target file includes a character string, the process proceeds to step S808. If it is determined that the character string is not included in the content data, the process proceeds to step S809.
In step S808, the application 401 acquires a character string from the content data in the print target file. Then, the application 401 cooperates with the screen reader function provided by the OS 410 to output the acquired character string by voice through the speaker of the microphone / speaker 214.

S809において、アプリケーション401は、解析部405を介して、印刷対象ファイルの印刷画像に対して、以下で説明する領域分割処理を行う。印刷画像とは、印刷対象ファイルが実際にどのように印刷されるかを示す画像である。本実施形態では、印刷対象ファイルの印刷画像は、S803で表示された印刷プレビュー画面の画像である
領域分割処理について説明する。
領域分割処理とは、画像内から文字列が存在する領域を分割する処理である。本実施形態では、文字列には、1つの文字も含むこととする。本実施形態では、アプリケーション401は、以下の(1)〜(5)の処理を行うことで、印刷対象ファイルに対して領域分割処理を実行する。
(1)二値化処理
アプリケーション401は、解析部405を介して、印刷対象ファイルの印刷画像に対して2値化を行うことにより、2値画像を取得する。この2値化により、印刷画像における予め定められた閾値より濃い色の画素は、黒画素となる。また、その閾値より薄い色の画素は、白画素となる。なお、本実施形態では、印刷画像が、100DPIであるとする。しかし、印刷画像は、この解像度に限定されず、200DPI等の他の解像度であってもよい。
In step S <b> 809, the application 401 performs the area division processing described below on the print image of the print target file via the analysis unit 405. The print image is an image showing how the print target file is actually printed. In this embodiment, the print image of the print target file is the image of the print preview screen displayed in S803. The area division processing will be described.
The area dividing process is a process of dividing an area in the image where a character string exists. In this embodiment, the character string includes one character. In the present embodiment, the application 401 performs the area dividing process on the print target file by performing the following processes (1) to (5).
(1) Binarization Processing The application 401 acquires a binary image by binarizing the print image of the print target file via the analysis unit 405. By this binarization, the pixels of the color darker than the predetermined threshold in the print image become black pixels. In addition, pixels of a color lighter than the threshold value become white pixels. In the present embodiment, it is assumed that the print image has 100 DPI. However, the print image is not limited to this resolution and may have another resolution such as 200 DPI.

(2)黒画素塊検出処理
アプリケーション401は、解析部405を介して、(1)の処理で取得した2値画像に対して、8連結で繋がる黒画素の輪郭を追跡することにより、8方向の何れかの方向で連続して存在する黒画素の塊(黒画素塊)を検出する。ここで、8連結とは、ある画素を基準として、左上、左、左下、下、右下、右、右上、上の8つの方向のうちの何れかの方向で、その画素と同じ色(本実施形態では黒)の画素が連続しているという意味である。また、4連結とは、ある画素を基準として、左、下、右、上の4つの方向の何れかの方向で、その画素と同じ色の画素が連続しているという意味である。
アプリケーション401は、8方向に存在する8つの隣接画素の何れもが黒画素ではない単独の黒画素を検出しないこととなる。一方、8方向に存在する8つの隣接画素の何れか1つにでも黒画素が存在する黒画素は、その隣接する黒画素と共に、黒画素塊として検出されることになる。図10の黒画素塊1401は、解析部405を介して検出された黒画素塊の一例である。また、アプリケーション401は、解析部405を介して検出した黒画素塊の外接矩形の位置情報(四頂点のX、Y座標情報のこと)を取得する。なお、印刷画像内では、X軸は右方向に伸び、Y軸は下方向に伸びているものとする。外接矩形の幅は、X軸方向の長さ、外接矩形の高さは、Y軸方向の長さを示す。図10の矩形1402は、黒画素塊1401の外接矩形である。なお、本実施形態では、矩形とは、四辺の全てがX座標軸、Y座標軸の何れかと平行な矩形であり、斜め向きの矩形ではないとする。
(2) Black pixel block detection processing The application 401 traces, through the analysis unit 405, the contours of black pixels that are connected in eight connections in the binary image acquired in the processing of (1), and thus in eight directions. A black pixel block (black pixel block) that continuously exists in either direction is detected. Here, 8-connection means any one of the eight directions of upper left, left, lower left, lower, lower right, right, upper right, and upper with respect to a certain pixel, and has the same color (main This means that black pixels are continuous in the embodiment. Further, 4-connected means that a pixel having the same color as the pixel is continuous in any of the four directions of left, bottom, right, and top with respect to a certain pixel.
The application 401 will not detect a single black pixel in which none of the eight adjacent pixels existing in eight directions is a black pixel. On the other hand, a black pixel in which a black pixel exists in any one of the eight adjacent pixels existing in eight directions is detected as a black pixel block together with the adjacent black pixel. The black pixel block 1401 in FIG. 10 is an example of the black pixel block detected via the analysis unit 405. Further, the application 401 acquires the position information of the circumscribing rectangle of the black pixel block detected through the analysis unit 405 (X and Y coordinate information of four vertices). In the print image, the X axis extends rightward and the Y axis extends downward. The width of the circumscribing rectangle indicates the length in the X-axis direction, and the height of the circumscribing rectangle indicates the length in the Y-axis direction. A rectangle 1402 in FIG. 10 is a circumscribed rectangle of the black pixel block 1401. In the present embodiment, the rectangle is a rectangle in which all four sides are parallel to either the X coordinate axis or the Y coordinate axis, and is not an obliquely oriented rectangle.

(3)表領域検出処理
アプリケーション401は、解析部405を介して、(2)の処理で検出した黒画素塊それぞれについて、以下の条件1〜3の全てに該当するか否かを判定する。そして、アプリケーション401は、条件1〜3の全てに該当する黒画素塊を、表の枠線を示す黒画素塊であると判断する。
条件1:黒画素塊の外接矩形の幅、高さが閾値(例えば、100画素、0.25cm等)以上である。
条件2:外接矩形の内部における黒画素塊が占める割合が予め定められた閾値(例えば、20パーセント)以下である。
条件3:黒画素塊の最大幅と外接矩形の幅との差が予め定められた閾値(例えば、10画素等)以下であり、かつ、黒画素塊の最大高さと外接矩形の高さとの差が予め定められた閾値(例えば、10画素等)以下である。
アプリケーション401は、表の枠線を構成すると判断した黒画素塊の外接矩形の位置情報を、保存制御部406を介して記憶装置209に記憶する。ここで記憶された位置情報を持つ外接矩形の領域を、以下では、表領域とする。なお、図10の例では、黒画素塊1401は、表の枠線を構成する黒画素塊と判定されたとする。そのため、矩形1402の領域は、表領域となる。
(3) Surface Area Detection Processing The application 401 determines, via the analysis unit 405, whether or not all of the following conditions 1 to 3 are satisfied for each black pixel block detected in the processing of (2). Then, the application 401 determines that the black pixel block that satisfies all of the conditions 1 to 3 is the black pixel block that indicates the frame line of the table.
Condition 1: The width and height of the circumscribed rectangle of the black pixel block are equal to or more than a threshold value (for example, 100 pixels, 0.25 cm, etc.).
Condition 2: The proportion of black pixel blocks in the circumscribed rectangle is equal to or less than a predetermined threshold value (for example, 20%).
Condition 3: The difference between the maximum width of the black pixel block and the width of the circumscribing rectangle is less than or equal to a predetermined threshold (for example, 10 pixels), and the difference between the maximum height of the black pixel block and the height of the circumscribing rectangle. Is less than or equal to a predetermined threshold (for example, 10 pixels).
The application 401 stores the position information of the circumscribed rectangle of the black pixel block that is determined to form the frame of the table in the storage device 209 via the storage control unit 406. The circumscribed rectangle area having the position information stored here is hereinafter referred to as a table area. In the example of FIG. 10, it is assumed that the black pixel block 1401 is determined to be the black pixel block forming the frame line of the table. Therefore, the area of the rectangle 1402 becomes a table area.

(4)認識セルの特定処理
アプリケーション401は、解析部405を介して、表領域から、認識対象の領域である認識セルを特定する。アプリケーション401は、認識セルを特定するために、表領域内部の白画素の輪郭を追跡することにより、白画素塊を検出する。アプリケーション401は、黒画素塊を求めた処理と同様の処理で白画素塊を検出する。アプリケーション401は、検出した白画素塊が予め定められた条件に合致する場合、その白画素塊の外接矩形の領域を認識セルとして特定する。この予め定められた条件は、以下の条件a〜cである。
条件a:白画素塊の外接矩形の幅、高さが予め定められた閾値(例えば、20画素等)以上である。
条件b:外接矩形の内部における黒画素塊の占める割合が予め定められた閾値(例えば、20%等)以下である。
条件c:白画素塊の最大幅と外接矩形の幅との差が予め定められた閾値(例えば、5画素等)以下であり、かつ、白画素塊の最大高さと外接矩形の高さとの差が予め定められた閾値(例えば、5画素等)以下である。
図13の例では、領域1403、1404が、解析部405を介して、認識セルとして特定される。アプリケーション401は、特定した認識セルの位置情報を、保存制御部406を介して、記憶装置209に記憶する。
(4) Recognition Cell Identification Processing The application 401 identifies a recognition cell, which is a recognition target area, from the table area via the analysis unit 405. The application 401 detects a white pixel block by tracing the outline of the white pixel inside the table area in order to identify the recognition cell. The application 401 detects a white pixel block by the same process as the process of obtaining the black pixel block. When the detected white pixel block matches the predetermined condition, the application 401 specifies the area of the circumscribed rectangle of the white pixel block as a recognition cell. The predetermined conditions are the following conditions ac.
Condition a: The width and height of the circumscribed rectangle of the white pixel block are equal to or larger than a predetermined threshold value (for example, 20 pixels).
Condition b: The ratio of black pixel blocks in the circumscribed rectangle is equal to or less than a predetermined threshold value (for example, 20%).
Condition c: the difference between the maximum width of the white pixel block and the width of the circumscribing rectangle is less than or equal to a predetermined threshold (for example, 5 pixels), and the difference between the maximum height of the white pixel block and the height of the circumscribing rectangle. Is less than or equal to a predetermined threshold value (for example, 5 pixels).
In the example of FIG. 13, the areas 1403 and 1404 are specified as recognition cells via the analysis unit 405. The application 401 stores the position information of the identified recognition cell in the storage device 209 via the storage control unit 406.

(5)文字領域の特定処理
アプリケーション401は、解析部405を介して、(4)の処理で特定した表領域内の各認識セルの内部に、その各認識セルに内接する白画素塊によって囲まれた黒画素塊があるか否かを判定する。そして、アプリケーション401は、黒画素塊があると判定した場合、あると判定された全ての黒画素塊に外接矩形を設定する。
更に、解析部405は、一つの認識セルの中に複数の外接矩形を設定した場合、外接矩形同士の距離が予め定められた閾値(例えば、20画素、0.5cm等)以下であるか否かを判定する。より具体的には、アプリケーション401は、1つの認識セル内に含まれる外接矩形を一つ一つ選択し、選択された外接矩形からの距離が閾値以内である外接矩形を検出する。
そして、アプリケーション401は、閾値以下の距離だけ離れた外接矩形を検出した場合、閾値以下の距離だけ離れた外接矩形同士を統合して、新たな外接矩形を生成する。即ち、アプリケーション401は、両方の外接矩形に外接する新たな外接矩形を生成し、生成した外接矩形の情報を記憶装置209に記憶し、選択された外接矩形と検出された外接矩形との情報を記憶装置209から削除する。
(5) Character Area Identification Processing The application 401, via the analysis unit 405, surrounds each recognition cell in the table area identified in the processing of (4) with a white pixel block inscribed in each recognition cell. It is determined whether there is a black pixel block that has been removed. Then, when the application 401 determines that there is a black pixel block, it sets the circumscribing rectangle for all the black pixel blocks that are determined to be present.
Furthermore, when a plurality of circumscribing rectangles are set in one recognition cell, the analysis unit 405 determines whether the distance between the circumscribing rectangles is equal to or less than a predetermined threshold value (for example, 20 pixels, 0.5 cm, etc.). To determine. More specifically, the application 401 selects each circumscribing rectangle included in one recognition cell and detects a circumscribing rectangle whose distance from the selected circumscribing rectangle is within a threshold value.
When the application 401 detects circumscribing rectangles separated by a distance equal to or smaller than the threshold, the application 401 integrates the circumscribed rectangles separated by the distance equal to or smaller than the threshold to generate a new circumscribed rectangle. That is, the application 401 generates a new circumscribing rectangle that circumscribes both circumscribing rectangles, stores the information of the generated circumscribing rectangle in the storage device 209, and stores the information of the selected circumscribing rectangle and the detected circumscribing rectangle. It is deleted from the storage device 209.

その後、アプリケーション401は、その認識セル内の外接矩形をまた初めから一つ一つ選択し、互いの間の距離が閾値以下である外接矩形同士を統合していく。アプリケーション401は、以上の処理を繰り返す。即ち、互いの間の距離が閾値以下である外接矩形が無くなるまで、外接矩形同士の統合が繰り返される。
このように、本実施形態では、アプリケーション401は、一つの認識セルの内部に存在する外接矩形同士の統合を行うが、認識セルをまたぐ外接矩形同士の統合を行わない。
以上の処理が完了した際に、記憶装置209に記憶されている外接矩形の情報は、文字列が存在する領域である文字領域を示す情報となる。解析部405は、認識セルの内部に存在する文字領域の位置情報を、対応する認識セルと関連付けて記憶装置209に記憶する。以上の処理により、アプリケーション401は、印刷画像内の表領域内に存在する文字領域を特定する。
図13の例では、領域1405、1406それぞれは、文字領域として特定された領域である。また、領域1405、1406それぞれの位置情報は、認識セルである領域1403の情報と関連付けられて、記憶装置209に記憶される。
また、アプリケーション401は、公知のOCR(Optical Character Recognition)の技術を用いて、印刷画像内の表領域以外の部分に存在する文字列が存在する文字領域を特定する。そして、アプリケーション401は、特定した文字領域の位置情報を、記憶装置209に記憶する。
アプリケーション401は、以上の(1)〜(5)の処理を実行することで、印刷画像から、文字列が存在する領域である文字領域を分割する。
After that, the application 401 selects the circumscribing rectangles within the recognition cell again one by one from the beginning, and integrates the circumscribing rectangles whose distances are equal to or less than the threshold value. The application 401 repeats the above processing. That is, the integration of the circumscribed rectangles is repeated until there is no circumscribed rectangle whose distance between them is less than or equal to the threshold value.
As described above, in this embodiment, the application 401 integrates circumscribing rectangles existing inside one recognition cell, but does not integrate circumscribing rectangles that cross recognition cells.
When the above process is completed, the circumscribed rectangle information stored in the storage device 209 becomes information indicating a character area in which a character string exists. The analysis unit 405 stores the position information of the character area existing inside the recognition cell in the storage device 209 in association with the corresponding recognition cell. Through the above processing, the application 401 identifies the character area existing in the table area in the print image.
In the example of FIG. 13, areas 1405 and 1406 are areas specified as character areas. Further, the position information of each of the areas 1405 and 1406 is stored in the storage device 209 in association with the information of the area 1403 which is the recognition cell.
Further, the application 401 uses a known OCR (Optical Character Recognition) technique to specify a character area in which a character string exists in a portion other than the table area in the print image. Then, the application 401 stores the position information of the specified character area in the storage device 209.
The application 401 divides a character area, which is an area in which a character string exists, from the print image by executing the above processes (1) to (5).

S810において、アプリケーション401は、解析部405を介して、印刷画像内に文字列が含まれるか否かを判定する。より具体的には、アプリケーション401は、S809で特定した文字領域が存在するか否かに基づいて、印刷画像内に文字列が含まれるか否かを判定する。アプリケーション401は、S809で特定した文字領域が存在する場合、印刷画像内に文字列が含まれると判定して、処理をS811に進め、S809で特定した文字領域が存在しない場合、印刷画像内に文字列が含まれないと判定して、処理をS812に進める。
S811において、アプリケーション401は、解析部405を介して、印刷画像におけるS809で特定した文字領域それぞれに対して文字認識を行い、文字列を取得する。そして、アプリケーション401は、マイク・スピーカ214のスピーカを介して、取得した文字列を音声出力する。
アプリケーション401は、文字認識により取得した文字列を、対応する文字領域と関連付けて記憶装置209に記憶する。それにより、文字領域が表領域内に存在する場合、文字列は、文字領域と予め関連付けられている認識セルとも関連付けられることになる。また、アプリケーション401は、文字認識に失敗した場合、文字領域に関連付けられる文字列を取得できないこととなる。
また、アプリケーション401は、文字認識を行う際に、更に、認識率を取得してもよい。認識率は、文字を正しく認識できたか否かを何かしらの数値で示した値である。その場合、アプリケーション401は、認識した文字列と関連付けて認識率についても、記憶装置に記憶することとしてもよい。
In step S810, the application 401 determines whether the print image contains a character string via the analysis unit 405. More specifically, the application 401 determines whether or not a character string is included in the print image based on whether or not the character area specified in S809 exists. If the character area specified in S809 exists, the application 401 determines that the print image includes a character string, advances the process to S811, and if the character area specified in S809 does not exist, the application 401 determines in the print image. It is determined that the character string is not included, and the process proceeds to S812.
In step S811, the application 401 performs character recognition on each of the character areas specified in step S809 in the print image through the analysis unit 405, and acquires a character string. Then, the application 401 outputs the acquired character string by voice through the speaker of the microphone / speaker 214.
The application 401 stores the character string acquired by the character recognition in the storage device 209 in association with the corresponding character area. Thereby, when the character area exists in the table area, the character string is also associated with the recognition cell previously associated with the character area. Further, if the character recognition fails, the application 401 cannot acquire the character string associated with the character area.
In addition, the application 401 may further acquire the recognition rate when performing character recognition. The recognition rate is a numerical value indicating whether or not a character was correctly recognized. In this case, the application 401 may store the recognition rate in the storage device in association with the recognized character string.

S812において、アプリケーション401は、解析部405を介して、外部の画像解析サービスを利用して、印刷画像がどのような画像であるかを認識する認識処理の結果の情報を取得する。本実施形態では、アプリケーション401は、Google Cloud Vision API(登録商標)等のクラウドコンピューティングを用いた画像解析のサービス(クラウドサービス)に印刷画像の認識処理を依頼することで、応答として印刷画像の認識処理の結果(認識結果)の情報を取得する。認識処理の結果の情報は、例えば、何等かのオブジェクト(例えば、人物、動物、風景等)の画像であることを示す情報等である。そして、アプリケーション401は、マイク・スピーカ214のスピーカを介して、取得した認識処理の結果の情報を音声出力する。
本実施形態では、アプリケーション401は、S812で、クラウドコンピューティングを用いた画像解析サービスを利用することとしたが、利用しないこととしてもよい。その場合、アプリケーション401は、例えば、画像内の被写体を検出するためのオフラインの推論エンジンを用いて、印刷画像に対する認識処理を実行し、認識処理の結果の情報を取得することとしてもよい。その場合、アプリケーション401は、例えば、OS410が提供するAPI等に印刷画像の認識処理を依頼し、応答として認識処理の結果の情報を取得する。続いて、OS410が提供するスクリーンリーダ機能と協働して取得した情報を音声出力する。
S806、S808、S811、S812それぞれで音声出力される情報(アクセシビリティ情報を示す文字列、印刷対象ファイルに含まれる文字列、印刷画像から認識された文字列、印刷画像に対する認識処理の結果の情報)それぞれは、解析情報の一例である。
In step S <b> 812, the application 401 uses the external image analysis service via the analysis unit 405 to acquire information on the result of the recognition process for recognizing what the print image is. In the present embodiment, the application 401 requests a print image recognition process from an image analysis service (cloud service) that uses cloud computing, such as Google Cloud Vision API (registered trademark), and prints the print image as a response. Acquires information on the result of recognition processing (recognition result). The information on the result of the recognition processing is, for example, information indicating that it is an image of some object (for example, a person, an animal, a landscape, etc.). Then, the application 401 outputs the obtained information of the recognition processing result by voice through the speaker of the microphone / speaker 214.
In the present embodiment, the application 401 uses the image analysis service using cloud computing in S812, but may not use it. In that case, the application 401 may execute the recognition process for the print image by using, for example, an offline inference engine for detecting a subject in the image, and acquire information on the result of the recognition process. In that case, the application 401 requests, for example, an API provided by the OS 410 to perform recognition processing of the print image, and acquires the information of the recognition processing result as a response. Subsequently, the information acquired in cooperation with the screen reader function provided by the OS 410 is output as voice.
Information output by voice in each of S806, S808, S811, and S812 (character string indicating accessibility information, character string included in print target file, character string recognized from print image, information on result of recognition process for print image) Each is an example of analysis information.

なお、S806、S808、S811、S812の何れかの処理において、情報の音声出力が行われている最中に、ユーザが予め定められた操作を行った場合、アプリケーション401は、音声出力を途中で中止することとする。
図11を用いて、データ処理装置101が音声出力を中止する処理について説明する。
図11(a)、(b)の処理の開始の際には、S806、S808、S811、S812の何れかの処理で情報が音声出力されているとする。本実施形態では、アプリケーション401は、マルチスレッド処理により図8のフローチャートの処理と、図11(a)、(b)の何れかのフローチャートの処理と、を並列して実行することとする。
図11(a)のフローチャートの処理について説明する。
S1001において、アプリケーション401は、ボタン702が選択されたか否かを判定する。アプリケーション401は、ボタン702が選択されたと判定した場合、処理をS1002に進め、ボタン702が選択されていないと判定した場合、図11の処理を終了する。
S1002において、アプリケーション401は、S806、S808、S811、S812の何れかの処理で実行されている音声出力処理を中止するよう制御する。
S1003において、アプリケーション401は、印刷対象ファイルの印刷処理を実行するよう制御する。
Note that in any of the processes of S806, S808, S811, and S812, if the user performs a predetermined operation during the audio output of information, the application 401 outputs the audio midway. It will be canceled.
A process in which the data processing apparatus 101 stops the audio output will be described with reference to FIG. 11.
At the time of starting the processing of FIGS. 11A and 11B, it is assumed that information is output as voice by any of the processing of S806, S808, S811, and S812. In this embodiment, the application 401 executes the process of the flowchart of FIG. 8 and the process of the flowchart of FIG. 11A or 11B in parallel by the multithread process.
The process of the flowchart of FIG. 11A will be described.
In step S1001, the application 401 determines whether the button 702 has been selected. If the application 401 determines that the button 702 has been selected, the process advances to step S1002, and if it determines that the button 702 has not been selected, the process of FIG. 11 ends.
In step S1002, the application 401 controls so as to stop the audio output process executed in any of the processes of S806, S808, S811, and S812.
In step S1003, the application 401 controls to execute print processing of the print target file.

図11(b)のフローチャートの処理について説明する。
S1004において、アプリケーション401は、ボタン703が選択されたか否かを判定する。アプリケーション401は、ボタン703が選択されたと判定した場合、処理をS1005に進め、ボタン703が選択されていないと判定した場合、図11(b)の処理を終了する。
S1005において、アプリケーション401は、S806、S808、S811、S812の何れかの処理で実行されている音声出力処理を中止するよう制御する。
S1006において、アプリケーション401は、ディスプレイ215に、ファイル選択画面601を表示する。
以上の図11の処理により、データ処理装置101は、音声出力処理をキャンセルして、別の処理に進むことができる。
なお、本実施形態では、アプリケーション401は、印刷プレビュー画面701に移動したタイミング以外に、タッチパネル216へのユーザによるタップ操作を検知した場合に、S803〜S812の処理を実行することとする。これにより、タッチパネル216へのタップ操作に応じて、再度、印刷対象ファイルの解析情報が音声出力される。そのため、ユーザが、解析情報を聞き返したい場合に聞き返すことができるようになる。
The process of the flowchart of FIG. 11B will be described.
In step S1004, the application 401 determines whether the button 703 has been selected. If the application 401 determines that the button 703 has been selected, the process advances to step S1005, and if it determines that the button 703 has not been selected, the process of FIG. 11B ends.
In step S1005, the application 401 controls to stop the audio output process executed in any of the processes of S806, S808, S811, and S812.
In step S1006, the application 401 displays the file selection screen 601 on the display 215.
Through the processing in FIG. 11 described above, the data processing apparatus 101 can cancel the audio output processing and proceed to another processing.
In addition, in the present embodiment, the application 401 executes the processes of S <b> 803 to S <b> 812 when a tap operation by the user on the touch panel 216 is detected in addition to the timing of moving to the print preview screen 701. As a result, the analysis information of the print target file is again voice output in response to the tap operation on the touch panel 216. Therefore, when the user wants to hear back the analysis information, it can be heard back.

以上、本実施形態の処理により、データ処理装置101は、印刷対象ファイルの解析情報を、音声出力することで、ユーザに提供できる。これにより、視覚障がい者のユーザが、印刷するファイルが正しく選択されているか否かをより容易に判断することができるようになる。困難な場合がある。即ち、データ処理装置101は、印刷の際の視覚障がい者のユーザにとっての利便性を向上できる。   As described above, according to the processing of the present embodiment, the data processing apparatus 101 can provide the user with the analysis information of the print target file by voice output. This allows the visually impaired user to more easily determine whether or not the file to be printed is correctly selected. It can be difficult. That is, the data processing apparatus 101 can improve convenience for the visually impaired user at the time of printing.

<実施形態2>
実施形態1では、データ処理装置101が、印刷対象ファイルを解析してから解析情報を取得して、取得した解析情報を音声出力する処理について説明した。しかし、印刷対象ファイルの解析情報に含まれる文字数によっては、解析情報の音声出力に時間がかかってしまう。例えば、図12のような請求書の文書ファイルの印刷画像から取得された文字列を音声出力すると時間がかかり、ユーザの混乱を招く可能性がある。
そこで、本実施形態では、データ処理装置101が、印刷対象ファイルから、特定の解析情報を取得し、取得した特定の解析情報を音声出力する処理について説明する。
本実施形態では、データ処理装置101が、印刷対象ファイルから、特定の解析情報として、文書のタイトルを取得し、音声出力する。
本実施形態のデータ処理システムのシステム構成は、実施形態1と同様である。また、データ処理システムの各構成要素のハードウェア構成及び機能構成についても、実施形態1と同様である。
<Embodiment 2>
In the first embodiment, the processing in which the data processing apparatus 101 analyzes the print target file, acquires the analysis information, and outputs the acquired analysis information by voice has been described. However, depending on the number of characters included in the analysis information of the print target file, it takes time to output the analysis information by voice. For example, outputting a character string obtained from a print image of a document file of an invoice as shown in FIG. 12 takes time, which may cause confusion for the user.
Therefore, in the present embodiment, a process in which the data processing apparatus 101 acquires specific analysis information from a print target file and outputs the acquired specific analysis information by voice will be described.
In the present embodiment, the data processing apparatus 101 acquires the title of a document as specific analysis information from the file to be printed and outputs it as a voice.
The system configuration of the data processing system of this embodiment is the same as that of the first embodiment. Further, the hardware configuration and the functional configuration of each component of the data processing system are the same as in the first embodiment.

アプリケーション401は、解析部405を介して、印刷対象ファイルの印刷画像から文字属性情報1201を取得する。
図12の文書1101から取得される文字属性情報1201について説明する。図13は、文書1101から取得された文字属性情報1201の一例を示す図である。文字属性情報とは、文書内に含まれる文字列の属性を示す情報である。なお、図13の例では、文字属性情報1201は、XML形式となっているが、別の形式でもよい。例えば、文字属性情報1201は、解析部405内部でのみ使用される情報であるため、バイナリ形式でもよい。
例えば、文書1101内の文字列1102から、文字属性情報1201における要素1202の情報が取得される。
要素1202には、以下のように、「文字列(string)」、「文字サイズ(size)」、「文字位置(position)」、「タイプ(type)」の項目が含まれる。図13の例では、「文字列(string)」は、Invoiceである。また、「文字サイズ(size)」は、24である。また、「文字位置(position)」は、対応する文字列に外接する文字枠1103の左上の座標[20、10]と右下の座標[100、34]とである。また、「タイプ(type)」は、Textである。「タイプ(type)」の項目は、例えば、表内のデータである場合、Tableとなる。タイプは必要に応じて種類が増減されることとしてもよい。
The application 401 acquires the character attribute information 1201 from the print image of the print target file via the analysis unit 405.
The character attribute information 1201 acquired from the document 1101 of FIG. 12 will be described. FIG. 13 is a diagram showing an example of the character attribute information 1201 acquired from the document 1101. The character attribute information is information indicating the attribute of the character string included in the document. Note that in the example of FIG. 13, the character attribute information 1201 is in the XML format, but another format may be used. For example, since the character attribute information 1201 is information used only inside the analysis unit 405, it may be in a binary format.
For example, the information of the element 1202 in the character attribute information 1201 is acquired from the character string 1102 in the document 1101.
The element 1202 includes items of "character string (string)", "character size (size)", "character position (position)", and "type (type)" as described below. In the example of FIG. 13, the “character string (string)” is Invoice. The “character size (size)” is 24. The “character position” is the upper left coordinate [20, 10] and the lower right coordinate [100, 34] of the character frame 1103 circumscribing the corresponding character string. Also, the “type” is Text. The item of “type” is Table, for example, when the data is in a table. The types may be increased or decreased as necessary.

以下では、文字属性情報1201を取得する処理について説明する。
(印刷対象ファイルが画像ファイル又は画像のみを含むPDFファイルである場合)
アプリケーション401は、印刷対象ファイルに対して、図8のS809で説明した領域分割処理を実行することで、印刷対象ファイルの印刷画像内の文字領域を特定する。そして、アプリケーション401は、特定した文字領域それぞれについて、文字領域が表領域内に存在する場合、対応する文字列のタイプをTableとして、文字領域が表領域内に存在しない場合、対応する文字列のタイプをTextとして、取得する。
そして、アプリケーション401は、印刷画像内の各文字領域に対して文字認識処理を実行することで、各文字領域に対応する文字列と文字サイズとを取得する。
アプリケーション401は、取得したタイプ、文字列、文字サイズ、及び文字領域の位置情報を用いて、印刷対象ファイルの文字属性情報1201を作成する。アプリケーション401は、作成した文字属性情報1201を、記憶装置209に記憶する。しかし、アプリケーション401は、作成した文字属性情報1201を、記憶装置209に記憶せずに、RAM204に記憶してもよい。
The process of acquiring the character attribute information 1201 will be described below.
(When the file to be printed is an image file or a PDF file containing only images)
The application 401 identifies the character area in the print image of the print target file by performing the area division process described in S809 of FIG. 8 on the print target file. Then, for each of the specified character areas, the application 401 sets the type of the corresponding character string as Table when the character area exists in the table area, and when the character area does not exist in the table area, Get the type as Text.
Then, the application 401 acquires the character string and the character size corresponding to each character area by performing the character recognition process on each character area in the print image.
The application 401 creates the character attribute information 1201 of the print target file using the acquired type, character string, character size, and position information of the character area. The application 401 stores the created character attribute information 1201 in the storage device 209. However, the application 401 may store the created character attribute information 1201 in the RAM 204 instead of storing it in the storage device 209.

(印刷対象ファイルが文字コードを含むPDFファイルである場合)
印刷対象ファイルが、文字コードを含むPDFの場合、印刷対象ファイル内に文字列、文字サイズ、文字位置の情報が含まれている。そのため、アプリケーション401は、印刷対象ファイルから、それらの情報を取得する。
PDFフォーマットの仕様では、表というオブジェクトの定義は無い。そのため、PDFファイル内のある文字列が、表内の文字列か否かを、単純にPDFファイル内の情報から判断できない。ただし、ドキュメント構造タグにより、表内の文字列が定義されていれば、アプリケーション401は、このドキュメント構造タグから、PDFファイル内の文字列が、表内の文字列か否かを判定できる。そして、アプリケーション401は、判定結果に基づいて、印刷画像内の文字列のタイプを取得する。
また、ドキュメント構造タグにより、表内の文字列が定義されていない場合、アプリケーション401は、印刷対象ファイルを一旦画像に変換して、変換後の画像に対して領域分割処理を行うことで、印刷画像内の各文字列が表内の文字列か否かを判定する。そして、アプリケーション401は、判定結果に基づいて、印刷画像内の文字列のタイプを取得する。
(When the file to be printed is a PDF file containing a character code)
When the print target file is a PDF including a character code, the print target file includes information about a character string, a character size, and a character position. Therefore, the application 401 acquires such information from the print target file.
The PDF format specification does not define a table object. Therefore, it cannot be simply determined from the information in the PDF file whether a certain character string in the PDF file is a character string in the table. However, if the character string in the table is defined by the document structure tag, the application 401 can determine whether the character string in the PDF file is the character string in the table from the document structure tag. Then, the application 401 acquires the type of the character string in the print image based on the determination result.
Further, when the character string in the table is not defined by the document structure tag, the application 401 converts the print target file into an image once, and performs area division processing on the converted image to print. It is determined whether each character string in the image is a character string in the table. Then, the application 401 acquires the type of the character string in the print image based on the determination result.

以上の処理により、アプリケーション401は、解析部405を介して、印刷対象ファイルの文字属性情報1201を作成する。
続いて、文字属性情報1201の情報を元に、文書のタイトルを示す文字列を取得し、取得した文字列を音声出力する処理について説明する。
処理の概要として、アプリケーション401が文字属性情報1201内の複数の<data>要素の中から、以下の条件α、βを満たす文字列情報を探索する処理である。
条件α:印刷画像内で、相対的に上側、左側に位置する文字列である。
条件β:印刷画像内で、相対的にフォントサイズが大きい文字列である。
条件α、βは、文書内のタイトルは、文書内で上側、左側に位置し、かつ、フォントサイズも他の文字列よりも大きい、との仮定に基づく条件である。
Through the above processing, the application 401 creates the character attribute information 1201 of the print target file via the analysis unit 405.
Next, a process of acquiring the character string indicating the title of the document based on the information of the character attribute information 1201 and outputting the acquired character string by voice will be described.
The outline of the process is a process in which the application 401 searches the plurality of <data> elements in the character attribute information 1201 for character string information that satisfies the following conditions α and β.
Condition α: a character string located relatively on the upper side and the left side in the print image.
Condition β: a character string having a relatively large font size in the print image.
The conditions α and β are conditions based on the assumption that the title in the document is located on the upper side and the left side in the document and the font size is larger than that of other character strings.

図14は、本実施形態のデータ処理装置101の処理の一例を示すフローチャートである。図14を用いて、データ処理装置101が、文字属性情報1201の情報を元に、文書のタイトルを示す文字列を取得し、取得した文字列を音声出力する処理について説明する。
S1301において、アプリケーション401は、解析部405を介して、PDFファイルである印刷対象ファイル内に、タイトルの情報が含まれているか否かを判定する。印刷対象ファイル内にアクセシビリティ情報として、タイトルが定義された情報が含まれる場合がある。そこで、アプリケーション401は、解析部405を介して、印刷対象ファイルのドキュメント構造タグ(StructTreeRoot)内から、タイトルとして定義されている構造要素を探索する。アプリケーション401は、探索できた場合、処理をS1302に進め、探索できなかった場合、処理をS1303に進める。
本実施形態では、アプリケーション401は、印刷対象ファイルのドキュメント構造タグ(StructTreeRoot)内から、タイトルとして定義されている構造要素を探索することで、タイトルの情報を探索することとした。しかし、アプリケーション401は、印刷対象ファイルのドキュメント構造タグ(StructTreeRoot)内から、タイトルとして定義されている構造要素を探索しないこととしてもよい。例えば、印刷対象ファイル内にメタデータとして、タイトルの情報が含まれる場合がある。そこで、アプリケーション401は、印刷対象ファイルのメタデータから、タイトルを示すメタデータを探索することとしてもよい。
FIG. 14 is a flowchart showing an example of processing of the data processing device 101 of this embodiment. A process in which the data processing apparatus 101 acquires a character string indicating the title of a document based on the information of the character attribute information 1201 and outputs the acquired character string by voice will be described with reference to FIG. 14.
In step S1301, the application 401 determines, via the analysis unit 405, whether the print target file, which is a PDF file, includes title information. Information that defines a title may be included as accessibility information in the file to be printed. Therefore, the application 401 searches the document structure tag (StructureTreeRoot) of the file to be printed for a structural element defined as a title via the analysis unit 405. If the application 401 can be searched, the process proceeds to step S1302, and if the application cannot be searched, the process proceeds to step S1303.
In the present embodiment, the application 401 searches for the title information by searching for the structural element defined as the title in the document structure tag (StructureTreeRoot) of the print target file. However, the application 401 may not search for the structural element defined as the title in the document structure tag (StructureTreeRoot) of the print target file. For example, title information may be included as metadata in the print target file. Therefore, the application 401 may search the metadata of the print target file for the metadata indicating the title.

S1302において、アプリケーション401は、OS410が提供するスクリーンリーダ機能と協働してS1301で探索したタイトルの情報を、マイク・スピーカ214のスピーカを介して、音声出力する。
S1303において、アプリケーション401は、解析部405を介して、印刷対象ファイルから文字属性情報1201を作成する。
S1304において、アプリケーション401は、解析部405を介して、S1303で作成した文字属性情報1201内の<data>要素のうち、文書内における上側の領域として予め定められた領域内に存在する<data>要素を抽出する。本実施形態では、印刷画像に表される文書の領域をy方向に3分割した場合の最上部の領域を、文書内における上側の領域として予め定められた領域とする。また、文書内における上側の領域として予め定められた領域は、文書の領域をy方向に3分割した場合の最上部の領域に限定されない。例えば、文書内における上側の領域として予め定められた領域は、文書の領域をy方向に5分割した場合の最上部の領域であってもよい。
例えば、文書の下側にロゴがあり、ロゴの形によっては、サイズの大きい文字列と判定されてしまう場合がある。このような文字列を、文書のタイトルとして取得しないようにするために、アプリケーション401は、S1304の処理を行う。
In step S1302, the application 401 outputs the information of the title searched in step S1301 as a voice through the speaker of the microphone / speaker 214 in cooperation with the screen reader function provided by the OS 410.
In step S1303, the application 401 creates the character attribute information 1201 from the print target file via the analysis unit 405.
In step S1304, the application 401, via the analysis unit 405, exists in the area defined in advance as the upper area in the document among the <data> elements in the character attribute information 1201 created in step S1303. Extract the element. In the present embodiment, the uppermost area in the case where the area of the document represented by the print image is divided into three in the y direction is the area determined in advance as the upper area in the document. Further, the predetermined area as the upper area in the document is not limited to the uppermost area when the area of the document is divided into three in the y direction. For example, the predetermined region as the upper region in the document may be the uppermost region when the document region is divided into five in the y direction.
For example, there is a logo on the lower side of the document, and it may be determined that the character string has a large size depending on the shape of the logo. In order not to acquire such a character string as the title of the document, the application 401 performs the process of S1304.

S1305において、アプリケーション401は、解析部405を介して、S1304で抽出した<data>要素のうち、フォントサイズが最も大きい<data>要素を全て抽出する。
S1306において、アプリケーション401は、解析部405を介して、S1304で抽出した<data>要素のうち、以下のような<data>要素を抽出する。即ち、アプリケーション401は、S1305で抽出した<data>要素に対応するフォントサイズとのサイズ差が、予め定められた閾値(例えば、0.5p、1p等)以下であるフォントサイズの<data>要素を全て抽出する。
文字認識によるフォントサイズの特定処理は、精度が100%ではない場合がある。そのため、フォントサイズが実際のサイズと比べて、0.5〜1.0pほどずれて特定される場合が生じうる。そこで、アプリケーション401は、そのような場合に対応して、S1306の処理を実行する。
In step S1305, the application 401 extracts all the <data> elements having the largest font size from the <data> elements extracted in step S1304 via the analysis unit 405.
In step S1306, the application 401 extracts the following <data> element from the <data> elements extracted in step S1304 via the analysis unit 405. That is, the application 401 has a font size <data> element whose size difference from the font size corresponding to the <data> element extracted in S1305 is less than or equal to a predetermined threshold value (for example, 0.5p, 1p, etc.). To extract all.
The accuracy of the font size specifying process by character recognition may not be 100%. Therefore, the font size may be specified by being displaced by 0.5 to 1.0 p from the actual size. Therefore, the application 401 executes the process of S1306 in response to such a case.

S1307において、アプリケーション401は、解析部405を介して、S1305とS1306とで抽出した<data>要素中から、もっとも左上に位置する<data>要素の文字列を、タイトルを示す文字列として取得する。より具体的には、アプリケーション401は、各<data>要素の「文字位置(position)」が示す文字枠の左上の座標値を取得する。そして、アプリケーション401は、取得した座標値のうち、対応するx座標値とy座標値との和が最も小さい座標値を特定する。アプリケーション401は、特定した座標値に対応する<data>要素を、最も左上に存在する文字列を示す<data>要素として特定する。アプリケーション401は、特定した<data>要素に対応する文字列を、タイトルを示す文字列として取得する。
S1308において、アプリケーション401は、OS410が提供するスクリーンリーダ機能と協働してS1307で取得した文字列を、マイク・スピーカ214のスピーカを介して音声出力する。
In step S1307, the application 401 obtains, through the analysis unit 405, the character string of the <data> element located at the upper left as the character string indicating the title from the <data> elements extracted in steps S1305 and S1306. . More specifically, the application 401 acquires the upper left coordinate value of the character frame indicated by the “character position (position)” of each <data> element. Then, the application 401 identifies the coordinate value having the smallest sum of the corresponding x coordinate value and y coordinate value among the acquired coordinate values. The application 401 specifies the <data> element corresponding to the specified coordinate value as the <data> element indicating the character string that exists at the upper left. The application 401 acquires the character string corresponding to the specified <data> element as the character string indicating the title.
In step S1308, the application 401 outputs the character string acquired in step S1307 in cooperation with the screen reader function provided by the OS 410 via the speaker of the microphone / speaker 214.

なお、本実施形態では、アプリケーション401は、印刷対象ファイルに対応する文書のタイトルを示す文字列を1つだけ取得することとした。しかし、タイトルの候補が複数ある場合に対応するため、アプリケーション401は、印刷対象ファイルに対応する文書のタイトルを示す文字列を複数取得してもよい。その場合、アプリケーション401は、S1307で、S1305とS1306とで抽出した<data>要素中から、各<data>要素の「文字位置(position)」が示す文字枠の左上の座標値を取得する。そして、アプリケーション401は、取得した座標値のうち、対応するx座標値とy座標値との和が、予め定められた閾値以下の座標値を複数特定する。アプリケーション401は、特定した座標値それぞれに対応する<data>要素を、タイトルを示す文字列を示す<data>要素として特定する。アプリケーション401は、特定した複数の<data>要素に対応する複数の文字列を、タイトルを示す文字列として取得することとなる。そして、アプリケーション401は、OS410が提供するスクリーンリーダ機能と協働して特定した複数の文字列を音声出力する。
また、本実施形態では、アプリケーション401は、タイトルに相当する文字列を、音声出力の対象となる特定の文字列として取得した。しかし、アプリケーション401は、他の種類の文字列を音声出力の対象となる文字列として取得してもよい。例えば、アプリケーション401は、印刷画像から抽出した文字列に基づき要約を作成し、作成した要約を、音声出力の対象となる文字列として取得してもよい。なお、アプリケーション401は、公知の要約アルゴリズムを用いることで、印刷画像から抽出した文字列から要約を作成できる。アプリケーション401は、例えば、各文のグラフ表現におけるベクトルの類似度に基づき重要な文を抽出するLexRank等のアルゴリズムを用いることができる。また、アプリケーション401は、外部のクラウドサーバ等と連携して要約を作成することとしてもよい。
In this embodiment, the application 401 acquires only one character string indicating the title of the document corresponding to the print target file. However, since there is a plurality of title candidates, the application 401 may acquire a plurality of character strings indicating the title of the document corresponding to the print target file. In this case, in step S1307, the application 401 acquires the coordinate values at the upper left of the character frame indicated by the “character position (position)” of each <data> element from the <data> elements extracted in steps S1305 and S1306. Then, the application 401 specifies a plurality of coordinate values in which the sum of the corresponding x coordinate value and y coordinate value is equal to or less than a predetermined threshold value among the acquired coordinate values. The application 401 identifies the <data> element corresponding to each of the identified coordinate values as the <data> element indicating the character string indicating the title. The application 401 will acquire a plurality of character strings corresponding to the identified plurality of <data> elements as a character string indicating a title. Then, the application 401 outputs the plurality of specified character strings by voice in cooperation with the screen reader function provided by the OS 410.
Further, in the present embodiment, the application 401 acquires the character string corresponding to the title as the specific character string that is the target of audio output. However, the application 401 may acquire another type of character string as a character string that is the target of voice output. For example, the application 401 may create a summary based on the character string extracted from the print image, and acquire the created summary as a character string that is a target of voice output. The application 401 can create a summary from the character string extracted from the print image by using a known summary algorithm. The application 401 can use, for example, an algorithm such as LexRank that extracts important sentences based on the degree of vector similarity in the graph representation of each sentence. Further, the application 401 may create an abstract in cooperation with an external cloud server or the like.

以上、本実施形態の処理により、データ処理装置101は、印刷対象ファイルが指定された際に、印刷画像に対応する文書に関する特定の情報のみ音声出力できる。これにより、視覚障がい者のユーザは、より容易に、印刷対象ファイルの内容を確認することができる。   As described above, according to the processing of the present embodiment, when the file to be printed is designated, the data processing apparatus 101 can output only specific information regarding the document corresponding to the print image by voice. This allows the visually impaired user to more easily confirm the content of the print target file.

<実施形態3>
数値のみの文字列と表内の文字列とについては、音声で読み上げられても分かりづらく、かえって混乱を招く可能性があった。
そこで、本実施形態では、データ処理装置101が数値のみの文字列と表内の文字列とを、音声出力させないように制御する処理について説明する。
本実施形態のデータ処理システムのシステム構成は、実施形態1と同様である。また、データ処理システムの各構成要素のハードウェア構成及び機能構成についても、実施形態1と同様である。
<Embodiment 3>
As for the character strings containing only numerical values and the character strings in the table, it was difficult to understand even when read aloud, and there was a possibility of causing confusion.
Therefore, in the present embodiment, a process will be described in which the data processing apparatus 101 controls a character string having only numerical values and a character string in the table so as not to output a voice.
The system configuration of the data processing system of this embodiment is the same as that of the first embodiment. Further, the hardware configuration and the functional configuration of each component of the data processing system are the same as in the first embodiment.

図15は、本実施形態のデータ処理装置101の処理の一例を示すフローチャートである。本実施形態では、印刷対象ファイルは、文書の画像を示す画像ファイルであるとする。
本実施形態では、データ処理装置101は、図14のフローチャートのS1301〜S1303と同様の処理を実行する。データ処理装置101は、S1303の処理を実行した後に、図15の処理を実行する。
S1501において、アプリケーション401は、解析部405を介して、S1303で作成した文字属性情報1201に含まれる<data>要素の中で、タイプがTableのものを削除する。
S1502において、アプリケーション401は、解析部405を介して、文字属性情報1201に含まれる<data>要素の中で、予め定められた種類の文字を含まない文字列をもつ<data>要素を削除する。本実施形態では、予め定められた種類の文字は、ひらがな、カタカナ、漢数字を除く漢字、アルファベットであるとする。これにより、アプリケーション401は、アラビア数字、漢数字等の数値のみで構成されるような文字列をもつ<data>要素を削除できる。
S1503において、アプリケーション401は、マイク・スピーカ214のスピーカを介して、文字属性情報1201に残っている<data>要素の文字列を音声出力する。
FIG. 15 is a flowchart showing an example of processing of the data processing apparatus 101 of this embodiment. In the present embodiment, the print target file is an image file showing an image of a document.
In the present embodiment, the data processing apparatus 101 executes the same processing as S1301 to S1303 in the flowchart of FIG. The data processing apparatus 101 executes the processing of S1303 and then the processing of FIG.
In step S1501, the application 401 deletes, via the analysis unit 405, the <data> element included in the character attribute information 1201 created in step S1303, of the type Table.
In step S1502, the application 401 deletes, through the analysis unit 405, a <data> element having a character string that does not include a character of a predetermined type among the <data> elements included in the character attribute information 1201. . In the present embodiment, it is assumed that the predetermined types of characters are hiragana, katakana, kanji excluding kanji and alphabets. As a result, the application 401 can delete the <data> element having a character string that is composed only of numerical values such as Arabic numerals and Chinese numerals.
In step S1503, the application 401 outputs the character string of the <data> element remaining in the character attribute information 1201 by voice through the speaker of the microphone / speaker 214.

本実施形態では、印刷対象ファイルは、文書の画像を示す画像ファイルであるとした。しかし、印刷対象ファイルは、文書の画像をコンテンツとして含むPDFファイルであるとしてもよい。その場合、データ処理装置101は、印刷対象ファイルは、文書の画像を示す画像ファイルである場合と同様の処理を実行する。
また、印刷対象ファイルは、文字列をコンテンツとして含むPDFファイルであるとしてもよい。その場合、データ処理装置101は、印刷対象ファイルにコンテンツとして含まれる文字列を取得し、取得した文字列から、表に格納される文字列と、予め定められた種類の文字を含まない文字列と、を除いた文字列を音声出力する。
In the present embodiment, the print target file is an image file showing an image of a document. However, the print target file may be a PDF file including the image of the document as content. In that case, the data processing apparatus 101 executes the same process as when the print target file is an image file showing an image of a document.
Further, the print target file may be a PDF file including a character string as content. In that case, the data processing apparatus 101 acquires a character string included in the print target file as content, and based on the acquired character string, a character string stored in a table and a character string that does not include a character of a predetermined type. The character string excluding and is output as voice.

以上、本実施形態では、データ処理装置101は、表に含まれている文字列、又は、数値のみで構成されているような文字列を音声出力しないように制御した。これにより、ユーザが混乱してしまう可能性を低減できる。   As described above, in the present embodiment, the data processing apparatus 101 controls so that the character strings included in the table or the character strings that are composed only of numerical values are not output by voice. This can reduce the possibility of user confusion.

<その他の実施形態>
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読み出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
<Other embodiments>
The present invention supplies a program that implements one or more functions of the above-described embodiments to a system or apparatus via a network or a storage medium, and one or more processors in a computer of the system or apparatus read and execute the program. It can also be realized by the processing. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.

例えば、上述したデータ処理システムの機能構成の一部又は全てをハードウェアとしてデータ処理装置101等に実装してもよい。
以上、本発明の実施形態の一例について詳述したが、本発明は係る特定の実施形態に限定されるものではない。例えば、上述した各実施形態を任意に組み合わせる等してもよい。
For example, part or all of the functional configuration of the data processing system described above may be implemented as hardware in the data processing device 101 or the like.
Although one example of the embodiment of the present invention has been described in detail above, the present invention is not limited to the specific embodiment. For example, the above-described embodiments may be arbitrarily combined.

101 データ処理システム
202 CPU
101 data processing system 202 CPU

Claims (15)

スクリーンリーダ機能が有効に設定され、かつ、印刷対象ファイルが指定された場合、前記印刷対象ファイルの解析情報を取得する取得手段と、
前記取得手段により取得された前記解析情報を音声出力するよう制御する制御手段と、
を有する情報処理装置。
An acquisition means for acquiring analysis information of the print target file when the screen reader function is enabled and the print target file is designated;
Control means for controlling to output the analysis information acquired by the acquisition means by voice;
Information processing device having a.
前記取得手段は、前記スクリーンリーダ機能が有効に設定され、かつ、ユーザによる入力部へのタップ操作を介して前記印刷対象ファイルが指定された場合、前記解析情報を取得する請求項1記載の情報処理装置。   The information according to claim 1, wherein the acquisition unit acquires the analysis information when the screen reader function is enabled and the print target file is designated through a tap operation on the input unit by a user. Processing equipment. 前記取得手段は、前記印刷対象ファイル内の予め定められた領域にアクセシビリティ向上に用いられるアクセシビリティ情報が含まれる場合、前記アクセシビリティ情報に基づいて、前記解析情報を取得する請求項1又は2記載の情報処理装置。   The information according to claim 1 or 2, wherein the acquisition unit acquires the analysis information based on the accessibility information when accessibility information used for accessibility improvement is included in a predetermined area in the print target file. Processing equipment. 前記取得手段は、前記印刷対象ファイルのコンテンツデータに文字列が含まれる場合、前記文字列を前記解析情報として取得する請求項1又は2記載の情報処理装置。   The information processing apparatus according to claim 1, wherein the acquisition unit acquires the character string as the analysis information when the content data of the print target file includes a character string. 前記取得手段は、前記印刷対象ファイルに対応する文書の、タイトルを示す前記文字列を前記解析情報として取得する請求項4記載の情報処理装置。   The information processing apparatus according to claim 4, wherein the acquisition unit acquires, as the analysis information, the character string indicating a title of a document corresponding to the print target file. 前記取得手段は、表に含まれていない前記文字列を前記解析情報として取得する請求項4又は5記載の情報処理装置。   The information processing apparatus according to claim 4, wherein the acquisition unit acquires the character string not included in a table as the analysis information. 前記取得手段は、予め定められた種類の文字を含む前記文字列を前記解析情報として取得する請求項4乃至6何れか1項記載の情報処理装置。   7. The information processing apparatus according to claim 4, wherein the acquisition unit acquires the character string including characters of a predetermined type as the analysis information. 前記印刷対象ファイルの認識を前記情報処理装置のオペレーティングシステム又はクラウドサービスに依頼する依頼手段を更に備え、
前記取得手段は、前記依頼の応答として得られた認識処理の結果を示す情報を、前記解析情報として取得する請求項1又は2記載の情報処理装置。
Further comprising requesting means for requesting the recognition of the file to be printed to the operating system or cloud service of the information processing device,
The information processing apparatus according to claim 1, wherein the acquisition unit acquires, as the analysis information, information indicating a result of recognition processing obtained as a response to the request.
前記取得手段は、前記認識処理の結果として、前記印刷対象ファイルに含まれる画像の認識結果を示す文字列、前記印刷対象ファイルに含まれる文書の要約を示す文字列のうち、何れかを取得する請求項8記載の情報処理装置。   The acquisition unit acquires, as a result of the recognition processing, one of a character string indicating a recognition result of an image included in the print target file and a character string indicating a summary of a document included in the print target file. The information processing apparatus according to claim 8. 前記取得手段は、前記印刷対象ファイルに対応する文書の、印刷画像に含まれる文字列を前記解析情報として取得する請求項1又は2記載の情報処理装置。   The information processing apparatus according to claim 1, wherein the acquisition unit acquires, as the analysis information, a character string included in a print image of a document corresponding to the print target file. 前記取得手段は、前記印刷対象ファイルに対応する文書の、タイトルを示す前記文字列を前記解析情報として取得する請求項10記載の情報処理装置。   The information processing apparatus according to claim 10, wherein the acquisition unit acquires, as the analysis information, the character string indicating a title of a document corresponding to the print target file. 前記取得手段は、前記タイトルを示し、かつ、表に含まれない前記文字列を前記解析情報として取得する請求項11記載の情報処理装置。   The information processing apparatus according to claim 11, wherein the acquisition unit acquires the character string that indicates the title and is not included in a table as the analysis information. 前記取得手段は、予め定められた種類の文字を含む前記文字列を前記解析情報として取得する請求項11又は12記載の情報処理装置。   The information processing apparatus according to claim 11 or 12, wherein the acquisition unit acquires the character string including characters of a predetermined type as the analysis information. 情報処理装置が実行する情報処理方法であって、
スクリーンリーダ機能が有効に設定され、かつ、印刷対象ファイルが指定された場合、前記印刷対象ファイルの解析情報を取得する取得ステップと、
前記取得ステップで取得された前記解析情報を音声出力するよう制御する制御ステップと、
を含む情報処理方法。
An information processing method executed by an information processing device, comprising:
An acquisition step of acquiring analysis information of the print target file when the screen reader function is enabled and a print target file is designated;
A control step of controlling to output the analysis information acquired in the acquisition step by voice;
Information processing method including.
コンピュータを、請求項1乃至13何れか1項記載の情報処理装置の各手段として、機能させるためのプログラム。   A program for causing a computer to function as each unit of the information processing apparatus according to claim 1.
JP2018191996A 2018-10-10 2018-10-10 Apparatus and method for information processing, and program Pending JP2020060963A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018191996A JP2020060963A (en) 2018-10-10 2018-10-10 Apparatus and method for information processing, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018191996A JP2020060963A (en) 2018-10-10 2018-10-10 Apparatus and method for information processing, and program

Publications (1)

Publication Number Publication Date
JP2020060963A true JP2020060963A (en) 2020-04-16

Family

ID=70220052

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018191996A Pending JP2020060963A (en) 2018-10-10 2018-10-10 Apparatus and method for information processing, and program

Country Status (1)

Country Link
JP (1) JP2020060963A (en)

Similar Documents

Publication Publication Date Title
EP3024213B1 (en) Image scanning apparatus and method for controlling the same
US8726178B2 (en) Device, method, and computer program product for information retrieval
JP5733907B2 (en) Image processing apparatus, image processing method, and computer program
US10270934B2 (en) Image processing apparatus and image forming apparatus
JP4502385B2 (en) Image processing apparatus and control method thereof
JP2008052372A (en) Image processor, handwritten information recognition method and handwritten information recognition program
JP7262993B2 (en) Image processing system, image processing method, image processing apparatus
US9614984B2 (en) Electronic document generation system and recording medium
KR20240020719A (en) Information processing apparatus, storage medium, and storing method
US11132122B2 (en) Handwriting input apparatus, handwriting input method, and non-transitory recording medium
US8355577B2 (en) Image processing apparatus and method
JP2006093917A (en) Image reading apparatus and image processor, and image forming apparatus
US10638001B2 (en) Information processing apparatus for performing optical character recognition (OCR) processing on image data and converting image data to document data
JP6358471B2 (en) Image forming apparatus
JP6601143B2 (en) Printing device
JP2020060963A (en) Apparatus and method for information processing, and program
JP2014211747A (en) Image processing apparatus, terminal device, and information processing method and program
JP6205973B2 (en) Change history output device, program
JP2018036794A (en) Image processing device and program
US20150363679A1 (en) Information processing apparatus and computer-readable non-transitory recording medium with image processing program stored thereon
JP6827839B2 (en) Image forming apparatus, control method of image forming apparatus, and program
JP2010105191A (en) Image processing apparatus
JP2016192060A (en) Server program, information management method, and server device
JP2020025218A (en) Image processing apparatus and image processing program
KR20130020072A (en) Image forming apparatus and control method thereof